机器学习

  • 2.2 Multinomial variables多项变量的分布_PRML模式识别与机器学习读书笔记

    2.2 Multinomial variables多项变量的分布     考虑多项变量即K个互斥变量(可能取值),使用1-of-K方式表示为K维向量x,其中某个向量xk=1,且其他向量=0。例如某个变量发生,对应向量为x3,则x3=1 :              xk=1发生的概率为μk,那么x的分布为:              这里,且,该分布可以看作…

    机器学习 2023年4月11日
    00
  • HMS Core 机器学习服务打造同传翻译新“声”态,AI让国际交流更顺畅

    2022年6月,HMS Core机器学习服务面向开发者提供一项全新的开放能力——同声传译,通过AI语音技术减少资源成本,加强沟通交流,旨在帮助开发者制作丰富多样的同声传译应用。 HMS Core同声传译涵盖了机器学习服务的语音识别、翻译、语音合成等核心技术,首先把输入的实时语音转换成文字,然后再把文字翻译成另一种语言的文字,最后把翻译后的文字转换成语音播放。…

    机器学习 2023年4月11日
    00
  • 机器学习中强化学习与监督学习、无监督学习区别

    监督学习(Supervised learning): 监督学习即具有特征(feature)和标签(label)的,即使数据是没有标签的,也可以通过学习特征和标签之间的关系,判断出标签——分类。 简言之:提供数据,预测标签。比如对动物猫和狗的图片进行预测,预测label为cat或者dog。 通过已有的一部分输入数据与输出数据之间的对应关系,生成一个函数,将输入…

    机器学习 2023年4月11日
    00
  • 《python机器学习—预测分析核心算法》:理解数据

    参见原书2.1-2.2节 新数据集就像一个包装好的礼物,它充满了承诺和希望! 但是直到你打开前,它都保持神秘!     一、基础问题的架构、术语,机器学习数据集的特性   通常,行代表实例,列代表属性特征   属性,实例中用于预测的数据其他名称:预测因子 特征 独立变量 输入   标签,需要预测的数据其他名称:结果 目标 依赖变量 响应   2.1.1属性和…

    机器学习 2023年4月11日
    00
  • 《python机器学习—预测分析核心算法》:构建预测模型的一般流程

    参见原书1.5节 构建预测模型的一般流程 问题的日常语言表述->问题的数学语言重述重述问题、提取特征、训练算法、评估算法 熟悉不同算法的输入数据结构:1.提取或组合预测所需的特征2.设定训练目标3.训练模型4.评估模型在训练数据上的性能表现 机器学习:开发一个可以实际部署的模型的全部过程,包括对机器学习算法的理解和实际的操作 通常,有非常切实的原因,导…

    机器学习 2023年4月11日
    00
  • 《机器学习》西瓜书习题 第 1 章

    1.1   表 \(1.1\) 中若只包含编号为 \(1\) 和 \(4\) 的两个样例, 试给出相应的版本空间.   这应该不难理解吧,直接上表格. 编号 色泽 根蒂 敲声 好瓜 \(1\) 青绿 蜷缩 浊响 是 \(4\) 乌黑 稍蜷 沉闷 否 1.2   **与使用单个合取式来进行假设表示相比, 使用 “析合范式” 将使得假设空间具有更强的表示能力. …

    机器学习 2023年4月11日
    00
  • 山东大学 机器学习 实验报告 实验1 模式分类 上机练习

      作业:P64,2.5节,4:   考虑上机题2中的3个类别,设p(wi)=1/3 (a)以下各测试点与上机练习2中各类别均值间的Mahalanobis距离分别是多少: (1,2,1)t,(5,3,2)t,(0,0,0)t,(1,0,0)t (b)对以上各点进行分类。 (c)若设p(w1)=0.8,p(w2)=p(w3)=0.1,再对以上测试点进行分类。 …

    机器学习 2023年4月11日
    00
  • 《机器学习实战》之knn算法

      买了王斌老师翻译的《机器学习实战》一书,里面全是干货,既可以练python,又可以学习机器学习算法知识,挺不错的,学习一些东西这里分享下。   k-近邻算法(knn),它的核心思想就一句话,如果两个东西各方面属性都很相似,那么这两个东西属于同一类。k的意思是有很多东西和你要判断的东西相似(称作x),  那么找出和x各方面属性最相似的k个东西,如果这k个东…

    机器学习 2023年4月11日
    00
  • 机器学习训练模型的一般错误

    在我们构建完机器学习模型,经常会遇到训练得到模型无法正确预测,这之后我们往往会采取下面的一些方案: 增加训练数据 减少特征的个数 增加更多的特征 增加多项式特征(X1*X2 …) 增大lambda的值 减小lambda的值 若是不了解模型具体的问题所在,而根据随便拿出一个方案去试错,这往往都是既费力又费心,往往个把月过去了仍然在进行模型的调试。 CV 数…

    机器学习 2023年4月11日
    00
  • [机器学习]批归一化和层归一化

    批归一化 内部协变量偏移 内部协变量偏移ICS指的是深度神经网络在训练时,随着参数的不断更新,中间隐藏层的输入分布发生较大差异,导致网络需要不断的适应新的数据分布,进而增加了学习难度。[传统解决方案:较小的学习率、合适的初始化参数] 梯度饱和 sigmoid激活函数和tanh激活函数在输入值过大或者过小的情况下,会出现梯度值非常接近于0的情况,使得网络的收敛…

    机器学习 2023年4月11日
    00
合作推广
合作推广
分享本页
返回顶部