机器学习
-
赛灵思机器学习套件(ML Suite) v1.4 DPU, DNNK
https://mp.weixin.qq.com/s/ngWlOyVFqVaQ0aX8xltJyQ 赛灵思机器学习套件(ML Suite) v1.4 已于 5 月 24 日发布,主要更新功能包括: DECENT 量化器的集成 xfDNN Runtime API 已升级,可支持多输出网络 简单易用的增强功能 支持 Docker 镜像 支持 Caffe 的自定义…
-
机器学习常用性能指标总结
序言 在机器学习中,性能指标(Metrics)是衡量一个模型好坏的关键,通过衡量模型输出y_predict 和 y_true之间的某种”距离”得出的。 性能指标往往是我们做模型时的最终目标,如准确率,召回率,敏感度等等,但是性能指标常常因为不可微分,无法作为优化的loss函数,因此采用如cross-entropy, rmse等“距离”可微函数作为优化目标,以…
-
机器学习python实战—-线性回归
一、纲要 线性回归的正规方程解法 局部加权线性回归 二、内容详述 1、线性回归的正规方程解法 线性回归是对连续型的数据进行预测。这里讨论的是线性回归的例子,对于非线性回归先不做讨论。这部分内容我们用的是正规方程的解法,理论内容在之前已经解释过了,正规方程为θ = (XT·X)-1·XT·y。值得注意的是这里需要对XT·X求逆矩阵,因此这个方程…
-
机器学习python实战—-手写数字识别
看了上一篇内容之后,相信对K近邻算法有了一个清晰的认识,今天的内容——手写数字识别是对上一篇内容的延续,这里也是为了自己能更熟练的掌握k-NN算法。 我们有大约2000个训练样本和1000个左右测试样本,训练样本所在的文件夹是trainingDigits,测试样本所在的文件夹是testDigits。文本文件中是0~9的数字,但是是用二值图表示出来的,如图…
-
『原创』机器学习算法的R语言实现(一):KNN
KNN是有监督的学习算法,其特点有: 1、精度高,对异常值不敏感 2、只能处理数值型属性 3、计算复杂度高(如已知分类的样本数为n,那么对每个未知分类点要计算n个距离) KNN算法步骤: 需对所有样本点(已知分类+未知分类)进行归一化处理。 然后,对未知分类的数据集中的每个样本点依次执行以下操作: 1、计算已知类别数据集中的点与当前点(未知分类)的距离。…
-
『原创』机器学习算法的R语言实现(三):朴素贝叶斯分类器
http://www.cnblogs.com/digging4/p/3884385.html 1、引子 朴素贝叶斯方法是一种使用先验概率去计算后验概率的方法,其中朴素的意思实际上指的是一个假设条件,后面在举例中说明。本人以为,纯粹的数学推导固然有其严密性、逻辑性的特点,但对我等非数学专业的人来说,对每一推导步骤的并非能透彻理解,我将从一个例子入手,类似于应用…
-
机器学习:PLA
国庆期间的作业: * 了解掌握线性感知机算法(PLA)的基本原理和算法流程,并使用PLA来解决一个实际的分类问题。 数据集介绍: data1.csv —— 维度为100×3,包含100个样本,前两列是数据特征,最后一列是输出标签label。该数据集线性可分。 线性可分,采用PLA 线性不可分:采用Pocket Learning Algorithm…
-
机器学习常用损失函数
https://zhuanlan.zhihu.com/p/776861188 1.Loss Function、Cost Function 和 Objective Function 的区别和联系 损失函数 Loss Function 通常是针对单个训练样本而言,给定一个模型输出 和一个真实 ,损失函数输出一个实值损失 代价函数 Cost Function 通常…
-
机器学习总结(八)决策树ID3,C4.5算法,CART算法
本文主要总结决策树中的ID3,C4.5和CART算法,各种算法的特点,并对比了各种算法的不同点。 决策树:是一种基本的分类和回归方法。在分类问题中,是基于特征对实例进行分类。既可以认为是if-then规则的集合,也可以认为是定义在特征空间和类空间上的条件概率分布。 决策树模型:决策树由结点和有向边组成。结点一般有两种类型,一种是内部结点,一种是叶节点。内部结…
-
机器学习实战——支持向量机(svm)转载
找到一个讲机器学习的好博客!!写的真的很6,看了写的svm,条理清晰!!http://blog.csdn.net/zouxy09/article/details/17291543 将数据利用一个分隔超平面分隔开来,使得再被分隔开来的数据具有特定的分类。如果数据点在一个二维平面上,那么这个分隔超平面就是一条直线。想要把两堆数据分隔开来,存在许多条直线,那么哪一…