机器学习
-
Google机器学习笔记 4-5-6 分类器
转载请注明作者:梦里风林Google Machine Learning Recipes 4官方中文博客 – 视频地址Github工程地址 https://github.com/ahangchen/GoogleML欢迎Star,也欢迎到Issue区讨论 Recipes 4 Let’s Write a Pipeline 复习与强化概念 监督学习基础套路 例子: …
-
[机器学习]Bagging and Boosting
Bagging 和 Boosting 都是一种将几个弱分类器(可以理解为分类或者回归能力不好的分类器)按照一定规则组合在一起从而变成一个强分类器。但二者的组合方式有所区别。 一、Bagging Bagging的思想很简单,我选取一堆弱分类器用于分类,然后最终结果投票决定,哪个票数多就属于哪一类。不过Bagging的一个重要步骤就是在训练每一个…
-
[机器学习]决策树
决策树是简单的,易懂的,易实现的,同样也是强大的。 决策树本身是一连串的if-else的组合,其最关键的问题就是对于一个输入数据集我们应该怎么去寻找这个if-else规则。按照先贤们的分法主要有如下几种:ID3,C4.5,CART。本文也将介绍这三种决策树。 一、ID3 要想弄明白ID3决策树,我们必须先了解信息论的开创者——香农对信息是如何…
-
[机器学习]SVM原理
SVM是机器学习中神一般的存在,虽然自深度学习以来有被拉下神坛的趋势,但不得不说SVM在这个领域有着举足轻重的地位。本文从Hard SVM 到 Dual Hard SVM再引进Kernel Trick,然后推广到常用的Soft Kernel SVM。 一、Hard SVM SVM本身是从感知机算法演变而来,感知机算法是在一个线性可分的数据集中…
-
机器学习笔记—Logistic回归
本文申明:本系列笔记全部为原创内容,如有转载请申明原地址出处。谢谢 序言:what is logistic regression? Logistics 一词表示adj.逻辑的;[军]后勤学的n.[逻]数理逻辑;符号逻辑;[军]后勤学, “回归”是由英国著名生物学家兼统计学家高尔顿在研究人类遗传问题时提出来的。为了研究父代与子代身高的关系,高尔顿搜集了1078…
-
机器学习笔记——聚类介绍1
前言:hello,我是你们的好朋友小花,由于最近事情也比较忙,导师天天说要写一篇文章发表一下,正好我想写一篇关于聚类的,那我就用这篇博客来为我的论文理一理知识脉络吧。 1.1问题引入 最近美国大选终于落下了帷幕,川普以微弱优势击败希拉里老阿姨当选美国第46任总统,现在用大数据谈选举属于老生常谈了。川普得票率是51%,希拉里得票是49%,如果其中有2.0000…
-
机器学习笔记—-最小二乘法,局部加权,岭回归讲解
前情提要:关于logistic regression,其实本来这章我是不想说的,但是刚看到岭回归了,我感觉还是有必要来说一下。 一:最小二乘法 最小二乘法的基本思想:基于均方误差最小化来进行模型求解的方法。在线性回归中,最小二乘法就是试图找到一条直线,使所有样本到直线上的欧氏距离之和最小。就是说让你现在追一个女生,你希望女生喜欢你是f(xi),而女生喜欢你的…
-
机器学习笔记—-四大降维方法之PCA(内带python及matlab实现)
大家看了之后,可以点一波关注或者推荐一下,以后我也会尽心尽力地写出好的文章和大家分享。 本文先导:在我们平时看NBA的时候,可能我们只关心球员是否能把球打进,而不太关心这个球的颜色,品牌,只要有3D效果,看到球员扣篮的动作就可以了,比如下图: 如果我们直接对篮球照片进行几百万像素的处理,会有几千维甚至几万维的数据要计算,计算量很大。而往往我们只需要大概勾勒出…
-
机器学习实战——利用logistics回归预测病马死亡率
大家好久不见,实战部分一直托更,很不好意思。本文实验数据与代码来自机器学习实战这本书,倾删。 一:前期代码准备 1.1数据预处理 还是一样,设置两个数组,前两个作为特征值,后一个作为标签。当然这是简单的处理,实际开发中特征值都是让我们自己选的,所以有时候对业务逻辑的理解还是很重要的。 1.2 sigmoid函数设置 1.3固定步长梯度上升算法 这段代码见…
-
机器学习笔记—–牛顿法与拟牛顿法
提要:今天讲的牛顿法与拟牛顿法是求解无约束问题最优化方法的常用方法。 一 牛顿法 假设我们求下面函数的最小值: 假设f(x)具有连续的二阶的连续偏导数,假设第K次迭代值为xk的值,那么可将f(X)在xk附近进行二阶泰勒展开得到: 我们对上述公式求导可得: 假设其中可逆,我们就可以得到牛顿法的迭代公式为: 这样就可以得到牛顿法的迭代公式了。…