regression与线性回归(linear regression)
线性回归(linear regression):
- 有监督学习 => 学习样本为D={(xi,yi)}ª
- 输出/预测的结果yi为连续值变量
- 需要学习映射f:x~y
- 假定输入x和输出y之间有线性相关关系
损失函数(loss function)
我们要找到最好的权重/参数Θ
怎么去衡量“最好”? 定义损失函数
最小化损失函数 梯度下降(Gradient descend)
逐步最小化损失函数的过程
如同下山,找准方向(斜率),每次迈进一小步,直至山底
找到合适的学习率(步长),再进行训练,否则特征多,样本的多的情况下成本会很大的。
数学和工程区别是工程找到大致可用的就可以了,数学是找打最优解。
特征的工作,耗时很多。
工业界最多的解决的是分类问题。
线性回归不适合做分类,不够坚定,受噪声影响大。
用得到的y值划定阈值来分类
逻辑回归:把负无穷到正无穷压缩到0~1之间(可以看作概率域分布)
常用sigmoid函数映射
把线性回归转变成分类问题,找出一条判定边界
线性的判定边界
本站文章如无特殊说明,均为本站原创,如若转载,请注明出处:机器学习中分类问题 - Python技术站