机器学习

  • 机器学习:梯度下降和delta法则

    梯度下降   利用感知器法则的要求是必须训练样本是线性可分的,当样例不满足这条件时,就不能再收敛,为了克服这个要求,引出了delta法则,它会收敛到目标概念的最佳近似! delta法则的关键思想是利用梯度下降(gradient descent)来搜索可能的权向量的假设空间,以找到最佳拟合训练样例的权向量。   简单的理解,就是训练一个无阈值的感知器,也就是一…

    2023年4月9日
    00
  • 机器学习:感知器(perceptron)

      感知器以一个实数值向量作为输入,计算这些输入的线性组合,然后如果结果大于某个阈值就输出1 ,否则输出-1 。 更精确地,如果输入为x,那么感知器计算的输出为: 其中每一个w i 是一个实数常量,或叫做权值(weight ),用来决定输入xi 对感知器输出的贡献率。 请注意,常量(w0) 是一个阈值,它是为了使感知器输出 1 ,输入的加权和w1x1+w2x…

    2023年4月9日
    00
  • 机器学习入门之sklearn介绍

    SKlearn简介 scikit-learn,又写作sklearn,是一个开源的基于python语言的机器学习工具包。它通过NumPy, SciPy和Matplotlib等python数值计算的库实现高效的算法应用,并且涵盖了几乎所有主流机器学习算法。 SKlearn官网链接:http://scikit-learn.org/stable/index.html…

    2023年4月9日
    00
  • 机器学习中调参的基本思想是什么

      我发现大多数的机器学习相关的书都是遍历各种算法和案例,为大家讲解各种各样算法的原理和用途,但却对调参探究甚少。这中间有许多原因,其一是因为,调参的方式总是根据数据的状况而定,所以没有办法一概而论;其二是因为,其实大家也都没有特别好的办法。   通过画学习曲线,或者网格搜索,我们能够探索到调参边缘(代价可能是训练一次模型要跑三天三夜),但是在现实中,高手调…

    2023年4月9日
    00
  • Coursera机器学习week2 笔记

    Multiple Features  之前学的是“单变量线性回归”,明显一个问题不可能只有一个特征,现在增加特征数量变成“多变量线性回归”。 下面对一些符号进行定义: n:特征的数量 m:训练数据的数量 x(i):训练集中的第i的数据 x(i)j:第i个数据的第j个特征 y(i):第i个数据的标签(输出结果) y^(i):第i个数据的预测结果 h(x):预测…

    2023年4月9日
    00
  • Coursera机器学习week4 笔记

    Non-linear hypotheses 我们之前学到的,无论是线性回归还是逻辑回归都有一个缺点,当特征太多时,计算负荷会非常的大。 如下: 只有x1和x2,但运用多次项进行预测时,我们的方程可以很好的预测。使用非线性的多项式能够帮助我们建立更好的分类模型。 例如我们有很多的特征,100个变量,用这100个特征构建一个非线性的多项式模型,结果将是非常大的特…

    2023年4月9日
    00
  • Coursera机器学习week1 笔记

    What is machine learning? 实际上,即使是在机器学习的专业人士中,也不存在一个被广泛认可的定义来准确定义机器学习是什么或不是什么,本课程中给出了两个定义 1:Arthur Samuel (1959). Machine Learning: Field of study that gives computers the ability t…

    2023年4月9日
    00
  • Coursera机器学习week1 单元测试

    考察机器学习的定义,由Tom Mitchell 提出的。答案是A 考察监督学习的类型,预测明天的温度,由于是一个连续的值,故选A 考察监督学习的类型,预测是否赢得专利侵权诉讼,答案就两个“YES”和“NO”,是一个离散值,故选B 哪些选项适合使用监督学习。 1、根据1000名医疗病人对实验药物的反应(如治疗效果、副作用等)的数据,发现患者对药物的反应是否有不…

    2023年4月9日
    00
  • Coursera机器学习week2 编程作业

    warmUpExercise.m A = eye(5); plotData.m plot(x, y, ‘rx’, ‘MarkerSize’, 10); ylabel(‘Profit in $10,000s’); xlabel(‘Population of City in 10,000s’); gradientDescent.m plot(x, y, ‘rx’…

    机器学习 2023年4月9日
    00
  • Coursera机器学习week3 单元测试

    概率计算,选AD C中J(θ)将减小,D中只能在0至1之间,故选AB 选AC,A中z应为x,应该是打印错误,B和D中是线性回归的 选AC B对于每一个类有要做一个分类器,D由于使用代价函数为线性回归代价函数,会有很多局部最优值 计算题 X1 – 6 >0 时为1,选,B Week2 || Regularization 选C  加入λ会让θ变小 选A 选…

    2023年4月9日
    00
合作推广
合作推广
分享本页
返回顶部