这些是最热门的机器学习技术!

在上文中我们已经了解了机器学习的原理,就是模仿人类大脑进行学习的过程,通过让机器模仿这种学习过程实现所谓的“智能”。

经过近几十年的发展,机器学习的方法也越来越成熟,主要有以下几种:

  • 监督学习
  • 无监督学习
  • 强化学习
  • 深度学习
  • 深度强化学习

机器学习方法

如上图所示,机器学习是从左往右的发展方向,每一阶段的学习方法都比上一代优秀了很多。
下面简单介绍这几种机器学习方法的工作原理。

监督学习

监督学习指的是让机器从现有的标注好的已知数据中学习预测模型的学习方法。

简单来说,先给定计算机一组标记好的数据,让计算机用回归或分类的方法计算出数据与标记之间的经验关系。

通过这种方式,计算机最终会得出一个预测模型,训练数据越多,预测模型越准确。

而所谓的“回归”和“分类”方法,是计算机的两种寻找规律的方式。具体如下:

回归方法
计算机通过给定的标记与数据之间的特征值,计算出标记与数据之间的经验关系。

这种方法最终得到的预测模型其实就是“经验关系”。当训练完成,你可以使用模型对未知数据进行预测,以此来测试计算机是否已经学习到了。

分类方法
分类方法指的是让计算机将性质相似的数据分类为一个组。这种方法得到的模型是一个分类器。
训练完成后,你可以使用未知数据让分类器进行分类,根据分类结果判断计算机的预测精度水平。
监督学习的方法包括:KNN、SVN等。

无监督学习

无监督学习是相对于监督学习来讲的,是对监督学习的升级版。

无监督学习指的是从无标注的数据集中学习预测模型的方法。

监督学习需要给计算机标记好的训练集,而无监督学习不需要人工标记训练集,计算机会根据现有的数据集的特征,自动对数据集进行分类。

无监督学习的方法有:聚类、K均值、PCA等

强化学习

强化学习与监督学习、无监督学习最大的区别,就是它不是一个分类任务。

强化学习训练时,需要环境给予反馈,以及对应具体的反馈值。通过反馈值告诉预测模型预测结果是“好”还是“坏”,然后通过外界的反馈结果调整预测模型。

深度学习

深度学习是无监督学习的一种,它模仿的是人类大脑神经网络。

常用的深度学习方法有深度神经网络、深度信念网络、递归神经网络和卷积神经网络等。

深度学习的概念源于人工神经网络的研究。含多隐层的多层感知器就是一种深度学习结构。深度学习通过组合低层特征形成更加抽象的高层表示属性类别或特征,以发现数据的分布式特征表示。

深度强化学习

深度学习具有较强的感知能力,但是缺乏一定的决策能力;而强化学习具有决策能力,对感知问题束手无策。因此,深度强化学习将深度学习和强化学习相结合,优势互补,为复杂系统的感知决策问题提供了解决思路。

该技术在机器人、视频游戏、金融和医疗领域取得了巨大成功。许多以前无法解决的问题现在通过创建DRL模型得到了解决。

本站文章如无特殊说明,均为本站原创,如若转载,请注明出处:这些是最热门的机器学习技术! - Python技术站

(0)
上一篇 2023年4月12日
下一篇 2022年11月12日

相关文章

  • 吴恩达机器学习笔记15-假设陈述(Hypothesis Representation)

      在分类问题中,要用什么样的函数来表示我们的假设呢?此前说过,希望我们的分类器的输出值在0 和1 之间,因 此,我们希望想出一个满足某个性质的假设函数,这个性质是它的预测值要在0 和1 之间。回顾在一开始提到的乳腺癌分类问题,我们可以用线性回归的方法求出适合数据的一条直线:   根据线性回归模型我们只能预测连续的值,然而对于分类问题,我们需要输出0 或1,…

    机器学习 2023年4月10日
    00
  • 机器学习笔记4:SVM支持向量积的推导过程

    内容来自:https://github.com/GreedyAIAcademy/Machine-Learning 最初 支持向量机的目的:找到一条好的分割线什么杨的分割线最好?有最大间隔的分割线最好。 推导过程 Support Vector是被选中用于计算的点,也就是距离分界线最近的几个点。 显然d1+d2=“向量(x1-x2)的模”*cosθ。根据向量内机…

    机器学习 2023年4月13日
    00
  • 机器学习 什么是监督学习和无监督学习

    机器学习主要分为 有监督学习 和 无监督学习 两种。接下来我详细的给大家介绍一下这两种方法的概念和区别。 监督学习 (supervised learning):通过已有的训练样本(即已知数据以及其对应的输出)来训练,从而得到一个最优模型,再利用这个模型将所有新的数据样本映射为相应的输出结果,对输出结果进行简单的判断从而实现分类的目的,那么这个最优模型也就具有…

    机器学习 2023年4月11日
    00
  • 机器学习-第二章

    经验误差与过拟合 错误率=\(\frac{分类错误的样本}{总样本数}\)精度=1-错误率学习器的实际预测输出与样本的真实输出之间的差异被称为“误差” 学习器在训练集上的误差为“训练误差”、在新样本上的误差为“泛化误差” 我们的目标是让学习器的泛化误差最小,而实际上因为新样本的不确定,我们只能尽可能地让学习器的训练误差最小。 过拟合是指学习器在通过训练集样本…

    机器学习 2023年4月10日
    00
  • 机器学习(1)

    前言 学习机器学习和数据挖掘的相关知识也有一段时间了,平时事情比较多也就懒得做笔记, 回忆起来,AndrewNg 在coursera上开设的机器学习课程受益匪浅,课程覆盖了机器学习的基础内容,深入浅出,把很多概念解释得很到位。以AndrewNg的课程为出发点,参考多本经典的教材,对经典的机器学习和数据挖掘的思想和算法进行总结回顾,一来是为了对自身学习做一个总…

    机器学习 2023年4月13日
    00
  • 机器学习模型评价指标之ROC 曲线、 ROC 的 AUC 和 投资回报率

    前文回顾: 机器学习模型评价指标之混淆矩阵 机器学习模型评价指标之Accuracy、Precision、Recall、F-Score、P-R Curve、AUC、AP 和 mAP 1. 基本指标 1.1 True Positive Rate(TPR) \(TPR = \frac{TP}{TP+FN}\) 中文:真正率、灵敏度、召回率、查全率。显然这个就是查准…

    机器学习 2023年4月11日
    00
  • 【机器学习】:Xgboost使用optuna进行调试参数

    代码如下: def objective(trial,data=data,target=target): train_x, test_x, train_y, test_y = train_test_split(data, target, test_size=0.15,random_state=42) param = { ‘tree_method’:’gpu_h…

    机器学习 2023年4月12日
    00
  • 数据分析训练-Pima印第安人数据集上的机器学习-分类算法(根据诊断措施预测糖尿病的发病)

    本文主要内容摘自 易悠 博主的 Pima印第安人数据集上的机器学习-分类算法(根据诊断措施预测糖尿病的发病)https://blog.csdn.net/yizheyouye/article/details/79791473在一些地方做了补充说明,便于小白理解。 数据集简介 该数据集最初来自国家糖尿病/消化/肾脏疾病研究所。 数据集的目标是基于数据集中包含的某…

    2023年4月10日
    00
合作推广
合作推广
分享本页
返回顶部