人工智能、机器学习和深度学习有什么区别?

在大数据时代,人们往往被人工智能(AI)、机器学习(ML)、深度学习(DL)这一些热词轰炸。但不少人对这些词汇的含义以及之间的关系比较模糊,甚至混为一谈。

本章作为人工智能的第一章节,主要通过人工智能的发展历史和理论层面帮助大家更好的理解人工智能、机器学习、深度学习的含义,并理清三者之间的关系,希望对初学者有所帮助。

人工智能(Artificial Intelligence)

人工智能是个特别宽泛的概念。简单来说,能够让机器产生像人类一样的行为,就可以称为人工智能。

而人工智能的诞生还需要从计算机说起。

1946年,基于“图灵机”和“冯·诺依曼架构”等理论,成功诞生了第一台通用计算机。并且在此后以极快的速度发展,这鼓舞了科学家们,同时让很多科学家们开始思考另一个更伟大的梦想:能否让机器代替人类思考?

时间来到1950年,艾伦·图灵(英国数学家,计算机之父、人工智能之父)发表的一篇《计算机器与智能》的论文便对这一问题进行了深入的探讨。

在文中,关于“计算机是否能够思考”这一问题图灵给出了肯定的答案,并预判了来自数学、宗教、意识等各种领域的反驳观点,如数学界的哥德尔不完备定理、宗教的灵魂理论、意识层的情感理论等,以此证明了“让机器代替人类思考”的可行性。

人工智能、机器学习和深度学习有什么区别?

另外,图灵还提出了一个名为“图灵测试”的实验。实验的核心其实阐述的是图灵的一个观点,即:智能不应该由协调输出的内部过程定义,而是由输出的沟通来定义。也就是说,无论机器内部如何处理,只要机器表现出来的行为与人类一致(通过图灵测试),那么这台机器就是有智能的。

这一理论是大胆且反直觉的,并且在此后的半个多世纪对此论点的争论都没有停止过,赞同的人很多,不赞同的人也不少。比如中文房间思想实验,就极力地反驳了此论点的合理性。

这个时期的人工智能还处于理论阶段,直到1956年艾伦·图灵逝世两年后,几位计算机领域的科学家在达特茅斯会议上正式提出了Artificial Intelligence也就是人工智能这个概念,并由此发展成为一门学科。

达特茅斯会议参会科学家

达特茅斯会议参会科学家

最初的时候,科学家们热衷于制造一台可以像人类一样“思考”的机器,但历经无数次失败后,很快就意识到这个步子迈的太大了,容易扯着蛋,并在此后产生了3大人工智能学派(符号主义学派、连接主义学派、行为主义学派),尝试着从不同的道路上进行人工智能的探索。

经过半世纪以来起起伏伏的发展,现如今人工智能已经已经在图像处理、计算机视觉、自然语言处理等方面取得了一些突破,并且产生了实际的应用价值。而这些都涵盖在“人工智能”这个大领域里。

机器学习(Machine Learning)

机器学习是实现人工智能的其中一个方法。

人工智能可行性的理论问题解决以后,如何让机器“思考”成为了新的研究方向。这也意味着人工智能从“能不能做”发展到了“怎么做”阶段。而对于这一问题的探索,人工智能科学家们尝试了非常多的方法。

事实上,所有实现人工智能的方法,最根本的灵感来源都是来自于人类自身。接下来我们从人工智能的三大学派的发展中就可以看到这一点。

符号主义学派

人工智能的三大学派之一,符号主义学派,讲究的是基于人类大脑逻辑思维进行推理的智能模拟方法,主要研究的方向是人类的思维过程。他们试图将智能(主要是人类思维)形式化为计算机可理解的符号、规则和算法,从而实现用计算机模拟人类的智能行为。

其代表性成果是启发式程序,它证明了38条数学定理。此后基于此思想又搭建了一个专家系统。专家系统是一种程序,它能够从知识库和知识工程中推演出的逻辑规则解决某一特定领域的问题。

连接主义学派

连接主义学派,是基于人类大脑神经网络连接机制与学习算法的智能模拟方法,他们的研究包含两个方面,一方面是得益于脑科学的发展,通过学习脑神经网络的连接机制,形式化为了神经元模型(M-P模型)。另一方面基于神经元模型,发明了各种机器学习方法,从而让计算机能够模拟大脑的学习和训练过程。

现在火爆的源自机器学习的图像处理、自然语言处理技术的发展,归根结底都是基于连接主义学派的理论研究实现的。连接主义学派也是目前发展最好的一派。

行为主义学派

而另一大学派,行为主义学派认为:智能取决于感知和行为,取决于对外界复杂环境的适应。

它是基于“感知—行动”的行为智能模拟方法。也就是说,生物智能诞生的原因在于环境的影响。生物通过与环境及其他生物之间的互动,从而发展出越来越强的智能。

基于此理论思想,行为主义学派提出了无需知识表示、无需逻辑推理的智能行为观点。相对于智能内在的逻辑,他们对如何实现智能行为更感兴趣。在他们的眼中,只要机器能够具有和智能生物相同的行为,那它就是智能的。

行为主义学派注重结果,实用性很强。它的代表作有扫地机器人、波士顿机器人等。

人工智能、机器学习和深度学习有什么区别?

综上所述,机器学习只是人工智能探索道路上的一个方法,它的核心理论是通过大量数据的训练进行不断学习,然后根据学习成果对现实世界的事件做出决策。

“如何让机器学习”是机器学习的核心,其方法包括监督学习、无监督学习、深度学习、强化学习等方法,具体的算法有线性回归算法、支持向量机算法、近邻算法、决策树算法等。

深度学习(Deep Learning)

深度学习是机器学习的一种方法。

它之所以火爆,是因为相较于其他的机器学习方法它的效果更好。

它的算法主要有卷积神经网络、循环神经网络、递归神经网络、反向传播算法等。

总结

人工智能是一个大领域,也是一个目标。机器学习是通往人工智能必不可少的路径。深度学习是机器学习最好的方法,可以让走向人工智能的路途更加悠然。

另请阅读:

本站文章如无特殊说明,均为本站原创,如若转载,请注明出处:人工智能、机器学习和深度学习有什么区别? - Python技术站

(0)
上一篇 2023年5月16日
下一篇 2022年11月14日

相关文章

  • 机器学习常用性能指标总结

    序言 在机器学习中,性能指标(Metrics)是衡量一个模型好坏的关键,通过衡量模型输出y_predict 和 y_true之间的某种”距离”得出的。 性能指标往往是我们做模型时的最终目标,如准确率,召回率,敏感度等等,但是性能指标常常因为不可微分,无法作为优化的loss函数,因此采用如cross-entropy, rmse等“距离”可微函数作为优化目标,以…

    机器学习 2023年4月11日
    00
  • 基于深度学习的人脸识别系统系列(Caffe+OpenCV+Dlib)——【六】设计人脸识别的识别类

    前言 基于深度学习的人脸识别系统,一共用到了5个开源库:OpenCV(计算机视觉库)、Caffe(深度学习库)、Dlib(机器学习库)、libfacedetection(人脸检测库)、cudnn(gpu加速库)。 用到了一个开源的深度学习模型:VGG model。 最终的效果是很赞的,识别一张人脸的速度是0.039秒,而且最重要的是:精度高啊!!! CPU:…

    2023年4月8日
    00
  • keras数据增强

    1、keras数据增强:https://www.cnblogs.com/hutao722/p/10075150.html   2 、keras fit 中的 verbose verbose:日志显示verbose = 0 为不在标准输出流输出日志信息verbose = 1 为输出进度条记录verbose = 2 为每个epoch输出一行记录注意: 默认为 1…

    Keras 2023年4月8日
    00
  • 目标检测(七)YOLOv3: An Incremental Improvement

    项目地址 Abstract       该技术报告主要介绍了作者对 YOLOv1 的一系列改进措施(注意:不是对YOLOv2,但是借鉴了YOLOv2中的部分改进措施)。虽然改进后的网络较YOLOv1大一些,但是检测结果更精确,运行速度依然很快。在输入图像分辨率为320*320时,YOLOv3运行耗时22ms,mAP达到28.2,这和SSD一样精确,但是速度比…

    目标检测 2023年4月7日
    00
  • 机器学习之杂乱笔记

    https://tensorflow.google.cn/tutorials/representation/word2vec   暂时我们使用 vanilla 定义,将“上下文”定义为目标字词左侧和右侧的字词窗口 通过噪声对比训练进行扩展 神经概率语言模型一直以来都使用最大似然率 (ML) 原则进行训练,以最大限度地提高使用 softmax 函数根据之前的字…

    机器学习 2023年4月13日
    00
  • win7 配置微软的深度学习caffe

    官方下载: https://github.com/Microsoft/caffe 然后 直接修改caffe目录下的windows目录下的项目的props文件配置支持哪些特性,然后直接打开vs的项目编译即可完成,怎一个爽字了得(nuget自动处理依赖问题) (1)注意修改python的绑定为true, (2)matlab的绑定为true, (3)usecudn…

    深度学习 2023年4月12日
    00
  • 使用horovod构建分布式深度学习框架

      最近一直在尝试着分布式深度学习的架构,主要的原因一方面是几台机子全是1060卡,利用深度网络在较大数据样本上训练的效率极其低下,所以尝试着将几台机子做成分布式,看看能否提高训练效率;第二方面是有人习惯使用tensorflow,有人习惯使用keras,也有人喜欢使用pytorch等,虽然这些框架各自都有分布式的实现,但总的来说不能统一到一个平台上,造成使用…

    2023年4月10日
    00
  • Deep Learning 3_深度学习UFLDL教程:预处理之主成分分析与白化_总结(斯坦福大学深度学习教程)

    1PCA     ①PCA的作用:一是降维;二是可用于数据可视化; 注意:降维的原因是因为原始数据太大,希望提高训练速度但又不希望产生很大的误差。     ② PCA的使用场合:一是希望提高训练速度;二是内存太小;三是希望数据可视化。     ③用PCA前的预处理:(1)规整化特征的均值大致为0;(2)规整化不同特征的方差值彼此相似。     对于自然图片,…

    2023年4月10日
    00

评论列表(1条)

合作推广
合作推广
分享本页
返回顶部