深度学习为什么如此受欢迎?都有哪些优点?

本文将从以下三个方面进行分析:

  • 什么是深度学习?
  • 深度学习的发展历程都有哪些?
  • 深度学习为什么不用支持向量机呢?

什么是支持向量机?

支持向量机(SVM)是一种有监督的机器学习算法,可用于分类或回归问题。它使用一种称为内核技巧的技术来转换数据,然后基于这些转换找到可能输出之间的最佳边界。“核”一词在数学中用来表示加权和或积分的加权函数。支持向量机是一种判别分类器,形式上由分离超平面定义。

深度学习为什么如此受欢迎?都有哪些优点?

支持向量机的优化问题具有凸性,保证了支持向量机的全局最优解。

深度学习为什么如此受欢迎?都有哪些优点?

支持向量机是非参数模型,因此,随着训练样本数量的增加,复杂性也随之增加。计算成本与类的数量成线性增长。

2006年之前,支持向量机是机器学习的最佳通用算法。2006年,辛顿提出了深度学习和神经网络。

通常,支持向量机在处理特征数量远远大于观察数量的数据集时会遇到困难。深度学习可以克服这些限制。

“深度学习”中的“深度”指的是数据转换所经过的层数。与经典神经网络相比,深度学习具有大量的层。更多的层捕获更多的统计不变性。此外,深玻尔兹曼机是通用逼近器。在深度学习中,每个层次学习将其输入数据转换为稍微更抽象和复合的表示。

深度学习神经网络通常是通过使用迭代的、基于梯度的优化器来训练的,它只会将代价函数驱动到一个非常低的值,而不是用于训练线性回归模型的线性方程求解器,或用于训练逻辑回归或支持向量机的具有全局收敛保证的凸优化算法。

训练神经网络的经典方法是使用反向传播(一种专门用于神经网络的梯度下降方法)最小化(正则化)损失。现代版本的反向传播依赖于随机梯度下降(SGD)来有效地逼近海量数据集的梯度。

最近,受限玻尔兹曼机(rbm)被用于所谓的基于能量模型的深度神经网络。rbm在协同过滤中取得了最先进的性能。在深度学习体系结构中,能量的概念被用作衡量模型质量的度量。

深度学习的发展历程都有哪些?

2012年在解决ImageNet挑战方面的戏剧性突破被广泛认为是2010年代深度学习革命的开始。ImageNet项目是一个设计用于视觉对象识别软件研究的大型视觉数据库。

2012年,深度学习网络AlexNet赢得了ImageNet挑战。
深度学习算法变得更加流行。AlexNet是一个经过ImageNet训练的深度CNN,它的表现超过了当年所有的条目。该网络由5个转换层、最大池化层、辍学层和最后3个完全连接层组成。AlexNet使用ReLU处理非线性函数,他们发现这样可以减少训练时间,因为ReLU比使用tanh函数要快得多。

2013年,深度学习获得MICCAI 2013年有丝分裂检测挑战赛冠军。
深度学习为什么如此受欢迎?都有哪些优点?

2015年,微软ResNet(深度残差网络)赢得了ImageNet挑战。微软ResNet有152层。

深度学习为什么如此受欢迎?

为什么深度学习如此受欢迎,主要有五个原因:

  • 深度学习网络可以在大规模并行图形处理器(gpu)上高效地实现。

  • 它们很容易实现。

  • 深度学习网络可以处理大量的数据

  • 深度学习网络可以在一个模型中进行特征提取和分类。

  • 随着越来越多的数据和计算能力变得可用,深度学习的使用将会增加。

本站文章如无特殊说明,均为本站原创,如若转载,请注明出处:深度学习为什么如此受欢迎?都有哪些优点? - Python技术站

(0)
上一篇 2022年11月10日 下午1:25
下一篇 2022年12月5日 下午8:03

相关文章

  • Mxnet速查_CPU和GPU的mnist预测训练_模型导出_模型导入再预测_导出onnx并预测

    需要做点什么 方便广大烟酒生研究生、人工智障炼丹师算法工程师快速使用mxnet,所以特写此文章,默认使用者已有基本的深度学习概念、数据集概念。 系统环境 python 3.7.4mxnet 1.9.0mxnet-cu112 1.9.0onnx 1.9.0onnxruntime-gpu 1.9.0 数据准备 MNIST数据集csv文件是一个42000×785的…

    深度学习 2023年4月12日
    00
  • 动手学深度学习 | 双向循环神经网络 | 59

    目录 双向循环神经网络 代码 QA 双向循环神经网络 双向LSTM非常不适合做推理,基础是不能用在预测下一个词。 Bi-RNN的作用主要是对一个句子做特征提取,比如做翻译, 给句子A翻译句子B,那么可以对句子A使用Bi-RNN去双向的看它。 代码 这里代码不会讲具体实现,但是其实很简单,前向的隐藏层就正常进行运算。反向的怎么实现呢?首先把reverse(in…

    2023年4月6日
    00
  • 基于深度学习的目标检测算法综述(从R-CNN到Mask R-CNN)

    深度学习目标检测模型全面综述:Faster R-CNN、R-FCN和SSD 从RCNN到SSD,这应该是最全的一份目标检测算法盘点 基于深度学习的目标检测算法综述(一) 基于深度学习的目标检测算法综述(二) 基于深度学习的目标检测算法综述(三) 自从2012年的ILSVRC竞赛中基于CNN的方法一鸣惊人之后,CNN已成为图像分类、检测和分割的神器。其中在图像…

    2023年4月6日
    00
  • CNN卷积神经网络的改进(15年最新paper)

    回归正题,今天要跟大家分享的是一些 Convolutional Neural Networks(CNN)的工作。 大家都知道,CNN 最早提出时,是以一定的人眼生理结构为基础,然后逐渐定下来了一些经典的架构——convolutional 和 pooling 的交替,最后再加上几个 fully-connected layers 用作最后做 prediction…

    2023年4月8日
    00
  • 目标检测从入门到精通—SPP-Net详细解析(三)

    SPP-Net网络结构分析 Author:Mr. Sun   Date:2019.03.18   Loacation: DaLian university of technology 论文名称:《Spatial Pyramid Pooling in Deep Convolutional Networks for Visual Recognition》 摘要:…

    2023年4月6日
    00
  • 目标检测论文解读5——YOLO v1

    背景   之前热门的目标检测方法都是two stage的,即分为region proposal和classification两个阶段,本文是对one stage方法的初次探索。 方法        首先看一下模型的网络结构,输入的原图片,经过24个卷积层提取特征,全连接层输出一个7*7*30的tensor,这个tensor里面就包含我们预测的结果了。   那…

    2023年4月8日
    00
  • 初识RNN循环神经网络、Seq2Seq、Attention机制

    本文主要是利用图片的形式,详细地介绍了经典的RNN、RNN几个重要变体,以及Seq2Seq模型、Attention机制。希望这篇文章能够提供一个全新的视角,帮助初学者更好地入门。 Table of Contents 一、从单层网络谈起 二、N vs N(RNN经典结构) 三、N VS 1(类别判断) 四、1 VS N(生成模型) 五、N vs M(Seq2S…

    2023年4月8日
    00
  • tensorflow2.x模型保存问题

    Saving the model to HDF5 format requires the model to be a Functional model or a Sequential model. It does not work for subclassed models, because such models are defined via the b…

    tensorflow 2023年4月6日
    00

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注

评论列表(1条)

合作推广
合作推广
分享本页
返回顶部