深度学习

  • 深度学习面试题15:卷积核需要旋转180度

      举例   结论   参考资料   在一些书籍和博客中所讲的卷积(一个卷积核和输入的对应位置相乘,然后累加)不是真正意义上的卷积。根据离散卷积的定义,卷积核是需要旋转180的。 按照定义来说,一个输入和一个卷积核做卷积操作的流程是: ①卷积核旋转180 ②对应位置相乘,然后累加 举例 下面这个图是常见的卷积运算图: 中间的卷积核,其实是已经旋转过180度的…

    深度学习 2023年4月12日
    00
  • 深度学习面试题21:批量归一化(Batch Normalization,BN)

      BN的由来   BN的作用   BN的操作阶段   BN的操作流程   BN可以防止梯度消失吗   为什么归一化后还要放缩和平移   BN在GoogLeNet中的应用   参考资料   BN的由来 BN是由Google于2015年提出,论文是《Batch Normalization_ Accelerating Deep Network Training …

    深度学习 2023年4月12日
    00
  • 深度学习面试题22:批量归一化在实践中的应用

      指数移动平均   BN在卷积网络中的使用   参考资料 假设已经训练好一个带有BN操作的卷积神经网络,但是在使用它预测时,往往每次只输入一个样本,那么经过该网络时,计算平均值和方差的意义就不大了,常采用的策略是计算训练阶段的平均值和方差的指数移动平均,然后在预测阶段使用它们作为BN操作时的平均值和方差。 指数移动平均 假设变量xt随时间t变化,按照以下规…

    深度学习 2023年4月12日
    00
  • 深度学习面试题19:1*1卷积核的作用

      举例   在Inception module上的应用   参考资料 可以减少计算量,可以增加非线性判别能力 举例 假设有1个高为30、宽为40,深度为200的三维张量与55个高为5、宽为5、深度为200的卷积核same卷积,步长=1,则结果是高为30、宽为40、深度为55的三维张量,如图所示: 该卷积过程的乘法计算量大约为5*5*200*30*40*55…

    深度学习 2023年4月12日
    00
  • 基于深度学习的目标检测算法综述(从R-CNN到Mask R-CNN)

    深度学习目标检测模型全面综述:Faster R-CNN、R-FCN和SSD 从RCNN到SSD,这应该是最全的一份目标检测算法盘点 基于深度学习的目标检测算法综述(一) 基于深度学习的目标检测算法综述(二) 基于深度学习的目标检测算法综述(三) 自从2012年的ILSVRC竞赛中基于CNN的方法一鸣惊人之后,CNN已成为图像分类、检测和分割的神器。其中在图像…

    深度学习 2023年4月12日
    00
  • 深度学习之目标检测与目标识别

    2020-09-21 参考:https://blog.csdn.net/qq_32241189/article/details/80573087     目前可以将现有的基于深度学习的目标检测与识别算法大致分为以下三大类:      ① 基于区域建议的目标检测与识别算法,如R-CNN, Fast-R-CNN, Faster-R-CNN;     ② 基于回归…

    深度学习 2023年4月12日
    00
  • 我在 B 站学习深度学习(生动形象,跃然纸上)

    我在 B 站学习深度学习(生动形象,跃然纸上) 视频地址:https://www.bilibili.com/video/av16577449/ tensorflow123http://tensorflow123.com

    深度学习 2023年4月12日
    00
  • 深度学习点云语义分割:CVPR2019论文阅读

    深度学习点云语义分割:CVPR2019论文阅读 Point Cloud Oversegmentation with Graph-Structured Deep Metric Learning 摘要 本文提出了一个新的超级学习框架,用于将三维点云过度分割为超点。本文将此问题转化为学习三维点的局部几何和辐射测量的深度嵌入,从而使物体边界呈现高对比度。嵌入计算使用…

    深度学习 2023年4月12日
    00
  • 深度学习中的激活函数与梯度消失

    转载请注明出处:http://www.cnblogs.com/willnote/p/6912798.html 前言 深度学习的基本原理是基于人工神经网络,信号从一个神经元进入,经过非线性的激活函数,传入到下一层神经元;再经过该层神经元的激活,继续往下传递,如此循环往复,直到输出层。正是由于这些非线性函数的反复叠加,才使得神经网络有足够的能力来抓取复杂的模式,…

    深度学习 2023年4月12日
    00
  • 训练深度学习网络时候,出现Nan是什么原因,怎么才能避免?——我自己是因为data有nan的坏数据,clear下解决

    from:https://www.zhihu.com/question/49346370   Harick     梯度爆炸了吧。 我的解决办法一般以下几条:1、数据归一化(减均值,除方差,或者加入normalization,例如BN、L2 norm等);2、更换参数初始化方法(对于CNN,一般用xavier或者msra的初始化方法);3、减小学习率、减小b…

    深度学习 2023年4月12日
    00
合作推广
合作推广
分享本页
返回顶部