深度学习
-
深度学习识别CIFAR10:pytorch训练LeNet、AlexNet、VGG19实现及比较(三)
版权声明:本文为博主原创文章,欢迎转载,并请注明出处。联系方式:460356155@qq.com VGGNet在2014年ImageNet图像分类任务竞赛中有出色的表现。网络结构如下图所示: 同样的,对32*32的CIFAR10图片,网络结构做了微调:删除了最后一层最大池化,具体参见网络定义代码,这里采用VGG19,并加入了BN: 1 ”’ 2 创建VGG…
-
深度学习中卷积层和pooling层的输出计算公式(转)
原文链接:https://blog.csdn.net/yepeng_xinxian/article/details/82380707 1.卷积层的输出计算公式class torch.nn.Conv2d(in_channels, out_channels, kernel_size, stride=1, padding=0, dilation=1, groups…
-
深度学习文献代码阅读-超分辨(ESRGAN)
ESRGAN是在SRGAN基础上进行增强的网络, 在2018年的比赛中获得了冠军 Introduction 介绍了基于PSNR指标获得的超分辨图像其结果会较为平滑,且与人们的主观有较大的差别 作者针对SRGAN提出了…
-
深度学习方法:受限玻尔兹曼机RBM(三)模型求解,Gibbs sampling
欢迎转载,转载请注明:本文出自Bin的专栏blog.csdn.net/xbinworld。 技术交流QQ群:433250724,欢迎对算法、技术、应用感兴趣的同学增加。 接下来重点讲一下RBM模型求解方法。其有用的依旧是梯度优化方法,可是求解须要用到随机採样的方法。常见的有:Gibbs Sampling和对照散度(contrastive divergence…
-
深度学习中Embedding的理解
一、总结 一句话总结: Embedding就是把高维的one-hot进行降维的过程。 1、Embedding的概念引入? 1)、一维列表也不行,二维稀疏矩阵也不行,怎么办呢?这里就引入了Embedding的概念,由密集向量表示,实现降维! 2)、“并不是每个单词都会被一个向量来代替,而是被替换为用于查找嵌入矩阵中向量的索引” 3)、同时训练神经网络时…
-
深度学习中,交叉熵损失函数为什么优于均方差损失函数
一、总结 一句话总结: A)、原因在于交叉熵函数配合输出层的激活函数如sigmoid或softmax函数能更快地加速深度学习的训练速度 B)、因为反向传播过程中交叉熵损失函数得到的结果更加简洁,无论sigmoid或softmax,可以定量分析。 1、常见的损失函数为两种? 一种是均方差函数,另一种是交叉熵函数。 二、深入理解交叉熵函数及其在ten…
-
2-10 是否要使用端到端的深度学习?
假设你正在搭建一个机器学习系统,你要决定是否使用端对端方法,我们来看看端到端深度学习的一些优缺点,这样你就可以根据一些准则,判断你的应用程序是否有希望使用端到端方法。 优点: 端到端学习真的只是让数据说话。所以如果你有足够多的(x, y)数据,那么不管从x到y最适合的函数映射是什么,如果你训练一个足够大的神经网络,希望这个神经网络能自己搞清楚,而使用纯机器学…
-
2-9 什么是端到端的深度学习?
端到端学习到底是什么呢?简而言之, 以前有一些数据处理系统或者学习系统,它们需要多个阶段的处理。那么端到端深度学习就是忽略所有这些不同的阶段,用单个神经网络代替它。 以语音识别为例,你的目标是输入x,比如说一段音频,然后把它映射到一个输出y,就是这段音频的听写文本。所以和这种有很多阶段的流水线相比,端到端深度学习做的是,你训练一个巨大的神经网络,输入就是一段…
-
深度学习笔记之使用Faster-Rcnn进行目标检测 (实践篇)
我使用的代码是Python版本的Faster Rcnn,官方也有Matlab版本的,链接如下: py-faster-rcnn(python) faster-rcnn(matlab) 环境配置 按照官方的README进行配置就好,不过在这之前大家还是看下硬件要求吧 For training smaller networks (Z…
-
深度学习笔记之关于特征(二) 深度学习笔记之概述、背景和人脑视觉机理(一)
不多说,直接上干货! 前期博客 四、关于特征 特征是机器学习系统的原材料,对最终模型的影响是毋庸置疑的。如果数据被很好的表达成了特征,通常线性模型就能达到满意的精度。那对于特征,我们需要考虑什么呢? 4.1、特征表示的粒度 学习算法在一个什么粒度上的特征表示,才有能发挥作用?…