深度学习
-
深度学习-三个概念:Epoch, Batch, Iteration
原文地址深度学习 | 三个概念:Epoch, Batch, Iteration 参考学习做笔记 在训练神经网络的时候,我们会看到Batch、Epoch和Iteration这几个概念。名词解释: 名词 定义 Epoch 使用训练集的全部数据对模型进行一次完整的训练,被称之为“一代训练” Batch 使用训练集中的一小部分样本对模型权重进行一次反向传播的参数更新…
-
人工智能——深度学习介绍
AI系统需要具备自己获取知识的能力,即从原始数据中提取模式的能力,这种能力被称为机器学习。 一个称为逻辑回归的简单机器学习算法可以可以决定是否跑妇产,这种能力被称为逻辑回归。 区分垃圾电子邮件和合法电子邮件,这种能力的算法是朴素贝叶斯算法。 这些简单的机器学习算法的性能在很大程度上依赖于给定数据的表示。 表示学习算法的…
-
深度学习基础–Bottleneck(瓶颈) Architectures
ResNet的核心内容之一,即“Deeper Bottleneck Architectures”(简称DBA),一言概之,bottleneck是一种特殊的残差结构。 Resnet论文里的原图如上(即Bottleneck V1 ),左图是普通的残差结构,右图是瓶颈结构。具体而言,block的输入和输出channel_num是一样的(上右图中是256,左…
-
深度学习笔记 目标函数的总结与整理 model.compile(loss=’categorical_crossentropy’,optimizer=sgd,metrics=[‘accuracy’])
keras model.compile(loss=’目标函数 ‘, optimizer=’adam’, metrics=[‘accuracy’]) 目标函数,或称损失函数,是网络中的性能函数,也是编译一个模型必须的两个参数之一。由于损失函数种类众多,下面以keras官网手册的为例。 在官方keras.io里面,有如下资料: mean_squared_…
-
深度学习检测视频马赛克
数据集二分类 第一类1000张, 第二类600张 1. darknet + resnet50 Loss,训练出来测试的时候是NULL, 暂时不知道为什么, 将CUDA-10.0 换成 cuda-8.0 依然显示不出label Loss 也是3.8 2. darknet + alexnet Loss = 3.8 , 3…
-
干货分享!深度学习几何画板绘图技巧!
随着科技的进步,传统化的教育教学方式已经很难适应现代化的教学进程,而现代化的教学方式要求使用多媒体教学,向学生们展示教学知识,相关的辅助工具软件就显得尤为的重要。将几何画板运用于教学中,是符合新型教学模式要求的。它作为一种新的认知工具的独特优势,这是任何传统的教学手段和模型所无法替代的,并且具有良好的教学效果,在未来一定能得到广泛的使用。下面就让小编来给大家…
-
CS294-112 深度强化学习 秋季学期(伯克利)NO.1 Introduction NO.2 Supervised learning and imitation
前面弄错了,应该看2017的秋季课,结果看了春季课了。 neural network control a…
-
深度学习-初始化权重矩阵
1.初始化权重矩阵为0 对于每个隐含层节点,输出的结果都是一样的。另外,进行梯度下降时,由于偏导一样,因此不断迭代,不断一样,不断迭代,不断一样..多层神经网络表现的跟线性模型一样,不可取! 2.随机初始化权重矩阵 (1)标准正态分布 np.random.rand(size_l,size_l-1) 可能导致梯度下降或者梯度爆炸的问题 (2)启发式…
-
神经网络和深度学习(二)浅层神经网络
1、计算神经网络的输出(正向传播): 矩阵表示: 向量化: 2、多个样本的向量化(正向传播): 3、激活函数: (1)sigmoid函数仅用于二分分类的情况,较少使用; a = 1 / (1 + e-z) g'(z) = g(z) * (1 – g(z)) (2)tanh函数绝大多数情况下优于sigmoid函数; a = (ez – e-z…
-
深度学习常见的优化方法(Optimizer)总结:Adam,SGD,Momentum,AdaGard等
原文:https://www.cnblogs.com/GeekDanny/p/9655597.html 基础知识: 机器学习几乎所有的算法都要利用损失函数 lossfunction 来检验算法模型的优劣,同时利用损失函数来提升算法模型. 这个提升的过程就叫做优化(Optimizer) 下面这个内容主要就是介绍可以用来优化损失函数的常用方法 常用的优化方法(O…