深度学习
-
深度强化学习——连续动作控制DDPG、NAF
一、存在的问题 DQN是一个面向离散控制的算法,即输出的动作是离散的。对应到Atari 游戏中,只需要几个离散的键盘或手柄按键进行控制。 然而在实际中,控制问题则是连续的,高维的,比如一个具有6个关节的机械臂,每个关节的角度输出是连续值,假设范围是0°~360°,归一化后为(-1,1)。若把每个关节角取值范围离散化,比如精度到0.01,则一个关节有200个取…
-
复现深度强化学习论文经验之谈
近期深度强化学习领域日新月异,其中最酷的一件事情莫过于 OpenAI 和 DeepMind 训练智能体接收人类的反馈而不是传统的奖励信号。本文作者认为复现论文是提升机器学习技能的最好方式之一,所以选择了 OpenAI 论文《Deep Reinforcement Learning from Human Preferences》作为 target,虽获得最后成功…
-
详解 Facebook 田渊栋 NIPS2017 论文:深度强化学习研究的 ELF 平台
这周,机器学习顶级会议 NIPS 2017 的论文评审结果已经通知到各位论文作者了,许多作者都马上发 Facebook/Twitter/Blog/ 朋友圈分享了论文被收录的喜讯。大家的熟人 Facebook 人工智能研究院研究员田渊栋也有一篇论文入选,论文名为「ELF: An Extensive, Lightweight and Flexible Resea…
-
深度强化学习方向论文整理
一. 开山鼻祖DQN 1. Playing Atari with Deep Reinforcement Learning,V. Mnih et al., NIPS Workshop, 2013. 2. Human-level control through deep reinforcement learning, V. Mnih et al., Natu…
-
为什么是深度学习
是不是深度学习的Hidden layer越多越好,我们并不是单纯的研究参数增多的所带来的性能改善,我们关注的是相同的参数情况下,是不是深度越深越好。 Fat + Short v.s. Thin + Tall 那么是什么样的原因出现上边的情况呢?一个合理的解释就是Modularization。 Deep learning Modularizatio…
-
[转]机器学习和深度学习资料汇总【01】
本文转自:http://blog.csdn.net/sinat_34707539/article/details/52105681 《Brief History of Machine Learning》 介绍:这是一篇介绍机器学习历史的文章,介绍很全面,从感知机、神经网络、决策树、SVM、Adaboost到随机森林、Deep Learning. 《Deep …
-
【转】贾扬清:希望Caffe成为深度学习领域的Hadoop
【转:http://www.csdn.net/article/2015-07-07/2825150】 在深度学习(Deep Learning)的热潮下,Caffe作为一个高效、实用的深度学习框架受到了广泛的关注。了解Caffe研发的背景、愿景、技术特色、路线图及其开发者的理念,对于我们选择合适的工具更好地进行深度学习应用的迭代开发大有裨益。《程序员》记者近日…
-
深度学习之对抗样本问题
2006 年,Geoffrey Hinton 提出了深度学习。受益于大数据的出现和大规模计算能力的提升,深度学习已然成为最活跃的计算机研究领域之一。深度学习的多层非线性结构使其具备强大的特征表达能力和对复杂任务的建模能力。最近几年,深度学习的发展也带动了一系列的研究。尤其是在图像识别领域,在一些标准测试集上的试验表明,深度模型的识别能力已经可以达到人类的水平…
-
深度学习与语义表示学习
深度学习与语义表示学习 最近自然语言处理与深度学习的一个新发现是,我们可以通过深度学习用实数值向量来表示语句的语义。如图3所示,两句话“John loves Mary”和“Mary is loved by John”的语义向量就相近,而这两句话的语义向量就与“Mary loves John”的语义向量相远。 四个深度学习方法:单词嵌入(word embe…
-
人工智能,人工神经网络,机器学习,深度学习,卷积神经网络 时间线与内在联系(转载)
来源:https://blog.csdn.net/normol/article/details/89886067 这算是解开自己的疑惑,因为网上说法不一。自己去总结了一下,回过头来看其实别人说的也没错。因为这些概念在时间起源上的顺序不一定就是它们演化后的逻辑关系。。因此为了说明白,将从时间上和逻辑关系上分别说明。(注:自己仅是花了1一个小时不到,在维基百科上…