RNN网络结构
Elman神经网络是最早的循环神经网络,由Elman于1990年提出,又称为SRN(Simple Recurrent Network, 简单循环网络)。RNN考虑了时序信息,当前时刻的输出不仅和当前时刻的输入有关,还和前面所有时刻的输入有关。
RNN的结构图(引用[2]中的图)如下:
-
xt 表示t时刻的输入向量; -
ht 表示t时刻的隐藏层向量:
隐层计算公式为ht=f(Whhht−1+Wxhxt+bh)(1) f是隐层的**函数。
h0 一般初始化为0。
我们可以认为ht 包含了当前时刻及以前的所有记忆。虽然理论上这句话没问题,但是在实际中,由于梯度消失/爆炸问题的存在,ht 只包含了有限步的信息,并不能捕获太久之前的信息。这被称为长时依赖问题。 -
yt 表示t时刻的输出向量:
输出yt 的计算公式为yt=g(Whyht+by)(2) g一般为softmax函数。
在训练RNN时,一个输入序列看做一个实例,其误差由各时刻误差之和组成:
梯度计算
RNN的梯度计算比多层前馈神经网络要复杂一些,其反向传播算法有个特有的名字:随时间反向传播算法(Backpropagation Through Time,BPTT)[Werbos, 1990]。
这里会介绍两种计算RNN梯度的方法,并且仅以
暴力求解
我们暂且把t步的
而
把(5)代入(4)中,得到
BPTT
仍暂且把t步的
可以证明公式(6)和(7)等价。
参考
[1] Finding Structure in Time. JEFFREY L. ELMAN. 1990.
[2] 《神经网络与深度学习》讲义. 邱锡鹏. 2015.
[3] Recurrent Neural Networks Tutorial, Part 1 – Introduction to RNNs. WILDML. 2015.
[4] 博文Anyone Can Learn To Code an LSTM-RNN in Python (Part 1: RNN). 2015.
本站文章如无特殊说明,均为本站原创,如若转载,请注明出处:深度学习——循环神经网络RNN(一)_反向传播算法 - Python技术站