循环神经网络,一般运用于词条翻译,语调模仿,等等

相对于人工神经网络和卷积神经网络,循环神经网络具有'记忆功能'

对于人工神经网络,卷积网络来说,不管怎么梯度下降,输出层和输入层根据权重和池化层等的缩减,至少部分相关的

循环神经网络则不止是输入层经过权重处理的结果,还有'记忆'的权重

循环神经网络的结构

15.循环神经网络与LSTM

x是输入,o是输出,中间展开则是右边的模型

U是权重矩阵,所谓的记忆就是S(t-1)到St经过权重运算之后的参考,就是'记忆',然后根据和新事物的运算,得出新的'记忆',然后循环丢下去,直到最后一个输出结果为止,从结构可以看出来,循环神经网络会参考一个之前的'记忆'

拿St来说St = f(W*S(t-1) + U*Xt)   f这个函数可以是tanh之类的

然后输出的是O,如果是做词条预测之类的,O可能是下一个词条的概率

因为上述的计算S这个记忆体来说,并不会有特别完美的记忆力,因为每次都是权重运算,对最开始的数据'记忆力'会渐渐的损失掉

与其它神经网络不同,循环神经网络共享的是一套W,U,V不像其它神经网络一样是有w1,w2,u1,u2之类的

变种RNN

双向RNN

15.循环神经网络与LSTM

因为有些时候,确定一个词,不仅需要之前的词,而且还需要之后的词,所以出来双向RNN确定这个词

最常见的运用,掉了一个词要补全

深层双向RNN

15.循环神经网络与LSTM

和双向RNN的区别就是更深层次一些,比如一个词语的语义要更深层次一点,这样分析出来的结果比单个神经元的RNN要好

LSTM

上面说到'记忆力'会随着时间线的推移而渐渐'遗忘'.而往往有时候的信息就是需要依赖很久以前的数据,而产生的解决办法就是LSTM

LSTM也是循环神经网络的一种,它的记忆体S被改造了,该记的信息会一直传递,不该记的直接截断

15.循环神经网络与LSTM

15.循环神经网络与LSTM

A可以理解为激励层,对数据做一个非线性的变换,小圈圈为点乘,向量传输就是字面意思,然后两个箭头合并,就是向量(信息)合并

copy是copy一个分支.

15.循环神经网络与LSTM

关键是这一块,这一块表示一个'记忆细胞'的'细胞状态',它只做少量的线性运算,尽量保持信息的完整性,信息在上面流动不变很容易

C相对于原本的S '记忆体'

这个x就是门,它会增加或者去除信息到记忆体内

里面包含一个sigmoid的神经网络层,和一个pointwise乘法操作

sigmoid就和阀门类似,把所有值控制在0-1之间0就是不让通过,1就是可以通过

'忘记门',确定丢弃的信息就是忘记门

比如原本主语是他,现在主角变了,变成了她,就可以丢弃他了

15.循环神经网络与LSTM

然后解释下函数ft W没变还是权重矩阵 x 由[h(t-1)]和xt组成 b还是b

放入新数据

15.循环神经网络与LSTM

sigmoid决定什么值需要更新,Tanh层决定放入什么新数据 对应,第一层和上面一毛一样,下面则是判断生成新的数据,再经过一次阀门,筛选一下,然后加到C记忆体里面去

输出

15.循环神经网络与LSTM

首先通过sigmoid决定输出数据,然后和tanh相乘输出数据

LSTM变种

1.增加peephole connection

15.循环神经网络与LSTM

增加的有点复杂,实际效果并不会好太多,用的比较少

2.

15.循环神经网络与LSTM

通过使用coupled忘记和输入门,把之前遗忘和记忆一起做了,接一个分支得右边的函数.

3.GRU

15.循环神经网络与LSTM

把忘记和记忆真的合二为一,变成了更新门,网络简单要更简单了.

了解的太浅,有空再补...