给神经网络增加记忆能力
前馈神经网络:
- 相邻两层之间存在单向连接,层内无连接
- 有向无环图
- 输入和输出的维数都是固定的,不能任意改变
- (全连接前馈网络)无法处理变长的序列数据
可计算问题:
时延神经网络:
时延神经网络(Time Delay Neural Network,TDNN)
建立一个额外的延时单元,用来存储网络的历史信息(可以包括输入、输出、隐状态等)
]
这样,前馈网络就具有了短期记忆的能力。
自回归模型(Autoregressive Model,AR)
一类时间序列模型,用变量y的历史信息来预测自己
]
(epsilon_{t} sim Nleft(0, sigma^{2}right))为第t个时刻的噪声
有外部输入的非线性自回归模型(Nonlinear Autoregressive with Exogenous Inputs Model,NARX)
]
其中f(·)
表示非线性函数,可以是一个前馈网络.
(K_x)和(K_y)为超参数.
非线性自回归模型
循环神经网络
循环神经网络通过使用带自反馈的神经元,能够处理任意长度的时序数据。
循环神经网络比前馈神经网络更加符合生物神经网络的结构。
循环神经网络已经被广泛应用在语音识别、语言模型以及自然语言生成等任务上。
图灵完备(Turing Completeness)是指一种数据操作规则,比如一种计算机编程语言,可以实现图灵机的所有功能,解决所有的可计算问题。
一个完全连接的循环神经网络可以近似解决所有的可计算问题。
作用
- 输入-输出映射
- 机器学习模型(本节主要关注这种情况)
- 存储器
- 联想记忆模型
- 参考蒲公英书第8.6节
应用到机器学习
序列到类别
真实情况:b
e.g.情感分类
同步的序列到序列
e.g.中文分词
e.g.信息抽取
从无结构的文本中抽取结构化的信息,形成知识
e.g.语音识别
异步的序列到序列
e.g.机器翻译
参数学习与长程依赖问题
参数学习
机器学习
给定一个训练样本(x,y),其中
长度为T的输入序列(boldsymbol{x}=boldsymbol{x}_{1}, cdots, boldsymbol{x}_{T})
长度为T的标签序列(boldsymbol{y}=boldsymbol{y}_{1}, cdots, boldsymbol{y}_{T})
时刻t的瞬时损失函数为
]
总损失函数
]
计算梯度
boldsymbol{z}_{t} &=boldsymbol{U} boldsymbol{h}_{t-1}+boldsymbol{W} boldsymbol{x}_{t}+boldsymbol{b} \
boldsymbol{h}_{t} &=fleft(boldsymbol{z}_{t}right)
end{aligned}
]
$$
begin{aligned}
frac{partial mathcal{L}}{partial boldsymbol{U}} &=sum_{t=1}^{T} frac{partial mathcal{L}_{t}}{partial boldsymbol{U}} \
frac{partial mathcal{L}_{t}}{partial boldsymbol{U}} &=sum_{k=1}^{t} frac{partial mathcal{L}_{t}}{partial boldsymbol{z}_{k}} boldsymbol{h}_{k-1}^{top} \
&=sum_{k=1}^{t} delta_{t, k} boldsymbol{h}_{k-1}^{top}
end{aligned}
$$
delta_{t, k} &=frac{partial mathcal{L}_{t}}{partial boldsymbol{z}_{k}} \
&=frac{partial boldsymbol{h}_{k}}{partial boldsymbol{z}_{k}} frac{partial boldsymbol{z}_{k+1}}{partial boldsymbol{h}_{k}} frac{partial mathcal{L}_{t}}{partial boldsymbol{z}_{k+1}} \
&=operatorname{diag}left(f^{prime}left(boldsymbol{z}_{k}right)right) boldsymbol{U}^{top} delta_{t, k+1}
end{aligned}
]
随时间反向传播算法(BackPropagation Through Time,BPTT)
frac{partial mathcal{L}_{t}}{partial boldsymbol{U}} &=sum_{k=1}^{t} delta_{t, k} boldsymbol{h}_{k-1}^{top} \
delta_{t, k} &=operatorname{diag}left(f^{prime}left(boldsymbol{z}_{k}right)right) boldsymbol{U}^{top} delta_{t, k+1} \
&=prod_{tau=k}^{t-1}left(operatorname{diag}left(f^{prime}left(boldsymbol{z}_{tau}right)right) boldsymbol{U}^{top}right) delta_{t, t}
end{aligned}
]
长程依赖问题(Long-Term Dependencies Problem)
由于梯度爆炸或消失问题,实际上只能学习到短周期的依赖关系。
如何解决长程依赖问题?
- 循环神经网络在时间维度上非常深!
- 梯度消失或梯度爆炸
- 如何改进?
- 梯度爆炸问题
- 权重衰减
- 梯度截断
- 梯度消失问题
- 改进模型
- 梯度爆炸问题
残差网络?
门控机制
控制信息的累积速度,包括有选择地加入新的信息,并有选择地遗忘之前累积的信息。
基于门控的循环神经网络(Gated RNN)
- 门控循环单元GRU
- 长短期记忆网络LSTM
GRU
门控循环单元(Gated Recurrent Unit,GRU)
长短期记忆神经网络(Long Short-Term Memory,LSTM)
LSTM的各种变体
深层循环神经网络
堆叠循环神经网络(Stacked)
双向循环神经网络
循环神经网络小结
-
优点:
-
引入(短期)记忆
-
图灵完备
-
-
缺点:
-
长程依赖问题
-
记忆容量问题
-
并行能力
-
循环网络应用
语言模型
自然语言理解:一个句子的可能性/合理性
基于序列到序列的机器翻译:一个RNN用来编码,另一个RNN用来解码
写字、签名、对话系统...
扩展到图结构
递归神经网络(Recursive Neural Network)
递归神经网络实在一个有向图无循环图上共享一个组合函数
退化为循环神经网络
图数据
图网络
对于一个任意的图结构G(V,E)
更新函数
mathbf{m}_{t}^{(v)} &=sum_{u in N(v)} fleft(mathbf{h}_{t-1}^{(v)}, mathbf{h}_{t-1}^{(u)}, mathbf{e}^{(u, v)}right) \
mathbf{h}_{t}^{(v)} &=gleft(mathbf{h}_{t-1}^{(v)}, mathbf{m}_{t}^{(v)}right)
end{aligned}
]
读出函数
]
原创作者:孤飞-博客园
原文链接:https://www.cnblogs.com/ranxi169/p/16873036.html
本站文章如无特殊说明,均为本站原创,如若转载,请注明出处:神经网络与深度学习(三):循环神经网络网络 - Python技术站