文章目录
1. 神经网络与循环神经网络
- 背景: 传统神经网络包括CNN,输入和输出都是相互独立的
- 图像上的猫和狗是分割开的,但有些任务,后续的输出和之前的内容是相关的
- “我是中国人,我的母语是__”
- RNN 引入"记忆"的概念
- 循环2字来源于其中每个元素都执行相同的任务
- 但是输出依赖于"输入"和"记忆"
1.1 强大的功能
1.2 层级结构
- 把序列按时间展开
- 是时间t处的输入
- 是时间t处的"记忆",,f可以是tanh等
- 是时间t时的输出,比如是预测下个词的话,可能是softmax输出的属于每个候选词的概率
- 可以把隐状态视作当前的"记忆体",捕捉了之前时间点上的信息
- 输出由当前时间及之前所有的"记忆"共同计算得到
- 很可惜,在实际应用中,并不能捕捉和保留之前所有信息(记忆有限)
- 不同于CNN,这里的RNN其实整个神经网络都共享一组参数(U,V,W),极大减小了需要训练和预估的参数量
- 图中的在有任务下是不存在的,比如文本情感分析,其实只需要最后的output结果就行
1.3 多种RNN
- 双向RNN
- 有些情况下,当前的输出不只依赖于之前的序列元素,还可能依赖之后的序列元素
- 比如从一段话踢掉部分词,让你补全
- 直观理解:2个RNN叠加
- 深层双向RNN
- 和双向RNN的区别是每一步/每个时间带你我们设定多层结构
2. LSTM
2.1 长时间依赖问题
2.2 "记忆细胞"与状态
3. LSTM变体
3.1 GRU等
词向量可以体现两个词之间的距离
本站文章如无特殊说明,均为本站原创,如若转载,请注明出处:循环神经网络RNN与LSTM - Python技术站