展开:
左边的前馈神经网络。
右边的时循环神经网络,我们可以发现:
第一个输入的你,会不断的向后传递。不仅仅只是用在了第一次。
送入神经网络的一般是一个批量,应该指的是不同语料同一位置的词向量吧。
记忆体h的维度是自己给定的,(在mooc中讲的是记忆体的个数)
n表示批量的大小,h表示记忆体的个数(隐藏层的大小),
如果神经网络的目标是输出以一个词的所有可能性,那么y就应该是词典的大小。
梯度裁剪:
本站文章如无特殊说明,均为本站原创,如若转载,请注明出处:动手学深度学习第十二课:循环神经网络 - Python技术站