这一节讲RNN如何learning:
下面讲如何定义loss,举一个例子:
RNN同样可以用gradient descent来train:
因为同样的sequent在不同的时间点会被使用:
input(多个)-->output(一个):
多对多:
出现叠词时,用CTC区分:
一些词的顺序可以被忽略:
encoder和decoder一起train:
RNN vs Structured Learning:
本站文章如无特殊说明,均为本站原创,如若转载,请注明出处:【李宏毅】机器学习 笔记10(RNN——循环神经网络(Recurrent Neural Network)(下)) - Python技术站