RNN:本质是像人一样拥有记忆能力,它的输出就依赖于当前的输入和记忆。主要应用于自言语言的处理及语音处理,缺点是随着信息的传播,信号会减弱。
长短期记忆网络工作原理:
LSTM区别于RNN的地方,主要就在于它在算法中加入了一个判断信息有用与否的“处理器”,这个处理器作用的结构被称为cell。
一个cell当中被放置了三扇门,分别叫做输入门、遗忘门和输出门。一个信息进入LSTM的网络当中,可以根据规则来判断是否有用。只有符合算法认证的信息才会留下,不符的信息则通过遗忘门被遗忘。
说起来无非就是一进二出的工作原理,却可以在反复运算下解决神经网络中长期存在的大问题。
本站文章如无特殊说明,均为本站原创,如若转载,请注明出处:RNN循环神经网络简述 - Python技术站