Keras
-
Keras的安装与配置
Keras是由Python编写的基于Tensorflow或Theano的一个高层神经网络API。具有高度模块化,极简,可扩充等特性。能够实现简易和快速的原型设计,支持CNN和RNN或者两者的结合,可以无缝切换CPU和GPU。本文主要整理了如何安装和配置Keras。我使用的Python版本是2.7.13(Anaconda)。 具体安装步骤: 1.卸载机器上…
-
python+keras实现语音识别
科大讯飞:https://www.iflytek.com/ 版权声明:本文为CSDN博主「南方朗郎」的原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接及本声明。原文链接:https://blog.csdn.net/sunshuai_coder/article/details/83658625 仅做笔记,未实验 市面上语音识别技术原理…
-
Reducing and Profiling GPU Memory Usage in Keras with TensorFlow Backend
keras 自适应分配显存 & 清理不用的变量释放 GPU 显存 Intro Are you running out of GPU memory when using keras or tensorflow deep learning models, but only some of the time? Are you curious about…
-
tf.keras自定义损失函数
自定义损失函数 In statistics, the Huber loss is a loss function used in robust regression, that is less sensitive to outliers in data than the squared error loss. A variant for classifica…
-
Keras函数式API介绍
参考文献:Géron, Aurélien. Hands-On Machine Learning with Scikit-Learn, Keras, and TensorFlow: Concepts, Tools, and Techniques to Build Intelligent Systems. O’Reilly Media, 2019. Keras的…
-
keras——经典模型之LeNet5 实现手写字识别
经典论文:Gradient-Based Learning Applied to Document Recognition 参考博文:https://blog.csdn.net/weixin_44344462/article/details/89212507 构建LeNet-5模型 #定义LeNet5网络 深度为1的灰度图像 def LeNet5(x_trai…
-
用于NLP的CNN架构搬运:from keras0.x to keras2.x
本文亮点:将用于自然语言处理的CNN架构,从keras0.3.3搬运到了keras2.x,强行练习了Sequential+Model的混合使用,具体来说,是Model里嵌套了Sequential。本文背景:暑假在做一个推荐系统的小项目,老师让我们搜集推荐系统领域Top5的算法和模型,要求结合深度学习。我和小伙伴选择了其中的两篇文献深入研究,我负责跑通文献Co…
-
keras: 在构建LSTM模型时,使用变长序列的方法
众所周知,LSTM的一大优势就是其能够处理变长序列。而在使用keras搭建模型时,如果直接使用LSTM层作为网络输入的第一层,需要指定输入的大小。如果需要使用变长序列,那么,只需要在LSTM层前加一个Masking层,或者embedding层即可。 from keras.layers import Masking, Embedding from keras.…
-
条件随机场CRF原理介绍 以及Keras实现
本文是对CRF基本原理的一个简明的介绍。当然,“简明”是相对而言中,要想真的弄清楚CRF,免不了要提及一些公式,如果只关心调用的读者,可以直接移到文末。 # 按照之前的思路,我们依旧来对比一下普通的逐帧softmax和CRF的异同。 # CRF主要用于序列标注问题,可以简单理解为是给序列中的每一帧都进行分类,既然是分类,很自然想到将这个序列用CNN或者R…
-
注意力机制及Keras实现
注意力往往与encoder-decoder(seq2seq)框架搭在一起,假设我们编码前与解码后的序列如下: 编码时,我们将source通过非线性变换到中间语义: 则我们解码时,第i个输出为: 可以看到,不管i为多少,都是基于相同的中间语义C进行解码的,也就是说,我们的注意力对所有输出都是相同的。所以,注意力机制的任务就是突出重点,也就…