深度学习
-
在Python中使用LSTM和PyTorch进行时间序列预测(深度学习时序数据预测)
https://zh.gluon.ai/chapter_recurrent-neural-networks/lang-model.html 翻译自: https://stackabuse.com/seaborn-library-for-data-visualization-in-python-part-1/ https://stackabuse.com/…
-
深度学习之四大经典CNN技术浅析
《TensorFlow实战》作者黄文坚做客【硬创公开课】,为我们讲解了关于四大经典CNN网络:AlexNet、VGGNet、Google Inception Net和ResNet的基本原理。本次公开课内容主要节选自作者《TensorFlow实战》第6章,关于这四大CNN网络实现方式可参考作者新书《TensorFlow实战》,其中有这几种网络的详细实现步骤。 …
-
《深度学习》学习笔记(一):稀疏自编码器(Sparse Autoencoder)
本笔记主要记录学习《深度学习》的总结体会。如有理解不到位的地方,欢迎大家指出,我会努力改正。 在学习《深度学习》时,我主要是通过Andrew Ng教授在http://deeplearning.stanford.edu/wiki/index.php/UFLDL_Tutorial上提供的UFLDL(Unsupervised Feature Learnin…
-
《python深度学习》笔记—5.3-3、猫狗分类(使用预训练网络-数据增强的特征提取)
一、总结 一句话总结: 其实就是把vgg16对应的conv_base像层一样放到Sequential中,然后对图片进行数据增强即可 model.add(conv_base) from tensorflow.keras import models from tensorflow.keras import layers model = models.Sequen…
-
《python深度学习》笔记—5.2-3、猫狗分类(基本模型)
一、总结 一句话总结: 模型的话也是比较普通的卷积神经网络,就是图像数据用的生成器:ImageDataGenerator 1、ImageDataGenerator.flow_from_directory常用参数的意思? |||-begin train_generator = train_datagen.flow_from_directory( tra…
-
《python深度学习》笔记—6.2-2、循环神经网络-IMDB电影评论分类实例
一、总结 一句话总结: model.add(Embedding(max_features, 32)) model.add(SimpleRNN(32)) model.add(Dense(1, activation=’sigmoid’)) from tensorflow.keras.layers import Dense,Embedding,SimpleRNN …
-
《python深度学习》笔记—6.1-2、word embedding-利用 Embedding 层学习词嵌入
一、总结 一句话总结: 【考虑到仅查看每条评论的前 20 个单词】:得到的验证精度约为 76%,考虑到仅查看每条评论的前 20 个单词,这个结果还是相当不错 的。 【没有考虑单词之间的关系和句子结构】:但请注意,仅仅将嵌入序列展开并在上面训练一个 Dense 层,会导致模型对输入序列中的 每个单词单独处理,而没有考虑单词之间的关系和句子结构(举个例子,这个模…
-
《python深度学习》笔记—5.3-4、猫狗分类(使用预训练网络-微调模型)
一、总结 一句话总结: 【微调是指将预训练网络的前几层解冻】:微调是指将预训练网络的前几层解冻,在猫狗分类的例子中,可以看到准确率从90到94,提高了4个百分点 【先训练好分类层】:微调的话,注意先把dense层(分类层)训练好,再低学习率的训练网络最后几层 # 冻结直到某一层的所有层 conv_base.trainable = True set_train…
-
《python深度学习》笔记—6.1-3、word embedding-使用预训练的词嵌入
一、总结 一句话总结: 【将文本转换为能处理的格式】:将原始文本转换为神经网络能够处理的格式。 【Keras 模型的 Embedding 层】:使用 Keras 模型的 Embedding 层来学习针对特定任务的标记嵌入。 【预训练词嵌入 提升 在小型自然语言处理问题】:使用预训练词嵌入在小型自然语言处理问题上获得额外的性能提升 1、使用预训练的词嵌…
-
《python深度学习》笔记—6.1、one-hot-encoding
一、总结 一句话总结: 用的texts_to_matrix方法:one_hot_results = tokenizer.texts_to_matrix(samples, mode=’binary’) 这里的one-hot是binary结构:[0. 1. 1. 1. 1. 1. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0.…