Keras
-
Keras 训练 inceptionV3 并移植到OpenCV4.0 in C++
1. 训练 # –coding:utf-8– import os import sys import glob import argparse import matplotlib.pyplot as plt from keras import __version__ from keras.applications.inception_v3 import …
-
keras_12_keras自带的Applications
1. 关于Application Keras 的应用模块(keras.applications)提供了带有预训练权值的深度学习模型,这些模型可以用来进行预测、特征提取和微调(fine-tuning)。当你初始化一个预训练模型时,会自动下载权值到 ~/.keras/models/ 目录下。 2. keras内置的Model 在 ImageNet 上预训练过的用…
-
keras_11_keras中示例数据集
1. CIFAR10 小图像分类数据集 50,000 张 32×32 彩色训练图像数据,以及 10,000 张测试图像数据,总共分为 10 个类别。 from keras.datasets import cifar10 (x_train, y_train), (x_test, y_test) = cifar10.load_data() # x_train, …
-
keras_16_约束Constraints
1. keras中的约束项 constraints 模块的函数允许在优化期间对网络参数设置约束(例如非负性)。约束是以层为对象进行的。具体的 API 因层而异,但 Dense,Conv1D,Conv2D 和 Conv3D 这些层具有统一的 API。约束层开放 2 个关键字参数: kernel_constraint 用于主权重矩阵。 bias_constrai…
-
keras_10_回调函数 Callbacks
1. 回调函数的使用 回调函数是一个函数的合集,会在训练的阶段中所使用。你可以使用回调函数来查看训练模型的内在状态和统计。你可以传递一个列表的回调函数(作为 callbacks 关键字参数)到 Sequential 或 Model 类型的 .fit() 方法。在训练时,相应的回调函数的方法就会被在各自的阶段被调用。 2. keras支持的回调函数 Callb…
-
keras_15_正则化Regularizers
1. 正则化层 正则化器允许在优化过程中对层的参数或层的激活情况进行惩罚。 网络优化的损失函数也包括这些惩罚项。(但不包括诸如Dropout/人为加Noise这类的正则化)。惩罚是以层为对象进行的。具体的 API 因层而异,但 Dense,Conv1D,Conv2D 和 Conv3D 这些层具有统一的 API。 正则化器开放 3 个关键字参数:keras.r…
-
深度学习Keras框架笔记之Activation类使用
使用 keras.layers.core.Activation(activation) Apply an activation function tothe input.(貌似是把激活函数应用到输入数据的一种层结构) inputshape: 任意。当把这层作为某个模型的第一层时,需要用到该参数(元组,不包含样本轴)。 …
-
深度学习Keras框架笔记之Dense类(标准的一维全连接层)
深度学习Keras框架笔记之Dense类(标准的一维全连接层) 例: keras.layers.core.Dense(output_dim,init=’glorot_uniform’, activation=’linear’, weights=None W_regularizer=None, b_regularizer=None, a…
-
深度学习Keras框架笔记之激活函数详解
激活函数也是神经网络中一个很重的部分。每一层的网络输出都要经过激活函数。比较常用的有linear,sigmoid,tanh,softmax等。Keras内置提供了很全的激活函数,包括像LeakyReLU和PReLU这种比较新的激活函数。 一、激活函数的使用 常用的方法在Activation层中可以找到。看代码。 from ker…
-
深度学习Keras框架笔记之AutoEncoder类
深度学习Keras框架笔记之AutoEncoder类使用笔记 keras.layers.core.AutoEncoder(encoder, decoder,output_reconstruction=True, weights=None) 这是一个用于构建很常见的自动编码模型。如果参数output_reconstruction=True,那么…