人工智能
-
莫烦PyTorch学习笔记(六)——批处理
1.要点 Torch 中提供了一种帮你整理你的数据结构的好东西, 叫做 DataLoader, 我们能用它来包装自己的数据, 进行批训练. 而且批训练可以有很多种途径。 2.DataLoader DataLoader 是 torch 给你用来包装你的数据的工具. 所以你要讲自己的 (numpy array 或其他) 数据形式装换成 Tensor, 然后再放进…
-
pytorch深度学习神经网络实现手写字体识别
利用平pytorch搭建简单的神经网络实现minist手写字体的识别,采用三层线性函数迭代运算,使得其具备一定的非线性转化与运算能力,其数学原理如下: 其具体实现代码如下所示:import torchimport matplotlib.pyplot as pltdef plot_curve(data): #曲线输出函数构建 fig=plt.figure() …
-
pytorch神经网络解决回归问题(非常易懂)
对于pytorch的深度学习框架,在建立人工神经网络时整体的步骤主要有以下四步: 1、载入原始数据 2、构建具体神经网络 3、进行数据的训练 4、数据测试和验证 pytorch神经网络的数据载入,以MINIST书写字体的原始数据为例: import torch import matplotlib.pyplot as plt def plot_curve(d…
-
pytorch中tensor张量数据基础入门
pytorch张量数据类型入门1、对于pytorch的深度学习框架,其基本的数据类型属于张量数据类型,即Tensor数据类型,对于python里面的int,float,int array,flaot array对应于pytorch里面即在前面加一个Tensor即可——intTensor ,Float tensor,IntTensor of size [d1,…
-
保存及读取keras模型参数
转自:http://blog.csdn.net/u010159842/article/details/54407745,感谢分享~ 你可以使用model.save(filepath)将Keras模型和权重保存在一个HDF5文件中,该文件将包含: 模型的结构,以便重构该模型 模型的权重 训练配置(损失函数,优化器等) 优化器的状态,以便于从上次训练中断的地方开…
-
keras_非线性回归
keras是tensorflow里的高阶API库,几行代码就可以构建一个神经网络。 可以利用keras做非线性回归。 生成一组数据 1 import numpy as np 2 import matplotlib.pyplot as plt 3 x=np.linspace(-10,10,100) 4 y=x**2+np.random.rand(100)*10…
-
【一起入坑AI】手把手 教你用keras实现经典入门案例—手写数字识别
前言 本文分三部分:1、文字讲解 2、代码与结果 3、推荐b站一位up主视频讲解 (默认有一点python基础)该项目虽然相对简单,但是所有深度学习实现过程都大体可以分为文中几步,只不过是网络更复杂,实现的内容更大 实现步骤如下 一、文字讲解 1、加载数据 mnist.load_data()读取出数据存在变量中,它返回两个值,所以加括号 对读出的四个变量进行…
-
用anaconda进行TensorFlow和keras的安装
用anaconda进行TensorFlow和keras的安装一、安装Anaconda1:从官方网站下载Anaconda安装的时候看一下电脑是64位还是32位,对应好。 这一步选不同的选项会使anaconda安装的文件夹的位置不同,其他应用来说感觉无影响,我选择的的第二个。需要注意的一点: 个人建议,对于第一次接触anaconda的初学者来说两个都选上。第一个…
-
在keras下实现多个模型的融合
在keras下实现多个模型的融合 小风风12580 2019-09-30 10:42:00 1105 收藏 7展开在网上搜过发现关于keras下的模型融合框架其实很简单,奈何网上说了一大堆,这个东西官方文档上就有,自己写了个demo: # Function:基于keras框架下实现,多个独立任务分类# Writer: PQF# Time: 2019/9/29…
-
Keras关于LSTM的units参数
这个问题也困扰了我很久,后来终于明白了,很多资料都没有在这个地方做详细的解释,那就是LSTM的小区里面的num_units该怎么理解,其实也是很简单,看看下图: 可以看到中间的cell里面有四个黄色小框,你如果理解了那个代表的含义一切就明白了,每一个小黄框代表一个前馈网络层,对,就是经典的神经网络的结构,num_units就是这个层的隐藏神经元个数,就这么简…