tf.keras的模块 2023年4月6日 上午11:42 • Keras 本站文章如无特殊说明,均为本站原创,如若转载,请注明出处:tf.keras的模块 - Python技术站 Keras人工智能 赞 (0) 0 0 打赏 微信扫一扫 支付宝扫一扫 生成海报 TensorFlow keras中一些著名的神经网络 上一篇 2023年4月6日 上午11:41 TensorFlow keras读取图片 下一篇 2023年4月6日 上午11:42 相关文章 Caffe 编译caffe的诸多注意事项 1.cudnn版本不匹配 首先第一步,编译caffe_train-master就遇到了问题: 但是在同样的环境下(CUDA8.0 + cudnn-8.0-linux-x64-v6.0)编译官方的caffe-master 就正常通过了: 很显然就是cudnn版本的问题了,但是不巧的是NVIDIA官网在维护,无法下载cudnn5;从同学那… 2023年4月6日 000 分类与聚类的区别 当我们在处理数据时,有时我们需要对数据进行分类或聚类。虽然它们看起来很相似,但分类和聚类实际上有很大的区别。 分类和聚类的区别 分类和聚类的主要区别如下: 目标 分类:分类的主要目标是将数据划分到已知的类别中。每个类别是由预先设定的特征和条件定义的。 聚类:聚类的主要目标是将数据分成未知的组,这些组之间相似度高,而组内的数据相似度低。在聚类中,没有预先设定的… artificial-intelligence 2023年3月27日 000 卷积神经网络 tensorflow 2.0 学习 (十二)卷积神经网络 (二) CIFAR10数据集与改进VGG13网络 + CoLab 网络结构如下: 代码如下: 1 # encoding: utf-8 2 import tensorflow as tf 3 from tensorflow import keras 4 from tensorflow.keras import layers, Sequential, losses, optimizers, datasets 5 impo… 2023年4月6日 000 循环神经网络 双向循环神经网络(BiRNN) 双向RNN,即可以从过去的时间点获取记忆,又可以从未来的时间点获取信息 至于网络单元到底是标准的RNN还是GRU或者是LSTM是没有关系的,都可以使用。 双向循环神经网络(BRNN)的基本思想是提出每一个训练序列向前和向后分别是两个循环神经网络(RNN),而且这两个都连接着一个输出层。这个结构提供给输出层输入序列中每一个点的完整的过去和未来的… 2023年4月8日 000 Caffe DEX-6-caffe模型转成pytorch模型办法 在python2.7环境下 文件下载位置:https://data.vision.ee.ethz.ch/cvl/rrothe/imdb-wiki/ 1.可视化模型文件prototxt 1)在线可视化 网址为:https://ethereon.github.io/netscope/#/editor 将prototxt文件的内容复制到左边,然后按shift-en… 2023年4月8日 000 3、pytorch实现最基础的MLP网络 %matplotlib inline import numpy as np import torch from torch import nn import matplotlib.pyplot as plt d = 1 n = 200 X = torch.rand(n,d) #200*1, batch * feature_dim #y = 3*torch.s… PyTorch 2023年4月7日 000 AttributeError: module ‘tensorflow’ has no attribute ‘placeholder’ 用import tensorflow.compat.v1 as tftf.disable_v2_behavior()替换import tensorflow as tf tensorflow 2023年4月7日 000 机器学习 —— 概率图模型(Homework: Exact Inference) 在前三周的作业中,我构造了概率图模型并调用第三方的求解器对器进行了求解,最终获得了每个随机变量的分布(有向图),最大后验分布(双向图)。本周作业的主要内容就是自行编写概率图模型的求解器。实际上,从根本上来说求解器并不是必要的。其作用只是求取边缘分布或者MAP,在得到联合CPD后,寻找联合CPD的最大值即可获得MAP,对每个变量进行边缘分布求取即可获得边缘… 机器学习 2023年4月16日 000