人工智能
-
pytorch 中HWC转CHW
import torch import numpy as np from torchvision.transforms import ToTensor t = torch.tensor(np.arange(24).reshape(2,4,3)) print(t) #HWC 转CHW print(t.transpose(0,2).transpose(1,2))…
-
pytorch 文本情感分类和命名实体识别NER中LSTM输出的区别
文本情感分类: 文本情感分类采用LSTM的最后一层输出 比如双层的LSTM,使用正向的最后一层和反向的最后一层进行拼接 def forward(self,input): ”’ :param input: :return: ”’ input_embeded = self.embedding(input) #[batch_size,seq_len,200…
-
pytorch LSTM情感分类全部代码
先运行main.py进行文本序列化,再train.py模型训练 dataset.py from torch.utils.data import DataLoader,Dataset import torch import os from utils import tokenlize import config class ImdbDataset(Data…
-
pytorch seq2seq闲聊机器人加入attention机制
attention.py “”” 实现attention “”” import torch import torch.nn as nn import torch.nn.functional as F import config class Attention(nn.Module): def __init__(self,method=”general”): s…
-
pytorch seq2seq模型训练测试
num_sequence.py “”” 数字序列化方法 “”” class NumSequence: “”” input : intintint output :[int,int,int] “”” PAD_TAG = “<PAD>” UNK_TAG = “<UNK>” SOS_TAG = “<SOS>” EOS_TAG =…
-
keras及神经网络,以简单实例入门
由浅入深,深入浅出。还给你reference了很多,如果你想要更多。 迄今为止看到最棒的,最值得follow的入门tutorial: https://realpython.com/python-keras-text-classification/ ↑由浅入深,深入浅出。还给你reference了很多,如果你想要更多。 重点中的重点,得记录一下,好多csdn的…
-
关于Keras 版本的安装与修改 – CuriousZero
关于Keras 版本的安装与修改 神经协同过滤(Neural Collaborative Filtering)神作的源码的实验设置要求是: 然而,我们使用控制台 (命令:)或者是PyCharm直接安装的版本均是 最新版本(即 2.0版本) 为了避免因版本升级带来的一些功能函数的变化的修改,可以选择直接修改 Keras安装的版本咯。 那么,如何修改…
-
Use Slim to overview model in Tensorflow like model.summary() in Keras
model.summary() in Tensorflow like Keras Use Slim Example: import numpy as np from tensorflow.python.layers import base import tensorflow as tf import tensorflow.contrib.slim as sl…
-
Anaconda+MINGW+theano+keras安装
前言:这几天算是被这东西困扰的十分难受,博客园和csdn各种逛,找教程,大家说法不一,很多方法也不一定适用,有些方法有待进一步完善。这里我借鉴了许多大神们的方法,以及自己的一些心得,希望对你们有一些帮助。 一、Anaconda下载 下载地址:https://www.anaconda.com/download/ 在官网下载所需的Anaconda版本,确认自己的…
-
keras中的mini-batch gradient descent (转)
深度学习的优化算法,说白了就是梯度下降。每次的参数更新有两种方式。 一、 第一种,遍历全部数据集算一次损失函数,然后算函数对各个参数的梯度,更新梯度。这种方法每更新一次参数都要把数据集里的所有样本都看一遍,计算量开销大,计算速度慢,不支持在线学习,这称为Batch gradient descent,批梯度下降。 二、 另一种,每看一个数据就算一下损失函数,然…