都说MNIST相当于机器学习界的Hello World。最近加入实验室,导师给我们安排了一个任务,但是我才刚刚入门呐!!没办法,只能从最基本的学起。

  Pytorch是一套开源的深度学习张量库。或者我倾向于把它当成一个独立的深度学习框架。为了写这么一个"Hello World"。查阅了不少资料,也踩了不少坑。不过同时也学习了不少东西,下面我把我的代码记录下来,希望能够从中受益更多,同时帮助其他对Pytorch感兴趣的人。代码的注释中有不对的地方欢迎批评指正。

  代码进行了注释,应该很方便阅读。 dependences: numpy torch torchvision python3 使用pip安装即可。

 1 # encoding: utf-8
 2 import torch
 3 import torch.nn as nn
 4 import torch.nn.functional as F #加载nn中的功能函数
 5 import torch.optim as optim #加载优化器有关包
 6 import torch.utils.data as Data
 7 from torchvision import datasets,transforms #加载计算机视觉有关包
 8 from torch.autograd import Variable
 9 
10 BATCH_SIZE = 64
11 
12 #加载torchvision包内内置的MNIST数据集 这里涉及到transform:将图片转化成torchtensor
13 train_dataset = datasets.MNIST(root='~/data/',train=True,transform=transforms.ToTensor(),download=True)
14 test_dataset = datasets.MNIST(root='~/data/',train=False,transform=transforms.ToTensor())
15 
16 #加载小批次数据,即将MNIST数据集中的data分成每组batch_size的小块,shuffle指定是否随机读取
17 train_loader = Data.DataLoader(dataset=train_dataset,batch_size=BATCH_SIZE,shuffle=True)
18 test_loader = Data.DataLoader(dataset=test_dataset,batch_size=BATCH_SIZE,shuffle=False)
19 
20 #定义网络模型亦即Net 这里定义一个简单的全连接层784->10
21 class Model(nn.Module):
22     def __init__(self):
23         super(Model,self).__init__()
24         self.linear1 = nn.Linear(784,10)
25 
26     def forward(self,X):
27         return F.relu(self.linear1(X))
28 
29 model = Model() #实例化全连接层
30 loss = nn.CrossEntropyLoss() #损失函数选择,交叉熵函数
31 optimizer = optim.SGD(model.parameters(),lr = 0.1)
32 num_epochs = 5
33 
34 #以下四个列表是为了可视化(暂未实现)
35 losses = [] 
36 acces = []
37 eval_losses = []
38 eval_acces = []
39 
40 for echo in range(num_epochs):
41     train_loss = 0   #定义训练损失
42     train_acc = 0    #定义训练准确度
43     model.train()    #将网络转化为训练模式
44     for i,(X,label) in enumerate(train_loader):     #使用枚举函数遍历train_loader
45         X = X.view(-1,784)       #X:[64,1,28,28] -> [64,784]将X向量展平
46         X = Variable(X)          #包装tensor用于自动求梯度
47         label = Variable(label)
48         out = model(X)           #正向传播
49         lossvalue = loss(out,label)         #求损失值
50         optimizer.zero_grad()       #优化器梯度归零
51         lossvalue.backward()    #反向转播,刷新梯度值
52         optimizer.step()        #优化器运行一步,注意optimizer搜集的是model的参数
53         
54         #计算损失
55         train_loss += float(lossvalue)      
56         #计算精确度
57         _,pred = out.max(1)
58         num_correct = (pred == label).sum()
59         acc = int(num_correct) / X.shape[0]
60         train_acc += acc
61 
62     losses.append(train_loss / len(train_loader))
63     acces.append(train_acc / len(train_loader))
64     print("echo:"+' ' +str(echo))
65     print("lose:" + ' ' + str(train_loss / len(train_loader)))
66     print("accuracy:" + ' '+str(train_acc / len(train_loader)))
67     eval_loss = 0
68     eval_acc = 0
69     model.eval() #模型转化为评估模式
70     for X,label in test_loader:
71         X = X.view(-1,784)
72         X = Variable(X)
73         label = Variable(label)
74         testout = model(X)
75         testloss = loss(testout,label)
76         eval_loss += float(testloss)
77 
78         _,pred = testout.max(1)
79         num_correct = (pred == label).sum()
80         acc = int(num_correct) / X.shape[0]
81         eval_acc += acc
82 
83     eval_losses.append(eval_loss / len(test_loader))
84     eval_acces.append(eval_acc / len(test_loader))
85     print("testlose: " + str(eval_loss/len(test_loader)))
86     print("testaccuracy:" + str(eval_acc/len(test_loader)) + '\n')

运行后的结果如下:

PytorchMNIST(使用Pytorch进行MNIST字符集识别任务)

    我们在上面的代码中,将图片对应的Pytorchtensor展平,并通过一个全连接层,仅仅是这样就达到了90%以上的准确率。如果使用卷积层,正确率有望达到更高。

  代码并不完备,还可以增加visualize和predict功能,等我学到更多知识后,有待后续添加。