下面是使用PyTorch实现手写字母识别的完整攻略,包含两个示例说明。
1. 加载数据集
首先,我们需要加载手写字母数据集。这里我们使用MNIST数据集,它包含了60000张28x28的手写数字图片和10000张测试图片。我们可以使用torchvision.datasets
模块中的MNIST
类来加载数据集。以下是示例代码:
import torch
import torchvision.datasets as datasets
import torchvision.transforms as transforms
# 加载数据集
transform = transforms.Compose([
transforms.ToTensor(),
transforms.Normalize((0.1307,), (0.3081,))
])
trainset = datasets.MNIST(root='./data', train=True, download=True, transform=transform)
testset = datasets.MNIST(root='./data', train=False, download=True, transform=transform)
在上面的示例代码中,我们首先定义了一个名为transform
的变量,它包含了两个转换操作:将图片转换为张量和对张量进行归一化。然后,我们使用datasets.MNIST
类加载数据集,并将transform
变量传递给transform
参数,以对数据进行转换。
2. 定义模型
接下来,我们需要定义一个包含三个全连接层的神经网络模型。我们可以使用torch.nn
模块中的Linear
类来定义全连接层。以下是示例代码:
import torch.nn as nn
# 定义模型
class Net(nn.Module):
def __init__(self):
super(Net, self).__init__()
self.fc1 = nn.Linear(784, 256)
self.fc2 = nn.Linear(256, 128)
self.fc3 = nn.Linear(128, 10)
def forward(self, x):
x = x.view(-1, 784)
x = nn.functional.relu(self.fc1(x))
x = nn.functional.relu(self.fc2(x))
x = self.fc3(x)
return x
net = Net()
在上面的示例代码中,我们定义了一个名为Net
的类,它继承自nn.Module
。在__init__
方法中,我们定义了三个全连接层,分别包含256个、128个和10个神经元。在forward
方法中,我们首先将输入张量展平为一维张量,然后依次通过三个全连接层,并在第一和第二个全连接层之间使用ReLU激活函数。
3. 训练模型
接下来,我们需要训练模型。我们可以使用torch.optim
模块中的优化器来优化模型参数,并使用nn.CrossEntropyLoss
函数来计算损失。以下是示例代码:
import torch.optim as optim
# 定义损失函数和优化器
criterion = nn.CrossEntropyLoss()
optimizer = optim.SGD(net.parameters(), lr=0.01, momentum=0.9)
# 训练模型
for epoch in range(10):
running_loss = 0.0
for i, data in enumerate(trainset, 0):
inputs, labels = data
optimizer.zero_grad()
outputs = net(inputs)
loss = criterion(outputs, labels)
loss.backward()
optimizer.step()
running_loss += loss.item()
if i % 1000 == 999:
print('[%d, %5d] loss: %.3f' % (epoch + 1, i + 1, running_loss / 1000))
running_loss = 0.0
在上面的示例代码中,我们首先定义了一个名为criterion
的变量,它是一个nn.CrossEntropyLoss
函数。然后,我们定义了一个名为optimizer
的变量,它是一个optim.SGD
优化器,用于优化模型参数。接着,我们使用一个双重循环来训练模型。在内层循环中,我们首先将输入张量和标签张量传递给模型,然后计算损失并反向传播。最后,我们使用优化器来更新模型参数,并输出每1000个batch的平均损失。
4. 测试模型
最后,我们需要测试模型的性能。我们可以使用测试集来评估模型的准确率。以下是示例代码:
# 测试模型
correct = 0
total = 0
with torch.no_grad():
for data in testset:
images, labels = data
outputs = net(images)
_, predicted = torch.max(outputs.data, 1)
total += labels.size(0)
correct += (predicted == labels).sum().item()
print('Accuracy of the network on the 10000 test images: %d %%' % (100 * correct / total))
在上面的示例代码中,我们首先定义了两个变量correct
和total
,用于记录模型的正确预测数和总预测数。然后,我们使用torch.no_grad()
上下文管理器来关闭梯度计算,以加快模型的计算速度。在循环中,我们首先将输入张量传递给模型,并使用torch.max
函数找到输出张量中的最大值和对应的索引。然后,我们将预测结果与标签进行比较,并更新correct
和total
变量。最后,我们输出模型在测试集上的准确率。
示例1:使用GPU加速训练
如果你的计算机支持GPU,你可以使用GPU来加速模型的训练。以下是示例代码:
# 将模型和数据移动到GPU上
device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")
net.to(device)
inputs, labels = inputs.to(device), labels.to(device)
# 在优化器中使用momentum和weight_decay
optimizer = optim.SGD(net.parameters(), lr=0.01, momentum=0.9, weight_decay=0.0001)
在上面的示例代码中,我们首先使用torch.device
函数来检查计算机是否支持GPU,并将模型和数据移动到GPU上。然后,我们在优化器中使用momentum
和weight_decay
参数来进一步优化模型的训练。
示例2:使用Dropout防止过拟合
如果你的模型出现了过拟合现象,你可以使用Dropout来防止过拟合。以下是示例代码:
import torch.nn.functional as F
# 定义模型
class Net(nn.Module):
def __init__(self):
super(Net, self).__init__()
self.fc1 = nn.Linear(784, 256)
self.fc2 = nn.Linear(256, 128)
self.fc3 = nn.Linear(128, 10)
self.dropout = nn.Dropout(p=0.5)
def forward(self, x):
x = x.view(-1, 784)
x = F.relu(self.fc1(x))
x = self.dropout(x)
x = F.relu(self.fc2(x))
x = self.dropout(x)
x = self.fc3(x)
return x
net = Net()
在上面的示例代码中,我们在模型中添加了两个Dropout层,并将p
参数设置为0.5。在forward
方法中,我们在第一和第二个全连接层之间使用Dropout层,以防止过拟合。
本站文章如无特殊说明,均为本站原创,如若转载,请注明出处:pytorch三层全连接层实现手写字母识别方式 - Python技术站