pytorch三层全连接层实现手写字母识别方式

下面是使用PyTorch实现手写字母识别的完整攻略,包含两个示例说明。

1. 加载数据集

首先,我们需要加载手写字母数据集。这里我们使用MNIST数据集,它包含了60000张28x28的手写数字图片和10000张测试图片。我们可以使用torchvision.datasets模块中的MNIST类来加载数据集。以下是示例代码:

import torch
import torchvision.datasets as datasets
import torchvision.transforms as transforms

# 加载数据集
transform = transforms.Compose([
    transforms.ToTensor(),
    transforms.Normalize((0.1307,), (0.3081,))
])
trainset = datasets.MNIST(root='./data', train=True, download=True, transform=transform)
testset = datasets.MNIST(root='./data', train=False, download=True, transform=transform)

在上面的示例代码中,我们首先定义了一个名为transform的变量,它包含了两个转换操作:将图片转换为张量和对张量进行归一化。然后,我们使用datasets.MNIST类加载数据集,并将transform变量传递给transform参数,以对数据进行转换。

2. 定义模型

接下来,我们需要定义一个包含三个全连接层的神经网络模型。我们可以使用torch.nn模块中的Linear类来定义全连接层。以下是示例代码:

import torch.nn as nn

# 定义模型
class Net(nn.Module):
    def __init__(self):
        super(Net, self).__init__()
        self.fc1 = nn.Linear(784, 256)
        self.fc2 = nn.Linear(256, 128)
        self.fc3 = nn.Linear(128, 10)

    def forward(self, x):
        x = x.view(-1, 784)
        x = nn.functional.relu(self.fc1(x))
        x = nn.functional.relu(self.fc2(x))
        x = self.fc3(x)
        return x

net = Net()

在上面的示例代码中,我们定义了一个名为Net的类,它继承自nn.Module。在__init__方法中,我们定义了三个全连接层,分别包含256个、128个和10个神经元。在forward方法中,我们首先将输入张量展平为一维张量,然后依次通过三个全连接层,并在第一和第二个全连接层之间使用ReLU激活函数。

3. 训练模型

接下来,我们需要训练模型。我们可以使用torch.optim模块中的优化器来优化模型参数,并使用nn.CrossEntropyLoss函数来计算损失。以下是示例代码:

import torch.optim as optim

# 定义损失函数和优化器
criterion = nn.CrossEntropyLoss()
optimizer = optim.SGD(net.parameters(), lr=0.01, momentum=0.9)

# 训练模型
for epoch in range(10):
    running_loss = 0.0
    for i, data in enumerate(trainset, 0):
        inputs, labels = data
        optimizer.zero_grad()
        outputs = net(inputs)
        loss = criterion(outputs, labels)
        loss.backward()
        optimizer.step()
        running_loss += loss.item()
        if i % 1000 == 999:
            print('[%d, %5d] loss: %.3f' % (epoch + 1, i + 1, running_loss / 1000))
            running_loss = 0.0

在上面的示例代码中,我们首先定义了一个名为criterion的变量,它是一个nn.CrossEntropyLoss函数。然后,我们定义了一个名为optimizer的变量,它是一个optim.SGD优化器,用于优化模型参数。接着,我们使用一个双重循环来训练模型。在内层循环中,我们首先将输入张量和标签张量传递给模型,然后计算损失并反向传播。最后,我们使用优化器来更新模型参数,并输出每1000个batch的平均损失。

4. 测试模型

最后,我们需要测试模型的性能。我们可以使用测试集来评估模型的准确率。以下是示例代码:

# 测试模型
correct = 0
total = 0
with torch.no_grad():
    for data in testset:
        images, labels = data
        outputs = net(images)
        _, predicted = torch.max(outputs.data, 1)
        total += labels.size(0)
        correct += (predicted == labels).sum().item()

print('Accuracy of the network on the 10000 test images: %d %%' % (100 * correct / total))

在上面的示例代码中,我们首先定义了两个变量correcttotal,用于记录模型的正确预测数和总预测数。然后,我们使用torch.no_grad()上下文管理器来关闭梯度计算,以加快模型的计算速度。在循环中,我们首先将输入张量传递给模型,并使用torch.max函数找到输出张量中的最大值和对应的索引。然后,我们将预测结果与标签进行比较,并更新correcttotal变量。最后,我们输出模型在测试集上的准确率。

示例1:使用GPU加速训练

如果你的计算机支持GPU,你可以使用GPU来加速模型的训练。以下是示例代码:

# 将模型和数据移动到GPU上
device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")
net.to(device)
inputs, labels = inputs.to(device), labels.to(device)

# 在优化器中使用momentum和weight_decay
optimizer = optim.SGD(net.parameters(), lr=0.01, momentum=0.9, weight_decay=0.0001)

在上面的示例代码中,我们首先使用torch.device函数来检查计算机是否支持GPU,并将模型和数据移动到GPU上。然后,我们在优化器中使用momentumweight_decay参数来进一步优化模型的训练。

示例2:使用Dropout防止过拟合

如果你的模型出现了过拟合现象,你可以使用Dropout来防止过拟合。以下是示例代码:

import torch.nn.functional as F

# 定义模型
class Net(nn.Module):
    def __init__(self):
        super(Net, self).__init__()
        self.fc1 = nn.Linear(784, 256)
        self.fc2 = nn.Linear(256, 128)
        self.fc3 = nn.Linear(128, 10)
        self.dropout = nn.Dropout(p=0.5)

    def forward(self, x):
        x = x.view(-1, 784)
        x = F.relu(self.fc1(x))
        x = self.dropout(x)
        x = F.relu(self.fc2(x))
        x = self.dropout(x)
        x = self.fc3(x)
        return x

net = Net()

在上面的示例代码中,我们在模型中添加了两个Dropout层,并将p参数设置为0.5。在forward方法中,我们在第一和第二个全连接层之间使用Dropout层,以防止过拟合。

本站文章如无特殊说明,均为本站原创,如若转载,请注明出处:pytorch三层全连接层实现手写字母识别方式 - Python技术站

(0)
上一篇 2023年5月15日
下一篇 2023年5月15日

相关文章

  • Pytorch基础-张量基本操作

    Pytorch 中,张量的操作分为结构操作和数学运算,其理解就如字面意思。结构操作就是改变张量本身的结构,数学运算就是对张量的元素值完成数学运算。 一,张量的基本操作 二,维度变换 2.1,squeeze vs unsqueeze 维度增减 2.2,transpose vs permute 维度交换 三,索引切片 3.1,规则索引切片方式 3.2,gathe…

    2023年4月6日
    00
  • Anaconda安装之后Spyder打不开解决办法(亲测有效!)

    在安装Anaconda后,有时会出现Spyder无法打开的问题。本文提供一个完整的攻略,以帮助您解决这个问题。 解决办法 要解决Spyder无法打开的问题,请按照以下步骤操作: 打开Anaconda Prompt。 输入以下命令并运行: conda update anaconda-navigator 输入以下命令并运行: conda update navig…

    PyTorch 2023年5月15日
    00
  • pytorch实现特殊的Module–Sqeuential三种写法

    PyTorch中的nn.Sequential是一个特殊的模块,它允许我们按顺序组合多个模块。在本文中,我们将介绍三种不同的方法来使用nn.Sequential,并提供两个示例。 方法1:使用列表 第一种方法是使用列表来定义nn.Sequential。在这种方法中,我们将每个模块作为列表的一个元素,并将它们按顺序排列。以下是一个示例: import torch…

    PyTorch 2023年5月16日
    00
  • 用pytorch做手写数字识别,识别l率达97.8%

    pytorch做手写数字识别 效果如下:   工程目录如下   第一步  数据获取 下载MNIST库,这个库在网上,执行下面代码自动下载到当前data文件夹下 from torchvision.datasets import MNIST import torchvision mnist = MNIST(root=’./data’,train=True,dow…

    2023年4月8日
    00
  • pytorch之DataLoader()函数

    在训练神经网络时,最好是对一个batch的数据进行操作,同时还需要对数据进行shuffle和并行加速等。对此,PyTorch提供了DataLoader帮助我们实现这些功能。 DataLoader的函数定义如下: DataLoader(dataset, batch_size=1, shuffle=False, sampler=None, num_workers…

    PyTorch 2023年4月6日
    00
  • 怎么使用Pytorch+PyG实现MLP

    这篇文章主要讲解了“怎么使用Pytorch+PyG实现MLP”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“怎么使用Pytorch+PyG实现MLP”吧! 项目环境: 平台:Windows10 语言环境:python3.7 编译器:PyCharm PyTorch版本:1.11.0 PyG版本:2.1.0 一、导…

    2023年4月5日
    00
  • pytorch-Flatten操作

    1 class Flatten(nn.Module): 2 def __init__(self): 3 super(Flatten,self).__init__() 4 5 def forward(self,input): 6 shape = torch.prod(torch.tensor(x.shape[1:])).item() 7 # -1 把第一个维度…

    PyTorch 2023年4月8日
    00
  • pytorch和tensorflow的爱恨情仇之张量

    pytorch和tensorflow的爱恨情仇之基本数据类型:https://www.cnblogs.com/xiximayou/p/13759451.html pytorch版本:1.6.0 tensorflow版本:1.15.0 基本概念:标量、一维向量、二维矩阵、多维张量。 1、pytorch中的张量 (1)通过torch.Tensor()来建立常量 …

    2023年4月8日
    00
合作推广
合作推广
分享本页
返回顶部