pytorch三层全连接层实现手写字母识别方式

下面是使用PyTorch实现手写字母识别的完整攻略,包含两个示例说明。

1. 加载数据集

首先,我们需要加载手写字母数据集。这里我们使用MNIST数据集,它包含了60000张28x28的手写数字图片和10000张测试图片。我们可以使用torchvision.datasets模块中的MNIST类来加载数据集。以下是示例代码:

import torch
import torchvision.datasets as datasets
import torchvision.transforms as transforms

# 加载数据集
transform = transforms.Compose([
    transforms.ToTensor(),
    transforms.Normalize((0.1307,), (0.3081,))
])
trainset = datasets.MNIST(root='./data', train=True, download=True, transform=transform)
testset = datasets.MNIST(root='./data', train=False, download=True, transform=transform)

在上面的示例代码中,我们首先定义了一个名为transform的变量,它包含了两个转换操作:将图片转换为张量和对张量进行归一化。然后,我们使用datasets.MNIST类加载数据集,并将transform变量传递给transform参数,以对数据进行转换。

2. 定义模型

接下来,我们需要定义一个包含三个全连接层的神经网络模型。我们可以使用torch.nn模块中的Linear类来定义全连接层。以下是示例代码:

import torch.nn as nn

# 定义模型
class Net(nn.Module):
    def __init__(self):
        super(Net, self).__init__()
        self.fc1 = nn.Linear(784, 256)
        self.fc2 = nn.Linear(256, 128)
        self.fc3 = nn.Linear(128, 10)

    def forward(self, x):
        x = x.view(-1, 784)
        x = nn.functional.relu(self.fc1(x))
        x = nn.functional.relu(self.fc2(x))
        x = self.fc3(x)
        return x

net = Net()

在上面的示例代码中,我们定义了一个名为Net的类,它继承自nn.Module。在__init__方法中,我们定义了三个全连接层,分别包含256个、128个和10个神经元。在forward方法中,我们首先将输入张量展平为一维张量,然后依次通过三个全连接层,并在第一和第二个全连接层之间使用ReLU激活函数。

3. 训练模型

接下来,我们需要训练模型。我们可以使用torch.optim模块中的优化器来优化模型参数,并使用nn.CrossEntropyLoss函数来计算损失。以下是示例代码:

import torch.optim as optim

# 定义损失函数和优化器
criterion = nn.CrossEntropyLoss()
optimizer = optim.SGD(net.parameters(), lr=0.01, momentum=0.9)

# 训练模型
for epoch in range(10):
    running_loss = 0.0
    for i, data in enumerate(trainset, 0):
        inputs, labels = data
        optimizer.zero_grad()
        outputs = net(inputs)
        loss = criterion(outputs, labels)
        loss.backward()
        optimizer.step()
        running_loss += loss.item()
        if i % 1000 == 999:
            print('[%d, %5d] loss: %.3f' % (epoch + 1, i + 1, running_loss / 1000))
            running_loss = 0.0

在上面的示例代码中,我们首先定义了一个名为criterion的变量,它是一个nn.CrossEntropyLoss函数。然后,我们定义了一个名为optimizer的变量,它是一个optim.SGD优化器,用于优化模型参数。接着,我们使用一个双重循环来训练模型。在内层循环中,我们首先将输入张量和标签张量传递给模型,然后计算损失并反向传播。最后,我们使用优化器来更新模型参数,并输出每1000个batch的平均损失。

4. 测试模型

最后,我们需要测试模型的性能。我们可以使用测试集来评估模型的准确率。以下是示例代码:

# 测试模型
correct = 0
total = 0
with torch.no_grad():
    for data in testset:
        images, labels = data
        outputs = net(images)
        _, predicted = torch.max(outputs.data, 1)
        total += labels.size(0)
        correct += (predicted == labels).sum().item()

print('Accuracy of the network on the 10000 test images: %d %%' % (100 * correct / total))

在上面的示例代码中,我们首先定义了两个变量correcttotal,用于记录模型的正确预测数和总预测数。然后,我们使用torch.no_grad()上下文管理器来关闭梯度计算,以加快模型的计算速度。在循环中,我们首先将输入张量传递给模型,并使用torch.max函数找到输出张量中的最大值和对应的索引。然后,我们将预测结果与标签进行比较,并更新correcttotal变量。最后,我们输出模型在测试集上的准确率。

示例1:使用GPU加速训练

如果你的计算机支持GPU,你可以使用GPU来加速模型的训练。以下是示例代码:

# 将模型和数据移动到GPU上
device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")
net.to(device)
inputs, labels = inputs.to(device), labels.to(device)

# 在优化器中使用momentum和weight_decay
optimizer = optim.SGD(net.parameters(), lr=0.01, momentum=0.9, weight_decay=0.0001)

在上面的示例代码中,我们首先使用torch.device函数来检查计算机是否支持GPU,并将模型和数据移动到GPU上。然后,我们在优化器中使用momentumweight_decay参数来进一步优化模型的训练。

示例2:使用Dropout防止过拟合

如果你的模型出现了过拟合现象,你可以使用Dropout来防止过拟合。以下是示例代码:

import torch.nn.functional as F

# 定义模型
class Net(nn.Module):
    def __init__(self):
        super(Net, self).__init__()
        self.fc1 = nn.Linear(784, 256)
        self.fc2 = nn.Linear(256, 128)
        self.fc3 = nn.Linear(128, 10)
        self.dropout = nn.Dropout(p=0.5)

    def forward(self, x):
        x = x.view(-1, 784)
        x = F.relu(self.fc1(x))
        x = self.dropout(x)
        x = F.relu(self.fc2(x))
        x = self.dropout(x)
        x = self.fc3(x)
        return x

net = Net()

在上面的示例代码中,我们在模型中添加了两个Dropout层,并将p参数设置为0.5。在forward方法中,我们在第一和第二个全连接层之间使用Dropout层,以防止过拟合。

本站文章如无特殊说明,均为本站原创,如若转载,请注明出处:pytorch三层全连接层实现手写字母识别方式 - Python技术站

(0)
上一篇 2023年5月15日
下一篇 2023年5月15日

相关文章

  • PyTorch自定义数据集

    数据传递机制 我们首先回顾识别手写数字的程序: … Dataset = torchvision.datasets.MNIST(root=’./mnist/’, train=True, transform=transform, download=True,) dataloader = torch.utils.data.DataLoader(dataset=…

    2023年4月7日
    00
  • 人工智能学习Pytorch教程Tensor基本操作示例详解

    人工智能学习Pytorch教程Tensor基本操作示例详解 本教程主要介绍了如何使用PyTorch中的Tensor进行基本操作,包括创建Tensor、访问Tensor和操作Tensor。同时,本教程还提供了两个示例,分别是使用Tensor进行线性回归和卷积操作。 创建Tensor 在PyTorch中,我们可以使用torch.Tensor()函数来创建一个Te…

    PyTorch 2023年5月15日
    00
  • 深度学习环境搭建常用网址、conda/pip命令行整理(pytorch、paddlepaddle等环境搭建)

    前言:最近研究深度学习,安装了好多环境,记录一下,方便后续查阅。 1. Anaconda软件安装 1.1 Anaconda Anaconda是一个用于科学计算的Python发行版,支持Linux、Mac、Windows,包含了众多流行的科学计算、数据分析的Python包。请自行到官网下载安装,下载速度太慢的话可移步清华源。 官网:https://repo.a…

    2023年4月8日
    00
  • Ubuntu下安装pytorch(GPU版)

    我这里主要参考了:https://blog.csdn.net/yimingsilence/article/details/79631567 并根据自己在安装中遇到的情况做了一些改动。   先说明一下我的Ubuntu和GPU版本: Ubuntu 16.04 GPU:GEFORCE GTX 1060   1. 查看显卡型号 使用命令:lspci | grep -…

    PyTorch 2023年4月8日
    00
  • PyTorch——(3) tensor基本运算

    @ 目录 矩阵乘法 tensor的幂 exp()/log() 近似运算 clamp() 截断 norm() 范数 max()/min() 最大最小值 mean() 均值 sun() 累加 prod() 累乘 argmax()/argmin() 最大最小值所在的索引 topk() 取最大的n个 kthvalue() 第k个小的值 比较运算 矩阵乘法 只对2d矩…

    2023年4月8日
    00
  • Pytorch保存模型用于测试和用于继续训练的区别详解

    PyTorch保存模型用于测试和用于继续训练的区别详解 在PyTorch中,我们可以使用torch.save函数将训练好的模型保存到磁盘上,以便在以后的时间内进行测试或继续训练。但是,保存模型用于测试和用于继续训练有一些区别。本文将详细介绍这些区别,并提供两个示例说明。 保存模型用于测试 当我们将模型保存用于测试时,我们通常只需要保存模型的权重,而不需要保存…

    PyTorch 2023年5月16日
    00
  • pytorch 实现张量tensor,图片,CPU,GPU,数组等的转换

    在PyTorch中,我们可以使用torch.Tensor类来创建张量。张量是PyTorch中最基本的数据结构,它可以表示任意维度的数组。在本文中,我们将深入探讨如何在PyTorch中实现张量、图片、CPU、GPU、数组等的转换。 实现张量的转换 在PyTorch中,我们可以使用torch.Tensor类来创建张量。我们可以使用torch.Tensor()函数…

    PyTorch 2023年5月15日
    00
  • pytorch中.to(device) 和.cuda()的区别说明

    在PyTorch中,使用GPU加速可以显著提高模型的训练速度。在将数据传递给GPU之前,需要将其转换为GPU可用的格式。本文将介绍PyTorch中.to(device)和.cuda()的区别,并演示两个示例。 .to(device)和.cuda()的区别 .to(device) .to(device)是PyTorch中的一个方法,可以将数据转换为指定设备(如…

    PyTorch 2023年5月15日
    00
合作推广
合作推广
分享本页
返回顶部