手把手教你实现PyTorch的MNIST数据集

手把手教你实现PyTorch的MNIST数据集

在本文中,我们将手把手教你如何使用PyTorch实现MNIST数据集的分类任务。我们将使用两个示例来说明如何完成这些步骤。

示例1:使用全连接神经网络实现MNIST分类

以下是使用全连接神经网络实现MNIST分类的步骤:

import torch
import torch.nn as nn
import torch.optim as optim
from torchvision import datasets, transforms

# 定义数据预处理
transform = transforms.Compose([
    transforms.ToTensor(),
    transforms.Normalize((0.1307,), (0.3081,))
])

# 加载数据集
train_dataset = datasets.MNIST('data', train=True, download=True, transform=transform)
test_dataset = datasets.MNIST('data', train=False, download=True, transform=transform)

# 定义模型
class Net(nn.Module):
    def __init__(self):
        super(Net, self).__init__()
        self.fc1 = nn.Linear(784, 128)
        self.fc2 = nn.Linear(128, 10)

    def forward(self, x):
        x = x.view(-1, 784)
        x = torch.relu(self.fc1(x))
        x = self.fc2(x)
        return x

model = Net()

# 定义损失函数和优化器
criterion = nn.CrossEntropyLoss()
optimizer = optim.SGD(model.parameters(), lr=0.1)

# 训练模型
for epoch in range(10):
    running_loss = 0.0
    for i, data in enumerate(train_dataset, 0):
        inputs, labels = data
        optimizer.zero_grad()
        outputs = model(inputs)
        loss = criterion(outputs, labels)
        loss.backward()
        optimizer.step()
        running_loss += loss.item()

    print(f'Epoch {epoch + 1}, Loss: {running_loss / len(train_dataset)}')

# 测试模型
correct = 0
total = 0
with torch.no_grad():
    for data in test_dataset:
        inputs, labels = data
        outputs = model(inputs)
        _, predicted = torch.max(outputs.data, 1)
        total += 1
        correct += (predicted == labels).sum().item()

print(f'Accuracy: {correct / len(test_dataset)}')

在上述代码中,我们首先定义了数据预处理,然后加载了MNIST数据集。接着,我们定义了一个简单的全连接神经网络Net,它含有一个输入层、一个隐藏层和一个输出层。然后,我们创建了一个模型实例model。我们还定义了损失函数criterion和优化器optimizer。在训练模型的过程中,我们使用交叉熵损失函数nn.CrossEntropyLoss()来计算损失。在测试模型的过程中,我们使用torch.max()函数来获取输出中的最大值,并将其与标签进行比较以计算准确度。

示例2:使用卷积神经网络实现MNIST分类

以下是使用卷积神经网络实现MNIST分类的步骤:

import torch
import torch.nn as nn
import torch.optim as optim
from torchvision import datasets, transforms

# 定义数据预处理
transform = transforms.Compose([
    transforms.ToTensor(),
    transforms.Normalize((0.1307,), (0.3081,))
])

# 加载数据集
train_dataset = datasets.MNIST('data', train=True, download=True, transform=transform)
test_dataset = datasets.MNIST('data', train=False, download=True, transform=transform)

# 定义模型
class Net(nn.Module):
    def __init__(self):
        super(Net, self).__init__()
        self.conv1 = nn.Conv2d(1, 32, kernel_size=5, padding=2)
        self.conv2 = nn.Conv2d(32, 64, kernel_size=5, padding=2)
        self.fc1 = nn.Linear(7 * 7 * 64, 1024)
        self.fc2 = nn.Linear(1024, 10)

    def forward(self, x):
        x = torch.relu(self.conv1(x))
        x = torch.max_pool2d(x, 2)
        x = torch.relu(self.conv2(x))
        x = torch.max_pool2d(x, 2)
        x = x.view(-1, 7 * 7 * 64)
        x = torch.relu(self.fc1(x))
        x = self.fc2(x)
        return x

model = Net()

# 定义损失函数和优化器
criterion = nn.CrossEntropyLoss()
optimizer = optim.SGD(model.parameters(), lr=0.1)

# 训练模型
for epoch in range(10):
    running_loss = 0.0
    for i, data in enumerate(train_dataset, 0):
        inputs, labels = data
        optimizer.zero_grad()
        outputs = model(inputs)
        loss = criterion(outputs, labels)
        loss.backward()
        optimizer.step()
        running_loss += loss.item()

    print(f'Epoch {epoch + 1}, Loss: {running_loss / len(train_dataset)}')

# 测试模型
correct = 0
total = 0
with torch.no_grad():
    for data in test_dataset:
        inputs, labels = data
        outputs = model(inputs)
        _, predicted = torch.max(outputs.data, 1)
        total += 1
        correct += (predicted == labels).sum().item()

print(f'Accuracy: {correct / len(test_dataset)}')

在上述代码中,我们首先定义了数据预处理,然后加载了MNIST数据集。接着,我们定义了一个简单的卷积神经网络Net,它含有两个卷积层、两个池化层和两个全连接层。然后,我们创建了一个模型实例model。我们还定义了损失函数criterion和优化器optimizer。在训练模型的过程中,我们使用交叉熵损失函数nn.CrossEntropyLoss()来计算损失。在测试模型的过程中,我们使用torch.max()函数来获取输出中的最大值,并将其与标签进行比较以计算准确度。

结论

在本文中,我们手把手教你如何使用PyTorch实现MNIST数据集的分类任务。我们使用了两个示例来说明如何完成这些步骤。如果您按照这些步骤操作,您应该能够成功实现MNIST分类并在训练模型时使用它们。

本站文章如无特殊说明,均为本站原创,如若转载,请注明出处:手把手教你实现PyTorch的MNIST数据集 - Python技术站

(0)
上一篇 2023年5月15日
下一篇 2023年5月15日

相关文章

  • pytorch中Parameter函数用法示例

    PyTorch中Parameter函数用法示例 在PyTorch中,Parameter函数是一个特殊的张量,它被自动注册为模型的可训练参数。本文将介绍Parameter函数的用法,并演示两个示例。 示例一:使用Parameter函数定义可训练参数 import torch import torch.nn as nn class MyModel(nn.Modu…

    PyTorch 2023年5月15日
    00
  • 解决pytorch trainloader遇到的多进程问题

    在PyTorch中,我们可以使用torch.utils.data.DataLoader来加载数据集。该函数可以自动将数据集分成多个批次,并使用多进程来加速数据加载。然而,在使用多进程时,可能会遇到一些问题,例如死锁或数据加载错误。在本文中,我们将介绍如何解决PyTorch中DataLoader遇到的多进程问题。 问题描述 在使用DataLoader加载数据集…

    PyTorch 2023年5月15日
    00
  • 莫烦PyTorch学习笔记(六)——批处理

    1.要点 Torch 中提供了一种帮你整理你的数据结构的好东西, 叫做 DataLoader, 我们能用它来包装自己的数据, 进行批训练. 而且批训练可以有很多种途径。 2.DataLoader DataLoader 是 torch 给你用来包装你的数据的工具. 所以你要讲自己的 (numpy array 或其他) 数据形式装换成 Tensor, 然后再放进…

    PyTorch 2023年4月8日
    00
  • 动手学pytorch-MLP

    1.激活函数 ReLU LeakyReLU Tanh …手册 2.手写 3.使用pytorch简洁实现

    2023年4月6日
    00
  • Pytorch中的学习率衰减及其用法详解

    PyTorch中的学习率衰减及其用法详解 在本文中,我们将介绍PyTorch中的学习率衰减及其用法。我们将使用两个示例来说明如何在PyTorch中使用学习率衰减。 学习率衰减 学习率衰减是一种优化算法,它可以在训练过程中逐渐降低学习率。这有助于模型在训练后期更好地收敛。在PyTorch中,我们可以使用torch.optim.lr_scheduler模块来实现…

    PyTorch 2023年5月15日
    00
  • 基于pytorch框架的手写数字识别(mnist数据集)

    前段时间开始学习pytorch,学习了一点pytorch的小语法,在网上找到了pytorch入门写CNN的代码,自己尝试读懂加上注释。更多的了解一下pytorch,代码注释写的还算清楚,在阅读代码之前可以看一下我收获的知识都是在代码里遇到的不会的语句,我自己通过阅读别博客获取的知识,大多数都是torch在读取数据的操作。先读一下这个有利于阅读代码。 收获的知…

    2023年4月8日
    00
  • pytorch中常用的乘法运算及相关的运算符(@和*)

    在PyTorch中,乘法运算是非常常见的操作,它可以用于矩阵乘法、点乘、向量乘法等。本文将介绍PyTorch中常用的乘法运算及相关的运算符(@和*),并提供两个示例说明。 PyTorch中的乘法运算 矩阵乘法 在PyTorch中,我们可以使用torch.mm或torch.matmul函数进行矩阵乘法。这两个函数的区别在于,当输入的张量维度大于2时,torch…

    PyTorch 2023年5月16日
    00
  • Pytorch分布式训练

    用单机单卡训练模型的时代已经过去,单机多卡已经成为主流配置。如何最大化发挥多卡的作用呢?本文介绍Pytorch中的DistributedDataParallel方法。 用单机单卡训练模型的时代已经过去,单机多卡已经成为主流配置。如何最大化发挥多卡的作用呢?本文介绍Pytorch中的DistributedDataParallel方法。 1. DataParal…

    2023年4月8日
    00
合作推广
合作推广
分享本页
返回顶部