PyTorch实现AlexNet示例

以下是PyTorch实现AlexNet示例的完整攻略,包括两个示例说明。

1. 下载数据集

  1. 下载数据集

ImageNet官网下载ImageNet数据集。

  1. 解压数据集

将下载的数据集解压到本地文件夹中。

2. 示例1:使用PyTorch实现AlexNet

以下是使用PyTorch实现AlexNet的步骤:

  1. 导入必要的库

python
import torch
import torch.nn as nn
import torch.optim as optim
import torchvision
import torchvision.transforms as transforms

  1. 定义数据预处理

python
transform = transforms.Compose(
[transforms.Resize(256),
transforms.CenterCrop(224),
transforms.ToTensor(),
transforms.Normalize(mean=[0.485, 0.456, 0.406],
std=[0.229, 0.224, 0.225])])

  1. 加载数据集

```python
trainset = torchvision.datasets.ImageFolder(root='./data/train', transform=transform)
trainloader = torch.utils.data.DataLoader(trainset, batch_size=4, shuffle=True, num_workers=2)

testset = torchvision.datasets.ImageFolder(root='./data/test', transform=transform)
testloader = torch.utils.data.DataLoader(testset, batch_size=4, shuffle=False, num_workers=2)
```

  1. 定义AlexNet模型

```python
class AlexNet(nn.Module):
def init(self, num_classes=1000):
super(AlexNet, self).init()
self.features = nn.Sequential(
nn.Conv2d(3, 64, kernel_size=11, stride=4, padding=2),
nn.ReLU(inplace=True),
nn.MaxPool2d(kernel_size=3, stride=2),
nn.Conv2d(64, 192, kernel_size=5, padding=2),
nn.ReLU(inplace=True),
nn.MaxPool2d(kernel_size=3, stride=2),
nn.Conv2d(192, 384, kernel_size=3, padding=1),
nn.ReLU(inplace=True),
nn.Conv2d(384, 256, kernel_size=3, padding=1),
nn.ReLU(inplace=True),
nn.Conv2d(256, 256, kernel_size=3, padding=1),
nn.ReLU(inplace=True),
nn.MaxPool2d(kernel_size=3, stride=2),
)
self.avgpool = nn.AdaptiveAvgPool2d((6, 6))
self.classifier = nn.Sequential(
nn.Dropout(),
nn.Linear(256 * 6 * 6, 4096),
nn.ReLU(inplace=True),
nn.Dropout(),
nn.Linear(4096, 4096),
nn.ReLU(inplace=True),
nn.Linear(4096, num_classes),
)

   def forward(self, x):
       x = self.features(x)
       x = self.avgpool(x)
       x = torch.flatten(x, 1)
       x = self.classifier(x)
       return x

```

  1. 定义损失函数和优化器

python
net = AlexNet()
criterion = nn.CrossEntropyLoss()
optimizer = optim.SGD(net.parameters(), lr=0.001, momentum=0.9)

  1. 训练模型

```python
for epoch in range(10):
running_loss = 0.0
for i, data in enumerate(trainloader, 0):
inputs, labels = data
optimizer.zero_grad()
outputs = net(inputs)
loss = criterion(outputs, labels)
loss.backward()
optimizer.step()
running_loss += loss.item()
if i % 2000 == 1999:
print('[%d, %5d] loss: %.3f' %
(epoch + 1, i + 1, running_loss / 2000))
running_loss = 0.0

print('Finished Training')
```

  1. 测试模型

```python
correct = 0
total = 0
with torch.no_grad():
for data in testloader:
images, labels = data
outputs = net(images)
_, predicted = torch.max(outputs.data, 1)
total += labels.size(0)
correct += (predicted == labels).sum().item()

print('Accuracy of the network on the 10000 test images: %d %%' % (
100 * correct / total))
```

3. 示例2:使用预训练的AlexNet进行迁移学习

以下是使用预训练的AlexNet进行迁移学习的步骤:

  1. 导入必要的库

python
import torch
import torch.nn as nn
import torch.optim as optim
import torchvision
import torchvision.transforms as transforms

  1. 定义数据预处理

python
transform = transforms.Compose(
[transforms.Resize(256),
transforms.CenterCrop(224),
transforms.ToTensor(),
transforms.Normalize(mean=[0.485, 0.456, 0.406],
std=[0.229, 0.224, 0.225])])

  1. 加载数据集

```python
trainset = torchvision.datasets.ImageFolder(root='./data/train', transform=transform)
trainloader = torch.utils.data.DataLoader(trainset, batch_size=4, shuffle=True, num_workers=2)

testset = torchvision.datasets.ImageFolder(root='./data/test', transform=transform)
testloader = torch.utils.data.DataLoader(testset, batch_size=4, shuffle=False, num_workers=2)
```

  1. 加载预训练的AlexNet模型

python
net = torchvision.models.alexnet(pretrained=True)

  1. 冻结AlexNet的前几层

python
for param in net.parameters():
param.requires_grad = False

  1. 修改AlexNet的最后一层

python
num_ftrs = net.classifier[6].in_features
net.classifier[6] = nn.Linear(num_ftrs, 2)

  1. 定义损失函数和优化器

python
criterion = nn.CrossEntropyLoss()
optimizer = optim.SGD(net.classifier[6].parameters(), lr=0.001, momentum=0.9)

  1. 训练模型

```python
for epoch in range(10):
running_loss = 0.0
for i, data in enumerate(trainloader, 0):
inputs, labels = data
optimizer.zero_grad()
outputs = net(inputs)
loss = criterion(outputs, labels)
loss.backward()
optimizer.step()
running_loss += loss.item()
if i % 2000 == 1999:
print('[%d, %5d] loss: %.3f' %
(epoch + 1, i + 1, running_loss / 2000))
running_loss = 0.0

print('Finished Training')
```

  1. 测试模型

```python
correct = 0
total = 0
with torch.no_grad():
for data in testloader:
images, labels = data
outputs = net(images)
_, predicted = torch.max(outputs.data, 1)
total += labels.size(0)
correct += (predicted == labels).sum().item()

print('Accuracy of the network on the 10000 test images: %d %%' % (
100 * correct / total))
```

以上就是PyTorch实现AlexNet示例的完整攻略,包括两个示例说明。

本站文章如无特殊说明,均为本站原创,如若转载,请注明出处:PyTorch实现AlexNet示例 - Python技术站

(0)
上一篇 2023年5月15日
下一篇 2023年5月15日

相关文章

  • PyTorch Softmax

    PyTorch provides 2 kinds of Softmax class. The one is applying softmax along a certain dimension. The other is do softmax on a spatial matrix sized in B, C, H, W. But it seems like…

    2023年4月8日
    00
  • pytorch LSTM情感分类全部代码

    先运行main.py进行文本序列化,再train.py模型训练   dataset.py from torch.utils.data import DataLoader,Dataset import torch import os from utils import tokenlize import config class ImdbDataset(Data…

    PyTorch 2023年4月8日
    00
  • pytorch安装及环境配置的完整过程

    PyTorch安装及环境配置的完整过程 在本文中,我们将介绍如何在Windows操作系统下安装和配置PyTorch。我们将提供两个示例,一个是使用pip安装,另一个是使用Anaconda安装。 示例1:使用pip安装 以下是使用pip安装PyTorch的示例代码: 打开命令提示符或PowerShell窗口。 输入以下命令来安装Torch: pip insta…

    PyTorch 2023年5月16日
    00
  • PyTorch ImageFolder自定义数据集

    在PyTorch自定义数据集中,我们介绍了如何通过重写Dataset类来自定义数据集,但其实对于图像数据,自定义数据集有一个更简单的方法,那就是直接调用ImageFolder,它是torchvision.datasets里的函数。 ImageFolder介绍 ImageFolder假设所有的文件按文件夹保存,每个文件夹下存储同一个类别的图片,文件夹名为类名,…

    2023年4月7日
    00
  • 训练一个图像分类器demo in PyTorch【学习笔记】

    【学习源】Tutorials > Deep Learning with PyTorch: A 60 Minute Blitz > Training a Classifier  本文相当于对上面链接教程中自认为有用部分进行的截取、翻译和再注释。便于日后复习、修正和补充。 边写边查资料的过程中猛然发现这居然有中文文档……不过中文文档也是志愿者翻译的,…

    2023年4月8日
    00
  • 深度学习之PyTorch实战(4)——迁移学习

      (这篇博客其实很早之前就写过了,就是自己对当前学习pytorch的一个教程学习做了一个学习笔记,一直未发现,今天整理一下,发出来与前面基础形成连载,方便初学者看,但是可能部分pytorch和torchvision的API接口已经更新了,导致部分代码会产生报错,但是其思想还是可以借鉴的。 因为其中内容相对比较简单,而且目前其实torchvision中已经存…

    2023年4月5日
    00
  • 解决pytorch GPU 计算过程中出现内存耗尽的问题

    在PyTorch中,当进行GPU计算时,可能会出现内存耗尽的问题。本文将介绍如何解决PyTorch GPU计算过程中出现内存耗尽的问题,并提供两个示例说明。 1. 解决内存耗尽的问题 当进行GPU计算时,可能会出现内存耗尽的问题。为了解决这个问题,可以采取以下几种方法: 1.1 减少批量大小 减少批量大小是解决内存耗尽问题的最简单方法。可以通过减少批量大小来…

    PyTorch 2023年5月15日
    00
  • Pyinstaller打包Pytorch框架所遇到的问题

    目录 前言 基本流程 一、安装Pyinstaller 和 测试Hello World 二、打包整个项目,在本机上调试生成exe 三、在新电脑上测试 参考资料 前言   第一次尝试用Pyinstaller打包Pytorch,碰见了很多问题,耗费了许多时间!想把这个过程中碰到的问题与解决方法记录一下,方便后来者。 基本流程   使用Pyinstaller打包流程…

    2023年4月8日
    00
合作推广
合作推广
分享本页
返回顶部