PyTorch实现AlexNet示例

以下是PyTorch实现AlexNet示例的完整攻略,包括两个示例说明。

1. 下载数据集

  1. 下载数据集

ImageNet官网下载ImageNet数据集。

  1. 解压数据集

将下载的数据集解压到本地文件夹中。

2. 示例1:使用PyTorch实现AlexNet

以下是使用PyTorch实现AlexNet的步骤:

  1. 导入必要的库

python
import torch
import torch.nn as nn
import torch.optim as optim
import torchvision
import torchvision.transforms as transforms

  1. 定义数据预处理

python
transform = transforms.Compose(
[transforms.Resize(256),
transforms.CenterCrop(224),
transforms.ToTensor(),
transforms.Normalize(mean=[0.485, 0.456, 0.406],
std=[0.229, 0.224, 0.225])])

  1. 加载数据集

```python
trainset = torchvision.datasets.ImageFolder(root='./data/train', transform=transform)
trainloader = torch.utils.data.DataLoader(trainset, batch_size=4, shuffle=True, num_workers=2)

testset = torchvision.datasets.ImageFolder(root='./data/test', transform=transform)
testloader = torch.utils.data.DataLoader(testset, batch_size=4, shuffle=False, num_workers=2)
```

  1. 定义AlexNet模型

```python
class AlexNet(nn.Module):
def init(self, num_classes=1000):
super(AlexNet, self).init()
self.features = nn.Sequential(
nn.Conv2d(3, 64, kernel_size=11, stride=4, padding=2),
nn.ReLU(inplace=True),
nn.MaxPool2d(kernel_size=3, stride=2),
nn.Conv2d(64, 192, kernel_size=5, padding=2),
nn.ReLU(inplace=True),
nn.MaxPool2d(kernel_size=3, stride=2),
nn.Conv2d(192, 384, kernel_size=3, padding=1),
nn.ReLU(inplace=True),
nn.Conv2d(384, 256, kernel_size=3, padding=1),
nn.ReLU(inplace=True),
nn.Conv2d(256, 256, kernel_size=3, padding=1),
nn.ReLU(inplace=True),
nn.MaxPool2d(kernel_size=3, stride=2),
)
self.avgpool = nn.AdaptiveAvgPool2d((6, 6))
self.classifier = nn.Sequential(
nn.Dropout(),
nn.Linear(256 * 6 * 6, 4096),
nn.ReLU(inplace=True),
nn.Dropout(),
nn.Linear(4096, 4096),
nn.ReLU(inplace=True),
nn.Linear(4096, num_classes),
)

   def forward(self, x):
       x = self.features(x)
       x = self.avgpool(x)
       x = torch.flatten(x, 1)
       x = self.classifier(x)
       return x

```

  1. 定义损失函数和优化器

python
net = AlexNet()
criterion = nn.CrossEntropyLoss()
optimizer = optim.SGD(net.parameters(), lr=0.001, momentum=0.9)

  1. 训练模型

```python
for epoch in range(10):
running_loss = 0.0
for i, data in enumerate(trainloader, 0):
inputs, labels = data
optimizer.zero_grad()
outputs = net(inputs)
loss = criterion(outputs, labels)
loss.backward()
optimizer.step()
running_loss += loss.item()
if i % 2000 == 1999:
print('[%d, %5d] loss: %.3f' %
(epoch + 1, i + 1, running_loss / 2000))
running_loss = 0.0

print('Finished Training')
```

  1. 测试模型

```python
correct = 0
total = 0
with torch.no_grad():
for data in testloader:
images, labels = data
outputs = net(images)
_, predicted = torch.max(outputs.data, 1)
total += labels.size(0)
correct += (predicted == labels).sum().item()

print('Accuracy of the network on the 10000 test images: %d %%' % (
100 * correct / total))
```

3. 示例2:使用预训练的AlexNet进行迁移学习

以下是使用预训练的AlexNet进行迁移学习的步骤:

  1. 导入必要的库

python
import torch
import torch.nn as nn
import torch.optim as optim
import torchvision
import torchvision.transforms as transforms

  1. 定义数据预处理

python
transform = transforms.Compose(
[transforms.Resize(256),
transforms.CenterCrop(224),
transforms.ToTensor(),
transforms.Normalize(mean=[0.485, 0.456, 0.406],
std=[0.229, 0.224, 0.225])])

  1. 加载数据集

```python
trainset = torchvision.datasets.ImageFolder(root='./data/train', transform=transform)
trainloader = torch.utils.data.DataLoader(trainset, batch_size=4, shuffle=True, num_workers=2)

testset = torchvision.datasets.ImageFolder(root='./data/test', transform=transform)
testloader = torch.utils.data.DataLoader(testset, batch_size=4, shuffle=False, num_workers=2)
```

  1. 加载预训练的AlexNet模型

python
net = torchvision.models.alexnet(pretrained=True)

  1. 冻结AlexNet的前几层

python
for param in net.parameters():
param.requires_grad = False

  1. 修改AlexNet的最后一层

python
num_ftrs = net.classifier[6].in_features
net.classifier[6] = nn.Linear(num_ftrs, 2)

  1. 定义损失函数和优化器

python
criterion = nn.CrossEntropyLoss()
optimizer = optim.SGD(net.classifier[6].parameters(), lr=0.001, momentum=0.9)

  1. 训练模型

```python
for epoch in range(10):
running_loss = 0.0
for i, data in enumerate(trainloader, 0):
inputs, labels = data
optimizer.zero_grad()
outputs = net(inputs)
loss = criterion(outputs, labels)
loss.backward()
optimizer.step()
running_loss += loss.item()
if i % 2000 == 1999:
print('[%d, %5d] loss: %.3f' %
(epoch + 1, i + 1, running_loss / 2000))
running_loss = 0.0

print('Finished Training')
```

  1. 测试模型

```python
correct = 0
total = 0
with torch.no_grad():
for data in testloader:
images, labels = data
outputs = net(images)
_, predicted = torch.max(outputs.data, 1)
total += labels.size(0)
correct += (predicted == labels).sum().item()

print('Accuracy of the network on the 10000 test images: %d %%' % (
100 * correct / total))
```

以上就是PyTorch实现AlexNet示例的完整攻略,包括两个示例说明。

本站文章如无特殊说明,均为本站原创,如若转载,请注明出处:PyTorch实现AlexNet示例 - Python技术站

(0)
上一篇 2023年5月15日
下一篇 2023年5月15日

相关文章

  • pytorch 液态算法实现瘦脸效果

    PyTorch液态算法实现瘦脸效果的完整攻略 1. 什么是液态算法 液态算法是一种基于物理仿真的图像处理技术,它可以模拟物质的流动和变形,从而实现对图像的变形和特效处理。在瘦脸效果中,液态算法可以模拟面部肌肉的收缩和拉伸,从而实现对面部轮廓的调整。 2. 安装必要的库 在使用液态算法之前,需要安装以下库: PyTorch NumPy OpenCV Matpl…

    PyTorch 2023年5月15日
    00
  • 使用visdom可视化pytorch训练过程

    1、安装 pip install visdom 或者 conda install -c conda-forge visdom 2、启动服务 python -m visdom.server 浏览器输入http://localhost:8097查看 3、使用 参考:https://github.com/noagarcia/visdom-tutorial http…

    PyTorch 2023年4月8日
    00
  • 使用pytorch加载并读取COCO数据集的详细操作

    COCO(Common Objects in Context)数据集是一个广泛使用的计算机视觉数据集,其中包含超过33万张图像和超过200万个标注。在本文中,我们将介绍如何使用PyTorch加载并读取COCO数据集。 步骤1:下载COCO数据集 首先,我们需要从COCO数据集的官方网站下载数据集。可以从以下链接下载: COCO 2017 Train imag…

    PyTorch 2023年5月15日
    00
  • 线性逻辑回归与非线性逻辑回归pytorch+sklearn

    1 import matplotlib.pyplot as plt 2 import numpy as np 3 from sklearn.metrics import classification_report 4 from sklearn import preprocessing 5 6 # 载入数据 7 data = np.genfromtxt(“LR…

    2023年4月6日
    00
  • pytorch: cudnn.benchmark=True

    import torch.backends.cudnn as cudnn cudnn.benchmark = True 设置这个 flag 可以让内置的 cuDNN 的 auto-tuner 自动寻找最适合当前配置的高效算法,来达到优化运行效率的问题。如果网络的输入数据维度或类型上变化不大,也就是每次训练的图像尺寸都是一样的时候,设置 torch.backe…

    PyTorch 2023年4月8日
    00
  • pytorch调用gpu

    第一步!指定gpu import osos.environ[“CUDA_VISIBLE_DEVICES”] = ‘0’ 第二步! 对于每一个要踹到gpu去的Tensor或者model x 使用x = x.cuda()就ok了 嘤嘤嘤

    PyTorch 2023年4月6日
    00
  • PyTorch中的CUDA的操作方法

    在PyTorch中,我们可以使用CUDA加速模型的训练和推理。本文将介绍PyTorch中的CUDA操作方法,并提供两个示例说明。 PyTorch中的CUDA操作方法 检查CUDA是否可用 在PyTorch中,我们可以使用torch.cuda.is_available()函数检查CUDA是否可用。如果CUDA可用,则返回True,否则返回False。 以下是一…

    PyTorch 2023年5月16日
    00
  • pytorch中torch.narrow()函数

    torch.narrow(input, dim, start, length) → Tensor Returns a new tensor that is a narrowed version of input tensor. The dimension dim is input from start to start +length. The return…

    PyTorch 2023年4月8日
    00
合作推广
合作推广
分享本页
返回顶部