PyTorch: 梯度下降及反向传播的实例详解
在PyTorch中,梯度下降和反向传播是训练神经网络的核心算法。本文将详细介绍这两个算法,并提供两个示例。
梯度下降
梯度下降是一种优化算法,用于最小化损失函数。在PyTorch中,我们可以使用torch.optim
模块中的优化器来实现梯度下降。以下是一个简单的梯度下降示例:
import torch
import torch.nn as nn
# 实例化模型
model = nn.Linear(10, 1)
# 定义损失函数和优化器
criterion = nn.MSELoss()
optimizer = torch.optim.SGD(model.parameters(), lr=0.01)
# 训练模型
for epoch in range(10):
for i in range(100):
x = torch.randn(32, 10)
y = torch.randn(32, 1)
optimizer.zero_grad()
output = model(x)
loss = criterion(output, y)
loss.backward()
optimizer.step()
print('Epoch [{}/{}], Loss: {:.4f}'.format(epoch+1, 10, loss.item()))
在这个示例中,我们首先实例化了一个名为model
的模型,并定义了一个名为criterion
的损失函数和一个名为optimizer
的优化器。然后,我们使用随机数据对模型进行了训练,并在每个epoch结束时输出损失值。
反向传播
反向传播是一种计算梯度的算法,用于训练神经网络。在PyTorch中,我们可以使用loss.backward()
函数来计算梯度。以下是一个简单的反向传播示例:
import torch
import torch.nn as nn
# 实例化模型
model = nn.Linear(10, 1)
# 定义损失函数和优化器
criterion = nn.MSELoss()
optimizer = torch.optim.SGD(model.parameters(), lr=0.01)
# 训练模型
for epoch in range(10):
for i in range(100):
x = torch.randn(32, 10)
y = torch.randn(32, 1)
optimizer.zero_grad()
output = model(x)
loss = criterion(output, y)
loss.backward()
optimizer.step()
print('Epoch [{}/{}], Loss: {:.4f}'.format(epoch+1, 10, loss.item()))
在这个示例中,我们首先实例化了一个名为model
的模型,并定义了一个名为criterion
的损失函数和一个名为optimizer
的优化器。然后,我们使用随机数据对模型进行了训练,并在每个epoch结束时输出损失值。
总结
在本文中,我们详细介绍了PyTorch中梯度下降和反向传播的实现,并提供了两个示例说明。如果您遵循这些步骤和示例,您应该能够在PyTorch中实现梯度下降和反向传播。
本站文章如无特殊说明,均为本站原创,如若转载,请注明出处:PyTorch: 梯度下降及反向传播的实例详解 - Python技术站