人工智能学习Pytorch教程Tensor基本操作示例详解

人工智能学习Pytorch教程Tensor基本操作示例详解

本教程主要介绍了如何使用PyTorch中的Tensor进行基本操作,包括创建Tensor、访问Tensor和操作Tensor。同时,本教程还提供了两个示例,分别是使用Tensor进行线性回归和卷积操作。

创建Tensor

在PyTorch中,我们可以使用torch.Tensor()函数来创建一个Tensor。例如,我们可以使用以下代码创建一个2x3的Tensor:

import torch

x = torch.Tensor([[1, 2, 3], [4, 5, 6]])
print(x)

输出:

tensor([[1., 2., 3.],
        [4., 5., 6.]])

我们还可以使用其他函数来创建Tensor,例如:

  • torch.zeros():创建一个全为0的Tensor
  • torch.ones():创建一个全为1的Tensor
  • torch.rand():创建一个随机初始化的Tensor

例如,我们可以使用以下代码创建一个3x3的全为0的Tensor:

import torch

x = torch.zeros(3, 3)
print(x)

输出:

tensor([[0., 0., 0.],
        [0., 0., 0.],
        [0., 0., 0.]])

访问Tensor

我们可以使用索引来访问Tensor中的元素。例如,我们可以使用以下代码访问Tensor中的第一个元素:

import torch

x = torch.Tensor([[1, 2, 3], [4, 5, 6]])
print(x[0][0])

输出:

tensor(1.)

我们还可以使用切片来访问Tensor中的子集。例如,我们可以使用以下代码访问Tensor中的第一行:

import torch

x = torch.Tensor([[1, 2, 3], [4, 5, 6]])
print(x[0, :])

输出:

tensor([1., 2., 3.])

操作Tensor

在PyTorch中,我们可以使用各种函数来操作Tensor。例如,我们可以使用以下代码将两个Tensor相加:

import torch

x = torch.Tensor([[1, 2, 3], [4, 5, 6]])
y = torch.Tensor([[7, 8, 9], [10, 11, 12]])
z = x + y
print(z)

输出:

tensor([[ 8., 10., 12.],
        [14., 16., 18.]])

我们还可以使用其他函数来操作Tensor,例如:

  • torch.sum():计算Tensor中所有元素的和
  • torch.mean():计算Tensor中所有元素的平均值
  • torch.max():计算Tensor中所有元素的最大值
  • torch.min():计算Tensor中所有元素的最小值

例如,我们可以使用以下代码计算Tensor中所有元素的和:

import torch

x = torch.Tensor([[1, 2, 3], [4, 5, 6]])
print(torch.sum(x))

输出:

tensor(21.)

示例1:使用Tensor进行线性回归

在这个示例中,我们将使用Tensor来实现一个简单的线性回归模型。我们将使用以下公式来拟合一个线性函数:

y = 2x + 1

我们将使用随机生成的数据来训练模型,并使用梯度下降算法来更新模型参数。

import torch

# 生成随机数据
x = torch.randn(100, 1) * 10
y = x * 2 + 1 + torch.randn(100, 1)

# 定义模型
w = torch.randn(1, 1, requires_grad=True)
b = torch.randn(1, 1, requires_grad=True)

# 定义损失函数和优化器
criterion = torch.nn.MSELoss()
optimizer = torch.optim.SGD([w, b], lr=0.01)

# 进行模型训练
for epoch in range(1000):
    # 前向传播
    y_pred = x.mm(w) + b

    # 计算损失
    loss = criterion(y_pred, y)

    # 反向传播
    loss.backward()

    # 更新模型参数
    optimizer.step()
    optimizer.zero_grad()

    # 打印训练日志
    if (epoch + 1) % 100 == 0:
        print('Epoch [{}/{}], Loss: {:.4f}'.format+1, 1000, loss.item()))

# 打印最终模型参数
print('w: {:.4f}, b: {:.4f}'.format(w.item(), b.item()))

在这个示例中,我们首先生成了100个随机数据点,并使用这些数据点来训练模型。然后,我们定义了一个包含一个权重和一个偏置的线性模型。我们使用均方误差损失函数和随机梯度下降优化器来训练模型。最后,我们打印了最终的模型参数。

示例2:使用Tensor进行卷积操作

在这个示例中,我们将使用Tensor来实现一个简单的卷积操作。我们将使用一个3x3的卷积核来对一个5x5的图像进行卷积操作。

import torch

# 定义输入图像和卷积核
x = torch.Tensor([[1, 2, 3, 4, 5],
                  [6, 7, 8, 9, 10],
                  [11, 12, 13, 14, 15],
                  [16, 17, 18, 19, 20],
                  [21, 22, 23, 24, 25]])
k = torch.Tensor([[1, 0, -1],
                  [2, 0, -2],
                  [1, 0, -1]])

# 定义卷积操作
def conv2d(x, k):
    h, w = k.size()
    y = torch.zeros(x.size()[0]-h+1, x.size()[1]-w+1)
    for i in range(y.size()[0]):
        for j in range(y.size()[1]):
            y[i][j] = torch.sum(x[i:i+h, j:j+w] * k)
    return y

# 进行卷积操作
y = conv2d(x, k)

# 打印卷积结果print(y)

在这个示例中,我们首先定义了一个5x5的输入图像和一个3x3的卷积核。然后,我们定义了一个卷积操作函数,该函数使用循环来计算卷积结果。最后,我们使用输入图像和卷积核来进行卷积操作,并打印卷积结果。

本站文章如无特殊说明,均为本站原创,如若转载,请注明出处:人工智能学习Pytorch教程Tensor基本操作示例详解 - Python技术站

(0)
上一篇 2023年5月15日
下一篇 2023年5月15日

相关文章

  • Pytorch使用PIL和Numpy将单张图片转为Pytorch张量方式

    将单张图片转为PyTorch张量是深度学习中常见的操作之一。在PyTorch中,我们可以使用PIL和Numpy库来实现这一操作。本文将提供一个详细的图文教程,介绍如何使用PIL和Numpy将单张图片转为PyTorch张量,并提供两个示例说明。 1. 使用PIL将单张图片转为PyTorch张量 以下是一个示例代码,展示了如何使用PIL将单张图片转为PyTorc…

    PyTorch 2023年5月15日
    00
  • pytorch中torch.narrow()函数

    torch.narrow(input, dim, start, length) → Tensor Returns a new tensor that is a narrowed version of input tensor. The dimension dim is input from start to start +length. The return…

    PyTorch 2023年4月8日
    00
  • 关于PyTorch 自动求导机制详解

    关于PyTorch自动求导机制详解 在PyTorch中,自动求导机制是深度学习中非常重要的一部分。它允许我们自动计算梯度,从而使我们能够更轻松地训练神经网络。在本文中,我们将详细介绍PyTorch的自动求导机制,并提供两个示例说明。 示例1:使用PyTorch自动求导机制计算梯度 以下是一个使用PyTorch自动求导机制计算梯度的示例代码: import t…

    PyTorch 2023年5月16日
    00
  • pytorch的visdom启动不了、蓝屏

    pytorch的visdom启动不了、蓝屏     问题描述:我是在ubuntu16。04上用python3.5安装的visdom。可是启动是蓝屏:在网上找了很久的解决方案:有三篇博文:      https://blog.csdn.net/qq_22194315/article/details/78827185 https://blog.csdn.net/…

    PyTorch 2023年4月8日
    00
  • Pytorch中.new()的作用详解

    PyTorch中.new()的作用详解 在PyTorch中,.new()是一个非常有用的方法,它可以用来创建一个新的Tensor,同时可以指定新Tensor的形状、数据类型、设备等属性。本文将详细介绍.new()的用法和示例。 1. .new()的基本用法 .new()的基本用法如下: new_tensor = tensor.new(size=None, d…

    PyTorch 2023年5月15日
    00
  • LeNet-5 pytorch+torchvision+visdom

    # ====================LeNet-5_main.py=============== # pytorch+torchvision+visdom 1 # -*- coding: utf-8 -*- 2 “”” 3 Created on Sun May 26 22:53:52 2019 4 5 @author: jiangshan 6 “””…

    PyTorch 2023年4月6日
    00
  • 莫烦PyTorch学习笔记(六)——批处理

    1.要点 Torch 中提供了一种帮你整理你的数据结构的好东西, 叫做 DataLoader, 我们能用它来包装自己的数据, 进行批训练. 而且批训练可以有很多种途径。 2.DataLoader DataLoader 是 torch 给你用来包装你的数据的工具. 所以你要讲自己的 (numpy array 或其他) 数据形式装换成 Tensor, 然后再放进…

    PyTorch 2023年4月8日
    00
  • Pytorch怎样保存训练好的模型

    在PyTorch中,我们可以使用torch.save()函数来保存训练好的模型。该函数接受两个参数:要保存的模型和保存模型的文件路径。我们还可以使用torch.load()函数来加载已保存的模型。 以下是详细的攻略: 保存模型 我们可以使用torch.save()函数来保存训练好的模型。该函数接受两个参数:要保存的模型和保存模型的文件路径。我们可以使用.pt…

    PyTorch 2023年5月15日
    00
合作推广
合作推广
分享本页
返回顶部