理解

我的理解就是将原来的tensor在进行维度的更改(根据参数的输入进行更改)后再进行输出,其实就是更换了tensor的一种查看方式

例子

a=torch.Tensor([[[1,2,3],[4,5,6]]])
b=torch.Tensor([1,2,3,4,5,6])

print(a.view(1,6))
print(b.view(1,6))

输出结果为

tensor([[1., 2., 3., 4., 5., 6.]]) 

同样的:

a=torch.Tensor([[[1,2,3],[4,5,6]]])
print(a.view(3,2))

输出结果为:

tensor([[1., 2.],
        [3., 4.],
        [5., 6.]])

注意

但是要注意原来的tensor与新的tensor是共享内存的,也就是说对其中的一个tensor进行更改的话,另外一个tensor也会自动进行相应的修改。

那么如果想生成不共享内存的tensor要怎么做呢?

应该使用clone()函数克隆和再进行view(),而且使⽤ clone 还有⼀个好处是会被记录在计算图中,即梯度回传到副本时也会传到源 Tensor 。

x_cp = x.clone().view(15)
x -= 1
print(x)
print(x_cp)

输出的结果:

tensor([[ 0.6035, 0.8110, -0.0451],
 [ 0.8797, 1.0482, -0.0445],
 [-0.7229, 2.8663, -0.5655],
 [ 0.1604, -0.0254, 1.0739],
 [ 2.2628, -0.9175, -0.2251]])
tensor([1.6035, 1.8110, 0.9549, 1.8797, 2.0482, 0.9555, 0.2771,
3.8663, 0.4345,
 1.1604, 0.9746, 2.0739, 3.2628, 0.0825, 0.7749])

 

注意:有的是这样使用的

x.view(4, -1)

其中的-1是表示你不确定这里的维数是多少,但是你确定前面的行数是3,让系统自动调整