在PyTorch中,我们可以使用以下两种方式来判断是否使用了CUDA以及变量的类型:
1. 使用torch.cuda.is_available()方法判断是否使用了CUDA
torch.cuda.is_available()方法返回一个布尔值,表示当前系统是否支持CUDA。如果返回True,则表示当前系统支持CUDA,否则不支持。
以下是一个示例代码:
import torch
if torch.cuda.is_available():
device = torch.device("cuda")
else:
device = torch.device("cpu")
print(device)
在上面的代码中,我们首先使用torch.cuda.is_available()方法判断当前系统是否支持CUDA,如果支持,则将设备设置为GPU,否则设置为CPU。
2. 使用torch.Tensor.device属性判断变量类型
在PyTorch中,我们可以使用torch.Tensor.device属性来判断变量的类型。如果该属性返回的是"cpu",则表示该变量在CPU上,否则在GPU上。
以下是一个示例代码:
import torch
x = torch.randn(3, 3)
if x.device.type == "cuda":
print("x is on GPU")
else:
print("x is on CPU")
在上面的代码中,我们首先定义了一个3x3的张量x,然后使用x.device.type属性判断x的类型是否为GPU。
以上就是使用PyTorch判断是否使用了CUDA以及变量类型的完整攻略,包含了两个示例说明。
本站文章如无特殊说明,均为本站原创,如若转载,请注明出处:pytorch判断是否cuda 判断变量类型方式 - Python技术站