一般来说我们最常见到的用法是这样的:
device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
等同于:
if torch.cuda.is_available():
device = torch.device("cuda")
else:
device = torch.device("cpu")
这个device的用处是作为Tensor或者Model被分配到的位置。因此,在构建device对象后,紧跟的代码往往是:
data = data.to(device)
model = Model(...).to(device)
表示将构建的张量或者模型分配到相应的设备上。
在PyTorch中,默认设备是CPU,如果想使用GPU,按照上述做法略显麻烦,可以全局设置:
torch.set_default.device()
功能: 设置默认计算张量的设备(CUDA或者CPU)
>>> torch.tensor([1.2, 3]).device
device(type="cpu")
>>> torch.set_default_device("cuda") # current device is 0
>>> torch.tensor([1.2, 3]).device
device(type="cuda", index=0)
>>> torch.set_default_device("cuda:1")
>>> torch.tensor([1.2, 3]).device
device(type="cuda", index=1)
提醒:这不会影响创建与输入共享相同内存的张量的函数,如:torch.from_numpy()和torch.from buffer()