PyTorch中怎么使用GPU进行加速计算

608
2024/2/27 20:37:10
栏目: 编程语言
开发者测试专用服务器限时活动,0元免费领,库存有限,领完即止! 点击查看>>

在PyTorch中使用GPU进行加速计算非常简单,只需按照以下步骤操作:

  1. 检查是否有可用的GPU

首先,检查是否有可用的GPU设备。可以通过以下代码来获取可用的GPU设备列表:

import torch

if torch.cuda.is_available():
    device = torch.device('cuda')
    print('GPU is available')
else:
    device = torch.device('cpu')
    print('No GPU available, using CPU instead')
  1. 将模型和数据移动到GPU

接下来,将模型和数据移动到GPU设备上。可以通过以下代码将模型移动到GPU:

model = model.to(device)

对于数据,可以通过以下代码将Tensor移动到GPU:

data = data.to(device)
  1. 在GPU上进行计算

在模型和数据都移动到GPU设备后,接下来的计算都会在GPU上进行加速。在训练时,可以通过以下代码指定使用的设备:

model.train()
for batch in data_loader:
    inputs, targets = batch[0].to(device), batch[1].to(device)
    optimizer.zero_grad()
    outputs = model(inputs)
    loss = loss_function(outputs, targets)
    loss.backward()
    optimizer.step()

通过以上步骤,就可以在PyTorch中使用GPU进行加速计算了。

辰迅云「云服务器」,即开即用、新一代英特尔至强铂金CPU、三副本存储NVMe SSD云盘,价格低至29元/月。点击查看>>

推荐阅读: PyTorch中的TorchVision有哪些用途