Torch中怎么使用Autograd进行自动微分

1136
2024/3/10 13:36:57
栏目: 深度学习
开发者测试专用服务器限时活动,0元免费领,库存有限,领完即止! 点击查看>>

在 Torch 中使用 Autograd 进行自动微分非常简单。Autograd 是 Torch 中的自动微分引擎,可以根据输入和前向运算自动计算梯度。

下面是一个简单的示例,演示如何在 Torch 中使用 Autograd 进行自动微分:

import torch

# 创建一个张量并设置 requires_grad=True 来追踪计算梯度
x = torch.tensor(2.0, requires_grad=True)

# 定义一个函数 y = x^2
y = x**2

# 使用 Autograd 计算梯度
y.backward()

# 打印出 x 的梯度
print(x.grad)

在这个示例中,我们首先创建了一个张量 x,并设置 requires_grad=True,这样就可以追踪计算梯度。然后定义了一个函数 y = x^2,接着使用 y.backward() 来计算 y 相对于 x 的梯度。最后打印出 x 的梯度,即 dy/dx = 2x = 4

这样,我们就可以在 Torch 中使用 Autograd 进行自动微分。Autograd 会自动跟踪计算图,并计算相对于需要梯度的张量的梯度。

辰迅云「云服务器」,即开即用、新一代英特尔至强铂金CPU、三副本存储NVMe SSD云盘,价格低至29元/月。点击查看>>

推荐阅读: Torch和TensorFlow相比有哪些区别