在 Torch 中使用 Autograd 進行自動微分非常簡單。Autograd 是 Torch 中的自動微分引擎,可以根據輸入和前向運算自動計算梯度。
下面是一個簡單的示例,演示如何在 Torch 中使用 Autograd 進行自動微分:
import torch
# 創建一個張量并設置 requires_grad=True 來追蹤計算梯度
x = torch.tensor(2.0, requires_grad=True)
# 定義一個函數 y = x^2
y = x**2
# 使用 Autograd 計算梯度
y.backward()
# 打印出 x 的梯度
print(x.grad)
在這個示例中,我們首先創建了一個張量 x
,并設置 requires_grad=True
,這樣就可以追蹤計算梯度。然后定義了一個函數 y = x^2
,接著使用 y.backward()
來計算 y
相對于 x
的梯度。最后打印出 x
的梯度,即 dy/dx = 2x = 4
。
這樣,我們就可以在 Torch 中使用 Autograd 進行自動微分。Autograd 會自動跟蹤計算圖,并計算相對于需要梯度的張量的梯度。