在Torch中,可以通過torch.optim
模塊來定義一個優化器。優化器類通常包括優化算法的實現,例如SGD、Adam等。
以下是一個在Torch中定義Adam優化器的示例代碼:
import torch
import torch.optim as optim
# 定義模型
model = YourModel()
# 定義優化器
optimizer = optim.Adam(model.parameters(), lr=0.001)
在上面的示例中,首先需要定義一個模型YourModel
,然后通過optim.Adam
類來定義一個Adam優化器,其中model.parameters()
表示要優化的模型參數,lr
表示學習率。
除了Adam外,Torch還提供了其他常見的優化器類,如SGD、Adagrad、RMSprop等,可以根據具體的需求選擇合適的優化器。