中文字幕av专区_日韩电影在线播放_精品国产精品久久一区免费式_av在线免费观看网站

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

pytorch 實現模型不同層設置不同的學習率方式

發布時間:2020-10-17 07:41:25 來源:腳本之家 閱讀:457 作者:-wxrui- 欄目:開發技術

在目標檢測的模型訓練中, 我們通常都會有一個特征提取網絡backbone, 例如YOLO使用的darknet SSD使用的VGG-16。

為了達到比較好的訓練效果, 往往會加載預訓練的backbone模型參數, 然后在此基礎上訓練檢測網絡, 并對backbone進行微調, 這時候就需要為backbone設置一個較小的lr。

class net(torch.nn.Module):
  def __init__(self):
    super(net, self).__init__()
    # backbone
    self.backbone = ...
    # detect
    self....

在設置optimizer時, 只需要參數分為兩個部分, 并分別給定不同的學習率lr。

base_params = list(map(id, net.backbone.parameters()))
logits_params = filter(lambda p: id(p) not in base_params, net.parameters())
params = [
  {"params": logits_params, "lr": config.lr},
  {"params": net.backbone.parameters(), "lr": config.backbone_lr},
]
optimizer = torch.optim.SGD(params, momentum=config.momentum, weight_decay=config.weight_decay)
 

以上這篇pytorch 實現模型不同層設置不同的學習率方式就是小編分享給大家的全部內容了,希望能給大家一個參考,也希望大家多多支持億速云。

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

竹溪县| 五原县| 鱼台县| 阜阳市| 永州市| 九寨沟县| 韩城市| 台南市| 图片| 定安县| 克山县| 津市市| 城固县| 新绛县| 宁波市| 济源市| 武冈市| 凯里市| 禄丰县| 广南县| 青海省| 民丰县| 黄陵县| 遂平县| 镶黄旗| 张北县| 德昌县| 红安县| 乌拉特前旗| 布拖县| 淮北市| 竹北市| 崇义县| 安多县| 宝山区| 民丰县| 永新县| 石棉县| 报价| 临颍县| 田东县|