您好,登錄后才能下訂單哦!
1、有了已經訓練好的模型參數,對這個模型的某些層做了改變,如何利用這些訓練好的模型參數繼續訓練:
pretrained_params = torch.load('Pretrained_Model') model = The_New_Model(xxx) model.load_state_dict(pretrained_params.state_dict(), strict=False)
strict=False 使得預訓練模型參數中和新模型對應上的參數會被載入,對應不上或沒有的參數被拋棄。
2、如果載入的這些參數中,有些參數不要求被更新,即固定不變,不參與訓練,需要手動設置這些參數的梯度屬性為Fasle,并且在optimizer傳參時篩選掉這些參數:
# 載入預訓練模型參數后... for name, value in model.named_parameters(): if name 滿足某些條件: value.requires_grad = False # setup optimizer params = filter(lambda p: p.requires_grad, model.parameters()) optimizer = torch.optim.Adam(params, lr=1e-4)
將滿足條件的參數的 requires_grad 屬性設置為False, 同時 filter 函數將模型中屬性 requires_grad = True 的參數帥選出來,傳到優化器(以Adam為例)中,只有這些參數會被求導數和更新。
3、如果載入的這些參數中,所有參數都更新,但要求一些參數和另一些參數的更新速度(學習率learning rate)不一樣,最好知道這些參數的名稱都有什么:
# 載入預訓練模型參數后... for name, value in model.named_parameters(): print(name) # 或 print(model.state_dict().keys())
假設該模型中有encoder,viewer和decoder兩部分,參數名稱分別是:
'encoder.visual_emb.0.weight', 'encoder.visual_emb.0.bias', 'viewer.bd.Wsi', 'viewer.bd.bias', 'decoder.core.layer_0.weight_ih', 'decoder.core.layer_0.weight_hh',
假設要求encode、viewer的學習率為1e-6, decoder的學習率為1e-4,那么在將參數傳入優化器時:
ignored_params = list(map(id, model.decoder.parameters())) base_params = filter(lambda p: id(p) not in ignored_params, model.parameters()) optimizer = torch.optim.Adam([{'params':base_params,'lr':1e-6}, {'params':model.decoder.parameters()} ], lr=1e-4, momentum=0.9)
代碼的結果是除decoder參數的learning_rate=1e-4 外,其他參數的額learning_rate=1e-6。
在傳入optimizer時,和一般的傳參方法torch.optim.Adam(model.parameters(), lr=xxx) 不同,參數部分用了一個list, list的每個元素有params和lr兩個鍵值。如果沒有 lr則應用Adam的lr屬性。Adam的屬性除了lr, 其他都是參數所共有的(比如momentum)。
以上這篇pytorch載入預訓練模型后,實現訓練指定層就是小編分享給大家的全部內容了,希望能給大家一個參考,也希望大家多多支持億速云。
參考:
pytorch官方文檔
https://www.jb51.net/article/134943.htm
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。