中文字幕av专区_日韩电影在线播放_精品国产精品久久一区免费式_av在线免费观看网站

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

pytorch中gpu與gpu、gpu與cpu在load時是怎么相互轉化的

發布時間:2020-07-22 10:30:27 來源:億速云 閱讀:366 作者:小豬 欄目:開發技術

這篇文章主要講解了pytorch中gpu與gpu、gpu與cpu在load時是怎么相互轉化的,內容清晰明了,對此有興趣的小伙伴可以學習一下,相信大家閱讀完之后會有幫助。

問題描述

有時在加載已訓練好的模型時,會出現 out of memory 的錯誤提示,但仔細檢測使用的GPU卡并沒有再用且內存也沒有超出。

經查閱發現原來是訓練模型時使用的GPU卡和加載時使用的GPU卡不一樣導致的。個人感覺,因為pytorch的模型中是會記錄有GPU信息的,所以有時使用不同的GPU加載時會報錯。

解決方法

gpu之間的相互轉換。即,將訓練時的gpu卡轉換為加載時的gpu卡。

torch.load('modelparameters.pth', map_location={'cuda:1':'cuda:0'}) # gpu 1 --> gpu 0

當然,你也可以直接將加載模型時使用的gpu卡改為和訓練時的一樣。但在多人使用一個服務器時,你想用的gpu卡已被使用,就需按上面方法轉換gpu。

拓展

cpu --> cpu 或 gpu --> gpu

checkpoint = torch.load('modelparameters.pth')
model.load_state_dict(checkpoint)

cpu --> gpu 0

torch.load('modelparameters.pth', map_location=lambda storage, loc: storage.cuda(0))

gpu --> cpu

torch.load('modelparameters.pth', map_location=lambda storage, loc: storage)

gpu 1 --> gpu 0

torch.load('modelparameters.pth', map_location={'cuda:1':'cuda:0'})

補充知識:pytorch model.cuda()花費時間很長

如果pytorch在進行model.cuda()操作需要花費的時間很長,長到你懷疑GPU的速度了,那就是不正常的。

如果你用的pytorch版本是0.3.0,升級到0.3.1就好了!

看完上述內容,是不是對pytorch中gpu與gpu、gpu與cpu在load時是怎么相互轉化的有進一步的了解,如果還想學習更多內容,歡迎關注億速云行業資訊頻道。

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

芒康县| 太保市| 南木林县| 太仆寺旗| 洪湖市| 临颍县| 鹤峰县| 黎川县| 宁武县| 内江市| 滕州市| 汉沽区| 玛纳斯县| 沅陵县| 集贤县| 民乐县| 高邮市| 始兴县| 大港区| 巴彦县| 隆回县| 天柱县| 深水埗区| 突泉县| 南安市| 丹江口市| 岳池县| 金堂县| 仁布县| 洛南县| 姚安县| 石狮市| 洮南市| 饶河县| 洛浦县| 大悟县| 高邮市| 鄂托克前旗| 澳门| 乡城县| 舟山市|