中文字幕av专区_日韩电影在线播放_精品国产精品久久一区免费式_av在线免费观看网站

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

如何解決pytorch損失反向傳播后梯度為none的問題

發布時間:2022-02-25 15:54:50 來源:億速云 閱讀:1019 作者:iii 欄目:開發技術

這篇文章主要講解了“如何解決pytorch損失反向傳播后梯度為none的問題”,文中的講解內容簡單清晰,易于學習與理解,下面請大家跟著小編的思路慢慢深入,一起來研究和學習“如何解決pytorch損失反向傳播后梯度為none的問題”吧!

錯誤代碼:輸出grad為none

a = torch.ones((2, 2), requires_grad=True).to(device)
b = a.sum()
b.backward()
print(a.grad)

由于.to(device)是一次操作,此時的a已經不是葉子節點了

修改后的代碼為:

a = torch.ones((2, 2), requires_grad=True)
c = a.to(device)

b = c.sum()
b.backward()
print(a.grad)

類似錯誤:

self.miu = torch.nn.Parameter(torch.ones(self.dimensional)) * 0.01

應該為

self.miu = torch.nn.Parameter(torch.ones(self.dimensional) * 0.01)

補充:pytorch梯度返回none的bug

pytorch2.4.0如果使用了view方法,reshape方法

tensor即使設置了requires_grad,反向傳播之后, x返回沒有grad梯度,為none

不知道其他版本有無此bug

如何解決pytorch損失反向傳播后梯度為none的問題 如何解決pytorch損失反向傳播后梯度為none的問題 如何解決pytorch損失反向傳播后梯度為none的問題

補充:PyTorch中梯度反向傳播的注意點

在一個迭代循環中

optimizer.zero_grad()語句的位置比較隨意,只要放在loss.backward()前面即可,它的作用是將梯度歸零,否則會在每一個迭代中進行累加,

loss.backward()的作用是反向傳播,計算梯度,optimizer.step()的功能是優化器自動完成參數的更新。

optimizer.zero_grad()
loss.backward()
optimizer.step()

感謝各位的閱讀,以上就是“如何解決pytorch損失反向傳播后梯度為none的問題”的內容了,經過本文的學習后,相信大家對如何解決pytorch損失反向傳播后梯度為none的問題這一問題有了更深刻的體會,具體使用情況還需要大家實踐驗證。這里是億速云,小編將為大家推送更多相關知識點的文章,歡迎關注!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

正蓝旗| 广安市| 黔西县| 卢湾区| 义乌市| 鄂州市| 广元市| 静宁县| 中江县| 桐柏县| 鞍山市| 喀什市| 富蕴县| 江北区| 河东区| 西林县| 永丰县| 盐津县| 灯塔市| 佳木斯市| 吴旗县| 通渭县| 东海县| 鄯善县| 武山县| 米易县| 巴里| 方山县| 彰化市| 巴林左旗| 扬州市| 齐齐哈尔市| 凤冈县| 梓潼县| 舒兰市| 鹤岗市| 阿瓦提县| 丁青县| 建阳市| 红桥区| 华蓥市|