中文字幕av专区_日韩电影在线播放_精品国产精品久久一区免费式_av在线免费观看网站

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

pytorch中loss反向傳播出錯怎么辦

發布時間:2022-02-25 10:07:33 來源:億速云 閱讀:295 作者:小新 欄目:開發技術

小編給大家分享一下pytorch中loss反向傳播出錯怎么辦,相信大部分人都還不怎么了解,因此分享這篇文章給大家參考一下,希望大家閱讀完這篇文章后大有收獲,下面讓我們一起去了解一下吧!

File "train.py", line 143, in train
loss.backward()
File "/usr/local/lib/python3.6/dist-packages/torch/tensor.py", line 198, in backward
torch.autograd.backward(self, gradient, retain_graph, create_graph)
File "/usr/local/lib/python3.6/dist-packages/torch/autograd/__init__.py", line 94, in backward
grad_tensors = _make_grads(tensors, grad_tensors)
File "/usr/local/lib/python3.6/dist-packages/torch/autograd/__init__.py", line 35, in _make_grads
raise RuntimeError("grad can be implicitly created only for scalar outputs")
RuntimeError: grad can be implicitly created only for scalar outputs

問題分析:

因為我們在執行 loss.backward() 時沒帶參數,這與 loss.backward(torch.Tensor(1.0)) 是相同的,參數默認就是一個標量。

但是由于自己的loss不是一個標量,而是二維的張量,所以就會報錯。

解決辦法:

1. 給 loss.backward() 指定傳遞給后向的參數維度:

loss = criterion(pred, targets)
loss.backward()
# 改為:
loss = criterion(pred, targets)
loss.backward(loss.clone().detach())

2. 修改loss函數的輸出維度

把張量的輸出修改為標量,比如說多多個維度的loss求和或求均值等。此方法對于某些任務不一定適用,可以嘗試自己修改。

criterion = nn.L1Loss(reduction='none')
# 把參數去掉,改為:
criterion = nn.L1Loss()

這里順便介紹一下pytorch loss函數里面 的reduction 參數

在新的pytorch版本里,使用reduction 參數取代了舊版本的size_average和reduce參數。

reduction 參數有三種選擇:

'elementwise_mean':為默認情況,表明對N個樣本的loss進行求平均之后返回(相當于reduce=True,size_average=True);

'sum':指對n個樣本的loss求和(相當于reduce=True,size_average=False);

'none':表示直接返回n分樣本的loss(相當于reduce=False)

補充:在Pytorch下,由于反向傳播設置錯誤導致 loss不下降的原因及解決方案

在Pytorch下,由于反向傳播設置錯誤導致 loss不下降的原因及解決方案

剛剛接觸深度學習一段時間,一直在研究計算機視覺方面,現在也在嘗試實現自己的idea,從中也遇見了一些問題,這次就專門寫一下,自己由于在反向傳播(backward)過程中參數沒有設置好,而導致的loss不下降的原因。

對于多個網絡交替

描述

簡單描述一下我的網絡結構,我的網絡是有上下兩路,先對第一路網絡進行訓練,使用groud truth對這一路的結果進行監督loss_steam1,得到訓練好的feature.然后再將得到的feature級聯到第二路,通過網絡得到最后的結果,再用groud truth進行監督loss。

整個網絡基于VGG19網絡,在pytorch下搭建,有GPU環境:

pytorch中loss反向傳播出錯怎么辦

出現的情況,loss_steam1不怎么下降

這個問題確實折麼自己一段時間,結果發現自己出現了一個問題,下面將對這個問題進行分析和解答:

PyTorch梯度傳遞

在PyTorch中,傳入網絡計算的數據類型必須是Variable類型, Variable包裝了一個Tensor,并且保存著梯度和創建這個Variablefunction的引用,換句話說,就是記錄網絡每層的梯度和網絡圖,可以實現梯度的反向傳遞.
則根據最后得到的loss可以逐步遞歸的求其每層的梯度,并實現權重更新。

在實現梯度反向傳遞時主要需要三步:

1、初始化梯度值:net.zero_grad() 清除網絡狀態

2、反向求解梯度:loss.backward() 反向傳播求梯度

3、更新參數:optimizer.step() 更新參數

解決方案

自己在寫代碼的時候,還是沒有對自己的代碼搞明白。在反向求解梯度時,對第一路沒有進行反向傳播,這樣肯定不能使這一路的更新,所以我就又加了一步:

loss_steam1.backward( retain_graph = True) //因為每次運行一次backward時,如果不加retain_graph = True,運行完后,計算圖都會free掉。

loss.backward()

這樣就夠了么?我當時也是這么認為的結果發現loss_steam1還是沒有降,又愁了好久,結果發現梯度有了,不更新參數,怎么可能有用!

optimizer_steam1.step() //這項必須加
optimizer.step()

哈哈!這樣就完成了,效果也確實比以前好了很多。

以上是“pytorch中loss反向傳播出錯怎么辦”這篇文章的所有內容,感謝各位的閱讀!相信大家都有了一定的了解,希望分享的內容對大家有所幫助,如果還想學習更多知識,歡迎關注億速云行業資訊頻道!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

仲巴县| 绍兴县| 丰顺县| 阿图什市| 墨竹工卡县| 昔阳县| 海原县| 屯门区| 石渠县| 富锦市| 高雄市| 慈利县| 长海县| 眉山市| 故城县| 阳新县| 榆中县| 平和县| 博爱县| 佛山市| 始兴县| 察隅县| 嘉义市| 涞源县| 秀山| 托克逊县| 赤城县| 东丽区| 托里县| 上思县| 莱阳市| 贵德县| 汉寿县| 襄汾县| 双峰县| 二连浩特市| 阿克陶县| 巴中市| 仙游县| 澎湖县| 夏津县|