您好,登錄后才能下訂單哦!
這篇文章主要為大家展示了“pytorch中batch normalize的使用示例”,內容簡而易懂,條理清晰,希望能夠幫助大家解決疑惑,下面讓小編帶領大家一起研究并學習一下“pytorch中batch normalize的使用示例”這篇文章吧。
torch.nn.BatchNorm1d()
1、BatchNorm1d(num_features, eps = 1e-05, momentum=0.1, affine=True)
對于2d或3d輸入進行BN。在訓練時,該層計算每次輸入的均值和方差,并進行平行移動。移動平均默認的動量為0.1。在驗證時,訓練求得的均值/方差將用于標準化驗證數據。
num_features:表示輸入的特征數。該期望輸入的大小為'batch_size x num_features [x width]'
Shape: - 輸入:(N, C)或者(N, C, L) - 輸出:(N, C)或者(N,C,L)(輸入輸出相同)
2、BatchNorm2d(同上)
對3d數據組成的4d輸入進行BN。
num_features: 來自期望輸入的特征數,該期望輸入的大小為'batch_size x num_features x height x width'
Shape: - 輸入:(N, C,H, W) - 輸出:(N, C, H, W)(輸入輸出相同)
3、BatchNorm3d(同上)
對4d數據組成的5d輸入進行BN。
以上是“pytorch中batch normalize的使用示例”這篇文章的所有內容,感謝各位的閱讀!相信大家都有了一定的了解,希望分享的內容對大家有所幫助,如果還想學習更多知識,歡迎關注億速云行業資訊頻道!
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。