在Keras中,Dropout層用于防止過擬合。在訓練過程中,Dropout層會隨機地將一定比例的輸入單元的權重設為0,從而強制網絡學習多個獨立的表示。這樣可以減少神經網絡的復雜度,減少過擬合的風險,提高模型的泛化能力。dropout的主要原理是,在每次迭代時,dropout層都會隨機忽略一部分的神經元,在訓練的過程中,神經元以概率p被激活,以概率1-p被忽略,而在預測時,則會把所有神經元的輸出乘以p,以保持其期望值不變。
億速云公眾號
手機網站二維碼
Copyright ? Yisu Cloud Ltd. All Rights Reserved. 2018 版權所有
廣州億速云計算有限公司粵ICP備17096448號-1 粵公網安備 44010402001142號增值電信業務經營許可證編號:B1-20181529