1. Sigmoid函數:將輸入映射到0和1之間的連續輸出,常用于二元分類問題。
2. Tanh函數:將輸入映射到-1和1之間的連續輸出,常用于隱藏層的激活函數。
3. ReLU函數:將負數輸入映射為0,保持正數輸入不變,是目前最流行的激活函數之一。
4. Leaky ReLU函數:在負數輸入時引入一個小的斜率,解決了ReLU函數負數輸入時的問題。
5. ELU函數:類似于Leaky ReLU函數,但在負數輸入時引入一個指數增長的斜率。
6. Softmax函數:將多個輸入映射到(0,1)之間的連續輸出,并且保證所有輸出的和為1,常用于多分類問題。
7. Swish函數:結合了Sigmoid和ReLU的優點,相比ReLU有更好的性能表現。
8. Mish函數:一種類似于Swish的激活函數,目前在一些深度學習框架中得到了應用。
這些激活函數在神經網絡的訓練中起著至關重要的作用,選擇合適的激活函數可以提高模型的性能和訓練速度。