49. 深度神經網路(deep neural networks)的神經元中通常輸出時會經過激發函數(activation function) 的轉換,下列針對常用激發函數的敘述何者有誤?
(A) ReLU可以避免過度擬合(overfit)的問題
(B) Sigmoid會有梯度消失(vanishing gradient)的問題
(C) ReLU會發生死亡神經元(dead neural)的問題
(D) Sigmoid會有梯度爆炸問題(vanishing gradient)的問題

答案:登入後查看
統計: A(16), B(3), C(6), D(11), E(0) #2516701

詳解 (共 1 筆)

#6062819
ReLU激勵函數會使負數部分的神經元輸...
(共 222 字,隱藏中)
前往觀看
0
0