49. 深度神經網路(deep neural networks)的神經元中通常輸出時會經過激發函數(activation function)
的轉換,下列針對常用激發函數的敘述何者有誤?
(A) ReLU可以避免過度擬合(overfit)的問題
(B) Sigmoid會有梯度消失(vanishing gradient)的問題
(C) ReLU會發生死亡神經元(dead neural)的問題
(D) Sigmoid會有梯度爆炸問題(vanishing gradient)的問題
答案:登入後查看
統計: A(16), B(3), C(6), D(11), E(0) #2516701
統計: A(16), B(3), C(6), D(11), E(0) #2516701