49. 深度神經網路(deep neural networks)的神經元中通常輸出時會經過激發函數(activation function)
的轉換,下列針對常用激發函數的敘述何者有誤?
(A) ReLU可以避免過度擬合(overfit)的問題
(B) Sigmoid會有梯度消失(vanishing gradient)的問題
(C) ReLU會發生死亡神經元(dead neural)的問題
(D) Sigmoid會有梯度爆炸問題(vanishing gradient)的問題
詳解 (共 1 筆)
未解鎖
ReLU激勵函數會使負數部分的神經元輸...