阿摩線上測驗 登入

試題詳解

試卷:109年 - 109 經濟部所屬事業機構_新進職員甄試_統計資訊:1.統計學、2.巨量資料概論#92857 | 科目:國營事業◆1.統計學 2.巨量資料概論

試卷資訊

試卷名稱:109年 - 109 經濟部所屬事業機構_新進職員甄試_統計資訊:1.統計學、2.巨量資料概論#92857

年份:109年

科目:國營事業◆1.統計學 2.巨量資料概論

49. 深度神經網路(deep neural networks)的神經元中通常輸出時會經過激發函數(activation function) 的轉換,下列針對常用激發函數的敘述何者有誤?
(A) ReLU可以避免過度擬合(overfit)的問題
(B) Sigmoid會有梯度消失(vanishing gradient)的問題
(C) ReLU會發生死亡神經元(dead neural)的問題
(D) Sigmoid會有梯度爆炸問題(vanishing gradient)的問題
正確答案:登入後查看

詳解 (共 1 筆)

推薦的詳解#6062819
未解鎖
ReLU激勵函數會使負數部分的神經元輸...
(共 222 字,隱藏中)
前往觀看
0
0