47. 在訓練神經網路時,為了提升模型收斂速度與穩定性,避免梯度消失或梯度爆炸,下列哪一種做法最常被使用?
(A)對輸入資料進行隨機旋轉或水平翻轉,以增加資料多樣性;
(B)選用 ReLU 或其變體作為隱藏層的啟動函數,以改善梯度傳播;
(C)減少樣本量提升訓練速度;
(D)對目標變數或特徵進行標準化
答案:登入後查看
統計: A(0), B(3), C(0), D(1), E(0) #3869590
統計: A(0), B(3), C(0), D(1), E(0) #3869590