24. 一家智慧工廠使用機器學習分類模型預測關鍵設備是否會異常停機。完成模型訓練後,團隊希望全面評估模型在不同面向的表現。請問下列哪項指標最適合用來衡量模型在偵測異常停機時的「漏報率」(即未能正確偵測出異常事件的比例)?
(A) 準確率(Accuracy),即模型整體預測正確的比例
(B) 召回率(Recall),即模型能正確找出異常停機的比例
(C) F1 分數(F1 Score),準確率與召回率的調和平均數
(D) 假陽性率(False Positive Rate),即將正常事件誤判為異常的比例
統計: A(39), B(297), C(58), D(71), E(0) #3645694
詳解 (共 5 筆)
1. 核心考點:混淆矩陣與召回率 (Recall)
在異常偵測(如設備停機、病理診斷、盜刷偵測)的場景中,我們最怕的是「發生了異常卻沒抓到」,這在專業術語中稱為 「漏報」 或 「偽陰性 (False Negative, FN)」。
2. 逐項解析
-
✅ (B) 召回率 (Recall):
-
原因:召回率的定義是「在所有真正的異常事件中,模型成功抓到了多少比例」。其公式為:
$$\text{Recall} = \frac{TP}{TP + FN}$$ -
關聯性:題目提到的「漏報率」公式為 $FN / (TP + FN)$,正好就是 $1 - \text{Recall}$。因此,若要衡量漏報的情況,召回率是最直接的指標。召回率越高,漏報率就越低。
-
-
❌ (A) 準確率 (Accuracy):
-
原因:在異常偵測中,正常事件通常佔 99%,異常僅 1%。模型就算全部猜「正常」,準確率也能達到 99%,但它卻完全沒抓到任何異常。因此,準確率在類別不平衡的場景下極具誤導性。
-
-
❌ (C) F1 分數 (F1 Score):
-
原因:F1 分數是召回率與精確率(Precision)的調和平均數。它用於綜合評估模型性能。雖然它包含召回率,但若目的是針對「漏報」進行專門衡量,召回率比 F1 更精確。
-
-
❌ (D) 假陽性率 (False Positive Rate, FPR):
-
原因:這衡量的是「誤報率」,即把正常事件誤判為異常的比例。這對應的是機器的「虛驚一場」,而不是「漏報」。
-
? 重點整理:考試快速判斷法
在 iPAS 考試中,看到應用場景要選指標時,請記住這套邏輯:
-
怕漏報(寧可錯殺不可放過) $\rightarrow$ 看 召回率 (Recall)。例如:癌症檢測、設備停機。
-
怕誤報(寧可放過不可錯殺) $\rightarrow$ 看 精確率 (Precision)。例如:垃圾郵件攔截、死刑判決。
-
要兩者平衡 $\rightarrow$ 看 F1 Score。