57. 哪一個方法可以用來測試AI是否在不同群體中公 平運作?
(A) 反事實假設狀況
(B) 訓練數據擴充
(C) 增加計算資源
(D) 限制 AI學習範圍
答案:登入後查看
統計: A(547), B(179), C(17), D(9), E(0) #3416332
統計: A(547), B(179), C(17), D(9), E(0) #3416332
詳解 (共 3 筆)
#6603474
反事實假設狀況(Counterfactual Scenario)是指,在保留除了某個特定條件之外的所有因素不變的情況下,假設該條件改變後,觀察可能發生的結果。
ㅤㅤ
簡單說,就是問自己:如果在一切都相同的情況下,只改變 X,會不會得到不同的結果?
ㅤㅤ
假設你去面試,模型預測你 「不錄取」。
- 真實情況:你是女性、履歷內容如實
- 反事實假設:假設在履歷完全相同的情況下,你的性別改為男性
- 比較結果:
- 如果模型預測改成「錄取」→ 可能存在性別偏見
- 如果還是「不錄取」→ 至少性別不是主要影響因素
ㅤㅤ
反事實公平性(Counterfactual Fairness)就是利用這種假設,檢查模型在敏感屬性(性別、種族、年齡等)變化時,預測是否保持一致。這方法能幫助判斷模型的決策是否真的基於與任務相關的特徵,而非不該影響結果的屬性。
3
0
#6382538
這題正確答案是:
(A) 反事實假設狀況(Counterfactual scenarios)
(A) 反事實假設狀況(Counterfactual scenarios)
ㅤㅤ
✅ 說明:
反事實假設狀況(Counterfactual scenarios) 是一種常用來檢測 AI 是否公平的方法。
它的邏輯是這樣的:
「如果只改變一個屬性(如性別、種族),其餘條件都相同,AI 的預測是否會跟著改變?」
例如:
-
如果一位女性被拒絕貸款,我們製造一個幾乎一樣的「男性版本」資料,看看 AI 是否就會給過?
-
若答案不同,代表模型可能有偏見(不公平)。
1
0