55. 全域說明 主要適用於什麼情境?
(A) 分析 AI 訓練數據集
(B) 了解AI 模型的整體決策方式
(C) 找出某次預測的影響因子
(D) 確保 AI免於偏見
答案:登入後查看
統計: A(43), B(635), C(21), D(41), E(0) #3416330
統計: A(43), B(635), C(21), D(41), E(0) #3416330
詳解 (共 2 筆)
#6363507
在程式設計中,「全域說明」(Global scope)指的是變數或函式在程式碼中的可見範圍。全域變數或函式在整個程式中都可被存取,因此適用於以下情境:
- 需要跨函式或模組共享資料:
- 當多個函式或模組需要存取和修改相同的資料時,可以使用全域變數來實現資料共享。
- 例如,應用程式的設定檔或全域狀態。
- 需要定義全域常數:
- 對於在程式中多處使用的常數,可以定義為全域變數,以提高程式的可讀性和可維護性。
- 例如,數學常數或程式版本號。
- 需要建立全域函數:
- 當一些函數,是程式,許多部分都需要呼叫使用的,可以宣告成全域函式。
- 例如,會重複被多數函式所使用到的工具性函式。
然而,全域變數的使用也存在一些潛在問題,包括:
- 命名衝突:
- 如果不同的程式碼片段使用相同的全域變數名稱,可能會導致命名衝突和錯誤。
- 程式碼可讀性和可維護性降低:
- 過度使用全域變數會使程式碼變得難以理解和維護,因為難以追蹤變數的修改。
- 增加錯誤風險:
- 由於任何函式都可以修改全域變數,因此可能導致意外的變數更改,增加程式碼的複雜性。
因此,在使用全域變數時,應謹慎考慮其必要性,並儘量減少其使用範圍。在許多情況下,使用區域變數、函數參數或模組化的設計,可以更好地管理資料和提高程式碼品質。
0
0
#6382528
AI 模型解釋(Model Explainability)是用來幫助人類理解 AI 模型為什麼做出某個預測,不再是「黑盒子」模型。它可以大致分成以下幾種重要分類與常見方法:
ㅤㅤ
AI 模型解釋的兩大分類:
? 1. 整體說明(Global Explanation)
解釋整個模型的運作邏輯,例如哪些特徵對預測影響最大。
常見工具/方法:
-
特徵重要度(Feature Importance)
-
決策樹視覺化(Decision Tree Visualization)
-
部分依賴圖(Partial Dependence Plot, PDP)
-
全局 SHAP 值(Global SHAP Values)
? 2. 局部說明(Local Explanation)
針對單一預測樣本,說明為什麼模型會做出這個結果。
常見工具/方法:
-
LIME(Local Interpretable Model-agnostic Explanations)
-
SHAP(SHapley Additive exPlanations)
-
Counterfactual Explanations(反事實解釋)
-
Saliency Map(熱區圖) ← 常用在影像模型上
0
0