複選題

16. 【題組 2】情境如附圖所示。在導入影像辨識、聲音辨識或 AI 模組,為了確保導入系統的可信任性(Trustworthiness),應考量下列哪些項目?(複選)
(A) AI 強韌度(AI Robustness)
(B) AI 可靠度(AI Reliability)
(C) AI 可控性(AI Controllability)
(D) AI 系統速度(AI System Speed)

答案:登入後查看
統計: A(35), B(53), C(49), D(3), E(0) #3537002

詳解 (共 2 筆)

#7147054

AI trustworthiness based on the ISO/IEC 22989:2022 Information technology — Artificial intelligence — Artificial intelligence concepts and terminology is highlighted as:

  • Meet stakeholders’ expectations
  • AI robustness
  • AI reliability
  • AI resilience
  • AI controllability
  • AI explainability
  • AI predictability
  • AI transparency
  • AI bias and fairness

這題的正確答案是 (A)、(B)、(C)

在 AI 治理與資訊安全框架(如 NIST AI RMF 或 ISO/IEC 42001)中,可信任性 (Trustworthiness) 指的是 AI 系統在面對各種狀況時,能夠表現出準確、安全且符合預期的能力。

以下解析為何這三個項目屬於可信任性的範疇,而「速度」不屬於:

 

正確選項解析

 

  • (A) AI 強韌度 (AI Robustness)

    • 定義: AI 系統在面對錯誤輸入、異常環境或**惡意攻擊(Adversarial Attacks)**時,仍能維持運作且不被輕易誤導的能力。

    • 關聯性: 在防禦 Deepfake 的情境中,攻擊者可能會在圖片中加入人眼看不見的雜訊來欺騙 AI 偵測模型。如果 AI 不夠強韌,防禦系統形同虛設,因此這是可信任性的核心。

  • (B) AI 可靠度 (AI Reliability)

    • 定義: 系統在規定的條件與時間內,能持續且穩定地執行預期功能的能力。

    • 關聯性: 偵測系統不能「時靈時不靈」。如果 AI 今天能抓到 Deepfake,明天卻漏報,使用者就無法信任該系統的判斷結果。

  • (C) AI 可控性 (AI Controllability)

    • 定義: 人類能夠監控、干預或在必要時強制停止 AI 系統的能力(Human-in-the-loop)。

    • 關聯性: 這是 AI 安全的重要原則。如果 AI 模組發生誤判(例如把總經理的真實視訊當成 Deepfake 封鎖),管理人員必須有能力介入並覆寫 AI 的決定,確保系統在人類的控制之下。

 

錯誤選項解析

 

  • (D) AI 系統速度 (AI System Speed)

    • 理由: 速度屬於**「效能 (Performance/Efficiency)」**指標,而非「可信任性」指標。

    • 解析: 一個運算極快(毫秒級回應)的 AI 系統,如果給出的結果是錯的(不可靠),或是容易被駭客騙過(不強韌),它仍然是不可信任的。因此,速度雖然重要,但不是評估系統是否「值得信賴」的核心要素。

0
0
#6623859
可信任人工智慧 (Trustworth...
(共 2069 字,隱藏中)
前往觀看
0
0