156. 在生成式AI的風險管理中,確保AI系統符合 GDPR和CCPA的要求,屬於哪種策略?
(A) 透明化AI決策
(B) 強化資料隱私與安全機制
(C) 符合法規要求
(D) 企業AI風險評估與監管機制

答案:登入後查看
統計: A(93), B(151), C(239), D(69), E(0) #3415875

詳解 (共 3 筆)

#6402186
正確答案是:(C) 符合法規要求 解釋...
(共 387 字,隱藏中)
前往觀看
10
0
#6346420
感覺在考GDPR(通用資料保護規則)和 ...
(共 59 字,隱藏中)
前往觀看
10
0
#6571488

正確答案是:

(C) 符合法規要求

原因說明:

GDPR(歐盟一般資料保護規範)與CCPA(加州消費者隱私法案)都是針對資料隱私與保護的法律規範。生成式 AI 系統若有處理個人資料(如用戶輸入、訓練資料中含有個資),就必須依據這些法規進行設計與運作。

因此,企業在這方面的風險管理策略即是:

確保生成式 AI 符合法律與資料隱私相關法規要求

這就屬於**(C) 符合法規要求(Regulatory Compliance)**。

為什麼其他選項不是最佳答案?

  • (A) 透明化 AI 決策
    → 著重於模型輸出「可被人理解」、「可解釋」,並不等同於法律合規。

  • (B) 強化資料隱私與安全機制
    → 是實踐合規的一種技術手段,但不是法規符合的總體策略。

  • (D) 企業 AI 風險評估與監管機制
    → 指的是內部治理與風險控管流程,範圍更廣,不專指 GDPR 或 CCPA 的合規性。

小結:

確保 AI 系統依循 GDPR 與 CCPA 等隱私法規運作,最直接對應的策略就是:

(C) 符合法規要求

4
0

私人筆記 (共 1 筆)

私人筆記#7526623
未解鎖
解題技巧 遇到「GDPR、CCPA...
(共 137 字,隱藏中)
前往觀看
0
0