156. 在生成式AI的風險管理中,確保AI系統符合 GDPR和CCPA的要求,屬於哪種策略?
(A) 透明化AI決策
(B) 強化資料隱私與安全機制
(C) 符合法規要求
(D) 企業AI風險評估與監管機制
答案:登入後查看
統計: A(93), B(151), C(239), D(69), E(0) #3415875
統計: A(93), B(151), C(239), D(69), E(0) #3415875
詳解 (共 3 筆)
#6571488
正確答案是:
(C) 符合法規要求
原因說明:
GDPR(歐盟一般資料保護規範)與CCPA(加州消費者隱私法案)都是針對資料隱私與保護的法律規範。生成式 AI 系統若有處理個人資料(如用戶輸入、訓練資料中含有個資),就必須依據這些法規進行設計與運作。
因此,企業在這方面的風險管理策略即是:
✅ 確保生成式 AI 符合法律與資料隱私相關法規要求
這就屬於**(C) 符合法規要求(Regulatory Compliance)**。
為什麼其他選項不是最佳答案?
-
(A) 透明化 AI 決策
→ 著重於模型輸出「可被人理解」、「可解釋」,並不等同於法律合規。 -
(B) 強化資料隱私與安全機制
→ 是實踐合規的一種技術手段,但不是法規符合的總體策略。 -
(D) 企業 AI 風險評估與監管機制
→ 指的是內部治理與風險控管流程,範圍更廣,不專指 GDPR 或 CCPA 的合規性。
小結:
確保 AI 系統依循 GDPR 與 CCPA 等隱私法規運作,最直接對應的策略就是:
(C) 符合法規要求。
4
0