複選題
14. 一家企業正計畫將大型語言模型(LLM)整合至其內部知識庫系統,以提供員工智慧問答服務。為了防範與生成式 AI 相關的安全風險,下列哪些是資安團隊應優先實施的控制措施? (複選)
(A) 對使用者輸入的提示(Prompt)進行過濾與淨化,以防禦提示注入(Prompt Injection)攻擊
(B) 部署 Layer 4 網路防火牆(Network Firewall)
(C) 建立嚴格的資料外洩防護(Data Loss Prevention, DLP)規則,監控並阻擋模型輸出中可能包含的敏感 資訊
(D) 實施基於角色的存取控制(Role-Based Access Control, RBAC),確保僅有授權員工能存取特定主題的知識庫 與模型互動
統計: A(96), B(6), C(99), D(101), E(0) #3536960
詳解 (共 2 筆)
這題正確答案是 (A)、(C)、(D) ✅
詳細解析
(A) 對使用者輸入的提示(Prompt)進行過濾與淨化 → 防 Prompt Injection
-
✅ Prompt Injection 是 LLM 的常見攻擊方式(例如誘導模型洩漏機密、繞過規則)。
-
需要 輸入驗證、關鍵詞過濾、上下文隔離 (Context Isolation)。
-
屬於 第一線防禦,必須做。
(B) 部署 Layer 4 網路防火牆
-
❌ 雖然網路防火牆很重要,但它屬於傳統網路安全基礎設施,對 LLM 特有風險 幾乎沒有直接幫助。
-
題目強調的是「生成式 AI 相關的安全風險」,因此不是優先措施。
(C) 建立 DLP 規則 → 防止敏感資料外洩
-
✅ LLM 很容易「洩漏」知識庫中的內部資料。
-
需要 監控輸出內容,避免敏感資訊(如個資、商業機密)被生成輸出。
-
DLP 是 LLM 安全的 核心控制措施之一。
(D) RBAC 控制存取權限
-
✅ 確保只有授權員工才能查詢特定主題(例如:財務部才能問財報、資安部才能問弱點情資)。
-
減少「內部人員濫用模型」或「越權存取知識庫」的風險。
-
屬於 最小權限原則 (Principle of Least Privilege) 的應用。
總結
? 最符合「生成式 AI 安全風險」防範的控制措施是:
(A) Prompt Filtering
(C) DLP 防止輸出洩漏
(D) RBAC 存取控制