18關於生成式 AI,下列 A~E 敘述哪些正確?
A. 生成的內容不會帶有偏見
B. 具有高度準確性,不會有虛假信息
C. 生成內容的準確性,建議需要經過人類審核
D. 每次生成的內容都可能不同
E. 生成式 AI 具有高度安全性,不會導致數據外流
(A) C、D
(B) A、C、D
(C) A、B、D、E
(D) A、C、D、E
統計: A(804), B(62), C(12), D(20), E(0) #3472234
詳解 (共 3 筆)
這題的正確答案是:
(A) C、D
專業解析
作為 AI 規劃師,在制定企業 AI 政策時,必須對生成式 AI 的「能力邊界」與「風險」有清醒的認知。這題剛好涵蓋了管理者最容易誤解的三大誤區。
1. 正確敘述的分析:
-
⭕ C. 生成內容的準確性,建議需要經過人類審核:
-
核心原因: 生成式 AI 容易產生「幻覺 (Hallucination)」,即一本正經地胡說八道。
-
規劃師觀點: 企業應用必須導入 HITL (Human-in-the-Loop,人類迴圈) 機制。AI 只能作為「副駕駛 (Co-pilot)」,由人類專家擔任最終的「驗證者」,特別是在醫療、法律或財務等高風險領域。
-
-
⭕ D. 每次生成的內容都可能不同:
-
核心原因: 生成式 AI 屬於「機率模型 (Probabilistic Model)」。在預測下一個字時,它會根據設定的參數(如 Temperature 溫度值)進行隨機採樣。
-
影響: 即使輸入完全相同的 Prompt,只要溫度值不為 0,輸出的結果就會有變化。這提供了創意多樣性,但也降低了再現性。
-
2. 錯誤敘述的糾正 (A, B, E):
-
❌ A. 生成的內容不會帶有偏見:
-
事實: AI 的偏見來自訓練資料。若網際網路上的資料本身包含性別、種族或文化刻板印象,AI 就會學習並放大這些偏見(Algorithmic Bias)。
-
-
❌ B. 具有高度準確性,不會有虛假信息:
-
事實: AI 的目標是生成「看起來通順」的句子,而非「符合事實」的句子。它沒有真理的概念,因此極易生成虛假資訊。
-
-
❌ E. 生成式 AI 具有高度安全性,不會導致數據外流:
-
事實: 這是企業最大的資安隱憂。若將公司機密(如程式碼、客戶名單)輸入到公開的 AI 模型(如免費版 ChatGPT),這些資料可能會被模型服務商用於再訓練,導致機密在未來被其他使用者「問」出來。
-
規劃師總結
這題的核心在於打破對 AI 的「全能迷思」:
-
它不是真理機器(會有幻覺)。
-
它不是絕對客觀(會有偏見)。
-
它不是絕對安全(會有資料外洩風險)。
因此,只有 C (需要審核) 和 D (結果多變) 是符合生成式 AI 現狀的描述。
正確答案是 (A) C、D。
原因說明:
我們來逐一分析每個敘述:
-
A. 生成的內容不會帶有偏見:錯誤。生成式 AI 模型是從大量的訓練數據中學習的。如果訓練數據本身包含偏見(例如:性別偏見、種族偏見、地域偏見等),那麼模型在生成內容時很可能會繼承並反映這些偏見。這是一個目前生成式 AI 面臨的重大挑戰。
-
B. 具有高度準確性,不會有虛假信息:錯誤。生成式 AI,特別是大型語言模型,有時會產生「幻覺」(hallucination),即生成聽起來合理但事實上錯誤或捏造的信息。它們的目標是生成「聽起來像」人類的文本,而不是保證百分之百的事實準確性。
-
C. 生成內容的準確性,建議需要經過人類審核:正確。由於上述的偏見和虛假信息問題,對於生成式 AI 輸出的內容,特別是用於關鍵決策、公開發布或需要高度準確性的場合,強烈建議進行人工審核和事實核查。
-
D. 每次生成的內容都可能不同:正確。生成式 AI 模型在生成內容時通常會引入隨機性(例如透過溫度參數或抽樣策略)。這意味著即使給予相同的輸入提示,模型每次生成的輸出也可能略有不同,以展現其多樣性和創造性。
-
E. 生成式 AI 具有高度安全性,不會導致數據外流:錯誤。生成式 AI 並不 inherently 具有高度安全性。在某些情況下,模型可能會「記憶」訓練數據中的敏感信息,並在生成內容時不經意地洩露這些信息(即「數據洩漏」或「記憶化」問題)。此外,如果模型部署不當或被惡意利用,也可能導致安全風險。
因此,只有 C 和 D 是正確的敘述。