阿摩線上測驗
登入
首頁
>
iPAS◆AI應用規劃師◆初級
>
114年 - iPAS AI應用規劃師初級能力(科目二) 51-100#126078
> 試題詳解
83. 自注意力機制 (Self-Attention) 的作用是什麼?
(A) 評估序列中標記之間的關聯性
(B) 處理文本的固定部分
(C) 讓模型忽略單詞順序
(D) 使模型僅學習詞頻統計
答案:
登入後查看
統計:
A(470), B(11), C(2), D(9), E(0) #3415802
詳解 (共 1 筆)
。
B2 · 2025/05/20
#6427111
正確答案是 (A) 評估序列中標記之間...
(共 356 字,隱藏中)
前往觀看
8
0
其他試題
79. 內嵌向量 (Embedding) 在自然語言處理 (NLP) 中的主要作用是什麼? (A) 將詞彙轉換為向量,以捕捉語意關聯性 (B) 捕捉語意的順序 (C) 讓模型記憶每個單詞的拼寫 (D) 限制模型只能處理固定長度的文本
#3415798
80. 內嵌向量如何幫助模型理解單詞之間的關聯性? (A) 透過多維空間得向量表示 (B) 透過詞彙的字母順序 (C) 只考慮詞彙在字典中的定義 (D) 只考慮詞彙的長度
#3415799
81. 內嵌向量在 NLP 任務中如何影響模型的性能? (A) 提高模型理解和生成語言的準確性 (B) 影響模型的訓練速度 (C) 限制模型只能處理固定數量的詞彙 (D) 限制模型的上下文理解
#3415800
82. 內嵌向量 (Embedding) 的主要目的是? (A) 將單詞轉換為數值向量,以捕捉語意關聯性 (B) 讓模型只學習母語的文字 (C) 使模型只能處理固定長度的文本 (D) Transformer 忽略標點符號
#3415801
84. 位置編碼 (Positional Encoding) 在 Transformer 模型中的作用是? (A) 提供序列中標記的順序資訊 (B) 限制模型只能處理固定長度的文本 (C) 記錄每個單字在文本中出現的次數 (D) 完全忽略上下文含義
#3415803
85. Transformer 模型解碼器Decoder如何區確定生成的單詞? (A) 利用注意力機制計算關鍵標記的影響力 (B) 只考慮詞頻統計 (C) 隨機選擇詞彙 (D) 忽略上下文,僅基於輸入單詞選擇
#3415804
86. LLM 推動了 AI 助理的發展,這些助理的主要作用是什麼? (A) 取代所有人類工作 (B) 提供任務輔助,提升效率和創意 (C) 只用於娛樂用途 (D) 使應用程序無需人類干預即可運行
#3415805
87. 開發者如何利用 LLM 來構建 AI 助手? (A) 只能使用開源模型,無法自訂 (B) 需要手動標註所有數據 (C) 可通過聊天室窗進行交互,並根據需求進行定制 (D) 只能使用固定的功能,無法修改
#3415806
88. 使用 Azure OpenAI 等服務的主要優勢是什麼? (A) 可獲取預訓練模型,直接使用或進行微調 (B) 必須從零開始訓練所有 AI 模型 (C) 只能用於個人用途,無法商業化 (D) 需要購買昂貴的硬體設備來運行模型
#3415807
89. AI 助手如何影響商業用戶的工作方式? (A) 讓員工無需參與決策 (B) 主要用於娛樂和遊戲產業 (C) 提高效率,幫助撰寫初 稿、資訊蒐集、策略規劃等 (D) 使所有人都可能創建自己的 AI 助手,無需學習技術
#3415808