76. 在 Transformer 模型中,哪個部份負責學習單詞與句子之間的關聯?
(A) 池化層 (Pooling)
(B) 自注意力機制 (Self- Attention)
(C) 接續層 (Feed-Forward)
(D) 隱藏層 (Hidden Layer)

答案:登入後查看
統計: A(96), B(350), C(84), D(13), E(0) #3415795

詳解 (共 2 筆)

#6427101
正確答案是 (B) 自注意力機制 (S...
(共 340 字,隱藏中)
前往觀看
10
0
#6500028

在 Transformer 模型中,負責學習單詞與句子之間的關聯的部份是:

(B) 自注意力機制 (Self-Attention)

理由:

  • 自注意力機制 允許模型在處理輸入序列時,考慮到序列中所有單詞之間的關聯性,這樣可以有效捕捉單詞與句子之間的上下文信息。
  • 池化層 (Pooling)(選項 A)主要用於降維,並不直接處理單詞與句子之間的關聯。
  • 接續層 (Feed-Forward)(選項 C)主要負責對每個位置的輸出進行變換,但不專注於學習關聯。
  • 隱藏層 (Hidden Layer)(選項 D)是神經網絡的一部分,但它的功能較為廣泛,不專門針對單詞與句子之間的關聯。

因此,正確答案是 (B) 自注意力機制 (Self-Attention)。

2
0