122. Transformer 中 Self-Attention 的主要功能是?
(A) 計算單詞與其他單詞的關聯性
(B) 讓 AI 忽略上下文
(C) 只考慮單詞的字母順序
(D) 限制模型的詞彙數量
答案:登入後查看
統計: A(425), B(18), C(3), D(4), E(0) #3415841
統計: A(425), B(18), C(3), D(4), E(0) #3415841