33. 關於 AI(Artificial Intelligence,人工智慧)伺服器的描述何者    有誤    ?
(A)通常採用發熱量較低的 AI 晶片且裝載張量處理單元(Tensor Processing Unit, TPU)。
(B)多節點之間互聯網路拓樸的選擇,會影響模型訓練的效率。
(C)通常需要高速且大容量的儲存解決方案,以處理大量的訓練數據和模型。
(D)硬體用具備細粒度權重剪枝(Fine-grained Weight Pruning)可加速運算。

答案:登入後查看
統計: A(11), B(9), C(3), D(9), E(0) #3440868

詳解 (共 3 筆)

#6430589
AI伺服器通常使用高效能、高功耗的晶片(...
(共 176 字,隱藏中)
前往觀看
3
0
#6446148
(A) 有誤。AI 伺服器通常採用高效能...
(共 207 字,隱藏中)
前往觀看
0
0
#6433102

關於 AI (Artificial Intelligence,人工智慧) 伺服器的描述,我們來逐一分析各個選項:

  • (A) 通常採用發熱量較低的 AI 晶片且裝載張量處理單元(Tensor Processing Unit, TPU)。

    • 不正確。AI 伺服器通常會採用高效能的 AI 晶片,例如 GPU (Graphics Processing Unit) 或 TPU (Tensor Processing Unit)。這些晶片為了提供強大的平行運算能力來處理大量的 AI 訓練和推論任務,通常會消耗大量的電力並產生大量的熱量。因此,它們的設計重點在於效能,而不是「發熱量較低」。實際上,AI 伺服器需要非常強大的散熱系統來應對這些高發熱量的晶片。
  • (B) 多節點之間互聯網路拓樸的選擇,會影響模型訓練的效率。

    • 正確。當訓練大型 AI 模型時,通常需要多個伺服器節點協同工作。這些節點之間的網路互聯(例如 InfiniBand, NVLink 等)的拓樸結構和頻寬,會直接影響數據在節點間傳輸的速度,進而顯著影響模型訓練的效率和可擴展性。
  • (C) 通常需要高速且大容量的儲存解決方案,以處理大量的訓練數據和模型。

    • 正確。AI 模型訓練需要處理龐大的數據集,並且模型本身也可能非常大。因此,AI 伺服器需要具備高速儲存(如 NVMe SSD)來快速讀取訓練數據,以及大容量儲存來存放數據集、模型權重和訓練日誌。
  • (D) 硬體用具備細粒度權重剪枝(Fine-grained Weight Pruning)可加速運算。

    • 正確。細粒度權重剪枝(Fine-grained Weight Pruning)是一種模型壓縮技術,它在軟體層面通過移除神經網路中不重要的權重來減小模型大小。雖然剪枝本身是軟體優化,但現代 AI 硬體(如 GPU 或專用 AI 加速器)的設計會考慮到如何高效地執行這些被剪枝後的稀疏模型,從而實現更快的推論速度和更低的功耗。因此,硬體與剪枝技術的結合確實可以加速運算。

綜上所述,選項 (A) 的描述是錯誤的。

The final answer is A

0
0