2. 在進行大型語言模型 (LLM) 企業專屬知識的 Fine-tuning 時,若內部 GPU 運算資
源與記憶體嚴重受限,下列哪一種參數高效微調(PEFT, Parameter Efficient FineTuning)技術最能在維持模型效能的前提下,顯著降低需更新的參數數量?

(A)知識蒸餾(Knowledge Distillation);

(B)提示詞工程(Prompt Engineering);

(C)梯度凍結(Gradient Freezing);

(D)低秩適配(Low-Rank Adaptation)

答案:登入後查看
統計: 尚無統計資料