43. 下列學習方法,何者難以獲得人類容易理解的知識或特徵?
(A) Multilayer perceptron
(B) Decision tree
(C) Logistic regression
(D) Association rule mining

答案:登入後查看
統計: A(39), B(2), C(5), D(1), E(0) #3156412

詳解 (共 1 筆)

#6324638

答案是:
(A) Multilayer Perceptron (MLP, 多層感知機)

解析:

某些機器學習演算法能產生容易被人類理解的規則或特徵,而另一些則較難以解釋。例如:

  • 可解釋的模型 (Interpretable Models):決策樹 (Decision Tree)、邏輯回歸 (Logistic Regression)、關聯規則 (Association Rule Mining)。
  • 難以解釋的模型 (Black Box Models):神經網路 (Neural Networks) 如 MLP、深度學習模型。

選項分析

(A) Multilayer Perceptron (MLP) - 難以解釋

  • MLP 是一種神經網路 (Neural Network),屬於黑箱模型 (Black Box Model)
  • 它包含多層非線性轉換,使得難以直觀解釋模型的決策過程
  • 例如,儘管 MLP 在圖像分類、語言處理等任務中表現良好,但很難將其轉換為人類可理解的規則或特徵

(B) Decision Tree (決策樹) - 容易解釋

  • 決策樹透過一系列的 IF-THEN 規則來分類數據,結果類似人類思考過程
  • 例如,一棵決策樹可能這樣運作:「如果氣溫 > 30°C,則預測為炎熱天氣」,這種規則易於解釋。

(C) Logistic Regression (邏輯回歸) - 容易解釋

  • 邏輯回歸本質上是線性模型,可以透過係數 (Weights) 來解釋變數對輸出的影響
  • 例如,假設有一個影響心臟病風險的模型,醫生可以透過變數權重來理解哪個因素最重要。

(D) Association Rule Mining (關聯規則挖掘) - 容易解釋

  • 這是一種用於尋找數據中項目之間的關係的方法,例如市場籃分析 (Market Basket Analysis)。
  • 例如,「如果顧客購買了牛奶,則他們更可能購買麵包」這類規則是直觀可理解的。

結論

難以獲得人類容易理解的知識或特徵的選項是 (A) Multilayer Perceptron (MLP)。

0
0