11、機器學習一般可分為「監督式學習」和「非監督式學習」,下列何者屬非監式學習?
(A)學習過程中的資料處理是依照關聯性歸類找出潛在規則,形成集群。
(B)從標籤化(labeled)資訊中分析後做出預測的學習方式。
(C)學習過程會透過對比的誤差修正以提高學習準確率。
(D)需要大量的事前作業將所有可能的特徵標記起來。
統計: A(78), B(15), C(35), D(23), E(0) #2940465
詳解 (共 2 筆)
1.監督式學習 (Supervised learning) 是電腦從標籤化 (labeled) 的資訊中分析模式後做出預測的學習方式。標記過的資料就好比標準答案,電腦在學習的過程透過對比誤差,一邊修正去達到更精準的預測,這樣的方式讓監督式學習有準確率高的優點。
監督式學習方式需要倚靠大量的事前人工作業,將所有可能的特質標記起來,這過程相當繁複。當範圍擴大、資訊量增加,會更難去對資料標記出所有特徵,所以在面對未知領域時,幾乎是完全無法運作。
2.非監督式學習 (Unsupervised Learning) 的訓練資料不需要事先以人力處理標籤,機器面對資料時,做的處理是依照關聯性去歸類 (Co-occurance Grouping)、找出潛在規則與套路 (Association Rule Discovery)、形成集群 (Clustering),不對資訊有正確或不正確的判別。
非監督式學習的特性讓它在資料探勘初期是好用的工具。對比監督式學習,非監督式學習可以大大減低繁瑣的人力工作,找出潛在的規則。但這樣的方式,也會造成較多功耗,甚至,也可能造成不具重要性的特徵(Feature) 被過度放大,導致結果偏誤、無意義的分群結果。
3.強化式學習 (Reinforcement Learning) 的特徵是不需給機器任何的資料,讓機器直接從互動中去學習,這是最接近大自然與人類的學習方式。
機器透過環境的正向、負向回饋 (positive / negative reward),從中自我學習,並逐步形成對回饋 刺激 (stimulus) 的預期,做出越來越有效率達成目標的行動 (action),這個訓練過程的目標是獲取最大利益。
網路上有個 AI 學習玩 Google 恐龍遊戲的影片,影片揭露 AI 在玩遊戲的過程中學習到:遇到小仙人掌要小小地跳躍 (small jump),遇到高高的仙人掌,要大跳躍 (big jump),遇到小鳥飛過要蹲低 (duck),避免被小鳥撞到,遊戲就結束了。透過一次次的失敗,AI 計算出障礙物的高度、寬度、跟障礙物的距離等,逐步推進跨越種種障礙,不斷延長恐龍存活在遊戲中的時間。這就是強化式 學習的一種展現。
-----------------------------------
11、機器學習一般可分為「監督式學習」和「非監督式學習」,下列何者屬非監式學習?
(A) 學習過程中的資料處理是依照關聯性歸類找出潛在規則,形成集群。---->非監式學習
(B) 從標籤化(labeled)資訊中分析後做出預測的學習方式。---->監督式學習
(C) 學習過程會透過對比的誤差 修正以提高學習準確率。---->監督式學習
(D) 需要大量的事前作業將所有可能的特徵標記 起來。---->監督式學習