阿摩線上測驗 登入

申論題資訊

試卷:114年 - 114 高等考試_一級_法制:行政法研究#131497
科目:行政法研究
年份:114年
排序:0

題組內容

    行政程序法第 92 條第 1 項規定:「本法所稱行政處分,係指行政機關就 公法上具體事件所為之決定或其他公權力措施而對外直接發生法律效果之單方行政行為。」是為「行政處分」之定義。事實上,我國行政法繼受德國法制;無論前揭行政處分之定義,抑或同法第 93 條以下其他諸多相關規定 (即該法第二章之各條),皆同為德國法影響下之產物。而這些規定在臺灣行諸有年;即令於行政程序法施行前,也多以不成文法之法理在學說與實務中出現。行政處分已因而可謂我國行政法之重要特色。在這一點上,與德國行政法之發展甚為類似。準此,試詳細說明下列問題;必要時,更請以批判性觀點指出傳統見解是否已不適合現在行政實務之運作:

申論題內容

三、在講求數位化與人工智慧之今天,行政處分內容之決定,以及將處分通知相對人或利害關係人之方式是否還能維持傳統模式,抑或已有改進之必要?

詳解 (共 1 筆)

詳解 提供者:李浩銘

(一) 現行可用之法律基礎

  1. 電子形式與送達:行政程序法就送達已有規範,且在某些情形下(依法規)允許以電子文件視為送達;同時,電子簽章法(已修)確認電子文件/電子簽章與紙本具同等功能,但採用電子形式通常要有法律依據或當事人同意(並告知反對的機會/得推定同意等程序)。法律人+1

  2. 行政處分的記載義務:書面行政處分應載明「主旨、事實、理由及其法令依據」,此一「理由揭露」的要件是保障人民知情與救濟之基礎,對 AI/自動化決策尤其重要。台北法規資訊網

(二) AI 與自動化的法律風險(實務觀察)

  1. 黑箱(可解釋性)問題:演算法尤其是機器學習型模型,可能難以提供人類可理解的個案化理由,與行政處分載明事實理由之傳統要求產生衝突(也有偏見、差別待遇之風險)。學界與政府也已關注演算法透明與可解釋性的問題。臺灣人工智慧行動網 Taiwan AI Wise Agent Network+1

  2. 責任與可爭訟性:若行政處分由系統自動產生,應明確誰(主管機關、系統設計者、決策者)負責;否則人民在尋求救濟時會面臨「無法點出違法主體」之困境。

  3. 送達與同意問題:法制目前通常要求「依法規」或相對人同意才能以電子方式送達;若機關以 email / 系統通知取代傳統掛號,若未取得同意或無明文依據,送達可能有瑕疵。法務部主管法規查詢系統+1

(三) 政府已採取的實務/指引

  • 各級機關多制訂 AI 使用指引,例如臺北市「使用人工智慧作業指引」與行政院/國科會參考指引,均強調:不得未經人工檢視直接以 AI 做成影響人民權利義務之行政或法律處分;並要求透明性、可解釋性、個資保護、記錄保存與風險評估等。這代表行政實務已承認AI應有「人機協作(human-in-the-loop)」與風險控管的必要。