?

算法行政的程序保障困境及完善

2023-03-12 17:08劉嘉誠
湖南警察學院學報 2023年5期
關鍵詞:裁量決策行政

劉嘉誠

(湖南師范大學,湖南 長沙 410081)

引言

隨著人臉識別、自動駕駛、機器學習等算法技術與應用逐漸進入人們的視野,無論接受與否,人類社會都已步入算法時代。從技術上看,算法是對人腦的一種模擬,通過對已有信息的數字化處理形成數據模型及范式,從而更好地對往后的信息進行分析、加工及修正①參見王靜、王軒等:《算法:人工智能在想什么》,國家行政管理出版社2021 年版,第8 頁。?;谒惴夹g帶來的高效及便利,其以技術理性的形式嵌入公共行政的過程當中,并形成了“自動收集、自動分析、自動決策”的算法行政體系②參見翟月熒:《算法行政的興起、風險及其防控》,載《新視野》2022 年第3 期,第81-85 頁。。算法給行政活動帶來了不少便利,其強大的數據收集及分析能力能顯著性地提高行政效率,減少行政負擔。與傳統行政活動相比,算法行政可憑借自身計算能力的優勢將碎片化的公共資源進行重組,進而提高治理效能。然而,科技是把雙刃劍,算法行政對行政法治帶來的挑戰也不容忽視。數據泄露、算法“黑箱”及算法歧視等問題無不給行政活動帶來負面影響。這是因為“算法在行政規制中的實質性運用,并不能必然表明其在理論和規范層面的合法性”③王貴:《算法行政的興起、挑戰及法治化調適》,載《電子政務》2021 年第7 期,第2-14 頁。。值得注意的是,算法行政的背景下,傳統行政程序已然受到嚴重沖擊。算法的不透明性與專業性、算法歧視及算法的封閉性都對傳統行政程序的基本原則提出挑戰。如何應對算法技術給行政正當程序帶來的挑戰,有效地保障行政相對人的程序權利是算法時代不可忽視的法治問題。

一、算法給行政活動帶來的變化

隨著算法對行政活動的不斷深入,政府公共行政逐漸走向數字時代。部分傳統行政方式被算法自動化或半自動化行政所替代,行政效率得到明顯增強。從當前的數字政府建設實踐來看,算法技術對行政活動帶來多方面的改變。

(一)從固定場所辦公到虛擬化作業

算法技術的革新將傳統的行政活動從物理空間拓展至線上領域。以往行政活動受時空限制,工作人員“坐堂辦事”,當事人需要去指定地點才能享受政務服務?!盎ヂ摼W+政務服務”帶來“最多跑一次”“一網通辦”“一網統管”“一網協同”等創新手段?!吨腥A人民共和國行政許可法》專門規定行政機關應當建立和完善有關制度,方便申請人采取數據電文等方式提出行政許可申請??梢?,行政算法化更新了以往傳統的書面形式。其中,較為典型的示例是電子政務服務平臺的出現,這使得當事人在行政許可領域可網上辦理,“零跑堂”成為現實。以湖南為例,政務服務“新湘事成”APP 的上線實現46 個省直廳局1600 項行政審批事項“掌上辦”,當事人僅需上傳申請材料至APP,相關責任部門便可實現相應材料對接,各自審批,匯總后平臺再反饋至當事人,這極大地簡化了當事人的辦事流程,提高了行政效率。

行政活動從線下向線上的轉變得益于算法技術支持下實現的數字共享局面。在技術方面,算法數字技術打破政府部門之間的信息壁壘,各部門實現數據互通,交流共享,使政府跨部門交流協作成為可能。在行政組織層面,大數據強化了整體政府理念,推進行政組織內部優化升級,破除了科層制系統運行碎片化、分散化的桎梏。目前,我國已設立國家數據局,其由國家發改委管理,承擔統籌數據資源整合和開發利用的功能,將進一步強化數字法治政府的功能作用。

(二)從現場執法到非現場執法

算法時代行政效率和執法技術產生了新的標準,從而出現非現場執法。電子監控技術的發展使得行政機關在不接觸相對人的情況下,可通過電子監控系統收集原始樣本,并通過算法自動轉化成相應的數值固定成電子證據,行政機關再基于此作出行政決定。早在1996 年,我國第一套“搶紅燈自動拍攝器”在北京市試驗成功,我國交通執法領域就已開始進行監控系統的運用探索,隨著信息化技術的發展,新型科技更是給非現場監管執法領域注入了新的活力。GPS、人臉識別及無人機航拍等技術的出現,非現場執法已從交通管理逐漸拓展至海事、市場監管、生態環境保護等其他領域,相應的規范性文件也逐漸出臺。此外,2021 年修正的《中華人民共和國行政處罰法》還專門規定電子技術監控設備執法的相關標準。

非現場執法能夠輔助或者獨立進行行政執法活動,極大地彌補了執法上的人力不足。從執法自動化水平上看,完整的非現場執法可以分為兩個階段:一是監控技術設備記錄取證,二是以記錄的信息為證據進行處罰④參見楊曦:《利用自動監控進行非現場執法的進路及規范構建——基于事實認定的視角》,載《行政法學研究》2022 年第6 期,第86-96 頁。。第一階段主要由監控技術設備發揮作用,通過算法自動化系統對現場情況進行識別,從而完成調查取證。第二階段則需要進行人機互動,行政機關依據通過技術監控系統收集的數據而作出行政決定或者由算法直接作出行政決定。在交通執法領域,自助處理平臺經過算法處理后往往直接作出行政處罰決定。但由于其算法邏輯的關聯性與法律邏輯的因果性不相契合,故而難以獲得學理上的支持。就多數非現場執法而言,通常由行政機關完成分析與決定環節。故此,非現場執法中電子技術監控設備的運用僅發揮著輔助作用,行政機關及其工作人員仍然占據主導地位⑤參見李曉菲、張闖:《論非現場執法中的行政相對人程序性權利保障》,載《長春理工大學學報(社會科學版)》2023 年第1 期,第47-51 頁。。隨著算法技術的不斷進步,未來行政活動中自動化程度將會不斷提高,但仍不可忽視人工在行政活動當中的作用。

(三)從人工裁量到算法決策

數字技術的飛速發展將國家工作人員從大量繁雜的行政任務中解放出來。對于過去需投入大量人力才能完成的機械性作業,如今行政機關借助算法技術就能夠完成,甚至在某些領域運用算法決策完全替代人工裁量,幾乎實現完全意義上的算法行政。例如,美國阿肯色州衛生部門就利用算法系統的自主分析來完成醫療資源的分配。有國家已經以立法的形式確定了在行政活動中運用算法決策的行為。如德國《聯邦行政程序法》在2017 年修改時規定了完全自動化行為。算法決策給行政活動帶來了許多便利,但需要注意的是,算法運作可在無人工干預下做出決策,即便是算法輔助決策,決策者往往也對算法的技術理性存在較高的依賴性。若算法的運用在權利分配的過程當中起到了決定作用,則此時的算法已成為某種意義上的權力主體⑥參見雷剛:《數字政府時代的算法行政:形成邏輯、內涵要義及實踐理路》,載《 電子政務》2023 年第8 期,第73-89 頁。。

“在技術自主的維度下,以工具性、自主性和主體性作為判斷標準,可以將算法行政劃分為算法輔助行政、半自動化算法行政和全自動化算法行政,隨之對應的‘人機關系’也是有差異的?!雹邊⒁娗白ⅱ?,雷剛文,第73-89 頁。算法輔助行政為一種“去人格化”的存在,其運作方式如傳送帶一般將原始材料通過算法轉碼處理后再交由人工決斷。就其運用而言,可對算法邏輯進行預設,使其抓取特定人群的特定種類信息,并進一步推導出該類特定人員的心理意愿,從而給行政決策提供有價值的參考信息⑧杜昕怡、肖澤晟:《人工智能算法輔助行政決策的法治風險及其化解路徑》,載《學習論壇》2023 年第3 期,第122-130 頁。。半自動化的算法行政則出現一種“人機共治”的情形。此時的算法運行不再是人工決策的替代運行,而是起到建議、提示及預測作用的專家?!半S著技術的不斷發展和迭代,我們可以預期機器學習算法將用于政府部門做出更多的定性評估、建議和指導,甚至可能是評估性行政決定?!雹釓垵骸蹲詣踊姓π姓绦虻奶魬鸺捌渲贫纫驊?,載《華中科技大學學報(社會科學版)》2022 年第5 期,第60-69+89 頁。全自動化算法行政即為技術理性占據主導地位的行政活動方式,此時需特別注意算法的運作邏輯,以防止“算法官僚”現象的出現,從而造成算法歧視等不公正的社會問題。

二、算法行政對行政正當程序的沖擊

“權力行使高效化,權利保障卻邊緣化?!雹庵芪那澹骸哆^程論視野下自動化行政行為的司法審查——以道路交通非現場執法時空情境分析為視角》,載《行政法學研究》第2022 第1 期,第105-118 頁。數字技術的持續更新換代使得算法行政廣泛應用于行政活動之中,行政方式出現變革式的轉變,但與此同時,算法裁量代替人工決策卻無法完全掌握復雜的人類社會的語言。發揮到極致的技術理性固然能夠羈束行政權力的任意性,但卻無法匹配傳統行政活動的溝通理性,隨之而來的便是算法行政與傳統行政程序的不兼容。

(一)算法的不透明性及專業性沖擊行政公開原則

行政公開是為成就公民對行政事務的知情權和參與權而對行政機關施加的義務。行政公開原則要求行政權力的運行邏輯、行使過程及結果向公眾公開,并能夠使公眾理解。然而,在算法行政的背景下,算法成為行政權力運行的主體,算法的運行邏輯通常不會被公開,即便是公開,由于算法的專業性,一般人幾乎不可能理解算法的運行邏輯,就更談不上像在傳統行政活動中一樣行使自己的程序性權利。

算法的不透明性基于其具有商業秘密的屬性,且可能涉及對個人隱私的侵犯。算法行政的關鍵技術前提是符合預期目的的算法系統。然而,當前僅憑行政機關自身的專業技術和能力還遠遠無法滿足所有行政領域的自動化活動。因此,目前的算法開發及部署主要還是通過公私合作的方式來實現的?參見王懷勇、鄧若翰:《算法行政:現實挑戰與法律應對》,載《行政法學研究》2022 年第4 期,第104-118 頁。。2022 年,在智搜公司訴光速蝸牛公司等侵犯商業秘密糾紛案中,深圳市中級人民法院將模型選擇優化形成的核心算法認定為商業秘密予以保護。該案作為我國首例將算法認定成商業秘密予以保護的案例,進一步明確了算法的商業秘密屬性。對于企業來說,算法具有重要的商業價值,若將其運行邏輯及基本架構公開,使其暴露在競爭對手的視線之中,則極其不利。因此,作為企業方沒有理由公開其制定的算法,而陷于技術困境的行政機關即便想公開算法,又不得不考慮對合作企業方商業秘密的保護。此外,公開算法可能涉及公民知情權和隱私權之間的博弈。算法的運作需要大量的數據輸入,其模型架構中可能包含大量的公民的個人信息。也就是說,將算法公開或造成公民個人信息的集體披露,而公民的信息群又構成一種公共利益,行政機關將陷入兩種公共利益之間取舍的困境,使其不得不更加審慎地考慮。

算法的專業性導致即便算法得以公開,行政相對人的知情權仍得不到落實。算法的技術構造包括輸入端、技術程序層及輸出端。整體而言,算法運行過程涉及大量的數據信息及精密的分析方法,并且以計算機語言的形式呈現。因此,對于大多數人來說算法行政就是難以理解的技術“黑箱”。盡管早在2017 年《新一代人工智能發展規劃》中指出要“實現對人工智能算法設計等程序的全流程監管”,但對于受數字素養限制而被排除在算法“黑箱”之外的普通民眾而言也僅是泛泛而談?!八惴ê谙涞拇嬖谑沟盟惴┒?、算法缺陷得以隱藏,一旦算法在數據、模型、方法等方面出現問題,算法應用結果將會與應用目標相悖?!?譚九生、范曉韻:《算法“黑箱”的成因、風險及其治理》,載《湖南科技大學學報(社會科學版)》2020 年第6 期,第92-99 頁。因此,在算法所營造的隱秘空間內,相對人缺乏算法的知識譜系,逐漸喪失原有的知情權所要求的心理能力,也就難以判斷行政主體是否仍在遵循普遍已知的和通常理解的行政權力行使規范?參見程關松、苗運衛:《相對人參與算法行政的困境與出路》,載《東南法學》2021 年第2 期,第43-57 頁。。

(二)算法歧視撼動行政公正原則

行政公正要求行政機關在行政權力行使的全過程中平等對待每一個相對人,不論其身份、民族、性別和宗教等。行政公正原則的邏輯起點在于行政機關在行使公權力時享有自由裁量權,但該自由裁量權要受到正義與道德倫理的限制。算法時代的到來,使得部分自由裁量權轉交由算法行使。算法行政的預設目的是提升行政效率,運用非情感導向的數字處理技術來減輕過多的行政負擔。因此,技術中立的算法被認為在行政決策中是比行政人員更為公正的存在。然而,實踐卻證明即使是沒有感情的算法,同樣也存在歧視與偏見。例如,臉書(Facebook)的廣告管理系統(Ads Manager)傾向性地向某種特定性別或特定種族群體投放特定的廣告。

算法歧視的產生有多重原因。一是算法設計者本身的偏見。算法的數據處理邏輯歸根結底由人輸入。因此,在算法設計者設計算法時就存在將其本身的偏見植入算法當中。帶有偏見的算法用歧視的角度處理行政過程,那么行政結果往往也難以得到保障。但又由于算法的技術隱秘性,此種算法歧視又難以發現。二是數據偏差。行政決策的作出需要適量的數據“喂養”?;跈C器學習系統,在接收大量數據之后會形成對特定事件處理的特定模式。如此一來,未被數據采樣的部分可能會被無差別地適用到既有的特定模式當中,成為被歧視的對象。當前的算法缺少嚴格的數據過濾及篩選的功能,歧視性的數據信息往往無法被提前識別或抹除,反而進一步出現在多種交互性場合,這將導致更加嚴重的算法歧視問題?參見朱寶麗:《數據正義、算法歧視與規制》,載《征信》2023 年第3 期,第8-12 頁。。三是算法學習產生的偏見。對于機器自主學習的算法,其深度有時設計者自身都無法預估。算法具有技術中立性,而人類社會卻充滿著傲慢與偏見。如果不對機器學習過程加以嚴格的監控和把關,其發展到何種程度是難以預估的。據法國BFMTV 報道,ChatGPT 被人類“挑戰權威”時,不僅會生氣,甚至會出言侮辱用戶?參見《ChatGPT“學壞了?“虛擬朋友”發飆罵人、還性騷擾!歐盟即將立法監管》,載網易網,https://www.163.com/dy/article/HTSQN1360514BTOD.html,2023 年6 月27 日訪問。。

任何技術都無法保證自身的絕對穩定,算法基于其本身的技術缺陷導致其無法在所有行政決策中都做到公正對待。算法歧視必然造成個案的不公,每一個具體個案的不公通過疊加會導致群體的不公,亦會增加社會的不穩定因素?參見崔冬、楊兆圓:《自動化行政對行政正當程序的挑戰與對策》,載《寶雞文理學院學報(社會科學版)》2023年第2 期,第43-49 頁。。故此,算法歧視對行政公正造成的動搖問題亟待解決。

(三)算法的封閉性動搖行政參與原則

行政參與原則是民主原則在行政法中的體現,旨在行政相對人能在行政決策中施加影響力,對行政行為進行監督,對于不正當的后果予以糾正。隨著民主思想深入人心及行政觀念的轉變,政府的職能與地位發生轉變,政府不再僅是管理者,而且還是服務者。行政權力的強制屬性慢慢地被合作治理理念所柔性化。而在行政權行使中貫徹合作要素的關鍵便是切實地保障行政相對人的行政參與權。行政參與的關鍵要素是政府與相對人的雙向互動。相對人“合理期待”的實現需通過參與行政過程, 行政決策中相對人參與權的行使是一個利益整合與協調過程, 而這個過程必然是在行政機關和相對人的良性互動中實現的?參見王學輝、王亞棟:《行政法治中實質性公眾參與的界定與構建》,載《法治研究》2019 年第2 期,第50-59 頁。。行政相對人在行政過程中提出陳述、進行辯論是行政機關和相對人實現良性互動最為重要的方式。行政相對人在行政機關作出行政決策(尤其是對自身不利的行政決策)中表達意見,形成約束行政權力濫用可能性的外在力量,從而提升行政決策的透明度、公正性和接受度?參見前注?,程關松、苗運衛文,第43-57 頁。。

在傳統的行政活動當中,行政機關在作出行政決策前應當聽取行政相對人的意見,通常是行政機關的工作人員與行政相對人之間的當面交談或是書面形式進行。而基于算法決策的自動化行政方式,由于其機械計算的瞬時性,行政過程通常是輸入數據——分析數據——輸出結果的無縫銜接閉環,導致相對人無法在行政決策中發表意見。此外,行政機關在傳統行政過程中的說明理由義務往往也會因算法不具備可解釋性而大打折扣。因此,在行政決策中,算法總是掌握著話語主導權,相對人的參與權存在被架空的風險。盡管算法加持的自動化行政方式在諸多方面給行政機關及相對人帶來便捷,但人類情感的復雜性注定使人機互動在某些方面無法替代人與人之間的互動。

三、算法行政的程序保障完善路徑

在便利與風險并存的算法時代,必須時刻關注著公民的權利在時代洪流中是否得到彰顯。算法行政對行政正當程序原則帶來的沖擊伴隨著的是行政相對人程序權利的缺失。因此,為完善算法行政的程序保障,彌補行政相對人程序權利的缺失,有必要通過增強算法行政透明程度,限制算法行政裁量空間及開放算法行政全過程以改進算法行政的程序路徑。

(一)增強算法行政透明程度落實行政公開

1.構建算法披露機制增強算法的透明度。算法披露機制是指行政機關將算法的邏輯結構以自然語言的形式進行有意義的披露,使行政相對人知曉算法在行政活動中進行決策的依據,以增強算法透明度的機制。透明化的行政活動是公民參與合作治理的前提與基礎。將算法進行有意義的披露可以達到行政公開原則的要求,使相對人的知情權得到保障。有意義的算法披露不是簡單地將代碼與數據公開,而是要達到相對人知悉的程度,因此算法披露需達到一定的技術性標準。2021 年9 月29 日,國家網信辦等九部委聯合制定的《關于加強互聯網信息服務算法綜合治理的指導意見》中強調了算法自動化決策的披露要求,要求引導算法應用公平公正,透明可釋,但文件當中大多是原則性的要求。因此,目前我國的算法披露機制仍缺乏具體可操作性的規定。對此,應盡快明確算法披露的標準化技術規定?!八惴ň唧w透明要求在算法‘透明可釋’原則基礎上,對算法的運行邏輯、運行結果、算法參數和影響因子等予以公開?!?靳雨露:《算法披露的域外經驗與啟示》,載《情報雜志》2022 年第7 期,第91-99 頁。對于算法行政而言,算法披露的內容至少應當包括算法的法律授權、技術規范、預期目標、適用范圍、對行政相對人及利害關系人可能造成的不利后果及算法合理性評估過程等。

2.構建算法解釋機制增強算法的可釋義性?!吨腥A人民共和國個人信息保護法》(以下簡稱《個人信息保護法》)第48 條規定:“個人有權要求個人信息處理者對其個人信息處理規則進行解釋說明?!边@是個人信息保護領域為了確保公民能夠理解個人信息處理規則所設定的應對措施。因為即便在規則公開的情況下(即便已轉化為自然語言),公民也有可能不能準確地把握其含義,這時就需要對規則進行解釋說明。因此,只要有專業性的算法處理存在的領域,就存在即使公開規則卻仍然無法理解的情況,而在算法行政領域,亦是如此。在傳統行政中,行政機關對行政相對人作出不利決定時,行政相對人通??梢笮姓C關作出解釋。因此,可借鑒《個人信息保護法》第48條的規定,在算法行政中引入算法解釋機制,以確保算法公開能落到實處。算法解釋機制遵循著以權利制約權力的邏輯,是矯正信息不對稱,促進平等、正義價值實現的工具?參見何新新:《算法解釋權的證成與限定》,載《大連理工大學學報(社會科學版)》2023 年第3 期,第65-73 頁。。算法解釋機制主要包括解釋主體、解釋內容及解釋標準三個方面。在解釋主體方面,鑒于行政機關的算法技術支持通常來源于第三方企業,因此算法解釋主體應包括行政主體及算法開發主體,如此一來,可預防算法開發主體只管開發、逃逸責任的情況。在解釋內容方面,結合前述算法披露的內容,算法開發主體應對數據的收集和使用、算法設計的基本原理、算法程序運行目的、原理以及算法標準等技術規范作出解釋,而行政機關則對算法決策的法律依據進行解釋,以求消除算法規則的歧義,增強相對人的可接受性。在解釋標準方面,歐盟《一般數據保護條例》中提出的“向數據主體提供與算法邏輯相關的有意義信息”?胡嘉妮、葛明瑜譯:歐盟《一般數據保護條例》,載《互聯網金融法律評論》2017 年第1 期,第28-120 頁??蔀樗惴ń忉寵C制提供借鑒。行政相對人對算法決策規則提出解釋要求時,通常是在算法行政可能侵害其合法權益的情況?;诖?,“有意義的信息”至少是與行政相對人合法權益相關的。除此之外,還要保證算法解釋的可理解性與可接受性。

(二)限制算法行政裁量空間保障行政公正

1.確保算法裁量正當保障整體公正。根據算法決策系統的自動化程度的不同,可將其分為基于規則的專家系統與基于機器學習的算法系統?See Monika Zalnieriute, lyria Bennett Moses & George Williams, The Rule of Law and Automation of Government Decisionmaking, The modern law review, Vol.3, p.425-455(2019).?;谝巹t的專家系統將數據輸入預先設定的規則并得出結果,其基本的邏輯形式是“如果—那么”邏輯。例如樂山市城管局自助開發的“智能評判系統”對違法行為26 個裁量基準因素和減輕從輕處罰11 個判別因素進行識別、統計、疊加,最終得出違法程度和處罰階次?參見《首創!市城管局建設行政處罰裁量智能評判系統上線!》,載樂山市人民政府網,https://www.leshan.gov.cn/lsswszf/bmdtthr/202304/23238315c0774f14b1f4e098a7fbf64e.shtml,2023 年6 月27 日訪問。。為排除基于規則的專家系統的算法歧視,保障行政公正,應當對預設規則——即行政裁量基準進行規制。首先,要評估裁量基準的合理性,審查其規范邏輯是否存在偏見的前提。其次,要盡可能地將裁量基準細化,以追求結果一致性,保證同案同判?;跈C器學習的算法系統并不是人工預先輸入的固定程序及范式,而是對海量數據的發掘再據此作出決斷?;跈C器學習的算法系統“不僅可以完成效果裁量,尚可以不斷完善、充實裁量規則,尋求最優的裁量結果”?王正鑫:《機器何以裁量:行政處罰裁量自動化及其風險控制》,載《行政法學研究》2022 年第2 期,第166-176 頁。。能夠不斷自我更新完善是基于機器學習的算法系統的優勢所在,但同時也會因決策能力的發展而導致決策結果沖出正當邊界。對此,應當引入對基于機器學習的算法系統的專家審查機制,深入持續跟蹤算法系統,及時發現其缺陷并進行修正。

2.健全人工干預機制保障個案公正。行使行政裁量權時,需在事實與規范之間不斷地審視,結合個人的特殊情況進行衡平,而算法決策實難做到這點。無論是基于規則的專家系統還是基于機器學習的算法系統,因其關注點是既定的規則或過去的數據,故審視“未來的”案件時很可能帶入先驗的偏見導致無法保障個案公正。換言之,在算法自動化裁量過程中,算法無法在無數個差異的個案當中靈活變通,也難以總結出新的經驗保障下一個個案的公正解決。因此,“需要建立系統裁量偏差的預警識別機制以及特定情形下的人工介入機制”?杜昕怡、肖澤晟:《人工智能算法輔助行政決策的法治風險及其化解路徑》,載《學習論壇》2023 年第3 期,第122-130 頁。。首先,要塑造服務行政的理念。在我國算法行政運行的過程中人工干預機制之所以長期缺位,與對待算法行政的理念存有偏差不無關系?施立棟:《自動化行政中的人工干預機制:以公安領域為例》,載《中國社會科學院大學學報》2022 年第6 期,第83-99+165 頁。。若不塑造服務行政的理念,算法行政的技術理性只會侵蝕行政公開,僅僅將行政相對人當作“流水線”上的處理對象對待。其次,要開發切實可行的系統裁量偏差預警識別技術。例如,可建立類案偏差預警機制。當算法行政對個案作出嚴重偏離類案結果一致性的裁斷時,則可提示人工介入。最后,要賦予行政機關主動介入人工干預算法決策的權限。使算法裁量發生偏差時,行政機關工作人員享有介入、撤回及修正的權限,視具體情況進行靈活處理。

(三)開放算法行政全過程確保行政參與

公眾參與是民主政治中不可或缺的范疇。在任一行政法治政府作出重大決策之前,都將通過充分的公眾參與以保證潛在的利益相關團體的發言權,從而使其作出的行政決策更具科學性及有效性。算法行政實質上也是權力裁量的過程?;谒惴夹g的不斷更迭導致其將擴充至更多重要的公共行政領域,有必要在算法行政全過程中確保公眾的行政參與。

1.在算法行政啟動階段引入公眾參與。算法行政啟動的物質前提是具有能夠承載算法的自動化設備。自動化設備不同于政府機關采購的其他商品或服務,它將顛覆式地變更政府行政活動的方式,以代替人工的形式跨越內部直接影響到行政相對人的合法權益?參見關保英、汪駿良:《行政處罰中自動化方式適用的程序控制構建》,載《青海社會科學》2021 年第6 期,第150-159 頁。。除此之外,若自動化設備投入后,出現算法運算錯誤對行政相對人權益造成減損的情況,基于其計算過程的瞬時性,行政相對人將難以參與其中。故此,有必要在算法自動化設備采購環節中引入公眾參與機制。具體而言,可要求行政機關在設備選擇環節公開自動化設備的參數、性能特點以及可能對行政相對人權益造成的正面或負面的影響等因素,公眾可針對行政機關公開的內容進行問詢和質疑,行政機關應當對此作出答復。

2.在算法行政運行階段引入公眾參與。欲破解算法代替人工作出行政決定具有瞬時性導致行政相對人難以參與行政過程的困境,就要特別注重行政相對人對行政過程參與權的保障。第一,為避免算法自動化行政行為直接作用于行政相對人的權利義務,應確保算法決策的有效告知。有效告知的標準應包括告知內容全面、告知時限及時和告知方式合理等。首先,告知內容全面要求告知的內容不僅包括行政決定事實認定與法律依據,還應包括作出行政決定的算法邏輯。如此一來,不僅可以確保行政相對人在行政決定中的具體程序權利,還可強化其對算法決策本身的抽象性監督。其次,告知時限及時要求算法在行政決定特別是損益性行政決定生效前要切實地通知行政相對人,允許行政相對人與算法權力主體商榷,否則行政相對人的后續參與就無法發揮實質作用。最后,告知方式合理要求采用能夠切實送達行政相對人的告知方式。行政機關應考慮不同行政相對人的數字素養,采用電子送達形式時要預先取得同意,且采取告知之后確保行政相對人已收悉的措施。第二,要保障行政相對人陳述與申辯的權利。當前的人工智能技術盡管能夠做到與人類進行對話交流的程度,但其終究沒有人類的情感,無法考慮到個案中的衡平因素。故此,欲保障行政相對人的陳述與申辯的權利,雙向交流論證環節仍需回歸傳統行政的方式。對此,可設置人工客服,以此保證行政機關與相對人的有效交流。

3.在算法行政反思階段引入公眾參與?!叭绻f算法透明度和可解釋性的要求是以過程控制結果的機制設計的話,那么算法影響評估機制則是典型的‘過程+結果’ 控制型制度工具”?郭春鎮、勇琪:《算法的程序正義》,載《中國政法大學學報》2023 第1 期,第164-180 頁。。算法影響評估機制在結果上對算法行政運作過程進行風險把控,并以此作為改進的前提,是算法行政最后環節中的重要反思機制。而社會公眾作為算法自動化行政的最終承受者,來自他們的反饋信息是算法優化與改進的重要依據?張紅春、宋洪:《從排斥到包容公眾:參與式政府算法治理的邏輯與進路》,載《貴州大學學報(社會科學版)》2023 年第2 期,第33-44 頁。。首先,可通過公眾調查的形式吸收公眾意見。數字化背景下的公眾調查可采取線上問卷、線上留言以及意見征集等多種方式,其既具有較低的實施成本與公眾參與成本,又可廣泛收集公眾意見?;诠娬{查的隨機性與廣泛性,行政機關可接收到較為全面的算法行政的反饋信息。其次,可通過聽證的形式加強政民雙向交流。聽證是較為高效的雙向交流形式??捎嗅槍π缘匮埶惴ㄐ姓嫦嚓P團體參與聽證,長期與某一領域算法行政打交道的群體往往能提出建設性的改進意見。

猜你喜歡
裁量決策行政
行政學人
為可持續決策提供依據
論行政自由裁量的“解釋性控權”
Mesenchymal stromal cells as potential immunomodulatory players in severe acute respiratory distress syndrome induced by SARS-CoV-2 infection
決策為什么失誤了
行政調解的實踐與探索
應如何確定行政處罰裁量基準
行政為先 GMC SAVANA
加快行政審批體制改革
行政審批中的自由裁量行為研究
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合