?

從外部治理到內部運行:自動化行政研究的轉向及其展望*

2023-12-29 13:49韓萬渠王思雨
上海行政學院學報 2023年5期
關鍵詞:科層制智能算法官僚

韓萬渠 王思雨

(河南師范大學,新鄉 453007)

一、引言

大數據、區塊鏈、算法等新技術在政府治理中的運用,使得行政互動方式由人與人之間的互動逐漸轉化為人與機器之間的互動。自動化行政指通過算法技術、知識圖譜、專家系統等人工智能技術在行政體系中的運用,實現行政活動無人工介入的完全自動化或人工個別介入的部分自動化[1]。自動化行政作為人工智能時代的新興產物,以其顯著的效能優勢發展成為一種新型行政活動方式。傳統上依賴人力進行驅動的行政運轉方式,開始轉向以智能算法為引擎的自動化運轉,甚至在“自動化行政審批”“自動化工商登記”“自動化辦稅”等實踐場景下實現了機器替代人力的完全自動化行政運作,進一步推動了行政的自動化、信息化和智能化發展。自動化行政的具體應用往往以“自動化決策”的形式呈現。算法作為自動化行政的主要技術路徑,在行政運行過程中直接參與決策或輔助人工決策,帶來了行政運行效率的提升,但也因算法偏見等問題引發了諸多有關自動化行政風險及其規制的探討??傮w上,現有研究大多圍繞政府運用人工智能技術與外部行動者互動和服務給付中的負外部性效應展開,并將其治理之策集中于法律規制、倫理規制等,一定程度上忽略了自動化行政的內部效應及其與負外部效應之間的關聯。尤其是ChatGPT等生成式人工智能技術的興起及其在行政體系中的運用,將因其與行政體系的運行規則、一線官僚行政經驗的交互而產生新的不確定性,并延展至行政體系對于公共事務的治理?;诖?本文提出自動化行政研究應從負外部性效應治理,轉向挖掘人工智能技術對行政體系內部運行產生的影響,并進一步探索內外部之間的關聯,以期從內部探尋最小化自動化行政負外部效應的治理之策。

二、自動化行政的負外部效應及其治理

(一)自動化行政負外部效應的來源

自動化行政的本質在于智能算法嵌入行政運行過程。自動化行政因算法不透明、算法偏見等引發的有關自動化行政的法律地位、不公平等問題已經引起學術界的廣泛關注[2]。從技術維度審視,自動化行政的負外部效應來自智能算法的風險屬性:機器學習、編碼知識缺口和算法“黑箱”。

1.算法的“機器學習”性質

機器學習(Machine Learning)是人工智能技術的核心,主要研究計算機怎樣模擬或實現人類的學習行為,以獲取新的知識或技能,重新組織已有的知識結構使之不斷改善自身的性能[3]。機器模型的選擇需要先由算法設計者確定,之后再由機器自主學習完善。由于機器學習的數據本身就承載著算法設計者的價值判斷,進而這些帶有社會偏見和算法設計者主觀偏見的數據可能會被機器帶入模型不斷訓練,由此構造新的編碼知識[4]。因此,“機器學習”的不確定性和動態演進屬性使其可能偏離自動化行政所預設的、符合正當性的行政程序。機器以無限的學習能力填補了人類有限認知能力的缺陷,同時也潛在地消解了人的主體性和應有的自由裁量權。同時,針對決策結果進行問責也面臨著主體責任難以界定的困境。

2.算法的編碼知識缺口

編碼知識缺口是指算法系統中的編碼知識不足以覆蓋所有偶發事件,從而造成輸出上的知識缺口[5]。編碼知識缺口在自動化行政系統運行中較為常見,輸入端的指令得不到回應或者被提醒操作錯誤、輸出端的結果與輸入端的指令不相匹配都屬于編碼知識缺口的范疇。就自動化行政的運行場景而言,在完全自動化行為下,行政相對人通過網絡平臺和聊天機器人交互[6],這種基于文本通信的交流方式通常會在機器人識別人類語言的時候出現故障,從而導致決策結果無法輸出。而在部分自動化行為下,自動化行政裁量在根據實際案例匹配法律、法規依據時,往往會超出系統中編碼知識的范圍,從而導致輸入和輸出的匹配偏差。這種算法失靈的內在缺陷可以通過誤導判斷的形式,進一步擴大自動化行政負外部效應的發生概率。

3.算法的“黑箱”性質

算法運行過程主要分為輸入階段、中間階段和輸出階段,“黑箱”可能存在于這三個階段中的任意一個或者多個階段[7]。輸入端由算法設定,數據采集和選擇實現自動化運行,這一階段呈現出完全無人工干預的狀態且不具有透明性和可解釋性,使得有關個人隱私和集體隱私的采集和使用存在潛在的隱私安全威脅。中間階段是在算法特有的運行規則下,通過識別輸入端的文本和語言,根據既定的語法和句法規則,自動生成的一套不易直接觀察和解釋的回應邏輯。盡管輸出端的結果是可以預先設定的,但值得警惕的是,輸出端既包括顯示在終端的預先設定的結果,也包括在終端并未顯示的輸出結果。對前者的監管相對容易,對后者的監管會引起因算法不透明屬性而導致的監管困境,并暴露出隱性操縱的風險。

(二)自動化行政負外部效應的表征

盡管自動化行政負外部效應的來源主要表現為智能算法技術的不確定性,但具體表現形式有所不同,表現為損害社會公平正義、威脅集體和個人隱私安全、責任主體難以認定等。

1.損害社會公平正義

智能算法可以對復雜的行政任務進行高效處理,并能最大限度地減少人為偏差。但是由于算法本身不具備客觀性和中立性,所以并不能保證其決策結果的公平性。同時,如果算法設計者對智能算法訓練所選的模型和模擬數據本身帶有偏見,將會產生算法行政的歧視模仿行為,導致自動化行政系統在真實運行的過程中出現有偏向性的選擇[8]。因此,算法遵循何種規則以及在行政運行作何選擇取決于算法設計者的價值選擇。而算法設計者的價值選擇除了來自自身的知識結構,更多來自委托方——政府的知識體系,其中既包括規范層面行政運行的規則體系,也包括經驗層面基于特定業務的“隱性知識”。生成式人工智能技術具有較強的機器學習功能,并通過與一線官僚的交互實現對特定行政業務“隱性知識”的習得。這些隱性知識既包括行政運行應有的自由裁量,也包括自由裁量中的結構性偏差,通過算法的隱性篩選機制損害社會公平正義。

2.威脅集體與個人的隱私安全

智能算法時代的隱私安全問題更為復雜。自動化行政應用場景中,算法技術對隱私安全的影響表現出由個人隱私發展為集體隱私的傾向。集體隱私不是指一個集體中所有人隱私的總和,而是指一個集體中的成員有一個或者多個共同屬性的隱私[9]。算法會將這些隱私作為數據按照不同的屬性進行自動化的分類組別。但是,在算法分組的基礎上對這些隱私的利用會以集體特征的形式顯示出來,且目前在數據保護方面并未注意到集體隱私的問題[10]。此外,算法披露旨在對算法不透明導致的歧視等問題進行規制,但也可能對數據安全產生威脅。算法披露是指針對算法“黑箱”中的程序不透明賦予行政相對人算法解釋權,即要求行政機關對算法應用的源代碼、輸入數據、輸出結果及推理過程予以解釋的權利[11]。按照算法披露的要求需要公開輸入數據,這將和個人隱私權的保護產生沖突。因為行政相對人在對算法決策結果不滿意的情況下,可以行使自己的算法解釋權,此時算法應用中的輸入數據將會被公開,其中公開的數據不僅包括行政相對人的個人數據,還包括所涉事件中其他人的數據,后者如果被披露將涉及侵犯他人的個人隱私權。

3.責任主體難以界定

自動化行政帶來的責任主體界定模糊問題應該予以重視。自動化行政的主體不僅包括科層體系中具體的行為人,還包括有待認定的“算法官僚”屬性的行為人。行政場景的復雜性造就了行政主體的模糊性。在完全自動化行政場景下,算法自動化決策造成的后果由誰承擔、向誰問責存在難題。這一難題源于算法“機器學習”屬性,開發者預設的算法是否會隨著機器學習和迭代更新而偏離預設的軌道,尤其是這種偏離一旦因算法不透明而不易被監控到,將導致開發者、使用者對自動化行政算法的失控,由此造成問責主體模糊的問題。另外,自動化行政系統的開發與維護大多依托于大型技術公司,通過公私合作的方式達成,由此形成自動化行政運行的混合組織形態?;旌闲徒M織不僅存在不同類型組織的多重邏輯調適問題,也存在著責任分擔失衡的難題,即政府最終因為“無限責任”而無法形成對平臺企業、算法開發者的有效約束。

(三)自動化行政負外部效應的規制路徑

針對自動化行政運行出現的問題,實踐層面主要采取倫理規制與法律規制相結合、行業自我規制與政府規制監管相結合、包容性審慎規制與敏捷性響應規制相結合的原則,寄希望于多元規制力量的敏捷反應和協同發力。

1.倫理規制與法律規制相結合

倫理規制主張建立一套政策框架以確保對自動化行政的信任,主要通過算法設計者遵循“倫理設計”原則進行負責任開發[12],動員利益相關者進行協商并制定政策行動,以促進對自動化行政的信任。而法律規制主要強調對負外部效應的懲戒性治理,側重于事后權益受損的保護。一般而言,自動化行政負外部效應的直接作用對象是社會公眾,社會公眾的權益在受到損害時,最直接的回應方式就是尋求法律援助。因此,倫理規制與法律規制路徑的結合,在確保多元利益相關者信任自動化行政的基礎上,盡可能地保護其權益不受損害。

2.行業自我規制與政府規制相結合

自動化行政往往伴隨著智能算法技術研發企業深度嵌入行政運行之中。政府在其中處于技術劣勢地位。這一狀況意味著政府不得不依賴智能算法企業及所在行業的自我規制。同時,這也意味著政府規制不可以缺位,應該加強政府規制與行業自我規制的合作。行業自我規制屬于源頭規制,一方面要強化行業自身倫理規范的建設,另一方面則應致力于推動智能算法企業加大對自動化行政缺陷“技術補丁”的研發力度。政府規制路徑則主張建立一套完善的監管體系,通過數據接入和穿透式監管對其進行有效監管。作為源頭的行業自我規制、強化過程監管的政府規制以及底線防范的法律規制,共同構成針對自動化行政風險的協同規制體系。

3.包容性審慎規制與敏捷性響應規制相結合

對自動化行政負外部效應的規制,在方法論上強調包容性審慎規制和敏捷性響應規制的結合。包容性審慎規制旨在搭建一個動態監管框架,通過聯合各方利益相關者設計監管沙盒,劃定風險范圍并將自動化行政的外部治理問題及其衍生風險限定在“盒子”內,同時保證“盒子”內部的可控性。敏捷性響應規制則主張建立一套完善的敏捷響應機制,對自動化行政運行中不確定性的外部治理問題,及時組織自動化行政系統設計者、倫理學專家、法律專家以及政策專家共同開展評估與研究,并提出應對策略。包容性審慎規制強調要保證問題的“可控性”;敏捷性響應規制則強調要承認治理問題的“不確定性”以及問題解決的“快速迭代性”[13],兩者的結合有助于將自動化行政所帶來的負面影響降到最低。

三、轉向科層體系內部運行:自動化行政研究的議題轉向

貝克(Ulrich Beck)提出風險社會的兩個特征:一是具有不斷擴散的人為不確定性的邏輯;二是導致現有社會結構、制度以及關系更加復雜[14]。這一推論同樣適用于自動化行政。前述分析主要圍繞自動化行政受算法不確定性帶來的負外部效應。自動化行政對社會結構、制度等的影響存在兩條路徑:直接路徑和間接路徑。既有研究主要關注直接路徑,即聚焦自動化行政的核心技術——算法,主要基于其他領域算法技術直接作用于行政客體、社會結構所產生的影響,進而提出治理算法負外部效應的多元規制策略。這一路徑容易混淆一般意義上的算法對社會結構、制度運行產生的直接影響,和算法技術運用于行政體系對社會結構、制度運行產生的間接影響。因此,未加區分、沒有細致考察自動化行政運行具體場景,將一般意義上算法的負外部效應“套用”到自動化行政場景存在邏輯推論偏誤。因此,學界更應關注自動化行政對社會結構和制度運行的間接影響。即算法技術首先作用于行政體系自身,并通過行政體系在解決公共問題等職能履行中,引致社會結構和制度運行的變遷,進而對社會運行秩序和規則產生影響。

(一)研究轉向的緣由:權力運行邏輯的轉變

韋伯認為權力是一種力量,這種力量使得行動者在一定社會關系中,即便其意志遭到反對,但依舊能夠有效貫徹[15]。隨著算法在行政領域的滲透,算法顯示出作為新的權力形態的屬性,而不僅僅是一項新技術[16]。與傳統意義上的政治權力不同,自動化行政中的算法權力是一種建立在技術基礎上、依托并內化于行政權力的“軟權力”。算法技術重新建構了行政的運行環境,利益相關者在新的運行環境中享受到了算法帶來的福利,也逐漸自覺接受行政運行模式轉型提出的新要求和新規范。此外,算法權力以其技術理性催生合作性的社會權力[17],在其自身權力屬性隱性化的基礎上,通過外顯化其內在缺陷來凸顯負外部效應產生的根源。但實際上,負外部效應的產生也與行政內部權力的運行息息相關。

算法權力介入政府治理引發的科層制數字化轉型是理解自動化行政體系內部運行的宏觀維度??茖又茢底只D型構成對傳統科層制價值導向、組織結構、工具方法層面的重塑。在此情境下,行政體系內部控制機制的數字化轉型構成理解自動化行政的中觀維度。行政體系內部的績效監測、考核評估、獎懲監督等,深刻影響著行政體系中不同層級、不同部門、不同崗位的職責運行及行政主體的行為選擇,進而導致微觀層面基層行政管理者的自由裁量權面臨著與機器之間的張力關系及其調適和博弈。因此,本文提出自動化行政研究應轉向行政體系內部運行的論斷,并從宏觀、中觀和微觀三個層面對此進行分析,以期在避免算法權力異化的基礎上最小化自動化行政的負外部效應,為理解自動化行政的內外部關聯提供分析理路。

(二)自動化行政的內部效應:基于結構-過程-行動者的分析

算法權力對行政體系內部運行三個層面的影響,按照“結構-過程-行動者”的影響邏輯層層遞進,微觀層面的人機權力博弈發生于中觀層面行政內部控制機制智能化的背景之下,同時中觀層面的內部控制機制智能化又發生于宏觀層面的科層制數字化變革的結構限定之中。

1.宏觀結構層面:科層制的數字化變革

科層制的現實運行存在組織體制僵化、層級信息傳達滯后、部門利益分割、去人格化難以實現等問題,制約了作為理想型組織的效率追求,引發了一輪又一輪的圍繞科層制改造的變革??茖又频臄底只兏镒鳛樾乱惠喌奶剿?通過運用以互聯網為代表的信息通信技術,提升行政運行效率、強化政民互動,為應對多元社會對行政的回應性訴求壓力提供了制度變革的切入口,一度被稱為“后科層制”[18]。但是,這一判斷也引發諸多爭議。無論是理念層面還是技術層面引發的組織變革均未能觸動其底層邏輯?!靶姓x技術”等概念的提出,揭示出數字技術對科層制變革的努力與行政對技術的定義、吸納和塑造是并行的[19]。

人工智能技術嵌入行政體系催生出算法官僚主義,將公共行政人員、算法、機器以及其他組織制度條件結合起來,以應對復雜性并克服傳統官僚主義的一些局限性,同時還保留公共部門核心價值觀[20]。生成式人工智能技術的興起及其在行政領域的深入運行具備了深層觸動科層制運行邏輯的可能性[21]。生成式人工智能技術的交互性進一步提升了人工智能技術對隱性社會技能的習得,降低了傳統科層制對人及其自由裁量能動性的依賴,在去人格化方面拓展出新的空間。算法運行規則對傳統科層制運行規則的置換,使得規則更多地以隱性的方式呈現出來,融入行為公共管理設計的運行規則,更易于發揮出“潤物無聲”的控制力。

2.中觀過程層面:行政體系內部控制的智能化

組織的有效運行離不開控制職能的發揮。內部控制機制通過一整套制度安排對組織行為進行引導和糾偏,使其按照預定的路線實現組織預期目標。行政體系內部控制的智能化是指自動化行政內部大到行政活動小到行政單位的日常管理都由智能算法控制,或者通過智能算法的運行增強行政體系內部的控制力。行政內部的活動和日常管理也開始逐漸由人作為制度執行者的控制體系,轉向算法介入的過程性自動控制。諸如預算審批、自助報銷等業務已經基本實現完全自動化。這些領域業務的自動化轉型簡化了行政流程,提高了工作效率,增強了財務內部控制體系的有效性。同時,算法輔助行政人員參與決策、執行預測分析功能以及定制個性化服務,在行政內部控制的日常管理和業務活動中實現了部分自動化。算法輔助行政工作人員精準化采集、分析和利用數據,有效避免了人為帶來的誤差與風險。以工作考核為例,量化管理下的工作考核可以依托智能算法技術獲取考核對象的所有數據,基于工作細分,構建實時、全流程的考核指標評定,實現對行政人員工作績效的精準量化,并形成對考核對象的“用戶畫像”[22]。

受宏觀層面科層制數字化的結構性重塑的影響,行政體系內部控制的適用對象和驅動力均發生了根本變化。不同于傳統科層制以規則為導向的等級控制模式,行政體系內部控制的智能化實現了精準點控,但彌散于組織運行全流程的控制力,也不可避免地約束了科層運作應對不確定性事務的自主性。與之相伴的是公共治理事務的復雜性和不確定性日益增強。事實上,這一復雜性和不確定性也來自自動化行政本身。因此,過密過細的智能化內部控制機制的邊界值得關注,由此形成的對行政主體的全景式規訓,到底意味著什么,如何調適有效控制組織行為和有效適應環境變化的關系成為自動化行政研究的關鍵。

3.微觀行動者層面:人和機器自由裁量權的博弈

自動化行政場景下科層制的運行因為嵌入了作為等級規則的替代品的智能算法,使得技術樂觀主義者往往認為智能算法包含的技術理性,實現了對自由裁量權的替代,其本質轉為算法官僚和街頭官僚自由裁量的博弈[23]。技術中立主義者相對謹慎看待此問題,認為算法官僚和街頭官僚之間形成了“人機協同”的狀態,但也不否認算法的確削弱了街頭官僚的自由裁量權[24]。曾經被視為濫用自由裁量權的官僚弊病,在自由裁量權被壓縮的自動化行政場景下,又恢復了其克服科層制內在缺陷的本性??茖右巹t的算法替代既有其合理性,也面臨著因規制鎖定而出現的僵化,同時還面臨著對算法機器學習和生成式人工智能技術導致的不確定性。

因此,針對完全自動化場景中算法官僚與街頭官僚之間的自由裁量權博弈,構成微觀層面考察自動化行政內部效應的關鍵。Hartzog等人認為行政活動一般可以劃分為“預測—分析—行動”三個部分[25]。如果算法嵌入在這三個部分均實現了無人工干預,則構成了所謂的完全自動化行政。目前,完全自動化行政限定在一些重復性、技術性的工作范圍[26],例如,一些程序簡單、事實清晰、無須人工思考的交通抓拍處罰決定以及行政智能審批等。對于智能算法介入下的預測和分析結果的使用,學界提出“如你所想”的判定原則,即如果人工智能的建議能證實街頭官僚的專業判斷,就會得到采信,揭示了街頭官僚對算法決策的審慎態度[27]。但這一研究隨著生成式人工智能技術的大發展,尤其是適應了生成式人工智能技術的新一代人類成為街頭官僚時,他們還會不會把算法決策視為“強化自身判斷”的一個輔助性驗證,有待進一步追蹤考察。但從這一意義上,建立對自動化行政負外部性的協同規制體系,理應有一個針對算法決策的快速的、必要的審核機制,通過敏捷規制實現對其可能偏誤的防范。

(三)自動化行政中的算法權力異化:基于內外部關聯的視角

1.宏觀層面:自動化行政中的算法權力異化與自主性缺失

自動化行政負外部效應的產生除了源于算法“機器學習”的不確定性和算法“黑箱”的不透明性等算法內在特性外,行政內部的權力配置也是負外部效應產生的重要來源。權力是行政體系運行的基礎。傳統科層制的權力體系建立在現代理性權威和等級規則的基礎上。權力由科層體系中的各級官僚行使。自動化行政運行過程中,算法的嵌入突破了傳統科層制的組織邊界,使得層級分明的有形組織朝邊界模糊的無形組織發展,進而重塑了科層體系的權力結構。算法技術具有了典型的權力支配屬性。自動化程度越高,算法權力的支配性越強。算法作為自動化行政體系中的隱性權力,因其不透明性和不可解釋性,為傳統科層制的權力體系制造出難以觸及的隱秘空間[28]。自動化行政中的隱私安全、主體責任界定等外部導向問題同樣構成傳統科層制中權力體系無法觸及的盲區。權力異化的根源在于掌控權力者一旦缺少監督就很容易突破權力應有的邊界。算法權力作為一種新形態的支配力量,同樣難以擺脫這一根本屬性。尤其是,算法技術的機器學習屬性和不斷迭代中的自我強化效應,一旦缺少有效監管,就會出現權力異化現象。

這里強調的算法權力異化側重于內部層面的異化,區別于算法直接作用于社會主體引致負外部效應的權力異化。后者突出表現為算法技術本身的內在缺陷,前者則突出表現為算法權力重塑科層權力結構引致的“行政人”自主性的缺失。算法權力的內部異化源于算法官僚主義的制度邏輯對技術理性的過度推崇,弱化了行政人的獨立性和自主性。算法技術對科層制中人的主體性的消解,使得基于理性自治的官僚結構將從“人的組織”轉向“算法的組織”[29]??茖又浦械墓残姓藛T則游離于算法規則之中,淪為算法的附庸。這一內部行政規則的轉變將會誘發自動化行政的外部關聯效應,例如:強調利益、績效的算法規則,對傳統官僚科層體制下公平正義、自由平等的價值原則帶來威脅,使得自動化行政中算法偏見的負外部效應顯露。綜上,為規避算法權力異化,并且減少觸發自動化行政負外部效應產生的可能,需要更好地發揮技術與組織的互構作用。技術治理不能脫離科層組織而單獨存在,否則算法權力就會脫離控制的范圍進而觸發一系列的關聯效應??茖又浦袡嗔Y構的失衡成為自動化行政負外部效應產生的重要原因。負外部效應是科層內部權力結構失衡的潛在性后果,并通過權力行使轉化為外部導向的現實性后果。

2.中觀層面:自動化行政中的全景式規訓與避責行為的加劇

包括算法在內的新興技術不管是在研發目的上,還是在應用手段上似乎都可能會疏離“為了人”的現代目的,而走向“控制人”的超現代目的[30]。自動化行政強化了行政體系的內部控制。行政內部體系的設計、運行、評價、獎懲由算法主導,行政內部體系的運轉規則在算法控制的主導下也將被重新塑造。算法作為一種信息支配權,通過嵌入內部考核體系實現對不同層級、不同部門、不同崗位的控制,形成以智能算法支配科層體系運行的新秩序[31]。這一新秩序的合理性在于改變了既有考核控制的模糊性,實現了精準、全流程的控制體系,但也不可避免地出現了智能算法對“行政人”的全景式規訓。??轮赋鰴嗔σ幱柕娜貙崿F機制:層級監視、規范化裁決和檢查。其中,層級監視通過各類技術裝置實現對行為的“觀察、記錄和訓練”。規范化裁決主要通過儀式和符號將規訓客體標簽化[32]。支撐自動化行政的智能算法技術使得標簽與“畫像”建立起更精準的匹配關系,并衍伸至其他領域。檢查機制事實上通過層級監視技術與規范化裁決技術的結合,將上述匹配關系制度化,完成了智能算法技術與科層制度規則的互嵌,構成對行政主體的全景式規訓。

在此過程中,智能算法對“行政人”全流程的行為追蹤機制與“行政人”的隱私權之間存在模糊地帶。嵌入內部控制體系的智能算法增強了內控監督機構的權力運行效率。行政體系內部掌控考核權的機構與智能算法開發機構的合謀,將加劇行政體系內部監督體系的緊張性。在此情境下,科層體系中的“行政人”首要的是對智能算法內控機制的遵從,而不是對外部主體訴求的回應。避責而非擔當,成為科層體系運行的第一準則。自動化行政增強內部控制機制主要以考核機制的智能化實現。除了前述過程考核性的全景規訓產生的避責動機,在考核內容方面同樣產生了深刻影響。政府對負外部性的規制與治理是行政體系內部考核內容的主體。對政府治理任務完成程度的考核一旦實現了智能化,必將增加“行政人”的指標投機主義行為,甚至對行政倫理產生影響。這將進一步讓街頭官僚成為算法官僚的附庸,減少了行政人通過自主性對算法歧視進行糾偏的可能性,同時也加劇了自動化行政情境性的繁文縟節的程序主義,降低了行政體系對環境變化的適應性,進而增加自動化行政算法異化產生負外部性的概率。

3.微觀層面:人機協同自由裁量剩余控制權虛置與負外部性的出現

自動化行政運行中算法官僚和街頭官僚圍繞自由裁量權的博弈,本質上取決于自由裁量剩余控制權在二者之間的配置。決策事務的結構性良好時,自動化行政“人機協同”處理的是一些直觀的審批決定和數據、知識等決策支持,自由裁量剩余控制權的分配界限分明,街頭官僚或者科層體系的制度權威占主導地位。但是,在高度不確定性和復雜性的應用場景下,算法官僚和街頭官僚之間的剩余控制權配置存在較大的模糊空間,增加了自動化行政內部效應的風險屬性,并連鎖反應至負外部效應。剩余控制權來自經濟學的不完全契約理論。決策事務的復雜性和不確定性導致契約的不完全性。人們無法在初始合同中對所有可能的狀況及其對策(權責分配)作出完備的規定。剩余控制權的配置旨在為出現初始合同未約定事件時作出相應決策[33]。自動化行政中智能算法的機器學習屬性使其不斷迭代,并逐步偏離初始合同約定的剩余控制權介入的判斷規則。

在當下“人機協同”的場景中,算法官僚作為“輔助角色”所擁有的剩余控制權是不確定的。算法官僚作為輔助角色看似沒有被明確賦予自由裁量權,但是它在行政裁量中發揮的真實作用往往會被其“輔助”外表所掩蓋[34]。前述“如你所想”的論斷是對當下街頭官僚仍掌控自由裁量權的實證結果。但生成式人工智能技術的深度學習功能,對此論斷的學習將進一步優化算法官僚對特定領域街頭官僚決策偏好的學習。當算法官僚越來越精準地適應并深諳街頭官僚的自由裁量偏好,甚至算法裁量已經優于街頭官僚裁量、并被街頭官僚自認為“所見略同”時,街頭官僚事實上已經不自覺地依賴算法裁量進而誘發“自動化偏向”[35]。因此,算法輔助也有可能變為算法主導,算法官僚將會削弱街頭官僚的自由裁量權。

盡管已有研究針對自動化行政開發了風險預測模型,即算法官僚與街頭官僚針對同一事務進行的決策一旦存在差異極化,決策雙方將進行二次博弈,并在第一次決策的基礎上陳述決策理由,由第三方確定決策結果[36]。但是,如果這一規則本身被利用了,則兩種決策方案的折中未必符合解決公共問題本身所需要的合理性。因此,智能算法機器學習屬性決定了第一選擇是識別出一個與街頭官僚選擇相對立的方案,并通過二次博弈實現真正的主張[37]。這一主張對于糾偏街頭官僚利益捆綁問題具有合理性,但一旦算法官僚被權力與技術合謀俘獲,則會產生帶有技術理性和制度防范雙重光環的決策,讓人們不自覺地接受有偏差的決策,導致負外部效應的出現。

四、結論、討論與不足

智能算法技術嵌入行政體系運行已經成為數智時代政府治理變革的主要趨勢,由此引發學術界對自動化行政的廣泛關注,并集中于自動化行政負外部效應及其治理的研究。既有研究認為自動化行政負外部效應源于智能算法技術的內在缺陷與機器深度學習屬性研究,主要從倫理規制與法律規制、行業自我規制與政府規制、包容性審慎規制與敏捷性響應規制相結合的維度,提出構建多元協同規制體系的治理之策。事實上,這一分析理路將算法在不同領域應用引致的風險視為同質性的,并未對自動化行政運行的場域特征予以差別性處理,考察自動化行政的內部效應及其對負外部效應的影響。自動化行政運行中的算法風險,一方面來自無差別的算法技術屬性的內在缺陷和機器深度學習帶來的不確定性;另一方面來自算法嵌入科層體系對行政內部運行機制的影響,進而延伸至自動化行政的負外部效應。前者是算法引致負外部效應的直接路徑,側重于技術路徑;后者是算法通過嵌入行政體系進而引致負外部性的間接路徑,側重于技術與組織的互構。智能算法技術與行政運行體系的互構是理解這一間接路徑的關鍵,由此引發宏觀結構層面科層制的智能化變革,延伸至中觀過程層面行政體系內部控制機制的智能化,進而影響著微觀行動層面“人—機”自由裁量權的再生產和重新配置?;凇敖Y構-過程-行動”的分析為自動化行政研究轉向行政體系內部運行提供了邏輯進路。

生成式人工智能技術的興起對科層制運行產生的結構性重塑,讓技術憂思的想象逐步變成現實。生成式人工智能技術的交互性,不僅習得了社會自身運行的隱性技能,也將習得科層體系中各級官僚的隱性技能,進而影響到科層體系運行過程中的權力結構和運行過程。自動化行政對科層制運行過程的影響集中于內部控制機制的智能化,由此構筑的全景式規訓體系,加劇了科層體系中“行政人”的避責動機。政企合作格局下自動化行政的運行,并在此過程中形成了依賴于算法官僚自由裁量的避責格局,使得“行政人”在人機協同中自由裁量剩余控制權的主導地位進一步減損??茖又频臄底只D型是大勢所趨,但科層體系內部控制機制的智能化則存在較大的自主空間。無論科層制的數字化轉型未來趨向何處,調適過程維度全景式規訓與適應性行政之間的張力關系成為關鍵?,F有研究普遍對自動化行政外部效應予以關注,本文嘗試通過“結構-過程-行動”的分析框架,將研究視角轉向行政體系的內部運行。不足之處在于仍停留于規范性論述,并未對此進行實證分析。因此,行政體系內部控制機制的智能化影響“行政人”的避責動機,并進一步削弱自由裁量剩余控制權的主導地位的作用機理,亟待通過參與式觀察、追蹤調查、實驗法等研究方法開展實證研究。

猜你喜歡
科層制智能算法官僚
鄉村不應有“官僚”——關于“豐縣事件”的三點思考
神經網絡智能算法在發電機主絕緣狀態評估領域的應用
基于超像素的圖像智能算法在礦物顆粒分割中的應用
中國基層政府中的非正式官僚:歷史與現實
狠剎“向下甩鍋”——治治各類“疲軟癥”“話癆癥”“官僚癥”
從雞群算法看群體智能算法的發展趨勢
改進的多目標快速群搜索算法的應用
科層制與關系網:民國時期世界書局和大東書局的發行管理制度述論
基層政府依法行政的困境及其對策分析
街頭官僚:基于國內研究文獻的述評
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合