?

算法透明何以提升公眾的政府信任?

2024-03-05 11:32李晶晶
公共行政評論 2024年1期
關鍵詞:信任決策公眾

李晶晶

一、問題的提出

隨著大數據、算法和算力的緊密結合為社會運行方式帶來顛覆性的影響,我們已邁向“算法社會”。算法逐漸成為公共部門的重要決策支持主體,在風險評估、預測性警務、應急管理等諸多領域發揮了重要作用(Kroll et al.,2016;吳進進、何包鋼,2023)。我國數字治理浪潮之中,算法已在“金稅工程”等稅務相關領域嶄露頭角,推動治理精細化、信息化,加速國家治理能力現代化進程。在算法被賦予數字裁量權輔助公共決策時,算法透明成為政府善治的應有之義(Busuioc,2021)。算法黑箱、“不可解釋隱憂”等算法自身特性觸發了諸多風險,引發了學界對于算法透明度缺失、難以問責監督的關切(Janssen &Kuk,2016)。更為重要的是,公共部門算法自動化決策系統的不可見性與不可理解性極易沖擊公眾對政府公權力的信任(張凌寒,2020)。

與此同時,計算機科學、公共管理學者在信任視域下對于算法透明的呼喚日漸強烈。本文將負責任人工智能、可解釋人工智能(explainable artificial intelligence,XAI)的技術邏輯與透明公共價值結合起來(public value)(Schiff et al.,2021),進一步提出:算法透明是指利用解釋算法邏輯過程、算法決策結果等手段,以算法解釋(algorithmic explanation)為核心機制,所實現的面向公眾的可解釋、有意義的透明。政府信任是現代公共治理長期以來追求的關鍵目標,是公眾在與政府互動關系中所形成的對政府可信賴性的評估,反映了政府的公共治理能力(Wang &Guan,2022)。人工智能等信息技術造就的治理變革為構筑政府信任增添了不確定性,愈來愈多的學者主張以算法信息公開疏解黑箱、增強公眾信任(Diakopoulos,2016),但算法透明對公眾政府信任的影響并不明朗(Grimmelikhuijsen,2022)。面向算法賦能治理的未來,政府信任何以為仍有待深入討論。

全球范圍內,各國已進行了算法透明的政策實踐。歐盟通用數據保護條例(GDPR)明確了算法解釋權;新西蘭于2020年頒布了世界首個政府機構算法使用標準;我國最新算法治理文件《互聯網信息服務算法推薦管理規定》指明了算法透明的要求,具體機制尚待明確。然而,關注公共部門內算法透明建構路徑的研究目前較為有限,且算法透明與信任的關系存在爭議,需要在系統理論框架之下檢驗其與政府信任的關聯機制。本文立足于這一研究空間,基于委托-代理理論,從公眾感知一側出發,探索算法透明的實現機制,以及算法透明對政府信任的影響機制。本文主要關注兩大研究問題:(1)在政府利用算法進行決策的場景中,何種算法透明機制能夠提高公眾的感知算法透明?(2)算法如何嵌入政府與公眾的關系?在此基礎之上,感知算法透明是否會影響公眾對于政府的信任?其影響機制如何?

本文可能具有兩方面的貢獻。在理論層面,本文嘗試界定算法透明的內涵和不同實現機制,并立足于算法時代的治理現實,分析算法如何嵌入公眾與政府的傳統委托-代理關系,進而影響政府信任,為公共部門算法輔助決策場域的透明信任迷思提供啟示。在實踐層面,本文實證檢驗了基于過程和結果的算法透明具體策略,為提升算法透明、強化政府信任提供了政策借鑒。

二、文獻回顧

(一)公共部門算法及算法透明

算法原指用于任務分析系統的抽象的數學結構,亦是一種權威的表達方式和權力結構(Beer,2017)。根據算法自身的特性,從歷史數據中推斷趨勢、改變傳統政府行政范式的“預測型深度學習系統”,不僅使政府更有效地回應了復雜的社會需求,在交通、稅收、司法等領域制定了更為智能的方案,更沖擊了官僚機構與國家權力的運行(肖紅軍,2022;吳進進、何包鋼,2023)。逐漸膨脹的算法自動決策系統催生了系統性官僚與數字裁量權,對程序正義性、合法性及自由裁量的道德價值提出了挑戰(Nagtegaal,2020)。

隨著“算法”一詞的內涵逐漸從邏輯預設的專家系統(expert system)躍遷至預測能力強大但難以剖析的機器學習算法(machine learning),學界對算法透明的關注與日俱增。算法透明可被視為基于算法解釋,對算法相關結構、程序、決策理由、性能、數據等信息,以受眾可理解的形式加以披露與公開(Kleizen et al.,2023),其價值意義存在支持論、無效論、有害論的爭議(Zerilli et al.,2019)。一方面,算法透明度被認為是解決算法偏見等新技術倫理問題的重要手段,亦關乎公眾監督權、知情權等權利,是實現算法問責的重要基礎(Busuioc,2021)。以提供算法解釋為路徑,提升算法透明度能夠增強用戶對算法的接受度(Cramer et al.,2008),并化解人類對算法決策可能失控之風險的憂慮。但另一方面,公眾往往由于缺乏相關技術知識,無法理解高度復雜的算法,致使信息公開的效用有限(Ananny &Crawford,2018),算法信息公開更可能危及商業秘密、泄露個人數據隱私(Spiegelhalter,2020)。就算法透明的受眾而言,算法透明面向開發者、用戶、公眾、政府監管人員、第三方研究機構等不同主體,由此引申出驗證系統可靠性、測試安全標準等多種透明設計(徐琦,2020)。從實現方式而言,算法透明的核心是可被理解,公開源代碼既不可行、也不必要,因此須以算法解釋為主要手段(Ribeiro et al.,2016;Rader et al.,2018)。算法解釋可分為“以算法功能為中心”和“以決策場景為中心”兩大路徑,前者要求提供對算法的模型邏輯、一般功能的解讀,后者則圍繞具體案例和個體,提供針對性的分析結果(Esdwards &Veale,2017)。

(二)政府信任研究

政府信任與政治信任具有內在關聯,其既可被理解為政治信任的組成維度,是對政治系統中具體政府機關的信任,也可以被認為是公眾信任政治體制的表現(Citrin,1974)。從微觀心理層面而言,政府信任是一種公眾在與政府互動過程中所形成的積極預期和信心,往往來源于對政府能力、誠信與良善的評價(Grimmelikhuijsen,2012),也有學者認為公眾可能會基于理性信任、感性信任及外部環境來評估政府的可信任性(徐貴宏,2009)。政府信任過弱可能會導致公眾的政策遵從意愿下降,從而影響政策的正常執行。對政府信任進行溯源,社會人口屬性、社會資本、文化以及政府透明等政府行為因素均對公眾的政府信任有重要影響(劉米娜、杜俊榮,2013;盧春天、權小娟,2015)。其中,各國文化傳統及公眾的政治價值觀、年齡、社會地位等背景變量均會影響公眾對政府的信任。綜上所述,多數研究認為政府信息公開等政府透明活動能夠減少公眾與決策者之間的信息不對稱,對公眾的政府信任有正向促進作用(Hood &Heald,2006;Wang &Guan,2022)。

(三)算法透明與信任研究

算法透明與信任的關聯近年來開始受到管理學、傳播學、人機交互學者的關注,但正如政府透明與信任的理論迷思,這一領域仍處于辯論與探索階段,尚未形成統一觀點(Schmidt et al.,2020)。部分研究從應然理論分析入手,認為算法透明揭示了算法內部的原理與規則,能夠成為驅散不信任的一支利箭(Glikson &Woolley,2020;Schiff et al.,2021)。Lu等(2020)通過實驗發現,公眾在接收算法解釋和示例后,將對算法有更深入的理解。然而,算法透明并非是構筑信任的“萬能靈藥”,比如對于公平性爭議較大的學生成績評估算法,公開算法相關信息反而降低了學生對于算法的信任(Kizilcec,2016)。算法的應用場景特性相較于透明對于構建信任可能具有更顯著的影響;在算法復雜度較高時,提升算法透明度能夠強化用戶對算法的信任,而面對邏輯簡單的算法系統,將算法相關信息公之于眾反而會成為信任的阻礙(Giest &Grimmelikhuijsen,2020;Lehmann et al.,2022)。同時,亦有實驗研究發現,展示包括算法特征在內的信息對于公眾信任影響甚微,公眾有關算法的態度傾向及其過往經歷可能扮演了更為重要的角色(Kleizen et al.,2023)。針對公共部門決策場域的算法透明與政府信任,Grimmelikhuijsen(2022)基于調查實驗表明,能夠被公眾所理解的算法透明能夠提升公眾對政府以及算法的信任,但在不同算法決策場景中影響并不穩健。綜上所述,既有研究就算法透明與信任的關聯在理論分析、實驗研究層面進行了一定程度的探討,但相關研究結論存在較大分歧,具體機制還需要系統性理論分析以及實證解釋。

三、理論模型與研究假設

(一)理論模型:公眾、政府和算法的三重委托-代理關系

委托-代理理論(principal-agent theory)作為經濟學、政治學和公共管理領域的經典理論框架,遵循新古典經濟學范式,以經濟人為核心假設,在分析多主體互動方面具有較強的解釋力(H?lmstrom,1979)。在確定委托-代理關系時,需要考察兩個核心假設:一是委托人和代理人之間存在信息不對稱(Thomas,1998),二是委托人和代理人的目標不一致(Kim,2020)。此外,委托-代理理論扎根于理性選擇理論,認為信任必須基于一定的信息披露而形成,只有當行為人被提供關于對方活動、意圖和行為的足夠信息時,才能建立信任。相較于社會技術系統理論(socio-technical system)、人機交互(human-machine interaction)等關注技術與人類互動關系的理論視角,委托-代理關系能在考察各主體權責關系的同時,捕捉到行為體在信息、目標、責任等方面的多重不對稱、不均衡性,從而分析在透明干預下、委托人與代理人關系中的信任變化(肖紅軍,2022;Wang &Guan,2022;Kim,2020)。因此,委托-代理理論為本文分析算法嵌入政府與公眾關系以及信任生成提供了理論基礎,本文據此構建了公眾、政府、算法三者之間的三重委托-代理關系。

其一是公眾-政府委托-代理關系。在公眾與政府之間天然呈現的委托-代理關系中,政府作為公眾的政治代理人,具有壟斷權威與信息優勢,公眾無法充分了解政府權力行使的過程與結果,從而形成信息不對稱(Thomas,1998)。同時,政府亦是自利人,行政人員肩負公共利益與個人權益,易滋生目標不一致的道德風險。公開披露有關自身決策過程等的程序信息,能夠讓公眾了解到組織的內部運轉,減少組織和利益相關者間的信息不對稱,增進公眾信任。據此,政府透明度能有效提升作為委托人的公眾對于政府代理人的信任感。

其二是政府-算法委托-代理關系。隨著算法嵌入到政府決策中,算法官僚得以產生(Bozeman &Youtie,2020)。技術官僚是有權做出政策決策的專家,其權力來源于技術專長而非政治權威,而專長是官僚權力不可或缺的要素(Bendor et al.,1985)。機器學習算法與辦公自動化系統等信息技術工具的顯著差異在于,機器學習算法能夠隨著數據的累積從現有數據中學習和更新模型,故而外化為一種技術自主性(Ellul et al.,1964)。另外,兩大維度的算法黑箱加劇了政府與算法委托-代理關系中的信息不對稱問題。一方面,“技術黑箱”之下,算法不透明性是具有高預測能力的機器學習算法的固有特征(Rudin,2019);另一方面,政府使用的算法往往交由企業開發,其往往出于商業利益和壟斷目的故意對算法操作信息保密,使得“治理黑箱”形成(Carlson,2017)。同時,在傳統的官僚決策中,自由裁量權被用來權衡效率、公平問題(Bovens &Zouridis,2002)。盡管算法數字自由裁量權看似消除了人類官僚決策中的偏見,但它實際隱含偏見,使得算法決策極易偏離政策目標。

其三是公眾-算法委托-代理關系。算法技術官僚被政府授權,進而獲得了數字裁量權(Young et al.,2019;Busch &Henriksen,2018)。傳統的自由裁量權是指街頭官僚在復雜和不確定的情況下執行政策的自由,數字裁量權伴隨算法嵌入公共決策中而產生,使得算法成為處理公眾政策需求的技術官僚,公眾和算法之間由此形成了第三層委托-代理關系。若公眾缺乏相關知識,很難完全掌握算法結構復雜的功能邏輯,算法決策中的信息不對稱就會更為嚴重(羅映宇等,2023)。同時,由于算法設計不可避免地會受到社會制度和結構的影響,且算法訓練數據嵌入了既定的價值取向,因此算法決策系統必然具有價值偏倚性。一旦算法出現偏差,基于算法的政治活動將更新訓練數據集,將算法偏見置于難以檢測和糾正的正反饋回路中(Veale et al.,2018),從而引發委托-代理關系中的道德風險問題。

(二)研究假設:三重委托-代理關系中的算法透明與信任

算法是嵌入政府決策中的社會技術系統,算法透明的建構自然需要銜接技術特征、算法技術的實際使用,以及人與算法的互動(human-algorithm interaction)(Peeters,2020)。透明度是指通過一系列故意披露過程,告知信息、意圖或行為的可能性(Grimmelikhuijsen,2012),可理解性(explainability)是其中的一個關鍵維度(Larsson,1998;Grimmelikhuijsen,2022)。囿于多重黑箱的存在,算法透明的實現更應該考慮可理解性,即普通人如何理解算法解釋,從而在關系性(relational)層面實現算法透明(Felzmann et al.,2019)。換言之,通過自然語言和模型可視化提供公眾可理解的算法解釋,闡明算法模型的工作原理和特定決策結果原因,是實現算法透明的有效路徑。

Mansbridge(2009)首先區分了政府透明中的過程透明(transparency in process)和結果透明(transparency in rationale),為本文建構算法透明概念提供了理論依據。具體而言,過程透明關注政府決策的具體過程,而結果透明則需要提供達成決策結果的依據和理由(de Fine Licht &de Fine Licht,2020)。本文將這一理論視角與致力于解決算法內在不透明性的可解釋人工智能研究相結合,關注以算法功能為中心(function-centric)和以決策案例為中心(decision case-centric)的兩類算法解釋(Guidotti et al.,2018;Miller,2019),提出算法過程透明(process-based algorithmic transparency)與算法結果透明(outcome-based algorithmic transparency)兩大實現路徑。其中,算法過程透明與政府過程透明的邏輯相似,側重于破解算法發揮預測功能的過程邏輯,借助自然語言的闡述和模型的可視化,解釋算法模型的工作原理。能夠被普羅大眾理解的算法運行過程解釋破除了決策程序的隱蔽性,使公眾能夠獲知算法的模型邏輯和一般功能,從而提升感知算法透明度。政府結果透明以“決策結果何以得到”的正當性、合法性為基礎(Kaufmann et al.,2020),與之相應,算法結果透明則需要解釋算法決策結果的關鍵變量(Kizilcec,2016;Grimmelikhuijsen,2022)。如Guidotti等(2018)所言,基于結果的算法解釋無需闡釋黑箱背后的全部邏輯,而是通過說明關鍵參數的變動與決策結果的關聯,解釋特定實例何以引致結果(Schmidt et al.,2020)。這也與“讓算法負責”的主張契合,即用人類能夠理解的方式說明關鍵因素如何引向算法決策結果(Busuioc,2021),允許公眾評估決策結果為何如此,由此公眾對算法的感知透明度得以強化(Lu et al.,2020)。因此,本文提出以下一對假設。

H1a:算法過程透明對公眾的感知算法透明有正向影響。

H1b:算法結果透明對公眾的感知算法透明有正向影響。

算法被政府授權支持公共決策之后,公眾與算法之間的第三層委托-代理關系得以形成。機器學習算法的自學習、自適應特性使其在一定程度上獲得了決策代理權(delegation),成為決定公共價值分配的關鍵主體(Kim,2020)。算法的技術理性與其嵌入的公共價值理性重疊,公眾對算法的信任不僅僅是一種技術信任(Gefen,2000),同時也包括了對于算法使用自由裁量權行使公權力的可信賴性感知(Wenzelburger et al.,2022)。由于黑箱效應的存在,信息不對稱問題加劇,公眾無法完全理解算法決策過程的具體邏輯,難以評估算法的可信賴性(Bozeman &Youtie,2020)。立足于委托-代理理論的基本假設,信息是理性人在委托-代理關系中進行可信賴性評估的基礎,透明度的提高將增加委托人對代理人的信任(Kim,2020)。因此,當公眾更能理解和感知算法時,會對算法形成更積極的預期,認為算法將會按照其所欲的方向輔助政府治理。同時,根據程序正義理論,對算法決策過程和輸出結果的解釋可以提高公眾對算法基本操作規則和內部邏輯的理解,為評估算法輔助公共決策提供認知依據,從而加強公眾對算法決策的程序正義性感知,提升對算法的信任(Tyler,2006;de Fine Licht et al.,2014)。本文故而提出以下假設。

H2:感知算法透明對算法信任有正向影響。

在傳統的公眾-政府委托-代理關系中,作為主權所有者的公眾將管理權委托給政府。當算法被視為獲得部分決策權力時,就形成了公眾與政府、政府與算法、公眾與算法的三重委托-代理關系。技術原理與公共治理場域的雙重算法黑箱并存,加劇了政府與算法、公眾與算法關系中的信息不對稱,極易引發對政府的信任危機。一方面,機器學習算法輔助公共決策提升了政策方案選擇的效率、效益,卻也獲得了可能偏離政府公共利益的能動性(agency)(Peeters,2020)。算法的公開透明減少了不確定性,增強了公眾的控制感,提高了公眾對授權于政府的信心。另一方面,政府決策者與算法共同生成公共政策方案,這一過程亦是決策責任的重新分配。機器學習等算法的不可解釋性限制了算法決策的可問責性(accountability),而向公眾公開算法程序邏輯、判定依據的具體信息,能夠彰顯政府公開決策依據(rationale),進而對算法決策負責的意愿與行動(Janssen &Kuk,2016)。因此,公眾感知的算法透明度提高后,將對政府如何通過算法解決政策需求具有更全面深入的感知,增強政府算法決策的合法性,并促進信任的建立(Busuioc,2021)。因此,本文提出以下假設。

H3:感知算法透明對政府信任有正向影響。

在公眾與政府的傳統委托-代理關系中,由于權力和信息的不對稱,公眾對公共部門及公共決策的了解往往有限,這就促使公眾采用啟發式(heuristics)方法,借助其他渠道及相關線索塑造對政府可信賴性的感知(Ingrams et al.,2022)。政府采納算法作為決策代理人,無疑放大了信任形成的脆弱性,決策風險可接受性的傳導機制也隨之延伸。信任轉移理論指出,信任方往往基于和其他客體的共同特征,將信任轉移到另一客體上(Pavlou,2002),算法信任即是公眾對政府公權力的信任形成鏈條上的重要節點。在公眾-政府-算法的三重委托-代理關系中,作為政府代理人的算法的可信任性(trustworthiness)實際上成為政府向公眾傳遞的信號,對算法加以授權的政府也會被認為將以更為公正、合理的方式進行決策。換言之,使用算法的政府會被認為即使在沒有監督的情況下,也會遵守對公眾的承諾,真誠地對待公眾訴求(Grimmelikhuijsen,2012)。由此,政府在公眾眼中成為一個值得信任的主體,公眾對于算法的信任將傳遞至作為算法委托人的政府。因此,本文假設,如果公眾對算法的積極預期和信心得以提升,那么公眾的算法信任將隨之傳遞給政府,從而提高公眾對政府可信任性的感知,進而提出以下假設。

H4:算法信任對政府信任有正向影響。

以算法為代表的數字技術為政府治理智能化、精準化提供了巨大驅動力,也提出了數字社會中政府信任如何存續之問。在考察算法透明作為一種外部制度建構的影響時,公眾在微觀層面的既定態度可能對信任產生具有深遠影響(Wenzelburger et al.,2022)。在解讀政府信任的諸多流派中,社會文化視角的研究就指出,政府信任外生于政治生活,狹義的政治信任根植于特定的社會文化傳統,政府信任的形成必然受到社會信任、公民社會以及個體政治價值觀的影響(Newton,2001)。認知失調理論(cognitive dissonance)也提供了同樣的見解,確認偏見(confirmation bias)的存在,使得公眾面對新信息時會無意識地加深其現有的個人信念(Desroche et al.,1958)。以信任形成的心智模型而言,人類的思維是在捕捉到更新的經驗之前,根據已有的規范、價值觀和經驗組織起來的。在接受新信息后,既有觀念便會成為公眾快速進行信任評估的錨點。因此,在政府使用算法輔助決策的情景之下,公眾結合與政府相關的有限信息,可能更多依賴于已有價值觀和態度,評估政府的能力、誠信與良善程度(Ingrams et al.,2022;Kleizen et al.,2023)。因此,具有低信任傾向的公眾將會繼續對使用算法決策的政府持懷疑態度,從而證實其對政府的負面信念;而具有較高信任傾向的公眾則反之。據此,本文提出以下假設。

H5:信任傾向對政府信任有正向影響。

綜上,本文提出的研究假設如圖1所示。

圖1 研究假設

四、研究設計

(一)實驗設計

本文選取“金稅工程”中的支持向量機(support vector machines,SVM)稅務稽查算法作為實驗情景。自20世紀末以來,“金稅工程”通過數字技術賦能稅務機關工作,規范稅收執法、優化納稅服務、賦能稅務數據,是我國數字治理戰略在稅務領域的生動體現,亦是目前我國應用算法輔助決策的代表案例。早在2018年,廣東省等地方稅務機關就已開始將深度學習算法應用于年度稅務稽查,識別稅務風險較高的納稅主體。2021年3月,中共中央辦公廳、國務院辦公廳印發《關于進一步深化稅收征管改革的意見》,明確了以稅收大數據系統、人工智能算法在內的多項信息技術推動稅收征管改革。在“金稅三期”稅務稽查的風險管理工作中,已可見機器學習等預測型算法的身影,助力稅務機關研判企業稅務風險、提前排摸高風險對象,從而精準鎖定稽查目標。具體而言,政府稅務機關引入支持向量機等機器學習算法輔助決策系統,并基于既有企業稅務、稽查行為等數據識別征管規律,形成預測模型,根據企業稅務風險預測值高低,決定是否優先進行稅務稽查(如圖2所示)?;诖?,機器學習算法已成為稅務部門行政活動的核心流程,而非簡單地實現流程自動化(吳進進、何包鋼,2023)。相較于傳統稅收征管模式,算法輔助稅務決策能夠有效降低對于稅務稽查人員業務工作經驗、主觀判斷的依賴,緩解納稅風險評估不準確、稽查選案時間成本高等問題,明顯提升了稅收征管的信息化、智慧化、精準化水平(Nazarov et al.,2020)。與此同時,稅務工作承載了公共決策中的高價值敏感性,涉及公共利益分配,并直接關乎公眾的經濟福利(Ingrams et al.,2022),算法嵌入該場景的公眾感知值得探究。

圖2 算法嵌入后的政府稅務機關工作流程

調查實驗法(survey experiment)是調查法與實驗法的有機結合,即研究者通過問卷進行變量操縱、收集數據,從而識別不同水平的自變量對因變量的影響。作為目前公共管理、公共政策前沿研究使用頻率最高的實驗方法(張書維、李紓,2018),相較于其他實驗方法,調查實驗法在兼顧內外部效度方面具有優勢(代濤濤、陳志霞,2019)??紤]到本文所關注的算法透明,一方面政策實踐不足,缺乏代表性表征形式,另一方面可依托不同場景信息材料進行針對性模擬,本文采取情景調查實驗法(vignette survey experiment),通過向被試呈現算法透明相關的不同情景描述,探索算法透明路徑的可能性。

具體而言,本文設計了一個單因素3水平組間(between-subject)情景調查實驗,分為算法不透明、算法過程透明、算法結果透明三組,通過“問卷星”調研平臺的“情景隨機”功能實現隨機化分配,被試者將隨機得到其中一個版本的問卷進行作答。具體而言,實驗的第一部分為指導語及部分變量測量,第二部分為政府使用算法進行稅務稽查決策的虛擬案例,第三部分為基于隨機分組進行的算法透明實驗操縱,第四部分為因變量與控制變量的測量。實驗材料主體為虛構的政府文本,即A市政府稅務機關推行了“讓算法透明起來”的新政策,這一政策對政府所使用的稅務稽查算法的相關信息進行公布。

本文共設計了3個版本的實驗問卷,并對應3個實驗分組:控制組1“算法不透明”不展示算法相關信息;實驗組2“算法過程透明”與實驗組3“算法結果透明”參考Lorenz-Spreen等(2020)、Esdwards和Veale(2017)的研究,均以可視化圖片進行操縱。組2、組3首先介紹了A市政府稅務機關使用的SVM算法,隨后組2通過流程圖對該稅務稽查算法的運行過程邏輯進行可視化,組3通過列舉參數實例對算法計算出的稅務風險結果進行解釋。

(二)變量操作化

本文核心變量的操作化見表1。政府信任的測量方式主要參考徐貴宏(2009)、Grimmelikhuijsen(2012)的研究,從計算型信任、關系型信任、制度型信任三個方面進行測量。感知算法透明主要考慮信息可得性和可理解性。算法信任借鑒了Grimmelikhuijsen(2012)的表述,依據本文關注算法的特征進行了適當調整。信任傾向主要參考Grimmelikhuijsen和Klijn(2015)、Gefen(2000)的研究,從三個方面進行測量,均采用李克特五級量表。

表1 變量操作化

(三)數據收集

2021年4月至5月,本研究通過“問卷星”平臺,基于便利抽樣法,線上回收了555份有效問卷。在正式實驗前,共對11位被試進行了預實驗。在向被試展示“算法過程透明”“算法結果透明”的操縱材料后,多數被試能夠理解算法透明機制的操縱材料。在正式實驗階段,研究共回收了922份實驗問卷。為保障數據效度,實驗設置了注意力檢測的問題:“算法過程透明”組的被試需回答“您剛才看到的A市政府稅務機關使用的算法中含有?”,“算法結果透明”組的被試需回答“您剛才看到的A市政府稅務機關使用的算法使用的信息包括?”,回答錯誤者即未通過注意力檢測。同時,對閱讀實驗材料及題項的時間存在明顯異常的問卷亦予以刪除,最終刪除作答時間異常、注意力檢測未通過的265份無效問卷。最后,考慮到算法解釋信息的復雜性,實驗設置了指導性操縱檢驗(instructional manipulation check)(Ejel?v &Luke,2020;Cullen &Monds,2020),問題為“您剛才看到的A市政府稅務機關公開的算法信息是關于哪個方面的?”,刪除了未正確理解算法透明信息的102份實驗問卷,最終收集了555份有效問卷,統計效力為0.805(Cohen,1992)。

對于實驗樣本,男女比例基本均衡,以大學本科及以上學歷人群為主,算法知識比例基本均衡,卡方檢驗結果顯示通過平衡性檢驗(見表2)??紤]到實驗法的內部效度具有優勢,本文的研究結論對于考察高學歷年輕群體的感知具有重要參考意義。

表2 樣本的描述性統計

五、實證分析

(一)信度效度檢驗

在信度方面,本文實驗問卷題項因子的總體Cronbach’s Alpha系數為0.882,大于0.8;而針對“項已刪除的α系數”,任意題項被刪除后,信度系數并不會明顯上升,說明題項不應該被刪除處理。分析項的CITC值均大于0.4,說明分析項之間具有良好的相關關系,數據信度質量高。在效度方面,本文首先使用KMO和Bartlett’s球形檢驗進行了整體效度檢驗,KMO值為0.867,KMO值大于0.7,顯示收集數據效度較好。且Bartlett’s球形檢驗值顯著,同時旋轉后累積方差解釋率為75.631%>50%,研究項的信息量能夠被有效提取。本文對各量表進行了驗證性因子分析,從模型整體擬合指標、各潛變量所屬題項的因子載荷系數兩方面檢驗模型的構建效度。因子模型的RMSEA為0.078,CFI為0.955,TLI為0.938,SRMR為0.061,表明因子模型的整體擬合良好(見表3)。

表3 因子模型擬合指標及其評價

表4中的因子載荷系數值展示了因子與分析項之間的相關關系情況。除了政府信任與感知算法透明測量項的標準化載荷系數小于0.7,其他各測量關系的標準化載荷系數值均大于0.7。由于本文的量表基于成熟量表構建,且政府信任、感知算法透明的因子標準載荷系數均大于0.6,因此能夠進行后續分析。

表4 各題項因子標準載荷系數

表5展示了基于平均方差萃取和組合信度的聚合效度分析。4個因子對應的CR值均大于0.7,但政府信任的因子AVE值有出現小于0.5的情況。AVE數值一般需達到0.5,但考慮到數據的實際面向,若AVE值小于0.5但組合信度高于0.6,聚合效度仍被認為是達標狀態(Fornell &Larcker,1981)。

表5 聚合效度檢驗:模型AVE和CR指標結果

在區分效度方面,政府信任因子、信任傾向因子、感知算法透明因子、算法信任因子的AVE平方根值均分別大于因子間相關系數絕對值的最大值,表明數據具有良好的區分效度(見表6)。

表6 區分效度檢驗:Pearson相關與AVE平方根值

對于潛在的同源方差問題,本文通過Harman單因素檢驗法進行了同源方差分析,結果顯示未旋轉時得到多個因子,且第一個因子的解釋變異量為44.381%。該指標小于50%,表明數據的同源方差是可控的。

(二)結構方程模型的路徑分析

本文選用結構方程模型(structural equation modeling),探討感知算法透明、算法信任與政府信任整體模型的路徑。本文使用Mplus軟件,基于極大似然統計方法進行SEM檢驗,加入性別、學歷、年齡、月收入水平、算法知識、社會階層感知作為控制變量,對感知算法透明、算法信任、政府信任間的影響路徑進行建構。對于模型各項擬合指標,RMSEA值為0.069,CFI值為0.928,TLI值為0.883,模型擬合效果能夠接受。

表7匯報了結構方程模型結果。H1a檢驗結果顯示,提供算法過程解釋能夠增強公眾的感知算法透明(B=.154,p<.01),同樣,H1b路徑顯示,算法結果透明和公眾的感知算法透明存在正相關(B=.128,p<.01)。對于算法透明的影響,H2得到了(B=.580,p<.001)結果支持,符合委托-代理關系之下的程序正義邏輯,公眾感知的算法透明度對其算法信任有積極影響。同樣,感知算法透明度對公眾對政府的信任有積極影響(B=.167,p<.01),處在三重委托-代理關系中的公眾在感知到算法透明度有所提升時,將增強對政府的信任度,檢驗了H3。此外,分析結果驗證了H4(B=.595,p<.001),即在公眾對算法信任提高時,同樣會轉移至與算法存在委托-代理關系的政府主體,進一步提高其對政府的信任。與此同時,H5得到支持(B=.246,p<.001),公眾的信任傾向與他們對政府的信任之間存在正相關關系,表明傾向于信任他人的個體對政府的信任度更高。

表7 結構方程模型的回歸系數

因此,上述結構方程模型的分析結果顯示,公眾在感知到算法透明提升后,在委托-代理關系之下的信息不對稱問題將會得到緩解,從而提升其對政府的信任。算法信任對政府信任的中介效應表明,對于嵌入政府決策、成為代理人的算法,公眾對其信任具有顯著的信任傳遞效應。算法成為政府代理人后,在對算法持有信任的情況下,公眾更傾向于認為作為算法委托人的政府具有可信賴性。

(三)中介效應分析

Bootstrap法將樣本容量充足的樣本視為總體,通過有放回抽樣,得到更為準確的標準誤,因此具有較高的統計效力。在結構方程模型的路徑基礎上,本文采取抽樣1000次的Bootstrap的中介效應分析,對感知算法透明、算法信任、政府信任的影響機制進行了中介效應檢驗。感知算法透明對政府信任的間接效應上界為0.277,下界為0.416,上下界之間不包含0,因此感知算法透明和政府信任之間存在中介效應,且中介變量為算法信任?;诟兄惴ㄍ该骱退惴ㄐ湃沃g系數的顯著性,以及感知算法透明和政府信任之間的直接效應的置信區間亦不含0,上界為0.015,下界為0.248,算法信任的中介效應為部分中介效應(見表8)。

表8 Bootstrap中介效應分析

(四)穩健性檢驗

考慮到建構的結構方程模型可能存在模型依賴,本文采用替換模型估計方法,進行穩健性檢驗。本文采用WLSM加權最小二乘法估計伴均值校正卡方檢驗,再次進行結構方程建模,模型的各項擬合效果達標,且模型中的各項回歸系數顯著,顯示了本文構建模型的穩健性(見表9)。

表9 WLSM結構方程模型的標準化回歸結果

五、結論與討論

本文關注數字治理時代中,輔助公共決策的算法這一新變量,基于委托-代理理論,構建了一個整合性框架,在公眾、政府、算法的三重委托-代理關系下,探討算法透明的實現機制及其對政府信任的影響機制,并通過結構方程模型加以實證檢驗。結果顯示,算法的過程透明、算法的結果透明均能提高感知算法透明,“可理解”“有意義”的算法解釋公開是提升算法透明度的有效路徑,算法解釋機制的透明效應得到檢驗;同時,對于感知算法透明對政府信任的影響路徑,結果顯示感知算法透明能夠提升公眾的算法信任以及政府信任。Bootstrap中介效應分析顯示,在感知算法透明能夠正向影響政府信任的同時,算法信任可在其中觸發部分中介效應,公眾的算法信任對政府信任亦具有正向影響。本文提供了以下幾個方面的理論啟示。

首先,本文明晰了算法透明的概念,提出了基于算法解釋、可理解的算法透明,證明了基于過程與結果的算法解釋是算法透明的有效機制。部分研究已關注到,僅僅依靠算法代碼信息披露無法通向透明(Spiegelhalter,2020;Grimmelikhuijsen,2022),本文則進一步考慮到受眾如何理解算法的互動關系問題(Felzmann et al.,2019),實證檢驗以公眾為導向、真正可被理解的算法解釋是否能夠切實提升公眾的感知算法透明。H1a、H1b檢驗結果顯示,算法過程解釋、算法結果解釋均具有透明效應,公眾在接受關于算法邏輯過程、決策結果的相關解釋信息后,將增強對于算法透明的感知。這一結論回應了可解釋人工智能等交叉領域對算法透明的爭論(Rader et al.,2018;Rudin,2019;Lu et al.,2020),將人機交互研究與透明度的理論探討連接起來(Peeters,2020)。

更重要的是,本文構建的兩類算法透明路徑與政府透明中的過程透明、結果透明理論框架直接對話(Mansbridge,2009),延展了算法透明的概念邊界。本文的研究結果表明,無論是剖析算法的邏輯功能,增強對決策程序的理解(Miller,2019),還是以決策結果為導向,用易于理解的方式證明關鍵決策因素的責任(Busuioc,2021),均對公眾的感知算法透明起到催化作用。另外,本文的結論同樣表明,算法透明可以超越應然層面的想象與倫理原則,有關其實現進路的理論空間還待繼續豐富與擴充(Giest &Grimmelikhuijsen,2020)。換言之,學界對于算法透明是否必要的追問,或許可以轉化為對實現機制的深挖,讓這一公共價值追求真正落地(Zerilli et al.,2019;Lehmann et al.,2022)。

同時,本文構建了算法和政府、公眾形成的三重委托-代理關系,厘清并檢驗了算法透明提升政府信任的理論路徑,驗證了算法治理時代信任的形成機制。借助委托-代理理論推演(Kim,2020),本文提出了算法輔助政府治理的公眾-政府-算法三重委托-代理框架,用以分析公眾信任的產生以及傳導邏輯。H2檢驗結果表明,感知算法透明對算法信任有正向影響,與關注算法透明積極效應的研究一致(Kizilcec,2016;Lu et al.,2020)。在算法扮演政府代理人輔助公共決策時,公眾對算法透明的感知將提升其對程序正義性的感知,由此增強的合法性感知能夠帶來算法信任(Grimmelikhuijsen,2022)。本文H3獲得了檢驗,公眾的感知算法透明對政府信任有正向影響,回應了公共部門的算法透明與公眾政府信任的關聯爭論(Miller,2019;Schiff et al.,2021;Kleizen et al.,2023)。盡管算法透明對公眾政府信任的賦能作用在不同場景下并非是確定的(Grimmelikhuijsen,2022),本文的結論證明了委托-代理理論的信任機理,算法透明能夠增強公眾對政府代理人的控制感和可問責性評估,為透明增進信任提供了經驗證據(Wang &Guan,2022;de Fine Licht et al.,2014)。

另外,本文揭示了公眾對算法的信任作為一種啟發信號,在政府信任形成過程中具有傳導效應(Pavlou,2002)。H4檢驗結果表明,算法信任對政府信任有正向影響,并在感知算法透明與政府信任的關系中起到部分中介作用。公眾面對政府算法決策的多重信息不對稱,需要依賴已有線索評估其可信賴性。如果作為政府代理人的算法向公眾釋放積極信號,公眾對政府的信任將會隨之強化,這一結論深化了既有研究對算法治理時代信任分配與轉移邏輯的理解(Ingrams et al.,2022;Grimmelikhuijsen,2022)。最后,如本文H5預期,在算法輔助政府決策的背景下,公眾自身的信任傾向對政府信任具有正向影響。這與政治文化視角研究相呼應(Newton,2001),也表明了相較于外部透明制度,個體的價值觀傾向塑造政府信任這一方面同樣不可忽視(Wenzelburger et al.,2022;Kleizen et al.,2023)。

在理論價值外,本文的研究發現對于推動算法透明、構筑政府信任也具有一定實踐意義。面對勢不可當的算法決策,一方面,政府應加強算法透明的制度供給和策略設計,以可理解性為基點,持續探索算法解釋的政策方案,讓看似難以破除的算法“黑箱”成為可理解的“白箱”;另一方面,可理解的算法透明指向了公眾的算法素養,政府需加強算法教育,打破“知識性不透明”的桎梏,以對算法權力進行有效問責監督。

同時本文也存在以下不足。首先,本文采取便利抽樣,研究結論對于考察高學歷年輕群體的感知具有重要參考意義。但考慮到學生群體對稅務稽查場景感知可能較為模糊,且多數被試具有一定算法知識,感知算法透明實驗結果的外部效度有待進一步提升。未來研究可使用大規模抽樣,精細考察公眾對于算法透明與信任的感知。其次,未來研究可采用具有時間跨度的縱向設計、收集多源數據等方法,降低同源偏誤。最后,本文以稅務稽查單案例作為實驗場景,自主構建并檢驗算法解釋的透明效應,而未來研究可進一步考慮被試對場景的熟悉度、場景自身的復雜度,關注不同領域、不同類型算法的決策應用,設計、檢驗并比較相應的算法透明策略,豐富算法透明的內涵,探索信任的生成路徑。

猜你喜歡
信任決策公眾
為可持續決策提供依據
公眾號3月熱榜
公眾號9月熱榜
公眾號8月熱榜
公眾號5月熱榜
決策為什么失誤了
表示信任
嚶嚶嚶,人與人的信任在哪里……
從生到死有多遠
信任
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合