?

算法規制如何場景化

2024-04-27 19:12周翔
東方法學 2024年2期

周翔

內容摘要:將算法納入法治化的軌道,需要根據不同的場景設置差異化的規范路徑。以高風險場景的算法產品使用效果實驗啟示,通過算法的解釋可以提升用戶的理解程度,并且可視化解釋的理解效果較公式法更好;算法信任的機制構建,則更多取決于場景的信任基礎、人機判斷的一致性等因素。實證研究對算法規制如何場景化提供了諸多的啟示:一是需要考慮不同場景用戶特征的差異,根據用戶特點設置權利義務;二是應強調場景中算法以及解釋的用途差異,結合考慮相關解釋技術的可行性;三是應當考慮不同場景的算法信任基礎,算法引入不同場景有不同難度,不同場景應當設置不同的人機分工關系和算法的任務范圍。

關鍵詞:算法規制 算法解釋 算法理解 算法信任 高風險算法場景 人形機器人

中圖分類號:DF0 文獻標識碼:A 文章編號:1674-4039-(2024)02-0136-150

一、問題的提出

以算法技術驅動的自動化決策已然進入人類社會的諸多決策領域,人形機器人“有望成為繼計算機、智能手機、新能源汽車后的顛覆性產品,將深刻變革人類生產生活方式,重塑全球產業發展格局”?!?"〕由此引發的各類權益侵犯風險引起了法學界的高度重視,比如自動駕駛汽車造成的生命健康侵權、智能投顧系統造成的投資人財產損失、新聞推送造成的信息繭房等?!?"〕這些不同場景中算法應用的原理不盡相同,所造成的權利侵犯類型差異也很大。過去關于算法的研究,往往籠統地歸納算法領域的風險并基于此提出應對的方案,因此有學者認為“傳統算法規制路徑面臨困境的根本原因在于忽視算法的場景性”,應結合具體場景的特點設計算法規制的方案?!?"〕近年來,有很多針對醫療、交通、金融等專門場景展開的規范型研究,表明算法規制有關的學術討論正在走向“場景化”的下半場。

那么,場景化的算法規制理論究竟應當如何重塑呢? 傳統的算法規制理論重在設計一系列的制度工具,以應對上述的不同算法場景和風險。其中,既有的規范體系十分依賴算法的解釋技術,它是賦予私主體“算法解釋權”、信息處理者的“說明義務”、行政機關“算法監管”職權行使等各類制度設計方案的基礎。在人工智能應用的不同階段算法的解釋發揮著不同類型的功能,〔4"〕可以說,當前的算法規范理論主要是圍繞“算法解釋”展開的。通常認為,不同的場景對算法解釋的需求往往是不同的,比如高風險決策的場景(High-stakes.decision)就十分需要算法的解釋,典型的醫療和司法等關乎重大權利的重監管領域(many.heavily"regulated"industries)即如此?!?"〕但是,目前我們對“算法解釋”在特定場景中功能的認識依然停留于邏輯論證的層面,“算法解釋”究竟在特定場景中的效果如何,影響效果的重要因素是什么等,文獻層面都還論之甚少。

故而,本文的研究擬針對某一場景,首先實驗分析智能產品的使用中算法黑箱、算法解釋與算法理解、信任等效果間的相關性;接著根據算法使用中的有關實驗結論,展開分析并得出對算法規范場景化的研究啟示,包括場景化的用戶、用途和人機關系等幾個方面?!?"〕

二、算法解釋的有關機制和理論趨勢

“算法黑箱”問題堪稱算法風險治理的關鍵,而算法解釋技術被認為是算法治理制度的核心。結合學界當前著力提倡的算法規范場景化思路,本文針對特定的算法場景,提出了提升算法理解和增強算法信任這兩個算法解釋的可預期效果。

(一)解釋是從黑箱到信任的橋梁

在算法有關風險的學術研究里,最為突出的是“算法黑箱”問題,主要指自動化決策的運轉過程和結果不透明?!?"〕由于算法黑箱的存在掩蓋了算法歧視、算法綁架等其他風險,既有研究紛紛提出要“打開算法的黑箱,提升算法的透明度”?!?"〕算法的解釋技術,在提升算法透明度上被寄予厚望,被譽為算法治理制度的核心?!?"〕首先,有研究認為算法解釋最直接和重要的功能就是化解算法的“黑箱”;其次,對化解自動化決策帶來的其他風險亦有明顯效果,比如在算法歧視風險研究中,有人提出算法解釋可以“展開包裹在算法中的決策過程,為數據主體、司法機關等判斷是否存在區別對待或造成區別影響提供具有法律意義的信息”?!?0.〕算法解釋技術,既可以“算法解釋權”等私權方式在不同場景中落實,〔11.〕也可以作為算法開發使用者的法定義務,〔12#〕或成為國家規制的工具?!?3#〕但無論是哪一種具體的制度路徑,通過解釋部分或全部地還原算法生成過程和結果,在技術層面都是一致的。

對算法應用進行法律規制,究竟能夠起到何種可期待的效果? 當前對算法規制的效果研究已經初步形成體系,既有“公平、可責和透明(FAT)”的多角度歸納,〔14#〕亦有著重強調某一側面的,比如“算法的可信”;〔15#〕有研究認為,只要增加人們對算法決策過程的掌控感,算法厭惡情緒就會得到明顯緩解?!?6#〕還有研究注意到規制目標之間的邏輯關系,比如“相對于透明性,可理解性才是目的”?!?7#〕這明顯是一套以解決“算法黑箱”問題為主要目的,圍繞“算法解釋”技術構建的制度工具體系,期待提升算法的可理解性和信任感等效果的出現。這些所提及的算法規制的效果目標間是否具有關聯性和層次性是本文所關注的,當前的研究雖有部分內容涉及,〔18#〕但更系統的內在機制還需要進行更深入的挖掘。通過對這些文獻的梳理,可以發現:算法解釋與其預期的效果之間呈現一定的遞進關系,可將之表示為“算法黑箱→算法解釋→算法理解→算法信任”的邏輯關系。

關于算法規制效果的實證檢驗,國內外均有很多研究成果,比如算法信任的產生機制,將之解構為有形性、透明度、可靠性和即時性等幾個信任來源的維度?!?9#〕國內有關學術討論主要停留于主觀的邏輯構想層面,還未就此設想的邏輯做過真實性的檢驗,特別是這一主觀構造邏輯的客觀效果如何,該問題關系到和算法解釋技術相關的一系列制度工具是否行之有效。而這也正是本文希望有所貢獻的地方,即就某一特定算法應用場景展開算法解釋效果的實驗,通過機制層面有效性檢驗,為制度設計方向提供具有參考價值的信息。

(二)算法研究場景化的趨勢

近期另一大趨勢也引起了筆者的關注,即算法規范化的研究開始著力提倡結合具體場景提出規范化方法的思路。之所以要求場景化,原因在于“一旦場景不同,算法的性質就會非常不同”〔20#〕這一算法應用規律。正是因為不同算法應用場景在用戶畫像、面臨的風險、所采用的算法、監管的要求等各個方面的差異比較大,所以才不能一直停留于抽象層面的理論演繹,而是應當更加注重對不同場景的具體特征進行分別歸納。當前學術界正在有意識地就具體場景來發現風險問題并提出解決方案,比如針對自動駕駛的場景,認為是訓練數據集的缺陷問題;〔21#〕再比如,在算法規范的對策方案中也開始考慮場景化,如算法審核的標準、強度等應視具體應用場景而定?!?2#〕然而,這些討論仍有不足,因其并非全篇針對某一類特定場景展開,仍是就算法的某一風險、規制的方法展開論題。

真正開展場景化的研究,應當以某一特定的算法應用場景為分析對象。本文選取了一類侵權風險大、專業化程度強、透明性要求高的司法應用場景(本文稱之為“高風險場景”)展開研究。就發展階段而言,算法涉足此類場景的程度還十分初級,這些領域當前還屬于典型的弱人工智能場景。就處分的權益而言,這些領域關乎生命健康等人身權利,因此也屬于監管問責向來十分嚴厲的地帶,算法技術要進入這些場景還有諸多挑戰需要回應。本文所針對的場景有一定的泛化性,雖以司法場景為例展開,但具有這些共性特征的場景卻不限于此,醫療、交通等不少其他領域亦有很多相似的規律特征,比如都十分強調算法決策過程的可解釋性。因此,若將本文在司法場景的相關實驗中的發現推及更大范圍,大概率會具有規范層面的啟示價值。

(三)實證研究的兩個假設

基于以上討論的算法領域的邏輯和算法規制的場景化趨勢, 本文針對該特定的算法應用場景,提出兩個算法解釋的可預期效果:一個是提升算法的理解,另一個是增強算法的信任。兩者有不同的側重點,算法的理解是算法解釋產生的直接效果,算法信任則是間接的,兩者都有助于推動算法產品的應用落地?;谒O置的以上兩大因變量,本文提出兩個對應的研究假設:

其一,不同的算法解釋技術,將產生不同的算法理解效果?;谟脩舻牧?,算法解釋的直接效果是有助于提升用戶對算法的自動化決策過程和結果的理解。在其他變量保持不變的前提下,以算法解釋所實現的理解程度為因變量,以算法的解釋技術類型為自變量,研究兩者的相關性。如果算法解釋的類型和用戶的理解程度之間呈顯著的相關性,則說明該假設成立,應當根據場景設置匹配的算法解釋技術類型。這里的用戶算法理解是廣義的,既是私主體“算法解釋權”的行使基礎,也是監管機關行政執法的事實依據。因此,這一命題的檢驗具有探討算法規制方向是否科學的參考價值。

其二,算法的解釋技術,有助于提升算法的信任。就邏輯關系來看,“算法的理解在前,算法的信任在后”。就算法的法律規制而言,兩者具有不同的意義。之前關于解釋的效果論述十分強調構建信任的意義,算法的解釋在高風險場景中究竟能否對算法的信任構建產生顯著的影響? 算法信任的效果機制是否有別于算法理解的效果機制,其中的關鍵變量有什么差別? 高風險場景的用戶普遍缺乏對算法的信任,在該場景中開發算法解釋技術的一大動因,即在促使場景用戶能夠放心且充分地使用本算法產品。上述機制層面的檢驗,也有助于我們反思規范層面的制度路徑是否選取得當。

三、高風險場景的算法解釋效果實驗

為進一步驗證以上兩個假設,本文將通過開發智能實驗產品、通過問卷調研用戶反饋的方式收集實驗數據,并采用交叉列表和回歸分析相結合的方法分析實驗數據,驗證算法解釋技術、用戶專業背景等對算法理解程度的影響,歸納算法解釋和算法理解、算法信任兩大后置效果間的機制規律。

(一)實驗用智能產品開發

為有效地檢驗以上提出的有關算法解釋和算法理解、算法信任間的效果機制,本實驗開發了一款高風險場景的智能產品。產品提供的服務場景為司法領域決定采取強制措施的類型,產品的內核是由數據訓練得到的模型,該模型能夠基于一系列的輸入來確定應當對犯罪嫌疑人采取何種強制措施?;谶@類技術原理所開發的智能化產品,將是某一場景產品步入強人工智能時代后的必然形態,也是國內學者在算法規制領域所應當指向的規制對象含義。正因如此,本文的如下研究設計,能夠契合研究假設和目的。

第一步:設計預測模型。測試用的智能產品,是一款預測刑事案件犯罪嫌疑人被采取強制措施類型的智能輔助產品。產品的算法采用較強可解釋性的對數回歸(logistics)算法,模型的輸入為案件的當事人、案件事實的基本情況,采用文本的輸入形式;模型的輸出為犯罪嫌疑人被采取的強制措施類型,采取二分類標簽,標簽0為取保候審,標簽1為逮捕。

第二步:采集相關數據。為訓練上述的預測模型,實驗采集了國內三省一市(云南省、浙江省、廣東省和北京市)的起訴和不起訴文書數據,共計約14萬份文書。較之于采用判決書的優勢在于,檢察院的(不)起訴文書中包括了不起訴的案件,能更好地反映刑事案件庭前強制措施的類型分布。

第三步:訓練預測模型。通過模型的訓練和測試,我們得到了一個性能較為優秀的輔助預測模型。接著,選取了1個未出現在訓練集和數據集的案例,作為本實驗的研究個案,輸入模型并得到預測的結果。

第四步:算法解釋技術。我們采用了兩種算法解釋的方法,第一種是直接給出算法公式的解釋方法,第二種是可視化的解釋方法?!?3$〕模型公式的方法分別列出了決定強制措施類型的主要參考依據,比如x1代表“罪名的類型”;熱力圖則用“紅色”代表和預測結論相關,顏色的“深淺”代表該詞語特征和預測結果間的權重大小,紅色深度越強的要素,比如“販賣毒品罪”“有期徒刑”等要素,對采取強制措施的類型影響越大。

(二)問卷設計發放和回收

在獲得以上測試用的模型和解釋方法后,根據研究假設,實驗需要獲取用戶對上述智能產品及其解釋的理解程度、信任程度等相關數據。為此,實驗將本模型包裝為一款法律智能產品,采取電子問卷的方式分發給各種類型的用戶,要求用戶在使用該模型后反饋評價。

第五步:問卷設計。電子問卷采取翻頁逐頁回答模式,依次的內容為:(1)對產品基礎功能的介紹;(2)采集用戶的基本信息,包括年齡、是否具備計算機技術背景和法律職業背景;(3)介紹案情的基本事實,并要求用戶先作判斷;(4)頁面嵌入模型計算過程,得出機器預測的結果;(5)計算用戶對該結果的初始信任度(1-10分計);(6)隨機給出對該預測結果前述兩種解釋方法之一;(7)計算用戶對該結果的理解程度(1-10分計);(8)二次計算用戶在閱讀完產品對結果的解釋后的信任程度(1-10分計)。通過以上設計,計劃獲得用戶對該智能產品在算法解釋前的信任程度、對算法解釋的理解程度和解釋后的算法信任程度。

第六步:問卷發放。實驗將該問卷在以下人群中進行了發放:有法律學位和司法工作經驗者、有計算機學位和人工智能知識背景者、無法律和計算機知識背景者。選擇以上人群,主要考慮在真實的未來場景中,任何一款智能產品都可能面對具有技術知識背景、領域知識背景和無相關知識背景的三類用戶。產品受眾廣泛的特點,使得不同人群對智能產品的理解上存在差異,將這一因素納入問卷發放時考慮將有助于控制該變量。

第七步:回收問卷。經過近半年的問卷發放,研究小組共計回收有效問卷511份,實驗對象的最小年齡為18歲,最大為87歲,平均年齡為29歲,將凡是具備法律或技術知識、實踐背景的受試者分為有領域背景一組,占比55.56%。本實驗的受試者在專業背景分布上具有較好的代表性,既有法律專業背景的受試者,亦有非法律背景人士;在法律專業背景中,還區分了專業性背景和是否有相關實踐工作經驗;同時區分了受試者是否具有人工智能等技術基礎知識背景。

(三)實驗數據的回歸分析

本文采取交叉列表和回歸分析相結合的方法對實驗數據進行處理。交叉列表分析是一種描述性的分析,回歸分析是對規律的深化。在交叉列表的分析中,本文突出強調特定場景的用戶屬性,采取兩個維度的分類標準,其一為是否從事刑事司法的工作,其二為是否具備人工智能有關的基礎知識?;貧w分析主要檢驗了算法解釋和算法理解、算法信任兩大后置效果間的機制規律。

1.不同算法解釋技術對用戶理解效果的影響

如上所述,本文重視專家型用戶背景、不同算法解釋技術對算法理解程度的影響。通過分組分別計算多組用戶對算法解釋的理解度、對兩種不同算法解釋技術的理解度,〔24$〕我們能夠清晰地看到如下的特點:

其一,專家組對算法解釋的理解程度更高。專家組對算法解釋的理解程度總體得分最高(6.6分),這不僅是較之于對照組而言的,而且比具備人工智能知識的技術組得分(5.9分)也要高出12%。究竟是什么原因使得專家組的得分更高,該現象是否說明“司法實踐的業務經驗”能夠提升用戶對算法解釋的理解,其中的機制如何還有待后續的回歸分析。

其二,可視化的解釋方法,在提升用戶理解方面具有本場景下的相對優勢。當以算法的解釋技術作類型分組時發現,采取可視化熱力圖的方式能夠起到更好的理解效果,這點不論是從專家組、技術組還是對照組的平均值都能得出一致的結論。這說明,從提升用戶主觀認知層面的理解程度而言,在高風險場景的普通用戶中,更適合的也許是更形象的算法解釋方法。進一步回顧可視化的解釋方法,其通過顏色的深淺標識了影響強制措施類型的因素,從專家角度也許得到了和經驗上的印證,因此可視化的解釋不僅整體得分最高,而且專家組的平均分也是最高的(7.7分)。當這一結論基本成立時,研究假設一成立。

其三,專家組對公式解釋方法的理解程度最低。和其他各組相比,特別是和技術組相比,專家組的得分明顯偏低(4.2分)。這需要結合專家組的構成情況分析,專家組主要是由刑事司法經驗的辦案人員組成,他們既具有法律專業的知識背景,又多年從事實踐工作,也許對需要有一定的數理基礎才能理解的公式型算法解釋技術具有一定的心理排斥。這一點和技術組比較時更顯突出,技術組在該方法上的得分(5.7分)較高,說明具有一定人工智能技術背景的用戶,不犯難于公式型的算法解釋技術,反而從中獲得了對算法更好的理解。

交叉分組的主要發現可歸納為:專家組對算法解釋技術的理解程度最高,并且其中主要是由可視化解釋技術所貢獻的;不同的算法解釋技術類型具有明顯的得分差距,公式型解釋方法在司法場景下不具有良好效果,特別是就專家組用戶而言尤其明顯。

為進一步挖掘關于算法解釋后的用戶理解機制,本文采取線性回歸進行相關性分析,模型的自變量為算法解釋的類型,模型的因變量為算法解釋后的用戶對算法的理解程度,其余變量為控制變量?!?5,〕從回歸分析看,有以下數據發現:

其一,算法解釋的類型,對算法解釋后的用戶理解有顯著的相關性。當加入更多的控制變量后,算法解釋技術的類型和算法的理解程度間依然顯著相關, 說明在選取何種算法解釋技術的問題上,應當結合場景和用途慎重決定。由此,本研究的假設基本是成立的。針對具體的算法解釋類型而言,可視化的算法解釋方法更具優勢。

其二,算法解釋前用戶對算法既有的信任,對算法的理解產生了顯著影響。這一點需要結合后文關于算法解釋前的信任構建機制進行討論,但就算法解釋后的理解機制構建而言,在解釋前對算法決策結論的信任基礎也是影響算法理解的重要因素。與算法解釋前就對決策系統信任度較低的情況相比,對算法系統信任程度比較高的用戶自然也能夠較好地理解系統給出的解釋說辭。由于回歸模型中控制了專業領域知識和技術知識背景兩類變量,因此將對算法解釋的主觀理解認知歸因于解釋前既有的用戶信任感,具有較強的可信度。換言之,較之于信任基礎好的算法決策,高風險場景的用戶如果原本已經不信任算法作出決策,算法的解釋技術能夠提升和改觀的空間就十分有限。

其三,有專業知識的一組,上述兩大機制更加被放大。當把分析的單元限定于具有法律知識、技術知識、司法工作經驗等任何一種情況時,分組后發現算法解釋的技術方法、算法解釋前的信任感,兩者對被解釋變量的相關系數變得更強。這也許說明,在具有一定專業背景的用戶群體中,更為強調解釋的技術方法和對算法的既存信任感。

2.解釋前后的算法信任機制比較分析

研究采取交叉聯表的方法歸納出了算法解釋前后的信任程度變化,〔26$〕由此引發了一些值得算法規制的制度設計層面反思的問題:

其一,算法的解釋,不能提升反而降低了對自動決策系統的信任。初步看這一數據結論令人驚訝,即通過算法的解釋后,各組用戶對算法的信任感普遍下降。由此,本實驗的第二個假設就難以得到認可了,而有必要探尋構建算法信任的更為特殊的機制原理。

其二,在算法的解釋前,專家組的信任程度最高(7.2分),有必要進一步探尋專家組對算法的信任基礎來源,是什么造成了在算法解釋前專家組具有較高的算法信任基礎。

其三,在算法的解釋后,專家組的信任程度下降最快(下降13%)。從事刑事司法工作者對算法的信任下降最多,其次是具有技術知識背景的一組。有必要通過回歸分析,探尋是什么樣的關鍵變量導致了算法解釋前后的信任程度有如此明顯的下降變化。

同樣,為進一步挖掘算法解釋前后的用戶信任機制,本文采取線性回歸的方式對算法信任的構建過程作了相關性分析。模型的自變量為“算法解釋的技術類型”和“算法解釋的理解程度”,模型的因變量分別為算法解釋前和解釋后的“用戶的算法信任程度”,其余變量為控制變量?!?7$〕從回歸模型結果看,有以下分析發現:

其一,算法解釋前的信任基礎,主要的影響因素是用戶的前見。所謂前見,集中體現為自我的判斷和算法的判斷是否一致。本實驗采取的是串聯式的逐一回答模式,首先是案件基本情況,接著是用戶的回答,然后是算法給出的判斷,此時再要求用戶給出對算法的解釋前信任程度。這種提問和回答架構下,用戶對案件應當采取何種強制措施的“自我判斷”和“算法的判斷”是否一致,對算法解釋前的信任基礎起到了重要影響。

其二,算法解釋后的信任構建,主要的影響因素是用戶對解釋的理解程度。與之相比較,算法解釋的技術類型代表的是中間變量,而用戶對解釋的理解程度才是實質性的最終變量,后者與算法信任程度間的相關性更強。因此,從中可以得到的初步結論是,在算法信任構建的諸多要素中,具有關鍵意義的是用戶對算法的既有理解程度。

3.算法理解的補充隨機對照實驗

前述的實驗設計中沒有考慮到“沒有算法解釋”的情形,因此難以直接得出算法解釋是否有助于提升算法理解的結論。為進一步驗證這點,本文又完成了二次補充實驗,采用相同的實驗設計,以控制對照的方式對110名法學在校研究生進行了分組實驗。結果表明,較之于不采取解釋的黑箱對照組得分(5.31),解釋實驗組的平均得分(7.21)提升了36%,其中可視化實驗組得分仍然高于公式組13%??紤]到受試者為隨機座位的同班同學,該實驗結果具有很強的信服力,即可以認為“算法解釋技術,的確能夠提升用戶對算法的理解”。

(四)實驗結論的規范研究價值

以上的實驗數據分析結論,對規范層面進一步開展算法規制方法的研究提供了諸多啟示:

其一、注意不同場景下用戶的特征差異。實驗結果已表明,以刑事司法為代表的高場景中,具有不同背景的算法用戶,因為具有不同的學歷、從業、年齡等背景,導致他們對算法解釋方法的理解能力、固有的信任基礎等各方面存在顯著差異。算法規制的場景化規范方案設計,必須考慮基于特定場景中的用戶畫像才有希望實現“一場景一方案”。

其二、應當強調算法的解釋技術和場景化用途的匹配性。實驗結果已表明,在本場景中不同的算法解釋方式會產生明顯的算法理解差異。算法的解釋技術本質上是為算法產品的應用落地、滿足特定場景的用戶需求所服務的。有必要對照高風險場景在決策過程的透明度、可理解性等方面的需求,進一步分析算法規制路徑中解釋技術的可行性。

其三、需要考慮算法決策在特定場景中的應用限度。從實驗對信任度的計算結果看,算法并沒有很明顯地提高在以司法為代表的高風險場景中的信任程度。要考慮高風險場景下的算法解釋為什么沒有推動算法信任的構建,信任程度甚至不升下降了? 這說明算法決策在高風險場景中并不具有天然的正當性及可接受性,同時單純地寄希望于通過算法的解釋技術,也許并不能改善這一點。

作為一種算法應用的技術,算法解釋的提出和發展在于滿足特定場景下的用戶需求,它主要提供的是一種“盡可能還原決策過程事實材料”的功能?!?8#〕不同場景的用戶對算法解釋的需求程度應該是有差異的,比如在短視頻、商品和新聞等推薦算法中,用戶對算法決策的過程可能并不十分關注;在交通領域的自動駕駛決策中,用戶更為關注算法決策的及時性和準確性,只在事后歸責時可能關心算法決策是否恰當;只有在司法、醫療等場景中,算法解釋技術才受到諸多關注,并將之視為人工智能技術在該場景中能否順利落地的關鍵。

四、基于用戶畫像的算法規范場景化

不同實驗場景具有不同的用戶畫像。以本文所重點關注的以司法為代表的高風險場景中為例,即涉及算法產品的直接用戶、高侵權風險的實際承擔者、算法產品的開發者、該領域的傳統監管者四類利害關系者,每類主體的算法解釋需求不完全相同,應該為不同的場景用戶提供針對性的算法解釋。

(一)用戶畫像影響解釋的效果

從“算法解釋”和“算法理解”“算法信任”的實驗中,我們至少可以得出以下幾條值得算法規范場景化重視的有關“用戶”方面的實證發現:

其一,特定場景的用戶具有前置性的背景。這里的用戶背景既包括學歷專業方面的,也包括年齡上的,還可以指從業經歷方面的。本實驗發現,以上各方面的背景都將顯著地影響用戶對算法的解釋效果的理解程度。這些影響包括專業型背景用戶具有更好的算法理解能力,用戶的知識背景決定了其對算法解釋的方法類型具有很強的偏好性。在特定的場景中,用戶的年齡和對算法解釋的理解能力之間還具有一種反向關系。

其二,特定場景的用戶具有很強的固有前見。這里指的前見包括兩類,一類是用戶原本對該算法產品有一定基礎的信任前值,另一類是用戶對算法的預測結果有自己的預期,算法決策的結論要么與自己一致,要么不一致。本實驗發現,以上兩類前見均會對算法解釋的效果產生顯著的影響,比如算法在解釋前的信任基礎將影響用戶對算法的理解,算法的預測結論是否和自己的預期保持一致與算法的信任之間有顯著的相關性。

以上用戶畫像方面的發現,完全可能隨著場景的變更而使得統計學意義上的顯著性消失,或者產生其他新的機制。這恰恰說明,不同的場景具有不同的用戶畫像,以上方面在不同場景中的差別很大,這正是算法的規范化方案應當結合場景開展的重要理由之一。

(二)實驗場景的用戶結構分析

不同的場景具有不同的算法使用和算法解釋的需求者,內在的主體結構差異很大,本文以實驗的場景為例予以分析。算法產品的直接使用者可能只有一類,但算法解釋的使用者卻一定是多元化的,因此有必要從算法解釋的需求方角度全面理解高風險場景中的主體結構。以司法為代表的高風險場景,有以下幾類利害關系者:(1)算法產品的直接用戶。他們是該領域的專家。(2)高侵權風險的實際承擔者。我們發現算法決策系統的直接用戶和權利侵犯風險承擔者往往并不是同一主體。這就面臨著法律責任歸屬的制度抉擇,即當風險成為實害之時,究竟由誰來承擔相應后果。(3)算法產品的開發者。他們面臨產品責任的問題。(4)該領域的傳統監管者。他們并未在該場景引入算法決策后自行消失。在以上四類主體的基礎上形成高風險場景的用戶畫像和利害關系。

第一類主體是算法產品的直接用戶,在實驗場景中是該領域的專家。就算法在司法領域的應用現狀看,當前主要是在審判、檢察等公權力機關中應用較為廣泛。算法產品雖然也包含法律服務市場中的部分算法應用, 但主要還是在公權力機關的智能辦案中作為輔助辦案人員的工具存在較多,比如本實驗中用模型輔助判斷犯罪嫌疑人被采取的強制措施的類型最具有代表性。與之相似的場景有醫療領域,算法應用的主要用戶是醫生。這類以法官、醫生為代表的領域專家構成的主要用戶群體具有鮮明的人物畫像特征,比如本身具有該領域的判斷能力,具有算法決策過程的一定理解基礎。他們擅長各自領域的知識,同時又帶有一定的局限性,比如司法場景中的用戶往往是文科背景,對數理知識較為陌生。通過該視角,得以解釋為什么實驗中專家用戶對公式型解釋方法的得分最低。

第二類主體是風險的實際承擔者。高風險場景的風險承擔者并不是專家用戶自己,而是第三人。當我們把高風險場景下被侵害的權益確定為生命、健康、自由等高位階的個體權利時,這些權利的確會因為司法裁判、醫療診斷等行為面臨失權的風險,這些風險雖然是通過算法的自動決策并借領域專家之手作出的,但是最終的不利結果卻是由犯罪嫌疑人、患者等他者所承擔的。就風險承擔方和使用者的關系而言,不利風險的承擔者并不愿意區分是由機器還是人作出的決策,他們更愿意相信這是由專家統一作出的理性決策。

第三類主體是算法產品的開發者。由此該場景的算法應用需要處理算法的開發者、算法的使用者(專家)和最終的風險承擔者間的關系,開發者和使用者需要共同對最終的風險承擔者負責。在當前的法律體系構造中,前者負有產品質量責任,后者負有業務行為責任。兩者間則是一種委托和受委托開發的關系,從司法和醫療的實際建設和運行情況看,算法系統開發者只是某一智能產品的承建方,算法產品的運行和使用權限基本掌握在法院、醫院等使用者手中。故而,高風險場景中,從主體格局的視角來看,該領域專家作為算法的使用者占據了主導者的地位,算法的機器決策其實很難和人工的決策割裂開來。

第四類主體是該領域的監管者。他們始終在場,而且較之傳統時代的監管強度并未減弱。在司法領域本身即有一套嚴格的職業倫理要求和嚴密的司法責任制度體系, 監管者包括法官懲戒委員會、司法員額及其責任制,制度設計上包括行政處分等行政法,枉法裁判罪等刑事法作為監管的依據?!?9&〕醫療領域的監管力度并不亞于司法,在醫療器械投放使用事前和事中有食藥監局的行政監管,〔30&〕在出現醫療事故時有民事侵權、醫療事故罪等司法追究機制。

(三)基于場景用戶的算法規范

從算法黑箱到算法理解、再到算法信任,根據權利(力)主體,既有的算法規范可以劃分為兩類:一類是公權力的行政監管者,另一類則是代表私權的主體。兩者的共性在于都是基于“算法的解釋”構造具體的權能內容,兩者的差異則在于行權的主體、基于部門的法理等方面。

場景化的算法規范,應當考慮不同場景對行業監管者的職責要求不同。本實驗的高風險場景中,從該場景固有的較高監管要求、風險造成實害的重大權利侵害等方面考慮,規范應當賦予行政監管者更大的權限和自由空間,目的是為高風險場景發現監管的線索、確定監管審查的內容、制定處罰定性的依據等提供便利。用戶畫像對算法使用、算法解釋的效果實驗表明,就高風險場景下的算法規制而言,應當事前建立一套分類分級的算法解釋內容細則,以針對日常檢查、個案追責、算法備案等不同執法任務和執法層級,規范研究應當設計不同的解釋方案。

場景化的算法規范還應當考慮不同場景中賦予私權利主體多大范圍的權利。當算法解釋技術為保障個人權益所用時,既有文獻往往在“算法解釋請求權”的概念之下討論,認為這是一種當對相對人有法律上或者經濟上的顯著影響時, 相對人向算法使用人提出異議, 要求解釋和更正錯誤的權利?!?1#〕對此,學界將之歸納為算法技術倫理、技術性正當程序以及算法運行危害成本內化三個層面的理由?!?2#〕就本實驗的高風險場景而言,規范層面可精細化地考慮在幾對不同的私主體間構造救濟權。首先是風險的實際承擔者面向算法的專家用戶請求權,其次是風險的實際承擔者面向算法的開發者請求權,最后是算法的專家用戶面向算法開發者的請求權。在具體的算法規范內容設計中,又應當體現出面向專家型用戶和面向普通的實際風險承擔者,在解釋方式、解釋程度等方面的差異性。

五、技術供需匹配的算法規范場景化

實驗的司法場景是一類高風險的場景,處置的權利類型比較重大(比如生命健康權),利害關系非常復雜(比如涉及多方主體),傳統對該領域的監管也比較嚴厲(典型如本文經常用于舉例的司法和醫療領域)。這些方面共同決定了高風險場景對算法解釋的類型需求較多元化。與此同時,在實驗中我們也看到算法的解釋技術所能提供的解釋內容十分有限, 它并不是完全為某一場景量身定制的。這就導致通用的算法解釋相關技術并不能夠直接恰如其分地滿足場景中的個性化用途。

(一)解釋有關技術的能力限度

在實驗中觀察到算法解釋的有關技術不是無限的,通用的解釋技術并不一定能夠滿足特定場景的需要。正因如此,我們看到公式型的算法不能為用戶很好理解,算法的解釋不能提高實驗場景中信任的效果等問題。因此從實然的角度,還需要分析算法解釋的前沿技術,是否能夠在實驗的高風險場景中滿足以上的用途。結論主要有兩點:

其一,并非全部的算法都有對應的解釋技術。本實驗選擇的是對數回歸這一較為傳統的機器學習算法,故而既可以表達出算法的公式以及參數,又可以針對個案呈現和輸出結果相關的輸入信息以及相關程度。但這是由于這類算法比較簡單,而當下有很多的深度學習算法模型就不能夠用“公式”表達,即使可以用數學公式說明也無法確定其詳細的參數。對于深度學習等較為復雜的算法,在解釋方式的選擇上就必然是受限的,因為只能選擇個案化的可視化解釋等部分解釋技術。

其二,可視化等部分解釋技術,不能全面地反映算法決策過程的全貌??梢暬惴m然在本實驗中對提升算法理解的表現要優于公式法,不過這種方式的弊端亦十分明顯,即它只是針對個案、事后型的。算法解釋不論是在公、私兩條路徑中的哪一條中都不限于事后,可能在算法決策的事前和事中亦需要提供說明。與此同時,可視化等個案解釋方法所呈現的模型信息是很不全面的,在完成算法實害歸責、審查算法開發中是否存在違規等任務時,這種解釋技術所還原的信息是不夠全面的。

以上兩點說明,當前的算法解釋技術至少難以滿足實驗場景的需求,同時也限定了算法規范的可設計空間。

(二)實驗場景的解釋用途分析

進一步分析高風險場景的參與主體,可以發現一些鮮明的場景特點,比如該領域決策的專業化、算法使用者對決策結果負主要責任、行業傳統監管比較嚴格等。這些行業專業規律,決定了在該領域應用算法決策時有特別的需求。不論是事前備案、事中監管還是事后追責,都離不開對算法決策運轉機制的理解。正因如此,算法高度透明性自然成為司法、醫療等場景中對算法應用提出的一種近乎苛責的要求。也因此,在文獻中一旦提到算法解釋的技術問題時,所預設的主要是司法、醫療等高風險的場景?!?3"〕這是一個值得追問的現象,即高風險場景為什么對算法決策過程透明性有如此多的要求。

強調決策過程的說理,可能原本即是此類場景的傳統。司法的場景中體現為對裁判說理的重視,〔34"〕這種司法實踐和理論學說的共識傳導至法律人工智能的討論中,就衍生出相似的觀點,即“裁判的精華是裁判理由而不是裁判結論”?!?5"〕無獨有偶,我們發現醫療領域的算法應用發展也十分強調過程的說理,因此在醫療場景的算法應用產品中訓練語料最多的是病歷記錄,除給出病情診斷的主輸出結果外還要求有結論的依據?!?6"〕由此,我們姑且可得到的結論為,當前對高風險領域下算法應用過程透明性的高要求,可能不是對機器決策所新創的,而是傳統中該場景就對人類的決策也提出過較高的過程透明性要求。那么這些場景所要求的算法透明性,具體有哪些用途呢?筆者認為主要在于三個方面:

其一,強調算法決策的透明性,在于和使用者的判斷形成印證。本研究的實驗中已經發現可視化的算法解釋呈現方法受試者更易于接受,特別是面向專家用戶時更為明顯。這一現象背后的機制在實驗中并未得到闡釋,但根據可視化解釋的方法主要呈現的內容,可以推斷其完成了人類決策者和機器決策的一種印證過程。當機器決策的結果所依據的基本事實要素和人類決策比較相似的時候,會產生提高人工決策者對算法信任的效果,這在實驗數據中能夠得到一定的反映。如前所述,高風險場景的算法使用者原本即是領域專家,這一特點決定了用戶自身就有判斷結果的能力,當要求他們使用算法機器決策的工具,用戶就會產生一種需求,即了解機器決策的依據能否得到自身經驗的印證。

其二,算法決策過程的還原,還可能是為了在事中說服高風險的實際承擔者。如前所述,本文所關注的司法、醫療領域的直接用戶一般都不是風險的承擔者,這些場景真正需要承擔生命健康、人身自由等權利侵犯不利風險和后果的主體另有其人。因此,算法決策的直接使用者就負有向高風險實際承擔者說明和解釋的法律上或道義上義務,能夠讓風險承擔者認同算法決策是可信任的,該智能應用才能夠在該場景中真正得以直接適用,比如在醫療的手術場景若采用算法決策,可能有必要向患者說明手術的決策機制、過程與效果?!?7#〕這實際上是醫師職責的一部分,因為在醫療中患者知情同意是醫療行為正當化的核心根據,醫師負有說明義務?!?8#〕

其三,對算法決策依據的留痕,成為事中監管和事后歸責的依據。在高風險場景中已經出現過很多個風險變為實害的案例,當出現這些侵權和違法事件后自然存在如何歸責的問題。司法場景中有法律職業倫理的一般要求,而且在當法官依據人工智能輔助作出錯誤決策時,還有法官是否需要對該案承擔責任的問題?!?9#〕司法責任的追究機制包括基于法官法、公務員法的懲戒處分機制,嚴重者可至刑事法中的徇私枉法罪、民事行政枉法裁判罪等相關罪名。醫療領域與之很類似,出現實害后要在患者、生產商、醫療者三方之間分配醫療事故的責任?!?0#〕既然要求歸責,就要有明確的事實依據,正是這些高風險場景中的嚴格歸責需要,使這些場景下不論是人類決策還是算法決策,其過程都必須能留痕備查。實驗設置了可理解和可信任兩類效果,而實驗結果發現了算法的解釋和算法的理解有統計學上的相關性,事后歸責即對應算法解釋及其理解效果的具體實際用途。

(三)由規范回應場景化的需求

算法的有關解釋技術還需依賴于具體的制度設計加以落實。既有的算法解釋研究文獻主要從解釋的內容、程度、時間與方式等方面對算法解釋的具體細節展開描述?!?1#〕這幾點也許可以成為分析某一場景下算法解釋具體用途時的框架。首先,算法解釋的內容和程度,內容是指還原的算法決策信息量,這取決于解釋的方法,不同解釋方式含有不同程度的信息量,客觀上解釋的最大可能范圍可歸結為“算法的可解釋性”?!?2#〕其次,解釋的時間,主要分為算法是否正在運轉,是決策中還是決策后等。再次,從解釋的技術角度,個案解釋的方法只能是在事后,就模型本身的解釋可以在事后也可以在事中。從高風險場景的實際需求看,既有在事前事中說服風險實際承擔者的理解需求,亦有事后歸責的理解需求,因此解釋貫徹于事前中后。最后,算法解釋的方式,可分為由人作出解釋還是由機器作出解釋兩類,從技術角度,機器解釋應當是一手信息,人工解釋是對資料的二次組織。在高風險場景中,對算法決策過程進行解釋,主要為呼應以上提到的幾點用戶需求,因此既有面向專家用戶的機器解釋,亦有專家面向實際風險承擔者的人工解釋。

用途一的算法解釋主要是算法開發者面向專家用戶,這方面的解釋從內容看應當盡可能全面和專業,契合特定場景的需要;從解釋的程度看應當偏向于全局的解釋,且時機上應當是在正式投入使用前;從解釋的方式看應當既有機器直接輸出解釋,也應當包括技術專家和領域專業用戶間的直接對話。

用途二的算法解釋是風險的實際承擔者面向專家用戶的請求權,從權利的性質看應當屬于程序性的權利,權利的內容包括對算法決策有知情、參與和提出異議的權利;從解釋的內容看主要是算法判斷的依據、可能承擔的后果等方面的說明;從算法解釋的時機看主要應當是事中的;解釋的方式應當以專家用戶的人工解釋為主。

用途三有兩個方面,分別對應“私權保障”和“監督管理”。第一種是私權主體尋求救濟時的需要,此時的權利主體應當是風險的承擔者,屬于一種救濟性的權利。在高風險場景法律歸責時,需要一些“查明事實真相、分配不利后果”的素材,作為司法訴訟或行政執法的證據。以這個用途來說,解釋的內容和程度要求都比較高。第二種是滿足監管的需要,個案追責和算法備案兩種最具代表性。從解釋的內容看,高風險場景中個案追責所需要的算法信息最廣,其次是算法備案;從解釋的程度看,對應的個案追責應當以個案能夠得到解釋為前提,算法備案則基本對應于全局解釋的技術;從解釋的方式看,機器提供原日志原材料,人工可編輯摘要同時保留元數據。此種用途需求,對算法解釋在內容的廣度和深度上要求都將比較高。

六、考慮信任基礎的算法規范場景化

從實驗中算法解釋的實際效果來看,算法解釋并不能夠化解高風險場景中的全部風險,能化解的甚至只是其中很有限的一部分。因此,從該場景的風險規范角度,除了基于算法的解釋技術設置算法解釋權、算法規制的一系列制度外,還應當在算法進入該領域的門檻、人機間的分工等更基礎的方面作出規定。這類規范實際上是著眼于技術的局限性。

(一)算法的信任影響人機的分工

基于場景化設計算法法治化的規范方法,第三個具有啟發性的方面是算法在該場景中的用戶信任基礎,這將根本性地決定算法進入該領域的難度。某一場景中算法的應用程度,根本上是由該場景中主要參與者的態度決定的。從實驗中可以發現,當前高風險場景下的算法應用,在用戶信任方面有兩個不容樂觀的現象。其一,算法的信任基礎并不高,本實驗場景下的測量數值為7分左右(10分制)。其二,在實驗中插入算法的解釋后,算法的用戶信任甚至不升反降,降低了13%。除了考慮結合場景作解釋方法的改進之外,更加值得反思的是,算法進入各應用場景的難度也許本身就是不一樣的。

這一實驗中的發現和算法的規制方法之間的啟示,則是究竟應該如何定位某一場景算法決策中人類用戶和算法機器間的關系,即在不同場景下人機間應當如何分工。不同的算法應用場景表現出的分工特點和差異已然很大,比如短視頻的推送已經基本實現全自動化,自動駕駛汽車也正在邁向更加脫離人的自動駕駛狀態,而以本實驗舉例的司法、醫療等領域,則仍難以放手交由機器自主作出決策。

(二)實驗場景中的人機關系分析

在實驗的高風險司法場景中,哪怕是最為堅定的法律人工智能支持者,也偏向于認為人機關系中機器處于輔助的地位?!?3'〕究竟為什么該領域的法律專家普遍對算法的接受程度偏低,甚至很多人質疑呢? 梳理之下,部分專家學者對算法過程方面缺乏足夠的、適合司法場景的解釋產生質疑。他們認為,法律預測算法的不可解釋性、機器判斷壓縮了法律議論?!?4'〕以上基于場景的批判,卻并不能夠得到技術上完全有力的回應,由此便造成當下該場景中人機分工的局面,而以上批判無法得到技術上回應的原因卻是多層次且復雜的。

第一個方面的原因是算法解釋技術的應用,不能過多地犧牲模型的性能。算法的解釋技術主要在高風險場景中興起,原因就在于這些領域的專家用戶要求只有當算法決策具有可解釋性時,才會同意這些智能應用的落地?!?5'〕由此,算法開發者才不得不考慮如何實現算法的解釋問題,有一定的可解釋性勢必要求選擇算法類型時要有所受限,某些算法類型很難找到有效的解釋技術。換言之,其中必然有一方面要有犧牲,算法模型的性能和可解釋性間存在不可避免的交易(trade-off)關系,〔46+〕即在要求高透明性的場景中算法類型選擇受限,算法決策作出解釋和模型預測的準確性之間存在此消彼長的關系。因此,從算法開發者的角度這里存在“兩難”問題,一個預測精確度堪憂的模型肯定不能投入應用,而一個難以解釋的黑箱算法同樣無法被高風險場景的用戶所理解和信任。

第二個方面的原因是關于算法的解釋,在技術能呈現的內容和用戶所期待的決策過程的說明程度之間有理解上的差異。從算法解釋的初衷看,主要的方法是用一定的技術勾連起人類可理解的“表征”(representations)和算法輸入用的“特征”(features)間的關聯性?!?7+〕而從具體的呈現方式看,可以是一段說明的文字、一個帶有參數的公式、一個輸入特征相關性數值的表格或者是一張圖片等。不論是以上哪種形式,都和高風險場景中人類決策的說理有些差別。在司法決策中主要是一種解釋規范大前提、歸納事實小前提的三段論式說理,但當下的解釋技術是做不到的,正因如此才有學者提出最新建議,“這種高標準的法律論證在技術上也無法實現,實事求是地將論證的要求‘降維成解釋”?!?8+〕在醫療場景中的情況也很相似,當前的算法解釋技術主要應用于診斷環節,采取的典型方式是將和結果正相關的因素用紅色標出、負相關的因素用藍色標出,呈現在醫生面前,〔49+〕這種方式和傳統的人工醫療診斷方式也并不一致。

第三個方面的原因是當前的法律歸責體系。在高風險的場景中,都較為統一地認為算法決策較為初級。在醫療中,醫療AI+并非要替代人類醫生,只是輔助醫生工作,主導權仍掌握在人類醫生手中,主要目標是通過人機協作提升醫療的準確率和效率;〔50+〕在司法中當前的機器輔助也主要是側重于效率提升的一面,涉及實體裁判的不多?!?1+〕而且一個突出的現象是,司法等高風險領域的法律責任是否會被數字技術所沖淡,領域專家對此保持極高的警惕性?!?2+〕正因如此,從對機器智能的法律定性上來講,當前也是以否定論占多數?!?3+〕這自然可以推導出一個結論,機器不會就所產生的實害負責,高風險場景的責任主要在各參與主體間分配,專家用戶面臨較重的注意義務。在醫療領域,既有的司法裁判和學說觀點較一致地認為,專家用戶應對算法決策的結果負注意義務,僅在一般過失下才能免責?!?4+〕而在司法領域情況相似,即假使這是一項關系當事人實體權利的司法判斷,不論是否借由算法決策作出,擔負司法問責風險的仍然是辦案的司法官。既然如此,當解釋的方式、內容并不能令其確信時,他們自然有權拒絕算法決策。

(三)規范限制場景中的算法任務

在實驗的高風險場景下,應當在行業性規范中確立人機之間堅持以人工決策為主、機器為輔的原則,這是由用戶的信任基礎、解釋技術的局限性、法律責任的分配方式等以下幾個方面所共同決定的。在該場景中應當更進一步推演的是,算法的場景化規范應當設置算法應用的正面和負面任務清單。算法及其解釋技術的局限性、高風險場景的固有規律,決定了這些場景中不是每一個任務都適合引入算法決策,哪怕只是承擔輔助角色。誠然,我們難以阻止人工智能的浪潮席卷這些高風險的場景,但是法律規范依然有必要劃定一些禁用算法決策的任務清單,引導算法技術向正確的任務方向發展。根據既有的算法應用所嘗試的場景任務類型,我們可以作如下取舍:

程序輔助型任務,更適合高風險場景的算法任務。司法領域希望用信息化和智能化區別數字技術應用。程序性事項更偏向于形式任務,比如辦案無紙化、全流程線上辦公等,并將之和信息化等同。但其實在程序性事項中也有很多可算法輔助判斷的事項, 只是這些判斷不涉及重大的實體權利處分,屬于適合算法決策的內容,比如案卷的歸類、是否滿足管轄的條件、文書是否已經送達。與之相對應的是一系列涉及終局性的實體權利處分,比如刑事領域的定罪和量刑等,這些任務才有更高的決策透明度要求。

知識輔助型任務,更適合高風險場景的算法任務。所謂知識輔助型主要是指算法決策所處的是實體判斷過程的中間環節,最終的實體判斷依然由專家完成,但就司法中尋找參考案例、文書寫作,醫療中尋找相似病例、處方寫作等,提供更精準的模板匹配。這種輔助不能直接形成實體判斷的結論,但是能夠讓算法的使用者減少尋找依據、資料的工作量,故而稱之為知識輔助型任務。與之相對的則是實體判斷型,包括司法中確定賠償金額、醫療中確定治療的用藥方案等。

以上任務的分類可能還有很多其他標準,需要對之加以體系化構建,并同樣需要用行業規范的方式予以確立。哪些任務是鼓勵算法應用的白名單,哪些任務是算法禁入的黑名單,都應當清晰地在行業的算法應用規范中列明,并結合算法技術的動態發展予以調整。從當下計算機科學發展、法律人工智能的學術前沿來看,卻并未受到此種指引,計算機科學的研究人員仍以研發定罪量刑、法條預測等任務為研究重點,〔55!〕而這些任務卻被本文稱作“慎入”的任務清單。

由此看來,本文雖以研究算法解釋的效果作為原點,但得出的結論卻略顯意外,即算法的解釋技術在高風險場景中往往陷入效果不佳的困境。因此在設計算法規制的方案時,要結合具體的場景,不限于算法解釋這一種方法,而是與人機間的分工關系、任務的負面清單等其他路徑形成合力。

本文系第三屆“數字法治與社會發展”研討會征文一等獎作品。

本文系2021年國家社會科學基金“智慧司法背景下犯罪嫌疑人社會風險的大數據評估方法研究”(項目批準號:21CFX068)、國家重點研發計劃“基層社會網格治理數字化關鍵技術研究與應用示范”(項目批準號:2021YFC3300300)、2024年浙江省哲學社會科學規劃之江青年專項課題“數字法治背景下生成式大模型技術對裁判說理的輔助價值”(項目批準號:24ZJQN064Y)的階段性研究成果。

91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合