?

人工智能輔助量刑場景下的程序正義反思與重塑

2024-01-05 22:55豐怡凱
現代法學 2023年6期
關鍵詞:量刑裁判正義

豐怡凱

(中國政法大學,北京 100088)

一、問題的提出:人工智能時代的量刑程序正義

“人工智能輔助量刑”①需要明確的是,本文表述的“人工智能輔助量刑”概念旨在表示抽象性的司法應用,以便于理論探討;而當指代具體性的人工智能量刑技術或者產品時,則統一表述為“智能量刑輔助技術”。是我國近年來刑事司法人工智能應用的核心圖景與重大場景創新。②當前實踐中開發并應用了一系列智能量刑輔助技術,如上海市高級人民法院的“上海刑事案件智能輔助辦案系統”、廣州市中級人民法院的“智審輔助量刑裁決系統”以及海南省人民法院系統廣泛使用的“量刑規范化改革‘23+2’全方位智能輔助系統”。人工智能技術之所以在量刑活動中適用更為廣泛,其原因在于:相較于其他刑事司法環節的嚴格性,在案件事實認定清楚、罪名確定之后的量刑環節更能充分發揮出人工智能的技術性優勢。參見鄭曦:《人工智能技術在司法裁判中的運用及規制》,載《中外法學》2020 年第3 期,第691 頁。在這一特定場景下,可以將智能量刑輔助技術賦能量刑活動抽象概括為以下基本邏輯:以大數據與機器學習為技術依托,以自動生成量刑預測意見為目標導向,以為量刑裁判者①實踐中主要指法官,但當涉及量刑裁判構造這一抽象場域時,本文將使用“量刑裁判者”作為對應概念。提供參考、減少量刑偏差為價值取向。據此,智能量刑輔助技術具有鮮明的促進量刑公正的實體功能。但同樣應當認識到,人工智能輔助量刑不僅僅關涉實體層面,同時也與量刑程序緊密相關:在人工智能輔助量刑場景下,如何以合法且可檢驗的程序實現量刑算法決策;如何在程序設計中更好地尊重并保障各方當事人的訴訟權利;如何規范智能量刑輔助意見的司法適用等,都是實踐中無法回避的程序性問題。如果無法妥善解決上述量刑程序正義問題,可能會引發一系列的連鎖反應:量刑程序正義及其保障機制的缺失,將削弱智能量刑輔助技術自身的正當性;長期缺乏量刑程序正義的制度供給與程序保障,也勢必損害并影響智能量刑輔助技術的實體功能——促進量刑結果公正。

然而,面對人工智能輔助量刑場景下量刑程序正義課題產生的全新挑戰與迫切需求,既有研究未能從理論層面予以有力且精準的回應:首先,以對抗性程序正義理論與協商性程序正義理論為代表的傳統程序正義理論②傳統程序正義理論以法治主義為基本價值取向,根據訴訟模式的不同形成了兩種形態的程序正義理論,即對抗性程序正義理論與協商性程序正義理論。前者適用于對抗性司法程序,其構成要素包括程序的參與性、裁判者的中立性、程序的對等性、程序的合理性、程序的及時性以及程序的終結性;后者則主要適用于協商性司法程序,其基本要素包括可棄權性、棄權的自愿性、可協商性、訴訟結果上的可獲益性以及最低限度的參與性。參見陳瑞華:《程序正義理論》(第2 版),商務印書館2022 年版,第188-196 頁、第251-256 頁。,適用場域局限在物理性訴訟空間,其對人工智能算法所形塑的數字性訴訟空間缺乏充分的理論解釋力。其次,雖然有研究注意到了人工智能算法對程序正義所造成的沖擊,并據此提出建構數字時代程序正義的相關理論主張,但就人工智能輔助量刑這一特定場景而言,相關研究宏觀有余卻失之具體,無法為量刑算法決策正當程序保障提供針對性理論供給。有研究將所有類型的人工智能算法視為一個整體,在此基礎上試圖建構一套龐大的“算法程序正義”理論③參見郭春鎮、勇琪:《算法的程序正義》,載《中國政法大學學報》2023 年第1 期,第165 頁。,顯然無法為具有獨特運行邏輯的智能量刑算法及其程序正義實現提供精準的理論指引。有研究從整個刑事司法人工智能應用角度出發,期待通過一種“技術性正當程序”理念實現對刑事司法人工智能的包容性規制與程序正義保障。④參見李訓虎:《刑事司法人工智能的包容性規制》,載《中國社會科學》2021 年第2 期,第56-59 頁;劉金松:《數字時代刑事正當程序的重構:一種技術性程序正義理論》,載《華中科技大學學報(社會科學版)》2023 年第2 期,第21-24 頁。然而,由于量刑活動是刑事司法中的特殊存在,該項研究盡管能夠為整個刑事司法人工智能的程序正義保障提供具有啟發性的理論進路,但具體到人工智能輔助量刑的特定場景,其僅能作為原則性的理論指引,同樣無法深度契合量刑程序正義的特殊需求。再次,雖然部分研究聚焦于人工智能輔助量刑場景,但其討論主要限于如何為量刑裁判者提供準確的量刑意見參考這一實體法層面,并未過多涉及從程序法層面討論智能量刑輔助技術的規范適用問題⑤參見孫道萃:《人工智能輔助量刑的實踐回視與理論供給》,載《學術界》2023 年第3 期,第163-174 頁;馮文杰:《人工智能輔助量刑公正取向的雙重構建》,載《華東理工大學學報(社會科學版)》2020 年第6 期,第88-96 頁。,故而缺乏對潛在司法適用風險的理論關切。最后,盡管有個別研究已經注意到人工智能輔助量刑場景下的量刑程序正義問題,但囿于研究視角的局限性,就相關問題的論證略顯單薄,且欠缺系統性。例如,有研究分別從實體方面和程序方面對人工智能輔助量刑可能存在的問題提出解決對策,但二元化的研究視角及論證方式使其對人工智能輔助量刑場景下量刑程序正義問題的論述并不深入①參見程龍:《人工智能輔助量刑的問題與出路》,載《西北大學學報(哲學社會科學版)》2021 年第6 期,第163-174 頁;李立豐、齊弋博:《數字算法時代的量刑公正及其構建》,載《學術探索》2022 年第4 期,第88-96 頁。;也有研究將智能量刑算法的司法適用作為核心研究對象,但相關完善建議,卻僅將“程序法回應”作為優化智能量刑算法司法適用的對策,缺乏必要的理論高度。②參見張玉潔:《智能量刑算法的司法適用:邏輯、難題與程序法回應》,載《東方法學》2021 年第3 期,第195-198 頁。

以上表明,要使程序正義在智能量刑輔助技術的實踐應用中“開花結果”,理論研究不僅需要深刻意識到人工智能輔助量刑場景下量刑程序正義問題的緊迫性,及時跟進實踐發展趨勢,并予以與時俱進的理論關切;更重要的是,還應當認真對待這一問題的重要性,這需要在研究視野上由零散依附式轉向系統專門性,并在此基礎上從批判走向建構。鑒于此,本文將以人工智能輔助量刑這一特定場景為切入點,依次論述以下三部分內容:第一,智能量刑輔助技術參與、影響量刑程序的程序面向與內在邏輯;第二,以類型化的視角,系統闡釋智能量刑輔助技術應用可能引發的程序正義挑戰與風險;第三,在此基礎上,就上述潛在結構性風險的消解與治理,嘗試提出一套相對體系化的理論方案,以期對人工智能時代下的我國量刑程序正義完善以及量刑程序規范化改革有所助益。

二、人工智能輔助量刑場景下的程序面向:功能構造與運行邏輯

智能量刑輔助技術的適用不僅與實體結果相關聯,同時還與量刑程序深度融合。因此,為了充分討論人工智能輔助量刑場景下的量刑程序正義問題,應首先了解和厘清智能量刑輔助技術作用于量刑程序的基本思路。以下將從程序功能構造與程序運行邏輯兩個維度揭示人工智能輔助量刑的程序面向。

(一)人工智能輔助量刑的程序功能構造

1.程序功能取向:規范量刑裁量權

量刑裁量權是法官刑事裁判權的重要組成部分,且常態化地存在于日常量刑實踐。③參見臧冬斌:《量刑自由裁量權制度研究》,法律出版社2014 年版,第39 頁。例如,在量刑過程中,法官需要在控辯雙方平等提出意見的基礎上,通過量刑程序實現對被追訴人適當刑罰的最佳估計。雖然適當的刑罰裁決離不開法官合理行使量刑裁量權,但過于寬泛或不受限制的量刑裁量權勢必導致量刑失衡問題的產生。④參見楊志斌:《中英量刑問題比較研究》,知識產權出版社2009 年版,第9-14 頁。鑒于此,魏根特教授曾指出,不受約束的量刑裁量權是毫無道理的,其嚴重違反了公民在合理范圍內預測其刑罰責任的合法性原則。⑤See Thomas Weigend, Norm versus Discretion in Sentencing,25 Israel Law Review 628,628-629(1991).

在此背景下,“由傳統估堆式量刑方式向精細化量刑方式轉變”已經成為近年來國內外規范法官量刑裁量權、推進量刑公正與均衡化的基礎性改革路徑。⑥參見石經海,嚴海杰:《中國量刑規范化之十年檢討與展望》,載《法律科學(西北政法大學學報)》2015 年第4 期,第170 頁。這一改革的底層邏輯在于:通過規范化的量刑方式適度約束法官量刑裁量權,在推動刑罰個別化與量刑統一動態平衡基礎上實現“類案類判”。人工智能輔助量刑同樣契合這一改革邏輯:智能量刑輔助技術依托自然語義識別技術海量抓取公開性的類案案件信息,據此形成龐大的類案量刑信息大數據;通過對類案量刑信息大數據的深度智能化分析,智能量刑輔助技術能夠對已有判決中的量刑規律進行歸納和總結,在生成、分析與計算相關變量、指標體系等要素的基礎上,對個案予以精準匹配,最終智能輸出預測性的量刑意見。①參見孫道萃:《人工智能輔助量刑的實踐回視與理論供給》,載《學術界》2023 年第3 期,第115 頁。簡言之,就規范法官量刑裁量權的程序功能而言,人工智能輔助量刑以類案量刑信息大數據為藍本,將其中蘊含的鮮活量刑實踐及其共性規律注入個案量刑之中,在參照法官集體量刑經驗的基礎上,制衡個案中法官量刑裁量中可能出現的恣意與偏差②參見吳雨豪:《量刑自由裁量權的邊界:集體經驗、個人決策與偏差識別》,載《法學研究》2021 年第6 期,第110 頁。,由此實現刑罰個別化與量刑統一的有機融合。就此而言,人工智能輔助量刑具有鮮明的約束和規范法官量刑裁量權的程序功能。

2.程序功能實現路徑:量刑算法決策

“在人工智能應用方面,人類最大的貢獻在于設計了一系列的程序運行所依賴的算法……(基于此)人工智能能夠高效收集與分析海量大數據,并可以在識別大數據相關關系、模式和依賴性的基礎上,輔助人類在理論上作出更為準確的決定?!雹跾ee John.Villasenor & Virginia.Foggo, Artificial Intelligence, Due Process and Criminal Sentencing, 2020 Michigan State Law Review 295,304-305(2020).據此,人工智能的本質在于算法和數據處理。④參見胡凌:《人工智能的法律想象》,載《文化縱橫》2017 年第2 期,第110 頁。事實上,人工智能輔助量刑也正是依托其內在量刑算法決策機制,得以實現對量刑裁量權的規范。易言之,量刑算法決策機制實際上已成為人工智能輔助量刑有別于其他傳統精細化量刑方式的關鍵因素,同時也是二者在規范法官量刑裁量權方面“同歸”卻“殊途”的內在動因。

關于量刑算法決策機制,需要明確以下兩點:其一,量刑算法決策以“類案類判”為指導理念?!邦惏割惻小笔侵竿惖陌讣@得相同或者類似的判決結果,其既是自然正義的要求,也是憲法法治統一原則的體現。⑤林振通:《統一裁判標準 實現“類案類判”》,載《人民法院報》2019 年7 月16 日,第2 版。但長期以來,我國事實相近的“類案”常常在不同人民法院甚至在同一人民法院的不同法官之間出現結果不同的“異判”現象,嚴重損害了司法公信力。⑥參見四川省高級人民法院、四川大學聯合課題組:《中國特色案例指導制度的發展與完善》,載《中國法學》2013 年第3 期,第35頁。為解決這一問題,最高人民法院印發了《關于統一法律適用加強類案檢索的指導意見(試行)》,明確指出類案檢索是實現“類案類判”的重要法寶。而智能量刑輔助技術即是一種智能化的類案檢索手段,其在有效規避手動檢索方式潛在的類案案件數據不全面、不準確等缺陷的同時,還能極大提高類案信息檢索效率。在“類案類判”理念的指導下,量刑算法決策程序能夠獲取海量的類案量刑信息大數據,并按照既定的智能化算法運行規則,在對所有已決類案量刑信息和量刑趨勢分析、核查的基礎上,與相關個案進行匹配與驗證,最終生成較為精準的量刑意見供法官參考,由此保障“類案類判”司法效果的實現。

其二,量刑算法決策以“量刑數據集中處理—量刑意見智能生成”為基礎運行范式。根據實踐中不同類型智能量刑輔助技術的運行共性,量刑算法決策一般包括案件知識圖譜構建、相關量刑要素提取、類案量刑信息識別、算法模型訓練分析以及量刑預測與偏離度測算等基本環節。①參見王祿生:《司法大數據與人工智能開發的技術障礙》,載《中國法律評論》2018 年第2 期,第48-50 頁。在此過程中,案件知識圖譜構建、相關量刑要素提取、類案量刑信息識別等環節,都屬于對相關量刑數據的智能化集中處理,旨在為后續的算法程序運行提供基礎性的類案量刑信息大數據;而算法模型訓練實質上表現為,擁有深度學習能力的人工智能技術對經過集中處理后的量刑數據的分析建模,旨在獲取類案量刑數據與量刑規律之間的高置信度的關聯規則,并建構量刑算法程序。在此基礎上,通過量刑算法程序智能生成的量刑意見,將用于對未決案件的量刑判決預測或對已決案件的量刑判決偏離檢視。

(二)人工智能輔助量刑的程序運行邏輯

探究人工智能輔助量刑的程序運行邏輯,意在厘清人工智能輔助量刑場景下量刑程序運行的內在機理,從而有助于直觀了解智能量刑輔助技術介入量刑時給傳統量刑程序運行帶來的沖擊和變化??梢詮尿寗幽J脚c責任分配兩個維度解構人工智能輔助量刑的程序運行邏輯。

1.程序驅動模式:人機協同

在我國,法官在量刑程序中居于主導地位,是運行和推進整個量刑程序的核心。但在人工智能輔助量刑的特殊場景下,法官不再是唯一的承擔量刑工作的主體:隨著人工智能介入量刑程序,量刑工作不再由法官所“壟斷”,而是部分交由智能量刑輔助技術分擔。在此情況下,原有獨屬于法官的量刑工作開始向智能量刑輔助技術進行部分轉移,后者事實上成為了一種新的量刑工作承擔主體。據此,形成了一種新的量刑主體模式,即由原來的法官單一型量刑主體轉變為“法官-人工智能”復合型量刑主體。②參見李立豐、齊弋博:《數字算法時代的量刑公正及其構建》,載《學術探索》2022 年第4 期,第91 頁。

人工智能輔助量刑場景下,隨著量刑主體模式的革新,量刑程序的整體運行驅動力也相應發生了變化,即由原有人(法官)的單核主導驅動轉變為“法官與人工智能”的雙核協同驅動(以下簡稱“人機協同”)。具體來說,“人機協同”的量刑程序驅動模式主要體現在兩個方面:其一,“人機協同”模式能夠提升量刑裁判效率,加速量刑程序環節的推進?;诩夹g優勢,原有量刑裁判中的重復性、程序性工作不僅可以交由智能量刑輔助技術處理,其還能快速集中處理海量類案量刑信息,并據此完成對個案量刑裁判的預測。因此,在“人機協同”模式下,法官能夠從繁重的機械化工作中解放出來,從而有助于其將有限的理性與精力充分運用于核心的量刑裁判工作,提高量刑裁判效率。其二,“人機協同”模式在一定程度上能夠對量刑程序過程產生形塑作用。例如,隨著量刑算法決策的運行以及量刑意見的自動化生成,法官基于量刑公正的考量,將不得不考慮增設包括核驗量刑算法決策是否公開透明、智能量刑輔助意見如何適用等新型量刑程序環節,以供控辯雙方發表意見,從而為量刑程序的運行描繪了新的圖景。

2.程序責任分配:人主機輔

從智能量刑輔助技術介入量刑活動開始,便產生了一個無法回避的現實問題:到底應當如何認識人工智能在量刑裁判中的定位? 有關這一問題,主流觀點認為,應將智能量刑輔助技術定位為輔助法官量刑裁判的工具助手與“參謀”角色,而非直接代替法官行使量刑裁判權。①參見孫道萃:《人工智能輔助量刑的實踐回視與理論供給》,載《學術界》2023 年第3 期,第118 頁;胡佳:《人工智能輔助刑事審判的限度》,載《政法學刊》2022 年第3 期,第28 頁。其中,在司法裁判中,有關人工智能為何只能發揮輔助作用的原因,參見胡佳:《人工智能輔助刑事審判的限度》,載《政法學刊》2022 年第3 期,第28 頁。最高人民法院于2022 年12 月發布《最高人民法院關于規范和加強人工智能司法應用的意見》(法發〔2023〕33 號)(以下簡稱《人工智能司法應用意見》),明確將“輔助審判原則”作為人工智能司法應用的基礎性原則之一。據此,盡管智能量刑輔助技術可以幫助法官分擔部分量刑工作,但其實際上扮演的是輔助法官量刑裁判的工具角色,并非量刑裁判的主體。

因此,就人工智能輔助量刑的“人機協同”程序驅動模式而言,其并非一種“人機平等”的協同樣態,而是更多地表現為一種“人主機輔”的協同模式,也即在“法官主導”與“人工智能輔助”的合力下推動量刑程序運行。就此而言,在人工智能輔助量刑場景下,法官實際上擔負著主導性的程序責任,而智能量刑輔助技術僅需承擔輔助性的程序責任。值得注意的是,這種“人主機輔”的程序責任分配格局,事實上也是法官與智能量刑輔助技術有關量刑工作主次分工、權責一致的邏輯映射:法官不僅是量刑程序運行的實際主導者,負有保障控辯雙方平等參與、貫徹直接言詞原則、保障辯護方質證權等一系列旨在促進量刑庭審實質化的傳統裁判義務,其同時也是智能量刑輔助技術的實際使用者,肩負以裁判者認知理性彌補人工智能技術理性不足的新型司法責任,如對人工智能生成的裁判文書的校正與完善②雖然當前智能量刑輔助技術能夠自動生成裁判文書,但這種自動化裁判文書呈現出說理性薄弱、公文程式化明顯的缺陷,因此仍有待法官以其自身理性對其進行完善與補充。參見胡銘、張傳璽:《人工智能裁判與審判中心主義的沖突及其消解》,載《東南學術》2020年第1 期,第221 頁。,故而法官肩負著主導性程序責任;而就智能量刑輔助技術來說,前文已經提及,其主要是依托量刑算法決策這一技術層面參與量刑程序,因而只需要承擔保障算法程序具有可審計性、透明性以及一致性等輔助性程序責任。③See John.Villasenor & Virginia.Foggo, Artificial Intelligence, Due Process and Criminal Sentencing, 2020 Michigan State Law Review 295,339-350(2020).基于此,“人主機輔”的程序責任分配格局,實際上可以進一步具化為“法官統籌整個量刑程序正當的程序責任”以及“智能量刑輔助技術保障局部量刑算法決策程序正當的程序責任”。

三、人工智能輔助量刑場景下的程序正義挑戰:三重風險

人工智能輔助量刑所獨有的程序功能構造與程序運行邏輯表明:一方面,適用智能量刑輔助技術是量刑程序的重要組成部分,同樣需要接受量刑程序正義理念的約束與調控;另一方面,智能量刑輔助技術作為一種新介入量刑程序的力量與因素,一定程度上沖擊和改變了近年來量刑程序規范化改革所鞏固和發展的傳統型量刑程序樣態,并描繪了新型的量刑程序圖景。其中,就后者而言,由于人工智能輔助量刑從程序維度深刻重塑了傳統的司法權力運行機制、司法行為運作方式,因而將不可避免地對傳統量刑程序的制度設計、司法倫理以及程序正義理念帶來不容忽視的結構性挑戰。①參見季衛東:《人工智能時代的司法權之變》,載《東方法學》2018 年第1 期,第132 頁。正視并厘清這些挑戰與風險,不僅是從程序視角認真對待人工智能輔助量刑的應有之義,同時也是實現人工智能輔助量刑場景下量刑程序正義、指明未來我國量刑程序規范化改革方向的必然要求。為此,以下將對人工智能輔助量刑場景下的程序正義挑戰與風險予以體系性的闡述。

(一)理論風險:傳統程序正義理論解釋力有限

應當承認,在傳統刑事司法語境下,無論是對抗性程序正義理論還是協商性程序正義理論,對于相應的刑事司法程序實踐都具有較強的理論解釋力,并能夠通過設置相應的正當程序標準評判、推動、助力相應訴訟程序的正當化發展。但是,在人工智能賦能刑事司法的新型場景下,以參與性、中立性、自愿性等要素為核心的傳統程序正義理論,則很難適用于人工智能刑事司法活動的程序運行邏輯,難以為刑事司法人工智能背景下程序正義的實現提供科學的理論指導。②參見劉金松:《數字時代刑事正當程序的重構:一種技術性程序正義理論》,載《華中科技大學學報(社會科學版)》2023 年第2期,第19-21 頁。據此,在宏觀層面,面對蘊含技術主義的刑事司法人工智能應用,僅以法治主義為底層邏輯的傳統程序正義理論面臨前所未有的嚴峻挑戰。③參見李訓虎:《刑事司法人工智能的包容性規制》,載《中國社會科學》2021 年第2 期,第57 頁。

不僅如此,具體到人工智能輔助量刑的特定場景,傳統程序正義理論解釋力同樣面臨諸多挑戰,包括但不限于以下層面:其一,量刑正義的傳統原則,如量刑主體參與性原則,逐漸發生了動搖。在量刑程序(主要是對抗式量刑程序)中,根據傳統程序正義理論要求,任何對量刑裁判可能產生影響或者可能受到量刑裁判影響的相關主體,均應積極參與量刑裁判的制作過程,并在相互對抗、爭辯過程中對量刑裁判結果的形成發揮實質性作用。然而,在人工智能輔助量刑場景下,傳統程序正義理論所主張的量刑主體參與性原則,似乎難以有效體現。一方面,隨著人工智能介入量刑,事實上產生了一系列的新的量刑活動參與者,如智能量刑輔助技術的開發人員以及該技術產品的部署者、運用者。上述新介入的量刑活動參與者雖然可能對量刑裁判結果產生實質性影響④智能量刑輔助技術的開發者和部署者有關量刑數據信息提取的范圍與方式以及其本身的價值觀、選擇偏好等因素將直接決定該量刑算法模型的精確性,進而影響最終生成的量刑意見預測。參見劉金松:《數字時代刑事正當程序的重構:一種技術性程序正義理論》,載《華中科技大學學報(社會科學版)》2023 年第2 期,第20 頁。,但就實踐情況來看,除控、辯、審等智能量刑輔助技術應用端主體外,其開發人員以及部署人員等開發端、部署端主體,實際上游離于量刑程序之外,并不受程序參與性原則的約束。另一方面,就對抗式量刑程序中被追訴人、被害人等傳統訴訟參與主體而言,其在人工智能輔助量刑場景下的程序參與能力十分有限。具體來說,不同于傳統法官決策場域下,當事人能夠通過對自己不利的證據和意見進行質證、反駁等方式實質性參與并影響量刑裁判;在新型量刑算法決策場景下,盡管被追訴人、被害人等訴訟主體直接受到量刑算法決策影響,但由于商業秘密或知識產權保護等原因,量刑算法模型的運行和存在可能處于保密狀態,因而對其可能形成事實上的“量刑算法黑箱”。退一步來說,即使能夠實現量刑算法模型運行原理的公開透明,但對于絕大多數屬于普通民眾的訴訟主體而言,量刑算法這一技術性知識壁壘同樣可能導致其難以實現有效的量刑參與。①當前,由于算法本身欠缺可解釋性,因此大多數情況下算法的運行是令人不安且不可預知的。換言之,基于技術性知識壁壘的原因,普通民眾很難理解量刑算法在內的算法運行邏輯和機理,在此情況下遑論行使參與權、異議權。

其二,引發了量刑主體自愿性等新的問題。協商性程序正義理論圍繞自愿性提出了棄權的自愿性、協商的自愿性等一系列要素性概念,用以保障協商性司法程序運行的正義性。②參見陳瑞華:《論協商性的程序正義》,載《比較法研究》2021 年第1 期,第12-13 頁。但需要明確的是,上述協商性程序正義理論中的“自愿性”具有特定的功能指向,即專指被追訴人對協商性訴訟制度或審判程序類型選擇適用與否的自愿性。但在人工智能輔助量刑場景下,如果被追訴人選擇的是協商性司法程序,那么量刑裁判者將不得不面臨兩類自愿性審查問題,即:被追訴人是否基于自愿而選擇協商性司法程序? 被追訴人是否基于自愿而選擇智能量刑輔助技術? 需要注意的是,上述兩類自愿性問題,背后的條件、場域及功能指向均不相同。在此情況下,雖然協商性程序正義理論能夠對第一類自愿性問題作出充分的理論解釋與實踐指導,但就被追訴人是否可以基于自愿而選擇適用智能量刑輔助技術,是否可以在適用過程中反悔等新式自愿性問題,則難以提供有效的解釋與回應。

此外,同樣需要指出的是,無論是對抗性程序正義理論抑或協商性程序正義理論,均無法就如何規制量刑算法決策中可能產生的“黑箱”或偏見提供有力的理論指引。以上表明,在人工智能輔助量刑的特定場景下,傳統程序正義理論在量刑程序正義保障方面具有明顯的局限性,亟待新的理論供給。

(二)制度風險:量刑算法決策正當程序機制闕如

從量刑正義的傳統理念出發,在智能算法決策應用于量刑活動的場景下,同樣應當努力保障量刑算法依循正當程序進行決策,以避免量刑算法決策的不公正或不準確。據此,一套完備的量刑算法決策正當程序機制應當成為人工智能輔助量刑場景的基本配套制度,這也是保障量刑程序正義、推進量刑程序規范化的應有之義。但就相關立法以及智能量刑輔助技術應用的司法實踐來看,當前我國尚未建構起明確的量刑算法決策正當程序機制。

1.規范層面:量刑算法決策缺少必要的正當程序保障機制

當前,我國主要從義務層面對人工智能司法應用進行規范和約束。2017 年國務院印發的《新一代人工智能發展規劃》明確指出,要“建立健全公開透明的人工智能監管體系,實行設計問責和應用監督并重的雙層監管結構,實現對人工智能算法設計、產品開發和成果應用等的全流程監管?!本唧w到人工智能輔助量刑的特定場景,理論界同樣普遍認為量刑算法決策應當秉承公開透明、公正對待以及可監督追責等一系列正當程序原則。①參見熊秋紅:《刑事司法中的人工智能應用探究》,載《上海政法學院學報(法治論叢)》2022 年第6 期,第112-114 頁。在此基礎上,《人工智能司法應用意見》有意識地吸收了上述有關人工智能算法規制的主張,明確將“安全合法”“公平公正”“輔助審判”“透明可信”“公序良俗”作為我國人工智能司法應用時應當遵循的基礎性原則。

毋庸置疑,通過制定專門的規范性文件,能夠對人工智能司法應用提供亟需的規范性指導,也有助于構建人工智能司法應用場景下算法決策正當程序運行機制。但就后一目標而言,我國立法決策者依然任重道遠,亟待強化立法供給:一方面,就當下專門性的人工智能司法應用立法規范來說,其僅限于從宏觀方面為智能算法決策運行予以原則性的宣示或指導,但并未就人工智能司法應用場景下的裁判者以及其他訴訟主體②根據“兩高三部”2020 年《關于規范量刑程序若干問題的意見》(以下簡稱《規范量刑程序意見》)規定精神,除量刑裁判者外,控方、被追訴人方以及被害人方都是規范化量刑程序中的訴訟主體。為便于行文,本文以下將其統稱為“當事人”。的具體權利義務、程序步驟等基本要素予以具體細化規定,因而無法為量刑裁判者及當事人提供明確且可供遵行的量刑算法決策正當程序機制。另一方面,就一般性的量刑程序規范而言,2020 年,最高人民法院、最高人民檢察院、公安部、國家安全部、司法部發布了《關于規范量刑程序若干問題的意見》作為我國近年來量刑程序規范化改革的最新成就,并沒有對實踐中已經廣泛適用的智能量刑輔助技術予以任何回應,致使量刑算法決策正當程序至今依然游離于量刑程序規范化改革之外。易言之,盡管我國智能量刑輔助技術在司法實踐中已經廣泛適用,但迄今為止,針對該特定場景,立法上并未形成一套可供遵循的成熟正當程序指引。因此,諸如量刑算法決策如何對當事人透明,是否允許當事人對此質疑或請求回避,以及當事人是否有權要求對量刑算法決策意見進行審核等關涉量刑程序正義的基本問題,尚未得到妥善解決。

2.實踐層面:量刑算法決策的程序運行方式具有封閉性特征

重實體、輕程序是我國刑事司法中的傳統弊病。受此影響,在規范層面上缺失量刑算法決策正當程序機制的情況下,智能量刑輔助技術的實踐應用很難實現正當程序的理想圖景。結合實踐情況來看,我國量刑算法決策的程序運行方式呈現出較為明顯的封閉化特征。

其一,類案量刑信息大數據選定的非公開化。依據智能量刑輔助技術基本原理,量刑算法所依據的類案量刑信息大數據將直接框定個案量刑意見預測的基本范圍,因此,相關類案量刑數據的抓取是否完整,將直接決定該量刑算法決策機制是否存在偏見,進而影響最終生成的量刑預測意見的精確性。③參見馮文杰:《人工智能輔助量刑公正取向的雙重構建》,載《華東理工大學學報(社會科學版)》2020 年第6 期,第117 頁。盡管量刑信息大數據十分重要,但實踐中其篩選與抓取不僅完全由審判機關決定,甚至審判機關只側重考量有罪證據,帶有明顯的入罪傾向④參見鄭曦:《司法人工智能運用背景下的被告人質證權保障》,載《政法論壇》2022 年第6 期,第48 頁。;此外,在運行量刑算法決策前,法官通常不會就該量刑信息大數據的篩選依據、抓取原理等聽取控辯雙方特別是被追訴人一方的意見。⑤以上海市高級人民法院主持研發的“上海刑事案件智能輔助辦案系統”以及廣州市中級人民法院主持研發的“智審輔助量刑裁決系統”為例,其系統內的類案量刑信息大數據庫均由負責研發的審判機關設計與構建,但在個案應用中,控辯雙方等當事人是否可以就該類案量刑信息大數據的準確性、全面性等方面進行審查則并未提及與明確。參見李哲:《當司法進入“人工智能時代”》,載搜狐網,https:/ /www.sohu.com/a/156544511_120078003,2023 年4 月24 日訪問。由于量刑活動的其他參與方無法實質性審查量刑信息大數據,因而增添了量刑算法決策偏見風險。

其二,量刑算法決策運行的非透明化?!霸陬惏噶啃绦畔⒋髷祿幕A上,量刑算法決策自動識別和提取個案中的量刑事實、量刑情節等案件要素,最終依托既定的算法模型生成量刑意見預測”是當前智能量刑輔助技術的基本特征。①例如,海南省人民法院系統廣泛使用的“量刑規范化改革‘23+2’全方位智能輔助系統”可以與原有審判管理系統無縫對接,從前置文書中智能識別提取案件基本信息、量刑事實和情節等案件要素,并將這些案件要素自動地運用于后續的量刑以及程序性法律文書、裁判文書的生成。參見潘睿:《大數據人工智能助力司法改革 海南法院深化量刑規范化改革》,載??诰W,http:/ /hkwb.net/news/content/2017-07/25/content_3300556.htm,2023 年4 月23 日訪問。在案件要素提取整體自動化的趨勢下,為保障量刑的公正與準確,一些具體個案中的非共性要素,仍可能需要智能量刑輔助技術操控者(一般是主辦法官)的手動輸入。②例如,作為全國試點單位之一,深圳市羅湖區人民法院在2022 年初正式上線運行智能裁判輔助辦案系統。該智能裁判輔助辦案系統盡管在自動提取量刑事實、量刑情節等案件要素方面的準確率已經超過了85%,但個別案件要素的提取仍然離不開系統操控者的手動輸入。參見《智能裁判輔助辦案系統上線,智慧法院建設再上新臺階》,載澎湃網,https:/ /www.thepaper.cn/newsDetail_forward_16193262,2023 年4 月24 日訪問。但從當前實踐來看,無論是基于自動識別、提取抑或手動輸入個案量刑情節、事實,被追訴人一方均未能有效參與其中,無法及時在量刑算法決策的運行過程中提出及時的辯護意見③從部分公開披露的相關智能量刑輔助技術的運行細節來看,無論是智能量刑輔助技術自動提取案件要素抑或系統操控者手動添加、修改案件要素,均未顯示控辯雙方特別是被追訴人一方能夠及時參與其中,對案件要素的提取進行監督。參見《智能裁判輔助辦案系統上線,智慧法院建設再上新臺階》,載澎湃網,https:/ /www.thepaper.cn/newsDetail_forward_16193262,2023 年4 月24 日訪問;潘睿:《大數據人工智能助力司法改革 海南法院深化量刑規范化改革》,載??诰W,http:/ /hkwb.net/news/content/2017-07/25/content_3300556.htm,2023 年4 月23 日訪問。,這實際上嚴重損害了被追訴人一方的正當程序權利,使得“質疑嵌入工具中的歧視性計算變得更具有挑戰性?!雹躘加]費爾南多·阿維拉、凱莉·漢娜-莫法特、波拉·毛魯托:《誘人的公平:機器學習是答案嗎? 刑事司法系統中的算法公平》,載[荷]馬克·舒倫伯格、里克·彼得斯編:《算法社會:技術、權力和知識》,王延川、栗鵬飛譯,商務印書館2023 年版,第143 頁。

(三)司法適用風險:量刑裁判的人工智能算法依賴

在人工智能輔助量刑場景下,量刑裁判者通常需要依次考量兩方面的司法適用問題:一是,有待裁決的具體案件是否適合適用智能量刑輔助技術;二是,在確定適用智能量刑輔助技術之后,需要進一步考慮應當如何正確適用量刑算法決策自動生成的個案量刑預測意見。理想圖景下,量刑裁判者在處理上述司法適用問題時,應當遵循量刑程序正義理念的指引:在研判具體個案是否可以適用智能量刑輔助技術時,量刑裁判者應當考慮智能量刑輔助技術適用的案件范圍并聽取控辯雙方特別是被追訴人一方的意見,保障當事人選擇量刑算法決策的自愿性;在適用智能量刑輔助意見時,量刑裁判者同樣應當依照控、辯、審的量刑裁判構造,在充分聽取當事人意見的基礎上最終決定是否參考、多大程度上參考該量刑預測意見。但是,在司法實踐中,由于現行法律規范未能就此予以必要的指引和有效回應,在當前智能量刑輔助技術的實踐應用中,量刑裁判者往往表現出對智能量刑輔助技術的盲目信賴,甚至是盲從。具體表現為以下兩個維度:

1.對智能量刑輔助技術的路徑依賴

根據《人工智能司法應用意見》的規定,各類用戶有權選擇是否適用人工智能技術,有權隨時退出與人工智能產品和服務的交互。據此,在人工智能輔助量刑場景下,作為用戶端主體之一的被追訴人,一定程度上享有是否適用智能量刑輔助技術的選擇權、決策權。但是,僅靠該項規定尚不足以對量刑裁判者選擇適用智能量刑輔助技術形成實質性制約:(1)欠缺有效的外部制約機制。值得注意的是,現行法律規范尚未就可以適用智能量刑輔助技術的案件范圍作出必要的限定。受此影響,對于具體個案是否可以、是否適宜適用智能量刑輔助技術,量刑裁判者實際上享有較為寬泛的選擇適用權。(2)內部制約機制形式化。雖然《人工智能司法應用意見》體現了對被追訴人等用戶端主體選擇適用權的尊重,但由于欠缺配套的救濟或制裁機制,其能發揮多大的實際功效,仍需打上一個問號。此外,在量刑程序實踐中,基于量刑裁判者的權威以及被追訴人對智能量刑輔助技術的理解有限性,一旦法官傾向或者建議適用智能量刑輔助技術,被追訴人很難提出有效的拒絕理由。

因此,在人工智能介入量刑的特定場域下,一旦量刑裁判者體驗過智能量刑輔助技術帶來的便利(如節省裁判時間、高效處理量刑案件要素、保障“類案類判”等),囿于缺乏必要且有效的內外部約束機制,量刑裁判者很容易形成對智能量刑輔助技術的路徑依賴和心理依賴,從而習慣性地選擇適用智能量刑輔助技術,進而產生“從技術輔助到技術依賴”的司法適用風險。

2.對智能量刑輔助意見的結果依賴

根據量刑程序規范化改革要求,量刑裁判的形成離不開控方、辯方以及被害人等當事人的有效參與。但在人工智能輔助量刑場景下,由于智能量刑輔助意見的證據法定位尚未得到規范厘清,也未就此形成理論共識,因此,實踐中有關該智能量刑輔助意見的法律屬性認知存在較大爭議,致使其很難像證據一樣得到當事人的質證性檢驗。①參見程龍:《人工智能輔助量刑的問題與出路》,載《西北大學學報(哲學社會科學版)》2021 年第6 期,第169 頁。鑒于此,在量刑算法決策自動生成量刑預測意見后,法官通常并不會將其納入訴訟化的量刑裁判構造中予以審查,而是直接將其作為量刑裁判的參考。

在此情況下,量刑裁判者對智能量刑輔助意見的“應然參考”實際上可能異化為“直接采納”,從而產生過度依賴,甚至是帶來盲信盲從智能量刑輔助意見的司法適用風險。具體而言,一方面,面對以類案量刑信息大數據為基礎的量刑算法決策,本應自主心證的量刑裁判者很容易受到人工智能技術權力的牽引與規訓②有觀點認為,人工智能技術權力作為一種彌散于刑事審判場域的權力范式,其與作用主體之間形成了“泛在”的權力關系,表現為對人或主體無處不在地進行引導或操縱,這種“無意識”的權力治理術規訓著法官在裁判過程中的自主性。參見衛晨曙:《刑事審判人工智能的權力邏輯》,載《西安交通大學學報(社會科學版)》2021 年第3 期,第144 頁。,進而對其裁判形成一定的“錨定效應”③參見朱體正:《人工智能輔助刑事裁判的不確定性風險及其防范——美國威斯康星州訴盧米斯案的啟示》,載《浙江社會科學》2018 年第6 期,第79 頁。,從而使得智能量刑輔助意見的輔助參考功能異化為對量刑裁判結果的實質操控。另一方面,由于缺少當事人對智能量刑輔助意見的充分討論,量刑裁判者事實上缺失了“兼聽則明”的制度支撐,因而可能難以在全面考量個案特殊化量刑要素的基礎上,審查該智能量刑輔助意見潛在的不足,并及時予以調試。

四、人工智能輔助量刑場景下的程序正義風險治理

人工智能輔助量刑作為我國量刑活動中的重大場景創新,其獨特的功能構造與運行邏輯,為傳統量刑程序及其程序正義目標的實現帶來了結構性的風險與挑戰,同時也對我國人工智能時代背景下的量刑程序規范現代化改革提出了新的迫切要求。以下將據此嘗試提出具有針對性且體系化的程序正義風險治理方案。

(一)理論供給:技術性程序正義理論的引入與賦新

為了應對迅猛發展的人工智能技術對傳統正當程序理論的沖擊,美國學者率先提出了“技術性正當程序”①基于我國刑事訴訟理論概念適用習慣及本文語境,以下統稱為“技術性程序正義”。的概念:該理論認為,為了維護正當程序原則,自動化決策系統的設計和應用應當以透明度和問責制為首要目標。對此,可以通過優化當事人的被告知權、聽證權等權利保障以及設置具體規則或標準等形式,提高自動決策系統的透明度、可問責性與準確性,推動實現以自動化決策為代表的新興技術與正當程序規范的融合。②SeeDanielle Keats Citron, Technological Due Process,85 Washington University Law Review 1249,1250-1308(2008).簡言之,“技術性程序正義”理論通過強調透明性、準確性、可問責性、參與性等核心要素③SeeDanielle Keats Citron & Frank Pasquale, The Scored Society: Due Process for Automated Predictions, 89 Washington Law Review 1,20(2014).,為人工智能技術介入司法領域的程序正義保障提供了一個頗具啟發性的理論框架。

在當前人工智能廣泛且深度介入司法活動的現實情境下,我國理論界對作為舶來品的“技術性程序正義”理論展開了深入的本土化研究,并取得了一系列代表性成果。④參見李訓虎:《刑事司法人工智能的包容性規制》,載《中國社會科學》2021 年第2 期,第42-62 頁;劉東亮:《技術性正當程序:人工智能時代程序法和算法的雙重變奏》,載《比較法研究》2020 年第5 期,第64-79 頁;蘇宇:《數字時代的技術性正當程序:理論檢視與制度構建》,載《法學研究》2023 年第1 期,第91-107 頁。以刑事司法領域為例,有代表性觀點指出,為克服傳統程序正義理論對人工智能背景下刑事司法運作乏力甚至失靈的難題,避免刑事程序正義風險,應當考慮引入“技術性程序正義”理論內核,并據此詳細論證了“技術性程序正義”理論用以規制刑事司法人工智能的必要性與可行性⑤參見李訓虎:《刑事司法人工智能的包容性規制》,載《中國社會科學》2021 年第2 期,第56-59 頁。;在此基礎上,有學者從人的主體性和尊嚴理論、司法公信力理論以及分布式道德責任理論等方面出發,細致論證了刑事司法人工智能時代呼喚“技術性程序正義”理論的正當性,且就宏觀的刑事司法人工智能應用維度,初步提出了“技術性程序正義”理論的配套機制。⑥參見劉金松:《數字時代刑事正當程序的重構:一種技術性程序正義理論》,載《華中科技大學學報(社會科學版)》2023 年第2期,第24-28 頁。因此,引入“技術性程序正義”理論并結合我國人工智能司法運行實踐予以本土化改造,已經逐漸成為當前人工智能司法背景下程序正義保障的共識。

但值得注意的是,我國當下有關“技術性程序正義”理論的研究中,部分觀點十分推崇技術賦能對程序正義的保障作用,也即強調通過優化或升級人工智能算法技術的方式,實現“技術性程序正義”理論所追求的算法系統的透明性、準確性、可問責性以及參與性等基本價值目標。例如,有觀點認為,代碼編寫和算法設計的高度復雜性是造成算法不透明的核心原因之一,對此應當通過技術手段如開發相關技術措施,通過程序的代碼化提升算法運行的透明性①參見劉東亮:《技術性正當程序:人工智能時代程序法和算法的雙重變奏》,載《比較法研究》2020 年第5 期,第74-75 頁。;也有觀點主張,為應對自動化行政對正當程序的挑戰,應對自動化行政進行分級,根據程度不同的自動化來匹配相應的行政程序要素②參見張濤:《自動化行政對行政程序的挑戰及其制度因應》,載《華中科技大學學報(社會科學版)》2022 年第 5 期,第 67-68 頁。;此外,在刑事司法人工智能應用領域,也有觀點指出,應當在法治主義之上疊加“技治主義”,從數據治理、算法治理以及應用系統治理等層面建構技術性正當程序。③參見熊秋紅:《刑事司法中的人工智能應用探究》,載《上海政法學院學報(法治論叢)》2022 年第6 期,第113-114 頁。就基本觀點來說,上述技術性程序正義理論范式較為強調作為技術本身的“人工智能算法”的重要性,也即將技術賦能作為實現技術性程序正義的主要依托,而對其內在“以人為本”的價值理念關切不足,一定程度上忽視了以裁判者、當事人為代表的“人”在實現技術性程序正義過程中的內在主觀需求和基礎性作用。

應當承認,就基本意涵與核心要素而言,“技術性程序正義”理論包含兩方面的基本要求:一是進一步推進技術賦能,通過優化或升級人工智能算法技術的方式,不斷提升智能算法系統的透明性、準確性;二是立足于“以人為本”的價值理念,建構“一切為了人類的算法程序正義”④參見雷剛、喻少如:《算法正當程序:算法決策程序對正當程序的沖擊與回應》,載《電子政務》2021 年第12 期,第22 頁。,具體要求可以概括為:強化程序責任者的可問責性、保障程序參與者的可參與性。但應當明確的是,相較于強調“人工智能技術本位”的技術賦能理念,“以人為本”才是“技術性程序正義”理論的核心要求與價值依歸:一方面,人工智能技術的輔助性地位決定了,其發展完善必須堅持“以人為本”的價值理念,這已經成為一項基本共識;另一方面,從“技術性程序正義”理論的時代使命來看,其旨在建構契合人工智能司法運行邏輯的程序正義機制,防止人工智能算法技術的司法應用妨礙當事人基礎訴訟權利的行使。就此而言,技術性程序正義所關注的重心并非處于輔助地位的人工智能算法,而是實質參與訴訟、作為訴訟主體的人。在此意義上,注重技術賦能的人工智能,只是實現技術性程序正義的基礎性手段,而“以人為本”才是技術性程序正義的最終價值追求。因此,為防止人工智能司法背景下傳統程序正義理論的失靈,我們不僅需要將目光轉向技術性程序正義理論框架,更重要的是,還應當深刻意識到技術性程序正義所應然涵攝的、旨在對“人”賦權的“以人為本”基礎價值理念⑤參見蘇宇:《數字時代的技術性正當程序:理論檢視與制度構建》,載《法學研究》2023 年第1 期,第92 頁。,從而從理論高度實現對過度強調技術賦能主張的糾偏。

同時,應當強調的是,“以人為本”的技術性程序正義理論并不試圖取代傳統程序正義理論,而只是在人工智能算法時代,結合人工智能司法應用邏輯對后者予以重新詮釋,二者相互支撐,共同致力于人工智能司法背景下的程序正義保障。⑥參見李訓虎:《刑事司法人工智能的包容性規制》,載《中國社會科學》2021 年第2 期,第57 頁。具體到人工智能輔助量刑這一特定場景,以裁判者中立、當事人參與為代表的傳統程序正義理論內核,仍然是“以人為本”的技術性程序正義理論的核心追求;同時,基于其獨特程序運行邏輯,“以人為本”的技術性程序正義理論呈現出不同的具體要求與表現形式。

其一,以輔助量刑裁判者為導向的技術應用倫理。如前文所論,雖然人工智能賦能司法直接形塑了“人機協同”訴訟樣態及程序驅動模式,但本質上仍體現為“人主機輔”的程序責任分配格局。據此,在人工智能輔助量刑場景下,如何保障量刑裁判者的最終決策與責任承擔的主體地位,顯然是構建“以人為本”的技術性程序正義機制所需要認真對待的問題之一。然而,與傳統程序正義理論強調裁判者應當中立有所不同,“以人為本”的技術程序正義理論盡管也強調量刑裁判者的中立性,但鑒于智能量刑輔助技術的運用,其更加側重于強調量刑裁判者的自主意識與主體地位,這同樣是傳統裁判中立性的應然要求,旨在確保量刑裁判者不被人工智能技術權力所規訓,深化人工智能技術決策的輔助性與非決定性地位。

其二,以保障當事人量刑算法權利為核心內容的技術應用邏輯。人工智能技術依托其深度調配運用數據資源方面的機器優勢、架構優勢以及嵌入優勢,會逐漸形成一種事實上的技術權力。①參見張凌寒:《權力之治:人工智能時代的算法規制》,上海人民出版社2021 年版,第35-37 頁?;诹啃痰募訙p運算特征,這種技術權力邏輯在人工智能輔助刑事審判中往往表現得更為明顯。②參見衛晨曙:《刑事審判人工智能的權力邏輯》,載《西安交通大學學報(社會科學版)》2021 年第3 期,第142-144 頁。在此情況下,“以人為本”的技術性程序正義要求,應當及時將當前智能技術權力邏輯轉變為以人為中心的技術性權利邏輯。具體到人工智能輔助量刑場景,應當通過賦予當事人一系列新型量刑算法權利,如數據審查權、智能技術適用的自愿選擇權、算法解釋權以及不受算法自動決策約束權等,強化智能量刑算法本身的可知性、可理解性③依據2022 年《人工智能司法應用意見》的精神,包括智能輔助量刑技術在內的人工智能產品在司法應用時應當滿足公開透明的基本要求。但需要指出的是,人工智能技術運行的公開透明不代表人工智能技術本身及其原理能夠為用戶熟知。參見沈偉偉:《算法透明原則的迷思——算法規制理論的批判》,載《環球法律評論》2019 年第6 期,第28 頁。據此,在人工智能輔助量刑場景下,應當設置一系列面向當事人的量刑算法解釋機制,強化作為訴訟主體的當事人對作為輔助工具的量刑算法技術的實質性認知。,并對量刑算法決策程序予以訴訟化改造,以保障用戶端的當事人能夠及時發表意見,裁判者能及時聽取意見,進而達致技術性程序正義“以人為本”價值觀的兩個基本目標:(1)推進當事人實質性參與算法決策運行程序,并為其帶來程序上的可獲得感、尊嚴感、控制感以及參與感等主觀程序正義感受④See Jay Thornton, Cost, Accuracy, and Subjective Fairness in Legal Information Technology: A Response to Technological Due Process Critics,91 New York University Law Review 1821,1848-1850(2016).;(2)通過賦予當事人一系列實質性算法權利實現對人工智能技術潛在權力屬性的制約。

“刑事訴訟法學研究與立法改革在關注法治、正義等宏大敘事話語的同時,也應當將注意力放到刑事訴訟制度操作者身上,畢竟后者才是實現法治化的最終力量?!雹葑笮l民:《刑事訴訟中的“人”:一種主體性研究》,載《中國法學》2021 年第5 期,第96 頁。通過對技術性程序正義理論“以人為本”價值內核的挖掘與解讀,本文為人工智能輔助量刑場景下的量刑程序正義保障難題提供了相對清晰的解決思路,即在關注和強調參與量刑程序的“人”的主體性地位的基礎上,推動實現以“人的正義”為中心的技法融合。需要特別強調的是,“以人為本”的技術性程序正義理論涉及兩方面的訴訟主體:一是就技術應用而言,智能量刑輔助技術本質上是量刑裁判者的司法輔助手段。也即,“以人為本”的技術性程序正義理論強調智能量刑輔助技術的功用屬性以及量刑裁判者的司法主體地位、責任要求;二是在法律功能層面,“以人為本”的技術性程序正義理論強調量刑程序的法律保障功能,并賦予被追訴人一系列新型的算法權利。

(二)制度建構:量刑算法決策程序的訴訟化改造

前文論及,囿于立法規定,當前我國并未形成一套明確且具有可操作性的量刑算法決策正當程序機制,由此導致實踐中量刑算法決策程序呈現出封閉化的運行邏輯。為解決當下量刑算法決策正當程序方面存在的“廣泛的實踐需要”同“滯后的立法供給”之間的矛盾,首先應當盡快完善有關量刑算法決策的立法規定,以期為量刑算法決策正當程序機制的建構提供規范指引。對此,就未來有關量刑算法決策的基本立法思路而言,應當考慮以“技術性程序正義”理論為指導,堅持“以人為本”的價值理念,推動原有“義務型”立法邏輯轉向以新型算法權利為基礎的“權利型”立法邏輯。主要有以下原因:

其一,權利保障的緊迫性。人工智能介入刑事司法的最大危機在于不斷消解當事人參與訴訟的行動空間、影響范圍以及救濟渠道,虛化被追訴人應然享有的訴訟權利。①參見余鵬文:《現象、原理與規制:人工智能司法與刑事程序正義的融合之路》,載《天府新論》2023 年第1 期,第122 頁。然而,《人工智能司法應用意見》中“安全合法”“公平公正”“輔助審判”“透明可信”“公序良俗”等規定,主要是從義務層面確立了人工智能司法應用的正當程序原則,而一定程度上忽視了作為訴訟主體的人的新型算法權利,因而使得其欠缺有效參與量刑算法決策程序的直接性規范依據。

其二,域外成熟經驗的鏡鑒。面對算法決策風險,當前以歐盟為代表的立法者側重于通過數據保護框架賦予數據主體選擇權、控制權等新型算法權利,尋求保障算法決策的透明、公平和負責之道。②參見張欣:《人工智能時代的算法治理:機制與方案》,法律出版社2022 年版,第6 頁。例如,根據歐盟2016 年批準通過,并于2018 年生效的《通用數據保護條例》第22 條規定,相關數據主體在算法決策中享有免受僅基于單獨自動化決策支配權、對算法決策異議權以及獲得人工干預權等個體算法權利。以上述新型算法權利為基礎,歐盟逐漸建構了算法決策的正當程序框架。③See Margot E.Kaminski, The Right to Explanation, Explained,34 Berkeley Technology Law Journal 189,204(2019).

其三,量刑程序規范化改革的內在要求?!兑幏读啃坛绦蛞庖姟愤M一步擴充了被追訴人、被害人等在內的訴訟當事人在量刑程序中享有的權利,其以“權利制約權力”為底層邏輯的量刑正當程序改革目標日趨明顯。據此,轉向賦予當事人新型算法權利的權利型立法邏輯,實際上與我國當下同樣以權利為底層邏輯的量刑程序規范化改革相契合。

基于上述“權利型”立法邏輯以及“以人為本”的技術性程序正義理論進路,本文認為,應當推動量刑算法決策從封閉化的技術實用主義轉向變為開放性的法治保障邏輯,對量刑算法決策的程序運行予以法治化改造,以期建構契合量刑程序規范化改革的量刑決策算法正當程序機制。

其一,應當明確被追訴人就是否適用智能量刑輔助技術的自愿選擇權。對此,法官應當就智能量刑輔助技術及其適用后果等事項充分告知被追訴人,使其自由決定是否需要適用量刑算法決策系統。

其二,應當賦予被追訴人對類案量刑信息大數據的審查權。類案量刑信息大數據的全面性和準確性是量刑算法正確決策的前提,一旦其提取的量刑信息不完整,則決策結果就有可能失準。①參見熊秋紅:《刑事司法中的人工智能應用探究》,載《上海政法學院學報(法治論叢)》2022 年第6 期,第113 頁。因此,為了防止因類案量刑信息大數據不完整引發的量刑算法偏見,應當賦予當事人特別是被追訴人的數據審查權,以期實現量刑算法偏見風險的溯源治理。

其三,當事人應當享有以量刑算法解釋權、發表意見權、質證權為核心的實質性參與權利。其中,量刑算法解釋權表現為對量刑算法決策運作機理的可知,這不僅是當事人作為用戶端主體知曉并理解量刑算法運行邏輯的權利,也是其行使技術性正當權利、防止算法決策武斷恣意、促進算法決策可信公正的關鍵。②參見張欣:《人工智能時代的算法治理:機制與方案》,法律出版社2022 年版,第21 頁。為保障當事人特別是被追訴人量刑算法解釋權的實現,可以探索建立量刑算法決策系統技術人員出庭說明情況機制,在確保量刑算法運行及其決策的可理解性與可解釋性的同時,將上述人員納入責任制框架之內。③參見[瑞典]弗吉尼亞·迪格納姆:《負責任的人工智能何以可能?》,謝蓉蓉、陳明晰、程國建譯,上海交通大學出版社2023 年版,第73-74 頁。此外,在實質性的量刑算法解釋權的基礎上,還可以進一步允許當事人就量刑算法決策中的不同看法發表相關意見,或者基于技術水平等因素對量刑算法決策的可靠性進行質證④參見鄭曦:《司法人工智能運用背景下的被告人質證權保障》,載《政法論壇》2022 年第6 期,第53 頁。,供法官量刑裁判時參考。

其四,應當賦予當事人特別是被追訴人相對的、停止適用智能量刑輔助技術的退出權。一方面,智能量刑輔助技術本質上是量刑裁判的輔助性工具,因而當事人應當享有選擇適用以及退出適用的主導權。易言之,被追訴人一方就量刑算法決策程序的自愿選擇并非不可逆。⑤有觀點認為,雖然被追訴人享有量刑算法決策程序的自愿選擇權,但該選擇是不可逆的。被追訴人一旦選擇適用量刑算法決策程序,則無法中途退出。本文對此觀點持反對意見。參見張玉潔:《智能量刑算法的司法適用:邏輯、難題與程序法回應》,載《東方法學》2021 年第3 期,第197 頁。同時,為了防止因肆意退出人機交互可能導致的訴訟資源浪費與訴訟效率低下,可以考慮對當事人的退出權予以適當限制。例如,如果當事人能夠就類案量刑信息大數據的完整性、量刑算法決策運行的透明性、可知性等方面提出具有一定證據支持的異議,法官應允許其退出智能量刑輔助技術的適用,轉而回歸傳統量刑程序。

其五,構建體系性的量刑算法決策訴訟化運行機制,還應當賦予當事人量刑算法決策運行的救濟權。例如,可以考慮將上述當事人量刑算法權利受侵害情形作為提起上訴、發回重審的具體事由,在相應的救濟程序中予以審查、救濟。⑥參見程龍:《人工智能輔助量刑的問題與出路》,載《西北大學學報(哲學社會科學版)》2021 年第6 期,第173 頁。

(三)嚴格司法適用:量刑裁判的智能算法依賴規制

在人工智能輔助量刑場景下,作為整個量刑程序的責任主導者,法官有關智能量刑輔助技術的司法適用將直接關涉量刑程序正義的實現與否。因此,面對當前可能存在的“對智能量刑輔助技術的路徑依賴”“對智能量刑輔助意見的結果依賴”等司法適用風險,應當以“以人為本”的技術性程序正義理論為指導,及時予以理論層面的回應。為此,以下將從“嚴格司法適用”維度設計具有針對性的風險防范與治理方案,以期鞏固人工智能輔助量刑場景下法官的司法自主意識、主體地位,強化法官的量刑程序主導責任,確保智能量刑輔助技術被負責任地適用。

1.嚴格限制智能量刑輔助技術的適用場域

前文論及,當前智能量刑輔助技術案件適用范圍限制的規范缺失,是導致量刑裁判者產生智能算法依賴風險的關鍵原因。因此,在賦予被追訴人智能量刑輔助技術適用選擇權的基礎上,還有必要從規范層面框定智能量刑輔助技術的適用場域,其主要原因在于:(1)人工智能技術理性的有限性。由于當前我國的智能量刑處于起步階段,智能量刑輔助技術運用尚未完全成熟①參見李立豐、齊弋博:《智能量刑算法決策與刑事自由量刑裁量權的差異與融合》,載《科技與法律(中英文)》2022 年第1 期,第15 頁。,因而面對包含復雜或特殊量刑事實、量刑情節的重大案件,智能量刑輔助技術很難實現精準的量刑信息識別、提取與個案匹配。在此情況下,如果強行適用智能量刑輔助技術,只會徒增量刑預測偏差的風險。(2)以審判為中心訴訟制度改革要求的必然性。刑事庭審實質化作為以審判為中心訴訟制度改革的共識性目標,旨在要求貫徹直接言詞規則,保障辯護方質證權利,保障當庭裁判等一系列具體制度的施行。在人工智能輔助量刑場景下,如果不對智能量刑輔助技術的案件適用范圍予以適當限制,那么“每個案件都適用智能量刑輔助技術”的實踐圖景并非不可能;在此情況下,無處不在的智能量刑算法將可能嚴重沖擊已有的以審判為中心的訴訟制度改革,如顛覆直接言詞原則、減少司法裁判親歷性等②參見胡銘、張傳璽:《人工智能裁判與審判中心主義的沖突及其消解》,載《東南學術》2020 年第1 期,第217 頁。,甚至從“審理者裁判、裁判者負責”的應然圖景異化為“法官審理、算法裁判”。③參見張玉潔:《智能量刑算法的司法適用:邏輯、難題與程序法回應》,載《東方法學》2021 年第3 期,第194 頁。

在明確智能量刑輔助技術并非應然適用于任何案件類型的理念基礎上,需要進一步解決的問題是,應當如何合理劃定案件適用范圍。對此,本文認為,應當將智能量刑輔助技術的適用限定在“可能判處三年及以下刑罰的”輕罪案件場域④參見李立豐、齊弋博:《智能量刑算法決策與刑事自由量刑裁量權的差異與融合》,載《科技與法律(中英文)》2022 年第1 期,第15 頁;胡銘、張傳璽:《人工智能裁判與審判中心主義的沖突及其消解》,載《東南學術》2020 年第1 期,第220 頁。,原因可從兩個層面予以把握:其一,基于技術上的可行性。不同于重大復雜案件中蘊含較多的量刑信息要素,輕罪案件中的量刑事實、量刑證據等往往較為簡單、明了,人工智能技術在介入量刑時不存在太多的技術難題⑤參見胡銘、張傳璽:《人工智能裁判與審判中心主義的沖突及其消解》,載《東南學術》2020 年第1 期,第220 頁。,有助于保障量刑算法決策的精確性。其二,契合輕罪治理理念。近年來,隨著我國刑事犯罪結構的變化,輕罪治理理念應運而生。⑥參見戴佳、劉怡廷、黃越:《匯聚各界智慧力量共議輕罪治理良方善策——“輕罪治理現代化的理論與實踐”學術研討會綜述》,載《檢察日報》2023 年4 月7 日,第3 版。其中,在程序方面,“積極探索適應輕罪案件自身特點的刑事訴訟規則和審判規則”⑦參見盧建平、吳宏耀、劉辰等:《輕罪治理現代化的推進路徑》,載《人民檢察》2023 年第1 期,第50 頁。是輕罪治理理念的重要內涵。據此,將智能量刑輔助技術的適用框定在輕罪案件領域,能夠將量刑算法自動化決策優勢與實踐中輕罪案件高頻性、簡單性等特點有機結合,有助于彰顯鮮明的輕罪治理現代化理念。

鑒于實踐中重大疑難復雜案件的有限性,以輕罪案件作為智能量刑輔助技術的適用邊界,實際上意味著大部分案件都可以納入智能量刑輔助技術的適用范圍。由此,量刑裁判者在判斷是否適用智能量刑輔助技術時,需要遵循以下邏輯步驟,二者層層遞進,缺一不可:首先審查待決個案是否屬于輕罪案件;其次,在此基礎上進一步履行告知義務,審查被追訴人是否具有選擇適用的自主意愿。上述任何一個適用條件不能滿足的,即不應適用智能量刑輔助技術。

2.嚴格限制智能量刑輔助意見的適用程序

為矯正潛在的“量刑裁判者對智能量刑輔助意見的結果依賴”的司法適用風險,確保量刑裁判者的主體地位以及當事人對量刑裁判過程的實質性參與,應當對智能量刑輔助意見的適用程序予以嚴格限制。其一,明確智能量刑輔助意見的法律屬性。雖然《人工智能司法應用意見》將智能量刑輔助意見定位為量刑裁判的參考材料,但未言明量刑裁判者應當如何“參考”以及當事人是否有權參與“參考”過程,因而容易造成實踐適用的混亂。為此,可以考慮在立法層面明確智能量刑輔助意見的規范性參考材料性質。這一定位優勢在于:一方面,有助于明確智能量刑輔助意見的法定輔助地位,即屬于規范性參考材料而非任意性參考材料。規范性參考材料與任意性參考材料屬性的核心區別在于,前者是一種法定參考材料,量刑裁判者必須將其作為裁判結果的參考依據,無論最終是否采納都應當予以充分的闡釋;后者則對量刑裁判者沒有法定拘束力,量刑裁判者是否采納、是否予以說理有賴其個人正義良知,欠缺規范意蘊。①參見甄航:《人工智能介入量刑機制:困境、定位與解構》,載《重慶大學學報(社會科學版)》2023 年第4 期,第196 頁。就此而言,將智能量刑輔助意見定位為規范性參考材料,也與量刑程序規范化改革的價值內涵相一致。另一方面,規范性參考材料的性質定位不僅能夠為量刑裁判者的參考適用提供規范約束,同時也為當事人參與評價智能量刑輔助意見提供了規范依據,有助于解決當前智能量刑輔助意見因性質定位模糊而無法得到控辯雙方質證性檢驗的困境,從而強化人工智能輔助量刑場景下控辯雙方對量刑裁判結果的形塑力。

其二,設置有關智能量刑輔助意見的異議聽證程序。將智能量刑輔助意見定位為規范性參考材料,意味著其無法以量刑證據的形式直接進入訴訟程序并接受控辯雙方的質證。鑒于人工智能技術在價值判斷與道德推理等方面存在先天性缺陷②參見魏斌:《智慧司法的法理反思與應對》,載《政治與法律》2021 年第8 期,第123 頁。,為防止量刑裁判者壟斷對智能量刑輔助意見的評價權,輕信甚至迷信智能量刑輔助意見,應當賦予當事人特別是被追訴人享有對采納智能量刑輔助意見的異議權、否決權。為此,在決定適用智能量刑輔助技術時,量刑裁判者應當以書面形式履行程序告知義務。在此基礎上,對被追訴人及其辯護人明確提出異議的案件,可以考慮設置專門的異議聽證程序。有關智能量刑輔助意見的異議聽證程序,需要明確以下兩點內容:(1)在制度優勢方面,由于聽證程序深度契合“決定的準確性”“公正的外觀”“可預測性、透明性、合理性”以及“參與性”等正當程序價值①SeeKate Crawford & Jason Schultz, Big Data and Due Process: Toward a Framework to Redress Predictive Privacy Harms, 55 Boston College Law Review 93,127(2014).,因此,依托專門的異議聽證程序,當事人能夠通過訴訟化方式充分行使其智能量刑輔助意見異議權,并對智能量刑輔助意見的合理性發表實質性意見,進而推動量刑裁判者在訴訟構造下進行公正的“參考”。(2)在制度設計方面,建議以現行刑事相關聽證程序規范為參照,構建適宜且凸顯“以人為本”價值理念的異議聽證程序。例如,該項異議聽證程序至少應當具備以下核心要素:首先,適用條件。該聽證程序應當以保障辯護權為導向。立足辯護方的異議權,辯護方對智能量刑輔助意見提出異議的,可以申請聽證;量刑裁判者認為確有必要時,也可以依職權自行啟動聽證程序。其次,參與主體的多元化。即除當事人、量刑裁判者外,還可以考慮吸收相關領域的算法工程師、實務專家等參與。再次,證明方式的簡易化。為保障參與異議聽證程序各方意見的充分發表,應考慮采用自由證明的證明方式。最后,聽證結果的拘束力。通過聽證,認定異議成立的,則該項智能量刑輔助意見不得作為量刑裁判的依據,并予以排除;認定異議不成立,量刑裁判者可以將該智能量刑輔助意見作為量刑裁判的直接依據。

其三,強化裁判文書中有關智能量刑輔助意見的論證說理。前文業已提及,當前智能量刑輔助技術雖然可以自動生成裁判文書,但在內容與邏輯上仍有明顯缺陷,仍需要以法官的認知理性填補技術理性的不足。在此情況下,為了保障智能量刑輔助意見司法適用的透明性與可解釋性,應當嚴格裁判文書中有關智能量刑輔助意見適用的釋法說理。對此,量刑裁判者應當重點就該智能量刑輔助意見的生成根據,當事人就該智能量刑輔助意見的適用意見(如果適用異議聽證程序的,還應載明異議聽證過程和結論),以及量刑裁判者本人有關參考該智能量刑輔助意見過程中的價值判斷等部分予以充分分析、論證。此外,為了敦促量刑裁判者切實重視智能量刑輔助意見適用的釋法說理,應當強化量刑裁判者在此過程中的可問責性。對此,可以考慮將智能量刑輔助意見適用說理作為量刑上訴程序的重點審查對象,并對諸如說理不充分,甚至不說理等情形予以發回重審救濟。

五、結語

“如果刑事司法系統繼續依靠算法來增強決策能力,就有必要積極參與快速發展的技術領域,并制定新的保障措施和原則,以維護和保護個人權利,使其免受基于機器學習的風險評估任意性的影響?!雹赱加]費爾南多·阿維拉、凱莉·漢娜-莫法特、波拉·毛魯托:《誘人的公平:機器學習是答案嗎? 刑事司法系統中的算法公平》,載[荷]馬克·舒倫伯格、里克·彼得斯編:《算法社會:技術、權力和知識》,王延川、栗鵬飛譯,商務印書館2023 年版,第146-147 頁。因此,在擁抱刑事司法人工智能化的同時,如何將人工智能技術的刑事司法應用納入程序正義的軌道予以規制,是當前我們面臨和亟待研究的新課題?;诋斍爸悄芰啃梯o助技術在我國刑事司法實踐中廣泛應用的現實情境,以及近年來持續推進的量刑程序規范化改革背景,相關程序正義理論研究不能僅止于較為宏觀的人工智能刑事司法應用角度,還應當聚焦于人工智能輔助量刑這一特定場景。

有鑒于此,本文試圖專門深入人工智能輔助量刑這一特定但實踐中頻發的場景,從程序角度解構其獨有的程序面向,同時揭示其運行過程中可能存在的程序正義風險,并在此基礎上提出體系化的風險治理方案,以期為人工智能輔助量刑場景下的量刑程序正義及量刑程序規范化提供智識幫助。此外,可以預見的是,隨著未來人工智能技術的愈發完善,其適用范圍將會越來越廣。因此,本文有關人工智能輔助量刑特定場景下程序正義的反思與重塑努力,還旨在為其他特定刑事司法人工智能應用場域下的程序正義保障研究提供一個可供借鑒和批評的理論框架。

猜你喜歡
量刑裁判正義
刑事程序法向度的量刑規范化研究
從出文看《毛詩正義》單疏本到十行本的演變
法官如此裁判
法官如此裁判
法律裁判中的比較推理
清代刑事裁判中的“從重”
有了正義就要喊出來
倒逼的正義與溫情
論自首在量刑中的適用
潛逃歸案疑犯的量刑規范
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合