?

生成式人工智能司法應用的風險與出路

2024-04-13 01:27徐恩平
中阿科技論壇(中英文) 2024年1期
關鍵詞:裁判法官司法

徐恩平

(安徽大學法學院,安徽 合肥 230031)

2022年末,OpenAI公司研發的ChatGPT一經發布便引爆全球,憑借其強大的文字處理能力和快速的問題應對能力在短短幾個月內贏得了大眾的青睞,使得生成式人工智能在短時間內成為各領域、各行業的熱點。另外,Meta AI開發了BlenderBot 3聊天機器人,OpenAI開發的DALL-E-2能夠利用算法自行創作圖片,GPT Engineer能夠通過一個簡短的提示語創建完整的APP。在此背景下,國內的生成式人工智能研發也在高速發展,例如百度發布的“文心一言”語言生成模型等。

生成式人工智能的應用范疇涵蓋文本生成、圖像生成、音視頻生成等領域,能夠進行聊天對話、創作藝術作品、生成原創音樂、完成代碼編寫和初步的算法設計,并且未來有可能通過利用多模態數據在教育領域取得重大進步[1]。隨著“數字法治、智慧司法”信息化建設的推進,包括生成式人工智能在內的各種人工智能工具在司法中的運用日益增多。因此,研究生成式人工智能應用于司法這一特殊問題就變得非常必要。

司法在面對新興技術時總是持嚴謹的態度。當生成式人工智能與司法融合時,既要防止科學技術對司法的反噬,又要避免保守心理阻礙司法的發展。本文以生成式人工智能本身的特點為出發點,總結生成式人工智能應用于司法的優勢,并結合我國司法的實際情況,分析其應用于司法領域面臨的風險,以化解風險為目的,從理論與實踐兩方面思考司法領域應當如何應對生成式人工智能的沖擊,迎接科技發展的挑戰。

1 生成式人工智能的界定與特點

1.1 生成式人工智能的界定

生成式人工智能,是指一類基于深度學習的機器學習模型,它們可以通過學習大量數據來生成新的、與原始數據相似但并不完全相同的數據。這種數據生成的過程通常是通過給定一些初始條件(如噪聲向量)作為輸入,然后使用深度神經網絡和概率模型來逐步生成新的數據。生成式人工智能可以創建各種數據,如圖像、視頻、音頻、文本和3D模型,其典型任務涉及生成高維數據,如文本或圖像。這種生成式內容也可用于合成數據,以減輕深度學習海量數據的需求[2]。對于生成式人工智能的界定,我國2023年7月13日發布的《生成式人工智能服務管理暫行辦法》規定,生成式人工智能技術是指具有文本、圖片、音頻、視頻等內容生成能力的模型及相關技術。

生成式人工智能演化計算的能力在人工智能算法中最為突出。演化計算是一種以人類進化為靈感的優化算法,通過基于人群的引導式搜索,以編碼設置問題,進行大數據庫的搜索、篩選、更新,對生成的結果不斷進行篩選、更新、試錯后提高算法的適應度,并以設置的問題作為其深度學習的內容,不斷拓展和完善數據。目前演化計算已經覆蓋了人工智能的各個分支體系,尤其在計算機視覺和自然語言處理中取得了巨大的突破。

1.2 生成式人工智能的特點

生成式人工智能的特點可以概括為以下三個方面。

第一,海量化的預訓練數據。生成式人工智能通過在海量化數據中進行預訓練,這些數據來源于互聯網、書籍、百科全書等眾多內容,使其能夠適應多種任務場景。

第二,長距離理解上下文語義的能力。生成式人工智能主要依賴于Transformer結構,其通過自注意力機制、多頭注意機制來捕捉文本中不同位置之間的關聯關系,從而關注到文本中較遠的上下文信息[3]。這一能力使得生成式人工智能可以更好地理解和解釋相對復雜的邏輯推理、句子結構和上下文關系,并且能夠根據設置的問題提供更加精準的回答,基本上不會出現答非所問的情況。例如,在商業使用場景中,生成式人工智能在提供法律咨詢服務、文本摘要、機器人客服等領域展現出其強大的應用價值。

第三,少樣本、零樣本的學習能力。生成式人工智能基于其強大的表達能力,通過學習數據之間的語義關系和邏輯關系,從而產生“自己的算法理解”,不需要提供任何的案例展示即可完成指定的任務,具有高度的自由化和靈活性[4]。此種自適應學習能力可以識別大量信息之間的關聯,建立起龐大的知識網絡,為人工智能未來的發展提供了新的方向。

2 生成式人工智能司法應用的價值

2.1 提高司法審判效率

在法治社會背景下,隨著人們法律意識的提高,越來越多的人選擇通過法律途徑解決糾紛。根據最高人民法院公布的數據,我國地方各級人民法院和專門人民法院受理案件的數量龐大且仍呈上升趨勢,導致“案多人少”的問題日益突出,法官的工作負擔和工作壓力持續增加。因此,如何提升司法審判的效率是我國司法長期面臨的難題之一。

首先,將生成式人工智能技術引入司法審判過程,可以利用其長距離理解上下文語義的能力,在案情復雜、證據材料繁多的案件中對整體案情進行總結,提取爭議焦點,幫助法官節省庭前準備的時間,提高庭審的效率。目前,國外已有借助生成式人工智能輔助判案的案例,在Loomis v.Wisconsin一案中,法院使用了COMPAS智能評估工具對Loomis的社會危險性進行評估,并參考該評估報告作了量刑裁判①。2023年1月30日,哥倫比亞法官胡安·加西亞(Juan Garcia)借助ChatGPT作出了一份關于孤獨癥患者免于支付治療費用而獲得醫療服務的法庭裁決[5]。

其次,針對相似判例自動形成判決書等法律文書也是生成式人工智能應用司法的優勢所在。生成式人工智能通過對司法數據庫同類型判例的深度學習后,結合輸入案件事實數據,自主形成判決書。法官對生成式人工智能形成的文書進行修改便可完成法律文書的寫作,從而提高法官寫作文書的效率,緩解當前“案多人少”的問題?,F如今,隨著我國智慧法院的建設,人工智能已經被廣泛地應用于起訴立案、證據交換、審前程序、庭審、送達、法律適用、執行等環節[6],例如,上海刑事案件智能輔助辦案系統(又稱206系統)支持“判決書”“裁定書”“調解書”“決定書”等法律文書的在線制作,并提供相應模板;還有北京市高級人民法院“睿法官”智能研判系統等多種類型的司法人工智能系統面世。

2.2 促進同案同判

同案同判是司法正義的一項重要原則,也是普通民眾衡量司法公正性的關鍵標準之一。同案同判是指在對同一類型或同一構成要件的案件進行審判時,法官應保持判決結果無明顯差異。

生成式人工智能憑借其少樣本、零樣本的學習能力,能夠根據之前相同或者相似的判例形成“人工智能判決”,從而起到輔助法官審判的作用。由于法律語言具有一定的模糊性,不同的法官可能會因個人經驗和實踐背景對同一法律條文產生不同的理解,導致在適用法律和價值判斷上存在一定的分歧,甚至出現同案不同判的情況。而生成式人工智能通過對司法數據庫中的相同或相似樣本進行分析,給出對判決結果的預測和評估。當法官的自由心證結果與預測結果偏差過大時,生成式人工智能可以起到提醒法官的作用,從而在一定程度上對提高司法裁判質量,對實現同案同判目標起到推動作用,這也有助于避免法官在高強度的審判工作中出現失誤。

2.3 推動司法裁判發展

關于“人工智能法官”的討論由來已久。生成式人工智能憑借其深度學習能力、語言分析能力以及文字生成能力讓人工智能審判成為可能。

第一,生成式人工智能在司法領域的應用促進了司法裁判權的分配。在中國特色社會主義法治體系中,裁判權由法官獨占仍是訴訟的基本原則,然而生成式人工智能的介入很可能改變此種現實。例如,在法官使用生成式人工智能輔助書寫法律文書的場景之下,法官通過使用生成式人工智能形成的“預判決”中的部分或者全部內容,最終形成了裁判結論。法官引用生成式人工智能形成的“預判決”這一行為一定程度上也促使了生成式人工智能作為裁判者參與了司法裁判過程。在此類案件中,生成式人工智能對于案件的判決有著一定程度的決定權,甚至可以說已經獲得了一部分裁判權。盡管短期內生成式人工智能因受制于技術不成熟和司法倫理問題而不能作為擁有裁判權的主體,但從提高訴訟效率、降低錯案概率等方面考慮,未來生成式人工智能享有裁判權很有可能變成事實。

第二,生成式人工智能促進裁判說理方式發生改變。生成式人工智能對于海量司法案件的深度學習和語言分析幫助法官從之前的判例中提取有用的信息,從而法官針對其所作出的判決進行說理。例如,2023年1月,美國哥倫比亞法官在裁判書中的說理部分引用了法官本人與ChatGPT的對話,并以此作為了其裁判的依據[7]。這種新的裁判依據和說理方式的引入,使得法官可以在某些專業領域借助生成式人工智能的幫助提升裁判的專業度,避免因為專業性知識的缺失而導致裁判的不公正。

3 生成式人工智能司法應用的風險

3.1 生成式人工智能有違司法裁判公正公開原則

3.1.1 數據歧視有違司法公正原則

生成式人工智能的運行機制是通過對先前的司法判例進行深度學習從而作出預測性的判斷[8]。然而,其在學習先前裁判經驗的過程中,也可能會學習到其中的價值偏見,出現“偏見進,偏見出”的情況[9]。例如,智能語音助手對于不同口音或語速的用戶存在不同的識別率,對于一些特定群體如女性、少數族裔等的識別率可能較低。另外,一些招聘平臺也被發現存在數據歧視的問題,即某些特定職位或公司的招聘廣告的展示結果會比其他職位或公司更好,這也可能導致不公平的結果。展示結果指的是招聘廣告在招聘平臺上的展示效果,包括展示的頻率、位置、曝光量等。在存在數據歧視的情況下,某些特定的職位或公司的招聘廣告的展示效果會比其他職位或公司更好,這可能導致一些更優秀的求職者沒有看到這些招聘廣告,從而錯失了機會,造成不公平的結果??梢?,生成式人工智能算法基于數據的預測并不能完全保障司法裁判的公正性[10],反而有可能造成特定群體遭受不公平對待。

雖然生成式人工智能可以在一定程度上減少法官自身的主觀偏見對裁判結果的影響,但是其數據本身存在的“天然缺陷”也存在導致裁判有失公正的風險。在司法人工智能高效運行的情況下,這些隱藏在數據庫中的“算法歧視”有可能被運用到司法裁判中,進而惡化司法領域業已存在的不平等現象,對現代社會的司法公正價值形成挑戰。

3.1.2 “算法黑箱”有違司法公開原則

生成式人工智能因具有深度學習的能力,其算法與邏輯會隨著其預訓練數據的改變而改變,從而能夠更好地輔助司法。但算法邏輯的改變,會讓人無法把握算法的運行規律。底層算法的保密和算法邏輯的改變這兩大因素的疊加,導致生成式人工智能在應用過程中存在著無法避免的“算法黑箱”問題,有違司法公開原則。

首先,底層算法的保密?;诩夹g保密和商業秘密保護等的要求,生成式人工智能的算法具有封閉性和秘密性。在司法應用場景中,若算法編寫公司或機構為獲取某些商業利益或不正當利益,通過秘密封閉的算法在不為人知的情況下刻意影響裁判的結論,那么司法的公平與公正就無法得到保證。例如,在Loomis v.Wisconsin一案中,法院在量刑環節使用了COMPAS工具對Loomis的社會危險性進行評估。受制于COMPAS專利方面的保密性要求而不得公開該人工智能算法,Loomis質疑COMPAS工具的準確性和科學性而提起訴訟[11]。在我國,司法人工智能系統一般是由司法機關外包給人工智能公司進行建構,其算法本身就受知識產權的保護,公司基于商業利益的考慮也更傾向于對算法進行保密。

其次,算法邏輯的改變。生成式人工智能算法邏輯通常通過學習大量的數據來訓練,當輸入信息改變時,算法邏輯會對新的輸入信息進行學習,并更新其內部表示。這種改變可能會導致生成式人工智能產生不準確的結果,同時當前的算法邏輯也會因為發生改變而變得不為人知,這有違司法公開原則。例如,微軟的 Tay 聊天機器人是一個基于文本生成的人工智能系統,其算法邏輯是基于循環神經網絡(RNN)和長短期記憶(LSTM)網絡等深度學習模型進行訓練的。然而,在 Tay 發布后不久,一些惡意用戶通過輸入惡意指令和關鍵詞,成功地誘導 Tay 的算法邏輯發生改變,生成了虛假信息和性別歧視等不良言論,微軟也不得不緊急下架 Tay 并對其進行改進。

3.2 生成式人工智能沖擊現有司法制度

3.2.1 誘發司法責任歸責風險

生成式人工智能可以自動分析和解釋大量的案情與法律文本,輔助法官作出“預判決”,在一定程度上提高了法官的審判效率。但是生成式人工智能引入司法也會導致“去責任化”的趨勢。如果出現錯誤裁判,按照常理來說,應當由法官承擔相應的責任。但如果錯誤判決是因為生成式人工智能的輔助判決影響了法官的自由心證,那么生成式人工智能系統的開發者和法官之間司法責任的承擔比例和方式將會難以明確。若由生成式人工智能系統的開發者單獨承擔,法官無須承擔任何相關責任,這顯然不合理;若由生成式人工智能系統的開發者與法官共同承擔,在確定責任比例和大小的過程中會因為沒有相關法律規制導致出現責任推諉的情況。這兩種情況都將使得錯案責任追究的規定因無法執行而被架空,也使得司法責任制保證法官盡職勤勉、預防錯案的目標難以實現[12]。

3.2.2 法官主體性地位受到挑戰

第一,生成式人工智能可能會對司法公信力產生挑戰。首先,生成式人工智能在司法審判中缺乏主觀能動性。雖然生成式人工智能相比法官來說有著更嚴密的論證過程和更加精準、專業的知識儲備,但它始終無法依托人類情感、政治因素和內在法理去對案件的事實與價值作出精準的判斷。因此,其作出的“預判決”往往無法獲得公眾的認同。其次,司法公信力來源于公眾對法官和公權力的信任。當法官和公權力被弱化,司法判決很有可能會因為人工智能的過度使用而遭遇信任危機。再次,生成式人工智能在司法審判中缺乏靈活性。在司法大眾化的今天,社會公眾的道德觀念不斷滲透到司法活動中,面對一些引發較大輿情的敏感案件,法官的司法推理也會愈發復雜。針對一些疑難案件,法官審理時需考慮政治與社會因素,往往形成的判決都是創造性的判決,并不是生成式人工智能所能完成的。生成式人工智能只能基于現有的數據和既定的算法生成判決,缺乏價值觀導向和社會價值判斷,難以獲得人民群眾的認可,從而可能導致司法公信力的缺失。

第二,生成式人工智能過度干預司法可能導致法官的自由裁量權受限。例如,江蘇省蘇州市中級人民法院研發了“法信”智能輔助辦案系統,該系統能夠根據案件信息自動生成裁判文書,輔助法官快速完成案件審理;浙江省高級人民法院的“鳳凰金融智審”系統實現了無人工的智能審判流程。此外,在輔助量刑、類案推送等領域,生成式人工智能也存在干預法官自由裁量權的風險。如果法官形成的自由心證和判決與生成式人工智能的“預判決”存在較大差異,而法官堅持自己的決策并作出判決時,可能需要承擔更多的論證說理責任。在這種情況下,法官可能會為降低風險而選擇妥協,導致其喪失依據個人自由意志進行判斷的權利。

3.3 生成式人工智能的自限性缺陷無法突破

3.3.1 生成信息的不穩定性

生成式人工智能在面對相同問題時,可能會產生不一致的回答。這是因為生成式人工智能的結果是結合其預訓練庫的數據、輸入問題的語序、語言邏輯等多重因素共同作用,通過其算法生成的。當法官在生成式人工智能系統中輸入的問題語序、語言邏輯發生變化時,其生成的“預判決”也可能因此而發生改變,這種結果的不穩定性與司法判決的嚴謹性、公正性背道而馳。

3.3.2 數據質量不高

生成式人工智能的特點決定了其并不能像人類一樣識別信息的真假,很可能將網絡上的虛假信息納入其預訓練的數據庫,這會導致其生成的結果受到虛假信息的干擾而真實性存疑。2023年國家互聯網信息辦公室等七部門聯合發布的《生成式人工智能服務管理暫行辦法》中就強調了訓練數據的真實性問題。

在保證數據真實性的基礎上,司法數據的內容質量也至關重要。從中國裁判文書網公布的司法數據來看,由于公布裁判文書的具體標準不統一,一些法院對于裁判文書的信息片面公布、選擇性公布的情況愈發增多。這將導致導入數據庫的司法數據缺乏裁判說理或是案件關鍵事實部分,從而影響人工智能的計算,導致輸出的結果不準確,失去輔助裁判意義。

4 生成式人工智能司法應用的路徑優化

4.1 確保算法的公開公正,建立算法審查機制

算法作為生成式人工智能的核心,其存在的“算法黑箱”和“算法歧視”問題直接影響了生成式人工智能所生成結果的公正性、公開性和真實性。根據現有的科技成果和司法實際,筆者認為可以從以下幾個方面去解決此問題:

第一,提高算法的透明性從而保證司法公開?!八惴ê谙洹彼鶎е碌男畔⒉粚ΨQ會將一些重要法律權利的意義消弭[13],也會導致司法的公開性無法得到保證。為此,可以要求算法編寫者向司法機關開放源代碼,以便對代碼進行檢驗,防止可能存在某些歧視或其他非法利益。同時,算法編寫者也應當對算法的運行過程進行解釋,以減少未知性對司法帶來的威脅。然而,算法的完全公開仍然是一種比較理想的狀態,涉及知識產權保護和商業利益。公布源代碼等同將算法開發者的智慧成果免費共享,對算法開發者本身可能產生不利影響。因此,司法機關可以選擇自主設計算法,以司法權威為背書,確保算法的公開與公正。

第二,建立算法的審查制度保證司法公正。一方面,應當由相關的算法技術人員與司法人員相互配合,通過數據測試來檢測算法是否存在歧視和偏見。同時,邀請具有算法技術背景的社會公眾參與算法的審查。另一方面,要保障算法預訓練數據的公正性。算法最終的輸出結果受其輸入數據的影響,因此預訓練數據庫的建立應當由相關的司法從業人員審核通過。此外,對于數據的真實性也要進行審查,以確保數據的可靠性。

4.2 明確生成式人工智能參與司法的“輔助”定位

生成式人工智能作為輔助性工具參與司法,現階段已經得到了廣泛的應用。隨著科技的發展和智慧司法的建設,未來科技與司法的融合將更加密切。司法不可能純粹依靠科技,司法離不開人的價值判斷,過分依賴技術也會動搖司法的根基[14]。因此,必須明確法官的主體地位和生成式人工智能的輔助性工具地位,以技術輔助司法,以技術維護正義。

第一,確立法官的主體地位。案件的裁判需要理性與感性的共同投入,這也就使得人工智能永遠無法取代法官成為審判的主體。一方面,要明確生成式人工智能的工具屬性,其應用的最終目的是提高司法辦公的效率和效果,促進司法的公正透明。在生成式人工智能的“預判決”與法官的自由心證結果不同時,應當以法官為準,使法官的自由裁量權得到充分的保障。另一方面,要深刻落實最高人民法院在2022年發布的《關于規范和加強人工智能司法應用的意見》,明確人工智能的輔助審判原則,堅持人工智能對審判工作的輔助性定位,人工智能輔助結果僅可作為審判工作或審判監督管理的參考,并強調無論技術發展到何種水平,人工智能都不得代替法官裁判,從而確保裁判職權始終由審判組織行使[15]。

第二,明確錯案的司法責任承擔。隨著智慧司法機制的引進和使用,現實裁判過程中對于人工智能的使用也變得越來越頻繁。為了避免技術成為法官推卸責任的“擋箭牌”,責任的明確就變得至關重要。最高人民法院發布的《關于規范和加強人工智能司法應用的意見》中明確了人工智能的輔助審判原則,那么錯案的責任也應由法官承擔。當法官向生成式人工智能進行案件咨詢和評估時,法官更要牢牢掌握案件的裁判權力,僅把生成式人工智能作為一個工具使用。一旦發生錯案,也應當由擁有裁判權的法官承擔責任。

4.3 加強司法數據的管理機制

為了使生成式人工智能更好地發揮其作為輔助性工具的作用,確保司法數據的真實性和提高司法數據的質量至關重要。

第一,提高生成式人工智能算法的準確度。首先,在算法設計之初,應探索將法律推理和法律解析融入算法中的路徑,在此基礎上將因果關系、法律論證融入算法之中[16],并確保生成式人工智能對同一問題生成結果的同一性,針對生成結果不同的情況應對算法進行優化。其次,引入混合模型,即結合生成式模型和判別式模型,提高數據的穩定性和準確性。生成式模型可以生成與原始數據相似但不同的數據,提高數據的生成質量;而判別式模型可以對數據進行分類和判斷,提高數據分類的準確性。引入混合模型,生成式模型和判別式模型可以相互補充,從而提高司法數據的穩定性和準確性,確保輸出結果的同一性。

第二,擴展生成式人工智能預訓練司法數據的儲備,建立司法機關內部的數據庫。近年來,裁判文書公開率急劇下降,這阻礙了生成式人工智能在司法領域的應用。依據2021年和2022年《中華人民共和國最高人民法院公報》公布的民事案件的一審審結數量,以及中國裁判文書網上已公開的2021年和2022年民事一審法律文書數量,民事一審法律文書的公開率從2021年的51.57%下降至2022年的27.18%,這給生成式人工智能應用于司法造成了現實上的障礙。司法機關應建立統一的司法大數據平臺,努力提升相關案件數據的數量和完整度。一方面司法機關自行建立司法大數據平臺有司法機關做背書,有利于數據安全的保障;另一方面司法機關建立大數據平臺更有利于豐富數據收集的途徑,消除各地區之間的信息壁壘,使司法數據的收集更加全面和充分,使得生成式人工智能生成的內容更加具有實踐意義,不流于形式。

第三,確保虛假數據的消除規則。無論是為了確保生成式人工智能運算結果的準確性,還是解決“算法歧視”問題,消除虛假信息都是重中之重。一方面,要求入庫的司法數據必須經過司法機關的嚴格審核和法律規制,確保錯案、假案的相關信息不入庫或者及時刪除,避免相關數據影響司法人工智能的使用;另一方面,確保裁判文書中論證說理部分的真實性。如果裁判文書的論證說理部分與事實情況不符,當生成式人工智能基于此種虛假的論證說理部分進行深度學習,那么其最終產出的結果也會出現偏差[17],這就要求法官加強裁判文書中論證和說理的準確性,不得為了追求效率而只注重判決結果,以增加司法大數據的真實性。

5 結語

在生成式人工智能高速發展的時代,司法與科技的融合已然成了時代發展的趨勢,應當以開放的態度接受和吸收這些新興技術。從目前的研究來看,盡管生成式人工智能展現出了一定的應用于司法的價值,但尚不足以讓其獲得直接參與司法的資格,應堅持將其定位為司法裁判的輔助性工具,并明確司法裁判權的歸屬,優化算法邏輯、提高算法的透明度,消除虛假數據、提升司法數據質量?!吧砼ㄅ鄣恼x”終究是人的正義,而非機器的正義[18]。在生成式人工智能作為輔助工具的前提下,未來應繼續努力推進算法技術的進步,以法律規制其權利,實現司法人工智能服務于人民的目標,推動我國司法人工智能的發展。

注釋:

①Loomis v.Wisconsin,881 N.W.2d 749 (2016).

猜你喜歡
裁判法官司法
制定法解釋中的司法自由裁量權
法官如此裁判
法官如此裁判
法律裁判中的比較推理
司法所悉心調解 墊付款有了著落
清代刑事裁判中的“從重”
非正式司法的悖謬
做“德法兼修”的好法官
當法官當不忘初心
論司法公開的困惑與消解
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合