?

生成式人工智能法律治理現代化研究

2024-04-07 03:45羅亞海
關鍵詞:倫理法治人工智能

羅亞海

(臨沂大學 法學院, 山東 臨沂 276000)

生成式發展可以追溯到1950年的“圖靈測試”,測試的主要目的是判斷機器是否可以模仿人類并與人類進行交互。人工智能發展大致經歷了“利用機器學習進行分析和預測、通過深度學習進行視覺和語言處理、生成式人工智能”三個階段(1)參見張彥坤、王雪梅、汪衛國:《生成式人工智能對經濟社會的影響》,《通信世界》2023年第16期。,進而呈現出計算智能、感知智能、認知智能等人工智能的不同層級。較之傳統人工智能,生成式人工智能(AIGC)除了擁有和分析式AI類似的預測功能外,它們還能根據決策獨立作出判斷、生成內容(2)參見陳永偉:《超越ChatGPT:生成式AI的機遇、風險與挑戰》,《山東大學學報》(哲學社會科學版)2023年第3期。,不僅能夠提煉信息,還可以通過利用現有的數字內容檢查、訓練實例,學習其模式和分布(3)參見畢文軒:《生成式人工智能的風險規制困境及其化解:以ChatGPT的規制為視角》,《比較法研究》2023年第3期。。具言之,以ChatGPT為代表的生成式人工智能大模型,可以根據預設或給定的提示以及上下文語境進行模式創建,從而具有自感知、自決策、自執行、自適應、自學習等特征。生成式人工智能的判斷、數據分析和生成能力是除了人類以外的任何智慧主體所未曾呈現過的能力,因此生成式人工智能面臨著倫理失控、數據歧視和價值觀破壞、知識產權侵權、生成內容違法等問題。當前,“全球人工智能發展步入治理軌道”(4)趙陽:《全球人工智能發展步入法治軌道》,《法治日報》2023年11月20日,第5版。,AIGC法律治理研究是不能繞過的問題,需要從一個交叉法學和跨學科的視角來探討生成式人工智能的法律治理問題,需要以法治現代化價值為指引,凝聚共識、轉換理念,對生成式人工智能的治理架構進行有益探索。

當前,學理上對生成式人工智能的研究主要聚焦于人工智能的應用(5)相關研究見宋保振、秦瑞標:《論生成式人工智能應用風險的法律規制》,《上海政法學院學報(法治論叢)》2023年第6期;苗逢春:《生成式人工智能技術原理及其教育適用性考證》,《現代教育技術》2023年第11期。、人工智能的風險特征(6)相關研究如漆晨航:《生成式人工智能的虛假信息風險特征及其治理路徑》,《情報理論與實踐》,https://link.cnki.net/urlid/11.1762.G3.20231128.1005.002;鞠宏磊、申欣雨:《生成式人工智能產品的內容安全風險及監督路徑》,《經濟問題》2023年第12期;陳兵、董思琰:《生成式人工智能的算法風險及治理基點》,《學習與實踐》2023年第10期。和生成式人工智能的規制(7)吳育珊、杜昕:《生成式人工智能的安全風險與法律規制》,《嶺南學刊》2023年第5期;鄭曦、朱溯蓉:《生成式人工智能的法律風險與規制》,《長白學刊》2023年第6期。,基于生成式人工智能治理的研究涉及到治理中的倫理問題,生成內容的風險及其治理對策,生成式人工智能的風險及其包容性法律治理等具體應用(8)李亞玲等:《人工智能生成內容的潛在風險及治理對策》,《智能科學與技術學報》2023年第3期;鈄曉東:《論生成式人工智能的數據安全風險及回應型治理》,《東方法學》2023年第5期;郭小東:《生成式人工智能的風險及其包容性法律治理》,《北京理工大學學報》(社會科學版)2023年第6期;董扣艷、張雨晴:《生成式人工智能發展與治理的哲學省思》,《福建師范大學學報》(哲學社會科學版)2023年第4期。。生成式人工智能的治理是現代科技治理需要面對的新問題,也是法治現代化對法律制度、法治精神和價值判斷的新需求,也必然是國家治理體系和治理能力現代化的題中之義,因此需要在法治現代化的進程中進行生成式人工智能發展的治理制度構建,以實現科技發展更好服務于人民美好生活需要。

生成式人工智能的法律治理本質屬于科技應用治理范疇,雖然和傳統的科技治理有共同之處,但更有作為新興科技的獨特的特征呈現。生成式人工智能作為第四次工業革命的代表性技術,當然內蘊科技創新激勵和科技風險控制之間的制度性平衡。從現代性的視角來說,當代社會政治國家正在向技術國家演化,一個科技“利維坦”正在形成,“生成式人工智能在國家、社會、私權利三個層面產生的風險,具有損害方式隱蔽、損害結果嚴重兩大特點”(9)商建剛:《生成式人工智能風險治理元規則研究》,《東方法學》2023年第3期。。生成式人工智能基于輸入者中心主義的現實,數據選擇、強制的算法規則選擇可能造成內容的偏見及數據歧視,以要素、算法和算力為基礎的生成式人工智能,缺乏透明的算法規則,數據正義的實現無法直接呈現,這就容易造成生成內容可能用于虛假的信息傳播等違背公序良俗和社會主義核心價值觀的情形出現,同時,生成式人工智能在數據訓練和數據使用中,可能事實上造成對借鑒內容侵權的風險和高度模仿的風險,甚至有淪為網站釣魚和宣傳虛假信息等違法犯罪行為工具的可能。

“伴隨政治國家中心主義的衰落,以政治國家建構為目的的現代政治應做出必要調整”(10)齊延平:《論人工智能時代法律場景的變遷》,《法律科學(西北政法大學學報)》2018年第4期。。生成式人工智能治理需要法律制度的構建來規導政府和公民之間的合作和一致行動,需要建立有效風險識別的法律制度,實現正確的價值引領,避免重物質輕風險的價值傾向,避免科技“創造性破壞”的尷尬,發展負責任的生成式人工智能?,F代性導入了一些先前時代基本或者完全不知道的新的風險參量(11)喬治·瑞澤爾:《后現代社會理論》,謝立中譯,北京:華夏出版社,2003年,第208頁。,因此生成式人工智能的法律治理需要探求新的制度供給。治理視角下的制度構建需要思考如何通過憲法和部門法的制度安排對“生成式”進行價值鎖定,需要審視治理制度依存的價值基礎,斟酌治理制度的現實條件,凝練治理的基本理念共識和制度規則,建立有效的風險識別機制,凝聚法律風險理念,構建有效引領人工智能發展的法律規范體系。

一、AIGC法律治理肇始的理論面向

(一)法價值層面:AIGC治理應與人類價值保持一致

人工智能時代的科技治理需要重視主觀價值判斷的影響,回答“應該”是什么的問題,對生成式人工智能闡釋也不能脫離這個問題?!敖詠?人們一般認為憲法應當是規范、控制國家權力、保障公民權利,建立在民主制度基礎之上的法”(12)儀喜峰:《憲法之維解讀》,《經濟研究導刊》2015年第5期。。在此基礎上的法律制度是調整國家和公民之間以及公民和公民之間的關系。在現代語境中,人工智能時代科技治理應該妥善處理科技和人的關系(13)參見張弦:《我們需要怎樣的全球科技治理》,《學習時報》2020年8月28日,第2版。。從憲法和法律價值的角度而言,人工智能時代科技治理中科技和人的關系問題是科技治理的核心問題,而“將憲法價值與科技價值加以平衡的重要平臺就是憲法”(14)韓大元:《科技發展要基于人的尊嚴和憲法共識》,《北京日報》2018年12月3日,第14版。。自然科學的發展讓認知論從神本主義發展到物本主義,從物本主義發展到人本主義(15)參見江國華:《憲法哲學導論》,北京:商務印書館,2007年,第79-82頁。。自然科學的發明和發現讓傳統崇尚神靈的世界認知模式發展到了物本主義世界觀,這時候的科學與人本發生了分立,科學不以人為中心,人有了物化的風險和危機,并有了成為科技附庸的風險,生活領域成為無關重要的角落。以ChatGPT為代表的生成式人工智能較之傳統人工智能技術,具有更高精的參數、更強的計算能力和數據訓練能力,呈現出鮮明的自我學習和自我迭代的特征,隨著“自主性”水平提高,輸出數據的準確定風險增加,生成式人工智能帶來的這種擔憂更為突出。

事實上,人工智能的“潘多拉魔盒”并未單純地釋放美好和善意,同時也包含了可能危害人類利益的一面,存在物本主義的風險和非理性。這一切都在表明,科技特別是當下的智能科技將自己當作了世界的中心,將人類當作了附庸。隨著現代人本主義的興起,人作為主體的研究日益深入,人本主義將人類的生活領域作為研究對象,不再將人與物的二元對立作為理論前提,而是開始以人為主體的社會機構作為事實背景來探索法律與社會之間的內在關系。這就將人們的認知從二元論中解放出來,開始從政治國家和市民社會的和諧融合中來解釋社會管理和公民權利之間的關系,并希冀籍此尋找公民和政府的有效合作途徑(16)參見黑格爾:《法哲學原理:或自然法和國家學綱要》,范揚、張企泰譯,北京:商務印書館,1996年,第321-322頁。。當人們以此判斷來闡發法律在生成式人工智能治理中的作用時,是對法律制度的供給需求的一種表達。正如習近平總書記所指出的,“我們要依法保障全體公民享有廣泛的權利,保障公民的人身權、財產權、基本政治權利等各項權利不受侵犯……保障人民群眾對美好生活的向往和追求”(17)參見習近平:《在首都各界紀念現行憲法公布施行30周年大會上的講話》,北京:人民出版社,2012年,第10頁。,而這必然建立在基于不同的國家基礎和時代特征的不同價值判斷之上。

人工智能的發展尚缺乏根據人類價值來進行結果控制的能力,尚不能夠確保在道德邊界內實現“生成”控制。如果說物本主義及早期人本主義的“人”和“物”的關系還是嚴格從物理形態上來區分的話,生成式人工智能下“人”的界定則面臨更為深層次的理論思索,“人”和“物”的關系可能面臨全新的規則構建。在傳統弱人工智能背景下,“智能”為作為主體的人所控制,人工智能的作用是輔助性的,并嚴格按照主體的預設進行運行并根據預期實現設定的目標或者行為。但是在AIGC階段,人工智能所體現的自我更新和學習能力,使其具有獨立表達意識的特征,加之算法規則的“黑箱”化,可能會對人類發生反向引導,并事實上通過生成內容的不可控性,對傳統意義上的人類主體地位產生沖擊,關于人工智能主體資格問題的討論就是一個最直接的反映。不可否認,人們對法律制度的價值有不同的認知和期待,但是最終必將形成相對一致的觀念,并成為法律治理制度價值理念不可或缺的組成部分。堅持人工智能發展中確保人的最終價值就是共識?!叭说纳媾c發展,人的尊嚴與自由,是人類組織共同體的價值追求與終極關懷”(18)劉茂林等:《憲法是組織共同體的規則》,《法學評論》2007年第5期。。生成式人工智能的法律治理制度要以人的普遍的主體價值為終極關懷,這需要在生成式人工智能背景下凝練法律治理的新秩序,實現AIGC治理的法的價值和規范指引,并據此對治理模式進行現代性重構。

(二)法秩序層面:AIGC治理應與中國法治的現代化相一致

治理理念在20世紀90年代才被引入到政府、非政府組織(NGO)管理中(19)參見吳希金等:《科技治理體系現代化:概念、特征與挑戰》,《科學學與科學技術管理》2015年第8期。。當前科技治理有兩條線路:其一為美國模式,是政府中立模式,表現為法不禁止則可行,政府不會主動介入科技活動,該模式認為科技倫理是科技發展的桎梏;其二為歐洲模式,歐洲認識到了科技非理性對社會的沖擊,采用的是審慎的監管原則,為科技發展制定規則。中國法治發展要實現重點領域和新興領域立法,對人工智能的法律治理也是如此。以生成式人工智能為代表的科技新治理體系需要在中國式法治現代化基礎上謀求一致的行動,國家發揮對人工智能為代表的科技調控功能成為必要的選擇。國務院于2017年7月發布的《新一代人工智能發展規劃》開啟了人工智能法律治理的歷程,2023年5月國家互聯網信息辦公室發布的《生成式人工智能服務管理暫行辦法》則直接對標生成式人工智能的治理問題。在當代,治理本身的內涵較之以往已更為豐富,特別是公共權力機關在治理中的傳統角色已經逐漸改變(20)郭銳:《人工智能的倫理風險及其治理》,《北京航空航天大學學報》(社會科學版)2020年第6期。。因此人工智能法律治理應該遵循中國現代法治精神來協調政府、個人與社會的關系,需要體現以“人民為中心”的制度面向,突出人工智能發展對保障和促進人民福祉的意義,體現法律治理的中國特色和法治自信。

生成式人工智能的法律治理不僅需要國內法治的一致行為和國家(地區)間的協同一致,而且需要反對以某些國家和地區為主導的局部利益導向的治理制度面向。因此人工智能治理的法律秩序建立需要依賴良好的基于法律共識的治理體系,實現法律對人工智能發展的秩序鎖定,體現法律治理現代性特征的治理模式,并達成一致行動,這就是人工智能治理的共同體理念。以生成式人工智能為代表的新一輪科技革命讓傳統的法律科技治理規范不能解釋和解決科技與社會現實之間基于現代科技發展造成的緊張關系。因此生成式人工智能法律治理要與中國法治現代化的價值判斷相一致,具備應對人工智能發展風險的能力,并最終表現為生成式人工智能發展的價值向度明確化、規制制度具體化,明確生成式人工智能的倫理準則和道德要求,不得破壞社會公共秩序和危害國家與社會安全,規范和引導生成式人工智能技術的發展和應用。生成式人工智能法律治理需要“堅持在法治軌道上統籌社會力量、平衡社會利益、調節社會關系、規范社會行為,依靠法治解決各種社會矛盾和問題,確保我國社會在深刻變革中既生機勃勃又井然有序”(21)習近平:《在中共十八屆四中全會第二次全體會議上的講話(2014年10月23日)》,中共中央文獻研究室編:《習近平關于全面依法治國論述摘編》,北京:中央文獻出版社,2015年,第11頁。。對現代性的人工智能治理解讀要在對社會轉型、結構改革等背景的深刻認識下進行,探尋其新的內涵,并據此對法律治理作出新的詮釋和新的構想。

(三)法動力層面:AIGC法律治理應與中國法治現實制度需求相一致

在生成式人工智能發展中,傳統的主流的法治觀念和法治理念發生了不同程度的變化,法律價值和制度背后的價值理念在相互作用中引發社會變遷。就當前AIGC技術的應用來看,其缺乏完善的安全性標準,沒有明確AIGC技術服務、內容傳播與技術應用方面的法律責任制度。中國法治現代化對生成式人工智能的法律制度供給提出了新的要求,沒有完善的AIGC技術相關立法與分級分類的監管手段,AIGC技術的安全性難以得到保障。傳統的法治定型化模式下,社會和法律制度的變遷受控于法律實施的結果。人工智能治理的制度需求顯然超越了現行法律的制度供給。而科技成果的應用往往會先于法律制度的變遷,一旦科技得到應用,科技帶來的直接利益會讓人利令智昏,從某種意義上講,現代社會的風險是被財富這個肇事者制造出來的(22)參見喬治·瑞澤爾:《后現代社會理論》,第209頁。。而生成式人工智能帶來的便利性和實用性會麻痹人們對風險的認知,但是風險卻必然存在。因此在生成式人工智能法律治理問題上必須要有法律倫理上的界限??萍际前l展的利器,也可能成為風險的源頭。要前瞻研判科技發展帶來的規則沖突、社會風險、倫理挑戰,完善相關法律法規、倫理審查規則及監管框架(23)習近平:《在中國科學院第二十次院士大會、中國工程院第十五次院士大會、中國科協第十次全國代表大會上的講話》,《人民日報》2021年5月29日,第2版。。人工智能的法律治理必須根植于中國法治的現實狀況,并需要將治理嵌入到我國轉型時期的法治發展特有的歷史規律中去,以法律制度回應社會發展的需要,且需順應中國法治現代化發展的規律,據此讓人工智能的發展順應當代法治所反映的社會生活。

法治的功能不限于規范現有的行為,調整現有的關系,也在于要引領科技、經濟、社會發展和人們的思想行為(24)張文顯:《“未來法治”當為長遠發展謀》,《新華日報》2018年12月4日,第15版。。生成式人工智能的法律治理需要重視法律文本和法治觀念的價值引領,謀求科技治理中的價值鎖定,并據此實現科技治理的法治化?!胺ㄖ问侨祟愓挝拿鞯闹匾晒?是現代社會治理的基本手段”(25)習近平:《論堅持全面依法治國》,北京:中央文獻出版社,2020年,第183頁。。因此以人工智能為代表的科技治理需要法律制度及其價值具有前瞻性的思索和構建,以便應對現代科技帶來的可能風險?;诜ㄖ沃袊默F實情境,一方面需要促進法律規范和法律文獻更能夠有效融合法治對生成式人工智能為代表的科技法律秩序塑造的需求,并據此引導法治的轉型,同時又要依賴具有現代內涵的法律制度,以法律制度的耦合機制應對人工智能背景下可能引發的科技風險。這既要反映對應然秩序的堅持,也要體現對成文法治的有效概括。

二、AIGC法律治理的定位型塑

(一)AIGC法律治理要契合法治現代化價值需求

法治現代化要求要發展負責任的生成式人工智能,生成式人工智能法律治理要滿足現代法治的價值需求。我們從事法治建設、法治改革,要有未來意識、未來眼光,要把握科技、經濟、社會發展的規律和趨勢,把握國家治理體系和社會治理體系的現代化方向(26)張文顯:《“未來法治”當為長遠發展謀》。。在模型、數據、算力等要素高度迭代和演進中,生成式人工智能的治理需要充分認知其科技特性,思索其所引發的社會問題,既要看到其生成式技術對人工智能發展的支撐,也要看到生成式人工智能可能引發的問題。人工智能等現代科技成果的廣泛應用,也引發了社會各界對人工智能的法律、倫理和社會影響的持續關注和激烈討論,呼吁重視AI倫理,加強AI治理,踐行科技向善,發展安全可信、負責任的人工智能(27)參見曹建峰:《人工智能治理:從科技中心主義到科技人文協作》,《上海師范大學學報》(哲學社會科學版)2020年第5期。。毫無疑問,生成式人工智能激發了人們對發展通用人工智能的積極性和想象力,當然人工智能本身也能帶來良好的經濟前景,但是也導致了可能的風險和挑戰。生成式人工智能的發展所帶動的社會轉型必然引發科技制度的變遷,因此生成式人工智能法律治理現代化目標的實現需要法治現代化價值的鎖定,并據此實現人工智能治理的價值指引。

在法治現代化語境中,生成式人工智能的法律治理需要保障以全社會的創新收益為基本點,保障治理制度在制度沖突解決、社會問題控制和科技公共管理等方面的作用,需要運用中國智慧,統籌創新和倫理、發展和安全、效益和風險的關系,打造負責任的生成式人工智能治理體系。在生成式人工智能風險的法律控制上,不僅僅要對制度事實進行確認,還要對社會的價值共識和根本規范進行構建?!吧墒健憋L險治理體系的構建需要厘定現代法治如何實現風險治理目的及其科技風險預防義務的法治界限兩個根本性問題。需要從單純的“向后看”確認事實變化逐步發展到“向前看”,為未來提供規范指引(28)參見翟國強:《轉型社會憲法修改的模式與功能》,《法學評論》2020年第2期。。

法治現代化是人類文明發展的風向標,基于生成式人工智能的安全發展,需要有全球安全和全球文明意識。生成式人工智能的發展應該符合人類文明發展的方向,比之形式法治,實質法治更加突出個人在社會生活中的自由與權利,更加關注國家所確立的個人合法愿望與尊嚴可能得以實現的經濟的、政治的、社會的與文化的條件,更加注重維護和實現社會公平正義,因而更加能夠維護法治的核心價值(29)參見公丕祥:《習近平的法治與國家治理現代化思想》,《法商研究》2021年第2期。。2023世界互聯網大會烏鎮峰會人工智能賦能產業發展論壇發布了《發展負責任的生成式人工智能研究報告及共識文件》,標志生成式人工智能治理邁出堅實的一步,代表著目前法治現代化對生成式人工智能治理最大的共識。生成式人工智能的治理需要滿足人工智能為代表的科技對現代法律制度的功能需求,妥善處理人與社會、人與自然之間的關系,發揮法律對科研的價值引領作用?!叭祟愐卫伟盐湛萍及l展的歷史軌跡,避免科技發展改變人的‘主體化’屬性”(30)羅亞海:《人工智能“未來法治”語境下財產權創新研究》,《江漢論壇》2020年第4期。。同時,需要充分審視生成式人工智能發展對傳統社會結構、社會主流價值理念、人倫關系和社會關系的顛覆性影響,在尚未對人工智能發展的未來風險充分預知的情況下應予以較多限制,甚至應該劃定禁止活動的區域,隨著認知的成熟而逐漸減少限制或者予以改變。確立以尊重人的存在和人格尊嚴、保障人的健康和人類整體利益、安全為最終目標的治理原則。

(二)AIGC法律治理要有充分的法律風險應對制度

生成式人工智能被認為正在引發人類社會的知識革命(31)劉艷紅:《生成式人工智能的三大安全風險及法律規制——以ChatGPT為例》,《東方法學》2023年第4期。。從風險的角度而言,包括“生成”準備中的數據風險、運算中的算法歧視風險,生成內容呈現中的財產權益風險。具體到法律治理層面可以概括為應用數據對國家安全的風險,應用政務數據面臨的行政監管風險,應用個人數據導致的侵害個體權利風險。這必然要回答生成式人工智能風險的法律規制問題?!叭祟愔孕枰ㄖ?就是要思考科技可能帶來什么樣的非理性的后果,如何通過法治降低科技發展可能帶來的風險與非理性,如何通過憲法控制科技對人類文明、尊嚴與未來的威脅”(32)韓大元:《當代科技發展的憲法界限》,《法制現代化研究》2018年第5期。。從生成式人工智能法律治理的角度而言,法律制度需要實現促進人工智能對社會發展的作用和預防其可能引發的風險兩層目的,風險規制成為當前最大的共識。當然人工智能帶來的可能風險在不同的發展階段,其重點問題和風險呈現也是不一樣的。在國家轉為以經濟建設為主要任務的階段,科技治理體現為對知識傳播和吸收以及保障知識轉化為經濟的可能的引導,在風險社會面向上,科技治理體現為國家通過制度體系系統構建科技創新體系。從制度事實上來看,“中國正在步入風險社會”(33)王旭:《論國家在憲法上的風險預防義務》,《法商研究》2019年第5期。。

面對以人工智能為代表的飛速發展的現代科學技術,人類必須高度關注技術對社會關系和社會觀念所帶來的巨大沖擊,同時充分利用法律的引導、規制和促進功能,實現法律與技術進步的良性互動(34)趙萬一:《面對人工智能,法律應該做什么》,《光明日報》2019年5月12日,第7版。。在當下階段,生成式人工智能發展帶來的挑戰體現為基于“社會-技術”雙重關系下的持續和包容性發展??萍硷L險治理經歷了基礎性研究和共識技術支持、注重科技能力創新和推動“社會-技術”一體化三個階段(35)參見楊洋:《科技創新治理的歷史演進與治理難題》,《科技中國》2021年第4期。。對生成式人工智能而言,“既然在大數據人工智能時代,人的生活與行動開始被智能化算法所‘綁架’,‘人’的主體性地位逐漸喪失,并實現人與技術的‘和解’,而‘和解’的前提是人工智能技術中可解釋性內容的增加,那么就應該借此機會強化對人工智能技術中可解釋性內容的保護,實現技術和監管的相互配合,并為司法實踐提供外部助力”(36)劉艷紅:《生成式人工智能的三大安全風險及法律規制——以ChatGPT為例》。。這體現在生成式風險應對機制上,既要關注其對社會發展的助益作用,同時要做好必要的風險規制。

工業文明征服了自然,形成了“人化自然”,這種改變帶來了風險,從本質上講,風險規制又需要根植于人類社會。人工智能風險控制與科技治理面向相一致,在人工智能風險治理中,法治需要國家承擔起風險預防的義務,需要承擔維護國家安全和公民權利的責任,保障人的基本價值和國家治理能力和治理體系現代化目標的實現,在權利保護和風險控制中實現平衡?!皬娬{賦予公民權利也并非是毫無限制的,過度賦權有可能會阻礙生成式人工智能的發展。所以必須尋找公民權利與人工智能發展的一個平衡點”(37)孔祥承:《國家安全視閾下生成式人工智能的法治應對——以ChatGPT為視角》,《法治研究》2023年第5期。。生成式人工智能的風險預防包含“監測—評估—控制”、“反思—協調—學習”、“處置—轉移—分散”和“完善—發展—容忍”四種范式(38)參見王旭:《論國家在憲法上的風險預防義務》。。生成式人工智能的風險治理需要在充分審視現代科技的基本特征和表象的變化基礎上,實現切實契合科技發展規則的現代性流變。根據通行的風險理論,法律風險理論需要包含可容忍風險、可預防風險和需要規避的風險三個層次。人工智能背景下科技風險治理要體現制度的層次性,構建“科技創新活動中人與社會、人與自然、人與人關系的思想和行為準則,其規定了科技工作者及其共同體應恪守的價值觀念、社會責任和行為規范”(39)朱步樓:《加快構建科技倫理治理體系》,《中國社會科學報》2021年3月30日,第4版。。以現實風險為基礎的法律賦能本質上體現的是風險轉化問題,科技自身的創造力需要遵守法律規范,保證新時代科技的創新治理與社會觀念、意識認知相一致。

(三)AIGC法律治理要塑造新的價值秩序

現代法治需要從價值判斷入手,構建新的價值秩序,引領生成式人工智能的價值評價體系和風險預防體系。針對人工智能法律治理,“要深度參與全球科技治理,貢獻中國智慧,塑造科技向善的文化理念,讓科技更好增進人類福祉,讓中國科技為推動構建人類命運共同體作出更大貢獻”(40)習近平:《在中國科學院第二十次院士大會、中國工程院第十五次院士大會、中國科協第十次全國代表大會上的講話》。。數字科技發展不平衡、規則不健全、秩序不合理等問題日益凸顯,不同國家和地區間的數字鴻溝不斷拉大,現有網絡空間治理規則難以反映大多數國家的意愿和利益(41)參見張文顯:《習近平法治思想的理論體系》,《法制與社會發展》2021年第1期。。營造科技公共安全體系,科技治理中的安全意識和應急機制相較于目前應有“質”和“量”的提升??茖W技術的不斷發展,日益把全人類聯系成命運與共、休戚相關的一個整體(42)王亞軍:《習近平關于科學技術重要論述的多維視域》,《中共南寧市委黨校學報》2021年第2期。。在生成式人工智能背景下社會呈現出從“需求型團結”到“科技焦慮型團結”轉換,安全價值理念將替代平等價值理念成為主流。任何一條憲法規則都應當被當作維護和促進“人類共同生活”的原則(43)江國華:《憲法哲學導論》,第262頁。。法治的現代化同樣有這樣的價值需求。

在科技文明、特別是人工智能等新科技發展的語境中,科技治理規則的構造需要從秩序觀向風險觀轉化,需要實現從“財富—分配”的邏輯向“風險—分配”的邏輯轉化,反過來這需要借助新的價值秩序構造來規避生成式人工智能可能的風險。生成式人工智能的法律治理需要充分關注法治現代性的價值訴求,人工智能的法律治理首要的美德是公正而不是效率,這根源于公共權力的公共性特征、人民的基本權利框架和社會的公共理性。

規范的價值表現于國家、社會和人民的利益的維護,這不僅體現了法治共同體規則的意義,也體現了共同體的價值追求,生成式人工智能的法律治理體系要體現法治的歷史規律,在表達法治的現實存在的基礎上實現法律秩序價值引導。就生成式人工智能而言,人們的生活會因為智能算法而受到綁架,人的主體地位具有逐漸喪失的可能,個人隱私權等權利會因為數據使用而受到侵害,生成式人工智能創造的財產性權益如何得到保護,數據應用中的國家安全等在其治理中需要呈現應有的價值秩序。作為科技治理的生成式人工智能問題要當然地浸潤著公共精神,因此公共利益應為生成式人工智能治理的首要的價值目標?!叭祟惿鐣墓餐瑑r值在法律共同體的視野下當然的表現為現代法治文明所具有的精神內涵,即使在不同語境下,也應該堅守法律最低倫理的目標”(44)羅亞海:《法律共同體的中國特色素稟及其憲法構造》,《法學論壇》2018年第6期。。在人工智能發展中的績效價值、人的基本權利保護和人類價值維護中做出“差序”排列,這種目的的實現需要借助法律機制來實現價值引導,用符合現代性需求的制度引導人工智能發展制度自身具備道德的合理性,從而保證法律規范價值的實現。

三、AIGC法律治理現代化的體系構思

(一)AIGC法律治理中法治現代化理念需要實現制度轉化

生成式人工智能發展過程中始終伴隨風險性、不確定性、用途多重性及可變性等拷問,因此生成式人工智能發展需要在科技的智慧性和自主性背景下維護人的尊嚴,增進人類福祉。傳統科技立法制度難以滿足對當下時代科技發展的涵蓋和社會現實的呼應,需要在人工智能發展中的現代性體系中重新思考人工智能發展的新的制度規則,引導法律治理的一致行為和社會公眾的廣泛參與,借此凝聚社會共識,以此實現國家對人工智能發展的“優良治理”?,F代科技發展語境下的科技是服務于人類的,不能超越這個底線,同時要看到在現代科技發展中人的性質的改變,法律制度的構建不能再一味的以傳統生物規則為評判的標準,因為“根據現代生物學,最早出現的晚期智人在解剖學上與現代人毫無區別”(45)韓水法:《人工智能時代的人文主義》,《中國社會科學》2019年第6期。。而事實上,“生成式人工智能的智能化、類人化特性逐漸凸顯,開始超越算法的工具屬性而凸顯主體性潛能”(46)張欣:《生成式人工智能的算法治理挑戰與治理型監管》,《現代法學》2023年第3期。。人的尊嚴體現于人的主體性價值,這就要求應該以人的內在價值為基礎,避免將人作為“人”的價值外化或者工具化,而生成式人工智能可能會導致這種情形發生。

人工智能的法律治理首先要融入“共治”的理念,既要著眼人工智能的社會意義,又要體現廣泛的社會性和人的固有價值,這種共識需要轉化為具體的法律制度。學界以往的研究基本局限于科技對法律的作用、法律對科技的反作用這樣一種線性思維上,而當科技進步逐漸主導我們的生活、主宰我們的世界的時候,這種思維方式和理論模式顯然已經失效,代之而起的是法律和科技共治模式(47)參見張文顯:《構建法科共治、法德共治、多元共治的法律秩序》,《北京日報》2020年8月3日,第9版。?!拔磥砩墒饺斯ぶ悄芊諔玫闹卫響斒巧鐣鞣焦餐瑓⑴c,技術治理行業自律先行,在總結經驗凝聚共識的基礎上建立有效的治理機制”(48)宋華健:《論生成式人工智能的法律風險與治理路徑》,北京理工大學學報(社會科學版),https://doi.org/10.15918/j.jbitss1009-3370.2023.1621。。生成式人工智能治理的現代化必須認識到人的性質的改變可以容納哪些科技要素,得以讓傳統維護人的尊嚴制度體系接受創新,無論是關于人工智能是否要賦予其主體的爭論,還是關于人工智能對人類隱私權利侵權的擔憂,都是傳統制度體系所不能涵蓋的,這需要法律規范對人的主體性特征因人工智能而發生的變化作出回應。我們要以人的福祉為首位原則,發展科技的根本目的是增進人的福祉,這與我國“以人民為中心”的發展思想相一致(49)雷瑞鵬:《科技倫理治理的基本原則》,《北京日報》2020年5月11日,第9版。。

生成式人工智能發展中需要尊重、促進人的基本自由及人的尊嚴,要確保相稱性和不損害,保障安全和非歧視,具有可持續性,能夠有效保護隱私權和數據,可以實現人類監督和決定,算法規則的透明度和可解釋性等問題引發了以人工智能為代表的法律制度背景的變遷。社會變遷之主要內部來源之一,是科技及其在工業和社會技術中的大量運用(50)伯納德·巴伯:《科學與社會秩序》,顧昕等譯,北京:生活·讀書·新知三聯書店,1991年,第245頁。。生成式人工智能治理體系的構建需要在“應然”與“實然”上做出價值判斷,在治理上實現倫理制度補給,在斟酌生成式人工智能特殊技術背景的基礎上構建風險防范體系,體系的構建需要以不確定法律概念為載體,在風險及損害后果的蓋然性上做出判斷,在“足夠可能”和僅僅構成“可能性”上做出價值斟酌,引入“公共利益”、“人的尊嚴價值”和“重大風險隱患”等不確定因素。對“剩余風險”做出切實的判斷,在促進生成式人工智能對數字社會意義上思索人性尊嚴的相對化,并以“全民應該承擔的社會合理負擔”和生成式人工智能的挑戰的平衡中實現制度設計。

(二)基于AIGC法律治理的內涵拓展

生成式人工智能的自主性特征必然要需要法律治理體系的增容,因為它的發展事實上推動了法律體系和研究方法的改變,這導致現有法律制度對傳統自身體系產生沖擊,其引發的社會變遷最終表現為法律治理對法律制度的需求,這種嬗變讓現代法治從政治、經濟屬性拓展到更為關注科技屬性。初級工具時代的科技很難和法律制度發生勾連,科技的探索僅僅是初步的延伸人類身體的技能;在機器工業時代,協作勞動承載了團體意識,科技具有了團體屬性,客觀上引發了不以身份塑造的階層,導致以公法體系的誕生。這個時期公法制度的主要使命是完成政治權力分配和人的權利保障之間的關系,并延伸出調整以市場為載體的經濟關系。工業革命帶來的沖擊和變化不僅與科學技術的發展緊密相連,也必然要求包括法學在內的社會科學進行不斷變革才能與之相匹配(51)劉憲權:《對人工智能法學研究“偽批判”的回應》,《法學》2020年第1期。。以人工智能為代表的科技革命致使科技法治的屬性泛化,人的尊嚴如何維護、科技風險如何控制、甚至法學理論的研究范式和研究方法都面臨新的追問。以人工智能法律主體資格等一系列問題將人工智能治理制度創新拉上了日程。當然科技發展的憲法應對在理論界不是一個新的話題(52)早期相關論述有韓大元:《論現代科學技術對憲法學的影響》,《科技與法律》1996年第1期;韓大元:《簡論現代科學技術價值與憲法價值的沖突》,《法學家》2000年第3期;何士青、段勇:《論科技異化的立法應對》,《河南財經政法大學學報》2013年第3期。,生成式人工智能法律治理需要一個交叉法學的視野。對公法角度而言,雖然生成式人工智能具有巨大的發展潛力,人工智能發展的今天,“憲法的價值體系面臨人權消解、法治系統的權力失衡和民主新可能的問題”(53)楊學科:《人工智能的憲法挑戰和憲法彈性回應》,《青島科技大學學報》(社會科學版)2021年第3期。,需要公法制度作出應對。對部門法而言,在生成式人工智能發展中人格權及財產權權益的認定和保護需要現有法律制度實現增容。

生成式人工智能較之傳統科學技術引發的系列問題讓治理制度面臨前所未有的現實需求性和緊張性。法律解釋的方法已經不能夠滿足科技發展對法治的需求,而是需要進行人工智能的立法補給,以法治現代內涵為基礎價值體系來容納新價值形式,并籍此實現法治對新科技發展的價值意識的凝聚。生成式人工智能的法律治理需要構建科技發展的特定價值體系,“人類中心主義”作為法治的基本價值需要在治理立法中得到體現,這包括人工智能的法律主體資格、生成式人工智能可能的數據歧視問題、人工智能的侵權責任承擔、人工智能在法律實踐中的應用和風險如何控制等問題。但是從人工智能發展的事實以及對法治需求的角度而言,則需要更為宏觀的敘事和更為深邃的視野,需要構建公法和私法疊加的科技治理體系。

生成式人工智能的治理首先要著眼現有法律制度對相關問題的“容納”關系,充分思索現有的問題有哪些可以涵蓋于現有法律制度,唯有現有制度不能夠解決或者不能夠以法律解釋等方式予以解決的情形下方可探討治理制度的創新。當然人工智能發展中的科技倫理規則和科技風險控制制度的法律構建也是人工智能治理的重要內容,需要法律制度實現有效的拓展。生成式人工智能的發展規則和技術手段對人的基本權利和財產權將會產生連鎖的反應,這種反應是兩面性的,很多現實案例告訴我們,特別是負面性的挑戰是連鎖性的。事實上人工智能發展已經具有了可能壓制人的風險,其發展的風險需要法治的體系構建和價值體現,人工智能科技治理的法律制度需要確立其發展制度的基本原則,要規范科技研究的手段,禁止侵犯利用成果侵犯公民的基本權利,明確人工智能科研自由的邊界,甚至禁止某些數據訓練和算法規則和算法領域的應用,以符合服務于人的尊嚴和人類福祉的目的。

(三)AIGC法律治理中的倫理規則補給(54)黨中央、國務院高度重視科技倫理建設,習近平總書記在中國科學院第二十次院士大會、中國工程院第十五次院士大會、中國科協第十次全國代表大會上講話指出,科技是發展的利器,也可能成為風險的源頭,要前瞻研判科技發展帶來的規則沖突、社會風險、倫理挑戰,完善相關法律法規、倫理審查規則及監管框架,《關于加強科技倫理治理的指導意見》中也充分強調科技發展帶來的風險挑戰。

人工智能發展中的非理性尚不能作出最終的判斷,因此,尋求倫理規則的重構具有現實意義,要借助人工智能倫理將生成式人工智能打造成倫理的人工智能。要整合多學科力量,加強人工智能相關法律、倫理、社會問題研究,建立健全保障人工智能健康發展的法律法規、制度體系、倫理道德(55)習近平:《加強領導做好規劃明確任務夯實基礎推動我國新一代人工智能健康發展》,《人民日報》2018年11月1日,第1版。。既然社會現象中不存在單一的決定因素,因此在社會總體發展上,就不能只考慮物的因素,還要把人的因素考慮進去(56)陳喜貴:《維護政治理性——雷蒙·阿隆的政治哲學》,北京:中央編譯出版社,2004年,第234頁。。這需要基于生成式人工智能治理中的倫理規則來保障實現??傮w上講,生成式人工智能需要促進人類福祉就是最大的倫理,“人工智能技術應用的倫理邊界取決于人這個主體”(57)唐代興:《從AlphaGo到ChatGPT:人工智能的倫理邊界何在?》,《哲學分析》2023年第6期。。對于“人類福祉”的認識應該具有更廣闊的視野,需要有人類命運共同體意識,要超越國家、地域和意識形態的約束,并需要將其凝練為人類的一種“普遍權利”,而這種權利的普遍實現,需要借助具體倫理規則制度的構建。

基于中國法治“以人民為中心”的價值基礎,增進人工智能發展中的倫理規則嵌入,讓以人工智能為代表的科技風險得到合理的安排和控制,法律在風險應對中要對風險作“類型化”的區分,需要避免的風險、需要容忍的風險在法律制度上要作出合理安排,并通過具體的部門法科技法律倫理規則的構建予以變通和實現?!耙餐晟茢祿卫硪巹t,確保數據的安全有序利用;要促進數字經濟和實體經濟融合發展,加強數字基礎設施建設,促進互聯互通;要提升數字經濟包容性,彌合數字鴻溝”(58)《習近平出席二十國集團領導人第十四次峰會并發表重要講話》,《人民日報》2019年6月29日,第1版。。對以生成式人工智能為代表的新科技而言,法的倫理規則意味著人工智能發展中的道德前瞻性和道德約束性,而治理的法律規則可以表述為個人主義的道德共同體呈現,法律倫理規則的凝練需要體現法治在維護社會公平和發展中的程序公正。主體在法律價值中居于核心地位,因此,生成式人工智能倫理規則的構建首要的是保障個人主體價值的實現。倫理規則的抽象最終需要借助法律制度安排來實現。以法律制度作為科技共同體的規則方式,需要在該問題上對法律與科技關系進行現代性的思考,立法的歷史和科技的歷史具有內在的對應性,科技價值需要實現和治理體系價值的平衡,科技的目標要符合法治的價值訴求,并依據具體的部門法規則來保障實現。

倫理規則的抽象最終需要實現其從理念向法律制度的轉換,通過治理制度實現轉換和制度安排??萍贾卫硪巹t的發展具有歷史的階段性特征,早期工業革命和現代人工智能時代的科技革命具有明顯的不同時代特征,但是根本上講科技倫理規則是人的道德規則,而不是機器的倫理規則,規則的最終目的是約束人的行為而不是其他。因此倫理規則要從生成式人工智能數據訓練和算法監管等方面約束技術生成者的行為入手,來保障和追求每個人的權利和自由,維護每個人的尊嚴和平等。同時,人工智能的法律倫理要體現道德共同體屬性,并以此為媒介改變人們在生成式人工智能技術使用上各自為政的現實,形成共同的道德語言,重新構造人工智能發展服務于人類整體利益的規則?,F代的法治文明已經認識和維護了這一原則,但是在以人工智能為代表的科技發展的今天,需要在厘定生成式人工智能倫理規則需求基礎上實現制度補給。風險預防義務的背后是人類社會的危險世界觀(現代性)向風險世界觀(第二現代性)轉變的歷史過程(59)參見王旭:《論國家在憲法上的風險預防義務》。?;谥袊ㄖ维F代化“以人民為中心”的價值基礎,“可通過調整合理使用制度與強化公共領域保留原則,使得人工智能對公共利益的剝削以人們對人工智能生成物的廣泛獲得與利用作為補償,實現公共利益的損益相抵”(60)林秀芹、郭壬癸:《人工智能對知識產權正當性理論的挑戰與應對》,《知識產權》2023年第11期。,增進人工智能發展中的倫理規則嵌入,讓人工智能發展的風險得到合理的安排和控制,并通過治理中的法律倫理規則實現價值引領,讓科技發展能夠滿足現代法治的需求,體現出應有的數字公平。

(四)AIGC法律治理中的制度耦合

“社會系統與技術現實之間的結構性耦合變得習以為?!?61)參見尼克拉斯·盧曼:《風險社會學》,孫一洲譯,南寧:廣西人民出版社,2020年,第148頁。。生成式人工智能的治理體系應該包括完善的制度規范、健全的治理機制、強化倫理監管、細化法律規則和倫理審查規則以及規范科學研究等幾個方面。AIGC的法律治理,首先要構建生成式人工智能的技術應用的相關制度。法治現代化謀求開放的理論體系,注重治理主體的多元化,在科技治理中,法律制度、倫理體系和道德觀念都要發揮重要作用。人工智能治理必須協同多元主體,融合多元價值,加強全球合作與對話,構建平衡、包容的人工智能治理體系(62)參見王碩:《人工智能呼喚更好“治理”》,《人民政協報》2021年12月9日,第7版。。AIGC的法律治理需要新的立法來應對生成式所產生的新問題,要基于中國國情,建立規范生成式人工智能技術應用領域的法律法規。要明確生成式人工智能的責任主體和責任方式,凸顯數據安全和知識產權保護,保證生成式人工智能的良法治理。因此,“法律創制必須體現和反映人民的根本利益”(63)參見李濤:《國家治理現代化的改革動力與法治路徑》,《廣東社會科學》2021年第2期?!,F代法治文明已經認識和維護了這一原則,在生成式人工智能為代表的新科技時代,針對現代科技發展的新特征,謀求現代化的法律治理應該重新構造人工智能乃至整個科技體系服務于人類整體利益的規則,確立人類優先和安全優先原則。法律的創制要以憲法為依據,其最終目的在于保障人民的福祉,AIGC的法律治理要構建應對生成式人工智能的未知風險制度。法律是控制風險的重要手段,生成式人工智能的治理現代化需要發揮以憲法為基礎的科技治理法律體系的完善。通過科技法治和科技倫理規則的構建指引我們以“社會多元共治、動態風險防控為理念,適應當代社會科技發展速度帶來的治理需求,形成包含倫理道德、政策、法律、技術在內的多層次倫理和法律治理框架”(64)參見張文顯:《習近平法治思想的理論體系》。。生成式人工智能的法律治理要依托《生成式人工智能服務管理辦法》,并有效結合《網絡安全法》、《數據安全法》、《網絡信息內容生態治理規定》、《互聯網信息服務算法推薦管理規定》、《個人信息保護法》等新興領域法律法規,依托《民法典》等保障公民權益,解決突出問題。生成式人工智能風險治理中,法律風險體系既需要有效應對和規避風險,也需要一定程度的風險容忍機制。

AIGC的法律治理需要加強對生成式人工智能生成物的監管。生成式的算法設計、模型構建、數據訓練的設定,以及到生成物的使用,都需要法律的監管。以生成式人工智能的訓練數據真實性、客觀性、準確性、公平性為事前審查內容,實現生成式人工智能的安全性、可見性和可追責性價值引領。以數據糾正、數字正義和歧視規避等為事中監督的主要內容。以生成式人工智能的契約責任設定、行政懲罰、刑事責任追究體現事后監督管理。AIGC法律治理致力謀求生成式人工智能風險的責任制度要體現科技誠信機制、受試者和消費者利益保護機制。這對科技發展中的透明性提出更高的要求,讓科技成果的運用切實滿足制度建設的根本目的,避免無效科技對人類的無訴性侵害。同時還要構建科研主體的科技道德自律機制,通過科技命運共同體的構建,借助法律治理體系凝練風險治理中的現代性共識,達成因行為協同一致的制度實效。

生成式人工智能的法律治理需要構建公平制度。轉型期的中國必須始終高度關注和重視解決社會公平正義問題,這是國家治理現代化和法治發展面臨的重大議題(65)參見公丕祥:《中國特色社會主義法治道路的時代進程》,《中國法學》2015年第5期。。立法上需要構建人工智能發展的“均等化”使用機制和公眾參與機制?!皩τ捎谥贫劝才挪唤∪斐傻挠羞`公平正義的問題要抓緊解決,使我們的制度安排更好體現社會主義公平正義原則,更加有利于實現好、維護好、發展好最廣大人民根本利益”(66)習近平:《切實把思想統一到黨的十八屆三中全會精神上來》,《人民日報》2014年1月1日,第2版。??萍及l展不能只體現少數人需要,而是要著眼建立普遍多數人的受益機制,并將其凝練為主要的倫理規則。這需要構建公民自主、社會需要和國家價值中立的機制耦合,需要審視傳統科技規則中自我校正機制所不能涵蓋的風險。對個人而言,既需要體現公眾對科學發展的理解和信任機制,也需要滿足個體需要的公眾參與機制,對社會而言,既需要充分體現科技共同體、人文共同體和廣泛的社會共識回應,也需要國家在堅守科技發展的“價值中立”的基礎上,建立科技發展的倫理監督機制,實現法律治理、國家監管和公眾監督的有效銜接。

猜你喜歡
倫理法治人工智能
《心之死》的趣味與倫理焦慮
送法進企“典”亮法治之路
護生眼中的倫理修養
2019:人工智能
人工智能與就業
反家庭暴力必須厲行法治
數讀人工智能
以德促法 以法治國
下一幕,人工智能!
醫改莫忘構建倫理新機制
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合