?

生成式人工智能治理的法律回應

2024-04-06 18:11
關鍵詞:人工智能算法

袁 曾

(上海大學 法學院,上海 200444)

一、引 言

ChatGPT(Chat Generative Pre-trained Transformer)已于2023 年5 月18 日上線蘋果手機程序商店(AppStore),標志著生成式人工智能正式投入商業化應用。生成式人工智能(Generative AI),是指通過各種機器學習技術(Machine Learning,ML)從數據中學習要素,進而生成全新的、原創的、真實的內容,其生成的內容(AI-Generated Content,AIGC)與訓練數據可以保持關聯性,但絕非復制。[1]生成式人工智能綜合利用人類反饋強化學習、深度學習技術、全域數據挖掘技術,已將智能生產力水平提升到了新的階段,人類正式進入通用人工智能(Artificial General Intelligence,AGI)時代的奇點。[2]18例如,操作者可使用Mid-Journey 程序,快速通過輸入單詞指令的方式,要求生成式人工智能在極短的時間內輸出符合操作者要求的全新圖像,不具備任何繪畫基礎的人也可以在生成式人工智能的幫助下生成高水準的圖像“作品”,其強大的圖形渲染能力、理解能力與內容產出效率,已經開始改變插圖繪制行業生態。在傳統人工智能時代,人工智能的模糊性、復雜性、自主性和無法預測性等特征,已經帶來諸多風險和問題。[3]而生成式人工智能具有的顛覆性生產力可能對社會生產關系產生重大系統性改變,也將引致重大治理風險?,F行法律調整規制人工智能的框架與范式,很難充分應對技術迭代發展的現實,需要在考量技術能力與實際變量的基礎上,重新建構生成式人工智能治理的基本架構,以規則制定引領技術變革的正確發展方向。

二、生成式人工智能引致的治理風險

(一)生產工具已具備人類能力特征

勞動,對人和人類社會的形成和發展具有根本的決定意義,也是人與動物的本質區別。馬克思在《資本論》中指出,勞動首先是人和自然之間的過程,是人以自身的活動來引起、調整和控制人和自然之間的物質變換的過程。生成式人工智能投入規?;瘧煤?,傳統勞動的概念與形態受到了現實挑戰。以ChatGPT 在教育領域的應用為例,以往學生修改畢業論文需要付出較為繁雜的勞動以滿足論文重復率要求,但現在操作者可以直接將論文內容輸入至程序中,明確指示ChatGPT 按照相應要求進行復寫,在數分鐘內完成論文的重新編寫。在此行為模式下,ChatGPT 的重新加工、輸出內容可否被定義為勞動,直接關涉其法律地位等一系列復雜問題的認定。從與傳統人工智能技術的區別分析,生成式人工智能已經在圖片等信息識別與人類自然語言的理解上實現了突破,在“理解能力”與“行為能力”上,具備了人類能力的基本特征。在使用Whisper、Boomy、BeatBot 等音樂類生成式人工智能程序時,操作者簡單告知其需要的曲風與詞意,人工智能即可自動生成符合樂理與聽眾習慣的歌曲。在此維度下,很難從客觀上否認生成式人工智能具備了推理能力。更為震撼的是,若操作者不滿意此類程序的交互界面或生成效果,就可以在生成式人工智能的幫助下,在按日計算的短時間內自行重新搭建一套程序,完成以往中小型互聯網公司級的煩瑣工作。另外,生成式人工智能技術使得環境態勢感知不再成為計算機識別的障礙,自動駕駛汽車利用實景攝像頭在人工智能的計算下實現真正的實時無人駕駛已成為現實,若汽車在生成式人工智能負責駕駛的狀況下造成人員傷亡等侵權事故,其駕駛的行為能否被定義為法律上的“行為”,這將直接引發整個汽車行業保險責任的顛覆性變化。生成式人工智能在當前階段仍屬于為人所使用的工具,但這種生產工具所具備的技術能力及發展能力過于強大,已經在部分行業替代了人類的勞動與工作,改變了社會生產生活的形態。

(二)新生問題超出法律規制范圍

生成式人工智能的規?;瘧靡呀浶纬闪溯^多亟待法學研究厘清的重大現實問題。一是從著作權領域分析,生成式人工智能涉及的知識產權問題極為復雜。生成式人工智能的操作者僅需鍵入幾個關鍵詞,機器就足以實現獨立于預設條件的內容產出。[4]在此情形下,該種產出是否可以界定為作品?若界定為作品,其作者是操作者還是人工智能本身?特別是在生成式人工智能輸出的內容已具備現行著作權法下的作品特征的客觀狀況下,由于生成式人工智能生成內容潛在的利益巨大,由生成式人工智能的研發者、提供者還是操作者享有內容背后的財產權益均會對未來知識產權的治理產生關鍵性導向。二是從刑事領域分析,由于生成式人工智能具備相對獨立的行為能力,若將生成式人工智能作為犯罪手段將無法直接適用現行的犯罪構成要件、罪責刑相適應等基礎理論。利用AI 換臉等深度偽造技術實施詐騙的案例已經出現,其真正的犯罪主體難以追蹤確定。生成式人工智能可以批量注冊社交賬號,操控相關程序規?;卦谛畔⒕W絡上跨境發布大量的煽動性信息。若生成式人工智能被自動設定用于“網暴”“造黃謠”“抹黑”特定對象,則其很可能造成當事人自殺、自殘等嚴重后果,但查證犯罪將極為困難。[5]三是從數據治理領域分析,生成式人工智能對于數據具有極強的依賴性,造成了隱私侵權、數據濫用的現實治理風險。由于使用全域互聯網數據作為訓練樣本,ChatGPT等生成式人工智能在挖掘、使用數據的過程中,并不能準確辨析所利用的海量數據的權利狀態與知識產權狀況,潛在的數據權利人也無從知曉、無法辨析自身數據信息被大數據模型爬取利用,這留下了極大的治理空白。[6]四是從人類文明的傳承分析,當前生成式人工智能的底層數據以英語數據為主,作為國際互聯網基礎的英文數據庫確實具有較高的數據質量,但生成式人工智能輸出的內容也就天然具有了技術研發者與數據庫擁有者暗含的主觀價值觀、世界觀。與傳統算法定點推薦給用戶的被動接收信息的方式相比,操作者自行設置變量產生的AIGC具備主動感知的更高信任度。各國民眾在長期接受含有價值偏向的統一標準信息后,很有可能直接改變當前多樣性文明的意識形態。

(三)私人技術資本成為數字空間的權力掌控者

權力可以被解釋為若干預期結果的產生,是一個量的概念,假如有兩個具有相似欲望的人,其中一人除實現了另一人的全部欲望外,還實現了其他一些欲望,則他就比另一人具有更多的權力。[7]“代碼即法律”意指數字空間權力,已經成為法學界探討數字生態與現實社會交互發展中最主要的憂慮。生成式人工智能加大了私人技術資本在數字空間乃至社會空間中的系統重要性,并逐步趨于技術壟斷的地位,掌握了數據流向渠道、大模型算法排他性專利、技術發展方向等多領域的實際權力。[8]生成式人工智能規?;瘧靡院?,私人技術資本的權力進一步擴張,其獨立于傳統政府公權力與公民私權力之外的“第三極”權力地位進一步突顯。

一是生成式人工智能的技術開發投入需要的資本極大,已非一般規模的市場主體乃至中小型國家可以承擔。自2019年以來,微軟公司對OpenAI 公司至少投資了30 億美元以訓練ChatGPT 的初代模型,2023 年1 月,OpenAI 公司又宣布獲得微軟公司數十億美元的多年期投資。高昂的長期投入成本與巨大的現實回報,加強了高端技術領域研發與應用的“馬太效應”(即強者恒強),使得數據鴻溝不僅在不同發展程度國家間的公民個體中形成,更在國家與國家、國家與私人技術資本間產生。二是對于生成式人工智能提供者的監管手段與能力匱乏。生成式人工智能使用互聯網全域數據樣本進行運算訓練,又實時提供各類AIGC反饋至操作者處,每時每刻在全球網絡上均有海量的內容輸出產生,目前仍無有效的監管工具可以實時監測與存儲生成式人工智能所產出的全部內容。監管的缺位又反向固化了私人技術資本的實際權力地位。[9]三是私人技術資本在數字空間中已居于事實上的領導者地位。無論是前期炒作火熱的元宇宙、還是喧囂甚上的WEB3.0,科技前沿的發展概念與理念均由私人科技資本提出,并由此影響國家科技投入與發展的具體技術路線。由于掌握了新型數字基礎設施建設的硬件標準與大模型算法,私人技術資本已可以從算力、算法等多維度控制全球數字產品的供應并確定技術的發展方向,逐步侵蝕、擠占甚至取代傳統公權力的地位,為社會發展帶來不可預測的風險變量。

三、現行治理范式無法涵蓋治理需要

社會治理已經邁入人工智能時代,相關法律、倫理、社會問題的研究氛圍也相當活躍。[10]2023 年8 月15 日,國家互聯網信息辦公室等七部門共同發布的《生成式人工智能服務管理暫行辦法》生效,對隱私保護、數據訓練、不公平競爭等內容提出了規范性意見。但由于生成式人工智能所具備的顛覆性技術能力,導致其帶來的社會變量,可能遠超現行控制機制與規范框架的調整范圍。結合技術迭代發展的實際,統籌發展與安全,從數字治理的高度推動生成式人工智能的法律規制,已經成為一個現實而緊迫的重大研究命題。但是,當前對于人工智能的治理聚焦于算法規制,忽視了生成式人工智能發展模式與調整框架的整體建構,無法適應技術發展的最新需要,而數字法學的方法論集中于概念創造卻又忽視了法學的實踐應用標準,導致目前的治理范式無法適應于生成式人工智能的未來發展,因而法律規制的引導、調整作用不強。

(一)忽視責任的整體建構

當前學界與實務界對于人工智能的治理基本以算法規制為核心展開,特別是以算法的可解釋性為核心展開了包括透明性要求、推薦要求、分級監管要求、備案要求等系列的規則建構。[11]客觀地分析,以算法為規制調整中心的領域場,符合傳統人工智能的技術水平。在進入生成式人工智能以前,人工智能以深度學習、大數據計算為核心建構底層技術,算法的控制者可以通過設置相應條件實現算法輸出結果的目的。人工智能的控制者在使用算法時,應使人類能夠理解算法的決策、運行過程和結果。[12]若控制者無法合理解釋其決策過程和輸出的結果,則應當承擔相應責任。例如,媒體曾經報道“攜程”“去哪兒”等行程預訂程序,可以根據用戶使用手機品牌的不同實現“同房型不同價”的差異化定價,消費者在使用過程中發現了隱藏的算法欺詐,即向監管部門舉報要求算法控制者予以回應??山忉尩乃惴ㄒ幹坪诵?,實際是將算法的解釋與侵權損害等結果之間建立了實際的因果關系,當出現了控制者無法解釋的情形時,就應承擔相應責任。[13]但是,生成式人工智能是在操作者輸入的限定條件下進行運算并輸出要求的內容,其運行模式直接割裂了算法可解釋與結果間的因果關系。例如,操作者使用Mid-Journey 程序,通過特定的表述方式繞過程序的基本限制,生成了有關兒童色情或明星“換臉”色情圖片,在此條件下繼續要求生成式人工智能的控制者承擔嚴格的責任顯然有失公平。由于生成式人工智能已經被廣泛商業化應用,ChatGPT聲明其不會存儲普通操作者使用該程序時的記錄。①事實上,要求生成式人工智能的控制者對全球范圍內同時進行的海量操作進行存儲以備審查,也不符合客觀規律。在此情形下,如何確定損害結果與控制者算法義務間的關系,已成為無法辨明與調和的現實矛盾?,F行人工智能的治理規則過于集中在算法規制,實際上將技術發展的風險完全加于算法的研發者與控制者這兩類主體之上,技術的持有者具備了事實上的“天然原罪”。從經濟收益與風險的角度分析,并不利于技術領域的再投資與創新發展。[14]而生成式人工智能除了涉及操作者這一重要主體以外,還至少牽涉硬件供應商、底層數據提供者、大模型設計者、跨境監管者等多層次的參與主體,從整體著手建構完善的風險調控機制與相應的結構化責任體系,才有可能適應數字技術治理的邏輯基礎。

(二)無法回應技術發展現實

如前所述,生成式人工智能已經具備了信息識別能力、邏輯推理能力、自然語言理解能力與行為決策能力,結合實際確定生成式人工智能的法律地位是解決生成式人工智能治理無法回避的關鍵性問題。但是,當前法律規制與法學研究對于進階到新生產力水平的特殊智能體并無統一的地位共識,導致無法建構完整的、符合人類共同利益的人工智能道德規范和行為準則體系。隨著人工智能時代的到來,各行各業的決策特別是關系民眾日常生產生活的決策已經大部分由機器自動作出,信用評價、就業準入、醫療服務、學位搖號這些傳統由人作出的重大決策已經實現由人工智能自行處理,資格認證系統、排名算法和風險預測模型決定了何種主體是否可以獲得高度的信用值、獲取正確的對癥治療方法以及受教育的權利。[15]生成式人工智能的技術能力強化了機器決策在社會治理中的重要性,由于人口結構老齡化的趨勢以及生產關系的客觀改變,在可預見的時期內,技術治理將在社會治理中不可避免地占據更為重要的地位。面對技術替代人類的客觀實際,應當通過何種標準、模式給予生成式人工智能的身份以法律層面的回應,實際體現的是人類自身的反身性,即人類是否可以通過規則設定以真正掌控技術的發展。這也正是美國前國務卿基辛格反復強調高階人工智能對人類的威脅遠超核武器的論點基礎。[16]

(三)法哲學方法論不足

得益于學界對于人工智能法治理念的前瞻性探索與技術發展的時代潮流,當前數字法學的研究成果涌現,但由于缺乏對于數字治理系統工程的高位建構,導致當前的數字法學研究過于集中在某一特定領域的單獨規則建構,特別是高度重視概念辨析而忽視了理論指導實踐應用的真實價值。[17]一是需要引入交叉學科改造法哲學方法論。方法論是人類認識、改造世界的方法和理論,法學屬于社會科學,其研究與應用需要方法論的指引。[18]例如,生成式人工智能的運用涉及算力、算法與數據這三項主要要素,對其任何單一要素的集中規制均無法解決生成式人工智能發展過程中面臨的整體問題。這就需要引入工程學中系統治理的概念,從體系化規制的思路重新著手調整人工智能規則治理的基礎架構。[19]二是當前的數字法學研究集中于法教義學研究,從已有經驗研究固有問題的解決辦法,顯然無法高效追蹤、及時調整大量的新生問題。[20]2023 年5月23日,武漢市一小學男生譚某在校內被該校教師駕車碾軋致死,6月2日孩子母親從高處墜樓身亡,根據有關報道,孩子母親跳樓與意外事件發生后的網絡評論暴力之間存在高度關聯。在介入此類重大輿論的引導時,若有人或勢力惡意使用生成式人工智能發表規?;谋┝ρ哉?,則極易引發超出事件本身的不利后果,而這種行為是否屬于犯罪、犯罪行為如何查實、犯罪量刑如何把握、由何種主體承擔懲戒后果等均需要法律予以現實調整,而非試圖從法教義學角度著手予以解釋或回應。三是當前理論研究成果集中于概念再造,但解決實際所需的價值較弱。[21]例如,國內學界對于數據的研究主要從數據權屬等基礎性概念方面進行展開,對數據權利的類型、含義、內涵進行了大量的創設性論證。[22]但是,生成式人工智能需要使用全域數據樣本進行模型訓練,其直接涉及的是數據規?;瘧脝栴}。對某一主體所屬的數據單獨區分權屬,意義著實不大。過于微量的數據樣本既無法解決數據定價、交易等價值交換的現實需要,也對利用數據設定了過高的單獨標注、單獨利用標準,無法發揮數據集中利用的規模效應。[23]從理論聯系實際、解決實際問題的角度出發,有關生成式人工智能治理的法哲學方法論仍需進一步補強。

四、生成式人工智能的治理原則、方法與架構

“法律是行為的規則和標準,人們借此實施行為或限制行為?!保?4]面對生成式人工智能強大生產力水平帶來的社會治理現實問題,法律特別是相關規則研究應靠前一步,以前瞻性、戰略性、實用性思維建構完善治理范式,確保技術的發展為人類所掌控。

(一)治理原則

一是風險控制首要原則。安全穩定是推動高質量發展的重要保障,也是衡量高質量發展的重要標尺。關于生成式人工智能有效利用、規?;?、安全利用、可控制利用的系統性、框架性法律法規,需要從總體國家安全觀的高度出發建構完善。[25]針對生成式人工智能的立法,必須強化底線思維、極限思維,有效防范化解因生成式人工智能的規?;瘧眯纬傻南到y性重大風險。因此,傳統人工智能以算法規制為核心的“可解釋”規范體系應逐步轉向以各要素風險“可控制”為核心展開的規范體系。二是全面監管原則。由于生成式人工智能的參與主體眾多,對于單一主體的限制與控制無法涵蓋生成式人工智能運行過程中產生的絕大多數風險,因此,可以將對生成式人工智能發展具有系統重要性的相關主體均設置相應的規制內容與明確的評價標準,通過結構化控制實現總體可控制。[26]將原有單一的算法義務主體擴展至所有參與主體,每一主體均具有自身的責任義務要求,確保發展“負責任”的人工智能。三是技術收益與責任風險對應的技術治理原則。根據唯物辯證法的基本觀點,任何事物都具有兩面性??陀^分析,即使生成式人工智能帶來了極大的治理風險與發展的不確定性,但其對于人類生產力水平的迭代提升作用是明顯的,人工智能依然是未來科技發展的主要方向。因此,在控制生成式人工智能等新科技風險的同時,更需要同步建立更為適應新技術進步與現實發展的規則框架與法治生態,確保投資有益的技術可以獲得相稱的價值回報,避免因為法律法規的過重限制而造成技術研發者與投資者承擔過強的責任義務,以鼓勵智能技術的再投資、再回報、再應用。

(二)結構化的體系治理方式

生成式人工智能將改變社會形態的方方面面。當前,生成式人工智能領軍企業OpenAI 公司已經將ChatGPT 的發展目標調整為發展與部署負責任的人工智能(be developed and deployed responsibly)。結合技術發展的底層邏輯,對生成式人工智能予以結構化調整規制,是控制人工智能負責任發展的關鍵路徑。[2]30生成式人工智能需要算力、算法、數據三大類要素共同實現,對于單一要素的特別規制無法涵蓋其帶來的全局性挑戰,需要從系統性工程的維度出發,統一調整、明確標準、綜合控制,從總體國家安全觀的站位系統性建構覆蓋全要素的結構化治理體系與能力。

一是在算力方面,從集中力量辦大事的傳統優勢與制度優勢出發,重點調配規?;懔Y源,抓緊推動開發關鍵硬件技術、建設新型數據基礎設施。當前法律對于新科技的調整并未將重點放在算力布局優化等硬件領域,而是聚焦于算法備案等軟件規制領域。ChatGPT、Mid-Journey 等生成式人工智能底層建構均需要使用美國英偉達公司(Nvidia)所生產的顯卡(GPU),其創始人兼CEO 黃仁勛提出,加速計算和生成式人工智能是計算機行業正在經歷的兩大巨變,全球數據中心已經安裝的萬億美元數字基建將逐步從通用計算過渡到加速計算。新一代硬件研發與應用的標準將成為爭奪新科技領域標準制定權的關鍵,疏于對算力等底層技術設施的管控能力與渠道建設,將喪失對于未來生產力提升與發展先發優勢的管控。當前,我國的算力總量居于全球前列,但分布分散,對于引入國外新一代數字基礎設施與研發自主知識產權替代品的標準與應用范圍應提前規劃,既要考慮避免重復投資,也應避免盲目跟風、匆忙更新引發的系統性架構風險。

二是在數據方面,聚焦數據規?;瘧玫亩▋r、交易、監管等關鍵領域,形成數據規?;瘧玫男聵藴?,豐富數據高頻流動、高效配置、高速增值的權屬體系。數據是新科技革命時代的礦產資源,生成式人工智能的訓練與深度學習需要使用規模龐大的基礎數據資源。單一個體所產生的數據對于生成式人工智能所需的數據資源作用不大,應注重將數據利用與個人信息保護相區分。個人信息屬于隱私,其法益受到民法與刑法的明確保護,若利用個人信息自然涉及敏感信息保護等法律的強制性要求。而數據無時無刻不在產生,全球網絡實時同步使用ChatGPT 等程序的用戶達到千萬級規模,操作生成式人工智能必然產生數據,但絕大多數作為字節存儲的數據對于普通用戶個體而言并無區分或厘清權屬的客觀意義。只有在數據被高密度化、大規?;褂煤?,才能形成相應的決策依據、情勢感知與內容輸出等實際價值。在確定個人信息與數據的概念與范圍差異后,法律應著重從加強個人信息的保護與促進數據規?;眠@兩個維度分別建構其使用與發展的差異化技術路線,并完善配套規則。否則,我國具備的數據規模優勢將因過于嚴苛的數據權屬保護等人為限定條件,導致數據交易等規模經濟始終無法成形。數據規?;瘧貌⒉灰馕吨艞墝祿谋Wo或摒棄生成式人工智能操作者的潛在經濟利益,可以通過數據利用透明度要求,制定生成式人工智能使用數據時的侵權損害賠償規則,引入數據規?;灰锥愂盏确绞街Ц独靡幠;瘮祿膶r,實現數據的有效保護與高效優勢,助力我國數據資源體量優勢轉化為數字技術發展的基礎優勢。

三是在算法方面,重點評估建構符合客觀規律與風險管控的應用辦法,用主流價值導向駕馭生成式人工智能的底層“算法”,全面提高利用的效率與安全性。[27]《新一代人工智能倫理規范》第十二條規定,要在算法設計、實現、應用等環節,提升人工智能的透明性、可解釋性、可理解性。但如前所述,對于算法的單獨規制實際是在算法無法解釋與侵權損害賠償間建立了人為的因果關系,而非基于事實上的考慮。生成式人工智能的出現凸顯了單獨規制算法的理論弊端,由于生成式人工智能已經具備了類似人類大腦神經元計算的運行模式,其在操作者的介入下輸出的內容往往超出生成式人工智能的研發者或提供者所預設的范圍。這就類似于研究者均可以使用經濟學公式,但因為輸入數據變量的不同而得到不同的結論是極其正常的現象,若因此去苛責公式的發明者無法實現統一的結果,明顯屬于責任錯配。此類規制路徑除了加大投資者責任以外,并無法真正地解決人工智能在真實社會運用中的實際問題。技術手段本身并不能回答原因問題,將結果混淆為原因是一種謬誤。[28]需要基于對收益與責任風險合理的考量,逐步調整算法的規制路徑與方法,推行算法研發與使用的負面清單制度,明確算法使用中不得調用的數據庫、不得違反的倫理、不得侵害他人個人隱私等強制性要求,若違反并被查實,則必須承擔相應的嚴格責任。2023 年5 月,新西蘭信息專員辦公室(OPC)發布《生成式人工智能指南》,指出生成式人工智能對新西蘭公民個人信息的使用應遵守其《隱私法》。除要求保證一定范圍內的算法透明責任之外,應創設較為寬松的算法管制生態,為鼓勵技術投資孕育良好的法治營商環境。算法的規制與算力、數據的規制必須從實現一致目標著手建構整體治理框架與體系,并結合生成式人工智能的技術特點與演進規律,逐步形成清晰完整的系統性治理體系。

(三)鏈式責任治理架構

在明確對于算力、算法、數據三大要素結構化治理的體系性方法后,實現發展負責任的人工智能的關鍵路徑就在于人工智能的發展有主體負責并且具備負責的能力。應基于技術應用所需的底層要素資源以及生成式人工智能發展引致的倫理風險,從責任的角度構建覆蓋完整產業鏈與應用鏈的生成式人工智能深層次治理架構,明確相應歸責路徑,通過完善的法律法規和行業標準約束生成式人工智能的責任主體,形成可預期的風險責任制度,通過各部分的控制達到總體控制的目的,實現對生成式人工智能的全鏈條監管。[29]在治理架構上,將涉及生成式人工智能使用與發展的所有重要主體均納入責任控制范疇。生成式人工智能的使用不僅涉及算法規制所調整的智能研發者、持有者,還涉及數據供應者、數據生產者、智能操作者、智能監管者等多類型主體。每一類主體均應設定相應的強制性規范與倫理紅線。在責任承擔的機制上,基于損害結果與事實原因確定因果關系,當無法溯源具體致損原因時,由違反強制性規范的主體承擔嚴格責任。[30]在治理的過程中,需要將收益分配制度與責任風險緊密結合在一起。義務主體可能承擔的責任風險應與其可以獲取的收益盡可能匹配,并盡可能避免單一主體承擔無限責任的情形產生。[31]

其一,在研發者責任上,參照算法研發的強制性要求,設定明確的不可突破的倫理底線。例如不得要求機器殺死人類、不得設定歧視性計算模型等,以明確的禁止性規定對應其有限范圍內的嚴格責任。另外,設定相應技術開發管理過程標準,要求研發過程中的關鍵性環節數據必須在一定期限內保存,以便確定責任原因時可以溯源。其二,在控制者責任上,要求其不得傳播顛覆政權、未經甄別的信息等強制性義務,特別是注重生成式人工智能輸出內容的特點,要求控制者對AIGC 強制覆蓋底層水印以溯源,以便其他主體可以準確辨明內容來源并判斷是否屬于人類作品。在其他情形下,若其可以滿足合規并主動保持接受監管治理,可給予其相對寬松的發展環境。但若其違反強制性規定,則對其予以嚴格的懲戒與追責。其三,在數據責任方面,數據供應商與數據生產者負有提供高質量數據的義務,例如中文數據供應商應確保建立高質量的中文數據庫以優化以中文為主的大語言模型訓練。若數據供應商與數據生產者使用他人作品涉及侵權或利用數據傳播虛假信息(煽動暴亂)被查實,則應承擔相應的損害賠償等責任。其四,在監管者責任方面,由于生成式人工智能的研發涉及眾多產業鏈條與互聯網全域樣本,任何單一國家或企業均無法建立起覆蓋全球的監管鏈條。在生成式人工智能的監管上,應從國際、國內兩個維度著手建立覆蓋其發展應用全鏈條的監管機制。在國際層面,可考慮由人工智能主要技術強國共同參與設立人類人工智能監管議事機構,吸納大型私人技術資本、中小技術企業、普通民眾等多樣化主體共同參與強人工智能的監管框架制定。①2023 年5 月,OpenAI 公司CEO 山姆·奧特曼在美國國會就人工智能技術的潛在危險參加聽證,呼吁政府對生成式人工智能進行監管和干預,開發減少人工智能潛在危害的框架,提出可以建立類似于國際原子能機構(IAEA)的人工智能監管機構,對極其強大的AI訓練系統形成全球監管。在國內層面,應著眼國家安全設定統一的監管目標并完善相應的監管手段、標準與能力,從促進生成式人工智能乃至通用人工智能發展的角度,營造適應技術發展的完整行業生態。對于鏈上的不同參與主體設定相應的監管內容,例如,對于智能的研發者與控制者,設定相應治理底線,要求其不得主動識別操作者生物資源信息、不得推廣含有人群歧視的內容等。再如,對人工智能的模型設計、訓練與應用明確相應的準確率閾值,開展生成式人工智能市場產品的定期與不定期動態評估等。另外,監管者需要特別注意生成式人工智能對于人類知識傳承體系與模式的改變,高度重視生成式人工智能對教育的深刻影響,積極介入生成式人工智能與教育的深度融合,確定生成式人工智能在教育領域利用的標準、機制和模式,以應對生成式人工智能可能造成的意識形態領域風險。

五、余論——以治理規則優勢鞏固擴大制度優勢

黨的二十大報告指出,要加快建設網絡強國、數字中國。加快發展新一代人工智能是我們贏得全球科技競爭主動權的重要戰略抓手,是推動我國科技跨越發展、產業優化升級、生產力整體躍升的重要戰略資源。法律是保障人工智能可信向善、負責任發展的關鍵因素與主要手段,《數字中國建設整體布局規劃》明確提出“建設公平規范的數字治理生態”的要求。在我國已經基本形成人工智能產業高地與理論高地的基礎上,需要繼續深化治理規則研究,運用法學理論研究成果,為發展負責任的生成式人工智能創造一流生態環境。[32]當ChatGPT 規?;瘧靡院?,有關“ChatGPT 為什么沒有誕生于中國”的討論日益增多。法律無法直接發明生成式人工智能技術,但卻可以為技術的發展奠定扎實的制度基礎與合適的生長環境。[33]當前,各國均極為重視對于生成式人工智能相關規則的研究。2023 年4 月,歐盟提出了針對生成式人工智能的新的版權規則。2023 年5 月,美國國家科學基金會與其他聯邦機構、高等教育機構以及相關者合作,宣布投資約1.4 億美元建立七個新的國家級人工智能研究所,致力于將人工智能實踐從主要由技術創新驅動的實踐轉變為由倫理、人權以及曾經被邊緣化的群體的投入和反饋驅動的實踐。

為確保下一代人工智能技術可以在中國得到最優的應用與發展,法學研究應當為技術迭代提升做好前瞻性準備。一是需要強化有組織科研與前沿基礎研究,搶占生成式人工智能理論研究高地。特別是聚焦生成式人工智能技術、生成內容、主體責任、數據源和數據處理、隱私保護等領域,形成有價值、可利用、可轉化的規?;芯砍晒?。通過增加適應生成式人工智能發展的基礎服務理論供給,加強人工智能倫理道德、法制保障和社會問題研究,全維度建立保障生成式人工智能健康發展的制度規范和倫理道德框架。二是需要以前瞻法治引領推動關鍵核心技術自主創新實現突破。除了正視當前國內在數字技術能力上的不足,還應堅持系統觀念、整體思路,通過規則創新優化調動要素優勢。[34]同時應加大對人工智能新技術、新業態和新模式的知識產權保護力度。[35]加強符合生成式人工智能發展實際的標準制定及測試認證,支持企業等多主體參與生成式人工智能綜合標準、基礎共性技術標準制定,更好服務建設以實體經濟為支撐的現代化產業體系。三是法學研究需要增強緊迫感與使命感,加快生成式人工智能領域的創新立法步伐以解決實踐問題,努力健全數字治理需要的必備法律制度。[36]將法律規制融入生成式人工智能發展全過程,在重組全球要素資源、重塑全球經濟結構、改變全球競爭格局中,形成人工智能法治的“中國方案”,貢獻新一代人工智能發展的學術智識。

另外值得深入思考的是,生成式人工智能的誕生并不是人類歷史上第一次實現生產工具質的提升。數千年來的人類歷史產生過浩瀚的顛覆性技術,有些直接導致了國家與區域文明的滅亡,但古老的中華文明未曾中斷,我國古代法學家、政治家在面對新事物時所遵循的價值態度與具體做法需要深入研究,并提煉思想為現今治理所用。此觀點并非臆想,美國安德魯·馬歇爾基金會提出,人工智能是中美兩國未來在軍事及其他方面競爭的主要領域,其資助的研究報告從美國、蘇聯兩國的傳統文化對待新技術的差異推導了美國取得冷戰勝利的思維邏輯,而受傳統觀念影響,中國與美國在面對新生事物上的差異極有可能體現在競爭優勢與戰略方法上。[37]習近平指出,“在五千多年中華文明深厚基礎上開辟和發展中國特色社會主義,把馬克思主義基本原理同中國具體實際、同中華優秀傳統文化相結合是必由之路”。[38]面對生成式人工智能引發的新問題與挑戰,探究傳統法治文化在新技術時代的現實治理意義,也是可以研究并一定能夠取得重大實踐成果的新型法哲學方法論。

(特別感謝李伯陽、任夢遠對部分觀點的貢獻。)

猜你喜歡
人工智能算法
我校新增“人工智能”本科專業
基于MapReduce的改進Eclat算法
Travellng thg World Full—time for Rree
2019:人工智能
進位加法的兩種算法
人工智能與就業
算法初步兩點追蹤
數讀人工智能
基于增強隨機搜索的OECI-ELM算法
下一幕,人工智能!
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合