?

生成式AI的法律風險及應對

2023-08-27 00:23
關鍵詞:提供者規制模型

何 煊

(華東政法大學 經濟法學院,上海 200042)

當今社會,人工智能(AI)的發展日新月異,且已被廣泛應用于包括金融、醫療、法律等各個領域,逐漸成為推動社會進步與經濟發展的重要力量。生成式AI(Generative AI)是一種具有創造性的AI技術,可以模擬人類創造性的思維和行為,生成近乎真實的圖像、音樂和文本等作品[1]。與傳統的機器學習技術不同,生成式AI不受人為制定輸出結果格式和內容的限制,而是可以自行決定。生成式AI的出現,標志著強AI時代帷幕已徐徐拉開,人類社會或將邁入一個分水嶺。然而,隨著生成式AI技術的廣泛應用,給人類帶來驚喜的同時,也產生了一系列的法律風險和挑戰,特別是在數據安全、知識產權保護、個人信息安全等方面,具有發生潛在意外的可能。另一方面,生成式AI技術也將會對人類社會的制度、經濟、道德倫理及價值觀構成挑戰。有觀點認為,以ChatGPT(Chat Generative Pre-trained Transformer,聊天生成預訓練轉換器)為代表的系列應用將會加速公共價值體系的崩解,有必要針對潛在風險進行應對[2]。而如何在現有法律框架和規范的基礎上,制定適當的應對策略,是擺在人類面前的一項重要課題。我國網信辦先后于2022年11月25日及2023年4月11日發布《互聯網信息服務深度合成管理規定》(以下簡稱《規定》)與《生成式人工智能服務管理辦法(征求意見稿)》(以下簡稱《辦法》),旨在促進技術的健康發展與規范應用,具有重要的里程碑意義。歐盟已于2023年6月14日通過《人工智能法案》(AI Act,以下簡稱《AI法案》),配搭以《數字服務法案》(DSA)、《人工智能責任指令》(AILD)等法律法規,為應對大型平臺、AI產品等形成規制體系??梢灶A見的是,未來各國將持續對生成式AI監管規則進行探索,以形成更為豐富健全的理論體系。本文旨在探討生成式AI的相關概念及作用機理,分析其可能帶來的法律風險,對國內外現有制度進行分析,為我國制度構建提出基本的應對策略,以促進公民合法權益的保障及生成式AI產業的有序發展。

一、生成式AI的概念及作用機理

(一)生成式AI的相關概念

從現有規定框架以及學界討論來看,對于生成式AI,在概念的使用上就令人目眩。AI生成內容(Artificial Intelligence Generated Content,AIGC)[3]與生成式AI(Generative AI)[4]存在區別,AIGC強調由AI生成的內容,而生成式AI是一種產生或創造AIGC的手段,二者所涉風險并不相同。生成式AI是一種更廣泛、包容的概念,包括多種生成模型和方法,用于實現內容的生成、創造和創新,其中包括深度合成與深度學習等[5]。AIGC則與PGC(Professional Generated Content,專業生成內容)、UGC(User Generated Content,用戶生成內容)相對應,強調生成主體為AI?!掇k法》將生成式AI定義為:基于算法、模型、規則生成文本、圖片、聲音、視頻、代碼等內容的技術。該定義對生成式AI底層技術內核與生成內容類型進行了概括,較為全面與精確。有學者提出類似觀點,認為生成式AI是指基于算法、模型、規則等,在沒有人為直接參與的情況下,自動生成文本、圖片、視頻等內容的技術[6]。從技術角度來看,生成式AI又與機器學習(Machine Learning)、深度學習(Deep Learning)、深度合成(Deep Synthesis)等存在著密切聯系,對此有必要進行區分與厘清。機器學習是AI技術的一個分支與子集,主要涉及從輸入數據中學習,并做出預測或決策,不斷進行改進或提高[7]。傳統AI技術應用如自動駕駛、人臉識別等雖然可以對特征進行高效識別,但輸出結果系靜態、固定的,這意味著AI無法通過自身進化而提高準確性。而深度學習技術則為機器學習的升級,可以學習更復雜的數據表示,并執行圖像識別、自然語言處理等任務[8]14。通過在變量之間創建神經網絡(Neural Network)來輔助預測過程,在數百個變量間建立起聯系,較機器學習更為先進。深度合成技術則是深度學習的子集,是側重于視覺領域應用的分支,如圖片合成、視頻編輯等。正如學者所言,深度合成在我國制度框架下不僅是技術概念,更是法律概念[9]?!兑幎ā分忻鞔_了深度合成技術為“利用深度學習、虛擬現實等生成合成類算法制作文本、圖像、音頻、視頻、虛擬場景等網絡信息的技術”(1)參見《互聯網信息服務深度合成管理規定》第23條。,并以此作為規制重點。

《AI法案》形成了以“通用AI系統”(General-Purpose AI System,GPAIS)為核心的規制體系,成為生成式AI監管的著力點。歐盟理事會在2022年12月6日通過的一般方法現將GPAIS定義為:“提供者意在廣泛開展適用的功能,如圖像和語音識別、音頻及視頻生成、模型檢測、問答、翻譯等;通用AI系統可以在多個情形中使用,并被整合在多個其他AI系統中?!?2)See Article 3 AI Act.AI系統(AI System)是幫助理解AI規制的重要概念,AI系統的工作原理是,通過獲取輸入數據并經過一系列算法運行,以進行預測風險、解釋或解決問題,例如對自動駕駛系統的應用[10]?!澳P汀?(Model)是指通過對訓練數據進行學習而得到的一個函數或算法。模型可以對輸入數據進行處理,并生成有用的輸出或預測。模型是機器學習、深度學習等重要技術的基石,通過函數與算法對訓練數據的加工,模型可以持續地運行與自我完善。ChatGPT是深度學習技術的代表性應用產物,而深度學習技術則主要以深度神經網絡(Deep Neural Networks)模型為核心,其又可被稱作“大型生成式AI模型”(Large Generative AI Models,LGAIM)或“大型語言模型”(Large Language Models,LLM)。它們相較于傳統模型能夠處理更為廣泛、復雜的問題,它們的“通用性”建立在功能及性能之上,如任務類型(文本、圖片)、任務領域(教育、醫療、金融等)、多功能性(黑白或彩色圖像)[11]。一般而言,人類會審查模型結果的準確性,但機器學習技術的出現幫助AI系統進行自主調整與反饋,使其在脫離人類干預的情況下,在預測精準度方面不斷提升。故此類模型具有極強的可塑性,能夠不斷進行自我完善與學習。

AI系統與AI模型是一對重要的概念?!禔I法案》主要強調對通用AI系統的規制,進而提出了風險分級概念,所依據的也正是對AI系統在多種場景下具體應用的評估,而非僅聚焦于AI模型的性能。AI系統是一個由多個組件構成的整體,模型作為其中的一個關鍵組件,負責對輸入數據進行處理和分析,作為整個系統的工具性構成而存在。除模型外,AI系統還包括了數據存儲與管理、用戶接口、決策邏輯和反饋機制等組件[12]1045。模型的訓練和推理過程是AI系統中的重要環節,它們與其他組件共同協作,形成完整的AI應用。脫離了系統的其他組件,模型便無法發揮全部作用,從這個角度來看,以ChatGPT為代表的生成式AI可以被視為一個集成了生成式AI模型和相關AI系統組件的綜合系統。它不僅具備生成式AI模型的能力,還具備部署、交互和管理的能力,以提供實際的對話服務。AI系統可以與其他系統深度集成,如搜索引擎、辦公程序等,進而強化用戶使用體驗,形成完整的AI系統價值鏈條。概言之,模型本身具有工具性,高級模型的存在旨在提升預測效率與精度,是整個AI系統的最關鍵部分。AI系統作為更廣泛的概念,涵蓋了不同的類型、目的與用途,其設計與使用能夠涉及多個層面的法律問題,應成為針對生成式AI的主要規制對象。

(二)生成式AI的作用機理

以ChatGPT為例,以基于深度學習的自然語言處理模型為基礎,功能是生成具有上下文連貫性和邏輯性的自然語言回復。作為文本對話式應用,它的機理可以分為兩個主要方面:訓練和推斷。在訓練階段,ChatGPT語言模型使用了大量的文本數據進行預訓練。它的訓練數據可以包括從互聯網上獲取的各種文本資源,例如新聞文章、網頁內容、書籍等。這些數據被用來訓練一個深度神經網絡,該網絡具有多層結構,通常采用了Transformer模型[1]。Transformer 模型是一種特殊的神經網絡結構,由多個編碼器(encoder)與解碼器層(decoder)組成,它在自然語言處理任務中能發揮有效作用。在預測與輸出階段,GPT模型通過事先的訓練、注意力機制與神經網絡等對上下文展開理解,經“采樣分類”技術最終生成具有多樣性的文本內容[13](見圖1)。

圖1 生成式AI模型運行機理

通用AI系統可以完成或適應于完成一系列不同任務,其中包括一些它沒有經過刻意及專門訓練的任務[11]。生成式AI的用途不僅僅局限于對話交互、文本生成,除ChatGPT應用外,在圖像與語音識別、音頻及視頻生成方面的應用前景也十分廣闊。在自然語言處理(Natural Language Processing,NLP)、計算機視覺(Computer Vision,CV)等領域,生成式AI也有不俗表現。例如谷歌翻譯(Google Translate)、百度翻譯等在線翻譯工具,以及以NLP技術為基礎的虛擬助手、聊天機器人等應用。人臉識別為視覺領域的主要應用,其用于對人臉進行分類并識別等操作,在安保、金融服務及社交網絡等場景下作用明顯。在我國,如支付寶“刷臉支付”功能的廣泛應用,給人們帶來極大便利。生成式AI系統具有高度的可塑性、自主性與不確定性。ChatGPT基于GPT3.5(Instruct GPT)大規模預訓練模型,通過存儲海量數據、高效理解設計結構與讀取用戶需求,以近乎于人類的語言形式生成具有“較高復雜度的回應文本[14],其運行過程無關乎人類意志,可以在接受指令后自行獨立完成任務,生成的結果也往往具有不可預測性。

各類生成式AI系統具有普遍類似的作用機理,雖然在文本、圖像、視頻等作用形式上呈現差異化,但無法脫離生成、比對、預測等功能。通過對ChatGPT運作的分析,生成式AI的深層運行邏輯主要可分為模型訓練與采樣推理兩個階段,分別可稱作前端與后端[15]。在前端,AI系統提供者或開發人員通?;谔囟ǖ哪P?如生成對抗網絡(GANs)等,經海量規模、類型數據的“投喂”,使之具備不斷自我完善與進化的能力。預訓練(Pretraining)被認為是一種用于生成式AI開發與訓練的有效方法。預訓練通過使用大量的訓練數據,如無標簽數據(Unlabeled Data),通過深度神經網絡開展共性特征學習,使其能夠學習到常用的知識與表達,再使用有標簽數據(Labeled Data)進行微調,達到性能的優化效果[16]。在模型實際應用到下游場景時,模型通常脫離最初提供者的控制,需要專業人員對其進行調整以適應各種變化。對于后端而言,生成式AI需要體現其創造性與不確定性,其通過最小化或最大化特定的損失函數來優化模型。在生成對抗網絡中,生成器和判別器之間的對抗損失函數驅使生成器產生更逼真的輸出[17]。通過對輸入樣本進行插值、操作和采樣,可以生成不同的輸出樣本,實現創造性的生成。憑借創造性的生成,生成式AI系統往往不局限于日常交互,而向社會領域各類專業服務擴張,如金融、醫療、教育等,專業的行業工作者通過對AI系統的使用,開展專業業務工作。

二、生成式AI的法律風險分析及法律規制反思

(一)生成式AI法律風險分析

與為單一、簡單化目標與任務而設計并服務的傳統AI相比,生成式AI能夠通過學習人類的行為和偏好,產生新的、更加精準的推斷結果,從而帶來對個人隱私、知識產權、數據安全等多個維度的法律風險。有學者通過對AI技術原理的剖析,指出生成式AI將帶來數據合規、生成內容濫用、算法濫用以及隱私風險等[18]。也有學者依據生成式AI在準備、運算到生成階段的不同表征,提出生成式AI在數據、算法偏見及知識產權三個方面的風險[19]。自生成式AI問世之日起,以數據、隱私、知識產權等法律風險的擔憂便延綿不絕,屬于AI模型與系統風險的共同表現形式,此類風險均可被認為具有同一屬性與特點,即對公民個人或特定群體的人身、財產等權利的風險。對于以ChatGPT為代表的生成式AI,有學者不主張單獨立法規制,理由在于技術應用場景乃至技術本身具有的不確定性將帶來風險的難以預測,以此為規制起因與緣由,會陷入技術與法律一一對應的謬誤中[20]。本文認為,技術本身是中性的,AI模型的開發目的在于提高生產效率、增進社會福祉,模型的固有缺陷與風險無法徹底消除,只能夠通過技術層面的不斷完善而將風險降至可接受并預見的范圍內,法律制度無法解決技術問題,不當介入將對技術發展構成阻礙。就目前來看,生成式AI所帶來的法律風險仍未形成特殊的風險類別,無需就假設或猜想中的風險予以單獨立法。

基礎法律條文可被理解為“行為+要件”的結合,對技術模型的風險的單一討論必將落入籠統、寬泛的困境,而結合特定應用與人的行為則將使問題更為清晰與具體,形成針對實際風險規制的探索,構建特定主體的權利義務規則,成為生成式AI規制的邏輯起點。生成式AI應用的多樣化決定其風險程度伴隨場景的變化具有顯著差異??紤]到這一基本特征,歐盟《AI法案》提出了具有基石性意義的“風險管理系統”(Risk Management System)分類體系,將風險程度進行相對科學且精細的劃分。該體系下,依據AI系統可能對人的基本權利產生威脅的等級將其劃分為四類,分別是不可接受的風險(Unacceptable)、高風險(High)、有限風險(Limited)與最小風險(Minimal)[21]。凡是使用人工智能系統或技術操控人類行為,對人類造成或可能造成身體、心理傷害,進而對公民的安全、正常生活和基本權利構成明顯危險的,即屬于“不可接受的風險”,應無一例外地被禁止使用。部分可顯著影響用戶基本權利的AI系統可被視為具有高風險,如涉及生物識別、信用評估、基礎設施管理等。而大多數人工智能系統,如視頻游戲或垃圾郵件過濾器,都屬于有限風險或最小風險類別,無須特別規制。就頗受爭議的高風險系統而言,其使用面臨著法案設置的諸多強制性要求,只有當合規性要求被滿足并預先經過有關部門評估合格,這類AI系統才能夠真正進入市場并投入使用,對提供者而言較為嚴苛。提供者作為技術開發主體,事實上無法預見模型投入使用的所有可能場景,這些在一定程度上由下游使用者所決定,主體權利義務關系與風險等級隨場景而變化,故此種風險分級制度亟待完善。我國法律欲參考歐盟立法對AI進行分級,就必須明確具體應用場景及下游主體,對癥下藥。

從前端的模型架構與數據訓練來看,模型以網絡文本、語言學知識庫、對話數據集和科學論文等主要渠道進行訓練,雖然這些渠道的數據可能涉及個人信息或隱私,但開發人員會對數據進行篩選和屏蔽,去除其中的個人信息,僅使用匿名化數據用于訓練。在篩選過程中,涉及到數據、個人信息獲取及知識產權等方面的法律規范,以及公平競爭和商業道德等要求。在后端的輸出階段,以文字、圖片、音頻或視頻為主要表現形式的輸出內容,將挑戰基于現行法知識產權歸屬、轉讓以及責任認定等方面的規定,圍繞著版權、商標權、專利權等知識產權糾紛將大量出現,公眾對生成信息的誤讀及誤解將引發負面社會影響。例如,OpenAI的政策團隊曾發布由Irene Solaiman領導的一個研究小組所取得的成果,該研究小組當時在研究GPT-2等語言處理模型的信息發布策略、社會影響及濫用案例。該研究發現,被測試的讀者錯誤地將虛假新聞誤認為真正的新聞,對它的平均信任與對“紐約時報”文章的信任程度相同[22]。然而,技術可能被用于增進社會福祉的同時,也可遭不法分子的惡意利用,這取決于具體的場合與場景。例如醫療、金融場景下對病人、用戶的隱私泄露,相較一般場景下,如日常問答對話,具有更高的風險程度。而對應用于何種場景與如何應用到具體場景,開發人員無法事先預測與知曉,下游主體在此過程中扮演著重要角色。對于AI模型而言,提供者扮演類似產品責任法律制度中“生產者”的角色,對模型性能及質量負有首要責任,而在實際應用場景中,模型需要經過微調方可具備適應性。

對于后端生成內容的輸出審查,應當以平臺為主要規制對象。原因在于平臺,尤其是超大型平臺在模型開發、數據訓練等方面具備了超越個體的優勢,相較于個體,其在權益侵害可能性、范圍、影響等各方面均更勝一籌。在風險程度上,這超越了以個體非專業用戶權益的侵害,而上升成為對整個社會秩序的威脅。因此,雖然無法跳脫傳統法律制度就歧視、不當言論等風險構建的規則范疇,但仍應作為該類風險中的極端情形予以特殊規制。New bing就通過微軟平臺對瀏覽器、word等應用進行嵌入,完善與優化客戶的服務體驗。以“平臺+AI”的發展模式將通過創造新的權威知識重新分配權力,強化互聯網寡頭在市場的壟斷態勢[23]68。虛假信息、誤導性言論、歧視與偏見等帶來的威脅將通過平臺規模進一步放大,當前微軟、Meta、谷歌等對通用AI系統的開發與收購熱潮表明資本對技術的充分關注,隨著技術與平臺經濟的深度融合,未來針對應用于超大在線平臺的生成式AI系統的監管將成為趨勢。法律應當專注于法律關系,只有在法律關系場景下,制度方可發揮作用,而法律關系場景架構的前提是AI系統應用場景的存在,而真正能夠給公民權利造成威脅的應用場景才是制度的著力點,脫離場景客觀風險而存在的規制如無本之木。盡管生成式AI模型的固有屬性及缺陷將使數據、個人信息、隱私、知識產權等基本權利侵害形式愈加復雜化,但站在AI系統應用場景的角度看,由各單一個體積聚的風險將引發更高維度的社會整體風險,體現為“平臺+AI”的模式,這是現有法律規制體系所無法觸及的。

(二)生成式AI法律規制反思

在權利侵害的表征上,傳統法律體系仍存在一定程度上的調整與因應空間,然而該空間已愈發狹小。

第一,《辦法》系在我國《網絡安全法》《數據安全法》《個人信息保護法》,以及《互聯網信息服務算法推薦管理規定》《互聯網信息服務深度合成管理規定》等規定基礎之上的升華與凝練,對技術規范、主體義務與責任作出了細致安排,強調技術開發、提供者的主體責任,但規制對象仍相對單一。我國為應對生成式AI法律風險所出臺的具有針對性的規定,如《辦法》《規定》等,一定程度上存在對歐盟立法的借鑒?!掇k法》通過參考《AI法案》規定,將責任聚焦于AI產品或服務的提供者,要求其對數據及服務質量負責,使其負有某種程度上的“高風險義務”,然而這一舉措并不能實現對生成式AI的有效規制。事實上,以《AI法案》為代表的相關歐盟立法,其靈感有一部分來源于歐洲相關產品安全立法,因此所謂的AI“提供者”(Provider)的角色地位很大程度上被等同于現實中的產品制造商。例如在最新《一般產品安全條例》(General Product Safety Directive,GPSD)中,規定了制造商、供應商及平臺的盡職調查義務(3)See European Parliament:General Product Safety Directive(2021).。對于GPSD所規定的“產品”概念,包括日常生活用品,在責任分配邏輯上,法律自然將其主要分配給上游制造商,因為他們通常是最了解產品性能及質量的主體,這也合乎一般情況下產品質量法律法規的責任分配邏輯。然而,AI并非一般的日常生活用品,如玩具、桌椅等,AI是作為更具動態性、復雜性與成長性的特殊工具而存在的,下游參與者對其使用、改造及維護方式與最初如何建立相比同樣重要,但《AI法案》就其責任分配及承擔問題卻并未過多涉及。例如,部署者(Deployer)通常根據用途目的的不同而對模型進行微調,使其在性能上具有更強的適應性。對于用戶而言,也存在專業水平能力與應用目的的差別,如日常生活中的疑問解答與專業辦公場景下工作人員的使用。我國現有規定偏重于對上游技術提供者、供應商等主體進行規制,主要試圖解決因提供AI服務而產生的責任主體不明、責任劃分不清晰等問題,仍是一種基于“產品”的規制思路。

第二,現有規定對平臺關注度不足?!禔I法案》對大型生成式AI模型開發提供者不加以區分地課以高風險義務,高昂的合規成本將部分小型開發者、企業驅逐出市場,僅剩少量市場巨頭,如谷歌、Meta、Microsoft/Open AI等,可以承擔因開發模型所帶來的高昂成本。我國《辦法》《規定》等制度所起到的類似效果,可能導致AI模型開發的集中化趨勢,這顯然并非是立法者的預期目的。這就引申出了生成式AI系統與平臺經濟的關系,前者能夠嵌入平臺,強化后者的壟斷擴張效應,在與下游應用場景結合的情形下帶來巨大的市場支配力量,最終導致平臺權力的“再中心化”[23]67。而技術膨脹出的權力越絕對,人類的主體性就越受到威脅,在平臺經濟所積累的優勢前日漸式微[24]。憑借其優勢,大型平臺迅速超越其他競爭對手,不斷在提高模型性能上加大投入,在數據等生產資源的攫取方面愈發猛烈,為其權力構筑添磚加瓦。因此,促進市場競爭是實現創新與規制的最有效手段,通過對個人、中小企業等模型研發者的扶持,降低模型開發所帶來的積聚效應,減少對公民權益的損害,形成市場良性競爭。盡管為應對日益擴張的平臺經濟,消除平臺壟斷給國民經濟帶來的嚴重負面影響,我國《反壟斷法》《電子商務法》等法律制度發揮著良好作用,但面對生成式AI仍顯力有未逮。以ChatGPT為例,該類大型生成式模型所能夠引發的最大外部風險,在于因其生成內容而導致的歧視、偏見、假新聞等一切有害信息所引發的社會問題。其在未來將會全面整合到平臺中,包括大型搜索引擎及社交媒體,當前的微軟、Meta、谷歌等對生成式AI模型的開發與收購熱潮足見一斑。區分AI模型生成內容與人類創造內容成為平臺生成式AI規制的“最后一英里”,有效的措施能夠從根本上杜絕因對錯誤信息的誤信而產生的消極后果。對此,有專業人士提出以加密水印為主要技術手段,將其應用于識別ChatGPT生成內容(4)該文詳細介紹了加密水印的定義及作用機理,其被認為能夠有效維護數據、隱私與個人信息安全?!癏ow The ChatGPT Watermark Works And Why It Could Be Defeated”Search Engine Journal,2023-04-28,https://www.searchenginejournal.com/chatgpt-watermark/475366/.,從技術上解決因內容來源而產生的誤解與誤判。制度上,DSA強調對超大在線平臺的管理與執法,如臉書、推特等需要履行相應義務,用戶也可針對非法內容進行投訴,具有一定的借鑒價值。然而,作為一部主要為因應超大型平臺法律風險而存在的法律制度,在針對生成式AI系統的規制上卻存在缺陷。DSA第二條第一款、第二條第二款將規制范圍局限于中介服務(Intermediary Service),隨后第三條將引入“純粹通道”(Mere Conduit)概念對其進行定義,以及托管服務概念(Hosting Service)(如互聯網接入提供者、社交媒體平臺等均屬于此)。托管服務被定義為提供者存儲由用戶提供或應用戶要求的信息(5)See Article 3(g)(iii) DSA.。當用戶請求AI系統提供信息時,它應該說是很難做到的。AI系統不屬于這些類別中的任何一個,它無法與為互聯網提供接入或緩存服務的提供商相提并論,因為社交媒體場景下,生成內容來源于系統本身而非用戶,故DSA并不能適用。

三、生成式AI法律風險的應對之策

法律是社會中各種利益沖突的表現,是人們對各種沖突的利益進行評價后制定出來的,實際上是利益的安排與平衡[25]。AI立法的首要任務是處理好創新與規制的關系。AI不是一種產品或一次性服務,它在不同的情境下歷經多個生命周期,對多種個人或群體產生不同的影響[26]。歐盟立法雖然部分考慮到AI的發展性與可塑性,但生成式AI系統的出現卻對諸如風險管理制度等規則安排提出挑戰,迫使法案朝著更為嚴格的方向前進。對于生成式AI系統的規制,應當以一種動態、靈活的視角,強調生命周期中各主體發揮能動作用,對此不宜課以較重責任,進而保留模型開發人員的熱情與動力,以增強AI市場的競爭力。另一方面,必須對平臺經濟與生成式AI的深度融合給予足夠的重視,DSA確立的平臺內容審核機制可為我國法律所借鑒,但仍需進行相應的擴張與調整。

(一)AI系統主體間合作機制

如美國學者曼紐爾·卡斯特(Manuel Castells)所定義的,網絡社會圍繞用戶的信息權力組織起它的制度,人們建立了自己的生活并決定自己的所作所為,這種權力來源于人們的心靈[27]117。整個AI價值鏈,具體到大型生成式AI模型的價值創造過程中,不僅應當對前后兩端的提供者和用戶權利義務進行規定,更需要對過程中的眾多參與者地位進行考量。有學者提出,應當依據生成式AI模型的一般特征,通過提供者與用戶間的合同關系來對其預期目的及使用條件進行調整,更有利于雙方的權責利分配。將生成式AI和通用AI系統視為該法案下的一般風險類別,課以產品供應商對系統性風險的定期監測義務,關注供應商與用戶間的合同關系,建立對合同條款的監管審查機制[28]。然而,隨著生成式AI侵權責任主體、方式、范圍的變化,此種思路已無法有效因應現實的監管需求,仍然在產品責任的框架下兜轉。

生成式AI模型并非經一次性制造便可投入后續長期使用的產品,而是需要經過反復打磨與調整最終適應不同目的與用途的工具。在此意義上,讓模型開發人員或提供者承擔模型全生命周期內所引發的一切風險,是不切實際的。技術提供者無法事先排除所有高風險應用的可能性,其由生成式AI的特定場景的多個主體決定,在AI的價值生成中分別體現相應價值,無法由單一主體所全權決定。就語言模型而言,其可被用于總結或評價病人檔案或是對學生的工作情況、信用水平及保險申請環節進行評估(6)See Annexes II Section A.No.12,13 and III No.3-5 AI Act.,亦可用于制造輿論、煽動仇恨,這與下游主體的作用密不可分。學者Edwards就提出應當區分通用AI系統的開發者、部署者和用戶,通過分析幾種實體扮演的不同角色,對AI系統價值鏈主體進一步切分[26],這與《AI法案》的思路相吻合。模型提供者(開發人員)與部署者在某些情形下會產生身份的重疊,這就會引起反壟斷法下的縱向壟斷問題[29]。對于用戶而言,作為使用AI系統獲取生成結果的實體,可依據對生成結果的用途區分為專業用戶和非專業用戶。前者根據歐盟《消費者保護法》(Consumer Protection Law)[30]115以及《法案》中所定義,包括公司、非政府組織、行政機構等(7)See Article 2(8) AI Act.。試想當大型企業在提供如金融、醫療等服務時,對錯誤生成內容的未予關注或放任,將會導致個人或群體權益的受損。因此,在此類人員運用生成式AI系統進行專業活動時,如開展金融風險評估、醫療診斷、學術教育等,因故意或過失導致生成內容蔓延而造成損害的,除遵守一般法律法規及行業規章制度外,還應該遵守類似《AI法案》確立的合規規則,負有額外的合規義務。建議我國法律對以上主體概念進行明確與甄別,以確保在特定場景下的有力追責。

現行《AI法案》第五條中,就對提供者與用戶的合作進行了強調,前者應為后者提供必要的信息,使后者能夠遵守本法規下的義務(8)See Article (5) AI Act:Providers of general purpose AI systems shall cooperate with and provide the necessary information to other providers intending to put into service or place such systems on the Union market as high-risk AI systems or as components of high-risk AI systems,with a view to enabling the latter to comply with their obligations under this Regulation.。而對于披露過程中涉及商業秘密、隱私或知識產權保護等重要信息的保護,《AI法案》第七十條第一款就要求任何涉及AI應用的主體,采取適當的技術和組織措施,以確保在執行其任務和活動中獲得的信息和數據的機密性(9)See Article 70(1) AI Act.。然而,此種合作將引發矛盾沖突,主要涉及內外部兩個維度。內部維度主要聚焦于數據權利主體與他人訪問權的沖突。如開發人員以商業秘密為由,對部署者的訪問權利進行抗辯,用戶也可能因受到侵害而要求對部分機密信息進行非正當的訪問。因此,該種情形下提供者、部署者與用戶的利益沖突也將導致合作關系的脆弱化,三者并非總是存在著共同的利益取向。為鞏固合作關系,一個可行的方法是,提供者以及部署者可就模型使用的授權與專業用戶簽訂合同,約定相關保密條款及非競爭條款,從而對數據訪問權利進行限制。此外,還可借鑒美國審前制度(Pretrial Discovery),使法院有權對保密協議賦予保護令,加重違反者遭受的處罰[31]。在外部維度方面,建議賦予價值鏈主體以對外的透明度義務?!禔I法案》包含了廣泛的披露義務,但它們僅適用于高風險系統(10)See Article 11,Annex IV AI Act.。鑒于生成式AI日益增長的功能性及行業發展潛力,應當要求生成式AI模型開發及使用的相關主體遵守一定的披露義務,該種義務的負有與AI系統是否被認定為高風險無關,對于開發人員及部署者而言,可要求其披露訓練數據的出處、模型運行機制以及應對有害內容的應對措施等,以便監管機構進行比對和分析?!掇k法》中主要以提供者為主要規制對象,規定提供者應對預訓練數據、優化訓練數據的合法性負責,這些規定為提供者增添了沉重負擔且成效不彰。提供者對于數據的作用有限,即使其對于模型的應用有最初預期與判斷,但實際上也可能因具體情形下模型的微調而有所偏差。部署者與用戶也需要對生成內容負有一定義務,此時區分專業用戶的意義就有所體現。具體而言,當特定場景下存在部署者參與模型的微調時,其地位與開發人員類似,需就模型性能等基礎信息進行披露。專業用戶應該有義務披露他們公開的內容中,哪些部分是由AI模型直接生成,哪些部分是根據輸出改編加工而來,例如在新聞、學術等領域,此種義務顯得至關重要??蓪I用戶定義及范圍進行明確,在此基礎上要求其在專業目的范圍內履行披露義務,惡意行為人若刻意無視該義務,那么將遭受罰款等相應處罰。但隨之而來的問題是,我們不能期待現實中專業用戶事無巨細地進行披露,因為難以對內容的成分進行辨別,即使用戶毫無作為,監管者也無法采取行動。這就需要得到技術上的支持,例如數字版權、水印技術等,歐盟議會正就其進行討論。當內容足以為外界識別,且難以被用戶刪除或更改時,此種技術將有效推動事前披露義務的履行,相關主體將被迫按照法律規定行事。

(二)平臺主導下的內容審核擴張

技術本身是中性的,無法期待通過技術去解決所有的問題,因此制度的供給顯得尤為重要。以“平臺+AI”的運行模式帶來的再中心化無可避免,對數據、個人信息、知識產權等權利的風險愈發復雜,不僅要從技術上實現人類與AI的區分,更要在制度層面提供相應保障。我國可吸收借鑒歐盟法律,出臺對大型互聯網在線平臺的完整制度規則,實現技術與制度的共同作用。

歐盟議會已為因應挑戰而作出改變,規定基礎模型的使用不得違反歐盟法律[32]??梢灶A見諸如GDPR、DSA的相關規則,在未來將為適應AI模型的發展而發生變化。這種趨勢將以超大型在線平臺為核心,與DSA的適用不謀而合,但需要進一步完善以將AI模型生成內容納入規制體系中。我國在應對以指數級擴張的生成式AI輿論宣傳效應上,當前尚未出臺有效應對之策。對此,需要在技術及制度兩個層面對生成內容進行規范。水印技術對原創作者的保護效果顯著,且能夠增強內容可信度及可追溯性,有效遏止有害、虛假信息的蔓延,但也存在一定的局限,例如由于個體寫作風格及能力的多變性,導致即使使用水印技術,仍不能完全保證內容的來源。此外,技術本身的限制導致其可能會遭受規避或篡改,例如惡意行為人通過技術手段刪除水印或偽造水印,模糊內容來源?!兑幎ā返谑鶙l、第十七條、第十八條已就深度合成服務提供者顯著標識行為進行規定,并強調了此種技術的不受侵害。建議在此基礎之上,列舉可行的技術措施種類,如水印技術、數字版權管理(DRM)、平臺算法檢測技術等,并明確惡意行為人侵害標識行為的責任??紤]到技術限制,應當加強技術使用的靈活搭配,以最大限度減輕有害言論的繁殖空間。制度與技術需要進一步結合,歐盟DSA與《AI法案》在規則上提供了良好示范,但仍需要進一步完善,以加強內容真實性審核的力度。除了需要在規制對象上進行擴張,將AI模型納入平臺輸出的規制外,仍可在現有規則下探尋容納空間。DSA第十九條就強調利用“受信的標記者”(Trusted Flaggers),如個人、政府組織或特定技術人員,對可疑的內容進行標記并通知開發人員與部署者(11)See Article 11,DSA.。在AI系統的場景下,該行為模式也可以得到適用,通過加強主體間交互達到內容審核的目的。對此,《AI法案》第二十九條中提出的用戶通知義務是可以被借鑒的對象,并納入DSA體系之下。另外,對開發人員、部署者等專業技術人員課以優先處理與回應的義務,確保他們在收到通知后及時地對AI系統作出修繕,阻止其受到惡意行為人的作用而生成有害內容,以建立一個符合DSA要求的更為安全、合規的系統。

四、結語

強人工智能時代或許已悄然而至,但監管永遠不會讓技術獨行,制度需要在人工智能發展過程中不斷完善自身,在豐富多彩的應用場景中積極探索靈活的規制措施。歐盟立法的示范具有開創性意義,其中許多典型制度可以為我國所借鑒,但人工智能產業的發展充滿不確定性與挑戰,風險的樣態已經發生了巨大變化,監管需要保持相當的前瞻性。在此基礎之上,我國也要具備符合自身國情的生成式人工智能規制模式,發揮監管的積極作用,探索風險規制與促進科技發展的兩全之策。

猜你喜歡
提供者規制模型
主動退市規制的德國經驗與啟示
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
網絡交易平臺提供者的法律地位與民事責任分析
基于隱私度和穩定度的D2D數據共享伙伴選擇機制
保護與規制:關于文學的刑法
網絡言論自由的行政法規制研究
論《反不正當競爭法》的規制范疇
3D打印中的模型分割與打包
FLUKA幾何模型到CAD幾何模型轉換方法初步研究
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合