?

生成式人工智能服務提供者的數據安全保護義務研究

2024-01-25 23:09王良順
關鍵詞:服務提供者數據安全個人信息

王良順 李 想

(中南財經政法大學 刑事司法學院,湖北 武漢 430073)

一、問題的提出

科技迭代促使人工智能迅猛發展,生成式人工智能作為一種新的技術范式應運而生。ChatGPT是由Open AI開發的一種大語言文本智能對話模型,其可以根據接收到的指令理解和生成文本、圖片、聲音、視頻、代碼等內容[1]69。ChatGPT的橫空出世表征人工智能技術正在發生快速的升級革新,這項技術的進一步成熟和落地為元宇宙的普及與應用清掃了諸多障礙,將元宇宙的實現至少提前了10年[2]。然而,以ChatGPT為代表的生成式人工智能在推進社會繁榮的同時,由之觸發的風險會接踵而至。2020年3月,中共中央、國務院印發的《關于構建更加完善的要素市場化配置體制機制的意見》將數據要素與土地、勞動力、資本、技術四大傳統生產力要素并列,這表明在我國數據已成為重塑社會公眾生活、推進各經濟實體創新乃至國家經濟發展的重要動力源泉。從生成式人工智能的運行機理來看,其語料庫的數據獲取、語言模型的訓練與最終文本的輸出等各個環節都依賴于大量的數據處理,而大規模數據的流動、聚合與分析勢必蘊含巨大的數據安全風險[3]107。意大利數據保護局正是因為ChatGPT存在極大的數據安全風險,才宣布封禁ChatGPT的使用[4]456。如果生成式人工智能附隨的數據安全問題得不到及時解決,不僅會危及個人的人格利益或企業的經濟利益,而且會給公共利益與國家安全造成難以估量的損害。因此,應認真審視生成式人工智能的數據安全問題,并構建合理的數據風險治理模式予以應對。

倘若缺乏明確的責任主體與義務約束,貿然將生成式人工智能大規模應用于公眾的虛擬社交場景,必定會引發一系列數據安全事件。生成式人工智能責任論認為,生成式人工智能已具有類人化的自主意識和辨認控制能力,具備成為法律責任主體的資格[5]33。事實上,所謂生成式人工智能的自主意識和辨認控制能力只不過是算法運行的外在表象,它的用戶指定的參數和它被訓練的數據最終定義了它的決策和輸出[6]107。由此可見,生成式人工智能僅僅是一種工具,其行為射程和效用狀態仍然要服務于服務提供者和使用者的特定利益需求,故最終可能承擔法律責任的主體應是與之相關的服務提供者或使用者。探究生成式人工智能發生數據安全事件的原因,往往是因為服務提供者怠于履行數據安全保護職責所致。例如,近期ChatGPT因為一個開源庫中有一個錯誤導致用戶的支付相關信息意外可見,而Open AI公司在安全事件發生的九小時后才關閉服務,致使大量數據泄露[7]?;趶脑搭^防范數據安全風險的治理邏輯,作為在數據安全治理格局中發揮核心角色的服務提供者在享有相應利益的同時也應承擔數據安全保護義務。2023年7月頒布的《生成式人工智能服務管理暫行辦法》(以下簡稱《暫行辦法》)將數據安全保護義務這一積極義務施予了生成式人工智能的服務提供者,自此我國正式從制度層面確立起“以服務提供者義務為中心”的生成式人工智能數據安全治理模式(1)數據安全保護義務是指有關組織或個人負有的采取必要措施,保護數據的安全,從而防止未經授權的訪問以及數據的泄露、篡改、丟失,并在已經或可能發生數據泄露、篡改、丟失時采取相應補救措施的義務。參見程嘯:《論數據安全保護義務》,《比較法研究》,2023年第2期,第60—61頁?!稌盒修k法》雖然沒有明文規定生成式人工智能的服務提供者應承擔數據安全保護義務,但依據《數據安全法》第二十七條之規定,只要實施數據處理活動,任何組織和個人均應履行相應的數據安全保護義務;又根據《暫行辦法》第七條,服務提供者是開展生成式人工智能數據預訓練、優化訓練等數據處理活動的主體,因而讓生成式人工智能的服務提供者承擔數據安全保護義務具有實定法依據。。作為生成式人工智能數據安全保護的義務主體,如果服務提供者未履行數據安全保護義務,理應承擔包括刑事責任在內的法律責任。然而,生成式人工智能的服務提供者承擔數據安全保護義務的理據何在,服務提供者的數據安全保護義務包括哪些事項,以及服務提供者未履行數據安全保護義務的法律責任又該如何配置,這些關鍵問題《暫行辦法》都未進行明釋。因此,亟須從理論上明確生成式人工智能服務提供者的數據安全保護義務及其法律責任。但是,目前學界大多是在討論生成式人工智能的技術風險時附帶性提及數據安全問題,對生成式人工智能數據安全問題的專門性研究略顯薄弱,特別是基于積極義務視角探討生成式人工智能數據安全風險的治理策略的理論研究幾乎處于空白。鑒于此,筆者擬以《暫行辦法》為指引,結合《數據安全法》《個人信息保護法》《網絡安全法》等法律的相關規定對前述問題展開分析,以期彌補理論缺憾與對司法實務有所裨益。

二、服務提供者承擔數據安全保護義務的正當性基礎

義務制度構建的前提在于找準角色定位,《暫行辦法》的相關規定為生成式人工智能服務提供者承擔數據安全保護義務提供了規范依據支持。理由是將人的行為與規則聯系起來的最佳紐帶,如果某個法律規范系統缺少理由來支持或證成自身行動,它就連被考慮的資格都沒有[8]48。因此,服務提供者承擔數據安全保護義務的正當性基礎是什么,仍待進一步探究。

(一)服務提供者處于數據控制者的角色地位

海量的高質量語料基礎是生成式人工智能技術突破的關鍵,而服務提供者是生成式人工智能語料庫數據來源篩選與控制的主體。ChatGPT的語料體系由預訓練語料集和微調語料集組成,其中預訓練語料集主要來源于Common Crawl數據集、英文維基百科數據、WebText語料庫、Reddit鏈接、書籍、報紙雜志等。微調語料集包括代碼微調語料和對話微調語料。前者由多種編程語言撰寫的代碼、代碼中的注釋和說明文件構成,后者則囊括了生成、問答和聊天等超過九種類型的標注數據[9]8。依據數據的來源,可以大致將數據分為公有領域的數據、獲得個人授權的數據與未經個人授權的數據。對于不承載個人信息權益與不影響公共安全、國家安全的公有數據,服務提供者可以不受限制地使用和加工。但這類數據未必都是準確、真實的數據,在納入語料庫時,服務提供者應進行嚴格甄別。服務提供者處理獲得個人授權的數據的正當性根據來自合同約定,在處理過程中應推動個人信息的匿名化處理,保障個人數據的信息安全和個人隱私。如果服務提供者利用網絡爬蟲技術爬取個人數據而未經個人授權,由于這類數據作為初始數據本身就已經構成侵權,服務提供者再對其進行加工并訓練數據語料庫模型的行為就處于非法獲取的延長線上。由此可見,除生成式人工智能服務提供者之外的其他主體并無任何權限控制數據的來源,僅服務提供者有權決定哪些數據可以納入語料庫。這種特殊的優勢地位要求服務提供者對于語料庫的數據不能局限于被動的事后管理,也要事前積極審查數據來源的合法性與真實性,當生成式人工智能的數據來源出現合法性與真實性偏差時,作為控制數據來源主體的服務提供者就應對此負責。

算法是生成式人工智能得以開展海量數據訓練的基礎,而服務提供者是生成式人工智能算法設計或部署的主體。以ChatGPT為代表的生成式人工智能是一種由生成式預訓練和算法語言轉換相結合的內容生成式人工智能,其工作的基本原理是:預先對既有的文本語料進行自主學習訓練,然后通過Transformer模型構建與人類表達方式和邏輯高度類似的語言算法模型,從而在特定場景根據服務使用者的指令輸出高質量的結果[10]52。算法作為ChatGPT等生成式人工智能運行的底層邏輯,具有極強的專業性,使得非專業人士無法掌握或理解算法的運行和決策原理,很容易在專業人士與非專業人士之間形成技術鴻溝。專業人士可以借助諸如逆向工程等技術方法觸摸到算法的底層邏輯,并通過機械可解釋性方法以可視化、可交互的形式顯示其成果[11]。服務提供者作為生成式人工智能的算法設計者、部署者,相比于服務使用者或者其他主體具有更加明顯的專業技術優勢,實際上直接控制支配了用戶所能接收到的數據范圍和內容,具有極強的數據安全保護能力,能夠從源頭上更為便捷地化解生成式人工智能的數據安全風險。這迫使政府不得不轉變角色,以立法形式構建起一套“以服務提供者義務為中心”的生成式人工智能數據安全治理模式,即通過施予作為數據實際控制者的服務提供者以相應的數據安全保護義務,確保生成式人工智能的語料體系始終處于有效保護與合法利用的狀態。

(二)服務提供者需要履行數據財產權的社會義務

隨著信息時代的到來與數字經濟的勃興,我國在國家政策層面和立法層面都存在數據確權的需求。自從2020年3月數據成為一種新型生產要素后,同年5月公布的《民法典》第一百二十七條便將數據原則性地規定為一項新興的財產權客體,但具體法律規則闕如而使得數據財產利益仍處于權利化的進程中。為推動數據基礎制度建設和充分釋放數據要素價值,中共中央、國務院于2022年12月印發《關于構建數據基礎制度 更好發揮數據要素作用的意見》(以下稱“數據二十條”),明確提出“建立數據資源持有權、數據加工使用權、數據產品經營權等分置的產權運行機制”。這一政策性文件的出臺標志著我國正式確立了“三權分置”數據產權制度框架。然而,在解讀“數據二十條”的過程中,學界形成了兩種截然相反的立場:反對數據確權與主張確立數據產權是一項新型財產權[12]1。筆者采取數據確權肯定論的立場,即數據之上直接承載的權益主要體現為一種財產權益。

《數據安全法》第三條將數據與信息區分為兩個不同的事物,借用康德的概念體系,信息沒有被記錄前是一種不可知的“自在之物”,而以電子或者其他方式記錄的信息則是一種感性直觀的“現象之物”[13]47-48。在作出以上區分之后,可以推斷,以零碎化形態存在并被人們所捕獲的信息不符合數字化利用的需要,信息的數據化是信息在大數據時代成為可用之物的關鍵。洛克的勞動財產權理論認為,要使某個事物擺脫自然屬性而變成專屬于他個人的財產,他就應在這個事物中摻進自己的勞動[14]123。在數據處理活動中,數據處理者需要長期辛勤勞作和付出巨大成本以將彌散在社會中的原始信息不斷地轉化為數據,同時要在保障數據安全、提升數據質量等方面持續投入大量資源。數據處理者在獲取原始信息后所實施的一系列對數據的存儲、保管和清洗加工等勞動行為改變了原始信息的自然狀態,使蘊藏在原始信息中的財產價值不斷凝聚。一如洛克的勞動財產權理論,沒有以電子或者其他方式記錄的信息以非數據形式存在,屬于自然狀態下的消極共有物(即便不屬于自然狀態下的消極共有物,但至少不能視為服務提供者的個人財產);服務提供者利用生成式人工智能而實施的數據處理行為將信息數據化可被算法利用,應歸類為洛克眼中的勞動行為,其通過對原始信息附加自己的勞動而獲得了相應的數據財產權。

服務提供者對生成式人工智能語料庫中的數據享有數據財產權,同時要負擔與這種私人財產性權利相對應的社會義務。古典自由主義的“財產權絕對”觀念,是近代以來法律保護財產權的思想基礎。例如,在最具典型性的偉大啟蒙思想家洛克看來,“只要他確定了對財產的所有權,就沒有人能夠從他手中奪走對土地的所有權”[14]127。但是,讓財產權走向完全的自由張揚反而會與社會形成對立而最終導致財產自由的毀滅,故“財產權絕對”觀念引發了學界的激烈批駁。例如,“財產權絕對”觀念雖然得到了《德國民法典》第九百零三條的確認,但在《德國民法典》第一草案的討論中,基爾克、門格等人就指出“此種想法是違反文化的一種荒謬”,會“損害關于等級、傳統及信念和道德上對家鄉熱愛的穩定”[15]243。受社會本位主義的沖擊和影響,以保護私人自由為中心的古典自由主義的財產法理念開始讓位于財產權的社會關聯性。法國《人權宣言》第十七條規定“私人財產神圣不可侵犯,除非當合法認定的公共需要所顯然必需”,就是“財產權負有社會義務”觀念最為生動的體現。目前,我國為了公共利益而讓財產權人承擔社會義務的立法例已不勝枚舉。例如,土地是人類生存不可或缺的資源,具有易破壞性和不易回復性等特質,所以《土地管理法》第十條規定享有土地利益的使用者有保護、管理和合理利用土地的義務,而不能在土地遭受破壞時袖手旁觀。在百年未有之大變局和信息革命的雙重影響下,數據已成為我國的國家基礎性戰略資源和新型生產要素,數據安全不僅關系到我國經濟高質量發展和國家社會安全,而且在很大程度上會帶來國際格局的變化。在此背景下,《暫行辦法》要求享有數據利益的服務提供者承擔數據安全保護義務,化解生成式人工智能蘊含的數據安全風險,這種數據安全保護義務即是在履行數據財產權的社會義務。

(三)服務提供者處理的數據系屬國家基礎性戰略資源

數據往往關系國家安全、經濟發展與社會公共利益,已經成為各國的基礎性戰略資源。中國共產黨的第二十次全國代表大會報告明確指出“國家安全是民族復興的根基”,并對國家安全作了系統性闡述??傮w國家安全觀是國家從治國理政總體布局的高度強化對國家安全的保護,對于我們認識和處理新時代變局下的國家安全問題具有重大指導意義,而維護數據安全則是總體國家安全觀的題中應有之義。在總體國家安全觀方法論這一系統思維的指引下,《數據安全法》構建了一個包含數據基本要素與數據基本子制度的數據安全制度模型,以為防范與化解數據安全風險,強化數據資源全生命周期安全提供法律支持[16]31?!稊祿踩ā返诙粭l依據數據對國家安全、公共安全影響程度以及出現數據安全事件后造成的危害后果,對數據自上而下地劃定了兩個主要的數據類型,即重要數據和一般數據(2)《數據安全法》第二十一條出現“核心數據”一詞,但整個《數據安全法》僅在此處出現一次。目前學界存在兩種認識。一是核心數據獨立于重要數據之外。參見王玎:《論數據處理者的數據安全保護義務》,《當代法學》2023年第2期,第43頁。二是核心數據是重要數據中的重要數據。參見洪延青:《國家安全視野中的數據分類分級保護》,《中國法律評論》2021年第5期,第75頁。如果持第一種見解,《數據安全法》就應對核心數據設計相應的監管規定,但立法并未如此,因而本文采取第二種觀點。?!爸匾獢祿备拍铍m然是于2016年11月出臺的《網絡安全法》首次提出,但直到2017年4月,由國家互聯網信息辦公室頒布的《個人信息和重要數據出境安全評估辦法(征求意見稿)》(以下簡稱《數據出境安全評估辦法(征求意見稿)》)第十七條才對此作出界定。盡管2022年7月出臺的《數據出境安全評估辦法》對“重要數據”的定義與《數據出境安全評估辦法(征求意見稿)》并不完全一致,但兩者均肯定重要數據是指那些與公共利益(包括國家利益與社會利益)緊密相關的重要數據資源,一旦遭受竊取、泄露或非法利用將會給公共利益造成重大損失,嚴重的會危及國家安全。又根據《數據出境安全評估辦法》第四條之規定,如果一般數據達到一定體量,也會與公共利益產生聯系。生成式人工智能的技術框架來自境外,技術模型主要是基于西方價值觀設計,其所依賴的技術底層邏輯也即算法在被設計和編寫的過程中帶有先天性的西方價值偏向[17]6,易受歐美國家行為體、非國家行為體的操控?,F代數字技術通過與資本的合流于事實層面加速推進世界由分散向全球化演進,并在這一過程中形成了技術、經濟、政治一體化的復合型霸權主義[18]65。這種新型霸權主義可能會從與傳統不同的維度影響數字主權,并通過數據安全的緩慢滲透繼而危及一國的國家安全。高度智能化的生成式人工智能可能經由強大的數據檢索和分析能力,通過關鍵詞提示等方式有針對性地大范圍收集數據而生成關鍵設施位置、重大政策傾向等國家重要數據。例如,生成式人工智能設計國的政府完全可能借助生成式人工智能技術有針對性地收集我國軍事、金融、能源、電信、港口運輸等重要領域的重要數據。一旦我國的這些重要數據被他國非法獲取并進行算法技術分析,將會對我國國家安全、社會安全造成毀滅性打擊。因此,從控制我國的數據外泄、保障我國數據主權完整、促進我國經濟繁榮等角度,為服務提供者設定數據安全保護義務具有充分的正當性。

三、服務提供者數據安全保護義務的類型及其內容

根據《暫行辦法》第七條第(五)項,服務提供者所需要履行的數據安全保護義務的基本內容主要由《數據安全法》《個人信息保護法》《網絡安全法》確定。遺憾的是,這些法律規范對于數據安全保護義務的規定不僅表現出較強的抽象特征(例如,《數據安全法》第二十七條規定應采取技術措施保障數據安全,但需要采取什么技術措施該法并沒有明確),而且分散于各個法律規范中的義務內容還存在一定的交叉與競合。因此,有必要將生成式人工智能服務提供者應當履行的數據安全保護義務加以整理并進行類型化。根據服務提供者義務履行的時間節點,即是否發生數據安全事件,可以將數據安全保護義務劃分為技術安全保障與數據風險管理的事前防范義務,以及發生數據安全事件后立即采取處置措施并及時告知報告的事后處置義務。

(一)事前防范義務:技術安全保障與數據風險管理

1.技術安全保障

生成式人工智能的服務提供者應當為數據安全提供技術支持,以有效化解生成式人工智能在數據安全保護方面面臨的困境。技術措施是指服務提供者為確保生成式人工智能的數據處于安全狀態所需要采取的各種技術方法或技術手段?!稊祿踩ā返南嚓P規定、《網絡安全法》第二十一條和《個人信息保護法》第五十一條都明確規定保護數據安全應當采取安全技術措施,并對數據安全的技術治理作出制度性擘畫,這為生成式人工智能的數據安全保護提供了規范依據。首先,服務提供者需要對生成式人工智能的語料庫采取加密技術措施?!毒W絡安全法》第二十一條第(四)項和《個人信息保護法》第五十一條第(三)項都明確規定數據處理者對數據應當采取加密技術措施。數據加密是將可讀取的數據以技術手段轉化為不可讀取的密文之過程,沒有密鑰便不能訪問該數據,從而確保數據安全控制于得到授權的人員手中,避免他人未經授權訪問或對之進行非法竊取、篡改等。因此,生成式人工智能的服務提供者需要通過加密技術的運用實現訪問控制,確定可以讀取數據、修改數據的主體。此外,《個人信息保護法》第七十三條第(三)項還要求數據處理者采取去標識化的技術措施。從我國《信息安全技術 個人信息安全規范》(2020年第1號)第3.15條的表述邏輯來看,加密是去標識化的主要技術手段之一。因而加密與去標識化之間屬于手段和目的的對應關系,即數據加密的目的就是為了去標識化,兩者并不位于同一制度層面。其次,服務提供者需要對生成式人工智能的語料庫采取防范技術措施。在生成式人工智能進行大規模的數據匯集、流通和分析過程中,語料庫中存儲的大量數據很可能會受到其他不法行為人的惡意攻擊。例如,不法行為人可以通過逆向推導生成式人工智能模型的參數或訓練數據,從而獲取敏感信息或泄露隱私,或者通過訪問生成式人工智能模型的解釋信息來獲取敏感數據[19]24。這些攻擊均可能造成生成式人工智能語料庫中的數據被竊取、刪除和篡改等。所以,服務提供者需要采取防范技術措施提高系統免疫力,防止他人侵入生成式人工智能語料庫中非法獲取、刪除、篡改相應的數據。最后,服務提供者需要對生成式人工智能系統采取監測技術措施?!稊祿踩ā返诙艞l規定“開展數據處理活動應當加強風險監測”?!毒W絡安全法》第二十一條第(三)項也作出類似規定,要求“采取監測、記錄網絡運行狀態、網絡安全事件的技術措施”?;诖?服務提供者應當對其提供的生成式人工智能服務產品采取相應的數據安全監測技術措施,以便能夠及時發現并處置生成式人工智能可能潛在的數據安全風險,從而從源頭提前預防數據泄露等數據安全事件的發生。如果服務提供者通過監測技術措施發現生成式人工智能存在數據安全隱患問題,其應當立即采取補救措施防止數據發生泄露或者被竊取、篡改。

2.數據風險管理

第一,服務提供者在開展生成式人工智能的預訓練、優化訓練等訓練數據處理活動前應對數據處理影響進行評估?!稊祿踩ā返谌畻l規定重要數據的處理者應對其數據處理活動定期開展風險評估,這是因為重要數據一旦遭受泄露或被非法獲取、利用,就很可能會危及國家安全、公共安全等重要利益。故此,當生成式人工智能服務提供者處理的是重要數據,應定期開展風險評估。倘若服務提供者處理的數據包含有個人信息,符合《個人信息保護法》第五十五條規定的五種特殊情形的,應進行事前個人信息保護影響評估。然而,對可能造成什么樣的影響才需要進行評估,法律留下了空白。在此可以根據影響的對象與形態進行類型化考察:一是有無對個人產生有形的或無形的影響,前者主要包括個人的身體權益損害、經濟損失等,后者主要包括名譽損害、社會性歧視等;二是有無對社會產生影響,如惡化營商環境等;三是有無對國家安全產生影響,如危及國家軍事安全、國防安全等?!稊祿踩ā放c《個人信息保護法》規定的數據安全風險評估制度雖然在功能與內容方面存在不同之處,但是兩者的共同目的均是為了保護數據安全,在數據安全事件發生前消除可能存在或現實存在的數據安全風險。

第二,服務提供者需要對存儲于生成式人工智能語料庫中的數據進行分類管理?!毒W絡安全法》第二十一條第(四)項規定網絡運行者要采取數據分類措施,且《數據安全法》和《個人信息法》均要求數據安全風險評估報告中應當包括處理的數據種類。數據分類是指按照某種標準對數據進行歸類(如數據的重要程度),方便數據處理者或者國家采取對應的保護措施。之所以要求服務提供者采取數據分類措施,是為了與其數據處理所面臨的數據安全風險相適應。高風險意味著更重的義務與責任,如果服務提供者從事的是高風險的數據處理活動,則應采取更高規格的安全保護措施,承擔更高的注意義務。例如,對于重要數據和敏感個人數據,服務提供者應當采取比一般數據更強的技術措施確保生成式人工智能語料庫中的這類數據始終處于安全狀態。服務提供者通過對數據進行分類,從而有利于在數據全生命周期安全內構建起輕重有別、重點突出的數據安全保護體系。

第三,服務提供者需要確定生成式人工智能的數據安全負責人和數據安全管理機構。明確數據安全負責人(或者個人信息保護負責人)和管理機構是服務提供者履行數據安全保護義務的法定內容之一:一方面,如果服務提供者處理的是重要數據,根據《數據安全保護法》第二十七條第二款之規定,服務提供者應當明確數據安全負責人和管理機構;另一方面,服務提供者處理的數據含有個人信息的,且個人信息的數量達到了國家網信部門的有關規定,根據《個人信息保護法》第五十二條第一款,服務提供者應當指定個人信息保護負責人。當然,服務提供者確定的數據安全負責人和個人信息保護負責人可以是同一主體。確定數據安全負責人(或者個人信息保護負責人)和管理機構的重要意義在于將數據安全保護作為一項基本義務內嵌于服務提供者的組織管理體系,從而讓專職人員或專業機構監管服務提供者的數據處理行為,防止數據安全事件發生,推進數據安全保護的落地落實?!毒W絡數據安全管理條例(征求意見稿)》第二十八條以有限列舉的形式詳細設計了重要數據處理中數據安全負責人和數據安全管理機構的六項職責。但截至目前,并沒有一部法律法規、部門規章明確達到國家網信部門規定的數量究竟是多少。為緩解這種法律缺失困境,可以在參照《個人信息保護法》第四十條的基礎上結合《數據出境安全評估辦法》第四條第(二)項進行擬定,即服務提供者處理100萬人以上個人信息的,就應指定個人信息保護負責人。

(二)事后處置義務:立即采取處置措施并及時告知報告

服務提供者通過監測技術措施發現生成式人工智能存在數據安全風險后,應立即采取補救措施消除風險。這里的補救措施是針對生成式人工智能的數據安全缺陷、漏洞等數據安全風險而言的,既包括技術措施,如修復生成式人工智能的系統漏洞、對語料庫的數據進行加密;也包括組織措施,如重新確定數據安全負責人或數據安全管理機構等。這些舉措都屬于一種事前的防范義務。服務提供者所需要履行的事后處置義務與事前防范義務不同。首先,在生成式人工智能已經現實性發生數據安全事件的情況下,服務提供者應立即采取處置措施,防止危害結果進一步擴大,并及時告知用戶以及向有關主管部門報告??梢?只有在生成式人工智能出現數據安全事件的情況下,服務提供者方才需要采取處置措施。所謂數據安全事件,是指由于人為原因(如工作人員的疏忽或者黑客攻擊)、生成式人工智能的系統缺陷或故障(如ChatGPT的開源庫錯誤)等,導致語料庫的數據發生泄露或被竊取、篡改等對社會造成負面影響的事件。從概念本身進行解讀,生成式人工智能發生數據安全事件的原因歸納起來主要有三類:一是生成式人工智能本身的系統缺陷或故障;二是服務提供者組織內部的人為失誤;三是來自外界的黑客等惡意攻擊。服務提供者需要立即采取的處置措施包括暫停服務、修復程序漏洞等,阻止危害結果進一步擴大,減少或者消除因數據安全事件給他人合法權益、社會利益和國家安全等帶來的不利影響。其次,如果數據中包含有個人信息,還應遵守《個人信息保護法》的相關規定?!秱€人信息保護法》第五十七條規定的補救措施應作廣義理解,既包括存在數據安全風險時所需要采取的補救措施,還包括在發生數據安全事件后應采取的處置措施,以此才能與“發生或者可能發生”的含義相適應。最后,與《數據安全法》不同,在《個人信息保護法》中,不論是已經現實性發生個人信息安全事件,還是僅存在個人信息安全風險,都需要通知履行個人信息保護職責的部門和個人。此外,如果現實性發生了個人信息安全事件,《數據安全法》要求按照規定及時告知用戶并向有關主管部門報告,而依據《個人信息保護法》并不需要及時告知個人,但履行個人信息保護職責的部門認為可能造成危害而要求通知個人的除外。從表面看來,兩個法律規范之間對發生數據安全事件后的通知對象存在矛盾,但事實并非如此。由于《個人信息保護法》相對《數據安全法》來說屬特別法,因而在涉及個人信息的場景應優先適用《個人信息保護法》。賦予生成式人工智能服務提供者通知義務,意義不僅在于促使服務提供者認識到發生數據安全事件將提高其經營成本,還能反向督促服務提供者在生成式人工智能發生數據安全事件前采取更為有效的數據安全保護措施。

四、服務提供者未履行數據安全保護義務的法律責任

我國現行的民法、行政法、刑法能夠在某種程度上對服務提供者未履行數據安全保護義務的法律責任進行分散追責,但尚未形成周延的法律責任體系。如果缺乏整體法秩序意義上的理論認識與體系規制,就容易導致服務提供者法律責任的片段化。故在對服務提供者未履行數據安全保護義務的法律責任進行分別性界定的基礎上,還應注重不同法律責任之間的體系銜接與功能協同。

(一)義務違反的法律責任配置

服務提供者因未履行數據安全保護義務而對個人利益、公共利益造成實質危害的場合,其在承擔侵權和違約的私法責任的同時也可能需要承擔公法責任。在承認私法與公法二元結構劃分之前提下,民法屬于私法,而行政法與刑法系屬公法,公法與私法對應的法律責任分別是私法責任與公法責任。社會和諧是中國特色社會主義的本質屬性,法治為社會和諧提供保障,國家為了維護社會安定有序而建構的整體法秩序都是以保護法益為己任,公法和私法都概莫能外。依據《暫行辦法》第二十一條、《數據安全法》第五十二條之規定,服務提供者未履行數據安全保護義務而發生數據安全事件的,從法律歸責的視角出發,服務提供者可能既要承擔私法責任,又要承擔公法責任。由此可見,服務提供者的數據安全保護義務是一個橫跨民法、行政法、刑法領域的問題,各部門法對于服務提供者未履行數據安全保護義務的調整存在多種法律責任的交叉與競合。因此,在對服務提供者的具體法律責任予以分別性界定的同時,應注意防止不同法律責任之間的體系銜接錯位。公法責任是國家權力機關對不法者行為的否定性評價,其主要目的體現在懲罰和預防,私法責任是平等民事主體之間因法律規定而形成的法律關系,主要是為了實現個人權益的救濟和補償。由于法律功能的內生性差異,對同一行為的公法責任與私法責任通常會作并科處理,兩者不存在競合問題。但是,公法責任通常具有比私法責任更為鮮明的強制性色彩,對行為人的影響要更加顯著,故而公法責任通常是對私法責任的保障。然而,中國國家治理在整體布局上偏愛于有立竿見影效果的公法,對民法等私法的適用關注度不夠或者相對被動,當下大量行政性法律法規的出臺、積極刑法立法觀的盛行就是最真實的寫照。注重公法治理對于防控社會風險、維護社會穩定方面固然效果要更加明顯,但權力的過度膨脹可能會對公民權利有所損害。為了更好地保障公民權利,對于各類違法失范行為的治理應優先啟用私法,而不是動輒入罪入刑[20]45。據此,應從強制力或者調控手段上使服務提供者未履行數據安全保護義務的法律責任呈現階梯性,即私法責任具有基礎性地位,公法責任只是保障,而不能將各種法律責任置于一種簡單耦合的狀態。

私法責任的救濟和補償功能存在先天缺陷,故在私法保護法益不充分的情況下需要動用公法進行保障。其一,生成式人工智能服務提供者因未履行數據安全保護義務而造成數據主體權益損害的,在民事責任層面需要承擔高昂的金錢賠償,其會為自己的不作為付出巨大代價。但針對生成式人工智能龐大體量的數據主體來說,個體的權益救濟往往是象征性的。例如,假設Open AI公司沒有采取任何防范技術措施防止他人侵入ChatGPT系統,攻擊者通過ChatGPT系統的數據安全保護漏洞竊取了大量數據,造成1000萬人次的個人數據泄露。如果最終Open AI公司需要支付的民事賠償金額是1000萬元,但由于群體數量過于龐大最終均攤到利益受損害的個體手中的金額可能僅有1元,對于個體的權益救濟幾乎沒有意義。其二,如果服務提供者所處理的是非個人數據,在其未履行數據安全保護義務而導致數據安全事件發生,危及社會利益與國家利益的場合,私法對于法益的保護基本上處于失靈狀態。這是因為不論是侵權責任還是違約責任均是對個人權益的救濟,私法的觸角延伸不到超個人法益領域。其三,《數據安全法》的立法目的不僅是強化個人、組織合法數據權益的法律保護,更在于維護國家主權、安全和發展利益(《數據安全法》第一條)。即使服務提供者處理的是個人數據,但如果這些數據涉及國家安全和發展利益,服務提供者未履行數據安全保護義務而導致這些數據泄露或被竊取、篡改的,僅讓其承擔民事責任未免有失公允。在確定私法責任擴張的這一基調后,公法責任自然就處在服務提供者未履行數據安全保護義務法律責任的保障性地位。在公法責任內部,由于只有當其他非刑事懲罰手段在解決社會問題不起作用的情況下,刑法才被允許使用,因而在服務提供者未履行數據安全保護義務的公法責任分配中刑法不宜擔當第一責任,其只是一種補充性的制裁手段。由此看來,行政責任應是民事責任的輔助,當行政處罰能夠有效應對生成式人工智能的數據安全風險時,就不要啟用刑事手段干預,刑事責任是對行政法律保護數據安全不周延的最后性補充。

總而言之,在整體法秩序的視野下,對于生成式人工智能服務提供者未履行數據安全保護義務的法律責任體系之構建,私法責任是基礎,公法責任則是保障;而公法責任中行政責任是輔助,刑事責任只是補充。這一梯度性法律責任配置完全符合《數據安全法》第五十二條的條文邏輯,即服務提供者未履行數據安全保護義務的不作為行為在不構成刑事犯罪的情況下,屬于違反治安管理行為的可以依法給予行政處罰,但不得將行政違法人為拔高為刑事犯罪。而對于服務提供者行政責任或者刑事責任的追究并不影響其民事責任的承擔,但是當承擔民事責任已經足夠修復被侵害法益的情況下,就不應再追究服務提供者的行政責任乃至刑事責任。

(二)義務違反的法律歸責限度

數據安全涉及有效保護與合法利用兩個面向?!稊祿踩ā窂娬{“國家統籌發展和安全,堅持以數據開發利用和產業發展促進數據安全,以數據安全保障數據開發利用和產業發展”?!毒W絡數據安全管理條例(征求意見稿)》進一步提出“堅持促進數據開發利用與保障數據安全并重”的基本原則。具有數據安全風險只是表明生成式人工智能的數據可能會遭受泄露或被竊取、篡改等,但并不一定會發生數據安全事件,即使發生數據安全事件也不一定產生刑事可罰性,在法益侵害未構成犯罪的場合則可能受到民法或行政法調整。如果服務提供者未履行數據安全保護義務就要承擔相應的法律責任,就會因為法律的管轄范圍過于寬泛而反向限制生成式人工智能服務提供者對數據的獲取、使用或處理,進而影響人工智能產業的發展。據此,對未履行數據安全保護義務的服務提供者采取結果主義的違法責任模式,不僅有助于激勵生成式人工智能產業的創新發展,也可以防止陷入“不實施行為即違法”的無邊界法律之困境。以下筆者基于結果主義的違法責任模式的邏輯路徑,就服務提供者未履行數據安全保護義務的法律歸責問題展開分析。

1.服務提供者未履行數據安全保護義務的民事歸責

服務提供者未履行數據安全保護義務的民事責任囊括侵權責任與違約責任。由于違約責任需要服務提供者與數據主體在有效的合同中加以約定,并適用《民法典》“合同編”的相關規定,故本部分主要探討服務提供者未履行數據安全保護義務而致他人人身利益、財產利益損害的侵權責任問題?!皬谋举|上講,歸責是一種法律所確認的價值判斷標準,但僅有價值判斷是不夠的,具體的個案還要求將單純的價值判斷轉化為法律技術,用以標定受害人權利救濟和行為人行為自由的界限,因此在侵權的基本范疇內就需要更為具體可依的價值判斷原則——侵權責任的歸責原則?!盵21]12《數據安全法》第五十二條第一款實際上是一種指引性規范;而按照《民法典》第一千一百六十五條和第一千一百六十六條,假如法律規范沒有作出特別規定,對他人民事權益造成損害的都應適用過錯責任原則。從我國現行法律框架來看,只有《個人信息保護法》第六十九條第一款對個人信息權益的侵權專門性規定過錯推定責任。詳言之,個人信息處理者在處理個人信息過程中侵害他人信息權益的,如果其不能證明自己沒有過錯,就應推定存在過錯而承擔相應的民事侵權責任。之所以采取過錯推定原則,主要是因為信息權利人與個人信息處理者存在信息、技術、資金等能力的不對等,其很難了解個人信息處理者在處理活動中具有何種過錯,更無法提出證據證明[22]63。因此,當生成式人工智能服務提供者處理的是個人數據,其未履行數據安全保護義務而導致個人數據泄露或被他人竊取、篡改等,應適用過錯推定原則。但是,如果服務提供者所處理的是非個人數據,其違反數據安全保護義務對他人民事權益造成損害的,因為沒有法律規范特別規定,所以被侵權人需要依據《民法典》第一千一百六十五條第一款的規定證明服務提供者存在過錯,否則便不能將侵權結果歸屬于服務提供者。

2.服務提供者未履行數據安全保護義務的行政歸責

強調公法的謙抑性適用對于保護人權、防止公權濫用以及推進中國法治事業建設具有重要價值?!稊祿踩ā返谒氖鍡l和第五十二條共同規定了未履行數據安全保護義務的行政責任。有學者認為,數據安全保護義務是一項程序性義務,只要行為人未履行數據安全保護義務便違反了行政法律規范,不論行為是否造成危害后果,其都應承擔行政法律責任[23]47。按照這種必罰主義的邏輯,只要生成式人工智能的服務提供者未履行數據安全保護義務就應接受行政處罰。然而,對于危害性闕如的行政違法行為施予行政處罰,或者對輕微行政違法行為予以重罰,勢必會引發社會公眾對法的正當性質疑?!缎姓幜P法》第三十三條規定“違法行為輕微并及時改正,沒有造成危害后果”和“當事人有證據足以證明沒有主觀過錯”兩種不予行政處罰的情形,這表明即使形式上該當于行政法律規范規定的構成要件行為,只要具備這兩種情形之一就能免于行政處罰。一方面,應予處罰的行政違法行為都是具有危害性的行為。只要行為違反行政管理秩序,符合行政處罰法律規范規定的各種客觀要素,都屬于行政違法行為。但形式上違反行政管理秩序只是違法行為受行政處罰的前置性條件,只要“一個人的行為不具有危害性,那么他的行為就應該是自由的”[24]227?;诖?缺乏危害性的行政違法行為,不得予以行政處罰。對于行政違法行為“危害性”的判斷標準《行政處罰法》采取了結果主義的立場,即只有造成危害結果的行政違法行為才具有應罰性?!拔:蠊卑ā翱赡艿奈:蠊迸c“實際的危害后果”,通常情況下應罰行為的危害后果是指可能的危害后果,特殊情況才將實際的危害后果作為必備要件[25]25。另一方面,應予處罰的行政違法行為都是有過錯的行為?!胺彩浅鲇谖业墓室獾氖虑?都可歸責于我”[26]136,即使行為人實施的形式上該當于行政處罰法律規范規定的構成要件行為造成了嚴重的危害后果,但如果其在責任層面欠缺非難可能性,同樣不能對其施予行政處罰。故而行政機關只能對具備責任能力且在主觀上存在過錯的行為人所實施的行政違法行為追究行政責任。此外,《行政處罰法》第三十三條還規定對“可以型”不予行政處罰的行政違法行為,即行為人初次違法且危害后果輕微并及時改正的,行政機關可以不追究其行政責任?!翱梢圆挥栊姓幜P”意味著行政機關“能不罰就不罰”,而不是授予行政機關便宜行事的處罰裁量權。綜上,如果服務提供者未履行行政法律法規規定的數據安全保護義務,但其行為明顯缺乏實質危害性,或者主觀上沒有過錯,不得施加行政處罰。

3.服務提供者未履行數據安全保護義務的刑事歸責

根據刑法學界的通說,具體結果應歸責于作出決定或負有監督義務的人[27]79。不作為犯具有違反積極義務的特質,在對不作為犯的作為義務進行實質判斷時,只有當行為人對于危害結果的發生處于保證人地位才可能成立不作為犯罪。換言之,如果服務提供者對于生成式人工智能數據安全事件的發生處于保證人地位,就負有阻止結果發生的作為義務,未履行這種義務而導致法益侵害結果發生的則應承擔刑事責任。德國學者納格勒首次提出保證人理論,即某種法益處于危險狀態,負有防止該法益侵害結果發生的特別義務的保證人。德國學者阿明·考夫曼繼受了納格勒的保證人理論并經過完善提出了功能的二分說。功能的二分說依據社會功能的不同類型將保證人義務劃分為對特定法益的保護義務與對特定危險源的監督義務,前者是為了避免特定法益不受來自危險源的侵害,后者則是保證特定危險源不侵害他人[28]835。奧拓和他的學生布拉姆森試圖將保證人位置建立在“社會團結內部的相互期望之上”,即保證人地位就是行為人在某種特定場域被社會期待實施特定作為行為的社會角色,因而不作為犯的處罰基礎在于不為刑法規范期待應為的特定行為,或不著手實行被期待的特定行為[29]537。在高橋則夫看來,功能的二分說所劃分的法益保護義務與危險源管理義務,歸根結底都是被社會性期待具有某一社會角色的行為人直接或間接保護該法益[30]140。為了找尋不作為犯的處罰基礎,許乃曼采取的是一種與作為犯類比的方式,即處罰不作為犯的理論基礎在于,不作為犯對于法益的侵害類似于作為犯基于犯罪支配所擁有的地位(結果的原因支配說)。如果人們認為在積極作為之中犯罪支配是正犯構成要件實現的核心標準,則在與作為同等的不真正不作為中也應當要求一個支配地位,所以許乃曼從“對結果基礎的支配”中推導出保證人義務。存在“對結果基礎的支配”這樣一種支配關系的,不僅僅有支配了危險來源的監督型保證人,也有將被害人的無助作為結果基礎予以支配的保護型保證人[31]681-682。筆者贊同結果的原因支配說,即只要服務提供者支配了有可能導致結果的危險的原因,就能肯定其保證人地位,從而肯定其刑事作為義務。

依照結果的原因支配說的理論邏輯,只有當服務提供者未履行數據安全保護義務的行為形成了對導致數據安全法益侵害危險的原因的控制支配,才能肯定其保證人地位,從而讓其承擔刑事責任。服務提供者是生成式人工智能語料庫數據來源篩選與控制的主體,也是生成式人工智能算法設計或部署的主體?;诜仗峁┱咴谏墒饺斯ぶ悄軕弥兴缪莸慕巧匚?其對于生成式人工智能可能存在的數據安全風險有能力進行事前的評估、監測、預警與在發生數據安全事件后及時進行補救和處置,事實上形成了對生成式人工智能語料庫的數據這一特定脆弱法益侵害危險的原因的控制支配,這是生成式人工智能服務提供者保證人義務的實現基礎。服務提供者在自己的管轄領域(生成式人工智能本身)有責任防止他人侵害數據安全法益,而生成式人工智能數據安全的保護也強烈依賴于服務提供者實施特定的行為。因此,服務提供者應積極履行相應的數據安全保護義務,從而消除生成式人工智能存在的數據安全風險。當其未履行數據安全保護義務并造成嚴重危害結果的,可能構成不作為犯罪。但是,倘若服務提供者切實履行數據安全保護義務仍不能回避危害結果,就不宜承擔該當于構成要件結果的不作為刑事責任。

五、結語

生成式人工智能的數據安全保護是人工智能時代法律治理需要重點關注的新興問題。生成式人工智能的深度運用與數據安全保護產生了博弈,法律的介入要盡可能周全而不能盲目過度,即在不破壞生成式人工智能產業生態的情況下實現對數據安全的嚴密保護。探究生成式人工智能發生數據安全事件的根源,往往是因為服務提供者怠于履行數據安全保護職責所致?;趶脑搭^預防數據安全風險的治理邏輯,明確生成式人工智能服務提供者的數據安全保護義務及其法律責任,對于防范生成式人工智能的數據安全風險意義重大?!稌盒修k法》確立的“以服務提供者義務為中心”的生成式人工智能數據安全治理模式具有實質合理性,為服務提供者承擔數據安全保護義務提供了規范依據支持。通過對《數據安全法》《個人信息保護法》《網絡安全法》有關規定的詳細梳理,可以確定生成式人工智能服務提供者需要履行的數據安全保護義務的基本事項,包括技術安全保障和數據風險管理的事前防范義務、發生數據安全事件后立即采取處置措施并及時告知報告的事后處置義務。在對服務提供者未履行數據安全保護義務的法律責任予以分別性界定的基礎上,應注重不同法律責任之間的體系銜接與功能協同,避免服務提供者法律責任的片段化。對未履行數據安全保護義務的服務提供者采取結果主義的違法責任模式,既有助于激勵生成式人工智能產業的創新發展,也可以防止陷入“不實施行為即違法”的無邊界法律之困境。在未來,如何構建更加符合生成式人工智能產業鏈特性的法律歸責模式,仍需持續不斷地探索。

猜你喜歡
服務提供者數據安全個人信息
如何保護勞動者的個人信息?
個人信息保護進入“法時代”
網絡服務提供者的侵權責任研究
警惕個人信息泄露
云計算中基于用戶隱私的數據安全保護方法
建立激勵相容機制保護數據安全
論網絡服務提供者刑事責任的歸責模式一一以拒不履行網絡安全管理義務罪為切入點
大數據云計算環境下的數據安全
論網絡服務提供者的侵權責任
網絡服務提供者第三方責任的立法審視
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合