?

公私交融的人工智能法

2024-04-27 10:54陳吉棟
東方法學 2024年2期
關鍵詞:智能合約數據

陳吉棟

內容摘要:人工智能法的事物本質決定了其公私交融特性。事物本質的觀察源于技術不平等與隨之而來的信任關系重塑,其基本內涵是主體數字化、數據財產化、財產債權化、權利社會化和責任客觀化。人工智能系統、AI agent 并非法律主體。同意具有公法內涵但離不開私法分析,智能合約研究進展不大。權利研究不能支撐人類數字化生存的公私利益訴求,數據賦權說已占主流,但仍未能走出數據流通困境。法律責任的研究集中在歸責原則的客觀化與生成式人工智能之服務提供者的義務及過錯判斷上。以風險為基礎的人工智能治理構成人工智能立法的底層邏輯,應注意風險與責任的互動關系。

關鍵詞:公私交融 數據 可計算性 智能合約 同意授權 人工智能風險治理

中圖分類號:DF0 文獻標識碼:A 文章編號:1674-4039-(2024)02-0063-75

作為應對人工智能時代新興法律問題的法學學科,人工智能法學與數據法學一樣,其前提性命題、基本范疇均獨具特色,這就決定了試圖用傳統線下社會單一部門法理論或制度來解決智能社會中具體法律問題的努力往往會產生只見局部忽視全局的結果,由此便需要尋求契合智能社會本質要求的法律思維邏輯與具體制度設計?!?"〕2023年,隨著理論研究的深入和立法實踐的倒逼,人工智能法研究在核心議題上的共識逐步呈現,其“公私交融”的特征更為鮮明。公私交融深層次的意涵是,人工智能的研發與應用導致了主體及其利益關系呈現出超越傳統公私法范疇的融合景象。有學者曾表達了人工智能可能導致“私法的消亡”〔2&〕的驚人斷言,與所謂“公法易逝,而私法長存”〔3&〕的警語截然相反,顯示出人工智能與法律關系的復雜性,這層含義涉及公私法劃分乃至法律、技術與其他秩序來源關系的重構,該重構建基于技術之上的不平等與信任關系重塑,在人工智能法的主體、權益、行為等方面均有呈現。本文考察學說,辨別源流,提煉人工智能法公私交融特征的主線。

一、事物本質與人工智能法公私融合的基本內涵

對于人工智能及智能社會事物本質的認識是困擾人工智能法研究的首要難題?!傲⒎ㄅc法律發現都是一種制定法規范與生活事實的調適(Angleichung),一種應然與實存同化、對應的過程。但這里需要由一個令規范與事實獲得一致的‘第三者(Tertium),亦即在應然與實存之間有一個調和者存在。我們需要一個同時能夠代表特殊與一般,事實與規范的構造物。這個調和者就是‘法律理由(ratio0iuris),即‘意義,它不僅存在于制定法中,而且也存在于生活事實之中,法律理解意味著在‘意義中產生對應,意味著事物的本質(Natur0der0Sache)?!薄?0〕依據這一論述,人工智能法研究中的事物本質并非一個個涉人工智能案件的事實,而是隱藏在案件事實下的一般規律,是蘊含在生活實然中的必然。

對于事物本質的理解決定著人類把握客觀事物的程度。葉竹盛通過援引富勒的程序主義法治觀,提出人工智能蠶食著上述法治理想存在的兩個基本前提。其一,為了實現人有能力理解法律這一前提,克服法律的不確定性一直被視為是當代法學最重要的任務,智能社會對此能起到何種作用尚待觀察。其二,對于人們有能力理解事實這一前提,“智能時代的人們將在事實問題上面臨愈加嚴重的認知難題”。認知事實的困難本身及其所導致的認知自主權的喪失,最終將導致法律自主實現困難?!?7〕不能聚焦事物本質的認知,不僅造成了人工智能法本身研究在理念、規則上的偏差,也導致了學者對于人工智能法研究的誤解。而在現有條件下推進對于人工智能事物本質的理解,唯有深入實踐且有效利用吸收其他學科的觀察成果分析實踐方有可能。

認識事物本質不僅決定著法律規則產生(立法)與個案裁判(司法),也影響著立法理念的產生(法理)。沒有對事物本質的了解,法律理念是無本之木,法律規則是無源之水,個案裁判也將永失正義之基。既有研究在人工智能法調整對象、屬性、權益關系乃至法律責任分析上的錯誤,多是因對于事物本質認知錯誤所致。對于作為人工智能核心要素數據的認知,集中展現了事物本質認知的障礙。數據安全法第3條第1款將數據界定為以電子或其他方式對信息的記錄。由此,從內容與形式區分的角度界定數據成為通說,然而我們討論的數據僅指電子形式的數據,此點可以與歐盟數據治理法(Data0Governance0Act)相印證?!?7〕數據以“電子形式”存在導致了其獨特的權益內容及變動規律,學理上嘗試引入電子的、非競爭的、可復制的、“不斷產生的”等詞匯描述這一規律的法律內涵;在政策上探索依據數據資源、數據資產、數據產品與數據資本等數據生命周期的形態變化配置主體間的權益?!?7〕這些努力雖為法學研究揭示利益變化與權益配置規律提供了幫助,但仍未刺破數據的事物本質。那么,究竟什么是隱藏在數據電子形式背后的事物本質呢? 無疑,數據是電子形式的,是在特定系統中記錄并流通的,數據的處理(含流通)過程意味著“計算”,計算意味著計算資源的投入并依賴于數據的融合。因此可以被計算構成數據的本質屬性。正因為可計算屬性而非電子形式決定了當事人之間權利義務關系的法律內涵,也恰是可計算性而非生命周期劃分決定了其合約設計與登記制度的規則設置。然而,作為數據本質特征的可計算性仍然停留在數據科學研究中,亟待法學研究者深入挖掘。

可計算性的既有研究可分為三個層次:數據客體的可計算性、數據產品的可計算性以及作為個人信息判斷標準的算法識別性。作為數據科學基本原則的可計算性有廣狹兩義。廣義的可計算性是伴隨著數據科學生命周期,從原始數據的收集和清理到模型的建立和評估,每一步都依賴于計算;狹義的可計算性則是指算法或模型構建的計算可行性?!?"〕在數據科學界定之上,管理學者試圖將可計算性用于描述數據產品的特性。在這一層次中,可計算性意指一個數據產品被購買方用于清洗、重構、與其他數據融合并最終產生新的分析的可能性。如數據的維度、顆粒度、觀測量等,指標越多,可計算性越強,價值越高?!?"〕目前尚未看到法學學者對于可計算性的觀察。彭誠信在論述個人信息本質特征時提出“算法識別性”觀點。這一觀點認為,數字社會中的個人信息不僅要滿足“可識別”的要求,還應圍繞算法技術加以限定,即通過算法識別出的個人信息,才是典型的個人信息權客體。據此,個人信息應同時滿足識別性和算法性特征,即算法識別性才是個人信息的本質特征?!?0"〕我們姑且將這一特性作為可計算性的第三個層次。

法教義學在自我中心主義、危機、刺激及令人不安的開放以及日益鞏固的封閉組成的循環中發展?!?1'〕面對智能社會的治理需求,積極加入事物本質的討論中,以釋(教)義為體,以社科為用,〔12'〕應該成為人工智能法學研究的明智態度。人工智能法研究中事物本質雖然所指廣泛,但其基本內涵是主體數字化、數據財產化、財產債權化、權利社會化,以及責任客觀化。而這一切又均發生于技術(體系)所造成的不平等與隨之而來的信任關系重塑。不平等及其結構化構成了一切對于人工智能法事物本質討論的起點。不平等因人工智能技術形成,技術的研發與應用形成新的生產力、重塑既有生產關系,客觀上也導致了私法關系因利益內容的外部性與公共性呈現出社會化趨勢,服務提供者與用戶關系的失衡,中央與地方權力及其運行的變化。這就是人工智能法公私融合的核心內容。不平等及其結構化在身份、地域之外,疊加了技術因素,發生了新的交叉與分層,迫使法律人在萊斯格“架構理論”外,探求新型權利的綜合內容與規制風險等調整路徑的有機融合,這構成了公私融合的主要支撐。因此,正視技術不平等及其結構化,探尋人工智能法理論框架及其規則發現,公私融合既是討論起點、核心支撐,也是建設歸宿,這超越了公法私法化和私法公法化的討論,顯示出更為恒久的理論魅力。

二、風險作為法律原則的觀察方法

基本原則構成了法律規范體系的基石,尤其是對于人工智能法這樣尚處于演化過程中的法律部門?;驹瓌t作為規范的類型之一,其發現本身應在法律理念的指導下完成,在尚無人工智能國家立法的情況下,對于人工智能法的基本原則與應然理念的討論不能分開。因此,及早地發現其基本原則不僅有利于正確法律理念的產生,也有利于避免立法不能適應科技快速迭代從而影響個案正義。在人工智能地方立法探索中,不乏對產業發展原則的規定,〔13'〕不過這些原則的指導對象是產業發展而非人的人工智能研發與應用行為。受人工智能法被列入國務院立法計劃的影響,〔14'〕學者對于原則的設計方案開始出現?!?5'〕

人工智能法律規范范圍的明確有助于對其基本原則的討論。一部法律規范體系的邊界最終還是由其調整對象決定。因此,發現界定人工智能法調整對象及其規范體系的關鍵在于其調整對象的確定———人與人之間因人工智能研發或應用而產生之事實。 陳亮從界定人工智能之法律內涵、規范本質與立法理念入手,提出以“發展負責任的人工智能”為其理念追求,同時具備“事前性、系統性和規制性”特征的數據法規范、網絡法規范和算法規制規范才屬人工智能法律規范之列?!?6#〕問題在于:第一,沿襲規范之廣義狹義區分,新立之規范與既有規范的關系應得到平衡,狹義人工智能法規范設計僅需在既有規范的空隙中進行,就像并非所有的民法規范均處于民法典中一樣,也并非一切廣義的人工智能法規范均須被編纂進形式化的人工智能立法文本中。第二,人工智能規范設計的重點在于狹義規則的發現,發掘人工智能法的公私融合屬性并科學評估其對安全、可信、權利(力)義務設置以及調整方法等的具體影響,才能厘定狹義的人工智能法規范范圍。

人工智能法基本原則類型與內容是討論的基本內容。侯東德明確了人工智能法基本原則的類型:即公平原則,可靠、可控、可信原則,安全和發展并重原則,合規性原則等,〔17#〕全面且具有啟發意義。值得討論的是:第一,立法理念、基本原則與立法目的的關系問題。一般來說,公平、平等、自由是支撐民法的基本價值理念,在這些基本價值的指導下才可能產生法律規范體系(包括基本原則),而所謂的立法目的是立法者通過立法本身所要實現的短期或近期的目標,比如侯東德所指出的“安全和發展并重原則”顯屬此列。第二,至于如何看待公平與平等的關系問題。在民法上,公平聚焦于法律行為的內容設置,除了特定例外,“自愿即公平”。與此不同,平等主要針對主體地位而言,意即民事主體不得強加意志于他人,但是“有力說”認為民事主體不對他人負有平等對待的義務,所以民法典第4條平等原則的一個基本內涵是法律平等保護各種民事主體,除特別法為保護未成年人、老年人等弱者設有特別規定(民法典第128條)外,國家機關不得在法律保護上實施差別待遇?!?8#〕而侯東德認為人工智能法公平原則的特定內涵是地位平等、分配公平、正當的差別對待,〔19#〕這一論述顯然雜糅了公平和平等兩大基本原則的內容。那么,到底什么是人工智能法的基本原則,抑或到底什么是討論人工智能法基本原則的方法,遵循前文所指出的考夫曼法律發現的三階段———法律理念、法律規范、法律判決,對于人工智能法規范(基本原則)的討論應該置于法律理念指導之下,而理念的形成取決于對人工智能關系事物本質的理解,如此問題即演變為如何理解人工智能法的事物本質,目前來看,除了“計算”,這一途徑能且只能是“風險”。

技術作為人類可以加以利用的資源,創造了我們的經濟以及隨之而來的財富和安全?!?0#〕人工智能風險是一種技術風險,“以ChatGPT模型為代表的新一代人工智能仍然易于引發……人工架空、價值引導數據與算法控制等方面的風險”?!?1#〕風險與安全相關,所以安全作為人工智能法基本原則(或價值)并無爭議,安全原則的立法體現在諸如網絡安全法、數據安全法等法律規范中,此處不再贅述。值得注意的是,風險與信任也有莫大關系。物理世界中的信任產生于主體之間生活秩序的連續性,連續性本身降低風險產生信任。在前現代社會,連續性根植于家族、地域等共同體社會關系。然而,建立在時空分離基礎上的現代社會中,人、物、信息的高速流動,社會關系經歷了跨時空重構,從而衍生出建立在“脫域”之上的現代信任?!懊撚颉睂е铝诵畔⒌牟煌暾?,打破了傳統社會信任的連續性,陌生人之間的信任多寄托于對復雜技術系統的信任。這一過程其實也經過了功利計算,即信任的產生(及多少)取決于主體對于風險判斷能力(或容忍度)的大小,但這一計算是在前文所提出的結構化不平等體系中完成的。在人工智能時代,“脫域”現象進一步加速,由于缺乏對智能社會交往風險的基本認知,使得數字信任難以產生。具體來說,在數字空間中,信息及其象征標志更高速流通,數據空間所依賴的復雜智能巨系統遠遠超越專家系統,這不僅會導致新型風險的產生,也會加劇人們對交往風險的認知難度。在此意義上,風險不僅影響著信任的產生,也構成數字信任的基本內涵。

可信原則的基本內涵是降低風險,促進交往,實現具體主體之間的具體信任。其規范重點是,人工智能體及其所處的技術系統的可信。在規則設計上,一般是賦予系統方以更多的公私法義務,包括安全保護,還包括公法上的評測認證合規義務。此外,還需要約束前端服務提供者的行為,如有限風險人工智能系統應用者的透明義務,〔22"〕可以說,可信貫穿了人工智能法的全局,在根本上保障了人類對技術的信賴,從而避免了技術與自然、回歸傳統與擁抱智能之間的張力。

如果從風險的角度觀察既有研究,就安全原則和公平原則的討論主要圍繞特定領域的風險進行展開,這既包括風險義務的分配、風險救濟的責任歸屬,也包括對于風險的治理。關于公平原則的討論主要圍繞反對歧視問題,如在就業、教育以及超級平臺等具體場景下存在算法歧視、算法剝削等問題?!?3"〕關于安全原則,在具體場景上已有網信安全及信息安全等相應安全治理設計嘗試?!?4"〕這些研究將人工智能法推向中觀甚至微觀的層次。在此基礎上嘗試構建公私法交互的法律體系,兼顧倫理、技術和法律的治理框架。

可信原則具有融通公私法的規范內涵,與誠實信用原則與信義義務均有關聯。申言之,可信具有私法上誠實信用原則的基本內涵,針對暗黑模式下個體切身利益的保護,在現行法上多通過合同或者權利模式來解決這一問題,但仍需要風險規制實現對社會公共利益的維護,此時信義義務被適時提出,用來應對結構性不平等背景下主體間風險被大規模操縱的風險?!?5"〕

三、主體問題研究脫虛入實

私法正是自主體制度得以展開,又是以對主體(從終極意義上講以對自然人)的關心和關懷為歸宿。就人工智能法主體制度的基本內容來看,雖然也涉及安全與監管問題,但究其根本仍然是人與人之間成立的研發與應用關系。彭誠信用“人可非人—人皆為人—非人可人”來概括私法主體的發展歷史?!?6"〕鑒于個體與技術(及其利用者)關系所致的結構不平等,人工智能法更應該是閃爍著人文主義光華的“人法”?!?7"〕人工智能意志以及人類對其發展影響的接受構成了人工智能法主體討論的出發點也決定了其公私融合的基本面向。

(一)一般討論

迄今為止,“人工智能主體否定說”仍是主流學說?!胺穸ㄕf”的典型表述是,法律主體的本質在于自我意識、理性和自由意志,人工智能并不具備獨立自主的意識,無論在公法還是私法上都不可能取得與人平等的主體地位?!?8"〕人工智能不是“人”,也不是“擬制人”,而是人類創作的輔助工具,其執行的仍然是人類的意志?!?9"〕這些討論在公私法中都有體現。比如,在刑法上,人工智能體無法產生故意或過失的罪過形態,也不具有刑罰的必要性。在知識產權法上,人工智能生成物歸根到底仍然屬于人類智力勞動成果,人工智能尚不能成為著作權法的主體?!?0#〕“否定說”在域外實踐中頗有支撐?!?1#〕

“肯定說” 備受詬病, 但其支持者總能從技術不斷迭代及其應用不斷深入的趨勢中找尋正當性?!翱隙ㄕf”的基本理由大致如下:第一,在技術上,人工智能作為獨立智能體的智慧條件已經具備;〔32#〕第二,在認知上,人類對智能機器普遍產生了道德情感認知。第三,在解釋路徑上,對立法條文作目的論擴張可對人工智能進行法律授權?!?3#〕毋庸置疑,即便在生成式人工智能掀起發展狂潮的當下,“肯定說”也未取得優勢地位。而且“肯定說”也需要回應人工智能仍然能力較弱不能成為社會主體的基本現實,為人工智能設置監管人,從而解決人工智能侵權責任承擔的現實問題?!?4#〕

組織體法律人格研究構成了法律主體最活躍的部分。在人工智能法主體制度的既有研究中,區塊鏈去中心化自治組織(DAO)法律性質問題已被提出,域外已有立法實踐,〔35#〕但2023年度少有論文出現?!?6#〕鑒于針對事物本質的紛爭短期內難以取得一致,主體問題的討論可能要持續到實定法作出規定才能告一段落。在最終意義上,人工智能主體問題取決于人類對于技術發展水平及其對于社會經濟影響深度和廣度的認知與接受程度。

(二)AI#agent問題被提出

AI#agent并未引起理論研究上的重視。早在2018年,人工智能譯叢“獨角獸·人工智能”系列叢書開始編譯時主編彭誠信即十分重視AI#agent的翻譯,最后譯者放棄了代理和主體等譯法,選擇了“智能體”這一定譯?!?7#〕但此后,AI#agent未獲得立法和理論研究的重視。究其原因,既有人工智能技術發展路線的影響,也有研究者認識的問題。

在技術上,AI#agent并非一個新概念,其隨著人工智能而誕生,尚無統一界定?!?8#〕通常來說,AI#agent指的是一種具備自主決策能力、可以代表用戶執行任務、與環境交互的智能實體或虛擬智能體。它可以基于規則、知識或學習獨立地感知和理解環境,并采取適當行動以實現用戶目標。在不同人工智能領域,AI#agent既可能指代某個虛擬系統軟件,也可指代一輛智能網聯汽車。AI#agent應用場景廣泛,比如,AI#agent可以根據既往的旅行數據(旅行的時間、方式等)、旅行取向(喜歡重游故地抑或另覓新奇)為人類作出旅行安排?!?9#〕

AI#agent與人工智能系統、數字人、程序軟件不同。人工智能系統(AI#system)指涉利用計算機科學和人工智能技術構建的系統,使其能夠模擬人類智能或執行智能任務。人工智能系統可能由單個或多個agent構成。數字人(digital

壽步由agent譯法入手進行了法學討論。他認為將AI

四、法律行為研究進展不大

如果對于數字空間及其交往客觀規律稍加注意, 即會發現法律行為的研究仍未達到理想的程度。既有的研究中仍然聚焦在智能合約,對于共識、加密、簽名等人機交互背景下的自然意思表示的電子化及其解釋路徑問題挖掘不足,遑論對于技術設施與架構之于主體意思表示影響根本規律的研究。因此,理論研究相對于可見的數字交往前景存在不足。

(一)智能合約法律構造與應用場景

當前,我國數據交易進入快速發展時期,理想狀態下鏈上數字資產交易需要智能合約這一執行機制。在智能合約應用場景的研究上,賽錚指出保險智能合約與傳統保險合同的區別:即“保險智能合約是由代碼編寫而成的合同,其‘成立—有效—執行的過程全部由代碼在區塊鏈中加以實現”。具體來說,“(1)合約成立,即參與締約的雙方或多方當事人商定后將共同合意編寫成一份代碼表示的智能合約;(2)合約有效,即將智能合約內容發布至區塊鏈,驗證節點通過后產生新塊,并存儲于區塊鏈各節點中;(3)合約執行,即存儲于區塊鏈中的智能合約一旦觸發執行條件,經過各節點驗證通過后便不可逆地自動執行合同內容”?!?3+〕該文對于智能合約合同屬性的判斷,仍處于既有研究的框架下,但關于合約締約履行過程的分析進一步細化。不過,對于智能合約意思表示的分析必然隨著實踐尤其是技術的變化而變化。因此,區分智能合約的應用場景變得重要。意思表示的根本問題是自然語言代碼化帶來的解釋規則變化。隨著技術的發展,智能合約場景會逐步增多且會引發組織管理與民事權益等公私法研究落地。不過,其中尤其重要的是,隨著意思表示的電子化,對其主觀構成的分析將成為難題,尤其是在生成式人工智能應用日益深入的背景下。鑒于我國對通證經濟的謹慎態度,〔44+〕現階段更有實際意義的是對數據價值利用中的意思表示研究。

(二)同意授權的公私法內涵

數據作為人工智能發展的基質,構成了人工智能法的核心內容?,F階段源于個人信息收集的數據生產流通不能擺脫個人信息的二元基因的束縛。數據與個人信息的區分系于“匿名化”(個人信息保護法第4條第1款),但由于實踐中處理者多不能做到嚴格意義上的匿名化,〔45+〕同意規則仍然發揮著為個人數據處理提供正當性的作用。雖然同意具有公法的屬性,但數據流通交易終是在兩方私法主體之間進行,是否以及在多大程度上可以使用民法原則來解釋數據保護法中的同意引發了世界范圍內的討論?!?6+〕中共中央、國務院《關于構建數據基礎制度更好發揮數據要素作用的意見》(以下簡稱《數據二十條》),把這一問題凝練為個人信息數據的“確權授權”問題,“授權”是什么? 如何處理同意與授權關系等問題應受到學者重視。

個人信息處理“知情同意規則”在程序上保障了信息主體的自決。這種自決當然有其公法意涵,單就民法而言,同意最基本的含義是其代表了信息主體在“知情”情況下對于信息處理行為的“許可”。如果引入“授權”的討論,如何區分同意和授權的關系,〔47#〕尤其是這種區分在數據價值利用的實踐背景下是否具有正當性與可行性,成為不可回避的問題。

程嘯區分了授權與同意的不同規范內涵與效果。他認為,基于個人同意而實施的個人信息處理活動非但可以無條件撤回,而且受到目的、方式和范圍的限制,不可能包含對個人信息后續全部商業化利用, 因此要真正實現對個人數據的商業化利用尤其是取得個人數據上的穩定的財產權,就必須經由授權而獲得(達成合意)。而且,同意僅“具有排除處理行為非法性的法律效果,惟有個人授權方可能產生個人數據許可使用的權利義務關系的效果”。進一步說,授權屬于民法上的授權,授權的客體是個人數據上的財產性權利,被授權人是數據處理者,授權的實現路徑是許可數據處理者對個人數據進行處理。因此,授權的落實需要個人與個人數據處理者之間成立個人數據許可使用合同?!?8#〕

不過,在多數情況下同意的內容本身包含對于個人數據財產價值進行處理的同意,則在該處理范圍內的處理目的與內容已經為同意所決定,且程嘯所說的個人數據的后續商業利益利用也仍需同意而非授權所能單獨完成。在此意義上,授權可以構成同意的結果,所謂的“授權”等于且依賴于同意許可,許可依賴協議,數據許可合同產生許可效力?!?9#〕可能更為可取的是,重視同意的權利基礎與法律意涵的公私交融。具體來說,同意處理最為基本的權利基礎建基于公法,信息主體授權本身很難具有獨立性,且作為企業數據權益來源正當性基礎的也非信息主體的授權,因為處理者的財產權益并非信息主體授予,而是后續其自身生產行為所得。換句話說,其財產權益并非傳來的,而是自身原始形成的。這也是人工智能法公私融合屬性的典型體現。

彭誠信曾指出,在處理者處理階段,個人信息上仍負載著人格利益,因此處理者仍負擔著多重的義務,這決定了后續司法介入同意討論的限度及其如何處理兩者關系的難度??傊?,同意規則及對于該規則的反思,在本質上是數據價值利用正當性與效率的平衡問題。規則設計要考慮如下兩個現實問題:首先,作為同意效果的授權,即便有其獨立意義,也僅限于匿名之前;其次,在同意機制尚且面臨實施困難的背景下,授權規則如何適用,拷問著我們的平衡能力。

五、權利研究的進展與不足

新興權利構成人工智能法研究的核心內容。按照經典表述,“利益的正當性評價結果即正當利益,在法律上具體表征為權利,從而溝通利益、正義與權利三者的關系”?!?0#〕法律主體維系其智能社會公私交往產生了新的欲求形態, 新欲求的實現構成了兼及公私面向且處于法律可予評價的利益狀態,利益經過正當性評價即構成了法律上的正當權益。這一研究公私法均有涉及,聚焦在數字人權、數據權利的討論,也有少量研究發現了加密權等值得關注的問題?!?1#〕

(一)數字人權與人的尊嚴

對于數字人權的研究在推動與反思之間曲折前進。數字人權是否構成第四代人權以及數字人權的證成,目前學界仍未達成共識,相關討論仍在積極進行。以張文顯、馬長山為代表的學者旗幟鮮明地提出“無數字,不人權”的命題,進而提出“數字公民”的身份確認以及相關權利保障,旨在消解數字公民的機制性游離,維護數字社會的公平正義?!?2#〕就規范基礎而言,一般認為,數字人權是一種憲法基本權利?!?3#〕究其原因,數字人權具有防御權、客觀價值秩序以及“結構耦合”等功能,且對“人權條款”與“人格尊嚴”的詮釋進一步展示了憲法是容納數字人權的主要載體?!?4#〕桂曉偉從數字人權的人性基礎和法律淵源兩個方面,論證了“數字人權”之人權屬性,進而對數字人權的內容進行構建,提出數字人權由“網絡接入權”和“數據自主權”兩項衍生人權及其相關特定權利組成,并以防御、尊重、保護和促進機制維系個人、網絡企業和國家三元結構的良性運作?!?5#〕宋保振關注在數字鴻溝和數字紅利差異逐漸拉大的背景下催生出的“數字弱勢群體”之公平權保障?!?6#〕

另有反對者提出,“數字人權”非但不構成“第四代人權”,甚至不宜作為人權的下位概念,因為從社會系統論來看,“數字”與“人權”的耦合關系是兩者互為環境、相互激擾,無法融合為整體的“數字人權”,并且數字科技與人權倫理具有不可通約性,因此,無需單獨制定“數字人權”的人權領域法?!?7#〕

從權利理論上說,數字人權可能更應該思考的問題是哪些才是人工智能帶來的損害,權利源于人類不正義的經驗(不義)?!?8#〕這方面,公私法均有初步成果。人的尊嚴構成了法律的最高價值,智能社會對人的尊嚴至少產生了如下兩個層面的沖擊:〔59#〕第一,智能社會導致人與權利的關系發生重大變化。在智能社會權利喪失了保障人之根本利益的能力,權利作為個人內在價值的正當性基礎,可能被智能科技“架空”。第二,智能社會導致人的尊嚴與法治嚴重脫鉤。智能科技可能使人陷入自主性危機,阻礙了個人成為法律上期許的自由意志主體。這意味著,即使是僅存的尚處于個人支配之下的權利,也可能因不斷強大的智能科技而無法有效實踐———人的行為和后果之間的聯系被割裂了,個人難以實現自主的塑造,這就是智能社會中人所面臨的自主性危機?!?0+〕葛江虬同樣基于人的尊嚴之考量,對元宇宙框架下數字空間的人格要素保護的財產法、主體法路徑給予否定性評價,認為這些路徑忽略了侵害人格的本質是侵害人的尊嚴這一事實?!?1#〕

(二)數據產權討論尚未刺破事物本質

《數據二十條》提出了“數據資源持有權、數據加工使用權、數據產品經營權等分置的產權運行機制”,引發了法學者尤其是民法學者介入數據權利討論的熱潮。無論對數據權益配置提出什么理論方案,都應回答如下幾個問題:即在什么客體上,確認哪些主體的什么權利,通過何種途徑確保權益的變更流通。

數據產權的“三權分置”實質上就是對于企業數據財產權權利內容的描述或形象化呈現?!?2#〕權利主體是企業或者數據勞動者,權利客體是數據財產,其范圍包括原始數據、數據資源和數據產品?!?3#〕數據財產權是一種私權、財產權、絕對權,是直接支配和排他的權利?!?4#〕細化排他性的觀點認為,應在數據分級分類的基礎上構建起完全支配絕對排他、完全支配無排他性、有限支配有限排他的分級分類確權規則?!?5#〕然而,既有研究對數據財產權的權利內容觀點不一:有的認為應包括持有、利用、收益和處分四大權能;〔66"〕有的認為內容可分為訪問權、復制權、使用權和處分權;〔67"〕還有的認為,可分為持有控制數據、處理利用數據、獲取數據收益、處分數據,〔68"〕遭受侵害或者妨礙時的停止侵害、排除妨礙和消除危險請求權?!?9"〕

數據賦權的權利束進路得到了沿襲,〔70"〕這類觀點多依據霍菲爾德權利分析理論(權利束),區分數據生產、數據處理和數據治理等行為,在提供者、采集者、存儲者和信息的加工者、分配者、使用者等不同主體之間進行精準確權?!?1"〕如此以數據資源持有權、數據加工使用權和數據產品經營權的動態賦權形式,建立數據主體享有的數據控制權、數據處理權、數據處分權和數據收益權的權利體系?!?2"〕熊丙萬“財產權標準化”理論可謂是權利束理論的升級,根據數據財產權利人與不同社會交往對象之間的社會關系熟悉度,分別構建相應標準化程度的數據財產權樣態?!?3"〕

數據持有及其保護被認為是解決目前數據確權難題的前提問題?!?4"〕在此認識下,數據持有是一種事實控制?!?5"〕數據持有權則是數據產品化過程中不斷動態發展的權利。在要素化階段配置分享而非分置的產權,而在數據產品化階段配置可分置的穩定的持有權?!?6"〕整體上,數據持有權可以通過用戶協議、反壟斷法等獲得保護?!?7"〕

國家知識產權局開展數據知識產權工作地方試點以來,〔78"〕數據知識產權的學術討論增多,構成了數據賦權的另外一種路線。支持“數據知識產權”的學者大多認同“數據產權是一種新型財產權”的觀點,并將其客體限縮于滿足一定條件的商業數據集合?!?9"〕知識產權論者多肯認商業數據作為公共物品且具有非競爭性和非損耗性,論證商業數據集的創新性多從主體投入智力勞動、且數據集合結構方式具有一定的獨創性單方展開,也有直接將數據認定為新型知識產權客體的主張,后者在客體范圍上較前者更廣。

數據知識產權僅具有“有限排他性”且具有權利分置的制度構成。這就決定了其賦權形式可采取“控制—共享”“保護—限制”的二元權利主體構造:賦權之一是數據制作者權(有限排他效力的財產權),包括消極權能(禁止權)與積極權能(控制權、開發權、利用權);賦權之二是數據使用者權,即用戶及其他同業經營者的訪問權和攜帶權?!?0"〕有學者進一步論述了數據專有權可以按照商標法的實施模式進行規范構造,權利的取得可以采取注冊取得模式?!?1"〕數據知識產權反對者眾多。民法學者認為,數據權益與知識產權在權益結構、期限限制、保護理念、權利客體要件存在諸多不同?!?2"〕知識產權學者則認為,現有知識產權制度以及合同、侵權等規則已經為商業數據提供充分保護,無需在立法上賦予新的數據權利?!?3#〕

需要指出,賦權被認為是數據流通交易的基礎制度,前述理論探討為國家層面的數據立法提供了正反兩方面的理論參考。不過,數據賦權并非天然具有正當性。由于(電子)數據在系統中記錄,在互聯網技術架構之上建立的鏈、網、云、端體系內實現流通,這決定數據的計算無處不在無時不有,在形態、價值等不斷流變的過程中形成不同主體之間的權利義務關系。因此,《數據二十條》中的賦權方案本身并非權利分置的方案,因此所謂的數據三權分置本身僅是政策表達并無規范意義。更為重要的是,對于數據排他性的討論以及登記制度設計仍然應采取開放態度。此外,賦權研究不應忽視資源分配的基本現實(誰掌握著數據)及其規律(依靠什么控制數據),忽視這一前提,賦權制度的設計可能是不正義的。一個有意思的觀察是,在Web3.0時代,區塊鏈技術構筑的分布式網絡推動了內容價值向個人分配(確權)的進程,但是,“生成式人工智能將會成為Web3.0時代的網絡集權工具”,散落在用戶手中的數據資源可能會再次聚集?!?4+〕

六、生成式人工智能激發法律責任討論的客觀化趨向

人工智能研發、生產與應用風險實現即會產生致害責任承擔問題,“人工智能致害誰擔責”成為經典設問與普遍關切。在法律責任的理論研究中,應用主體的義務判斷、致害歸責原則乃至賠償范圍是討論的重點。

在人工智能致害歸責原則的選擇上,嚴格責任成為趨勢。郭少飛認為,人工智能承擔侵權責任時,一般不論其主觀過錯,該責任應當是一種客觀責任、嚴格責任?!?5#〕袁曾則基于“結構化分析致損時的狀態與原因”提出四種不同情況下的歸責原則?!?6#〕

隨著《生成式人工智能服務管理暫行辦法》的發布,如何判斷服務提供者的責任成為學者研究的焦點問題。徐偉提出認定生成式人工智能服務提供者過錯的兩個維度:一是對侵權內容的“生成”存在過錯;二是對侵權內容的“移除”存在過錯。生成維度的過錯判斷取決于服務提供者注意義務的高低。至于生成式人工智能服務提供者是否適用民法典第1195條等條款中規定的通知移除規則? 在事實層面, 事后生成式人工智能服務提供者能否以合理的成本和較高的準確度移除某些內容應被考慮,法律上不宜對其課以不得再次生成相關內容的義務,但這并不意味著服務提供者不負有任何義務。鑒于民法典第1195條對網絡服務提供者提出的是采取“必要措施”的要求,生成式人工智能服務提供者也可能負有對涉嫌侵權的內容采取顯著標識等方式來“提醒”用戶等義務?!?7+〕這一解釋方法是否可行仍有待技術、商業和制度的檢驗。無論是從侵權過錯認定的一般原理,還是從保護受害人權益,抑或從我國將通知移除規則一體適用于各種網絡服務提供者類型的傳統來看,對生成式人工智能服務提供者課以避免侵權內容再次生成的義務似乎仍在制度設計選擇之列。

隨著生成式大模型研發與應用的推進, 垂類模型的研發也進入熱潮,AI+for+Law的理念與實踐獲得了關注,在AI#for#Science之外,讓人看到智能巨變的深度與廣度。積極推動人工智能安全、監管的國際合作要求更要交叉的研究,以及對于基本實踐進行融合技術的底層實證分析。更為重要的是,對基礎模型研發與應用的偏見、數據的歸屬以及風險監管權力現實需求可能催生人工智能國家主權觀念。

七、以風險為基礎的人工智能治理

人工智能治理與安全保護構成了人工智能法的公法面向。伴隨人工智能立法被納入國務院立法議程,國家層面的人工智能立法采用促進法還是治理法,治理法以何種邏輯展開,成為亟待解決的問題。在這樣的背景下,治理入法提上議程,討論開始增多。

在治理路徑上,總體上包容審慎仍是主流態度。鈄曉東提出“回應型治理”,從輸入端、運算端、存儲端、輸出端以風險管控、算法透明原則、多層次的數據管理保障機制以及技術、標準與法律三元架構的生成內容治理機制為應對手段?!?8"〕避免過度依賴傳統以政府為中心的規制方式,而采取“有效市場”與“有為政府”協同發力、過程合規激勵和結果威懾效應齊彰,深度融合法律邏輯、技術邏輯與產業邏輯的雙重法律規制理路。同時還需從風險化解和權益保障入手進行責任松綁和規制補強,引入安全港規則及發展保障基金制度?!?9"〕也有學者提出通過監管沙盒實現敏捷型風險治理?!?0%〕安全港制度與沙盒監管具有積極意義,但目前沙盒入法的實踐較為分散,且需完善進入沙盒的條件、途徑與出沙盒后的制度設計。此外,在智能社會的秩序來源上,上述觀點均承認在法律之外技術(標準)作用的發揮。正是由于技術秩序供給作用提升,被規制者本身承擔著規制義務,合規即構成了人工智能法的內容,在根本上,這是由法律3.0的基本理念決定的。

在治理思路上,筆者提出基于風險進行治理的思路。以風險為基礎的人工智能治理將人工智能系統研發與應用風險的認知作為起點,風險治理與民事責任的溝通作為邏輯終點,如此構建以風險為基礎的人工智能法律治理體系?!?1%〕商建剛提出,應當先構建風險治理的元規則,即率先提出其中最基本、最具全局影響的規則為核心,保持多元利益動態平衡:從協同共治、提升透明度、保障數據質量、倫理先行四個角度進行元規則構建?!?2+〕以風險為基礎的治理還需要解決如下幾個問題,即人工智能風險到底屬于什么風險,分級治理是理據為何,落實風險治理的體制機制如何設計,如何處理人工智能風險治理與既有法律規范如產品質量法的關系等。也有學者反對以風險為基礎的治理,趙精武指出“新興風險治理之必要”存在理論不足和邏輯缺陷:這些新風險本質上并沒有徹底改變既有的法律關系,同樣也沒有突破現有法律規范的調整范圍?!帮L險立法論”是否屬于當下最佳治理方案仍存疑議。更重要的是,人工智能產業尚處于發展階段,過早地進行整體性的產業規范可能存在“超前規制”之嫌?!?3%〕不過,目前來看以風險為基礎的治理仍是一條務實而理性的路徑,不僅由歐盟人工智能法所提出,也被我國深圳經濟特區、上海市人工智能產業發展條例所采納。重提風險理論,提倡風險的評估,在本質上是有效平衡人工智能發展與科學監管的途徑。唯一的可議論之處在于是采用風險分級方法還是更為動態的方法。

結語

智能社會的事物本質在根本上決定了人工智能法公私交融的屬性,如何認識公私交融的獨特內涵在根本上決定著人工智能法的疆域。鑒于智能社會的快速發展,在知識發現上,法學將長期與技術、經濟、管理等學科混用基本范疇與方法,“大家都來探險、命名和立法,弄得亂七八糟、糾纏不清”,〔94-〕人工智能法學仍將停留在“包羅萬象,無所不涉”的“雜學”階段?!?5-〕不過,從宏觀到中微觀研究的轉變正在發生。法學的基本價值追求是恒定的,即維護并促進人的行為自由與尊嚴平等。數字法學如此,人工智能法學也如此。因此,聚焦給定理想、法律及其現實社會后果的可欲性,而不放大何種原則是唯一客觀正確的爭論,〔96-〕在此實用主義態度基礎上展開對話,才能完成對人工智能法調整對象與方法公私融合屬性的攝受,進而發現人工智能法之基本法理,厘定其規范外延,深化其規范內涵。

本文系2019年度教育部人文社會科學研究青年基金項目“‘習慣入典的理論與實踐研究”(項目批準號:19YJC820003)、2018年上海市浦江學者支持項目“人工智能的民法典應對”(項目批準號:18PJC052)的階段性研究成果。

猜你喜歡
智能合約數據
農產品供應鏈金融信用體系框架設計
基于區塊鏈技術的去中心化數字出版平臺研究
區塊鏈技術在互聯網保險行業的應用探討
公路工程試驗檢測存在的問題及措施
一種借助數據處理構建的智能食堂管理系統
數據化藝術的生成探究
區塊鏈技術在會計中的應用展望
淺談計量自動化系統實現預購電管理應用
智能合約與金融合約
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合