?

“分級分類”與“契約”風險治理并行的人工智能監管制度構建

2024-02-28 04:40黃靜怡
海南金融 2024年2期
關鍵詞:風險治理分級分類人工智能

摘? ?要:推動戰略性新興產業融合集群發展,構建人工智能增長引擎,快速發展的人工智能向法律提出挑戰的同時,創新人工智能產業也不容忽視。2023年8月《生成式人工智能服務管理暫行辦法》落地,我國已基本形成人工智能監管框架。統籌人工智能“發展與安全”,平衡人工智能“監管與創新”便成為要解決的核心問題。以歐盟《人工智能法案》為分析對象,“分級分類”與“契約”風險治理并行的人工智能監管思路是其主要特征。一方面,分級分類的人工智能風險治理作為數字經濟中一種監管理念能夠更好地實現科學監管、高效規制、精準治理;另一方面,強調監管機構、科創企業、消費者三者在平等協商的基礎上形成共治局面的人工智能監管沙盒實現了“契約”治理。因此,立足我國人工智能立法和發展現狀,應構建“分級分類”與“契約”風險治理并行的人工智能監管制度。一是明確分級分類標準,對接相應的數據、算法、平臺的治理規則體系,與現有的人工智能事前、事中、事后監管制度實現銜接。二是以國家數據局作為主要牽頭機關,程序執行以“場景化”為特征,明確人工智能監管沙盒的五步程序和測試合格標準,堅持個人數據的處理是監管沙盒制度的關鍵,最終形成政府、社會、企業三方互相合作協同治理的局面。

關鍵詞:人工智能;分級分類;風險治理;監管沙盒

DOI:10.3969/j.issn.1003-9031.2024.02.006

中圖分類號:DF438? ? ? ? ? ?文獻標識碼:A? ? ?文章編號:1003-9031(2024)02-0076-10

一、引言

人工智能作為當前數字經濟的核心技術,以不可阻擋之勢應用于生活的方方面面。同樣,人工智能作為一種新行業新業態,其核心產業規模達到5000億元,企業數量超過4300家,5G基站超過280萬個,數字化車間和工廠約2500多個,算力規模位居全球第二。然而,當人類獲得人工智能產業帶來的便利條件的同時,也面臨著風險的未知性和不確定性。因此,快速發展的人工智能技術正在為我國法律法規的建立健全提出更加緊迫的發展要求。其中,統籌人工智能“發展與安全”,平衡人工智能“監管與創新”,則是最為關鍵的問題。探索全球關于人工智能的監管與實踐,歐盟于2023年6月通過了《人工智能法案》(以下簡稱《AI法案》),標志著歐盟關于人工智能的監管將走向世界前列。其中,歐盟的“風險等級制”人工智能監管措施和堅持實驗主義治理理念的“監管沙盒”是其核心監管內容。換言之,“分級分類”為治理原則的人工智能風險劃分制度和以“契約”為鼓勵創新的風險治理制度是歐盟《人工智能法案》最核心的特征。因此,本文欲對歐盟《人工智能法案》兩大治理邏輯進行剖析,并結合我國當前人工智能治理的實踐和現實困境,提出“分級分類”與“契約”風險治理并行的人工智能監管思路,并對具體的制度構建提出相關建議。

二、歐盟《人工智能法案》的監管制度分析

(一)歐盟人工智能立法歷史沿革

歐盟自2016年起就不斷探索推進對人工智能技術應用的監管體系建構。2018年,歐盟建立人工智能高級專家小組(High-Level Expert Group on Artificial Intelligence),加快建立一個統一的人工智能法律監管框架的步伐。隨著《人工智能法案》三次修改及談判草案的發布,歐盟在世界范圍內率先設計一系列措施以確立人工智能的治理規則體系,并嘗試影響甚至塑造全球范圍內的人工智能治理共識規則和標準??v觀歐盟人工智能立法,其關鍵詞主要包括“倫理治理”“算法治理”“數據治理”,以上共同構成歐洲人工智能的監管框架。

2016年發布的《歐盟機器人民事法律規則》從民事法律的角度對基于人工智能控制的機器人制定了相應的權利及義務規則。該文件作為歐洲乃至全球第一份專門規制人工智能的政策文件,對于歐洲的人工智能發展及人工智能倫理治理的發展均產生較大影響。2018年歐盟委員會發布《通用數據保護條例》,旨在加強和統一歐盟內所有成員國的數據保護,保障公民在數字化時代的隱私權。2019年發布《算法的可問責和透明的治理框架》,確立了人工智能的算法問責機制及透明義務的規則。同年《可信人工智能倫理指南》發布,正式確立了“以人為本”的人工智能發展及治理理念,其提出的可信人工智能三大要素也進而成為世界范圍內較為通行的人工智能評估準則。2020年,歐盟針對數據治理陸續發布了《數字服務法案》《數字市場法案》和《數據治理法案》,旨在規范歐洲的數據利用和流轉制度。因此,隨著《人工智能法案》的出臺,歐盟已經形成了加強數據安全保護,促進歐洲數據流動,防范算法自動化決策潛在風險,建立相關倫理價值標準,擁有監管與創新平衡發展的人工智能監管立法規定。

本文以歐盟《人工智能法案》為分析對象,首先對該法案進行系統梳理,以“折衷版本”為參考,共12編85條。包括一般規定;禁止人工智能的行為;高風險人工智能的種類、要求、提供者和使用者的各方義務及相關評估合格程序;支持創新的措施;人工智能監管沙盒制度;治理架構;執法程序;法律責任等。歐盟《人工智能法案》集中體現了兩種風險治理理念:基于風險的規制和堅持實驗主義治理。詳言之,歐盟對于人工智能風險防范的立法設計,一方面以風險為起點,進行風險等級分類,并針對不同的風險采取不同的監管措施;另一方面自監管機構、科創企業、用戶之間形成一種共治狀態,基于平等協商、信息透明的要求達成實驗“契約”,實現科技創新的同時,達到社會效果的最大化。

(二)歐盟人工智能的分級分類風險治理邏輯

以風險分級劃分為導向的人工智能治理思路是當下立法與實踐的主流。以高、中、低劃分人工智能風險,它們所面對的監管要求各不相同,對監管事項的詳盡程度也各有不同。但分級分類作為數字經濟中一種監管理念能夠體現科學監管、高效規制、精準治理的常態化監管思路。

歐盟《人工智能法案》基于人工智能的不透明性、復雜性、對數據的依賴性、自主行為性等特征,將人工智能的風險等級區分為:不可接受風險、高風險、有限風險和低或極小風險的人工智能系統。第一,不可接受風險人工智能系統?!度斯ぶ悄芊ò浮返牡?條規定,被認為對人們的安全、生計和權利構成明顯威脅的有害人工智能系統所產生的風險為不可接受的風險。該系統不可以在歐盟境內投放市場、投入服務或使用的。第二,高風險人工智能系統?!度斯ぶ悄芊ò浮返牡?條規定了對人們的安全或基本權利造成不利影響的“高風險人工智能系統”,具體包括兩類高風險的人工智能系統:一是作為產品安全組成部分或屬于歐盟衛生與安全協調立法(如玩具、航空、汽車、醫療器械、升降機等)的系統;二是在附件三確定的8個特定領域部署的系統,委員會可以通過授權法案進行必要的更新。高風險人工智能系統應適用如下限制規則:首先,高風險人工智能系統的提供者在將其投放市場或投入使用之前,需要將該系統注冊在歐盟范圍內的AI數據庫中。任何受現有AI產品安全立法管轄的產品和服務,應適用現有的第三方符合性框架(Conformity Frameworks)之下。目前不受歐盟立法管轄的人工智能系統的提供者必須進行自我評估,在符合要求的情況下,可以使用CE標記。其次,高風險的人工智能系統需要在風險管理、測試、技術穩健性、數據培訓和數據治理、透明度、人類監督和網絡安全等方面符合要求。最后,高風險人工智能系統的提供者、進口商、分銷商和使用者將必須履行一系列義務。第三,有限風險人工智能系統。如與人類交互的系統(即聊天機器人)、情感識別系統、生物特征分類系統以及生成式人工智能系統,需要履行透明義務。第四,低或極小風險人工智能系統。低或極小風險的人工智能系統在歐盟開發和使用,不需要遵守任何額外的法律義務。但《人工智能法案》中規定的行為準則,鼓勵非高風險人工智能系統的提供者自愿適用高風險人工智能系統的強制性要求。

人工智能分級分類風險治理邏輯的價值。第一,分級分類對人工智能風險進行劃分有利于精準防范社會未知風險。由于社會本身具有多元的屬性特征,在主體、價值等方方面面,單一治理規則是無法適用解決的。分級分類的風險劃分能夠彰顯其包容性的特征,面對不同的治理風險,有針對性地提出治理措施,能夠精準防范由人工智能所產生的社會未知風險。第二,分級分類對人工智能風險進行劃分有利于提高其公平度、透明度和可問責性。人工智能從弱人工智能向強人工智能的發展過程中,也使得人工智能逐漸從輔助性的工具發展為能夠進行自主性的決策。然而,分級分類能夠對人工智能進行定位和區分,提升其人為的可控性,由此可產生不同的風險治理路徑。第三,分級分類對人工智能風險進行劃分有利于實現平衡企業與社會責任,更好地促進產業創新。當前,全球人工智能作為提高國家競爭力的重要戰略力量,“以監管促發展”則是當前人工智能立法的主要思路。從企業角度而言,區分度和顆粒度的監管措施夠更好平衡企業社會責任和能量釋放,促進產業健康發展。

(三)歐盟人工智能的“契約”風險治理邏輯

監管沙盒本質上是基于多方主體達成“契約”結構的監管措施。從監管部門到相關企業再到用戶(消費者)基于身份關系的不同,形成了一種自上而下的監管狀態。然而,監管沙盒的存在則轉變了這種“對抗性”的狀態進而形成一種以“契約”為底層邏輯的共治狀態。歐盟人工智能的“契約”治理邏輯,主要體現在其對人工智能監管沙盒制度的規定。

沙盒(Sandbox)來源于計算機領域,作為一種安全程序以提供一種隔離環境。在可控的范圍內,對“盒子”里的企業由監管部門實施全過程監管,將風險杜絕在“盒子”范圍之外,并在測試實驗結束之后,作出安全性的評價,最終使得企業在監管中獲益。監管沙盒的特征體現在:第一,監管沙盒一般都是臨時性的,測試過程通常是有期限的且期限較短。第二,監管沙盒匯集了監管者和企業的意見,也是“契約性”的關鍵體現。第三,創新的產品和服務將跳出現有法律框架,通過建立監管沙盒,為一個特定的項目“量身定制”法律支持。第四,監管沙盒具有“試錯”特征。第五,通過監管沙盒收集的技術和市場數據,有助于監管者評估現有法律框架并進行針對性地調整。

歐盟關于監管沙盒的規定主要集中在第53-54a條。第53條第1款規定,建立主體為各成員國公共機關或者歐洲數據保護機關(European Data Protection Supervisor)。監管沙盒應確保透明、廣泛、公開的參與,并提供一個受控的環境,以允許“在將其投入市場之前開發、測試和驗證創新的Al系統”。第53條第2款和第54條第1款強調對個人數據的保護,人工智能系統的創新需要數據作為支撐,因此保障個人數據尤為重要。根據規定,出于保障醫療、保護環境和關鍵基礎設施等公共利益目的,可以在嚴格保障個人數據安全的前提下實施處理。需要采取的保障措施主要包括在隔離環境中處理數據和沙盒結束以后刪除數據。第53條第3款強調主管機關具有監督權,在測試過程中如果發現對用戶的健康和安全帶來損害,應立即中止測試。第53條第4款強調Al監管沙盒的參與者在沙盒中進行的試驗給第三方造成的損害應承擔賠償責任。第53條第5款強調在成員國建立的監管沙箱的主管機關必須“在歐洲人工智能理事會的框架內協調活動和合作”并提交年度報告,同時分享經驗和教訓。第53條第6款強調人工智能監管沙盒的運作方式和條件,包括申請、選擇、參與和退出沙盒的資格標準和程序,以及參與主體在實施行為中的權利和義務??偟膩碚f,歐盟關于人工智能的沙盒設計、模式和運作條件是框架性的規定且并不明確。然而,這種不明確性也給人工智能監管沙盒的建立提供了極大的靈活性和可能性。然而,不管是金融科技監管沙盒還是人工智能隱私監管沙盒都未形成標準化的測試流程和合格標準。監管沙盒作為一種小規模的測試框架,測試隊列也是有限的。當然,隨著越來越多的科技公司意識到進入沙盒的競爭優勢,很有可能會有擴大沙盒測試的壓力。因此,監管沙盒本身也需要創新,最終走向制度化和自動化。

以“契約”為治理邏輯的人工智能監管沙盒制度的價值。第一,人工智能引入監管沙盒制度可實現風險可控性。人工智能的風險呈現新的模式,其風險具備不穩定性。一是人工智能技術的發展為監管帶來諸多挑戰,諸多“監管錯配”問題可通過機制試驗解決。一方面,人工智能技術解決了諸多高成本、低效率的矛盾,并且產生了許多無法以傳統思路規制的新型產品;另一方面,這些創新探索仍不夠成熟,相應的法律法規難以進行動態調整。二是監管沙盒可增強監管機構與被監管對象之間的良性互動,平衡人工智能創新與發展之間的關系。監管機構需要借助創新者了解創新,創新者需要監管機構的支持和有效監管,以更好地促進創新。一方面,在監管沙盒的實施過程中,監管機構可以深入了解相關人工智能產品的運行風險,并據此完善相關監管規則,保障消費者的合法權益,減少監管成本與社會成本;另一方面,在監管沙盒授權的限定范圍之內,使得人工智能創新所依賴的監管環境具備了可預期性,增加了被監管對象主動向監管機構進行溝通的積極性。第二,監管沙盒制度的建立是鼓勵創新的重要措施。2019年經濟合作與發展組織(OECD)發布了關于人工智能基本原則的規定,其中強調,建議各國政府考慮采用試驗方法為AI系統提供可測試和可擴展的受控環境。監管沙盒能夠創造一個空間,將那些原本可能挑戰現有法律框架的創新產品和服務投入其中,參與企業能夠從具體的法律條文或合規流程中取得豁免,以允許其進行創新。第三,監管沙盒是維護監管者、測試企業、消費者利益的重要工具。對監管者而言,通過學習和試驗為長期政策的制定提供信息;監管沙盒的建立表明監管者對創新的支持與承諾;促進與市場參與者的溝通和接觸;更新可能禁止有益創新的政策法規。對測試的科技企業而言,通過精簡授權流程來縮短市場準入時間,一定程度上消除市場準入障礙;減少監管的不確定性;提高資本的可獲得性。對消費者而言,可以獲得更具創新性、更安全的產品和服務;增加人工智能產品和服務的可獲得性。

三、我國人工智能“分級分類”風險治理構建

我國人工智能在中國市場高度活躍。根據相關數據統計,截至2022年6月,我國人工智能企業數量超過3000家,位居世界第二,人工智能核心產業規模超過4000億元。2022年,我國人工智能支出達到2255億人民幣,躍升為全球第二大人工智能市場,占全球人工智能支出的18%。包括平臺企業、獨角獸企業、中小企業、創新企業、研究型大學在內的相關機構在智能芯片、操作系統、智能終端、深度學習平臺、大模型等產業應用領域構建和奠定了強大基礎。豐富多樣的人工智能應用場景,不管是需求端還是供應端,其市場規模十分龐大??梢?,中國正在引領全球人工智能產業的創新和商業化,其主要核心力量則是科技企業。我國科技企業如何更好發揮促進發展的積極作用,落實監管措施則是關鍵。近年來,我國相繼制定和出臺了一系列的政策性文件和法律法規,早期以人工智能產業促進為主,近年來逐步關注人工智能倫理安全、算法治理及行業應用安全。整體而言我國人工智能立法具有如下特點:第一,采取發展與安全并重的策略;第二,堅持總體國家安全觀,突出信息內容的治理;第三,治理模式多領域,以科技倫理、算法治理、特定技術、行業應用為監管抓手;第四,主要依賴行政手段形成監管機制。

其中,分級分類的風險治理理念在我國關于人工智能的立法規定中也多有體現。例如,數據分級分類保護制度的規定;算法分級分類管理制度的規定;《生成式人工智能服務管理暫行辦法》中的分類分級監管規定等。然而,我國關于人工智能分級分類的風險治理規定卻存在諸多問題:首先,分級分類的風險治理規定非常模糊和籠統,僅僅以“原則”形式進行闡述,無細致規定。其次,分級分類的類別和風險劃分未明確區分標準,欠缺可操作性。涉及國家安全、社會公共利益、個人生命健康的行業并未區分,與歐盟人工智能分級分類監管的規定相差甚多。再次,我國關于分級分類的規定見于數據、算法、平臺等各個領域,未形成規則體系,更無望于數據、算法、平臺三者關于風險分級分類的規定建立對應關系。最后,分級分類原則與現有算法備案、算法安全評估、算法安全風險監測和算法問責治理制度結合不夠緊密。

我國人工智能分級分類風險治理構建思路。第一,將人工智能“分級分類”風險治理理念作為人工智能風險治理的一項重要基本原則,配套相應的具有可操作性的分級分類標準。如明確不可接受風險的類型、高風險類型、中風險類型和低風險類型。從而明確監管重點和適應的監管手段。第二,人工智能的發展離不開數據、算法、算力三方的支持,相應的數據、算法、平臺的治理規則體系應能夠與人工智能分級分類風險治理體系實現對接。對于生成式人工智能來說,大規模的數據訓練是其進行深度學習的基礎,而數據規模的大小與人工智能所產生風險的大小具有一定的關聯。第三,當人工智能風險已經完成分級分類,需要與當前人工智能已有的事前、事中、事后監管制度實現對接。如存在高風險的人工智能系統必須進行全過程監管,不僅需要事前的備案制度,也需要事中的評估檢測以及事后的問責制度。第四,監管部門、科創企業、行業協會、用戶應各自履行分級分類中的相應職能和義務,推動人工智能“分級分類”治理規則與治理標準的構建。

四、我國人工智能“契約”風險治理構建

促進人工智能產業的發展和創新,我國人工智能“契約”風險治理的構建以人工智能監管沙盒制度的引入和構建為重要舉措。

確定專門的監管機關。人工智能監管沙盒的主體應由中央國家機關作為主要的實施主體,建議由國家數據局負責統一規劃,指導各行各業參照執行。首先,從域外經驗來看,歐盟關于人工智能監管沙盒的監管主體是由國家層面的數據保護部門(National Data Protection Authorities)主導,其主要目的是保證《AI法案》的正常運行。其次,2023年3月國務院印發《黨和國家機構改革方案》,提出組建國家數據局,其主要職能在于充分挖掘并釋放數據要素并實現對數據要素的統一治理。人工智能所帶來的風險主要是數據安全風險,因此由國家數據局統一負責也屬專業對口。一方面可以減少協調成本,另一方面可以提高制度運轉效率,推進監管的落實。再次,地方政府機關不可作為人工智能監管沙盒的實施主體。我國正在加快建設全國統一大市場,進而形成統一的市場監管規則。然而,人工智能產業的發展明顯存在較大的地區差別,東、中、西三地區發展不協調,如果地方政府機關可賦權推行監管沙盒,其執行標準必然不統一,勢必不利于全國統一大市場的建設,也不利于人工智能產業的發展。最后,從人工智能產業發展的角度來看,不同的領域可由相關領域的主管機關負責具體執行監管沙盒制度,結合“場景化”人工智能的應用,具體落實相應的監管沙盒制度??傊?,確定專門的國家機關——國家數據局進行宏觀的監管沙盒政策制定。而具體制度的執行,要以“場景化”為特征,由具體的行業主管部門具體執行人工智能監管沙盒制度。

明確人工智能監管沙盒的程序和合格標準。人工智能監管沙盒的試驗程序是監管沙盒制度真正落地的關鍵?!禔I法案》對人工智能監管沙盒的規定見于第53條第1款,但該法條僅是規定了框架。如中小企業或者初創企業可以免費進入監管沙盒,基本包括申請、評估、測試、報告、退出等五個階段。本文針對上述五個階段,對人工智能監管沙盒制度的具體程序完成建構。第一,申請階段??萍计髽I自愿向國家數據局提交進入監管沙盒的書面申請。申請內容包括測試AI產品的基本概況、適用范圍、技術參數、創新性說明、安全風險自我評估情況、進入監管沙盒必要性說明等。其中,“創新性說明”將是申請資格的核心選擇標準。因為監管沙盒制度的實施是為了有效鼓勵創新的。當然,為了實現負責任的創新,需要進行提前測試。第二,評估階段。針對科技企業的申請,國家數據局組織初期評估。評估通過后,針對應用的前沿技術或新功能、新模式,科技企業需在2個月內制定產品的深度測試方案,包括測試周期、測試項目、關鍵監測指標、消費者安全保障計劃、質量安全風險防控及應急處置措施、測試實施監督及測試退出策略等。第三,測試階段??萍计髽I按照產品的深度測試方案開展測試,保存測試記錄,測試周期一般不超過24個月。在理由充分的情況下,科技企業可以根據實際測試情況,申請修改測試參數和調整測試周期。國家數據局組織評估AI產品深度測試方案,跟蹤測試情況,提出產品設計、制造改進建議,及時指導幫助科技企業查找相關安全問題。如果監督發現產品深度測試無法達到預期要求,應立即通知企業終止測試。第四,報告階段。測試中期和末期,科技企業向國家數據局提交AI產品安全風險防范措施有效性評估報告、必要的測試記錄以及新發現的安全風險改進措施。第五,退出階段。企業完成產品的深度測試后,達到預期目標,則自動退出監管沙盒。如果在監管沙盒周期內,科技企業提出退出申請的,則需提交情況說明。明確監管沙盒測試的合格標準是人工智能監管沙盒制度實現的重要內容。關于監管沙盒測試的合格標準共同的部分主要包括“具備創新性”和“不能損害公共利益”。但這些共同的合格標準并非具備一致性,具有較大的活動空間。監管沙盒的測試標準不一則會帶來不同的訪問決策和測試結果。因此,可以借鑒歐盟《AI法案》中第53條第6款的規定,人工智能監管沙盒的運作方式和條件,包括申請、選擇、參與和退出沙盒的資格標準和程序,以及參與主體在實施行為中的權利和義務。該條雖然并未明確“合格標準”是什么,但一個國家可以統一制定屬于該地域范圍內的合格標準,類似于專利制度一樣,任申請者選擇。

監管沙盒的關鍵是個人數據的處理。人工智能系統的創新需要數據作為強大的基礎支撐。因此,數據安全風險也是人工智能所面臨的巨大挑戰。人工智能監管沙盒應當為參與者提供一個“安全環境”,以緩解技術創新和法律監管之間的潛在矛盾。入盒的科技企業能夠同監管者展開積極、廣泛的合作,并在真實世界中測試它們的創新產品,這就使得對個人數據的保護需要提高到更高的安全性標準和要求。也就是說,人工智能監管沙盒的關鍵是個人數據的處理。歐盟《AI法案》第53條第2款和第54條第1款對“個人數據處理”進行了規定。即“出于保障醫療、保護環境和關鍵基礎設施等公共利益目的的,可以在嚴格保障個人數據安全的前提下實施處理,需要采取的保障措施主要包括在隔離環境中處理數據和在沙盒結束以后刪除數據”。另外一個關鍵問題是,還需要明確科技企業處理數據的合法性基礎。根據歐盟《通用數據保護條例》(GDPR)第6條第1款c項和第9條的規定,為履行數據主體的法定義務而進行數據處理,“同意”(Consent)和“單獨同意”(Explicit Consent)是數據處理的合法性基礎。參照歐盟法律的規定,我國在建立人工智能監管沙盒制度時,應注意個人數據的處理問題和保護問題。具體而言:首先,在個人數據收集階段,應以個人同意為前提;其次,存儲數據階段應注意個人隱私的泄露;最后,退出沙盒階段應注意個人信息的刪除。監管沙盒制度建立的核心作用就是責任豁免,當被測試的產品或服務出現數據違法行為時不必承擔監管責任。相應的,在建立完善的人工智能監管沙盒制度時應妥善處理個人數據問題。因此,對于消費者而言,通過監管沙盒制度對被測試產品進行審查后,再將AI產品推廣至市場時,就能夠更好的保護個人數據權利,也會讓消費者更加充滿信心。

多方合作共同實現監管目的。構建包容審慎的人工智能監管環境,通過優化監管措施激活市場主體創新活力,實現人工智能創新和發展的平衡是人工智能監管沙盒構建的主要目的。構建政府、企業、社會多方協同的治理模式,是實現上述目的的重要抓手。這種協同治理理念也是人工智能監管沙盒的主要價值內涵。第一,人工智能產品和服務是復雜的,經常會涉及多個領域。因此,在產品和服務測試中必然涉及多方主體,包括科技企業自身、市場監管管理機構、知識產權管理機構、國家標準化管理機構、數據保護管理機構等,這些機構之間應當開展合作。例如,就科技企業與監管主體的關系而言,在沙盒測試開始前應當由監管部門與科技企業就測試的時間、范圍、對象、規則豁免、合規指導、監測方式、信息披露義務等內容進行磋商,根據科技企業的創新需要提供差異化的監管措施。第二,多方合作的基礎需要相關人工智能技術專業知識來作支撐,以此形成訪問監管沙盒的決策和開發測試的框架。因此,各方監管機構可以協調開發或調整建設方案,以增強與人工智能相關的各項能力。第三,科技企業自我規制以正確處理企業與社會的關系問題。即企業對自身行為加以控制的規制,這是沙盒實驗中監管部門對企業“放權”的必然要求。在沙盒測試中給予企業較大的自我管理空間。例如,在申請沙盒測試時應當就人工智能產品創新性、安全性進行詳細說明,并進行記錄,及時向社會發出聲明,以正確處理企業與社會(消費者)的關系。第四,監管沙盒中的監管試驗機制需要強有力的國際合作與協調。一方面,在人工智能測試的實驗框架上開展國際合作,有利于創新并減少監管的“碎片化”;另一方面,新興技術中的人工智能監管沙盒可以比作未來的“技術法規”,通過世界貿易組織關于技術性貿易壁壘協定(TBT Agreement)中的“等效協議(Equivalence agreements)”來實現。

五、結語

人工智能在中國市場的經濟投入位居世界第二,是引領中國科技創新的重要力量。人工智能作為一種智能系統,對人類的影響已經及于生活的方方面面??萍计髽I具有自主創新能力和產業發展能力,是人工智能產業創新發展的重要力量。然而,科技企業自身發展的薄弱性以及人工智能本身所產生的數據安全風險是其面臨的重要挑戰。如何建立一個總體風險可控又能給予各種創新空間的監管模式是現代市場創新主體和監管者共同面臨的難題。歐盟《人工智能法案》提供了新方向和新思路。一是能夠體現科學監管、高效規制、精準治理的常態化監管思路的分級分類人工智能風險治理理念;二是具有監管主動性、事前監管、隱私保護和鼓勵創新特征的監管沙盒制度?!胺旨壏诸悺迸c“契約”風險治理并行的人工智能監管制度既能實現嚴格監管,也要兼顧產業創新。構建我國人工智能分級分類風險治理制度,實現人工智能應有的價值和可信的治理目標。同時鼓勵政府、科創企業和消費者達成治理“契約”,構建人工智能監管沙盒制度,在預防法律風險的同時,也鼓勵了人工智能企業的持續創新,最終促進數字經濟規范健康持續發展。

(責任編輯:孟潔)

參考文獻:

[1]陳兵,董思琰.分類分級治理算法的基本內涵及實踐進路[J].西安財經大學學報,2023,36(6):70-79.

[2]叢穎男,王兆毓,朱金清.論算法解釋權的重構——全算法開發流治理與分級分類解釋框架[J].計算機科學,2023,50(7):347-354.

[3]張凌寒.算法規制的迭代與革新[J].法學論壇,2019,34(2):16-26.

[4]于品顯,劉倩.歐盟《人工智能法案》評述及啟示[J].海南金融,2023(6):45-53.

[5]陳兵,董思琰.生成式人工智能的算法風險及治理基點[J].學習與實踐,2023(10):22-31.

[6]陳振其.監管沙盒:數據要素治理新方案[J/OL].圖書館論壇,1-10[2024-01-17]http://kns.cnki.net/kcms/detail/44.1306.g2.20230828.1351.004.html.

[7]劉志洋,解瑤姝,徐索菲.審慎視角下金融科技平臺企業監管研究[J].海南金融,2023(11):30-38+87.

[8]ROSS P B.Building Fintech Ecosystems:Regulatory Sandboxes, Innovation Hubs and Beyond[J].Washington University Journal of Law & Policy,2020(61):55-98.

[9]LETIZIA T.Start-ups and the proposed EU Al Act,Bridges or Barriers in the path from Invention to Innovation[J].JIPITEC,2022(13): 53-59.

收稿日期:2024-01-06

作者簡介:黃靜怡(1994-),女,河北唐山人,中國政法大學民商經濟法學院博士研究生。

①資料來源:中華人民共和國中央人民政府.我國人工智能蓬勃發展,核心產業規模達5000億元[EB/OL].[2023-07-07].https://www.gov.cn/yaowen/liebiao/202307/content_6890391.htm.

②2023年6月,歐洲議會以499票贊成、28票反對和93票棄權,高票通過了《人工智能法案》談判授權草案,推動了該法案進入立法程序的最后階段,即舉行歐洲議會、歐盟成員國和歐盟委員會的“三方談判”,以確定法案的最終條款。2023年12月8日晚(布魯塞爾當地時間),歐洲議會、歐盟成員國和歐盟委員會三方就《人工智能法案》達成協議,該法案將成為全球首部人工智能領域的全面監管法規,該立法草案仍需得到歐盟成員國和議會的正式批準,一旦雙方正式批準,該立法預計將于2024年初生效,并應在兩年后實施,或將為全球范圍內監管人工智能技術定下基調。因2023年12月8日的《人工智能法案》并未公布,本文以2023年6月的《人工智能法案》的“折衷版本”為研究對象。

①附件三確定的8個特定領域部署的系統:自然人的生物特征識別與分類系統;關鍵基礎設施的管理和運營系統;教育與職業培訓系統;就業、工人管理和獲得自我雇傭系統;獲得和享受基本的私人服務和公共服務和福利系統;執法系統;遷徙、庇護和邊境控制管理系統;司法和民主過程性系統。

①《數據安全法》第21條:國家建立數據分類分級保護制度,根據數據在經濟社會發展中的重要程度,以及一旦遭到篡改、破壞、泄露或者非法獲取、非法利用,對國家安全、公共利益或者個人、組織合法權益造成的危害程度,對數據實行分類分級保護。國家數據安全工作協調機制統籌協調有關部門制定重要數據目錄,加強對重要數據的保護。關系國家安全、國民經濟命脈、重要民生、重大公共利益等數據屬于國家核心數據,實行更加嚴格的管理制度。各地區、各部門應當按照數據分類分級保護制度,確定本地區、本部門以及相關行業、領域的重要數據具體目錄,對列入目錄的數據進行重點保護。

②《互聯網信息服務算法推薦管理規定》第23條:網信部門會同電信、公安、市場監管等有關部門建立算法分級分類安全管理制度,根據算法推薦服務的輿論屬性或者社會動員能力、內容類別、用戶規模、算法推薦技術處理的數據重要程度、對用戶行為的干預程度等對算法推薦服務提供者實施分級分類管理。

③《生成式人工智能服務管理暫行辦法》第3條:國家堅持發展和安全并重、促進創新和依法治理相結合的原則,采取有效措施鼓勵生成式人工智能創新發展,對生成式人工智能服務實行包容審慎和分類分級監管。

猜你喜歡
風險治理分級分類人工智能
黑龍江省人民政府辦公廳關于印發黑龍江省進一步深化市場主體信用分級分類監管若干措施的通知
2019:人工智能
人工智能與就業
浙江省網絡安全應急預案編制研究
直銷企業分級分類監管備受期待
江蘇省中小企業技術創新風險社會分攤制度實踐研究
數讀人工智能
山西文化旅游產業集群風險治理研究
互聯網金融分析
下一幕,人工智能!
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合