?

新安全格局下人臉識別技術應用的法律規制

2024-03-01 15:23宋丁博男張家豪
科學決策 2024年2期
關鍵詞:人臉識別人臉規制

宋丁博男 張家豪

1 引 言

加快構建新安全格局是全面貫徹總體國家安全觀的內在要求和實踐方略。黨的二十大報告指出,要加強個人信息保護,強化數據安全保障體系建設,以新安全格局保障新發展格局,同時要求以人工智能為引擎推動戰略性新興產業融合集群發展。作為人工智能發展的重要體現,人臉識別技術被廣泛應用于身份識別、金融支付、社會治理等場景。但是,人臉識別技術的引入與傳統社會秩序結構的融合并不能無縫或自動實現,反而會帶來重大的技術、政治和法律挑戰,涉及各種既定秩序規則與法律規范之間的沖突和談判。2023 年8月,《人臉識別技術應用安全管理規定(試行)(征求意見稿)》(以下簡稱《人臉識別管理規定》)的出臺使我國人臉識別技術應用的治理路徑呈現出安全化、場景化、動態化、精細化的新特征。據預測,我國人臉識別市場規模在2024 年將突破100 億元。因此,如何通過制度優化規范人臉識別技術應用,健全數據安全治理體系,成為構建中國式現代化數據治理體系的重點議題。

作為人工智能領域的落地標桿技術,人臉識別技術應用的法律規制與人工智能領域個人信息的法治化研究相承接。第一,從理論研究角度來說,人臉信息是人臉識別技術的核心來源(Shore,2022[1]),兼具人格權和財產權屬性,實踐中易產生個人信息安全風險(郭春鎮,2020[2];Liu,2021[3])。同時,鑒于人臉識別技術具有泄露、破解及誤差風險,應從風險規制的視角提供治理思路(Purshouse,2022[4])。第二,從實踐進路研究角度來說,基于對美國、歐盟等地人臉識別技術規制體系的比較研究(邢會強,2020[5];曾雄等,2021[6]),從立法體系(韓旭至,2021[7];黎靜儀等,2022[8])、賠償制度(羅斌和李卓雄,2021[9];石超和張蓓潔,2022[10])、行政監管(于洋,2021[11];Kostka,2023[12])等不同面向提出人臉識別技術應用的治理方案。

總體來看,現有研究多集中于在個人信息保護視域下探討人臉識別技術應用的法律規制問題,且多從行政規制的方向切入。規制措施的單一性導致新安全格局下人臉識別技術應用的風險傳導與利益分配之間存在斷裂性特征,缺乏多元化的應對措施。對此,本文以算法安全理論和數字人權理論為依據,全面剖析了新安全格局下人臉識別技術應用的法律風險與規制困境,并結合域外先進立法經驗,提出了統籌發展和安全的法律規制路徑。

2 新安全格局下人臉識別技術應用的現實困境

新安全格局強調科技支撐,通過科技自立自強防范化解重大風險(朱正威等,2023[13])。而人臉識別技術根植于人工智能算法框架,在推動科技創新、助力社會治理的同時,還易引發算法安全風險與個人信息安全風險,給人臉識別技術應用治理帶來挑戰。

2.1 人臉識別技術應用的法律風險

2.1.1 算法安全風險

人臉識別技術是指機器對人臉信息進行圖像采集、提取特征、比對識別,以鑒定其身份的一項人工智能技術(徐竟澤等,2019[14])。該技術在實際應用中能夠同時處理多個人臉信息(張溪瑨和王曉麗,2023[15]),采用各國研發的不同算法將人臉信息進行分類、比對、校驗,并利用人臉識別技術的通用性、并發性、非接觸性等特征,快速無感地識別大量人臉信息。而在此過程中,基于人臉識別技術特征產生的算法博弈、算法歧視及算法誤判等風險迭代增生,給算法安全造成沖擊。

第一,在宏觀的國家應用層面,算法安全屬于非傳統安全的范疇,其首先是被動的算法防御,國家安全不受外部算法損害是實現算法安全的首要條件。同時,算法博弈對現有國際戰略形勢產生影響,主動競爭成為算法安全的新形態(羅有成,2023[16])。由于算法模型具有國際通用性,其技術邏輯與要素生成具有同一性,因此一旦人臉識別技術的共享應用存在漏洞,人臉信息將批量流轉,不僅損害信息安全,還會對國家算法防御體系產生重大威脅,侵害國家根本利益。

第二,在中觀的社會應用層面,人臉識別技術的并發性特征易引發算法歧視風險。在人臉識別技術應用中,人臉信息經采集后進入隱蔽的算法黑箱并進行深度分析。而此環節往往存在著對社會群體無依據、不合理的篩選評估,產生分類、排除等“標簽化”行為,涉及算法歧視和算法偏見。而這種歧視往往是持續的、不可逆的,個人無法決定人臉識別技術的應用過程,一旦算法歧視產生將難以中止,信息主體將面臨取證難、補救難等困境。此外,企業主體在應用人臉識別技術的過程中,為制定精準的市場戰略,往往會通過“情感計算”等方式對人臉信息進行自動化決策(唐林垚,2022[17]),但同時也易引發自動化決策歧視,對個人區別對待,侵害算法嵌入社會時的實質公平,不利于算法安全的持續穩定。

第三,在微觀的個人應用層面,算法的數據來源于每個個體,是算法安全的微觀形態,其準確性將直接關系到算法是否安全可控,而算法系統自身的脆弱性往往導致對數據丟失、數據投毒等威脅難以及時響應。例如,人臉識別技術就存在著深度學習能力有限、樣本數據不足等問題,從而引發算法誤判風險。此外,基于人臉面具模型產生的3D 欺騙攻擊蔓延滋生(孫道銳,2021[18]),攻擊者通過向人臉識別技術系統演示假識別信息實施欺騙攻擊,而人臉識別技術反欺騙攻擊策略的不完善導致“代驗證”“過人臉”等黑灰產業鏈持續擴張,誘發犯罪行為。由此可見,算法誤判風險不僅會降低人臉識別技術的應用效率與安全指數,公眾還會對人臉識別技術參與社會治理產生信任危機,不利于保障作為算法安全基本單元的個人的數據權益。

2.1.2 人臉信息風險

數字生活安寧與財產安全是數字時代個人利益的重要方面,“數字化生存”實踐與第四代人權理論催生了數字人權理論,“數字人權”概念可界定為展現著智慧社會中人的數字化生存樣態和發展需求的基本權利(馬長山,2019[19])?!秱€人信息保護法》第28 條將人臉信息等生物識別信息確定為敏感個人信息,具有高度的人格利益屬性,與個人隱私、個人行動自由等利益密切相關。因此,人臉識別技術應用過程中由于不當處理人臉信息所引發的信息泄露、濫用等風險,將會對個人人格利益和財產利益產生嚴重威脅。

第一,信息泄露造成隱私威脅和財產風險。一方面,對人臉信息的處理如果不符合敏感個人信息的安全處理要求,導致人臉信息泄露,容易對人格尊嚴產生侵害。人臉信息具有高度專屬性與識別性,對人臉信息進行采集分析后將建立數據庫,同其他網絡節點的個人信息關聯識別后能夠形成“個人信息長鏈”。而數據庫與信息鏈一旦泄露,面部識別特征、活動位置及可識別行為等個人私密信息將公諸于眾,嚴重侵害個人隱私。另一方面,人臉識別技術能夠對個人身份進行標識化、密碼化處理(Eltaieb,2023[20]),使得人臉識別逐漸取代了傳統的人工核對、指紋識別等方式,成為金融支付領域的首選模式。然而,受限于人臉識別系統的準確率和安全性,人臉信息若遭到泄露或篡改,人臉識別技術將為詐騙、洗錢等多種犯罪行為提供技術溫床,從而侵害公民的個人財產安全。

第二,信息濫用造成尊嚴貶損及利益失衡。該風險主要體現在人臉信息的深度合成和深層利用兩個方面。其一,AI 換臉等人臉合成技術如今已成為一項無門檻使用技術,實踐中人臉信息未經授權被濫用、丑化、貶損等現象頻發,侵害公民的人格尊嚴。加之人臉信息具有唯一性和不可替代性,對肖像權的侵害具有難以挽回的特征。此外,大量的人臉信息濫用在一定程度上導致知情同意框架失靈,人臉信息處理者對處理目的、方式及時限僅作簡單告知或隱匿告知,從而遏制了個人信息自決權的實現。其二,在金融支付、市場交易等人臉識別技術深層利用的場域下,人臉信息不斷生成、交互和流動。在該環節中,人臉信息的處理大多由第三方技術公司開展,商業主體的逐利性本質容易導致人臉信息的非法收集與流動,以及不履行或延遲履行刪除義務等行為的產生。而在社會治理、公共服務的場域下,人臉信息的公共利益屬性凸顯,個人信息權益在維護公共利益的情形下應予以一定程度的讓渡。然而,隨著人臉識別技術應用“全場景監控”能力的不斷提升(洪延青,2024[21]),個人權益、企業利益及公共利益三者之間的沖突也在與日俱增。

2.2 人臉識別技術應用的規制困境及成因

科學立法是完善技術應用治理體系的根本前提,公正司法是化解技術應用矛盾糾紛的有效手段,嚴格執法是推動技術向上向善發展的重要保障,三者共同構成了人臉識別技術應用法律規制體系的核心要素。目前,我國針對人臉識別技術應用在立法、司法和執法三個環節均進行了有效規制??傮w而言,在立法層面,我國正在探索構建新安全格局下規范人臉識別技術應用、保護個人信息安全的制度約束框架,總體呈現從被動到主動、從單一到多元、從靜態到動態的治理特點與趨勢;在司法層面,人臉識別技術侵權采取過錯推定責任原則,消解了公民取證難的現實困境,并通過公益訴訟的適用有效擴充了司法救濟途徑;在執法層面,我國針對人臉識別技術應用的安全監管總體呈現出領域分散監管的樣態,并通過采取行業自律等模式對行政監管予以補充。然而實踐中,人臉識別技術應用引發的新型法律風險對現行制度提出了新挑戰。例如,人臉信息的場景化特征提高了人臉識別技術應用精細化立法的難度;人臉識別技術侵權的隱蔽性、不可挽回性等特征導致救濟成本增加,限縮了公民的數字人權;同時,分散監管導致的治理真空使算法安全遭受沖擊。

2.2.1 人臉識別技術應用的場景規制困境

場景化立法能夠依照不同場景的特征,根據信息主體的合理預期制定具有針對性的法律規則,并已成為新興技術應用中個人信息保護的重要手段。我國目前初步構建了體系化的人臉識別技術應用規則體系,呈現出“集中型”的立法態勢,但針對技術應用的場景化規制依然存在缺位?!睹穹ǖ洹返?034 條將生物識別信息納入個人信息的保護范疇,奠定了人臉識別技術應用治理的基本價值取向;《數據安全法》基于總體國家安全觀視角,對人臉信息的安全管理進行了原則性規定;《個人信息保護法》將人臉信息納入敏感個人信息保護范疇,并對信息處理規則予以細化;而《人臉識別管理規定》進一步細化上位法規定,運用場景化手段明確了公共場所、經營場所、私密場所等公私場景下的技術應用規則,初步體現了場景化規制的內容,但并未依據技術的不同功能予以針對性規制, 同時也缺乏對該技術在不同場景中應用風險差異的具體考量,難以指導日益復雜的技術應用實踐。

首先,具體場景界定與劃分的標準較為模糊,盡管該規定將場景分為個人隱私場景、公共場景和經營場景三大類,并詳細劃定了多個類型的場所,但并未在規則層面明確界定、區分涉及個人法益與公共法益的技術應用場景,導致場景分類標準模糊。其次,合理預期是目的限制原則的重要判定依據,但以信息主體為中心的合理預期方案亟待完善。信息主體在進行人臉識別時,對于人臉信息的使用目的和時限缺乏預期,無法有效保障其個人信息權益。最后,人臉識別技術場景化應用的風險防范措施缺位,導致場景化立法規制的效能未能得以充分發揮。因此,須在分類標準、信息授權及風險防范三個方面繼續深化落實場景化規制理念,提升治理能力,以應對人臉識別技術引發的多重法益風險。

2.2.2 人臉識別技術侵權的法律救濟困境

損害判定是追訴侵權責任的前提,亦是救濟的先決要件。而人臉識別技術侵權產生的實質損害難以判定,導致被侵權人面臨舉證難、維權難及程序繁瑣等困境。2021 年發布的《最高人民法院關于審理使用人臉識別技術處理個人信息相關民事案件適用法律若干問題的規定》(以下簡稱《人臉信息司法解釋》)旨在維護個人信息安全與數字經濟發展之間的平衡,其中第6 條第3 款規定,信息處理者主張其不承擔民事責任的,應當就其行為的免責情形承擔舉證責任,從而將人臉信息侵權責任類型歸為過錯推定責任,實施舉證責任倒置,一定程度上緩解了公民取證難的現實困境;第14 條規定了有關人臉識別技術應用的民事爭議可適用公益訴訟,有效擴充了司法救濟途徑?;诖?,《人臉信息司法解釋》成為司法機關處理人臉識別技術領域民事爭議的重要參考,但實踐中仍存在適用上的困境。

首先,過錯推定責任原則并未徹底消解信息處理者與信息主體間的數字鴻溝,受害人往往只有在法院綜合評判信息處理程序規范性和損害結果危害性之后,才有機會獲得相應救濟,而程序違規不能成為責任判定的獨立依據(羅斌和李卓雄,2021[9])。加之相關規則對受害人行使訴權設置了前置程序,加重了訴訟負擔與維權成本。其次,人臉識別技術侵權具有秘密性、規模性等特征,導致大部分受害人難以發現及取證,而我國現有的代表人訴訟制度類似于歐盟的加入制集團訴訟,設立了受案范圍、受案條件等多種限制,難以充分救濟受害人的權益。最后,我國的公益訴訟制度對人臉識別技術侵權的民事救濟具有一定制度優勢,能夠較大程度地修復公益損害。例如,2023 年10 月,廣州互聯網法院發布全國首例涉“人臉識別”民事公益訴訟案件,被告人因非法處理人臉信息侵害了不特定主體的信息自決權,最終判處被告支付公益損害賠償金10 萬余元。但現行制度對于人臉識別技術侵權領域公益訴訟的適用條件和賠償標準規定不明,導致實踐中責任認定和法律適用產生爭議。此外,檢察機關是提起公益訴訟的適格主體,但人臉信息侵權領域的檢察公益訴訟制度尚未完全形成,難以充分發揮公訴機關的訴訟優勢,疏解人臉信息侵權的救濟困境。

2.2.3 人臉識別技術應用的分散監管困境

人臉識別技術應用的有效監管不僅是落實人臉識別技術應用規制的必要條件,也是推進國家數據安全治理體系的應有之義。從監管的運行邏輯來看,我國對于人臉識別技術應用的監管主體、監管內容與監管模式均呈現分散態勢。

首先,盡管我國初步構建了以國家網信辦為核心,電信、公安、市場監管等有關部門相協調的個人信息安全監管體系,例如,市場經營、金融支付領域產生的人臉信息風險分別由市場監督管理機構和金融監督管理機構監管,但現有規范尚未明確各監管機構的職權范圍及邊界,導致實踐中多頭監管、交叉監管等問題的產生。其次,我國在適用行業自律機制的同時,還實行了契合我國法治實踐的備案管理制度:《生成式人工智能服務管理暫行辦法》第17 條對算法備案進行了原則性規定;《人臉識別管理規定》第16 條進行了補充,規定在公共場所使用人臉識別技術,或者存儲超過1 萬人人臉信息的人臉識別技術使用者,應當向所屬地市級以上網信部門備案。但是兩者均未明確備案管理制度的審核方式、審核流程及審核結果等內容。同時,我國以傳統的行政監管手段為主,對行業自律、第三方評估等監管機制的應用不足,導致監管機構之間缺乏協作,評估體系趨于主觀化和形式化。最后,我國在人臉識別技術應用領域多采取事中和事后監管模式,在評估、試點等事前環節存在治理真空,增加了人臉識別技術的安全風險與監管合規成本。2023 年成立的“國家數據局”有助于加強數據安全和隱私保護,確保人臉信息的合法使用與共享,但其針對人臉識別技術領域的監管職責亦須進一步明確。

3 人臉識別技術應用法律規制的域外考查及啟示

為應對人臉識別技術應用產生的各類風險與沖突,各國紛紛加強數據治理前瞻性布局,人臉信息保護法治化成為世界信息治理的新趨勢,其中法律層面重在發揮法律評價和指引功能,政府層面以數據流轉為治理重點,行業層面則以倫理和行業自律引導人臉識別技術的發展方向。實踐中,以歐盟和美國的法律規制最為典型:歐盟的數據安全治理實踐較早,目前已形成以《通用數據保護條例》(GDPR)為核心的人臉識別技術應用治理體系,以風險預防為原則;美國是人臉識別技術及立法的先驅,側重市場調節導向,區分行業及地區對人臉識別技術應用進行規制。

3.1 歐 盟

在立法層面,歐盟采取集中立法的形式,呈現嚴格立法的態勢??偟膩碚f,歐盟以GDPR 作為人臉識別技術應用治理的基本依據。在GDPR 框架內,人臉識別技術被嚴格限制使用,除非符合明確同意、公共利益等特別規定,信息處理者不得處理人臉信息。2021 年,歐盟對《個人數據自動化處理中的個人保護公約》予以補充,發布了《人臉識別指南》,要求人臉識別技術使用前須進行合法性、正當性、必要性和安全性評估。此外,同年發布的《人工智能法案(草案)》要求對人臉識別技術應用進行場景化規制,將其應用場景區分為公共場所和非公共場所,并將公共場所中“實時”應用人臉識別技術歸類于“禁止使用的人工智能技術”部分中。2023 年12 月,歐盟就《人工智能法案》達成臨時協議,其中雖仍嚴格禁止各主體從互聯網、閉路電視錄像中無目的地抓取人臉信息,但對執法部門在面對嚴重犯罪、現實威脅等情形下應用人臉識別技術進行了一定的豁免,但必須附加額外的保障性措施。

在司法層面,歐盟對于人臉識別技術侵權責任采取了單方面判定的方式,即一旦存在程序違規即負有侵權責任,至于權利人是否經過前期投訴程序、有無受到實際損害并非人臉識別技術侵權的判斷標準(Chen,2023[22])。具體而言,GDPR 規定的司法救濟途徑主要分為私人訴訟和加入型集團訴訟兩種模式,其中后者在客觀上保障了信息主體的訴權,但同時也在一定程度上導致了司法成本的增加和司法效率的降低。此外,歐盟各法院的裁判結果較為統一,除依據GDPR 進行行政處罰外,權利人還可根據GDPR 第17 條有關“被遺忘權”的規定,主張對人臉信息進行斷鏈或刪除,盡量減輕信息主體因人臉識別技術應用所受的損害,補足實質救濟措施。

在執法層面,歐盟實行統一監管模式,設立了數據保護監管機構(DPA)、歐洲數據保護委員會(EDPB)等專門性機構,對人臉識別技術應用及其附帶產生的法律問題進行監管,包括監督法案的落地實施情況、接收投訴并實施處罰等,總體構成了獨立運行的監管體系。同時,歐盟通過GDPR 及相關法案引入第三方評估進行監管,通過第三方機構的獨立性確保人臉識別技術評估的有效性和專業性。此外,歐盟近年來逐步加強了人臉識別等人工智能技術的安全屏障,重視全流程監管,嚴格限制人臉信息的跨境流動,并利用斷鏈、封鎖等安全手段防范核心數據泄露或濫用,以最大限度地保障個人信息安全。

3.2 美 國

在立法層面,州立法是美國規制人臉識別技術應用的主要方式,2008 年伊利諾伊州通過的《生物特征信息隱私法》(BIPA)就是其中的一部重要法案。該法第15 條規定,告知與同意僅在書面形式下有效,其他形式一律無效。然而實踐中,州立法的分散性特征導致美國各州對于人臉識別技術應用的規制法案存在沖突,部分州禁止其應用于公共治理(郭躍等,2021[23]),部分州則限制使用,但總體呈現出限制公權力應用的趨勢。在聯邦統一立法中,2019-2020 年期間,美國通過區分場景及應用主體,將人臉識別技術的應用場景劃定為公權主體應用和私權主體應用,并出臺了一系列有關人臉識別技術應用的法案(楊華,2023[24]):其中,《商業人臉識別隱私法案》側重隱私保護,但并未明確限制人臉識別技術的使用;《人臉識別技術授權法案》創設了人工審查機制,以確保人臉識別技術的準確性,防范算法歧視和誤判;《道德使用人臉識別法案》要求盡快完善人臉識別技術應用規則,在規則出臺前禁止公權力機關的使用。此外,2022 年美國國會提出的《人臉識別法案》也主張嚴格限制政府執法部門使用人臉識別技術。由此可見,美國在逐步限制公權主體使用人臉識別技術,收束人臉識別技術應用范圍,但對私權主體的人臉識別技術應用仍缺少相應規制。

在司法層面,美國對于人臉識別技術侵權的救濟側重采用隱私權保護的方式,即在侵權責任認定中,先對處理程序是否違規予以審查,再根據有無侵犯個人隱私來判定侵權行為是否存在,最后根據實質損害結果決定具體的賠償方式,形成“分步救濟”的保護路徑(Chen,2023[22])。在具體救濟途徑中,除私人訴訟外,《美國聯邦民事訴訟規則》第23 條還規定了退出制集團訴訟,即一旦允許提起集體訴訟,所有符合條件的公民將自動成為集體訴訟的成員,除非他們主動選擇退出,以保障更多公民在人臉識別技術應用領域的救濟權利?;诖?,在司法實踐中,人臉信息處理者對所有權利人均負有賠償義務(楊華,2023[24])。此外,《道德使用人臉識別法案》對司法救濟措施還進行了有益補充,指出公民可依法向美國地方法院申請禁止令或宣告性救濟,以避免人臉識別技術對公民基本權利的持續侵害。

在執法層面,由于美國尚未形成專門的監管機構,各州的監管模式和監管理念存在差異,導致監管體系較為混亂。盡管美國聯邦貿易委員會(FTC)是綜合性、跨行業的執法機構,對人臉識別技術應用具有執法權限,但實踐中,FTC 多傾向于通過和解等方式促進企業合規,成為企業的“合規指導機構”而非“合規監管機構”,執法能力存在不足(Waldman,2022[25])。因此,美國公民自由協會(ACLU)、未來隱私論壇(FPF)等行業組織通過制定行業自律公約,形成了一套同行政監管互為補充的獨特的行業自律機制(盧艷玲和楊震,2023[26]),為構建人臉識別技術應用的多元監管體系提供內生動力,并被多個國家所借鑒。

3.3 對我國的啟示

相較于歐盟和美國,中國兼顧人臉識別技術發展與個人信息安全利益,形成了具有中國特色的數據安全治理體系,三者在人臉識別技術應用的立法、司法和執法方面各有側重(見表1)。因此,比較考查人臉識別技術應用規制政策的特點與趨勢,是掌握各國數據安全治理進路、轉化域外數據安全治理經驗的必要途徑。

表1 歐盟、美國、中國人臉識別技術應用法律規制對照表

第一,貫徹場景導向的立法理念。立法理念是國家意志和法律精神的重要體現,是人臉識別技術應用治理的內在邏輯。目前,各國對人臉識別技術應用普遍采取審慎態度。例如,歐盟高度重視人臉識別技術應用引發的人權風險,針對人臉識別技術多樣化的應用場景,構建了“動態同意”機制,嚴格限制人臉識別技術應用于公共場所,并規范了該技術在非公共場所的應用;美國立法者提倡新自由主義,以促進商業利益、限制公權力濫用為出發點,著眼于人臉識別技術應用主體,對民商事主體應用人臉識別技術的限制較少,重點規制公權力機關的技術應用行為,即公權力主體須公示人臉識別技術的使用情況,接受民眾監督,避免權力濫用??傮w而言,各國立法傳統、體制與社會環境的差異使其法律規制的側重點有所不同,但目前已普遍認識到人臉識別技術在不同應用場景下的特殊性,并據此出臺了一系列法律法規,場景化規制理念成為各國人臉識別技術應用立法的必然選擇。就我國而言,公民對于人臉識別技術應用的信賴度相對更高,具備消解數字鴻溝的現實基礎。對此,應當秉承審慎應用場景化規制理念的基本原則,通過保護公民的合理信賴利益,建立動態知情同意機制,并進一步探索公私場所的具體區分標準。

第二,實施傾斜保護的救濟體系。司法救濟具有事后補救性特征,是維護程序正義與實體正義的重要環節。人臉識別技術革新導致信息主體與信息處理者之間的認知能力失衡,為填平能力差距,保障信息主體利益,各國在司法救濟上總體呈現出降低訴訟門檻、擴大救濟范圍的趨勢。例如,在歐盟的侵權責任認定規則中,只要數據處理者程序違規即可認定其侵權,且未對受害人行使訴權設置前置程序,以減輕受害人的舉證責任;美國則采用“分步式救濟”與退出制集團訴訟制度的救濟思路,將利益關涉的沉默群體自動加入集團訴訟,并限制信息主體以明示或默示方式行使訴訟退出權,以排除個人因素對群體利益的妨害,降低弱勢受害者群體行使訴權的成本與難度。鑒于司法救濟具有一定的滯后性,我國應采取傾斜保護原則,科學配置強弱雙方的程序性權利義務,完善便利信息主體的程序性要件,擴充公益訴訟等救濟渠道,并借鑒歐盟的被遺忘權制度完善救濟措施,進一步貫徹恢復性司法的理念。

第三,建立一體適用的監管機制。針對人臉識別技術多樣態的應用場景,各國的監管機制各具特色,但協同一體的監管模式是其基本方向。在監管機構的體系化建設方面,歐盟GDPR 第51-59 條規定了數據安全監管機構DPA、EDPB 的職責范圍,以確保GDRP 同其他法規在歐盟的適用一致性,并協調促進歐盟各成員國數據保護機構的合作;美國部分州成立了專門性的數據保護機構,如加利福尼亞隱私保護局(CPPA)等,對人臉識別技術應用進行監管,并通過FTC 保障技術的合規應用。此外,日本個人信息保護委員會(PIPC)、新加坡個人數據保護委員會(PDPC),以及俄羅斯聯邦通信、信息技術和大眾傳媒監督局(Roskomnadzor)等也都是涵蓋人臉信息保護職能的專門性監管機構。在監管措施方面,歐盟引入第三方評估機制并賦予其獨立性,同時還采取了透明度報告、數據保護影響評估、人工智能監管沙盒等措施,積極引領全球標準化建設;美國則更為重視行業自律機制的軟法價值,通過行業自律公約填補政府監管的不足。對此,為應對我國的分散監管困境,有必要設立獨立的監管機構,搭建協同監管平臺,突出風險管控和風險預防,實施能動高效、一體適用的技術應用監管機制。

4 統籌發展和安全的人臉識別技術應用治理路徑探析

利益平衡是公共政策的邏輯起點。數字時代,數據的累積效應、結合效應,以及技術、算法的進步使得人臉識別技術發展與個人信息安全之間存在緊張關系,而安全是發展的前提,發展是安全的保障。我國應結合場景規制理論、風險預防理論和數據治理實際,構建統籌發展和安全的人臉識別技術應用治理路徑。

4.1 構建場景化立法規制模式

場景化立法規制已廣泛應用于我國個人信息保護領域,其內在機理在于建立不同場景下的個人信息保護規則。而人臉識別技術在各場景中的應用規則不同,運用場景規制理論能夠契合人臉識別技術的本質特征,從而建立與場景特征相符的立法規制模式。

4.1.1 明確具體場景應用的分類標準

場景分類是場景化法律規制的先決條件,而《人臉識別管理規定》對于場景分類的標準模糊,且存在交叉重疊的現象,難以為人臉識別技術應用的精細化治理提供明確指引。雖然學界對于人臉識別技術應用的場景化分類標準尚存爭議,但總體上可將場景劃分為單一型和復合型兩類,以信息來源、參與主體及傳輸原則作為判定標準,以使用場景的復雜性決定具體的法律規制模式(姜野,2023[27])。在個人信息保護影響評估、技術安全性評估及信息斷鏈刪除評估等環節中,應當著重考慮場景要素對評估標準的影響。由此,個人信息保護影響評估可在不同場景下防范化解人格權益風險;技術安全性評估可規避不同場景下的安全風險;信息斷鏈刪除評估可通過斷鏈的方式使數據不可跨場景匹配,同時建立匿名化或刪除信息的監測機制。

4.1.2 建立場景化動態知情同意模式

《個人信息保護法》第29 條規定,處理人臉信息等敏感個人信息須取得信息主體的單獨同意或書面同意。然而,若在所有場景下均對人臉識別技術應用采取單獨同意原則,將顯著降低人臉識別技術的使用效率。因此,有必要通過場景化規制的手段完善知情同意原則,建立動態知情同意模式,在保障個人信息自決權的前提下,兼顧人臉識別技術的使用效率。首先,根據不同場景選用恰當的告知同意方式,如彈窗提示、書面簽署等,并向信息主體提供分項同意的選擇。其次,以顯著方式向信息主體告知人臉識別技術的應用場景、用途、目的及必要性,保障信息主體的合理預期與信賴利益。最后,強調知情同意的動態性,完善“告知—同意—同意撤回”的動態機制,依據不同場景設置自主撤回的條件,并保障撤回權的便捷行使。

4.2 完善便利化司法救濟體系

場景化立法規制為有效解決人臉識別技術治理的實體問題提供了制度保障,而在司法層面,救濟體系的相對穩定性使其難以動態應對因新技術應用引發的程序性問題。因此,我國有必要完善便利化的司法救濟體系,為處于弱勢的信息主體提供傾斜保護(石超和張蓓潔,2022[10]),破除信息主體參與訴訟、獲得救濟的路徑障礙。

4.2.1 厘清救濟邊界

在人臉識別技術侵權的司法救濟中,既要厘清法律適用標準的實質要件,還要明確提起訴訟的程序要件。一方面,《人臉識別管理規定》對人臉識別技術應用的目的性審查提出了更為嚴格的要求,明確指出“非必要不使用人臉識別技術”(第4 條)。盡管《人臉信息司法解釋》確立了舉證責任倒置制度,但由于合法、正當、必要原則的審查標準過于寬泛,從而變相增加了侵權行為的認定難度。對此,應當進一步明確合法、正當、必要的界限,開展實質審查,審慎分析人臉信息處理者的處理目的,以規避形式審查對人格利益產生的侵害風險。另一方面,訴權是民事主體的基本權利之一,對訴權的限制必須由法律作出明確規定。對此,司法實踐中不應設定人臉識別技術侵權訴訟的前置條件,即受害人無需先向侵權人提出請求或向監管機構投訴,可以直接向人民法院提起訴訟,以保障民事主體訴權的實現(程嘯,2023[28])。

4.2.2 補足救濟措施

首先,參照《證券法》中有關“特別代表人訴訟制度”的規定,完善代表人訴訟制度在人臉識別訴訟案件中的應用,擴大救濟的覆蓋面,使受害人因相同案由自動獲得訴訟資格,降低參與訴訟的難度。其次,完善人臉識別技術侵權領域的民事公益訴訟制度,細化《人臉信息司法解釋》的內容,對受案范圍、起訴主體、起訴條件等內容作出明確規定,統一公益訴訟賠償標準和賠償范圍。同時,在《檢察機關提起公益訴訟改革試點方案》中細化人臉識別技術侵權的相關規定,切實發揮審判監督機關的作用,貫徹恢復性司法理念。最后,人臉識別技術侵權具有緊迫性、持續性和不可挽回性等特征,對此,歐盟建立了數據被遺忘權制度,以提升司法救濟的實質效果。而我國可以適當簡化信息主體行使刪除權的程序,并通過第三方見證、司法監督等方式監督人臉信息的刪除效果(宋丁博男和張家豪,2023[29]),盡量減輕人臉識別技術應用的消極影響。

4.3 健全協同化監督管理機制

形塑切實可行的監管機制是破除我國人臉識別技術規制困境的重點??偟膩碚f,我國目前存在監管機構分散、監管模式單一、監管措施碎片的制度困境,導致執法效能降低。對此,有必要構建協同化監督管理機制,調動多元主體參與治理的積極性,形成人臉識別技術監管合力。

4.3.1 優化監管機構配置

首先,人臉識別技術作為以算法、數據、算力為核心的新興數字技術,可由新組建的國家數據局統籌人臉識別技術應用監管策略,出臺相關政策及標準,避免各地區、各領域因監管差異產生的政策偏移,減少監管協調成本。其次,明確監管機構的職能范圍,運用場景化規制模式,依據場景特征選擇與之匹配的監管主體。同時,在需要多部門、多區域聯合監管的場景下,明確各個監管主體的責任,避免監管沖突,并建立相應的沖突解決機制,在監管沖突產生后報請共同上級機關確定監管主體。最后,細化末端監管,在監管體系的最末端引入第三方評估模式,監管公權力的行使,確保監管主體的獨立性和協同性,避免因公私主體間利益交疊導致的監管失效。

4.3.2 完善行業自律機制

行業自律機制旨在激發市場內生動力,約束市場不良行為,并利用市場自身的調適功能對行政監管予以補充,有利于實現各方利益平衡、增強行業誠信,為人臉識別技術應用的協同監管提供內在動因。2020 年出臺的《人臉識別線下支付行業自律公約(試行)》對金融支付領域的行業自律機制進行了有益探索,然而由于行業標準難以統一,加之監督救濟規則的缺失,使得該制度在其他人臉識別技術應用場景中仍處于缺位狀態。因此,行業自律機制的完善須建立在場景化規制的基礎上,基于各領域特征總結適用標準,并為其制定配套的懲戒和救濟措施,以保障行業自律機制的有效運轉。但與此同時,由于行業自律公約的軟法特征顯著,具有較高的制度彈性,一方面,應確保人臉識別技術具有恰當的準入門檻、獎懲措施和退出機制;另一方面,應審慎對待自律公約,在訂立、修改及廢止自律公約時,須充分保障各方的知情權,防止行業自律公約因產生較大的任意性而喪失其公信力。

4.3.3 應用監管沙盒測試

監管沙盒測試以實現包容審慎監管為制度導向,是統籌人臉識別領域技術發展與數據安全的有效手段,能夠在相關技術大規模應用前開展監管預評估,同時為人臉識別技術發展提供一定的“監管豁免”和試錯成本,促進技術迭代。因此,有必要在人臉識別技術市場化應用之前,引入監管沙盒測試,將其放置于“沙盒”這一測試真空,促進監管彈性達到動態平衡,實現監管“去中心化”。同時,還可以利用監管沙盒的扁平化特征,提高技術透明度與可信度,打破橫向監管壁壘,促進監管信息流動,為安全審查提供便捷的信息獲取渠道。當然,在監管沙盒的實際應用中亦須考量多方面因素(戚聿東和劉歡歡,2022[30])。首先,監管沙盒測試的標準應由國家數據局、網信辦等機構統一制定;其次,沙盒測試應重點考查人臉識別技術是否符合“目的性、安全性、規范性”三項原則,以確保人臉識別技術符合沙盒制定的安全標準,并具有相應的形式和技術規范;再次,依據場景化特征構建“沙盒”的具體方案,使人臉識別技術在最初的評估和測試環節中即具備場景化特征;最后,實行中止測試和監管豁免制度,在超出技術目的、損害信息安全時,應及時中止測試,并豁免合規技術開發者的一定責任(胡濱,2022[31])。

5 結 語

隨著人工智能技術的高速發展,人臉識別技術應用場景趨于泛化,因人臉識別技術產生的安全風險持續升級。面對人臉識別技術帶來的全球性機遇與挑戰,我國作為人類網絡空間命運共同體的倡議者與數字經濟大國,在防范化解人臉識別技術應用風險的同時,還要促進人臉識別技術的革新與迭代。新安全格局下,我國應在保障數據安全和數字人權的基礎上,加快構建統籌發展和安全的人臉識別技術應用治理體系,以高水平安全推動構建中國式現代化數據治理體系,并為世界人臉識別技術的治理方案提供中國經驗。

猜你喜歡
人臉識別人臉規制
人臉識別 等
有特點的人臉
主動退市規制的德國經驗與啟示
揭開人臉識別的神秘面紗
三國漫——人臉解鎖
保護與規制:關于文學的刑法
論《反不正當競爭法》的規制范疇
基于類獨立核稀疏表示的魯棒人臉識別
馬面部與人臉相似度驚人
長得象人臉的十種動物
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合