?

算法審計的制度邏輯和本土化構建

2023-01-16 11:20宋雨鑫
關鍵詞:算法

張 欣 宋雨鑫

(對外經濟貿易大學 法學院,北京 100029)

算法系統的廣泛部署已在多層次、多場域引發社會治理風險。與一般技術引發的治理風險相比,算法的技術和應用風險更具復雜性、系統性。一方面,算法應用虛實結合、嵌入廣泛,加劇了監管層的信息不對稱,監管決策的制定缺乏有效的參考點。另一方面,商業秘密和知識產權制度的存在致使以算法透明和個體賦權為主線的算法治理機制應對乏力。這些結構性挑戰推動了算法治理范式轉向多中心、多場域、多路徑、多模塊的新型治理范式。在推動治理變革的前沿實踐中,算法審計制度將技術、法律和倫理深度融合,以合理透明度和專業技術保證彌合算法黑箱和商業秘密間的制度張力,為構建事前預警識別機制、事中風險管控機制和事后責任追溯機制提供了有效決策參考,成為當下各國算法治理圖景中日益引發關注的新興治理工具。我國通過《個人信息保護法》《互聯網信息服務算法推薦管理規定》以及《網絡數據安全管理條例(征求意見稿)》(以下簡稱《網安管理條例(征求意見稿)》)等多部法律法規構建了算法審計的底層規則,并將其作為針對大型互聯網平臺和高風險自動化決策施行的特殊監管工具。但具體化、精細化、科學化的制度建構方案仍然闕如。本文聚焦算法審計制度,深度剖析其治理效能,凝練探析其構造原理和制度邏輯,緊密結合我國算法治理的客觀現狀,探索算法審計制度的本土化方案。

一、算法審計的治理效能

算法審計是由技術性和非技術性措施組成的審查算法系統一系列方法的總稱。算法審計的范圍包括從評估企業算法治理策略到設計和部署階段使用的特定數據和模型機理[1](P6)。早在1970年,美國在住房政策中創建了種族歧視審查制度[2](P2)。此后,該項制度被創新性地引入到算法規制的相關立法中。例如,紐約市立法明確規定使用招聘算法的雇主必須進行年度偏見審計,否則禁止將算法用于求職評估[3]。歐盟新近提出的《人工智能法案》第19條也要求高風險算法供應商對算法進行“合格性評估”。與國際算法立法趨勢遙相呼應,我國《個人信息保護法》第54條、第64條規定了個人信息處理者的定期合規審計義務與個人信息保護強制合規審計義務?!端惴ㄍ扑]管理規定》第7條、第8條以及第24條進一步推動了算法審計制度在我國的生根落地??梢哉f,算法審計制度已成為全球算法治理實踐中的基礎工具,對于算法風險的識別、評估、預防和管理具有重要意義。

(一)彌合算法透明與算法商業秘密保護的治理沖突

長久以來,算法治理面臨著算法公開與商業秘密以及專有技術保護之間的緊張沖突。作為人工智能的底層技術,算法技術依托海量數據資源及強大算力,廣泛應用于電子商務、搜索引擎、即時通信、社交媒體等多元場景,為平臺企業積累了巨大的經營和競爭優勢。算法的商業價值化趨勢日益凸顯,各平臺企業紛紛將算法技術視為企業的核心競爭力。從2020年轟動全球的TikTok禁令事件中,就雙方是否出售其核心推薦算法展開的激烈博弈便可管窺算法在人工智能時代的商業價值以及戰略意義[4]。鑒于企業為算法開發投入高額成本、巨量資源,將商業秘密保護拓展至算法本無不妥,各國近期立法中也呈現對算法增強保護的立法趨勢[5](P106)。但商業秘密的保護范圍、保護程度不斷增加,逐步覆蓋和拓展至與算法有關的模型設計原理、變量特征、變量權重,使之成為科技企業逃脫算法責任、規避算法開發者義務的盾牌。

與之相對,為確保算法的可問責性,技術正當程序規制理念將算法透明、算法公開作為對抗算法黑箱的基礎原則。例如,《通用數據保護條例》以算法解釋權為代表,創建私權制衡體系,以期賦予用戶獲知算法運行邏輯、系統功能、設計目的、設想用途和預期后果等信息的權利[6](P1435)。美國《算法問責法案(2022)》則要求公共場景下算法設計者對算法源代碼、輸入數據等關鍵信息進行必要披露和公開[7]。但算法黑箱的客觀存在和商業秘密制度搭建的堅實盾牌致使算法透明原則的落地頗易受阻且實效不彰。無論是算法透明對開發者激勵和行業發展可能帶來的制度隱憂,還是算法代碼和模型要素公開后來自“算法算計”的現實阻礙,算法透明原則與商業秘密保護之間的沖突與張力成為了算法治理的一大難題。

與開源為表征的算法透明框架相比,算法審計制度更為靈活、包容,可依據算法系統的透明程度作出因應性調整。即使面對“算法黑箱”,也能夠繞開商業秘密這一制度堡壘,僅針對兩端輸入、輸出變量作出必要的觀察與分析。從完全封閉的“算法黑箱”階段到理想化的“算法白箱”階段,算法審計的優勢在于能夠合理劃定審計公開的對象、范圍,不斷平衡調優“算法公開-商業秘密”的重疊地帶,從而為算法治理提供有效的決策參考點[8](P660-661)。

(二)助力企業自我規制與政府規制雙軌協同

算法模型動態更迭、實時更新,這一技術特性對治理的介入時點以及響應速率提出了較高要求。傳統治理模式多以政府規制為主導,采取自上而下、事后介入的監管方式,治理效率遲滯,難以滿足算法技術內生存在的靈活、動態、彈性等特質[9](P122)。為鼓勵科技創新,促進行業發展,以美國為代表的一些國家逐步衍生出鼓勵企業、行業自我規制的監管生態。從規制實效來看,企業自我規制可采的策略和手段更為豐富,規制啟動成本更低,應對更為精準,且因具備更為充分的決策信息,能夠將算法風險管理節點前置,已成為多元共建治理模式下不可或缺的治理環節。雖然平臺企業自我規制優勢頗多,但其弊端也不容忽視。因缺乏強有力的外部約束和問責機制,企業自我規制難以實現從算法預設計到部署和運行階段的有效管理,企業自我規制常異化為抗拒承擔主體責任、排斥政府監管的“護身符”[10](P84-89)。如何更為順暢地協調、銜接企業自我規制和政府規制的關系,充分發揮二者規制優勢而抑制其弊端,成為算法治理的又一挑戰。

算法審計制度兼容自愿審計和強制審計,一方面可容納企業對算法系統實行差異化管理和風險控制的多元化需求,另一方面可為政府介入監管算法預留制度接口,在企業自愿審計之外對高風險、高影響算法系統實施重點監管。故算法審計成為協同、銜接企業自我規制和政府規制的有力杠桿,有助于實現二者并舉不悖的治理目標。

(三)推動法律、技術和倫理三元共治機制的有效落地

遵循行為主義邏輯,傳統的法律規制模式強調基于事后、基于結果的行為矯正[11](P33),這一規制模式面對算法技術引發的跨域性、復雜性風險展現出啟動滯后、成本高昂、實效不良等局限。與硬法相對,以技術標準、合規指引、倫理規范等為內核的軟法體系具有形式多元、組合靈活的優勢,契合算法治理動態協同、軟硬兼施的治理需求,成為國際算法治理共識性工具[12]。常見的軟法治理可劃分為基于技術的治理和基于倫理的治理兩大范疇。實踐中以美國國家標準與技術研究院和歐盟第29條工作組為代表,各國以多元化方式積極探索法律、技術和倫理深度耦合、動態銜接的治理機制。例如,美國國家標準與技術研究院專門發布指引,將法律規定中的算法公平原則轉化為技術標準和合規指南,推動硬法的穩步落地[13]。算法審計制度圍繞算法全生命周期展開,既注重預設計環節對算法技術層面的性能評估,也兼顧倫理原則在技術產品研發層面的具體體現,還通過算法運行和部署確保算法技術和應用的合規底線??梢哉f,算法審計制度將法律、倫理、技術三維價值目標科學整合到治理實踐中,以微觀合規審計、中觀技術審計、宏觀倫理審計協同推動法律、技術和倫理的深度耦合與良性互動。

二、算法審計的制度邏輯

有鑒于算法審計展現出的多重治理效能,我國立法已初步搭建起底層規則。例如,我國《網安管理條例(征求意見稿)》第53條規定,大型互聯網平臺運營者應當委托第三方審計,每年對平臺數據安全情況、平臺規則和自身承諾的執行情況、個人信息保護情況、數據開發利用情況等進行年度審計,并披露審計結果。算法審計制度雖在各國近期立法中多有提及,但其構建邏輯和形成機理尚未得到充分挖掘。結合算法審計實踐可知,完整的算法審計制度應由審計主體、審計原則、審計框架、審計方法以及審計公開五個要素構成。

(一)審計主體

基于多中心協同治理范式,算法審計的主體具有多元化特點。算法審計制度可劃分為科技企業開展的內部審計以及由監管機關和第三方開展的外部審計。

1.內部審計

算法內部審計是開發、應用算法的企業自行開展的審查、評估活動,是“檢查人工智能系統創建和部署是否符合既有道德期待和規范性標準的機制”[14](P33)。因算法技術的復雜性和專有性,外部審查機制無法深入訓練數據集、模型參數等內部信息,僅可通過觀察“輸入-輸出”變量的方式開展審計工作,無法全面評估、準確探查算法系統的風險點。與外部審計相比,內部審計人員可深入算法決策環路,訪問、審查、測試、評估算法訓練的數據集和訓練模型,拓展、整合外部審計難以觸及的信息。算法內部審計還可兼顧多項政策目標。不僅算法開發團隊可由此獲得對算法系統的評測和反饋,開發、部署算法系統的企業也可通過審計識別、評估潛在的風險及影響,增強算法安全,提升算法可信度。目前,多家互聯網頭部企業正致力于算法內部審計制度框架和技術工具的研發。例如,谷歌專門設計了“SMACTR”這種“端對端”的算法內部審計框架,從范圍界定、映射、文件搜集、測試和反思五個階段系統推進內部審計工作[14](P38-42)。Meta、IBM、谷歌分別開發了Fairness Flow、AI 360 Toolkit、Model Card Toolkit 等技術工具,用以檢測、報告、減輕算法模型中可能存在的歧視和偏見。整體而言,算法內部審計仍處于初期探索階段,呈現局部化、碎片化、技術性特點,尚無整全化、共識性的內部審計標準可循。但從全球算法治理趨勢來看,特別是針對高風險算法以及超大型互聯網平臺已經呈現出從自愿審計到強制內部審計的規制轉向,大型互聯網平臺特別是高風險、高影響的算法服務提供者應盡快搭建內部審計框架,建立健全全鏈條審計機制。

2.監管機構審計

與內部審計相比,監管機構主導的算法審計側重于算法系統的社會嵌入影響以及嵌入過程的合法性和正當性,目前主要從兩個層面展開。首先,依據用戶協議、法律規范、政策指南等對部署算法主體的合規實踐開展審計。例如,英國信息專員辦公室依據《數據保護法》對Clearview AI 違法處理個人數據特別是生物特征數據的行為開展調查審計[15]。再如,美國聯邦貿易委員會對Everalbum公司未告知用戶使用其照片及面部信息訓練算法的行為開展調查審計[16]。此類審計多為事后、臨時性的個案審計,且常與執法調查重疊展開,旨在為算法問責提供事實依據。其次,圍繞公平性、透明度、安全性等指標針對算法輸出結果的泛在影響和風險展開審計。例如,英國信息專員辦公室聚焦算法公平、算法透明和算法安全提出人工智能的具體審計框架[17]。審計實踐中,監管機構主導的算法審計應當依據職權范圍、審計重點、審計能力結合算法類型、風險等級、應用規模綜合開展,可能出現多頭審計以及審計重疊的情形。以英國為例,信息專員辦公室以《通用數據保護條例》《數據保護法》為依據從算法系統處理個人數據的流程以及結果是否合規角度開展審計。英國競爭與管理局在不正當競爭與反壟斷場景中對算法合謀、算法定價開展審計。金融行為管理局對金融科技類算法合規情況開展審計。依據即將通過的《在線安全法案》,通訊管理局擬對社交平臺算法開展審計。多頭開展的算法審計可能導致算法風險管理和影響評估存在偏差和沖突。因此,在同質場景下,制定邏輯一致的算法審計標準,探索算法審計通用框架和倫理框架,形成清晰、一致的算法審計應用示范具有重要的實踐指導意義。

3.第三方審計

傳統審計實務中,第三方審計是指以注冊會計師事務所為代表的專門機構開展審計的審計類型[18](P79-80)。在人工智能領域,因算法審計服務市場尚處培育期,有資質的專業審計人員和獨立審計機構十分匱乏,加之缺乏行業內廣泛認同的審計標準和審計流程,除技術類咨詢機構、初創公司以接受委托方式涉足算法審計業務外,第三方算法審計更多呈現出 “參與式審計” 的特色[2](P2)。以美國算法正義聯盟、“為了人民” 等為代表的非盈利組織和獨立研究機構,通過用戶調查、模擬測試、抓取審計等外部訪問方式對面部識別算法、再犯風險預測算法以及社交平臺推薦算法開展了頗具影響的審計,審計結論以調查報告、新聞報道及研究論文等形式向社會公開。其中,“為了人民”對美國刑事審判中的再犯風險預測算法COMPAS開展審計,撰寫了《機器偏見》審計報告。該報告引發了美國社會廣泛關注,直接推動了算法偏見和算法歧視相關立法的出臺。與內部審計和政府審計相比,由第三方機構開展的審計更具活力,且對于內部審計和監管審計形成了必要補充?!皡⑴c式審計”的開展可激勵用戶行使算法權利,提升公眾算法技術素養,對算法權力形成有效約束,有利于構建協同治理、多方聯動的算法治理新格局。

(二)審計原則

算法審計聚焦于算法生命周期,著眼于全鏈條、全周期的治理。其既遵循審計活動的一般性原則,也衍生出諸多特定原則。首先,算法審計活動應具有獨立性。獨立性是審計活動最為鮮明的特征。審計結論的權威性恰源自于審計機構及審計人員同被審計組織和被審計事項之間的獨立性。與一般審計有所不同,算法內部審計可能難以完全獨立于被審計組織。為保證其獨立性和客觀性,從事算法內部審計的人員不應參與被審計主體的實際開發及運營活動。企業內部的算法審計人員還應重視審查所在機構的潛在偏見及合規盲區,避免淪為企業聲譽管理的形式化工具。其次,算法審計活動應具有客觀公正性??陀^公正是算法審計的根本源泉。例如,知名網絡招聘公司HireVue曾借外部審計報告“邀名”,夸大其招聘算法公正特性,被揭露后廣受詬病和質疑[19]。這一事例表明,若缺少客觀真實的審計基礎,算法審計結果不僅難以取信于眾,算法審計制度也將瀕于失效,算法歸責亦無從展開。最后,算法審計活動應嚴格遵循商業秘密的規定。審計人員因審計活動可能接觸到訓練數據集、代碼模型、用戶數據等具有商業價值的重要事項,一朝泄露將嚴重威脅個人信息安全、企業運營安全乃至國家安全。為此,算法審計人員應嚴格遵守保密義務,對在工作過程中知悉的國家秘密、商業秘密、個人隱私等信息予以嚴格保密,不得泄露或非法向他人提供。

此外,算法作為被審計對象,其應用具有場景化、動態化特質。算法審計活動還應遵循特定的審計原則。首先,算法審計活動應遵循全鏈條審計原則。算法風險具有隱秘性和跨域性,從預開發到部署運行,均可能潛藏風險,這就要求算法全生命周期都應保存日志留痕備查,算法審計對象也應實現數據、模型、硬件、人員以及流程管理等審計對象的全覆蓋。其次,算法審計應遵循持續審計原則?;谒惴ǖ膭討B更新特性,即使在部署前開展了模型核驗,仍可能因數據集更新、算法模型優化、部署環境變化等因素出現未曾識別、未曾防范的增量風險,為此應當定期、持續地開展算法審計工作。最后,算法審計應遵循分類分級原則。經合組織最新研究表明,依據數據和輸入、算法模型、任務和輸出的不同,算法系統在透明度、可解釋性、魯棒性以及對人權、隱私和公平等重要維度的影響均不相同。算法系統的社會風險呈現差異化、場景化特性,因此,難以形成“一刀切”式的、適用于通用領域的算法審計框架。算法審計主體應當因算法模型特質以及部署運行環境制定相宜的審計方案。

(三)審計框架

就機制設計原理來看,算法審計框架的具體設計與算法審計制度的功能定位密切相關。例如,有研究將算法審計界定為“考察、識別算法對相關者權益負面影響的情形與特征的評估活動”[20](P2)。與之相對,審計框架圍繞算法應用的利益相關者以及關鍵倫理特征形成審計矩陣[20](P3-6)。再如,因將算法審計視為算法問責的銜接工具,英國ICO的審計指南以及荷蘭、挪威等國的最高審計機構均圍繞算法問責建立公共行政場景的算法審計框架。在我國,算法審計作為算法透明治理與算法過程性監管的重要工具,審計框架更注重用戶權利實現方式、算法設計和應用活動的合規風險。例如,中國科學技術法學會在《個人信息處理法律合規性評估指引》(T/CLAST 001-2021)中提出了個人信息處理合規評估的審計框架。各種審計框架設計思路雖不相同,但均面臨類似挑戰。一方面,算法審計宏觀框架應具有一致性,避免不同維度審計活動的重疊與沖突;另一方面,算法審計微觀框架又需具備靈活性與動態性,能夠及時回應復雜技術系統和應用場景之中的多元化治理需求。有鑒于此,新加坡在《人工智能監管模塊框架》《數字經濟伙伴關系協定》等人工智能治理實踐中首倡“模塊治理”理念,美國和歐盟跨大西洋數字監管框架商談過程亦不乏對“共同模塊”監管加以呼吁[21]。

模塊化作為技術研發的主要原則,在社會治理領域可以發揮積極功用。其提供一種具有可操作性的分解方法,可將復雜問題拆解為相對獨立但關聯耦合的模塊單元,通過逐步破解的方式漸序推進社會總體問題的解決[22](P3)。該種治理范式還凸顯出協同和包容性特質,通過將相互沖突、競爭的價值隔離到獨立模塊之中,促進多方利益相關者逐步凝聚共識,以創建可執行的合作關系與行動框架,實現治理層面“存異求同”。具體到算法審計領域,模塊化的審計框架可滿足構建統一審計與專項審計協調的機制目標。依據評估目的,統一的算法審計框架可被拆解為蘊含多元價值目標的模塊單元。在模塊單元內部,還可層層細化為具體審計指標、具體事項與行動主體,以遞進方式形成算法審計制度的“骨架”與“筋肉”。這一設計保證算法審計制度的靈活性與場景性,根據風險等級、適用場景、算法類別等因素迅速重組,將統一框架靈活轉換為適用于某一特定領域、特定類別、特定算法的具體框架。

結合算法治理的內在機理,算法審計模塊可劃分為“總體風險控制與治理”與“過程風險控制與治理”兩個模塊(參見表1)?!翱傮w風險控制與治理”模塊聚焦算法設計、部署與應用的影響層面,通過分解算法治理核心目標設定內部審計維度,旨在規范算法開發流程,優化內部治理結構,實現算法潛在風險治理的前置化。這一模塊包括內部領導與治理結構、政策與程序、投訴與檔案制度、應急預案機制及教育與培訓五個單元。其中,“內部領導與治理結構”單元要求對平臺企業內部治理開展整體評估,包括是否存在算法安全負責人、是否成立算法風險治理領導小組、是否存在倫理審查委員會或類似性質機構、是否組建算法內部審計團隊等領導機制展開審查評估?!罢吲c程序”單元聚焦于算法設計和運行合規審查,包括平臺內部管理規范、算法開發設計操作規程、風險管理機制及合規指引等?!巴对V與檔案制度”單元則關注算法運行的反饋及回溯機制,通過用戶投訴和算法全生命周期日志管理實現過程風險的審查?!皯鳖A案機制”單元要求針對算法技術可能引發的安全風險或安全事件,企業有必要根據其性質、嚴重程度、社會影響等因素綜合、全面地設計分級響應預案。最后,“教育與培訓”單元聚焦算法技術倫理與算法運行生態,通過評估算法安全教育與培訓等內容實現整全化審計。

表1 算法審計框架的模塊單元

“過程風險控制與治理”模塊則關注算法系統的流程治理,由數據風險控制與治理、算法風險控制與治理以及平臺風險控制與治理三個單元構成。數據單元聚焦前端設計環節,圍繞數據質量、數據安全等指標對數據準確性、數據清潔度、數據安全性、數據可訪問等指標開展評估[23](P19-21)。算法單元則以中端模型訓練為對象,從技術、倫理及法律維度對算法性能和魯棒性、算法公平、算法透明、算法安全等指標開展評估[24](P43-46)。平臺風險控制單元聚焦平臺企業的風險控制和管理能力,通過審計評估平臺算法應用的道德、聲譽和法律風險。

此外,依據特定場景、特定系統,還可能出現算法專項審計需求,這一審計類型是在基礎審計之外依據算法類型和級別開展的特殊設置。例如,針對深度合成算法,可能專門設置真實身份認證、被編輯者單獨同意、內容標識等審計要求。對于無法被有效歸類并提煉至上述兩個模塊的專項審計,可以通過附加審計清單的方式與基礎審計有效勾連。

(四)審計方法

審計實踐中,算法審計的方法依據算法模型的可訪問程度有所差別。審計人員可選擇的代表性審計方法有代碼審計、抓取審計、馬甲審計、協作式審計和非侵入式審計五種[25]。

第一,代碼審計旨在從基礎層發掘模型的安全漏洞和未知隱患,通過敏感函數回溯、全文代碼通讀和功能點定向審計等方法實現對輸入、輸出過程的完整審計。代碼審計以代碼公開為前提,目前多針對開源算法以同行評議、漏洞檢測賞金挑戰及通過保密協議、數據訪問協議等有權訪問代碼的情形開展。對于非開源算法或將源代碼置于商業秘密、專有技術保護的算法模型則難以適用。由于代碼審計可直接訪問基礎代碼,審計人員還需嚴格遵守保密義務,避免源代碼泄露引發篡改算法的安全風險。同時也需關注代碼技術性能之外的社會風險問題,以綜合評估算法模型,獲得對算法社會化運行條件、部署環境及應用影響的準確理解及精準評估[26](P36)。

第二,抓取審計又稱爬取審計,通過訪問平臺反復更改輸入,測試輸出并對輸出結果觀察、分析以開展審計。與代碼審計相比,抓取審計多應用于訪問權受限的外部審計,通常為有專業技術能力的研究人員使用。抓取審計所能獲取的信息量和數據量與平臺提供的訪問權限范圍緊密關聯,且可能存在違法風險。紐約大學研究人員就曾因抓取Meta平臺信息被關停賬戶并面臨訴訟指控。Meta聲稱其抓取行為違反隱私政策并侵犯平臺合法利益[27]。因此,在算法監督、隱私保護與合法商業利益保障之間尋求平衡點是抓取審計面臨的重要挑戰。

第三,馬甲審計又稱代理審計,是指審計人員通過創建計算機程序模擬大量“虛假”用戶,從而對算法輸出進行觀察、分析的審計方法。例如,研究人員對谷歌新聞推薦算法進行審計時,設置了四個不同性別、年齡和階層的馬甲用戶,用以追蹤谷歌算法給不同群體帶來的信息盲區[28]。該方法優勢在于審計人員可自定義樣本類型,但也面臨樣本量不足、抽樣代表性不足等問題。與抓取審計類似,馬甲審計亦面臨法律風險,制造“虛假賬戶”可能因平臺安全審核機制而被強行禁止。

第四,協作式審計又稱眾包式審計,其審計原理同馬甲審計相似,關鍵變量在于測試用戶從仿真模擬轉變為招募真人。例如,研究者依托亞馬遜的眾包平臺招募用戶對新冠疫情期間健康信息推送算法展開協作式審計[29]。協作式審計法律風險較低,但招募成本限制了其開展審計的范圍。若可以突破成本約束,協作式審計作為“參與式審計”的重要路徑將具有廣闊的適用前景。

第五,非侵入式審計。該種審計方法是指征得平臺用戶同意后,通過獲取用戶與平臺交互信息的方式對算法開展分析、審計。獲取交互信息既可以通過用戶問卷調查、訪談等方式開展,亦可借助算法自動化收集。例如,新聞機構The Markup的“公民瀏覽器計劃”就是事前獲取用戶同意在其計算機上安裝自定義瀏覽器,以實時分享在Meta和YouTube平臺的賬戶數據。非侵入式審計成本較低,且不涉及對平臺算法及運營層面的干擾,因而法律風險也較低。因此,可作為“參與式審計”工具之一加以推廣。

除代碼審計外,其余審計方法多為外部審計采用。此外,對用戶協議、隱私政策、數據共享協議、訪問記錄、系統日志等書面材料開展審查,對算法研發、運營人員詢問、訪談等詢證方法,以及控制性測試和實質性測試等傳統審計方法仍可適用于算法審計實務之中[18](P22-23)。

(五)審計公開

算法審計完成后,審計機構還應出具審計報告作為最終成果。算法審計報告存在多方鑒證需求——監管機構將審計報告作為合規性驗證和歸責處罰的依據。股東、投資者可借助審計報告評估算法系統運營狀況和風險控制狀況。潛在利益相關者與公眾則可借此實現對算法架構、決策邏輯及風險狀況的知情權。這些需求均要求算法審計報告在一定程度上公開。我國《網安管理條例(征求意見稿)》第53條指出,大型互聯網平臺運營者委托第三方開展的年度審計應當披露審計結果。由此可見,除自愿審計類型的算法審計報告由科技企業自行決定是否公開以及公開范圍外,凡屬于強制審計范疇,特別是涉及高風險、高影響的算法或大型互聯網平臺運營者的算法審計報告原則上應向社會公布。對于算法審計報告中可能援引的不宜向外界公布的源代碼、隱私數據、商業秘密等信息可采取隱匿化處理且報審核后公布。當然,科技企業亦可依據主體類型設置差別化的訪問權限從而限定公開內容,避免因審計公開不當引發技術安全風險與企業運營風險。

三、算法審計的中國方案

伴隨著算法社會的全面來臨,算法監管需求已呈指數性增長。據統計,截至2020年12月,國內市場可監測到的APP數量已達345萬款。僅在APP用戶端承載的算法模型審核和安全監測需求就已然超越有限的監管和執法資源。加之疫情期間用戶衣食住行與算法應用的進一步深度綁定,加快構建并完善算法監管體系已成題中之意?!痘ヂ摼W信息服務算法推薦管理規定》的出臺標志著我國正式邁入算法治理的“2.0時代”。算法審計作為重要的治理工具在《個人信息保護法》和《互聯網信息服務算法推薦管理規定》等“硬法”體系中漸具雛形?!秱€人信息保護法》第54條和第64條分別規定了個人信息處理者的定期合規審計義務和個人信息保護強制合規審計義務?!痘ヂ摼W信息服務算法推薦管理規定》第7條、第8條和第24條初步勾勒出了算法安全審計的制度框架?!毒W安管理條例(征求意見稿)》第58條承接《個人信息保護法》的規定,明確規定了數據處理者具有自主審計和強制外部審計義務。此外,《信息安全技術 信息系統安全審計產品技術要求和測試評價方法》《信息安全技術 個人信息安全規范》也初步建立了信息安全審計的軟法框架(參見表1)。

整體來看,我國科技企業履行算法審計義務的適用對象、審計依據、審計內容、審計重點以及審計報告等已有基礎規范可循,但審計流程、審計方法以及審計制度與其他算法治理工具的銜接等落地性制度仍需著力推進。結合我國既有制度資源稟賦和域外審計經驗,建議從以下三個方面協同構建算法審計制度。

(一)強制算法審計與自愿算法審計的有效銜接

算法審計治理效能的發揮來源于企業自我規制的激勵與用戶通過審計踐行參與式治理的制度活力。通過自愿審計和強制審計的有機結合,算法審計將企業自我治理嵌入到算法治理實踐之中,以自愿審計方式助力企業自我規制,推動企業治理與算法治理的深度融合。而在強制審計的制度設計中,強制內部審計以監管性制度約束、最低標準和績效目標為企業自主活動劃定合法邊界,構成了“基于管理的規制”[30](P21)。強制外部審計則旨在為高風險、高影響的算法系統或者達到超大規模標準的互聯網平臺設定“安全閥門”,通過第三方審計以及政府審計方式監督、管控和調適算法應用的合規性與倫理性??梢哉f,自愿審計與強制審計的有機銜接促使企業自我規制與政府規制雙軌并舉,推動“算法安全多元共治”的新格局。

表2 我國算法審計規范框架

就我國現有立法而言,《個人信息保護法》與《互聯網信息服務算法推薦管理規定》將算法審計類型限定為強制審計,具體包括個人信息處理者定期強制合規審計、特殊個人信息風險或安全事件中的第三方合規審計以及推薦算法的強制安全審計。但現有制度安排對自愿審計的關注不足,缺少強制審計同自愿審計的銜接機制,不利于開展算法分類分級治理。強制審計義務對企業量級、風險等級、部署場景、用戶規模等因素帶來的差異化涵納不足,可能致使市場力量較為薄弱、用戶規模有限、算法應用風險可控的中小型企業擔負較高的合規成本。因此,建議引入自愿審計類型,通過強制審計與自愿審計的互動銜接踐行算法分級分類治理。同時,建議在強制審計中強化政府審計類型的適用?!秱€人信息保護法》第64條為強制性外部審計提供了制度接口,但該項審計限定為“委托專業機構”開展合規審計。委托專業機構進行外部審計固然可彌補監管機構專業性和資源性不足的缺陷,但這一制度設計可能引致實效疑慮[31](P104)。當個人信息處理活動已發生較大風險或出現安全事件時,監管部門應及時啟動、有效介入以盡快處置和消弭相關風險。強制企業委托第三方審計的監管策略可能延誤時機,并產生企業與受托機構不當聯合從而影響審計實效等情形?;诖朔N考慮,《網安管理條例(征求意見稿)》第58條第2款新增“主管、監管部門”對重點數據處理活動開展審計的類型。我國應進一步細化監管機構主導審計的啟動條件、啟動時機、審計標準等關鍵問題的規則設計,為平臺承擔相應的主體責任提供依據。

(二)依托平臺與依托用戶算法審計路徑的并行展開

算法審計效用的良好發揮有賴于采取科學合理的審計路徑。雖然審計主體可依據被審計算法組合適用各類方法,但目前主流應用的代碼審計、抓取審計等方法仍然以平臺提供可訪問數據為前提,對平臺依托性較強。依托平臺的算法審計雖然在專業性和準確性方面享有優勢,但訪問權限的限制影響了算法審計可供開展的頻次、廣度和深度,在實踐層面難以滿足多領域、多行業、多場景算法系統的全覆蓋。因此,有必要為依托用戶的算法審計路徑提供充分的制度激勵。目前一些國家和地區已有類似的制度設計。例如,歐盟《數字服務法》第40條要求平臺允許“經過審查的研究人員”對其算法進行審查。美國《平臺問責制和透明度法案》第4節規定被國家自然科學基金委員會認定為適格研究人員的主體依托具體項目可獲得研究所需的平臺信息。此外,一些互聯網企業也在積極推進用戶算法審計,營造可信運營生態。例如,Meta制定了“臉書開放研究與透明度”(FORT)計劃,為研究人員提供受隱私保護的數據集和API,以學術研究促進臉書算法的不斷優化。YouTube近期宣布開展“YouTube研究員計劃”, 為研究人員了解YouTube提供數據和工具支持??梢哉f,依托平臺開展的算法審計對于企業合規、風險防控與應急管理具有重要意義。而依托用戶開展的算法審計則對于算法的調優與完善發揮著實質影響。有研究者曾對優步的峰時定價算法以模擬用戶的方式展開審計,結果發現優步的定價算法在同一時段同一地區定價時存在時滯擾動,導致定價不公。該問題后反饋到優步受到平臺重視,對算法進行了公平性調優[32]。由此可見,自下而上、用戶驅動的算法審計以平臺算法同用戶日常交互活動為基礎,能夠實時、動態、持續地反映部署于真實環境中的算法風險和算法影響。同依托平臺的審計路徑相比,用戶驅動的審計路徑更能在日常、真實的交互中發現利益攸關的影響節點,更能捕捉技術精英因專業知識結構同質化而產生的審計盲區, 從而最大化發揮“參與式審計”的制度優勢[33](P4-5)。因此,應推動專家驅動的依托平臺審計與用戶驅動的審計路徑雙軌并行。一方面由專家團隊對算法系統作出科學、準確的整體評估和認證,以專業性保障算法審計的可信可靠;另一方面還應充分實現用戶社群的參與激勵與參與保障,內外協同促進算法向上向善。

就我國目前的制度框架來看,實現依托平臺和依托用戶雙向并舉的審計路徑主要面臨三項核心挑戰。其一,我國平臺企業的數據和算法訪問權限開放嚴格受限,尚無面向研究人員和專業組織的開放透明計劃,依托平臺開展的審計路徑實效尚待檢驗。目前多依靠個體用戶自發報告及媒體調研監督,從“黑箱”外部對算法進行有限反饋。其二,盡管《個人信息保護法》第64條為第三方機構開展算法合規審計提供了法律依據,但實務中能夠勝任算法審計的專業機構仍不多見。適格的算法審計團隊應具備綜合性、跨學科的知識背景,有系統的平臺經營、內部治理及風險控制的經濟學訓練,以及對算法、數據等數據和人工智能領域的深厚知識積淀。傳統的審計人才恐難擔此重任[34]。其三,當前零星展開的用戶驅動型審計缺少制度化的反饋互動機制,難以為用戶社群提供持續的參與激勵。未來可嘗試以平臺企業為聯結點,一方面推動對適格研究人員的特定訪問權限,借助外部力量綜析算法影響,另一方面逐步設立用戶投訴報告與反饋信息分享制度,將用戶反饋及時報告給產品設計和運營團隊,促進算法優化。用戶驅動的參與式審計可扮演常態化風險監測的角色,亦可成為監管部門“發現個人信息處理活動存在較大風險或者發生個人信息安全事件”的線索,成為啟動個案調查的重要機制。與之相配,算法審計行業標準、審計流程與專業機構和人才的建設亦應提上日程,在整合既有審計力量基礎上加快組建一批有能力、有資質的算法審計團隊。

(三)算法審計與平臺算法問責節點的精準對接

作為動態風險管理和流程活動監管的程序性控制方案,算法審計有助于預警和降低算法風險的發生頻次、深度和廣度,但難以阻斷風險向實際損害結果轉化,更無法在微觀、具案層面為被侵權人提供“個案正義”式的補救[35](P172)。與之相對,算法問責制雖可在損害結果發生后對平臺主體追責,但因算法決策過程的黑箱性與行為主體和控制主體的隱匿性,使得算法問責的實現障礙重重。算法審計制度能夠穿透“算法黑箱”,通過評估數據、算法和應用過程,為算法問責提供詳實可信的事實依據。因此,算法審計制度應當與算法問責制度有機銜接,在規則設計層面設置精準對接機制,實現算法合規評估、風險管理向損害問責、有效救濟的平滑推進。

在設計具體制度時,應注意避免因審計節點轉換引發問責主體錯位。首先,應對審計流程關鍵節點的行為主體、責任主體予以清晰厘定,確保審計框架中“模塊-指標-事項-主體”的對應耦合。概括化的主體界定可能發生主體混淆,導致對應問責節點的主體糾責機制失靈。以《互聯網信息服務算法推薦管理規定》為例,算法審計義務主體被界定為“算法推薦服務提供者”。實踐中,可能發生技術研發主體與技術應用主體的重疊與分置。通常情況下算法技術提供者同算法服務提供者主體身份重合,但提供算法信息服務的企業委托其他企業開發算法系統的做法亦不鮮見。在分置情形下,算法技術研發者難以獨立開展算法應用層面的審計,而購買或者委托算法技術并提供算法服務的主體則難以介入到算法研發過程,難以對數據、模型訓練等環節展開質量控制和安全管理。其次, 應嚴格區分算法審計的責任主體與算法責任的承擔主體。前者包含審計場景下算法技術開發者、算法系統實際控制者以及算法治理責任承擔者,后者則指向算法系統應用造成侵害與損害的侵權人。從關系上看,若算法審計環節的責任主體未盡好風險治理職責,可能引發算法應用風險,但是否承擔侵權行為仍需就風險實害化程度以及因果關系認定等構成要件予以綜合考察。以《個人信息保護法》第69條為例,該條規定了侵害個人信息權益造成損害的過錯推定責任。在此情形下,是否依據法律規定定期開展合規審計成為個人信息處理者自證盡到合理注意義務的重要證據之一[36](P417)。但個人信息處理者是否承擔侵權責任仍必須滿足侵權行為的構成要件,并非僅因審計中發現的違法事項直接追責。

四、結語

面對算法應用帶來的顛覆性、系統性、復雜性風險,自上而下、政府主導、事后介入的規制范式已應對乏力,算法治理亟需一種多元參與、協同聯動、軟硬兼濟的創新思路。算法審計精準錨定審計對象,合理劃定審計范圍,深度融合技術、法律和倫理,為算法問責提供行之有據的決策參考,成為推動算法治理范式轉型的重要抓手。我國算法審計制度雛形初具,但審計原則、審計類型、審計公開、審計路徑等核心元素尚待確立。本文系統分析了算法審計的治理效能,深入剖析了算法審計的構建機理,結合我國的制度定位和現有框架,從類型銜接、路徑融合、治理互動和制度對接等視角提出了具體方案的構建方向。近期,我國與美國監管機構簽署了合作協議,擬依法推進跨境審計的監管合作,建立對等互利的合作安排[37]。算法審計不僅扮演著督促企業履行安全可信治理責任的有力抓手,更是以治理促發展,符合全球人工智能治理合作框架的通行做法。未來,還應對審計指標體系、審計流程以及審計矩陣等內容加以研究,以為算法審計制度的科學構建提供更為充分的理論基礎。

猜你喜歡
算法
哪種算法簡便
抑制OFDM系統峰均比的DHT-SCF聯合算法
基于歸一化KNNI的隨機森林填補算法
基于Lévy飛行的一種改進鯨魚算法
有趣的算法展示活動
基于最大相關熵的簇稀疏仿射投影算法
Travellng thg World Full—time for Rree
進位加法的兩種算法
融合ω-K和BP算法的圓柱掃描毫米波三維成像算法
一種改進的整周模糊度去相關算法
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合