?

公共服務領域算法解釋權之構建

2021-06-17 23:33李婕
求是學刊 2021年3期
關鍵詞:個人信息保護法商業秘密公共利益

摘要:算法自動決策侵犯公民的隱私權、知情權和救濟權,違反正當程序原則。歐盟和美國對算法解釋權分別采取內部監管模式和外部問責模式,這兩種模式在解釋對象、解釋標準、解釋時間方面存在差異,目的都在于促進技術安全發展、限制政府權力和保護個人權利。算法應用到公共服務領域時帶有公共利益屬性,不得以“商業秘密”為由拒絕公開。我國《個人信息保護法(草案)》設立了事前解釋原則,以透明性和公正合理為解釋標準,賦予個人對自動化決策的拒絕權,比GDPR保護個人權利更進一步。中國特色算法解釋權在規范上應進一步明確透明性的內容、規范定期審計以加強監管;在技術層面公開算法模型,公開源代碼、公開算法運算基本規則、因素及權重;同時由政府主導核心領域算法開發以促進算法造福社會。

關鍵詞:算法解釋權;商業秘密;《個人信息保護法(草案)》;公共利益

作者簡介:李婕,安徽大學法學院副教授(合肥? 230039)

基金項目:國家社科規劃基金一般項目“改革開放以來中國司法體制中‘人民群眾話語的歷史變遷與實踐影響研究”(20BFX006)

DOI編碼:10.19667/j.cnki.cn23-1070/c.2021.03.012

大數據時代,算法在類案類判系統、智慧檢務軟件、征信評級、“扶貧云”等公共服務領域的應用不但提高了效率,而且發揮著分配資源、形塑社會秩序的建構角色。由于算法系統的輸出數據影響個人基本權利,算法自動化決策問題日益受到法學研究者的關注。我國法學界關于算法的研究主要集中在算法倫理審查1、算法確權困境2、算法共謀的法律規制3、算法解釋權與算法治理路徑4等問題,尚未立足我國的法律規范(尤其是《個人信息保護法(草案)》)和司法案例探討算法解釋權的制度構建。在科技革命撲面而來的當下,公眾對算法決策理性的呼吁催生了算法解釋權,如何立足我國實踐和立法,科學審視算法解釋權,這不僅是人工智能技術發展的當代之問,也是未來之問。

一、算法自動化決策對公共服務領域的挑戰

“互聯網+”已經廣泛應用于公共服務領域,與此同時算法自動化決策的運行也悄無聲息地侵蝕著公民的基本法律權利。例如,2016年美國康斯威星州State v. Loomis案件中,被告認為州法院使用COMPAS算法模型量刑違反了正當程序原則,1 K.W.Ex rel.D.W.v.Armstrong 一案中,2愛達荷州眾多居民認為算法缺陷致使救濟金計算錯誤,嚴重影響個人生活。從法律的視角看,算法自動化決策對公共服務領域主要有以下挑戰:

(一)算法自動化決策侵犯公民的基本權利

首先,算法自動化決策侵犯個人隱私權。無論是征信評級系統,還是福利金計算系統,都要根據當事人的個人數據進行分析。算法系統對個人數據的整合和挖掘囊括個人的行動軌跡、敏感信息等涉及隱私的數據,個人隱私不知不覺地被嵌入算法系統的運算分析中。而作為分析基礎的數據,往往來源于政府在教育、醫療、交通、視頻監控等途徑收集的數據。在電子化政府的建設過程中,政府通過人工智能設施的部署逐漸形成對公民活動的全面監控,并基于此進行治安預測和公共安全等必要活動。政府加強對社會的監控無可厚非,但政府將各部門的資料庫互相串聯,使得資料在政府部門內部互相流通,將不可避免地導致數據濫用。32013年,美國前國安局雇員愛德華·斯諾登事件曝光,公眾才發現“老大哥正在看著你”并非著作中的科幻想象。4在“任務偏離效應”5之下,政府為了公共安全將個人數據信息用于洗錢防治、犯罪地圖等其他違法行為調查中,而公眾并不知道自己的基本權利受到了侵犯。

其次,算法運算規則不透明侵犯了個人知情權。中國互聯網絡信息中心在《2016年中國互聯網新聞市場研究報告》中指出,“算法分發”逐漸成為網絡新聞主要的分發方式,如果任由算法向用戶推送同質的信息而不加以節制,可能會導致用戶陷入“信息繭房”的束縛之中——即公眾只注意自己選擇的東西和使自己愉悅的領域,久而久之會將自身束縛于像蠶繭一般的“繭房”中。從技術的角度看,算法規則轉化為計算機代碼時不可避免地會產生翻譯錯誤,由于硬件、軟件、外圍設備的局限性導致難以對某詞匯進行寬窄適宜的翻譯,難以將社會意義的詞匯準確嵌入算法編程中,導致算法的輸出數據不可避免地出現偏差。公眾不但不知道自己的信息用于商業領域,而且不知曉算法的運行規則,面對不可思議的算法結論往往一臉茫然。

最后,算法自動化決策錯誤難以進行救濟。我國政府大力支持人工智能技術發展,算法系統的設計和應用幾乎在法律真空中進行。在COMPAS案件中,Loomis認為COMPAS屏蔽加權和計算再犯風險得分的公式,致使其沒有“糾正”和“沒有否認或解釋”的救濟機會;Billy Ray Johnson案件中,被告人比利對檢測犯罪現場DNA的True Allele系統的輸出結果表示懷疑,專家證人試圖檢驗該軟件的源代碼時,被True Allele系統的所有者即Perlin公司以“商業秘密”的理由拒絕,6導致被告人無從獲得救濟。目前我國尚無明確的法規和程序對人工智能系統的輸出結論進行審查,當事人即使對算法自動化決策產生質疑也難以獲得法律救濟。

(二)算法自動化決策阻礙公平公正

首先,算法自動化決策不可避免地產生歧視。例如,美國針對犯罪傾向性預測的人工智能系統(COMPAS)應用中,無論技術人員如何調整機器學習的策略和算法,人種和膚色都是無法抹去的高優先識別變量,導致有色人種的犯罪傾向遠遠高于非有色人種。據學者分析,美國司法領域廣泛使用的犯罪評估軟件COMPAS對黑人評估的累犯分數高于處于同樣困境的白人。1美國國防專家對紐約市犯罪實驗室中的統計軟件(“FST”)的源代碼審查后認為,“FST軟件輸出數據的正確性應該受到嚴重質疑”2,建議紐約犯罪實驗室停止使用“FST”。由于當前人工智能系統多由私人企業研發,利益驅動下的研發難以保障算法系統的客觀公正,私人企業追逐利潤的目標亦與公平公正的要求南轅北轍。在人工智能技術實踐先行的模式下,目前各地大張旗鼓地出臺促進人工智能發展應用的政策規劃,卻鮮見對算法問題監管進行立法,導致算法歧視的危害難以糾偏。

其次,算法運作的“黑箱”特征難以對因果關系進行認定。算法技術分為黑箱、白箱、感知、奇異等類型。目前大多數算法系統采用“黑箱類型”,那么影響結果的每個因素占多大權重,或如何相互疊加影響最終結果,公眾無從知曉,這就導致具體案件中個人的權利難以救濟。在Loomis案件中,被告提出量刑軟件的運作過程不能“排除合理懷疑”,要求對其源代碼進行檢測,試圖驗證算法運作是否有問題,但被法院駁回這一請求。從技術角度看,機器在無窮無盡的數據堆中具有不受限制的識別巨量數據的能力,很容易掩蓋層層的鏡面和運算中的非法歧視。美國辛辛那提大學刑事司法研究中心的報告表明,只有30%的人工智能系統在廣泛使用之前對算法進行了驗證。3當案件關鍵證據的取得不合法、證據的證明力無法驗證時,法治的根基不再牢固,司法公正將蕩然無存。在不清楚算法系統運作模式的情況下,法律根本無法對算法進行有效監督。其結果是,只講效率不問因果、只重結論不講目的的算法發展,將走入技術工具主義的死胡同。

二、歐美算法解釋權的模式及比較分析

以算法為核心的人工智能技術對公民個人權利造成了不可忽視的影響,算法解釋權成為當前法律研究的熱點?!靶畔r代的法律媒介是信息性和溝通性的”4,美國針對算法自動化決策問題采取個案救濟的外部問責機制,歐盟頒布《通用數據保護條例》(下文簡稱GDPR)確立了內部監管模式,逐步將算法規制納入法治軌道,這兩種模式對我國算法解釋權的構建都有借鑒意義。

(一)歐美算法解釋權的模式考察

算法自動化決策系統能夠處理高度復雜和多層面的數據,是世界各國大力發展的新技術。為了避免算法這種新興技術的消極作用,美國和歐盟分別形成了模式不同、特色各異的算法解釋權機制。

1. 美國的外部問責模式

美國的人工智能技術發展迅速,IEEE(電氣和電子工程師協會)率先發布《人工智能設計的倫理準則》白皮書對人工智能技術進行規制,隨后美國公共政策委員會2017年發布《算法透明性和可問責性聲明》,通過公民個人申請這種外部問責的方法提供算法解釋。例如,Pich v. Lightbourne5案是個人申請法院對算法進行問責的典型案例,原告提起訴訟認為“Calwin自動福利管理系統有編程缺陷,導致對個人福利的錯誤計算和利益自動終止”。法院經審查認為,司法不需要對評估軟件每次運行過程都進行干預,除非程序出現“嚴重失敗”。原告福利自動終止是由于人為錯誤而不是Calwin錯誤,故算法程序并未出現“重大失敗”,不必進行審查。1與之相對,在K.W.Exrel.D.W. v. Armstrong 一案中2,法院判定,州政府需要充分告知民眾救濟金數目發生變化的具體原因,如問卷特定項目的答案發生變化,或者是其他解釋和根據。個案審查模式通過訴訟開啟了算法解釋權,但這種“不告不理”的外部問責提供的救濟范圍畢竟有限,難以全面保護公民個人權利。

2. 歐盟的內部監管模式

歐盟很早就關注人工智能發展的法律治理問題,GDPR通過敦促數據控制者、處理者建立內部問責制度對算法進行持續性和系統性的規制。首先,GDPR第22條賦予個人對算法自動化決策的反對權,僅在合同履行、經歐盟或者成員國法律授權以及基于數據主體明確同意三種情況下,數據控制者才能對個人數據分析形成自動決策。3其次,GDPR對數據控制者、管理者的內部監管模式側重事前和事中控制,GDPR在第13條、14條要求數據控制者通過告知算法邏輯、運算后果的方式賦予權利人知情權?!皵祿刂普呤占畔⒑瞳@取個人數據時應當履行事前通知義務”、“向數據主體提供自動化處理過程中運用的邏輯以及該種數據處理對數據主體的重要性和可能產生的后果”。GDPR第15條規定賦予個人訪問權,即“數據主體有權向控制者確認與其相關的個人數據是否正在被處理,以及有權要求訪問與其相關的個人數據并獲知詳細信息”。最后,GDPR第35條確立了數據保護影響評估制度以加強數據控制者的隱私風險管理責任意識。

(二)歐美算法解釋權的差異之處

1. 算法解釋權的對象不同。在美國的外部問責模式中,法院對算法審查的對象是算法的具體決策,即當算法決策出現“嚴重失敗”時才需要進行審查;歐盟GDPR中規定的算法解釋權包括算法決策的重要性、運算邏輯以及該算法決策可能對個人產生的結果等內容,很明顯要求對算法系統進行解釋。算法解釋權的對象究竟是算法系統還是具體的算法決策,對個人權利的影響差異很大。如果算法解釋權的對象是算法系統,那么解釋的內容應當包括算法系統的編程規范、預定義模型、訓練參數、輸入數據摘要、運行邏輯、模型測試、訓練或篩選等相關信息等;如果算法解釋權的對象是具體的算法決策,則應當對該具體決策產生的因果關系、運算邏輯等問題進行解釋。如果立法者將算法解釋的對象確認為二者兼有的模式,那么立法者需要以精細化的場景設置確定何種情況下對什么進行解釋。很明顯,美國算法解釋權的對象是具體決策,僅對算法系統進行部分審查,歐盟算法解釋權的對象是算法系統,因此規定了對公民知情權、異議權等權利進行事前審查機制。

2. 算法解釋權的標準不同。歐盟GDPR傾向于易讀性標準,即算法解釋的義務主體對算法的解釋不應當僅僅是將影響算法做出決策的相關因素進行公布,而且對相關因素的公布必須要使用相對人易于理解的方式,這與GDPR要求的算法解釋可理解性的基本原則是一脈相承的,對算法解釋的義務主體提出了較高的義務要求,加強了對弱勢地位相對人的權利保護。美國的個案審查模式對算法解釋權的標準則需根據不同訴訟類型的證明標準而定,例如,State v. Loomis案的訴訟請求是COMPAS量刑軟件的決策過程,就需要采取刑事訴訟案件“排除合理懷疑”的證明標準;Pich v. Lightbourne案的訴訟請求是Calwin自動福利管理系統的決策過程,采取的是行政訴訟“舉證倒置”的證明標準。但是,由于算法的復雜性、專業性等原因,訴訟中無論國家機構還是個人對算法運算的舉證均難以使訴訟雙方(尤其是陪審團)清楚地理解,這是算法解釋權構建中必須考慮的問題。

3. 算法解釋的時間不同。歐盟GDPR通過賦予個人知情權、數據訪問權、異議權以及數據保護影響評價制度采取事前規制的模式,以降低算法決策對個人權利的消極影響。與之相對,美國的個案審查模式則是事后對算法的決策進行解釋,更多地側重對公民權利的補救。歐盟和美國對算法解釋有著事前解釋和事后解釋的區別,直接導致公民權利保護范圍的差異。例如,很多民眾因沒有時間、精力進行訴訟,即使其對算法決策的結論心生懷疑也往往不會向法院提起訴訟要求解釋算法的決策過程,更何況美國現行的司法判例并非支持所有申請算法解釋的訴訟請求。隨著人工智能技術不斷發展,算法會應用到越來越多的領域,事前解釋會使算法開發者、使用者審慎對待個人數據的處理和決策問題,事后解釋可能使算法開發者、使用者抱著僥幸心理,放任決策偏差現象。

(三)歐美算法解釋權的共同之處

1. 促進技術安全發展

在全球第三次科技革命浪潮中,美國率先出臺了《人工智能設計的倫理準則》白皮書、《算法透明性和可問責性聲明》對算法進行規制,歐盟也頒布GDPR強化個人數據控制者、處理者的責任以加強算法決策的科學性,都是為了促進人工智能技術安全發展、造福人類。如果算法應用到分類預警、信用評估、資格鑒定等公共服務領域出現重大錯誤,輕則損害國家機關公信力,重則引發廣泛的社會抗議,甚至部分人工智能倫理學者以“某算法違反技術倫理”為由要求禁止該技術應用。因此,認真審視算法應用中出現的問題,通過法律規范尋求解決問題的對策是促進技術發展的正確方法,無論美國事后對算法決策進行解釋,還是歐盟事前對算法進行規制都體現了以法律規制促進技術安全發展的宗旨。

2. 限制政府權力

算法在公共服務領域的決策往往作為行政許可、行政處罰等行政行為的參考依據,一定程度上發揮著行政行為單方行為性、強制性效果,無形中掩蓋了程序瑕疵、甚至出現錯誤行政行為問題,導致政府權力難以監管。State v. Loomis案和State v. Andrews案凸顯了公權力對犯罪風險的嚴密監控,Pich v. Lightbourne案表明政府對個人福利計算的非公開性與排他掌控,表明算法系統的應用帶有明顯的公權力監控色彩。美國人工智能技術發展走在世界前列,人工智能研究人員及IEEE一直呼吁算法黑箱問題應受到監管,因此美國公共政策委員會頒布《人工智能設計的倫理準則》對算法提出透明度要求。歐盟GDPR適用于歐盟各個成員國,除了通過對數據控制者、處理者的行為加強監管以限制算法自動決策的消極作用,還對不同成員國之間數據跨境流動作出規制,實際上限制了政府以概括的“公共利益”為由濫用公民個人數據的權力,是人工智能時代限制政府權力邁出的重要步伐。

3. 加強個人權利保護

算法解釋權始于個人數據收集,通過監管個人數據的處理來影響個人在社會生活領域方方面面的權利。例如,疫情防控預警系統可能把某人列為高危人群進而限制其行動自由,征信評級系統可能把某人列入失信名單而限制其報考公務員。歐盟GDPR從個人數據的收集、處理階段就通過對相關人員權利告知、賦予自動化決策反對權等內容保護其個人權利,并且在事中賦予個人訪問權以保證相關權利人的知情權。美國通過個案審查的模式賦予公民救濟權,雖然時間上相對滯后,但提供的權利保護具有強制力。從這一點來看,歐盟和美國的算法解釋權在加強個人權利保護方面殊途同歸。

三、我國構建算法解釋權的法理基礎

《個人信息保護法(草案二次審議稿)》(以下簡稱《個人信息保護法(草案)》)第25條明確提出,“通過自動化決策方式對個人權益有重大影響的決定,個人有權要求信息處理者予以說明,并有權拒絕個人信息處理者僅通過自動化決策的方式作出決定”,這一規定奠定了我國算法解釋權的法律依據。那么算法解釋權在公共服務領域如何克服“商業秘密”保護的抗辯?

(一)公共服務領域算法解釋之必要

1. 算法具有公共服務屬性

伴隨“互聯網+”的發展,算法日益應用到公共服務領域,那么當算法治理事關公共利益時,重新審視算法定位及其屬性是必要的?!墩畔⒐_條例》第2條規定“本條例所稱政府信息,是指行政機關在履行行政管理職能過程中制作或者獲取的,以一定形式記錄、保存的信息”,因此公共服務領域的算法應用也具有公共服務屬性,應當提出與政府信息同等程度的透明度要求。開發、應用征信評級、風險評估軟件的企業實際上行使著“準公權力”的角色——當COMPAS算法程序作為量刑的參考依據時,風險評估工具肩負著公共利益職能,而非僅僅是私人企業的產品。就像上市公司定期披露財務報告一樣,私營公司在決定將算法系統作為公共服務的輔助工具時,應承擔維護公共利益的隨附義務。如果算法決策的結論涉及公民福利、社會安全等公共利益,此時算法已經從技術工具的角色轉化為公權力服務的一部分。1美國1996年頒布《信息自由法》授予個人獲得政府檔案的權利,在Chrysler Corp.v. Brown案件中,私人企業反對根據《信息自由法》的要求公布商業秘密記錄時,法院駁回其主張并認為“當信息獲取對于保護公共利益必要時,一些平衡和調節是可取的”2。所以,提供公共服務的私營公司應與公共機構保持相同的透明度要求,并應擴大信息披露,包括算法系統的運行過程,以此來實現這一要求。

2. 商業秘密披露之必須

算法的運作過程是其開發企業維持市場競爭力的關鍵,因此很多科技企業以“商業秘密”為由拒絕對算法進行解釋,導致算法運作呈現“秘密性”“商業價值性”和“需保密性”特點。然而,當算法的運作過程侵犯了個人基本權利、甚至影響到了社會公共利益時,如何對算法進行解釋呢?

“允許公司通過商業秘密保護來保持競爭優勢的想法,必須讓位于公共利益,因為公司的私人利益不能與公共利益相對抗?!?公共利益對商業秘密的抗辯原則是英美法律中的慣例,最初適用于非法利用商業秘密行為的抗辯,后來逐漸發展為公共利益抗辯原則,并對基于公共利益應當公開的事項作了特別要求。4英國法律委員會在“商業秘密濫用咨詢報告”提出“為維護公共利益,以下情形不構成商業秘密侵權:(1)向合適之人披露保密信息是出于制止、發覺或揭露(a)一項已經或按計劃將要發生的犯罪行為、欺詐行為或違反法定義務的行為;(b)一項本質上屬于欺詐社會公眾的行為;(c)現在或將來會危及公眾健康或福利的事項;(2) 依據保密法律制度具有公共利益這一正當理由的任何使用或披露信息的行為”5。之后英國《1998年公共利益披露法》將上述情況納入立法條文。美國判例確定的公共利益披露事由包括國家安全(Republic Aciation Corporation v.Schenk)1、方便公眾利用公共設施(Westcode Inc v. Daimler Chrysler Rail Systems)2、維護商業道德和自由競爭秩序(Pepsi Co Inc v. Kitsonas)3以及保護憲法賦予的基本權利(Preminger v. Principi)4等理由。從確保公平正義的角度來看,人工智能算法系統的運作過程應盡早披露。由于公共服務的受眾數量眾多、影響力大,政府也投入了大量資源來購買和學習人工智能技術;如果不在事前檢測算法系統的準確性、可靠性,而在被告對算法系統提出質疑時再進行源代碼檢測,則可能造成大量的資源浪費,也會對個人權利造成不利影響。所以,算法研發者不能以“商業秘密”為由拒絕披露算法運算過程。我國《個人信息保護法(草案)》第25條明確規定“利用個人信息進行自動化決策,應當保證決策的透明度和處理結果的公平合理”;第48條賦予“個人有權要求信息處理者對其個人信息處理規則進行解釋說明”的權利,都是“商業秘密”披露的法律基礎。

(二)算法解釋權的技術要求

《個人信息保護法(草案)》第55條要求信息處理者對個人信息處理活動在事前進行風險評估,包括:“1.個人信息的處理目的、處理方式等是否合法、正當、必要;2.對個人的影響及其風險程度;3.所采取的安全保護措施是否合法、有效并與風險程度相適應”。為增強信息處理者風險評估的準確性,有必要公開算法運算過程的關鍵參數以使公眾相信算法輸出結論的可靠性,提高風險評估的公信力。

1. 公開算法模型

公共服務領域應用的算法事關公民基本權利,不應被置于秘密黑箱之中,而應在投入使用之前公開算法模型接受公眾檢驗。提前公開算法模型能夠為公眾提供知情權,在應用廣泛的算法決策領域,應該公開算法解釋的模型以避免黑箱模型的使用。中國人民銀行頒布《金融分布式賬本技術安全規范》(JR/T 0184—2020)中明確規定,“在可計算性理論中,一系列操作數據的規則可以用來模擬單帶圖靈機”,即通過圖靈完備原則進行算法模擬。我國《數據安全法(草案)》中提出了重要數據處理者的風險評估制度,以及政務數據委托處理的批準程序也是公開算法模型的法律依據。在Loomis案件中,COMPAS軟件的設計者ProPublica曾發布報告對該軟件的決策邏輯進行解釋,明確提出“COMPAS軟件的輸出數據可能存在種族歧視的算法偏差”1。通過立法的方式限制黑箱算法的使用范圍,規定對黑箱算法設計者和控制者的法律責任,才能從事前和事中對人工智能的算法邏輯進行實質的監管和追溯。

2. 公開源代碼

歐美學者提出,“公開模型對算法邏輯進行解釋無法完全避免算法歧視,披露計算機源代碼增強算法決策程序透明度是降低算法風險的最佳措施”2。源代碼保密不僅對刑事被告和司法公正造成危害,而且不利于技術創新。Loomis案件中,盡管開發COMPAS軟件的Northpointe公司已經公開測試算法決策的過程,但它拒絕透露數據是如何加權得出的再犯風險評分,仍然有悖司法公正。美國明尼蘇達州使用的酒精呼吸測試系統Intoxilyzer的源代碼經過驗證后顯示,“缺陷系統”不能輸出準確的結論。3因此,公開源代碼確保算法公平公正具有重要作用。

當人工智能系統應用于公共領域時,公開源代碼并接受公眾的驗證,是企業承擔社會責任的必然要求。美國俄勒岡州要求算法設計者公開算法源代碼,并提供犯罪風險評估的“16個變量及其權重”4。谷歌大腦團隊將算法比喻成“人工神經網絡的核磁共振成像”,并公布“可解釋性的基礎構件”的研究成果,這種開源化處理使得其他技術人員能夠在此基礎上編寫適用于不同算法和場景的解釋性算法。我國《政府信息公開條例》第9條規定,“涉及公民、法人或其他組織切身利益的信息應主動公開”,是算法系統公開源代碼信息的法律依據。從技術角度看,應用于公共服務領域算法系統的開發者應在事前將算法運行信息公開披露,以便及時發現和糾正算法偏差,并通過持續審查算法更新后的情況,作為算法系統進一步創新的動力,開發出更加完善的算法系統。

3. 公開算法運算基本規則和因素權重

2020年4月加拿大生效的《自動化決策指令》要求使用算法決策的公共部門應就其決策向受影響的個人提供有意義的解釋,包括決策中使用的變量因素。德國法律也要求政府部門使用的算法必須公布:(1)有關程序輸入和輸出數據的數據類別的信息;(2)算法所涉及的邏輯,尤其是使用的計算公式,包括輸入數據的權重,基本的專業知識以及用戶部署的個人配置;(3)最終決策的范圍以及程序可能產生的后果。1由此可見,針對行政相對人提供具體的算法解釋已逐漸成為各國的實踐做法,如果政府機構僅僅以算法運行不能直觀地作出解釋就拒絕公開算法系統的基本規則和因素權重,則違反了行政行為公開透明的基本原則。1992 年美國聯邦公路管理局拒絕披露用于計算運營商安全評級的算法,但法庭認為這違反了《信息自由法》中政府披露政府信息的要求,判決聯邦公路管理局必須披露計算中所用因素的權重。2因此,公開算法運算基本規則和因素權重是公共服務領域算法決策遵循信息公開原則的必然要求。

(三)政府主導核心領域算法開發

為避免私人企業以商業秘密為由拒絕披露源代碼,政府可在國計民生領域通過自己開發算法系統來滿足公民基本權利保障的要求。在犯罪風險評估、征信評級、稅收、醫療等公共服務領域,政府實際上是這些技術的主要(或唯一)購買者,與其強制私人企業公開算法過程,不如政府主導人工智能軟件開發,以實現算法開發時公開源代碼和公開算法模型的技術要求,維護公共利益。

1. 自主開發

國計民生核心領域的算法運行事關公共利益,必須由政府自主開發人工智能系統。例如,美國俄亥俄州的康復與矯正科就建立了自己的全州風險評估系統,以“改善一致性,促進刑事司法機構之間的溝通”3。我國各地正在如火如荼建設的大數據產業集團就是政府自主開發人工智能的典例。為貫徹算法解釋權,算法開發時需要法律人員和技術人員合作,通過法律人員向技術人員解釋法律規則的要求,技術人員根據要求設計出符合法律要求的算法——法律技術工程師這一職業正在悄然興起。

2. 資助企業研發

在國計民生核心領域外的公共服務領域,政府可通過資助企業研發的形式獲得算法系統的產權。例如,政府以項目招標的方式為承擔者提供資金,同時要求研發者公開源代碼或其他相關信息。政府資助企業研發人工智能系統可采取直接資助和間接資助的方式,最簡單的途徑是通過合同支付研發費用,以獲得被開發產品的產權。此時政府研發可采取類似監管的專賣政策,或采取政府采購與單獨的來源協議相結合,即購買某種特定技術或服務的協議的方式資助人工智能研發,這實際構成了一種排他性監管的形式。此外,政府購買算法系統時,為補償研發企業公開商業秘密的損失,可通過稅收、獎勵等途徑進行補償,如為算法開發者提供更高的購買價格或更長的單一來源合同條款;或者政府為這種技術的發展設立獎勵。

結? ?語

如果說前兩次人工智能浪潮以技術研究為主導,那么第三次人工智能浪潮是以實踐應用為目的。算法系統已經悄無聲息地應用到公共服務的各行各業,“‘大數據時代背后所隱藏的商業價值驅動著企業、個人不斷地借助數據挖掘等現代科技手段實現其商業利益的最大化”1,但“商業秘密”保護下的算法侵犯個人的隱私權和知情權,妨礙公平公正已經成為不容忽視的問題。算法應用于公共服務領域時具有公共服務屬性,此時算法系統的商業秘密應讓位于公民基本權利保障。我國《個人信息保護法(草案)》設立了以算法系統為解釋對象、以事前監管為原則、以透明性和公正合理為標準的算法解釋權體系,比GDPR更進一步保護了個人基本權利。在中國特色算法解釋權的構建中,應從規范上明確“易讀性為標準,反設事實為例外”的透明性內涵,完善算法事后審計制度,加強算法監管;在技術上公開算法模型、公開源代碼、公開算法運算基本規則和因素權重,確保公眾知情權;在實踐上由政府主導國計民生核心領域的算法開發以保障數據安全,走向算法應用公開公正的新時代。

[責任編輯 李宏弢]

猜你喜歡
個人信息保護法商業秘密公共利益
談談個人信息保護和公共利益維護的合理界限
個人信息的法律保護
個人信息保護法在大數據時代的適用和域外效力
個人信息保護法域外效力研究
美國《保護商業秘密法》的立法評價
論專利行政執法對公共利益的保護
美國對涉華商業秘密的“337調查”及國內行業的應對做法
表達自由語境中的“公共利益”界定
論公共利益的界定與情況判決的重構
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合