?

人工智能趨勢下自動化行政的個人數據保護機制之構建

2020-09-10 07:22夏韻
信息技術時代·下旬刊 2020年5期
關鍵詞:數據保護公民算法

自動化行政借助電子媒介開展行政活動,為行政效率的提高和行政流程的再造提供了可能性,而對人工智能技術的引入則使其應用實效進一步提升。但與此同時,人工智能趨勢下的自動化行政亦顯現出多方面的潛在風險,其中較為突出的是智能系統對信息供給的高需求為公民個人數據保護所帶來的挑戰,包括敏感個人數據采集常態化、智能系統之算法歧視缺乏有效監管等。2018年5月25日,歐洲聯盟出臺《通用數據保護條例》,對企業獲取和使用個人數據作出體系化規制,也為我國自動化行政中個人數據保護機制之構建提供了參考。

一、概述

相較傳統行政模式,人工智能趨勢下的自動化行政顯現出其獨特的優越性,能夠大幅提高行政行為的效率,促進對公共資源的合理配置,其特征是以自動化設備的運作過程而不必人為操作的程度來衡量。但人工智能技術在行政行為中的引入也并非全為裨益。人工智能中樞對行政行為之范式的深度學習及此后在個案中應用是以數據庫的支撐為基礎。如在人工智能的研發階段,需要大規模的數據儲備;人工智能的運行階段,是為個人提供個性化服務的過程,是收集用戶信息、生成新信息的過程。因此,當人工智能技術廣泛應用于行政領域后,勢必會對行政相對人的個人數據保護造成威脅。2018年5月25日,歐洲聯盟出臺《通用數據保護條例》(GDPR),對企業采集、處理、流通公民個人數據的行為作出了系統化的規制,也為我國自動化行政中個人數據保護機制的構建提供了參考路徑。

二、個人數據保護視閾下自動化行政智能化的潛在風險

(一)常態化采集生物性識別數據

隨著人工智能技術的發展,虹膜、面部信息等生物性識別數據的使用率有所提高,“刷臉支付”功能的推出更是將人臉識別技術推向了新一輪的應用高峰。在自動化行政領域,該技術亦逐漸擴大使用。例如,目前已有多個城市在交通管制中引入“電子警察”系統。毋庸置疑,這一系統的引入的確能夠對交警部門起到有效的輔佐作用。然而,面部信息等生物性識別數據相較姓名、聯系方式等個人信息具有其特殊性,此類信息的泄露具有不可逆性。以支付領域中的個人信息為例,當傳統數字型密碼泄露后,用戶可通過修改密碼的方式防止個人賬戶被盜用。但當可用于“刷臉支付”的面部信息被泄露后,公民很難采取措施逆轉由此可能產生的不利后果。雖然目前的人臉識別系統多配備活體檢測功能,僅通過照片很難破解。但當3D結構光技術逐漸發展后,未來通過對人臉結構光的解析運算和3D打印相結合將極有可能產生能夠破解人臉識別系統的人臉面具,屆時將使面部信息泄露帶來的風險大幅提升。

(二)智能系統的技術性瑕疵缺乏有效監管

隨著人工智能技術的日臻成熟,人工智能系統逐漸成為一個決策過程不可見的“黑箱”,機器學習模型的內部決策邏輯并不總是可以被理解的,即使對于程序員也是如此。算法黑箱的存在將導致作出行政決策的內部邏輯和依據出現不透明性。同時,人工智能系統已經被發現存在“算法歧視”問題。因此,當算法黑箱和算法歧視同時存在時,就將導致部分行政決策由于智能系統內部的算法歧視而在公民的個人數據間產生傾向性,產生對行政相對人不公正的后果,同時,這種不公正性又將因為算法黑箱而無法被行政部門和行政相對人所知曉,對行政法的合理行政原則和程序正當原則提出巨大挑戰。

(三)存在過度使用個人數據之嫌

人工智能趨勢下的自動化行政強調信息融通,各行政部門間建立信息聯動機制,以期建立數據源最健全的人工智能中樞。然而,這種對公民個人數據采集后提供給其他部門進行二次使用的行為模式的正當性是有待考量的。例如,當公民以辦理證件為目的同意某部門采集其面部數據時,該部門是否有權將采集到的信息歸入智能數據庫,使交警部門能夠借助“電子警察”系統對違規行人的面部數據進行比對?而在前述對公民個人數據聯動使用的情景中,顯然已經明顯不符目的限制原則。因此,當前自動化行政中對公民個人數據的處理方式存在過度使用之嫌,有權采集并不意味著有權控制數據之流通,行政主體在自動化行政中需厘清其處理公民個人數據的權限邊界。

三、我國自動化行政中個人數據保護機制的構建路徑

(一)確立行政主體的算法透明度義務

在構建自動化行政的法律規制時,應當確立使用自動化行政的行政主體的算法透明度義務。以行政許可為例,《行政許可法》第三十八條規定:“行政機關依法作出不予行政許可的書面決定的,應當說明理由?!痹谧詣踊姓沫h境下,行政許可決定不再由行政主體直接作出,而是由智能系統作出。傳統行政模式下行政主體作出行政許可決定的原因轉化為自動化行政模式下智能系統作出行政許可決定的算法依據。據此,此時應對《行政許可法》第三十八條中的“理由”作擴大解釋,即“理由”包括智能系統的程式邏輯、內部算法,否則將導致在自動化行政中該條款無法有效適用。此外,當存在算法歧視的潛在風險性時,不同行政相對人的個人數據被賦予或優或劣的傾向性,這意味著行政相對人在行政行為的實施過程中地位不再平等。而確立行政主體的算法透明度則一方面可以通過社會監督反作用于行政主體,促進其盡可能完善自動化行政的智能系統、盡可能規避算法歧視問題,促進行政相對人得到公平對待。

(二)構建行政相對人個人數據之被遺忘權

在不影響行政主體正常行使職能的范圍內清除可能造成智能系統傾向性的過往數據,以良好的數據庫基礎支持自動化行政智能系統合理運作。此種對數據的合理清除即為被遺忘權,即權利主體享有要求義務主體立即清除與其相關的個人數據,而義務主體在沒有正當原因的情況下不能延誤清除數據主體個人數據的權利。自2012年歐盟委員會提出創建被遺忘權以來,其在多國司法實踐中得到體現。構建個人數據之被遺忘權,不僅僅是出于數據隱私保護的需求,同時也是出于應對人工智能系統潛在技術性瑕疵的需求。

(三)注重個人數據權利之內涵微觀化

我國目前關于保護公民個人信息的法律規制可見之于《侵權責任法》、《消費者權益保護法》、《刑法》及司法解釋等多部文件中,碎片化現象嚴重,進而又導致無法對個人數據權利的權利內涵作出體系性的規定。據此,筆者認為在構建自動化行政的個人數據保護機制時,應當注重權利內涵微觀化——即保障公民個人數據的法律規制應當細化體現在獲取、使用、保存階段中的不同權利,例如在獲取數據階段行政相對人要求其說明數據用途的權利、在數據使用階段行政相對人要求數據在行政相對人此先說明的范圍內使用的權利、在數據的保存階段行政相對人要求在合理范圍內行使被遺忘權的權利。如此方可使對行政相對人的個人數據保護機制能夠真正產生實效,對各類侵犯行政相對人數據權利發揮有效規制作用。

參考文獻

[1]張順彬,孟然,李博:《對行政自動化的再思考》,《遼寧經濟》2005年02期。

[2]雷悅:《人工智能發展中的法律問題探析》,《北京郵電大學學報(社會科學版)》2018年第1期。

[3]盧有學,竇澤正:《論刑法如何對自動駕駛進行規制———以交通肇事罪為視角》,載《學術交流》,2018年4月。

[4]李慧:《被遺忘權的本土化研究》,《法制博覽》2018年10月.

作者簡介:夏韻(1998.09-),女,浙江杭州人,學歷:2017級本科生。

猜你喜歡
數據保護公民算法
中國公民分批撤離烏克蘭
Travellng thg World Full—time for Rree
歐盟最嚴數據保護條例生效 違反將嚴懲不貸
歐盟“最嚴”數據保護條例生效
未成年人能不能上社交網絡
學習算法的“三種境界”
算法框圖的補全
算法初步知識盤點
公民并積極著
公民生來有權說話:言論自由海報
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合