?

商業機構用戶畫像應用的政府治理責任研究

2024-05-09 21:53吳亮
關鍵詞:畫像規制個人信息

吳亮

商業機構用戶畫像應用的政府治理責任研究

吳亮

(華東理工大學法學院,上海,200237)

商業機構的用戶畫像目前在人工智能系統、智能預測、場景識別等方面得到廣泛應用,其“監控式”信息匯集方式帶來的個人信息侵權風險、算法決策帶來的過濾泡效應與差別對待風險,對政府的用戶畫像治理形成新挑戰。我國已初步形成用戶畫像發展與治理的政策體系,相應法律框架也逐漸成型。在國際上,用戶畫像治理的政府責任包括個人信息治理和智能算法治理兩種不同的模式,政府的用戶畫像治理責任應當在憲法的國家保護義務框架下,實現發展促進與風險預防的價值協調。我國應通過頂層設計對治理模式進行延伸迭代,推進個人信息治理與智能算法治理的協同,并且將預警原則和國家擔保責任原則作為治理責任的分配原則。

用戶畫像治理;政府責任;個人信息治理;智能算法治理

隨著人工智能掀起新的技術革命,用戶畫像作為一種數據分析工具獲得廣泛應用。所謂“用戶畫像”(user portrait),是指通過收集、匯聚、分析個人信息,對特定自然人的職業、經濟、健康、教育、喜好、信用、行為等做出分析或預測,形成個人特征模型的過程[1]。無論是國家層面的公共治理還是私人層面的精準營銷,都通過用戶畫像收集、挖掘和分析公民個人信息,描繪人格輪廓或群體概貌,進而預測使用者的特質或需求。在國外,劍橋分析公司利用臉書(Facebook)使用者的網絡活動記錄建立用戶圖像,對社會公眾精準投放政治宣傳廣告,預測和影響總統選舉活動。谷歌、微軟等商業機構結合用戶在搜索引擎和網站的瀏覽與交易記錄,分析其潛在消費需求與消費能力,使其個性化推薦和廣告投放更加精準。在國內,政府部門匯聚低保、殘疾人、優撫等保障對象的數據,制作困難群眾的個人畫像,為疫情防控、社會救助與精準扶貧提供支持。人民銀行征信系統、百行征信等機構收集、處理和共享源于金融機構、互聯網金融的信用數據,依法合規向社會提供公民的個人信用畫像,為普惠金融服務提供良好助力。然而,用戶畫像在增加消費者便利、促進產業創新與社會管理而受到青睞的同時,也帶來網絡社會治理的新挑戰?!氨本┐笊锌萍加邢薰九c羅懿個人信息保護案”“王某訴每日優鮮公司隱私侵權案”等都表明,某些商業機構忽略了個人信息不當收集和使用、算法決策帶來的過濾泡效應與差別對待風險等問題。由于用戶畫像引起的法律問題具有復雜性,目前的法律治理框架難以徹底解決。政府應當順應用戶畫像自身的邏輯和規律進行治理,在借鑒國內外經驗的基礎上探索改良創新的路徑。囿于篇幅,本文的討論以商業機構的用戶畫像應用為主,不涉及公共部門的用戶畫像應用。

一、用戶畫像的廣泛應用及對政府治理的挑戰

(一) 用戶畫像的廣泛應用及其特征

“現代信息社會是由資訊網絡形成的社會結構,并被不斷創新的高科技所推動?!盵1]用戶畫像的法律規范雖然是制度構建問題,但是首先要面對的是技術認知問題。用戶畫像的理念最早是由交互設計之父庫柏(Alan Cooper)于1999年提出的,指“通過真實數據分析得出標簽化的目標用戶模型”[2]。換言之,給個體或者群體用戶貼上多維度、提煉化的標簽,加以綜合就能勾勒整體特質的畫像,例如健康畫像、信用畫像等。用戶畫像的數據內容廣泛,涉及人口屬性、興趣特征、消費特征、位置特征、設備屬性等。網絡服務提供者、社會治理機構在大數據與人工智能技術的基礎上,依托聚類分析、關聯規則等算法比對和分析用戶的行為記錄,全面描述和剖析其特征,合理預測其心理和行為。在技術上,用戶畫像需要經過“數據收集— 數據清洗(聚類分析)—細分假設—算法建?!獦嫿ó嬒瘛獔鼍皯谩钡牧鞒蘙3]。在功能上,用戶畫像可以挖掘用戶的個性化特質,洞察未來趨勢和人群差異,提升管理精細度、營銷精準度與服務匹配度。迄今為止,用戶畫像已經廣泛應用于人工智能系統、智能預測、場景識別等領域。

1. 人工智能系統的應用

用戶畫像借助由深度學習、智能算法、類神經網絡與大數據分析組成的人工智能系統的預測功能,對數據實現語義層、服務層的融合,提高行為預測與決策回應的科學性與客觀性。首先,嵌入深度學習技術的人工智能是人工智能的第四級—— 最高級類型。與設計者給予特征的機器學習不同,深度學習是由機器自己創造特征,提升了人工智能感知的自動化程度?;谏疃葘W習的智能算法配合類神經網絡(CNN)的使用,使機器得以模仿人腦進行函數演算和非監督式學習,分析與辨識出海量數據蘊藏的潛在規律,進而達到預測效果[4]。其次,類神經網絡是深度學習的技術基礎,模擬生物神經系統網絡進行信息處理的數學模型,其運作分為依據演算法對輸入數據進行運算的學習階段,以及通過神經元輸出計算結果和進行可靠性驗證的回想階段[5]。最后,大數據技術也是用戶畫像的重要技術依賴,可以針對海量數據進行比對和預測,在數據分析階段發揮關鍵作用。

2. 智能預測的應用

隨著人工智能系統的自動化,各領域的用戶畫像應用均在不斷拓展智能預測的探索。在商業營銷與金融領域,用戶畫像模型通過挖掘和剖析用戶的靜態和動態數據,勾勒產品服務的供需情況,進而精準預測消費者的潛在需求,挖掘用戶的偏好與情緒需求。在社會安保領域,基于用戶畫像的安保防控措施頗為常見,精準鎖定安全保衛熱點和維護社會治安。歐盟的乘客姓名記錄系統(PNR)的用戶畫像模型已能通過乘客的航空活動信息預測其社會關系、精神狀態和行動意圖,從而甄別可疑的恐怖分子[6]。不過,基于人格尊嚴、個人隱私及相關監管政策的限制,通過用戶畫像來預測個人行為的活動很大程度上處于被限制或禁止的狀態。

3. 場景識別的應用

用戶畫像有助于建立完善的用戶洞察模型,以行為區別用戶,提高社會管理者或者商業機構的場景識別能力。目前,用戶畫像的場景識別應用主要有以下兩種[7]:一是行為模式剖析,即為了研究行為模式以及既有行為的意義,通過歸納法、演繹法發現固定模式與解釋偏好規律。最常見的是利用網絡瀏覽記錄來追蹤在線消費者的活動,或者通過智能穿戴設備的手勢、行動、睡眠等資訊,推測消費者的個性特質、社交偏好等個人信息。二是定位剖析,即商業機構通過位置服務(LBS)、打卡記錄等來定位某區域內的大規模人群,推測其行程安排、導航路線、消費地點等,并用于精準營銷和廣告投放。不過,場景識別應用的生態仍然有待改善,用戶隱私安全與信任、多類型數據的使用、多維度數據的融合、行為預測的準確度等關鍵性瓶頸均有待突破[8],用戶畫像帶來的網絡社會治理風險也未被充分理解,這些都對場景識別應用的擴展形成阻礙。

(二)用戶畫像的政府治理挑戰

用戶畫像的應用蘊含巨大的社會與經濟利益,但是也帶來延伸性、滲透性的法律風險,需要依托政府、社會的多元協同治理才能有效應對。對于政府端而言,用戶畫像應用給政府促進發展與預防風險的治理能力提出了如下挑戰:

其一,用戶畫像所依托的“監控式”信息匯集方式極大削弱了用戶的個人信息控制能力,加劇了網絡社會中數據處理者與用戶之間的權力失衡,而個人信息保護制度缺乏有效應對機制。用戶畫像的第一個步驟就是匯整與統合不同來源的個人信息,發現其關聯性并且建立聯結,具體舉措包括:一是不對稱的秘密監視,用戶持續處于完全可見的透明狀態而數據處理者則不可見。二是對人群的全面檢查,通過分類識別、評價預測、賞罰獎懲等機制有效地引導用戶的行為模式。據調查顯示,一些商業APP暗中通過“擅自收集”“超范圍收集”等違規方式,精準且長久記錄完整的消費者圖像,用以預測、調控和獨占用戶的未來消費決策①。這種“監控式”信息匯集方式會造成新型個人信息侵權風險。信息處理者將用戶累積的數據提煉成零成本、高價值的資產—— 行為盈余(behavior surplus),通過向用戶索取、主動收集等方式萃取和重組描繪個體樣貌的數據。這種秘密監視方式持續時間長、分布區域廣,難以被覺察。個人信息的使用和流通由大數據與人工智能自動完成,用戶根本無從知曉和介入,從而侵犯到公民不受干擾和審查的信息自決權。

公私部門運用大數據技術系統、全面地收集用戶的個人信息,進而形成以信息監控為特征的監控社會。大量個人信息被匯整而成的特征描繪(profiling)使信息處理者能夠貼近觀察與監視用戶的一舉一動,甚至從中推敲出未經揭露但是更具敏感性、私密性的個人信息。用戶對其個人信息的控制程度逐漸降低,導致個人特質遭受他人詳盡觀察的“累積效應”[9]。美國法的“馬賽克理論”詳細描述了這種信息累加整合而產生的加權效果。隨著技術的進步,累積效應導致信息資料的可識別性標準出現相對化、流動化趨勢,弱化去識別化措施的保護效果[10]。任何不具有識別性的信息都可能通過與其他信息資料的交叉比對,轉變成為可識別的個人信息。這類信息資料由于已經公開或者被使用,導致無法再以個人信息的名義加以保護,由此產生個人信息保護的法律難題[11]。而且在整個監控的過程中,用戶毫不知情,甚至在追求消費便利的過程中自愿參加和主動接受規訓。后續的用戶畫像大多屬于超出收集目的的“目的外使用”情形,不僅復雜難測,而且欠缺透明度,用戶對其自身信息收集、使用的認知有限,甚至被排除在外而無法有效應對?!氨O控式”信息匯集方式造成事前告知同意程序失去意義,個體對個人信息的控制能力降低。

進一步而言,用戶畫像是依托高科技建構的“人際互動之虛擬形象”,識別、監視乃至塑造著個人在真實空間的消費主體面貌,蘊含著對社會成員產生自我規訓與隱形約束的權力效應。用戶畫像的全面檢查方式提高了商業機構對消費者的控制效率,使其淪為被觀察的檔案和被權力宰制的對象。其重點不是用戶的自我決定與發展軌跡,而是其行為模式必須受到商業機構的檢查,以及受到積分、評等、排名等獎罰機制的矯正和引導。商業機構通過用戶畫像來檢查和控制普通人的狀態,占據觀察和檢查的優勢地位,它和社會公眾之間產生“觀察者”與“被觀察者”的不平等權力關系,“深刻介入個人的內心與行動,根據人們的過去塑造人們的現在與將來”。

其二,依賴智能算法的標簽分類會嵌入程序設計者、決策者的主觀價值偏見,或者在關聯性分析中融入不符合社會價值觀的判斷,明顯扭曲決策的合理性,增加過濾泡效應與差別對待風險。用戶畫像的應用并非僅僅是取得用戶人格、喜好的特征描繪,更重要的是輔助決策。信息處理者運用智能算法對用戶數據進行關聯性分析,比對與預測用戶不為常人所知的人格特質,衍生個人并未直接提供的新數據,用以預測、調控和獨占用戶的未來消費或者行為決策,個性化推薦、行為定向廣告、智能安保設施就是典型案例。但是,這種用戶畫像應用雖然滿足用戶的個性化要求,但是也造成個體成員隔離于整體社會的影響人們對周圍環境正確認知的“過濾泡效應”。用戶畫像一旦分析出個人的心理偏好、消費傾向、行為模式,就會根據預測結果層層過濾,量身打造令其滿意的信息內容,隱藏不符合其意向的內容[12]。這種做法勢必導致個人接觸的信息同質化,容易窄化個人的認知范圍,進而影響到思想和行為自主性,減少人們對新理念、新行為或者社會互動的嘗試,侵害和限制人格的自由發展。

除了過濾泡效應之外,程序設計者、決策者在通過基于特征描繪的關聯性分析對用戶進行標簽分類時,在算法中可能會融入強烈的個人主觀偏見,導致差別對待的扭曲結果。這包括兩類情形:一是數據不當聯結,將人臉特征、聲音聯結到人格特質、性格取向、智力缺陷等,可能對特定群體造成嚴重的刻板印象與歧視對待。如根據現有的罪犯人臉數據庫辨識出具有某項特定人臉特征的公民,將其作為潛在罪犯予以重點防范,這種做法超越道德判斷與人格尊嚴保護的法律底線?!八惴ㄟ\算過程的不透明性,并不客觀完整的數據樣本,以及人類對人工智能技術的濫用和對算法決策結果的盲目自信,導致算法錯誤被進一步放大?!盵13]二是數據偏差引起的歧視。由于數據輸入的不準確、不完整、不及時,或者目標對象本身由于貧困、偏僻、漏報而影響了數據的精準性,都可能造成用戶畫像扭曲決策者對特定群體的正確印象,進而導致決策的不公正[14]。以刷單炒信現象為例,個人信息或者用戶評價的失真導致用戶畫像數據在收集階段就有嚴重瑕疵,并且影響到貸款、授信、交易等決策的客觀準確。

二、我國用戶畫像政府治理的政策立場與法律框架

自2018年以來,我國開始對用戶畫像相關活動進行法律監管。2018年5月,國家標準化管理委員會發布推薦性國家標準——《信息安全技術個人信息安全規范》(GB/T 35273—2017),標志著用戶畫像風險規制工作被納入政府治理的軌道。迄今為止,我國針對用戶畫像政府治理領域的政策立場日益清晰,法律框架也逐漸成形。

(一) 用戶畫像政府治理的政策立場

1. 對智能預測應用的積極支持

基于用戶畫像的智能預測應用是促進我國全面數字化轉型的重要舉措,得到了數字經濟、數字政府等領域的政策認可。在數字經濟領域,中央全面深化改革委員會《關于深化新一代信息技術與制造業融合發展的指導意見》以及上海市委、市政府《關于全面推進上海城市數字化轉型的意見》等地方性政策,均將基于用戶畫像的智能預測應用納入數據服務產業扶持政策體系中,強調要以挖掘社會數據要素價值為導向,統籌規劃、系統構建產品智能化與數據驅動的新興服務業態,促進相關的組織架構、算法規制、標準制定、安全評估等能力建設?!稄V東省人民政府關于加快數字化發展的意見》提出大力發展數據清洗、建模、可視化、用戶畫像、行業分析、信用評價等數據服務產業[15]。在數字政府領域,《國民經濟和社會發展第十四個五年規劃和2035年遠景目標綱要》提出“加強數字社會、數字政府建設,提升公共服務、社會治理等數字化智能化水平”的目標,為智能預測應用在公共服務、文化消費、小額信貸等領域的推廣奠定了政策基礎[16]。國務院《關于進一步優化營商環境降低市場主體制度性交易成本的意見》提出“對企業進行分類畫像,推動惠企政策智能匹配、快速兌現”。這些規定為政府促進用戶畫像與數字治理應用場景的結合,提供了有力支持。

2. 對場景識別應用的嚴格監管

自2018年起,我國對場景識別應用的政府治理日趨嚴格。以基于用戶畫像的定向推送服務為例,《信息安全技術個人信息安全規范》限制個人信息收集的明確身份指向性,避免用戶畫像精確定位到特定個人,如推送商業廣告不得直接使用基于特定自然人個人信息的用戶畫像[17]?!蛾P于開展APP違法違規收集使用個人信息專項治理的公告》倡導APP運營者在定向推送新聞、時政、廣告時,為用戶提供拒絕接受定向推送的選項?!缎畔踩夹g個人信息安全規范》新設用戶畫像的使用限制條款:個人特征描述不得包含恐怖迷信,危害國家安全、榮譽和利益等違法內容;用途也不得侵害公民、法人和其他組織的合法權益,不能危害國家安全、榮譽和利益?!痘ヂ摼W信息服務算法推薦管理規定》要求加強用戶模型和用戶標簽管理,不得將違法和不良信息關鍵詞作為用戶標簽并據以推送信息。

3. 對不當處理個人信息行為的強力約束

《信息安全技術個人信息安全規范》確立了用戶畫像對個人信息收集的“最小夠用原則”,并要求個人信息處理者的隱私政策應當涵蓋收集、使用用戶畫像的目的及各個業務功能?!痘ヂ摼W個人信息安全保護指南》依據用戶畫像的增值應用為用戶所帶來的法律后果的不同,將其區分為“不經用戶授權”和“經用戶授權”兩種形式,并強調用戶有反對或者拒絕的權利?!禔PP違法違規手機使用個人信息自評估指南》規定,如果APP經營者將個人信息用于用戶畫像、個性化展示等,隱私政策中應說明其應用場景和可能影響?!痘ヂ摼W個人信息安全保護指南》以是否可能為用戶帶來法律后果作為標準,劃分用戶畫像的用戶授權同意機制?!缎畔踩夹g個人信息安全規范》首次規定對信息系統自動決策的安全影響評估要求,以及對涉及申訴的決策結果增加人工復核的要求?!秱€人金融信息保護技術規范》明確將用戶畫像、特征標簽等加工后的信息納入個人信息或者個人敏感信息的范疇,強調整合個人信息須經本人授權同意。

(二) 用戶畫像政府治理的法律框架

法律是“體現時代特征并與公共政策保持密切親緣關系的規則體系”[18]。分析用戶畫像治理的政府責任、總結政策得失,離不開解讀既有的法律框架。盡管我國尚未針對用戶畫像的政府治理出臺專門性法規,但是治理的法律框架卻有跡可循。我國已經建立起一系列法律規范,既賦權政府預防與懲治犯罪、防范網絡風險、保障公民合法權利等多項責任,也授權政府實施多項舉措以促進大數據產業與推動數字治理的發展。這些法律規范為用戶畫像政府治理提供制度支撐,構成政府部門的責任界限。

1. 引導用戶畫像相關產業發展的法律框架

《數據安全法》確立了以數據開發利用與產業發展促進數據安全的統籌發展理念,對不同領域的專門性立法提供方針指引。這些專門性立法包括交通管理、公共安全、民生服務等方面的地方性法規、規章和規范性文件。如國務院出臺放管服改革優化營商環境法規,在信用信息的歸集共享基礎上形成完善的小微企業風險畫像,引導金融機構的普惠小微金融服務[19]。上海市施行“一網統管+精準救助”法規體系,匯聚多部門數據形成個人和家庭屬性標簽,從社區、家庭、個人三個維度對社區居民進行民生畫像,提高社會救助服務能級。上述法律規范已經為政府推動用戶畫像的發展提供了基本框架。用戶畫像的發展面臨著裁量措施的合理性、創新激勵的有效性、財政優惠的合法性等問題,在制定相關法律政策時需要加以回應,為政府發展用戶畫像的法定責任提供規范指引。

2. 防范用戶畫像風險的法律框架

在風險預防方面,基于既有的個人信息保護、數據安全、算法應用的監管實踐,有關政府責任的法律框架比較清晰。這包括以下兩方面內容:

一是有關個人信息保護與數據安全的法律規定,在用戶畫像政府治理方面具有價值導向作用?!稊祿踩ā穼τ脩舢嬒耠m未直接涉及,但是對數據處理者確立了“合法、正當、促進經濟社會發展,增進人民福祉,符合社會公德和倫理”的原則?!秱€人信息保護法》強調涉及用戶畫像的自動化決策若可能對個人權益造成重大影響,個人對其信息的收集與處理擁有反對權與拒絕權;在通過自動化決策方式進行商業營銷、信息推送時,應當提供不針對其個人特征的選項?!稊祿踩芾磙k法》要求網絡運營者不得以改善服務質量、提升用戶體驗、定向推送信息、研發新產品等為由,以默認授權、功能捆綁等形式強迫、誤導個人同意收集其信息?!渡钲诮洕貐^數據條例》也規定了數據處理者對用戶畫像的規則與用途的明示義務,且個人擁有拒絕用戶畫像與個性化推薦的權利。另外,金融、社交平臺、健康防疫等專業領域涉及用戶畫像的個人信息保護也逐步加強,如《個人金融信息保護技術規范》新增用戶畫像對個人特征描述的限制、個性化展示與數據匯聚融合的限制等要求。

二是有關算法應用的法律規定?!蛾P于加強互聯網信息服務算法綜合治理的指導意見》明確了商業機構對算法應用結果的主體責任,對檢索過濾類算法強化特征庫和標簽庫的有效性評估,對調度決策類算法加強對不合理差別待遇的治理?!痘ヂ摼W信息服務算法推薦管理規定》要求算法推薦服務提供者向用戶提供選擇或者刪除針對其個人特征的用戶標簽的功能?!渡虾J芯W絡交易平臺網絡營銷活動算法應用指引》規定網絡交易平臺經營者應當確保消費者畫像依據來源合法,尊重消費者人格尊嚴,避免使用有違社會公德、歧視性、偏見性的用戶標簽。政府責任全面滲透到用戶畫像治理的各領域,成為行政執法的重要依據。

三、域外用戶畫像政府治理責任的兩種模式

用戶畫像的興起伴隨著商業機構數據監控權力的不斷加強,基于特征描繪的算法決策也蘊含著過濾泡效應與差別對待風險。這種風險難以通過市場力量加以化解,需要由政府介入實施規制,消除用戶的侵權風險與維系市場主體的創新動力。從國外實踐來看,用戶畫像政府治理責任具有“以信息主體信任為中心的個人信息治理模式”和“以算法主體責任為中心的智能算法治理模式”兩種不同的模式。

(一) 以促進用戶信任為中心的個人信息治理模式

個人信息治理模式已經成為歐美政府治理責任的主流模式,如《歐盟一般信息保護規范》(GDPR)、《英國信息保護法》(DPA)、《美國統一個人數據保護法》(UPDPA)、《美國加州隱私權法案》(CPRA)等。正如美國學者拜爾金(Balkin)在《隱私的受托模式》一文中所指出的,將信托關系下規范契約當事人之間法律關系的做法引入個人信息保護領域,建立基于信任關系脈絡的信息受托人模式,強化數據處理者依據信任關系所承擔的忠誠義務是用戶畫像政府治理的發展趨勢①。相對于用戶而言,數據處理者是居于個人信息控制和專業知識的優勢一方,因此應當善盡基于委托的雙重忠實義務:第一,在數據處理者與用戶之間,用戶將其個人信息通過合意轉讓給數據處理者,數據處理者應當為了維護用戶的最佳利益而利用數據,協助其有效行使自主權能,并擔保人格尊嚴等權益不因數據濫用而產生侵害風險。第二,在數據處理者與國家、社會之間,國家、社會基于信任將個人信息的利用權限委托給特定的數據處理者,數據處理者應對其活動的合法、公平承擔擔保責任,并遵守監管規則。為了確保數據處理者履行信息受托人義務,法律應不斷強化公民同意其個人信息用于用戶畫像的各項權利,保障其掌握個人信息流動的范圍,同時通過高額罰金、司法救濟和信息安全機制,課予信息處理者管理個人信息的各項責任。主要的制度設計包括:

其一,強調數據處理者向用戶的充分告知義務。為了消除“監控式”信息匯集方式帶來的危險,世界各國均將充分告知機制作為個人信息保護的基本要求,如《歐盟一般信息保護規范》針對用戶畫像的告知義務向數據處理者提出兩項合法標準:一是告知內容應當具有實質意義,包括數據處理者會收集和利用何種個人信息,用戶畫像的分類標簽邏輯等;二是用戶畫像及其后續決策對數據來源主體可能造成的法律后果應予告知。

其二,強化信息主體的自主性與反制“捆綁式同意”的用戶同意權強化機制。如《歐盟一般信息保護規范》(GDPR)規定,除了基于重大公益目的或者履行用戶和信息處理者之間的協議所必需,用戶畫像對個人信息的收集和利用應當具備用戶“自主、具體、知情、明確、明示”的授權同意[20]。只要用戶反對或后續申請撤回,則與其相關的信息收集與用戶畫像服務行為須立即停止。對于涉及宗教信仰、生物識別特征等敏感性個人信息的用戶畫像,優先保護個人信息權益,原則上不得利用此類信息進行自動化決策。

但是,個人信息治理模式仍然存在著諸多不足:第一,混合資料(bastard data)的出現動搖了以個人信息保護為基點的用戶畫像政府治理框架[21]。隨著大數據分析、機器學習促成的“數據累積效應”,個人信息的可識別性標準遭遇嚴重挑戰,信息處理者可以從非個人信息中輕易獲取相當于個人信息的混合資料,并且逃脫法律的監管。第二,以告知同意規則作為獲取個人信息合法權源的制度設計不適應實際需要。在告知層面,隱私政策冗長、不明確,用戶受限于認知偏差、信息不對稱而不能完全理解隱私政策,或誤解隱私風險[22]。在同意層面,用戶畫像如果不涉及跨網絡運營者使用或者不產生法律結果,就可不經用戶授權使用其個人信息。然而,“不經本人授權”由于欠缺必要的配套機制,面臨著個人信息易遭濫用的質疑。法律雖在免于用戶事前授權的條款中內置了用戶反對或拒絕權,對于其內涵外延、落實機制卻沒有詳細表述。這種缺位導致立法和實踐難有大的作為,只能停留在象征意義的宏觀話語。另外,第三方接受個人信息處理者的轉讓,對個人信息的增值應用雖然需要履行告知同意程序,卻無法回應“個人即使同意交出信息也仍有隱私權保障之必要”的法理質疑[23]。第三,當前的法律聚焦于規范對個人的信息收集和特征描繪,卻忽略了特定群體的信息收集和特征描繪。在實踐中,很多信息處理者利用機器學習技術先建立不同資料組的特征,在此基礎上概率性剖析特定個人屬于何種群體,同樣可以實現對個人的特征描繪。第四,用戶畫像使用者與不同用戶之間從點到點的線性關系演化成由多點組成的個面關系,難以準確界定侵權范圍。如在劍橋分析公司丑聞事件中,不良企業通過平臺媒體的訂閱者向外散布政治廣告,誤導更多人的投票決策,實際受害者難以估量。而且,用戶畫像造成的侵害是個人信息收集、處理和數字身份決策共同加成的結果,人們的自我認同、人格特質都會受此影響,具體的侵害效果難以量化評估。

(二) 以正當程序約束為中心的智能算法治理模式

智能算法治理模式著眼于強化算法主體的課責性,通過創造出符合正當程序原則的算法管制規則,彌補個人信息治理模式對用戶畫像的規范缺失。圍繞正當程序約束來強化用戶畫像的法律監管是發達國家的重要經驗[24]。2021年《歐盟人工智能法》、2019年《歐盟人工智能倫理準則》、2020年《美國人工智能倡議法》、2019年《美國人工智能增長研究法案》(GRAITR)及其配套的《美國人工智能政府法案》均主張參考正當程序邏輯約束用戶畫像與算法分析決策,排除公私部門“算法黑匣”的恣意操控,保障個人得到公平公正對待,并且滿足公眾對政府決策的安定性、可預測性需求。有學者歸納了正當法律程序對自動化決策的管制要求,即“規范應事先制定以減少恣意裁量的可能;規范應平等適用于同類個案且得出近似的結果;確保規范的隨機適用不會被任何利益團體操控”[25]。迄今為止,學界和實務界對基于用戶畫像的自動化決策進行程序規范的認知,主要是圍繞人為介入搭配算法透明兩項義務來開展程序管制的,具體包括兩項內容。

其一,算法決策的人為介入義務,即在分配智能算法與自然人在決策執行中的互動關系時,以自然人而非機器作為最終課責對象,內容包括“算法只能輔助自然人作出決策”和“自然人保留事后推翻算法決策的權利”。這是由于,智能算法的運作具有不可預測的特征,可能在關聯性分析中形成歧視性、不公正的推論與評價結果,并導致公民由于擔心受到差別對待而有意無意地改變內在思想與外在言行,對人格尊嚴和人性自主造成影響。人為介入義務的具體要求包括:在算法建構階段應由自然人判斷數據選擇和算法應用的適當性;在基于算法的決策階段應由自然人審查基于算法的自動化決策邏輯是否合理,并據此決定采納、修正或者推翻。

其二,算法應用的透明化義務,即通過算法相關資訊的披露打破智能算法的黑箱,提升自然人對智能算法的掌握度與信任度。由于算法決策的正當性取決于自然人對算法內容的掌握程度與信任程度,因此,人為介入義務需要以“算法具備說明能力”作為人機良性互動、避免算法出錯的主要規制手段。換言之,通過一定的透明化手段讓社會公眾得以理解數據、算法及其各種判斷的過程,降低智能算法的不可預測性,提升人們對其的信任程度。這里的透明化手段具體包括兩種:一是“形式透明化型”,即將算法程序代碼向社會進行披露和公示,方便監管部門進行靜態分析。如《美國人工智能政府法案》規定商業機構運用用戶畫像時應當將其算法程序、訓練數據交由權威的第三方專業機構審核,確保其符合安全、合理標準。但是,算法程序代碼本身的復雜性、無序性,僅有靜態分析可能誤導社會忽略其潛在的關鍵弊端,同時靜態分析難以追蹤算法程序與環境互動的實際過程,難以完全消除算法偏差。二是“實質透明化型”,即要求商業機構在運用用戶畫像時實現全過程公開透明,確保數據輸入、算法模型、邏輯決策、信息篩選、動態展示等全過程信息的動態匯集與公開披露,避免決策者借助“算法黑箱”逃脫法律規范和社會監督。典型的如《歐盟人工智能法》《美國人工智能倡議法》等。

但是,智能算法治理模式也會遭遇一些疑難問題:第一,透明化錯覺問題,即大量的資訊披露會給社會公眾帶來透明化明升暗降的錯覺,未必代表更有效的透明化[26]。數據處理者可能會通過控制算法披露的時間、增加算法理解的難度、延時更新數據庫、以多重披露制造理解混亂等方法,誤導社會公眾的認知和降低外部監督的成效。第二,系統漏洞問題,即算法公開會泄露自動化決策機制中的代理變數,導致社會公眾知曉某些非直接測量結果的評估因素,比如測量履約風險的薪資、人格特質、信用記錄要求,并且采取規避應對措施[27]。隨機變數的產生方式如果為人所知,或者在不確認變數是否真的隨機而有可能存在規律的情況下,就會影響算法的預測與評價功能,易造成自動化決策的不公平或失真。第三,私人部門透明化的正當性質疑。要求私人部門的特定信息向社會公開透明,在很多情況下未必經得起利益平衡原則的考驗[28]。如果不存在超越商業秘密、知識產權、經營自主權等私人 利益的公益保護之必要,則不宜向私人部門課以公開義務。因此,如何適應技術的發展加強對上述問題的應對,是進一步制度設計要認真對待的問題。

四、我國用戶畫像政府治理責任的重構與配置

(一) 用戶畫像政府治理責任的理念重構

用戶畫像應用既有正面意義,也存在技術風險,運用政府規制實現市場因素與國家任務的協調是一條可行途徑。政府對用戶畫像風險的治理責任可以回溯到憲法上的國家保護義務理論。國家保護義務源于基本權客觀規范體系,在德國法上是指國家負有保護公民生命、健康、自由與財產等法益的作為義務,在“具有危險防御功能的法治國”“社會國”原則下,積極排除來自第三方主體的侵害或危險行為[29]。我國憲法制度雖然與德國有別,也無法簡單套用法治國、社會國概念來詮釋國家任務,但是在處理發展促進與風險預防的關系方面,國家保護義務理論具有借鑒意義。國家在實施憲法第十四、二十條規定的“發展、促進和推廣科學技術以及發展社會生產力”任務時,也要從維護人性尊嚴與人格自由發展的角度出發,為用戶畫像確立清晰合法的行為價值標準。有學者整理國家針對七種憲法風險的預防義務,并指出該義務對基本權利的保護程度與方式,隨著現代社會風險的高度不確定而呈現出動態擴張的趨勢[30]。

在憲法的國家保護義務框架下,為實現發展促進與風險預防的價值協調,實現用戶畫像政府治理的目標協同,需要實現不同價值趨向的動態平衡。以風險預防為導向的國家保護義務不限于消極排除侵犯公民個人信息犯罪等現實損害,更包括積極防范用戶畫像的數據安全、差別對待等風險,在其未對公民權利造成嚴重且不可恢復的損害之前,進行有效管控。但是,風險預防的目標并不是零風險,而是通過成本效益分析建構適當的保護標準,實現社會公共利益與風險預防之間的最大凈收益。數字革命是社會進步與經濟發展的動力,政府應當適度容忍伴隨其而生的“剩余風險”合理存在,對危害后果是否發生、發生時間與范圍難以確定的危險不必一概干預[31]?!皣也灰四暼藗儗︼L險的恐懼,忽略人類理性局限而采取過度避險的措施?!盵32]政府如果貿然采取積極干預措施,可能拘束第三人的行動自由、財產權、經營自由、商業秘密而造成權利沖突。因此,國家干預措施的選擇應當保留靈活性,不宜將所有用戶畫像的應用一概納入高風險治理框架,而要根據其涉及的信息安全風險程度、關聯性分析涉及的違法性與不當性、可能影響的范圍、受害權利的性質等因素,在“禁止過度侵害”的最高限度與“禁止保護不足”的最低限度之間作出最佳判斷,設計分級規制體系。

(二) 用戶畫像政府治理責任的模式重構

我國的用戶畫像政府治理雖然躋身世界前列,但是仍然主要停留在傳統的個人信息治理模式層面,偏重個人信息收集階段的信息安全保障,對基于特征描述之算法決策階段的技術治理不足,偏重監管信息但是監管算法尚不充分,信息與算法分而治之且未形成有機統一。依據不同風險的分類管理是技術治理的普遍做法,有助于根據不同的場景實現規制精細化。用戶畫像是個人信息、算法及一系列判斷的組合,因此,技術治理體系理應將個人信息和算法作為兩大分類標準,從單一管控走向多元統籌,推進本土化制度建設與規范引領,形成在全球更有影響力的用戶畫像治理政府責任體系。

第一,推進政府對個人信息治理模式的全鏈條責任治理。當前,我國政府的用戶畫像治理責任主要聚焦于信息安全導向下的信息服務規范和用戶個人信息保護,盡管已經在個人信息治理的基礎上作出諸多細化與創新,但是仍然需要進一步優化。用戶畫像在應用過程中造成擴散性風險與危害,傳統的告知同意機制遠不足以應對情勢考量與案件裁判之需要。首先,需要強化現有的告知同意機制,并由政府進行監督,進一步落實《個人信息保護法》的公開透明原則,提高告知內容的清晰、全面、準確程度,確保用戶同 意是建立在充分考慮和正確認知風險的基礎上的[33]。其次,將全鏈條責任治理的重心從個人信息收集階段轉向利用階段,減輕用戶基于同意而自擔侵權風險的責任,加重數據處理者作為信息受托人的信息安全責任。應當以數據處理者為中心來設計責任承擔規則:一是明確商業機構的“個人信息擔保義務”,包括不得超出法定范圍與限度利用個人信息,對個人信息處理的全過程進行告知、通知與公示,保障信息質量,進行來源合法性審查、敏感信息校驗等。二是確立商業機構對配合行政規制和公民請求救濟的嚴格協助義務,如履行風險監測、數據認證、算法審查、資料申報等手續,為公民設立程序參與、撤回退出、賠償請求、違規舉報等機制。強化數據處理者對用戶受托責任的制度設計,有利于督促其認真協助公民妥善行使知情、訪問、更正、刪除等權利,對《信息安全技術個人信息安全規范》等法律中有關用戶畫像限制使用、組織信息安全管理要求等也應作出相應調整。

第二,促進政府對智能算法治理模式的監管升級。2022年《互聯網信息服務算法推薦管理規定》標志著我國用戶畫像政府治理開始并重對待個人信息治理模式與智能算法治理模式,將規制重點延伸到算法技術支持者。這是對技術風險發展的因應性制度調整。用戶畫像治理超越個人信息治理模式,為用戶畫像的每個階段都制定規則,符合國際發展趨勢。智能算法治理模式能夠有效克服個人信息治理模式對用戶畫像的規范缺失:其一,在告知同意規則難以充分發揮功效的情況下,該模式直接將規制對象從個人信息轉向用戶畫像的應用活動即自動化決策本身,有效防范用戶畫像所產生的新型風險。其二,算法程序通過比較兩組相似而敏感程度不同的數據,有效避免機器學習間接使用個人敏感信息作出決策的可能,從而杜絕混合資料所造成的“個人敏感信息不當成為自動化決策的關鍵因素”的風險。因此,應當圍繞用戶畫像應用的全流程來設計制度,在整體立法框架下統籌協調信息、算法的規制,將個人信息治理模式、智能算法治理模式統一納入未來的用戶畫像基礎性立法。不過,現有立法的一些具體措施還難以滿足實踐需求。例如,由于立法沒有“用戶標簽”概念,以及“選擇或刪除用戶標簽”的具體實現路徑與效果衡量缺乏明確規定,導致用戶無法自主控制希望接收到的個性化內容推薦信息的標簽、畫像維度,用戶調控個性化內容推薦展示相關性程度的能力實際上仍十分受限。又如,當前的規制聚焦于算法機制機理、特征庫、標簽制度備案說明等透明性規制,缺乏圍繞算法公平性的人為介入義務規制。需要在保證算法分析系統的透明化之外,探索強化算法決策結果的可責性,確保設計者、執行者和監督者彼此之間的獨立性與相互制衡,避免算法決策的自我增強與自我回饋效應陷入無人察覺、難以矯正的風險。

(三) 用戶畫像政府治理責任的配置原則

1. 預警原則

預警原則(the precautionary principle),即行政規制領域處理不確定風險的法律原則,是指“對具有規制所需事實的不確定性、科學實驗的不確定性等風險議題,在缺乏證據證明損害的情形下應盡早實施規制”[34]。依據啟動規制的門檻差異,預警原則又分為兩類:一是強的預警原則,即政府在面臨特定風險時,即便無法證明因果關系,也要立即采取預警措施。二是弱的預警原則,即僅僅要求政府針對程度嚴重且不可恢復的風險,才需要承擔主動預警的義務[35]。隨著人們風險認知的深化,預警原則不再限于“強調不確定性條件不得成為延緩規制的正當理由,要求盡早應對風險”的傳統含義,逐漸從降低規制啟動門檻的指導原則轉換成審查規制程序能否有效評估、處理與應對不確定性風險的程序性要求。預警原則絕非對不確定性風險的單純回應,而是涉及社會不同群體間如何整合評估與應對風險的決策過程,風險規制從“專家評估—行政規制—群體溝通”的線性模式轉化為三者融合于同一程序的環形模式[36]。以往由特定專家獨占的風險傷害幾率和嚴重性詮釋機制逐漸松動,這就為其他領域專家與普通民眾參與規制標準制定、風險評估提供了契機,信息公開、正當程序、公共參與等成為風險規制的重要舉措。由于不確定性風險的存在,政府對用戶畫像治理的責任離不開預警原則的支撐與指引。

首先,用戶畫像政府治理應采取弱的預警原則。只有當用戶畫像對公民權利、社會公共利益的潛在或者現實危險達到嚴重且不可恢復的程度時,政府才能啟動規制。在某些利用大數據定向推送個性化服務、智能社交推薦、企業營銷與運營推送活動中,用戶畫像的個人信息侵權、差別對待、資料獨裁風險發生的蓋然性較低,損害程度與范圍較小,政府若是為了確保過程安全,一概要求用戶畫像使用者舉證證明其行為的合法性,則既不符合成本效益要求,也無法達到兼顧促進發展與風險預防的效果。對于這類不具有重大風險但具備發展潛力的技術應用與產業發展,政府應當寬容對待。

其次,用戶畫像政府治理應當構建一套彈性健全的規制程序。社會各界對個人信息侵權、差別對待、資料獨裁風險的認知經歷著由淺入深的變化,預警原則提倡風險認知的社會生成過程從規制程序角度不斷調整風險規制的社會屬性與價值選擇,促進政府更加穩健、理性地作出決策。具體的程序機制包括:一是跨領域的專家參與。用戶畫像為大數據、人工智能技術的使用帶來規制的新挑戰,凸顯出風險規制帶有多元利益平衡的特征,因此,規制程序應當整合各領域專業意見,提供跨領域溝通機會的參與模式,吸納法學以外的倫理學、心理學、社會學等領域專家。二是普通民眾的參與。在風險評估階段,政府通過公眾參與,可知曉社會對個人信息侵權、差別對待、資料獨裁風險的認知程度,引導規制資源的有效分配[37]。在風險管理與溝通階段,通過公眾參與確保利害關系人的意見與需求被決策程序吸納,雙方在相互交換信息與意見反饋的過程中逐步確立結果,避免政策立場過度激進或者僵化。三是最壞情況分析,即將發生概率未知或者較小但是可能釀成重大損失的風險納入事先考慮的應對范圍[38]。比如,用戶畫像治理不宜忽略大數據殺熟、大數據黑名單效應等最壞情況的發生,法律應當預設不同主體的責任分擔與應對機制。四是信息反饋機制,將最新研究進展反饋并融合于規制結構,盡量消除不確定性條件對決策的影響,確保規制措施的適時調整與優化。

2. 國家擔保責任原則

國家擔保責任原則,即政府委托私人參與公共任務履行時,為了避免由于履行責任的轉移導致該公共任務不能充分實現或者公私利益受到侵害,國家承擔確保任務履行公平、有效、穩定的擔保責任。行政法意義的擔保不僅包括民法意義的排除或確保無瑕疵,還擴展到預防瑕疵的出現[39]。依據該原則,政府與私人組成公益責任共同體,彼此之間承擔履行公共任務的連帶責任,政府以擔保者身份保證、監督、引導與調控私人實現公共目標。根據德國學者的歸納,其內涵包括三項內容[40]:一是準備責任,即政府應當預設法律框架控制公私協力可能出現的爭議,如準入門檻、遴選程序等。二是監督責任,即為了維護公共管理與服務質量,政府依據公共任務的公益性強度,通過外部監督、信息披露等方式限制私人機構的自主性,抑制其自利偏差行為。三是承接責任,即為了避免私人機構對公共任務的履行出現嚴重負面影響,要求政府承擔“補破網”的潛在履行責任。如果政府的監督管理效果不佳,則有必要終止企業運營或者強制接管。

用戶畫像自始就呈現“商業機構自我規制為主、政府外部規制為輔”的特征。很多商業機構采取平臺自身內設治理機制的“元規制”方式,依托大數據技術運行規則、自律檢核機制等加強風險防范?!秶鴦赵恨k公廳關于促進平臺經濟規范健康發展的指導意見》強調商業機構依法承擔與其技術能力、掌控能力相匹配的自我規制義務,包括對平臺內商戶的審查登記、信息報送和采取必要措施義務。究其原因,是由于用戶畫像及其技術應用趨于復雜,專業性強且發展變化迅速,外部規制的貿然干預不但容易沖擊大數據分析、智能算法等技術原理與發展規律,而且有悖于開放競爭的法律要求。但是,用戶畫像治理作為公共任務的目的在于,通過風險預防方式避免個人或者群體遭到用戶畫像使用者的侵權損害,尤其是智能算法帶來的差別對待和資料獨裁風險具有隱蔽性、擴散性,產生類似于公害的侵權效果。因此,政府仍要對商業機構履行自我規制義務的結果進行擔保,促使作為被委托主體的私人展現預期的規制效能。對照國家擔保責任原則,現有制度應作出以下完善:一是健全商業機構自我規制的組織與程序法律框架。在組織規范層面,政府基于公共任務需求仍應引導商業機構的人員配置與組織安排,如按照《數據安全法》設立負責數據合規的首席數據官。在程序規范層面,政府應一方面強化利益回避機制,防范商業機構由于追求私利而影響用戶畫像治理的結果公平性;另一方面,也要通過技術性規制標準的清晰化且合理化,提高商業機構的自我規制效能。自我規制范圍應限于違法標準十分清晰且能以技術邏輯實現的內容。二是建立商業機構自我規制的接管機制。商業機構未能切實履行用戶畫像治理的公共任務時,政府不宜僅限于單純的事后處罰,應當預設適當的接管條件,親自承擔該任務或者挑選其他的適格主體。

五、結語

用戶畫像正在重塑經濟產業形態與社會治理規則,不可避免地帶來了個人信息侵權、差別對待等風險,需要通過行政規制的力量來化解這些技術風險。我國初步建立了支撐用戶畫像政府治理的法律制度,構成政府部門的責任界限。用戶畫像的治理責任分配應當充分考慮發展促進與風險預防兩種價值的平衡,對治理模式進行延伸迭代,協同適用“以信息主體信任為中心的個人信息治理模式”和“以算法主體責任為中心的智能算法治理模式”,并且基于預警原則和國家擔保責任原則配置具體的治理責任。

① 參見《信息安全技術—— 個人信息安全規范》(GB/T 35273—2017)第3.7條規定。

[1] HEIDEGGER M. The question concerning technology and other essays[M]. NewYork: Garland Publishing, 1977: 120?123.

[2] COOPER A. The inmates are running the asylum[M]. Indianapolis:Sams Technical Publishing, 1999: 22?25.

[3] 亓叢, 吳俊.用戶畫像概念溯源與應用場景研究[J].重慶交通大學學報(社會科學版), 2017,17(5):82?87.

[4] RICH M. Machine learning, automated suspicion algorithms, and the fourth amendment[J]. University of Pennsylvania Law Review, 2015, 164: 871.

[5] MACCARTHY M. Standards of fairness for disparate impact assessment of big data algorithms[J]. Cumberland Law Review , 2017,48(4): 67?148.

[6] CHRISTIN A. Algorithms in practice: Comparing web journalism and criminal justice[J]. Big Data & Society, 2017, 4(2): 1?13.

[7] 宋美琦, 陳燁, 張瑞. 用戶畫像研究述評[J]. 情報科學, 2019, 37(4): 171?177.

[8] 黃文彬, 徐山川, 吳家輝, 等. 移動用戶畫像構建研究[J]. 現代情報, 2016, 36(10): 54?61.

[9] 張文顯. 構建智能社會的法律秩序[J]. 東方法學, 2020,79(5): 4?19.

[10] 劉艷紅. 公共空間運用大規模監控的法理邏輯及限度——基于個人信息有序共享之視角[J]. 法學論壇, 2020, 35(2): 5?16.

[11] 吳旭陽. 法律與人工智能的法哲學思考——以大數據深度學習為考察重點[J]. 東方法學, 2018,63(3): 18?26.

[12] 王利明. 論數據權益:以“權利束”為視角[J]. 政治與法律, 2022(7): 99?113.

[13] 吳亮. 網絡中立管制的法律困境及其出路——以美國實踐為視角[J]. 環球法律評論, 2015, 37(3): 127?139.

[14] NISSENBAUM H. Privacy in context: Technology, policy, and the integrity of social life[M]. California: Stanford Law Books, 2009:220?226.

[15] 汪慶華. 人工智能的法律規制路徑: 一個框架性討論[J]. 現代法學, 2019, 41(2): 54?63.

[16] 趙惟.加快完善數據要素市場化配置[N].人民日報, 2021?8?2(4).

[17] 凌鋒. 以數字治理助推國家治理能力現代化[N]. 法治日報, 2021?06?23(5).

[18] 韓鑫.“用戶畫像”, 用好更要管好[N].人民日報, 2020?7?17(4).

[19] 魯鵬宇. 法政策學初探——以行政法為參照系[J]. 法商研究, 2012, 29(4): 111?118.

[20] 陳潭, 王穎. 人工智能時代政府監管的實踐轉向[J]. 中南大學學報(社會科學版), 2023, 29(2): 136?144.

[21] BALKIN J M. The fiduciary model of privacy[J]. Harvard Law Review, 2020,133(1): 11?33.

[22] MITTELSTADT B. From individual to group privacy in big data analytics[J]. Philosophy & Technology, 2017, 30(4): 475?494.

[23] CUSTERS B, U VRABEC H, FRIEDEWALD M. Assessing the legal and ethical impact of data reuse[J]. European Data Protection Law Review, 2019, 5(3): 317?337.

[24] 徐明. 大數據時代的隱私危機及其侵權法應對[J]. 中國法學, 2017(1): 130?149.

[25] SIMMONS R. Big data, machine judges, and the legitimacy of the criminal justice system[J]. U.C. Davis Law Review, 2018,52(2): 1067?1068.

[26] 梅立潤. 人工智能時代國家治理的算法依賴及其衍生難題[J]. 中南大學學報(社會科學版), 2022, 28(6): 123?131.

[27] DOSHI?VELEZ F, KORTZ M, BUDISH R, et al. Accountability of AI under the law: The role of explanation[J]. Electronic Journal, 2017: 1?21.

[28] BAMBAUER JANE, TAL ZARSKY.The algorithm game[J]. Notre Dame Law Review, 2018,94(1):1?25.

[29] 崔靖梓. 算法歧視挑戰下平等權保護的危機與應對[J]. 法律科學(西北政法大學學報), 2019, 37(3): 29?42.

[30] 徐琳. 人工智能推算技術中的平等權問題之探討[J]. 法學評論, 2019, 37(3): 152?161.

[31] 吳亮. 政府數據授權運營治理的法律完善[J]. 法學論壇, 2023, 38(1): 111?121.

[32] 王旭. 論國家在憲法上的風險預防義務[J]. 法商研究, 2019, 36(5): 112?125.

[33] ZINN J. Recent developments in sociology of risk and uncertainty[J]. Historical Social Research, 2006, 31(1): 275?286.

[34] CASS R SUNSTEIN. Worst?case scenarios[M]. Massachusetts :Harvard University Press, 2009: 17?70.

[35] 黃锫. 元宇宙的行政規制路徑: 一個框架性分析[J]. 中國法學, 2022(6): 175?196.

[36] BODANSKY D. Law: Scientific uncertainty and the precautionary principle[J]. Environment, 1991, 33(2): 4?44.

[37] 陳潭. 國家治理的大數據賦能:向度與限度[J]. 中南大學學報(社會科學版), 2021, 27(5): 133?143.

[38] STEPHEN TROMANS. High talk and low cunning: Putting environmental principles into legal practice[J]. Journal of Planning and Environmental law, 1995,39(2): 779, 782.

[39] 施密特·阿斯曼. 秩序理念下的行政法體系建構[M]. 林明鏘, 等譯. 北京: 北京大學出版社, 2012: 163?174.

[40] CITRON D K, PASQUALE F. The scored society: Due process for automated predictions[J]. Washington Law Review, 2014, 89(1): 1?33.

[41] 陳愛娥. 國家角色變遷下之行政任務[J]. 月旦法學教室, 2003,3(1): 104?111.

[42] 楊登峰. 國家任務社會化背景下的行政法主題[J]. 法學研究, 2012, 34(4): 26?29.

On the government governance responsibility of the application of user portrait in commercial organizations

WU Liang

(School of Law, East China University of Science and Technology, Shanghai 200237, China)

User portraits of commercial organizations are now widely used in artificial intelligence systems, intelligent forecasting, scene recognition and other aspects. The risk of personal information infringement brought by the "monitoring based" information aggregation method, the filtering bubble effect and differential treatment risk brought by algorithm decision-making, pose new challenges to the government's user profile governance. China has initially formed a policy system for the development and governance of user profiles, and the corresponding legal framework has gradually taken shape. User profile governance responsibilities include two different modes: personal information governance and intelligent algorithm governance. The government's responsibility for user profile governance should be coordinated with the value of promoting development and preventing risks within the framework of the constitutional national protection obligation. China should extend and iterate the governance model through top-level design, promote the synergy between personal information governance and intelligent algorithm governance, and use the principles of early warning and national guarantee responsibility as the allocation principles of governance responsibilities.

user profile management; government responsibility; personal information governance; intelligent algorithm governance

2022?12?29;

2023?07?26

教育部人文社科規劃基金項目“公共數據授權運營的行政法規制研究”(23YJA820028);上海市浦江人才計劃項目“公共數據開放的行政法問題研究”(21PJC027);上海市教育科學研究一般項目“學生網絡欺凌的法律防治與網德教育研究”(C2021013)

吳亮,男,安徽池州人,法學博士,華東理工大學法學院副教授,主要研究方向:行政法學、數字政府建設,聯系郵箱:wlwulaw@ecust.edu.cn

10.11817/j.issn. 1672-3104. 2024.01.007

D922.1

A

1672-3104(2024)01?0063?13

[編輯: 蘇慧]

猜你喜歡
畫像規制個人信息
如何保護勞動者的個人信息?
威猛的畫像
個人信息保護進入“法時代”
主動退市規制的德國經驗與啟示
“00后”畫像
畫像
警惕個人信息泄露
保護與規制:關于文學的刑法
論《反不正當競爭法》的規制范疇
內容規制
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合