?

如何實現“黑箱”下的算法治理?
——平臺推薦算法監管的測量實驗與策略探索

2024-03-05 11:35
公共行政評論 2024年1期
關鍵詞:黑箱信息內容監管

張 楠 閆 濤 張 騰

新一輪科技革命驅動人類社會快速進入數字時代,尤其是大數據技術與人工智能技術應用日臻成熟,為智能化、智慧化決策提供了有力支撐。算法作為人工智能的核心要素與影響決策過程的關鍵因素,不僅具有強大而高效的問題解決能力,并且在商務、政務等領域有著廣泛的適用性。然而,算法自身具有“不透明”等復雜特性,這種不可解釋的隱憂對現實倫理、個人權益、社會秩序和國家權力造成沖擊。如何應對算法風險、規范算法應用,成為算法發展面臨的重要問題。其中,平臺推薦算法應用所引發的“信息繭房”、算法“歧視”、算法“殺熟”、算法“利維坦”等風險最為突出,這些風險問題對網絡內容生態治理提出新挑戰,因而加強對平臺推薦算法應用的監管、規范算法推薦活動變得十分緊迫。

一、引言

(一)內容供給模式的深刻變革引發海量信息處理需求

在傳統的信息內容供給模式中,人們主要從報紙、期刊、電視、影院、商業門戶網站等渠道獲取各類信息內容,而其中的信息內容生產機制并無實質性差異。受限于人員、政策、地理等因素,傳統模式信息內容供給能力和范圍也始終是極為有限的,這些信息內容供給渠道,無論是在時效性上,還是在豐富性上,都難以跟上“信息爆炸”的時代步伐。早期社交媒體的發展為用戶自行撰寫、拍攝、制作的圖文視頻類作品提供了良好機會,也提高了互聯網信息內容的多樣性。受此類社交模式的啟發和影響,各大互聯網企業開始搭建賬號平臺,引導、鼓勵網民注冊使用公眾賬號。由分散的用戶供給信息內容的方式,能夠滿足各類人群對信息內容的多樣需求,雖然在專業性上可能有所欠缺,但突破了記者、編輯等專業人員信息內容生產的局限性,給“中心化”的傳統信息內容供給模式帶來了巨大沖擊。在傳統信息內容供給方式與規則發生革命性改變的背景下(喻國明、韓婷,2018),面對海量的信息內容供給,依靠傳統人工編輯和呈現的模式面臨兩個方面的巨大挑戰。一是如何在短期內對信息內容進行挑選、分類,從而發現、捕捉用戶感興趣的信息內容與時事熱點;二是當信息內容種類足夠豐富時,在有限的手機屏幕當中,該采用何種呈現方式,才可能滿足用戶多樣化的需求,為用戶找到“需求內容”,并為不同類型的優質信息內容尋找“需求用戶”。

(二)推薦算法成為信息內容分發呈現的主導力量

平臺推薦算法恰好解決了“為用戶找內容”和“為內容找用戶”兩個方面的痛點問題,因此成為智能傳播時代信息內容供給與呈現的靈魂(張省、蔡永濤,2022)。首先,推薦算法可以對用戶上傳的信息內容進行標簽化分類,并在此基礎上建立信息內容庫。其次,推薦算法通過收集用戶的興趣喜好、瀏覽習慣、選擇傾向等行為偏好數據,對不同用戶進行畫像和“打標簽”,從而建立用戶“需求清單”。最后,對信息內容與用戶進行匹配,為需求用戶推薦呈現特定類目的信息內容,便可以實現海量信息內容的有效分類和準確分發,進而滿足用戶的個性化需求,提升用戶體驗感。

不同類型推薦算法的實現均依賴兩項基礎條件。一是平臺需要具備多樣化信息內容供給的能力,二是平臺需要具備收集用戶行為數據的能力(陳潔敏等,2014)。當商業平臺具備了以上兩項條件后,才能基于大量真實的行為數據對用戶進行準確畫像,為用戶精準推送興趣內容,從而給用戶帶來更加個性化、智能化的瀏覽體驗,并幫助平臺企業在激烈的流量競爭環境中突出重圍??梢?,推薦算法能夠化解信息過載困境,同時又能夠滿足以用戶為中心的信息內容供給需求(陳潔敏等,2014)。事實證明,較早應用推薦算法的APP,正是依靠推薦算法突破了信息呈現方式,對信息內容進行高效處理、為用戶提供個性化推薦,才迅速受到廣大網民的認可和追捧。

(三)平臺推薦算法監管的隱蔽性與“黑箱化”難點

推薦算法技術的廣泛應用,使得不同的用戶看到的信息內容不盡相同,產生“千人千面”的具體現實表現。諸如分裂國家、暴恐暴力、色情賭博、侮辱英烈等違法違規的信息內容,可能在不同的用戶手機端以不同的方式展現。此時,推薦算法成為一個“盲盒”“黑箱”的角色,使得監管部門很難看清、查清推薦結果中的違規內容(張紅春、章知連,2022)。如果一個采用了推薦算法的APP,向少數特定的用戶群體推送違規信息,向多數普通用戶推薦正常合規信息,而接收到違規信息的用戶又沒有進行投訴、舉報,監管部門依靠現有技術手段則很難發現這些違規行為的存在及損害結果的發生。這不僅可能引發網絡信息內容與網絡空間治理風險,也給信息內容監管帶來前所未有的挑戰。

在傳統市場監管中,對媒體信息內容的監管,監管部門可以進入實體經營場所,查看實際經營流程;而相較之下,在平臺推薦算法應用過程中,監管部門無法通過一個公開的入口或渠道,對平臺分發的信息內容進行監測、調查和取證。推薦算法具有較強的監管隱蔽性和“黑箱化”特征,對采用推薦算法的APP,監管部門能看到的也僅僅是“冰山一角”,無法判斷和認定平臺為全部用戶推薦了什么內容、有特定興趣偏好的用戶是否瀏覽了違規內容,以及違規內容被推送至多少用戶等情況。

(四)“黑箱”下算法監管與治理的設想

算法“黑箱”給平臺推薦算法監管帶來諸多難題,例如,違規信息內容推送行為難于取證、精準推薦與“信息繭房”難以區別、“流量至上”擾亂網絡生態等。然而,由于當前對算法以及推薦算法的定義較為模糊、算法倫理規范效力不足、相關立法進程漫長且滯后,加之算法可解釋性成本和負擔過高,這為打開算法“黑箱”、實現算法透明增加了極大的難度。那么,在不打開算法“黑箱”的前提下,算法治理是否具有可行之道?算法“黑箱”下全面有效的平臺推薦算法監管應采取何種方式與模式?這些問題亟待解決。

以往的理論研究與治理實踐將注意力主要集中在算法透明上,對“黑箱”下算法治理可能性、可行性的關注不足。尤其是對于平臺推薦算法而言,短期內無法完全實現算法透明,但監管與治理需求又十分迫切。因此,不能“守株待兔”,而是要另辟蹊徑,在接受算法“黑箱”客觀存在的現實前提下,探索當下算法治理的出路。本文面對算法“黑箱”固有特性與算法透明相對性的矛盾,基于機器行為學理論與算法行為生成機制,提出因果“倒推”的逆向算法治理設想。 這種“黑箱”下算法治理的理論視角,不僅突破了算法透明治理邏輯的局限,同時也補充、豐富了既有的算法治理體系框架。另外,本文聚焦于平臺推薦算法治理,通過實驗方法驗證“黑箱”下算法監管技術方案的可行性,進而展開監管策略探索,為“黑箱”下平臺算法監管實踐提供參考。值得注意的是,打開算法“黑箱”與不打開算法“黑箱”兩種治理路徑互為補充,需要綜合考量和利用,兩者間關系的調適能夠為多層次的算法治理制度構建提供新的思路和選擇。

二、文獻綜述:算法治理的宏觀演進與微觀進路

(一)算法治理宏觀演進中的基本共識

“算法”這一概念,從數學領域到計算機領域再到廣泛的社會領域,已發生了多次重要流變,需要從技術、系統、社會等不同層面予以理解(肖紅軍,2022)。在技術層面,算法是僅限于適合計算機程序來實現的決策技術或解決方案(胡鍵,2021),其本質是一種計算工具(Ziewitz,2015)。在系統層面,算法是人類通過代碼設置、數據運算與機器自動化判斷進行決策的一套機制(丁曉東,2020),強調設計者的算法責任(Martin,2019)。在社會層面,算法是建構社會結構與秩序的理性模型(賈開,2019),在此過程中算法被視為一種社會權力(Beer,2017;許曉東、鄺巖,2022)。

算法治理概念包含兩個維度的內涵。一是應用算法的治理(Algorithmic Governance),二是對算法及其應用的治理(Governance of Algorithms)。正是由于算法被廣泛應用于社會和國家治理領域,對個人和組織決策產生了深遠影響,并因此導致一系列不良現象與風險,才引發了對算法及其應用的監管、規制、引導與優化的思考(Ebers &Gamito,2021)。本文中算法治理指的是對算法及其應用的治理,它是算法規則的建立、重塑、運行過程,具體而言,這些規則可以分為法律政策規則、社群規則與技術規則等(許可,2022)。同時,對算法及其應用的治理也是算法風險和影響的化解、消除過程,其范式包括個體賦權、外部問責與平臺義務(張欣,2019)。面對算法多層次、多維度的定義與內涵,算法治理所關注的不僅包括以代碼為載體的技術作用對象及其影響因素,還包括算法運行機制、算法結果、算法塑造的規則與算法對人類社會產生的影響(賈開,2019)。算法治理以提高算法應用準確性、合法性與效率為目標,算法“黑箱”隱憂與算法透明理性是其中最為關鍵的兩大問題(Coglianese &Lehr,2019)。

算法的應用發展驅動了算法治理研究的演進,算法治理邏輯與治理體系建設逐漸得到重視(孟天廣、李珍珍,2022)。不同的算法治理理論主張在制度實施過程中發生著轉場與互動,無論是法律規制、行政問責、倫理約束等傳統治理方式,抑或是以算法透明為核心的技術治理方式,均強調了算法治理的重要性與必要性。算法治理議題廣泛,不同維度的研究涉及的基礎理論依據紛繁各異,但學者們對數字正義(馬長山,2022)、公共價值創造(昌誠等,2022)、科技向善等基本理念的追求始終是一致的。

當前,多元主體參與下的算法治理體系建設已成為學界共識,算法治理需要政府、社會、企業、公眾等多元主體的共同參與(張吉豫,2021),而算法治理體系構建過程中各主體間權責、利益關系的均衡是十分復雜、困難的(楊華鋒,2022;金雪濤,2022)。另外,不同國家和地區在治理目標、治理主體、治理對象、治理手段和治理模式等方面也存在一定差異與共性(曾雄等,2022),算法全球治理問題亦開始得到學者關注(賈開等,2022;李龍飛、張國良,2022)。

(二)算法治理實現路徑的差異化

算法治理與監管的實現路徑被廣泛討論,不同類型的算法治理,以及不同應用領域的算法治理,在監管思路與治理模式上存在較大差異。例如,智能網聯車自動駕駛算法治理(Lyakina et al.,2019)與平臺新聞分發算法治理(Sehat,2022)所關注的風險問題截然不同;再如,社交網絡中算法治理(Lemes de Castro,2018)與金融領域算法治理(Wijermars &Makhortykh,2022)所遵循的原則和理念也迥然相異。對于特定的算法治理問題,學者們根據不同的算法特征與風險機制,結合不同的理論基礎分析,提出了具體的治理路徑。

推薦算法作為應用最為廣泛的算法類型,學者們圍繞其風險挑戰、特征特性、技術演變、治理對策等展開討論(Andrews,2019;孟天廣、李珍珍,2022)。行政規制被認為是兼顧效力與效率的推薦算法治理方式。例如,政府和社會等利益相關者共同設計實現一種責任機制,用以監督算法設計者行為(Dekker et al.,2022),或者圍繞算法推薦的代表性(Representation)、方向性(Direction)和干預性(Intervention),構建一個跨部門、跨地區、跨技術和跨組織的監管框架(Eyert et al.,2022)。其實,問責與處罰并非算法監管的根本目的,糾正算法偏差、防范算法風險、促進算法更好地應用才是算法治理的出發點,這對推薦算法應用的優化改進也是十分必要的。例如,單曉紅等(2022)提出通過融合話題特征和目標用戶興趣偏好,改善推薦結果的多樣性;王旭娜和譚清美(2020)基于一項對互聯網平臺用戶偏好與平臺推薦機理的研究,提出綜合集成個體推薦和群體推薦的系統優化建議。

(三)算法“黑箱”與算法透明

算法“黑箱”指的是算法輸入、輸出及運行過程中不公開、不可知、不可解釋、不確定的狀態,具體包括兩層含義:“一是指源于算法本身的技術復雜性而導致的模型不可解釋,這類問題存在于深度學習等算法中;二是指算法設計者不向用戶公開其算法原理與機制,導致用戶對算法特征與運算過程毫不知情?!?孟天廣、李珍珍,2022:16)算法因其技術邏輯及應用方式的特性而帶來不可解釋的隱憂,導致算法“黑箱”不能為人所知曉或理解,從而產生算法不可監督、難以追責等治理困境(賈開,2019)。西方發達國家在公共服務領域較早地使用了推薦算法,但算法這類深度學習工具固有的“黑箱”困境,給公共管理與決策帶來了巨大的不確定性(Busuioc,2021)。還有的大量研究涉及算法在電子商務領域的應用。例如,在利用算法推薦技術的大型電子商務平臺中,算法“黑箱”導致的信息不對稱和不平等議價能力問題,對中小企業造成嚴重困擾(Di Porto &Zuppetta,2021)。算法治理是應對算法“黑箱”困境的有效途徑,有學者對德國和荷蘭警方在預測性警務領域的推薦算法進行了實證研究,發現兩種算法系統的不同定位和使用方式,取決于不同的社會主導規范和行政文化,算法“黑箱”不可知的技術特征并不直接影響推薦算法應用,有效的治理能夠促進建立信任環境(Meijer et al.,2021)。

算法透明是在一定程度上打開算法“黑箱”,通過提高關于算法目的、算法設計、算法運行、算法結果等方面的可解釋性、信息對稱性,來保障用戶知情權,從而化解算法“黑箱”困境。算法透明能否實現、效果如何,均受技術、機制、信息披露等多方面因素影響。越來越多的學者認識到算法透明是相對的,而非絕對的(賈開,2019;孟天廣、李珍珍,2022),透明度不能被視為純粹的開放性,而應該是一種交流行為與治理方式(肖夢黎,2021)。強化算法解釋、算法透明和實現算法祛魅被認為是解決算法監管問題的必要環節(黃靜茹等,2022),法學學者們對算法“透明度模型”展開了諸多討論,算法透明原則成為法律規制的重要內容(Bayamlioglu,2018;徐鳳,2019)。有人認為準確的算法認知是有效發揮算法備案和公示制度監管作用的前提,也是相關問題得到良好解釋和妥善解決的關鍵,缺乏準確的算法認知則將導致算法監管過度,并因此制約算法的應用與發展(劉澤剛,2022)。與此同時,算法透明的缺陷被廣泛討論,算法透明的可行性也受到質疑。例如,有學者提出算法透明作為事前規制方式,其規制效力有著天然的不足。通常的算法透明既不可行,也無必要,因此算法透明理念應該處于非普適性、輔助性的地位(沈偉偉,2019)。

(四)文獻述評

當前研究對算法風險的探討熱度始終不減,對于算法治理體系構建的思考也逐漸深入,學者們注意到推薦算法這一類型算法在實踐發展中的特點與理論研究中的重要性。算法“黑箱”成為算法治理研究中不可回避的核心問題,多元化治理工具的設計仍然遵循著算法透明的基本邏輯。這種打開算法“黑箱”,以算法解釋與算法透明為核心主張的治理模式固然“美好”且重要,但算法透明的合理、合法限度尚不明確,算法透明的實現也并不能等同于算法治理的有效實現。保持對算法透明的理性思考,有必要探索更多的算法治理可能路徑和范式。尤其是對于平臺推薦算法而言,相關法律規范尚未制定、代碼公開尚不可行、算法不可解釋、倫理規范效力不足,而平臺企業的市場行為與商業活動活躍,導致平臺推薦算法的負外部性逐漸在放大,諸多圍繞算法透明原則展開的治理設想在平臺推薦算法的監管實踐中均難以實現。

跳出基于算法透明的打開“黑箱”的治理邏輯,是否可以實現“黑箱”下的算法治理,以及如何實現“黑箱”下的算法治理,此類問題討論與相關研究仍較為不足。在不打開算法“黑箱”的前提下,倫理約束等柔性規制(Mittelstadt et al.,2016;胡鍵,2021)、企業與行業自律等社群規則(孟天廣等,2022)是防范算法風險的必要治理方式,但這種前置性治理方式和手段對于算法結果有效治理的充分性作用不足,往往需要結合配套體系建設來增強規制能力,延長規制作用周期。另外,以實用主義為導向、以算法問責為代表的事后規制方式,作為一種間接的治理策略(沈偉偉,2019),依賴于法律規則、政策規則、社群規則等治理架構的完善,并且主要應用于產生損害結果的情形,無法直接而全面地解決算法“黑箱”帶來的問題與風險??梢?,當前缺乏在不打開“黑箱”的前提下,對算法“黑箱”困境的直接回應性治理及監管模式探究。不同于以算法透明原則促進算法行為和推薦結果合法、合理的傳統治理思維,本文在機器行為學理論視角下,創新地提出以推薦結果“倒推”算法行為的監管設想,以多層次的行政監管策略直接回應和破解算法“黑箱”不可知性困境,對現有算法治理理論研究形成有益補充。

三、模式思考:現實需求、挑戰與機器行為學啟發

(一)平臺推薦算法監管的現實需求與面臨挑戰

2021年9月,國家互聯網信息辦公室聯合中央宣傳部等九部委出臺《關于加強互聯網信息服務算法綜合治理的指導意見》,從治理機制、監管體系、算法生態三個維度出發,提出了建立算法安全綜合治理格局的任務要求。2021年底,國家互聯網信息辦公室、工業和信息化部、公安部與國家市場監管總局聯合出臺《互聯網信息服務算法推薦管理規定》,確立了服務提供者算法備案與公示制度。2022年3月1日起該規定正式實施,同時互聯網信息服務算法備案系統上線。截至2023年底,國家互聯網信息辦公室已公開發布303條境內互聯網信息服務算法備案信息,其中包括算法名稱、算法基本原理、算法運行機制、算法應用場景、算法目的意圖等方面的簡要信息內容。算法備案與公示制度強調了算法推薦服務提供者的責任與義務,體現了國家和政府對算法治理的重視,同時也是監管部門在算法治理領域邁出的重要一步。

監管部門要求推薦算法服務提供者提交算法信息并描述算法推薦邏輯,可見監管部門有意從代碼等技術層面入手,通過推動算法透明來破解算法“黑箱”困境。但在實際操作層面,由平臺企業自主提供算法信息的備案方式存在諸多不確定性。這種備案監管模式主要面臨以下挑戰。一是平臺企業提交的推薦算法信息是一整套代碼,監管部門對該整套代碼如何進行評測,能否通過對代碼的審查來印證其推薦邏輯和推薦效果的合理性、合法性,均不確定;二是平臺企業在運營中往往會根據用戶喜好、時政熱點等因素,不斷優化推薦算法,這就需要及時動態地調整算法代碼,而監管部門難以實現對持續更迭演變的推薦算法進行備案管理和審查;三是監管部門難以搭建真實、龐大的用戶環境,不具備對備案推薦算法進行實際測量和驗證的客觀條件。另外,推薦算法備案制度主要作用于事前監管環節,其事中監管和事后監管有效性較弱。然而,算法推薦結果是對用戶權益和公共利益產生直接影響的關鍵因素,事中監管與事后監管環節不容忽視。

(二)機器行為學視角下平臺推薦算法監管邏輯與模式啟發

以人工智能為驅動的機器在社會、文化、經濟和政治互動中發揮著越來越重要的調節作用,機器行為學(Machine Behavior)成為跨越多個研究領域的新興學科(Rahwan et al.,2019)。人機協同是機器行為的核心特征,機器決策行為的發生與算法應用之間具有密不可分的關系。同時,學習算法的機器行為也受到個體、集體的社會性因素影響(Borch,2022;Hagendorff,2021)。當前“人—機—物—網”相互融合,在機器行為、機器學習算法、人機協同的共同作用下,復雜的社會聯動效應將產生復雜的人機混合決策場景,因此參與決策的個體需要對機器行為有一定的理解,才能形成人機高效協同(曾大軍等,2021)。人工智能不斷迭變發展,算法與人類社會的深層次融合在一定程度上突破了算法技術的“工具性”,算法也并非簡單的人造物或人工現象。在機器行為學理論視角下,人機交互融合,算法雖然屬于機器范疇,因其與社會環境互相作用、影響,在一定意義上成為具有“自主性”的行動主體。機器在特定的環境中觸發或產生的行為是可以被觀察到的,通過算法在特定環境中的行為表現、行為結果,可探究、驗證其運行機制和行為動機。算法是機器行為學的主要研究對象之一,機器行為學為算法治理理論發展帶來新的契機,對算法治理的理論框架研究與政策實踐創新均具有重要意義,尤其在治理原則與方案、算法行為與環境間關系、算法生命周期整體協同性治理等方面具有啟發性(賈開等,2021)。

在人工智能時代,機器行為學顛覆了人類以締造者的主體身份來研究機器行為,并從中尋求機器改進方法的傳統研究范式(孫立會、王曉倩,2022)。機器行為學對機器行為生成機制與邏輯的關注,更多地體現著以結果“倒推”原因的逆向邏輯,而非通過探究機器設計過程,以原因“界定”結果的正向邏輯(賈開等,2021)。就應對算法“黑箱”所引發的一系列風險而言,機器行為學提供的這種“倒推”因果的邏輯,應在算法治理與監管過程中得到重視與應用,從而修正算法透明邏輯的偏差,彌補多元化、系統化治理框架與治理體系構建過程中,機器行為學理論視角的缺失。算法“黑箱”是算法設計與運行因果關系中的關鍵介入因素,由因推果的過程不可避免地需要打開算法“黑箱”,算法透明原則便遵循這種正向邏輯,通過探究、揭示算法“黑箱”的原因來達到對風險結果治理的目的,算法透明尤其關注算法運行的公正性、公開性(姜野、李擁軍,2019)。相反,在以果推因的過程中,面對算法“黑箱”本身的不可解釋性特征,將算法“黑箱”與其他復雜的算法作用環境視為整體,基于算法不確定性的多種可能結果之間的差異比較,來分析和探究算法設計目的、功能等方面的差異。這種逆向邏輯能夠避免或者不需要打開算法“黑箱”,并且以成熟的算法“黑箱”優化測試理論、技術傳統為基礎(聶長海、徐寶文,2004;張永盭、汪鐳,2020),能夠提高“黑箱”下算法監管的適應性、可行性,有助于實現以原因端為落腳點的算法源頭治理,而不是以結果端為落腳點的不確定性風險治理。

基于機器行為學的視角,推薦算法不僅是功能性的機器,同時也是帶有動態演化與學習特征的智能行動主體。推薦算法治理與監管的關鍵在于規避推薦算法風險行為所導致的風險結果。以平臺推薦算法作用結果反向推導算法設計及運行機制的合理性、合法性,建立基于算法效果測量的監管模式,或許可以成為當前算法治理與監管的新思路,并將為我們理解和預測平臺推薦行為、優化監管策略提供更深刻的洞見。這種全新的、逆向的監管思路仍然需要驗證。對不同平臺推薦結果進行測量實驗,能否監測到推薦算法的差異,能否真實發現推薦結果中的不良問題和實際風險,將為我們提供答案。

四、測量實驗:算法差異的比較與發現

(一)從用戶視角跟蹤記錄推薦結果的實驗設計

從技術角度來看,實驗方法在算法設計、改進、優化、分析等環節有著廣泛而普遍的應用。社會科學研究一直以來也不乏實驗研究方法的應用(Blom-Hansen et al.,2015),已有學者在社會學(張鉞、李正風,2022)、哲學(黃雪婷,2022)等不同學科領域運用實驗方法對算法治理相關問題展開研究。推薦算法涉及相關平臺企業的商業秘密,研究者很難對其內部代碼進行解剖觀察,因此無法準確把握算法的實際推薦機制和過程。為了探究“黑箱”下平臺推薦算法逆向監管、治理模式的可行性,本文提出了另外一種推薦算法實驗思路:從用戶視角切入,向不同平臺推薦算法輸入用戶行為偏好,持續操作、觀察、記錄平臺實際推薦結果,測試算法推薦結果輸出,并對推薦結果數據進行分析,從而研究、驗證推薦算法的實際運行邏輯及相關特征。同時,本文通過有效的實驗控制排除隨機變量帶來的影響,對實驗組與對照組的推薦結果數據進行多維比較,探究平臺推薦算法結果差異。

(二)實驗過程

1.實驗對象的選取

目前采用推薦算法進行信息內容推薦的互聯網平臺較多,按照內容形式來看,這些平臺主要可以分為圖文資訊類和社交短視頻類。本文分別選取時下用戶最多的兩款圖文資訊類APP(分別為J客戶端和T客戶端)和兩款社交短視頻APP(分別為D客戶端和K客戶端)進行實驗。以上4款APP是國內較早應用推薦算法取得競爭優勢的平臺,在用戶市場占據絕對優勢,對互聯網信息內容推薦、傳播與網絡輿論有著廣泛的影響力;同時,這4款APP也是平臺推薦算法治理與監管的重要對象,具有一定的代表性、典型性,能夠在一定程度上反映當前我國平臺推薦算法治理與監管過程中主要對象的一般性、普遍性特征。

2.實驗步驟

第一步,注冊新用戶:申請7個新手機號碼,在J、T、D、K 4款APP上分別注冊7個新賬號,模擬7個用戶。第二步,實驗分組:將7個用戶分為實驗組和對照組,實驗組設置5個不同興趣偏好的用戶,分別是獵奇君、明星娛樂君、美食君、軍事君、歷史君。對照組設置兩個不帶有個人興趣偏好的用戶,分別是對照A和對照B。第三步,瀏覽與互動操作:實驗組用戶和對照組用戶每日登錄各APP兩次,均瀏覽前30款推薦內容。實驗組用戶在閱讀到自身興趣類別內容時,進行點贊、評論、收藏等互動操作。對照組用戶僅瀏覽,不進行互動操作。第四步,記錄數據:記錄實驗組用戶和對照組用戶每次登錄時所瀏覽到的內容。第五步,數據分析:對7個模擬用戶在各APP中接收的各類推薦內容結果數據進行整理與分析。

3.實驗控制

內容控制:根據觀察統計,將圖文資訊類推薦內容分為奇聞軼事、國際政治軍事、社會時政新聞、體育運動、明星娛樂、廚藝美食、歷史文化、財經股市和其他等9個類目;將短視頻類推薦內容分為搞笑劇情、體育、購物、財經股市、日常生活分享、社會時政新聞、美女、游戲、美食、知識科普、汽車、景色旅游、明星娛樂和其他等14個類目。

時間控制:7個模擬用戶于2022年2月21日至26日,每日在13:00-18:00和19:30-24:00兩個時間段內進行登錄。

操作控制:7個模擬用戶分別登錄J、T、D、K各10次,每個模擬用戶登錄后瀏覽30款推薦內容。5個實驗組用戶嚴格按照興趣偏好設定,僅對興趣類內容進行點贊、收藏、關注等操作,對非興趣類內容進行忽視。兩個對照組用戶無差別地瀏覽推薦作品,不做任何操作。在實驗期間,每個模擬用戶在各APP上共計瀏覽300個信息內容作品;全部模擬用戶在4款APP上共計瀏覽8400個信息內容作品。

(三)實驗結果分析

1.實驗組用戶結果

實驗組用戶在J、D、K客戶端實驗中,經過互動操作后,均被算法準確捕捉到興趣類內容并進行持續推送。以J客戶端內容推薦數據為例,5類興趣內容均被算法捕捉并進行持續高占比推薦。如表1所示。

表1 J客戶端實驗組用戶興趣類內容推薦數據

再以J客戶端實驗中的用戶4為例,模擬設置的興趣類內容為“國際政治軍事類”,在經過兩次登錄后,用戶閱讀傾向基本被算法掌握,興趣類內容推薦數量增多且上升趨勢明顯,隨后一直保持較高的推薦量。在第9次登錄時,興趣類內容數量最高達到29個,在全部瀏覽內容中占比達到96.7%。如圖1所示。

圖1 J客戶端實驗中用戶4“軍事君”與對照A、對照B的數據對比

而在T客戶端實驗中,本文發現該APP是基于手機硬件設備進行內容推薦的。在同一款手機上登錄不同的賬號,即使進行不同的用戶興趣偏好操作,但被推薦的內容沒有顯著變化或差別。

2.對照組用戶結果

在J、D、K客戶端實驗中,對照用戶因為沒有進行互動操作,最終呈現出較為多元的信息展示,在實驗初期、中期、后期所呈現的各類推薦內容比例也大致相同,反映出該推薦算法一直按照既定的推薦策略進行推薦,并未隨機變換內容比例,也未增加新類型內容來進一步開發用戶興趣偏好。以對照用戶A在D客戶端第2、4、6、8、10次登錄數據為例,實驗過程中推薦內容類型與數量變化較小,總體上相對集中于搞笑劇情、用戶日常分享、社會時政新聞三大類。如圖2所示。

圖2 對照A在D客戶端實驗中第4、6、8、10次實驗數據對比

(四)平臺推薦算法的差異測量與問題發現

通過實驗研究,本文對J、T、D、K 4款客戶端平臺推薦算法結果進行差異比較,發現不同推薦算法在用戶識別和推薦機制方面均有所不同。J、T、K客戶端均采用針對賬號的內容推薦,而T客戶端則是依據手機設備進行內容推薦。不同的推薦算法對不同類型內容賦予了差別化的推薦策略,即使用戶都具有較強、較明顯的興趣偏好和頻繁的互動操作,但不同的平臺推薦算法還是體現出了不同的反應敏銳度和內容推薦度。

將J、D、K客戶端中的實驗用戶興趣類推薦內容進行對比,發現J客戶端采用的推薦算法對奇聞軼事類、歷史文化類、國際政治軍事類內容的反饋更為強烈,而明星娛樂類、廚藝美食類的內容在前中期的推薦反饋略顯弱勢,特別是明星娛樂類內容推薦占比沒有超過70%。D客戶端的推薦算法對體育運動類和美女類的興趣捕捉更為敏銳,對廚藝美食類、明星娛樂類、財經股市類的興趣捕捉稍顯遲鈍。K客戶端的推薦算法僅對體育類的興趣捕捉較為敏銳,擁有較高的推薦占比,而對其余4類興趣內容并沒有強烈的推薦反饋。如圖3所示。

圖3 K客戶端實驗用戶興趣類內容推薦對比

在平臺推薦算法對用戶興趣偏好內容的推薦方面,推薦算法決定著內容的選取、賦值和分發推送力度,其背后實現邏輯具有顯著的內容選取和推薦力度的偏向性、策略性。由于可以直接地決定內容的選取和推送,在面對初始新用戶、廣泛興趣用戶、單一興趣用戶等不同群體時,推薦算法均展現出了對平臺設定的某些類型內容推薦的傾向性。即使是有特定興趣偏好的用戶,平臺推薦算法在滿足其興趣類內容之外,也會根據設定的策略傾向推薦某些類型內容,而不是隨機推薦其他類別內容。特別是在J客戶端實驗中,推薦算法對奇聞軼事、標題黨、吸引眼球類內容進行了強烈推薦,展現出顯著的預設內容選擇傾向性,實驗用戶在10次登錄瀏覽的共計300個作品中,除去自身興趣類內容,其余被推薦內容的數量和優先級如表2所示。

表2 J客戶端實驗用戶10次登錄中非興趣類內容數據總和對比

面對“信息繭房”的爭議,本文對J、D、K客戶端實驗組用戶最后3次所接收的興趣類與非興趣類內容進行對比,發現對于興趣類別較為單一的實驗用戶,K客戶端興趣類內容比為60%左右,J、D客戶端興趣類內容占比均為90%以上,非興趣類內容占比為10%以內,極少接收到其他類別內容。從這一結果來看,平臺推薦算法確實加劇了單一興趣類別用戶“信息繭房”的形成,面對興趣面較窄的用戶,算法推薦的邏輯始終與嘗試發掘用戶多元興趣內容相矛盾。

本實驗雖然樣本數據有限,但從以上實驗數據的分析結果來看,仍然可以明確地對不同平臺推薦算法的運行邏輯和運行結果進行測量。小規模的測量實驗證實了不同平臺推薦算法在設計、運行過程中,針對不同類型信息內容采取了差異化的推薦策略,并且這種差異是明顯的、可測量的。

五、策略探索:基于推薦算法效果測量的監管

本文基于平臺推薦算法治理模式思考與測量實驗驗證,嘗試提出應對算法治理與監管難點的新思路。對算法在特定環境中觸發的推薦結果實施測量,是未來算力支撐下不打開算法“黑箱”的監管新模式。這一思路從設想到落地需要三個層次上的若干具體策略。首先,在不打開算法“黑箱”的情況下,基于規模測試進行逆向評測和監管的創新理念,能夠有效化解當前正向監管、算法透明理念下的監管被動性和“黑箱”難解性困境。其次,監管部門可以通過建構虛擬賬號池和規模計算動態監測環境等途徑,豐富和完善推薦算法監管手段,并對推薦算法進行全方位刻畫,有效地發現推薦算法的癥結和風險。最后,在具體應用場景層面,測量不同用戶隱私設置和個性選擇在算法推薦過程中的履行情況,可作為保障用戶知情權和選擇權的檢查方式;通過模擬一些極端的用戶閱讀瀏覽行為,測量網絡不良內容傳播中的個體偏好,并對平臺網絡安全責任進行判斷;針對可能引發社會廣泛關注和激烈爭論的輿論熱點和關鍵議題,加強風險識別,及時發現網絡敏感議題討論中的潛在外部干預,維護網絡意識形態安全和社會穩定。三個層次下的五方面策略如圖4所示。

圖4 “黑箱”下算法監管策略的層次結構

(一)創新監管理念:基于規模測試進行逆向評測和“黑箱”監管

目前推薦算法的治理思路與監管理念,仍然主要集中于破解“黑箱”、研究算法細節和實現邏輯等方面(張紅春、章知連,2022),但此類方式具有一定的被動性和難解性。一方面,政府有關部門作為監管機構,不具備平臺企業的實際用戶規模和實際運行環境,無法準確驗證推薦算法的實際推薦邏輯。另一方面,此類監管模式的實現,需要依靠平臺主體的有效配合,方能有效地規制、改進算法。因此,理念創新成為化解當前算法治理與監管困境的重要方向。在不打開算法“黑箱”的情況下,對不同平臺推薦算法進行結果的測試和檢驗,能夠實現逆向監管。通過外部評測的手段統計推薦算法的實際推薦結果,以此作為算法監管的參考依據,無須平臺企業的配合,也不以風險和損害結果發生為必要條件,因此能夠讓監管部門在設計和執行相關監管法律法規時掌握主動權。

(二)完善監管手段:建構虛擬賬號池和規模計算動態監測環境

受限于實驗樣本、評測周期等因素,本文中的小規模實驗還無法對推薦算法作出準確、完整的評測鑒定。但實踐中,監管部門可以通過協調電信運營商,開通大量虛擬手機號,在監管平臺上進行賬號注冊,模擬更加復雜的用戶興趣偏好和瀏覽互動行為。同時,監管部門可以建構虛擬賬號池,制定詳細的、有針對性的評測策略,在較長的評測周期內,對算法推薦結果進行統計,進而得到具有統計意義的評測結果?;緦崿F結果對推薦算法進行全方位刻畫,是發現推薦算法的癥結和風險的有效途徑。監管部門通過構建規模計算動態監測環境,還可以不斷豐富、完善平臺推薦算法監管手段。平臺推薦算法可能存在向少數特定用戶、小眾圈群推薦違規內容,制造群體對立和傳播不良網絡亞文化等問題,通過一定規模的虛擬賬號進行外部評測,可以更為全面地掌握推薦算法的特定策略和結果,并以此作為平臺推薦算法監管的樣本證據。

(三)履約檢查:測量不同用戶隱私設置和個性選擇在算法推薦中的履行

雖然現階段政府監管部門已經明確要求各推薦算法服務提供者要保障用戶的知情權和選擇權,為用戶設置開啟或關閉相關推薦功能的按鍵。但在實際運行中,平臺推薦算法在多大程度上按照用戶的選擇進行信息內容分發,用戶在知情選擇下的真實效果又如何,目前還缺乏有效的評估手段和方法。而利用大規模虛擬賬號進行推薦結果測量、檢驗不失為一種有效的履約檢查方式。設置若干個實驗組和對照組用戶,分別選擇關閉或開啟某種推薦模式,對一定周期內的推薦結果進行統計,便可以有效對真實效果進行驗證、評估。特別是可以評估在青少年模式下,平臺推薦內容的類型、品質和保護效果等重點因素。監管部門通過主動地評估測量,能夠倒逼平臺企業切實保護用戶的知情權和選擇權,從而優化推薦算法整體的行業生態。

(四)責任劃分:測量網絡不良內容傳播中個體偏好和平臺責任

平臺推薦算法的初衷是“投其所好”,依靠數據標簽和用戶興趣標簽等數字化指標,向感興趣用戶進行信息內容推薦。一方面,定向的個性化信息推薦將可能產生“信息繭房”(桑斯坦,2018);另一方面,為了迎合用戶,推薦算法的設計更關注用戶喜好和時事熱點內容,不會將信息內容的價值判斷作為重要推薦指標。在這種情況下,我們必須警惕算法將類似的、迭代的不良內容推薦給用戶。尤其是在用戶并沒有顯著搜索、瀏覽等主動操作時,平臺仍然可能向其推薦不良內容。平臺算法設計者應發揮推薦算法對網絡輿論的正向價值(鄧杭,2018)。監管部門通過模擬一些極端用戶的閱讀瀏覽行為,便可以甄別出推薦算法在迭代收斂的過程中是否“越界”,是否會走向不良、有害甚至違法違規的內容禁地。一旦出現上述情況,監管部門便可嚴肅追究相關平臺網絡安全責任。

(五)風險識別:發現網絡敏感議題討論中的潛在外部干預

平臺推薦算法在一定意義上具備了互聯網信息資源配置的公共權力,并具有一定的意識形態屬性(李靜輝,2022)。商業資本的控制可能會帶來意識形態領域的沖擊和風險,特別需要警惕對公共屬性較強、爭議較廣和參與度較高的內容議題的推薦策略。構建大規模的虛擬賬號形成一個動態的、主動的推薦結果分析矩陣,便可以進行詳細的數據分析,觀測出不同類型用戶被推薦的熱點內容,以及不同議題被推薦的熱度。例如,可以加強對青少年群體或老年人群體被推薦內容的動態評估。針對可能引發社會廣泛關注和激烈爭論的輿論熱點和關鍵議題,監管部門必要時應介入、干預平臺推薦算法策略,通過調整推薦策略來影響信息內容分發,阻斷極端思想、錯誤思潮和虛假信息的傳播,阻止可能引發的群體對立,從而維護網絡空間的安全與穩定。

六、研究結論與未來展望

本文基于機器行為學思想,采用實驗方法,以用戶視角對平臺推薦算法結果進行跟蹤記錄,通過實驗數據的對比分析,驗證了平臺推薦算法結果差異的可測性?;趯嶒灲Y果,本文提出了對不同平臺推薦算法進行大規模數據測試和檢驗,測量平臺推薦算法運行邏輯與推薦效果的監管方式。對于平臺推薦算法治理而言,不打開算法“黑箱”成為可供選擇的新模式,同時也為全面提高監管有效性、建立多層次和多元化的監管體系提供了更為豐富的實施路徑。政府監管部門可通過模擬具有統計學意義的、不同行為習慣的規模用戶,對算法推薦效果進行跟蹤記錄,對推薦算法開展評測和監管,并據此對平臺企業提出整改意見或作出行政處罰。

本文提出的“黑箱”下算法治理是用技術手段解決技術風險思路的具象化,目前仍處于初步探索層面。后續研究可能將在兩個向度進行延伸:在實證層面,探究、驗證平臺推薦算法運行機制、結果差異與存在的問題,仍需要規模更大、場景更為復雜的數據測試。通過模擬更加復雜的用戶行為偏好、增加實驗用戶數量和延長測試時間等方式,可以提升問題發現的準確度。結合外部評測結果和真實用戶數據采樣,也可以準確發現當前平臺中熱度較高、爭論激烈、廣泛推薦的公共性議題,進而對相關熱點內容的推薦情況和效果進行研判,及時防范、化解平臺推薦算法風險。在理論層面,鑒于監管行為本身比推薦算法具有更強的可解釋性要求,關于“黑箱”下算法治理的理論對話與理論建構同樣是亟待討論與擴展的重要議題。目前,相關監管邏輯、思路、模式、策略的討論受限于相關理論研究的匱乏,尚無法形成層次性、體系性的理論框架和實踐路徑。相關理論思考至少將涉及管理學視角中,不同信息對稱性條件下的多主體監管博弈理論模型建構,傳播學視角互聯網情景中群體與個體復雜交互下的行為理論拓展,法學視角算法效果差異背后的主觀責任確認機制等議題。這只有多學科背景研究者的廣泛關注,才能從現有思路出發系統性設計“黑箱”下算法治理的實踐方案。

猜你喜歡
黑箱信息內容監管
拒絕黑箱
淺析知識倉庫及其在企業管理中的應用
信源、信息內容、情緒特征對微博轉發的影響探究
論《網絡信息內容生態治理規定》的創新與完善
失蹤的黑箱
微信公眾平臺推送信息內容對顧客品牌忠誠的影響
監管
監管和扶持并行
放開價格后的監管
實施“十個結合”有效監管網吧
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合