?

邁向信任的算法個性化推薦

2024-05-08 17:07林嘉羅寰昕
編輯之友 2024年3期
關鍵詞:信息繭房個性化推薦

林嘉 羅寰昕

【摘要】個性化推薦主要面臨威脅人類主體自主性、“信息繭房”與“回音室”效應、大數據“殺熟”方面的質疑?!耙绘I關閉”功能因能夠實現隱私個人控制、促進信息自由流通和預防價格歧視而被推崇。然而,用戶往往缺少隱私自治能力,個性化推薦造成群體極化之前首先具有議程凝聚、促進交往的價值,以關閉個性化推薦來解決價格歧視存在目標和手段的錯位?!耙绘I關閉”不僅難以符合規制預期,其自身還存在可操作度低和所承載公共價值模糊的弊端。個性化推薦的治理應以算法向善為方向,通過打造以信任為中心的透明可解釋、用戶交互友好的算法推薦,發揮個性化推薦的公共價值,增進社會福利。

【關鍵詞】個性化推薦 算法規制 可信算法 隱私個人控制 “信息繭房”

【中圖分類號】G206 【文獻標識碼】A 【文章編號】1003-6687(2024)3-079-10

【DOI】 10.13786/j.cnki.cn14-1066/g2.2024.3.011

2021年12月,國家網信辦等四部門聯合發布《互聯網信息服務算法推薦管理規定》(以下簡稱《算法推薦規定》),為算法推薦服務提供了規范指引。其中,《算法推薦規定》第17條第一、二款分別規定:“算法推薦服務提供者應當向用戶提供不針對其個人特征的選項,或者向用戶提供便捷的關閉算法推薦服務的選項”“用戶選擇關閉算法推薦服務的,算法推薦服務提供者應當立即停止提供相關服務”。該規定在實踐中演化為“一鍵關閉”功能,備受關注。2022年國際消費者權益日到來之際,《經濟日報》發布一則名為《微信、抖音、淘寶、微博等頭部APP已允許用戶一鍵關閉個性化推薦》的報道, 經各大主流媒體轉發,引發很大反響。[1]

“一鍵關閉”功能廣受好評,被認為是推動個人信息保護、消費者權益保護的有益舉措。正如《人民日報》評論稱,“算法”不能變“算計”,“一鍵關閉”個性化推薦功能有助于壓實平臺責任,“進一步推動解決近年來人們反映強烈的信息繭房、算法歧視、大數據殺熟等問題”。[2]

基于上述背景,本文將回顧“一鍵關閉”個性化推薦作為算法規制措施的由來,即立法者對其功能有著怎樣的預期?這些功能預期是否順利實現?通過回溯“為何要一鍵關閉個性化推薦”,力圖說明“我們追求怎樣的個性化推薦”是比單純拒絕個性化推薦更具現實意義的命題。校準對于算法推薦系統的規制目標后,本文試圖從打造透明可解釋和交互友好的可信算法推薦等方面提供規制新解。

一、個性化推薦的“原罪”

對個性化推薦的質疑主要來自三方面,這些質疑分別從隱私保護、群體極化和偏見歧視角度對個性化推薦技術展開批評。[3]

1. 算法過濾取代用戶判斷

個性化推薦中,算法過濾取代用戶判斷,損害個人的信息自主權,進而威脅人類主體的自由與自主。個性化推薦的實現需要對用戶的設備信息、位置信息以及在使用產品時的行為信息進行自動分析和計算,根據計算結果從信息候選池中篩選出用戶可能感興趣的內容進行推送。由此,個性化推薦算法取代用戶自身,決定了用戶所獲信息的內容和范圍,并因此被譴責威脅到人類的自主價值。關于人的自主選擇能力對于人類尊嚴和價值的重要性以康德有關自由的學術思想為代表,在康德看來,人類擁有某種意志并且能夠自由地實踐自己的意志,有能力自律地行動,正是這種能力,而非運用這種能力的結果,對人類來說最為重要。[4]康德的主體理論對近現代自由主義思想影響深遠,當代數據隱私領域持續強調的個人信息自主、自治、自決概念,正是康德理性主義精神的體現。[5]對個性化推薦的批判符合古典自由主義傳統?;ヂ摼W以及操控互聯網的大型平臺,決定了信息如何呈現給世界,搜索引擎、社交媒體、電子商務等大型平臺決定了用戶可以獲得哪些信息以及以何種形式獲得信息。個性化算法推薦過濾掉它認為與用戶愛好不相關的信息,即用算法過濾取代用戶有意識的自主選擇。通過塑造用戶接收信息及與信息交互的方式,個性化推薦控制了人與信息以及人與人之間的互動,通過控制用戶在線互動的內容和對象,個性化推薦限制了用戶主動選擇信息內容和信息來源的能力,因而被批評。

2.“信息繭房”與“回音室”

“信息繭房”與“回音室”效應是對個性化推薦的常見批判,亦可描述為數字權力的濫用,批評者表達了定制信息服務對言論自由和協商民主的危害。[6]“信息繭房”與“回音室”的概念由美國學者桑斯坦提出,其通過21世紀初出版的著作《信息烏托邦:眾人如何生產知識》《網絡共和國》《網絡共和國2.0》和《標簽共和國》系統論述了信息通信的民主功能,并引入了“信息繭房”與“回音室”效應等概念?!靶畔⒗O房”與“回音室”效應形象地描述了過去傳播學研究中提出的“選擇性心理”及其結果,在桑斯坦看來,“信息繭房”意味著人們只聽他們選擇和愉悅他們的東西。作為一名憲法學者,桑斯坦把對社交媒體的研究和政治民主結合,他認為,一個運轉良好的民主社會中,人們不會生活在“回音室”或“信息繭房”之中,并進一步提出審議民主質量應作為信息通信的評價標準,一個好的通信系統應有助于促進“協商”。正如有學者評價,“與其說桑斯坦關注的是民主,不如說他關注的是‘協商”。[7]桑斯坦對“信息繭房”與“回音室”效應的批判源于對審議、反思及問責的民主制度的追求,擔憂預先過濾會威脅到網絡用戶作為公民獲取信息、溝通協商、表達觀點的空間。在《標簽》中,桑斯坦提出兩個更為具體的促進觀點流動和民主秩序的標準:不期而遇的機會與共享經驗。[8]個性化推薦技術被認為是數字時代阻礙信息流通局面和觀念市場繁榮的“元兇”,可能會導致信息窄化和用戶價值觀的封閉,進一步加劇群體極化和社會黏性喪失,最終造成社會分裂的不良后果,并且不利于區域化和全球化進程。

3. 用戶信息與瀏覽數據的貨幣化

對個性化推薦的批評之三源于用戶信息與瀏覽數據貨幣化造成的價格歧視風險。19世紀初,西方報業新聞界“黃色新聞”風靡一時,“黃色新聞”以大量漫畫和煽情報道吸引受眾眼球,采用以低售價、高發行量贏取高利潤的經營方式;如今進入新媒體時代,同樣是為了盡可能獲取受眾的注意力資源,個性化推薦和定向廣告也成為信息領域一種劃時代的象征?;ヂ摼W企業一方面提供免費信息服務,另一方面則通過用戶數據的貨幣化、商品化盈利。個性化算法推薦中蘊含的用戶畫像、定向廣告、“大數據殺熟”,引發消費者對于隱私與個人信息權益的擔憂, 并進一步演化為對算法歧視與偏見的控訴,價格歧視即為最受關注的一種。[9]當一家公司出于與供應成本無關的原因,對相同或類似的商品或服務向不同消費者群體收取不同的價格時,就會發生價格歧視。[10]經濟學文獻傳統上認為,個性化定價的發生需要四個條件:一是對消費者個人支付意愿的評估能力;二是消費者的套利能力有限;三是市場支配力的存在;四是通過隱藏這種商業行為來對抗消費者對個性化定價可能產生的負面看法的能力。[11]隨著大型互聯網平臺數據收集與分析能力的提高,個性化推薦算法的行為預測愈加準確,可以實現更有效和有針對性的個性化定價,而在網絡世界中,隱藏這種商業實踐相對更加容易,消費者很難通過定價和廣告機制辨別出有競爭力的替代方案,這使得個性化定價可以順利實施。

二、“一鍵關閉”的魅力

針對上述個性化推薦的數條罪狀,“一鍵關閉”作為算法治理手段具有充分的魅力。這種魅力從原理而言源于三方面:其一,數據隱私保護的“個人信息控制論”傳統;其二,信息自由流通對社會分裂與群體極化的免疫;其三,“一鍵關閉”呼應了互聯網用戶對“大數據殺熟”的反感與抗拒情緒。上述規制效果直覺性地理順了“一鍵關閉”的規制邏輯。

1. 隱私個人控制論

歐美數據隱私保護的智慧長久以來建立在一種自由主義范式之上,可稱之為“隱私控制”。[12]1890年,美國學者沃倫和布蘭代斯提出“隱私權”的概念,主張隱私權意味著“獨處的權利”。20世紀70年代,為了回應計算機數據庫處理個人信息時伴生的問題,公平信息實踐在美國應運而生,其歷經各個版本的演化,而核心命題之一始終是賦予個體以隱私自我管理的權利。歐盟《一般數據保護條例》(GDPR)于2016年通過,作為一部基本權利保障法,其制定的總體思路是基于“個人數據關系個人尊嚴”“賦予個人對自身數據的控制權以抗衡數據處理行為”的價值認知,進而創設個人數據保護權以保護個人權利不因個人數據處理而受侵害??梢?,經過多年的發展,數據隱私法的價值總是以自主控制的理想為中心。[13]

延續“隱私控制論”的邏輯,個人信息保護領域個人信息權和算法有關權利作為控制個人信息利用的個體權利,一直是數據隱私保護的核心。隱私法通常被稱為“以權利為基礎”的法律。盡管歐盟和美國存在人權保護傾向和市場規制傳統的差異,但可以說二者都發展出了以權利和控制為本位的隱私保護機制。正如上文所述,在這種保護范式中,可以清楚地看到康德式的自由主義政治理論根源,圍繞個人對其數據的權利,自由自主原則已經被確定并概念化。

我國的《個人信息保護法》出臺時間較晚,亦受英美等國隱私控制范式的影響,從近年來本土研究中有關個人信息“權”與個人信息自決的大規模討論中可窺一斑。[14]“一鍵關閉”個性化推薦是算法規制領域隱私控制保護范式的典型代表,它要求互聯網信息服務提供者向用戶提供不針對其個人特征的選項,即賦予用戶對個性化推薦的拒絕權。通過拒絕系統對用戶瀏覽、購買、點擊等行為的跟蹤,用戶得以控制其個人信息,主要是控制算法對其個人信息的數據分析,從而緩解對個人自主的威脅。

2. 信息自由市場

“一鍵關閉”在信息傳播和傳媒通信領域的重大魅力在于其刺破了為個人用戶專屬定制的“泡泡”,促進更廣泛和完整的信息在用戶處展現及流通。在有關表達自由以及媒介責任的論述中,一直存在所謂“觀念市場”的類比,它借用了經濟學相關概念,在這樣的一個市場中,真理和謊言相互競爭,人們期待前者終會戰勝后者。[15]觀念市場成為如黑格爾所追求的以“真理”構成人的“現實自我意識”的前提。

3.“殺熟”的歧視感知

“大數據殺熟”概念自創生起,即被社會公眾理解為一種負面現象。目前能檢索到的含“大數據殺熟”關鍵詞的20余篇閱讀量“10萬+”微信文章中,均對其使用否定評價,文章標題關聯了“被宰”“潛規則”“網友親測后氣炸”等容易激發消費者反面情緒的概念。在英文語境中,“大數據殺熟”即價格歧視,或稱差異化定價、個性化定價,是一種常見的經濟現象,在經濟學里作為中性詞,本質是彈性定價策略,根據消費者的消費意愿、消費行為和消費模式等因素收取不同的價格。在中文語境下,“歧視”則更容易傳遞否定性評價信息。

對“大數據殺熟”的負面情緒一方面來自大數據時代公眾對技術黑箱的恐慌;另一方面則源自天然的消費者直覺,“殺熟”的用詞從直覺看破壞了消費者的關系期待。對“殺熟”的抗拒情感可以從中國傳統人倫秩序方面進行理解。費孝通先生把中國社會結構特點歸納為“差序格局”,旨在描述親疏遠近的人際圈層。[16]以關系作為社會基礎的中國人偏重由關系或交情建立的信任, 盡管當前的網絡關系很難說仍維持了這種社會交往結構,但“殺熟”這樣的話術安排還是隱含了消費者與平臺及其算法系統之間信任關系的破裂。[17]傳統社會關系網的處罰機制通過聲譽效應實現,處在關系網中的個人難以承擔破壞信賴之后對聲譽的損壞?;ヂ摼W語境下,這種處罰機制依然若隱若現,大數據“殺熟”被廣泛報道后,往往喚醒了消費者對平臺企業的警覺和防范心理狀態,造成了大數據技術的低信任局面。在這種對抗情緒占主導的互動關系中,“一鍵關閉”自然成為一把利器,對于擔心被“殺熟”的消費者來說,關閉算法對其行為的跟蹤無疑是一劑安心藥。

三、“一鍵關閉”個性化推薦的迷思

“一鍵關閉”作為個性化推薦算法的治理手段,對其的各項質疑是否可以得到妥善解決?下文將從隱私個人控制悖論,個性化推薦的議程凝聚價值和“一鍵關閉”是否能夠作為價格歧視規制手段三方面進行分析,揭示以“一鍵關閉”治理個性化推薦所存在的手段與目標之間的錯位。

1. 隱私個人控制悖論

在個性化推薦場景中,“一鍵關閉”的隱私個人控制的規制范式存在兩方面疑問:其一,用戶是否有意愿行使控制權;其二,“一鍵關閉”后,用戶真的能控制自己的信息隱私嗎?即使平臺設計了便捷的“一鍵關閉”功能,用戶也可能對其熟視無睹。即使在“一鍵關閉”后,用戶也可能因體驗不佳又重新啟用個性化推薦。再者,即使用戶關閉個性化推薦,也并不意味著推薦的減少或者定向廣告的減少,向用戶撲面而來的可能是雜亂無章的信息和隨機且精確性大幅下滑的推薦,進而造成信息過載。用戶當然可以通過自己設置興趣標簽或者關鍵詞檢索的方式瀏覽信息,這看似是一種完美控制個人信息暴露環境和隱私利益的方式,但實際上又陷入了另一種形式的“信息繭房”——由于信息過載和用戶認知有限,這種信息繭房的桎梏效應可能比個性化推薦情境更加嚴重。

個人信息控制論的流行始終伴隨著爭議,體現為個人信息個體性和流通性的二律背反。在爭議的聲音中,最有力的兩條線索來自個人信息的場景化理解和行為主義規制。[18]1989年,耶魯大學法學院第16任院長波斯特發表一篇題為《隱私權的社會基礎:普通法侵權中的共同體與自我》的論文,由此奠基了未來20年以社群主義理解隱私的思潮。[19]國內近十年來發端的數據隱私研究中,康奈爾大學法學院教授尼森鮑姆的“場景融貫”理論可謂引用率最高的西方學術資源之一。根據尼森鮑姆的說法,對于人類而言,在一系列可能的關系和角色中相互交往,在特定的上下文中建立和協商“部分公開”的“隱私”概念是完全合適的,即共享第三空間介于嚴格的個人隱私概念和完全公共的非私人空間之間。[20]尼森鮑姆的思想內核亦源于對個人信息的社群主義理解,“場景”可以被認為是社群架構的具體化闡釋。醫患關系之間的信息關系常被用于生動形容場景化的隱私保護:醫生和患者之間構成了醫療信息使用的特定場景,病人當然地希望有關其醫療細節的某些隱私得到尊重,然而,這并不意味著患者或醫生絕對控制患者的健康信息,醫療細節往往會被適當地分享給其他關心該病例或相關的醫護人員,患者不會因此而感受到被冒犯。但如果醫生向藥物公司或廣告公司售賣患者醫療信息,患者當然地會感覺到隱私受到侵犯。

在社群主義隱私觀的哲學背景與場景理論指導下,進一步發展出隱私的行為主義規制進路,即個人信息保護應當根據不同行為所可能侵犯的個體與社會的不同權益而進行不同程度的規制。[21]這種對個人信息保護作為“行為法”而非“權利法”的理解,超越了個人信息保護的權利話語,成為個人信息控制論思想的有力競爭。運用“行為法”理解我國個人信息保護,《個人信息保護法》“旨在保護個人信息處理中的個人權益不受侵犯”,是“圍繞個人信息處理展開”的規范,而非關于個人信息權的法律。[22]依循行為主義規制的邏輯,對于如何規制個性化推薦,是行為限度問題,而非對個人信息的控制權行使問題。

2. 公共領域與交往理性

個性化推薦確實有加重“信息繭房”或“回音室”效應的可能,但從大眾媒體作為公共基礎設施的角度來看,“一鍵關閉”并不能直擊問題所在。促進協商民主的前提是議程凝聚。從議程設置理論發展出來的議程融合(Agenda Melding)理論,從深層次說明了公共議程對于社會整合的意義,麥庫姆斯和唐納德·肖認為, 媒體設置的議程之所以能作用于公眾,是因為它們具有聚集社會群體的功能, 而這是源于人們都有一種對于“群體的歸屬感”的需要。[23]議題凝聚是觀念沖撞的前提。我們彼此需要了解我們在討論一個什么樣的問題,我們是否在討論同一個問題,然后才是觀點的分享,結果有可能是和諧也可能是對立,最終的目標才是尋找共識?!敖徽劇北旧砭褪且患潜葘こ5氖?。[24]個性化推薦在造成群體極化和社會分裂之前,首先具有形成阿倫特、哈貝馬斯等學者所稱“公共領域”的重大意義,即促成主體之間合理的“交往”?!敖煌硇浴钡倪\用條件之一“言談的有效性”要求可理解、真實、正當和真誠?!耙绘I關閉”看似避免了信息的單一聚集,但有可能傷害在激化群體極化之前的討論場域、理性交談行動的形成以及一定程度共識的凝聚。數字時代的“文字失語”現象愈發普遍,個性化推薦讓用戶發現相似的觀點和那些表達相似觀點的人,首先應當肯定其增進溝通、鼓勵表達的重要價值。至于觀點的多元則需要合理的算法設計,“一鍵關閉”后并非就意味著能夠擁有一個理想、中立、多元的信息環境。

3. 議程、框架與“殺熟”誤解

議程設置和框架理論都是傳播學效果研究的經典理論,兩者都描述了媒介通過新聞報道構建出的“擬態環境”來影響受眾的議程和認知。議程設置理論由麥庫姆斯提出,講述大眾媒介對公共議程的影響,以及其塑造大眾對報道客體的屬性印象,簡單地說就是媒體不僅能決定人們想什么,還能決定人們怎么想??蚣芾碚撘话阏J為來自社會學,戈夫曼將貝特森提出的“框架”概念引入文化社會學,指出人們借助框架來識別和理解事件,對生活中出現的行為賦予一定的意義。議程設置理論注重媒介效果,強調新聞媒介對形成公眾意見的焦點施加的影響;框架理論注重研究媒介話語,重點在于意義的建構和文化共鳴。作為傳播學的經典理論,議程設置和框架理論試圖闡釋傳播和受眾的相互關系,講述大眾傳播塑造受眾認知的規律。正如李普曼在其著作《公眾輿論》一書中介紹的“虛擬環境”和“真實環境”的概念,外部世界是通過媒介呈現在我們每個人面前的,因此媒介如何選擇和報道事件將影響我們對外部世界的看法。[25]議程設置和框架理論有助于我們較好理解從大數據“殺熟”術語概念的產生到傳播,這一過程如何塑造了大眾對個性化定價的反感情緒與偏見態度。通常情況下,看到“價格歧視”的字眼,人們就會習慣性地揮舞起道德大棒,得出痛打大數據“殺熟”的結論。[26]

那么,大數據“殺熟”確實如其名號一般惡劣嗎?通過處理消費者個人數據實現的價格可塑性涉及法律和政策的許多領域:反壟斷、競爭、隱私、合同、消費者保護和反歧視,其知識體量之龐雜非本文所能容納。在此僅力圖說明一項有關價格歧視的共識,以解釋大多數消費者長久以來的誤解——價格歧視并不必然損害消費者福祉。①學術研究普遍認為,信息、價格歧視和消費者福祉之間的關系非常復雜,當企業擁有更多關于消費者偏好的信息時,總消費者剩余可能增加也可能減少。即使是在對個人信息保護采用較嚴格的人權保護模式的歐盟,價格歧視也更多被看作競爭法問題。[27]

以我國目前的規制實踐來看,對價格歧視的規制集中在競爭法領域,除了價格歧視與濫用市場支配地位、價格串通等壟斷行為相結合外,監管機構在個性化定價問題上的態度是謹慎和保守的。審判實踐中常見法院認為動態調價行為屬于正常經營行為、不構成價格欺詐的案例。從法律文本上看,立法所涉要件包括“不合理的差別待遇”“不公平的交易條件”,可以看出立法為差異化定價留有正當性空間。國務院反壟斷委員會最新發布的《關于平臺經濟領域的反壟斷指南》更是明確列舉了平臺經濟領域經營者實施差別待遇的正當理由。甚至有學者指出,完全的非個性化結果幾乎沒有可能,應把拒絕個性化推薦理解為一種“用戶感知標準”,即使經營者在提供搜索結果時無法避免利用與消費者個人特征相關的信息,其在呈現結果時也不應讓消費者有明顯的正遭受不利差別對待(歧視)的感覺,以此增加關閉個性化推薦的可操作性。②

可見,大數據“殺熟”并非如其名字一般的兇神惡煞,立法與司法的審慎態度在壓倒性的反“殺熟”報道聲音中鮮少受到關注。再者,“一鍵關閉”與價格歧視的競爭法規制并無手段與目標之間的相關性,且不論大數據殺熟本身是正效應還是負效應消費者并不清楚,關閉之后還有可能降低消費者福利。對于恐懼“殺熟”的消費者們,“一鍵關閉”或許是一劑抓錯的藥。

四、從“一鍵關閉”到“算法向善”

上文分析了對個性化算法推薦的常見質疑,并進一步闡釋了“一鍵關閉”功能可能無法達到預期的規制效果或并不適配所要解決的法律問題的理由?;氐健耙绘I關閉”功能本身,除了用來解決個性化算法推薦的弊端,這種選擇機制本身能否給用戶帶來價值?更深一層的問題是,我們需要怎樣的個性化推薦?

1. 關閉個性化推薦之后

算法推薦無處不在。推薦系統的任務是聯系用戶和信息,一方面幫助用戶發現對自己有價值的信息,另一方面讓信息能夠展現在對它感興趣的用戶面前,從而實現信息消費者和信息生產者的雙贏。[28]推薦系統和網絡時代早期的分類目錄、搜索引擎一樣,都是幫助用戶篩選信息的工具,但它們滿足的需求不同。搜索引擎滿足了用戶有明確目的時的主動查找需求,而推薦系統能夠在用戶沒有明確目的的時候幫助他們發現感興趣的新內容。分類目錄、搜索引擎、算法推薦都可以作為緩解信息過載的工具,算法推薦還具有發掘物品“長尾”的功能,推薦系統通過發掘用戶的行為,找到用戶的個性化需求,從而將長尾商品準確地推薦給需要它的用戶,幫助用戶發現那些他們感興趣但很難發現的商品。[29]

個性化推薦是推薦系統的一種,主要作用是通過分析大量用戶行為日志,向不同用戶展示不同的個性化頁面,來提高網站的點擊率和轉化率。盡管不同的網站使用不同的推薦系統技術,但總體來說,幾乎所有的推薦系統應用都是由前臺的展示頁面、后臺的日志系統以及算法推薦系統三部分構成的??梢哉f,算法推薦無法關閉,它總是存在。不妨進行這樣一場思想實驗:無論打開任何網站,首頁都需要根據一定邏輯陳列內容?!耙绘I關閉”個性化推薦,并沒有關閉推薦系統。那么,關閉了個性化推薦,留下的是何種推薦?

算法推薦的分類標準有很多,按傳統的分類方法一般分為基于內容的推薦、協同過濾推薦和混合算法推薦。

其一,基于內容的推薦為用戶推薦項目的依據是該項目與用戶之前偏好的項目有一定相似之處。其二,協同過濾推薦又可以分為基于用戶的推薦和基于項目的推薦?;谟脩舻膮f同過濾推薦在算法推薦中應用最廣泛,其基本邏輯是分析大量用戶對項目的評分以發現用戶偏好的相似性,然后向用戶推薦符合其偏好的項目??梢?,基于內容的推薦和基于用戶的協同過濾推薦均可以劃入個性化推薦范疇,前者需要分析用戶的歷史偏好以及產品標簽和用戶行為標簽之間的相關度;后者屬于典型的個性化算法推薦,其不僅需要分析特定用戶的偏好,還需要分析與用戶偏好項目相似的群體與該用戶之間的相關性。其三,混合算法推薦是指通過混合兩種或者兩種以上的推薦方法進行推薦,包括加權式、切換式、混雜式、層疊式和級聯式等形式。[30]最新的綜合性推薦系統還有基于深度神經網絡的算法推薦,深度學習算法能夠從多個角度學習用戶與項目之間的交互,這種深度混合學習有助于更全面地反映用戶的偏好,并增強模型的泛化能力。[31]混合算法推薦是數種算法融合的系統,其中只要涉及個性化算法推薦,其整體推測內容就帶有個性化推薦的屬性,無法單獨分割出非個性化推薦結果。對于深度學習與機器學習模型結合后的推薦系統,更是難以分割“個性化”與“非個性化”體驗,人們甚至不完全清楚模型中的“主要參數”是什么以及它們的效果是什么。

可見,上述三類常見的算法推薦都大體屬于個性化推薦范疇,一種可能符合“非個性化推薦”的算法是基于項目的協同過濾推薦,又被稱為項目對項目的推薦。[32]該系統不分析任何特定用戶的數據,而是根據給定產品和其他用戶(那些同意個性化推薦的用戶)的行為之間的關系來生成這些建議,這種推薦形式類似于“像你一樣對項目X評價很高的人,也傾向于選擇項目Y,建議你可以嘗試下項目Y”,以及“購買了 X的用戶,也購買了Y”。盡管這種算法推薦符合非個性化算法推薦的范疇,但其數據集的基礎依然需要其他同意個性化推薦的用戶的行為數據。另一種非個性化推薦類似于搜索引擎,如消費者直接填寫其偏好——“敏感肌”“混油皮”“無香款”“防曬指數”,根據這些信息,系統直接推薦定制化的建議,例如推薦一款粉底液。這種推薦系統從另一個角度看也屬于個性化推薦,只是個性化的信息是用戶主動輸入的結果,而非算法基于日志的分析。

經過上文的梳理可發現,真正符合非個性化推薦的算法推薦數量稀少。有學者指出,與其說“一鍵關閉”賦予了用戶對抗數字權力的武器,不如說它更有可能創造一種虛假的選擇權。[33]“一鍵關閉”功能強調對用戶而言選擇的重要性,但對于這些選擇背后所承載的價值卻出奇的模糊——關閉了個性化推薦,之后呢?正如上文所述,強調選擇的重要性更像是延續了一種對隱私自治的堅持,而隱私自治作為一種規制手段本身具有相當的局限性。即使用戶能夠真正有效管理一個算法推薦系統,設想一個熱衷于馴服算法的用戶,他/她果斷地關閉個性化推薦功能,并自主設計感興趣的標簽,又將界面內容按自己偏好進行了排序,這難道不是恰恰印證了“信息繭房”和“回音室效應”?反過來設想,一個并不知道有“一鍵關閉”功能的用戶,抑或怠于關閉推薦的用戶(可能大多數用戶屬于此類),在某日打開一款視頻軟件,首先瀏覽了首頁的推薦內容,然后進入自己的關注列表查看了博主的更新,接著又點進了熱搜頁面閱讀今日熱點,再在搜索欄上檢索了一個同事推薦的短視頻,最后關閉了這個視頻軟件,打開了另一款新聞軟件。這位用戶雖然沒有行使“一鍵關閉”的選擇權,但可能更加滿足“一鍵關閉”功能預設的預防信息窄化的目標。

究其根本,“一鍵關閉”作為一種規制工具,可能在工具所承載公共價值的設想上出現了錯位。正如上文所言,“一鍵關閉”并不意味著用戶能夠控制其數據隱私,“信息繭房”“回音室效應”與個性化推薦并沒有必然關聯,價格歧視也非“一鍵關閉”所能夠解決的問題。再者,個性化推薦真的能夠“一鍵關閉”嗎?用戶一鍵關閉了哪些推薦要素?關閉之后的算法產品是怎樣的面貌?這些疑問都共同導向了一個算法推薦規制的更根本的命題——我們需要怎樣的算法推薦?

2. 校準目標:算法向善

當算法推薦乃至個性化推薦無法回避,探究“我們追求怎樣的算法推薦”是比“我們如何關閉個性化推薦”更關鍵的命題。向用戶推薦其可能感興趣的商品可能會讓其感到隱私空間受到冒犯;但向用戶推薦其不感興趣的廣告,可能也是另一種低效。以向善的技術倫理觀引領個性化算法推薦,目標是使其最大化為人類帶來福利,最小化可能的風險和危害。

不妨回顧一下個性化推薦的前世今生。在個性化推薦技術誕生以前,網絡平臺主要以受眾數量作為招攬廣告商資本的籌碼。為此,平臺公司需要不斷提高平臺的質量和用戶體驗,如搜索引擎追求準確的檢索結果,視頻平臺追求豐富的電影電視資源。個性化推薦誕生后,流量不再是一個終極標準,廣告商更看重的是廣告投放后的效果和質量,即算法推薦能否精確地分析出哪些用戶需要哪些廣告、哪些用戶更有機會被哪些廣告說服從而誘發購買行為,這比“我有多少用戶”更加重要。由此,相較于“做出更好的互聯網產品”,平臺經營目標向收集用戶行為數據和挖掘消費意愿傾斜,這個過程可能會損害消費者福利,引發對分配正義的擔憂。

對算法推薦的塑造應兼顧對消費者負責和廣告投放需求兩方面,平衡互聯網平臺的公共價值和經濟激勵。個性化推薦不完全等同于平臺對數字權力的濫用,算法規制應鼓勵與用戶利益一致的個性化推薦。有學者將這種個性化推薦規制目標置于信義法框架之中,以忠誠義務規范個性化推薦技術基礎上的用戶畫像、定向廣告等行為。[34]忠誠的個性化推薦是指不以損害用戶利益的方式應用算法推薦,即使存在經營的經濟必要性沖突。[35]在一些紅線問題層面,忠誠的個性化推薦是比較好理解的,如電商平臺根據特定用戶的閱讀偏好推薦新書被認為是符合用戶利益的,但針對受保護、邊緣化或弱勢群體的個性化推薦是不被允許的,如包含地域歧視或民族歧視的招聘廣告投放。是否為忠誠的個性化推薦需要根據特定信息的關系性質和所承載的公共價值來進行判斷,如雖然都是根據地理位置信息投放的行為廣告,但招聘廣告可能會被認定為就業歧視行為,其他類型的廣告服務如美妝廣告則不在禁止范圍。①

如果說忠誠的個性化推薦能為用戶提供防御型的保護,那探究個性化推薦背后的公共價值則是力圖為用戶乃至公眾提供一種積極性的保護,尤其是對于眾多大型平臺來說,履行社會責任和服務集體福利是我國數字經濟發展戰略對其的內在要求。作為不同的公共產品類型,個性化推薦承載了多元化的公共價值。作為大眾傳播的新聞媒體是公共服務型產品的代表,其以提供全面客觀、多元真實的訊息服務為使命,因此無論是傳統媒體平臺、資訊整合平臺還是新聞定制化平臺,除履行忠誠義務外,還具有信息交流、文化凝聚、民主參與和大眾教育等意義,平臺企業應主動承擔這些公共使命,以主流價值觀引領算法參數設計。個性化的信息服務通常具有積極意義,尤其是促進了無數小眾知識、興趣市場的崛起,但信息的意外邂逅和共同經驗也很重要,算法參數的開發應致力于對兩方面的統籌,如有關某社會事件的評論,可以同時推薦各方意見,而非限于一方觀點刺激群體極化,以創造一個交換評論與批評的場所,帶來去極化效應。[36]

無論是否“一鍵關閉”,忠誠義務和公共價值追求都應該成為個性化推薦的內在品格?!耙绘I關閉”的制度安排當然很有意義,但只有在明確其制度目的和價值追求的基礎上才能夠更好發揮該制度的意義。相較于作為一種隱私和信息控制工具,個性化推薦更適合被當作一種關于信息服務的多樣化的選擇。對于用戶而言,不是“一鍵關閉”才能享受安全的個性化推薦,無論平臺提供何種算法推薦,其應當都是安全可靠的。個性化推薦可能是一種更便捷、更直觀的選擇,但并不一定是最好的選擇,信息產品市場應允許并鼓勵不同用戶的不同信息獲取偏好。即使個性化推薦是安全的,也會有用戶選擇“一鍵關閉”,使用自己的“大腦算法”。從這個意義上來說,“一鍵關閉”是為了滿足瀏覽的個性化審美而存在的,也是為了滿足多樣化偏好而存在的。

五、邁向信任的算法個性化推薦

對于個性化推薦技術的功過評判,并非如“一鍵關閉”功能那樣直接果斷,評價任何一種通信系統是可取還是不可取都過于簡單。在飽受批評以前,個性化推薦也曾被認為是互聯網媒體時代的偉大發明,極大優化了用戶體驗,滿足了人民群眾日益增長的新聞媒體需要。無論是對“一鍵關閉”的規制還是公眾對個性化推薦的擔憂,在更大層面上都體現了公眾對科技行業的不信任。讓個性化推薦更好服務于人類社會,需要打造可信推薦,在為用戶提供高質量信息服務的同時增進社會福利。以可信算法為目標塑造個性化推薦,可從劃定個性化程度的法律限度和構建透明可解釋、交互友好的算法方面著力。①

首先,政府監管應為個性化推薦劃定紅線。我國有關算法推薦的法律紅線由來已久,2016年“魏則西事件”促使醫療信息的競價排名模式納入醫療廣告監管范圍。在國外,“劍橋分析事件”后,美國眾議院通過了《誠實廣告法》,要求所有社交媒體披露線上的政治競選相關數據。歐盟最新《數字服務法案》明確限制數字巨頭的在線廣告行為,阻止平臺利用基于性別、種族或宗教等數據的算法來針對用戶,也禁止針對兒童投放廣告,試圖將人們推向某些產品和服務的欺騙性策略也被禁止。個性化推薦中,無論是行為廣告還是內容推薦,都需要法律劃定一定限度。如針對青少年,應鼓勵使用防沉迷的個性化算法推薦;針對醫療、求職等敏感信息的個性化推薦,應遵守倫理與道德邊界。除法律劃定紅線以外,不同場景的個性化推薦系統還應注意培養用戶與算法之間的信任關系,避免超出隱私期待的推薦內容導致用戶的恐慌和猜疑情緒,在全社會營造健康可持續的算法推薦生態。有研究指出,消費者有兩類非常反感的定向廣告類型,分別是利用從第三方網站而不是廣告出現的網站獲得的信息制作的廣告,以及在用戶沒有主動披露的情況下推斷出的相關敏感信息(如懷孕)。[37]避免引起用戶不滿的算法推薦,有助于消除懷疑和反感,培育平臺與用戶之間的信任互惠關系,在平臺經濟健康發展的同時,使用戶也不斷受益。

其次,采用透明可解釋的算法推薦并增強平臺與用戶之間的互動反饋,培養用戶對算法的信任。打造可信任和受歡迎的個性化推薦,不能僅注重算法推薦獲取用戶注意力和推測用戶偏好的定制化服務,還應發揮推薦系統作為大眾傳播的政治、經濟和社會功能。

有關透明與可解釋的算法治理由來已久,就個性化推薦而言,透明與可解釋不是簡單的信息披露或者賦予用戶隱私控制權,而應致力于以保障知情權的方式培養用戶信任,打造安全可靠的個性化推薦系統。盡管完全的隱私個人控制在信息時代并不可能,但算法推薦可以努力讓用戶感受到對信息與隱私的一定掌控力,以達到增進信任關系和互動關系的目的。平臺增強自身的可信賴性,不僅對用戶有利,對其自身也有利。有研究指出,當用戶信任一個平臺時,算法透明有助于增加定向廣告的效率。[38]除了傳統的算法透明規定明確的告知義務外,以信任為中心的算法推薦還可嘗試向用戶解釋其為什么要收集這些個人信息,以及這些信息將如何產生更恰當、高效的廣告。扎克伯格在美國參議院接受質詢時談道:“盡管有些人不喜歡廣告,但人們也不想要無關緊要的廣告……我們從社區得到的壓倒性反饋是,人們寧愿我們展示相關性內容?!痹诳山忉尫矫?,同樣要以信任關系為中心,算法解釋應針對特定場景用戶最關心和擔憂的問題。如谷歌的英語搜索增加了信息評估功能,對于特定搜索結果附加在線評估信息提示,提醒用戶可以檢查某個主題的信息來源是否受信任,或者稍后在有更多可用信息時再行檢索,除此以外,還提供了來自獨立事實核查機構的事實核查功能,以及其他提升信息檢索質量的措施。

如果說透明可解釋的個性化算法推薦系統為用戶提供了基礎性的安全保障,交互友好的算法推薦設計則力圖挖掘和拓展用戶的興趣與偏好,為用戶打造一個多元信息溝通格局?!耙绘I關閉”功能內含了對“選擇權”的追求,但這種目標內嵌在隱私自治的邏輯中,具有相當的局限性。建立交互友好的個性化推薦系統同樣是對選擇權的強調,但其背后所承載的價值目標是信息多元化,致力于挖掘用戶興趣的“長尾”,而非一味圈住用戶的特定興趣。以用戶興趣和傳播信息的完整性和多樣性為目標,平臺應從用戶和物品角度設計多樣化算法推薦,以更精準并且多元的方式為用戶做推薦,破除信息繭房。在克服用戶“選擇性心理”方面,平臺可以通過交互界面的“助推”來實現目標, 同時,國家應注重對數字公民媒介信息素養的教育,促使用戶建立多元化理解信息的意識。[39]“賦能過濾泡泡”和“反過濾泡泡”是打造交互友好系統的經典工具。[40]一方面,“賦能過濾泡泡”意味著提高用戶定制算法推薦的能力,如鼓勵新用戶在進入平臺前選擇某些關注標簽,并告知隨時可在特定位置修改個人偏好。提高用戶定制化能力旨在消除用戶對被數據操控的擔憂,培養用戶的信任感。另一方面,“反過濾泡泡”則故意讓人們看到與他們的觀點和偏好相反的信息,以避免同質化推薦導致的群體極化和信息級聯。

“用戶比大多法學學者想象中更喜歡算法決策?!盵41]一旦基于代碼的決策在成本、速度、準確性方面更具優勢,消費者對算法的偏好就會增加,在許多案例中,人們表現出更喜歡公式而不是人類。個性化推薦具有增進人類福祉,創造更好世界的充分潛力,它需要具有信息素養的專業群體的積極作為、主動塑造,而非簡單交給用戶“一鍵關閉”的權利。正如習近平總書記在網絡安全和信息化工作座談會上強調的,“辦網站的不能一味追求點擊率,開網店的要防范假冒偽劣,做社交平臺的不能成為謠言擴散器,做搜索的不能僅以給錢的多少作為排位的標準”?!耙绘I關閉”功能于時代的意義應當與特定的公共價值目標結合,我們有理由期待一個以可信賴個性化推薦增進人類福祉的社會。

參考文獻:

[1] 佘穎. 把算法開關交給消費者,好![N]. 經濟日報,2022-03-16(5).

[2] 人民日報評論:一鍵關閉“個性化推薦”,避免“算法”變“算計”[EB/OL]. [2022-03-17]. https://mp.weixin.qq.com/s/yNnZ_2vL4b1lhxRU1VfIgw.

[3] 林洹民. 個性化推薦算法的多維治理[J]. 法制與社會發展,2022(4):166.

[4] 史蒂芬·繆哈爾,亞當·斯威夫特. 自由主義者與社群主義者[M]. 孫曉春,譯. 長春:吉林人民出版社,2011:9.

[5] Daniel J. Solove. Understanding Privacy[M]. Cambridge: Harvard University Press, 2008: 85.

[6] 林嘉,羅寰昕. 數字權力治理中的社會法定位與進路[J]. 東南學術,2023(6):228-236.

[7] 孫競超. 社交媒體能為民主做什么?——讀桑斯坦的《標簽共和國》[J]. 北大法律評論,2019(1):275-292.

[8] 凱斯·桑斯坦. 標簽[M]. 陳頎,孫競超,譯. 北京:中國民主法制出版社,2021:55.

[9] Sandra Wachter. Affinity Profiling and Discrimination by Association in Online Behavioral Advertising[J]. Berkeley Technology Law Journal, 2020(2): 367-430.

[10] Inge Graef. Algorithms and Fairness: What Role for Competition Law in Targeting Price Discrimination Towards End Consumers[J]. Columbia Journal of European Law, 2018(3): 541-559.

[11] Pascale Chapdelaine. Algorithmic Personalized Pricing[J]. New York University Journal of Law and Business, 2020(1): 1-47.

[12] Paul M. Schwartz. Privacy and Democracy in Cyberspace[J]. Vanderbilt Law Review, 1999 (6): 1610-1701.

[13] Neil Richards, Hartzog Woodrow. Taking Trust Seriously in Privacy Law[J]. Stanford Technology Law Review, 2016(3): 431-472.

[14] 梅夏英. 在分享和控制之間:數據保護的私法局限和公共秩序構建[J]. 中外法學,2019(4):845-870.

[15] 凱斯·桑斯坦. 網絡共和國[M]. 黃維明,譯. 上海:上海人民出版社,2003:21.

[16] 費孝通. 鄉土中國[M]. 北京:人民出版社,2012:32.

[17] 翟學偉. 中國人的社會信任[M]. 北京:商務印書館,2022:167.

[18] 丁曉東. 個人信息私法保護的困境與出路[J]. 法學研究, 2018(6):194-206.

[19] Robert C Post. The Social Foundations of Privacy: Community and Self in the Common Law Tort[J]. California Law Review, 1989(5): 957-1010.

[20] Helen Nissenbaum. Privacy in context: Technology, policy, and the integrity of social life[M]. Palo Alto: Stanford University Press, 2010: 129-157.

[21] 丁曉東. 個人信息的雙重屬性與行為主義規制[J]. 法學家,2020(1):64-76.

[22] 高富平. 個人信息處理:我國個人信息保護法的規范對象[J]. 法商研究,2021(2):73-86.

[23] 彭蘭. 假象、算法囚徒與權利讓渡:數據與算法時代的新風險[J]. 西北師大學報(社會科學版),2018 (5):20-29.

[24] 劉擎. 劉擎西方現代思想講義[M]. 北京:新星出版社,2021:250.

[25] 沃爾特·李普曼. 公眾輿論[M]. 閻克文,江紅,譯. 上海:上海人民出版社,2002:13.

[26] 喻玲. 算法消費者價格歧視反壟斷法屬性的誤讀及辨明[J]. 法學,2020(9):83-99.

[27] Marco Botta, Klaus Wiedemann. To Discriminate or Not to Discriminate? Personalised Pricing in Online Markets as Exploitative Abuse of Dominance[J]. European Journal of Law & Economics, 2020(3): 381-404.

[28] 項亮. 推薦系統實踐[M]. 北京:人民郵電出版社,2012:2.

[29] 克里斯·安德森. 長尾理論[M]. 喬江濤,譯. 北京:中信出版社,2006:35.

[30] Erion ?ano, Maurizio Morisio. Hybrid Recommender Systems: A Systematic Literature Review[J]. Intelligent Data Analysis, 2017(6): 1487-1524.

[31] 李孟浩,趙學健,余云峰,宋學永,孫知信. 推薦算法研究進展[J]. 小型微型計算機系統,2022(3):544-555.

[32] Linden, G, B. Smith, J. York. Amazon.Com Recommendations: Item-to-Item Collaborative Filtering[J]. IEEE Internet Computing, 2003(1): 76-80.

[33] Natali Helberger, Max Van Drunen, Sanne Vrijenhoek, Judith M?ller. Regulation of news recommenders in the Digital Services Act: empowering David against the Very Large Online Goliath[EB/OL].[2021-12-06].https://policyreview.info/articles/news/regulation-news-recommenders-digital-services-act-empowering-david-against-very-large.

[34] Hartzog Woodrow, Neil Richards. The Surprising Virtues of Data Loyalty[J]. Emory Law Journal, 2022(5): 985-1034.

[35] Hartzog Woodrow, Neil Richards. A Duty of Loyalty for Privacy Law[J]. Washington University Law Review, 2022(3): 961-1021.

[36] Lucien Heitz, Juliane A. Lischka, Alena Birrer, Bibek Paudel, Suzanne Tolmeijer, Laura Laugwitz, Abraham Bernstein. Benefits of Diverse News Recommendations for Democracy: A User Study[EB/OL].[2022-02-08].https://www.tandfonline.com/doi/full/10.1080/21670811.2021.2021804.

[37] Leslie K. John, Tami Kim, Kate Barasz. Ads That Don't Overstep How to Make Sure You Don't Take Personalization Too Far[J]. Harvard Business Review, 2018(1): 62-69.

[38] Tami Kim, Kate Barasz, Leslie K John. Why Am I Seeing This Ad? The Effect of Ad Transparency on Ad Effectiveness[J]. Journal of Consumer Research, 2019(5): 906-932.

[39] Judith Vermeulen. To Nudge or Not to Nudge: News Recommendation as a Tool to Achieve Online Media Pluralism[J]. Digital Journalism, 2022(10): 1671-1690.

[40] Derek E. Bambauer. From Platforms to Springboards[J]. Georgetown Law Technology Review, 2018(2): 417-431.

[41] Derek E. Bambauer, Michael Risch. Worse than Human? [J]. Arizona State Law Journal, 2021(4): 1093.

Trust-Based Algorithmic Personalized Recommendations:

Reflections on the Law of "One-Click-Off "

LIN Jia, LUO Huan-xin(Law School, Renmin University of China, Beijing 100872, China)

Abstract: Personalized recommendations have been challenged as a threat to human autonomy, the "information cocoon" and "echo chamber" effect as well as the "killing of familiarity" by big data. The "one-click-off" function is promoted as a way to achieve personal control over privacy, promote the free flow of information and prevent price discrimination. However, users often lack the capacity for privacy autonomy, and algorithmic recommendations have the value of cohesive agendas and facilitating interactions before causing group polarization. In addition, there is a misalignment of goals and means to solve price discrimination by turning off personalized recommendations. The "one-click-off" option does not only fail to fulfill the functional expectations of legislations, but also suffers from poor operability and the ambiguity of the public values it carries. The reform of personalized recommendations should be oriented towards algorithmic goodness, and through the creation of trust-centered, transparent and interpretable algorithmic recommendations that are user-friendly. In the meanwhile, the public value of personalized recommendations should be brought into play to enhance social welfare.

Key words: personalized recommendation; regulations on algorithm; trustworthy algorithm; personal control over privacy; “information cocoon”

猜你喜歡
信息繭房個性化推薦
后真相時代的信息傳受方式與應對路徑
微時代大學生“信息繭房”效應干預
社交媒體時代下新聞產需變化芻議
基于遠程教育的個性化知識服務研究
“信息繭房”禁錮了我們的雙眼
基于鏈式存儲結構的協同過濾推薦算法設計與實現
個性化推薦系統關鍵算法探討
基于協同過濾算法的個性化圖書推薦系統研究
“信息繭房”禁錮了我們的雙眼(觀察家)
文本數據挖掘在電子商務網站個性化推薦中的應用
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合