?

生成式人工智能背景下網絡信息生態風險的法律規制

2023-02-28 19:53侯東德張麗萍
社會科學研究 2023年6期

侯東德 張麗萍

一、問題的提出

人工智能技術幾乎重塑了我們的生活方式。諸如智能推薦等方法是如此熟悉而普遍,以至于很難引起關注,更不用說將它們視為與無數社會控制和權力實踐聯系在一起的社會秩序的核心組成部分了。這些做法正在給網絡空間及社會文化帶來變化。個體,曾經被理解為道德或理性行為者,越來越多地被塑造為不斷更新的人工智能算法作用的對象。這種從道德主體到精算主體的轉變標志著國家和其他大型組織對個人行使權力的方式發生了變化?;谛畔⑸鷳B理論視角下信息生態系統構成要素的信息人、信息本體、信息環境及其之間的連環共生關系①參見靖繼鵬、張向先主編:《信息生態理論與應用》,北京:科學出版社,2017年,第6—13頁。亦呈現出新的特征。預訓練模型加速了人工智能技術的迭代更新,以chatGPT 為代表的生成式人工智能的廣泛應用使網絡空間信息傳播方式從平臺與算法的分發推送模式向智能問答模式轉變;將此類模型接入搜索引擎、音視頻生成、出版、教育等垂直行業領域應用將指數級提升服務及應用效率,大幅加速產業升級。生成式人工智能在輸出及應用端的出彩表現需要前期海量的數據資源投喂訓練與內嵌算法作支撐,基于算法、模型、規則生成信息內容的無監督或部分監督式的學習框架①See Mla?an Jovanovi? and Mark Campbell, “Generative Artificial Intelligence: Trends and Prospects,” Computer, vol. 55,no.10 (October 2022), pp.107-112.不僅能夠提煉信息內容,還能夠利用既有內容檢測訓練痕跡并學習其模式和分布。作為網絡安全、政治安全的重要組成部分,生成式人工智能背景下系列應用中算法內嵌價值偏向和基于特定目的的導向性利用均使其存在網絡信息生態異質化塑造的可能,并在應用及實踐過程中引發信息生態風險,主要體現在以下方面:

第一,主流價值離散風險。一方面,算法分發模式下信息內容推送機制和敘述方式變化產生對主流信息內容傳播效力的消解作用。與科層制傳播結構信息內容的推薦、審核、把關流程不同,算法主導下信息內容創作及推送機制呈現出顯著的效率和商業利益導向特征,這由信息主體、信息載體與信息環境各要素的改變所共同決定。商業利益驅動下的所謂用戶黏性提升和通俗內容廣泛傳播勢必在一定程度上擠占主流價值內容傳播空間,影響著主流信息內容所承載的涵養及教化功能的實現。另一方面,信息傳播機制的去公共化議程削弱了主流價值引領。由李普曼提出的議程設置理論認為,大眾媒介可以通過信息供給和議題安排有效左右人們對公共事務的關注,影響公眾意見發表的先后順序。人工智能推薦算法主導下的議程設置呈現出去公共化趨勢。社會主流價值內容傳播面臨障礙,社會公共議題萎縮,主流價值引領面臨困境。

第二,網絡輿論群體極化風險。人工智能算法支撐帶來信息分發效率不斷提高的同時也產生了信息繭房和回音室效應;去中心化的信息傳播機制、去公共化的議題設置機制使得主流價值引領乏力,大眾對民間意見領袖的盲目跟隨等都使公共輿論場域暗含群體極化風險。其一,信息繭房引發觀點極化。人工智能算法圍繞用戶個體興趣和所在圈層進行信息分發,長期沉浸于同質化的信息氛圍之中,單一信息環境構成群體極化的誘因之一。其二,盲目跟隨引發觀點極化。個體的主觀性和局限性決定了用戶在面對公共事件時缺乏相應的專業與嚴謹判斷,于是或受群體意識壓迫,或被特定利益集團蠱惑,往往做出與客觀事實理性相違背的主觀判斷、情緒發泄及輿論輸出。這將在更大程度上擴大既有觀點聚合,事實上發揮推動群體極化形成的作用。其三,價值依附引發觀點極化。面對公共事件,除少數用戶群體選擇將官方主流媒體作為唯一可信渠道外,多數群體往往或基于自身感性認識,或選擇追隨所謂民間意見領袖,將自身價值判斷依附于他方。社會心理學中的從眾心理和羊群效應使得相對溫和的個體觀點趨向于沉默或跟隨,往往趨向于觀點極化。②參見尹寒、楊軍:《試論自媒體時代網絡輿論群體極化及其引導機制》,《湖北社會科學》2023年第2期。

第三,公共信任體系崩潰風險。其表現在于:一方面,智能內容生成模型與算法分發帶來的信息生產、傳播機制的轉變,引發媒體公信力危機。新聞報道尤其是負面或虛假新聞報導是引發公眾對政府、媒體以及社會不信任的重要感知來源。③See Dhavan V. Shah, “Civic Engagement,Interpersonal Trust, and Television Use: An Individual-level Assessment of Social Capital,” Political Psychology, vol.19, no.3 (September 1998), pp.469-496.算法生成內容和信息傳播機制產生用戶閱讀習慣的轉變需要新聞業者適度轉變信息創作方式和傳播策略以做出應對。但這一過程的風險在于,如果無法在完整的內容生產和傳播鏈條中保障信息的真實與準確,那么媒體的公信力也將在一次次的即時推送中被無情消解。另一方面,作為政策公信力來源的專家被過度消費,引發公共政策合理性危機。社會決策的做出基于兩個重要方面:決策的科學化與決策的民主化。當前中國的民主化決策機制由人民代表大會制度和中國人民政治協商會議制度共同保障實施。決策科學化是政策合法性的重要保障。各領域專家學者以自身專業智識對社會發展中的各項問題做出可行性分析與合理論證,從專業角度提出相應解決方案,為政府決策提供科學化支撐。然而官方組織和商業機構都呈現出過度消費專家的傾向。這一表現反噬到公共信任體系和社會信任體系之中,“不信任媒體、不信任專家、不信任政府”的多重不信任狀態的社會心理蔓延,其結果是導致公共政策的合法性和合理性危機。④參見李瑞昌:《風險社會的政治挑戰》,《文化縱橫》2012年第5期。

二、網絡信息生態風險形成機理分析

首先應回歸科學技術的本質展開思考。技術中立在一種最低意義上表明了技術“具有討論起點意義的獨立性”,且蘊含著價值判斷、歸責原理和法律意義等三重意涵。①參見鄭玉雙:《破解技術中立難題——法律與科技之關系的法理學再思》,《華東政法大學學報》2018年第1期??茖W技術因其自身的客觀結構和物理屬性易產生技術中立“幻象”②參見劉興華:《數字全球化時代的技術中立:幻象與現實》,《探索與爭鳴》2022年第12期。,技術發展實踐的現實表明,其作為一種價值的實踐樣態進入公共領域之中正在制造著紛爭與風險。

(一)科學技術的兩重性

科學技術的去政治化面向使其獲得了技術反思的隱形性,且隱形程度較高。首先應明確的是,我們所說科學技術“異化”是反思的結果,即在科技的生產力功能支撐下整個社會呈現出發展高歌猛進、經濟空前繁榮、人民生活水平不斷提升的一派欣欣向榮景象,通過反思,于合理之中發現它的不合理性。發達工業文明中科學技術所具有的生產效率和效能以及創新和擴大生產方式、不斷更新和豐富舒適生活品質的能力,都表明其帶動社會繁榮的能力毋庸置疑??茖W技術以自身所蘊含的巨大內在力量獲得了上至國家下至大眾各階層的廣泛認同,統一了大眾的口味和興趣,這是一種無須辯白的合理性存在。與此同時,對商品的追逐成為人們生活的終極目的,汽車、房子、便利的生活方式、不斷更新的科技手段等逐漸成為人們生活的“真諦”。在科學技術作用下,個體與社會之間的連接機制悄然改變,科學技術通過實踐理性過程帶領人們朝著嶄新的、與傳統政治生活相背離的方向奔去,技術控制在科學技術不斷創造出的新的需要中愈加穩定??茖W技術與人們生活之間的聯系是如此緊密、如此堅固、如此必不可少,于是得以享有免于反思、免于批判的自由。

科技進步呈現出作為先進生產力和實現技術控制合法性的雙重功能??茖W技術具有促進生產效率提升和繁榮社會發展的積極價值。人們也許認為,科學與技術對社會控制是漠不關心的,盡管它在事實上可以變革或阻礙社會的發展。這種觀點認可科學技術本身的中立性,認為科學和技術在被利用的過程中體現出工具屬性,工具價值的發揮取決于利用主體的目的性活動。馬克思曾對這一中立性提出異議:“手推磨產生的是封建主為首的社會,蒸汽磨產生的是工業資本家為首的社會?!雹邸恶R克思恩格斯選集》第1卷,北京:人民出版社,2012年,第222頁。雖然這一論斷在其后的論述中又受到馬克思進一步修正,但不可否認的是科學技術對自然和物質世界的改造最終導致了對人的改造,技術作為“人的創造物”出自社會整體又返歸社會整體;技術實踐過程本身對社會控制漠不關心,但它的確具備變革或阻礙社會發展的能力。馬爾庫塞將這種關系稱為“技術先驗論是一種政治先驗論”。④赫伯特·馬爾庫塞:《單向度的人——發達工業社會意識形態研究》,劉繼譯,上海:上海譯文出版社,2006 年,第123頁??茖W技術的加成促進了科學的分工和社會管理的科學化,技術理性開始與實踐理性同步發展。這一過程既不表現為不合理的,也不表現為政治性的,而是表現為對擴大舒適生活、提高生產效率的追求。這種追求包含著一種征服意圖與屈從意味,展現出一種合理的極權主義傾向:它并非取消政治的合法性,而是使政治意圖得以滲透從而為政治統治辯護。從這個意義上講,科學技術變成了奴役的代名詞,科技從解放的力量轉而成為解放的桎梏,既實現了事物的工具化,也使人工具化了。

科學技術在網絡信息空間的廣泛運用使其逐漸形成一種近乎偶像化的新型技術控制力量。以私有財產制為基礎,商品交換的市場機制確保了交換關系的公平合理和等價進行。這種生產方式能夠將社會制度框架直接同勞動系統聯系在一起,所有制不再依賴政治制度而是通過合理的市場交換確立的生產關系獲得了自身合法性,也即統治制度依靠合法生產關系取得了自身的存在基礎。這種交換社會的科技力量取代了以往脫胎于文化傳統的神權思想,從社會勞動的根基上解決了社會控制的合法性問題,因而社會控制能夠“從下”而非“從上”得以合法化。進一步的發展階段表現為,科學技術作為第一位的生產力,科學技術進步的方向、作用和速度在根本上決定著社會各個系統整體利益的擴大,于是似乎就呈現了這樣一種現象:科技進步的內在規律在很大程度上決定了生產生活環境中事物發展的邏輯與規律,即使社會整體發展進步了,也不得不遵循這種規律。在這種邏輯下,技術控制論命題的合法性基礎得以進一步拓展。

(二)技術對信息生態的塑造

人工智能技術的物理屬性決定了其承載了信息生態塑造功能。同其他科學技術一樣,人工智能技術與算法均為人類主體理性建構的產物。技術決定論者克里斯托弗·梅指出:“很多闡釋都認定某些技術‘內嵌特殊規則’……內嵌著像自由、共同體、平等、利他主義和民主等價值……無論這些是內嵌著什么樣的內容,它都是這樣一種理念:技術形式具有與生俱來的特性,而這些特性是人類無法干預的?!雹侔驳卖敗げ榈峦耍骸痘ヂ摼W政治學:國家、公民與新傳播技術》,任孟山譯,北京:華夏出版社,2010年,第23頁。作為人類主體理性建構的產物,以算法為代表的人工智能技術在設計開發過程中會無意或慎重地嵌入個體價值觀念、一定的規范標準、常規慣例與社會形態之中,這由其自身的客觀結構和編程屬性所決定。而這些價值觀念、規范標準、慣例、社會形態與相應的信息生態語境密不可分,因而決定了算法等人工智能技術的非中立性,以及其作用于網絡空間信息生態環境的必然性。

人工智能的社會屬性決定了其持續發揮著信息生態塑造功能。以智能推薦為代表的人工智能技術,結合個體畫像和社群偏好進行精準化甚至引導性、傾向性的內容推送,在一次次的信息生產、分發、決策、推送等高頻行為過程中,持續地影響著人們的思維方式、行為模式和生活習慣,影響著網絡平臺用戶的價值觀念與輿論表達,并在此過程中改變并塑造著網絡空間的信息生態環境。以算法歧視為代表的人工智能技術,將年齡、性別、種族、職業、消費水平等各類為法律禁止或社會反對的歧視行為以算法黑箱名義嵌入各類應用之中,呈現出應用場景更加多元、作用方式更加隱蔽、更強的滲透力和影響力等特點。以機器學習和自動控制為代表的人工智能技術廣泛運用于智能家居、自動化生產、智慧醫療等場景,在社會生產生活中扮演的不再僅是支撐者、輔助者角色,而是成為值得人們信賴、占據主導地位的、不可或缺的重要“伙伴”。技術的獨立性、智能化程度越高,人們的依賴性就越強,人的自主性就越弱,越來越無法擺脫來自智能技術的“支配”與“控制”,技術的社會實踐和價值實踐一起以一種隱形控制方式改變著我們既有的認知及信賴路徑,在此過程中持續影響、改變著網絡空間的信息生態環境。

如果說前面討論的人工智能的信息生態塑造功能是經由正常的技術應用實踐而產生,那么基于特定目標導向的利用將經由技術實踐實現對信息生態的操控。正如馬爾庫塞所言,“電子計算機同樣有助于資本主義管理或社會主義管理;回旋加速器對于好戰派或和平派可以是同樣有效的工具”。②赫伯特·馬爾庫塞:《單向度的人——發達工業社會意識形態研究》,劉繼譯,第123頁。以算法操控為代表的技術能夠被有效嵌入社會政治等上層建筑的各個子系統之中,基于數據識別與統計分析技術實施政治操控,或干預社會輿論,或影響政治認同。人工智能技術正在以一種無孔不入而又無處不在的方式,影響、改變甚至重塑著網絡空間信息生態。

三、網絡信息生態風險生成路徑分析

顯然,人工智能技術及其應用并不會直接轉化為網絡空間信息生態風險。作為非中立的、價值有涉的技術集合,人工智能如何在微觀技術層面對信息生態領域施加影響并引起相當程度的風險?基于信息生態系統三要素的安全風險識別方法將目標聚焦于信息、主體、環境三個方面,本文將其抽象并轉換為技術黑箱、把關失靈、結構嵌入三種路徑,深入剖析人工智能技術引發網絡信息生態風險的作用機理,以此作為探討法律規制路徑的邏輯起點。

(一)技術黑箱路徑

技術黑箱是指對算法擁有者或設計者之外的人而言,算法系統工作機制神秘,人們只能通過觀測輸入和輸出結果判斷其合理運行,卻無法具體確切地了解其運行機制。③Frank Pasquale, The Black Box Society: The Secret Algorithms that Control Money and Information, Cambridge:Harvard University Press, 2015, p.3.雖然在語言學意義上,“黑箱”一詞往往容易引發不公平或者負面意義聯想,但就智能算法運行決策的技術機制來說,其黑箱屬性主要還是一種事實性的中立描述。對于算法擁有者或編寫者之外的其他人來說,算法運行的實際過程的確不為人所知。除了對輸入端口質料的把控和輸出端口結果的觀察,算法運行過程確如黑箱一般無法被觀測和追蹤。

但技術黑箱的不可知性恰恰使得算法決策過程無法把控,從而為網絡信息生態風險的生成孕育了空間。況且算法作為越來越普遍而廣泛的應用要素,正在極大程度影響、改變著人們的生活樣態。技術黑箱的不可知性使其作用于信息生態的過程亦變得撲朔迷離。仍以信息獲取為例,自媒體時代用戶獲取信息大致有三種方式:一是以用戶畫像和熱門話題置頂為基礎,輔之以聚合推送模式;二是以社交圈層為支撐,輔之以關注推送與社群推送模式;三是電視、廣播、報紙、雜志、博客等信息渠道仍有其市場空間??梢?,用戶對信息的獲取在很大程度上依賴平臺推送,受智能分發算法支配。算法運行過程中的不透明、不可測性意味著算法推薦、算法分發和算法決策過程無法被有效衡量,至少體現在兩個方面:其一,信息的來源及其價值屬性。既然平臺信息分發的過程具有黑箱屬性且無法被監測,那么作為信息分發基礎的數據庫及其內容便應當具備客觀、科學、價值中立、向上向善等特征。并且,對這些基本特征的判斷應當可以通過相應的審查機制得以明確,這是保障信息內容整體價值導向可控的必要前提,也是從程序輸入階段把控信息分發內容質量以避免人工智能算法過度侵蝕信息空間生態的有效手段。其二,分發過程。技術黑箱是相對于算法作用對象即除算法編寫者、算法所有者或算法使用者之外的其他主體而言;對算法編寫者、所有者、使用者而言,超出普通用戶認知范圍的用于算法決策的數據庫、源代碼以及被嵌入算法系統的變量、影響因素等并非不可理解,甚至可以編輯與控制。技術黑箱的不可知性將使算法濫用的可能性大大增加,并經由技術濫用路徑為信息內容操縱風險提供罅隙。人工智能作為人類智能創造物的本質特性意味著如果算法設計開發人員結合特定應用場景的編碼過程除關注作為工具的技術有用性之外還加入了其他價值判斷,那么勢必將產生功能偏移或異化。

(二)把關失靈路徑

有觀點表示,個性化算法決策在本質上是一種正常的商業活動,平臺依據用戶行為數據記錄有針對性地進行信息分發及決策推送,在客觀上提高了用戶信息獲取效率,同時也降低了商家和消費者之間的信息不對稱,增加了廣告商營業的有效性。鑒于個性化算法決策并不直接對用戶的法律狀態或其他類似狀態產生影響,立法應給予其充分的應用空間并保持謙抑。①See Michal S. Gal and Niva Elkin-Koren, “Algorithmic Consumers,” Harvard Journal of Law & Technology, vol. 30, no. 2(Spring 2017), pp.309-353.

然而從信息生態視角考察網絡平臺的算法推薦行為,其性質早已超出了單純商業活動范疇。對于算法利用主體即平臺、機構、企業而言,只要滿足確切性、用戶適配度、可行性等特征,即滿足了算法分發的基本要素。而從社會視角觀察,算法推薦除了作為代碼化、工具性存在,還要避免對社會價值或公共秩序產生負面影響,以社會連接形式應用到市場經營和公共生活之中,應當符合法律規定和社會倫理。智能算法本就與社會公共領域和公共事務緊密相關,例如個性化算法推薦可以在潛移默化中影響人們的價值觀念,改變、塑造人們的行為方式。智能算法對信息資源的社會性調配是其產生網絡信息生態風險的決定性因素,已成為一種可以影響與改變社會秩序的軟性權力。

傳統信息傳播機制中,當然也存在著信息分發的權力。這種權力擁有者屬于政府部門及其所關聯的官媒,其權力來源于統治者的權威地位,使得他們能夠通過合理方式傳播正向積極的價值觀念,鞏固社會認同,這是國家作為權力擁有者的經常樣態。當然,也有一些間接方式使得特定組織被賦予權力,這主要是由于該組織掌握了特定的資源和機會,如高等學校有“權力”對考生做出錄取與否的決定。不同的是,網絡平臺所擁有的算法分發權力并不主動以良好信息生態塑造和增進公共福祉為目標,而是存在巨大的失靈和濫用風險。其根源在于,官媒的信息分發權力及賦予它的社會制度本身經過了嚴格證成,而平臺算法權力形成于技術更迭與行業發展過程的自然累積。

權力如果未受到合理制約將經常產生被濫用的效果。首先,效率邏輯支配下的信息過度收集導致人機關系失衡。在用戶畫像過程中,平臺、企業、機構通過收集用戶的年齡、性別、教育程度、職業等基礎數據,以及社會關系、消費能力、行為軌跡、心理特征等不同維度信息,通過標簽規則、關聯規則等的挖掘分析,使得算法可以通過畫像模型了解人,進而提高搜索引擎、推薦引擎、廣告投放等領域應用的精準度,提高信息傳播效率。以生成式人工智能為代表的新一代人工智能環境中,數據和算法作為網絡空間運行的基礎要素,其所構成的結構化、規則化存在將在社會結構中發揮主導甚至支配性力量。在高度數字化的算法世界中,經由“算法之眼”②約翰·切尼·利波爾德:《數據失控:算法時代的個體危機》,張昌宏譯,北京:電子工業出版社,2019年,第27頁。,個體被觀察、監測、評估,然后貼上身份標簽??梢?,這一過程中平臺、企業、機構所追求的仍然是技術視角下的最大化增值,不考慮甚至完全忽視了作為權力擁有者的公共價值引領與社會責任承擔。缺乏這一必要約束,以信息數據收集為支撐的用戶畫像將完全忽略人的主體性與社會性建構,以高效率滿足信息需求為目的的平臺用戶從算法利用主體轉而成為算法作用的客體,用戶行為數據累積成為算法迭代升級的學習資源庫。其次,用戶至上模式的迎合式把關規則誘發把關失靈。在算法推薦過程中,平臺、企業、機構為持續廣泛地吸引不同偏好類型群體,可能會分場景、分時段、分類型將用戶不同維度數據做加權處理。這一過程由于嚴格把關缺位,虛假、誘導甚至煽動性信息有機會進入信息分發過程并到達用戶端口。作為算法權力擁有者和信息生態塑造者,平臺不適當的審核機制將會產生巨大尋租空間,誘發網絡空間信息生態安全風險。

(三)結構嵌入路徑

人工智能引發的信息生態風險不僅是技術負外部性的體現,也是社會關系演化和相關制度體系共同作用的結果。①參見張彥華、徐帆:《人工智能影響政治安全的邏輯及其風險治理——基于傳播政治經濟學的分析》,《社會科學戰線》2022年第12期。結構嵌入以算法越來越普遍而廣泛地影響著現實生活情境為前提。隨著人工智能算法越來越深入地參與社會資源分配、政策環境塑造甚至體制機制形成的各環節,傳統信息空間領域的歧視風險、操縱風險也經由人工智能算法的結構嵌入得以系統化。

具體層面,主要表現為給予用戶不利地位的系統性歧視風險。一方面,當算法決策復現了與傳統決策基本一致的結果,算法自動化決策系統將強化歧視發生密度和執行力度,將偶發、碎片化的歧視常態化、系統化,其結果是受歧視一方遭受更加嚴密且有效率的社會排斥。②參見李成:《人工智能歧視的法律治理》,《中國法學》2021年第2期。非算法權力主導社會同樣存在基于性別、殘障者、病原攜帶者等特定群體歧視現象,但影響范圍較為有限,且具有一定隱蔽性。借助智能算法加持,單次歧視的實時危害可能并不顯著,但其所造成的深遠影響卻不容忽視。這是因為,算法社會中超大型網絡平臺同樣承擔著如高社會地位、良好社會資源等積極社會價值分配的職能,以性別、殘障者等集體身份為邊界的社會資源分配將在系統性歧視的推動下造就日益不平等格局。由于缺乏必要、優質的社會資源支持,不同群體之間所謂社會公平競爭環境將蕩然無存。另一方面,算法系統性歧視將產生對于受歧視群體的規訓效應。來自網絡空間的系統性歧視將進一步深化既有社會結構中的歧視情境,進而在心理層面使得受歧視群體接受、認同這種事實上的不平等與相關制度安排。在現實世界和網絡空間雙重情境強化下,受歧視群體不再將自身的不利處境與顯著不公的社會排斥相關聯,而是將來自外界的不利因素歸因于自身。算法歧視所產生的結構性不平等將借此完成對受歧視群體的思想規訓。

抽象層面,主要是算法對個體自治價值的傷害,表現為算法對用戶的思想滲透與操縱。其一,特定推送產生的思想滲透。用戶行為數據的可記錄、可挖掘屬性及算法的深度學習能力是特定推送產生的前提。智能分發過程中用戶接收到的信息并非基于個人意志的自主選擇,相反,個體的自由意志常常受到算法決策的影響。算法經由用戶畫像和行為數據收集過程所累積的數據信息,在綜合分析和系統評估基礎上,通過泛政治內容的精準推送對用戶的政治認知、政治情感和價值傾向施加影響,進而在較長時間跨度內產生思想滲透的效果。其二,惡意利用產生的思想操控。研究表明,源于用戶政治人格回歸分析的算法能夠實現特定目的導向的情感操控。③大衛·薩普特:《被算法操控的生活:重新定義精準廣告、大數據和AI》,易文波譯,長沙:湖南科學技術出版社,2020年,第39頁?;谒惴嗔χ湎滦畔⒎职l機制對價值觀念影響的有效性,某些政治組織行動者利用深度偽造技術、大數據分析與算法嵌入的人工智能技術,與信息傳播過程中輸入及輸出端口的信息不對稱狀態,或故意或盲目地制造、傳播有損公共部門權威和公信力的虛假信息進入傳播領域,該因素與算法運行機制的不透明性、審核環節平臺把關失靈及用戶的天然信任情感等多重因素相疊加,不僅產生廣泛的政府信任危機,還可能誘發巨大的政治安全風險。

四、網絡信息生態風險的法律規制路徑

信息生態理論以信息人、信息、信息環境三個基本要素為出發點,關注信息人與信息環境的有機交互,強調信息人與信息環境之間的平衡協調。①參見李卉、國佳寧、李前:《GDPR 下法國與比利時的個人數據保護監管實踐與啟示——基于信息生態系統理論》,《國際經濟法學刊》2022年第3期。網絡信息生態風險規制,可置于風險社會理論范疇展開思考。該理論所關注的風險防范的重點聚焦于風險引發的危害后果及其發生可能性等負面效應。這表明,基于技術工具理論范式下技術工具與技術應用相分離的終端責任原則規制方式僅寄望于通過對風險所造成損害的事后補救路徑,顯然與風險社會理論指引的預防型思路并不相符。

安德魯·芬伯格在批判技術工具理論與技術實體理論基礎上,提出了技術批判理論,指出根本不存在所謂專注技術“本身”的規制范式,只有置身于某種具體應用情境中技術才可能得以具象化。②參見安德魯·芬伯格:《技術批判理論》,韓連慶、曹觀法譯,北京:北京大學出版社,2005年,第52—57頁。該理論反對技術研究與技術應用相分離的規制范式,強調要從技術研究階段著手而非僅對技術應用進行規制,以實現事前預防技術引發的負面效應與副作用的功能。這與風險社會理論的預防型規制理念不謀而合。其次,技術批判理論并不認可技術的中立性,而是認為技術是一種處于不同可能性之間的發展的“兩重性的”過程,在“技術代碼”的設計體系和應用體系中均蘊含著社會價值。③安德魯·芬伯格:《技術批判理論》,第16頁。這種判斷與貝克在風險社會理論中強調通過技術民主來預防、解決技術風險問題的理念④參見貝克、鄧正來、沈國麟:《風險社會與中國——與德國社會學家烏爾里?!へ惪说膶υ挕?,《社會學研究》2010年第5期。再次投契?;谇笆鲭p重契合特征,技術批判理論和風險社會理論可作為風險社會中技術及其所引發負面效應規制的基礎理論范式和有效載體。⑤參見劉鐵光:《風險社會中技術規制基礎的范式轉換》,《現代法學》2011年第4期?,F代法律通過保障法益安全和保證法律作為決策體系自身的可靠與可預見性雙重方式來獲得與風險及其所生危害的未知性、不可權衡性相對的安全性,也即在技術與環境有關的層面上,對風險的預防或者排除觸及了對社會具有建構意義的自由和安全的基本關系。⑥參見劉剛:《風險規制:德國的理論與實踐》,北京:法律出版社,2012年,第78—91頁。

(一)以正當程序理念下的算法解釋促進算法透明

根據技術批判理論所確立的技術本質與技術應用相結合的規制思路,破解技術黑箱規制難題仍有必要回歸算法的技術本質作為思考原點,慣常思路是算法公開。針鋒相對的主張如言論、商業秘密等均無法與之有效抗衡。⑦參見陳景輝:《算法的法律性質:言論、商業秘密還是正當程序?》,《比較法研究》2020年第2期。然而,算法公開的可行性同樣遭到來自技術領域的質疑。其一,算法公開并不等于算法可知?;诩夹g的不斷演進和日益廣泛的社會需求,算法呈現出復雜化和不可知性等特征,既源于單一算法本身,也包含了在應用實踐中廣泛存在的不同算法模塊間的交互反應。算法模塊化運行可以輔助解決一些復雜算法問題并在一定程度上促進算法的可解釋性,但其弊端就在于會令算法之間的反應變得難以預料。⑧參見卡麗斯·鮑德溫、金·克拉克:《設計規則模塊化的力量》,張傳良譯,北京:中信出版社,2006 年,第222—225頁。這就決定了算法解釋及其透明性在某種程度上僅是一種美好的技術理想。另一方面,算法個性化推薦與自動決策過程包含著大量的隨機和自主運行程序,呈現出一種無法被完全解釋的指令系統。如在智能推薦場合,算法根據用戶在頁面內特定信息的停留時間等行為數據相繼作出推送決策,且該推送結果隨著用戶行為軌跡的變化而改變??梢?,算法運行的決策規則所依據的原始數據和輸出結果均處于動態變化過程之中且難以把握,算法輸入和輸出過程之間的因果關系在技術層面可能根本無法被解釋。

有關算法技術本質的討論充分表明,完全程度或完全意義上的算法公開在可行性和必要性方面都存在瑕疵。但這種爭論的價值就在于能夠幫助規制者反思聲浪巨大的算法透明化主張的合理程度,以避免陷入經由完全“透明”“公開”方能實現的所謂算法正義悖謬。算法運行的技術本質固然重要,然而更應著重關注的是算法的社會應用及其應用實踐過程中所引發的權力配置、社會關系和法律關系變化。⑨參見沈偉偉:《算法透明原則的迷思——算法規制理論的批判》,《環球法律評論》2019年第6期。

另一種思路是正當程序。算法擁有者以制定規則和政策的方式行使對用戶的約束權力,因而應當借鑒公權力行使的正當程序理念,使其滿足正當程序的規范性要求。①參見陳景輝:《算法的法律性質:言論、商業秘密還是正當程序?》。依據正當程序要求,權益受到決策影響的任何當事人都應被告知決策的性質和理由,并擁有陳述意見和獲得申辯的權利,通常體現為程序本身的公開和程序運行過程公開兩個方面。其可行之處在于,保持算法運行過程的非公開性并不妨礙對其做出是否符合正當程序的結果判斷。從強化算法監管和促進算法負責、算法可信的角度,算法運行的技術黑箱能夠有效克服人為操作的主觀臆斷可能,同時又在網絡空間信息生態塑造和國家安全與公共利益維護方面發揮重要作用,二者之間存在著合作互惠與防范對抗的張力。在技術黑箱規制中引入正當程序能夠通過程序正義保障消除個人、公眾和社會對人工智能算法在信息內容質量保障和信息生態環境塑造過程中的疑慮并防范算法對用戶的不合理支配。也就是說,正當程序理念指引下的算法透明應以建立算法擁有者和利用主體間的信任關系作為目標。②參見蘇宇:《算法規制的譜系》,《中國法學》2020年第3期。

首先,正當程序理念下的算法解釋權應當被視為是一種動態的程序性權利。③參見李曉輝:《算法商業秘密與算法正義》,《比較法研究》2021年第3期?;诤贤牟煌陚湫?,即使在最經典的合同關系中,合同主體雙方也不可能針對合同所涉事項事無巨細地約定完全,合同成立到履行完畢的過程需要雙方之間信賴關系的持續性存續并輔之以合同解釋規則的合理運用。算法分發過程中平臺、企業、機構和用戶之間的信任程度較傳統合同場合相對更低,雙方持續性信任問題更加突出,通過一次性地賦予用戶算法解釋權不僅無助于雙方信任關系的形成、深化和用戶權利的切實保障,而且也難以在實質意義上促使平臺切實履行信息質量保障與信息生態引領的公共責任。因此,作為質疑人工智能算法運行技術黑箱的有效工具,更為合理的算法解釋權應當是正當程序理念指引下的算法解釋權。絕對透明化的算法解釋權不僅具有技術方面的不可得性,信息的無限度公開也將徒增平臺與用戶雙方信息權利主張與保護負累。以算法解釋權作為平臺與用戶及大眾之間建立溝通信任關系的正當程序權利,將有助于建立起公眾對算法作用于信息生態領域的信任感。④參見丁曉東:《基于信任的自動化決策:算法解釋權的原理反思與制度重構》,《中國法學》2022年第1期。

其次,正當程序理念下的算法解釋權應關注算法設計、運行和輸出的全過程。摒卻對算法運行過程中公開和透明度的線性價值追求,程序正義保障下的算法解釋除了要求一定程度的算法公開外,其他程序正義要求如中立、參與、效率等均應在算法分發的形式、步驟、過程中得以滿足。同時,實現外部價值衡量的實質性程序價值如尊嚴、平等與自由,也應在人工智能算法滿足外部道德性和正當價值性過程中得到保障。⑤季衛東:《法律程序的意義》(增訂版),北京:中國法制出版社,2011年,第37頁。這些程序性價值標準能夠為算法利用過程中技術黑箱所內嵌與外源的恣意、專斷、偏見、歧視等風險提供穩定預期并有效防止其無限制外溢。

正當程序理念下的算法解釋權可以從內部控制機制和外部約束機制兩方面得以實施。內部控制方面,可設立算法設計中的運行邏輯解釋與審查機制??蓞⒖嫉牧⒎ɡ菤W盟《通用數據保護條例》第35 條。該條要求數據處理可能妨礙個人權利行使、阻止其訂立合同或獲得服務時,算法控制者應提前針對數據處理過程對個人數據權利行使可能造成的影響進行評估。算法設計或使用主體應當對算法決策運行的基礎邏輯、可能引致的信息生態風險及相應的防范機制進行釋明并達到相當強度的解釋標準以便于公共部門作出合理判斷。同時應當向公眾解釋自動化分發的意義與可能后果,為公眾提供拒絕算法分發結果的有效渠道和相應的意見反饋通道等。⑥參見解正山:《算法決策規制——以算法“解釋權”為中心》,《現代法學》2020年第1期。算法運行的過程控制可通過反不一致檢測、價值偏離預警、神經網絡中間層⑦See Paul de Laat, “Big Data and Algorithmic Decision-making: Can Transparency Restore Accoutability?”ACM SIGCAS Computers and Society, vol.47, no.3 (September 2017), pp.39-53.等技術手段介入。

外部審查方面,以自然語言或可視技術對算法運行邏輯、數據輸入與輸出結果之間的相關性進行解釋既能夠避免與算法的商業秘密保護形成沖突,也有助于公眾從原理上理解算法分發的作用機理從而產生對算法技術及企業、平臺、機構的持續性信任。必要時通過可信第三方(如公共監管部門或其委托方)介入算法分發過程對可能造成個體及公眾注意力損害的算法進行核查并提出質疑,如此既可回應算法擁有者及控制者的商業秘密權益關切,同時又能實現用戶正當信息權益的合理保護。

(二)以信息生態影響評估糾偏算法把關失靈

平臺、企業、機構的算法分發權力在社會價值觀念形成和信息生態環境塑造方面發揮著巨大作用,因而仍將其作為普通商事主體對待無疑將產生社會責任承擔不足的問題。把關失靈規制問題主要聚焦在平臺、企業、機構對注意力市場規則制定、數據控制、資源分配等權力所構成的對傳統信息生態結構的重塑,而基于商業利益和效率考慮生成的傳統規制模式效能遲滯,不僅無法對平臺自我約束行為的公共性缺失等負外部性進行有效補足,也無法阻止算法不正當利用所產生的負面效應。作為算法擁有者或使用者的平臺、企業、機構,其先發優勢、規模效應、網絡效應使之成為社會信息生態領域極其重要以至不能完全放給市場力量來管理的關鍵信息基礎設施。無論是從促進網絡信息基礎設施維護的角度,還是基于網絡信息空間公共性價值考慮,對特定的網絡平臺、企業、機構施加一定的公共義務都是必要的。①參見高薇:《平臺監管的新公用事業理論》,《法學研究》2021年第3期。

平臺、機構、企業作為信息分發權力主體和網絡空間信息生態塑造參與主體應當發揮自身作為自由討論空間的公共論壇屬性并承擔起載體性質的公共責任。算法決策的公共性價值及其利用是平臺、企業、機構等快速發展的支柱,它可以被無限制地用于爭奪用戶注意力、離散公共意見形成、侵蝕公共領域空間,也可以經由公共價值平衡進而實現價值弘揚、輿論引導、公共信任、文化涵養等一系列社會功能。也即,算法分發權力把關失靈的修復需要實現公共性價值和非公共性價值、供給與效益之間的平衡。遵循這樣的規制思路,將難以量化評估的注意力、質量(包含信息生態影響)損害融入現有規制框架,才能為算法監管和平臺把關提供更為明晰的指引。

從算法影響評估制度中抽象出信息生態影響評估,對平臺利用算法的設計、應用和數據處理等內容進行全面評估,確定其所產生信息生態影響的程度和風險等級,進而采取減緩或消除負面影響及相應風險的措施。信息生態影響評估制度價值明顯:其一,有助于從程序和實質兩方面創建決策運行過程的信任機制,增加算法決策的適當性和算法系統運行的穩健性。其二,有助于促進“負責任的”算法研發,弱化對算法黑箱和復雜化算法設計的逆向激勵。其三,有助于將算法治理規范和技術標準結合起來,督促平臺強化把關控制,以實現更高效的風險管理。②參見張欣:《算法影響評估制度的構建機理與中國方案》,《法商研究》2021年第2期。

基于場景治理和精準治理的思路,立法者在建立基于影響維度的評估指標體系過程中亦將算法治理所要維護的社會核心價值融入其中。加拿大《自動化決策指令》關注自動化決策在經濟、社會等方面的影響,將系統對個人或公眾在基本權利、健康福祉、經濟利益等方面的影響納入算法影響評估指標體系之中,并將影響等級劃分為可逆短暫影響、可逆短期影響、難以移轉的持續不斷性影響、不可逆轉的永久性影響四個等級。③See Government of Canada, Directive on Automated Decision-Making, https://www. tbs-sct. canada. ca/pol/doc-eng. aspx?id=32592,2023年8月7日。美國立法者則更多聚焦算法決策對公平、偏見、歧視、隱私、安全等價值的影響,聯邦《算法問責法案》自動化決策系統影響評估(C)項就規定,系統對消費者隱私安全風險、系統可能引致消費者遭遇偏見及歧視決策的風險應當得到評估。④See S.1108, Algorithmic Accountability Act of 2019,http://www.congress.gov/bill/116th-congress/senate-bill/1108/text,2023年8月7日。紐約市則以自動化決策系統潛在影響的性質和程度、持續時間,不同類型的已知或潛在風險等為基準建立影響維度的評估指標體系。⑤See Automated Decision Systems Task Force, New York City Automated Decision Systems Task Force Report, p. 18-21,from https://www.nyc.gov/assets/adstaskforce/downloads/pdf/ADS-Report-11192019.pdf?ref=hackernoon.com,2023年8月7日。

合理的信息生態影響評估制度不僅有助于在一定程度上提升算法的透明性,而且通過對算法運行系統負效應和風險程度的揭示能夠提升算法運行過程中技術黑箱、平臺把關及結構風險嵌入規制的有效性;同時通過信息生態影響及其內生或外源風險的評估與披露,使得用戶和公共監管部門對其所利用算法的風險程度擁有合理認知并為進一步的權利行使提供空間。有學者將代表性的算法影響評估制度實踐分為封閉合規型和開放反思型兩種,并從啟動時間、公眾參與、評估披露、規制理念、功能定位等方面展開了細致對比,認為開放反思型算法影響評估制度在促成算法透明、保障正當程序以及接受公眾審查等方面更具實效。①參見張恩典:《算法影響評估制度的反思與建構》,《電子政務》2021年第11期。我國《個人信息保護法》第55 條第2 款明確規定利用個人信息進行自動化決策的,應當進行個人信息保護影響評估。亦有規范性文件從信息輿論屬性和社會動員能力角度要求互聯網信息服務提供者在特定情形下自行開展安全評估以維護國家安全、社會秩序和公共利益。②參見《具有輿論屬性或社會動員能力的互聯網信息服務安全評估規定》第3條,《互聯網信息服務算法推薦管理規定》第24、27條。但《個人信息保護法》及其制度設計由信息處理者主導實施,在定位上更多以滿足企業算法自動化決策的合規要求為導向,因而呈現出較強的封閉性和自我規制特征。

信息生態影響評估首先應當吸納現行法的相關規定?!稊祿踩ā返?0 條明確重要數據處理者負有定期開展風險評估并向有關主管部門報送評估報告的義務?!秱€人信息保護法》第17 條明確個人信息處理者應當告知個人信息處理目的、處理方式以及處理個人信息的種類與保存期限?!毒W絡安全法》第38 條規定關鍵信息基礎設施運營者對網絡安全性和潛在風險負有檢測評估義務?!峨娮由虅辗ā反_立了個性化推薦算法的自然結果提供義務和消費者保護義務。③參見張凌寒:《〈電子商務法〉中的算法責任及其完善》,《北京航空航天大學學報》(社會科學版)2018年第6期。

其次,信息生態影響評估的各項指標設置應當能夠準確揭示算法對信息生態影響的可能性以及嚴重程度。需要對“風險”“信息內容的公共性”“責任”等關鍵概念展開針對性制度設計。④參見張欣:《算法影響評估制度的構建機理與中國方案》。具體判定要素取決于受到法律保護權益的重要性,包括但不限于:用戶人格權、隱私權等受侵害的潛在程度;算法利用特定數據的敏感程度(如敏感個人信息、行為數據信息);信息內容質量;對網絡空間信息生態環境產生的可能影響及程度,包括個體(如注意力損害)及公眾兩個層面;受影響的用戶規模和潛在致害的用戶總數,以及對網絡信息空間的整體影響,技術倫理等。

雖然以上指標中多數指標尚缺乏必要精度與量化標準,但仍可選取替代性指標間接進行。如注意力損害一項,注意力并不是一個擁有一致學術認識的法律概念。心理學方面的解釋認為,注意力是心理活動對一定對象的指向和集中的能力,是伴隨著感覺、知覺、記憶、思維等心理過程的一系列心理特征。將注意力作為一種損害的對象存在著測量難題。用戶的注意力損害包括經濟損害和精神損害兩個層面。自然主體注意力的有限性決定了其在被占用過多時存在過載與耗盡的可能。損害的經濟方面表現在,注意力的容量受認知能力約束,如果存在可獲得信息的超額供給,“西蒙斯設想的信息供給和注意力供給之間的反比關系將成立?!雹軯ohn M.Newman, “Antitrust in Attention Markets: Objections and Responses,” Santa Clara L.Review, vol.59,2020, pp.743-769.當用戶有限的注意力被平臺供給的各類信息大比例占用,將更多時間和精力投入到無甚經濟助益的行為與活動中去,他們獲取收入、進行價值創造、投入生產生活的時間和精力就隨之下降。⑥See Gary S. Becker, “A Theory of the Allocation of Time,” The Economic Journal, vol. 75, no. 299 (September 1965),pp.493-517.這就使得注意力所生經濟損害的測量得以可能,可通過平臺投放廣告數量的變化、平臺行為對消費者剩余的影響來實現。⑦參見喻玲:《個性化推薦、公共性貶損與數字新聞市場反壟斷》,《法學》2022年第11期。

又如信息質量一項,可參考新聞質量評估的抽象標準即“新聞是否以及如何促進公眾討論進而加強公共輿論和決策形成”,新聞質量評估通常從相關性、情景化、專業性和多樣性等指標進行。⑧See Philipp Bachmann, Mark Eisenegger and Diana Ingenhoff, “Defining and Measuring News Media Quality: Comparing the Content Perspective and the Audience Perspective,” The International Journal of Press/Politics, vol. 27, no. 1 (January 2022), pp.9-37.學者們多認為,度量指標可以包括用戶與異質觀點的接觸、對比性信息的引用或信息來源的多樣性等,這為信息生態影響評估提供了更加明確的標準:其一,主體多樣性,保障相關市場獨立媒體數量充足以實現異質化內容的持續性供給;其二,暴露多樣性,保障信息內容的深度和廣度、準確與公正、倫理與權威,以及不同價值偏向的衡平;其三,選擇多樣性,用戶閱讀、接觸不同內容、不同觀點信息的選擇權以及其參與和互動等應當能夠予以保障。①See N. Helberger, K. Karppinen & L. D’Acunto, “Exposure Diversity as a Design Principle for Recommender Systems,” Information, Communication and Society, vol.21, no.2, 2018, pp.191-207.歐盟發布的《媒體多元化和媒體自由》報告指出,“媒體多元化包括合并控制規則、廣播內容許可程度、媒體所有權的透明度、編輯自由、公共服務廣播機構的獨立性、記者的職業狀況、媒體與政治經濟之間的關系、婦女和少數群體獲得媒體內容的機會、意見的多樣性等?!雹赟ee European Parliament, Committee on Civil Liberties Justice and Home Affairs 2018, Report on Media Pluralism and Media Freedom in the European Union,2017/2209(INI),2018,https://www. europarl. europa. eu/doceo/document/A-8-2018-0144_EN.html,2023年8月7日。澳大利亞競爭與消費委員會(ACCC)發布《數字平臺對新聞和新聞內容的影響》,從內容屬性、受眾參與、組織機構三個維度開發出較為科學實用的測量標準。其中內容屬性從核心評估標準(涵蓋準確性、明確性、公正性、隱私保護、信息來源平衡、誠信和透明等)、專業評估標準(包括新聞的即時性、權威性、信息內容的深度、信息采集倫理、分析、原創、呈現方式等)、社會功能評價(社會監督、公共交流、關鍵信息需求、地理相關性、有用性、多樣性等)三個一級指標和諸多細分類指標,來作為信息內容公共性判斷的關鍵參考內容。③See Wilding, D., Fray, P., Molitorisz, S. and McKewon, E. 2018, The Impact of Digital Platforms on News and Journalistic Content, Sydney: University of Technology Sydney, 2018, pp.86-87.國內亦有學者從真實性、新鮮性、實用性、正義性因素考慮構建新聞文本評價模型,評價因子涵蓋:新聞內容要素、聯系、組合真實因子,內容新穎性和傳播及時性因子,意義建構、行為指導因子,接受效應和外部性因子等④參見肖云:《報紙新聞文本質量評估指標體系研究》,《中華文化論壇》2017年第11期。,可為網絡空間信息生態影響評估指標設置提供本土化的意見和參考。

(三)針對結構嵌入的算法權力規制路徑

針對結構嵌入路徑引發算法系統性歧視和侵害用戶個體自治價值的信息生態風險,可基于事前行為控制的預防性路徑與事后矯正主義的救濟性路徑相結合的思路展開思考。在前者,法律通過介入算法利用者即平臺、企業、機構的微觀管理,為生產經營者的自律性規制設定相應的制度約束與最低標準要求,使其在遵守法律的前提下保障內部自律規制的靈活性和成本效益的有效性,進而更好實現企業運營質量和效益的提升。⑤See Cary Coglianese and Evan Mendelson, “Meta-Regulation and Self-Regulation,” in Baldwin, Robert, Martin Cave, and Martin Lodge eds, The Oxford Handbook of Regulation, 2010, online edn, Oxford Academic, 2 (September 2010, pp.146-153),https://doi.org/10.1093/oxfordhb/9780199560219.001.0001, 7 August 2023.在后者,以侵權法為核心的法律歸責理論,通過減少對算法運作流程和運行邏輯的過度關注,基于結果主義視角經由算法問責機制對算法運作結果實施穿透式監管。算法歧視和算法操縱的結果來自于算法權力,因而法律介入算法的具體舉措,應當圍繞著算法權力規制路徑展開。

秉持正當程序理念的算法歧視審查是有效防范路徑。算法歧視審查強調將其作為信息推送系統設計的一部分,只有經過專家、公共機構和受算法決策影響的公民驗證后才可在實體之間共享或公共站點上發布,以事前預防視角盡力避免公眾遭受偏見、無意識歧視之困境。司法實踐對算法歧視的認定和審查主要有區別待遇和差異性影響兩種模式。區別待遇審查模式又稱為“故意算法審查模式”,主觀故意歧視意圖或固有刻板印象是算法使用者承擔責任的前提條件。其表現形態有二:一是算法使用者將特定成員資格作為變量納入算法決策,并故意操縱算法運行程序從而獲得歧視性結果,其實質是算法掩蓋下的人為偏見。二是算法使用者充分利用對特定群體的刻板印象實施算法決策,從而產生針對性歧視后果。⑥參見鄭智航、徐昭曦:《大數據時代算法歧視的法律規制與司法審查——以美國法律實踐為例》,《比較法研究》2019年第4期。差異性影響審查模式中,算法決策是否對用戶產生差異性影響的實際后果構成算法歧視的判斷標準。如在“康涅狄格州訴迪爾”(Connecticut v. Teal)一案中,法院認為雇主適用的就業與晉升測試算法使黑人雇員遭受禁止晉升的結果而應受到差異性影響審查。審查重心將集中在差異性影響、商業必要性和可替代性算法決策等核心問題上。算法歧視審查與評估的義務主體為算法平臺,主要采取排除明確及隱含歧視屬性信息的做法。①See Melissa Hamilton, “The Biased Algorithm: Evidence of Disparate Impact on Hispanics,” American Criminal: Law Review,vol.56,2019, pp.1553-1577.

派生思路是將非歧視作為技術合規標準。在算法歧視審查之外,另一個頗具效率意義的禁止歧視路徑是將基于內容控制和行為控制在內的非歧視標準納入算法運行的底層邏輯,進而經由技術的合理實踐和有效應用誘導預期規制結果實現。該思路的可行性和隱含邏輯在于,如果人工智能算法設計者、開發者能夠經由技術嵌入路徑在信息生態領域生發出歧視或操縱風險,那么同樣可以經此路徑實現非歧視或降低歧視風險發生概率的目的。這就要求信息分發算法本身應具備非歧視屬性,同時用于算法模型訓練的數據集、作為信息分發內容來源的數據池亦需具備內容屬性均衡特征。因為非歧視的算法可能因為信息內容價值偏頗的訓練數據集而形成非中立的判斷及推送結果。作為信息分發內容來源的數據池應能夠均衡反映不同地域、性別、民族、種族、職業、特殊群體等的客觀情況,避免信息內容前端沉淀的偏見、歧視和結構性不平等經由算法技術加持而進一步擴張風險。對于算法模型訓練數據信息的來源、內容等也要公開,保證訓練數據全面性、多樣性的同時使用戶和公共機構的知情權得到保障,從而為監督權的進一步行使奠定基礎。

網絡平臺應承擔對信息內容輸出結果的審核、監督義務。作為算法使用主體,平臺、機構、企業對其所利用算法技術的實踐結果,以及實施自我規制策略、遵從合規要求后所塑造形成的信息內容生態應有相應的合理預期并承擔信息生態風險的避免義務。網絡平臺應在技術層面強化對操縱型算法的實時監測,及時識別特定利益主體利用網絡機器人、情感算法等以顯著手段影響信息生態或惡意引發、制造網絡空間安全、國家安全等風險的事件發生并及時采取防范措施??赏ㄟ^用戶協議、社群規范等文件將營造良好網絡信息生態作為信息內容傳播的倡導性規范,引導、支持平臺企業將良好信息生態塑造納入企業中長期經營目標。作為算法技術應用的結果,即使技術在客觀層面的不可解釋性使其不具備算法歧視審查方面的可問責性,但基于結果視角的觀察仍然能夠反映算法決策的歧視性。針對算法應用所致損害后果,需要結合平臺算法運行機制和推送決策的具體情境,分析系主觀故意損害或算法過失損害,并根據各主體及行為的原因力大小確定差異化的責任標準。

最后,對于歧視與操縱風險的規制并不僅是私法制度設計,未來為更好實現規制效果,公法治理的必要性仍然存在。對于未履行合理的審核、監督義務并造成相當程度信息生態風險的,平臺、企業、機構可能面臨修正、罰款等行政處罰。此外,不僅僅是平臺的自我規制、基于事前控制的算法歧視審查、基于損害救濟的事后問責路徑等很可能都無法完全阻止違法的內容或行為,為生成信息生態風險預留空間。因而,法律規制形式無法取代或無法完全取代非法律的規制形式,針對網絡信息生態風險還需其他風險治理路徑協同發揮作用,如吸納多元治理主體參與,優化監管方法,產業自律標準的制定,用戶信息素養的培育和提高,主流信息內容傳播效力提升,等等。

五、結論

生成式人工智能背景下,科學技術因其自身的客觀結構和物理屬性易產生技術中立“幻象”。發展實踐表明,技術作為一種價值實踐樣態進入公共領域之中正在制造紛爭和風險。人工智能算法在信息傳播領域的廣泛應用正在重塑網絡空間信息生態環境,孕育信息生態風險?;谛畔⑸鷳B系統安全風險識別的三要素,本文將目光聚焦于技術黑箱、把關失靈、結構嵌入三種路徑,以此作為網絡信息生態風險規制的邏輯起點。技術黑箱規制存在算法透明與算法可知的矛盾,通過程序正義保障下的算法解釋能夠增進個體、公眾和社會的算法信任并防范算法產生的不合理支配風險。信息生態影響評估充分重視平臺之于網絡空間信息生態塑造的公共價值,將算法決策對用戶注意力的影響、信息內容質量納入規制框架,能夠為平臺把關權力行使提供清晰指引。結構嵌入的權力規制需要事前、事中、事后相結合的多元路徑協同作用。此外,非法律的規制方式如政府監管、行業自治、用戶自我保護等多重治理模式和規制形式的混合將構成網絡信息生態風險規制的基本特征。

91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合