?

算法權力的證成與法律規制

2023-04-22 07:33路于嬋
武漢交通職業學院學報 2023年4期
關鍵詞:權力人工智能用戶

路于嬋

(蘇州大學,江蘇 蘇州 215021)

一、問題的提出

自2017 年6 月谷歌公司推出ChapGPT 以來,該技術在世界范圍內快速迭代發展并廣泛應用,國內部分科技企業及研究機構也相繼發布生成式人工智能產品,如百度的“文心一言”、阿里的“通義千問”、商湯科技的“商量”、華為的“盤古”、騰訊的“混元”、中國科學院自動化所的“紫東太初”等[1]。 ChatGPT 目前已更新到GPT-4,這是OpenAI 在擴展深度學習方面的最新里程碑。GPT-4 利用深度學習技術構建生成模型,利用大量數據來訓練AI 系統執行任務,使該技術在各種專業和學術基準上表現出人類水平。 隨著人工智能技術的迅猛發展,部分企業和個人利用自身技術優勢掌握了更多的數據和資源,將算法技術應用在社會中的各個領域,并干預個人、政府等決策,從而極大地提高了在社會中的話語權,推動著算法逐漸擺脫“工具”地位,因此有學者提出了“算法權力”這一概念[2]。 我國目前的研究主要集中在如何規制人工智能技術和算法權力異化等方面,對于“算法是否是權力”以及“算法是一種怎樣的權力”等基礎問題卻缺少研究。 本文主張“算法即權力”。 我們應正確認識算法的本質,重新認識并調整生成式人工智能的法律定位,將算法運作模型作為新型的法律治理對象,完善我國相關法律規制。

二、算法權力的證成

(一)權力的含義

權力是與社會不可分離的現象,貫穿人類社會發展的歷史。 討論“算法是否是權力”這個問題首先應明確“權力是什么”。 權力是一個“本質上爭議的概念”[3],盡管這一概念歷史悠久,但對于它的含義和適用標準等方面,人們一直缺乏共識。 權力一詞源自西方,其具體含義應當從西文中尋找。 馬克斯·韋伯(Max Weber)第一次提出權力的定義,“權力是迫使他人按照權力擁有者的意愿行事的能力,而被迫者在其他情況下并不會如此”[4]。 托馬斯·霍布斯(Thomas Hobbes)認為,“權力是一個人取得利益的手段”[5]。 相對于西方而言,我國對權力的研究則要落后很多。 我國學者周永坤在規范的權力學說視野下提出了規范的權力概念,“權力是確認和改變人際關系或處理他人財產或人身的正當權力”[6]111。 盡管對權力的定義一直存在爭議,但大多數學者認為,“權力”在最低限度上講是指一個行為者或機構影響其他行為者或機構的態度和行為的能力①。 總而言之,權力在本質上是權力主體對權利客體的控制力②。

(二)算法即權力

在當代社會,權力發展出了新的形式與特點。新的權力不靠權利,而靠技術;不靠法律,而靠正?;?不靠懲罰,而靠控制[7]。 ChatGPT 的關鍵決策不是基于數據本身做出,而是基于算法分析的數據做出。 算法作為代碼的決策部分,是具有決定性作用的。 因此,人工智能的發展實質上就是一場算法的變革。 以算法為基礎的人工智能系統正在社會生活的各個領域中取代人類進行決策,并逐步演化成為一種新型的權力形式。 算法的權力化源于其在技術上擺脫了“工具”地位[8],從而算法作為權力主體對人具有控制力。

1.算法主體地位增強

算法權力(Algorithmic power)將人類作為可計算、可預測、可控制的客體,而非作為主體。 在人工智能技術廣泛應用之前,傳統的人工智能算法需要結構化數據來進行模型構建和信息處理,本質是一種嚴格執行相關指令的自動化工具。 而ChatGPT 不僅可以識別模式,還具有深度學習和自動生成內容(AIGC)能力,從而使用基于這些模式創建的新數據進一步生成內容。 因此,我們面對的是“具有認知潛力的主動和交互技術”,其通過在智能設備之間實現自動化。 它的運作不需要人類的參與,大部分將在人類無意識、未知的情況下進行。 與此同時,由于算法的自主決策行為不再需要人為的干預,算法的運行機制從原來的透明狀態變為難以監測的狀態,從而產生了一種新型的權力運行方式。 在該模型中,由于算法執行過程不透明和權責不匹配等問題,會給算法的安全性和公平性帶來隱患,并且這種隱患會隨著人工智能算法的進一步推廣而越來越嚴重。 自身的強人機互動性和無法解釋的推理能力有關。 生成式人工智能的強人機互動性使外部風險由于難以預知而具有高度不確定性,而其自身的推理能力更是將這種不確定性由外部延伸至內部。 算法從“客觀工具”變為“主觀操作者”,與人的行為相分離。 因此,算法是被關注的權力主體,而不僅僅是實現權力的工具。

2.算法具有控制力

米歇爾·??抡J為算法是一種作為“主體化的權力技術”,它決定個人的行為,并使他們服從某些目的或統治[9]。 隨著人工智能的不斷發展,算法能夠在大數據的支持下進行自主訓練、自主學習,并在這個過程中形成了對多種應用場景的認知與決策能力。 這一認知和決策功能的產生,使得算法從機械式地執行轉變為動態地自我計劃,從本質上實現了整個工作系統中部分權力由人向算法的轉移。 權力關系形成于權力主體的意愿,權力的行使是為了實現權力主體的目的,權力關系的實現過程受權力主體的意志的支配[6]58。算法代碼是網絡空間的“法律”。 它怎么規定,數據就會呈現怎么樣的結果,一切都以算法的規則為規則,以算法的意志為意志。 算法已經深度介入社會,在潛移默化之中施展其日漸增長的控制力,權力越來越多地出現在算法中。

三、算法權力是一種私權力

我國傳統上是國家權力即“公權力(power)”對應個人權利“私權利(right)”的二元結構。 公權力是指基于社會統治地位的公共意志而由國家公權力機關和公職人員行使的強制力量。 私權利即個人權利,是憲法和法律賦予公民的權益,個人有權做出或不做出一定行為,法無禁止即可為。但隨著社會的發展,第三方力量不斷增強,比如行業組織、社會組織等一些社會力量,傳統“公權力—私權利”二元結構變革為“公權力—私權力—私權利”三元結構[10]。 在人工智能時代,算法掌握了海量數據以及先進技術,影響著我們生活的方方面面,我們已進入“算法統治”時代。 算法權力不同于國家機關的公權力,也不同于個人權利的私權利。 它是一種新型力量的發展,是一種私權力。

(一)算法掌握海量數據資源

在大數據時代,任何事物都可以數據化,數據成為信息與利益的載體。 信息技術正在“構成”而不是“調節”我們的生活,構成社會和城市結構的“東西”已經發生了變化,它們正在由軟件和代碼來構成。 擁有公權力的國家機關通過監獄等強制機關對公眾具有強制力;資本通過自身經濟、技術等資源優勢掌握支配勞動的權力;而算法掌握海量信息資源,通過對數據的占有、加工以及結果的輸出,進化為資源、財產,逐步“去工具化”,發展成為一種新型的、與數據資源相結合的社會力量。

首先,算法利用其掌握的海量數據資源鑄造“信息繭房”。 臉書的算法技術通過利用用戶與對象的互動、“贊”或評論等因素來確定用戶熱門新聞上顯示的內容。 在網絡新聞產業鏈上,“算法分發”模式的迅速發展,極大地滿足了網絡新聞公司對信息傳播效率的需求,各大新聞媒介和社交平臺都在持續增加對算法技術方面的投資。長期來看,持續不斷地向使用者提供同質化的信息,會讓使用者陷入“信息繭房”,從而阻礙使用者探索不同領域的知識,限制他們的視野、格局和思維。 諸如此類的量身定制與個性化推送不勝枚舉。 簡而言之,軟件下沉到我們的日常生活中,并通過流行的社交網站等頻繁地技術升級,意味著這些新的智能的權力結構已深深嵌入我們的日常生活中。 目前我們正處于“黑匣子社會”中,編碼規則制定的價值和特權隱藏在黑匣子里。 權力越來越多地通過算法行使,技術的權力在不斷地增長。 在網絡社會中,人們被算法所約束的程度也會變得更高,這必然會影響每個人的自由意志和健全人格。

其次,ChatGPT 等先進的數字前線技術(無論是視頻上的虛擬技術還是服務機器人中的物理技術)都存在嚴重的道德、公平和隱私風險。 平臺利用算法技術,免費獲取用戶的個人信息數據,迫使用戶成為“數據制造者”的免費勞動力,從而實現了對用戶的第一次剝削;基于此,平臺利用其掌握的數據資源和算法技術,對用戶的消費需求和偏好進行分析與塑造,從而實現對用戶的第二次壓榨;從此,平臺成為凌駕于個人之上的數據控制者,通過“數據圈地運動”和“數據殖民主義”進行數據資本的原始積累[11]。 同時,平臺經營者在直接或隱蔽地收集大量用戶信息數據后,借助大數據與云計算技術完成對個體用戶的畫像,最后利用算法模型實現對不同消費者的差異化定價,進行“大數據殺熟”,以此達成蠶食消費者剩余價值的目的[12]。

(二)算法規范個人行為

掌握智能算法技術的抖音、淘寶等平臺從自身利益和運營需要出發,制定了各種交易規則和糾紛解決機制等規則,平臺可利用算法技術監督用戶在該平臺的行為,從而進行獎勵、懲罰等措施,比如禁言、封號等。 算法技術自行運作很少需要人的參與,并且具有技術、粘性客戶、信息資源等多種優勢,能夠對用戶進行監督、管理以及處分等,使得算法權力成為一種私權力。

首先,平臺利用自身優勢使得“知情同意原則”如同虛設。 騰訊、淘寶等平臺會在新用戶注冊時利用格式條款獲取個人信息收集的權限,如果用戶不勾選“同意”則無法進入下一步,因此用戶面對要么同意要么退出的局面。 此時“同意”成為了一種被迫同意的情形,是用戶的無奈之舉。但用戶勾選“同意”就意味著接受平臺的算法,接受平臺算法的自動化決策。 平臺通過對個人畫像的構建,進行個性化推薦內容,用戶逐漸被迫接受,自我決定權逐漸被削弱。 軟件通過“學習”用戶的口味和偏好,為用戶提供符合他們自己的特定口味的內容,這就是算法的結果。 隨著用戶開始看到信息如何影響他們生活世界的構成,他們可能會開始主動塑造這些信息,從而引導軟件對他們的反應,而不是抵制。 人工智能對于我們日常生活領域的滲透,使人類進入了由“算法統治”的時代。

其次,“算法黑箱”加劇數字歧視和數字鴻溝。 ChatGPT 的算法大多嚴重依賴于兩種資源:用于訓練和操作算法的豐富數據和復雜的算法運行程序。 而算法運行的基本原理難以理解,并且這涉及知識產權保護等問題,研發和運行算法的公司也不愿意公開這些數據,從而造成了算法的不透明性和不可解釋性。 數據和算法中的偏見和歧視問題在人工智能和聊天機器人研究中非常嚴重。 當算法通過與身份相關的數據區別對待不同身份的人群時,可能基于這種傾向性的數據庫對一些弱勢群體才產生間接性不同程度的負面影響[13]。 例如,在某些數據庫中,如果在測量和選擇數據時帶有偏見,就會導致數據庫中的樣本多為有色人種,那么基于這些數據分析就會得出歧視性的結論[14]。 同時,發展中國家技術落后導致ChatGPT 獲取的數據以及用于訓練和完善算法的數據不對稱,邊緣化群體的數據將無法代表,從而造成數字鴻溝問題。 并且數字鴻溝繼續發展就可能帶來等差鴻溝,財富與信息迅速聚集,格局進一步固化[15]。

(三)算法嵌入公權力運行系統

2023 年2 月27 日,中共中央、國務院印發了《數字中國建設整體布局規劃》,大力推進智慧法院、智慧檢務等建設。 在互聯網與科學技術的助力下,在線糾紛解決機制蓬勃興起,不僅分流了案件、精簡了程序,而且降低了糾紛解決成本,促使當事人“接近正義”[16]。 算法正在發揮自己的力量,利用自己的技術優勢比人類思考得更快、更全面、更準確。 人類的計算能力遠遠達不到大規模數據對運算能力的要求,這使得算法逐步獲得社會資源配置的權力。

算法因自身優勢被公權力和社會民眾所需要,逐步嵌入公權力當中,使得公權力超越了時間和空間的限制,極大提高了公權力的范圍和效率。因此,在一定程度上,公權力是促進算法權力發展的重要力量。 例如,深圳市“秒批”人才引進制度,只要將數據庫中的數據進行對比,就可以在短時間內完成審批,不需要任何的人工干預;在智能交通生態體系中,利用高清技術系統可對違規行為直接判斷并開出罰單。 人工智能技術和智能算法的應用雖然給我們生活帶來了諸多便利,但是也存在很多新問題和新風險。 新一輪技術革命使得算法形成了計算優勢,深刻地影響人們的決策與行為,迫使人們讓渡部分決策權。 算法可以輔助甚至取代公權力,做出具有法律效力的算法決策。 長時間依賴算法將導致國家單位工作人員的參與度與決策能力下降。 在美國總統選舉、英國退歐公投等一系列“黑天鵝”事件中,算法逐步演變成為控制政治與社會的工具,構成了一種較以往更加隱秘的新權力形式。 算法被視為將決策權從人類行為者手中奪走,或者自由裁量權被算法對思想的限制所侵蝕。

四、完善算法權力的法律規制

全球范圍內生成式人工智能技術應用已進入爆炸式增長階段,其在為社會帶來經濟增長和生活便利的同時,也引發了各種法律風險。 任何權力都有作惡的可能,因此控制權力是非常必要的。習近平總書記指出,要促進人工智能“同經濟社會發展深度融合”,推動我國新一代人工智能健康發展。 2023 年7 月10 日,為促進生成式人工智能(AIGC)技術健康發展和規范應用,國家互聯網信息辦公室等七部門聯合公布了《生成式人工智能服務管理暫行辦法》(以下簡稱《暫行辦法》)。 生成式人工智能治理應符合其功能業態的技術邏輯,應對算法權力進行制約,將重點放在人工智能大模型本身。

(一)分場景適用算法披露制度

我國生成式人工智能技術發展存在滯后現象,相關法律規制應在降低法律風險的同時又不阻礙技術的創新發展,因此對于算法披露應把握好一個“度”。 算法披露有利于提高算法透明以及算法可解釋性。 算法透明是指算法的設計者將算法的配置、工作方式和使用方式等信息披露給監管部門或第三方以便監管的制度[17]。 算法解釋權是指在自動化決策所作的特定決策對對方具有重大影響的情況下,對方有權請求對特定的決策作出解釋,以及請求更新數據或糾正錯誤的權利[18]。 我國相關規定都不同程度地強調了算法透明的重要性,但都是較為抽象的原則性規定,缺乏如何具體落實的規則。 《個人信息保護法》第24 條正式規定了個人的算法解釋權,有利于打破“算法黑箱”,實現算法透明。 《暫行辦法》第4 條雖規定了基于“服務類型特點”采取不同措施提高生成式人工智能服務的透明度,但關于具體的“服務類型特點”并無進一步規定。

算法披露制度并非是“一刀切”式的要求,應根據算法應用領域的不同、商業秘密的保護以及披露后對算法模型安全、平臺秩序造成的影響等,進行分類分級治理研究。 算法披露可分為三個等級:第一,僅披露算法的存在,用戶具有一次性拒絕的權利。 第二,披露算法技術信息,用戶能夠評估自動化決策系統的應用情況。 第三,解釋算法決策的具體機制。 商業領域的算法服務場景相比公共領域的算法服務場景,其對個人權益和社會公共利益的影響相對有限,因此公共領域的算法披露程度應較大。 公共領域高風險的算法應用如刑事司法領域、自動駕駛領域等應進行重點規制。部分純商業領域的算法隨著平臺企業的發展可能具有一定的公共屬性,相應影響也就有所增強。

(二)賦予個人權利對抗私權力

ChatGPT 的開發公司 OpenAI 官方網站發布的《隱私政策》指出,當用戶使用 ChatGPT 時,會收集用戶的訪問、使用和互動等信息。 ChatGPT將從用戶中抽取少量的數據來提升模型的性能,如果用戶不想將這些數據用作提升性能,則可通過郵件方式提交給 OpenAI 公司。 生成式人工智能技術運行需要的海量數據來源于機器自動收集與無形爬取,并且會不斷收集使用者的個人信息,這導致人信息面臨泄露風險,侵犯個人信息安全和隱私權等。 《暫行辦法》多處提到對個人信息的保護。 其中,第4 條明確規定“提供和使用生成式人工智能服務應尊重他人合法權益”;第7 條規定“對于包含個人信息的數據收集應當征得個人信息主體同意”。 知情同意原則是個人信息保護的基石,將知情同意作為收集和處理個人信息的必要前提條件,達到對個人信息保護的目的。 但是由于人工智能技術的發展和智能算法的復雜機制,自然人難以預見個人信息面臨的種種風險,即使被充分賦權也時常難以做出理性選擇,使知情同意機制時常處于無效狀態。

首先,我國應賦予個人關于算法自動化決策的事前拒絕權、要求人工審查和解釋算法自動化決策等權利。 歐盟將個人自治權與人格尊嚴的保護作為核心理念,將個體賦權與算法控制相結合,構建了數據治理框架下的個體賦權模式。 我國應增強個人在自動化決策中的個人信息權益保護,個人有權知曉自己是否可退出以及退出機制等情況。 其次,我國應對大型平臺進行嚴格規制。 大型平臺因具有用戶群龐大、數據收集和分析能力強等優勢,不當使用算法技術造成的危害將達到相當的廣度和深度,對用戶個人利益、社會秩序等都可能造成嚴重影響,從而應首先對其進行規制。平臺應嚴格履行算法使用、處理記錄的保留義務和算法審核義務。 美國《2022 算法問責法案》對大型平臺的界定為近3 個財年的應稅期間,平均年總收入超5000 萬美元或擁有超2.5 億美元股權的,以及以擁有、管理、分析等方式使用超100萬名用戶或消費設備識別信息的。

(三)實施敏捷性治理原則

上述措施目的的實現,都需要以算法權力的監管為保障。 《暫行辦法》第3 條明確提出堅持發展和安全并重,對生成式人工智能服務實行包容審慎和分類分級監管。 生成式人工智能運行復雜,大都需要多方配合,算法主體呈多元化、動態化、分散化等特性,很難將其實施與最終的損害之間建立起直接關聯,侵權責任主體界定困難。 并且《暫行辦法》第22 條對提供者的范圍界定不夠明晰。 目前我國網絡法律制度框架基本搭建完成,網絡治理一般都以網絡服務提供者作為關鍵主體,因此平臺責任一直是技術治理的核心議題[19-23]。 但由于生成式人工智能的人機交互特性,用戶也應承擔自律的責任,避免參與及利用生成式人工智能行為給社會帶來危害。

人工智能體生成內容是算法設計帶來的結果,而設計者在設計程序時也很有可能無法預見某一具體侵權行為的出現。 生成式人工智能通過算法自動生成內容,那是否應當將人工智能作為責任承擔主體,將非法律意義上的道德責任歸咎于不具有情緒價值的人工智能存在很大爭議[24]。并且由于人工智能的廣泛傳播性,“更容易看到一些微小的疏漏以讓人無法預料的序列連續發生,就有可能變成更大的、更具破壞性的大事故”[25]。 這也倒逼人工智能治理模式向敏捷型治理轉換[26]。 敏捷型治理以“敏捷性”為目的,快速適應場景變化,從主體監管轉為分層監管,解決侵權主體難以界定的問題;堅持算法風險評估制度的常態化適用,從單一的事后監管轉變為“事前監督—事中干預—事后審查”的全流程監管模式,并重預防與應對;進行技術賦能,運用技術解決監管難題實現生成式人工智能治理范式革新。

由于信息技術的網絡化,權力在互聯網世界的作用范圍不再受物理世界的限制,其可以在極短的時間內覆蓋到社會生活中每一個人,并涵蓋其生活的每一個位置和時刻。 以算法為核心的人工智能是時代的產物,不管人們愿意與否,它“時刻包圍著我們”,改變著我們的生活方式。 算法權力化根源在于“去工具化”,隨之而來的就是人的主體地位越來越弱。 通過分析算法權力,有利于在現實生活中更有針對性地對其進行規制,平衡好智能算法技術的安全與發展問題。

注釋:

① 盧克斯認為,權力概念的核心就是“A 通過某種與B 的利益相對的方式影響B”。帕森斯認為,“權力是一種保證履行有約束力的責任之能力”。參見戴維·米勒.布萊克維爾政治學百科全書[M].鄧正來,譯.北京:中國政治大學出版社,2002:641。

② 達爾認為,“A 對B 享有權力即A 可以迫使B 去做他本不愿去做的事情”。泰勒主張,“如果外在的條件使我發生改變,但這種變化并沒有違背我的利益,那就不存在權力”,“A 對B 有權力,意味著A 可要求B 為某些行為,而在其他情況下,B 完全可以不為這些行為”。上述內容參見Robert A.Dahl,The concept of power,BehavioralScience3(1957),pp.202-203;Charles Taylor,Foucault on Freedom and Truth,PoliticalTheory2(1984),pp.172-173;Matteo Pallaver,“Power and its Forms:Hard,soft and smart”,A thesis submitted to the Department of International Relation of the London school of Economics,October32(2011)。

猜你喜歡
權力人工智能用戶
不如叫《權力的兒戲》
2019:人工智能
人工智能與就業
數讀人工智能
關注用戶
下一幕,人工智能!
關注用戶
關注用戶
權力的網絡
如何獲取一億海外用戶
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合