?

“人工智能倫理”筆談

2022-02-01 03:22丹尼爾利姆溫德爾瓦拉赫凱文麥克尼斯黃百恒王小偉賈瑋晗馮藝璇
當代中國價值觀研究 2022年3期
關鍵詞:倫理人工智能

丹尼爾·利姆 溫德爾·瓦拉赫 凱文·麥克尼斯 黃百恒 王小偉/文 賈瑋晗 馮藝璇/譯

學術主持人:丹尼爾·利姆

主持人按語:幾千年來,人類總是想象著機器會變得像人類一樣聰明強大。然而,以前只不過是幻想的東西已經逐漸演變成有形的現實。自20世紀中葉以來,隨著人工智能(AI)一詞的誕生,越來越多的學者,從數學家到科學家,甚至到哲學家,都積極參與到人工智能的發展中來。盡管經歷了幾次“寒冬”,人工智能的發展多次陷入停滯,但機器學習技術的最新突破和機器可讀數據的激增使得人工智能這一學科重新振興。

在谷歌、臉書和騰訊等科技公司的推動下,人工智能的應用已經無處不在。因此,可以說現在人工智能已經擺脫了學術界的束縛,牢牢扎根于流行文化中。它正在穩步接管獨屬于人類的活動,如語音、語言翻譯、人臉識別、交通、金融、醫療保健、制造、營銷等,而這個名單仍在增加。隨著人工智能不斷侵入我們的生活,我們被迫面對各種倫理問題。馬克·科克爾伯格選擇性地總結了以下問題:

自動駕駛汽車是否應該有內在的道德約束,如果有,應該有哪些約束,又如何確定是這些約束呢?例如,如果一輛自動駕駛汽車遇到以下情況,它必須在撞上孩子或者撞到墻上以拯救孩子但有可能殺死乘客之間做出選擇,它應該如何選擇呢?致命性自主武器應該被允許嗎?有哪些決策是委托給人工智能的,以及這些決策中有哪些是我們想要委托給人工智能的?如果出了問題,誰來負責?……基于人工智能的人臉識別技術經常被用于監控,這可能會侵犯人們的隱私……社交媒體上活躍的算法可能會傳播仇恨言論或虛假信息;例如,政治機器人可能會以真人的身份出現,并發布政治內容……一些人工智能算法甚至可以創建虛假的視頻演講,比如有誤導性的合成模仿巴拉克·奧巴馬演講的視頻。①M.Coeckelbergh,AI Ethics,Mit Press,2020,pp.5-7.

2020年11月,昆山杜克大學人文研究中心組織了一場題為“人工智能倫理”的會議。會議分為四個小組,每個小組圍繞不同的主題進行討論:安全、公正、道德和隱私。共13名小組成員匯集了政治學、公共政策、計算機科學、法律、心理學和哲學等多個學科的專業知識。這次會議的獨特之處在于每個小組都有一名中國學者。鑒于目前跨文化對話稀缺以及整體上缺乏非西方學者的參與,因而為這類對話創造空間,對于未來人工智能倫理包容性框架的構建至關重要。

本著跨文化對話的精神,本期《當代中國價值觀研究》匯編了兩位西方學者溫德爾·瓦拉赫(耶魯大學)和凱文·麥克尼斯(利茲大學)在會議上的演講記錄,以及兩位中國學者黃柏恒(H&M 集團高級人工智能和數據專家)和王小偉(中國人民大學)的回應。

溫德爾·瓦拉赫對他過去幾十年在人工智能倫理學方面所做的工作進行了簡潔的總結。他關注致命性自主武器治理工作的未來、機器道德等問題。這篇論文的重要性在于,它以一種易于理解的方式覆蓋了許多領域,即使那些不熟悉人工智能倫理的人也可以感受到該主題的廣度和復雜性。

黃柏恒對溫德爾·瓦拉赫的回應從人工智能后退了一步,他把注意力放在更基本的技術發展和應用問題上。一是文化多元化問題,以及對不同文化間價值差異保持敏感的必要性問題。二是合法性和決策合法化所涉及的政治問題。三是由一些大型科技公司和政府的權力整合而產生的權力和不對稱問題。

凱文·麥克尼斯專注于人工智能侵犯隱私這一問題。他首先討論了隱私的定義,然后分別探討了在一致同意和非一致同意的情況下失去隱私可能帶來的各種危害。以此為背景,他接著考察了特定人工智能技術侵犯隱私的方式:深度偽造、人臉識別和預測智能。最后,麥克尼斯得出了有趣而微妙的結論,他將隱私問題與其他問題(如歧視)區分開來,認為這些問題雖然與隱私有關,但本身并不是隱私問題。

王小偉提出了一種受儒家思想啟發的基于和諧的隱私保護方法來回應麥克尼斯。他認為以權利為基礎的方法不僅存在潛在的膨脹和放縱(inflation and indulgence)問題,這種方法(至少目前)還被少數西方國家所壟斷。盡管他提出了基于和諧的方法所具有的潛在益處,但他也認為這一建議具有理想化性質,為此他進一步描繪了人工智能倫理學可能走向的更現實的圖景。

隨著人工智能研究繼續勢不可擋地前進,對人工智能的批判性思考只會變得更加重要。我希望這幾篇短文能激起讓你更深入地思考人工智能倫理問題的興趣和渴望。因為我們都與人工智能的未來有關系,所以在人工智能倫理發展的對話中盡可能地包含多種聲音是重要的。作為人工智能技術世界領軍者之一的中國,無論如何都將其觀點注入人工智能倫理領域。本期雜志以及其他探索性的論壇,旨在幫助確保最終主導人工智能倫理的觀點是包容的,并且是更好的。

人工智能倫理:內在與外在

溫德爾·瓦拉赫/文 馮藝璇/譯

在過去的15到20年,對人工智能倫理的研究從幾十位感興趣的學者發展到數以萬計的工程師、哲學家、研究人員和政策制定者,他們討論了不同的理論和現實課題。本文將對問題的廣度進行處理并梳理某些挑戰的框架。一方面,有與道德機器發展相關的人工智能內在倫理(AI ethics inside),這些道德機器對出現在其選擇和行動中的倫理因素異常敏感,故而在選擇和行動中將此因素納入考慮范圍;另一方面,還有人工智能外在倫理(AI ethics outside),這一外在轉向是人們研發和應用系統時所采用的價值觀。

這兩條軌跡背后都有一定的歷史淵源。艾薩克·阿西莫夫(Isaac Asimov)在其1942年所著的科幻小說《轉圈圈》①I.Asimov,“Runaround,”Astounding Science Fiction,1942.(Runaround)中介紹了機器人學三定律,隨后又增加了第四條定律。據此,從所有機器人都是壞的到機器人實際上可能是好的,阿西莫夫徹底改變了科幻小說中關于機器人的創作軌跡,但他的工作僅限于科幻小說。60年后哲學家和工程師們才開始思考如何將道德決策功能實施于計算機器中。彼時,他們考慮的僅僅是阿西莫夫定律本身是否在計算上易于處理的問題。大約五六年前,我們在人工智能領域取得了重大突破,部分人工智能研究者開始對這一迅猛發展憂心忡忡:就我們即將擁有的通用人工智能和超級人工智能而言,如何確保它們對人類友好呢?

人工智能倫理的外在轉向專注于從特定問題關注系統應用的價值。事實上,這一核心問題比人工智能的出現還早幾百年。以“技術性失業(technological unemployment)”這一術語為例,此概念于1930年由英國經濟學家約翰·梅納德·凱恩斯(John Maynard Keynes)創造,解釋了當時長期存在的一種恐懼,即與其創造的就業機會相比,每一項創新和技術發展往往都會攫取更多的就業崗位。人工智能系統出現之前,這一擔憂已有200多年沒有出現過。很多人認為這一次的“技術性失業”或許有所不同,因為我們正在創造的智能機器擁有認知能力。來自麥肯錫①J.Manyika,S.Lund,M.Chui,J.Bughin,J.Woetzel,P.Batra,S.Sanghvi,“What the Future of Work will Mean for Jobs,Skills,and Wages,”Retrieved from McKinsey Global Institute,2017.https://www.mckinsey.com/featured-insights/future-of-work/jobs-lost-jobs-gained-what-the-future-of-work-will-mean-for-jobs-skills-and-wages.和其他研究中心的研究員在觀察了美國和歐洲的狀況后得出結論:人工智能時代可能創造了更多的就業機會,但這其中的大部分為高端工作,其他的則是一些服務性工作,不幸的是,中等收入的中層工作會空心化。

過去幾年里,我們親歷了人工智能原則或人工智能系統應用原則清單的激增。最近,人們開始探究這些原則的可行性、實現它們所需要的政策,以及確保政策執行的必要機制。在各種原則列表中,只有部分為人工智能所特有。那些在歐盟、經合組織或聯合國教科文組織制定原則清單的人已然意識到,由人工智能驅動的新興技術正在改變現代生活的方方面面。因此,他們開始著眼于更廣泛的價值觀,并期望這些價值觀在恰當的位置發揮作用,以重塑人類歷史發展的拐點。例如,《國際人權宣言》(InternationalDeclarationofHumanRights)的簽署國中,許多西方國家在清單里強調“人權”,而同為簽署方的中國在2019年提出的《人工智能北京共識》中并未提及人權,卻包含了中國歷史悠久的和諧原則。事實上,中國只是拒絕接受來自西方的更自由的人權定義。

最具人工智能特性的四個原則是:隱私性、公平性(偏見最小化)、可責性和透明性,后三者有時被稱為FAT(或FAccT)原則。人工智能系統在應用中出現了大量的問題,其中最受關注的有:人工智能系統對行為和態度的操縱、使用人工智能進行監視以及人工智能技術導致的技術失業和生存風險,特別是由超級智能和致命性自主武器系統構成的風險。關于致命性自主武器系統(LAWs),我支持“機器人不應該對人類的生死做決定”這一原則。自2014年開始的七年里,聯合國日內瓦辦事處不間斷地舉行《特定常規武器公約》(CCW)會議,討論我們是否能夠制定一項限制部署致命性自主武器系統的條約。盡管“限制自主武器系統”這一倡議成功地說服了公眾,但到目前為止,這一倡議在事實上已然失敗。究其原因在于,大國中領導國防政策的人并不想犧牲致命性自主武器技術,他們對該技術的監管態勢盲目樂觀。

我們將從致命性自主武器、無人駕駛這兩項技術及其倫理問題延伸開來,密切關注自動化系統帶來的挑戰,雖然它們只是眾所周知的冰山一角。自動化系統對“必須有一個主體(要么是公司機構,要么為個人),對技術造成的傷害負責并承擔可能的罪責與懲罰”這一由來已久的原則構成了威脅。毫無疑問,它們破壞了問責機制,原因有二:第一,這些復雜的適應性系統被引入同樣復雜的社會技術環境中,時而會以不可預測的方式行動,造成重大的傷害;第二,隨著自動化系統內部的演變越來越復雜,我們對其透明性的探查能力亦呈下降趨勢。這種情形下,為什么會發生傷害、誰應該或能夠為此負責等問題就會出現。

讓我們將視線轉向治理。從硬性法律條例到彈性法律法條,治理包含了許多方面,如行為守則、行業規范以及減輕傷害并提供一定程度的多邊合作的國際機制等。我將討論信息技術治理面臨的兩個問題:一個是步調問題(the Pacing Problem),指科技創新的速度大大超過了法律和管理條例的更新速度;另一個被稱為“科林里奇困境”(Collingridge's Dilemma),由大衛·科林里奇①D.Collingridge,The Social Control of Technology,London:Frances Pinter,1980.提出。他指出,一項技術的社會后果不能在技術生命的早期就被預料到。當不希望的后果被發現時,技術往往已經成為整個經濟和社會結構的一部分,以至于很難控制它,這就是控制的困境。近年社交媒體出現的問題就是一個很好的例子。

某天,我和亞利桑那州立大學法律與創新中心主任加里·馬錢特(Gary Marchant)正在為這種狀況惋惜,當話題轉移到如果有選擇的余地會實施怎樣的治理時,我們提出了一個能夠不斷適應情況變化的靈活的道德/法律監督模式——治理協調委員會。②G.Marchant,W.Wallach,“Coordinating Technology Governance,”Issues in Science and Technology,vol.31,no.4,2015,p.1.在這一模式中,治理協調委員會是負責協調各利益相關方活動的問題管理者,它將參與全面監測,標記出問題和存在的差距,并從一套健全的可用機制中找到解決方案。他們將盡可能避免硬性的法律和監管,專注于彈性治理方法,如在行業標準、公司運營機制、試行的實踐規范和程序以及可行的技術解決方案中找到解決差距的方法。治理協調委員會是“我們如何建立可靠的治理規則”這一問題的答案。任何一個新的機構都會面臨執行上的挑戰,治理協調委員會也不例外。委員會從何處獲得足夠的影響力并取得其合法性?如何挑選成員和行政人員?如何建立機構的信譽?如何為其提供資金?委員會應向誰負責?所有的挑戰都會讓一些人覺得治理協調委員會過于復雜,然而在建立可靠的治理規則的過程中我們確實需要這樣的機構。

在過去的幾年里,我致力于組織一屆國際人工智能治理大會,該會議原定于2020年5月在布拉格召開,但因新冠肺炎疫情的蔓延而被擱置。大會將超越原則和個別的政策措施,聚焦于建立世界人工智能治理機制的第一步。計劃開啟以來,其他舉措已在歐盟、經合組織和別的地方實施。但我認為現行的實踐治理規則在如下某些方面上有所欠缺。一是它們均建立在現有機構的基礎上,不一定會考慮為了建立21世紀的人工智能治理體制,我們需要解決哪些問題;二是它們實際上具有排他性。此外,盡管有諸多關于包容性的討論,但其適用范圍呈現兩種態勢:要么不包括小國與服務不足的社區;要么是一種居高臨下的恩惠性包容。

讓我們快速轉向設計倫理系統的工程方法。我要提到的第一種工程方法是增值設計,即將價值觀提供給構建系統的工程師,使價值觀成為設計規范的一部分。確保安全是當今系統設計中的一項重要規范,例如,在機器人中使用不會過熱的服務系統。而將來的設計規范可能要求設計師通過設計,確定一旦系統出現故障,誰將承擔由技術風險帶來的責任。這一規范可能使設計者為了避免雇主被追責,轉而使用與現在不同的平臺。

最后,讓我們以設計道德機器的簡短討論結束。這一嶄新的研究領域擁有很多名稱:機器道德、機器倫理學、計算倫理學和人工道德,它們通常指在機器中實現道德決策能力的方法。此外,還有兩個領域——友好人工智能和價值調整。其中,友好人工智能專注于考慮人工智能的高級形式,而價值調整則著眼于如何使人工智能以符合人類需求和關切的方式行事。盡管一些研究人員希望快進到更復雜的機器上,但當他們看到現實時,還是得首先回到更適度的問題上來。下面的圖表可能會幫助您進一步了解我的想法:

橫軸代表道德敏感性,縱軸代表自主性,人們可以在這個圖表上聯想任何技術。比如一把錘子,它將處于左下方,既沒有靈敏性也沒有自主性。但可以在錘子上放置恒溫器,它對溫度的變化很敏感,能夠自主開啟或關閉空氣調節系統或加熱器。今天的大多數機器人和人工智能系統在操作上都是道德的,這意味著其中實踐著的價值觀通常是硬編碼,它們是構建這些價值觀的工程師及其隸屬公司的價值觀。但隨著人工智能透明性的降低,我們需要功能上符合道德的系統,這意味著系統能夠參與道德的算法子程序來評估它們在不同情況下的選擇。

當然,大多數人喜歡談論的是這些系統何時擁有完全的道德能動性,以及它們最終是否應該擁有權利的問題。我認為這些問題比我們想象的更為遙遠,解決它們需要極高的道德決策能力。機器倫理學由一系列問題所驅動。例如,我們是否需要人工道德主體?我們希望計算機做出道德決策嗎?以及“誰的道德、什么道德”這一古老問題乃至我們如何使道德可計算?回答最后一個問題時,我和科林·艾倫(Colin Allen)指出了兩種方法。①W.Wallach,C.Allen,Moral Machines:Teaching Robots Right from Wrong,Oxford:Oxford University Press,2009.一是自上而下的方法,此方法中倫理理論定義了控制結構。就像人們正試圖實踐功利主義或醫學倫理學原則。二是自下而上的方法。人們在此方法中并未假設存在倫理理論本身,但他們意識到孩子初降之時并沒有完全的理解道德,要實現此目標需要經歷學習和發展的過程。那么,如何能讓機器完成這一過程呢?機器學習、遺傳算法、博弈論和其他程序都為自下而上的學習提供了方法論,但這些方法又相對原始,不足以指導機器學習如何評估倫理決策。

在“道德如何計算”的問題上,除了前面提到的自上而下的方法和自下而上的方法,還有混合系統這一選擇。所謂混合系統,即同時采用自上而下和自下而上方法的系統,建立在和諧原則上的儒家美德倫理學便是混合系統的候選者。

當我們考慮在計算機和機器人中展現決策能力時,會很自然地反思基于推理的道德系統。過去的幾個世紀里基于推理的道德理論盛行,以西方尤甚。但當我們思考如何在機器人身上實現功利主義或者任何其他基于理性的系統時,就開始意識到人類在做出歷史上被認為是理所當然的決定時會用到各種能力。我和科林·艾倫(Colin Allen)將這些認知工具統稱為超理性能力。令人興奮的是,我們的研究與瓦爾特·辛諾特-阿姆斯特朗(Walter Sinnott-Armstrong)及其同事①W.Sinnott-Armstrong,C.Miller,The Evolution of Morality:Adaptations and Innateness,Cambridge:MIT Press,2007.在重振道德心理學方面的研究相一致。在寫《道德機器:如何讓機器人明辨是非》時,我和科林通過研究發現并指出了情緒、社交能力、具身性(embodiment)、心智理論(theory of mind)、同理心、意識和理解是如何影響我們的決策的。在某種意義上,這些都超越了理性。于我而言,我們看待人類道德心理的方式和實現超理性能力的前景,是繪制計算機和機器人實踐道德決策能力圖景中最令人興奮的地方之一。

最后,讓我引用路易斯維爾大學教授兼人工智能研究員羅曼·揚波爾斯基(Roman Yampolskiy)的一句話結尾。從我對這個廣闊領域的粗略評論中,你可以看出它很復雜,羅曼寫道:“那些說人工智能倫理很難的人過于樂觀了?!?/p>

在人工智能倫理中后退一步:文化、合法性和權力

黃柏恒/文 馮藝璇/譯

將人工智能倫理說成哲學和公共話語中的熱門話題是一種輕描淡寫的說法。近年來,與人工智能倫理相關的研究人員、出版物、研討會和會議的數量激增。②主流大學均建立了人工智能倫理學的研究中心和項目。例如,牛津大學互聯網研究所(OII)和牛津人工智能倫理研究所、劍橋大學Leverhulme 未來智能中心(CFI)、澳大利亞國立大學的“人性化機器智能”項目以及斯坦福大學“以人為中心的斯坦福人工智能研究所”(HAI)。此外,還有專門針對人工智能的社會、道德和政治問題的研討會和系列會議,例如,關于人工智能、倫理和社會的 AAAI/ACM 會議和關于公平、問責機制以及透明度的 ACM 會議。隨著公眾對人工智能系統潛在后果的認識不斷深入,人工智能倫理也已超越學術界,進入了政策和企業治理領域。這一趨勢又反過來敦促政府和企業就人工智能系統的研發、建構和應用符合道德規范這一點向公眾作出保證,事實上,只要符合上述規范,人工智能系統就是不可或缺且有益的。③私營公司、研究機構和公共部門組織提出的許多人工智能倫理指導方針(道德準則)和原則可能是對人工智能倫理的最好說明,參見Jobin A.,Ienca.M,Vayena.E,“The global landscape of AI ethics guidelines,”Nature Machine Intelligence,2019,pp.389-399.https://doi.org/10.1038/s42256-019-0088-2.換句話說,人們對人工智能面臨的倫理挑戰進行了廣泛的討論,隨之而來的是“人工智能”內涵的不斷演變及其應用領域的日趨擴大,這些都給人工智能倫理學帶來了更多的復雜性。在此背景下,溫德爾·瓦拉赫的“內外框架”是人工智能倫理學領域一次受人歡迎的嘗試。

瓦拉赫的框架將人工智能倫理劃分為“人工智能內在倫理,即關于道德機器的發展”和“人工智能外在倫理,即人類在應用人工智能系統時將使用的價值觀”。雖然該框架對人工智能倫理涉及的諸多問題進行了清晰直觀的劃分,但我們必須明白,一切劃定領域范圍的活動都應對其規范性行為可能產生的后果有所察覺。只要該框架能恰當地劃歸人工智能的問題域,并指明在研究人工智能倫理學時,研究人員應關注什么、在何處關注,便能塑造該領域。雖然瓦拉赫不認為其框架窮盡了人工智能倫理中一切可能的問題,不過提醒大家注意這種組織和劃界工作的規范性后果仍有其益處。人們擔心那些隱含在瓦拉赫框架中的人工智能倫理問題會被忽視或遺忘。我認為,瓦拉赫的框架暗含了一些對研發和應用人工智能系統而言至關重要的問題,有必要從人工智能系統自身以外的其他維度對瓦拉赫的框架進行補充。這里我將闡述三個問題:文化多元性的挑戰、合法性問題和權力問題。上述問題要求人工智能倫理學的研究人員和實踐者更仔細地研究人工智能生態中的規范性問題,也即研發、構建和應用人工智能系統的文化、政治和社會環境。

這一框架以人工智能系統為中心。他認為人工智能倫理研究的是在研發、構建和應用人工智能系統時遇到的倫理挑戰。在闡述人工智能內在倫理時,瓦拉赫討論了在人工智能系統設計之初嵌入倫理價值觀、設立具備倫理決策能力的人工道德主體這一方案,以便人工智能在沒有人為干涉的情況下做出倫理決策。換句話說,瓦拉赫關于人工智能內在倫理的觀點可以被描述為:以倫理的人工智能為目標,在人工智能系統中嵌入道德價值觀和(或)道德能力,使人工智能系統具有道德性,其針對的顯然是人工智能、人工智能系統和人工智能技術本身。

瓦拉赫在人工智能外在倫理中指出了與使用人工智能相關的社會和道德影響,并論述了今年激增的倫理指南和原則,它們被用于指導和管理人工智能系統的開發與應用。他特別強調,隱私、公平(或偏見)、問責機制和透明度是人工智能最基本的四項原則。這里可以用兩種不同但相關的方式澄清上述原則中的價值觀。它們可以被視為人工智能系統的設計要求,即人工智能系統必須具有“隱私設計”①A.Cavoukian,“Privacy by Design:The 7 foundational principles,”Office of the Information and Privacy Commissioner of Ontario,2009.、“公平意識”②S.Bird,K.Kenthapadi,E.Kiciman,M.Mitchell,“Fairness-Aware Machine Learning:Practical Challenges and Lessons Learned,”Proceedings of the Twelfth ACM International Conference on Web Search and Data Mining,2019,pp.834-835.https://doi.org/10.1145/3289600.3291383.和“透明設計”③H.Felzmann,E.Fosch-Villaronga,C.Lutz,A.Tamò-Larrieux,“Towards Transparency by Design for Artificial Intelligence,”Science and Engineering Ethics,vol.26,no.6,2020,pp.3333-3361.https://doi.org/10.1007/s11948-020-00276-4.等。根據這種觀點,道德準則中的價值觀是嵌入人工智能系統的價值觀,應該被納入瓦拉赫所說的人工智能內在倫理中?;蛘邔⑵湟暈樵u估人工智能系統所產生的影響和后果的規范性要求,如若人工智能系統侵犯了人們的隱私,或帶有偏見與歧視,抑或是運作不透明從而對個人與社會造成了傷害,那么該系統及其使用就是不道德和不負責任的。人工智能外在倫理的目標是審查人工智能的使用是否違反規范要求,并據此改變、限制甚至禁止相關的人工智能。只要人工智能外在倫理的上述目標不變,那么其關注的仍舊是人工智能、人工智能系統和人工智能技術本身。

有趣的是,瓦拉赫確實在不同的論點中超越了人工智能、人工智能系統以其技術,但他只將上述超越視為人工智能外在倫理的一部分。我認為這沒有充分說明超越系統和技術的必要性。例如,瓦拉赫提到,《人工智能北京共識》①BAAI,“Beijing AI Principles,”Retrieved from Beijing Academy of Artificial Intelligence,2019.https://www.baai.ac.cn/news/beijing-ai-principles-en.html.強調和諧原則,卻未提及“人權”字樣,這為人工智能倫理帶來了文化多元主義的挑戰,即在不同文化傳統中存在著截然不同但是同樣合理的價值體系。②應當指出,《人工智能北京共識》實際上確實包括“權利”。例如,這些原則包括“應充分尊重人類的隱私、尊嚴、自由、自主、權利”。然而,我們可以合理地假設,對于瓦拉赫來說,他們的理解和解釋與聯合國世界人權宣言有所不同。例如,為了捍衛中國的社會信用體系,宋冰指出,中國傳統的政府觀認為國家在道德上有責任干預人們的私生活,以促進個人和社會繁榮,這與自由主義的政府觀明顯不同。③B.Song,“The West May Be Wrong about China's Social Credit System,”The Washington Post,November 29,2018.https://www.washingtonpost.com/news/theworldpost/wp/2018/11/29/social-credit/.自由主義認為對個體生活的干預受到個體自治價值的極大限制。④See J.Mill,On liberty,Indianapolis:Hackett Publishing,1978.自由主義者當然可以質疑宋冰的辯護及該辯護所基于的中國政府觀,但他們不應在沒有認真研究支持這種觀點的文化價值觀之前就完全否定這種觀點。正如西蒙·凱尼(Simon Caney)指出的那樣,徹底否定只能是“一種哲學上的傲慢”,并給我們留下“認知障礙”。⑤S.Caney,“Human Rights,Compatibility and Diverse Cultures,”Critical Review of International Social and Political Philosophy,vol.3,no.1,2000,p.60.事實上,世界上的主流文化傳統擁有豐富的規范資源,人工智能倫理學的研究人員和從業者可以并應當考慮這些資源。例如,最近的儒家政治哲學著作表明,為了使人們通過自己的行為真正獲得儒家美德,有德性的政府有必要限制自己對人們生活的干涉⑥See S.Angle,“Virtue ethics,the rule of law,and the need for self-restriction,”in The Philosophical Challenge from China,ed.B.Bruya,Cambridge,MA:MIT Press,2015,pp.159-182.,這也反駁了宋冰對中國社會信用體系的辯護。

在信息技術的倫理分析中考慮文化價值的必要性早已得到認可??缥幕畔惱韺W的研究人員已經證明了信息技術、文化和倫理價值之間的相互作用⑦See R.Capurro,“Privacy:An intercultural perspective,”Ethics and Information Technology,vol.7,no.1,2005,pp.37-47;M.Nakada,T.Tamura,“Japanese Conceptions of Privacy:An Intercultural Perspective,”Ethics and Information Technology,vol.7,no.1,2005,pp.27-36.。他們證實了在評估信息技術的倫理這一問題上存在著來自不同文化的多種合理道德⑧See C.Ess,“Ethical Pluralism and Global Information Ethics,”Ethics and Information Technology,vol.8,no.4,2006,pp.215-226;R.Capurro,“Intercultural Information Ethics,”in Localizing the Internet.Ethical Aspects in Intercultural Perspective,eds.R.Capurro,J.Frühbauer &T.Hausmanninger,2007,pp.21-38;P.H.Wong,“What should We Share?Understanding the Aim of Intercultural Information Ethics,”ACM SIGCAS Computers and Society,vol.39,no.3,2009,pp.50-58.。人工智能倫理學的研究者和實踐者應該借鑒跨文化信息倫理方面的研究成果,關注理性道德多元化的內涵,以及文化價值觀在我們反思人工智能倫理挑戰中的意義。此外,人工智能倫理和治理應當是開放的,并針對不同的文化價值觀作出回應,這反過來又會增進人工智能從業者與其他文化工作者在跨文化背景下一起思考適合人工智能規范評估的本土價值觀①P.H.Wong,“Cultural Differences as Excuses?Human Rights and Cultural Values in Global Ethics and Governance of AI,”Philosophy & Technology,vol.33,2006,pp.705-715.https://doi.org/10.1007/s13347-020-00413-8.。因此,文化多元化將我們的注意力引向文化背景,并呼吁在特定文化背景下對人工智能規范性評估的價值觀進行更本質的反思,而不是僅僅關注系統和技術本身。

瓦拉赫還討論了人工智能治理中存在的困難,以及重新思考現有治理模式和機制的必要性。他論證了步調問題(the Pacing Problem)和科林里奇困境(the Collingridge Dilemma)的困難,前者突出了科學技術發展與道德規范發展之間的差距,后者提醒我們注意由技術研發初期的不確定性和技術開發后期來自鎖定的挑戰。在重要的意義上,步調問題和科林里奇困境都是人工智能治理面臨的認知挑戰,對現有治理模式和機制的重新思考將我們的焦點從人工智能轉向解決無知與不確定性的手段和方法上。值得注意的是,這些困難已經以負責任的研究和創新的名義得到了相當廣泛的研究②See R.Von Schomberg,“Prospects for Technology Assessment in a Framework of Responsible Research and Innovation,”Technikfolgen Absch?tzen Lehren:Bildungspotenziale Transdisziplin?rer Methoden,eds.M.Dusseldorp and R.Beecroft,Wiesbaden:VS Verlag,2012,pp.39-61;R.Owen,P.Macnaghten,J.Stilgoe,“Responsible Research and Innovation:from Science in Society to Science for Society,with Society,”Science and Public Policy,vol.39,2012,pp.751-760;J.Stilgoe,R.Owen,P.Macnaghten,“Developing a Framework for Responsible Innovation,”Research Policy,vol.42,no.9,2013,pp.1568-1580.。

負責任的研究和創新的一個核心經驗是對包括人工智能在內的新興技術的治理必須考慮到技術研發和應用的不確定性與非線性。與之關聯的另一個經驗是,要讓公眾參與到新興技術的研發和應用中。例如,安德魯·斯特林(Andrew Stirling)認為,“從規范的角度來看,公眾參與是正確的做法。從工具的角度來看,這是實現特定目標的更好方式。從實質上講,它會帶來更好的結果”③A.Stirling,“Opening up or closing down?Analysis,Participation and Power in the Social Appraisal of Technology,”in Science and Citizen:Globalization and the Challenge of Engagement,eds.M.Leach,I.Scoones,and B.Wynne,London:Zed,2005,p.220.。通過讓公眾參與到技術的研發和應用中,我們可以更好地了解公眾在技術中尋找的價值和期待,從而在開發和應用過程中能更好地回應和滿足這些需求。更重要的是,公眾的參與也有助于研發和應用技術的決策合法化。

人們普遍認為(至少在自由主義傳統中如此),各機構必須向那些受其影響或受其決定嚴重影響的人證明自己及其決定的正當性④J.Waldron,“Theoretical foundations of liberalism,”The Philosophical Quarterly,vol.37,1987,pp.127-150.??紤]到人工智能系統給人們和社會帶來的重大影響,其合法性的問題也隨之而來。例如,在設計和構建人工智能系統時,技術人員將特定的價值觀嵌入其中,而這一舉動反過來又會在系統應用時直接影響其最終用戶。⑤例如,瓦拉赫 (2021) 提到的增值設計描述了有意識地將價值嵌入技術的做法。然而,將價值觀嵌入技術并不一定是有意識的。同樣地,那些決定在業務中使用人工智能的政府機構和企業也應向公眾證明該決策的正當性。特別是當人工智能被應用于新的領域或帶來全新的后果時,僅依靠政府機構和企業現有的合法性是遠遠不夠的。因此,人工智能倫理還應包含如下反思:研發和使用人工智能這一決策如何合法、何時合法以及是否能夠合法等。這些問題無關人工智能本身,而是更為廣泛的政治問題,涉及決定如何開發和使用人工智能系統的程序,以及究竟是否應建立人工智能等問題①See P.H.Wong,“Democratizing Algorithmic Fairness,”Philosophy & Technology,vol.33,2020,pp.225-244.https://doi.org/10.1007/s13347-019-00355-w;L.Taylor,“Public Actors Without Public Values:Legitimacy,Domination and the Regulation of the Technology Sector,”Philosophy & Technology,2021.https://doi.org/10.1007/s13347-020-00441-4.。要回答上述疑問,我們需要超越對人工智能的關注。②請注意,我并不是說公眾的參與是解決合法性問題的唯一途徑,還有其他方法向公眾證明機構及其決策的合理性,例如,P.H.Wong,“The Public and Geoengineering Decision-Making A View from Confucian Political Philosophy,”Techné:Research in Philosophy and Technology,vol.17,no.3,2013,pp.350-367.https://doi.org/10.5840/techne201421110.我在這里要強調的是,合法性問題不能通過限制我們對技術本身的規范性反思來回答。

最后,瓦拉赫回憶起自己曾致力于限制主要國家部署致命性自主武器系統卻最終失敗的經歷。他的失敗揭示并說明了人工智能中權力維度的重要性,這對于在實踐中應對人工智能的規范性后果來說至關重要。在人工智能的研發和部署中存在著權力的不對稱性,這種不對稱的權力關系體現在政府和人民、大型科技公司及其用戶,以及設計者和用戶中。為了實現有意義的變革,我們必須解決權力的不對稱問題③P.Kalluri,“Don't Ask If Artificial Intelligence is Good or Fair,Ask How It Shifts Power,”Nature,vol.583,2020,p.169.https://doi.org/10.1038/d41586-020-02003-2.。事實上,現在已經到了重新考慮人工智能意識形態維度的關鍵時刻,即“智能”的歷史與假設④S.Cave,“The Problem with Intelligence:Its Value-Laden History and the Future of AI,”AIES'20:Proceedings of the AAAI/ACM Conference on AI,Ethics,and Society,2020,pp.29-35.https://doi.org/10.1145/3375627.3375813,阻止目前建構和理解的人工智能繼續放大社會中的權力不平衡問題和使弱勢群體和無權者邊緣化的問題⑤S.Mohamed,MT.Png,W.Isaac,“Decolonial AI:Decolonial Theory as Sociotechnical Foresight in Artificial Intelligence,”Philosophy & Technology,vol.33,2020,pp.659-684.https://doi.org/10.1007/s13347-020-00405-8.。然而,我們唯有對“人工智能”這一觀念(包括人工智能的含義、性質和假設)的思考方式進行根本性的變革,才能談及對人工智能的批判性反思。因此,人工智能的重構不能僅局限于人工智能的研發和應用。

總而言之,瓦拉赫的框架著眼于人工智能的內在倫理和外在倫理,可成為整理人工智能倫理中各種挑戰的有效工具。然而,這個框架過于關注人工智能本身,從而隱含了一些瓦拉赫暗示過的規范性問題。因此,我從文化多元性的挑戰、合法性問題和權力問題等方面重新闡述了這些規范性問題,并明確指出我們在回答這些規范性問題時需要超越人工智能。鑒于這些規范性問題要求我們重新思考評估的價值、治理的程序以及人工智能的觀念,我認為它們應該得到明確承認,而不是像瓦拉赫的框架所暗示的那樣存在于“人工智能倫理之外”。

AI的危害:隱私與其他

凱文·麥克尼斯/文 賈瑋晗/譯

技術有什么不能為我們做的?技術可以在某些領域提供幫助,而在其他領域則無能為力。在本文中,我將在人工智能的倫理版圖中探討這些關于隱私的問題。正如我們所看到的那樣,人工智能正在對隱私提出新的挑戰,但我在這里要辯護的是,隱私可能不是人工智能近期發展所帶來的最重要的倫理問題。一些倫理問題可能具有或看起來具有技術解決方案,如用差分隱私(differential privacy)、k-匿名(k-anonymity)等來應對隱私問題。然而,當涉及另一些倫理問題時,技術解決方案就不那么明顯了。因此,重要的是追問產生這些問題的人工智能系統的假設、發展和應用問題。與此密切相關的是,與這些系統相伴隨而產生的風險分布問題。我認為這些應由社會而不僅僅由技術行業的人決定。①然而,我不想稱科技行業的人正試圖為自己奪取對這一領域的控制權。他們和其他人一樣,都想提供解決方案。但回答這些問題根本上需要對話,需要我們在社會層面全面且公開的辯論,去決定作為一個社會我們欲去向何方。

本文的安排如下:首先,我對隱私進行了概述,特別關注什么是隱私,以及我們為什么應該關心它。目前,哲學中有一場關于隱私性質與價值的激烈爭論,為了使不熟悉這一領域的人了解發生了什么,我將對一些主要論點進行簡單的說明。然后,我將繼續考察過去十年來我認為人工智能領域最具倫理挑戰的一些發展。它們是:深度偽造(deep fakes),即用真實的視頻描繪一個人說或者做了他實際上沒有說或者做過的事;人臉識別,利用社交媒體或其他連接姓名和人臉的大型數據集進行交叉對照,通過公共監控來識別人群;預測性警務(predictive policing),使用大型數據集識別有犯罪風險的地區和人群。在過去的十年里,這些都已經成為了一種技術現象,我將簡要地逐個考察它們所引發的倫理問題。如上所表明的,我的結論是,雖然隱私對人工智能倫理很重要,但它不是唯一也不是最重要的問題。因此,過度關注隱私而忽視其他問題可能會產生誤導甚至對社會造成危害。

雖然在接下來的文章中我花了大量的時間討論隱私,但我并沒有給予人工智能這個有爭議的術語同樣的待遇。就本文而言,我將人工智能與機器學習本質上等同于:從大量數據中推導出迄今未見且使新技術得以應用的模式(patterns)。這也被稱為狹義人工智能或弱人工智能。我對在機器中發展人類水平的廣義智能不感興趣,這種機器使得在一個領域學到的東西能夠影響另一個毫不相干的領域(例如,國際象棋和政治晉升中的相似之處),也被稱為通用人工智能。我也不會討論一些指向機器獲得某種程度的自我意識或知覺的高維哲學概念。

一、導論:隱私

什么是隱私?這是一個有爭議的術語。一些人(包括我)認為隱私是指對私人信息或私人空間的有限訪問②K.Macnish,“Government Surveillance and Why Defining Privacy Matters in a Post-Snowden World,”Journal of Applied Philosophy,vol.35,no.2,2018,pp.417-432.https://doi.org/10.1111/japp.12219;B.Lundgren,“A Dilemma for Privacy as Control,”The Journal of Ethics,2020,pp.1-11;A.L.Allen,Anita,“Privacy-as-Data Control:Conceptual,Practical,and Moral Limits of the Paradigm,”Connecticut Law Review,vol.32,1999,p.861;W.A.Parent,“Privacy,Morality and the Law,”Philosophy and Public Affairs,vol.12,no.4,1983,pp.269-288.。例如,如果我寫日記,只要你不看我的日記,對于你來說我就沒有失去任何隱私。另一些人則更多地從控制信息的角度看待隱私①J.T.Mainz,U.Rasmus,“Too Much Info:Data Surveillance and Reasons to Favor the Control Account of the Right to Privacy,”Res Publica,2020,June.https://vbn.aau.dk/da/publications/too-much-info-data-surveillanceand-reasons-to-favor-the-control-;L.Menges,“Did the NSA and GCHQ Diminish Our Privacy?What the Control Account Should Say,”Moral Philosophy and Politics,vol.7,no.1,2020,pp.29-48.https://doi.org/10.1515/mopp-2019-0063;A.Moore,“Privacy:Its Meaning and Value,”American Philosophical Quarterly,vol.40,no,3,2003,pp.215-227.。如果你控制了我的日記,即使你不看,我也會因為你的控制而失去隱私。這里所說的控制的含義也是有爭議的。然而,第三個群體將從適當信息流(appropriate flows of information)的角度看待隱私:任何人分享我的日記都是不合適的,除非我允許他們這樣做。比如,如果我的醫生想要分享我的醫療信息,與另一位醫生而不是與記者分享是合理的②H.Nissenbaum,“Privacy as Contextual Integrity,”Washington Law Review,vol.79,no.1,2004.http://papers.ssrn.com/sol3/papers.cfm?abstract_id= 534622;H.Nissenbaum,Privacy in Context:Technology,Policy,and the Integrity of Social Life,Stanford,Calif:Stanford University Press,2009.。

無論采取哪種觀點,首先,最為關鍵的一點是,隱私不僅僅是一種感覺。無論我們有沒有感覺到,失去隱私都有客觀的依據。我們有時會覺得我們的隱私權被削弱(由于被訪問/控制而減少)、失去(減少到幾乎不復存在的程度)或被侵犯(以錯誤的方式減少,通常是因為未得到我們的同意就失去了),但我們的感覺可能是錯的。僅僅因為我們覺得我們的隱私權被削弱了,并不意味著它事實上被削弱了。

其次,雖然隱私權經常被視為一項權利,但它很少被視為一項絕對權利,這意味著它可以被相互競爭的問題所推翻。例如,在人權宣言中討論的隱私權就是一種非絕對權利,因此國家安全或各種其他利益都可能會沖擊它③United Nations,“The Universal Declaration of Human Rights,”December 10,1948.http://www.un.org/en/documents/udhr/index.shtml;C.Grabenwarter,“European Convention on Human Rights,”European Convention on Human Rights.Nomos Verlagsgesellschaft mbH &Co.KG,2014.。

最后,關于數據保護是否應該被視為隱私這一問題還存在一些爭論④K.Macish,“Mass Surveillance:A Private Affair?”Moral Philosophy and Politics 1 (ahead-of-print),2020.https://doi.org/10.1515/mopp-2019-0025.。這與隱私是控制問題還是訪問問題有關。在歐洲,2012年的《歐洲聯盟基本權利憲章》⑤D.F.Giacomo,The Eu Charter of Fundamental Rights,Springer,2011.既承認數據保護權也承認隱私權,但認為兩者不同。類似的,《歐洲一般數據保護條例》⑥EU Parliament,Regulation (EU) 2016/679 of the European Parliament and of the Council of 27 April 2016 on the Protection of Natural Persons with Regard to the Processing of Personal Data and on the Free Movement of Such Data,and Repealing Directive 95/46/EC (General Data Protection Regulation) (Text with EEA Relevance).OJ L.Vol.119.http://data.europa.eu/eli/reg/2016/679/oj/eng.就專門針對數據保護,幾乎沒有提到隱私一詞。然而,這是歐洲的法律語境。在美國,隱私通常被認為是包括數據保護的。為了論述清晰,在本文中,我將隱私等同于數據保護。

二、隱私的價值

為什么我們如此關心隱私?我認為有三個領域包含了我們認為隱私重要的地方和原因。當隱私在未經同意的情況下被削弱時,有兩個問題會對個人和社會造成傷害(或錯誤)①K.Macnish,“An Eye for an Eye:Proportionality and Surveillance,”Ethical Theory and Moral Practice,vol.18,no.3,2015,pp.529-548.https://doi.org/10.1007/s10677-014-9537-5.。作出這樣的區分可能看起來很奇怪,因為有人懷疑我們是否曾同意自己的隱私被削弱,但我們卻經常這樣做。我們會在社交媒體上分享自己的私人信息,會與朋友和家人等其他人共享私人信息。當我們與醫生討論我們的健康狀況或與銀行職員討論我們的財務狀況時,我們也會分享私人信息。因此,我們確實會選擇披露自己的私人信息,從而在雙方同意的情況下削弱自己的隱私。

(一)一致同意削弱的隱私

即使我們確實同意削弱我們的隱私,也可能存在倫理問題②K.Macnish,The Ethics of Surveillance:An Introduction,London:New York:Routledge,2018.。在電影《艾德私人頻道》③R.Howard,Edtv,Universal Pictures UK,2003.中,主人公艾德同意接受一家電視公司每周7天、每天24小時的跟蹤,電視公司付錢讓他向公眾廣播他的生活。鑒于艾德的性格,這部電影繼續探索這份最初的協議是如何具有剝削性的。電視臺的主管們知道,他不會就這筆交易咨詢律師,所以合同寫道:如果節目成功,艾德不能通過付費讓這個節目終止。

雙方同意的隱私削弱也會使一個人有可能進行強迫活動。如果有些人知道你的毀滅性信息,比如在喝啤酒時的輕率時刻或者在一段短暫的關系中,這些人可能會試圖借此操控你。除了剝削和脅迫,第三個問題與無處不在(ubiquity)有關。如果每個人都選擇分享他們的信息,那么對于一個選擇不分享他們的信息的人來說,在社會上生活就會變得非常困難。例如,如果每個人都在社交媒體上發布他們的早餐,而我卻不發布我的早餐,那么我可能會看起來很奇怪。人們可能會因為我的行為與大多數人不同而質疑我,并開始污蔑我,即使我沒有做錯什么。正如里根所指出的那樣,在定義什么是適當的隱私時,存在一個社會維度④P.M.Regan,Legislating Privacy:Technology,Social Values,and Public Policy.Chapel Hill:University of North Carolina Press,1995.。因此,同輩壓力可能會有效地迫使我冒著看起來奇怪或被攻擊的風險削弱自己的隱私,即使我保留不披露這些信息的假定權利。

(二)非一致同意削弱的隱私:個體

隱私在非雙方同意的情況下,即我的隱私在未經我同意就被削弱的情況下,可能會在兩個方面產生危害:個人和社會??梢詮恼撟C隱私是一個有內在價值的概念開始:如果我的隱私被減少了,那么我就受到了傷害,因為隱私本身就具有價值。然而,這是有爭議的①T.Doyle,“Privacy and Perfect Voyeurism,”Ethics and Information Technology,vol.11,2009,pp.181-189.。許多人并不認同隱私具有內在價值,而認為它僅具有工具價值,即使是那些支持隱私內在價值的人也同意隱私具有工具價值。

因此,我們應該首先考察隱私保護的是什么才能理解它的價值。在許多領域中,隱私有助于為我們所重視的東西提供保護。其中一個是安全問題,當我們的隱私減少時,我們可能會變得不安全。例如,當我們害怕被勒索或其他形式的操縱時,拒絕勒索通常會損害我們的一些尊嚴,因此也會影響我們的行為方式和自主性。因此,隱私為我們提供了安全保障,同時保護了我們的尊嚴和自主權。

第二個是寒蟬效應(chilling effects)的體驗。當國家或其他對我們行使權力的實體試圖削弱我們的隱私時(甚至當我們擔心我們的隱私會被削弱時),這種情況就會發生。我們可能會因參與通常被認為是合法的活動而受到“懲罰”。一個很好的例子是,在德意志民主共和國(1940-1980),示威是合法的。然而,人們選擇不示威是因為他們知道,如果他們在示威中被看到,那么他們會因此被捕或以更糟的方式受到傷害②A.Funder,Stasiland:Stories from Behind the Berlin Wall,Granta Books,2004.。因此,隱私可以保護游行和參與可能違背當權者利益的合法活動的權利。

第三個領域是隱私通過限制歧視或社會分類來保護我們③David Lyon,Surveillance Studies:An Overview.1 edition.Cambridge,UK;Malden,MA:Polity Press,2007;Surveillance as Social Sorting:Privacy,Risk and Automated Discrimination.Abingdon,Oxon;New York:Routledge,2002.。我們經常使用監控來識別人們私生活的各個方面,然后以歧視性的方式對待他們,從而對他們形成成見或污蔑。例如,在同性戀違法的社會中,如果你的性取向被知道,那么你很可能會受這些成見的影響。

第四,當人們被要求做什么或想什么時,可能會形成一種家長式作風的感覺,特別是如果他們隨后一直被監控(審查),以確保他們確實是在做他們被告知的事情。一個與此相關的問題是,個體會對那些監視他或她私人活動的人缺乏信任。這些(家長式作風和明顯缺乏信任)中的每一種都會對創造力和自由的實驗產生影響,并反作用于早先對缺乏安全感和害怕被當權者控制的擔憂。

第五,當一些人掌握了我們的數據,就會出現人為錯誤和濫用權力的問題。這個人或實體可能會使用這些數據(即使是錯誤的),導致我們遭受損失或受到傷害。例如,在英國的一些案例中,一些人本應被列入性犯罪者的登記冊,但由于他們與一些無辜的人同名,所以那些無辜人的姓名和地址被登記在了登記冊上④C.Byrne,“Sun Shame after Paedophile Mix-Up,”The Guardian,March 31,2003,sec.Media.http://www.theguardian.com/media/2003/mar/31/pressandpublishing.sun;C.Byrne,“Fresh Apology over Sun Paedophile Mix-Up,”The Guardian,April 7,2003,sec.Media.http://www.theguardian.com/media/2003/apr/07/pressandpublishing.sun.。

最后,重要的是要記住,我們重視隱私的原因之一是因為我們確實有合法的理由隱藏信息。當我們想為某人策劃一個驚喜派對,當我們只是想把我們的想法寫在日記里,當我們想脫掉衣服或者去洗手間,我們都需要隱私。在這些情況下,我們什么都沒有做錯。事實上,有證據表明,世界各地和歷史上的人們都十分重視隱私(盡管他們認為隱私的內容可能有所不同),保有一些隱私是沒有任何問題的。這反過來也支持了這樣一種觀點,即隱私在某種程度上可能是人之為人的基礎。

(三)非一致同意削弱的隱私:社會

在非雙方一致同意的情況下,相對于社會而不是對個人,隱私也存在固有的價值。如果一個社會失去了隱私,也就失去了一些對其作為一個社會有重大意義的東西。社會重視隱私也有一些工具性的原因,其中許多都與前文提到的個人隱私有關。例如,如果社會中的一群人失去了隱私,那么面對當權者,他們可能會變得非常沒有安全感。例如,在納粹德國,被認定為猶太人、同性戀者或屬于許多其他群體的人,當他們的特定群體成員身份為國家所知時,就會被國家處決。而保護他們作為任何諸如此類團體成員的隱私本可以保護他們免受這種迫害。

隱私對民主制度也有影響?!懊裰鳌痹诤艽蟪潭壬弦蕾囉谝环N隱私制度,在這種制度下,人們的投票不會被公之于眾。這使得人們可以自由地投票而不用擔心被報復,以這種方式選出的民主領導層也就獲得了大多數公民(或至少是最大的少數派)的支持。失去了投票亭里的隱私將對民主的整體運作產生重大影響。這也與寒蟬效應密切相關。如果沒有人準備參加(更不用說組織)挑戰當權者的活動,那么這些掌權的團體就有可能不理解他們公民的意愿,并剝奪這些公民在公共場合發泄失望的權利。

社會宿命論和行為一致性(behavioral uniformity),即社會獨立思考的能力和以多種方式行動的能力,也可能是在社會層面失去隱私所不希望看到的結果。當個人在行動時因未來已被決定而不再像他們自己,他們就會為了避免被孤立,以趨同的方式處理事務,社會也可能經歷思想的貧乏,從而對更廣泛的社會和技術創新產生影響。如果我們因為害怕把頭伸出墻外被人發現,就和他人的行為方式一致的話,那么我們就不太可能提出新的解決問題的方法。

最后,哲學家詹姆斯·雷切爾(James Rachel)在20世紀70年代提出,隱私是我們定義親密關系的關鍵方式。隱私提供了一種控制我們彼此共享了多少自己信息的方式。如果我們失去了控制共享信息的能力,那么我們就會失去對某些關系的控制。這不僅影響個體間的關系,而且影響社會的平衡運行,因為人們害怕鄰居①G.Orwell,1984 Nineteen Eighty-Four,London:Penguin Classics,2004.,或者真的生活在玻璃盒子里,來保證絕對沒有什么東西是隱私的②Y.Zamyatin,We,trans.Clarence Brown,New York,N.Y.,U.S.A:Penguin Classics,1993.。

三、AI倫理:隱私與更糟的情況

在確立了隱私給個人和社會帶來的價值之后,本節轉向思考人工智能隱私和其他倫理問題之間的相互作用。如引言中所述,本節將考慮三個領域:深度偽造、人臉識別和預測性警務。我認為,在任何一種情況中,隱私與其他倫理問題相比,要么不是一個令人擔憂的問題,要么是一個相對較小的問題。不過,需要強調的是,這并不是說隱私與人工智能無關。事實并非如此。在開發對人們生活產生影響的機器學習系統時,這些系統會經常通過收集和處理私人信息的手段來達成目標。這本身是否削弱了人們的隱私是一個有爭議的領域,因為至少可以說機器訪問信息是不會削弱隱私的①K.Macish,“Mass Surveillance:A Private Affair?” Moral Philosophy and Politics 1 (ahead-of-print),2020.https://doi.org/10.1515/mopp-2019-0025.。然而,在這一過程中,對私人信息控制權的喪失是毋庸置疑的,因此“隱私即控制”觀點的捍衛者將把這種舉動看作對個人和社會隱私的直接攻擊②L.Menges,“Did the NSA and GCHQ Diminish Our Privacy?What the Control Account Should Say,”Moral Philosophy and Politics,vol.7,no.1,2020,pp.29-48.https://doi.org/10.1515/mopp-2019-0063.。

(一)深度偽造與隱私

我從深度偽造的挑戰開始這一部分的討論。深度偽造已經被用在娛樂行業里,例如,在最近的電影《愛爾蘭人》③M.Scorsese,The Irishman,Sony Pictures,2020.中,阿爾·帕西諾和羅伯特·德尼羅等幾位演員在電影中看起來都比現實生活中的他們年輕和年長。深度偽造也出現在政治中,盡管到目前為止很大程度上只是為了展示它們的潛力,而不是為了誤導公眾④H,Baker,It's Getting Harder to Spot a Deep Fake Video,Bloomberg,2018.https://www.youtube.com/watch?v=gLoI9hAX9dw&t=29s.。也許從隱私的視角看,最具爭議的深度偽造主要是為了應用于色情視頻行業而被開發的。

深度偽造顯然引發了一些關于隱私的哲學問題,如果一個人受到深度偽造事件的影響,如色情事件的影響,他是否會失去隱私。雖然這類案件顯然是錯誤的,但至少對我來說,目前還不清楚它們是否與隱私有關。如果我受到這樣的攻擊,我很可能會覺得我的隱私(如果不是失去的話)被削弱了,然而,一個人可能會覺得自己的隱私被削弱了,但事實并非如此。僅僅因為我覺得我的隱私被削弱了,這并不表示我的隱私已經被削弱了。此外,深度偽造色情電影產生的危害,與隱私保護我們免受的危害類似。同樣,如果人們認為我們說了什么或者做了什么,而事實上我們并沒有這樣做,我們的聲譽很可能會受到損害。如果人們認為我們相信某些我們事實上并不相信的觀點,特別是如果他們對這些信念采取暴力式反對的態度,我們的安全也可能受到傷害。然而,僅僅因為隱私可以保護安全,并不意味著對我安全的傷害就是對我隱私的傷害。有人可能會在街上襲擊我,偷走我的錢。在這樣的案件中,我的安全肯定受到了傷害,但我的隱私被削弱的情況就不那么明顯了。因此,僅僅因為深度偽造可能會損害到安全、尊嚴和聲譽等問題,而這些又都受到隱私的保護,并不意味著深度偽造就會削弱隱私。

我的論證并不是無懈可擊的,但我希望提出一點,即深度偽造是否是隱私問題是不清楚的。雖然我同意一個人可以感受到自己的隱私因為深度偽造受到侵犯,但我不相信這種感覺是得到辯護的。不管我是對是錯,這顯然是一個需要研究和琢磨的現實問題。一些答案可能會回到隱私是什么的問題上。盡管如此,無論一個人的隱私是否被深度偽造削弱,深度偽造的存在本身是有問題的。如上所述,圍繞這個問題還出現了其他值得思考的倫理問題,尤其是對社會和個人穩定、安全、自治和尊嚴的威脅。只關注隱私風險,如在深度偽造的例子中,而忽視其他風險可能會造成更大的損失。

(二)人臉識別與隱私

人臉識別,即通過閉路電視或其他視覺媒體對捕捉到的個體進行自動識別,不僅僅被用于公共場合,還可以被用于作為進入私人建筑、公司物業,或作為在線數字身份的一種形式。然而,它最具爭議的應用可能是用來識別在公共場合如街道上的人,并可能被用來識別參與示威的人。這就產生了我們在公共場合是否有隱私的問題。當我們在公共場所時,我們對隱私有合理的期望嗎?這至少在一定程度上取決于我們如何理解公共或公共空間這一術語。在街道上,一個人似乎不太可能對隱私有一個合理的期望。任何人都可以看到并認出我們,即使我們身處與原居住地不同的城市或國家(當然,除非我們喬裝打扮)。不管這幾率有多小,在公共場所被認出的可能性都是很大的。然而,如果你仍然處于餐廳的公共空間,或者有人可能會說你在一個公共可以進入的私人空間,但這個空間并不是被你擁有或控制的。盡管如此,一個人期望在餐廳與朋友或親密之人交流并不被偷聽確實被視為是合理的。如果你發現桌子上的花里有一個麥克風,那么你很可能會覺得你的隱私受到了侵犯,這是理所當然的:隱私信息可能會在未經你同意的情況下被訪問(或失去對該信息的控制)。因此,在餐廳的環境中,一個人確實有一種隱私感。在考慮到在公共廁所(或餐館廁所)時更是如此,如果我們發現閉路電視攝像頭對準隔間內部,我們理所當然地會感到權利受到了侵害。

重要的是,在確定公眾對隱私的合理期望時,需要考慮一些背景因素。因此,當思考接受人臉識別者的隱私時,我們需要考慮到在哪里使用人臉識別,以及為什么要使用它①K.Macish,“Just Surveillance?Towards a Normative Theory of Surveillance,”Surveillance and Society,vol.12,no.1,2014,pp.142-153;E.Stoddart,“Challenging ‘Just Surveillance Theory':A Response to Kevin Macnish's ‘Just Surveillance?Towards a Normative Theory of Surveillance’,”Surveillance & Society,vol.12,no.1,2014,pp.158-163;K.Macish,“Response.” Surveillance & Society,vol.12,no.1,2014,pp.175-181.。隨著人臉識別的使用變得越來越廣泛,出現了更多由于人臉識別技術或使用錯誤而導致錯誤逮捕的報道②K.Hill,“Wrongfully Accused by an Algorithm,”The New York Times,June 24,2020,sec.Technology.https://www.nytimes.com/2020/06/24/technology/facial-recognition-arrest.html.。通常,這些錯誤也證明了對某些人的歧視,因為在用于訓練面部識別系統的數據集中,某些少數群體要么表征過多,要么表征不足。這就導致這些系統傾向于要么對某些少數群體的所有人一視同仁,要么過多地關注這些群體,而不是犧牲其他似乎沒有更多問題的社會群體。通過這種方式,歷史偏見進入了這些系統,并被這些系統加?、貹.Macnish,“Unblinking Eyes:The Ethics of Automating Surveillance,”Ethics and Information Technology,vol.14,no.2,2012,pp.151-167.https://doi.org/10.1007/s10676-012-9291-0;C.O'Neil,Weapons of Math Destruction:How Big Data Increases Inequality and Threatens Democracy,Crown/Archetype,2016;B.D.Mittelstadt,A.Patrick,T.Mariarosaria,W.Sandra,F.Luciano,“The Ethics of Algorithms:Mapping the Debate,”Big Data & Society,vol.3,no.2,2016.https://doi.org/10.1177/2053951716679679.。

解決表征過多/表征不足問題的方法不是關注身體特征,如人臉識別,而是關注行為模式。然而,即使在這里,某些行為模式也可能與社會中的特定群體聯系在一起。例如,當青少年聚集在一起時,他們的行為很可能與他們的父母非常不同。如果從國際背景來看,加拿大男性的平均行走速度是沙特阿拉伯女性的兩倍多②更多例子請參見K.Macnish,“Unblinking Eyes:The Ethics of Automating Surveillance,”Ethics and Information Technology,vol.14,no.2,2012.。因此,一個沙特的自主系統可能會認為一名加拿大男子在逃離現場,但他實際上是在以正常的速度行走。這顯然會令人擔憂,因為它的背景是一起恐怖爆炸事件,而自主系統是由警方操作用來識別嫌疑人的。自主系統中的偏見問題由于自主偏見的傾向性而進一步加?、跮.Bainbridge,“Ironies of Automation,”Automatica,vol.19,no.6,1983,pp.775-779.https://doi.org/10.1016/0005-1098(83)90046-8.。經驗證據表明,當自主系統告訴操作員要做某事時,操作員很可能會聽從它,即使有相同的證據表明自主系統是不正確的。這一點在20世紀70年代末得到了認證,當時有人看到飛行員聽從了自動駕駛系統的警報,稱機翼著火了,即使沒有明顯的證據表明發生了這樣的火災。因此,即使人工操作員被安排“進入循環(into the loop)”(即成為決策過程的一部分,而不是僅允許自主系統運行整個過程),也可能無法提供我們所希望的面對錯誤的抗衡。

因此,與深度偽造一樣,人臉識別也存在隱私問題。這些問題在很大程度上與人們在什么地方可以合理地期待隱私,以及與輸入這類人臉識別系統的數據集構成有關。然而,對某些群體表征過度/過低的問題,對某些群體理解和同情的缺乏,以及自主偏見的傾向性,都表明人臉識別系統本身可能不那么關心隱私,而將根深蒂固的歷史偏見和系統性偏見引入自主系統的風險要大得多,這些系統可能會逮捕錯誤的人。

(三)預測性警務與隱私

我想簡要介紹一下預測性智能,這是人工智能在另一個領域,特別是警務方面的應用。預測性警務的運作方式有許多種④Norwegian Board of Technology,“Predictive Policing:Can Data Analysis Help the Police to Be in the Right Place at the Right Time?” Oslo:Norwegian Board of Technology,2015;K.Macnish,W.David,J.Tilimbe,“Predictive Policing in 2025:A Scenario,”I n Policing in the Era of AI and Smart Societies,2020,pp.199-215.。一種是確定犯罪經常發生的地方,并將這些地區隔離為/孤立為“犯罪熱點(crime hotspots)”區域,以便將有限的警力資源用于這些地區。與人臉識別一樣,在這些案件中經常出現歧視問題,因為在某些領域,犯罪可能會被過度報告(或被不成比例地記錄),這是因為司法系統內的系統性問題導致少數群體在這些領域受到過度表征。因此,當警察被引向這些犯罪熱點地區時,他們更有可能注意到并因此逮捕那些居住在這些地區的少數群體的人,進而導致更多關于這些地區的舉報,并被反饋到自主系統中。不難看出,在這種情況下會出現自我實現的預言。

預測性智能也被用來識別可能卷入犯罪的個人①K.Macnish,W.David,J.Tilimbe,“Predictive Policing in 2025:A Scenario,”in Policing in the Era of AI and Smart Societies,2020,pp.199-215.。這是通過監測未被認定為罪犯的人的在線行為(語言和社交網絡活動),并將其與罪犯數據庫、曾經或目前在監獄中的人的記錄進行交叉對照來實現的,這有助于國家進行干預,從而促使人們遠離犯罪行為②R.H.Thaler,R.S.Cass,Nudge:Improving Decisions About Health,Wealth and Happiness,Penguin,2009.。當局沒有采取高壓手段,而是向那些有風險個人的在線活動中引入信息,這將使他們遠離犯罪行為。

重新審視這是否會危害隱私是很重要的,人們在網上互動的方式在某些情況下可能是私密的(如通過基于網絡的電子郵件),但在另一些情況下可能是公開的。在后一種情況下,由于只通過監測公共在線活動就確定了弱勢人群,該結果會再次影響他們選擇自己想要的生活方式的自主性和自由。同樣,意識到存在這種情況的可能性會導致前面所提到的寒蟬效應。在這種情況下,寒蟬效應很可能會涉及對某些對話和建立友誼的自我審查。最后,歧視問題再次引起關注,因為某些特定的群體被挑選出來并受到關注,或者被認定為存在不合比例的犯罪風險。

小結

人工智能有利有弊。我不想低估這些好處,因為這些好處是重要的,但同樣要重視這些危害,尤其是如果我們對減輕這些危害抱有任何希望的話。上面描述的一些危害顯然與我所認為的隱私保護價值問題有關,但危害本身并不總是由隱私造成的。一些危害顯然是與隱私有關的,這些危害就像其他危害一樣,需要被認真對待。然而,在人工智能的開發和使用中,過度關注與隱私相關的危害可能會讓我們忽視其他危害,我已經提出,其中許多危害比與隱私直接相關的危害更令人擔憂。

最后要提出的一點是,雖然人工智能的發展給許多人帶來了好處,但重要的是要考慮這些益處的分配。這就引出了這樣一個問題:誰有被傷害的風險,誰將(以及誰不會)受益于人工智能系統,最重要的是,誰來決定是否使用該系統?如果做出這些決定的人不包含那些面臨被傷害風險的人(特別是如果做出這些決定的人也是那些受益的人),那么我們將面臨一些嚴重的社會狀況,其中分歧根深蒂固,歷史歧視根深蒂固。這對我來說成了關鍵問題,也是為什么這些問題需要由整個社會決定,而不是由社會中的個人或某些(通常是特權的)群體來決定。因此,大眾參與這些討論是很重要的,只有在此之后,我們才能真正確定它所帶來的益處是否值得我們冒這樣的風險。

人工智能、隱私和其他倫理問題是社會所關注的問題,需要社會來解決。首先需要考慮一個關鍵問題,即技術能為我們做什么,不能為我們做什么。在試圖解決這個問題時,我認為人工智能對隱私提出了新的挑戰,我們已經在深度偽造、人臉識別和預測性智能方面看到了這一點。然而,我也已經表明,人工智能的倫理問題其實遠遠超出了隱私問題本身,我希望對只關注隱私而忽視(并因此加深)正在開發的系統中的其他問題的做法提出警示。在我看來,出于對歧視和危害分布的擔憂,這些問題應該由社會來解決,而不僅僅是由技術領域的人來解決。這是一項共同的責任,技術人員要與社會分享發展動態,這樣做也會讓他們認識到危害和益處,以免對未來有不切實際的愿景,防礙采取緩解措施。然而,社會也有責任關注技術發展中正在發生的事情,并參與這些討論。為了向前發展,我們需要在社會上進行充分、開放和自由的辯論,在這種辯論中,我們需要就前進的方向和我們要去的目的地的性質達成一致。我們需要弄清楚,哪些風險值得,哪些不值得,當涉及到社會上對歷史弱勢群體的歧視時,我們需要特別注意。

為什么隱私問題重要?——對凱文·麥克尼斯的回應

王小偉/文 賈瑋晗/譯

凱文·麥克尼斯十分有益地提出了對人工智能(技術)隱私問題的擔憂。他討論的深度偽造、人臉識別和預測智能問題對任何國籍、種族和性別的人都將構成巨大挑戰??偟膩碚f,北美和歐盟國家對人工智能技術非常謹慎,也不太愿意接受它們。相比之下,中國在追趕尖端人工智能技術方面速度極快,這些技術也被列入了十四五計劃。①http://www.gov.cn/xinwen content_5592681.htm,2021年3月13日。我將在中國語境中回應凱文·麥克尼斯的論述。

科技曾被認為是使中國擺脫貧困和屈辱的巨大力量。中國共產黨在采用先進技術方面十分迅速。在掌握互聯網技術后,國家為利用人工智能做好了充分準備。中國人工智能協會(CAAI)成立于 1981 年。王永慶于1994年出版了《人工智能原理與方法》一書,這本書被廣泛引用。人工智能已成為近年來最有爭議的哲學話題之一,學者們專注于從分析和現象學的角度剖析智能概念,而人工智能倫理問題則吸引了哲學家和公眾的關注。

百度、騰訊、阿里巴巴和京東等國內互聯網巨頭為改善其服務,已經系統地發展了人工智能技術,他們收集了大量的消費者信息。高鐵站、大學甚至住宅區都安裝了人臉識別攝像頭。對技術奴役(即人成為人工智能機器的附屬物)的恐懼席卷了技術愛好者的圈子。復旦大學的一位教授最近揭露了網約車應用算法中存在的偏見。通過一些統計數據,他證明了,你的手機越貴,被多收費的可能性就越大。②https://baijiahao.baidu.com/s?id=1692002729067628571&wfr=spider&for=pc.

算法偏見存在于許多在線服務中,從網上服裝購物到電影票預訂等。這種技術并非在世界任何地方都是可行的,但似乎大多數中國人都很好地適應了這種情況。你會經常聽到中國人說,如果你沒有做錯什么,為什么要如此擔心被監視呢?相比于隱私,人們似乎更注重安全,因為他們更想要即使在午夜也能在公共場所安全地自由行走,并隨心地享用小吃等。許多中國人對美國/歐洲一些城市中有游蕩的醉漢感到震驚。

一、穩私是什么及其為什么重要?

正如凱文·麥克尼斯所指出的,隱私可以指:(1)對一組受保護的個人身份信息的有限訪問,或(2)一個人有控制自己信息的自由①J.Q.Whitman,“The Two Western Cultures of Privacy:Dignity Versus Liberty,”Yale LJ,vol.113,2003,p.1151;A.Moore,“Defining Privacy,”Journal of Social Philosophy,vol.39,no.3,2008.R.D.Hughes,“Two Concepts of Privacy,”Computer Law & Security Review,vol.31,no.4,2015,pp.527-537.。我可能會收集一些私人數據(例如我的醫療信息、手機號碼)。任何故意竊取這些數據的人都應被視為侵犯隱私?;蛘呶铱梢宰约哼x擇透露或披露這些信息。在這種自由被剝奪之前,我的隱私不會受到影響。前者側重于列出禁忌清單的自由,而后者側重于按照自己的意愿使用信息的自由。盡管關注點不同,但凱文·麥克尼斯表示,“隱私可以被視為整個社會的內在價值,也就是說,如果一個社會失去了隱私,那么它就失去了對其作為一個社會有重大意義的東西”。以這種方式說明隱私似乎不可信。我認為,儒家社會可能同樣不會重視隱私,當然也不會賦予它內在價值。如果要保留這個概念,儒家社會會出于完全不同的理由使用它。

這兩種隱私概念都依賴于受權利保護的自主個體(autonomous individual)概念。②我并不是說所有的西方學者都同意將隱私建立在個體自由的基礎上,但事實上,這種獨特的觀點確實體現了自由民主國家的現代哲學,而且經常被載入憲法中。這一特殊概念是一種根植于西方歷史的政治/哲學/法律結構。在此背景下,隱私被視為保護個人自主性的工具??档抡J為正因為我們是自主存在,我們才成為有尊嚴的主體③I.Kant,Groundwork for the Metaphysics of Morals,Yale University Press,2008.?;舨妓购吐蹇艘矌椭纬闪艘环N自由主義的自治個人模式,這也是現代西方國家的基礎。這一觀點在中國人看來即使不疏遠也是沒有吸引力的。在此,我將主要關注儒家傳統。這樣做并不是說中國是一個儒家國家,也不是說儒學就是中國對待倫理應有的方式。在下文中,我僅探討基于儒家思想的倫理框架與基于人權的框架相比,是如何從不同的角度討論人工智能倫理的。儒家社會采用以角色為基礎的人的概念及其相關政治。④像許多其他文明一樣,中華文明融合了太多的思想,包括儒家思想、道家思想、佛教思想等。由于儒家思想是現在最重要的一種,所以我在這里試圖用儒家思想重建隱私來回應凱文·麥克尼斯。一個男人可以是父親、兒子、丈夫、政府官員等身份。他的身份是由他所扮演的各種角色形成和決定的。儒家社會中沒有抽象的個體被賦予權利,在古代中國,找不到與“自主”和“權利”相對應的詞。正是責任/義務規定了角色的實現,才標志著中國作為一種東方文明而存在。因此,在古漢語中沒有“隱私”的等價詞?!瓣幩健?yin-si)這個詞是我們能找到的最接近“隱私”的中文術語,表示一個人在隱藏,這被孔子所鄙視,在他看來,真正的君子沒有什么可隱瞞的。當一個人隱藏時,是根據某些社會角色的需要而這樣做的。當孔子被問及兒子是否應該向當地官府舉報父親偷羊時,孔子回答說,兒子不應該這樣做,因為他有做兒子的義務。

即使是獨自一人,君子也會像在公共場合那樣行事。君子需要西方的隱私概念嗎?我認為不需要。君子可能需要控制一些信息來履行某些義務,但不一定是為了“隱私”。正如我簡要提到的,隱私可以被解釋為一個源于現代人作為享有權利的個體的現代概念。他因自主的生活而備受珍視。但對于儒家來說,自主性并不是核心。重要的是個人信息的泄露如何導致道德腐敗,從而侵蝕社會的基礎。然而,我并不是在捍衛儒家原教旨主義,而完全忽略隱私問題?,F代中國也不是一個儒家國家,君子可能會出于不同的原因重視隱私概念。由于其自身的歷史和現實,它或許會以不同于西方特征的方式發展“隱私”概念。

我推測,孔子可能會從這個角度提出一種基于社會的隱私概念。隱私之所以重要,是因為它對保障社會秩序和公共物品具有重要意義。這與基于自主個體的隱私概念有何不同呢?中國人可能會覺得被攝像機包圍所產生的威脅很小,因為這對于安全社會的建設是有好處的。他們也會給予政府很大的信任,因為儒家國家本質上是君子居住的道德國家。中央權威被解釋為一種準道德權威,它能夠為了社會秩序而協調個人意愿。因此,人們會向地方和國家政府提供信息。這樣,隱私問題不會引發國家和公民社會之間的緊張關系,政府本身是收集廣泛信息的可信賴主體?!半[私泄露”是由于治理失敗,而不是侵犯個人權利??傊?中國人傾向于認為私人信息可以被收集,同時要求它們作為集體物品受到保護。一旦信息泄露或被濫用,應停職負責人員,這一切都與善治有關。

二、隱私的和諧 VS 人權方法

凱文·麥克尼斯似乎將隱私主要當作一項人權來討論,從而將隱私視為個人和社會(由個人組成)的基本權利。眾所周知,中國一直致力于在國際上促進隱私與基于人權的人工智能之間的和諧。這里重點是探索基于和諧的方法是否更適合未來對人工智能的治理。隨著現代科技的發展,隱私問題的人權制度不斷受到挑戰。由于互聯網的存在,國際人口販賣、恐怖主義、兒童色情作品等問題變得極其難以處理。如果將人權置于這樣的背景中,為了應對新挑戰,需要對其進行更靈活的解釋。

將隱私權視作一項人權會帶來一些問題。首先,人權會面臨權利膨脹的危機。隨著權利清單的不斷擴大,權利語言開始貶值。其次,人權可能會滋生一種放縱的權利文化,在這種文化中,人們對自己“應得”的東西變得極其苛刻,而忽視了自己所虧欠的東西。最后,人權制度實際上已被少數西方國家壟斷,經常被它們用作為自己謀取利益的政治杠桿。我在這里并不是說人權本身就是壞事。恰恰相反,我認為人權是一個需要認真研究的重要概念,但人權的政治實踐還不完善。在這種背景下,基于和諧方法的隱私作為一個互補概念是值得關注的。

首先,人工智能不僅會給個體帶來隱私風險,也會給不同規模的群體帶來風險。人工智能會從大量人口中收集大量數據,從而歧視某些群體。例如,有人認為谷歌更有可能在其搜索結果中顯示美國的英文網站,而不是中國的英文網站。谷歌的搜索算法傾向于選擇與其他網站相互鏈接的網站,而這是許多中國網站所缺乏的特質。正如麥克尼斯所指出的,用于警務的預測性技術可能會以過度代表或不足以代表某些族群而告終。人臉識別系統通過吸收更多的數據,可能會有將黑人識別為罪犯的傾向。一家公司甚至稱他們已經開發出了一種可以從人們的面部特征識別潛在罪犯的人工智能系統。如果這項技術被廣泛應用,一群人可能會受到歧視。AI越強大,受影響的人群就越大。我不確定以個體為基礎的隱私權概念是否足以應對這一新現象。

與人權不同,和諧是一個面向社群的概念。作為一項道德/倫理原則,和諧通過將社會角色賦予個體,幫助我們建立起自己和他人的聯系。我可以想象到有人使用這個概念來保護群體的隱私。有人會說,人工智能不應該收集社群的數據,例如非裔美國人的人臉信息,因為這可能會危及黑人少數群體的某些共同利益。人權方法可能過于關注對個人自由的侵犯,而忽略了其對社群的影響。在大數據時代,重要的不是數據,而是海量的數據?;跈C器學習的人工智能技術在很大程度上依賴于用戶產生的巨大數據流。在人工智能機器的眼中,單個樣本只有在與數據相關時才有意義。為了進一步討論隱私,我們需要將算法的數學性質考慮進人工智能倫理之中。這反過來也將幫助我們探索隱私如何與不同哲學中嵌入的價值觀相互作用。

其次,儒家可能認為隱私是一項義務,而不是一項權利。每個主體,包括個人、政府、公司等,為更好保護公共產品都必須考慮隱私保護?;诹x務的隱私可能側重于受保護的數據列表作為其核心意義,而不是個人自主權。有些數據,即使個人可以自由地選擇處理方式,也不應被分享,如淫穢圖片?;诹x務的隱私要求所有主體對其個人信息有很強的意識,并能將這些信息與社會角色和公共產品聯系起來。公司和政府有義務向公民提供隱私教育,并告知他們風險。儒家隱私文化似乎不會沉迷于個體的自由。相反,它更關注于隱私對他人和整個社會的價值。公司應設計更好的隱私提醒機制;市民在使用社交媒體時應更加謹慎;政府在收集人臉信息時應謹慎,因為這可能會造成對少數群體的歧視。

最后,這方面的隱私問題成為了道德修養問題。一個有道德的人是根據公共利益的要求保護自己個人信息的人。兒子可能會隱瞞父親偷竊的信息。向政府舉報他的父親對支撐儒家社會的倫理基礎提出了挑戰。他們也可能拒絕社交媒體,因為社交媒體侵入了一個人的家庭領域,而家庭是一個人發展個性和健全道德的主要私人空間。一個人的人臉信息可以被政府收集,但儒家會強烈反對利用它來預測犯罪。正如孟子所指出的,人皆有“四心”,即仁、義、禮、智之心①P.J.Ivanhoe,Mencius:Translations from the Asian Classics,New York:Columbia University press,2009,p.35.。儒家可能會認為依據隱私行動是美德,是君子應具有的。

三、硬幣的另一面

我無意于描繪一幅過于簡單、樂觀的畫面。我并不是說儒家哲學使得人們不關心隱私。我與麥克尼斯一樣擔心人工智能對隱私的侵犯,但我認為最好在更廣泛的政治/文化背景下討論隱私。越來越多的中國人開始對無處不在的閉路電視攝像機表示擔心。在新聞中,有一位戴著摩托車頭盔的人走進房地產售樓處,因為他希望他的人臉信息得到保護。這只是冰山一角。不同的主體已經獲取了太多的數據。事實上,我是十分悲觀的,我傾向于認為這種情況將逐漸適用于所有發達國家。

溫納曾通過研究不同的技術系統,仔細地討論了作為一種秩序形式(作為政治)的技術,其中原子反應堆是最典型的例子①L.Winner,“Do artifacts have politics?” Daedalus,1980,pp.121-136.。在部署原子反應堆的同時也在通過站在金字塔頂端的科學家、工程師向原有社會強加一種權威結構力量,民主在工廠門口止步不前了!當然也有謹慎的思想家,例如 Ivan IIIich關于愉悅工具的觀點和 Andrew Feenberg關于民主化技術的觀點,他們試圖設計民主的技術(democratic technology)②I.Illich,A.Lang,Tools for Conviviality,Boyars,1973;A.Feenberg,Critical theory of technology(Vol.5),New York:Oxford University Press,1991.。然而,理論就是理論,它們能在多大程度上指導現實生活中的技術實踐是有爭議的。至于人工智能,數據若要被用來獲取商業利益,需要一個集權的官僚機構。高科技公司是在技術統治論原理亦即主要給科學家和工程師賦予權力下運營的。

人工智能中嵌入的政治明目張膽地采取了一種威權的形式。在這樣的制度下,隱私變得極其脆弱。50年前,人工智能即使不是純科幻小說的,也還是純科學的?,F在它是一門非常依賴于數據采集工程的技術科學。AI吸收的數據越多,它的決策就越智能。正是巨大的數據庫、高速計算機、昂貴的電纜、頂尖的知識分子和集中的官僚機構使人工智能成為可能。為了最大限度地利用技術,人們可能還需要采取政治手段。在這種情況下,隱私可能會成為實行人工智能政治的障礙,因為它拒絕放棄個人自由。

人工智能技術與資本主義相結合,自然而然地催生了一種數據經濟的形式?,F代自由民主和人權制度能在多大程度上抵制這一趨勢,是一個值得研究的問題。這里有一個悖論:一些人認為,只有接受數據的集中治理,國家和公司才能優化資源并進行競爭。如果是這樣的話,一旦中國邁出第一步,其他國家就有很好的理由跟隨。隱私,作為一個合法的人權問題,阻礙了這一進程。一旦落后于發展,隱私作為一項人權的重要性就會因為經濟競爭而被削弱。

奧威爾(Orwell)在《1984》中描述的情景是不可避免的嗎?我們可以肯定的是,人工智能技術給我們所有人帶來了生存挑戰。為了成功應對這一挑戰,需要構建一個全球機制。雖然信息是全球流通和國際存儲的,但治理仍然是以國家為基礎的。如果不采用一種新的全球機制,人工智能帶來的危險可能會比全球變暖更加真實,更加緊迫。

在我看來,凱文·麥克尼斯會同意我對隱私的政治以及文化的分析。因為他也試圖降低隱私的重要性,稱有些問題是歧視問題而非隱私問題,即使是隱私問題,也只能由社會來解決。他指出許多問題都被認為是隱私問題,而通過隱私對其進行解釋又往往超出了隱私的范圍。它涉及政治和文化,即由誰決定、誰會受益以及誰根據什么規范制定議程。此外,我想問的是,為什么隱私會成為西方社會最關心的問題?

四、AI時代隱私的未來

首先,我們需要進一步研究隱私如何與人類尊嚴、自主權等其他概念相互關聯。凱文·麥克尼斯認為,深度偽造和人臉識別技術可能會在未經同意的情況下侵犯我們的隱私,而預測性人工智能會在我們同意的情況下侵犯隱私,因為后者利用的是網上自行發布的信息。這可能會引起很多爭議。人工智能系統可能會從一個人的帖子中得出他的特定行為模式,從而將他/她看作是潛在的罪犯。我不愿把這稱為“經同意的隱私侵犯”。當然,網絡上自行發布的信息是經過我們同意的,但我們不一定同意使用和解釋這些信息的方式。預測性人工智能所做的是識別大量在線信息背后隱藏的相關性,它不僅涉及數據的存儲,還涉及數據的解釋。我推斷這種解釋可能會在未經同意的情況下侵犯隱私。

我對凱文·麥克尼斯討論的隱私和尊嚴之間的相互作用也特別感興趣。深度偽造程序,例如使用一個人的人臉進行色情活動,肯定會侵犯一個人的尊嚴,但不會侵犯一個人的隱私。人臉通常是公開展示的,隨意地聲稱某人的面容是隱私似乎是不合理的。我想強調的是,不是面容本身,而是對面容的解釋使它成為一個隱私問題。如果隱私被理解為有權控制他/她的信息怎樣被解釋,那么將深度偽造作為隱私問題進行研究是有意義的。人的尊嚴比隱私更重要嗎?尊嚴經常(如果不是總是)被認為是人權的規范基礎,而隱私只是其中一項權利。你可以在保護他人隱私的同時侵犯他的尊嚴,但在大多數情況下,相反的情況不會發生。我仍然覺得有必要有一個相對于基礎概念(尊嚴)的中介(隱私),來研究以信息技術為特征的現代世界中人工智能的倫理挑戰。

其次,我們應該意識到信息時代隱私的動態性。一些信息不可避免地變得越來越不是隱私了。各種研究表明,越來越多的年輕人喜歡在社交網絡上展示自己,愿意將大部分信息提供給在線訂餐軟件、打車軟件等。從第一人稱視角來看,一個人被誘導著提供更多的個人信息,以便換取高質量的服務。你提供的信息越多,你在SNS上的朋友就越多,你得到的服務也就越定制化?;ヂ摼W的基本原理很簡單,就是使用個人信息換取服務。

2018年,《經濟學人》發表了一篇題為“數字無產階級,互聯網公司應該為用戶目前提供的數據付費嗎?”的評論。①https://www.economist.com/finance-and-economics/should -internet-firms-pay-for-the-data-users-currentlygive-away,2018年1月11日。這篇文章認為在馬克思批判資本主義的背景下,放棄數據保護的討論是有道理的。人工智能時代的生產關系是如何組織的,剩余價值是如何在工人和資本家之間產生和分配的?我們每天會發布大量信息,使得技術精英在不用付給我們一分錢的情況下就能賺到一大筆錢?;诨ヂ摼W的人工智能技術本質上是一種數據清道夫。作為數字無產階級,我們反過來也被想要促進我們消費和根據我們個性定制的掠奪性廣告和新聞轟炸。

另一方面,一些公共信息在未來可能會成為私人信息。麥克尼斯非常有洞察力地指出了AI時代公共空間和私人空間之間的模糊性。以前,一個人的就餐偏好、肖像等都不被視為私人信息,尤其是被在公共場合收集的時候。然而一旦在網上收集并由人工智能算法處理,它就可以被用來為掠奪性廣告提供便利。在實體空間,我的就餐偏好可能只會由想要改進他們菜肴的經理收集。而當我不在餐廳的時候,餐廳就對我沒有影響。然而,電腦和手機卻無處不在。我可以隨時隨地收到推銷這家餐廳的電子郵件、短信和電話。更令人不安的是,互聯網內容提供商(ICP)可以將我的就餐偏好與收集的其他信息聯系起來,以描繪出我的數字個性。如果我被貼上了超重貪糖者的標簽,算法可能會開始推送-通知我服用糖尿病藥物。

最后,AI技術的全球部署和隱私的文化敏感性之間存在張力。一組特定的價值觀可能會內嵌到人工智能的編程和訓練中去。當人工智能被發展到其他文化中時,這些價值觀也會被偷偷地帶去,進而導致沖突和轉變。人們可以想象,一些基于人工智能的應用程序在設計時將保護隱私作為首要任務,而其他應用程序可能會說服/推動人們放棄這一點。社會和技術共同發展,導致人的能動性不斷再創造。這一維度的社會學和哲學研究都遠遠落后于基于人工智能的技術的發展。

猜你喜歡
倫理人工智能
《心之死》的趣味與倫理焦慮
我校新增“人工智能”本科專業
科技倫理治理的理論與實踐
護生眼中的倫理修養
2019:人工智能
人工智能與就業
倫理批評與文學倫理學
數讀人工智能
下一幕,人工智能!
下一幕,人工智能!
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合