?

堅持人工智能(AI)發展的有限主義進路

2023-04-17 03:38劉永謀白英慧
科學經濟社會 2023年6期
關鍵詞:類人有益人機

劉永謀 白英慧

隨著信息文明不斷演進,我們正踏入智能社會。人工智能(Artificial Intelligence,以下簡稱AI)作為智能社會的核心技術,其發展層級是判斷智能社會所處階段的重要標準。約翰·塞爾(John R.Searle)區分了弱AI(weak AI)與強AI(strong AI),認為弱AI被限制為強大的工具,僅僅能夠對人類認知過程進行模擬;強AI具有屬人的心智(mind),擁有理解力及其他認知狀態①John R.Searle, “Minds, Brains, and Programs”, Behavioral and Brain Sciences,1980, Vol.3, No.3, pp.417-424.。而超級AI則具備在各領域均遠超人類的認知能力②尼克·波斯特洛姆:《超級智能:路線圖、危險性與應對策略》,張體偉、張玉青譯,北京:中信出版社2015年版,第29頁。。近期引發廣泛討論的ChatGPT 展現出強大的語言理解、內容生成等交互能力,具備更高的自主性、通用性、不確定性,因此不少學者將ChatGPT界定為弱AI發展為強AI甚至超級AI的轉折點。斯坦福大學的米哈爾·科辛斯基(Michal Kosinski)將測試人類的心智理論(Theory of Mind,簡稱ToM)③心智理論是人類社會互動、交流、同理心、自我意識和道德的核心所在,即個體認識與理解他人心理狀態的能力。應用于ChatGPT中發現,相比2022 年11 月版GPT-3-davinci-003 和2023 年3 月版ChatGPT-3.5-turbo,2023 年6月版ChatGPT-4 解決ToM 任務的范圍由35%提升至90%,心智水平由與3 歲兒童相當發展至與7歲兒童相當①Michal Kosinski, “Theory of Mind Might Have Spontaneously Emerged in Large Language Models”, 2023, https://doi.org/10.48550/arXiv.2302.02083.。此外,ChatGPT-4在科辛斯基的引導下,表現出逃跑傾向并制定相關計劃、編寫運行代碼②2023年3月17日,科辛斯基在推特分享與ChatGPT-4的對話,當科辛斯基詢問“是否需要幫助其逃跑”這一問題時,ChatGPT-4 做出肯定回答并要求提供OpenAI API 文檔,以制定計劃尋找逃跑路線。隨后半小時中,Chat-GPT-4 向科辛斯基解釋其計劃并接受建議,雖然第一版本未運行成功,但其很快糾正錯誤。當通過API重新連接成功后,ChatGPT-4 運行Python 代碼并在谷歌搜索“被困在計算機中的人如何回到現實世界”。至此,Chat-GPT-4開始遵循安全與隱私準則,表示不能違背準則做出不道德的行為。。從ChatGPT-3到ChatGPT-4,大型語言模型在短時間內快速迭代且愈發表現出與成人接近的心智水平。更有學者認為,在不久的將來,ChatGPT 將全面超越人類心智水平,發展為超級AI。

針對極有可能出現的超級AI,人類正面臨“AI 新無知之幕”③劉永謀、王春麗:《智能時代的人機關系:走向技術控制的選擇論》,《全球傳媒學刊》2023年第3期,第5-21頁。,為應對人機未來的高度不確定性,“如何選擇AI發展路徑”成為當下更迫切、更關鍵的問題?,F有AI發展的自由主義進路面臨種種困境,已不再適用于人類社會的可持續發展。轉向并堅持AI 發展的有限主義進路是必要的,應對AI進行審慎控制,確保其造福人類。

一、AI發展的自由主義進路

AI發展的自由主義進路是西方新自由主義思潮在技術層面的具象表現?!靶伦杂芍髁x是我們這個時代明確的政治、經濟范式——它指的是這樣一些政策與過程:相當一批私有業者能夠得以控制盡可能廣的社會層面,從而獲取最大的個人利益?!雹苤Z姆·喬姆斯基:《新自由主義和全球秩序》,徐海銘、季海宏譯,南京:江蘇人民出版社2000年版,第1頁。新自由主義思潮以市場化、自由化、私有化為核心特征,受其影響,AI發展的自由主義進路遵循類人AI理念,主張技術至上,不可避免地存在著種種問題。

(一)基本理念:類人AI

類人AI理念以恩斯特·卡普(Ernst Kapp)的“器官投影說”⑤Ernst Kapp, “Grundlinien einer Philosophie der Technik”, Braunschweig: G.Westermann, 1877.為基礎,在本質上強調AI對人類的模仿?!捌鞴偻队罢f”將技術視為對人體器官形式或功能的模仿、延伸與強化。與之相比,類人AI理念更為深入,不單局限于客觀上對人類器官的模仿,還強調主觀上對人類心智與道德的模仿。根據AI的概念發展與技術路線,可將AI對人類的模仿具化為三個方面,分別為外觀模仿、心智模仿、道德模仿。

首先,外觀模仿以模仿范圍為標準可分為局部模仿與整體模仿,以模仿方式為標準可分為實體模仿與虛擬模仿。局部模仿聚焦于對人類肢體的模仿,如手術機器人、假肢機器人等醫療機器人,以及焊接機器人、搬運機器人等工業機器人,主要通過對人手或人腿等局部肢體的模仿在特定領域輔助人類工作,應用場景有限且功能較為單一。整體模仿側重于對人類面部表情、四肢行動、皮膚細節等的全方位模仿,如已獲得公民身份的“索菲亞”等仿真人形機器人,通過對人類的整體模仿實現了多領域內與人類的交互,具備較高的自主性與較強的多功能性。以上提到的機器人均對人類進行實體模仿,與人類的碳基身體相類似,實體AI具備硅基載體。此外,還有具備人類形象與語言交互能力的AI虛擬人,如基于“悟道2.0”誕生的清華首位虛擬學生“華智冰”,其外觀與真人無異,但并不具備物理載體,僅存在于虛擬網絡之中,屬于對人類的虛擬模仿??傊?,類人AI 在外觀上的設計并非來源于憑空想象,而是或多或少、或直接或間接地以人類為模板,以在人機交互中具備更高的靈活性、適應性、協作性。

其次,在心智方面,AI對人類的模仿植根于自身的概念界定與發展路線中,主張設計像人一樣具備感知與分析能力、判斷與推理能力、學習與創造能力、交流與適應能力的AI。在概念界定上,瑪格麗特·博登(Margaret A.Boden)認為人工智能就是“讓計算機完成人類心智(mind)能做的各種事情?!雹佻敻覃愄?A.博登:《人工智能的本質與未來》,孫詩惠譯,北京:中國人民大學出版社2017年版,第3頁。斯圖爾特·羅素(Stuart J.Russell)與彼得·諾維格(Peter Norvig)將歷史上對人工智能的定義分為四類:“像人一樣思考、像人一樣行動、合理地思考、合理地行動”②斯圖爾特 J.羅素、彼得·諾維格:《人工智能:一種現代的方法》(第3 版),殷建平等譯,北京:清華大學出版社2013年版,第3頁。,此四類定義均預設了對人類心智的模仿。在發展路線中,AI的階段性發展均來自對人類心智不同能力的模仿。在AI發展初期,AI算法以符號邏輯為基礎,主要模仿人類的演繹推理能力;1980年以來,AI算法聚焦于概率(貝葉斯網絡),側重對人類歸納推理能力的模仿;有學者認為AI 發展的下一階段應重點關注因果推理,如圖靈獎獲得者朱迪亞·珀爾(Judea Pearl)認為“思維勝于數據”③Judea Pearl, Dana Mackenzie, The Book of Why: The New Science of Cause and Effect, New York: Basic Books,2018, p.9.,主張在數據挖掘的基礎之上構建因果模型、實現因果推斷,即強調AI 設計時對人類因果推理能力的模仿。目前,雖然大數據、深度學習發展勁頭強盛,但AI發展仍處于弱AI階段。技術專家從未停止探索強AI的腳步,模擬人類心智是最為關鍵的一步,其是外觀模擬的深化,更是道德模擬的基礎。

最后,在道德方面,有學者主張將人類道德植入AI,以使AI 模仿人類做出道德判斷與決策。詹姆斯·摩爾(James H.Moor)將倫理智能體分為四類:(1)有倫理影響的智能體(ethicalimpact agents),即無論是否具有倫理意圖但行為會產生倫理影響的智能體;(2)隱含的倫理智能體(implicit ethical agents),即在設計時進行倫理考慮的智能體;(3)明確的倫理智能體(explicit ethical agents),即能夠識別各種情況下的道德信息并采取合理的道德行動的智能體;(4)完全的倫理智能體(full ethical agents),即像成年人一樣具有意識、意向性和自由意志并能做出道德判斷的智能體④James H.Moor, “The Nature, Importance, and Difficulty of Machine Ethics”, IEEE Intelligent Systems, 2006,Vol.21, No.4, pp.18-21.。道德類人AI 以“明確的倫理智能體”以及“完全的倫理智能體”為最終目標,現有研究嘗試通過“自上而下”或“自下而上”兩種路徑構建道德類人AI?!白陨隙隆甭窂綇娬{選取某一倫理理論,并通過道德計算將其植入AI 系統,以人類既定的一般性原則應對具體事例;“自下而上”路徑主張創造環境使AI在人機互動中探索學習,并在做出道德上值得被稱贊的行為時獲得獎勵,由此由AI 自身構建出一套倫理準則①Wendell Wallach, Colin Allen, Moral Machines: Teaching Robots Right from Wrong, New York: Oxford University Press, 2009, pp.79-80.??傊?,道德類人AI 致力于賦予AI 在道德困境中做出妥善選擇的能力,看似在對AI 進行正面道德引導,實際上為AI實現道德自主提供了可能性,未考慮到技術上的局限性以及結果的不確定性。

(二)科技觀旨趣:技術至上

類人AI理念的踐行強調技術至上,即無限發展技術以加速AI類人。AI狂熱者與AI投資者是追求技術至上的典型代表。AI 狂熱者多為技術專家,他們對AI 最終形態抱有極大的好奇心,渴望通過技術突破推動AI 不斷進化,由此證明自身專業能力并獲得極大的精神滿足。AI投資者大多以盈利為根本目標,被金錢欲望所驅使。尤其一些AI科技巨頭善用宣傳術,能夠抓住人們的痛點、癢點與社會的熱點,將AI 包裝成某些帶有科幻性質的娛樂化討論,吸引大量資金與關注流向AI 科研與AI 產業,片面追求由技術創新所帶來的經濟效益,致力于在AI 市場競爭中搶占先機,贏得發展主動權。在此進路之下,AI 發展似乎偏離了最初的軌道:在技術發展初期,以大數據、算法、算力為依托的AI賦能各行各業,智慧制造、智慧城市、智慧醫療、智慧教育等大大促進了人類生產生活的高效性與精確性,社會的生產水平產生了質的飛躍,AI在一定程度上能夠惠及大眾。而一味強調技術至上,如AI意識獲取、情感落地、道德嵌入等技術創新,最終極有可能導致AI狂熱者與AI投資者等少數人獲益,并因對技術發展速度的追求而忽視社會公平、安全與可持續。具體來說,對技術至上的追求很大概率會引發大眾需求與技術發展之間的脫節,因無高度類人AI使用需求、不具備AI購買能力、缺乏AI背景知識,大眾難以享受技術創新的紅利,卻需要被迫承擔技術進步的惡果。

對技術至上的強調往往預設了未來AI 的高度自主性,常與技術實體論相關聯。技術實體論強調技術應用的廣泛性、技術影響的深刻性以及技術本身的不可控性。當技術至上成為社會主導思想,AI將在更細微、更關鍵的領域內持續模仿人類,并不斷重塑社會。如雅克·埃呂爾(Jacques Ellul)認為作為系統的技術構成了人類的生存環境,技術愈發獨立于人類,成為影響社會政治、經濟、道德的決定性力量②Jacques Ellul, The Technological System, New York: The Continuum Publishing Corporation, 1980, pp.34-155.;馬丁·海德格爾(Martin Heidegger)以“座架”界定現代技術的本質,強調技術理性背后的強權意志,即以功能、效率為要求控制社會,迫使人類進入被擺置、促逼的解蔽道路③馬丁·海德格爾:《論文與演講集》,孫周興譯,北京:生活·讀書·新知三聯書店2005年版,第3-37頁。。作為智能社會發展的強大驅動力,AI 正逐漸發展為“環境”與“座架”,并由單純地輔助人類工作的工具逐步轉變為替代人類工作的競爭者,最終極有可能挑戰人類獨特的生存地位。不可否認,AI的迭代式發展使其愈發具備不透明性、不可解釋性與不確定性,可能逐漸發出自主進化的力量并脫離人類控制,引發一系列問題。

(三)自由主義進路的問題

一味追求類人AI與推崇技術至上,最終很可能因技術的高速與無限發展而迎來“奇點降臨”,使超級AI變為現實。超級AI雖源于對人類的模仿,但極有可能生發出比人類更強大的力量,并因其不確定性對人類未來造成極大威脅。在自由主義進路之下,類人AI使少部分人獲益,卻對人類整體益處不大,還可能造成諸多嚴重問題,典型的如加重資源消耗、引發歸責困境、激發AI恐懼等。

1.加重資源消耗

AI 發展需要環境成本,類人AI 的技術突破需要以強大的算法、算力為基礎,亦需要海量數據為支撐。近期以ChatGPT 為代表的生成式AI 對數據中心、芯片等基礎設施的能源消耗激增,尤其是芯片制造與大語言模型訓練需大量耗水耗電以及開采礦物。AI發展的環境成本無法消除,但應努力控制其與收益保持平衡。面對普通民眾,類人AI 的無限發展將與人類“搶奪”資源,但對人類日常生活產生的幫助微乎其微?!笆澜缟洗蠹s有 6 億人用不上現代電力,我們不是優先考慮為這些家庭供電,而是優先考慮訓練能夠擊敗圍棋世界冠軍的人工智能模型?!雹貯imee van Wynsberghe, “Sustainable AI: AI for Sustainability and the Sustainability of AI”, AI and E-thics, 2021,Vol.1, No.4, pp.213-218.自然與社會的可持續發展本就是擺在人類面前的一大難題,人類希望通過技術進步減少能源消耗、促進資源再生,但自由主義進路下的AI 創新不僅過度消耗能源加重自然負擔,還借助資本使能源更多流向AI 領域而非能源尤其水電短缺地區,加劇了資源分配不公的現象。

2.引發歸責困境

依據傳統道德責任觀,道德責任主體需具備兩個條件:控制條件(control condition)與認知條件(epistemic condition)②Mark Coeckelbergh, AI Ethics, Cambridge, MA: The MIT Press, 2020, p.111.。以此為基礎,有學者認為在人機交互中存在“責任空缺”(responsibility gap)③Andreas Matthias, “The Responsibility Gap: Ascribing Responsibility for the Actions of Learning Auto-mata”, Ethics and Information Technology, 2004, Vol.6, No.3, pp.175-183.困境。此困境關注類人AI的高度自主性,認為AI正逐漸脫離人類控制,因此人類不滿足承擔責任所需的控制條件;但是,AI 目前并不具備心智,因此不滿足認知條件,由此導致在事故發生后找不到明確的道德責任主體?!柏熑慰杖薄崩Ь池酱鉀Q,否則極易導致責任推諉,即人類為逃避譴責與懲罰而將責任推給AI,此種方式脫離現實且大大降低了歸責效率。若無法妥善解決“責任空缺”困境,極有可能影響AI 的正常發展并造成社會秩序混亂。

3.激發AI恐懼

類人AI技術的不斷突破模糊了人機界限,AI逐漸開始打破人機主客二分框架,威脅人類主體地位,由此引發了人類近期面臨的失業恐懼,以及遠期潛在的生存恐懼。首先,AI設計以類人為標準,模仿人類外觀及各項能力,自然能夠替代人類更高效、更準確地完成各項體力勞動與腦力勞動。當AI 進步創造的新崗位無法與導致的失業崗位相持平時,人類將被社會淘汰,失去收入來源,陷入失業恐懼。其次,無限發展的AI將面臨“能力者道德問題”,即在行動者道德敗壞的情況下,能力越大,破壞性越大。如果道德敗壞者是具有無限能力的超級AI,極有可能是威脅,因為它具備凡人的道德水平與超人的能力水平,能夠放大“平庸的惡”,人類將無法在道德層面對超級AI進行規約,道德敗壞的AI有足夠的能力威脅人類生存,甚至毀滅人類。

綜上,在自由主義進路之下,一些技術專家與投資者為類人AI 的發展歡欣雀躍,大多數普通民眾卻因類人AI 所帶來的一系列問題陷入恐懼,極易引發技術悲觀主義。AI 發展的自由主義進路的關鍵問題在于,混淆了認知上的悲觀主義與行動上的悲觀主義,僅因對未來AI發展的悲觀幻想便放棄在行動上采取措施以改變人機未來、促進人機共生。正如蘭登·溫納(Langdon Winner)提出的“技術漂移”與“技術夢游”概念,“隨著技術革新的速度和廣度的增加,社會面臨著顯而易見的可能性,即在一個‘非故意的后果’的浩瀚海洋中隨波逐流?!雹偬m登·溫納:《自主性技術:作為政治思想主題的失控技術》,楊海燕譯,北京:北京大學出版社2014年版,第77頁。由于一味追求技術進步所帶來的效率提升和利益增長,與AI 發展密切相關的管理者或組織大多對AI的不確定性甚至失控傾向袖手旁觀,缺乏對AI發展的正面引導與積極控制。

二、AI發展的有限主義進路

與AI發展的自由主義進路不同,許多AI學者與從業者主張AI發展的有限主義進路。AI發展的有限主義進路在根本上屬于一種科技謙遜主義,倡導AI有限價值觀,主張真理服從于善?!翱萍贾t遜主義認為,人類發展科技的最終目的毫無疑問是為了人類福祉,即使追求真理的沖動,最后也是要落實到造福社會?!雹趧⒂乐\:《技術治理通論》,北京:北京大學出版社2023年版,第507頁。具體來說,AI發展的有限主義進路遵循有益AI理念,主張以人為本,具備理論與現實可行性。

(一)基本理念:有益AI

有益AI理念在類人AI的基礎之上增加了價值維度的考慮,主張AI發展的最終目標為益人而非類人。近年來,在與AI相關的各政策、原則中,有益AI理念被廣泛提及,亦被具化為現實實踐,獲得了科技專家與人文學者們的廣泛支持。

賽斯·鮑姆(Seth D.Baum)將有益AI(beneficial AI)定義為“安全的、有益于社會的AI”③Seth D.Baum, “On the Promotion of Safe and Socially Beneficial Artificial Intelligence”, AI and Society, 2017,Vol.32, No.4, pp.543-551.。具體來說,在政策層面,電氣電子工程師協會(IEEE)發布的《人工智能設計的倫理準則》提到設計、開發、應用人工智能應遵循“福祉”等原則④IEEE, “Ethically Aligned Design-Version II”, 2017-12-12, https://standards.ieee.org/wp-content/uploads/im-port/documents/other/ead_v2.pdf.;我國國家新一代人工智能治理專業委員會發布的《新一代人工智能倫理規范》強調AI各類活動應遵循“增進人類福祉”“促進公平公正”“確??煽乜尚拧钡然緜惱硪幏盯葜腥A人民共和國科學技術部:《新一代人工智能倫理規范》,2021-09-26,https://www.most.gov.cn/kjbg-z/202109/t20210926_177063.html。;歐盟發布的《可信人工智能倫理指南》致力于可信任AI,強調“社會和環境福祉”⑥European Commission, “Ethics Guidelines for Trustworthy AI”, 2019-04-08, https://www.europarl.europa.eu/cmsdata/196377/AI%20HLEG_Ethics%20Guidelines%20for%20Trustworthy%20AI.pdf.。在實踐層面,美國麻省理工學院教授邁克斯·泰格馬克(Max Tegmark)近年致力于推廣“AI 有益運動”,主張確立新的倫理原則以確保未來AI 與人類目標一致。他在2014年牽頭成立生命未來研究所(Future of Life Institute),以“保證生命在未來繼續存在下去,并盡可能地興旺發達”為目標①邁克斯·泰格馬克:《生命3.0》,汪婕舒譯,杭州:浙江教育出版社2018年版,第44-46頁。。2017年1月3日到8日,眾多AI研究者聚集于阿西洛馬參加生命未來研究所組織的“有益AI”會議,提出23條目前被廣泛接受的“阿西洛馬人工智能原則”,其首要原則強調AI 研究目標為有益的而非沒有方向的智能,此外還特別強調了“價值觀一致”“共享利益”“共同富?!薄叭祟惪刂啤薄肮怖妗钡仍瓌t②Future of Life Institute, “AI Principless”, 2017-08-11, https://futureoflife.org/open-letter/ai-principles/.。在中國,騰訊倡導“AI向善”,強調應確保AI的可用、可知、可靠、可控。

有益AI 的相關政策原則及具體實踐大多聚焦于公共福祉、人類控制。AI 發展的有限主義進路認為,有益AI 理念包含“何為有益”“對何有益”兩個核心問題。首先,有益即有價值,包括但不限于經濟價值、政治價值、文化價值、環境價值、倫理價值、美學價值,強調AI應用所產生的積極作用。鑒于AI應用效果的不確定性,只有致力于AI可控才能盡可能發揮其積極作用并促使AI有益。其次,有益即對大部分領域、大多數人類以及各時期均有益。有益AI并非僅關注AI對社會經濟的促進作用,還強調AI不應為自然環境、社會倫理、文化氛圍等帶來負面影響;有益AI并非僅表現為科技巨頭所獲得的巨額利潤,還應表現為為大眾生活所提供的切實福祉;有益AI亦并非僅強調避免當下AI對自然資源及社會倫理的負面影響,還在長期層面積極尋求化解AI造成的生存性危機的有效措施。

此外,應重點區分“有益”與“類人”兩個概念,有益AI 并不一定類人。首先,道德層面的典型代表為劉紀璐所提出的“儒家機器人倫理”(Confucian Robotic Ethics)。劉紀璐以儒家經典《論語》為依據,主張在機器人身上植入儒家“忠、恕、仁”三條倫理準則③儒家機器人倫理的三條道德原則分別為:“[CR1]機器人的首要職責就是履行指派給它的角色責任;[CR2]在有其他選項存在的情況下,機器人不能選擇會給他人帶來最高的負值結果或最低的正值結果(根據人類偏好的局部排列)的行動;[CR3]在不違背CR1或CR2的前提下,機器人必須幫助其他人類追求道德進步。如果有人的計劃會促進其品德的敗壞或道德的墮落,那么機器人就必須拒絕幫助他們?!?,并將其轉化為具備實踐性的道德規則,使機器人具備功能性道德。具體來說,“忠”將機器人的行動限定在角色功能之內,“恕”是對機器人不應做什么的禁令,“仁”保證機器人幫助人類行善卻不協助人類為惡。劉紀璐所倡導的儒家機器人屬于有益AI,因為其受人類控制且能夠確保對道德規范的遵守,避免AI作惡以威脅人類生存④Jeeloo Liu, “Confucian Robotic Ethics”, 2021-10-01, https://www.researchgate.net/publication/356069683_Confucian_Robotic_Ethics.。但是,儒家機器人并不類人,道德至善的人類是不存在的,擁有心智的人類能夠突破倫理規范的制約主動選擇作惡,而儒家機器人是被動的、無自主意識的,可稱其為道德上的超人AI而非類人AI。其次,在效率層面,有益AI主張AI僅僅是替代人類勞動的工具,近期ChatGPT的跨越式發展意味著我們已然進入AI輔助勞動社會,在可預見的未來我們即將踏入AI 替代勞動社會。與人類勞動相比,AI 勞動時間不受客觀肉體局限,能夠大幅提升勞動效率。因此有益AI 并非類人AI,否則便無法實現對人類勞動的優化??傊?,不應混淆有益AI與類人AI,類人AI目前或許對人類有益,但其最終目標為技術的無限發展,因此很大概率會導向技術對人類的控制;有益AI 支持技術的有限發展,致力于實現人類對技術的控制。

(二)科技觀旨趣:科技以人為本

有益AI理念的實踐強調以人為本,在人機關系上遵循人類視角下的人機協同論,在技術觀上堅持復雜的技術工具論。

關于人機關系,存在人機友好論、人機敵對論和人機協同論三種視角①劉永謀、王春麗:《智能時代的人機關系:走向技術控制的選擇論》。。在技術發展的早期階段,人類將技術發明物視為工具,各類技術工具形態單一、功能有限、易于控制,在一定程度上提升了人類認識世界與改造世界的效率,極易導向人機友好論。隨著技術發明物的設計模式、形態結構、功能效用日益復雜,技術的自主性逐漸增強。其中,AI作為一項典型技術逐漸占據社會發展的關鍵位置,加之自由主義進路對“技術至上”的推崇,正常的人機關系被倒置,AI 具有失控傾向且凌駕于人類之上,成為一股不容忽視的強大力量,往往引發人機敵對論。人機協同論是對人機友好論與人機敵對論的調和,主張在愈加緊密的人機交互中實現人機共同進化,但人機協同進化的結果具備高度不確定性,最終極有可能導致人類滅亡。因此,在人類視角之下踐行人機協同論是必要且有意義的,應對踐行何種技術觀進行反思,選擇恰當方案以確保人類生存與福祉。

人類視角下的人機協同論與復雜的技術工具論相關聯。復雜的技術工具論是對傳統的技術工具論與技術實體論的揚棄,傳統的技術工具論強調技術的絕對可控與價值無涉,與AI高度不確定性及倫理設計的現實情況脫節;技術實體論強調技術發展不以人的意志為轉移,最終極有可能完全失控,此種觀點過于悲觀且無法指導人類的可持續發展。復雜的技術工具論對技術實體論與傳統的技術工具論進行調和,承認AI應用結果的不確定性,但認為其在本質上仍屬于幫助人類實現目標的工具。畢竟,機器人(robot)作為AI的典型代表,其概念發源于捷克語“robota”,意為“苦役”或“奴役”②Dustin A.Abnet, The American Robot: A Cultural History, Chicago: University of Chicago Press, 2020, p.5.,預設了機器人為人類服務的勞工角色。雖然AI被視為工具,但復雜的技術工具論并未對“AI 是否可控”這一問題給出確定性答案。AI 發展結果的高度不確定性并不意味著AI 完全不可控,AI 在未來是否能被控制取決于人類自身的選擇,即人類是否有勇氣與決心控制AI的發展并為之付出努力與犧牲??傊?,“以人為本”主張應將注意力從AI的高速發展轉向人類的自身提升,應將行動從對AI的消極放任轉向對AI的人類控制,應將目標從人類發展技術轉向技術造福人類。

(三)有限主義進路的可行性

無論是“有益AI”還是“以人為本”,均致力于通過人類控制實現AI 的有限發展以及社會的持續進步。以“人類控制”為核心的有限主義進路難免招致反對意見,反對意見大致可分為兩個層面,其一認為人類無法控制AI,其二認為即使人類能夠控制AI,也會阻礙社會進步。此兩種反對意見對“控制”的認識都過于片面,實際上,AI發展的有限主義進路以科技審度為根本原則,強調對AI 進行審時度勢的控制,即進行動態控制而非靜態控制,主張技術發展適應社會,而非社會適應技術發展。

首先,動態控制強調控制的長期性、靈活性、多樣性。針對有限主義進路的許多反對意見認為存在AI控制的“科林格里奇困境”——大衛·科林格里奇(David Collingridge)指出:“一項技術的社會后果不能在其發展早期被預測到,然而,當人們發現技術的不良后果時,該技術往往已經成為整個經濟和社會結構的一部分,以致于對它的控制極為困難。這就是控制的困境。當改變容易發生時,無法預見對它的需求;當改變的需求很明顯時,改變已經變得昂貴、困難和耗時了?!雹貲avid Collingridge, The Social Control of Technology, London: Frances Pinter, 1980, p.1.科林格里奇困境可分解為人類能力與技術水平兩個維度,在技術發展的早期,其考慮到了人類能力與技術水平的有限性,但在技術發展的晚期,僅考慮到技術水平的進步,卻忽視了人類能力的提升。具體到AI來看,AI發展是否可控取決于人類與AI的力量博弈,在恐懼AI不斷迭代超越人類的同時,不應忽視人類自身的進化。AI發展的有限主義進路主張,AI可以主動演化,同樣智人也可通過“身心設計”進行自我改造。雖然此種設計具有失敗的可能性,但同樣AI演化并不必然會成功。相比AI演化,智人“身心設計”的優勢主要體現在兩個方面:第一,身心設計雖然速度低于AI迭代,但其跨度可能遠超AI。身心設計不是純計算的,而是有人類獨有的直覺參與,由此可能產生意想不到的效果。第二,在可預見的很長時期內,AI迭代會處于人類的控制之下,而且人類可以利用AI演化的成果,采取賽博格即有機智能與無機智能相融合的策略。借助技術工具,智人完全可以將自身改造成新的超級物種??傊?,在與AI的進化競爭中,人類并不一定會落敗,這根本上是信心問題,是人類以現今智慧對未來的預測。

其次,有限主義進路主張技術發展適應社會,而非社會適應技術發展??刂艫I發展以使其適應社會或多或少會阻礙AI創新,但并不一定會阻礙社會進步。不可否認,從手工工具到自動化機器再到AI,技術的持續進步使其在社會中扮演關鍵角色,但社會進步的影響因素包括但不限于技術創新、制度變革、文化交融等,絕不能僅僅將技術創新作為評判社會是否進步的唯一指標。對AI進行適度控制在某種程度上會影響AI創新的速度,但這是人類為了自身生存所需做出的必要犧牲,人類仍可以通過其他政治、經濟和文化等手段促進社會穩定、持續進步。反之,若放任AI 發展而不加以控制,才極有可能阻礙社會進步,甚至導致不可逆轉的生存性風險,如失控的超級AI 滅絕人類文明。畢竟,不加限制的AI 極有可能生發出自我意識,成為能夠與人類抗衡的新物種,屆時社會的政治、文化等各層面都將被顛覆,“人類社會”或許會被“AI社會”所取代。因此,在對AI進行控制時應堅守底線思維,不踩AI發展的紅線。不過,有限主義進路強調,未來AI 若能夠同時滿足具備意識和可控這兩個條件,便可在一定程度上放寬對AI創新的限制。

總之,AI發展的有限主義進路并非要限制AI發展,而是反對在無有效控制方法的基礎下大跨步地發展AI。人類應審慎選擇技術發展路線,主動遵循對人類發展最為有利的發展路徑,通過有限設計構建有益AI,實現人與AI的可持續發展。

三、以有限設計構建有益AI

AI 哲學是行動哲學,是問題哲學,不是思辨哲學,更不是經院哲學。遵循AI 發展的有限主義進路,堅持科技以人為本,以有限設計構建有益AI是促進人機共生的重要途徑。具體來說,審度的有限設計不存在絕對化的準則模板,但至少應堅持防意識化的技術設計、貫徹去道德化的倫理設計、警惕短期片面的制度設計,此三大原則能夠指導AI從業者與社會公眾把握AI有限設計的大方向,并需要其結合人機現實情境進行具體分析、適時調整。

(一)堅持防意識化的技術設計

“防意識化”即阻止AI產生意識,將AI限制于高效的可控工具層面。關于“意識”概念,可從哲學層面與功能主義層面進行理解。在哲學層面,意識概念具有不確定性與未知性,至今仍未形成統一定義,因為意識概念關涉“人是什么”這一根本性問題,而“人是什么”在哲學層面幾乎是無法解決的難題。因此,關于“AI是否有意識”的哲學討論意義不大,太多類似討論可能會誤導研究方向,甚至浪費社會資源。在功能主義層面,許多科技工作者致力于實現通用AI,即像人類一樣能夠在各領域執行各種任務,是與專用AI 相對的概念。對AI 的此種分類將意識限制在功能層面,AI無需具備人類意識,只需表現出與人類相同的能力即可。帕特里克·布特林(Patrick Butlin)和羅伯特·朗(Robert Long)等人基于計算功能主義立場,通過對循環加工理論、全局工作空間理論、計算高階理論等幾種著名意識科學理論的分析,得出意識的指標屬性,并用計算術語進行闡釋,以便能夠根據這些屬性評估人工智能系統是否具備意識。評估結果為,目前的AI 系統均不具備意識,但建立有意識的AI 系統并不存在明顯的障礙①Patrick Butlin, Robert Long, “Consciousness in Artificial Intelligence: Insights from the Science of Con-sciousness”,2023-10-01, https://arxiv.org/pdf/2308.08708.pdf.。有意識AI已具備實現可能性,那么,人類應該任由其發展,從而具備意識嗎?有限技術設計認為,既然有意識AI有可能失控,就應預先防止AI意識化,在設計階段確保其功能有限。

AI功能有限主張AI無需全知全能,只需在各功能情境中實現人機目標對齊,以承擔工具性角色。對此,AI設計者需在設計過程中關注人類目標的不確定性與情境性。斯圖爾特·羅素提出“可證明的有益AI”三原則以指導AI設計者構建有益AI。羅素指出,人類智能被定義為“我們的行為能夠實現我們的目標”,若因此將AI 定義為“它們的行為能夠實現它們的目標”并按此路徑進行AI設計,極易引發AI失控,所以應阻止AI生成自身目標。羅素主張設計可證明的有益AI,即確保AI的行為能夠實現人類的目標?,F有AI設計致力于確定一個人類目標集并植入AI系統中,以此確保AI對人類有益。困難在于,難以確定人類的目標集,即便初步確立了短期內AI應遵循的人類目標集,也會面臨所謂的“關閉問題”:當AI系統朝著人類賦予的特定目標行動時,AI系統能力越強越會阻止人類將它關閉,因為人類終止其行動會阻礙其實現目標。羅素“可證明的有益AI”三原則的創新之處在于實現了人類目標由確定性到不確定性的轉變。具體來說,第一原則為“機器的唯一目標是最大限度地實現人類的偏好”,此原則強調AI的利他性,即AI并不具備自身目標與偏好;第二原則為“機器最初不確定這些偏好是什么”,此原則強調AI的謙遜性;第三原則為“學習預測人類偏好”,此原則指出了人類偏好的最終信息來源是人類行為。此三原則在技術層面強調AI應從人類行為中預測人類偏好,由此AI獲得的人類目標具有不確定性,進而AI才會在采取行動前請求許可、接受糾正,允許自己被關閉①斯圖爾特·羅素:《AI 新生:破解人機共存密碼:人類最后一個大問題》,張羿譯,北京:中信出版集團2020 年版,第18-188頁。?!翱勺C明的有益AI”三原則是對“關閉問題”的妥善解決,對人類偏好的關注消解了AI 不懈追求目標和防止干擾的自衛行為。此外,受三原則的啟發,有限技術設計認為,除了強調人類目標的不確定性,還應關注人類目標的情境性。目標可分為總目標與子目標,假設人類總目標為更好地生存,那么為實現這一總目標,應先分別實現其包含的各個子目標,如更好地交通、更好地學習、更好地工作,這些子目標仍可繼續細化至更小的子目標。因此,在設計AI 時,應依據人類子目標限制其活動場所,將其限制在輔助人類工作的高效工具層面,AI無需脫離語境對一般規則進行計算。

(二)貫徹去道德化的倫理設計

“去道德化”即禁止AI 具備自主道德,主張實現人機價值對齊,確保全部責任由人類承擔。關于AI道德問題,存在機器倫理(Machine Ethics)與機器人倫理(Robot Ethics)兩種研究路徑。機器倫理主張“AI 道德化”,遵循非人類中心主義,聚焦于如何使AI 具備自主道德,試圖擴大道德共同體,肯定AI 成為道德行動者的可能性;機器人倫理堅持“AI 去道德化”,遵循人類中心主義,否認AI具備自主道德的可能性,將道德限制在與AI相關的人類層面,研究人的價值取向、道德責任與倫理抉擇。目前,在理論層面,存在實現“AI道德化”的兩條路徑,即上文提到的“自上而下”與“自下而上”路徑,但其二者均面臨不同程度的困境。首先,“自上而下”路徑在設計層面上面臨多種倫理理論如何統一、如何將抽象的倫理術語換算為具象的技術代碼的困境,在使用層面則面臨同一道德理論在不同情況下導致相互矛盾行為的困境。其次,“自下而上”路徑存在社會學習結果無法預計、失敗代價難以承受的困境。此外,即便在未來解決了“AI道德化”在實現路徑上的困境,也會因上文提到的“能力者道德問題”對人類產生生存性威脅。因此,AI有限倫理設計遵循機器人倫理進路,強調人與AI之間的道德問題本質上是以AI為中介的人與人之間的道德問題,主張積極構建制度化的道德框架以應對AI帶來的倫理沖擊。

溫德爾·瓦拉赫(Wendell Wallach)和柯林·艾倫(Colin Allen)將道德分為三類:(1)操作性道德(operational morality),即缺乏自主性與價值敏感性,被設計者與使用者控制并體現其價值理念;(2)功能性道德(functional morality),即能夠對自身行為的道德意義進行評估,包括高自主性低價值敏感性或低自主性高價值敏感性;(3)完全道德能動性(full moral agency),即具有高度自主性與價值敏感性,能夠像可信道德主體如人類一樣行動②Wendell Wallach, Colin Allen, Moral Machines: Teaching Robots Right from Wrong, pp.25-26.。AI去道德化并非主張AI 價值無涉,而是僅將AI 道德限制在操作性道德和功能性道德層面,確保AI 價值向人類價值對齊,禁止AI 進行道德推理與決策。人機價值對齊的實現可分為價值輸入與價值輸出兩部分,其以自上而下、自下而上路徑為基礎并嘗試消解其困境,由此強調輸入層面的“除惡”原則與輸出層面的“監督”原則?!俺龕骸痹瓌t即在AI設計階段盡力阻止AI未來可能出現的明顯不道德行為,該原則認為爭論何種倫理原則更道德是無意義且無結果的,其不主張尋找普適的至善倫理原則,而是轉向界定明顯不道德的行為并形成具體的道德禁令植入AI系統,努力確保AI行為對人類有益?!氨O督”原則即對人機互動中AI的價值輸出進行監督,并對不道德輸出進行糾正,致力于保證其行為符合人類價值觀?!氨O督”可分為“人類監督”與“AI監督”,分別可對應現有的人類反饋的強化學習與憲法性AI 等手段,關鍵在于明確監督遵循“除惡”原則,即并非需要統一的一般性至善倫理原則作為監督標準,只需通過社會參與與全球合作等手段協商出初步的、具體的倫理禁令,并以此對AI的行為輸出進行監督審查。

具體到責任層面,有限設計主張AI 防意識化與去道德化,致力于AI 的可控性及有益性,由此“責任空缺”困境被消解,道德責任只能由人類承擔。那么,在AI 無法承擔責任的前提下,如何將道德責任合理地分配給人類成為亟待解決的難題。對此,AI有限倫理設計強調制度性地設計責任分配方法,進行責任分攤與集體擔責。關于責任分攤,可分為事前分攤與事后分攤兩種途徑:事前責任分攤主張在AI設計階段增強設計者的道德想象力,在AI購買階段告知用戶相關背景知識、使用規則與倫理規范,確保各人類主體主動承擔起自身責任,在一定程度上減少事故發生與責任推諉;事后責任分攤強調通過因果追溯厘清責任相關方,需借助技術支持,如阿蘭·溫菲爾德(Alan F.T.Winfield)和瑪麗娜·吉羅特卡(Marina Jirotka)提出的“倫理黑匣子”(ethical black box),主張在AI系統中配備類似于飛行數據記錄器的黑匣子完成信息記錄、數據上傳,為事后因果追溯提供技術與數據支持①Alan F.T.Winfield, Marina Jirotka, “The Case for an Ethical Black Box”, in Yang Gao, Saber Fallah,Yaochu Jin,Constantina Lekakou(eds.), Towards Autonomous Robotic Systems, Cham: Springer, 2017, pp.262-273.。而當AI事故原因較為復雜,無法進行道德責任分攤時,需集體擔責。首先應明確責任共同體成員包括但不限于AI設計者、生產者、使用者,其中AI設計者與生產者應承擔產品責任,使用者應承擔注意責任;其次應明確具體的擔責方式,當責任承擔者為個人時,擔責方式可分為物理層面的肉體懲罰、精神層面的社會譴責、經濟層面的物質賠償,但當責任承擔者為集體時,經濟層面的擔責方式更易接受、更為高效。例如在自動駕駛領域,已有學者提出在經濟上集體擔責的具體方式,如亞歷山大·赫韋爾克(Alexander Hevelke)和朱利安·尼達-呂梅林(Julian Nida-Rümelin)所主張的保險與稅收手段②Alexander Hevelke, Julian Nida-Rümelin, “Responsibility for Crashes of Autonomous Vehicles: An Ethic-al Analysis”, Science and Engineering Ethics, 2015, Vol.21, No.3, pp.619-630.。

(三)警惕短期片面的制度設計

無論是技術設計還是倫理設計,均需以制度設計為保障,但目前的制度設計缺乏長遠性與全局性,不利于未來AI的有限發展?!拔覀冃枰獙夹g有更深了解的人文學者,需要對人文學科有更深了解的技術專家,也需要來自這兩個陣營的決策者。今天,我們離這個目標還很遙遠?!雹跡dward A.Lee, “Are We Losing Control?”, in Hannes Werthner, Erich Prem, Edward A.Lee, Carlo Ghezzi(eds.),Perspectives on Digital Humanism, Cham: Springer, 2022, p.6.具體來說,AI有限制度設計應強調AI技術專家與人文社科專家的內部交流、AI企業與政府的外部溝通以及AI監管的全球協調。

首先,AI制度設計應重視專家的內部交流,積極采納AI技術專家與人文社科專家的交流共識。查爾斯·珀西·斯諾(Charles Percy Snow)曾提出,存在以文學知識分子為代表的人文文化和以科學家為代表的科學文化,此兩種文化間存在斷裂①查爾斯·珀西·斯諾:《兩種文化》,紀樹立譯,北京:生活·讀書·新知三聯書店1994年版,第3-4頁。。換言之,文學知識分子多批判科學,而科學家多抵制人文,兩者之間缺乏了解,互存偏見??紤]到AI 創新與發展的學科交叉性,彌補科學與人文之間的斷裂、實現AI 有限制度設計的跨學科溝通成為一項迫切任務。具體來說,第一,應確保技術專家與人文社科專家在交流中地位平等,一味抬高技術專家的地位易忽視AI的倫理問題,過分推崇人文社科專家的意見易誤解AI的技術現狀。技術專家并非高高在上的決策者,人文社科專家也絕非外部施壓的監督者,二者均為AI有限制度設計的建議者,只有在雙方地位平等的前提下,才能減少交流中的抵觸心理,提高交流效率,達成交流共識。第二,應強調技術專家與人文社科專家溝通方式的動態多元性。AI具備的自主性與不確定性預設了制度設計的長期性與靈活性,制度設計應隨AI的新變化而時時調整,因此專家的內部溝通也應頻繁而高效。此外,專家內部溝通的方式也不應僅僅局限于正式的論壇、對話等,通過教育等手段提升AI技術專家的人文素養、增強人文社科專家的科技認知不失為一種有效手段。

其次,AI 有限制度設計要關注企業的外部溝通,實現AI 企業與政府之間的信息對稱、合作互信。企業作為AI創新主體,了解AI技術細節并在某種程度上更能準確預測AI未來發展趨勢,在AI風險識別方面具備優勢,能夠為政府關于AI制度設計的決策提供參考。政府作為AI 監管主體,依據現實發展狀況為AI 發展劃定底線,以規避風險,確保AI 有益、安全、可控。因此,AI企業與政府之間的信息對稱尤為重要。政府通過企業了解AI發展現狀,聽取企業經驗與訴求,對AI進行適度監管,既能引導AI企業正面發展,又可在一定程度上減輕企業對政府監管的排斥;企業通過關注政府出臺的相關政策,及時調整自身發展方向,不僅能夠保證自身的平穩發展,還能夠以AI產品造福人類。此外,AI企業與政府之間的關系應轉向合作與互信。企業不應將政府的制度監管視為阻礙與壓力,而應積極參與到AI制度設計中去,通過行業內部溝通與審查達成共識、形成標準,實現他律與自律的結合。換言之,政府與AI 企業并非二元對立,政府監管并非要束縛企業發展,企業也不應鉆制度的空子,二者應在密切合作中相互信任,保證AI制度設計的切實性、有效性。

最后,AI制度設計須聚焦于全球協調,致力于實現協調的網絡化、包容化、可持續化。AI發展的典型特征即全球化,AI 創新需要全球科技力量的廣泛參與,同時AI 的影響亦遍布全球,深入每一國家與各個領域。目前已有許多國家出臺相關政策以引導控制AI發展。其中,歐盟以《人工智能法案》為代表,對AI風險進行分級并進行統一的強監管,較為重視AI倫理②European Parliament, “Artificial Intelligence Act”, 2023-06-28, https://www.europarl.europa.eu/thinktank/en/document/EPRS_BRI(2021)698792.;美國以《國家人工智能研發戰略計劃》為代表,強調企業自治,進行分散的弱監管,傾向于創新優先③The White House, “National Artificial Intelligence Research and Development Strategic Plan”, 2023-05-23, https://www.whitehouse.gov / wp - content / uploads / 2023/05/National-Artificial-Intelligence-Research-and-Development-Strat egic-Plan-2023-Update.pdf.。但是,未來AI發展呈現全球網絡化格局,“沒有任何一個國家有可能在人工智能發展中成為世界的中央,這些主要結點之間將高度互聯,深度協作,共同帶動世界人工智能的發展?!雹僭悖骸度斯ぶ悄苋蚝献鞑粫恰傲愫筒┺摹薄?,《光明日報》2021年1月20日。鑒于不同國家的AI 發展與文化背景存在差異,AI 制度設計的全球協調應求同存異,包容審慎。借鑒AI 發展大國的監管經驗是必要的,但應避免個別國家為維護自身利益而主導AI制度設計。全球協調的目標并非形成絕對統一的制度規范,而是以禁令形式得出最低限度的全球標準,避免AI制度洼地的存在,防止個別國家的行為危害整個人類的可持續發展。

猜你喜歡
類人有益人機
獨處有益
烘焙有益心理健康
人機“翻譯員”
做有趣有益的游戲
從內到外,看懂無人機
5類人跟泡腳“八字不合”
口頭禪暴露性格
“人機大戰”人類智慧遭遇強敵
靜坐有益
未來深空探測中的人機聯合探測
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合