?

數字智能技術的正義挑戰與倫理應對

2023-12-19 09:53李志祥

李志祥

摘? ?要: 數字智能技術的快速發展與全面應用,產生了人工智能體、生命增強技術等新興正義要素,對現存的正義秩序及其背后的倫理觀念提出了嚴峻挑戰。在種際正義方面,新興的人工智能體挑戰了傳統的物種正義秩序,要求我們從“生物物種”觀走向“非生物物種”觀。在人際正義方面,數字智能技術的生產生活應用加劇了現存的兩極分化和社會偏見現象,要求我們從以“共建共享”為中心的正義觀走向以“共生共享”為中心的正義觀。在代際正義方面,生命增強技術破壞了后代人的發展機會、選擇權利以及公平競爭,要求我們從基于自然進化的代際觀走向基于智能進化的代際觀。只有調整內在的物種觀念,完善相應的社會制度,構建合理的規范框架,才能應對數字智能技術提出的正義挑戰,創建更加符合公平正義要求的美好社會。

關鍵詞: 人工智能體;數字智能技術;數字正義;種際正義;人際正義;代際正義

中圖分類號:TP18? ?文獻標識碼:A 文章編號:1004-8634(2023)06-0094-(09)

DOI:10.13852/J.CNKI.JSHNU.2023.06.010

波斯曼在《技術壟斷》中指出:“總而言之,技術既是朋友,也是敵人?!? 作為朋友,數字智能技術有力推動了人類社會的高質量發展;作為敵人,數字智能技術使人類面臨前所未有的風險和挑戰。從公平正義層面看,數字智能技術的快速發展和全面應用,一方面提出了基于人工智能體的新種際正義要求和新代際正義問題,另一方面加劇了現存的貧富分化、社會偏見等不正義現象。深刻理解數字智能技術帶來的種際正義挑戰、人際正義挑戰和代際正義挑戰,合理調整我們的正義觀念、社會制度和道德理論,有助于正確引導數字智能技術的發展和應用,“為增進人類福祉、推動構建人類命運共同體提供有力的科技支撐”。2

一、數字智能技術與種際正義

美國學者貢克爾在《機器人權利》一書中追問“機器人能且應當擁有權利嗎”,討論了“面對機器人,尤其是越來越親切友善的類人社交機器人,我們能且應當怎樣對待它們”3 的問題。新興的人工智能體作為一種人工物,具有以前人工物從未有過的智能能力,能夠與人類形成一種既不同于人與工具物、又不同于人與生命物的特殊關系,這就給人類提出了一個全新問題:我們究竟應該如何對待這種新興的人工物?

1.人工智能體能否被視為一個“準物種”

人工智能體盡管具有一定的智能能力,但仍然是作為一種人工物被人類創造出來的。作為一種人工物,人工智能體在本質上是一種“物”,這種“物”具有兩個特征:一是工具性,即人工智能體是作為服務于人類的工具被創造出來的。作為工具,人工智能體并不構成自身存在的目的,它所服務的對象——人類——才是人工智能體存在的目的。有學者認為,人工物的使用和設計都具有目標導向性,其解釋是:“將某種活動描述為使用對象x會引出一個問題:x是用來做什么的?使用是帶著目的或目標的使用?!? 很顯然,這里的“目的或目標”是由“人類”這個使用者設定的。一是無生命性,即人工智能體并不具備生物學意義上的生命。人工智能體作為一種機器被創造出來,它的大腦是芯片和軟件,它的身體是鋼鐵等非生物材料。作為一種沒有能量新陳代謝的無生命物,其整體可以被精準復制,因而不具備生物體的獨一無二性;其構件可以被無限更換,從而不具備生命體的有死性。從這個意義上說,人工智能體只是一種“人工物”,而不是一種“生物體”,從而無法構成一個“生物物種”。

但是,人工智能體是一種特殊的“物”,是以前從未存在過的“物”。人工智能體的特殊之處在于它具有一定的自主能力,可以進行一定的自主認知和自主行為。很多哲學家和科學家都在質疑人工智能體是否具有真正的思維能力。塞爾通過“中文屋”證明人工智能沒有真正的理解能力,普特南通過“缸中腦”認為人工智能無法區分虛擬世界和真實世界,而德雷福斯更以現象學方法批評人工智能不具有具身性認知。德雷福斯的批判非常具有代表意義,他指出:“計算機只能處理事實,而人——事實的源本——不是事實或一組事實,而是在生活于世界的過程中,創造自身及事實世界的一種存在。這個帶有識別物體的人類世界,是由人靠使用滿足他們軀體化需要的軀體化的能力組織起來的。沒有理由認為,按人類的這些根本能力組織起來的世界,可用其他的手段進入?!?盡管如此,哲學家和科學家仍然承認,人工智能具有部分或類似的思維能力和自主能力,可以輕松通過嚴格的圖靈測試,看上去和真正的感知、思考和行為并無差異。弗洛里迪甚至認為人工智能是人類自我認識的第四次革命,他指出:“圖靈使我們認識到,人類在邏輯推理、信息處理和智能行為領域的主導地位已不復存在,人類已不再是信息圈毋庸置疑的主宰,數字設備代替人類執行了越來越多的原本需要人的思想來解決的任務,而這使得人類被迫一再地拋棄一個又一個人類自認為獨一無二的地位?!? 從這個意義上說,盡管諸如莫拉維克等人的觀點——“對待機器人會像對待一個有智能的人一樣”4 ——有些偏激,但我們至少可以將看上去像人一樣感知、思考和行為的人工智能體,視為一個不完全的物種,即“準物種”。

2.人類應該如何與人工智能體相處

作為“準物種”的人工智能體給人類提出的問題是:人類應該如何與人工智能體相處。在人機關系問題上,目前存在三種相互對立的主要觀點。第一種觀點可以稱為“人類中心主義”,強調人機關系應該是一種主仆關系,人類是主人,人工智能體是奴仆,因為人工智能體只是一種工具性的技術物。萊昂哈德明確指出:“機器和人工智能是協助者,是仆人,絕不是主人?!? 這種觀點以阿西莫夫、瓦拉赫、阿布尼等人為代表,目前是人工智能倫理理論中的主流觀點。第二種觀點可以稱為“超人類主義”,強調人機關系應該是一種演進關系,人類智能是過渡性工具,人工智能是高級目標,超級智能才是智能演進的未來。于江生集中表達了這一觀點,他指出:“具有自我意識的智能機器終將從人類手中接過文明的接力棒,奔向更高級的機器文明?!? 這種觀點以莫拉維克、庫茲韋爾、赫拉利、波斯特洛姆等人為代表,是人工智能倫理理論中的激進觀點。第三種觀點可以稱為“平等共存主義”,強調人機關系應該是一種平等的伙伴關系,人類與人工智能體應該發揮各自的優勢,實現一定意義上的合作共存。馬爾科夫總結指出:“當機器人變得足夠復雜的時候,它們既不是人類的仆人,也不是人類的主人,而是人類的伙伴?!? 這種觀點以馬爾科夫、布林約爾松等人為代表,開始被越來越多的學者所接受。

人工智能體既沒有自我立法的實踐理性,也沒有自由選擇的自由意志,難以成為一個完全的道德主體,因此,人類不可能將人工智能體作為一個真正的人類他者來對待。與此同時,人工智能體沒有生命物特有的感覺、情感和欲望,難以成為一個具有自為目的的存在物,因此,人類不可能與人工智能體產生真正的共情。對于后者,雷德斯通所做的解釋是:“如果機器人事實上無法感受到情緒,那么我們對它們根本就沒什么可以共情的東西,這也是我為什么認為人對社交機器人感受到的共情并不是真正意義上共情的原因?!? 盡管人類不可能對人工智能體產生真正意義上的共情或同情,但人類仍然可能對部分人工智能體產生“幻覺意義上”的共情或同情。這是因為社交型機器人能夠模擬人類的部分功能,看起來能夠理解和回應人類的情感、思想和行為,進而能夠與人類形成親密的社交關系。在這個意義上,人類不能將人工智能體(尤其是人形社交機器人)視為純粹的工具,與其他無生命、無智能的工具物同等對待,而是應該將其視作一個“準物種”予以應有的尊重。尤其是考慮到數字智能技術發展的加速性特征,考慮到人工智能體有可能“涌現”出與人類接近的感知能力和思維能力,我們應該及早樹立尊重人工智能體的觀念。

3.挑戰與回應:從“生物物種”觀走向“非生物物種”觀

人工智能技術對于種際正義的深層挑戰在于人們的“物種”觀念。大多數人堅持傳統的“生物物種”觀,只是將人工智能體視為一個“物”和“工具”,而不愿將其視為一個“物種”,哪怕是“類似”意義上的“物種”。這里主要存在兩個原因:一個原因是人工智能體的外形障礙。人工智能體的核心是一套人工智能軟件系統,其外形往往取決于人工智能體的使用功能。人工智能系統可以搭載在不同物體上,能夠以不同搭載物的外形出現,如智能手機、自動駕駛汽車、無人機、機械手等。當人工智能體主要以“物”的外形示人時,它很難激起人類的“物種”感和親近感。但當人工智能體逐步進入家庭生活,并且開始以“人”的外形與人類交流時,人類的“物種”感就有可能被激發出來。盡管森政弘的“恐惑谷”理論表明,越是與人類外觀接近的機器人在被識破機器身份時越是容易引起人們的驚恐感,即“機器人在外觀上不斷接近人類的過程有如登山,而人類對機器人抱有的親和感也會存在類似的山谷”。3 但已有學者指出,“恐惑谷”現象的深層文化根源在于人類的“去人類化”觀念,即通過“或多或少有意或故意否認人類的人性特征本身,或者否認人類物種的其他成員有某些人類特征”的做法,“打擊、懲罰那些與被污名化的個體或群體交往的個人行為和社會行為”。4 事實上,人形機器人進入個人私密生活的范圍越廣,頻次越密,程度越深,我們就越有可能將其視為人類共同體中的一員。

另一個原因在于人類的“物種”觀念障礙。從“物種”觀念史角度看,人類的物種觀念是開放的、不斷發展的。人類最初只承認少數人為“真正的人”,后來才開始不斷擴大“真正的人”的范圍,將婦女、低階層、特殊種族視為平等的人。人類最初只關注人自身,后來才開始不斷擴大關注的范圍,先是動物,后是植物,繼而是一切自然物,都被納入人類關注的范圍。彼得·辛格在批判人類對于非人類動物的暴行時曾經類比式地指出:“這種暴行已經而且正在給今天的動物造成巨大的痛苦和折磨,這種苦難只能與若干個世紀以來白人的暴行給黑人造成的苦難相比?!? 從這個意義上說,繼從“少數人”到“所有人”、從“人類”到“生命物”兩次觀念飛躍之后,人工智能時代有可能迎來從“生物物種”到“非生物物種”的第三次觀念飛躍。只有打破相對狹隘的“生物物種”觀,走向更具開放性和包容性的“非生物物種”觀,人類才能更合理地關注和尊重人工智能體。貢克爾曾經深刻地指出:“因此,機器人的權利問題,不僅是一個把道德關懷延伸到歷史上被排除在外的他者的問題,這實際上會使現存的道德哲學機制保留下來充分發揮作用而不會受到挑戰。相反,機器人的權利問題(假設保留這一特定詞匯是可取的)提出了一個基本的倫理學主張,要求我們從根本上重新思考道德關懷的體系?!?

二、數字智能技術與人際正義

數字智能技術的快速發展和全面應用,不僅提出了全新的種際正義問題,而且改變了現存的人際正義格局。對于數字智能技術帶來的數字紅利和數字代價,一些群體獲得了更多的紅利,另一些群體則付出了更大的代價。如果將使用區分為生產使用(勞動)和生活使用(消費)兩個方面,那么數字智能技術的廣泛應用既會改變生產中的財富分配格局,又會改變生活中的權益實現格局,從而對當代人際正義關系提出嚴峻的挑戰。

1.勞動就業與財富分配

技術的存在意義,在于用技術的力量替代人類的力量,從而減輕人類的勞動負擔。數字智能技術作為一種高級技術,就是用智能機器的力量替代人類的力量,用機器勞動替代更多的體力勞動和智力勞動,提供更加優質高效的服務。這樣一種節省勞動成本的機器替代,一方面會影響勞動者的勞動就業機會,另一方面會影響整個社會的財富分配格局。

從勞動就業角度看,數字技術的應用就是由機器勞動取代部分人工勞動。在自動化勞動是否會引發大規模失業這個問題上,學者之間存在很大的爭議:以凱恩斯、里夫金、卡普蘭等為代表的學者強調“技術性失業”,認為“正如工業時代淘汰了奴隸勞動,合作時代可能也會終結大量的雇傭勞動”;2 而以阿爾德里奇、格雷和蘇里等為代表的學者強調技術在替代部分勞動的同時也會產生新的人類勞動,認為“商業和就業的未來更有可能類似于今天的按需經濟,而不是一部人類消失、機器人統治世界的反烏托邦電影”。3 無論勞動自動化是否會引發大規模失業,數字智能技術的發展和應用都會改變勞動者的就業格局。對于勞動技能有可能被智能機器取代的勞動者來說,他們的勞動就業機會因為智能機器的競爭而不斷減少,直至完全喪失。對于勞動技能不可能被智能機器取代的勞動者來說,他們的勞動就業機會因為智能機器的協助而更有保障。很多人工智能專家都在預測數字智能技術最終會取消哪些職業,沃爾什的答案是:“思考機器出現后,什么人會成為輸家,什么人會成為贏家呢?答案取決于未來幾十年我們對社會進行怎樣的改造。如果我們什么都不做,技術專家會成為主要的贏家。至于我們其余的人,很多都會變成輸家,因為技術失業下崗,甚至再也找不到工作——這就包括出租車司機、卡車司機、口譯員、倉庫分揀員、警衛,甚至記者和法律文書員?!?

從財富分配角度看,數字智能機器使用量的增加,必然意味著社會物質財富總量的增長。但是,社會物質總財富的增長,并不意味著每一個社會成員財富的同比增長。數字智能機器創造了大量的物質財富,但如何分配由機器生產出來的物質財富,并不由數字智能技術決定,而是由社會分配制度決定。如果繼續堅持以自由市場機制為主導的分配制度,那么,明星企業家和高技能工人有可能獲得越來越多的財富,而普通群眾和低技能工人只能獲得越來越少的財富。美國經濟學家布林約爾松的結論是:“技術改變了高技能工人相對于低技能工人的收入份額,改變了超級明星相對于普通群眾的收入份額,也改變了資本相對于勞動力的收入份額?!?從這個意義上說,數字智能技術的快速發展和全面應用,將會改寫現有的財富分配格局,有可能加劇現有的貧富差距??ㄆ仗m的擔憂是:“可能只有所謂的1%的人會成為今天這些趨勢的受益者,但是如果不對這些擁有資產的人或物設置預警的話,很有可能這僅有的1%也將會縮水到0,就像是古埃及的金字塔一樣,抽光整個社會的資源僅僅是為個人統治者的妄想而服務?!?

2.數字鴻溝與算法歧視

數字智能技術不僅大量應用于生產過程,而且大量應用于生活過程。無論是私人生活,還是公共生活,都能借助數字智能技術變得更為高效快捷。盡管數字智能技術的廣泛應用全面提升了整個社會的生活質量,但不同群體對數字紅利的分享卻存在顯著差異。不同社會群體對于數字紅利的分享程度主要取決于三點:數字智能環境是否完善、數字智能設備能否獲得以及數字智能技術能否掌握。這三點又分別取決于區域差異、收入差異和知識差異。區域差異和收入差異屬于傳統的人際差異,知識差異則是數字智能技術引發的全新差異。不同群體對于數字智能技術的學習能力取決于三個要素:身體機能狀況、知識儲備類型和知識更新意愿。在數字環境落后的地區,無法擁有數字智能設備以及掌握數字智能技術的群體不僅無法分享數字紅利,甚至無法保障原有的生活權利,會面臨“權利缺失、能力不足”“地位邊緣、資源匱乏、易受挫傷”等諸多困境,從而淪為一種全新的“數字弱勢群體”,2 與其他社會群體之間存在一條影響巨大的數字鴻溝。

數字智能技術的生活應用還有可能產生一種特殊的不正義現象,即由算法歧視和數字鴻溝加劇的社會偏見問題。一方面,數字研發者的社會偏見有可能轉化為算法歧視,以隱形算法系統的方式擴大研發者的社會偏見。一旦設計開發者具有性別、種族、地域等社會偏見,那么這些社會偏見就有可能隨著設計開發工作進入算法系統,形成隱形的算法歧視,進而對整個社會產生廣泛的影響。切尼-利波爾德說明了這一過程:“通過技術故障和(或)算法作者固有的偏見,算法可以讓部分數據處于優勢地位,而讓其他數據處于劣勢地位;能夠看到的是算法可以理解的東西,而它可以理解的東西決定著我們可能的身份?!? 另一方面,數字鴻溝有可能限制弱勢群體的聲音,以致數據無法表達這部分人的觀點。對任何一個群體來說,數字技術使用越多,給數字技術提供的數據也就越多,其聲音、要求、價值和觀點就能體現得越充分。反過來,數字技術使用越少,給數字技術提供的數據也就越少,其聲音、要求、價值和觀點就體現得越稀少,甚至根本得不到體現。數字弱勢群體的聲音得不到充分表達,主流群體的偏見被不斷放大,數字鴻溝就這樣進一步加劇了本已存在的社會偏見。

3.挑戰與回應:從以“共建共享”為中心的正義觀走向以“共生共享”為中心的正義觀

從歸根結底的意義上看,社會正義問題在本質上是社會制度問題,而不是技術本身的問題。正如吳靜所言:“不是技術問題,而是社會問題。歸根結底,算法是人類思維的產物,只要人類的偏見和歧視依然存在,算法歧視問題就不會消失?!? 正是在這個意義上,馬克思要求將“機器本身”和“機器的資本主義應用”區分開來,他說:“一個毫無疑問的事實是:機器本身對于工人從生活資料中‘游離’出來是沒有責任的?!瑱C器的資本主義應用不可分離的矛盾和對抗是不存在的,因為這些矛盾和對抗不是從機器本身產生的,而是從機器的資本主義應用產生的!因為機器就其本身來說縮短勞動時間,而它的資本主義應用延長工作日;因為機器本身減輕勞動,而它的資本主義應用提高勞動強度;因為機器本身是人對自然力的勝利,而它的資本主義應用使人受自然力奴役;因為機器本身增加生產者的財富,而它的資本主義應用使生產者變成需要救濟的貧民,如此等等?!? 因此,數字智能技術只是加劇了本已存在的社會不公問題,解決之匙仍然在社會制度身上。但對于作為社會制度根基的正義觀念,數字智能技術仍然提出了更深層的挑戰,要求人們從以“共建共享”為中心的正義觀走向以“共生共享”為中心的正義觀。

自實行市場經濟體制以來,人類的正義觀都以“共建共享”為中心。根據學者的解讀,“共建共享”包含兩層含義:“因為共建所以共享”和“只有共建才能共享”。1 英國古典政治經濟學家大衛·李嘉圖提出的“土地產品——即將勞動、機器和資本聯合運用在地面上所取得的一切產品——要在土地所有者、耕種所需的資本的所有者以及以進行耕種工作的勞動者這三個社會階級之間進行分配”,2 要求地主、資本家和工人根據各自在生產過程中做出的貢獻而分配不同的收入,就是典型的、以“共建共享”為中心的正義觀。從市場經濟體制確立一直到今天,以“共建共享”為中心的正義觀始終占據著人類正義思想的核心,只是間或有社會福利制度的補充。無論是中國實行的“按勞分配”“多勞多得”制度,還是羅爾斯提出的自由平等原則,都是以“共建共享”為中心的,它們都是首先強調人們在財富生產過程中的貢獻。對于這種以“共建共享”為中心的正義觀,習近平總書記在闡釋新發展理念時做出過解釋,他指出:“共享是共建共享。這是就共享的實現途徑而言的。共建才能共享,共建的過程也是共享的過程。要充分發揚民主,廣泛匯聚民智,最大激發民力,形成人人參與、人人盡力、人人都有成就感的生動局面?!? 但需要注意的是,以“共建共享”為中心的正義觀是有存在前提的,即物質財富是人類生產勞動的產物。只有在這個前提下,每一個投入者才可以根據自己在生產勞動中的貢獻確定自己的共享比例。

直到數字智能技術出現之前,絕大部分物質財富都是“人”這個生產者借助生產工具作用于生產對象而生產出來的,以“共建共享”為中心的正義觀也始終占據著分配正義體系的中心。但在數字智能技術出現之后,“共建共享”的存在前提開始消失,因為此后的物質財富可以不再由人類勞動共建而成,而是由非人類的人工智能自動完成。當一個社會的大多數生產勞動都由人工智能自動完成,只需要少數人類成員參與時,以“共建共享”為中心的分配正義就會暴露其不足,因為根據“只有共建才能共享”的要求,只有參與生產勞動的少數人類成員才有資格參與共享,而無法或無須參與生產勞動的大多數人類成員就沒有資格參與共享。在這種情況下,原先處于邊緣地位、發揮補充協調作用的“共生共享”理念,更能為所有社會成員提供基本的權益保障?!肮采蚕怼钡囊笫恰耙驗楣采怨蚕怼焙汀爸挥泄采拍芄蚕怼?,4 以“共生共享”為中心的正義觀不再按照個人在生產過程中的貢獻比例進行分配,而是不問貢獻大小和有無,僅僅根據公民身份就滿足每一個社會成員的基本生活需求。在如何實現以“共生共享”為中心的正義觀方面,大多數經濟學家和社會學家都支持“全民基本收入”制度,即“社會上的每個人都應該獲得一定的保障性收入,不管他們是否工作,也不需要任何考核或者測試”,5 以便每一個社會成員都可以充分享受自動化機器創造的社會財富。

三、數字智能技術與代際正義

數字智能技術的快速發展和全面應用有可能打破既存的代際正義格局,使后代人遭受兩個方面的重要影響:一方面,當代的科技發展可能會擠壓甚至破壞后代人的發展機會;另一方面,對后代人的科技操控可能會干擾甚至破壞后代人的選擇機會和公平理念。只有從基于自然進化的代際觀轉向基于智能進化的代際觀,以更負責任的態度思考自我、后代乃至整個人類的未來發展,才能合理應對數字智能技術提出的代際正義挑戰。

1.科技失控與“賽博格”

在數字智能技術的發展與應用上,當代人的選擇可能會影響甚至決定后代人的發展命運。技術加速主義者指出,根據“摩爾定律”,數字智能技術的發展具有庫茲韋爾提出的“指數級增長”特征,一旦到達時間拐點,技術增長就會呈現為噴發式發展。技術專家們普遍認為,數字智能技術目前還處于可控范圍內,未來是否會超出可控范圍則未可知,未來的超級智能體是否會友好地對待人類更未可知。因此,當代人在人機關系上還握有選擇的主動權,馬爾科夫認為未來的人機關系將取決于21世紀前50年的決定,他指出:“21世紀前50年內,社會將做出艱難的決策,允許這些智能機器擁有成為我們的仆人、伙伴或主人的潛力。在20世紀中葉計算機時代的開端,諾伯特·維納曾對自動化的一種可能性提出警示:‘我們可以謙遜地在機器的幫助下過上好日子,也可以傲慢地死去?!? 一旦當代人確定了未來的人機關系,并且按照未來的人機關系發展數字智能技術,那么后代人就可能失去選擇機會,只能接受已經成為現實的數字智能技術??ㄆ仗m指出:“問題在于,我們可能只有一次機會來設計這些服務于我們的系統,不會有重來的機會。如果我們搞砸了,接下來的修補會很艱難,或者近乎不可能?!驹谶@個黃金時代的起點上,我們可以選擇。我們可以設定初始條件。但是在此之后,我們的控制權就少得可憐了,而我們必須接受自己決定的后果?!? 一旦當代人做出了不合理的選擇,后代人就有可能面對失控的科技怪物。

在資源公平問題上,能力增強的當代人必然會大量消耗各種生存和發展資源。通過包括腦機融合在內的仿生工程,將數字智能組織與人類身體結合起來,人類就可以成為具有超強身體能力和心智能力的“仿生人”(即“賽博格”)。赫拉利認為仿生工程與生物工程一樣能增強人類,他指出:“仿生工程結合有機和無機組織,創造出‘生化人’,例如為人類裝上生化手就是一例。從某種意義上,現代所有人幾乎多多少少都是生化人,用各種其他設備來輔助我們的感官和能力,像眼鏡、心臟起搏器、輔具,甚至還包括計算機和手機(這樣一來就能減輕一些大腦要儲存及處理數據的負擔)。但我們正要邁入一個要成為真正生化人的門檻,真正讓一些無機組織與身體結合而不再分開,而這會改變我們的能力、欲望、個性以及身份認同?!侨艘舱谧兂缮??!? 庫茲韋爾預測,真正的、完全的人機融合到2029年就會實現,“下一步便是發明技術的物種與其創造的計算機技術的融合。在這個階段的智能演化過程中,計算機一方面需要依靠其創造者的大腦設計結構(即大腦中負責計算的器官),同時又被植入所創造物種的大腦和身體中,與之融為一體”。4 借助數字增強技術,當代人壽命不斷延長,生活質量不斷改善,這必然會占用、消耗更多的自然資源,擠壓后代人的生活空間。另一個更嚴重的后果是,如果借助數字智能技術,當代人可以實現特定意義上的“永生”,那么人類還會考慮創造下一代嗎?從這個意義上說,當代人的生命增強無疑會影響下一代人口的數量和生活質量。瓦拉赫曾經質問道:“假設,如果將壽命變長和更健康的因素加起來,導致50%的勞動力要70歲后才退休,那么他們的子孫、曾孫還能找到工作機會嗎?更重要的是,如果工資不是分配財富的主要方式,那么那些沒有工作的人如何支付得起物品和服務呢?”5

2.增強后代:道德自主與公平競爭

生命增強技術既能應用在當代人身上,也能應用于后代人身上。在培育下一代過程中,當代人直接采用基于數字智能的生命增強技術,這可能會大幅提升后代人的生產能力和生活能力,同時也會剝奪后代人的自由選擇權,破壞后代人的公平競爭格局。

第一,增強后代有可能剝奪后代人的自由選擇權。根據道德自主性原則,是否實施生命增強技術,應該由當事人自己來決定,否則就違背了“你要如此行動,即無論是你的人格中的人性,還是其他任何一個人的人格中的人性,你在任何時候都同時當做目的,絕不僅僅當做手段來使用”6這一人性目的原則。在后代尚未成長為真正的道德主體之前,當代人直接替后代人做出決定,同意采用人工智能技術以增強后代的生命能力,這無疑剝奪了后代人的道德自主權。不過,與通過生物科技手段實施的生命增強技術相比,通過人工智能手段實施的生命增強技術在剝奪道德自主權方面還略有不同。通過生物科技手段的生命增強技術,通常會改變人體的內在結構,這個過程具有不可取消性或不可還原性。后代人的基因結構一旦被編輯,就沒有辦法還原為先前的基因結構。而通過人工智能手段的生命增強技術,是將自然身體與人工智能裝置結合起來,這個過程具有一定的可取消性或可還原性。有些添加上去的人工智能裝置,也可以從人體上置換出來。從這個意義上來說,基于人工智能技術的生命增強雖然會削弱后代人的自由選擇,但并沒有從根本上取消后代的自由選擇,仍然給后代人留下了一定的自主選擇余地。

第二,增強后代有可能干擾后代人的競爭秩序。一旦可以通過人工智能手段提升后代的生命能力,使后代在生存競爭中獲得較大的優勢,那么,當代人的財富差異就有可能通過生命增強途徑影響下一代的能力強弱。財富越多的人,就可能為后代提供越強大的生命增強技術;財富越少的人,就只能為后代提供較弱小的生命增強技術,甚至無法提供生命增強技術。這樣造成的后果是,后代人一出生就處于不同的能力起跑線上,這是典型的“起點不公平”。更為重要的是,借助強大的人工智能能力獲得成功,有可能破壞人類傳統的價值觀念:個人努力與否是決定個人成功與否的重要因素。亞里士多德對這一信念的解釋是:“如果幸福通過努力獲得比通過運氣獲得更好,我們就有理由認為這就是獲得它的方式?!? 瓦拉赫分析過這種危害:“更嚴重的是超能力對于民主社會合法性造成的威脅。家庭條件更好的人獲得的機會也不同于一般的家庭。但是,當今社會即使是弱勢群體也明白通過個人努力加上運氣就能成功。如果未來成功人士都是來自富有家庭的基因選擇后裔,社會又會發生怎樣的改變呢?”2

3.挑戰與回應:從基于自然進化的代際觀走向基于智能進化的代際觀

從更深的層次看,數字智能技術對代際正義的挑戰,本質上是對人類代際觀的挑戰。人類目前的代際觀是以自然進化為基礎的,而數字智能時代的代際觀更需要以智能進化為基礎。自然進化需要人類對后代承擔的責任極其有限,智能進化要求人類對后代承擔遠比以前多得多的責任。

理查德·道金斯談過進化方式的多樣性,他認為生物基因進化發展到一定程度會導致文化模因進化:“30多億年以來,DNA始終是我們這個世界上唯一值得一提的復制基因。但它不一定要永遠享有這種壟斷權。新型復制基因能夠進行自我復制的條件一旦形成,這些新的復制基因必將開始活動,而且開創自己的一種嶄新類型的進化過程。這種新進化發軔后,完全沒有理由要從屬于老的進化。原來基因選擇的進化過程創造了大腦,從而為第一批覓母的出現準備了‘湯’。能夠進行自我復制的覓母一問世,它們自己所特有的那種類型的進化就開始了,而且速度要快得多。遺傳進化的概念在我們生物學家的大腦里已根深蒂固,因此我們往往會忘記,遺傳進化只不過是許多可能發生的進化現象之中的一種而已?!?丹尼爾·丹尼特發展了達爾文的遺傳選擇理論,區分了四個層次的遺傳選擇:自然選擇、無意識選擇、有計劃選擇和基因工程。其中前面兩種屬于自然選擇,后面兩種則屬于智能選擇。丹尼特指出:“我們可以用達爾文提出的三個層次的遺傳選擇,再加上我們最近擁有的基因工程這第四個層次,作為人類文化中四個平行層次的模因選擇模型。最初的模因是自然選擇的,為無意識選擇的模因(也可以說,無意中被‘馴化’的模因)創造了條件,然后是有計劃地選擇的模因,人類的預見和規劃在其中扮演著明確的角色,但對其中潛在深層機制的理解只是模糊的,大多數試驗是在尋找既有主題的簡單變體,直到今天模因工程成了人類的一項主要事業:試圖設計和傳播整個人類文化體系、倫理理論、政治意識形態、司法和政府體系,以及許許多多關于在社會群體中生活的相互競爭的設計。模因工程是地球進化史上一項晚近的復雜工程,但仍比基因工程早了幾千年;其最早的知名產品包括柏拉圖的《理想國》和亞里士多德的《政治學》?!? 與自然進化相比,智能進化具有兩個重要特征:第一,在自然進化中起主導作用的是自發的自然力量,而在智能進化中起主導作用的是自覺的智能設計。第二,自然進化是極其緩慢的,而智能進化則是加速發展的。

從自然進化到智能進化,意味著當代人能夠對人類進化進程產生重要影響,能夠對未來人的生活產生遠比過去重要得多的影響。這也就意味著,當代人對后代人負有遠比以前更多的責任,應該以一種對人類更負責任的態度規約數字智能技術的發展和應用。這種負責任態度的核心,就是要進行深入的反思,想清楚我們究竟想要成為什么樣的人。在這個問題上,周濂說得對,他提出:“歸根結底,我們要問的是:我們是什么樣的人,以及能夠成為什么樣的人?”1 從本質上看,代際正義問題、當代人與后代人的關系問題就是人類與自我的關系問題。我們想讓后代人成為什么樣的人,過什么樣的生活,其實就是我們想讓自己成為什么樣的人,過什么樣的生活。因此,代際問題的真正解決,關鍵在于當代人,在于當代人的自我定位。赫拉利的話非常值得我們深思,他指出:“擁有神的能力,但是不負責任、貪得無厭,而且連想要什么都不知道。天下危險,恐怕莫此為甚?!?

The Challenge of Justice and Ethical Response of

Digital Intelligence Technology

LI Zhixiang

Abstract: The rapid development and all-round application of digital intelligence technology has produced new emerging elements of justice such as artificial intelligence and life-enhancing technology, posing a serious challenge to the existing order of justice and the ethical concepts behind it. In the aspect of interspecies justice, the emerging artificial intelligence challenges the traditional order of species justice and requires us to move from “biological species” to “non-biological species”. In the field of interpersonal justice, the application of digital intelligence technology has aggravated the existing polarization and social prejudice, and it requires us to move from the view of justice centering on “co-construction and sharing” to the view of justice centering on “symbiosis and sharing”. In terms of intergenerational justice, life-enhancing technologies destroy the development opportunities, choice rights and fair competition of future generations, requiring us to move from the intergenerational view based on natural evolution to the intergenerational view based on intelligent evolution. Adjusting the intrinsic concept of species, improving the corresponding social system, and constructing a reasonable normative framework are the only way to meet the challenge of justice posed by digital intelligence technology and create a better society that is more in line with the requirements of fairness and justice.

Key words: artificial intelligence; digital intelligence technology; digital justice; interspecies justice; interpersonal justice; intergenerational justice

(責任編輯:蘇建軍)

91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合