?

數智時代的人文危機與“新人文”建設

2024-05-08 11:57專欄主持人劉京希
關鍵詞:數智器官人工智能

專欄主持人:劉京希

主持人語:

有專家預言,在2030年左右,機器智能將與人類智能相當,“奇點”即將到來。如此便意味著,人類即將邁入事實上的人工智能時代。人工智能機器作為將思維、感知和行動一體內嵌與循環的模型,不僅擁有“類人的大腦”,能夠“獨立思考”,甚至進一步“發育”擁有了“類人智慧”乃至“超人智慧”,構成對于人類生存與發展的嚴峻挑戰! 面對自有人類以來世界未曾有之的數智時代大變局,人類及其文明將向何處去? 進而言之,“以人為中心”的人文世界將何去何從? “人之為人”的人類意識世界即人文精神是否將遭遇空前的深重危機? 數智時代的 “新人文”呈現何種樣態,又當如何建設? 一系列關乎人類前途與命運的重大話題接踵而至,不得不令人有所思考。鑒于此,本期筆談三篇文章《如何應對“數智時代”對人文精神的大挑戰》《人究竟是什么——新技術視域下人本質之思考》《生成式人工智能的創新潛能:三個誤解及其衍生問題》,就上述話題予以研討,以饗讀者。

如何應對數智時代對人文精神的大挑戰

劉京希

(山東大學 儒家文明省部共建協同創新中心,山東 濟南 250100)

收稿日期:2023-11-10

作者簡介:劉京希(1961—),男,山東齊河人,山東大學儒家文明省部共建協同創新中心教授,主要研究方向:政治生態理論。

早在1950年,阿蘭-圖靈在《計算機器與智能》一文開篇即提出:“我要研究的問題,是‘機器可以思考嗎?’”[1]更進一步,1956年“人工智能”概念破土而出①1956年8月,在美國達特茅斯學院,約翰·麥卡錫(John McCarthy,LISP語言創始人)、馬文·閔斯基(Marvin Minsky,人工智能與認知學專家)、克勞德·香農(Claude Shannon,信息論創始人)、艾倫·紐厄爾(Allen Newell,計算機科學家)、赫伯特·西蒙(Herbert Simon,諾貝爾經濟學獎得主)等科學家會聚一起,討論用機器來模仿人類學習以及其他方面的智能等問題。兩個月時間的討論雖然沒有達成共識,卻為會議內容起了一個名字:人工智能。因此,1956年被公認為人工智能的元年?!白寵C器來模仿人類學習以及其他方面的智能”也就成了人工智能要實現的根本目標。參見許正軍:《一文讀懂人工智能簡史:1956年,一群科學家決定用機器模仿人類》,https://it.sohu.com/a/535682170_378467。。針對“機器可以思考嗎?”這一驚天設問以及“人工智能”概念的萌生,我們可否如此定性:此一劃時代重大議題及其概念的提出,意味著“數智時代”的端倪早在20世紀中葉已然顯露! 因為以此為發端的人工智能技術演進,呈現日新月異的加速度態勢;“人工智能”早已從概念變身為現實,人類已經邁入事實上的人工智能時代,人工智能機器作為將思維、感知和行動一體內嵌與循環的模型,已然不僅擁有“類人的大腦”,能夠“獨立思考”,甚至進一步“發育”而擁有了“類人智慧”乃至“超人智慧”。如此,在計算機技術日新月異,虛擬現實、生成式AI如白駒過隙、令人目不暇接的當下,我們再也無由回避如下嚴肅而不免沉重的話題:“人類是否會因失去思考能力而淪為機器的附庸,甚至最終為機器所取代?”

進而言之,得益于科技的神速進步,人類儼然已進入了數智時代——用數據溝通虛擬與現實,讓人與機共享智慧,數據與智慧結合以賦能未來[2]。即如庫茲韋爾所預估,21世紀的科技成就,將會是過去一千年成就的總和,并預言在2030年左右,機器智能將與人類智能相當,“奇點”即將到來[3]。由此可知,在可預見的“數智”時代,未來的人機共存將進一步走向“人機共享智慧”。雖然,業界認為,人與機器之間的關系,不應被定義為相互替代,而是相互協作,優勢互補,共赴未來。就此而言,“數智”時代所談論的“智”,并不是傳統意義所謂之機器的人工智能,而是人和機器所共有“智慧”的存量與增量[2]。但就人工智能的迅猛發展所呈現的山雨欲來的強力態勢而言,我們是否也可以這樣認為:“聰明反被聰明誤”,人類在自覺又不自覺的“夢游”狀態之中,扮演起了自掘精神墳墓的“掘墓人”角色,一手促成數智技術之于人類精神世界的統治甚至統馭,又反手將自身塑就且歷經數千年傳承的精神文化送上絕路,因而陷于前所未有的人文大危機? 人的主體性地位是否面臨前所未有的“數智”威脅? 為捍衛經迭代努力而來的精神文明成果,人類又當如何應對數智時代的大挑戰?

一、人類即將陷入前所未有的人文大危機?

如前述,人類正在邁入數智時代的門檻,得以便捷地用數據溝通虛擬與現實,讓人與機共享智慧,數據與智慧結合,以賦能當下與未來。尤其是,“數智”強調數據的價值與“智慧”的共享,這是“數智”時代“數”與“智”的核心含義。但是,人工智能絕非僅憑數據與“智慧”就足以影響未來,更關鍵的作用機制是“數智賦能”,這就涉及“數智”技術的底層架構和擴散機制[2]。著眼于“有用之用”的現實功利和功用追求而言,迥異于大機器時代或電氣時代,以人機共享智慧為標志的數智時代的來臨,確乎全方位地提升著社會生產力,這種提升甚至用“N+”的正整數集來表達也不為過。而且在可見的將來,人工智能技術只會是倍速發展,不可能就此止歇。就此而言,“超數智時代”也許正在步步逼近。屆時,社會生產力的再次大幅提升,也就在情理之中了。因此,人們將數智時代的來臨所引發的社會生產力的大變革和大飛躍,視作人類歷史上的工業4.0,即第四次工業革命。

問題在于,數智時代乃至超數智時代所帶來的社會變革,并非止步于生產力層面,而是必然會進入到社會關系乃至人的精神領域。這是因為,具備了“類人智慧”甚至“超人智慧”的人工智能,具有對信息進行解釋、對變化進行識別和自適應進而改進結果的非凡能力。以此,人工智能也就由冰冷的機器變身而為具有自由意志和主體自覺的“超人”,它不僅可以自我學習,而且還會進化為一種具有自我意識的“類生命體”。隨著其進一步的迭代進化,以至試圖擺脫人類的控制,從人類手中搶奪世界的“決定權”,進而返身干預甚至控制人類成員的精神活動即精神自由,乃至整個精神世界,在事實上將人類降維為被動性物理與精神存在,將自身“修煉”而成“超生命體”,也未可知。也許正因如此,2018年3月,在美國得克薩斯州奧斯汀舉行的“西南偏南”科技大會上,特斯拉和SpaceX 創始人埃隆·馬斯克發出警告:“請記住我的話,人工智能遠比核武器更危險?!盵4]如此來看,我們是否可以做如此判斷:緣于數智時代乃至超數智時代的來臨,以及與之相伴隨的人工智能失控風險,人類或將陷入前所未有的人文大危機。

二、人的主體性地位是否面臨前所未有的威脅?

我們說,緣于“數智時代”乃至“超數智時代”的來臨,人類或將陷于前所未有的人文大危機。此一研判所依據的一個重要指標,是看擁有“超人智慧”的人工智能,是否對人的主體性地位構成潛在威脅。當然,人工智能是否對人的主體性地位構成潛在威脅,在于如下兩個前提條件是否得以滿足:一是人工智能在純粹技術層面的自我發展程度;二是在人類法度上對人工智能的發展是否有所制約。

事實上,就人工智能在純粹技術上的自我發展程度而言,近幾年來顯然已經駛入加速發展的快車道,而非躑躅不前。Open AI的例證,可予充分說明。該公司從2018年發布并推向市場的GPT-1,到2023年3月推出的GPT-4,中經GPT-2、GPT-3、GPT-3.5,雖已四代更迭,但歷時不過五年左右。從功能上看,GPT-1模型僅可用于生成文本、問答和文本分類等任務;而GPT-4模型在語言生成方面表現得更加出色,可以生成更自然、更連貫的文本段落,并且具有更強的推理能力。尤其是GPT-4模型,還支持多輪對話,可以更好地理解用戶的意圖和需求[5]。此外,可自我學習的馬斯克人形機器人也即將量產。

談及對人工智能的發展是否有所制約,尤其是法度方面的限定,目前來看,雖已顯現端倪,但尚未見真章。鑒于人工智能技術的飛躍式發展,以及此種發展之于人類主體性地位的前所未見的嚴峻挑戰,業內外有識之士早已有所警覺甚至憂懼,擔憂人工智能將如脫韁之野馬,掙脫人類的駕馭進而反噬人類。前述馬斯克 “請記住我的話,人工智能遠比核武器更危險”的警告,不可謂不嚴厲。就在2023年3月份,馬斯克等千名全球科技人士聯名發布公開信,呼吁暫停高級人工智能的開發。公開信還詳細描述了具有人類競爭力的人工智能系統以經濟與政治干擾的形式對社會和文明的潛在風險,并呼吁開發者與決策者在治理和監管方面進行合作。信中寫道:“只有在我們確信它們的效果是積極的,風險是可控的情況下,才應該開發強大的人工智能系統?!盵6]此外,近期發生在Open AI的CEO 被解雇事件,更加預示著人工智能之于人類前景的無比重要性。人工智能公司Open AI首席執行官、“有效加速派”(激進派)代表人物阿爾特曼,與“超級對齊派”(保守派)代表人物蘇茨克沃,就AI研發的進展速率產生分歧。在阿爾特曼看來,AI不過是限于技術層面的智能算法,因此希望更快地部署強大的AI,以使Open AI能夠保持對于競爭對手的領先地位;同時傾向于快速實現生成式AI產品的商業化,部署橫跨全球的消費者業務。作為一位經驗豐富的AI研究人員,蘇茨克沃則更加注重AI產品的安全性。在看到GPT-4的威力后,蘇茨克沃在公司內部創建了一個新的“超級對齊派”團隊,旨在探索確保人工智能技術未來版本不會造成傷害的方法[7]。阿爾特曼之被解雇,正是緣于公司內部對AI與人類關系的認知差異。也是在近期,英國政府公布了圍繞人工智能建立“適應性強監管框架”的提案。該國政府在最新發布的一份政策文件中概述了其做法,即把管理人工智能的責任分配給人權、健康與安全以及競爭方面的監管機構,而不是創建一個專門針對這項技術的新機構。

綜上,圍繞人工智能產業何去何從而出現的歧見與舉措,無論是業界的憂戚與治理呼吁,還是頭部公司內部的分歧與措置,抑或英國政府的監管提案,無不意味著人工智能的進一步發展必將引致的之于人類文明的潛在風險,正在觸發全球范圍的高度警覺,因而從行業內部、民間社會到政府部門,一系列限制性舉措已然走上前臺。問題在于,這些限制性舉措尚未上升至國別乃至國際組織的法度性規定和一體性硬約束,因而其持續性效能究竟如何,不免令人生疑。

三、如何應對數智時代對人文精神的大挑戰?

面對人工智能技術的新進展,有一幅漫畫做如此調侃:“人工智能方向是不是搞錯了? 本來想是AI幫我們洗碗掃地,我們有空就去寫詩畫畫?,F在AI開始寫詩畫畫了,而我們還在洗碗掃地?!彪m屬調侃,卻也部分地揭示出人工智能沿著當下路徑的進一步發展,必將造成的對于人的主體性地位的擠壓,使之由人工智能的服務標的變身為服務于人工智能的“工具”。人文精神的未來前景,取決于科學技術進步的路向及其限閾,即人類對于科學技術進步及其態勢的制約程度。

人工智能技術模式與傳統科技模式最為根本的區別,即在于試圖以“精神性技術追求”取代一直以來的“物理性技術追求”。如此,不免觸及一個嚴峻的、關涉人類未來命運的重大命題:AI面前,人將非人?或曰:AI面前,人類將何去何從?

顯然,在可知的大千世界,唯有豐富的精神界域,包括思想、信仰、價值觀、情感、靈性、意識和理性,乃人之為人的獨有質性,為充任萬物之靈的人類所獨占和獨享。其中,尤以表現為對人的尊嚴、價值、命運的維護、追求和關切為本的人文精神,至為崇高而神圣。人文精神的此一本質內核,又具體落定為人格的獨立、自由和尊嚴。

已如前述,在可以預見的“超數智時代”,人工智能將會以遠超倍速的速率一往無前。當下棘手的問題在于,如何一勞永逸地規避或解除人工智能之于人類精神的“技術壓迫”甚或反噬? 為人工智能的進一步發展劃定一條不可觸碰的“高壓線”,恐將是不二法門和當務之急。

那么,這條“高壓線”的界標究當何在?

既然豐富的精神世界以及人文情懷,乃人之為人的獨有質性,且這一獨有質性進一步具象和彰顯為崇高而神圣的人文精神的本質內核,即人格獨立、人格自由和人格尊嚴,那么,在可以預見的“超數智時代”,制約人工智能發展的那條“高壓線”的界標,也便赫然入目,這便是人之為人的人格獨立、人格自由和人格尊嚴。比如人的隱私權、肖像權、性別平等權以及知識產權,在生成式人工智能的開發運用中不應遭受侵犯。換言之,人的主體性價值與人的精神自由的保持及其弘揚,乃衡量人工智能發展路向和速率的試金石。凡是危及人的主體性價值存在、導致人文精神衰變、人的精神自由被剝奪、人的意識世界被掏空的人工智能技術,即觸及了那條“高壓線”,屬予以制約之列。

進一步來看,這條“高壓線”又當如何劃定且不可觸碰?

近期,美國聯邦法院裁定,人工智能(AI)生成的藝術作品不受版權保護,因為這些作品并非由人類生成。同樣,歐盟委員會一直在積極推動AI監管政策,并發布了有史以來首個AI監管框架草案。它采用基于風險的方法,根據安全風險級別對AI系統實施禁令[8]。國內相關部門也有所動作,國家互聯網信息辦公室于2023年4月發布了《生成式人工智能服務管理辦法(征求意見稿)》,對生成式人工智能服務進行了框架性規范[9]。

但問題的根本在于,人工智能(AI)產業所面對的是一個全球流通的統一大市場。因此,如何以法規的形式,在全球范圍內劃定一條不可觸碰的一體性“高壓線”,就顯得至為關鍵。其實在2021年,聯合國教科文組織和成員國就通過了各成員國自愿參加的人工智能倫理框架,對人工智能引入倫理影響評估,以測評人工智能的環境影響,并確保人工智能促進性別平等,不用于大規模監測[10]。但以聯合國教科文組織牽頭且成員國自愿參加的人工智能倫理框架,屬于倫理層面的軟約束條款,因而其實施效果也便可想而知了。如果更進一步,將聯合國教科文組織牽頭制定的人工智能倫理框架抬升為法律約束框架,交由聯合國司法機構監督實施,并以之促動聯合國各成員國,依據聯合國相關法律框架制定相應的法律規則,實現之于人工智能發展方向的一體性雙層硬約束,以徹底解除人類之于人工智能技術一路狂奔的人文憂思,保障人文精神以“人文數智”的內質與新形態在“超智能時代”的承繼與延展,及其與人工智能發展的有機互動,以形成數智時代的新人文,即“數智人文”,則數智時代對人文精神所形成的嚴峻挑戰,指日可化解矣!

人究竟是什么——新技術視域下人本質之思考

鄧曦澤

(四川大學 國際關系學院,四川 成都 610064)

收稿日期:2023-12-10

基金項目:國家社會科學基金一般項目“‘技術權力’主體化的政治學研究”(21BZZ001)

作者簡介:鄧曦澤(1973—),男,四川瀘州人,博士,四川大學國際關系學院教授、博士生導師。

引言:人類思想史的大問題與老問題

人究竟是什么? 這個問題既不急迫,也不影響人們的世俗生活、日常用度,但對于人的生存意義建構來說,它卻是大問題,也是莫衷一是的老問題。關于該問題,幾乎所有稍微成熟的文化,甚至較為系統的社會思想和理論,都有自己的看法。例如,在中國先秦思想中,“人為萬物之靈”[1]180;在亞里士多德看來,人是政治動物;在現代經濟學及社會科學看來,人是追求自己最大利益的理性的自利者。那么,在新技術已表現出改造身體的能力的當今,可否對人的本質做出一些新的思考?

一、信號:我們看到的世界

首先,讓我們的思考從我們看到的世界出發。

人們看到五彩繽紛的世界,而世界由無數的事件(event)構成??梢詫⑺惺挛?thing)都視作事件,如一朵花(的存在)也是一個事件。

對于事件,關鍵不是它本身是什么,因為它本身(或本質)是無法確知的,而是主體能認識什么。認識是廣義的,包括所有感官和思維的活動??梢酝ㄟ^模擬來理解這個問題。假如眼前有兩張圖片,第一張被布所遮蓋。此時,觀察者(假定都為正常男人)對這個圖片并無直接的認知,因而也沒有具體感受。第二張是著名影星瑪麗蓮·夢露的正裝照。觀察者對這張圖片可能會有一些感受,覺得夢露很漂亮、很有氣質之類。然后,把蓋在第一張圖片上的布揭開,原來這張圖是夢露的妖冶艷照。此時,觀察者會感受到夢露的魅力和性感,甚至產生一定的生理反應。由此產生一個疑問:夢露早已去世,觀察者所看到的并非真人,而是圖片,為什么圖片會引發觀察者的認識和心態變化呢? 觀察者究竟看到的是什么? 或許可以引入一個關鍵詞“信號”來回答這個問題,即觀察者看到的是信號。但這又會引發新的疑問:人們日常覺知到的事件(或事物)也都是信號嗎? 例如,觀察者看到一張桌子,他看到的也是信號嗎? 對此,本文的回答是:的確如此。觀察者看見一張桌子,并用手去摸,用鼻子聞,用尺子量,然后得到一個判斷:“這是一張白色的、方形的、硬的、冷冰冰的、油漆味的、面積為0.5平方米的桌子?!鄙钊敕治?即便我們“真實地”(引號表示強調,意指我們通常所言的真實)接觸一個事件,我們得到的也是關于(about)事件的信號:“白色”“方形”“硬”“冷冰冰”“油漆味”“0.5平方米”。在此,物質在先還是意識在先,已經不再重要,重要的是:主體認識到什么? 無論唯物主義還是唯心主義,事件都只能以信號的方式呈現,不能以信號呈現的事件都是無意義的。不過,由于人的認識能力不是一成不變的,它可以發展變化,所以信號以何種方式呈現又與主體的認識能力密切相關。此猶如,對1000年前的人說氧氣、氫氣、紫外線、電子、黑洞是毫無意義的。這不是說這些東西不存在,而是說彼時人們的認識能力還無法將它們作為一個獨立的事件識別出來。例如,氧氣、氫氣都被籠統地包含于空氣之內,而紫外線則被籠統地包含于光線之內。這就意味著,無論是真實地還是虛擬地接觸,主體所接觸的世界都以信號的方式向他呈現。這也就是貝克萊的主觀唯心主義很難被駁倒的原因?;艚鹨舱f:“我們看到的宇宙之所以這個樣子,乃是因為我們的存在?!盵2]116概言之,世界只能以主體的認識和表達來呈現,在認識和表達之外的世界是無意義的?;蛟S有人會反駁:有些人對世界的某些方面的認識和表達是模糊的,但這不等于這些方面不存在。的確如此,但這只能理解為:如果認識和表達是模糊的,相應的世界也是模糊的。這與上述觀點并不矛盾。

二、能量+信號:人對世界的需求

世界以信號的方式向主體呈現,但信號不是憑空而來的。所有信號都是能量以一定規則運動的結果。如果能量的運動毫無規則可言,那么主體只能接收到完全無序的信號,而不可能產生事件與事件的穩定區分,因而世界將呈現為一片(毫無意義的)混沌。例如,如果三角形與長方形、紅色與藍色等等的信號沒有穩定性,那它們將不可區分。而一種信號之所以是穩定的,是因為在特定規則之下特定能量的運行是有序的。關于規則,此僅做簡論,而將論述重點集中于能量。人與世界打交道是要獲取兩種東西:能量和信號,而信號則是最終目的。這里可以通過對生理器官的分析來理解。

胃的功能是什么? 直接看,是消化;間接看,是獲取能量。眼睛的功能是什么? 直接看,是觀察;間接看,是獲取信號。依據功能不同,人的所有器官都分屬兩大系統:能量系統和信號系統。部分器官則同時屬于兩個系統。由此,可以將器官分為三類:獲取能量的器官,如牙齒、食道、胃、小腸、大腸、肛門、膀胱、尿道、肝臟、心臟、肺等;獲取信號(但不分析信號)的器官,如眼睛、耳朵;既獲取能量也獲取信號的器官,如鼻子、舌頭、手、腳。腳通過空間移動,擴大獲取能量和信號的范圍;手在腳所提供的空間范圍內獲取能量和信號。大腦中樞最為獨特,它兼有匯總、分析和發送信號的功能①本文是基于《行走在人與超人的邊界上——一個外行關于人工智能的初步思考》(《西南民族大學學報》2017年第10期)一文的進一步拓展與深化。。

人向世界獲取能量與信號,但能量與信號的意義并不是相同的,信號是目的,能量是工具。人對能量的需求是有限的,對信號的需求則是無限的。人吃飽喝足后的各種游玩都是為了獲取各種各樣的信號。我曾做過一個粗略的比較,當今的人跟漢朝的人相比,當今的人獲取的能量只比后者多幾倍,但獲取的信號則可能多成千上萬倍。當今人們(以中等發達國家為標準)的能量獲取已經達到甚至超過身體的需求,許多人對食物的挑剔不再是為了獲取能量,而是獲取新鮮和愉悅的信號。人們獲取能量的動力在減弱,但獲取信號的動力卻在增強。對令人愉悅的親情、友情、愛情、藝術、旅游、游戲等的獲取,都可以理解為對令人愉悅的信號的獲取(這可以解釋為什么人們經常會喜歡虛假的甜言蜜語)。一切感受,無論是快感還是不適感,都必然且首先是對信號的感受,然后才是從信號中分析出對于主體來說有意義的信息。

由此可以得出一個階段性結論:人與世界的關系是人向世界獲取能量與信號,并且能量是工具,信號是目的。

三、對生理器官的解構

從生物演化角度看,包括人在內的生物獲取能量和信號的方式都是非常穩定的,食物提供能量,然后獲取其他信號。那是否可以發揮想象力,設想如果有了獲取能量和信號的新方式,人會怎么變化?

人擁有器官,但人(指非專業的普通人)并不了解自己的器官,更不能控制自己的器官。例如,當胃發生疼痛時,人可能會抱怨:“我的器官為什么不聽我的話,要和我作對?”在新技術視野下,完全可以重新思考器官的功能及其替代。假如人類發明了一種新技術——大腦能量輸入技術,這種技術可以直接為中樞神經提供能量,那么,人的諸多器官(如上面所提到的所有服務于獲取能量的器官如胃、腸、肛門等)還有存在的必要嗎? ——不必要。并且,人體獲取單位信號所需要的能量還會大幅減少,即信息能耗率大幅降低。其原因在于,一方面,目前的生物人的大腦能耗只占身體能耗的小部分,許多能量都用于維持除開大腦的整個身體的運轉;另一方面,食物的能量轉化率也很低,所以,為了給大腦提供一定的能量,實際能耗遠遠大于大腦能耗。這意味著,如果發明了大腦能量輸入技術,那么為大腦提供能量的龐大的物資生產系統將不再必要。盡管人類能否發明大腦能量輸入技術尚不明確,但其理論可能性已經顯現[3]78-85。

進一步,如果能發明出腦機信息互換技術——腦機技術,那么人的信號獲取器官(如眼睛、耳朵等)也不再必要。事實上,腦機技術已取得重大進展,埃隆·馬斯克的Neuralink公司的腦機技術已獲美國食品和藥品監督管理局(FDA)的人體試驗許可,進入臨床試驗階段。

如果大腦能量輸入技術和腦機技術都獲得巨大突破,那么生物意義的人就被徹底解構了。人不再需要任何生理器官來提供能量和信號,但人的意識依然存在。人腦可以被改造為一顆小小的芯片——人就被非生物化了,即從碳基生命轉變為硅基生命。只要實現了大腦能量輸入技術和腦機技術的巨大突破,二者再與互聯網和人工智能相連接,人腦就會被改造為體積非常小且具有智能的超級計算機。這個計算機可以稱為“超人”,它的信息與原來的生物人大腦的信息是互通的,即它的信息與生物人的記憶具有連續性。于是,“超人”可以對無窮無盡的信號進行任意組合,從而實現信號自由,進而實現信息自由,并實現永生。這種信號自由和信息自由可以為我們(生物人)所認識,因而我們(生物人)的大腦(意識)作為“超人”的一個構成——雖然只是很小且越來越小的構成——也能實現信號自由和信息自由。

四、“超人”還是人嗎

但是,被改造為“超人”的“人”還是人嗎? 既不是,又是;且在本質上,很難說它不是。

直觀地看,自人類具有自我意識和認識能力以來,人類所有的自我經驗和對他人的經驗都是:人是有身體(各種除開意識的生理器官的集成)的,沒有例外。這里的“身體”是生物意義的,它具有空間屬性,并表現為各個器官的有機組合。很難想象一個沒有眼睛、鼻子、耳朵、嘴巴、牙齒、胃、腸道、肛門、膀胱、尿道、心臟、脾臟、肺等器官的東西可以稱為人。在這個意義上,生理器官構成人的必要條件。那么,因為“超人”沒有生理器官,所以“超人”不是人。但是,這個必要條件只是人類對人的特征的經驗歸納,而非邏輯必然,因而對這個必要條件是可以質疑的:一方面,人雖然有身體,但另一方面,人卻總想超越自己的身體(限制)。置于欲望(目的)與工具這對關系中看,人從來都是把器官當工具的。把身體(的各個器官)養護好,能更靈便地活動,盡可能延長壽命,就是為了滿足更多的欲望。而所有欲望的滿足都是獲取各種信號,并將信號解析為自認為有意義的信息。而且,為了滿足更多的欲望(即獲取更多的信號),人們都期望擴展生理器官的功能。許多民族的古代文化都有相關的神話、傳說、文學、藝術,例如《西游記》中的千里眼、順風耳,再如西方傳說故事中的大力士,等等。這一方面佐證了人是將信號獲取作為目的,而將器官作為獲取信號的工具;另一方面也佐證了人類一直懷有增強器官功能的期望。但特定時代的技術水平會在一定程度上限制人們的想象力,因而會限制古人對器官功能的想象。古人無法想象,人類科技的發展甚至超過他們的某些玄想。例如,無限即時通信已超過了千里眼、順風耳;而大型機械早已超過大力士。

如果生理器官的功能不但可以被替代,而且大幅增強,還可免受器官病變帶來的痛苦,人會選擇放棄自己的器官嗎? 恐怕多數人是愿意的。而本文更關切的問題是:當全部器官都被替代,人還是人嗎? 這似乎讓人們難以回答。但根據人類對人的理解的主流觀念,這個問題并不難回答——器官被全部替代的“超人”仍然是人,因為在主流觀念中,人的本質就是超越身體的;或者說,人從來就期望超越自己的器官?!叭藶槿f物之靈”,是中國古代的主流觀念,而這“靈”顯然不是指器官,而是對器官的超越。在孟子看來,“人之所以異于禽獸者幾希,庶民去之,君子存之”[4]2727。人之不同于禽獸之處,在于人有仁義。仁義是精神性的,它也可以轉換為具有某種意義的信號。佛教的“八識”(眼、耳、鼻、舌、身、意、末那、阿賴耶)中,最重要的是末那和阿賴耶,二者都要超越身體。在佛教中,能圓寂者,身體雖滅,但精神不滅,精神依然能獲取信號,這也是精神對身體的超越。莊子所推崇的逍遙境界,也是超越身體的。并且,若以芯片化“超人”為標準,逍遙境界雖不完全吻合“超人”,但可能是最吻合的?!安皇澄骞?吸風飲露,乘云氣,御飛龍,而游乎四海之外”,“若夫乘天地之正,而御六氣之辯,以游無窮者,彼且惡乎待哉!”[5]28“不食五谷”,則消化系統就不再需要;“吸風飲露”是獲取能量;“游乎四海之外”“游無窮”便是任意獲取信號。莊子還認為,“百骸、九竅、六藏”這些器官,不過都是為“我”服務的奴仆,所以他追求“有情而無形”的“真宰”[5]55(此真宰是決定自然造化的無形體的精神)。這意味著,莊子不但把生理器官工具化了,而且明確希望超越器官。盡管莊子非常富有想象力,但受制于彼時技術水平對人們想象力的限制,他仍未能徹底解構、取消器官。在西方,對人的本質最經典的表達可能是“人是理性的動物”這個命題。這里所討論的“超人”與人的本質(理性)完全兼容。雖然“超人”沒有了生理器官,但它變得無比理性。誰能否認它還是人呢?

一千年前,甚至一百年前,如果誰說人可以不要生理器官,而被改造為一個超越空間和時間且可以任意獲取和傳輸信號的芯片——“超人”,那他很可能被視作瘋子。但在當今,新技術的高速發展,如腦機技術進入臨床試驗;人工智能不僅能理解自然語言,還能有邏輯地回答人提出的許多問題……并且這些技術也呈現出組合的可能,從而使“超人”不再只是一種玄想,而成為一種技術可能。這意味著,人類的生物史或碳基史可能被人類自己中斷,一種全新的生命形態將誕生。

如何理解這種全新的生命形態? 可以說,這種全新生命形態的本質其實也是人類的毀滅,只不過是升級式毀滅。傳統式毀滅就是我們已知的物種消失。在不考慮彗星撞擊地球等自然事件的情況下,它可能因毀滅性戰爭或技術失控而發生。關于升級式毀滅,人們關注得似乎不多。升級式毀滅是指人類(個體)被改造為更高級的人類,如“超人”或電子人,但這種改造其實也是毀滅,其特征是:人類被改造為新人類,舊人類(目前的人類)的記憶所包括的信息量(及相應的信息質量)都可以轉移到新人類的“大腦”中,成為新人類的新記憶的一部分。但是,對于新人類來說,由于舊人類記憶中的信息量是一個常量,所以它作為分子的比例越來越接近0,因此這相當于舊人類死亡了。這猶如,一個人兩三歲就有記憶了,但幼年的記憶在人生記憶中的比例很小。至于我們是否支持這種改造是一個價值判斷問題,這里只需要明白一個事實判斷:這種改造是對舊人類的另一種毀滅,舊人類(的信息)看似存在,其實可以忽略不計。

對這一巨變,人類將如何面對和選擇呢? 是樂見還是恐懼? 是迎接還是拒絕? ——我不能回答。

生成式人工智能的創新潛能:三個誤解及其衍生問題

曾 軍

(上海大學 文學院,上海 200444)

收稿日期:2023-12-10

作者簡介:曾軍(1972—),男,湖北沙市人,上海大學文學院教授、博士生導師,主要研究方向:文藝學和文化理論與批評。

人類進入“數智時代”的標志性事件就是人工智能的創新潛能的釋放。經過一年多的喧囂與騷動、震驚與迷茫的“百模大戰”[1],人們對基于大模型的生成式人工智能(以下簡稱“生成式AI”)的認識開始逐漸回歸理性。因此,有必要對在此過程中出現的對生成式AI創新潛能的各種誤解進行重新辨析,以便能夠更加清晰地明確人工智能創新的發展方向。

在評估生成式AI創新潛能時,我們至少應遵循以下三個重要標準:其一,關注其“創造性”,即AI具有能夠創意、創意及其表現的能力。這主要評估其在多大程度上能夠打破傳統的框架,實現從無到有、人無我有的創造。其二,考察其“準確性”。即指AI在人機互動、輔助生成的過程中,能夠準確實現用戶的創新意圖,并根據提示詞生成符合預設創新效果的能力。這種準確性是衡量AI能否有效協助用戶完成創新的關鍵因素。其三,關注其“自主性”。這指的是AI在創新過程中能夠降低或減少人工干預的程度,實現一鍵生成的能力。這種自主性體現了AI在創新中的獨立性和自主決策能力。

以此三個標準來衡量,這一年多時間里至少出現了三種關于生成式AI為代表的討論人工智能創新潛能的誤解。

第一種誤解是“弱智論”。持有這種觀點的人認為,當前基于大模型的生成式AI的創造能力不足,只是一門小兒科的技術。它只會說一些車轱轆話,或者只會說“正確的廢話”。導致這種觀點形成的原因,一方面很可能是由于用戶自身操作能力的不足。他們可能沒有充分了解和掌握生成式AI的運作機制和使用方法。的確,在人機互動、輔助生成的過程中,提示詞作用非常重要。用戶的提示詞既要能反映用戶對生成內容的精確預期,還要采用符合機器語言能夠準確理解的自然語言表達習慣。否則,在使用過程中遇到困難時,就很容易產生“機不如人”的看法。另一方面,盡管生成式AI在某些方面的表現可能不如人類,但在自然語言生成、對話生成等領域,尤其是生成式AI在處理大量數據、提取信息等方面,具有人類無法比擬的絕對優勢,并且已經展現出了超越人類的能力。因此,當前生成式AI的“弱智”只是局部性的,而非整體性的。

第二種誤解是“天才論”。持此觀點者認為,生成式AI具備超強的內容生成能力,可完全替代人類的創造性工作。這種觀點源于人類對人工智能超能力的恐懼。當機器在某些方面展現強大能力時,人們一定會感到不安,而且容易將當前人工智能技術發展的初級階段與科幻文學、科幻電影中的超級人工智能想象相混淆。雖然生成式AI在執行各種復雜任務,甚至在某些方面超越人類的表現,但在創造性方面,其局限性仍然明顯。首先,生成式AI的“創意”主要源自用戶,正是用戶將自己的理念、創意以提示詞的方式提供給生成式AI,才有可能實現符合用戶預期的內容生成。因此,人類的想象力、創造力、情感等特質仍然占據主導地位,生成式AI僅扮演實現創意和賦能創新的角色。其次,生成式AI的“創造”僅能模仿人類已有的經驗和能力。盡管AI可以模仿某些藝術風格并生成令人驚嘆的畫作,但無法如人類藝術家一樣,從自身的情感、經歷和感受中汲取靈感,創作出真正具有獨特風格和深刻內涵的作品。換言之,因為生成式AI的內容生成能力主要來自利用人類已有文化形成的數據所進行的預訓練,因此,只是“人類經驗的向量化”①“人類經驗的向量化”是指在大語言模型的預訓練過程中,承載著人類文明基因、文化內涵和實踐經驗的數據轉化為數以億計的參數,以向量的方式被保存在大語言模型之中。相關問題的討論將在拙文《優化:人工智能時代的文論問題》(待發表)中充分展開。。其創新的邊界局限于人類文化的范圍,其表現出的創新程度只是相對于作為個體的用戶而言的“不知”和“不能”。最后,生成式AI在處理復雜問題、解決棘手難題、進行深度思考等方面,仍需用戶的規劃、輔助和限制。因此,盡管AI在某些方面表現優異,但無法完全替代人類的智慧和創造力。

第三種誤解是“均值論”。持這種觀點的人認為,生成式AI只能達到人類能力的平均水平,因此它可以被視為一種能夠輕松勝過普通人的工具,但距離創造性活動仍有相當長的一段距離。這種觀點在一定程度上是可信的。因為它真實反映了當前的大模型在預訓練階段通過人類已有的文本、圖像、視頻、音頻、行為等數據作為訓練材料這一問題。然而,這種觀點也忽略了一些重要的問題。一方面,盡管生成式AI在某些方面能夠達到人類能力的平均水平,但在處理更為復雜和多變的任務以及理解上下文等方面的能力還有待提高。例如,盡管AI可以生成逼真的圖像或文本,但它們通常無法像人類一樣理解和解釋這些信息的深層含義和上下文。這就像一個學生通過抄襲達到了作業的平均水平,但他可能沒有真正理解作業中的問題,更沒有掌握相關的知識。另一方面,這種觀點也沒有考慮到生成式AI在使用過程中可能會出現的一些問題。如已有研究表明,大模型在使用過程中已經出現“變懶”和“變笨”的某些特點。所謂“變懶”就是大模型在響應人類提出的目標、任務過程中,會有意識地簡化步驟、遺漏關鍵信息,甚至出現不愿意遵循指令、持有角色身份等現象。所謂“變笨”就是GPT4并沒有像人們想象的那樣越來越“聰明”,相反出現了很大的表現漂移(drifting)、性能偏差和反應退化[2]。因此,這一“均值”可能也只是表明,生成式AI的創新潛能遵循大概率的正態分布的規律。隨著時間、空間、情境的變化,其內容生成能力也會出現上下的波動,具有不確定性和不穩定性。

進一步而言,“均值論”這一觀點存在于一個重要前提,即生成式AI這一大型模型是相對封閉、穩定且不會自動實時更新的。換句話說,所提及的“均值”實際上僅存在于大模型的預訓練階段。如果生成式AI不聯網,不利用開放使用過程中的內容生成數據來更新訓練和進行模型迭代升級,那么這一“均值”將保持相對穩定。然而,一旦模型開源且數據開放,生成式AI就有可能具備自我訓練、自我學習和自我升級的能力,其創新潛能也將持續提升。因此,我們有必要將關注點主要放在“均值論”問題上,進一步探討在生成式AI的使用過程中,人機互動的能力增強、升級迭代過程中的能力提升以及新的通用人工智能技術可能帶來的自主性提升問題。如果生成式AI實現了這三種能力增強,那么它是有可能提高在預訓練階段達到的正態分布的“均值”的?;蛘吒鼫蚀_地說,雖然大模型的算法仍然會遵循正態分布的規律,但因為總體能力的提高,其“均值”的絕對值將會不斷獲得提升。生成式AI的創新潛能也隨之會水漲船高。

首先看“人機互動中的能力增強”。它指在使用生成式AI時,用戶可以通過提示詞更加個性化地定制所需功能,明確目標任務和預期實現的效果。這種方式能夠提高用戶與生成式AI交互的效率和準確性,基于人工智能技術的不斷發展,使得生成式AI能夠更好地理解和響應用戶的意圖和需求。因此,用戶可以更加自信地使用生成式AI,從而更好地發揮其創新潛能。

其次看“升級迭代中的能力增強”。它指AI架構師對生成式AI的全面優化,包括算法、設計、結構以及神經網絡等方面,以實現其性能的持續提升。這不僅要求對生成式AI的硬件和軟件提出更高標準,還需要在多個層面獲得創新突破。在算法優化方面,AI架構師致力于改進生成式AI的算法,以提升生成內容的精確性和效率。這涵蓋了算法的改良、數據集的優化以及模型訓練過程的完善等多個方面。設計優化方面,AI架構師關注改進生成式AI的設計,以更好地滿足用戶需求并提升用戶體驗。這包括模型結構的改進、輸入輸出接口的設計以及交互方式的優化等。結構優化方面,AI架構師致力于優化生成式AI的結構,以提高其效率和可擴展性。這可能涉及模型結構的改進、并行計算的設計以及內存管理的優化等。在神經網絡優化方面,AI架構師關注改進生成式AI的神經網絡,以增強其表現力和泛化能力。這可能包括網絡結構的改良、激活函數的選取以及對優化算法的選取等。通過這些綜合性的優化措施,AI架構師能夠不斷提升生成式AI的性能和能力,以更好地服務于各種應用場景。

最后看“新的通用人工智能技術”。嚴格來說,當前的生成式AI只是通用人工智能技術的一種,除此之外還有其他多種技術也可被用于實現通用人工智能。例如,強化學習是一種通過讓AI系統在環境中進行實踐和學習從而不斷提高自身性能的技術。這種技術可用于實現自動駕駛、機器人控制等領域。生成對抗網絡(GAN)則是一種通過兩個神經網絡之間的對抗來生成高質量數據的AI技術。這種技術可用于圖像生成、語音合成等領域。自編碼器則是一種通過無監督學習來學習數據分布和生成數據的AI技術,它可用于數據降維、數據壓縮等領域。此外還有諸如貝葉斯網絡、決策樹等其他一些技術,也具有可被用于通用人工智能實現的可能。它們各具特點和優勢,也可用于不同的應用場景。例如,貝葉斯網絡可用于進行概率推理和決策分析,決策樹則可用于進行分類和回歸分析。在實現通用人工智能的過程中,大模型只是其中的一部分。Chat GPT 和文心一言之所以“出圈”,引發整個社會的密切關注,其主要原因是實現了自然語言與機器語言的實時交互,極大地降低了用戶的使用門檻,從而有可能實現開發者的“萬眾創新”①“萬眾創新”一詞來源于2015年時任國務院總理李克強在政府工作報告中提出的“大眾創業,萬眾創新”。。

從人工智能技術發展的階段來看,以Chat GPT、文心一言等為代表的生成式AI大模型正處于從“專家人工智能”(GAI,Expert artificial intelligence)向“通用人工智能”過渡的階段。它們只能說已經具備了走向通用人工智能的雛形。這些模型已經能夠執行特定的任務,并且可以隨著數據的增加和模型的改進而進一步提高性能。在人機交互、輔助生成的過程中,人工干預能夠實現對“項目”的任務分解,并且規劃制訂嚴謹完善的任務執行方案,從而讓大語言模型實現更為復雜的創造性任務。因此,AI的創新潛能將會隨著從專家人工智能到通用人工智能再到超級人工智能的技術演進而獲得不斷提升。

從這個意義上說,擺脫單一任務型專家人工智能的束縛,邁向多線程任務實現的項目型通用人工智能的發展階段,已成為人工智能技術演進的重要方向。谷歌于2023年12月6日發布了一款名為Gemini的大模型。該模型的設計原理與ChatGPT 相同,均基于Transformer架構。然而,在預訓練環節上,Gemini引入了多任務學習機制和無監督學習方法,實現了文本、音頻、圖片、視頻、代碼等多模態的同時訓練,而不是像GPT 那樣分別訓練各模態,再組裝整合的模式。這種創新型的訓練方式使得Gemini在理解和執行任務的準確性方面有了顯著的提升。相較于ChatGPT、文心一言等模型,Gemini的訓練方式獨具特色。ChatGPT 和文心一言等模型主要基于“任務型”訓練,即首先訓練特定任務的“專家人工智能”(GAI,Expert artificial intelligence),然后進行整合與提升。Gemini則從一開始就采用多模態、綜合性的“項目”訓練方式,致力于發展為“通用型”。這意味著Gemini不僅局限于處理特定任務,還能處理各種不同類型的數據和任務,展現出更廣泛的適用性和靈活性。通過這種訓練方式,Gemini能夠更好地理解和處理各種類型的數據,包括文本、圖像、音頻等。它可以在不同領域和場景中應用,如自然語言處理、圖像識別、語音識別等。這種廣泛的適用性和靈活性使Gemini有望成為真正的通用人工智能,為人類帶來更多便利與創新。

雖然這一效能的提升還有待檢驗,甚至有新聞說谷歌存在偽造欺騙的嫌疑[3],但是,可以肯定地說,我們正見證著一場更為深遠的變革。即使沒有Gemini,也會有其他的生成式AI有望進一步增強其“通用性”能力。

從更大的尺度來看,諸如Gemini這類的生成式AI很可能仍然只是屬于“專家型”的人工智能。也就是說,它仍然只能完成特定領域或任務。這就好比一個領域的專家,在自身專業領域內具備深厚的理論知識和實踐經驗,能夠高效地解決各種問題。與人類專家相比,Gemini這類的生成式AI的能力仍然存在較大的局限性。它只能在特定領域或任務中表現出色,無法做到全才或通才。從人類意識的認知結構“知情意”來看,Gemini這類的生成式AI仍然只能完成“認知”中的部分“感知”能力的任務。這意味著它還需要不斷地改進和升級,以實現更廣泛的應用和更高級別的智能化。具體來說,一方面,Gemini這類的生成式AI在處理人類多模態數據時展現出了強大的能力,比如在處理圖像、音頻、視頻等多種類型的數據時,能夠迅速地提取關鍵信息并給出相應的回應。但是,它還無法像人類一樣擁有全面的感知和認知能力,比如在情感認知、倫理判斷等方面還有很大的提升空間。另一方面,Gemini這類的生成式AI的智能化水平還需要不斷地優化和提高。雖然它能夠在特定領域或任務中表現出色,但是面對復雜多變的問題時,它可能會出現無法應對或處理不當的情況。因此,我們需要不斷地對Gemini這類的生成式AI進行改進和升級,提高它的智能化水平,以使其能夠更好地適應各種復雜的問題和場景。

以上對基于大模型的生成式AI的創新潛能的分析還只是基于現有階段技術實現程度的非常粗略的評估和分析。隨著人工智能技術的突破,尤其是未來出現更多的非大模型的更加通用的人工智能技術,人工智能的創新潛能將會進一步釋放。人工智能創新能力提升是否一定會帶來人類自身創新能力的弱化? 人工智能技術自主性的增強是否一定會導致對人類創新活動的替代? 經由人工智能輔助生成的文化是否還可被視為人類文明的產物抑或衍生品? “數智時代”究竟帶來的是人類文明的生機還是危機?所有這些問題可能存在仁者見仁、智者見智的不同聲音。但是有一點可以相信,隨著人工智能創新潛能的提升,人類將不得不與人工智能一起學習、生活和工作,進而邁向人機協作的“新人文”時代。

猜你喜歡
數智器官人工智能
“數智”視域中蘇南蒲岸村微濕地公園公共設施情感化設計研究
這些器官,竟然是你身上的進化殘留
器官也有保護罩
路安炎:按下中國造紙業“數智轉型”啟動鍵
網安天下擔使命數智引領向未來"雙引擎"驅動現代警務創新人才培養(計信系攝影報道)
鄉鄉鎮鎮通5G”建設助力山西“數智”轉型
類器官
2019:人工智能
人工智能與就業
數讀人工智能
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合