?

人工意識的兩難及其出路

2023-12-19 09:53王華平

王華平

摘? ?要: 人工意識是對被確認為人類意識現象的那些方面的模擬或實現。據其目標與意識的形而上學,人工意識可分為強弱兩種。弱人工意識旨在設計和建構模擬意識的機器,強人工意識則力圖設計和建構有現象意識的機器。人工意識面臨一個兩難困境:弱人工意識放棄意識的核心部分,無助于從根本上提升人工智能的性能,因而非常地局限。強人工意識則囿于現有概念框架,不可避免地陷入“中間層謬誤”,要實現強人工意識就需要構建一個新的概念框架。就目前而言,泛心論與錯覺論是兩個可行的選擇。錯覺論,更具體的,意識的注意圖式理論,是人工意識擺脫兩難困境最有希望的出路。

關鍵詞: 人工意識;難問題;泛心論;錯覺論

中圖分類號:TP18? ?文獻標識碼:A 文章編號:1004-8634(2023)06-0103-(11)

DOI:10.13852/J.CNKI.JSHNU.2023.06.011

人工意識(Artificial Consciousness),有時又稱機器意識,是對被確認為人類意識現象的那些方面的模擬或實現。這項工作受到了兩方面的激勵:一是借助它提升未來人工智能的性能,制造出人類水平的機器人;二是通過它加深對人類意識及其與認知關系的理解。盡管人工意識發展迅速,但目前為止仍屬于前范式的異質領域。正如加梅茲(David Gamez)所指出的,一些人感興趣的是與意識相關的行為,另一些人則致力于模擬意識的認知特征,還有一些人試圖賦予機器以現象狀態。1 人工意識領域的異質性為其增添了無以復加的活力,但同時也帶來了難以消弭的混亂,而在混亂的背后,隱藏著一個更為深層的人工意識兩難。這個兩難就是,當人工意識被看作純粹模擬時,它喪失了意識的核心部分,因而非常局限。而當人工意識被當成對意識的實現時,它會陷入“中間層謬誤”(Intermediate Level Fallacy)。要擺脫兩難,就要重塑人工意識的概念框架。就目前而言,泛心論(Panpsychism)與錯覺論(Illusionism)是兩個可行的選擇。文章將論證,錯覺論,更具體的,意識的注意圖式理論,是人工意識擺脫兩難困境最有希望的出路。

一、人工意識

人工意識與人工智能有差不多長的歷史。20世紀40年代伊始,特別是1943年第一臺電子計算機“巨人”(Colossus)誕生后,當時的學界和社會圍繞機器能否思考或具有心靈展開了大量討論。人工智能之父圖靈(Alan Turing)覺得這些討論所涉及的“思考”“心靈”“意識”等心理概念含混不清,缺乏意義,于是提議用“模擬游戲”,即我們今天所說的“圖靈測試”來充當人工智能的標準。1 其基本想法是,假如機器在執行任務時表現得與人一樣好,那么人們就應該承認它與人一樣擁有智能。圖靈測試一經提出,便引來熱議。由此產生的一個積極結果是,圖靈測試事實上為襁褓中的人工智能贏得了尊重——正是由于避開了主觀經驗這類難以處理的問題,人工智能才得以被科學地對待。

早期人工智能的迅猛發展曾一度使人們很樂觀。明斯基(Marvin Minsky)在1970年說道:“不出三到八年,我們就可以擁有人類平均水平的通用智能機器?!? 可事與愿違,十幾年后人工智能做的事仍然非常少。萊特希爾(James Lighthill)在其著名的報告中失望地寫道:“這個領域到目前為止所做的發現完全沒有產生之前所承諾的重大影響?!? 預期的反差迫使人們思考,人工智能到底缺失了什么?所給出的建議有很多,包括理解、創造力、人格、學習、自由、直覺、道德、身體等。然而,這些建議項似乎與智能缺乏內在聯系。比如,沒有理解就沒有智能嗎?似乎并非如此。一個小孩對身邊的許多事物缺乏理解,但他在與它們打交道時卻表現出了明顯的智能。

正是在這樣的反思中,意識重回人工智能的視野。一些人開始認識到,智能可能離不開意識。一個明顯的事實是,假如人沒有了意識,他與智能相關的各項能力都會嚴重受損。80年代中期,豪格蘭德(John Haugeland)在其頗有影響的專著中拋出了一個意味深長的問題:“意識是埋在AI腹部滴答作響的理論定時炸彈嗎?”4 80年代末,安杰爾(Leonard Angel)出版了一本名為《如何建造有意識的機器?》的專著,拉開了人工意識的序幕。90年代,在以埃德爾曼(Gerald Edelman)和克里克(Francis Crick)為首的一批科學家的努力下,意識終于成為科學的合法研究對象。受意識科學的激勵,在20、21世紀之交,一些人開始致力于用機器來模擬或再現意識,此即人工意識。

從20、21世紀之交到現在,人工意識歷經20余載,但目前仍處于異質的前范式階段。加梅茲富有啟發地將眾多異質研究歸并為以下四類:

(MC1)具有意識相關的外部行為的機器;

(MC2)意識相關物模型;

(MC3)意識模型;

(MC4)具有意識的機器。5

MC1是圖靈測試的直接產物。它類似于哲學中的贊比人(Zombie),6 盡管表現出與意識系統相關的外部行為(例如情境對話、玩游戲、思考),但卻沒有內部意識。有很多這樣的機器被建構出來,比如第一個人工意識大項目系統CRONUS,IBM的Watson。MC2屬于意識的計算相關物,即與意識而非無意識相關的最小計算機制。由賀蘭德(Owen Holland)領銜開發的CRONOS機器人是MC2的杰出代表。MC3是對意識的模擬。索尼的AIBO狗機器人、切拉(Antonio Chella)設計的Cicerobot很好地模擬了意識的某些特征,但并不具有真正的意識。MC4是真正擁有意識的機器,可以和人一樣沉浸于色彩、味道和聲音的世界中。MC4是人工意識的最高目標。

不同的研究路線反映了不同的研究策略。更深層地,卻是隱藏在背后的對人工意識的不同理解。人工意識中的“人工”是什么意思?是“人工植物”中的“人工”?還是“人工心臟”抑或“人工光源”中的“人工”?如果是第一種,那么人工意識就只是讓機器看起來有意識但實際上并沒有。如果是第二種,那么人工意識就是讓機器具有意識的功能,就如同人工心臟具有泵血的功能一樣。如果是三種,那么人工意識就是真正的意識,就像“人工光源”就是光源一樣。

更復雜的,“意識”又是什么意思?“意識”,正如哲學家和科學家所普遍認識到的,是個混雜概念。有時,我們用它來指有感覺的生物體處于警醒狀態。稱這樣的意識為生物意識(Creature Consciousness)。有時,它被用于刻畫某個心理狀態,以區別于那些無意識的心理狀態。稱這樣的意識為狀態意識(State Consciousness)。1 有時,我們用它來指生物體對自身的覺知(Awareness)。稱這樣的意識為自我意識(Self-consciousness)。有時,我們用它來指經驗,即主體感知外部事物或自身狀態時的主觀感受。稱這樣的意識為現象意識(Phenomenal Consciousness)。還有的時候,我們用“意識”來刻畫心理內容被其他心理狀態廣泛利用的這一特性。稱這樣的意識為取用意識(Access Consciousness)。2 由于一個系統只要具有了后三種意識中的一種,它必然就會有生物意識與狀態意識,所以就意識的形而上學與人工意識而言,重要的是后三種。

在后三種中,最難理解的當屬現象意識?,F象意識是主體處于經驗時所感受到的“像是什么”(What it is like)的感覺,如被火燒時的灼痛感,看到樹葉時所產生的綠油油的感覺。這種感覺只有身在其中的主體才能體會,所謂冷暖自知也。這樣一種主觀的意識究竟是如何產生的呢?此即著名的“難問題”。3 與“難問題”相對的是只涉及認知能力與認知功能的“易問題”。對于“易問題”,我們只要給出發揮能力和執行功能的物理機制就可以了。但“難問題”不同,即使我們確定了現象意識得以實現的物理機制,仍然可以追問:為什么那樣的機制會產生出主觀的現象性質而不是純粹的客觀物理性質?對于這個問題,無論你給的答案有多么精細,你會發現,在物理與現象之間仍然橫亙著一個解釋的鴻溝。

基于以上澄清,可以在基本層面把人工意識分為強弱兩種。強弱人工意識的區分最初是由賀蘭德提出的——他將弱人工意識定義為,“設計和建構模擬意識或通常與意識相關聯的認知過程的機器”;強人工意識則是“設計和建構有意識的機器”。4 簡言之,弱人工意識模擬意識,強人工意識實現意識。但筆者認為這樣的區分并未切中肯綮。原因在于,按照上面的澄清,取用意識刻畫的是意識狀態的內容與其他心理狀態或認知系統的關系,因而是功能的。自我意識刻畫的是主體對自身狀態的覺知,同樣是功能的。而對功能的模擬同時也是實現,就像人工心臟對心臟的模擬同時也是實現一樣。這意味著,模擬與實現對取用意識和自我意識來說并無區別。但現象意識不同,它是狀態內的,它的本質在于它所是而非它所做(即它起到的功能),因而對它的模擬(屬于它所做)不同于對它的實現(屬于它所是)。所以,合理的區分應該是這樣的:一是弱人工意識:設計和建構模擬意識的機器;二是強人工意識:設計和建構擁有現象意識的機器。按照上述區分,MC1、MC2、MC3全都屬于弱人工意識。MC4則分為兩種:一是僅僅擁有非現象意識的機器;二是擁有現象意識的機器。前者屬于弱人工意識,后者屬于強人工意識。下文所說的強弱人工意識是基于筆者對其所賦予的意義,而非賀蘭德所提議的。

二、人工意識的兩難

現在我們知道,人工意識有強弱之分。需要指出的是,這樣的區分并非單純的類型學上的區分,而是基于意識本性的區分,因而是有規范力的。很明顯,如果現象意識不能還原為取用意識,那么強人工意識本質上就不同于弱人工意識;如果現象意識最終可還原為取用意識,那么人工意識就只能是弱人工意識。塞思(Anil Seth)是持后一種觀點的代表人物。他認為,人工意識應該關注“真問題”,而不是“難問題”。5 “真問題”是如何用生物機制來說明意識的特殊性質的問題。一旦“真問題”得到了說明,我們就可以用計算機來逐個模擬意識的特殊性質,從而通過不斷逼近的方式來實現弱人工意識。

目前正在進行的或業已展開的研究大都屬于弱人工意識。在眾多進路中,最具代表性的當屬全局工作空間模型(Global Workspace Models)。這個模型的理論基礎是意識的全局工作空間理論。該理論認為,互通的分布式大腦活動創建了一個全局工作空間,以致進入這個空間的心理內容可被廣泛用于或廣播到諸如感覺、運動控制、語言、推理之類的專門處理機制。專門處理機制通過競爭一旦獲取了全局工作空間的存取權,就可以向它發送或接收全局可用的信息。正是在專門處理機制與全局空間的整體互動中,意識經驗涌現了出來。1 有意思的是,全局工作空間理論的提出受到了早期IDA(分布式智能行動者)計算模型的直接啟發,現在卻反過來成了人工意識的一個重要理論資源。在這個理論的指導下,狄昂(Stanislas Dehaene)及其同事建構了一個神經全局工作空間模型。這個模型可以很好地模擬人類之于斯特魯普效應(Stroop Effect)的表現,2展現了人類執行無須意識的不費力的日常任務與需要意識的費力的受控任務的神經活動模式的區別。3

全局工作空間理論具有一系列優點。它的全局空間概念與認知科學對工作記憶的看法驚人得一致,如容量非常有限,需要競爭才能進入,一旦進入后就成為全局可用的,而工作記憶被認為與意識密切相關。4 此外,它還可以很好地解釋意識的統一性。當我們同時經歷兩種不同經驗時,如吵鬧和疼痛,我們不是分別經驗到吵鬧和疼痛,而是一起經驗到它們,好像它們是單個有意識經驗的兩個方面一樣。之所以如此,根據全局工作空間理論,是因為吵鬧和疼痛處在同一個全局工作空間中。這個理論甚至還可以為狀態意識提供一個解釋:一種心理狀態如果是全局分布的,那么它就是有意識的;如果是局域的,那么就是無意識的。

全局工作空間模型很好地例示了弱人工意識的優點和缺點。一方面,弱人工意識較好地模擬了意識的一些特征及其神經機制,取得了扎扎實實的成效。另一方面,它既無關于現象意識,也未能實現取用意識。全局可用性似乎并不足以充當取用意識的充分條件。一些與全局工作空間模型類似的多層神經網絡,比如神經黑板構架(Neural Blackboard Architectures),同樣具有全局分布的特點,但它處理的卻是潛意識水平(取用意識閥下)的低層信息。5 實際上,到目前為止,沒有一個理論能繞開現象意識對取用意識給出充分說明。盡管一些人,例如布洛克(Ned Block),認為取用意識與現象意識在形而上學上是獨立的;但另一些人,例如查默斯(David Chalmers),認為它們只是概念上可分而實際上并不可分。贊比人有取用意識嗎?這是個很難回答的問題。存在弱人工意識依賴于取用意識并在形而上學上獨立于現象意識這一預設。盡管這一預設并不先驗為假,但也很難論證它為真。

弱人工意識具有固有的局限性。就人類而言,沒有什么東西比現象意識更為重要了。我們品嘗痛苦、享受快樂,皆因我們有現象意識。沒有了現象意識,我們就會失去對世界與自身的所有感受,從而也就失去了精神生活。很難想象,對我們如此重要的東西是可有可無的。假如有一種方法可繞開現象意識而獲得有意識的存在者的所有好處,那么自然選擇為何會大費周章讓我們進化出現象意識?所以,如果機器不具有現象意識,那么它很可能會在某些重要的方面遜色于人。對以制造人類水平的機器為目標的人工智能來說,如果不能實現現象意識,那實際上就等于放棄了目標。阿勒克山大(Igor Aleksander)說得好:“那些運用根植于AI的全然是功能主義的方法的人至少必須解釋他們的模型在何種意義上包含現象世界,否則他們的工作就不被認為對機器意識的目標有所貢獻?!? 正如科什(Christof Koch)與托諾尼(Giulio Tononi)所堅持認為的,意識機器必然是現象地有意識的機器。7

強人工意識以實現現象意識為目標。相比于弱人工意識,強人工意識要困難得多,也有爭議得多。困難之一就在于,我們尚未找到一個測量意識的可靠方法。由此產生的一個可能后果是,即使我們造出了有意識的機器,我們也不知道它是有意識的。這個問題類似于傳統的他心問題。以圖靈為代表的一些人認為,既然這個問題在人身上也存在,那么人工智能也就不用擔心它。1 以施奈德(Susan Schneider)為代表的另一些人則認為,既然我們無法判定人工系統是否擁有意識,那么我們就應該明智地放棄強人工意識。2 相比這兩種極端觀點,多數人持溫和的中間觀,即應該繼續探究測量意識的可靠方法。中間觀的合理性就在于,一方面,沒有證據表明意識是不可測量的。另一方面,意識的測量問題并不同于傳統的他心問題。他心問題是我們在日常生活中何以歸于他人心理狀態這樣一個常識心理學問題,意識測量則是科學問題與工程學問題。要真正實現強人工意識,就得在科學和工程學上解決意識的測量問題。

比測量問題更麻煩的是意識的“難問題”。正如前面所提到的,“難問題”就難在,在物理的此岸與現象的彼岸之間始終橫亙著一條無法逾越的鴻溝。體現在人工意識中,就是功能與感受之間的鴻溝?,F代計算機是功能機,它通過算法來賦予硬件系統各種各樣的功能。功能是機器做事情的能力,可根據機器的輸入、輸出及其內部狀態來定義,是一種關系性質?,F象意識是主體處于經驗狀態所經歷到的主觀感受,是經驗狀態的所是,屬于非關系性質。功能與感受的本性決定了它們分屬不同的范疇??墒?,如果它們之間的鴻溝不能填平,那么在機器中實現現象意識就無異于望風撲影。

強人工意識研究可謂迎難而上。其中的一個典范性嘗試是??茖帲≒entti Haikonen)所提出的認知架構HCA。HCA利用感覺模塊的信號來表征所感知到的對象,通過將系統中的大量反饋和不同感覺模態之間交叉連接將所表征的對象的質性特征整合到運動空間中,從而產生意識相關的行為。值得一提的是,HCA還包含了情緒。比如,它有一個“疼痛”模塊,可以利用關于物理損傷的信息來激發縮回行為并重新定向注意力。在HCA中,語言是聽覺系統的一部分。借助語言詞匯與其他感覺模態的表征之間的聯系,覺象(Percepts)可以用語言的方式描述出來。??茖幷J為,當不同模態步調一致地合作并聚焦于同一對象時,覺象就會變為有意識的。3 根據??茖?,這樣一個系統如能按預期建構出來,那么現象意識也就在人工系統中得到了實現,從而強人工意識也就得到了實現。

但是,HCA以及它所代表的強人工意識進路并未解決“難問題”。原因就在于,HCA所說的“覺象”是曖昧不清的。在哲學中,覺象指通過運用感觀而獲得的關于對象的印象。印象,正如休謨所強調的,內在地具有強烈的現象性。HCA所說的“覺象”顯然不是這種意識,因為覺象的現象特征是通過被聚焦而外在賦予的。問題就在于,為什么不同模態步調一致地合作并聚焦于同一對象時,覺象就變成了有意識的?在這個問題得到解決前,HCA沒有資格說它實現了人工意識。

實際上,HCA所遇到的問題是它所代表的強人工意識進路普遍存在的問題。這個問題就是曼佐蒂(Riccardo Manzotti)和切拉(Antonio Chella)所說的“中間層謬誤”。4 謬誤的典型癥狀是,為了解釋意識和實現人工意識,一個中間層被引入。乍看起來,中間層起到了橋接解釋項和被解釋項的作用,但實際上卻徒增兩個新問題:中間層有何特征?它與現象意識有何聯系?在HCA中,覺象是中間層。它具有某種曖昧性,一定程度上能表明現象意識的質或量。但是,現象意識并未真正得到解釋,而是被稀釋為濾掉了現象性質的某種近似物,比如為不同模態所聚焦。通過稀釋,一個廉價的解釋得以提出。

對那些試圖直接回答“難問題”的理論或模型來說,中間層謬誤是不可避免的。這是因為,要直接回答“難問題”,就得找一個東西(即中間層)來填平解釋的鴻溝。于是行為、功能、覺象等紛紛被提出來。但一方面,如果中間層本身是有現象意識的,那么就會產生如何賦予中間層現象意識的問題,而這恰恰是強人工意識問題。另一方面,如果中間層本身沒有現象意識,那么它又如何產生現象意識呢?而這正是意識的“難問題”。所以,采取中間層策略的強人工意識是沒有出路的。

三、強人工意識與泛心論

現在我們明白了人工意識的兩難。這個兩難就是,當人工意識被看作是弱的時,它非常地局限;當人工意識被看作是強的時,它非常地困難。那么,人工意識還有出路嗎?要回答這個問題首先就得清楚它的根源,可追溯到自20世紀中葉物理主義范式確立以來所形成的關于意識的主流概念框架。這個框架一方面承認現象意識的主觀特征,另一方面又試圖將其納入物理主義世界觀。由于物理主義認為世界中的一切都是物理的,或者不超出物理的,所以,當我們試著用物理的(包括功能的,因為功能的實現者通常被認為是物理的)來解釋或實現現象意識時,不可避免地就會遇到“難問題”:客觀的物理事物究竟如何能產生出主觀的現象意識?因此,主流概念框架不可避免地會導致“難問題”。

如今,越來越多的人認識到,要實現強人工意識就要突破主流框架,構建新的概念框架。前耶魯教授麥克德莫特(Drew McDermott)曾做過一個問卷調查,詢問美國人工智能協會會員對“創造具有‘現象意識’的計算機或程序”這一問題的看法。結果顯示,在所有7個選項中,回答“需要新觀念”的最多,高達32%。1

新框架應能避開“難問題”,而要避開就要消除問題的根源?!半y問題”的根源是主流概念框架,而主流概念框架依賴如下兩個預設:實在性預設(R),意識是實在的;派生性預設(D),意識是由更為基本的東西產生的。顛覆這兩個預設中的任何一個,“難問題”就會煙消云散。近來強勢復興的泛心論否認預設(D)。泛心論認為,基本物理實體具有原初的意識特性,而我們的意識是它們的精致組合。2 泛心論有著古老的歷史,近來由于查默斯、斯特勞森(Galen Strawson)、戈夫(Philip Goff)等人的倡導而重新興起。新泛心論被認為與物理主義是相容的。物理主義主張一切都是物理的。然而,對于什么是“物理的”,它卻未能給出清楚表述。一種理解是,物理的就是物理理論所告訴我們的那些東西。3 而物理理論,正如羅素所指出的,只是根據世界的時空結構及其動力學來描述傾向性質(Dispositional Property),對于那些支撐結構與動力學的內質(Quiddities)并未做出斷言。泛心論由是宣稱,內質,或者說那些起到諸如質量作用、電荷作用的絕對性質(Categorical Property),是現象的。4 如此,泛心論就可以在不違反當代主流世界觀的情況下對意識給出一個解釋:我們的意識是由內在于物理實體的微意識以某種精致的方式組合而成的。這種解釋是非物理主義的,不會產生“難問題”。

如果泛心論是對的,那么,我們就可以通過以適當方式操縱物理實體的方法來實現人工意識。適當方式的意思是,它能使內在于物理實體的微觀意識組合成宏觀意識。問題是,能找到這么神奇的操縱方式嗎?托諾尼及其同事宣稱,他們已經找到——它就是信息整合理論(Information Integration Theory,縮寫為“IIT”)。IIT不同于其他科學理論,它首先從意識經驗的本質現象性質出發,然后推斷出意識的物理基礎所必備的特征。托諾尼稱前者為公理(Axioms),后者為公設(Postulates)。在此基礎上,托諾尼及其同事推演出了一個評估意識的質和量的數學框架。5 略去細節,其核心主張可概括為:在最基本層面,意識是整合信息;它的質由不同要素所組成的復合體所產生的信息關系確定,它的量由復合體的φ值確定。復合體的φ值可依據它所有可能的分區的輸出信息之間的相互影響程度計算出來。φ值大小決定了意識的水平。由于簡單的物質也有一點點φ值,所以,“根據IIT,經驗甚至不只是限于生物體,還有可能延伸到之前被認為是無心靈的非演化的物理系統”。1 這與泛心論不謀而合。

托諾尼聲稱,根據IIT,一個具有與大腦相似的連接與動力學的神經形態電子設備具有意識,因為它與大腦一樣具有高φ值。2 所以,實現人工意識的關鍵是賦予系統高φ值。依據IIT,加梅茲設計了一個機器人視覺系統神經控制器。他先讓這個控制器接受訓練,然而根據φ值算法對信息整合在其網絡中不同區域的分布進行計算,以評估這個系統的哪些單獨部分可被認為是有意識的。3 加梅茲發現,由于托諾尼及其同事所給出的算法需要考慮的參數太多,因而計算任務極其繁重,如果直接用它來計算則需要109000年!他開發出一個有效的近似算法,刪除了原算法中在此情形不適合的部分。計算結果出人意料地表明,系統中涵蓋全部“抑制區域”與大部分“情感區域”的91個神經元以及其他區域的少數幾個神經元具有最大φ值。按照信息整合理論,可以認為這些神經元是有意識的。這個斷言與最近的一些經驗發現驚人地一致。在加梅茲的神經系統中,91個高φ值的神經元充當的是選通回路(Gating Circuit)。越來越多的認知科學證據表明,選通是工作記憶非常重要的認知控制機制,而工作記憶被認為與意識密切相關。4

正如我們所看到的,人工意識的IIT進路取得了一定成果。但它面臨不可忽視的重大理論挑戰。挑戰之一是將意識等同為φ值,這突破了意識的常識概念。IIT認為任何具有高φ值的系統都具有,但系統的φ值可以通過一些簡單的方法建構出來。比如,一個n×n方格排列的XOR門網絡可以產生[√n]φ的值,通過增加n值,我們可以產生任意大的φ值。5 結果,一個簡單的網絡可以擁有不亞于人的意識。這非常反直覺。然而,托諾尼爭辯說,常識并不能駁倒IIT,因為IIT就是要超越常識給出一個意識的基本理論。對IIT來說,XOR門方格的意識不是其反例而是正確預測??墒?,如果這樣的話,就不會有任何東西對IIT構成反例,從而IIT就淪為普波爾(Karl Proper)所說的那種永遠不能證偽的理論。

更大的挑戰來自IIT的泛心論承諾。托諾尼曾以自詰的口吻說道:“此立場與認為宇宙中的一切都具有某種意識的泛心論觀點有多接近?無疑,IIT蘊含了只要是包含了能在不同選項間進行選擇的某種功能機制的諸多實體皆具有某種程度的意識?!? 按照IIT,簡單如二態光電二極管那樣的實體,也有“一丁點”意識。但二極管的意識必定不是我們所感受到的那種意識,否則IIT將無比瘋狂。那么,如何解釋兩種意識之間的差異呢?按照泛心論,這些宏觀意識都是由微觀意識或原型意識組成的,構成它們的微觀實體的數量或組合方式的不同決定了宏觀意識的不同??墒?,數量或組合方式的不同究竟如何導致了宏觀意識的不同?請注意,訴諸φ值或內在因果關系是無助的,因為它們是組合方式的宏觀體現,構不成微觀解釋。這個問題難就難在我們無法用科學來回答??茖W,按照泛心論最初的區分,只是研究傾向性質,而意識涉及的是絕對性質。既然意識已經被先驗地歸入科學所不能觸及的異域存在,那么,不但意識的科學研究是不可能的,而且人工意識的研究,即使可能的話,也是不科學的。

此外,泛心論還存在與上述問題相關的組合問題。組合問題是一個系列的問題,比如,微觀意識主體如何組合一起產生出宏觀主體?微觀現象性質如何組合一起產生出宏觀現象性質?微觀經驗結構如何組合一起產生出宏觀經驗結構?7 正如查默斯所指出的,這些問題都是很難回答的問題。以第一個問題為例。我們知道,意識總是為主體所擁有,至少我們的意識是如此??墒?,像你、我這樣的宏觀意識主體究竟是如何從一堆微觀意識主體產生出來的呢?給定任何數量的微觀主體,原則上總有可能不會產生任何新的主體。而且,作為宏觀主體的我們,也從未覺知到任何微觀主體。當然,泛心論的支持者不會束手就擒,他們對組合問題給出了令人欽佩的回答,1 使得形勢愈加復雜。也許,這就是哲學與科學的不同。在哲學中,很難找到一個類似于科學中的判決實驗的東西,以致能夠一錘定音地擊敗一個理論。但無論如何,在基本實在層面假定意識的存在似乎不太合理。至少,這不符合“奧康剃刀原則”,也不符合“祛魅”的當代科學世界觀。筆者的觀點是,在沒有確定是否有其他出路之前,最好不要將泛心論當成最佳選擇。

四、強人工意識與錯覺論

泛心論與主流概念框架有一個共同點,即接受實在性預設(R)。不同的是,泛心論放棄了派生性預設(D),試圖以此消解“難問題”。但是,正如我們所看到的,泛心論以及基于其上的IIT進路并非理想的出路。這讓我們想到另一種可能的出路,即放棄預設(R)。放棄預設(R)等于放棄了對意識的解釋。這是因為,一個不真實的現象是無須也無法解釋的——它只能被解釋掉(Explain Away)。解釋掉一個現象就是通過解釋而摒棄那種現象,它的一個突出特點是否定了被解釋項的實在性。比如,對于太陽東起西落這一現象,地心說試圖去解釋它——它是由太陽圍繞地球的轉動引起的;日心說則試圖將它解釋掉——太陽既沒有升起也沒有落下,而是地球的運動造成了這樣的錯覺。類似地,將意識解釋掉,意味著將意識看作像太陽東起西落一樣的錯覺現象。這個觀點被稱為意識錯覺論。

意識錯覺論初看起來十分荒謬。這個世界還有什么比意識更為真實呢?難道痛不就是我感覺到痛嗎?錯覺經驗不也是經驗嗎?盡管經驗內容是可懷疑的,比如說所看到的是毛線團還是貓,但經驗本身是不可懷疑的。用笛卡爾的話來說,經驗是自明的,屬于不可懷疑的“我思”。這種思想即使在當代也是根深蒂固,如塞爾(John Searle)就說:“就意識而言,現象的存在就是實在。如果在我看來確實像是我具有有意識的經驗,那么我就具有有意識的經驗?!? 在接受這種思想的人看來,錯覺論是“瘋狂的”“荒唐的”“明顯錯誤的”“自毀的”“不融貫的”。類似的指責有很多,但是,這樣的指責與其說是對意識實在論的辯護,不如說是對錯覺論的誤解。

誤解之一是認為錯覺論“否認顯明”(Deny the Obvious)。實際上,錯覺論并不否認作為錯覺的意識現象的存在,就像日心說不會否認太陽看起來東起西落一樣。它否認的是,意識所呈現出現的現象性質不存在,就像太陽看起來東起西落所暗示的事實不存在一樣。顯然,一個東西看起來像是什么,與它實際上是什么并不是一回事。丹尼特(Daniel Dennett)第一次注意到,這個原則對經驗本身也適用。他指出,意識向主體顯示自己,只是意味著意識狀態在主體看來具有現象性質,但這并不意味著意識狀態真的具有它向主體顯示的那些現象性質。3 這就好比,一部計算機向我們呈現出圖形界面,并不意味著計算機就真的擁有那個界面。正如那個界面不過是計算機的信息狀態經屏幕的投射讓我們產生的錯覺一樣,意識也有可能是大腦的信息狀態經內省機制解釋讓大腦產生的錯覺。

誤解之二是將錯覺論與取消論(eliminativism)混為一談??剖卜浅7锤蟹菍嵲谡?,他批評道,意識不是實在的就像科塔爾綜合征(Cotard syndrome)患者否認他自己是活著的一樣,是“科塔爾綜合征的形而上學對應物”。當他這么批評時,他指責的是“將經驗實在性的大眾信念看作是樸素假說”這樣一種取消論觀點。4 取消論將意識存在的信念看作理論錯誤,就像燃素斷言燃素存在一樣。并且,這種錯誤在得到澄清后是可以被取消的,就像今天的化學完全放棄了燃素說一樣。但錯覺論認為意識錯覺源自大腦的內省機制,是不可取消的。這就好比穆勒-萊耶爾錯覺(Müller-Lyer Illusion),即使我們知道兩條線段是一樣長的,它們看起來也仍然是一長一短。同樣,即使我們知道意識是錯覺,但在我們看來也仍然是那么真切。所以錯覺論與常識并無直接沖突。

一些人可能會反駁說,如果錯覺論是對的,那么我們根本就沒法獲得對世界的正確理解,從而也就認識不到意識是錯覺。實際上,錯覺論并不認為意識經驗不能可靠地表征任何性質。它否認的只是經驗中的現象性質,即那種“像是什么的東西”,是一種錯覺。經驗表征的實際上是“準現象性質”(Quasi-phenomenal Properties)。準現象性質是非現象的物理性質,它通常會讓內省誤表征為現象的。1 比如,準現象的紅性(Redness)就是通常會引發現象紅性的內省表征的物理性質,即紅色物體的表面性質。錯覺論并不否認經驗可以可靠地表征準現象性質,而且,它也不否認取用意識。它否認的只是現象意識,而這并不妨礙我們對世界的認識。

從科學的角度看,錯覺論不但是可能的,而且是合理的。當代認知科學的一個重要共識是,意識發生于大腦的信息處理過程。這一點,就連像查默斯這樣的泛心論者也同意。錯覺論認為,是大腦的信息處理過程制造了意識錯覺。假如錯覺論是對的,那么,意識研究的核心任務就不是解釋信息處理過程能否產生出意識現象,而是解釋它如何制造出意識錯覺,此問題被稱為錯覺問題。對于錯覺問題,錯覺論者給出了諸多答案。例如,雷(Georges Rey)認為是一種錯誤的推理投射機制;2漢弗萊(Nicholas Humphrey)認為是大腦內部的一種“魔術表演”機制,它的作用是給予生物體生存的興趣。3

筆者認為,對錯覺問題最合理的回答是意識的注意圖式理論(Attention Schema Theory, 縮寫為“AST”)。AST的合理性至少有以下三點:第一,它對錯覺問題給出了具體的而非隱喻式的說明;第二,它很好地說明了意識的生物功能;第三,它很好地解釋了意識的現象學本質。

先看第一點。根據AST,復雜神經系統為應對信息輸入過多的問題,進化出一種以犧牲其他信號為代價而對特定信號進行深度處理的方法,即注意。為了控制注意,大腦進化出一個關于注意的簡略模型,即注意圖式。出于響應速度的需要,注意圖式包含了注意的移動、強度變化及其動力學信息,卻省略了注意的實現機制與控制機制信息。當大腦的內省機制提取注意圖式、注意對象的模型以及自我模型中的信息時,它就得到了一個歪曲的描述:“我覺知到了一個東西,那個東西呈現出紅紅的樣子?!? 受注意圖式的誤導,大腦遂產生了意識的錯覺。實際上,大腦中發生的只是一系列信息處理過程。5 這個過程完全是物理的,可以在機器中實現。

再看第二點。我們都知道,意識是一種生物現象。但意識究竟有什么樣的生物功能?它又是如何進化出來的?這兩個問題為多數意識理論所忽視。AST可以給出很好的回答。首先,意識的生物功能就是注意圖式的生物功能,即通過追蹤、預測他人的注意和控制自己的注意來及時控制行動。所以,動物在清醒時(即具有生物意識)反應迅速,而在睡著或昏迷時反應遲鈍。其次,意識是伴隨著注意的進化而進化出來的。這與進化生物學的證據高度吻合。6 證據表明,海綿在約7億年前分化出水螅。水螅擁有已知最簡單的神經系統,對任何刺激都做出全身反應。大約在6億年前,節肢動物出現。節肢動物的眼睛可以增強視覺邊緣的相關信號的強度,同時抑制其他視覺信號,從而生成世界的大致輪廓圖。到了寒武紀大爆炸時期,魚類和兩棲動物進化出頂蓋。頂蓋具有建構注意圖式的能力,可以對外顯注意進行控制。大約在3.5億年前,爬行動物進化出視丘(Wulst)。視丘在哺乳動物中進化成了大腦皮層。大腦皮層能建構非常精巧的注意圖式,可以控制內隱注意。從節肢動物到人類,意識的程度與注意的進化是同步的。

最后看第三點。我們知道,意識具有一系列獨特的現象學特征。比如,意識是無形的;它總是為主體所擁有;具有對象;具有統一性等。AST可以很好地解釋這些特征。由于注意圖式不包含注意的物理信息,所以意識被大腦的內省機制曲解成無形的。由于注意圖式總是與大腦中的自我模型與注意對象模型相聯系(注意圖式將它們聯系到一起),所以意識總是表現為某人的意識,并且總是有所呈現。由于注意圖式是一個整合了的信息集,所以意識總是表現出統一性??傊?,AST可以很好地解釋意識的現象學。

如果注意圖式理論是對的,那么要在機器中實現人工意識,就不是讓機器具有意識,而是讓機器產生具有意識的錯覺。更具體的,就是賦予機器一種錯覺機制,以便讓它制造意識錯覺。按照注意圖式理論,錯覺機制的核心是注意圖式與內省機制。目前人工意識中已有相關想法和工作。早在20世紀60年代,明斯基(Marvin Minsky)就指出,一個智能體不僅要包含外部環境模型,而且還得有一個關于自身的模型。1 自我模型可使人工主體思考自身,并且思考自身對自身的思考,即內?。↖ntrospection)。一種觀點認為,現象意識產生于對知覺的內省。2 還有一種觀點認為,在學習過程中引入自我概念是創造人工意識的關鍵步驟。3 如前面提到的CRONOS就包含了一個自我模型,作為物理身體的模擬器,與分立的關于機器人外部環境的內部模型互動。最近,布林斯耶德(Selmer Bringsjord)等人設計出了一個能通過自我意識的人類測試的機器人。不過他們也承認,機器人并不真的擁有自我意識。4

另一方面,意識與注意的關系同樣早就為人所注意到。詹姆士說:“我的經驗是我同意加以注意的東西?!? 通常情況下,一個人注意到什么,他就會意識到什么。如果注意改變,意識就會隨之改變。鑒于注意與意識的緊密聯系,有一些人工意識模型干脆將注意機制看作是表征有意識的信息的加工機制。比如,廷斯利(Chris Tinsley)設計了一個計算模型,這個模型的注意網絡的輸出被看成是對刺激的有意識的表征。6 泰勒(John Taylor)及其同事研究了“注意運動的關聯放電”(CODAM)模型。這個模型通過控制注意焦點的改變(即“注意運動”)而非運動控制中的改變來模擬意識的神經基礎。結果顯示,在注意瞬脫(Attentional Blink)、變化盲視(Change Blindness)等情形中,CODAM系統表現了與人類受試非常相似的反應。7 有趣的是,近來在對各種不同的注意相關任務中的fMRI、MEG、EEG活動的分析結果顯示,人類大腦同樣存在關聯放電信號。8

單獨地看,外部環境模型、自我模型與注意模型對現象意識來說都是不充分的。假如我們能夠在注意圖式理論的指導下將這些已有工作整合到一起,以一種恰當的方式將它們關聯起來,機器很可能就會產生具有意識的錯覺。這樣的機器,我們就可以說它在我們具有意識的意義上具有意識。如此一來,強人工意識就得到了實現。然而,在強人工意識被確認得到實現前,仍然有兩個問題需要解決。首先,如何以一種恰當的方式將外部環境模型、自我模型與注意模型整合起來,這既是一個理論問題,也是一個工程學問題。其次,即使我們制造出了這樣的機器,又如何知道它擁有了現象意識呢?這是個與傳統的他心問題密切相關的復雜問題。

在這里,文章打算對第二問題給出一個方向性的建議。其具體論證與第一個問題理論部分的解答一樣,需要單獨的文章來闡明。建議如下:從內部結構上看,機器具有完整的注意圖式,即具有工程學上的可測量性;從外部行為上看,機器能在真實世界中以與人類行動者無法區分的方式做人類行動者所能做之事,即通過“全總圖靈測試”。1 如果一個機器同時滿足以上兩點,我們就有充分理由說它具有了現象意識。如果一個人仍然對之持懷疑態度的話,那他必須承認他的懷疑對人也適用。這是因為,給定機器與人的內部結構和外部行為的相似性,使得我們已經沒有可用的差異制造者來阻止將機器意識的懷疑延伸到人類意識上。但這樣一來,我們就會陷入唯我論:知道一個人會思考的唯一方式就是成為那個人。鑒于唯我論是不可取的,沒人愿意持此立場,所以也就沒人能合理地堅持機器意識的懷疑論。如此一來,機器意識就得到了合理確認。

五、結語

自2001年斯沃茨基金(Swartz Foundation)資助舉辦“機器可以有意識嗎”工作坊以來,迄今已逾20余載。這20余載見證了人工意識從純粹哲學思辨到其真實可能性的轉變。一旦人工意識得以實現,我們將不得不思考,人究竟是什么?當意識作為人類的最后一道防線被突破后,我們在自然界中的地位以及我們應該如何對待我們創造出來的同伴,就成為我們不得不面對的問題。在筆者看來,沒有什么能比這些問題更能激勵我們去做進一步探究。

The Dilemma and Prospects for Artificial Consciousness

WANG Huaping

Abstract: Artificial consciousness aims to simulate or realize what is regarded as aspects of human consciousness phenomena. Artificial consciousness can be divided into weak and strong one according to its goal and the metaphysics of consciousness. Weak artificial consciousness aims to design and construct machines that simulate consciousness, while strong artificial consciousness endeavors to design and construct machines that are phenomenally consciousness. Artificial consciousness faces a dilemma: weak artificial consciousness abandons the core part of consciousness, does not help to fundamentally improve the performance of AI, and is thus very limited. Strong artificial consciousness, on the other hand, is confined to the existing conceptual framework, which inevitably falls into the “the intermediate level fallacy”, and a new conceptual framework needs to be constructed in order to realize strong artificial consciousness. For the time being, panpsychism and illusionism are two plausible alternatives. Illusionism, and more specifically, the attentional schema theory of consciousness is the most promising way to solve the dilemma for artificial consciousness.

Key words: artificial consciousness; dilemma; panpsychism; illusionism

(責任編輯:蘇建軍)

91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合