?

強人工智能和超級智能:技術合理性及其批判

2016-12-01 18:57陳自富
科學與管理 2016年5期
關鍵詞:批判

摘要:強人工智能(以下簡稱強AI:Strong Artificial Intelligence)由美國哲學家約翰·塞爾上世紀70年代在其論文《心靈、大腦與程序》中提出,主要是指對人工智能(以下簡稱AI)持有的這樣一種哲學立場:基于心智的計算模型,以通用數字計算機為載體的AI程序可以象人類一樣認知和思考,達到或者超過人類智能水平。這種立場與弱人工智能(以下簡稱弱AI:Weak AI)或應用人工智能相對立,后者認為AI只是幫助人類完成某些任務的工具或助理。隨著最近20年來互聯網、神經科學、基因工程等技術的飛速發展,強AI從塞爾時代的一種哲學立場逐步向工程實踐轉變和演進,未來學家甚至設想和描述了強AI的更極端版本:超級智能,這些在IBM、谷歌、Facebook、微軟等產業巨頭和庫茲韋爾、馬克拉姆等樂觀的技術實踐者的雙重推動下,藉由大眾科學傳播的放大作用,滲透到人們的日常生活中構成了對其技術合理性的辯護,但AI本身對人類主體和社會的影響不是價值中立的,它一方面難以吸收和提升人類的創新本質,另一方面其技術合理性帶來的后果與其初衷有時相互背離,并在商業行為的推動下,構成對作為文化產物和自我解釋的理性人類的單向壓制和挑戰。

關鍵詞:強人工智能;人工通用智能;超級智能;技術合理性;批判

中圖文獻號:TP18 文獻編碼:A DOI:10.3969/j.issn.1003-8256.2016.05.004

1 早期AI及其愿景

一般認為1956年由美國達特茅斯學院青年數學家約翰·麥卡錫(John McCarthy)為主發起的達特茅斯會議標志著AI的正式誕生[1]49,但在這之前的1947年,計算機科學的主要奠基者、英國應用數學家圖靈在倫敦發表的一次公開演講已提及AI,1948年他的一份名為《智能機器》的未出版報告被視為“AI的第一份宣言”[2]432,1950年提出了判斷機器是否具備人類智能的圖靈測試[3]56-91。幾乎同時控制論學者也提出了類似設想并付諸實踐:1948年控制論的主要創始人維納在其名著《控制論》中指出計算機和大腦都是邏輯機器[4]97,并預見了計算機對社會為善和作惡的雙重性[4]21-22。幾乎同時,英國控制論學者和神經生理學家格雷·沃爾特(Grey Walter)制作了可感知環境和避開障礙的電子龜[5]225,從1951年開始,英國和美國都開發了一些在早期計算機上執行包括弈棋在內的簡單程序,尤其亞瑟·塞繆爾(Arthur Samuel )的跳棋程序后來很有影響[2]436??傊?,隨著控制論的傳播和通用數字計算機的發明,1956年之前對計算機可在社會中代替人類完成某些智能任務的愿景已經得到廣泛討論并有了不少共識,維納、馮·諾依曼、圖靈、信息論的創始人香農等都參與其中[4]11-22。

在達特茅斯會議前后,現代意義上的計算機程序設計尚未成為專業,IBM在1957年才開發了第一種廣泛應用的程序設計語言FORTRAN,“Programming(編程)”這個術語遲至20世紀60年代中期后才開始廣泛使用[6]。因此早期AI時代對于AI、計算機程序基本不做區分,例如麥卡錫本人在晚年始終認為AI主要就是智能的計算機程序[7],這樣在編史學上就重復了一種輝格式的進步觀點,即把計算機編程實現智能任務作為AI的起點,這樣把達特茅斯會議作為AI的起點有著十分充足的理由:

(1)第一次明確提出了人工智能(Artificial Intelligence)的命名;

(2)明確提出了AI的愿景:“……研究旨在這樣的猜想基礎上進行:智能的學習或其他任何特征的所有方面原則上可被精確描述,以致可被機器模擬。將試圖發現如何使機器使用語言、形成抽象和概念、求解目前專由人類智能解決的各種問題并予以改進……”[8],這個任務比圖靈、維納等人的設想更為具體;

(3)第一次驗證了用計算機完成人類級別智能解決抽象任務的能力:即邏輯理論家(Logical Theorist)程序對現代著名數理邏輯學者羅素和懷特海合著的《數學原理》中命題邏輯部分的若干定理進行了證明[9]109-133;

(4)之后20年內主要的AI進展均由會議主要參會人員及其學生完成,從而形成了早期AI科學家共同體的核心[1]49。

從二戰前后AI的孕育,一直到達特茅斯會議之后的10余年時間里,總體上來看對AI的技術研究和應用前景持有一種樂觀、正面的情緒,例如維納不僅把人類在理論上設想為控制論意義上的自動機器[10]43,而且形而上學地把人類這樣的有機體視為一種形式的消息:“……軀體的個體性與其說是一種石頭性質的個體性,不如說是一種火焰性質的個體性;是形式的個體性,而不是帶著實體的個體性。這種形式可以傳送,可以改變……”[10]80,這也啟示可以通過對消息符號的處理來實現人類軀體及其智能。

這些觀點中被引用最多的無疑是1975年圖靈獎得主赫爾伯特·西蒙和艾倫·紐厄爾在1956年發表于《運籌學研究》中的一篇文章,在該文中他們做出了10年內AI成就的預言:數字計算機成為世界象棋冠軍、發現和證明重要的新數學定理、定量和形式化地描述大多數心理學理論[11]90。

2 AI冬天、弱AI與強AI、應用AI

在達特茅斯會議10年之后, 由于AI方面的實際技術進展與當初所描繪的愿景相差甚遠,受到了內部和外部的嚴厲批評,首先是美國哲學家休伯特·德雷福斯受當時主要的AI研究機構蘭德公司邀請為AI提供哲學方面的建議,但其結論卻是通過其1965年底出版的報告《煉金術與人工智能》,對AI給出了相當尖銳的否定性結論[12],幾乎同時,1966年由美國國防部、國家科學基金會、中央情報局主導,委托ALPAC(Automatic Language Processing Advisory Committee:自動語言處理顧問委員會)對機器翻譯進展進行調查后發布的報告:《語言與機器:翻譯和語言學中的計算機》,給出機器自動翻譯過于昂貴且短期內難以達到人類翻譯水平的結論[12]。1973年英國科學研究理事會委托劍橋大學物理學家James LightHill爵士提交了一份關于英國AI研究狀況的獨立報告,該報告建議放棄對機器人和語言處理的資助,并取消了對愛丁堡、蘇塞克斯、埃塞克斯三所大學之外的其他英國大學AI研究的支持[12]。在60年代末70年代初,美國國防部高級研究計劃局(DARPA)也先后暫?;虼蠓葴p少了對AI的資助,而該機構從達特茅斯會議以來一直是AI最主要的推動者[12]。這樣在大西洋兩岸的AI研究,從70年代初開始進入低谷,即所謂的AI冬天[1]203。

在這段AI的冬天期里,包括德雷福斯在內的不少哲學家從外部對AI的長期愿景和現實目標進行了深入思考,其中美國心靈哲學家約翰·塞爾所提出的強AI和弱AI的觀點有較大影響,前者對應AI長期愿景,即恰當編程的計算機與人類心靈等價,而后者只是從事認知科學或心靈研究中的輔助工具[13]417-424,顯然強AI是早期人工智能樂觀預測的功能主義表達[14]20。

新西蘭哲學家、坎特伯雷大學教授杰克·科普蘭德則提出了強AI、認知模擬(Cognitive Simulation)、應用AI(Applied AI)的分類,其中認知模擬相當于塞爾的弱AI,但應用AI則主要是指各種可以商用化的智能系統,例如人臉識別系統等,這也是目前AI研究的主流[15]。

3 AI冬天后的人工通用智能與人類級別智能

20世紀80年代初知識庫和專家系統的興起、聯結主義綱領的復興、日本開發第五代計算機等事件,標志著AI的第一次冬天結束,風險投資涌入知識庫和專家系統的開發和商業化,大中型企業部署專家系統提升管理效率,AI產業呈現出繁榮景象,但這種繁榮沒有持續多久,很快就隨著用于專家系統的LISP商用機產業的崩盤就結束,迎來了AI歷史上的第二次冬天[1]52,這場冬天一直持續到90年代初,隨著互聯網的興起才慢慢回暖。

在AI短短數十年歷史中由于過高的技術預測與實際成果的差距,以及由于科研經費、商業投資的大幅度波動, 以及來自德雷福斯、塞爾等知名哲學家的各種批評,使得80年代以來AI科學家共同體的主要成員,認識到了AI的愿景在短期之內實現的巨大困難, 從而采取了比早期AI的樂觀情緒更加謹慎和理性的態度。

例如著名AI科學家馬文·眀斯基(1969年圖靈獎獲得者,達特茅斯會議主要參與者)在論及人類是否能建造智能機器的問題時表示“……我們還需很長時間才能學會足以使機器象人一樣聰明的常識推理……但目前可以確定的是:那種對于任何聲稱今天就掌握了人類和可能的機器之間差別的主張是有問題的——因為我們當前對人類或者可能的機器的了解完全不夠?!盵16]

達特茅斯會議發起人約翰·麥卡錫(1971年圖靈獎獲得者)在2007年指出:“人類級別的AI將會實現,但幾乎肯定需要新的思想,因此不能可靠地預測其具體時間——可能5年,也可能500年。我傾向于打賭在21世紀實現?!盵17]

但是AI共同體中多年來始終有少部分學者或工程師在追求早期AI提出的宏偉目標,為了與主流的弱AI或者應用AI相區別,他們用了一個新名字:人工通用智能(Artificial General Intelligence),并指出:“……盡管這是AI的初始目標,但AI研究的主流業已轉向依賴具體領域和求解具體問題的方案,因此有必要用一個新名字來指出研究仍然追求‘宏大的AI之夢,這類研究的類似標簽包括‘強AI、‘人類級別智能(Human-level AI)等?!盵18]他們在主流AI學術共同體(例如美國人工智能學會、美國計算機學會、電氣與電子工程師學會)等之外,成立了非盈利組織AGI學會(AGI Society),自2008年以來組織了8屆年會,開設AGI暑期學院,出版AGI雜志和書籍,積極宣傳和推動AGI的研究和AGI系統的設計[19]。

除AGI學會這樣的非主流團隊之外,在國外還有若干非傳統機構積極推動強AI的觀念傳播和商業行動,其中比較知名的有:奇點大學(Singularity University)、機器智能研究院(MIRI: Machine Intelligence Research Institute)、Numenta公司、艾倫人工智能學院,這些機構的共同目標是在未來較短時間內實現人類級別的通用智能,從而和目前AI研究的主流區別開來。例如MIRI定位于研究智能行為的數學基礎,其使命是開發通用AI系統的分析和設計的形式化工具[20]。Numenta的基本目標和MIRI一致,但其研究路徑卻是基于腦科學的成果[21]。

庫茲韋爾和杰夫·霍金斯對于強AI的研究進路與傳統AI強調的知識/邏輯、聯結主義等都有所不同,他們具有類似的腦神經科學理論來源,即主要基于人類大腦的新皮質(區別于其他哺乳動物)及其強大的模式識別能力來提出各自不同的技術實現方案,例如霍金斯認為大腦是模式機器,智能的本質是記憶和預測。而庫茲韋爾采用最近瑞士神經科學家亨利·馬克拉姆的觀點:神經元的集合才是學習的基本單元??傊?,這兩位知名的強AI鼓吹者都力圖把新的技術路徑建立在對人類大腦結構的最新認識之上。

4 從深度學習、人類大腦計劃到超級智能

2006年以來,深度學習作為人工智能中的機器學習的一門分支,由于其在傳統AI難以有效解決的語音識別、圖像識別乃至自然語言處理方面的取得了較大進展,例如微軟亞洲研究院運用深度神經網絡(DNN)開發的商用全自動同聲傳譯系統[22]、Yann LeCun及其團隊在2012年運用卷積神經網絡在ImageNet圖像識別大賽中取得最好成績[23],加上谷歌、Facebook、百度等產業巨頭對深度學習的巨大商業投入,他們招募機器學習領域的主要科學家Geoffrey Hinton(谷歌)[24]、Yann LeCun(Facebook)[25]、Andrew Ng(百度)[26],建立AI實驗室或啟動AI大型項目,同時在商業和技術媒體的宣傳推動下,近幾年來深度學習炙手可熱,與上世紀80年代初專家系統、日本第五代機開發計劃類似,被學術界和大眾視為實現AI長期愿景的主要途徑[27]。

就深度學習本身而言,其主要創立者認為屬于人工神經網絡(ANN:Artificial Neural Network)的第三階段(前兩階段為控制論階段、聯結主義階段)[28],ANN可以視為聯結主義傳統或者AI中的生物學范式的主流,但一般認為這不是實現AI的唯一路徑[28]。而且雖然深度學習相比傳統的淺層學習而言,在特征的自動抽取方面節省甚至無需人工介入,具備和人類認知類似的逐層抽象表征能力等優點,但同樣也面臨著實現強AI愿景的理論、建模和工程方面的重大挑戰,深度學習表面上與人類大腦新皮層具有結構上的類似性,尤其在計算機視覺方面取得很大成功的情況下似乎更有說服力,但顯然這種生物學隱喻或進路的優勢在Michael Jordan[29]、Yann LeCun[30]等主要創立者的核心學術共同體中也未得到認同,他們本質上仍堅守傳統的弱AI或應用AI立場,對庫茲韋爾的強AI設想持強烈的反對態度 [28][29]。

但是,2013年以來美國和歐盟在認知科學和腦科學領域啟動的人類大腦計劃(HBP:Human Brain Project),卻對計算機界的AI主流傳統提出了某種挑戰,他們獲得政府機構的巨額經費支持,以大科學協作的方式開展研究,提出的目標宏大而有經濟、政治方面的吸引力,使得一部分AI學者、大型商業機構(如IBM)均參與其中,其影響遠超AGI和強AI提倡者的非政府組織。

美國的HBP于2013年由國立衛生研究院(NIH)牽頭發起,即尖端創新神經技術腦研究(BRAIN:Brain Research through Advancing Innovative Neurotechnologies),其長期計劃是從2016年起10年內撥款45億美元,目標是繪制腦回路圖譜,研究腦內回路機制,并為此研發觀察、記錄和成像神經回路活動的新技術,其時間表相對歐盟的HBP而言更為現實:10年內完成果蠅腦的成像,15年做到對小鼠腦的成像,在完成上述任務基礎上再向靈長類動物邁進,而且也沒有就此做出時間上的承諾[31] 。

相比較而言引起巨大爭議的歐盟HBP,在瑞士科學家亨利·馬克拉姆(Henry Markram)領導下一開始就設定了宏大目標:數據方面生成繪制人類大腦圖譜和建立腦模型的數據、理論方面發現大腦信息處理的數學原理、研究平臺方面提供基于新的信息和通訊技術(ICT:Information and Communication Technology)的平臺為各個領域科學家服務、應用方面基于新型ICT平臺開發應用程序為基礎神經科學、藥物學和計算科學提供服務,其申請的研究經費為10年內分三個階段投入11.9億歐元 [32]。

以美國和歐盟為首,日本、加拿大、中國等國積極參與的這場人類大腦研究浪潮,給計算機和AI帶來了重大影響,一些科學家認為HBP研究中的類腦計算(Brain-like)進路將是從弱AI到強AI的主要進路 [33],認為類腦智能將是人工智能的終極目標[34]。

類腦AI或神經擬態計算(Neuromorphic Computing)的目標是基于人類大腦工作原理設計非馮·諾依曼傳統結構的計算機來實現強AI愿景,相對于傳統計算機而言,神經擬態計算應具備人腦的三大特性;低能耗、容錯性、無須編程[35]。因此歐盟HBP被視為類腦計算項目,而美國則在BRAIN之外,主要通過DARPA贊助的自適應可塑可伸縮電子神經擬態系統(SyNAPSE:Systems of Neuromorphic Adaptive Plastic Scalable Electronics)項目來實現對類腦計算的探索[36]。在這些獲得正式資助的大科學項目之外,技術極客和未來學家如庫茲韋爾[37]85-122、霍金斯[38]215-242、雨果·德·加里斯[39]27-47等通過大眾媒體以極其樂觀的態度宣傳類腦AI的美好愿景。

在這些來自政府、學術界、產業界乃至媒體的推動下,使得一些來自于非AI領域的學者對強AI愿景可能導致的后果進行了深入思考,從哲學、倫理等方面提出了不同的見解,其中英國牛津大學人類未來研究院的尼克·波斯特洛姆(Nick Bostrom)提出的超級智能具有較大影響[40]29-30,他認為超級智能在幾乎所有領域遠遠超過人類,具備遠超過強AI的強大能力,從而會給世界帶來存在性危險:智能生命滅亡或永久失去未來發展潛能[40]143。

5 強AI、超級智能及其技術合理性

技術合理性概念來自于合理性,簡單從字面上來看,技術合理性即“技術合乎理性”,它既是一個規范性概念也是一個評價概念,可以把此處的“理性”視為工具理性和價值理性的統一。技術合理性問題是對技術這種人類實踐活動的反思和評價,其宗旨在于以主體理性自覺的形式來解決技術實踐中的種種問題,促進技術實踐在價值、目的、手段這三個方面的完善和進步[41]52。

AI作為一門新興的技術科學,無論其是否負荷價值或者價值中立,均需要和其他技術科學一樣,從其目的、工具、價值三個方面來對其技術合理性進行評價[41]95。而這種評價是反思性的哲學評價,而不是具體的社會、經濟和政治評價,其評價結果用于對AI技術的實踐的目的、手段和結果進行反思和調整,使其更符合技術創造主體的合理需要。

如上所述,強AI的提倡者和未來學家,在目的、工具、價值各個方面都對AI的技術合理性進行正面評價,對其目的的社會合意性、客觀現實性,技術手段的客觀有效性均予以確證,對于AI實踐所負載的價值,一般認為是正向的,即使對人類有危害,只要事先加以控制,也能實現正向效果。

他們也在大眾媒體上為AI建構了樂觀主義愿景,主要體現在兩個方面,首先是認為這類技術能夠幫助社會進步和實現社會理想,其次是認為其技術目標在未來數十年或者一百年內會實現,如波斯特洛姆就在其著作中專門引用了AI科學家的預測結果[40]24-25。雖然在科幻作品等大眾傳播媒介中對強AI的后果有技術悲觀主義的描述,而波斯特洛姆的立場偏向于技術控制論,并從哲學上給出了一些對強AI技術如何控制的思辨和設想[40]179。但總體來看,他們即使在強AI的目的和后果上存在一些分歧,對短期內可實現強AI技術目標卻具有共識,并認為該技術負荷的主要是正向價值,庫茲韋爾、霍金斯等代表人物表現出的主要是一種樂觀的技術決定論立場。

AI科學家共同體主要從技術的社會應用來論證其為人類帶來福祉,合乎人類主體的目的和需要,同時在技術文本中一般表現出價值中立的立場,例如美國人工智能學會對AI 的定義兼顧了其工程和科學的維度:“對思維、智能行為及它們在機器中實現機制的科學理解”[42],在主流教科書中則更偏重于其工程的維度:對人工物的設計和制作:“……理性智能體的設計過程……著重討論理性智能體的通用原則以及構造此類智能體所需的組成部分”[43]6,對于其手段上的客觀有效性和目的的客觀現實性,承認其仍然有許多困難,會是一個長期任務,AI仍處在庫恩所說的“前范式”階段,作為工程的AI有許多小而有用的進步,作為科學的AI卻進步緩慢[44]。

總體上來看AI學術界、產業界對其目的的社會合意性進行了積極辯護,例如美國人工智能協會前后兩任主席在一篇文章中明確指出強AI或超級智能的悲觀論者主要來自計算機科學界之外,超級智能中的“智能鏈式反應”模式設想AI系統能遞歸地設計比自己更智能的版本,導致“智能爆炸”,這種設想與目前對計算復雜性限制的認識相悖。雖然如此,AI在社會中的應用還是會帶來顯著效益,但在應用中也需要防范其技術和社會經濟風險[45]。在這里,主流學界回避了AI技術是否負荷價值的判斷,表明其意圖是基于工程技術傳統的技術中立論,例如微軟亞洲研究院認為類人情感對于AI和機器人并不必要,技術工具大多數具有正面價值,是使用者決定其用途,實現路徑應聚焦在可以控制且能促進生產力的方向上[46]。

基于這種技術工具論的實用主義的立場,學術界和產業界積極推動將AI廣泛應用在各個領域,麥肯錫咨詢公司預測到2025年,AI會對包括知識工作自動化、物聯網、無人交通、3D打印這四個高達50萬億-100萬億美元的市場產生重大影響[47],而牛津大學的一份研究報告指出在未來10-20年內,47%的工作將會自動化[48],這說明在實踐中人們認可AI負荷正向價值,并產生正面的社會和經濟效應。

6 對強AI和超級智能的技術合理性批判

到目前為止AI科學家共同體與強AI提倡者、未來學家為我們描述的主要是一個目的上具有社會合意性和客觀現實性、技術手段上具有客觀有效性(雖然在不同群體中存在有效程度的不同)、價值中立或者主要負荷正向價值的AI技術合理性圖景。而且從圖靈開始一直到費根鮑曼、約翰·麥卡錫這些當代主流的AI科學家,雖然并不持有強AI立場,但也從其專業立場反駁各個方面的攻擊,力圖捍衛AI的技術合理性,例如約翰·麥卡錫曾將對AI的攻擊分為4個方面:哲學上概念不一致、AI不道德、數學上來看AI不可能在計算機中實現、AI研究未取得甚至不能取得進步,并分別加以反駁[49]vii。

但是,無論AI科學家共同體還是強AI提倡者,其對AI的技術合理性都做出了過于樂觀甚至誤導的判斷,具體表現在以下方面:

首先,AI內部仍然缺乏統一的研究綱領,其在短期內實現類人智能任務的希望并不大,而這些討論往往發表在共同體內部的學術媒體上,并未在大眾中得到廣泛傳播。例如:1988年美國人文與科學院院刊《代達羅斯》第117卷,1991年國際人工智能聯合會的《人工智能》雜志第47卷都是關于AI學術爭論的專輯,其中加州大學圣地亞哥分校認知科學系教授David Kirsh的《AI的基礎:大問題》一文,指出共同體內部對AI研究核心假設的不同觀點而形成各自的技術路徑,這些問題包括知識和智能、認知是否具身化和擁有統一的底層結構等[50],布蘭迪斯大學計算機科學教授David L.Waltz則指出AI尚存在認知科學、軟件工程、硬件實現三個方面的重大障礙[51]191-212。

其次,強AI提倡者和未來學家是在傳統理性論和實證主義的基礎上來理解人本質的規定性,在生物學上幾乎取消人作為一個類存在的特殊性,碳基生命因此不再是唯一的智能形式,從而對硅基或其他形式的智能體形式提供了本體論的承諾,對于他們而言,符號、可計算性、形式化的理性知識等構成了人的全部規定性,情感和意志等非理性因素在人之為人的規定性中并不起核心作用,或者至少可以還原成可計算性,表現的是一種計算主義世界觀的強主張[52]1。這種用計算、知識、符號來對人的豐富本性的消解性還原解釋在實踐中早已遇到很多問題,其帶來的哲學后果如胡塞爾所說:“現代人漫不經心地抹去了那些對于真正的人來說至關重要的問題。只見事實的科學造成了只見事實的人”[53]7。

AI的主流科學家共同體承認人類認知是生物屬性和社會屬性、先天屬性和后天屬性相互結合而產生的整合性認知過程,需要從生物學和人類學兩個方向來實現腦認知功能,傳統AI只是實現了人類的計算認知功能,而記憶認知和交互認知需要新的研究范式[54]。這比強AI和未來學家的立場要更為務實,但是所需要的新范式尚未出現,深度學習也難充其任??茖W家接受了哲學人類學對作為文化生物的人的三個“屬人”特征:創造性、自由、對世界開放,但對于形式化的理性如何在復雜、開放環境中實現創造性,卻沒有找到解決方案?!叭嗽诒举|上是不確定的,人的生活并不遵循一種事先被確定的過程,自然只完成了人的一半,另一半留給人自己去完成。[55]8”因此,人是文化的存在、社會的存在、歷史的存在和傳統的存在[55]245-262,對于這種哲學意義上人類本質的不確定性,傳統AI在技術實現中通過常識知識的形式化表達和推理來加以部分處理,但這種脫離開放、復雜的社會環境來實現個體人的進路,一般認為不具有情感和意識[56],后兩者往往體現在交互的社會文化環境個體中。

由于不同時代的文化背景下人們對世界的知識和價值觀不同,因此“由人所創造的人,作為一種具體現象,是歷史的;”[55],例如古代的前技術時代文化中人作為智慧的人出現,近代或現代的技術時代人作為制作的人、發明的人或者理性的人而出現,而當代以信息和互聯網為特征的后工業化社會中,對人的歷史規定性尚缺乏統一的描述,如果說有,也是一種語境主義、歷史主義的后現代解釋,如尼采所說,中世紀和近代工業社會以來代表傳統價值觀和形而上學的“基督教-柏拉圖”圖式業已解體[57]122。人作為一個類的概念,很難尋找一個象強AI那樣可以在工程上實現的靜態、統一可編碼的本質,最多只能尋找一種共性,這種共性就是作為自我創造者的人的創造性核心,這種具有“家族相似”的共性是在社會和歷史中豐富起來的,而強AI以孤立、靜態的理性人為其工程上的藍本,脫離了人類的社會性和其與環境交互作用的豐富性,與真正的人類想象相差甚遠。

第三,作為實證主義土壤中誕生的技術科學集大成者,AI是近代技術理性登峰造極的產物,與基因工程、宇航工程、納米技術一樣屬于當代的核心前沿技術,但是AI具有一個與其他技術與眾不同的特點:對技術發明者的反身性,如同人們認為認知科學可能會消解認識論一樣,AI則有可能消解人類的創造性本質。AI的目標是將人類包括認知能力在內的精神對象化,這個目標的社會合意性存在疑問,按照目前強AI的進路,主要是對高度發達的理性能力予以對象化實現,非理性的因素如情感、意志或社會文化等環境因素只是附屬物或者在工程上并不是主要目標,那么這種理性對象化的巨大力量如果反身性地應用于人類自身,導致的正反饋效應可能使對象化的技術理性力量極度膨脹,即人類發現AI的能力很強大,從而刺激其投入更多資源來開發它,這樣就產生了波斯特洛姆所說的存在性危險。

第四,AI作為一種“智能代理體”的軟件程序和通過機器人形式的實現,在其廣泛而具體的應用中是否具有權利和責任,這個問題主要取決于AI是否具備自我意識和自由意志。AI共同體一般認為AI的用途和使用規則由其人類使用者決定,因此按倫理學中決定論的觀點,AI和機器人無需為其產生的結果承擔責任,相應地也不具備權利,人類至多只有對軟件錯誤、網絡安全等進行預先控制的責任。同時,在把AI視為人工物的前提下,按照自然主義的解釋,AI確實不具有自然法下的權利和義務。但是在具體實踐中AI所產生的后果與其初衷目標的背離,即技術價值二重性的問題卻十分突出,這是由于AI脫離技術發明者個人的控制,廣泛應用到公共領域所決定的,例如對個人隱私的自動搜集、證券程序化交易中的錯誤指令、手術機器人的誤操作、軍用無人機執行攻擊任務的失誤。技術中立論者和樂觀的技術決定論者對這種二重性后果的解決方案或者是在工具的發明者和使用者中引入道德選擇的善惡觀,或者是完善技術本身以提供更強的控制手段。

但是,由于AI對人類認知的反身性特點,以及系統在具體應用場景中的決策自治性,某種程度上帶來了AI的自由意志問題,前者對技術發明者的設計意圖、手段進行了滲透,后者至少表現出具體場景下的或然性,這樣就脫離了發明者的道德控制意圖,在這種情況下,從目的論或結果論的角度來看,無論技術設計者的動機如何良好,AI技術也很難確定其對人類主體的正向價值效應。

第五,從AI大規模應用的社會結果來看,其對社會公平、生產力發展方面的價值合理性還需要更深入地思考。計算機的發明使得生產工具從馬克思描述的三機系統:動力機—傳動機—工具機擴展到了四機系統:動力機—傳動機—工具機—控制機[58],而且信息社會的動力機,如果作為一種隱喻的話,已經不再是蒸汽機、發電機等傳統能量裝置,而是個人電腦、云計算中心、智能手機等信息加工和處理裝置,物聯網和互聯網是信息社會生產工具系統的傳動機,傳統的工具機在這里是控制機的效應器,包括各種計算機程序、機器手臂、傳送帶、自動郵件系統等,控制機在這里就是吸收人類知識勞動技能的AI程序和裝置,這種四機系統和傳統的三機系統相比, 跨越了車間、企業和國界, 其對知識型產業的生產力促進作用極其巨大。

在馬克思所處的近代社會,工具機是人類體力勞動和技能的外化和延伸,而且在信息社會也有象外骨骼這樣的裝置作為人類體力勞動技能提升的工具機[59],但是在互聯網和智能社會中,具有與環境交互認知和自主決策能力的AI控制機程序,不僅吸收了單個人類個體的知識勞動技能,而且通過各種學習和優化機制集成了領域內廣泛的知識工作技能,大大提升了信息社會下的知識勞動效率,這也導致了資本對AI技術的追逐,知識勞動自動化和機器人技術加劇了財富的集中程度[60]。信息、知識作為特殊的勞動對象,其生成、傳播和獲取的邊際成本很低,通過控制機和工具機的加工得到的信息和知識產品、商業服務可以獲得高額經濟利益。反過來這也使控制機具有加速信息、知識的生成、傳播的動機,但是我們知道目前以AI這樣的智能代理程序為核心的控制機,吸收的只是人類的一部分勞動技能,人類的價值觀、商業倫理還不是目前主流AI學術共同體在工程實踐中考慮的核心內容,因此在這個階段將AI程序置身于我們生產工具系統的控制機地位,具有較大的社會風險。

7 結論

應用AI、強AI和超級智能,態度上從弱到強地代表了AI技術在目標的客觀現實性、手段的有效性和價值負荷方面的技術合理性尺度,來自于這三個方面的研究者和支持者均從不同方面對其進行了論證和辯護,但是如果撇開各自的利益立場和媒介傳播的影響而言,從哲學、社會、經濟乃至AI技術本身來考察,都會發現其技術合理性所獲得的辯護存在諸多不足之處。作為當今社會重點開發和應用的主要高新技術,AI及其研究者和推動者,需要更加審慎地考察其技術邊界、應用范圍,對其價值是否中立或如何負荷正向價值進行深入的討論,從而在大眾中建立更為客觀的AI技術形象。

參考文獻:

[1] Daniel Crevier. AI: The Tumultuous History of the Search for Artificial Intelligence[M]. New York: BasicBooks,1993.

[2] Paul Thagard. Philosophy of Psychology and Cognitive Science[M]. Amsterdam: North-Holland,2007.

[3] (英)瑪格麗特·博登. 人工智能哲學[M]. 劉西瑞,王漢琦 譯. 上海:上海譯文出版社,2001.

[4] (美)N.維納. 控制論:或關于在動物和機器中控制和通信的科學[M]. 郝季仁 譯. 北京:科學出版社,2009.

[5] Margaret A. Boden. Mind as Machine: A History of Cognitive Science[M]. Oxford: Oxford University Press,2008.

[6] Niklaus Wirth. A Brief History of Software Engineering[J]. IEEE Annals of the History of Computing, 2008,30(3):32-33.

[7] John McCarthy.What is Artificial Intelligence[EB/OL]. http://www-formal.stanford.edu/jmc/whatisai/node1.html, 2015-11-12.

[8] John McCarthy. A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence[EB/OL]. http://www-formal.stanford.edu/jmc/history/dartmouth/dartmouth.html,2015-11-12.

[9] Allen Newell,J.C.Shaw,H.A.Simon. Empirical Explorations with the Logic Theory Machine: A Case Study in Heuristics [C]// Computers and Thought. Menlo Park: AAAI Press, 1995.

[10] (美)N.維納.人有人的用處—控制論和社會[M]. 陳步 譯.北京:商務印書館,1989.

[11] (美)休伯特·德雷福斯.計算機不能做什么:人工智能的極限[M]. 寧春巖 譯. 北京:三聯書店,1986.

[12]陳自富.煉金術與人工智能:休伯特·德雷福斯對人工智能發展的影響[J]. 科學與管理,2015,35(4):55-62。

[13]John R. Searle. Minds, Brains and Programs[J]. The Behavioral and Brain Sciences, 1980, 3(3):417-424.

[14] (美)約翰·塞爾.心、腦與科學[M].楊音萊 譯.上海:上海譯文出版社,2006.

[15]Jack Copeland. Strong AI, Applied AI and CS[EB/OL].http://www.alanturing.net/turing_archive/pages/Reference Articles/what_is_AI/What is AI02.html,2015-12-11.

[16]Marvin Minksy. Why People Think Computers Cant[J]. AI Magazine, 1982, 3(4):15.

[17]John McCarthy. From here to human-level AI[J]. Artificial Intelligence, 2007, 171:1174.

[18] http://www.agi-society.org,2015-12-11.

[19] http://www.agi-society.org/resources/,2015-12-11.

[20] http://intelligence.org/about/,2015-12-11.

[21] http://numenta.org/ #technology,2015-12-11.

[22]郭麗麗,丁世輝.深度學習研究進展[J].計算機科學, 2015, 42(5): 28-33.

[23]尹寶才.深度學習研究綜述[J].北京工業大學學報, 2015, 41(1): 48-59.

[24] http://www.wired.com/2013/03/google_hinton/,2015-12-11.

[25] http://geek.csdn.net/news/detail/3870,2015-12-11.

[26] http://www.huxiu.com/article/33940/1.html,2015-12-11.

[27]張文韜. 被寄予厚望的深度學習系統[J]. 世界科學,2014,(3): 50-52.

[28]Yoshua Bengio,Ian Goodfellow,Aaron Courville. Deep Learning[EB/OL]. http://www.deeplearningbook.org/conte-nts/intro.html,2016-2-13.

[29]Lee Gomes. 機器學習大家邁克爾·喬丹談大數據可能只是一場空歡喜等[J]. 中國計算機學會通訊,2014,10(12):80-85.

[30]Lee Gomes. 對話深度學習專家雅恩·樂昆:讓深度學習擺脫束縛[J]. 中國計算機學會通訊,2015,11(4):84-91.

[31]顧凡及. 歐盟和美國兩大腦研究計劃之近況[J]. 科學,2014,66(5):16-21.

[32]Henry Markram. The Human Brain Project: A Report to the European Commission[EB/OL]. https://www.hu- manbrainproject.eu/,2016-2-13.

[33]黃鐵軍.類腦計算機的現在與未來[N].光明日報,2015-12-06(第8版).

[34]佘慧敏.類腦:人工智能的終極目標?[N].經濟日報,2015-07-16(第15版).

[35]刑東,潘綱.神經擬態計算—有新靈魂的機器[J].中國計算機學會通訊,2015,11(10):88-92.

[36]顧宗華,潘綱.神經擬態的類腦計算研究[J].中國計算機學會通訊,2015,11(10):10-20.

[37] (美)Ray Kurzweil. 奇點臨近[M].李慶誠,董振華,田源 譯.北京:機械工業出版社,2012.

[38] (美)杰夫·霍金斯. 人工智能的未來[M]. 賀俊杰,李若子,楊倩 譯. 西安:陜西科學技術出版社,2006.

[39] (美)雨果·德·加里斯. 智能簡史—誰會替代人類成為主導物種. 胡靜 譯. 北京:清華大學出版社,2007.

[40] (英)尼克·波斯特洛姆. 超級智能:路線圖、危險性與應對策略[M]. 張體偉,張玉青 譯.北京:中信出版社,2015.

[41]王樹松.論技術合理性[D].沈陽:東北大學博士學位論文,2005.

[42] http: //aitopics.org/topic/ai-overview, 2016-2-13.

[43] (美)Stuart Russell,Peter Norvig. 人工智能—一種現代方法[M]. 姜哲,金奕江,張敏,楊磊 等譯. 北京:人民郵電出版社,2004.

[44]Marti A.Hearst,Haym Hirsh. AIs greatest trends and controversies[J]. IEEE Intelligent Systems, 2000, 15(1):8-17.

[45]托馬斯·G·迪特里奇,埃里克·J·霍維茨. 增長中的關切:對人工智能的反思和前瞻[J].中國計算機學會通訊, 2015,11(11):91-93.

[46]洪小文. 我們需要什么樣的機器人[J]. 中國計算機學會通訊,2014,10(11):50-54.

[47]http://www.mckinsey.com/insights/business_technology/disruptive_technologies,2016-2-13.

[48]http://www.oxfordmartin.ox.ac.uk/downloads/academic/The_Future_of_Employment.pdf,2016-2-13.

[49]John McCarthy. Defending AI Research[M]. Stanford: CSLI Publications,1996.

[50]David Kirsh. Foundations of AI: the big issues[J]. Artificial Intelligence,1991,47:3-29.

[51]Stephen R.Graubard. The Artificial Intelligence Debate: False Starts, Real Foundations[M]. Cambridge: MIT Press, 1988.

[52]酈全民.用計算的觀點看世界[M]. 廣州:中山大學出版社,2009.

[53](德)埃德蒙德·胡塞爾.歐洲科學危機和超驗現象學[M].張慶熊 譯. 上海:上海譯文出版社,2005.

[54]李德毅. 腦認知的形式化[J].中國計算機學會通訊,2015, 11(12):26-28.

[55](德)M·蘭德曼. 哲學人類學[M]. 閻嘉 譯.貴陽:貴州人民出版社,1988.

[56]Petros A. M. Gelepithis. AI and Human Society[J]. AI & Society, 1999,13(3):313.

[57]陳嘉明.現代性與后現代性十五講[M].北京:北京大學出版社, 2006.

[58]王師勤.勞動工具演化論[J].上海社會科學院學術季刊,1986(4): 51-56.

[59]http://tech.163.com/15/0721/10/AV1Q6R87000915BD.html, 2016-2-13.

[60]http://piketty.pse.ens.fr/en/capital21c2,2016-2-13.

(責任編輯:王保寧)

Abstract: Strong AI was coined by American philosopher John Searle in 1970s in his paper 《Mind、Brain and Program》,mainly refers to this philosophical position: based on the model of computational mind, AI program embodied in the general digital computer can recognize and think like humankind, even reach or surpass the human intelligence level. This position is opposed to the Weak AI or Applied AI which are regarded as the tools or assistant for helping human to perform tasks. In the last two decades, with the mushrooming of Internet、neuroscience、genetic engineering ,etc. Strong AI is stepping into the engineer practice from the philosophical standpoint in the years of John Searle, the futurist even image the more optimistic version of Strong AI: Super AI. All of these are driven by both industrial giant like IBM,Google,Facebook,Microsoft and Kurzweil、Markram who are the optimistic and active technical practioners, and they infiltrated into daily life as a support to the technology rationality by the strengthening popular scientific media. But the impact of AI in the human society is not value free, it cant reflect and upgrade the nature of human creativity, on the other hand, its results often doesnt comply with the initial goal, with the promotion of commercial activities, AI begin to challenge and suppress the rational human as the cultural products and self-explaining species.

Keywords:Strong AI;Artificial General Intelligence;Super AI;Technology Rationality;Criticism

猜你喜歡
批判
哲學思維與大學生創新項目
知識分子對時代的批判與反思
五禮制度沿革與蕭梁文運興變
對風險刑法理論的批判與反思探究
沖破單向度的枷鎖
用“批判”的思維解讀語篇的光輝
鮑德里亞符號政治經濟學批判的價值探討
在批判中尋求解放
批判與承續:在理性選擇中提升文化免疫力
馬克思主義人學理論形成初探
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合