?

技術現象學視角下人工智能風險與治理研究

2024-04-24 08:15董向慧
理論與現代化 2024年2期
關鍵詞:意向性人工智能

摘要:人工智能尤其是強人工智能使得人與技術之間呈現交互關系,技術現象學中具身、詮釋、它異、背景這4種人—技術—世界的意向性關系發生著變更和異化,沖擊了人作為技術主體的地位,同時蘊含著身體虛化、詮釋遮蔽、他者競爭和文明失序的內在性風險。把握人—技術—世界中的意向性關系,成為人工智能風險治理的新思路、新視角,有助于完善人工智能技術治理、原則治理路徑,促使善治良治成為機器行為學的內生品質。

關鍵詞:人工智能;技術現象學;意向性;后人類主義

中圖分類號:TP18;D63???? 文獻標識碼:A???? 文章編號:1003-1502(2024)02-0092-13

基金項目:國家社會科學基金項目“技術現象學視角下智能算法嵌入社會與治理研究”,項目編號:22BSH001。

作者簡介:董向慧(1983—),男,天津社會科學院輿情研究所副研究員,北京師范大學新聞傳播學院博士后。

ChatGPT、文心一言等大模型人工智能(Artificial Intelligence,簡稱AI)的應用推廣使得2023年成為“強人工智能”元年。大模型人工智能的智識性、對人類語言環境和背景“主體間性”的理解,以及其集數據分析、程序寫作等多重功能于一體,使得生成式人工智能、強人工智能成為學界和業界關注焦點。強人工智能的巨大進展不由得讓人們重新審視雷·庫茲韋爾在《奇點臨近》一書中的預言,即2045年人工智能將在智識水平上超越人類,生物智能與非生物智能相互融合、人類智慧飛躍發展的奇點正在臨近。而SpaceX創始人埃隆·馬斯克更是將ChatGPT作為人類文明由碳基文明向硅基文明轉向的起點,他認為人類社會只是超級數字智能的生物引導程序,人類存在的意義在于啟動計算機。按照上述預言,科幻電影中的數字生命已不僅僅是虛構,而是將要到來的現實。在風險高度不確定的智能社會來臨時,人類不僅要探討人與人之間的相互關系與如何和諧相處,更要探索人機關系的和諧共生,從而避免現實和潛在的各種風險,這包括政治、經濟、倫理、法律等風險,甚至是科幻作品中人工智能統治人類、人工智能毀滅人類的風險。而對人工智能風險的消解、預防和治理,從根本上依靠對人工智能這一技術深層邏輯的把握,以及對人工智能風險類型的有效區分。從技術現象學的視角看,人工智能使人—技術—世界中的意向關系產生了交互性。這使直接經驗、直接體驗的現實世界成為虛擬與現實共生的融合世界,唐·伊德所提出的具身、詮釋、它異、背景4種意向關系產生了變更,從而產生了身體虛化、詮釋遮蔽、他者競爭、文明失序4種風險。

一、人工智能的現實與潛在風險

人工智能先驅Donald Michie 將人工智能分為3類:弱人工智能、強人工智能和超人工智能。弱人工智能(專項人工智能)①指的是在某一領域模擬、代替人類智識的技術,如圍棋機器人阿爾法狗;強人工智能也稱之為通用人工智能,指具有比肩人類智識水平的智能技術,當下的聊天機器人ChatGPT已初步具備強人工智能特征;超人工智能則類似于科幻作品中,具有超越人類智識水平和意識能力的智能技術。作為異于人類且具有智識性的技術,人工智能自其問世起便引發公眾和學界對其風險性的警惕和擔憂。而伴隨人工智能技術如智能傳播、算法決策、人臉識別、自動駕駛等廣泛應用,人工智能的現實和潛在風險也日益凸顯。有研究將人工智能的風險歸納為10個方面:隱私泄露、勞動競爭、主體多元、邊界模糊、能力溢出、懲罰無效、倫理沖突、暴力擴張、種群替代和文明異化[1]。上述風險部分是人工智能的現實風險,更多的則是潛在風險。從發展階段來看,當前廣泛應用的仍是弱人工智能技術,其現實風險已經出現。而隨著ChatGPT等技術的發展,強人工智能潛在風險的可能性將會更為突出。

(一)弱人工智能的現實風險

弱人工智能(專項人工智能)在現實社會中已被廣泛應用,如人臉識別、自動駕駛、智能新聞推送、算法決策等。而從國內外弱人工智能的現實風險來看,主要集中在匹配式人工智能算法加劇了社會偏見、群體歧視,使財富、數字鴻溝擴大。匹配式人工智能主要基于數據挖掘和分析建立算法模型,為用戶、商品、信息、服務打上具有相關性的“標簽”?;谒惴P秃蜆撕灥膹碗s相關性,匹配式人工智能可進行數據、信息和用戶之間的高效鏈接、推送、畫像,其應用場景包括人工智能決策、智能新聞推送等,常見的應用程序如抖音、今日頭條等。

匹配式人工智能基于算法模型和標簽將數據、金錢、商品、服務、信息進行鏈接、推送,其現實風險主要來自兩個方面。一方面,算法決策使個人、群體在智能決策系統中處于被支配地位,存在著“黑箱操作”、系統性歧視的風險,包括抹殺個體獲取資源的機會、算法歧視和邊緣化群體、動搖社會賴以生存的道德政治基礎[2]等。另一方面,算法推薦尤其是智能新聞推薦存在著“信息繭房”②“群體極化”③等效應,可固化不同群體的偏見,加劇社會中的認知沖突。凱西·奧尼爾將算法稱之為“數學殺傷性武器”,這些系統正日益在更大程度上操控著我們的生活,數學模型像上帝一樣晦暗不明,人們對模型結論無法上訴,而這一結論往往會懲罰社會中的窮人[3]。簡而言之,弱人工智能的風險集中在匹配式人工智能領域,其風險主要為現有社會財富、階層、認知差距的固化與擴大化,且掌握和使用人工智能數據、算法的多為大型企業、政府機構,這使得數字極權、數字壟斷、數字剝削加劇的風險大幅提升。

(二)強人工智能的潛在風險

如果說弱人工智能的現實風險是區域性、局部性的,強人工智能的潛在風險則具有根本性和系統性。強人工智能具有類比人類智識水平和解決問題的能力,其關涉到人類的主體地位和生存發展,對人類社會的哲學、倫理、政治、經濟、文化、社會等領域都是空前的沖擊和挑戰。正如尤瓦爾·赫拉利在《未來簡史——從智人到智神》中所預言,智能算法將多數人從就業市場排擠出去,少數壟斷算法和數據的人成為“智神”,造成前所未有的社會與政治不平等[4]299。

當下,強人工智能處于起步和萌芽階段,其風險性仍處于潛在階段。已經發布的ChatGPT-4具有語言模型的多模態特征,能夠同時生成文本、圖像和視頻。而繪畫人工智能Midjourney則可以媲美甚至超越人類畫師、攝影師。多模態語言模型的出現意味著人工智能可同時完成電影、音樂、文學作品的創作。這將對整個知識產權創作領域產生顛覆性的影響。而隨著應用場景的豐富和創新,其對于就業市場、價值觀等領域的影響尤為深遠。譬如,強人工智能可代替數以萬計的文化產業從業者,可瞬間生成具有特定價值觀傾向的電影、電視劇等文化產品,這無疑蘊含著結構性失業、社會群體認知沖突等巨大風險。強人工智能的潛在系統性、根本性風險可見一斑。

伴隨強人工智能的深度學習訓練和模型完善,其將廣泛應用于人類生產、生活的各個領域。ChatGPT所顯現的強人工智能的系統性和復雜性風險只是“冰山一角”,科幻作品中人工智能馴化、控制甚至毀滅人類的風險并非杞人憂天。正如有的研究提出的“人工智能巨風險”概念,“巨風險”包括機器自涉式巨風險、社會系統侵入式巨風險、非對稱破壞式巨風險等[5]??梢灶A見的是,隨著人工智能接近、超越人類智慧的“奇點”臨近,人工智能的風險性也將變得尤為突出。如果說弱人工智能風險的核心問題仍是人與人和諧相處,強人工智能風險的核心問題則是人與機器的良性共生。

綜上所述,弱人工智能的風險具有區域性、局部性,其現實風險是可控的。強人工智能的風險則具有根本性、系統性,其潛在風險對人類社會帶有顛覆性。已有研究就人工智能的現實、潛在風險進行了多維和豐富的闡述。但這些研究對人工智能的現實與潛在風險類型的劃分仍存在模糊之處,且未將現實與潛在風險納入統一的理論框架之內,只是從主體維度、時限維度對人工智能風險進行了類型劃分,但這一劃分更多是描述性的[6]。而通過引入和借鑒技術現象學理論視角,可將人工智能不同類型的風險特性納入完整的理論框架之內,從而解釋人工智能風險的內在邏輯關系,提升預防和治理人工智能風險的水平。

二、技術現象學視角下人工智能風險

技術現象學由美國學者唐·伊德于20世紀八九十年代提出。唐·伊德借鑒現象學中的核心概念“意向性”,吸納了梅洛-龐蒂的知覺現象學、海德格爾存在現象學對技術的重視,立足美國實用主義哲學的土壤,創造性地提出了技術現象學理論。由于技術現象學對經驗、技術和身體的重視,它也被稱為經驗主義現象學、實用主義現象學或后現象學。唐·伊德認為,技術是人的意向性延伸,是人與世界關系的連接物。人—技術—世界關系是一種經驗的意向性關系。圍繞這一意向性關系,唐·伊德提出了具身、詮釋、它異、背景4種人與技術的關系。具身關系的意向性表示為(人—技術)→世界,技術成為人的身體知覺的延伸,如眼鏡、電話;詮釋關系的意向性表示為人→(技術—世界),人借助技術來解釋和解讀世界,如溫度計之類的測量儀器;它異關系的意向性表示為人→技術—(—世界),技術作為他者與人產生互動作用關系,如機器人;背景關系的意向性表示為人(—技術—世界),技術成為人生存、生活的背景和庇護所,如核潛艇[7]。

隨著互聯網信息技術對人類社會廣泛和深遠的影響,唐·伊德提出的4種技術現象學關系得到技術哲學研究者的關注和拓展。技術現象學也深受海德格爾的影響,其所引用的技術多為工具性、單一維度技術,如望遠鏡、錘子、眼鏡等。隨著互聯網信息技術以及交互性、融合性技術的發展,學者結合新技術進一步豐富了上述4種關系。譬如,荷蘭學者維貝克發展了技術意向性概念,提出了復合關系和賽博格關系。復合關系指的是人的意向性朝向技術意向性的后果,如智能傳播算法推薦產生的“信息繭房”效應。賽博格關系則是人與機器相互融合、邊界模糊的意向關系。復合關系是對具身關系的發展,賽博格關系是對解釋學關系和他者的發展[8]。而學者Best吸納了傳播學領域的“擬態環境”概念,將唐·伊德提出的4種人技意向關系替換為人與媒介的4種關系,包括(人—媒介)—媒介世界形成的具身關系;人—(媒介—媒介世界)形成的詮釋關系;人—(媒介)媒介世界形成的背景關系;人—媒介(媒介世界)形成的它異關系[9]。此外,還有學者提出了人—技術—(技術—世界)的連接關系,(人—技術—世界)—世界的情境關系[10]。

已有研究對唐·伊德4種人技意向關系的發展凸顯了這一技術現象學理論的張力和解釋力,而交互性、沉浸性技術的發展則為技術現象學的邊界拓展提供了豐富素材。在唐·伊德提出的具身、詮釋、它異、背景關系中,人是技術的主體,人與技術的意向性指向世界。就人工智能技術而言,其不僅具有交互性、沉浸性,更主要的是其具有智識性。也就是說,人工智能使得人與技術之間呈現交互關系,人工智能既是人探索和拓展世界邊界的延伸,也反過來影響著人和社會的多個維度。正因為人工智能的智識性使其在人—技術—世界的意向性關系中發揮著中介性作用[11],因而唐·伊德提出的人—技術—世界的意向性關系發生了變更和異化,沖擊了人作為技術主體的地位,同時蘊含著身體虛化、詮釋遮蔽、他者競爭和文明失序的內在性風險(見表1)。

(一)具身關系的技術身體擴張與身體虛化

在唐·伊德看來,具身關系中技術具有了最大程度的“透明性”,這種透明性使得技術好像融入身體自身的知覺的經驗中[7]。眼鏡、錘子等技術是唐·伊德解釋具身關系的例證,眼鏡是視覺的延伸,錘子“上手”的狀態則是肢體的延伸。需要指出的是,眼鏡、錘子都是單向度的技術,是受身體支配的技術。而針對賽博空間、虛擬現實等身體“不在場”技術,唐·伊德提出了“三個身體”理論。身體一,即肉身的物質身體,具有運動感、知覺性和情緒性;身體二,社會文化意義上文化的身體,如文化、性別、政治等;身體三,技術或技術化人工物為中介建立的技術身體存在物[8]。

人工智能技術尤其是媒介技術的使用,使得(人■AI)—世界所形成的具身關系中,技術身體急劇擴張,而物質身體、文化身體不斷萎縮。一方面,通過虛擬現實技術、視頻通信技術,人們以物質身體“不在場”的方式認知世界、開展社會活動,智能傳播、智能算法將信息、觀念植入人的身體。技術身體代替甚至超越物質身體在影響和建構著文化身體。物質身體、文化身體的缺位,技術身體過度擴張使得智能社會的人類缺少傳統社會的直觀體驗、生活體驗和情緒體驗。另一方面,各種可穿戴智能健康監測儀器全面“入侵”物質身體,將人類的身體和健康狀況數據化、信息化,并不斷給出建議和預警。這種“量化自我”從內在消解人的自主性,人類不會再認為自己是自主的個體,而是習慣把人類整體看做一種生化機制的集合體,由電子算法網絡實時監測和指揮[4]。物質身體的“不在場”和 “全景監控”使得智能時代人的身體結構改變,技術身體急劇擴張,物質身體持續萎縮,文化身體則被智能傳播和虛擬傳播技術“植入”。隨著強人工智能技術的發展和虛擬技術的仿真性,人類的身體將被人工智能技術形塑、監測甚至規訓,這種身體虛化的風險將從根本上動搖人的主體性和能動性。

(二)詮釋關系中的技術解蔽與遮蔽

具身關系、詮釋關系統一被唐·伊德統稱為“中介關系”。詮釋關系中,技術是人解讀世界的符號中介、符號轉譯,譬如航海圖、溫度計等。詮釋學作為一種技術情境中的特殊的解釋活動,這種活動需要一種特殊的行為和知覺模式,類似于閱讀的過程[7]。與具身關系的知覺“透明性”相比,詮釋關系則側重于文本“透明性”。在詮釋關系中,人借助于符號、技術來詮釋和理解世界。從詮釋關系的角度而言,文字、圖片通過互聯網信息技術的迅速傳播,極大擴展了詮釋關系。而人工智能技術的加入,則使人→(技術—世界)的關系變更為人■(AI—世界)。也就是說,一方面,人通過智能技術獲取符號來詮釋世界;另一方面,智能技術也通過人的詮釋行為詮釋人。這種“凝視深淵,深淵也報以回望”的效應,恰是發生在人工智能技術中的詮釋關系,比較典型的例子是各種智能信息推薦算法。譬如,智能新聞軟件能夠根據用戶的閱讀習慣和瀏覽路徑來為其“畫像”,從而推送與用戶個體心理、品位、使用場景相匹配的信息。這種智能信息推送在幫助用戶詮釋世界的同時,也在強化和固化用戶的價值觀,形成“信息繭房”效應??梢哉f,人工智能技術中的詮釋關系既是一種解蔽,同時也是一種遮蔽,形成認知的刻板印象與認知鴻溝。而隨著強人工智能時代的到來,技術遮蔽的風險性顯著提升了。首先,人工智能可遮蔽人的求知與創新能力。人工智能可以編寫程序、制作圖片、撰寫論文、知識問答,在幾秒鐘的時間內完成人類需要長時段的學習與訓練過程,這意味著人類的求知與思考過程可被替代、省略,從而遮蔽人類的學習與創新能力。其次,強人工智能的遮蔽還體現在價值觀層面。有研究表明,ChatGPT的價值觀偏向美國左翼政治觀。ChatGPT多模態文本的生成能力,可以使其作品全部體現某種特定價值觀。因而,人工智能的遮蔽風險使特定的文化、價值觀被篩選、過濾、邊緣化,這種風險已悄然來臨。

(三)它異關系中的競爭與替代風險

在它異關系中,技術成為人的互動者,作為與“我”隨時隨地打交道的前景和準他者出現。唐·伊德已然認識到人工智能的它異性,但認為智能機器人是一種準他者。計算機是一個它異關系技術很好的例子。但是計算機的它者性是一種準他者性,它的真正用處還在于它的詮釋學能力[7]。而隨著人工智能技術的發展尤其是強人工智能技術的臨近,人工智能與人的它異關系已逐漸成為現實。正如赫拉利所提出的“無用階級”④,在機器與人類的競爭僅限于身體能力時,人類還有數不盡的認知任務有待完成,一旦算法在記憶、分析和辨識各種模式的能力上超過人類,會發生什么事尚無法預料[4]。

人工智能與人的它異關系,使人與人工智能處于競爭和替代的風險博弈中。首先,人工智能在就業市場中與人存在競爭關系。人工智能應用會導致經濟增長過程中出現日益突出的資本替代勞動的趨勢,企業具有內在的過度自動化激勵,這會導致嚴重的失業問題[12]。而人工智能在就業市場對人類的擠出效應,則比想象中來得要快。人工智能要把人類擠出就業市場,只要在特定行業需要的特定能力上超越人類,就已足夠[4]。隨著ChatGPT-4的發布,其強大的文字、圖像和知識生成能力引發爭論,即人工智能可在很大程度上替代職場“白領”包括律師的工作。

其次,人工智能的智識水平與人越來越趨近,不僅在就業市場上與人類存在競爭風險,在情感和社會關系中也存在著替代風險。人工智能對語言背景、主體間性的理解,使其與人對話溝通更趨向真實性。ChatGPT4已經能讀懂圖片、理解搞笑圖片的“?!?。當下,人工智能的交互性、主體間性與元宇宙、虛擬現實的結合將是趨勢。在這一背景下,人類與人工智能人物、數字人物進行互動、成為伴侶都將成為現實。在虛實相間的數字世界中,人工智能人物、數字人物將會比人類更能理解、同情人類,也就是說,人工智能不僅能提供智識價值,還能夠提供情緒價值。因而,人與人工智能的關系可能比人與人的關系更為親密、緊密。人與人工智能的它異關系已由科幻作品來到現實,兩者之間的競爭、替代風險性也將越來越高。

(四)背景關系中的文明失序風險

在唐·伊德提出的背景關系中,技術作為一種不在場的顯現,成為人的經驗領域的一部分和當下環境的共同組成部分,如庇護技術、太空站。背景技術起到場域的作用,卻調節著生活情境[7]111-112。在背景關系中,技術如同空氣和WIFI一樣,發揮著場域和情境的功能,只有在其缺失或損壞的條件下才顯示出重要性。當下,強人工智能、通用型人工智能技術的背景功能已經出現,以ChatGPT為例,它已可以接入辦公軟件、繪圖軟件、視頻軟件。而隨著人工智能場景的豐富,ChatGPT接入機器人、汽車、手機以及各種可穿戴設備已不存在技術障礙??梢哉f,類似ChatGPT的強人工智能技術將“植入”各類智能軟件、智能設備。屆時,人工智能技術則像空氣和水一樣,成為人類世界的“背景”和基礎設置。

當人工智能技術成為人類世界的“背景”,人類文明則時刻處于失序、失控的風險之中。首先,文明失序的風險來自人類自身。一方面,掌握和控制人工智能技術的精英、資本具有了操控世界秩序的能力,人類在生物學意義上分為了控制者和服從者;另一方面,人工智能技術的普及使“獨狼式黑客”、網絡極端分子破壞世界秩序和毀滅人類的便利性、可能性極大提升。其次,文明失序的風險來自人工智能的巨大能力。具有智識、意識的人工智能有可能統治和操控人類,也有可能僅僅是為了自身進化而產生毀滅人類的后果。有學者提出警告,一旦人工智能超越人類智能,可能就會直接消滅人類:一是可能擔心人類反撲、拔掉它的插頭;二是要追求某種難以想象的目標[4]。而對于人工智能技術成為世界的背景,雷·庫茲韋爾則給出了偏向樂觀的預測。他認為,人類與強人工智能的結合將帶來人類智慧的突破性增長,未來人類將用智能充滿宇宙中的物質和能量,使宇宙覺醒并成為智能世界的一部分[13]。無論是悲觀還是樂觀的預測,當人工智能尤其是強人工智能遍布人類世界,人類文明社會面臨著失序、失控的風險將在理論層面成為可能。

三、人工智能的意向性與機器行為學

唐·伊德在其技術現象學理論中對于人工智能技術給予了高度關注。虛構的仿制人和機器人幾乎是人類的完美復制品,這種構想中的實體甚至比現實的技術更具有它異性。如果我們發明的東西,能夠事實上等同于或者超越我們自己,這會有什么結果呢[7]。而對于將整個世界納入人類技術改造的視域,唐·伊德稱之為技術總體化,且持有憂慮態度:“高技術文化的興起和變成一種世界文化的路徑是不是獨一無二的呢?如果是的話,那么,馬爾庫塞、約納斯和埃呂爾將成為我們時代的預言家[7]。毫無疑問,人工智能技術是未來世界發展的趨勢。當人工智能技術使人類社會、地球乃至宇宙數據化、信息化,人類的未來走向和前景將如何呢?

在技術現象學的具身、詮釋、它異和背景4種關系中,人工智能技術的引入使得每種關系都具有了交互性和風險性。這種風險性不同于錘子可以作為武器的風險,或者眼鏡存在著損壞的風險,人工智能的風險性來自其在人與世界關系中的交互性和意向性。換而言之,人工智能交互性帶來的風險性是高度“透明”的,甚至是作為人類思想和意識的一部分而“植入”的,每一種風險性都以自我意志的方式體現。在具身關系中,人工智能使技術身體急劇擴張和膨脹,物質身體、文化身體被技術身體所塑造,身體虛化、數字化和信息化直接關涉到人的主體性和能動性,極端的情況便如同電影《黑客帝國》中處于“矩陣”而不自知的人類。在詮釋關系中,人工智能與人處于一種交互詮釋關系,人工智能在解蔽的同時也有著遮蔽的風險性,人的價值觀、創新能力、學習能力都存在蛻化的風險。它異關系中,人工智能在就業市場是人類強有力的競爭者,這一競爭關系甚至會擴展到家庭、社會生活,人工智能代替人成為伴侶和親人,與之相關的道德與倫理規則將如何建構?而背景關系中,人工智能則關涉到人類文明的前途和方向,一個基于總體式、整體性人工智能的世界則處于精英和超人工智能壟斷及失控的風險中。

基于人工智能意向性的風險思考,能夠為人工智能治理提供新的思路。已有的人工智能風險治理主要有技術治理、原則治理兩種路徑。前者注重智能算法的優化、數據的完整性、智能技術的改善等;后者注重從立法、倫理等方面規制人工智能的可能風險。而從技術現象學意向性視角對人工智能風險的分析,能夠為人工智能風險治理提供新的視角。麻省理工學院媒體實驗室的學者在《自然》雜志發表的《機器行為學》一文中提出,了解人工智能體的行為和性質,以及它們可能對人類系統產生的影響是至關重要的,有必要成立專門的機器行為學學科[14]?;诩夹g現象學的角度,揭示人工智能技術存在的4種意向關系風險,這對機器行為學的研究具有較多價值。技術現象學、現象學的重要概念如“意向性”“懸置”“生活世界”等對人工智能底層邏輯的理解有諸多啟發。人工智能有著智識性,但是尚不具有意識。如何限制、規訓人工智能的意向性則成為機器行為學的重要方向。而人工智能在多大程度上能夠學習人類“生活世界”的常識則成為機器學習的重要邊界。同時,如何從人—技術—世界的意向性關系中規避人工智能的身體虛化、詮釋遮蔽、他者競爭和文明失序的風險則成為機器行為學的重要內容。而從意向性關系出發,則能夠有效整合人工智能技術治理、原則治理,使善治良治成為機器行為學的內生品質。

四、人工智能風險治理的新思路

限制、規訓人工智能的意向性風險成為人工智能治理的新視角、新思路。也就是說,人工智能的風險治理不僅要糅合技術治理、原則治理,還要重視人工智能的發展領域、方向和重點。針對身體虛化、詮釋遮蔽、他者競爭和文明失序的內在性風險,人工智能的治理思路也需要相應完善。

首先,人工智能應將重點轉向知覺身體、文化身體的強化,而非側重信息傳播的技術身體,從而克服其身體虛化和消解人的能動性風險。一方面,在知覺身體方面,可引導人工智能廣泛應用于身體功能的增強和延伸,尤其是針對身體缺陷的彌補。譬如,運用人工智能技術幫助聽障人士“聽到”聲音,幫助視障人士“看見”世界。當下,借助“外骨骼機器人”的輔助,高位截癱患者可以抬腿、行走、上下樓梯。人工智能對于身體功能的增強、改善,則能夠實現人類自身福祉的發展,平衡知覺身體、文化身體與技術身體的關系,建立統一的身體認知,避免虛化身體、能動性消解等風險擴大。另一方面,在文化身體方面,人工智能技術尤其是智能傳播技術應促進人類文化和歷史知識的傳播。譬如,在智能推薦算法技術中,給予歷史和人文主題的內容更多權重和流量,支持垂直領域內容生產者。正如尼爾·波茲曼建議:所有的課程都作為人類歷史發展的一個階段來傳授;科學、歷史、語言、技術和宗教的理論都要講[15]。通過人工智能技術的“賦能”,人類將建立更加完善、健全的文化身體,既可以促進同一文化的“各美其美”,又可以推動不同文化的“美美與共”。

其次,技術被海德格爾定義為一種解蔽方式。但由人工智能主導的傳播技術,存在著局部解蔽、總體遮蔽的效應。譬如,ChatGPT等人工智能技術將特定的世界觀、價值觀、文明觀以算法推薦的形式“植入”用戶。人工智能尤其是生成式人工智能的價值傾向是由其獲取數據傾向決定的,而人類社會生產的數據背后必然蘊含著特定文化與價值觀。鑒于此,應從意識形態安全和文化安全的高度重視人工智能技術尤其是生成式人工智能技術。我國出臺的《生成式人工智能服務管理辦法》明確提出:利用生成式人工智能生成的內容應當體現社會主義核心價值觀。在未來人工智能的發展中,應支持和鼓勵彰顯中國氣派的類ChatGPT人工智能,將中國文化、中國話語嵌入在人工智能技術中。要善于運用生成式人工智能開展中華文明海外傳播,提升中華文明海外網絡傳播力、影響力。同時,針對人工智能的詮釋遮蔽風險,還需要將其應用場景重點轉向自然科學領域。既要創新人工智能+教育產品,輔助人類更便利、快速掌握自然科學知識,還要借助人工智能克服人類觀測的局限性,輔助人類探究自然世界的普遍規律,在物理學、數學、生物學等領域突破人類智慧的上限,拓展人類智慧的邊界,從而真正實現其解蔽功能。

再次,針對人工智能在就業市場、情感關系中的他者競爭風險,應加強科技倫理監管,建立和諧的人機關系。一方面,人工智能對就業市場的競爭力已初步顯現。西方社會人工智能對人類就業產生的“他者競爭”,背后是資本與科技的牢固聯盟。而對“他者競爭”風險,應探索以問題為導向的法律法規,避免資本對勞動力形成過大優勢,建立和諧勞資關系。譬如,我國就網約車、快遞服務等智能算法驅動的新形態就業,從倡導算法向善、建立工會組織、提供職業傷害保障等方面開展了有效治理。同時,隨著人工智能技術的發展,人形機器人對就業市場的沖擊將會日益顯著,而這需要探索科技、產業與人才之間的良性共生關系。工信部發布的《人形機器人創新發展指導意見》提出,形成“科技—產業—金融”良性循環,促進技術創新與科技倫理協調發展。隨著人形機器人等產業的發展,建設科技、資本與勞動力的良性循環、和諧關系,則成為人工智能他者競爭風險治理的必經之路。另一方面,人工智能、人形機器人正在進入人們的生活,為人類提供服務、陪伴乃至情感支持,建立和諧的人機關系則成為迫切問題。就此,應明確家庭、婚姻制度是人類社會的倫理基礎,人工智能不能取代和替代人的角色、情感和價值。有研究提出,機器人可以造福于老年人的生活,但對于機器人參與兒童的社交、教育則要持審慎態度。必須確保個人獲得的福利大于機器人侵犯其權利造成的損失[16]。因而,對于生活服務領域的人工智能應用,應充分評估其受益與情感、權利、倫理侵犯的利弊得失,使他者競爭的風險轉化為技術伴侶的福利。

最后,強人工智能廣泛介入人類社會存在著“文明失序”的風險,這不得不使我們反思人工智能發展的方向與路徑。2023年3月,圖靈獎得主約書亞·本吉奧等科技界名人聯名簽署了一封公開信,發表在“未來生命研究所”網站上,呼吁暫停開發比ChatGPT-4更強大的AI系統至少6個月,稱其“對社會和人類構成潛在風險”。而埃隆·馬斯克2023年4月宣布,準備啟動“TruthGPT”的人工智能開發,最大程度尋求真理并理解宇宙本質。無論是暫停更強大人工智能的訓練還是開發“尋求真理與理解宇宙本質”的人工智能,都揭示了這樣一個觀點:強人工智能發展存在著“文明失序”的風險,即對人類文明存在著不可估量風險;而對于強人工智能,技術治理、原則治理都很難根除其系統性風險。目前,歐盟探索出臺《人工智能法案》,歐洲議會已通過該法案的談判授權草案。授權草案基于人工智能的風險程度(不可接受風險、高風險、有限風險和最小風險)進行分類管理,嚴格禁止開發“對人類安全造成不可接受風險的人工智能系統”。我國也發布了《關于加強科技倫理治理的意見》,明確提出要敏捷治理⑤,加強科技倫理風險預警與跟蹤研判,及時動態調整治理方式和倫理規范。

從技術現象學的視角來看,人工智能的“文明失序”風險已然有所顯現,強監管則成為必然趨勢?;陲L險分級和審慎發展的思路,現有的通用型人工智能未必是其唯一發展方向,而傳統的資本驅動、技術擴張的路徑也未必是人工智能發展的唯一商業模式。因為通用型、商業擴張路徑的強人工智能意味著系統性風險的疊加共振和風險失控,從根本上挑戰國家安全和人類生存。早在20世紀六七十年代,圖靈獎、諾貝爾經濟學獎獲得者赫伯特·A.西蒙在其《人工智能科學》一書中就提出,人工智能應重視通過反饋回路來進行系統調節,而不是通過集中系統或直接機構來調節。潘卡基·馬斯卡拉認為,我們應該鼓勵競爭性的、分布式的人工智能,且有足夠的保護措施避免算法失控或不法分子控制人工智能系統[17]。正如英國學者杰米·薩斯坎德在《算法的力量:人類如何共同生存》中所言,某一平臺控制了某領域所有的感知控制設備,那么其塑造人類行為的能力也將是人類無法承受之重[18]。因而,類似ChatGPT的通用型、商業化人工智能將存在著發展的瓶頸和弱點。鑒于此,分散型、分布式的專項人工智能更符合人類社會的長遠福祉,也就是說,“小而美”而非“大而全”的專項人工智能更能平衡風險性、智識性的關系,符合人工智能與人類和諧關系的建構,而要實現這一目標,則需要建立通用型人工智能的良好生態。一方面,應鼓勵和支持開源生成式AI模型(如StableLM)與閉源生成式AI模型(如ChatGPT)之間進行充分競爭,保持人工智能的透明性和分散性,防止少數科技公司壟斷人工智能技術。另一方面,則要規范和限制人工智能的應用領域,使其服務于增進人類福祉而非攻擊性、破壞性領域。同時,還應在不同領域的人工智能應用服務中建立“防火墻”制度,保持其“小而美”技術風格。

五、結語

人工智能時代,應確立以風險預防為核心的價值目標,構建以倫理為先導、技術和法律為主導的風險控制規范體系[19]。從技術現象學的視角,如何治理身體虛化、詮釋遮蔽、他者競爭、文明失序的風險為人工智能發展的方向、領域提供了新的思路。正如“日心說”引發人類宇宙觀和社會思想的重大變革,強人工智能也帶給人類前所未有的挑戰和震撼。當人工智能接近人類的智識水平、人類和宇宙被視為數據和信息的結合體、作為碳基的人類與作為硅基的人工智能互相鏈接,人類便進入了后人類時代。正如海瑟琳·海勒所言:在后人類看來,身體性存在與計算機仿真之間、人機關系結構與生物組織之間、機器人科技與人類目標之間,并沒有本質的不同或者絕對的界限。后人類的主體是一種混合物,一種各種異質、異源成分的集合,一個物質—信息的獨立實體,持續不斷地建構并且重建自己的邊界[20]。在后人類時代,人機關系的和諧共處、碳基文明與硅基文明如何融合遠遠超越機器行為學的研究范圍。因而,站在后人類時代的視野開展機器行為學的研究則更具價值,而技術現象學對人類意識、意向和思維本質的揭示則尤其具有諸多啟發意義。

注釋:

①雷·庫茲韋爾在《奇點臨近:2045年,當計算機智能超越人類》一書中也將“專項人工智能”稱之為狹窄人工智能。

②信息繭房:由哈佛大學法學院教授凱斯·桑斯坦在其2006年出版的著作《信息烏托邦:眾人如何生產知識》中提出的,在信息傳播中,因公眾本身的信息需求并非全方位的,公眾只注意自己選擇的東西和使自己愉悅的信息領域,久而久之,會將自身桎梏于像蠶繭一樣的“繭房”中。

③群體極化:社會心理學術語,最早由媒體學者詹姆斯·斯托納于1961年發現群體討論時的現象而提出的,在一個組織群體中,個人決策同時受群體的影響,容易做出比獨自一人決策時更極端的決定,從而背離最佳決策。

④無用階級:《未來簡史——從智人到智神》一書作者尤瓦爾·赫拉利認為2050年會出現“無用階級”,即西方國家有勞動能力者無法就業,依靠著社會福利生存。

⑤敏捷治理:作為公共管理研究領域的一種創新理論,其所追求的快速、靈活,共同參與等理念和方法,為創新與監管之間的彈性平衡提供了新的理念與工具。

參考文獻:

[1] 何哲.人工智能技術的社會風險與治理[J].電子政務,2020(9).

[2]凱倫·楊,馬丁·洛奇.馴服算法:數字歧視與算法規制[M]. 林少偉,唐林垚,譯.上海:上海人民出版社,2020.

[3]凱西·奧尼爾.算法霸權:數字殺傷性武器的威脅[M].馬青玲,譯.北京:中信出版社,2018.

[4]尤瓦爾·赫拉利.未來簡史——從智人到智神[M]. 林俊宏,譯.北京:中信出版社,2017.

[5]王彥雨,雍熙,高芳.人工智能巨風險研究:形成機制、路徑及未來治理[J].自然辯證法研究,2023(1).

[6]梅立潤.人工智能到底存在什么風險:一種類型學的劃分[J].吉首大學學報(社會科學版),2020(2).

[7]唐·伊德.技術與生活世界——從伊甸園到塵世[M].韓連慶,譯.北京:北京大學出版社,2012.

[8] 楊慶峰.翱翔的信天翁——唐·伊德技術現象學研究[M].北京:中國社會科學出版社,2015.

[9]BEST KIRSTY. Redefining the Technology of Media:Actor, World, Relation[J]. Techné, 2010, 14(2).

[10] 董浩.技術現象學視域下人與媒介的關系省思及認識方法補闕[J].新聞與傳播評論,2020(1).

[11] 彭蘭.生存、認知、關系:算法將如何改變我們[J].新聞界,2021(3).

[12]DARON ACEMOGLU, RESTREPO PASCUAL. Robots and Jobs: Evidence from US Labor Markets[J]. Journal of Political Economy, 2020(6).

[13]RAY KURZWEIL.奇點臨近:2045年,當計算機智能超越人類[M].李慶誠,董振華,田源,譯.北京:機械工業出版社,2011.

[14]RAHWAN IYAD, CEBRIAN MAUNEL, OBRADOVICH NICK, et al.Machine behaviour[J].Nature,2019(7753).

[15]尼爾·波斯曼.技術壟斷——文化向技術投降[M].何道寬,譯.北京:中信出版社,2019:222.

[16]帕特里克·林.機器人倫理學[M].薛少華,仵婷,譯.北京:人民郵電出版社,2021.

[17]赫伯特·A.西蒙.人工智能科學[M].陳耿宣,陳桓亙,譯.北京:中國人民大學出版社,2023.

[18]杰米·薩斯坎德.算法的力量:人類如何共同生存?[M].李大白,譯.北京:北京日報出版社,2022.

[19]張成崗.人工智能時代:技術發展、風險挑戰與秩序重構[J].南京社會科學,2018(5).

[20]凱瑟琳·海勒.我們何以成為后人類——文學、信息科學和控制論中的虛擬身體[M].劉宇清,譯.北京:北京大學出版社,2017.

Research on Artificial Intelligence Risks and Governance from the Perspective of Technological Phenomenology

DONG Xianghui

Abstract: Artificial intelligence, especially strong artificial intelligence, sparks an interactive relationship between human and technology. The four intentional relationships of embodiment, interpretation, otherness, and backgrounding among human, technology and the world in technological phenomenology have undergone changes and alienation, impacting the status of human as the subject of technology. At the same time, it contains inherent risks of body emptiness, interpretation obscuration, competition from others, and civilization disorder. Grasping the intentional relationship among human, technology and the world has become a new approach and perspective for risk management in artificial intelligence, which helps to improve the governance path of artificial intelligence technology and principles, and promotes good governance to become an endogenous quality of machine behavior.

Key words: artificial intelligence; technological phenomenology; intentionality; post humanism

責任編輯:鄧?? 喆

猜你喜歡
意向性人工智能
我校新增“人工智能”本科專業
意向性運動干預影響局部腦缺血大鼠GLUA2和N-cadherin表達的影響
集體意向性現實生成的基本路徑
2019:人工智能
人工智能與就業
數讀人工智能
下一幕,人工智能!
下一幕,人工智能!
淺析胡塞爾現象學的意向性結構
(簡論詩創作的意向性)
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合