?

對人工智能火熱發展的冷思考

2024-04-02 12:16朱榮生王豪
世界知識 2024年7期
關鍵詞:人工智能人類模型

朱榮生?王豪

2023年11月2日,首屆人工智能安全峰會在英國布萊奇利莊園舉行,峰會發布《布萊奇利宣言》。

2月16日,美國OpenAI發布文生視頻大模型Sora。從OpenAI官網的介紹來看,Sora可以根據人類輸入的文字生成播放順暢的虛擬影片。這一文生視頻技術的進步再次激發了社會各界關于人工智能(AI)將對人類社會產生何種影響的討論。輿論在熱議AI時代的美好前景同時,也擔憂人類社會是否有足夠的能力和韌性來適應技術變革。這種期待與焦慮交織的感受長期伴隨著人們對AI技術發展及其影響的討論。

文生視頻“GPT3”時刻的期待與焦慮

在2023年,產業界研發的生成視頻模型主要包括Runway的Gen-2、Stability的Stable Video Diffusion、谷歌的Video Poet。這些模型大多僅支持生成時長2至20秒的視頻,而Sora突破了當前視覺大模型生成“60秒超長視頻”的瓶頸。從這一角度看,文生視頻似乎較快進入了“GPT3時代”。

AI技術將加速迭代,并帶來社會效率的提升。360集團創始人兼董事長周鴻祎認為,Sora的出現意味著通用人工智能出現的時間將從十年縮短到一年。有“通用人工智能之父”之稱的美國科學家本·戈澤爾更加樂觀地評估道,AI即將迎來指數級“智能爆炸”,在未來三到八年時間里達到人類智慧的水平。當前的文生視頻技術的賦能性效果可能更多體現在提高工作效率方面,可以通過算法自主學習快速合成影視作品的場景、角色和動作,進而減少自動化剪輯、特效渲染等工作的成本。特別是,文生視頻技術可以讓缺少經驗和資源的創作者制作出令人驚嘆的高質量視頻。從這一技術賦能的路徑看,一個“人人都是影視創作者”的時代即將到來。

在顛覆性技術概念不斷涌現的當下,技術變革所產生的不確定性也催生了某種焦慮情緒。AI大模型從實現流暢的人機對話到生成視頻的快速發展,再次觸發了人們對新興技術沖擊部分傳統行業、加大失業就業失衡、加劇虛假信息泛濫等社會穩定方面挑戰的擔憂。從國家間關系的角度看,AI“強者先行”的發展特點也將強化國際競爭壓力。在2024年世界政府峰會上,英偉達創始人兼CEO黃仁勛提出“主權人工智能”(Sovereign AI)的概念。他表示,每個國家都需要擁有自己的AI基礎設施,以便保護自己的文化和經濟安全。

盡管每個國家都有維護自身“主權人工智能”利益的需求,但是大國和小國因實力的不均衡面臨著不同程度的脆弱性。大國具有更強的技術儲備和抗風險能力,能夠在國際技術交流網絡中處于核心地位。相比之下,小國恐怕會因缺少足夠的資源而越發依賴于大國的技術供給,從而在全球AI生態體系發展中處于邊緣位置。技術弱國可能被動性地拉大與技術強國的實力差距,而技術強國則可能為了爭奪國際核心地位而更加奉行過度安全化的政策。這將進一步提高數字地緣政治競爭的烈度,壓縮大國之間本已有限的關系緩和空間。

機器取代人類?

自2016年AlphaGo戰勝韓國圍棋大師李世石以來,AI技術發展在進入快車道的同時,也引發了輿論界對人類能否適應快速變革的擔憂,更有人甚至提出了帶有科幻色彩的“AI奴役人類、取代人類”的激進論斷。這些言論反映了人們面臨時代變革所產生的不安全感,大家愈發迫切地希望在充滿不確定性的未來中尋找應對諸多挑戰的路徑和方案。

當前的文生視頻技術距離人類智能還有較大差距。有技術專家認為,AI技術不具備人類理解和處理復雜問題的能力。圖靈獎得主、Meta首席AI科學家楊立昆表示,人工智能模型生成逼真視頻的能力不等同于它可以像人類一樣理解世界。他認為,目前的AI技術還難以在理解物理世界中因果關系的基礎上生成視頻。北京郵電大學人機交互與認知工程實驗室主任劉偉做出了類似的判斷。在他看來,Sora的核心模型與GPT大語言模型十分相似,都是建立在轉換架構基礎上的軟件系統,存在無法深刻理解人文藝術、道德倫理的技術障礙。由此來看,這兩個AI大模型有較強的學習能力,卻遠未達到處理復雜事物的水平。

人們應當理性看待AI技術應用對社會發展產生的影響。盡管科技界和產業界對能夠達到人類智能水平的AI最終走入大眾視野存在樂觀預期,但是當前的人工智能技術還沒有表現出引發社會結構顛覆性變化的效果。從ChatGPT到Sora,AI所發揮的主要賦能作用是提高用戶的工作效率,還沒有達到“大量機器取代人類就業”的變革程度。

當然,忽視AI技術失序發展可能產生的風險是不負責任的。美國計算機科學家未來學家雷蒙德·庫茲韋爾宣稱,到2029年,AI的智慧將達到人類的水平,“有人認為我的這個判斷比較保守”。埃隆·馬斯克在社交媒體上轉發了這一評論,并表示“人工智能明年可能比任何一個人類都聰明,到了2029年,可能比所有人的智慧總和都更聰明”。如果AI依然延續當前通過不斷疊加算力的“暴力計算”方式來提高能力,并且最終實現超越人類的“智能外溢”,那么放縱AI技術無限度發展的潛在風險就是極其巨大的,這就包括機器可能會產生自我安全保護的意識,進而采取擺脫人類控制的行動,由此控制、奴役甚至消滅人類。

從規制人工智能潛在風險的角度出發,國家在維護“主權人工智能”利益的同時,應推動AI全球治理合作。AI領域的相關治理攸關人類命運,是全球治理面臨的嚴峻課題。國際社會需要重視廣大發展中國家在新興技術浪潮中的脆弱性。技術強國不應只顧本國利益而一味采取“脫鉤斷鏈”手段。AI是軍民兩用技術,就其民用領域來說,引導全球AI行業健康發展,實現“AI向善”,進而促進AI技術造福于全人類,符合各國共同利益。而在更為敏感的軍事安全方面,AI的軍事化應用越發引起國際輿論的關注。據國際媒體報道,AI技術已在新一輪巴以沖突中被運用,造成平民傷亡。從建構人工智能全球安全治理規則的角度出發,國際社會恐怕需要探索建立某種“有人道的AI”的共同主張,以避免算法定生死釀成的人道主義災難。

總之,要推動實現“AI為了人類”的目標,就需要以人類命運共同體理念為指導,確立“全球人工智能”的意識和行動,推動技術進步與賦能、防風險和國際規范制定的統籌并進、相得益彰。

(朱榮生為清華大學戰略與安全研究中心特約專家,王豪為北京理工大學博士后)

猜你喜歡
人工智能人類模型
人類能否一覺到未來?
重要模型『一線三等角』
人類第一殺手
重尾非線性自回歸模型自加權M-估計的漸近分布
1100億個人類的清明
2019:人工智能
人工智能與就業
數讀人工智能
3D打印中的模型分割與打包
下一幕,人工智能!
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合