?

ChatGPT生成式人工智能的意識形態風險及其化解

2024-03-31 15:38胡啟明尹婉菲
高校輔導員 2024年1期
關鍵詞:化解

胡啟明 尹婉菲

摘 要:以ChatGPT為代表的生成式人工智能的崛起是人工智能領域一次重大的變革,這一顛覆性技術的突破和應用也帶來了一系列的意識形態潛隱風險,包括爭奪意識形態生產權、維護西方意識形態話語權、弱化主流意識形態主導權、稀釋意識形態主動權等。為有效應對意識形態風險,國家應從推動人工智技術自主創新、制定ChatGPT類生成式人工智能應用標準規范、提升公眾的生成式人工智能媒介素養、建立ChatGPT類生成式人工智能監管機制等方面著手,以發展、控制、利用并舉的方式做好意識形態安全工作。

關鍵詞:ChatGPT;生成式人工智能;意識形態風險;化解

[中圖分類號]G641 [文獻標識碼]A [文章編號]1674-9618(2024)01-0036-06

*基金項目:本文系廣西教育科學“十四五”規劃2023年度資助經費重點課題(A類)“習近平總書記關于思想政治理論課重要論述研究”(項目編號:2023A035) 、廣西研究生教育創新計劃項目“新時代研究生‘導學思政體系構建研究”(項目編號:JGY2023130)階段性成果。

ChatGPT全名“Chat Generative Pre-trained Transformer”,譯為“聊天生成式預訓練轉換器”,是由美國人工智能研究公司于2022年11月30日發布的一款聊天機器人應用程序,自發布以來僅僅2個月就擁有了1億活躍用戶。目前,ChatGPT還在不斷迭代,多模態預訓練大模型GPT-4具有更加強大的語言處理能力,能夠支持文字、圖像等多模態鍵入,可以生成20種編程代碼,在30多種語言之間自由切換。ChatGPT生成式人工智能表現出的強大“類人”性是以往“機械味”的人工智能所難以企及的,這種顛覆性的創新給信息的生產、傳播帶來了深刻的變化,給意識形態安全帶來風險挑戰。習近平總書記在黨的二十大報告中強調:“意識形態工作是為國家立心、為民族立魂的工作?!盵1]在ChatGPT生成式人工智能浪潮中鞏固壯大主流思想輿論,防范化解其中的意識形態風險,在沖突和調適中找到優化路徑成為一個值得關注的問題。

一、ChatGPT生成式人工智能的應用基礎

ChatGPT生成式人工智能的生成性體現在其能夠極快地搜集并整理資料,組合成成熟的、類似人的口吻的文本回答,并且在與人的交互過程中甚至能夠揣摩人的需要,進而快速、準確、智能地生成圖片、文字、視頻等。這些變革的背后是大型語言模型、人類反饋強化學習、基于生成式預訓練模型的新突破。

(一) 大型語言模型:搜集全網數據

作為大型語言模型,ChatGPT的訓練數據集包含了海量互聯網文本數據,如代碼、詩歌、法律文件、自然對話等,都是這些數據的一部分?;A的GPT數據來源于網絡爬蟲數據集、WebText2數據集、書籍、期刊、維基百科以及其他數據庫,其中最大數據來源是網絡爬蟲數據集,GPT訓練用的數據量大約3 000億單詞。據統計,ChatGPT的算法模型已經擁有1 750億參數,用于預訓練的數據量也達到了45TB,GPT4更是達到100萬億的模型參數。隨著ChatGPT的不斷更新,其數據容量也不斷擴增。訓練大規模語言模型,語料是不可或缺的,ChatGPT具有廣泛的數據挖掘能力,可以通過與用戶對話過程、上下文的理解以及互聯網信息的收集,不斷擴充和更新文本庫,類似于掌握著全網數據的“集成箱”。隨著大數據和生成式人工智能的不斷發展,海量數據也不斷為ChatGPT類生成式人工智能提供更多支撐。

(二) 人類反饋強化學習:模擬個人偏好

人類反饋強化學習是一項涉及多個模型和不同訓練階段的復雜概念。它是強化學習的一個擴展,它將人類的反饋納入訓練過程,為機器提供了一種自然的、人性化的互動學習過程。人類反饋強化學習相對于傳統強化學習具有非常獨特的優勢,那就是能夠更好地與人類的意圖保持一致,從而使得在一般文本數據語料庫上訓練的語言模型能和復雜的人類價值觀對照,并能夠根據需要對“人—機”反饋即時進行整理,并從中流暢的學習、進化。[2]其訓練過程可分為三個步驟。一是無監督預訓練。這一階段是使用大規模的文本數據構建輸入語言模型,并通過不斷采集互聯網文本數據,構造一個超大規模的數據集。二是監督微調階段。對初始語言模型的部分參數進行微調,在輸入文本中放入具體的任務信息,嘗試讓模型預測答案。三是指令微調階段。通過隨機抽取用戶問答數據,讓專業標注人員給出高質量答案,將符合人類偏好的高質量答案投喂給已經訓練好的GPT進行再次微調,從而對數據集進行優化,使模型對齊人的思考模式。在這一階段,模型接受了更廣泛的自然語言回答任務,從而具備了回答通用問題的能力?;谌祟惼脭祿蛷娀瘜W習技術,ChatGPT前所未有地實現了人類認知機制的深度模擬,這為后續細化關系連接、個性要素的識別與生成奠定了基礎。

(三) 生成式預訓練轉化模型:替代人工文本生產

ChatGPT是生成式預訓練轉化器系列語言模型中的一員,是在GPT-3.5的基礎上進行微調的改進版。預訓練模型是先通過一批語料進行模型訓練,在這個初步訓練的基礎上再繼續學習,從而使模型具備足夠多的語言知識。預訓練模型的訓練分為兩個階段,即預訓練階段和微調階段。通過這兩個階段,生成式預訓練模型更加精通語料,其優勢在于能夠處理大量數據并以自然語言生成回答。最新版本的ChatGPT-4是其第四次迭代,作為一個自然語言處理的人工智能語言模型,與人類相比,它能夠更高效、更快捷地處理和分析大量數據,能夠全天候工作,可以替代一些需要處理大量文本的工作。第四代生成式預訓練轉化器現在可以處理來自用戶多達25 000字的文本,用戶可以向其發送一個網頁鏈接,要求它與該網頁上的文字進行互動,進行長篇寫作,并且還可以進行圖片互動。因此,ChatGPT借助生成式預訓練轉化模型,具有極大的文本生產能力,甚至可以在很多應用場景中替代人工。

二、ChatGPT生成式人工智能的意識形態潛在風險

習近平總書記高度重視互聯網新型技術的發展,強調“對互聯網規律的把握能力、對網絡輿論的引導能力、對信息化發展的駕馭能力、對網絡安全的保障能力”的深刻認知。[3]從對ChatGPT生成式人工智能的應用基礎的分析中可以看出,其所依賴的突破性技術在設計和應用上給意識形態安全帶來潛在風險。

(一) 智能介入:爭奪意識形態生產權

ChatGPT生成式人工智能使得互聯網內容生產模式發生了根本性轉變,從UGC(用戶生成內容)過渡到AIGC(人工智能生成內容)。在此背景下,ChatGPT生成式人工智能逐步融入文字、代碼、音樂、圖片、視頻、3D多媒介形態的內容生產中,能夠借助預訓練、大模型、深度學習,根據數據的變動,不斷更新自己的文本庫,實現與人的跨界融合交往。

一是自動生產意識形態文本。ChatGPT生成式人工智能會逐步滲透到意識形態領域,通過生成式預訓練轉化模型將意識形態內容生產轉為AIGC(人工智能生成內容)模式。在AIGC(人工智能生成內容)模式下,ChatGPT生成式人工智能通過建立一個超大規模的語言模型,不斷吸納互聯網上的海量文本,經過人類反饋強化學習,以概率形式來判斷文本是否符合正常的人類表達,在此基礎上自動根據現有的主題推斷下一階段可能的熱點內容,并依據用戶在線游覽的時間長度、點贊及轉發的次數、口碑的好壞等進行及時評估,并適時調整生成內容,以期提供最“懂”人心的內容,使采、編、寫工作自動化,更加快速、準確、智能地生成意識形態工作所需要的圖片、文字和視頻等。更重要的是,ChatGPT生成式人工智能還具有“類人”式的語言理解力,能夠依據人的心理需求即時生成意識形態內容,即“實時對話+即時創作”的人機交互式高智能的內容生產,這對意識形態工作呈現出了巨大的風險空間。

二是擠壓意識形態工作者的內容生產空間。ChatGPT生成式人工智能的到來,使得意識形態工作者無論是站在專業化角度還是用戶角度開展的意識形態工作都被部分替代,意識形態內容生產空間被擠壓。生成式人工智能的內容生產效率和偏好分析速度相比意識形態工作者而言占據了極大優勢。例如,ChatGPT生成式人工智能在10秒之內就可以生成一篇相關文章。ChatGPT生成式人工智能可以在互聯網上短時間內海量發布和推送某種相似論調的內容,從而影響輿論,擴大影響力。意識形態不再僅僅是人類的觀念、思想集合,還包括人工智能的“觀念”。

(二) 價值傾向:維護西方意識形態話語權

科學不是自己產生的,“科學研究和技術改進,既不是在一個純粹自由的領域內進行的,也不是由一個孤立的科學家和技術專家做出的,而是在社會的生產關系和社會的階級斗爭的范圍內進行的,因此它們必然受到社會性的制約”。[4]ChatGPT雖只是人工智能,但它的底層邏輯仍然是資本邏輯,其深度學習基于人為訓練、人為操作,與西方意識形態保持著千絲萬縷的聯系。

其一,從技術構架來看,ChatGPT的訓練基于互聯網上的文本語料庫,這些語料庫主要來源于西方社會中最有影響力的平臺,如西方主流新聞媒體機構、著名大學和社交媒體平臺。然而,這些主流媒體、傳播平臺是為資本主義服務的,更是西方國家意識形態張目的主要陣地??梢?,ChatGPT生成式人工智能所依賴的大型語言模型和數據生態環境都源于西方,與生俱來有著強烈的西式政治正確的內在訓導,比如平權意識、種族問題、性別問題等,它有一套符合資本主義政治標準的處理方案,時時刻刻都在表明其資本主義偏向的價值觀,維護并強化西式的意識形態話語權。不僅如此,ChatGPT生成式人工智能的開發者、模型訓練人員的政治取向也會影響該技術模型的意識形態偏向。

其二,從實際應用來看,技術上的巨大優勢會直接造成話語權上的壟斷地位,一些西方國家利用技術創新優勢維護其意識形態話語霸權已是屢見不鮮。ChatGPT生成式人工智能正是一種新興的價值輸出工具,是西方資本主義國家搶占信息網絡戰場意識形態話語權的銳利武器。ChatGPT生成式人工智能能夠相對容易地將西方的價值觀念植入訓練數據,或以算法選擇來呈現,通過操控數據和模型,在與用戶的交互中對用戶精準“投喂”,從而潛移默化地使用戶接受西方社會制度、價值觀念和發展模式,達到塑造社會心理和集體認知、維護西方話語霸權的目的。因此,我們只有掌握生成式人工智能的數據集和算法模型,把握數據集的來源和樣本量,才能避免意識形態話語權的喪失。

(三) 擬態環境:弱化主流意識形態主導權

李普曼認為,“擬態環境”是插入人與現實之間的信息環境,這個信息環境是經由媒體遴選、加工、過濾、重構相關信息而造就的人為信息環境,而非對客觀世界信息的鏡子式呈現。[5]ChatGPT生成式人工智能具有強大的擬態環境建構能力,使得用戶對虛擬世界的感知遠超過對現實社會的認知,這在客觀上造成主流媒體難以“發聲”,弱化了主流意識形態的主導權。

其一,主流媒體所具有的傳播“主旋律”的功能被弱化。ChatGPT生成式人工智能是聊天機器人,其主要特點是能夠迅速回答用戶提出的問題,并能根據用戶所提供的信息進行智能推算,精準推送用戶感興趣的內容。其構建的擬態環境從人找信息,變為信息找人,對用戶的吸附能力較強,從而擠占主流媒體的傳播主體地位,使得意識形態傳播主體不僅僅是活生生的人,而且延伸到人為設計、研發的生成式人工智能。進而,主流媒體的議程設置功能被減弱,引領輿論的能力受限,主流媒體的“主流”地位被消解,輿論引領功能被削弱。

其二,ChatGPT生成式人工智能的深度偽造功能妨礙社會共識的達成。ChatGPT生成式人工智能的人類反饋強化學習技術能夠“編織”與用戶偏好相符合的擬態環境。在此信息環境中,公眾會樂此不疲地沉浸在智能“黑箱”營造的“過濾氣泡”中。信息的不對稱又造成思想的不對稱,用戶接受的內容出現“馬太效應”,各種錯誤思潮內隱其中,使凝聚社會共識面臨困境,主流意識形態主導權被弱化。

(四) “數字鴻溝”:稀釋意識形態主動權

如今的數字時代,數據在意識形態治理中發揮著舉足輕重的作用。習近平總書記就曾將數據與工業時期的石油資源作比較,以突出其重要性,“誰掌握了大數據技術,誰就掌握了發展的資源和主動權”。[6]顯然,數據也是掌握意識形態領域斗爭主動權的核心要素。ChatGPT生成式人工智能的底層構架就是大型語言模型,其巨量數據資源絕大部分來自英文數據,由此帶來意識形態領域斗爭主動權被稀釋的問題。

其一,ChatGPT生成式人工智能無形中強化西方國家意識形態輸出的優勢。ChatGPT生成式人工智能的大型語言模型的訓練和應用往往受到特定西方語言和文化的影響,其在英語對話的場景中輸出的結果更加豐富,因此用戶可能獲取的結果更多源于對英語信息的處理,這有利于西方國家開展信息殖民。西方國家憑借該優勢有目的地兜售其價值體系,這不僅僅是意識形態話語權的問題,還是稀釋非英語國家在該領域的意識形態主動權的問題,使其淪為“沉默的大部分”,遭受“數字鴻溝”下的意識形態打壓。

其二,ChatGPT生成式人工智能會進一步“掘深”國家內部“數字精英”與“智能窮人”之間的“鴻溝”,拉大一個國家內部不同區域、不同人群在智能應用方面的不平衡,進而擴大不同群體在觀念生成、知識創造、社會認知等方面的差異,形成群體性認知偏狹,造成意識形態工作的被動。此外,擁有情感計算與一般“智商”的ChatGPT生成式人工智能在技術設計上還會由于某些群體發聲較少而忽略這部分人群的訴求,導致其生成的內容無法充分代表這些群體,甚至生成大量具有偏頗、歧視性的言論,這些偏見可能影響到我國各地區、民族、宗教、文化傳承的良性發展,擾亂主流思想輿論建設,不利于舉旗幟、聚民心、育新人、興文化、展形象,以至于意識形態工作的主動權受到挑戰。

三、ChatGPT生成式人工智能的意識形態風險化解

ChatGPT生成式人工智能給意識形態領域帶來了諸多風險和挑戰,作為引領科技和產業變革的新應用、新技術,必須對此辯證看待,以“治”化“智”,合理化解其中風險,為我所用。

(一) 推動人工智能技術自主創新

技術自主創新是應對生成式人工智能下意識形態領域潛隱風險的基礎。ChatGPT生成式人工智能的強勢登場,讓世人見證了人工智能技術的力量,其引發的意識形態隱憂必須從技術源頭解決。習近平總書記在2016年的網絡安全和信息化工作座談會上明確指出,增強網絡安全防御能力和威懾能力……攻防力量要對等。要以技術對技術,以技術管技術,做到魔高一尺、道高一丈。[7]我國要將人工智能背景下的意識形態主動權、主導權、話語權等牢牢掌握在自己手中,就必須不斷優化智能技術研發,開發本土智能語言模型,深化智能技術助力意識形態治理的供給側改革,在全球多語言輿論場中發出中國聲音。目前,我國百度發布的“文心一言”、華為云盤古大模型等都是繼ChatGPT發布以來中國科技企業推出的類ChatGPT產品,均在人工智能領域實現了重大突破,但是與ChatGPT相比較還存在一定差距,有專家判斷這一差距主要集中于大模型環節。在新一輪人工智能革命背景下,中國要在生成式人工智能中占有一席之地,就必須加大我國人工智能領域的體制優勢,深化相關領域的研發投入與產業落地。一是鼓勵信息技術企業加快推動人工智能大模型應用,在擁有屬于自己的“ChatGPT”的基礎上,強化人工智能技術的價值矯正,將“向上向善”技術準則真正貫徹到生成式人工智能技術發展過程,更好地服務于我國的意識形態安全。二是要優化算法以及建立大語言模型,并結合生成式人工智能技術下話語受眾的特征、心理、需求等,針對數據代表性缺失引起的偏差,對生成式人工智能時代話語進行征用與編譯,從技術源頭消除算法歧視帶來的意識形態霸凌,從而“講好中國故事”,增強我國生成式人工智能的意識形態國際傳播能力。三是提高生成式人工智能的攻防技術。將深度學習、對抗性機器學習、圖片分類神經網絡等智能技術創新應用于惡意攻擊檢測、安全策略防御機制加固等,以此來有效防范侵犯隱私、算法歧視、意識形態滲透等風險。四是正向利用生成式人工智能技術。借助生成式人工智能算法技術有序推進意識形態安全治理和意識形態生態環境建設。國家要加強“生成式人工智能+主流媒體”建設,將主流價值融入內部代碼和算法設計,針對用戶興趣點和訴求點,增加“主旋律”算法推薦權重,牢牢掌握網絡意識形態安全主動權。

(二) 制定ChatGPTT類生成式人工智能應用標準規范

標準規范建設是防范化解ChatGPT類生成式人工智能給意識形態領域帶來潛隱風險的約束條件。國家要在“技術共識”和“社會共識”統一中,引導ChatGPT生成式人工智能更好地落地,打破西方發達國家“技術霸權”帶來的“意識形態霸權”。一是堅持總體國家安全觀的指導,既要利用好新技術的發展,也要有底線思維。國家要加強對人工智能關鍵產業和數據中心的產業建設及保護力度,建立技術安全標準體系,全面提升生成式人工智能技術基礎設施的安全保障能力,構筑起意識形態安全防線。二是要以社會主義核心價值觀為引領,明確ChatGPT生成式人工智能在涉及政治、文化、宗教等領域的應用邊界,加快制定我國ChatGPT類生成式人工智能的應用指南。三是要突出問題導向,針對ChatGPT生成式人工智能擬態環境深度偽造、智能過度介入個體認知、模型訓練的西式價值傾向、數字鴻溝的擴張等問題,細分其應用范圍,完善應用標準規范,建立嚴格的違法行為追責機制。四是積極參與ChatGPT生成式人工智能應用相關國際標準制定工作,支持自主創新產品和技術參與國際競爭,推動自主創新成果形成相關國際技術標準。國家要加強ChatGPT類生成式人工智能應用的標準化研究,不斷提升ChatGPT生成式人工智能應用的國際話語權和規則制定權。

(三) 提升公眾的生成式人工智能媒介素養

國家要強化主體建設,提升公眾的生成式人工智能媒介素養,有效應對ChatGPT類生成式人工智能下的意識形態風險。傳統的媒介素養是指個體對媒體信息的獲取、評估、理解和創造的能力,注重的是主體對文本的甄別與分析,與其不同的是,AIGC(人工智能生成內容)技術強化了內容生產的智能化。ChatGPT生成式人工智能從已知的具體實例中抽象出一般性規律或概念,并將其應用到新的情境中的泛化能力,以及在不同領域或概念之間發現相似性和共性,并將這些類似之處應用于新的情境中的類比能力日益增強。這樣一來,ChatGPT生成式人工智能在“人—機”交往中就具有更多的價值觀念輸出的主動性和主導性,衍生出的意識形態生產權力作用于作為媒介主體的個體,使之主體意識不斷削弱。為此,國家要防范ChatGPT生成式人工智能在意識形態領域的智能介入,必須提升公眾相應的媒介素養。一是提升對生成式人工智能技術的認知素養。國家要增進公眾對生成式人工智能使用文本數據、圖像數據、音頻數據等多種類型數據訓練和生成內容的應用原理、技術運作機理的認知,使個體對生成式人工智能產生的信息具有一定的批判性思維,總體上能夠更好地理解、把握、應用生成式人工智能,而不被“人工智能霸權”所左右。二是培養生成式人工智能人文素養。在人工智能時代,人類相對智能計算最大的優勢就在于對文化的把握、對道德問題的思考以及對情感的理解。人工智能技術越發展,越需要強化人文素養的培育。國家必須以馬克思主義科技觀為指導,通過跨學科學習、知識宣講等手段增強公眾人工智能技術與人文協同的系統思維能力,提高科學思維辨析能力,破除工具理性和認知偏狹的遮蔽,形塑價值認同。三是增強生成式人工智能安全意識。生成式人工智能逐漸嵌入社會系統中,在給社會生活帶來極大便利的同時,也帶來相應的安全隱患。公眾需充分把握生成式人工智能所產生的各類社會風險,增強對隱蔽性強的意識形態斗爭的識別和防范能力,自覺抵制錯誤思潮。

(四) 建立ChatGPTT類生成式人工智能監管機制

建立監管機制是應對ChatGPT類生成式人工智能意識形態風險的保障。國家防范化解意識形態領域風險必須做到未雨綢繆。盡管國家新一代人工智能治理專業委員會相繼于2019年和2021年發布了《新一代人工智能治理原則——發展負責任的人工智能》和《新一代人工智能倫理規范》,但現有的行業性倡議在應對人工智能帶來的意識形態風險問題時,其約束力和適用性針對性都不強,只有事先預警和事后懲治相互結合、政“治”與法治共同助力,才能破解ChatGPT類生成式人工智能可能帶來的困境。一是要加強黨對科技倫理治理的全面領導,把好生成式人工智能發展的“方向盤”。黨的領導是ChatGPT類生成式人工智能發展“不偏航”的根本保證。只有加強黨對各類科技組織的領導,建立與我國意識形態相符的科技倫理體系,才能使生成式人工智能技術更好服務人民。二是強化法律監管。隨著生成式人工智能應用的推廣,國家已經注意到其中潛隱的法律、法規監管缺陷,并于2023年7月10日頒發《生成式人工智能服務管理暫行辦法》,探索完善ChatGPT類生成式人工智能在內容生成、應用、傳播當中的相應法律、法規條款。三是要注重技術監管。針對不同的人工智能產品、服務和應用,國家要按照落實意識形態工作責任制的要求,明確各級監管者的主體責任和管理界限,對ChatGPT類生成式人工智能上的信息進行技術監管,監測ChatGPT類生成式人工智能的發展動向,對其中可能引發的意識形態領域風險及時分析、研判,精準把握發展態勢。

總之,隨著以ChatGPT為代表的生成式人工智能的不斷推廣,新時代意識形態安全面臨新的挑戰,嘗試以發展、控制、利用三維并舉的方式不斷尋求適應性治理策略,能夠為新時代意識形態治理提供有效借鑒。

參考文獻:

[1]習近平.高舉中國特色社會主義偉大旗幟 為全面建設社會主義現代化國家而團結奮斗——在中國共產黨第二十次全國代表大會上的報告[N].人民日報,2022-10-26(001).

[2]Kaili-May Liu G. Perspectives on the Social Impacts of Reinforcement Learning with Human Feedback[J].arXiv preprint arXiv:2303.02891,2023,(2).

[3]習近平.習近平關于網絡強國論述摘編[M].北京:中央文獻出版社,2021:18.

[4]列寧.列寧選集(第二卷)[M].北京:人民出版社,1995:180.

[5]沃爾特·李普曼著.公眾輿論[M].閻克文,江紅譯.上海:上海人民出版社,2002:1.

[6]中共中央文獻研究室編.習近平關于科技創新論述摘編[M].北京:中央文獻出版社,2016:76.

[7]習近平.在網絡安全和信息化工作座談會上的講話[N].人民日報,2016-04-26(002).

(責任編輯:郁有凱)

猜你喜歡
化解
如何在刑事申訴中發揮控申職能促成矛盾化解、息訴罷訪
從城濮之戰看參謀的作用
新媒體背景下,廣播新聞如何化“微”為機
班主任如何化解班干部和其他同學之間的矛盾
化解我國房地產庫存對策研究
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合