?

風險與超越:生成式人工智能賦能思政教育的倫理分析

2023-02-18 08:10任鳳琴董子涵
關鍵詞:思想政治教育

任鳳琴 董子涵

摘 要:作為新一輪科技革命的重要引擎,人工智能技術的創新迭代不斷加快,生成式人工智能正深度參與各學科的發展,為思想政治教育的創新發展帶來了挑戰與機遇。在以ChatGPT為代表的科技盛宴中,生成式人工智能作為“智慧工具”為思想政治教育活動的開展提供了更為先進的方法選擇、更為智能的技術方案以及更為自由的應用場景,擘畫了思想政治教育的轉型圖景。然而,技術向度的不斷增強也使得思想政治教育面臨著不同維度的倫理風險。從主體維度來看,可能會產生教育者主導性地位下降的風險;從客體維度來看,可能會產生教育對象自我認知失衡的風險;從介體維度來看,可能會產生人工智能技術運用不當的風險;從環體維度來看,可能會產生思想政治教育環境復雜化的風險。究其原因,主要在于生成式人工智能算法自身的局限性與思想政治教育的實效性相矛盾、技術應用的工具理性與教學的價值理性相沖突、人工智能的類主體性與教師的主導地位相對峙以及技術發展的難以預測性與相關主體風險認知的有限性相制約。相應地,要彰顯科技賦能思想政治教育“化挑戰為機遇”的轉型向度,需要正確處理好育人與技術、工具理性與價值理性、技術創新與個體賦能、規章制度與人員素養的關系,以實現對潛在倫理風險的超越,促進思想政治教育與前沿數字信息技術的深度融合。

關鍵詞:生成式人工智能;思想政治教育;倫理風險;破解對策;ChatGPT

中圖分類號:G641

文獻標識碼:A

文章編號:1673-8268(2023)06-0080-10

2022年末,生成式人工智能應用程序ChatGPT一經發布就迅速上升為一個現象級熱點事件,人工智能的發展成為世界各國關注的焦點之一。自20世紀50年代興起至今,其核心技術和典型應用都呈現出爆炸式增長的態勢,以算法和大數據為驅動力的生成式人工智能成為打造教育服務智能體的新型引擎,為思想政治教育的創新發展提供了新的契機。但人們在享受人工智能技術紅利的同時,也應該意識到其所帶來的倫理風險,教育過程中某些不可或缺的成分如倫理、價值、道德、情感等可能會被技術偏見所忽視,這反過來又在一定程度上影響著思想政治教育的實效性。因此,落實立德樹人的根本任務,必須從倫理的視角對生成式人工智能賦能思想政治教育所產生的風險進行審視與反思,合理掌握技術與倫理的尺度,真正回歸思想政治教育本質。

一、生成式人工智能賦能思想政治教育的倫理風險

儒家倫理文化中,君臣、父子、夫婦、兄弟和朋友之間的人倫關系稱為五倫,忠、孝、悌、忍、善是其關系準則。五倫涉及的是人與人、人與家庭以及人與社會之間的關系,由此決定相對應的責任和角色,側重于由客觀關系的位分而帶來的客觀主體行為和思想的規約,核心是社會生活的正義秩序及其表現。作為一種深度合成類技術,生成式人工智能所營造的虛擬場景能夠與現實社會共生,倫理也相應地指向虛實交融中的種種社會關系。人工智能與思想政治教育跨界相交,從技術介入到技術融入,在推進思想政治教育創新的同時,也不可避免地帶來了倫理風險。

(一)主體維度:教育者主導性地位下降

在思想政治教育生態中,教育者是主體,在教育過程中占據主導性地位[1]。生成式人工智能技術雖然擁有無限大的數據庫以及強大的算法系統,也能夠模擬人類進行某些日常工作,但其本質仍然是一門技術,無法擁有傳統思想政治教育基于教育情感的親和力和權威性,在賦能思想政治教育的過程中,可能會影響師生的良性互動,導致教育者主導性地位下降。

一方面,生成式人工智能技術的介入在一定程度上弱化了教育者和教育對象的直接聯系,淡化了師生關系。思想政治教育不僅是一項政治性實踐,而且是一種情感養成[2]。生成式人工智能依托算法對思想政治教育的各個環節和組成部分進行量化分析,其所采集和利用的數據只不過是教育過程中的淺層數據,并不能反映思想政治教育過程中教育者與教育對象深層次的情感聯系。不可否認,生成式人工智能提供的智能學習空間與自主學習支持系統能夠在一定程度上提高學生自主學習和自我獲得的能力,但在人機人的關系中,機作為主要技術支撐,其倫理判斷難以被完全數字編碼化,也無法像教育者一樣為學生提供相應的人文關懷。以美國人工智能實驗室OpenAI推出的ChatGPT為代表的生成式人工智能應用程序為例,它通過龐大的數據集來訓練計算機系統,使其能夠獲得一種“類人”的響應能力,而不僅僅是大量數據和文本參數簡單堆砌而成的“大型語言模型”[3]。一旦其介入教學過程,將會重塑教育生態,打破教育學校以及教育師生之間的強相關,使教育者課堂主導角色存在感減少,削弱教育者的課堂主導作用,傳統的師生關系受到人工智能“類主體”功能的沖擊,可導致師生情感遮蔽以及關系淡化的倫理風險。

另一方面,人工智能與思想政治教育相結合對教育者的能力提出了新挑戰。與傳統思想政治教育師生面對面說理傳教的方式不同,生成式人工智能技術的發展改變了教育者與教育對象必須在同一時空場域內進行理論輸出與輸入的狀況,為教育者提供了超現實的虛擬學習空間和開放、共享式的交互式學習系統,打破了傳統思政教育以課堂為中心、以教育者為知識灌輸者的教育模式。ChatGPT爆火的背后是1 750億參數的自然語言處理模型支持,GPT-4的推出更是標志著這種聊天生成預訓練模擬器已經遠遠超過聊天的層面,有著強大的理解能力、學習能力和自我意志,具備一種“類人”的響應能力和超出大多數機器的智慧,這種生成式人工智能在交流互動方面的應用產物無疑對思想政治教育者的教學能力提出了新的挑戰?,F實情況中,部分教育者由于各種因素的限制對生成式人工智能應用的認識和運用還達不到要求,無法發揮人機協作工作模式的優勢,使得人工智能技術的使用、智能化教學無法進一步開展,降低了工作效能,進而導致在生成式人工智能賦能思想政治教育模式下出現教育者的身體“缺場”趨勢,引發了思想政治教育主體維度的風險。

(二)客體維度:教育對象自我認知失衡

生成式人工智能的加持使得傳統思想政治教育的教育空間被無限延伸,這打破了傳統教育模式的時間和空間界限,教育主體能夠依托網絡進行實時交流,在提高教育效率的同時,也增強了教育者與教育對象的交互。但正是由生成式人工智能所創建的“無限的”學習空間,使作為思想政治教育客體的教育對象產生了一定程度的自我認知的失衡。

一方面,無界限空間的匿名性導致了教育對象“自我”與“非我”的混淆。在網絡匿名制的保護下,教育對象脫離傳統教育的實名制度,披上了“馬甲”,現實中的班規紀律等被忽視,表現出強烈的個性,甚至會形成與現實生活中截然不同的虛擬人格。從社會認知的視角來看,虛擬人格就是其在現實生活中被種種制度框架所規范起來的“本我”人格。在無界限匿名制的教育空間的掩護下,這種虛擬人格會逐漸演化成“非我”人格,認為現實中的“我”不需要對網絡上的“我”的言語行為承擔責任。伴隨著生成式人工智能與思想政治教育結合的不斷深入,教育對象如果把握不好現實世界和虛擬世界的平衡,必將導致“自我”與“非我”的相互撕扯,最終形成“兩面人”。

另一方面,生成式人工智能的潛在畫像功能在一定程度上會導致個體自我人格的迷失。一般而言,人工智能的三大核心要素是大數據、算法和計算能力,因而人工智能與思想政治教育的關聯和契合也離不開這三大核心要素[4]。思想政治教育依托生成式人工智能強大的數據庫以及強勁的算法和計算能力,能夠對個體進行畫像,從而實現對不同個體的個性化教育。但我們也應該注意到,生成式人工智能的畫像功能看似是對教育對象個性和心理的精準剖析,實則遠遠不能體現全部的我,人的社會性、復雜性等也并不是一堆符號和數據所能完全代表的。一種可能,教育對象可以借助虛擬的學習空間刻意塑造自己的符號身份,干擾人工智能的畫像功能,給教育者傳遞錯誤的信息,從而反向鞏固其虛擬的符號化身份;另一可能,教育對象完全沉浸于充當數字、符號的虛擬角色,進而喪失自我。由此可見,生成式人工智能的潛在畫像功能未必利于教育對象的全面發展,這與立德樹人的最終教育目標是相割裂的。

(三)介體維度:人工智能技術運用不當

思想政治教育介體是聯結思想政治教育主體與客體的神經中樞,它是指在思想政治教育過程中,教育主體為取得相應的教學成果而對教育客體采取的教育方法和手段。隨著科技的發展,思想政治教育介體的種類不斷豐富,“思想政治教育+人工智能”已經成為當下思想政治教育的發展潮流。借助生成式人工智能技術,思想政治教育的方式方法逐漸多元化、時代化,但我們也應該意識到,科技本身就是一把雙刃劍,它有時也“表現為異己的、敵對的和統治的權力”[5],如果對人工智能技術運用不當,就會引發思想政治教育介體維度的倫理風險。

第一,教育信息的取用不當導致個人隱私泄露的風險。生成式人工智能賦能思想政治教育的實踐過程需要教育者和教育對象大量的數據信息支持,而這些信息數據大多來源于對教育者和教育對象全景式的監控,依靠各種傳感設備以及錄音錄像設備等提供各種思想政治教育實踐活動的記錄。這就意味著用戶個人需要讓渡出某一部分的信息自主權,將個人的隱私有意識地“泄露”給人工智能,以此來實現教育過程中千人千面的個性化定制與教育資源推送。當然,數據本身并不具備倫理色彩,數據倫理問題往往產生在使用者或智能算法等對數據的使用過程中。當數據脫離母體,被技術自身或者別有用心之人利用,其所帶來的倫理風險不容忽視。

第二,運用技術差異而導致的數字鴻溝風險。生成式人工智能本身就是一種深度合成類技術,該類型技術應用便捷、場景豐富,生成內容具有價值取向和誘導性,通過簡單的人工提示和算法運行即可產生高風險系數的輸出[6]。由于教育者和教育對象本身對這種合成類人工智能技術的認識和運用水平不同,在智能教育實踐中,可能會產生數字鴻溝問題,出現信息隔閡,阻礙教育主客體之間的交流。同樣,在同一性質的教育主體之間,也會因技術運用水平的差異而降低思想政治教育的公平性,致使那些技術運用水平較低的教育主體產生自卑感和挫敗感,逐漸被邊緣化和透明化,喪失了思想政治教育的主導權和話語權,這不利于思想政治教育成效的取得和教育現代化的發展。

第三,意識形態引導不當的風險。目前來講,人工智能的研發和運用仍然需要人工的支持,在研發設計過程中,相關技術人員自身的思想觀念和價值導向被融入其中,這會不自覺地影響人工智能技術的發展走向,給某些西方國家提供可乘之機。西方國家在人工智能技術的研發上具備先發優勢,基于生成式人工智能與我國社會生活深度融合所產生的收益而獲得的認同,有可能通過非政治化外衣極為隱蔽地裹挾著政治意圖進行價值輸出,以達到其不可告人的目的。思想政治教育是為我國立德樹人的過程,倘若被某些不懷好意的國家所利用或影響,將對我國意識形態安全產生嚴重威脅。

(四)環體維度:思想政治教育環境復雜化

思想政治教育環體即思想政治教育的環境,是指與思想政治教育有關的、對人的思想政治品德形成、發展產生影響的外部因素[7]240。生成式人工智能與思想政治教育的結合為思想政治教育的發展提供了智能教育環境系統,但受其智能驅動特點的影響,思想政治教育環境也逐漸復雜化,進而引發了思想政治教育環體維度的倫理風險。

第一,家庭群體感降低。家庭是思想政治教育的第一課堂。在家庭成員之間的交流交往中,蘊含著豐富的思想政治教育元素,家庭的政治知識、態度、情感、價值取向會影響下一代[8],這是子女獲得社會化的原初起點。生成式人工智能所構建的虛實相融的立體化教育場景使得教育對象在虛擬和現實之間頻繁切換,并且能夠對所有家庭成員一視同仁地提供無差別服務,因此極有可能導致“人機共情”的親密關系的產生,引發人類之間的地緣、業緣和類血緣關系解構的倫理風險。長此以往,家庭中長輩的權威性被削弱,家庭思想政治教育中所蘊含的深層次的情感聯系被一步步蠶食,相對于與家庭成員交流,教育對象更傾向于人機互動,家庭成員之間的良性互動減少,這不利于教育對象的全面發展。

第二,學校思想政治教育環境復雜化。學校是開展思想政治教育的主要場域,學校環境對于教育對象的影響是潛移默化的。隨著生成式人工智能技術與學校思想政治教育活動的結合,學校思想政治教育空間被逐漸擴大,不再僅僅局限于傳統的思想政治教育課堂,轉而向人工智能技術所創造的教學平臺擴展,現實空間與虛擬空間的交叉混合,不僅給教育者的教學工作帶來了挑戰,而且使學校思想政治教育環境更加復雜多變。

第三,社會主流價值觀被消解。思想政治教育作為社會政治生活的關鍵輔助,具有促進社會結構優化、凝聚社會共識、維護社會穩定的重要作用[9]。一方面,生成式人工智能技術利用大數據和算法,能夠輕易捕捉用戶的興趣點,再通過內容推薦與協同過濾兩種運行機制不斷為用戶提供感興趣的信息?;诖?,思想政治教育所宣傳的核心價值觀與價值共識若不是人們感興趣的內容,算法就會將其自動過濾掉,這極大地影響了社會主流價值觀的傳播。進而,在生成式人工智能所構筑的信息“繭房”中,教育對象的學習興趣和注意力都被鎖定在既定的范圍內,最終會逐漸形成同質化圈層,對更高意義上的社會共同體身份的認同卻不斷下降。此外,不同圈層的價值觀也不盡相同,某些圈層文化甚至能夠在一定程度上消解稀釋社會主流意識形態的價值共識,使社會成員的黏性逐漸減弱,產生群體思想極化現象,引發社會層面的倫理風險。

二、生成式人工智能賦能思想政治教育倫理風險的原因

生成式人工智能賦能思想政治教育,是以大數據為驅動、以智能算法為核心、以思想政治教育應用為載體而產生的一系列教育活動。在此基礎上所引發的一系列倫理風險有其必然性,它既承接了人工智能的一般性倫理問題,又體現了思想政治教育其本身的特殊性。究其原因,則是多方面因素相互作用的結果。

(一)算法自身的局限性與思想政治教育的實效性相矛盾

隨著技術的發展,回歸、聚類、貝葉斯、深度學習、自動編碼器以及各類神經網絡算法等紛紛出現,數據算法成為發現潛在教育數據價值的重要工具[10]。隨著生成式人工智能的進一步發展,人工智能的算法優勢逐漸凸顯。一時間,“一切皆可計算”成為人工智能的代名詞。但算法在彌補人類思維局限性的同時,其自身也同樣具有一定的局限性,人工智能算法自身的局限性與思想政治教育實效性的矛盾正是其賦能思想政治教育帶來倫理風險的首要原因。

一方面,算法路徑的固定不利于教育對象的個性化發展。思想政治教育追求人自由而全面的發展,每個教育對象的成長背景和環境不同,其個性和對自身發展標準的界定也應有所不同。但在生成式人工智能介入后,所謂的思想政治教育過程卻演變為系列算法,即按照預先設定的數學公式進行運作,將教育對象“拆解”為一堆沒有溫度的數字和符號,被分門別類地細化并打上相應的標簽。算法不斷向教育對象推送所謂的個性化教育資源,后者按照算法預先設定的固定模式進行學習。這種用統一的算法標準衡量每個學生發展的方式,最終必然導致個體思維固化和分析解決復雜問題能力的弱化,會大大降低思想政治教育的實效性,本質上不利于受教育者的個性化發展,因而不具備科學性。

另一方面,算法的數據依賴性與思想政治教育的動態性相悖。在生成式人工智能賦能思想政治教育的過程中,算法是通過數據收集、數據審查以及分析與計算來進行工作的,其所有的工作內容幾乎都與數據的處理有關。因此,算法具有較強的數據依賴性,但數據分布本身就帶有一定的偏見性[11]。生成式人工智能算法模型是在收集過去數據的基礎上建立的,其所收錄的數據本身就是過時的。用過時的數據分析現時的問題,這顯然與思想政治教育“因時而新”的動態性相悖。此外,在借助算法推進思想政治教育實效性的過程中,教育對象思維的轉化、直覺靈感以及頓悟等“意外收獲”是無法通過數據來預測和分析的,即算法利用收集到的數據只能分析教育思想政治教育過程的“量變”,而無法預測其“質變”。

(二)技術應用的工具理性與思想政治教育的價值理性相沖突

生成式人工智能賦能思想政治教育首先要具備合理性這一基本要素。合理性分為工具理性和價值理性,前者更追求效率,重視發展的結果,后者則更注重人的個體價值和意義,不一定能讓結果大于發展。馬克思·韋伯指出,當人的行為越趨向于滿足合理性的要求,社會結構就會趨向于合理化發展[12]。因此,當生成式人工智能技術的工具理性與思想政治教育的價值理性越趨向于滿足合理性的時候,思想政治教育結構也就越趨向于合理化的穩定發展。然而,從當前生成式人工智能推動思想政治教育的情況來看,二者仍然存在著分歧。

首先,將生成式人工智能技術應用到思想政治教育中符合推動教育創新和教育現代化的目標合理性。生成式人工智能技術可以幫助教育者計算教育對象的知識儲備、評估與動態檢測教育對象的學業水平、重現或模擬教育場景等,為教育對象帶來不一樣的教育體驗,促進思想政治教育模式的創新與發展。但是,在二者深度融合的發展過程中,某些應用主體沉浸在人工智能所創造的有效性與合理性的幻象中,從而產生了技術依賴,進而引發了思維惰性,喪失了批判精神和創新精神。對人工智能的應用也背離了其當初“以技術促進以人為本”的目標設定,一味追求高效率、高回報,以達到最終目的和利益最大化的實現。

其次,生成式人工智能與生俱來的工具理性所攜帶的高效性和便捷性使其一開始就極其容易將人的價值理性局限在解決技術問題的范圍內,難以跳出技術的圈層,使其看不到生成式人工智能賦能思想政治教育背后的人的價值以及發展本質。眾所周知,生成式人工智能擁有天然的科技霸權,在與思想政治教育相結合的過程中能夠輕易掌握話語權,使教育被技術所支配。

最后,工具理性必然導致技術依賴,過度依賴人工智能技術而忽視人與人之間的情感交流,這不僅不利于教育對象高階思維能力的發展,更背離了思想政治教育促進人全面發展的初衷。思想政治教育本身就是“人性為王”的教育,過多強調技術應用的工具理性而忽視了“以人為本”的教育的價值理性,會導致技術對教育的“越位”,導致生成式人工智能技術的工具理性與思想政治教育的價值理性產生沖突,形成潛在的倫理風險。

(三)人工智能的類主體性與教育者的主導地位相對峙

在教育現代化理念的引導下,生成式人工智能在教育領域的發展逐步深入,深刻改變了人們的學習方式。同時,隨著信息技術的快速發展,人工智能的工具屬性也在逐步體現出“類人”屬性,像ChatGPT以及“文心一言”等生成式人工智能應用程序的推出和爆火,在一定程度上預示著人工智能不僅能夠在人們的日常生活中扮演工具性的角色,而且有能力取代人類的地位,直接扮演人類角色,這種現象在思想政治教育領域表現為教育者主導地位的下降。

“一切技術都是身體和神經系統增加力量和速度的延伸”[13],技術被創造的最初目的就是作為人在現實生活中“解弊”的工具或手段,用來輔助人的正常生產生活。其中,人必然是主體,技術只能是客體。第三次科技革命以來,人工智能被廣泛應用于多個行業領域,逐漸代替了人們無休止的勞作。從這一層面上講,這是人工智能對人的勞動解放。然而,當生成式人工智能的“類人思維”能力和自主學習能力不斷提高,我們就應該意識到,生成式人工智能已經不再滿足于充當一個技術化工具的角色了。

從人工智能AlphaGo接連戰勝世界圍棋冠軍李世石和柯潔的例子不難看出,人工智能在某些方面,尤其是計算方面已經遠遠超越人的思維能力,這就很難保證人類以后不會被技術所操控。盡管我們當前仍然處于弱人工智能時代,但人類與人工智能的關系已經不再是純粹的“人與物”的關系,而是向著“人與類人”的關系發展。因此,隨著生成式人工智能的類人屬性屬性不斷增強,其之于思想政治教育而言,也遠遠超出了傳統意義上的工具價值,而扮演起了“類教師”的角色,引發了一系列的倫理風險。一方面,生成式人工智能的類人屬性不斷增強,威脅著教育者的主導地位,削弱了其道德權威,這導致了師生之間情感遮蔽與關系疏離。生成式人工智能賦能思想政治教育的出發點在于“協同育人”,但生成式人工智能的AR、VR、MR以及ChatGPT等功能應用的科技感和吸引力大于教育內容本身,ChatGPT-4的推出更是預示著其可能具備改造人類思想和創造的能力,形成人工智能超越專業化和大眾化的趨勢,甚至可能在某些方面替代人類[14]。這種生成式人工智能應用的“超智慧”屬性與教育者自身有限的教學能力形成了鮮明對比,教育對象的主體自覺性不斷增強,對教育者的管理和教學方式心生抵觸,不利于和諧師生關系的構建。另一方面,技術發展的背后不僅是科研的推動,還有巨大的資本與權力的加持。海德格爾曾指出,“現代技術業已不是中立中性的,它架構式地滲透、彌散、影響,甚至操控人的現代生活”[15]。當生成式人工智能算法程序被資本操控、數據庫被入侵篡改,科技向善將無法得到保證。思想政治教育作為社會主義精神文明建設的中心環節,在與生成式人工智能相融合的過程中,要警惕其“類主體性”,必須牢牢把握思想政治教育的正確方向。

(四)技術發展的難以預測性與風險認知的有限性相制約

生成式人工智能依賴于海量的數據和強大的算法系統作用于思想政治教育的教育者和教育對象,有效提高了教育對象的學習效率,大大降低了教育者的勞動強度。近年來,人工智能被越來越多地應用于思想政治教育活動中,其技術更新也越來越快。但是,由于主觀因素和現實條件的限制,教育者、教育對象以及技術人員等應用主體對其潛在倫理風險的認知卻是有限的,這也是導致倫理風險的重要原因之一。

一方面,算法作為生成式人工智能的技術核心之一,其本質是一種方法或步驟。算法本身具有一定的自主性,這種自主性表現為它具備深度學習和強化學習的能力。深度學習表示算法已經能夠“獨立地將簡單的概念合并,從數據出發創建抽象的模型”[16]。這表明只要數據足夠,算法就可以自己創建和修改模型。強化學習則是指算法在運用數據的同時,還可以產生新的數據并從中進行學習,算法所具備的這兩種能力無疑為人工智能技術的發展帶來了更多的可能性和難以預測性。更重要的是,算法以代碼的形式出現,難以轉化為常人能夠理解的語言文字,相關應用主體無法明確掌握算法的意圖,更無法判斷生成式人工智能技術背后的決策邏輯和責任歸屬,這就導致了“算法黑箱”的出現。

另一方面,相關應用主體對生成式人工智能賦能思想政治教育的風險認知是有限的。當前,大量思政教育工作者積極響應“教育數字化”的要求,努力“入網、入圈”。但由于人工智能與思想政治教育本身是距離較遠的兩個學科,教育者對生成式人工智能的算法運行規則并不十分了解,同樣地,人工智能的相關研發設計人員對思想政治教育的相關知識和要求也未必了解,二者均缺乏對技術倫理的整體觀照。這就使得不同的應用主體之間出現巨大的隔閡,對生成式人工智能與思想政治教育合力育人過程中的倫理風險認知不足。

生成式人工智能賦能思想政治教育本應是相互融合、協同育人的過程,但由于技術發展的難以預測性和相關人員對風險認知的有限性相互制約,致使在教育實踐的過程中出現多種倫理風險,阻礙了二者的進一步融合發展。

三、生成式人工智能賦能思想政治教育倫理風險的超越路徑

消解生成式人工智能賦能思想政治教育所引發的倫理風險是推動思想政治教育智能化發展的重要條件之一。面對飛速發展的人工智能技術,需要正確把握二者結合的特點和規律,堅持育人為本,牢牢把握思想政治教育的主線,促進價值理性和工具理性的協調發展,建立起相關法律保障機制,以期實現對生成式人工智能賦能思想政治教育倫理風險的超越。

(一)堅持育人為本和技術為用

生成式人工智能賦能思想政治教育是推動思想政治教育創新發展的重要方式,最終目標是使人們實現思想上的廣泛認同、道德上的良好養成以及行為上的篤實好學。要使人工智能技術真正為思想政治教育賦能增效,需要從生成式人工智能技術和思想政治教育規律二者之間的邏輯關系出發,努力做到育人為本和技術為用相結合。

一方面,從學科立場和屬性出發,明確人工智能賦能思想政治教育的價值導向。黨的二十大報告指出:“馬克思主義是我們立黨興國、興黨興國的根本指導思想。實踐告訴我們中國共產黨為什么能,中國特色社會主義為什好,歸根到底是馬克思主義行,是中國化的馬克思主義行?!保?7]新時代背景下的思想政治教育,要始終堅持馬克思主義的理論指導,以追求人的全面發展和落實立德樹人的根本教育任務為主線,明確技術為用、育人為本的價值導向。思想政治教育本質上是意識形態的教化,應在教育過程中不斷提高人的思想指導的素質,促進人與人、人與自然、人與社會的和諧健康發展,一切技術最終都應該回歸到這一根本。

另一方面,反思生成式人工智能與思想政治教育結合的泛化趨勢,明確二者之間的結合限度。技術背后的復雜性遠超人們的想象,若毫無限制地將其用于思想政治教育領域,勢必會威脅到意識形態領域的安全。因此,要堅持以習近平總書記關于人工智能和思想政治教育的相關論述為遵循,明確思想政治教育智能化的倫理界限和適用范圍,發揮生成式人工智能在構建智慧教室、精準畫像以及學情分析等方面的輔助作用,提升教育的實效性,在涉及道德養成以及價值判斷等方面,對生成式人工智能的技術標準以及相關的算法邏輯做出規范,必要時甚至可放棄人工智能技術,避免思想政治教育被技術所綁架。

(二)堅持價值理性和工具理性

人工智能技術的工具理性與思想政治教育的價值理性并非是絕對對立的,在思想政治教育創新發展中促進二者同向同行是教育現代化發展、數字化發展的題中應有之義。從生成式人工智能賦能思想政治教育所帶來的倫理風險來看,人工智能與思想政治教育的結合并不是簡單的疊加,而是既要遵循人工智能技術倫理的一般性原則,又要重視思想政治教育自身的發展規律,二者相互協調,以促成其合理性的實現。

首先,要尊重思想政治教育的規律。思想政治教育規律是“思想政治教育活動在其運動發展過程中內在的、本質的、必然的聯系”[7]119。在生成式人工智能賦能思想政治教育的過程中,要錨定人工智能在思想政治教育中的價值定位,實現技術本位到人之本位的轉變、由人到機的轉變和由師至生的轉變。依托人工智能,“為了人、發展人、服務人”的價值邏輯將思想政治教育對智能技術的依賴轉變為借力智能技術回歸技術服務于促進人全面發展的價值理性,引領人工智能技術的持久發展。

其次,應以辯證的眼光看待生成式人工智能工具理性與思想政治教育價值理性的關系。對教育效率的追求應該以育人為前提條件,同時更關注教育價值的體現。教育主體要用馬克思主義的世界觀和方法論來評判生成式人工智能之于思想政治教育的利和弊,以社會主義核心價值觀不斷優化人工智能算法系統“內嵌式規則”的倫理取向,有效防范工具理性在思想政治教育領域內的霸權。

最后,要減少“冷”的工具理性,增加“暖”的價值理性。隨著生成式人工智能賦能思想政治教育的強度不斷攀升,思想政治教育本身所具有的價值理性逐漸被人工智能的工具理性所掩蓋,將教育對象“囚禁”在智能工具的陷阱之中。思想政治教育是有溫度的教育,既要以理服人,又要以情動人,在教學過程中不僅要利用人工智能“傳道授業解惑”,而且要給予學生充分的情感關懷,主動與學生溝通交流,建立起和諧的師生關系,最終實現思想政治教育的價值旨歸。

(三)推動技術創新和個體賦能

生成式人工智能深度賦能思想政治教育,關鍵點在于“賦”?,F有的教學實踐中,生成式人工智能與思想政治教育的關聯更多體現在智能獲取教育數據層面,通過智能技術及傳感設備等實時捕捉與識別教育教學中的多模態信息,從而幫助教師開展學情診斷和教學評估[18]。在此基礎上,生成式人工智能有選擇性地向教育對象推薦相關信息。需要注意的是,沒有經過干預的人工智能技術在一定程度上會產生信息“繭房”與傳播偏好的風險,使得“賦”能成為“負”能,不利于思想政治教育核心價值的傳播。這就要求人工智能技術越是進步,越應該對教育對象的主體性和價值性保持高度的自覺和肯定,推動人工智能技術創新與教育對象個體賦能相統一。

一方面,增強教育者與教育對象的主體意識,提高其個體賦能,明確人工智能技術是“輔助”性的角色。人工智能在思想政治教育領域展示了強大的數據處理與分析能力和算法優勢,這些能力和優勢也是推動思想政治教育創新發展不可或缺的重要因素。但歸根結底,技術的發展最終還是要落腳到現實的人。為此,在人工智能與思想政治教育協同育人的過程中,要加強對教育對象人工智能倫理知識的教育,使學生充分認識到人工智能的工作機理,提高其信息辨別的能力,避免信息“繭房”的產生,養成正確的科技觀。同時,教育者要努力提升自身的人工智能素養,正確認識自身與人工智能的協同合作關系,在實踐過程中自覺遵守相關倫理規范,破除“唯數據論”,積極關注教育對象的內心生活并設計相關教育話題對其進行引導,切實發揮教育者的主導作用。

另一方面,加強對人工智能技術性的糾偏方法研究,促進技術創新發展,實現技術突圍,提高育人的精準度與智能化。從現實效果來看,無論是ChatGPT還是“文心一言”,目前它們作為生成式AI的代表性產品,還未能達到令人滿意的水平,其功能僅為可以便捷地為我們補充一些知識、提供一些經過整合與濃縮的資料[19]。因此,生成式人工智能技術仍需要進一步改進和完善。在樣本數據收集方面,要進一步考慮樣本數據的結構和分布,盡可能選取更具代表性和時效性的數據進行分析,降低數據處理存在偏差的風險。在算法模型的編制過程中,應充分考慮教育對象全面發展的目標需求,提高社會主流價值觀和優質思想政治教育內容賦值在算法優先級里面的比重。要設置反向推薦功能,在向用戶推送“感興趣”選項的同時也推送“不感興趣”的內容,以彌補算法個性化定制所造成的知識領域過窄的問題。

(四)建立倫理保障機制和提高相關人員倫理素養

生成式人工智能高速發展,已經覆蓋了人們社會生活的大部分領域,但只有在具備人工智能技術可追責、可處罰的前提下,才能真正符合其為人類服務的價值邏輯。以ChatGPT為典型代表和轉折點,未來所開發設計的各類人工智能產品和服務越來越具有類人的思維和行為,這就要求其更嚴格地遵守人類的基本倫理規范[19]。具體到思想政治教育領域,要保證生成式人工智能真正為思想政治教育賦能增效,防止其在實踐過程中價值被扭曲和倫理被異化,必須以法律為準繩,明確底線要求,健全倫理保障機制。

一方面,要做好頂層設計,完善相關法律法規。通過法律化解風險、吸納風險,將風險社會置于法治社會的背景之中,即對智能革命時代的法律制度乃至整個社會規范進行新的建構[20]。國家頂層設計要注重建立健全相關的法律法規體系,對生成式人工智能所傳播的內容進行監控和過濾,明確對相關的責任主體的界定、隱私保護以及信息分發準則等法律條例,將責任真正落實到思想政治教育相關主體上。要在遵守法律和道德的前提下推進算法更智能化、人性化的研發,為生成式人工智能進一步賦能思想政治教育提供強大的制度保障。

另一方面,要提升生成式人工智能開發和應用主體的倫理素養和道德素質。無論是思想政治教育者、教育對象,還是相關的管理和技術人員,必須在生成式人工智能賦能思想政治教育的過程中貫徹恪守技術倫理,遵守技術應用的倫理規范,構建良好的倫理生態。特別要培養人工智能技術人員對倫理風險的敏感度,積極鼓勵其與思想政治教育者通力合作,重視應用主體對人工智能的意見和建議,設計更適用于思想政治教育的算法模型。要全面客觀地評價生成式人工智能技術在思想政治教育過程中的作用和意義,破除人們對人工智能的迷信,達成“技術向善”“技術為我所用”的終極目的。

參考文獻:

[1] 楊東杰,李奕璇.人工智能推動大學生思想政治教育生態變革:邏輯、取向與路徑[J].中國政法大學學報,2022(6):50-59.

[2] 米華全.智能思政倫理風險的生成邏輯、表現形式及防控機制[J].中國電化教育,2023(2):111-117.

[3] 汪波,牛朝文.從ChatGPT到GovGPT:生成式人工智能驅動的政務服務生態系統構建[J/OL].電子政務:1-14[2023-05-07].http://kns.cnki.net/kcms/detail/11.5181.TP.20230425.0901.004.html.

[4] 李懷杰.人工智能賦能思想政治教育論析[J].思想理論教育,2020(4):81-85.

[5] 馬克思,恩格斯.馬克思恩格斯文集:第8卷[M].北京:人民出版社,2009:358.

[6] 商建剛.生成式人工智能風險治理元規則研究[J].東方法學,2023(3):4-17.

[7] 張耀燦,鄭永廷,吳潛濤,等.現代思想政治教育學[M].北京:人民出版社,2006.

[8] 孔德生,胡在珊.家庭思想政治教育研究綜述[J].高教探索,2017(S1):184-186.

[9] 董圓圓.人工智能賦能思政教育的倫理風險及其應對[J/OL].北京航空航天大學學報(社會科學版):1-7[2022-11-17].DOI:10.13766/j.bhsk.1008-2204.2022.0955.

[10]崔宇路,張海.教育人工智能應用的困境、成因及對策[J].現代教育技術,2022(6):35-42.

[11]楊慶峰.數據偏見是否可以消除?[J].自然辯證法研究,2019(8):109-113.

[12]馬克斯·韋伯.新教倫理與資本主義精神[M].彭強,黃曉京,譯.西安:陜西師范大學出版社,2002:34.

[13]馬歇爾·麥克盧漢.理解媒介:論人的延伸[M].何道寬,譯.南京:譯林出版社,2019:4.

[14]朱光輝,王喜文.ChatGPT的運行模式、關鍵技術及未來圖景[J].新疆師范大學學報(哲學社會科學版),2023(4):113-122.

[15]馬丁·海德格爾.存在與時間[M].陳嘉映,王慶節,譯.北京:生活·讀書·新知三聯書店,2014:295.

[16]卡爾提克·霍桑納格.算法時代[M].蔡瑜,譯.上海:文匯出版社,2020:65.

[17]習近平.高舉中國特色社會主義偉大旗幟 為全面建設社會主義現代化國家而團結奮斗[N].人民日報,2022-10-26.

[18]陳麗丹,姚藝.人工智能賦能新聞傳播教育:實踐轉向、未來愿景與賦能路徑[J].重慶郵電大學學報(社會科學版),2023(1):140-147.

[19]周慶山,鄭霞,黃國彬.人工智能倫理規范核心原則的政策文本內容分析[J].重慶郵電大學學報(社會科學版),2022(5):9-20.

[20]吳漢東.人工智能時代的制度安排與法律規制[J].法律科學(西北政法大學學報),2017(5):128-136.

Risk and transcendence: An ethical analysis ofgenerative AI-enabled ideological and political education

REN Fengqin, DONG Zihan

(College of Marxism, Shandong Agricultural University, Taian, 271018, China)

Abstract:

As an important engine of a new round of scientific and technological revolution, the innovation iteration of artificial intelligence technology is accelerating, and AI-generated content (AIGC) is deeply involved in the development of various disciplines, bringing opportunities and challenges to the innovative development of ideological and political education. In the scientific and technological feast brought by ChatGPT as a typical representative, generative artificial intelligence as a “wisdom tool” provides more advanced method choices, more intelligent technical solutions and freer application scenarios for the development of ideological and political education activities, drawing a picture of the transformation of ideological and political education. However, the continuous enhancement of technological dimension also makes ideological and political education face ethical risks in different dimensions. From the perspective of subjects, there may be a risk of a decline in the dominant position of educators. From the object dimension, there may be a risk of imbalance in the self-perception of the education object. From the perspective of mediators, there may be risks of improper use of artificial intelligence technology. From the perspective of the ring, there may be a risk of complicating the ideological and political education environment. The main reasons are that the limitations of generative AI algorithms contradict the effectiveness of ideological and political education, the instrumental rationality of technology application conflicts with the value rationality of teaching, the subjectivity of artificial intelligence is opposed to the dominance of teachers, and the unpredictability of technological development is constrained by the limited risk cognition of relevant subjects. Correspondingly, in order to highlight the transformation direction of science and technology to empower ideological and political education to “turn challenges into opportunities”, it is necessary to correctly handle the relationship between education and technology, instrumental rationality and value rationality, technological innovation and individual empowerment, and rules and regulations and personnel literacy, so as to transcend potential ethical risks and promote the deep integration of ideological and political education with cutting-edge digital information technology.

Keywords:

generative artificial intelligence; ideological and political education; ethical risks; countermeasures; ChatGPT

(編輯:段明琰)

猜你喜歡
思想政治教育
優化國有企業思想政治教育工作的路徑研究
高職學院大學生信仰迷失的原因及對策
加強思想政治課在大學慕課開放課程的地位研究
淺析紅色文化與高職院校思想政治教育工作
新媒體語境下高校思想政治教育話語研究綜述
大學生思想政治教育方法的創新研究
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合