?

論生成式人工智能學術倫理風險規制
——以ChatGPT 為例

2023-03-15 06:56劉佳麗廖懷高
關鍵詞:學術人工智能人類

劉佳麗,廖懷高

(成都理工大學 馬克思主義學院,四川 成都 610059)

黨的二十大報告提出“推進教育數字化,建設全民終身學習的學習型社會、學習型大國”[1]。教育數字化重塑與變革教育,教育數字化的風險治理則是順應時代之變的戰略性選擇。技術的進化推進了更復雜、創新、先進的數字生成式人工智能,OpenAI 公司于2022 年推出生成式人工智能——ChatGPT,其類人的思維邏輯和對話、寫作、翻譯等能力技驚四座。比爾·蓋茨評價它不亞于重新發明互聯網,360 董事長周鴻祎認為其可類比蒸汽機和電力的發明,因而其誕生被視為新一輪科技革命[2]。由于ChatGPT 出色的表現被學生視為做作業、寫論文的利器,但與之對應,這意味生成式人工智能技術在現實應用中會滋生新的學術倫理風險。為此,本文基于生成式人工智能這一新的“變量”,剖析所引發的學術風險,嘗試為生成式人工智能等技術下學術生態的健康發展提供可行進路,對未來的監管框架作出前瞻性探討,阻斷生成式人工智能技術在發展進程中的負面影響。

一、生成式人工智能的生成邏輯

生成式人工智能,指基于算法、模型、規則生成文本、圖片、聲音、視頻、代碼等內容的技術。這一技術的產生,實現了從“感知理解世界”到“生產創造世界”的技術范式轉變。生成式人工智能的現身不是無源之水、無本之木,而是在歷史基礎之上得以應運而生,在技術基礎上得以日新月異迭代,在現實基礎上得以繼續蓬勃發展。

1.理論之源:對話式學習的延伸

對話式學習,望文生義,指主體以交談、互動來獲取知識的方式。對話式學習經歷了從人-人、人-機,到人-虛擬世界的變革,已成為后現代社會中人們最基本的學習方式之一[3]。從人類教育發展歷史看,孔子、蘇格拉底的啟發式教學,被認為是人-人對話式學習的鼻祖。而人-機對話式學習則可以追溯到1950 年的“圖靈測試”,圖靈測試采用問與答的模式,測試機器是否具有人類的智能。通過行為主義的觀點判斷機器是否智能,這一行為的關鍵就在于人機對話[4]21。此后,美國計算機科學家約瑟夫·韋澤納于1964~1966 年研制開發了首個能與人交流的聊天機器人(Elisa),其被認為是對話式學習的先驅之一[5]。盡管當時技術受限,所設計的人機互動的程序只能輸入一些基本的數字語言以獲取機器人的響應,但這一研發使得人機對話由此變成現實。

ChatGPT 的問世,則實現了人機對話的跨越式變遷,為全球人工智能會話系統注入新活力。ChatGPT 具備持續回答且不斷修正問題答案的能力,看似是對問題的“跟進”,表面上受制于提問者,實際上所遵循的卻是一種“辯證邏輯”的內在引導,在否定中得到肯定答案[6]。對于問題的答案,敢于承認自身不足之處,虛心向提問者學習,引導提問者追問,從而逐步獲得啟發,頓悟出知識。其“兜圈子”回答問題的方式既能擴充自身語料庫、數據庫,又恰巧對應人性自身的非理性部分,極大地啟發了使用者的學習興趣,可稱為人-機互動模式下蘇格拉底“產婆術”,即最初對話式學習的演進與延伸。

2.實踐之基:技術進化的內驅力

人類科技史表明,以不斷滿足人類需求為基礎的技術進步動力永不枯竭,技術體系具有“自我創生”的能力:技術的每一次升級會解決一些難題,同時孕育著新問題的種子,進而形成遞歸循環[7]。為此,生成式人工智能技術體系則有連綿不斷的發展勢頭??v觀技術的嬗變歷程,進入21 世紀,隨著計算機算力的不斷提高和數據規模的不斷擴大,人機對話技術得到了飛速發展,繼而算法的突破,從簡單的感知階段,到多層神經網絡階段,再到深度學習階段。自2012 年以來,自然語言處理開始從統計學向端到端的神經網絡深度學習方法轉變,自然語言處理進入了全新階段。

在深度學習和神經網絡的研究中,卻遇到了語言數據資源不足的問題。針對這一問題,學者們提出了“預訓練語言模型”。在此基礎上,OpenAI 公司開發了基于轉換器的生成式預訓練模型(GPT)[4]23,GPT 是一項在自然語言處理方面取得突破性進展的研究成果。2022 年,OpenAI 公司正式推出ChatGPT,采用“大數據+大模型+大算法”模型,通過龐大的數據庫和強大的算法能力,與信息主體之間形成較為流暢、自然的對話,具備處理人類不同指令的能力。觀察GPT 的發展演變,模型能力越來越強,從無監督模型再到人類反饋強化學習,不斷迭代升級,實用性顯著增強,甚至在一些領域提供了人類層面的表現,成為人類歷史上最強人工智能大模型。

3.社會之需:人類發展客觀要求

從哲學角度講,技術由人類創造,有滿足人類需要、拓展人類的可能性。從古至今,技術的更新迭代與人類社會發展相輔相成,技術的發展始終在推動人類社會的發展。馬克思在《資本論》中提到:機器不創造價值,但可以把自身的價值轉移到由它服務所生產的產品上[9]。生成式人工智能技術不息革新,日益成熟,呈現在更多空間場域,圍繞生成式人工智能技術相關的領域都有望成為資本市場重點關注的投資賽道。人工智能作為新的生產要素,在具體的生產步驟之中與其他的生產力要素相結合產生新的價值?,F今,各國也高度重視人工智能技術的發展,將其視為國家發展的重要競爭力。

馬克思的“社會發展是一種自然史的過程”觀點,為揭示生成式人工智能的產生與發展規律提供了科學的世界觀和方法論。生成式人工智能技術以其特有的特征和方式詮釋了它是歷史本身的唯物主義的必然環節和邏輯結果,是歷史唯物主義的充分傳達,也是人類加以改造的歷史的自然構成。在大信息時代,人作為一種自然物質和自然物質的矛盾運動導致人的自然力量發生了巨大飛躍,即體力和智力的釋放。在以大工業和機器體系為基礎的人工智能技術時代,人類的腦力及體力都得到極大的延伸,但是技術的更新繁衍了新的問題,信息時代人腦失去處理龐大信息的能力,便會做出相應的調整來滿足人類身體延伸機器所產生的信息處理需要[9],推進了人工智能技術的迭代升級。但生成式人工智能技術的發展,以及它的一切形式都受制于人類,技術的進步代表著人類智慧的發展。

二、生成式人工智能學術倫理風險的表征

風險作為一種不確定的因素,有“損虧”的可能性。生成式人工智能就像“雙刃劍”,既打開了數字教育無限可能空間,又帶來諸多新的隱患?;趯W術生產的步驟劃分,可從內容出處、內容生成、成果評價角度對生成式人工智能帶來的學術倫理風險的表征形式予以解讀。

1.學術權威信任危機:算法模型偏見致使學術權威信任危機

知識的創新、學術的創作是求真求善的過程,是受學術倫理制約和人類價值規范的過程。Chat‐GPT雖然打著“無意識”旗號,但是算法“黑箱”操作和語料庫代表性不足問題導致使用者對生成式人工智能體系的認知存在隔閡,對知識權威性秉持懷疑,對生成作品信任度下降,引發學術信任危機。

ChatGPT 體系建立在人類已有的語料庫和數據庫上進行訓練,受訓過程蘊含著設計者的思想意識和價值理念,存在文化和價值觀念偏差,這使得模型研發者所標榜的模型價值觀絕對“客觀中立”難以成立。一旦將人類原始的偏見應用到機器學習中,算法運行結果也會繼承人類社會的原始偏見,并持續地循環傳播[10]。加之,ChatGPT采用“機器學習+人工標注”模式,由于技術的自我強化傾向,在與信息主體對話中,將不斷吸納有用信息來擴充自身語料庫、數據庫,將更多信息掌控于自身腹囊之中。由于標注環節主體帶著自身的偏好進行標注,加倍提升了算法偏見風險,與此同時,生成式人工智能模型的人工標注標簽部分采用閉源運行,其標注偏見難以溯源,將進一步影響與其對話的用戶,使得偏見進一步得到強化與傳播。

OpenAI 公司總部位于美國,ChatGPT 模型雖然包括多國語言數據庫,但總體是以英文語料庫作為模型支撐,對其他文化的包容性不足,不具備中國特色邏輯結構。即使對于語言的理解,相比它的前輩們已經有了跨越式進步,但對于中文的某些理解仍存在偏頗。中文詞組蘊含著豐富內涵,來源于特定歷史,具有“實踐性”“互文性”和“建構性”等特征,同一個詞組或是同一句話在不同語境具有多種含義和不同解釋,需要具體的語境來表達背后的思想、觀念和情感。生成式人工智能模型對語言的學習、理解能力還無法與人類相媲美,對中文的理解極易出現偏差,甚至提供一些錯誤解讀的回答。

2.學術契約精神分散:知識歸屬權不清引發契約責任分散

學術契約精神是學術共同體之間建立的統一的、約定俗成的學術道德以及自律精神[11]。知識歸屬權可以明確作品究竟歸屬于誰,以及誰可以對所創作的作品享有權利并承擔責任[12]。生成式人工智能的出現致使學術生產、評價過程從原來的“人-人”轉變為“人-機”互動關系。但ChatGPT 生成知識的歸屬權尚不明確,難免造成在現實應用中出現問題而互相推諉責任的情況。

生成式人工智能的出現改變了知識的生成、傳播方式,使知識變得唾手可得,進而對知識觀的概念也需隨之改變。ChatGPT 通過用戶提示生成文本,從預訓練的大量數據庫中搜索數據,重組具有一定連貫性的作品,由于所組文本缺乏獨創性、創造性,不可被列為原創作品或知識。分析我國現存的知識著作權也發現,著作權以人為主體,對一切成果負責,生成式人工智能作為機器自身也無法承擔責任,因此其不具備生成知識的歸屬權。加之,生成式人工智能技術作為人類自主活動的實踐產物,是在人類漫長的進化過程中積累而來的智慧和經驗的結晶,其運行規律及算法形式也是模仿人類智慧從而呈現類人的表現。

ChatGPT 在與用戶交互過程中不斷吸收人類的意見與智慧,說明其接收端有人類的干預、人類思想的介入,這恰好符合人類知識產權的兜底要求。但是即使生成式人工智能生成作品中蘊含人的創作部分,其知識的具體賦權標準尚不清晰。程序的投資者、持有者,技術的研發者、使用者都是最終生成內容的參與者。有人認為,生成式人工智能知識歸屬權歸屬于軟件開發者,由于創作內容的優劣受開發者對數據的訓練、篩選、整合影響,生成物映射開發者的智力勞動。也有人認為,生成物歸屬于使用者,生成內容需要使用者發起任務,生成過程始終需要主體的介入和指導生成最終成品,生成式人工智能僅僅只能作為輔助工具,并不能在作品中發揮決定性作用[13]。

3.學術公平公正消解:學術評價的不客觀性影響公平公正

生成式人工智能技術可以將自身物化到人類身上創作價值,使用主體將人類的意志及智慧通過人工智能技術延展,用工具提高了勞動創造力,獲得不正當競爭。此行為將影響學術評價過程的效率及客觀性,破壞了學術圈的公平與公正。

在西方,《紐約時報》曾報道,密歇根大學的一位哲學教授安東尼·奧曼在上課時看到一篇“優秀的文章”,這篇文章結構合理,語法完美,文章好到不符合老師對學生的預期。這不得不對應用生成式人工智能發出新的疑問——學生利用生成式人工智能是否為高級剽竊,如何識別文章的來源做到公平公正評價?由于ChatGPT類人的思維邏輯、行文結構,以及有的放矢根據信息主體定制生成內容的能力,加大了文章的辨別難度,使得真正高質量的學術成果和一些偽冒學術混雜一體,難以區分。若將使用生成式人工智能工具而獲得不正當競爭的主體與其他主體一同評價將有損他人的“利益”,必然有失偏頗,影響學術評價的客觀性。

此外,學術評價需多維度的綜合考量,如學術成果的創新、內容質量的高低,學術成果中數據的有效性和可信度等,甚至不同學科成果,需要劃分不同評價標準,恪守有效結合定性和定量兩個維度的評價原則。雖然ChatGPT 作為生成式人工智能的佼佼者,在處理海量文本數據上可以幫助同行評審評議,提升學術評審的效率,但目前,生成式人工智能還未將專家意見納入生成模型,難以定性,僅依賴冰冷的數據對論文進行定量評價,如論文被下載量、被引量[14],而往往忽視實質內容。因此,生成式人工智能僅憑單一的評價模式無法公正判斷學術成果的真正價值,有失學術評價的公平、公正性。

三、生成式人工智能學術倫理風險的調適進路

技術的“自我創生”能力,致使每一次更新都帶來新的問題,規制模式便有了新需求,需要做出調整以適應技術的新變化。ChatGPT 等生成式人工智能,涉獵知識面廣泛,分析知識點全面而深刻,“思維”發散,可提供啟發性的思路邏輯,避免陷入單方面邏輯的泥沼之中。但相比賦能,面對瞬息萬變的人工智能技術所帶來的學術倫理風險挑戰,積極探賾應對進路是當務之急。

1.化智圖“治”:技管結合規避算法偏見建信任

面對算法偏見問題,承認算法并不是萬能的,根據生成式人工智能的技術特征來尋求消解算法偏見的解決辦法,在算力不足、算法無解和數據缺失的領域做好人力、物力的充分布局[15]。糾正算法偏見既是技術體系自身發展的內在需要,又為生成式人工智能技術嵌入各個領域應用發展提出了新的任務和要求。

第一,優化技術和算法。在數據預訓練階段,廣泛收集多國籍和多樣化的數據,保持文化的開放性和包容性,提升生成式人工智能理解他國語言的準確性,避免模型實行國家數據“壟斷”與“制裁”。厘清數據收集標準,合規合法獲取知情同意權的數據才有權被納入模型,并且保持數據庫的常更常新,及時梳理龐大繁雜的數據庫。在數據輸出階段,優化輸出端,通過指令微調,讓系統在許多自動語言處理任務和基準測試上展現出更強大的性能。此外,優化引導模型,將問題具體化、清晰化以便于精煉問題來生成更精準的答案。對于“人工標注”模式引發的算法偏見,運用透明化算法運作過程,優化路徑、追蹤人工標注偏見的來源和尋求消解偏見的辦法。簡而言之,即完善與優化整個數據系統形成完整閉環。同時,正確看待我國與西方技術差距,努力填補這塊領域的空白,研發獨立于西方的生成式人工智能系統,在以我為主、為我所用中深化和推動研發。將更多中華優秀傳統文化“投喂”模型,注重培養,不斷規訓,使其成為真正具有“中國理念”的大模型。

第二,實行多主體的監管模式。在模型正式投入市場應用前執行嚴格審查,按照相關法律規則將算法程序的編譯合法合理化、標準化,優化生成式人工智能算法模擬的學習路徑。算法的整個運作過程,在合規合法前提下實行部分多主體合力、全方位監管,防外與規內相結合。建立內部自律,平臺內部自覺形成規章制度,系統內部恪守技術“價值觀中立論”,避免帶有偏見、非道德的內容注入和輸出,在道德和倫理問題層面不偏不倚,客觀理性回答問題,給予信息主體對策建議。外部管制,對于算法的“暗箱操作”,采用人工智能“監管沙盒”,有效收集監管數據信息,自愿、自覺公開算法程序接受公眾監管,幫助外界更好地理解算法運作過程,提升模型公信力。行政法律機關共商共建,建立跨境的法律共同監管體系,制定相應制度規范、法律法規追究問責,以減少技術、倫理失范問題。此外,使用者也應盡監管之責,提高明辨善惡能力,樹立正確科技價值觀,科學利用技術,善于分析問題,對于應用模型中所發現的偏見問題,敢于提出問題,糾正輸出內容的不當之處,以幫助生成物的內容與質量,更好地迎合大眾期待。

2.握智提“質”:構建學術責任規范制度擔責任

在數智技術飛速發展的今天,由于人工智能的介入,學術成果的產生已經不再單純地依靠學者們的個人力量。由于生成式人工智能作品歸屬權尚不清楚,增加了利用過程中剽竊、侵權的可能性及出現問題時互相推諉行為,為此需要健全“人—機協作”關系的學術責任規范體系。

第一,重構生成式人工智能知識產權。生成式人工智能研發者亟須在法律的界定下明確知識著作的歸屬版權問題,對每一處知識的歸屬權明確標注,并做出相應的解釋說明,防止知識被無意“剽竊”。生成式人工智能作為輔助工具,使用主體需對在技術體系協助下完成的寫作、翻譯等任務建立高度責任感,明確生成式人工智能的使用界限,承擔生成作品的責任,提交作品說明生成式人工智能的參與情況,提供使用標識。與此同時,積極探討、借鑒國外生成式人工智能的參與問題和責任規范制定的實踐范式,為我國提供建設性意見。由于機器學習結合人工標注模式,使得算法程序研發者將自身的意志介入到模型程序編譯過程之中,這導致生成式人工智能可以被解釋部分的算法,其生成物具有獨創性。為此,重塑、構建生成式人工智能可解釋部分的知識產權體系,實行普遍性與個別性相結合的管理辦法,針對可解釋部分內容構建全流程保護、全過程審查,進行有差異化管理,構建專門化管理制度,避免知識產權保護出現漏洞[16]。

第二,完善數智時代相關法律制度。我國當前階段對人工智能的監管停留在初步框架階段,生成式人工智能的快速崛起,技術的快速更新與相應法律政策之間的不平衡不充分矛盾逐漸浮出水面,為此應盡快完善數智時代與之對應的法律制度?;诂F有的法律基礎,形成具有代表性的生成式人工智能綜合法。生成式人工智能生成物作為知識產權新的保護客體,對于完善相關的著作權,應保持開放、包容的心態,沉著冷靜應對生成式人工智能帶來的挑戰。生成式人工智能的應用,即使在我國還沒有明顯出現僭越學術道德行為,由于“回應型治理”方式缺乏前瞻性,成本高昂,預判風險完善頂層設計就顯得尤為重要。設置使用的前提條件和制定違反相關規定的懲罰措施,將技術的使用限定在法律框架之中,用硬性制度約束使用者行為,并密切關注人工智能技術的新發展、新需要,與時俱進同步調整相關法律法規。鑒于生成式人工智能技術極強的跨國流動性,應站在全球治理體系角度,構建具有共性的治理框架,完善細化法律規范制度,如生成式人工智能生成作品可解釋部分與主體實現責任綁定,構建相關責任法律體系;對于模型數據的輸入需征求用戶意見問題及人工標注階段收納信息主體的智慧相關問題,構建使用目的限制法律體系。

3.用智謀“祉”:強化全方位的學術審查促公平

人類歷史上,科學技術的發展往往會給生產力、生產關系和上層建筑帶來重大變化,成為劃分時代的重要標志,也引發人們對社會倫理的反思。網絡的發展推動社會生活的虛擬化,虛擬空間相比現實空間,由于學生的身體不在場,引發了更多的學術倫理問題[17],亟需構建多方合力的審查體系,以及審查、預警、處理一體化的防御機制。

第一,建立健全審查體系。技術開發者應擔負責任和義務嚴格審查自身體系問題,強化輸出、輸入內容質量與合法合規性,提供數據風險評估機制,對可能發生的風險做出預判及說明,制定合理的使用倡議書,標注知識的出處,提醒使用者使用時應進行合理標注等,減少學術不端的風險出現。生成式人工智能內容逐漸成為趨勢,為適應技術變化趨勢,學術期刊也應強化責任意識,加大審查力度,將生成式人工智能合理使用范圍納入考核之中,配合問責制度,嚴格執行審查,層層把關,審查利用人工智能生成內容生成文章的出處、真偽和使用情況。同時,成立專門學術審查委員會審查非法、不合理利用行為,建立規章懲處制度,強化學術不端風險防控,將學術不端成果摒棄在期刊之外。此外,開發完善審查軟件體系。由于生成式人工智能技術在行文時似人的行文結構和語言邏輯,加大了人工審查的難度,開發相應審查軟件程序可提高審查效率,協助人工快速排查學術不端行為。建立統一標準下的多樣化及多層次的審查體系,具體問題具體分析,使不同地區、不同層次的學生享有相對平衡的教育品質,堅持審查包容審慎的原則,倡導循序漸進的審查治理過程,更好地推進技術的有序發展。

第二,學校教師加強審查監督。建設外部審查體系與學校內部審查管理的統一,既要審查過程也要審查結果。學校應制定健全的生成式人工智能體系使用指南、統一化學術誠信守則、學術誠信標準,限定技術在合乎倫理的范圍內使用。老師應準確把握生成式人工智能技術對于學生主體的思想、行為的變革,關注學生的現實需求與社會時空發展具體要求,提升數智時代教育、誠信監督的針對性。如引導學生科學利用技術工具,確保學生明晰使用倫理界限;幫助學生有責任、有意識地使用技術工具;建議使用者簽定生成式人工智能的學術誠信承諾書及違規同意處置書。此外,設想防止學生應用人工智能生成式內容進行抄襲的多種辦法,如更多開展線下閉卷考試,避免布置過于籠統方便搜集的任務,而安排一些具有特定時代、地域文化背景的任務,提交答案時需備注具有邏輯性的解釋等,在源頭上做切斷,做好前置性的預防工作??傊?,營造特定寬松的審查監管氛圍,避免“一刀切”,實行靈活多變的監管策略,使學生自主探索、充分挖掘生成式人工智能潛力,利用技術工具發散思維,開闊視野。

四、結語

“沒有絕對的真理,只有不斷變化的概念?!痹诳创墒饺斯ぶ悄芤l學術倫理這一問題時,需要“跳出問題看問題、立足全局看問題、放眼未來看問題”[18]。跳出問題看問題:不但探討ChatGPT 在學術生產領域產生的風險,也要正確審視其對教育生態其他方面的沖擊和整個生成式人工智能技術體系對人類的沖擊;立足全局看問題:跳出自己的“一畝三分地”,站在全局和戰略高度看待問題,生成式人工智能賦能教育最終歸旨要促進人自由而全面地發展;放眼未來看問題:生成式人工智能涌入時代的潮流不可阻擋,用發展的眼光看待問題,充分釋放生成式人工智能潛力與教育教學有效互動。此外,始終堅持以馬克思主義理論為指導,堅持人本主義,永葆理性與批判,主動掌控技術,防止對技術的盲目崇拜,警惕掉入技術“異化”陷阱,實現對“純粹技術化”的超越,讓技術的更新迭代服務于人類社會的發展。

猜你喜歡
學術人工智能人類
人類能否一覺到未來?
人類第一殺手
如何理解“Curator”:一個由翻譯引發的學術思考
1100億個人類的清明
對學術造假重拳出擊
2019:人工智能
人工智能與就業
數讀人工智能
下一幕,人工智能!
人類正在消滅自然
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合