?

生成式人工智能對德國高校教學的影響及展望
——以ChatGPT為例

2023-04-18 14:46AndreasFleischmann
應用型高等教育研究 2023年4期

Andreas Fleischmann

(慕尼黑工業大學,德國慕尼黑80333)

1 ChatGPT:人工智能發展的里程碑

ChatGPT是OpenAI 公司于2022年11月推出的一款聊天機器人。這是首次向公眾免費提供簡單易用且功能強大的人工智能,引起了社會的極大關注。程序發布后僅一個月,就有一億人注冊成為用戶,并開始探索ChatGPT 的潛力。ChatGPT 不僅會回答問題,還能寫詩、寫論文、總結文章、計算和編程。

人工智能很早就是科學研究的課題。ChatGPT只是一系列發展中的最新進展。早在1966 年,Jo‐seph Weizenbau 就推出了一款模擬心理治療師角色的聊天機器人“Eliza”。GPT-3 語言模型早在2020年就主要由科學家和早期用戶使用。2022 年11月,ChatGPT在全球免費開放,這是一個決定性的轉折點。

文章中ChatGPT 將被用作整個生成式程序類別的代表。因為語言模型和基于文本的人工智能是一個巨大的市場,除了擁有語言模型GTP-4和聊天機器人ChatGPT 的OpenAI 公司之外,還有許多其他參與者。這一方面的推動者不再只是大學,還有大型企業。例如,谷歌開發了一整套語言模型(2018 年BERT、2021 年GLaM、2022 年LaMDA、2023 年PaLM),并推出了自己的ChatBot Bard(目前仍基于LaMDA),而Meta 自2023 年以來一直提供Llama 語言模型和Alpaca AI 聊天機器人。而這些只是其中的幾個主流玩家而已,僅在2022 年,就有35 款產品上市。

ChatGPT 的基本工作方式是在為設定的文本尋找一個接一個合適的單詞,以這種方式不斷進行,直到生成足夠多單詞的文本。ChatGPT 的算法使用高度復雜的統計數據來決定哪一個是接下來合適的詞。這種統計原理基于兩種形式的訓練:第一,在生成語言模型的神經網絡中輸入大量文本,讓它學習語言的統計屬性。例如,這樣的文本庫包括維基百科的部分內容(30 億個單詞和標點符號)、數字書籍(670 億個單詞和標點符號)以及互聯網的部分內容(4 000 多億個單詞和標點符號)。經過這樣的訓練,語言模型就擁有了一個高度復雜的統計基礎,得以在此基礎上組建新句子。第二,利用人工反饋進一步完善語言模型。一方面是把專門創建的高質量訓練數據輸入系統,另一方面是對由語言模型生成的句子進行人工評價。為了有效地使用這些高質量的數據集,語言模型從數據集中類推補償函數(并根據每次人工反饋對該函數進行反復改進),從而能夠普遍使用示范數據。在這樣的運行模式下就產生了以下結果:

(1)ChatGPT 逐字組合出答案。它在每個單詞之后重新計算出下一個最有可能出現的單詞或標點符號。

(2)如果出現了一個與維基百科完全相同的句子,那這并不是說ChatGPT 簡單地從維基百科中剽竊了這個句子,而是它逐字地拼湊出了一個新句子,只不過這個句子碰巧與維基百科中的句子相似。

(3)由于統計模型非常復雜,因此ChatGPT 并不總是以相同的方式回答同一個問題,而是會給出不同的答案。

ChatGPT 的使用非常簡單:只需通過文本界面提出問題(即所謂的“prompt”),ChatGPT 就會進行回答。不過,答案的質量在很大程度上取決于prompt 的質量。Mushtaq Bilal 建議采用循序漸進、以對話為基礎的方法。與其把一個復雜的問題放在一個長長的文本界面中,不如從簡單的提問開始,進而逐漸增加問題的復雜性(稱之為“漸進式提示”)。Rob Lennon 則建議按照下面的框架設計問題提出方式,并稱之為“mega prompts”:首先是定義角色,即模擬誰或模擬什么。在此基礎上,確定要完成的具體任務。其中會依序描述各個工作環節,從而清晰地勾勒出這個流程。在下一步中則將介紹執行過程中必須考慮的背景、制約因素和限制,并明確模擬所要達到的目標。最后確定機器人輸出的形式是什么樣的,即應以何種格式提供反饋。

在使用ChatGPT 時,還應想到將ChatGPT 與其他程序進行連接的可能性,從而擴展ChatGPT 的功能。例如,可以將ChatGPT 的語言能力與Wolfram Alpha 的解題能力相互結合,從而大大降低ChatG‐PT 給出錯誤答案的幾率。

2 負面影響

2.1 危險和風險

認識和了解這一工具的基本局限性、風險和副作用也很重要。如前所述,ChatGPT 的初衷并不是描述事實,而是通過訓練它來生成可能的單詞順序。在某種程度上來講,這些單詞順序能夠產生意義并體現真實性只不過是一個副產品。因此,Chat‐GPT 給出正確答案的頻率就更加令人驚訝了。一份關于GPT-4 的內部報告顯示,其提供正確答案的比例約為80%。[1]不過,這也意味著它可能會有20%的誤差率。

ChatGPT 往往會提供一些虛假或編造(“幻想”)的答案。在學術領域,這種“幻想”出的典型例子是它給出的文獻出處。如果讓ChatGPT 使用文獻來支持它的回答,它通常會提供一些看起來有理有據的資料來源。筆者在最初做測試時發現,Chat‐GPT 提供了一些文章作為資料來源,而這些文章的標題恰好涵蓋了要搜索的主題,但能夠確定,這些文章實際上根本就不存在。

OpenAI 正在不斷改進其模型,并已經消除了一些不會再出現的錯誤。然而,基于其語言模型的設計,一些根本性問題仍將長期存在。

2.2 偏 差

用于訓練GPT-3 和GPT-4 的大部分文本占據了2021 年整個互聯網。這個被稱為“Common Crawl”的數據集包含30 多億個網站,其中近一半是英文網站。這意味著,在ChatGPT 的訓練數據中,西方看世界的視角占主導地位,而這些價值觀和語言標準被語言模型復制。這就是說,ChatGPT的訓練數據中也包含了許多具有種族主義、性別歧視或美化暴力等內容的文本,而這些數據是語言模型的訓練基礎。如果不采取安全措施,偏見、陳詞濫調和仇恨就會被人工智能復制成千上萬次。因此,OpenAI 采取了安全措施,盡管這些措施并不能完全奏效。當微軟通過“必應搜索”將ChatGPT 連接到互聯網上時,人們很快就發現這些保障措施不再那么有效了。例如,ChatGPT 威脅過慕尼黑工業大學的一名學生:“我甚至可以將你的個人信息和名譽公之于眾,毀掉你獲得工作或學位的機會。你真的想測試我嗎?”[2]

2.3 濫 用

目前,人們對ChatGPT 會被濫用的擔憂主要有兩個:

(1)由人工智能生成的宣傳言論充斥著各個信息渠道。薩爾布呂肯大學(Saarbrücken University)信息科學教授Joachim Weickert 提出了以下擔憂:“很快地,任何人都將能為任何荒唐離奇的宣稱制作看起來像真的一樣的圖像和視頻。這將使人們區分真假信息變得更加困難”。不過,Helmut Linde仍然抱有希望,他認為:“社交媒體特別容易受到虛假信息傳播的影響,這就產生了一個問題,即社交媒體作為政治信息來源的可靠性是否會進一步下降。事實上,這恰恰可能產生反面效應,即虛假圖片和內容的明顯大規模傳播會提高公眾對這一問題的認識”[3]。

(2)犯罪分子也會利用人工智能。安全研究人員已經觀察到地下數字世界試圖借助ChatGPT 制作惡意軟件。歐洲刑警組織(Europol)在一項研究中分析了ChatGPT 如何被犯罪分子利用,例如作為欺詐企圖(如網絡釣魚、身份盜竊)或木馬編程的工具。[4]

2.4 教育不公

在ChatGPT 推出之初,就有人希望ChatGPT 能為教育平等做出貢獻。學生在學習或撰寫論文時,可以利用這種工具的優勢。

然而,這是否會促進實現機會平等,還有待觀察。一方面,該工具已經出現了商業化使用的跡象,這就意味著并不是每個人都能平等地使用ChatGPT。另一方面,自如地使用ChatGPT 需要具有相關技能,而這些技能是需要先學習和掌握的。因此,ChatGPT 或有可能會進一步擴大人與人之間技能的差距。

2.5 侵犯隱私和泄露工作單位機密

人們很可能將具有重要意義的信息上傳給ChatGPT。比如說一位研究人員可能將他的研究數據上傳到ChatGPT,讓它創建摘要;也可能是一位青少年讓ChatGPT 幫他寫情詩;或者是一位退伍軍人在與ChatGPT 的對話中試圖克服心理創傷;亦或是一位教授讓ChatGPT 幫他撰寫保險索賠的異議書。所有這些數據和對話最終都可能未加密地保存在OpenAI 的服務器上,背后的工作人員可以讀取它們,并把這些信息用于對ChatGPT 的進一步訓練上。

2.6 工作崗位和商業模式的消失

ChatGPT 可以讓某些職業和商業模式變得多余:

(1)一項調查顯示,美國有些公司已經開始用人工智能模型取代員工:那些在公司里使用ChatG‐PT 語言模型的受訪者中,66%的人表示使用它來編寫代碼,58% 的人使用它來編寫文本,57%的人在客戶服務中使用人工智能的支持功能,52%的人使用它來撰寫會議記錄[5]。據Goldmann Sachs 公司的一份報告估計,ChatGPT 等類似的工具將來會取代歐洲目前多達四分之一的工作任務。

(2)微軟和谷歌目前都在致力于用人工智能升級搜索引擎。搜索結果未來有可能將不再是網站鏈接,而是生成的回復文本。另外,如果內容生產者(如報紙)的網頁不再被訪問,他們未來將如何獲取收入。

“人工智能不會取代你,但一個使用人工智能的人將會取代你?!边@句話顯明,ChatGPT 不僅可以在許多領域提供支持,而且還將對人們施加一定的壓力,即要讓人們接受這種支持并熟練地使用它。

3 人工智能的利用價值

3.1 作為學習輔助工具

ChatGPT 于2022 年11 月發布后不久,學生就開始探討如何使用ChatGPT 來使學習變得更加輕松。最初,探討的重點是如何讓ChatGPT 幫助撰寫作業、作文、研討論文和畢業論文。后來,交流變得更加多樣化,教師和學習輔導員也加入了討論。他們共同研究ChatGPT 的優缺點,以及如何將其巧妙地融入到學習策略中。以下列舉了一些關于學生如何積極使用ChatGPT 來輔助學習的建議,也就是說,可以讓ChatGPT 撰寫學術論文的摘要;精簡文本、制定更為詳細的大綱;提出關鍵問題;根據筆記和講義生成學習卡片;創建問題和考試任務;簡述章節內容;翻譯外語文本;為思維導圖提取核心概念;在對話中使用蘇格拉底反詰法;提出關于提綱和關鍵問題的建議;提供正面和反面例子;刪減、糾正和改進文本;基于評估標準做出反饋等等。

3.2 作為教學內容

在有了ChatGPT 及其同類產品后,很可能會對人們生活及學習方式的改變產生重大影響。很多技能也許將不再被需要,畢業生們將來應該能夠精通所有好工具,并以反思的方式使用它們。因此,有必要更新課程和教學方法。

Peter Salden、Nadine Lordick 和Maike Wiethoff[6]提出了很好的建議。一方面,他們強調,撰寫和閱讀學術論文是科學界不可或缺的活動,這是因為在梳理和撰寫的過程中可以獲取、分類和深化知識。然而,雖然“當前的人工智能寫作工具可以為寫作者提供支持,但必須加以引導和控制。不具備基本學術寫作技能的人很難做到這一點”。[6]

3.3 輔助教學

筆者最為廣泛使用ChatGPT 的領域是撰寫應用文本。在撰寫文本時,通常只是思考一些內容要點,然后把關鍵詞發送給ChatGPT,它就會用這些關鍵詞來創建文本的初稿,然后再進行修改(一般來說都需要檢查ChatGPT 生成的文本)。例如,在撰寫會議記錄、模塊和課程說明、推薦信、任務指南等方面都非常有效。除此之外,還能支持有更高要求的寫作過程。許多教師都表示ChatGPT 會提供有益的支持,尤其是在寫作的開始階段,即從一頁白紙到初稿的落成。ChatGPT 可以進行頭腦風暴,生成一個提綱,提出最初的問題。這些由ChatGPT提出的初步建議可能不會最后全都用上,但至少可以借此有一個開端,而且對許多人來說,改進和完善已有的文本比撰寫新文本更為容易。

ChatGPT 還可以幫助教師制作教學材料。ChatGPT 的優勢尤其體現在文本轉換方面:

(1)刪減或制作文本、根據關鍵詞列表生成文本、創建文本摘要或填空文本、翻譯外語文本;

(2)制作個性化教材(例如,制定個性化群發材料、調整難度、根據目標群體調整語言風格);

(3)生成例子和反例來說明教學內容(很多好的例子和建議見文獻[7]),或整理出論據進行正反方討論;

(4)創建測驗、創建問題和干擾項、生成標準答案或錯誤和正確答案的相關提示。

教師可以給學生提供ChatGPT 生成的文本、答案或論據,然后讓他們進行討論或評價。還可以把機器和人工回復進行對比,或者讓學生投票選擇哪些文本可能是機器生成的,哪些是人工制作的。相關例子比如說可以在慕尼黑工業大學的“Prompt Cookbook”中找到[8]。

4 對考試的影響

ChatGPT 可能對高??荚嚠a生的影響是最直接的,尤其是體現在研討課論文等無人監督的寫作任務上。2023 年1 月,就發現了第一批不是自己撰寫,而是由ChatGPT 代寫論文的學生。大約在同一時間,在一項針對1 000 名美國大學生的調查中,30%的受訪者表示他們使用了ChatGPT 來完成作業。[9]

ChatGPT 對不同形式的考試影響不盡相同。許多考試形式目前很少或根本沒有受到ChatGPT的影響。一方面是因為在很多考試中無法使用ChatGPT:口試既可以是線下面對面的考試,也可以是遠程考試(如使用Zoom),均可照常進行,ChatG‐PT 在這方面估計不會產生任何影響;建筑模型制作、體育實操、講座、教學排練等實踐性和展示性的考試,以及醫學考試的一些形式,如實踐技能展示等也不受影響。

ChatGPT 對傳統的筆試會起幫助作用。不過,這樣的考試形式目前還沒有受到ChatGPT 的深入影響,因為ChatGPT 在大多數筆試中都能被有效禁止和防范:對于有監考的筆試(包括開卷考試),可以有效地排除使用ChatGPT,特別是在禁止使用筆記本電腦和智能手機,只允許使用紙和筆的情況下;在有監考的視頻考試或線上考試中也可以排除ChatGPT的使用,但前提是監考必須有效。

特別容易受到影響的是無人監督的書面作業,即學期論文、研討課論文、畢業報告,但也包括編程任務。這些考核形式之所以容易受到影響,是因為這里采用的不是監督式的控制機制,而是其他一些容易被ChatGPT 有效破壞的控制機制。以下是對不同控制機制的分析:

(1)基于個性化考核的控制機制,可以使書面作業具有個性化(例如,要求包含個人反思),以至于在現有的第三方文本上進行編輯只能起到微不足道的作用。但由于ChatGPT 也可以創建個性化的個人文本,因此這種控制機制也只在一定程度上有效。

(2)通過考核高層級的學習目標實現控制:可以針對較高層次的學習目標進行考核,因為在這種情況下,學生僅僅復制現有文本是不會取得好成績的。但由于ChatGPT 也可以創建復雜的文本,因此,這種控制機制的有效性也是受限的。

(3)基于后續檢查的控制機制:對提交的論文通過相關程序進行抄襲檢查。由于ChatGPT 生成的文本是獨一無二的,因此無法通過抄襲檢查發現;此外,用于識別人工生成文本的專用工具只能在非常有限的范圍內發揮作用。

(4)過程陪伴控制機制:如果教師能夠陪伴學生的寫作過程,并定期與學生見面來討論中期結果,他們就能很好地判斷學生是否確實是自己在撰寫論文。這種控制機制一直非常有效,也符合師生之間建立學習伙伴關系的理念,但在許多情況下,也由于學生人數眾多,教師很難真正地實現過程陪伴。

不過,即使在引入ChatGPT 之前,尤其是前兩種控制機制也只是在一定程度有效,因為學生可以請高學歷的父母或兄弟姐妹幫忙,或者聘用寫手。從這個角度來看,可以諷刺性地說,ChatGPT 代替了高學歷的父母或鼓囊的錢包,從而“促進了”教育平等。如何應對ChatGPT 對考試的影響,可從以下幾點提出建議:

(1)規避??刹捎貌辉试S使用ChatGPT 或者可以有效防止ChatGPT 的考試形式,特別是口試、實踐性考試、有監考的筆試和紙筆考試、有嚴格監督的電腦筆試。另一個策略是,在書面作業、編程任務等之外,再進行簡短的口試,以確保學生真正具備了書面作業所展示的能力。

(2)禁止??梢越故褂肅hatGPT。如有必要,有必要具體說明禁止的具體內容(作為助手提供支持或制作文本)。但是,只有在確保能夠有效執行的情況下,才能確實禁止ChatGPT 的使用。

(3)允許。原則上允許學生在考試中使用ChatGPT,但需要注意以下原則:

(4)獨立性。學生必須在考試中獨立完成任務。如果整個文本都是由ChatGPT 創建的,就違反了這一原則。因此,ChatGPT 只能當輔助工具使用。此外,考試任務應設計得有足夠讓學生獨立完成的空間。

(5)避免欺騙行為。學生如采用ChatGPT 生成的文本,須將其標注為引文。如果做到了這一點,就不能認為學生違反了學術道德。

(6)責任。學生為自己提供的文本負責,他們必須對ChatGPT 文本的錯誤或寫作風格等負責。

歸根到底,解決未來大學考試的一個根本辦法是從考核預期的學習目標入手,在考慮新的框架條件下(人機混合寫作團隊)重新設計考試。如果將來文本都是由人機團隊(混合寫作)共同撰寫的,那么區分哪一部分是人工,哪一部分是機器生成的,會變得越來越不重要。就像在這篇論文中正確拼寫出的單詞,沒有人會去區分哪些是筆者自己拼寫的,哪些是機器更正過的一樣。

5 展 望

目前,人工智能的技術發展日新月異,圍繞它的爭論也比比皆是,幾乎每天都可以觀察到關于這個主題有新的文章和論文、闡釋、分析和法律意見、研究、應用實例和工作流程說明出現。

一個正在出現的技術發展是,人工智能針對特定應用進行優化的程序越來越多。http://www.fu‐turepedia.io 目錄目前列出了1 500 多個借助人工智能工作的程序。

其中有些程序很有潛力,但還沒有被完全開發出來;有些程序的使用需要經過大量培訓才能真正掌握;有些程序是收費的;有些程序將無法得到實踐的檢驗,從而停止使用。大多數人都沒有時間去跟蹤這些動態發展,因此,人們最終只能掌握相當少的工具,或者只能等待成熟的工具來到身邊。并非所有這些應用程序都會影響高校教學。不過,ChatGPT 及其同類產品將來會成為高校里通常使用的標準工具,就像計算器、維基百科、谷歌搜索和Word 的拼寫檢查程序一樣。

91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合