?

提示詞模板在人工智能對話中的實踐研究

2024-01-24 14:36陳嗣榮馮敬益
電腦知識與技術 2023年34期
關鍵詞:模板人工智能人類

陳嗣榮 馮敬益

摘要:通過與人工智能語言模型ChatGPT進行對話,總結出提示詞在對話過程中的使用技巧,包括告訴人工智能扮演的角色、提示詞模板、在提問過程中追問細節、提問時增加關鍵詞等。利用以上提問技巧,使得ChatGPT的回答更有質量。

關鍵詞:人工智能;提示詞模板;對話

中圖分類號:TP311? ? ? ? 文獻標識碼:A

文章編號:1009-3044(2023)34-0013-03

開放科學(資源服務)標識碼(OSID)

1 研究背景和意義

ChatGPT是一個由OpenAI公司開發的人工智能語言模型[1]。它的作用是回答各種各樣的問題,幫助人們解決問題和獲取信息。隨著ChatGPT的出現,人工智能(Artificial Intelligence,簡稱AI) 走入了人們的視野。提示在人工智能領域中的含義是指示AI進行某些行為的過程。提示詞模板設計并不單單用在跟ChatGPT的聊天中,也用于設計出更好用的,并且能夠重復利用的人工智能提示詞,用于跟各種各樣的機器學習模型進行交互。本研究意義是根據不同的使用場景,設計出相應的提示詞。如果沒有使用正確的提示詞,ChatGPT的回答通常跟人們的需求相差甚遠。如果能夠編寫出結構合理、AI易懂的提示詞,就可以讓ChatGPT的回答更為準確,可以增加用戶的體驗,使用戶可以更加快速地得到結果,也可以降低初學者的學習成本,使他們不需要太多的學習就可以跟AI進行對話。

2 相關工作綜述

2.1 提示詞基礎知識

在布置一個任務的時候,需要使用到一些詞語來對執行任務的人進行引導或指示他怎么做,這些詞語就叫提示詞,它可以讓執行者對任務要求和內容把握更為到位。一個良好的提示詞可能包含以下四個元素:指令、背景、輸入數據和輸出指令。指令,這是人們希望AI完成的一個具體任務是什么。例如,根據如下表格信息,制作一張折線統計圖。背景,這指外部的信息或者是額外的上下文,利用這些信息可以引導設計的模型做出更好的回應。例如,最近一年的收入財務報表。輸入數據,是指人們想要問的具體問題,通過問題得到想要的回答。例如,最近半年的營收趨勢是怎樣的。輸出指令,指定輸出的AI回答的類型或是結構。例如,要求AI的回答是詳細的,并且能夠舉出相關的例子。

如何讓一個簡單的接話茬能力讓ChatGPT看起來能夠解決各種各樣的任務呢?因為人類大部分的任務都是以語言為載體的。當人們前面說了一些話,它把接下來的話說對了,任務就完成了。ChatGPT作為一個大語言模型,目的就是“把話說對”,而把話說對這件事情可以在不知不覺中幫助人們完成各種任務。

2.2 NLP基礎知識

自然語言處理(NLP) 屬于計算機科學的其中一個領域[2-4],它可以使機器能夠閱讀和理解人類的各種語言[2,5],把語句里的細節進行分離并辨識,就像人類相互理解對方說的話一樣,自然語言處理包含自然語言理解和自然語音處理兩個部分。NLP可以處理一些非結構化的文本,如“把地拖干凈”“把雞肉和白菜添加到我的購物清單中”這樣的命令,同時可以轉換非結構化文本和結構化文本。把非結構化的文本變成結構化文本,這個過程叫自然語言理解,例如在上面的那個例子中,購物清單可以看成一個列表,雞肉和白菜可以看成是列表里面的子元素。把結構文本變成非結構化文本,這個過程叫自然語言生成。例如,把課程表的格式去掉,只保留語文、數學等科目名稱。

在處理的過程中,NLP把句子分解成單詞,然后進行標記。有時候一些英語單詞是有共同的詞干的,也把它進行一些特定的標記,這樣就能短時間掌握比較多的單詞。還可以通過詞形還原掌握更多的單詞。詞形還原是將一個給定的標記,通過字典的定義來學習它的含義,并推導出它的根或詞元。如better和good,better是從good衍生出來的,所以better的詞根就是good,都把它作為同一個標記。

2.3 提示詞模板在人工智能對話的應用

從用戶的角度看,ChatGPT的形式就是一個對話機器人,準確地說是“續寫”機器人。從技術上來講,ChatGPT它從來都不是一個專門為問答和對話設計的系統。ChatGPT是一個語言模型,語言模型就是刻畫語言最基本的規律。那么如何去建立語言模型呢?可以只做一件事情:掌握詞匯間的組合規律,而掌握這種規律最直接的表現就是讓語言學會“續寫”,類似于人類的“接話茬”。當給出前N個詞匯的時候,如果一個模型能夠告訴人們第“N+1”個詞匯大概率會是什么,就認為該模型掌握了語言的基本規律。ChatGPT就是這樣一個語言模型。雖然ChatGPT看起來能完成各種任務,但它本質上只做這一件事情:續寫,告訴你第“N+1”個詞是什么。

2.4 提示詞模板在其他領域的應用

除了如ChatGPT這樣的大型語言模型外,AI繪畫同樣也是需要提示詞進行創作。利用提示詞,可以創作各種各樣風格的卡通頭像,也可以進行各種插畫的繪制,也可以幫模特實現“一鍵換裝”,節約公司的運營成本。

3 向AI提問的方法與技巧

3.1 告訴AI你是誰

在進行一段對話前,首先讓AI進行角色定位,通過告訴AI它現在要扮演的角色,可以回答我哪些方面的問題,這樣會使得它的回答更為專業。例如,人們跟AI對話的第一句是:“你現在扮演一位教授本科學段的計算機老師,明白角色請回復明白?!边@樣AI就會以一位計算機老師的身份跟人們進行對話,如圖1所示。

3.2 設置個性化的提示詞模板

提示詞模板包含了格式模板、文案模板、個人信息模板等。

當你希望AI的回答結果是按你預想的格式進行回答的時候,可以采用格式模板。預先給AI一個相關格式的例子,例如輸入以下內容:

問題:廣東的省會是哪里?

答案:【廣州】

問題:湖南的省會是哪里?

AI會回答以下內容:

“湖南的省會是【長沙】?!?/p>

在上面的這個例子里,“【】”號就是設定的格式。

3.3 對細節進行追問

在跟AI進行對話的過程中,AI對人們的提問會作出一個基礎的回答,但是這些答案并不一定是想要的答案,這個時候就要跟AI進行充分的溝通,例如提示它:“在你回答這個問題之前,可以繼續問我一些跟這個回答相關的問題”。如果對AI的回答不滿意,可以跟它提出不滿意的地方,例如回答不夠詳細,用的詞過于深奧等,讓它修正它的答案,通過這樣一步一步地引導,AI就會生成人們想要獲取的滿意答案。如果在對話的過程中,AI回答的答案跑偏了,人們也要及時對提的問題作出修正,例如我需要AI幫我提取一篇文章的大綱,AI回答的時候會有點發散,這時就增加一個條件,讓它按照我給出的原文去進行提取,這樣它的提取結果就會比較精確。

3.4 提問時增加關鍵詞

在對AI進行提問的過程中,如果要使提問更有針對性,需要在提問的過程中增加一些關鍵詞。例如想要AI告訴怎么完成這個過程,需要提示它,把實施的步驟羅列出來。對于一些比較專業的問題,AI一般只會對它進行名詞解析,作為外行人很難去理解這些專業的名詞解析。例如,筆者詢問AI:C語言、Python語言、易語言這三種語言之間的關系,AI的回答作為計算機專業的人員會比較容易理解,因為在以前學習的過程中已經學習了相關的知識,如圖2所示。但是對于非計算機專業的人員,就會感到生澀難解,這時給出我們的另外的提示:“請轉換成5歲孩子都能明白的解釋,帶上足夠有趣的案例讓我理解?!边@樣AI就會嘗試用用戶要求的條件再次去回答這個問題,如圖3所示。

3.5 任務分解,用列表把需求拆分成子任務

任務可以設定AI要實現的具體目標,讓AI清楚地理解任務對于設計有效提示詞至關重要。任務描述應具體、簡潔,避免歧義或模糊,清晰的任務描述有助于AI更好地理解它應該做什么并提高生成內容的質量,是設計提示詞時要考慮的關鍵因素。在生成了總任務之后,用列表的方式把總任務細化成一個一個的子任務。拆分成子任務后,對每一個子任務都清楚描述它的細節,必要的時候,要對任務增加一些限制的條件,這樣AI才會對人們布置的任務有更深刻的認識。

3.6 提問中體現特殊性

提問的特殊性是指提示詞的詳細程度和精確度,對于設計提示詞至關重要,因為它可以提高生成內容的質量和相關性。一般來說,提示詞越具體,AI就越有可能生成有針對性和準確的回答。模糊或籠統的提示詞可能會導致來自AI的題外話、不相關或不一致的回復。例如,如果提問的內容是寫一首詩,AI寫的詩歌可能并不是人們想要的,但把提問改為“寫一首七言絕句,內容是跟春天有關,詩的開頭都要帶‘春’字?!边@樣AI就能按人們所要求的生成詩歌。

3.7 提示詞的迭代

迭代是重復執行一系列操作的過程,每次執行都會根據之前的執行結果進行調整,是快速設計過程的關鍵部分。提示詞模板設計是一個迭代的過程,可能需要多次嘗試才能創建有效的提示。迭代通過設計、測試和測評的循環來提煉和改進提示詞,每次迭代都應該以先前試驗的結果為前置條件,目的在于解決遇到的任何限制。例如,當人們修改了提示詞以提供更具體的說明或增加額外的上下文后發現AI的回答變得模糊或它產生了偏離主題的回復,采用迭代方法可以持續改進和優化生成的內容。在設計有效、高質和與結果一致的提示詞時,迭代是重要的考慮因素。

4 ChatGPT面臨的挑戰

4.1 ChatGPT的技術挑戰

第一,它是不穩定和不可解釋的。但這個缺陷不是ChatGPT所獨有的,而是整個深度學習模型所具有的,“涌現效應”導致這一問題更加嚴重。特別在一些敏感的領域,這一問題更加凸顯。例如在自動駕駛領域,機器的事故率已經低于人類司機,但為何大家還不愿意完全相信自動駕駛呢?因為自動駕駛雖然事故率低,但是它的事故是不可解釋的。

第二,知識更新。讓ChatGPT臨時接受新的知識比較困難,很多知識在不同的領域是不一樣的。人們經常會遇到在特定的場景需要特定的知識的情況,而對于ChatGPT而言,它很難做到。

第三,事實性錯誤。事實性錯誤是指信息不符合客觀事實,而ChatGPT是無法直接了解客觀事實的,他只能了解語言。

第四,輸出的同質性。ChatGPT所做出的回答往往是人類的主流觀點。因為它是一個概率模型,它會以大概率的答案去回答它的任務。例如,它為什么回答中國的首都是北京,因為它學的語料當中大部分人都是這么說的。它的這種特點實際上有可能加劇信息繭房現象。

此外,還有復雜目標導向、模型效率和模型優化等問題,不再贅述。

4.2 ChatGPT的科學問題

第一,語言不再是人類的專屬。ChatGPT可以生成語言。那么這個意味著什么呢?基本上可以預見,在未來的幾年當中,互聯網上大部分的信息將不再是人類撰寫的。事實上,現在Twitter中30%以上的活躍用戶都是機器人,在微博中也有大量的水軍機器人。

第二,ChatGPT是否能夠創造新的知識,還是只將訓練語料中的知識換一種更精練和高質量的方式進行表達?如果是后者的話,那么人類對于ChatGPT的使用會造成知識的收斂,降低人類知識的創造效率。如果ChatGPT本身是能夠創造新知識的,那它則會大大加速人類獲得新知識的效率。

此外,還討論了語言模型涌現與控制機制、語言的知識表達邊界問題、自我意識與自由意志問題、人機共生問題、如何突破語言空間問題,不再贅述。

4.3 ChatGPT的倫理問題

第一,用戶隱私的問題。人們輸入的問題,技術上是可以被ChatGPT的所有者所獲取。

第二,反向影響的問題。ChatGPT會通過它所輸出的內容,反過來影響人類的文化,就是人性異化,人性向機器靠攏、機器向人性靠攏。

第三,不當使用。比如說學生用ChatGPT去作弊。

第四,人機共生與加速極化。大模型和人類有一個典型的共生循環,什么意思呢?模型是依賴于人類產生的數據來訓練的,ChatGPT用人類說的話做訓練之后,他再給出人類答案,并影響人類的認知。人類認知被影響之后,又會說新的話?!澳阌袡啾3殖聊?,但你說的每一句話都會成為訓練語料”,新的話又變成ChatGPT新的訓練語料。如此反復,就形成一個共生循環。并進一步導致人工智能模型越來越像人,而人越來越像人工智能模型,會向一個人機共生的一種文化去靠近。

第五,生產力壟斷與社會和國際關系重建。這一點恰好與區塊鏈形成對比。區塊鏈是分布式,能夠去中心化,打破壟斷。而ChatGPT這種大模型需要大規模的數據和算力,只有極少數的人或者機構能夠提供這樣的服務。其實ChatGPT很大程度上是來自于涌現,沒有太多的新的技術。很多大的互聯網公司都想形成ChatGPT等技術的壟斷,從而獲得權力,并影響社會、國際關系?;仡櫥ヂ摼W發展歷史,互聯網發明者Tim Berners-Lee做得最偉大的一件事就是放棄了互聯網專利。

第六,人工智能的社會角色與倫理地位。隨著ChatGPT越來越具有類人的特征,用戶不可避免地會將其人格化的沖動。那么他是否會具有類人的地位?這個可能是需要考慮的問題。

5 結論與展望

人工智能,已經從一個概念進入到實際的生產使用中。要利用好人工智能為人類服務,就要掌握如何與人工智能進行有效溝通和對話,提示詞模板,就是人和人工智能溝通的橋梁。在未來,成為一名提示詞模板工程師是人工智能專業畢業生的一個好方向,現在已經有企業用高薪招聘提示詞模板工程師。相信在近幾年,這個行業會迎來井噴發展。

參考文獻:

[1] WHITE J,FU Q,HAYS S,et al.A Prompt Pattern Catalog to Enhance Prompt Engineering with ChatGPT[EB/OL].[2023-03-20].ArXiv, abs/2302.11382.

[2] CHOPRA A,PRASHAR A,SAIN C.Natural language processing[J].International journal of technology enhancements and emerging engineering research, 2013,1(4):131-134.

[3] HIRSCHBERG J,MANNING C D.Advances in natural language processing[J].Science,2015,349(6245):261-266.

[4] MIHALCEA R,LIU H,LIEBERMAN H.NLP (natural language processing) for NLP (natural language programming)[J].Computational Linguistics and Intelligent Text Processing,2006:19-25.

[5] OTTER D W,MEDINA J R,KALITA J K.A survey of the usages of deep learning for natural language processing[J].IEEE Transactions on Neural Networks and Learning Systems,2021,32(2):604-624.

【通聯編輯:聞翔軍】

猜你喜歡
模板人工智能人類
1100億個人類的清明
人工智能與就業
鋁模板在高層建筑施工中的應用
城市綜改 可推廣的模板較少
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合