?

生成式人工智能與政策失靈:規避工具還是隱蔽誘因?

2024-01-01 21:49向玉瓊
探索 2023年5期
關鍵詞:機器決策人工智能

向玉瓊

(南京農業大學 公共管理學院,江蘇 南京 210095)

2022年,OpenAI公司基于神經網絡架構以及在海量數據基礎上開展的機器深度學習,推出了具有1 750億參數的自然語言處理模型即ChatGPT,對各種類型的文本、圖像、音頻和數據進行處理。ChatGPT預示了AI作為一種通用目的技術(GPTs)的潛能,跨越了可用性和通用性兩道主流鴻溝,因此,這不是一次簡單的工具革新,而是一場重大智力革命,將對人類社會及其治理帶來一場前所未有的變革。

生成式人工智能自發布以來,迅速成為人們關注的焦點,在短短幾個月內相關研究呈現爆發式增長。相關研究主要集中在ChatGPT的技術特質[1]及其在教育[2]、文本寫作、信息傳播[3]、社會治理[4]等領域的應用,涉及人機關系的重塑[5]、知識生產的變革、治理模式的挑戰[6]、潛在倫理風險和法律風險[7]等議題,而與政策相關的研究多是將政策作為規制手段和工具[8],將人工智能聚焦到政策過程分析的研究相對較少。但在現實中,人工智能作為政策優化的重要社會背景和技術路徑,必然大量應用于政策過程中并對政策過程產生影響。而且基于ChatGPT帶來的驚艷表現,人們相信人工智能的發展有助于實現政策目標,消除政策失靈。但現實情況可能并非如此。實際上,在生成式人工智能階段,需要思考以下問題:以ChatGPT為代表的生成式人工智能將會對政策過程帶來哪些影響?體現在哪些方面?人工智能究竟能否消除政策失靈?未來的政策過程中應該如何定位人工智能的角色?這些是在智能技術快速發展的背景下人類治理必須思考的問題。

1 政策失靈的規避工具:生成式人工智能的一個面向

隨著科學技術的發展,社會理性化進程不斷加快,制定公共政策也成為一個不斷科學化與技術化的過程。ChatGPT的發布代表生成式人工智能階段的到來,這是政策過程發生的重要技術背景,將對政策過程產生一定的影響。其中最明顯的是,生成式人工智能將對政策過程做出全方位的優化,成為政策失靈的規避工具。

1.1 跨越行業和領域邊界以完善政策信息

ChatGPT基于Transformer架構進行基礎模型建構,集中了來自多種模態的數據,通過不斷地堆疊人工智能神經網絡的參數規模模擬人類思維,進行大規模數據分析的同時積累更多的數據用以訓練產生出更好的模型,以此廣泛適應多元化的下游應用場景。當前ChatGPT能超越所有搜索引擎,跨越領域、形式、距離等多重限制進行信息收集,不僅能編輯萬億級參數,而且處理參數的能力還可以數倍增加。ChatGPT通過算法、模型、公式等對信息進行處理,生成文本、圖片、聲音、視頻、代碼等多元形式,實現從數據、算法到多元輸出的靈活轉換。而且GPT開展信息處理并不停留在簡單的信息收集與整理上,而是通過強大的知識遷移能力,結合自身經驗和數據來學習如何做事,也就是說,機器會通過深度學習對政策信息進行自主化處理。2012年,亞歷克斯·克里澤夫斯基及其同事在一篇研究論文中證實,深度學習訓練在處理完2 000億張圖片后,其表現仍然要遠勝于傳統的計算機視覺技術,這可以看作是深度學習神經網絡領域中取得的里程碑式的成就[9]155。強大的學習能力使得ChatGPT突破了決策式AI而開啟了通用式AI的時代,人工智能跨越幾乎所有領域進行信息搜索,并對不同形式的信息進行綜合處理,其信息搜集和處理能力遠超人類,從而為政策過程提供更加完整的信息。

1.2 擴大友好接口以實現便捷互動

人工智能的發展一直面臨著一個難題,即對社會問題的符號化與語言化的問題。只有通過符號化才能實現社會問題向機器符號的轉化,也才能在機器上對社會問題進行模擬和處理,但是,“即使我們使AI接近于大腦的運作方式,仍然不足以產生理解”[10]106。也就是說,機器對語言和符號的理解能力不夠,尤其是面對一些難以定量的價值、情感等要素時,人工智能即使可以大量推算和模仿,但并不能真正地“理解”。而ChatGPT在對社會問題的符號化上取得了重大突破。GPT模型作為生成式人工智能的一個分支,是一種自然語言生成模型,發展到GPT-4已經超越了Chat的層面,展現出強大的理解能力、自主意識與編輯能力,能夠在龐雜的語言中把握核心觀點和意圖,并執行各種命令和反饋,GPT甚至能夠從文字中敏銳地捕捉到一些具有個性化色彩與情緒化的動態,這擴大了機器與人類之間的互動接口。一方面,GPT能對人類信息做出更深的理解和更為準確的輸入;另一方面,GPT會對政策結果進行反向轉化,也就是通過多元形式進行信息傳遞與輸出,在反復的搜索、整理與輸出中提高對不同對象的適應性。實際上,在OpenAI公司發布GPT-4之后的兩天,微軟重磅發布了AI辦公助手Microsoft 365 Copilot,將GPT-4接入微軟全家桶,這標志著人機交互進入了新的階段,政策系統與機器之間的交流有了突破性的進展。

1.3 代替人類決策以提高決策效率

奧爾特曼強調:“將GPT視為一種工具而不是一種生物很重要,人們不應該試圖將人工智能擬人化?!盵11]但一些科學家發現,新的AI系統已經展現出具有人類邏輯的跡象。人工智能之前主要限于長期專業訓練的狹義人工智能(ANI),現在發展到具有強大自我學習能力和跨領域能力的通用人工智能(AGI),雖然ChatGPT的出現并未宣告強人工智能時代的到來,但也意味著人工智能擁有了更為復雜的智力能力。GPT擁有強大的生成文本的能力,能更高效地對文本進行分析、整合、評估和判斷,通過數據與算法生成圖表、文章、圖片、語音、論文、視頻等多種形式,甚至寫出代碼,在更大范圍內與人類思維成功對接,因此可以在很多領域和環節中代替人類做出決策,提高決策效率。一方面,決策分散與并行可以提高決策的速度與敏捷性。決策主體從政治精英和專業人士擴大到包括網絡用戶,繼而實現對人工智能的包容,人工智能不再是傳統觀念中的工具存在,而是成為政策過程中的智能化主體。隨著機器自主處理范圍加大,與人類并行開展決策的范圍擴大了,并因此提高了決策效率。另一方面,人機交互從人與工具之間的單向度使用和被動式的反饋轉向主動式交互,分發場景從PC端信息門戶到網絡平臺,再到孿生空間,數字技術的高度智能化實現了內容分發“所見即所得”“所想即所得”“所愿即所得”,機器承擔了人類決策的諸多功能,進一步提高了決策的科學性與有效性。

1.4 推動政策系統升級以提高適應性

政策作為一個復雜系統,可分為信息子系統、模型子系統與行動子系統。信息子系統是政策系統的核心系統之一,對信息進行收集和整理;模型子系統是對信息進行表達與處理之后,通過推理、分析做出政策設計;行動子系統是指政策過程中通過推理和規劃實現與環境之間的互動,來達到政策目的。信息技術的發展推動政策系統的重心從信息子系統轉向模型子系統,而人工智能推動政策系統的重心從模型子系統向行動子系統過渡。隨著信息技術的發展,信息傳播渠道多元化,信息爆發式增長,獲取信息的成本已經從邊際成本轉向固定成本,成本不斷降低甚至可以忽略,信息子系統的價值因此下降。模型子系統是基于對信息的處理而形成,模型包括認知模型、任務模型、領域模型,每一個政策議題與政策方案都是由模型來表達和驅動,每個政策問題都由相應的領域模型、任務模型和人組合完成。在大模型高速發展中,政策過程中的一般性問題,除了個性化、獨特性的情況外,都可以通過大模型來解決。模型是生成式的,能有效地控制、操作各種設備。行動子系統更多地在行動與環境之間進行互動,根據具體情境選擇行動,并在行動中重塑環境。ChatGPT推動政策系統轉向行動子系統的建構,實時捕捉環境的差異和變化,從而獲得更為真實的信息,根據政策環境的變化靈活建構政策模型,因而提高了政策與環境之間的適應性。

2 政策失靈的另類誘因:生成式人工智能的另一面

ChatGPT預示著工具的智能化與機器的覺醒,其影響不僅限于工具和技術領域,而且擴展到價值和社會領域,給人類社會提出了自啟蒙運動以來從未經歷過的哲學挑戰和實踐挑戰,將對社會結構產生影響甚至重組政策過程。ChatGPT優化了政策工具,提高了政策效率,但在技術光環下也可能帶來政策失靈的結果,換句話說,生成式人工智能的發展并不一定實現政策目標,反而有可能帶來新的政策失靈。而由于人工智能的優越性經常被夸大,這使人更容易忽視其打開潘多拉魔盒的可能。

2.1 算法偏見導致政策信息偏狹

GPT的發展是基于機器的深度學習,其運行的基本原則仍然是計算。如斯加魯菲所說,“現在‘深度學習’人工智能領域的研究內容很簡單,就是羅列大量的數字進行運算。這是一種很聰明的大數據集的處理方法,由此可以為數據集分類。但這種方法無需通過顛覆性模式創新來實現,只要提高計算能力即可”[12]29。生成式人工智能也是以暴力計算為基礎,一旦數據存在瑕疵,或者算法規則錯誤,那么就會導致人工智能的錯誤行動,而人對此可能毫不知曉?!半m然人們經常將互聯網與透明和信息自由的機會聯系在一起,但是,機器的選擇過程對公眾來說始終是不透明和幾乎無法施加影響的?!盵13]512就當前ChatGPT的學習語料庫來看,中文資料所占比重較低,這意味著中文信息的存儲量不夠,中文信息不足,人工智能對中文信息的分析也必然不夠。人工智能會更加重視可分析的外文資料,而有意降低中文信息的比重,這會帶來信息的選擇性使用。不僅如此,算法會做出選擇性輸出,如用不同語言針對同一問題提問,所得出的答案在風格與措辭上會有明顯差別,甚至存在觀點對立,而且重復性的輸出會固化這種偏見,形成僵化的態度和文化,繼而影響政策訴求。但由于機器學習是通過模糊的神經網絡算法模型直接從數據中進行的,超越了傳統的編程規則技術,學習的廣度與速度更是遠勝人類,因此算法偏見對于技術研發人員也可能是一個“黑箱”。人類無法全部證實生成式人工智能所生成的結果在內容上的真假,判斷算法能否全面反映政策問題并發現事物規律、是否實現了在線隱私管理等,更毋論對此有效控制。即使GPT“一本正經地胡說八道”,所生成的內容是胡編亂造的,也無從評判、更無法監督,最后可能發生的情況是:人工智能不僅沒有告訴我們關于世界的信息,反而歪曲了我們看世界的視角。

2.2 操控信息傳播造成政策觀點極化

人工智能影響了網絡信息傳播的渠道和方式,人們對于世界的感知越來越多地由人工智能來決定,“有著能靈敏地回應我們需求的‘面孔’和‘眼睛’的人工智能‘伙伴’充斥在我們周圍,它們或許還能以其他方式激發我們的情感,我們的感知方式將牢牢掌握在技術手中”[14]112。生成式人工智能不只發揮信息傳播渠道的功能,不僅僅是“傳播工具”,而且具有一定的自主決策能力,在一定程度上可以成為“信息生成者”。一方面,人工智能會選擇性地設計信息內容和建構傳播渠道?;趯€人信息的收集和挖掘,GPT會根據個體偏好進行信息裁剪和定制,根據群體特征選擇信息內容與投放方式。在信息數據分析中,GPT可能隱蔽地運用具有偏見的模型對數據進行監控與編輯,并在后續的編輯和處理中放大偏見效應,形成惡性循環。在信息傳播階段,GPT則可能模擬人的意識感知、進而操控人的認知,根據個體風格進行選擇性的輸出等,甚至對部分用戶進行惡意欺詐或者誤導性宣傳,公民的知情權受損,群體之間的認知鴻溝被極端化。另一方面,人工智能會阻礙數據的共享與完整傳輸,從而減少了政策觀念之間協商與修正的機會。人工智能對數據共享與傳輸可能設置隱蔽障礙,造成用戶訪問權、修正權等數據主體權利失效,將數據傳輸陷入無序狀態。加上群體天生具有極化傾向,擁有相同觀點的人更容易形成群體,而群體內部的交流又會強化群體的極端觀點,這就夸大了群體之間觀念的差異性,政策訴求更易于表現為極端和偏激。而且人工智能可能被賦予人的面孔、聲音和修辭天賦而表現得與人類無異,繼而以其觀點將人類觀點擠出公共領域或者引導到特定方向,而人類對此毫無知曉,結果卻是阻礙了觀點之間的交流與辯論,減少了觀點緩沖與調和的機會。最終,政策信息以極化的觀點表現出來,卻無法整合起來反映政策問題的全貌。

2.3 機器依賴強化了政策系統的封閉性

關于技術統治人類思想的觀點早已有之,隨著福特發明裝配線,人淪為機器的奴隸;上帝造人論受到攻擊,生物進化論取得勝利;泰勒的《科學管理理論》確立了科學管理思想,科學至上的觀點出現,社會研究淪為自然科學的附庸,這些都標志著現實中技術壟斷思想的興起。工業社會中確立了技術至上的信念,并讓生活去適應技術的需要,雖然生活中包含了文化與美等可能無法被技術化的構成,但生活不斷被修剪以便納入技術體系。隨著技術對社會治理的影響日益增大,尤其是當ChatGPT顯示出了機器具有認知能力和高級智能的趨勢,甚至制造出了機器無所不能的假象時,人們已經沒有時間去思考技術的弊端了,也找不到技術弊端的源頭和回溯機制,而只是盲目地在更大范圍內通過機器去收集信息進行方案設計與擇優,因此帶來了對機器的依賴?!半S著科學家越來越了解人類的決策機制,對算法的依賴可能也會越來越強烈。掌握人類的決策機制之后,就能提升大數據算法的可能性,但同時也降低了人類感受的可靠性。當政府和企業都能夠成功進入我們這套人體操作系統時,人類就將面臨鋪天蓋地的種種精準操縱、廣告和宣傳。到時候,要操縱我們的觀點和情緒將非常簡單,于是我們也不得不依賴算法來反制,就像飛行員一旦因為眩暈而產生空間迷向,就不能再相信自己的感官,而必須全然相信儀器?!盵15]50

對機器的依賴越高,政策過程中也就更少地需要公眾的參與。公眾的觀點可能會變得無關緊要,與機器生成的數據不同的所有觀點或者質疑機器的聲音都會被自動忽略,政策系統在技術發展中反而封閉起來。既然智能機器能夠代替人類做出決策,而且能夠實現更高的效率和更科學的結論,那么由智能機器來決策實際上就是實現了公共利益的最大化,智能機器對公眾參與的代替也就是合理的了。不過,數據霸權或者算法霸權并沒有排斥所有人類,而是將決策權力集中到專家與技術官員手中,政策權力配置不均衡且形成了馬太效應:已經擁有強大算力、數據以及技術和財務資料的組織更有優勢;擁有大量高質量數據的人能獲得更多信任資源。這樣,技術路徑將政策過程中的價值考量排斥在外,技術專家與普通公眾、數據使用者與無能力獲取基礎數據的群體之間的分化擴大了,大量的因素和訴求被過濾,政策過程可能會建構出片面化的政策問題。

2.4 政策目標的自反

第一,政策科學化在技術路徑上要求數據的完整與真實,但為了達到這一目標,實際開展的數據采集與分析經常會影響到個人權利和自由,這是政策科學化過程中出現的一個悖論。數據收集過程實際上就是將技術手段伸及社會領域中并將其用數字符號表示出來的過程,可能會涉及不透明和復雜性的工具與手段,實時的、全面的收集與分析可能對社會形成一個隱形的、無處不在的監視系統。人工智能的發展使得這種監視和控制進一步隱形,而且更加周密?!耙蛱鼐W的特別之處在于自由與控制的混合方式?!盵16]25對政策對象而言,當個人信息被全面收集進而進行實時追蹤,也就意味著個人無時無處不在被監視之中,不過,當人意識到這一點,也會有意改變可能被捕捉到的行為選擇,但這也使得政策訴求與行動表達喪失真實性與完整性。

第二,數據系統將現實社會轉化為數字符號進行呈現和處理,將政策問題簡化成為機械化的存在以及技術所能控制的對象。在一定程度上,政策過程的數字化必然是具有控制性的。數據生成與流動的物理層是受控的,數據的內容與形式是由代碼來引導的,現實社會被數據化,并接受數據化結果的管理,最終技術控制了現實。技術進步與政策優化都是為了讓人類獲得更高水平的發展,但在技術應用中政策可能會遠離這一目標,也就出現了政策目標的自反情況。

第三,即使人工智能在數據收集和處理中可能侵犯個人隱私,但這種行為被隱蔽并正當化。一方面,對個人數據的收集與分析往往難以被察覺,其不利影響通常在數據應用階段或者經過較長時間才能表現出來,甚至根本就不會被發現,這使得隱私侵犯并不容易被知曉;另一方面,先進的技術手段會制造出多種借口對隱私侵犯正當化。如侵犯個人隱私的隱喻性概念是非法侵入,對一個網站或者數據庫所開展的數字監視器非法或者未授權的侵入被認為是侵入他人的私人領域或空間,但是侵入者會進行自我辯解,其通常思路是“門開著”或“并沒有門”,這樣“侵入”就不能算侵入。

3 人工智能導致的政策失靈具有隱蔽性

生成式人工智能基于算法、模型等自主生成文本、圖片、視頻等內容,不需要人的直接參與,這體現了技術的特殊性。也正因為其不同于傳統技術工具,人工智能會同時對政策過程的方法路徑與價值導向產生影響,誘發政策失靈,而工具與結果之間的因果追溯機制復雜化了,難以將政策失靈的原因歸結到人工智能。

3.1 技術責任判定模糊化

生成式人工智能通過算法生成內容,生成過程具有一定的自主性,生成內容具有極大的不確定性,這一過程不需要人的參與,而且人類難以預測其行動選擇。當生成內容出現問題時,因為人類對人工智能的技術并不能完全了解而無法判斷原因是技術本身的缺陷、數據的偏差,還是人工智能主觀有意為之,這削弱了人類對智能機器的控制,更使得責任判定模糊不清?!爱斠豁棿髷祿妹黠@使用這些變量在對待人的過程中作出區分,而這一點并沒有得到相關負責人的糾正時,這就構成了直接的故意歧視。然而,在大數據中,歧視通常不是那么明顯,甚至可能不是數據控制者的本意?!盵17]50ChatGPT會聰明地運用模棱兩可的語言,迎合不同群體的偏好,生成不同的結果,會開玩笑,也會胡編亂造,但人類對其結果的歸因路徑并不清楚,對所生成信息的方法和影響因素了解也有限,更毋論將其置于宏大的社會系統中進行責任判定。信息和通信技術對這個世界將會怎樣以及應該是怎樣具有越來越大的意義,所承擔的責任也越來越重,但責任歸因越發困難和模糊。決策強調循證,但是技術“黑箱”加大了證據界定與舉證的困難。決策結果受到社會環境、參與主體、決策機制、技術工具等因素的影響,而包括技術工具在內的每個因素都比較復雜、難以界定,這些都加大了對人工智能進行責任判定的難度。

3.2 決策責任主體復雜化

決策由組織與個體做出,也由組織與個體來承擔相應的責任,這一點是現代社會所形成的共識。即使政策失靈是由于政策工具和技術使用不當所導致,責任也歸于政策工具的使用者即政策主體。責任會在不同部門與層級之間進行分配,但都限定在決策組織層面。而當人工智能顯示出自主決策能力的跡象時,決策系統與責任主體都復雜化了。人工智能是否已成為一個獨立的政策主體?能否承擔決策責任?結論不是那么清晰了。在圖靈最早對人工智能的設想中,就將人工智能置于普通的工具范疇之外,認為人工智能將會等同于人的智能?!皥D靈使我們認識到,人類在邏輯推理、信息處理和智能行為領域的主導地位已不復存在,人類已不再是信息圈毋庸置疑的主宰,數字設備代替人類執行了越來越多的原本需要人的思想來解決的任務,而這使得人類被迫一再地拋棄一個又一個人類自認為獨一無二的地位?!盵18]107在人工智能的發展史上一直存在著一種擔憂,即擔心人工智能會產生自主意識,生成認知能力,因為人工智能的“自主性”程度直接關聯到人類與機器之間的關系與責任分界。ChatGPT是高性能的智能體,能夠開展復雜的智力工作,并顯示出生成自主意識的可能,那么在政策系統中應該如何對其定位?不同于普通的紙、筆、時鐘等工具,如果機器發展最終走向覺醒,成為不同于人類的一個新的物種,那么是否應該被視為獨立主體來承擔責任?而當前階段,應在何種程度上認定人工智能的責任?“在‘人類為共同決策人’時,人類所做出的決定會越來越多地被機器人系統所干預。因此,一個至關重要的問題就在于,技術干預會以何種方式影響操作者的行為。在作決定時,無人機操作人員高度依賴武裝軍用機器人系統傳輸過來的信息。盡管操作人員在法律上承擔責任,但人們也存在疑問,即他們要為自己的行為承擔多少道德責任才算合理?!盵19]226決策主體從人類跨越到對人工智能的包容,決策責任承擔主體也復雜化了。

3.3 人機之間避責策略化

決策系統是一個責任認定領域,也催生了大量的避責行為。決策主體之間會開展行動博弈,包括消極行為選擇,以及主體之間的相互甩鍋。而在人工智能一定程度上成為責任主體之后,則會出現人類與人工智能之間的責任推諉與避責,最終導致決策責任被稀釋。決策失靈的責任由人類與人工智能共同承擔,但在責任共擔的名義下無法做出清晰的責任分割,這就產生了責任真空。一方面,人類與人工智能之間彼此轉嫁責任。如人類可以將其觀點的來源都歸于數據與算法,這樣將其主觀失責轉化為技術失誤,機器成為替罪羊。一旦將決策流程與程序上出現的問題歸為客觀的技術路徑,由于技術出現一些小的失誤是可以得到寬容的,這樣就使得相關責任追究不了了之。同時,人工智能也可以為技術路徑做出辯護,將責任認定為人類的選擇與思維錯誤。另一方面,人工智能發展到高級階段后會實現技術的內部直接聯結而越過人,并改變和控制人類,這時的政策責任就更難以界定了?!霸谀承﹪液湍承┣闆r下,人們可能完全沒有選擇,只能被迫服從大數據算法的決定。然而,就算是在理論上自由的社會里,算法也可能成為權威,因為經驗讓我們把越來越多的問題交給算法來處理,最后也就逐漸失去為自己做決定的能力?!盵15]50對于人工智能導致的決策失誤,責任是歸于人工智能、算法設計者還是決策過程中的應用主體,答案無法明確,這樣一來,在多個主體同時對決策失靈的結果負責時,反而出現無主體為結果負責的狀況。即使責任體系設計得再完美,無法落地也只能帶來無責任的結果。

3.4 追責路徑特殊化

責任一詞具有豐富的內涵,一方面指向利益,另一方面指向行動[20]。也就是說,一方面是從作為結果的利益來判斷其責任;另一方面是從行動的主觀意圖來界定責任,分別對應外在的約束機制與內在的約束機制。由于無法確定當前人工智能是否具有人類意識,無法判斷人工智能做出行動選擇的動機與意圖是其自身生發的還是程序設置的,因此無法從內在的約束機制來設置機器人的責任體系。這也就是帕加羅所說的,目前在法庭上爭論機器人的犯罪意圖是毫無意義的?!斑@些機器不必為它們的行為承擔責任,因為不存在所謂機器人犯罪意圖這種東西。機器人缺乏承擔刑事責任的前提,例如自我意識、自由意志和道德自主性,因此很難想象法庭因機器人的惡行而宣告其有罪?!盵21]52因此,只能從外在約束機制來建構人工智能的決策責任,這就需要從行為結果來倒推責任,但責任的因果關聯多元且復雜,涉及決策問題、政策對象、數據模型、算法規則等多方面因素,以及程序開發者、數據應用者、人工智能工具等多個主體,主體與環境之間密切關聯且難以獨立成為分析對象,這使得責任倒推路徑過于復雜,責任鏈條實際上是斷裂的。

4 加強監管以規避政策失靈

ChatGPT的發布意味著人工智能將全面參與到決策中并發揮作用,但在減少政策失靈幾率的同時,也帶來了新的政策失靈的可能。人工智能優化了政策工具,但并沒有造就完美的技術工具,因為任何技術都存在缺陷,因此絕對完美的技術工具并不存在。即使存在完美的技術也不能規避所有的政策失靈,相反,技術的發展也可能帶來新的政策隱憂。政策過程中人工智能的發展要求重塑人類與技術工具之間的關系,人類將從“決策者”轉向“共同決策人”,但人類首先要明確自身的主體地位,將人工智能的發展納入人類共同體的目標之下,加強對人工智能的監管以規避政策失靈的發生。

4.1 政策過程中人工智能的角色定位

人工智能發展的高級階段被稱為強人工智能或者超級人工智能,“我們認為超級人工智能能夠表現出高度一體化的認知能力。在解決問題的時候,它能夠動員全部的認知渠道,把得到的信息充分利用起來。如果超級智能有這三個認知屬性——目的、認知和一體化,那么與它互動或者對它進行觀察的人類肯定會認為它是統一的、強有力的智能”[22]140。就這一標準來看,由于GPT并不能完全明白人類的價值觀,不能完整理解事物背后的意義,也不能完全代替人類做出政策選擇,因此,即便機器可以做很多事情,也未達到強人工智能階段?,F階段人工智能仍然遵循算法規則,執行代碼命令,這是當前進行角色定位的一個基本前提。

不能繼續將人工智能視為傳統的技術工具,但也不能將其等同于與人類一樣的決策主體。在政策過程中人類仍然占據主導地位,需要對人工智能進行監管,使其成為負責任的機器。2023年5月16日,ChatGPT之父薩姆·奧爾特曼在出席美國國會作證時表示,他支持對人工智能進行監管,以最大程度地減少危害。此前,馬斯克認為OpenAI和谷歌等企業對待人工智能的態度不負責任、監管不夠并進而退出了OpenAI,馬斯克在接受采訪時說:“人工智能比管理不善的飛機設計或維護糟糕的汽車生產更危險,它有可能破壞文明?!盵11]這些觀點都表明了對人工智能進行監管的必要性?!叭绻覀兓乇軐祵W殺傷性武器的探索,把它們當作一種中立的力量、不可避免的趨勢,就像天氣或潮汐,我們就等于是放棄了我們的責任?!盵23]255在機器體現出覺醒趨勢的今天,必須要明白,世界不是為了機器而存在的,而是為了人類而存在,因此人類可以提前做出預防與引導,使人工智能的發展服從于人類社會的需要,這是政策過程需要確立的基本觀念。

4.2 政策過程中人機關系的重構

當ChatGPT通過了圖靈測試,并在考試中取得高分之后,就意味著人類與人工智能之間的邊界已經模糊了。人工智能會超越人的思維速度與靈活性,同時也遠高于人類的計算效率。未來的機器人會具有更高程度的智能,甚至可能會發展成一個智能程度更高的物種,進而使得未來的治理更類似于人的思維運行而又高于人類的效率。但人工智能并不會完全代替人類,更不會奴役人類?!白鳛樾畔⒃O備,類似大腦的記憶系統將是我們開發出來的用途最大的技術之一。但就像汽車和電腦一樣,它們僅僅是工具而已,具有智能并不意味著它們將有特殊的能力來破壞我們的物質世界或控制人類?!盵24]223-224

相反,人工智能可以成為人類決策的合作伙伴。人工智能會在很多地方替代人類,實現政策過程的信息化,并在技術路徑上完成政策過程,這意味著人類可以從一些常規工作中解放出來,尋求更深層次的發展,發揮創造力探索政策價值及其發展方向。如果機器可以打造一個美好的世界,那么人類就不需要像機器人一樣朝九晚五地工作,而是可以更多地去創新和感受,去思考公共政策的終極意義?!案呒墮C器人也不會奴役或者滅絕人類,就如科幻的典型模式那樣。人類總是會適應他們的技術產品,與自主機器交往的人得到的好處很可能超過其為此付出的代價?!盵25]4這也意味著,政策優化依靠人類與人工智能的共同發展,人類與人工智能需要尋求共生共在之道[26]。

4.3 加強對人工智能的監管

其一,構筑人工智能的倫理規則,強化機器的道德責任。人工智能不會天然地關注貧困人群、老年人、未成年人等弱勢群體,不會自動地考慮政策過程中的公平、民主、正義等價值,“機器人不是道德人”[27],或者說,機器人不會自動地成為道德人。機器人的發展一直以來都是在強化其技術理性,而在當前階段需要重視對人工智能的價值引導。50年前,艾薩克·阿西莫夫(Isaac Asimov)就預見到需要倫理規則來引導機器人的行為,他提出的“機器人三大定律”成為人們思考機器人道德的規范:“第一,機器人不可以傷害人;或者,通過不作為,讓任何人受到傷害;第二,機器人必須遵從人類的指令,除非那個指令與第一定律相沖突;第三,機器人必須保護自己的生存,條件是那樣做與第一、第二定律沒有沖突?!盵25]12015年日本慶應大學在三個定律基礎上增加了五項原則,即保守秘密、使用限制、安全保護、公開透明、責任。如何強化機器的道德責任?目前形成了自上而下與自下而上兩種路徑。自上而下的路徑即從程序設置上向機器人設置道德指令,引導機器人的行動選擇關注價值符號,超過相關閾值時對機器行為做出矯正;自下而上的路徑強調機器人的自我學習,就如同人類也并非生來就是合格的道德智能體,但大多數人都能習得一些禮儀,而有資格成為道德智能體社會中的一員,人工智能也可以通過進化來習得道德,這就需要建構道德的文化與場景。

其二,明確政策過程中人工智能的應用范圍,為機器行動設定制度框架。機器在很多方面比人類效率更高,但在對政策情境與目標體系的理解和設定上不能達到人類水平,人類在政策過程中應當承擔更多的責任。人類應當為機器的技術發展和行動路徑設定總體框架,將其行動選擇控制在政策目標體系之內。既然人工智能不能依據其動機來判斷其責任承擔,那么應通過結果倒推來判定其發揮的作用以及承擔的責任,并結合人工智能自主決策能力的高低對其責任范圍評定劃級,如分為完全責任主體、限制責任主體與無責任主體等,來界定其法律與社會責任。其中需要注意的是,當人機決策結果不一致時,決策權應交給熟悉此領域的人類,由人類掌握最終的決策權,也因此由人類來判定人工智能的使用范圍并承擔相應責任?!叭绻麢C器人因為行動更迅速并且比人類存儲更多的信息從而繼續增加在戰場上使用,軍事指揮官和有關政權當局仍然需要對這些機器的全部決策承擔嚴格責任?!盵21]61不過,在對人工智能的權力進行回收的過程中需要做好銜接,對技術理性與價值考量的雙重維度做好平衡。

其三,提高人工智能技術的透明度,確保數據安全及隱私不被泄漏。當前GPT雖然已經實現了較高的技術透明度,但也存在大量的技術“黑箱”和算法迷霧。對此,需要進一步提高人工智能技術的開放性與透明度,一方面大力發展人類技術,另一方面在人工智能中設置技術共享程序和輸出??傮w來看,當前人工智能的發展仍然是在算法指令的框架之下,“對于確定性計算,輸出中呈現的信息必然也以某種方式呈現在輸入中——信息必須來自某處。計算機不會產生信息;它們被重排、計算、復制和刪除,但不會無中生有”[28]51。這樣一來,數據的準確性、完整性、真實性就尤為重要。數據作為決策的重要來源,數據的安全性是決策優化的重要保證,一方面需要提升人工智能數據處理的可靠性;另一方面需要設置更多的路徑對非結構性數據進行有效轉化。與此同時,人工智能的應用需要相應的隱私保護規則的配套,數據的收集和整理都要設定邊界,對數據的覆蓋范圍與處理路徑進行規范,在數據公開的同時保護數據安全,在算法透明的過程中注意算法邊界。

其四,建立起多主體、多環節、多維度、跨領域的監管法律體系。生成式人工智能已經超出了現有法律監管的范圍,行政法、民法等可以進行分散治理,但未能形成完整的法律體系,且對底層技術治理不足,對技術提供者監管不夠,對數據與場景的分類未能形成明確規定,更未能清楚界定人工智能的法律地位。2023年7月國家網信辦等七部門聯合出臺《生成式人工智能服務管理暫行辦法》,今后還需要進一步凝聚共識,加快人工智能的立法進程。要廣泛收集各行業、各領域、政策各階段關于人工智能立法的建議,探索適合我國情境的政策過程中的人工智能法律規范,加強對算法的控制。同時,要建立多主體、全方位的監督體系,一旦發現機器人技術在設計或者供應方面非法,監管部門就應該做出有效監視并敦促整改。政策過程中相關主體都可以成為審查的主體,同時也應作為被審查的對象,以此對人工智能形成全方位的監管體系。

5 結語

ChatGPT意味著人工智能技術取得了根本性突破,為政策失靈的規避帶來了極大的想象空間,但也使得政策失靈的發生具有更多的可能。人類在享受人工智能所帶來的極大便利與極高效率的同時,也應該警惕其可能帶來的不利影響。由于人工智能具有技術上的特殊性,必然帶來決策責任歸因的復雜化,這也意味著人工智能對政策過程的影響可能更加隱蔽,甚至無跡可尋,因此難以對人工智能進行責任界定。整體來看,人工智能的發展要求對政策過程中的人機關系做出全面的思考與建構,需要確立政策過程中的人機合作關系。

本文基于對生成式人工智能的分析,探討政策過程中技術的應用與影響,分析人工智能對政策過程的積極作用與不利影響,基于此,將人工智能可能帶來的政策失靈降至最低,使其最大程度地發揮政策優化的作用。當然,本文的分析只是基于生成式人工智能這一特定的階段,對人工智能在政策過程中的作用都是基于現階段人工智能所具有的能力與特征,隨著人工智能的進一步發展,現有觀點需要做出相應的修正,這也意味著本研究將是一個持續的過程。

猜你喜歡
機器決策人工智能
機器狗
機器狗
為可持續決策提供依據
決策為什么失誤了
2019:人工智能
人工智能與就業
未來機器城
數讀人工智能
下一幕,人工智能!
關于抗美援朝出兵決策的幾點認識
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合