?

生成式人工智能輔助行政決策的算法隱患及其治理路徑

2024-02-26 20:21房嬌嬌高天書
湖湘論壇 2024年1期
關鍵詞:算法

房嬌嬌 高天書

摘要:生成式人工智能(Generative AI)作為最新一代的人工智能技術,一經問世便引發各行各業的關注和擔憂。就行政決策而言,生成式人工智能能夠幫助行政主體實施社會數據采集分析、行為預測、方案演繹,進而輔助行政決策的信息采集、關鍵問題識別以及決策方案的最優化實現。但是,在生成式人工智能參與行政決策的三個階段也存在不同程度的隱患:訓練數據庫的片面性可能會導致信息的不公正、對技術的過度依賴可能會導致安全風險、算法黑箱可能會引發公眾對行政決策透明性的質疑。若要最大限度發揮生成式人工智能輔助行政決策的積極作用,應當強化算法歧視治理、明確技術的輔助性地位、增強算法的參與性,以此規范生成式人工智能在行政決策中的作用,促進生成式人工智能與行政決策的深度融合。

關鍵詞:生成式人工智能;行政決策;算法;法律治理

中圖分類號:D63? ? 文獻標識碼:A? ? 文章編號:1004-3160(2024)01-0099-13

生成式人工智能是指基于算法、模型、規則生成文本、圖片、聲音、視頻、代碼等內容的技術。與以往的人工智能技術不同,生成式人工智能不僅可以提取信息,還可以利用現有的數字內容檢查訓練實例創建人工遺跡并學習其模式和分布[1]。人工智能在算力建設、電子政務、智慧城市、“互聯網+政務服務”等多個方面,全面助推數字政府建設??梢灶A見,生成式人工智能這一更先進的技術將在未來廣泛深入地參與到政府的行政決策中。2023年8月31日,百度、字節、商湯、中國科學院旗下紫東太初、百川智能、智譜華章等8家企業和機構的大模型產品已經首批通過《生成式人工智能服務管理暫行辦法》備案,可正式上線面向公眾提供服務[3]。隨著生成式人工智能技術的展開,生成式人工智能輔助行政決策必將受到行政部門的關注,生成式人工智能輔助行政決策的形態和運用將日益豐富[4]。此外,生成式人工智能輔助行政決策也將帶來一系列問題,需要加強法律規制。雖然有研究提及人工智能與行政決策的耦合,但至今為止缺乏系統、深入、全面的思考[5]?;仡櫻芯總鹘y人工智能輔助行政決策的成果可以發現,諸多研究側重探討傳統法律制度受到人工智能的挑戰性影響、人工智能時代法律制度轉型的趨勢、“法律終結”等等[6],但這一思維已經不能適應生成式人工智能時代的需求。因此,我們應對生成式人工智能輔助行政決策進行前瞻性思考,從維護人民合法權益的方向思考其帶來的算法隱患,同時尋找規制路徑。值得注意的是,生成式人工智能的算法隱患與數據濫用問題引起了社會各方的擔憂。為此,2023年7月10日,國家互聯網信息辦公室聯合國家發展改革委、教育部等七部門發布《生成式人工智能服務管理暫行辦法》(以下簡稱《辦法》)。本文在分析生成式人工智能算法對依法行政的作用以及總結生成式人工智能算法植入行政法治領域邊界的基礎上,結合《辦法》的相關規定,以期更好地提出解決生成式人工智能輔助行政決策算法隱患的前瞻性建議。

一、生成式人工智能輔助行政決策的功能

行政決策從啟動到方案的出臺,大概經歷三個階段,即信息的收集階段、決策關鍵問題的識別階段以及決策方案的最終出臺。生成式人工智能在上述三個階段都能對行政決策起到輔助作用。

(一)確保行政決策信息準確全面

信息的收集是行政決策的第一階段,這一階段也可以被視為科學決策的核心和前提,只有通過對行政決策信息的收集,才能夠為行政決策的展開提供足量、有效的信息,從而為決策方案的最終確定提供現實依據。因此,行政決策的展開首先需要有信息支撐,龐大而有效的信息是保證行政決策具有正確性和科學性的前提。傳統行政決策在信息的收集和處理上比較受限,主要的、核心的信息只能通過人工采集。面對海量的信息,人工采集會出現無能為力、無所適從的現象,而有限的信息儲存技術以及落后的信息分析和處理技術則無法實現有效的信息提取[7]。在這種情況下,生成式人工智能技術在行政決策信息收集階段的輔助運用可以極大提高信息采集與信息分析的效率,通過最低的成本投入實現決策信息收集的最大化。從目前來看,互聯網和物聯網已經滲透到各個領域,伴隨著各類傳感器、移動終端、機器人等智能設備的推廣和應用,公民的日常生活在愈發智能化的同時,也促進了各類民生數據信息的集中化以及高效化[8]。目前國內外的生成式人工智能所采用的自然語言處理+搜索引擎集成的架構,其背后有大量語料庫提供支撐,為輔助行政決策夯實信息基礎。

一方面,在信息的收集階段,生成式人工智能的輔助運用能夠最大化實現信息采集的目的。例如,國內百度開發的“文心一言”人工智能正是通過搜索、信息流等應用層的協同來實現信息采集,由搜索服務每天獲取幾十億次用戶使用需求,每天進行1萬億次深度語義推理與匹配,提供真實和及時的反饋,從而倒逼人工智能的大模型與深度學習框架的優化。又如國外的ChatGPT技術,其所依托的訓練數據集包括數十億個單詞級別的文本片段,這些文本片段是從互聯網上收集來的,經過處理和清洗后,被用于訓練ChatGPT系列模型。這些數據集的數量和多樣性是訓練出ChatGPT模型的關鍵,因為它們能夠捕捉到自然語言的復雜性和多樣性,從而使得ChatGPT能夠對人類語言的各種表達方式做出響應。另一方面,在信息的分析和提取階段,生成式人工智能可以有效完成信息的整理、分類和提煉。這類大語言模型是通過大量的文本數據進行無監督的預訓練得到的,模型會根據上下文中已有的信息,預測下一個可能出現的單詞或短語,這個過程就是語言模型訓練。這個過程可以對信息進行高效融合和智能過濾,它可以篩選和提取各種信息的特征,充分挖掘出決策問題的實質,消除人為干擾,從而為決策者提供科學建議。

(二)抓捕行政決策關鍵問題

行政決策關鍵問題的捕捉是行政決策方案出臺的重要一環,這一環節主要由為行政決策提供咨詢服務的組織機構來進行,這一機構必須由專業人員組成,運用專業化知識對行政決策的具體問題進行分析和判斷,并做出預測。在傳統的行政決策中,關鍵問題的捕捉主要依靠來自不同領域的專家學者在已掌握的信息基礎上對問題進行預先評估從而制定相應方案,在這個過程中,行政決策一方面受制于信息收集的廣度,另一方面受限于對于信息的分析能力,往往難以及時捕捉關鍵性預警信息,從而耗費了大量人力、物力成本[9],常常出現對關鍵問題把握不準、對可能出現的風險無法提前預知等問題。建構以需求為導向的行政決策計算方案,利用多年積累的行政決策信息進行輔助判斷,可以充分發揮生成式人工智能的快速對應和精確求解的優點,在很多領域超越傳統的行政決策模式。

其技術效用主要體現在以下兩點。一是搜尋海量的數據并聚焦于行政決策所涉及的關鍵問題。在傳統行政決策背景下,關鍵問題的識別大多都是以碎片化的信息和經驗性的判斷為基礎的,因而不能保證決策的精確性[10]。但就生成式人工智能ChatGPT、紫東太初等模型而言,行政決策方案利用的是生成式人工智能技術基于整個互聯網平臺整合的龐大數據庫,搜尋的數據是社會公眾基于生活、生產需要而產生的客觀信息,而非各類問卷所產生的問答式回答,在此基礎上進行有針對性的檢測,得到的信息精確性更高,更有利于輔助行政決策聚焦于關鍵問題。二是生成式人工智能構建的行政決策能夠排除行政決策中的人為因素干擾,提高行政決策效率,提升決策質量。與此同時,利用生成式人工智能輸出的行政決策也具有極強的靈活性,其在預訓練完成后,還可以針對特定的任務進行微調。將預訓練模型與特定任務的數據相結合,從而使模型在特定任務上具有更好的性能。生成式人工智能并非機械搜尋行政決策所需要的信息,而是具有自適應能力,可以輔助完成各種復雜的決策。

(三)出具行政決策最優方案

行政決策最優方案的確定是整個行政決策中的關鍵環節,這一環節不僅要統籌協調行政決策的全過程,還要基于已經收集到的行政決策信息并綜合專家的意見最終確定行政決策的核心問題以及所想達成的目標,在此基礎上形成行政決策的方案并在各類方案中確定最優方案。因此,行政決策方案的確定和出臺需要考察行政決策的整個過程、行政決策的問題和目標,并對不同的備選方案進行科學評估。行政決策首先要確定決策議題,在傳統行政決策背景下,行政決策議題的確定一般是在行政機構進行社會調研或者獲得民意反饋之后[11],雖然社會調研與民意反饋等能夠反映出一定的民意基礎,但在民意反饋的廣度及深度上仍然存在欠缺。而在科技迅猛發展的大背景下,作為一種對話系統,生成式人工智能則能夠在一定程度上改變傳統行政模式下的對話失衡局面,使政府與公眾在對話結構上始終處于平等的地位[12]。

首先,生成式人工智能可以幫助搭建公眾和行政決策內部機構的溝通橋梁,保障行政決策方案的目標與公眾需求的契合性,從而在大方向上保障行政決策方案的科學性。對于行政機構已經確定要研究的決策議題,通過智能技術先進的網絡信息渠道,社會大眾可以迅速了解到行政決策的相關信息,從而向決策中樞積極建言獻策。這里的建言獻策不僅包括了公眾直接提出意見,更包括通過日常行為向行政機構提供真實、客觀的數據信息,確保行政決策信息的真實性、客觀性。其次,通過對大量客觀信息的持續收集和分析,生成式人工智能可以在一定程度上提高行政決策方案與現實的契合性,從而保障決策的科學性。最后,生成式人工智能能夠高效生成各種行政決策方案,并對行政決策方案的可能后果進行輔助預測,有助于幫助確定最優行政決策方案。生成式人工智能不僅可以根據設計人員的要求迅速生成各種設計方案,還可以對這些方案的性能進行初步評估。這樣,就可以大幅度縮短設計時間,并有效減少設計過程中可能產生的浪費[13]。

二、生成式人工智能輔助行政決策的三重算法隱患

生成式人工智能在為行政決策提供堅實信息基礎、提升行政決策關鍵問題識別效率以及助力確定最優行政決策方案的同時,也在不同程度上對行政決策的正義性、安全性以及透明性帶來了挑戰。

(一)行政決策信息收集階段:算法歧視引發決策的正義性隱患

行政決策能否具有正義性,其前提和基礎在于其掌控的信息能夠為其決策提供何種路徑指向。將生成式人工智能引入行政決策領域后,行政決策方案的最終出臺就依賴于決策者掌握的信息量以及對這些信息的分析結果。但是,生成式人工智能在極大提高信息收集的廣度與深度的同時,也不可避免存在信息收集過程中的公正性問題。

一方面,由于生成式人工智能在不同地區應用狀況的差異,各地出臺的生成式人工智能信息收集處理規則可能不同。不同的規制方法會導致信息收集出現數量、質量方面的差異,最終會影響到行政決策的正義性。在生成式人工智能輔助行政決策信息收集的過程中,由于不同地區信息技術發展水平的差異,可能會導致收集到的數據本身并不中立[14],可能某一地區收集的信息偏多、另一地區偏少,最終的數據就不能真正具有廣泛的代表性,由此造成信息收集本身的不正義。生成式人工智能輔助行政決策,那么行政決策就需要以龐大的數據量為基礎。但從數據信息采集開始,劃分數據口徑有很多類型,這些都會影響到行政決策的制定。有些內容會帶有“隱秘的偏見”,如獲取數據的渠道主要是依靠廠商長期積累、公開爬取或來源于各類免費或者付費第三方數據庫與數據集,但公開爬取的數據以及各類第三方數據庫的信息可能并不具備與行政決策目標的貼合性,其既可能因為范圍過窄而只反映整體之中的一部分信息從而導致決策的以偏概全,也可能因搜集過多與決策無關的信息,造成雜亂信息對于運算的干擾,降低運算精確性。錯誤的信息采集將對生成式人工智能的運算結果產生影響,正如人類在進行決策時會存在主觀層面上的偏見一樣,生成式人工智能同樣會因為輸入數據的局限性而造成決策結果的誤差。[15]此外,生成式人工智能交互中仍會生成不少事實性錯誤,在一些老幼皆知的簡單問題上也會出錯。生成式人工智能并不會提供信息的出處,而且在信息推送形式上也采用了更為直接的方式,因而其帶來的誤導性可能更大,造成的危害也就更大[16]。數據歸根結底是具有主觀性的信息標識,在社會環境中可能帶有偏見,一些弱勢群體的呼聲會被其他強勢發聲者的信息覆蓋掉,錯誤信息甚至會干擾行政機關的判斷,以上種種原因都會導致政府決策失去公正性。

另一方面,生成式人工智能本身在信息分析和處理過程中可能并不能保持中立,從而在極大程度上影響行政決策的公正性。行政決策除了需要掌握海量數據以外,還需要對海量數據進行分析和處理,這對于行政決策方案的最終確定同樣具有重要意義。但是,在生成式人工智能輔助行政決策進行信息分析的過程中,由于算法工具性定位的偏差,可能導致在信息分析與處理過程中難以避免信息分析結果的不正義。從過去的技術應用實踐來看,人們往往把智能技術作為一種非價值偏好的工具來使用,但是其內在的算法卻打破了這種局限,因為它可以把自己的價值取向嵌入到算法的體系結構和規則定義中[17]。雖然生成式人工智能的內嵌似乎消除了行政決定的主觀因素,不過,“計算和決策程序都取決于研發人員,那么研發人員自身的價值觀和偏見便不可避免地會被寫進代碼中”[18]。龐大的信息處理需要能夠真正滿足政府道德需求、并立足于實現社會公共利益的算法。一旦某一算法承擔了過量的個人價值和偏好,那么依托于這一算法而得出的統計分析結果就很難確保其正義性[19]。

(二)行政決策問題識別階段:技術依賴引發決策的安全性隱患

行政決策關鍵問題的準確識別是提升行政決策效率,助力決策機構聚焦于解決核心問題的重要環節。生成式人工智能的加入能夠輔助決策機構對關鍵問題進行精準定位。決策機構通過生成式人工智能模型對整理好的基礎信息進行分析和判斷,從而找準決策的對象。這種決策方式在提高行政決策效率的同時,也極易導致對技術的依賴,從而引發安全性風險。

第一,生成式人工智能本身就可能存在一定的技術風險。根據技術自身的風險屬性,任何技術的使用都會導致安全和不安全這兩種結果趨向[20]。對于生成式人工智能而言,由于其依賴的是數據信息以及算法技術這兩項關鍵要素,因此數據可能存在的信息偏差以及算法技術可能出現的歧視性等問題便可能帶來諸多未知性風險,最終便可能影響到行政決策的公平性、正義性。正如有學者所提出的那樣:“人工智能所掌握的數據的不完整性,并不足以構建與現實世界完全無誤的鏡像模擬,因此做出的決策可能存在瑕疵,如果完全依賴人工智能,可能將導致錯誤決策和執行,甚至出現一連串錯誤行為?!盵21]以“數據鴻溝”和“數據歧視”為例,這兩者均可能導致行政決策所需數據樣本不完整,以此為基礎而展開的分析必然具有局限性,甚至可能會由于偏差數據導致決策方向錯誤。

第二,生成式人工智能背景下的“信息繭房”可能會引發行政決策的安全性風險。生成式人工智能模型在對信息進行分析并識別關鍵問題的過程中,會受到“信息繭房”效應的負面影響?!靶畔⒗O房”是推薦算法廣泛應用之下難以規避的結果[22]。從一般意義上來分析,智能算法提高多樣化的途徑有兩條:一是增強“個性化”,提高“多樣性”;二是讓用戶增強對“未知”的意識,即向用戶提供篩選后的消息,讓他們了解到更多的內容[23]。無論哪一種方式,智能算法所想實現的這種多樣性最終都有可能導致封閉的信息空間也即形成“信息繭房”的后果。在數據信息片面化的前提下,生成式人工智能有可能只能夠停留于自己的領域,而無法繼續向其它領域延伸,也無法預知風險。

(三)行政決策方案出臺階段:算法黑箱引發決策的透明性隱患

生成式人工智能通過“人類反饋強化學習”在不斷訓練中最終確定最優方案,這一過程看似公正透明,卻可能由于算法黑箱的問題引發透明性隱患??傮w來看,算法黑箱問題的產生原因主要有以下兩個。

第一,算法黑箱可能來自人為設置。算法黑箱的存在可能會導致生成式人工智能主導的行政決策最終方案本身不透明。在生成式人工智能算法輔助行政決策的背景下,前置條件的數據信息可以追溯,行政決策決定應當公開,但是廣大公眾對于二者之間的作用機制卻一無所知。一方面,這涉及技術的保密性問題;另一方面,即使對公眾公開生成式人工智能算法的運算過程,公眾也可能無法理解其中的技術原理,這就為人為設置算法黑箱提供了可能,即商業資本可以通過設置算法黑箱操縱行政決策。一些持有特殊目的的商業機構便可以保護產權、商業秘密為由,拒絕向公眾提供算法程序與標準,甚至可能拒絕向行政機構提供算法的內部運算規則,從而導致行政決策所依賴的生成式人工智能輔助信息產生偏差。

第二,算法黑箱還可能來自人的認知局限。生成算法的本質就是對訓練樣本的分布狀況進行建模,然后根據模型來抽取新的樣本[24]。作為符號代碼而存在的計算機語言,它有別于任何一種人類的語言和知識,在很大程度上屬于公眾的知識盲區。這種自我生產、自我學習的算法技術在一定程度上擺脫了人工設置的限制,而對于社會公眾甚至算法本身的設計人員來說,其自主學習與運算的過程都是陌生的,以此構建的生成式人工智能決策方案也必然會被看作是一個技術上的“黑洞”。

不管是人為設置的算法障礙,還是人的認知局限,都可能引發廣大公眾對行政決策公開性與透明性的質疑與詰問。在這兩種情形中,政府機構和生成式人工智能的開發人員往往難以做出合理解釋。

其一,生成式人工智能基于智能算法的自動決策機制而最終確定下來的行政決策方案在很多方面是無法解釋的。從算法的運作過程來看,一個從端到端的生成式人工智能深度學習算法,如果改變其算法模型中的任意一個權重、結點或層數,都可能對整個模型產生難以預測的影響,即使是模型的設計者和訓練者,也無法預先知道[25]。生成式人工智能算法也存在不可解釋性。政府機構和算法開發者認為,算法決策是由算法自動產生的,在這種算法自主行為下對算法進行解釋幾乎是不可能的,無論是算法編程人員還是算法模型和用戶的管理者,都沒有能力去解釋算法的決定。在這種情況下,行政決策方案確定、出臺的合理性和公正性可能會遭受公眾質疑。

其二,由于算法技術本身可能存在的機密性,基于算法而選擇出的最優化的決策方案可能會因為涉密的原因而無法公開。生成式人工智能算法模型中往往因包含機密信息而不能對公眾公開。要解釋生成式人工智能方案所做出的決定,就必須對其算法進行明晰解釋,但是大多數算法程序涉及開發者的商業秘密,在部分情況下甚至還涉及國家秘密,不宜對外公開。尤其是在國內外技術企業搶占生成式人工智能市場的大環境下,算法黑箱問題將愈加嚴重。一方面,為了在市場競爭中保持優勢,很多為技術治理平臺提供服務的技術企業,不愿意公開特定治理技術的算法及其代碼規則[26]。特別是在使用算法進行評估、排名、趨勢分析和智能匹配的領域,技術公司為了保持相較于其他競爭對手的競爭優勢,也會對算法采取保密措施。如果行政決策方案在確定出臺階段采取了某一具有保密性的算法技術,那么會因為技術企業、科技公司的阻力而無法進行公開。另一方面,由于政府治理的特點,許多問題和領域所采用的算法都是保密的,例如,在警務工作中所采用的智能化的預測與跟蹤算法,以及環衛方案的環境情況監測算法,都需要保持其隱蔽性才能保證效果。如果決策方案涉及這些保密領域,那么這一方案的確定和出臺過程可能就無法公開。

三、生成式人工智能輔助行政決策算法隱患的防范路徑

為解決上述因生成式人工智能的算法歧視引發的正義性問題、算法依賴引發的安全性隱患以及算法黑箱引發的透明性隱患,需要對生成式人工智能輔助行政決策的方式和限度予以審視。這就要求結合我國已有的對人工智能技術進行監管和治理的制度框架,如《互聯網信息服務算法推薦管理規定》《互聯網信息服務深度合成管理規定》,同時根據國家網信辦發布的《辦法》強化對算法歧視的治理,明確算法的輔助性地位,增強算法的參與性。

(一)強化算法歧視治理,確保決策內容的公平性

以社會主義核心價值觀引領生成式人工智能參與行政決策,維護決策內容的公正性。應當強化對信息及運算偏差的管理,消除行政政策中的不利因素,讓數據公平與運算公平相結合,探究在生成式人工智能的大環境下,政府如何科學民主決策?!掇k法》第4條規定了生成式人工智能所生成內容應符合的要求,即生成的內容應體現社會主義核心價值觀,確保內容真實準確無歧視。

首先,要加速推廣智能化技術,拓寬信息融合領域,縮小數字化差距[27]。在智能賦權決策的情況下,缺少數據支持,就意味著一部分缺乏政策照顧、信息匱乏的地區無法實現生成式人工智能技術參與的公共決策。因此政府要加強基礎信息平臺建設,解決部分地區、部分群體信息匱乏的問題,擴大生成式人工智能參與公共決策的群體規模。此外,還需要加大數字信息設備、技術的普及力度,減少因缺乏技術設備帶來的“數字歧視”問題。

其次,對于隱藏在數據自身中的社會偏見信息,可以利用算法監控技術進行管理。一方面,應當充分利用算法技術以減少數據的偏見。既然算法能夠習得人類的偏見,那么它也可以幫助我們消除偏見。通過特殊的算法應用方案的構建,將其運用到某一領域,分析這一領域中人的行為偏好、表現出的一致性,可以在一定程度上減輕偏見。因此,采用技術手段消除隱藏在數據當中的社會偏見信息,實現公平公正的行政決策,這是大數據時代生成式人工智能輔助行政決策的應然之舉。另一方面,考慮到偏見本身并不能從根源上消除,那么保障受到影響的人的知情權能夠在一定程度上降低數據偏見帶來的負面效應。在自動化方案中,任何時候都不得在不知情的情況下將偏見引入行政決策。在算法得以廣泛普及前,應當由專業人士進行算法審查,以評估其效果與公正性。

最后,強化技術開發者的職業道德規范?!掇k法》第6條規定了生成式人工智能產品在應用前需要進行安全評估和算法備案[27]。同樣,《互聯網信息服務算法推薦管理規定》第24條也規定了需要完成相應信息填報并進行算法備案的對象[28]??傊?,需要進行安全評估、信息填報和算法備案的對象一般具有社會動員能力,生成式人工智能的技術開發者若是具有較強的媒體或社會交往屬性,相關政府部門則必須對其進行監管。由于價值負載的存在,開發者可以將自己的價值觀和傾向性應用到算法的結構和代碼中,而這些偏差對決策的影響比對數據的影響要大得多。因此,應當明確技術開發者與產業生態的倫理標準,提高科技工作者的道德自律性。

(二)明確算法的輔助性地位,保障決策方案的可行性

生成式人工智能在行政決策過程中只能扮演輔助角色。我們應當持理性的態度來看待生成式人工智能,必須看到,無論生成式人工智能在行政決策過程中能夠起到多大的作用,它最終都不能也不應當代替專家和智囊團,更不應將其神化而否認其他社會力量參與的可能性。

首先,生成式人工智能對人類的輔助作用并不是無限的?!掇k法》第15條規定在出現不符合要求的生成內容時,開發者應優化技術訓練防止再次生成[27],這一規定體現了生成式人工智能算法技術的片面性,即技術訓練需要不斷優化才能規避可能出現的風險。生成式人工智能的發展將隨著人工智能的迭代而不斷升級。生成式人工智能方案自身也存在許多無法掌控的問題,比如安全方案漏洞、程序設計錯誤、用戶信息泄露等問題。擁有自我學習和適應性能力的生成式人工智能一旦失控,將會帶來極大的風險。一旦達到超人工智能的技術層次,那么由生成式人工智能主導的行政決策將可能脫逸于人類的羈絆,因出現失控狀態而導致決策安全風險[29]。對此,首先,應當明確哪些行政決策是生成式人工智能可以介入的,從而界定生成式人工智能輔助行政決策的范圍。在這個意義上,需要區分涉及價值與倫理判斷的決策事項,那些重復的、無關價值的信息和事務可以交給生成式人工智能來完成[30],而那些涉及重要的價值觀和道德評判的決策就不能依賴生成式人工智能來完成。其次,在行政決策方案中內置監控方案,盡可能保障生成式人工智能輔助行政決策的客觀性和中立性。比如,建立技術防火墻,一旦發生重大技術或者倫理風險即可在第一時間采取緊急措施,將技術上的風險降至最低[31]。最后,用規范手段監控生成式人工智能輔助行政決策過程,保障生成式人工智能在行政決策全過程中的可控性??傊?,面對生成式人工智能輔助行政決策可能產生的風險,行政決策部門必須為防范風險做好充分的預先演練,并制定具有前瞻性的對策,從而避免風險的發生或將損失降至最低。

其次,智能行政決策方案本身必須保持一定的開放性。盡可能形成線上智能行政決策與線下專家的通力合作,最大限度降低“信息繭房”的負面效應?!掇k法》第7條對生成式人工智能的數據做出了要求,即生成式人工智能用于預訓練和優化訓練的數據應真實準確、客觀多樣[27]。這一數據來源的多樣性要求在一定程度上降低了“信息繭房”的負面效應,有助于實現行政決策的開放性。這種開放既包括被動開放,也包括主動開放。就被動開放而言,就是行政決策要根據公民權利的需求進行開放。在生成式人工智能輔助決策進行關鍵問題識別時,如果相關問題的解決可能會對行政相對人造成負面影響,可以根據行政相對人的需求對生成式人工智能方案的制作過程、實施結果和行為進行詳細的立場闡述和理由說明。就主動開放而言,生成式人工智能作出行政決策的理由是什么、出發點是什么都需要明晰。具體而言,首先應該說明在決策過程中什么是主要的考慮因素以及各個要素所占比重;其次,在某些要素發生變化時,應該說明這種變化會不會影響到行政決策的結果;最后要說明為何相同的情形下決策會存在差異,為何在不同情形下會產生類似的決策。說明理由制度要求行政機關向行政相對人就生成式人工智能得出的行政決策方案的結果或行為加以解釋,認真聽取并有效回應行政相對人對算法輔助決策程序的質疑。

最后,應當明確認識生成式人工智能輔助決策本身的局限性,并對其局限性加以防范。生成式人工智能得出的行政決策方案是以知識庫為基礎展開的,它必須盡可能存儲相關領域的知識。但是,這一方案到底應當存儲哪些領域的知識,是需要行政決策部門相關人員進行提前設定和操作的。一旦相關人員因受到“信息繭房”的負面影響,無法對需要決策的問題進行完整把握,知識儲備就可能具有局限性。因此,應當在人工智能方案的基礎上,征集相關領域專家的意見,從而進行綜合判斷。

(三)增強算法的參與性,實現決策過程的透明化

在行政決策方案的最后確定和出臺階段,算法黑箱可能會降低行政決策的透明性。如前所述,算法黑箱的產生來自兩個方面:一是人為設置的,二是公眾認知阻隔的?!掇k法》第17條規定生成式人工智能提供者應當提供基礎算法等影響用戶選擇的必要信息[27]?!痘ヂ摼W信息服務算法推薦管理規定》第4條規定,應按照公正公平、公開透明的原則提供算法推薦服務[31]。增強算法的參與性應從以下三個方面切入。

首先,為了防止人為設定算法黑箱情形的發生,要增強生成式人工智能行政決策方案應用算法的透明性。政府部門可出臺相關政策文件,要求將算法過程公之于眾,讓公眾知道算法是怎樣發展的、算法是怎樣計算的、算法是怎樣考慮的?!掇k法》第17條、《互聯網信息服務算法推薦管理規定》第16條和第17條等都規定應向公眾提供必要算法服務。但這種公開并不意味著將所有密碼和信息都公之于眾,因為這樣做會帶來以下負面影響:其一,暴露個人的機密資料;其二,存在侵犯自主知識產權和競爭優勢風險;其三,存在危害國家安全的危險[32]。行政決策中的算法公開應當區別于一般性的算法公開,必須堅持以主體為中心、有選擇性的算法公開原則,要弄清在使用算法確定行政決策方案的過程中,哪些相關算法數據會對主體產生一定影響。具體而言,行政決策算法的公開必須保證兩點。第一點,算法公司將算法銷售給政府時,必須把它的設計意圖和目的告訴政府,尤其是它所用到的“目標函數”,并且把它在現實操作中的一些偏差和誤差如實告知政府部門。算法公司在對政府的生成式人工智能行政決策方案進行升級的同時,也要將每個版本都予以公布并對其進行解釋,及時修正和完善算法決策運行過程中存在的偏差,防止算法公司使用技術上的優勢放置不適宜代碼。第二點,算法公司對其操作程序進行必要的說明。特別是在算法決策的過程中,應該盡可能地將計算機語言轉換成通俗語言,讓一般民眾能夠理解,保障公民知情權。政府也要始終重視維護公民的信息權利,遵循以人為本的治理原則,不可過分地依賴算法。

其次,必須保障生成式人工智能行政決策方案出臺的程序正義,加強公民權利的保障和救濟?!掇k法》第11條規定了生成式人工智能開發者對用戶信息的保護義務,在訓練數據用于個人信息時,開發者應在使用前取得相關主體的同意[27]。第13條規定了用戶投訴處理機制,即生成式人工智能侵犯公民合法權益時,開發者應及時采取措施進行阻止[27]??傊?,在生成式人工智能輔助行政決策有可能損害公民合法利益的情況下,應當保障公民權利得到救濟,如可以要求決策機關與算法的研發機構就決策過程、推理情況等進行解釋[33]。具體而言,應當從以下四個方面著手加強公民權利的保障和救濟。第一,要構建預先的算法審查機制。強化政府算法技術人員的培訓與甄選,組建專業機構,分析算法的執行風險,從技術層面避免算法公司利用技術優勢帶來的潛在風險。同時,邀請行業專家、技術研發人員與算法公司內部人員共同研究和討論算法決策,逐漸完善生成式人工智能輔助行政決策的規則。第二,提高生成式人工智能輔助行政決策的透明度。要對有關資料和信息進行經常性披露,保證民眾認識和理解生成式人工智能方案運行情況。另外,強化對算法技術的解釋,使算法決策可以被理解[34]。第三,賦予個人算法解釋請求權或反算法決策權。也就是說,當個體面臨自動決策的壓迫或其合法利益被侵犯時,他們有權請求相關政府機構介入干預并獲得幫助。第四,疏通算法決策問責路徑。作為弱勢一方,行政相對人并不需要去研究造成問題的原因,只需要確定算法決策侵害了自己的合法權益,就可以直接向行政機關主張權利。政府不能以技術上的缺陷來逃避責任,算法公司也不能以非決策主體為由推諉責任。行政機關應該首先承擔責任,再厘清相關算法公司的責任。

最后,參與行政決策的各方主體應當對生成式人工智能行政決策方案保持一定的反思性和批判性。從生成式人工智能算法的傳播以及影響來看,樂于并理所當然接受基于算法技術而產生的一切成果已經成為一種較為普遍的心理[35]。在這種情況下,應當提升生成式人工智能輔助行政決策過程中行政主體的敏感性和批判性。行政主體要從整體化、體系化視角出發去思考,將信息資料視為某些統一模式的基礎要素。這些信息資料相互關聯,各自具有各自的含義。行政主體要把他們看作是過去和將來種種可能的象征,并注重從實際角度來看這些問題,即人們如何處理信息,以及信息如何能夠影響和怎樣影響著人們。行政主體最終確定行政決策方案要結合社會現實、公眾需求等因素對方案進行再審視[36],從而打破生成式人工智能算法的神話。

四、結語

盡管生成式人工智能在行政決策領域尚未形成較為成熟的探索,但對生成式人工智能治理的公平性、透明性、過度依賴性的思考仍然可以未雨綢繆。對此,未來應理性對待傳統行政治理和生成式人工智能治理的關系,強化算法歧視治理、明確算法輔助地位、增強算法的參與性,實現決策的公正性、人本性以及可理解性,探索新的融合發展路徑,有效發揮生成式人工智能促進、彌補傳統行政治理不足的積極作用。

參考文獻:

[1] 畢文軒.生成式人工智能的風險規制困境及其化解:以ChatGPT的規制為視角[J].比較法研究,2023(3):155-172.

[2] 鄭世林,姚守宇,王春峰.ChatGPT新一代人工智能技術發展的經濟和社會影響[EB/OL].(2023-06-10)[2023-06-15].https://kns.cnki.net/kcms2/article/abstract?v=3uoqIhG8C44YLTlOAiTRKu87-SJxoEJu6LL9TJzd50l1jzNslT_LxKokpq5nMgcR_ihRELbph6AB6k5jWMqEUpf-dkRsWm-A&uniplatform=NZKPT.

[3] 搜狐網.率先通過備案 首批大模型公司有8家 可正式提供服務[EB/OL].(2023-08-31)[2023-09-01].https://www.sohu.com/a/716427338_114822.

[4] 於興中,鄭戈,丁曉東.生成式人工智能與法律的六大議題:以ChatGPT為例[J].中國法律評論,2023(2):1-20.

[5] 馬長山.智能互聯網時代的法律變革[J].法學研究,2018(4):20-38.

[6] 余成峰.法律的死亡:人工智能時代的法律功能危機[J].華東政法大學學報,2018(2):5-20.

[7] 阮夢君.電子政務:傳統行政與現代行政的耦合[J].生產力研究,2009(19):64-66.

[8] 趙友華.人工智能時代優化民生政治參與的算法邏輯[J].寧夏社會科學,2019(5):49-57.

[9] 王萬良.人工智能及其應用[M].北京:高等教育出版社,2005:160.

[10] 張書玉.論我國行政決策的現代化[J].甘肅社會科學,2017(3):226-230.

[11] 曾國平,王福波.論公民參與視角下我國公共決策機制的完善[J].云南社會科學,2008(3):27-30.

[12] 周智博.ChatGPT模型引入我國數字政府建設:功能、風險及其規制[J].山東大學學報(哲學社會科學版),2023(3):1-11.

[13] Soyoung Yoo, Sunghee Lee, Seongsin Kim, et al. Integrating Deep Learning into CAD/CAE System: Generative Design and Evaluation of 3D Conceptual Wheel[J]. Structural and Multidisciplinary Optimization,2021(4): 2725-2747.

[14] 呂榮杰,郝力曉.中國人工智能發展水平、區域差異及分布動態演進[J].科技進步與對策,2021(24):76-84.

[15] 黃雨晴.中國數字鴻溝的成因與賦權式治理[J].學習與實踐,2022(9):23-33.

[16] 陳永偉.超越ChatGPT:生成式AI的機遇、風險與挑戰[J].山東大學學報(哲學社會科學版),2023(3):1-18.

[17] 肖紅軍,商慧辰.平臺算法監管的邏輯起點與思路創新[J].改革,2022(8):38-56.

[18] 汝緒華.算法政治:風險、發生邏輯與治理[J].廈門大學學報(哲學社會科學版),2018(6):27-38.

[19] 陳偉光,袁靜.人工智能全球治理:基于主體、結構和機制的分析[J].國際觀察,2018(4):23-37.

[20] 張旺,劉戟鋒.技術倫理學視域下的網絡安全規范路徑:以人工智能為例[J].湖湘論壇,2018(2):130-136.

[21] 申海波,韓璞庚.人工智能背景下的治理變遷及其路徑選擇[J].求索,2018(6):74-81.

[22] 成龍,王楠.數字異化:表象、根源及其破解途徑[J].中國地質大學學報(社會科學版),2022(6):1-11.

[23] 陳昌鳳,張夢.智能時代的媒介倫理:算法透明度的可行性及其路徑分析[J].新聞與寫作,2020(8):75-83.

[24] Sam Bond-Taylor, Adam Leach, Yang Long, et al. Deep Generative Modelling: A Comparative Review of Vaes, Gans, Normalizing Flows, Energy based and Autoregressive Models[J]. MIEEE Transactions on Pattern Analysis and Machine Intelligence,2022(44):11.

[25] 陳峰,王利榮.個人信息“知情同意權”的功能檢視與完善進路[J].廣西社會科學,2021(8):106-111.

[26 ] 宋亞輝,陳榮昌.整體治理:算法風險治理的優化路徑[J].學習與實踐,2022(7):35-45.

[27] 中國政府網.生成式人工智能服務管理辦法[EB/OL].(2023-07-10)[2023-07-25].https://www.gov.cn/zhengce/zhengceku/202307/content_6891752.htm.

[28] 顏佳華.提升政府治理算法決策公平性的機制與路徑[J].行政論壇,2022(3):34-40.

[29] 李青文.科技倫理視闕下人工智能法律主體地位之否定:以機器能否具備自由意志能力為分析路徑[J].科學管理研究,2022(2):40-48.

[30] 唐代興,王燦.人工智能:無限開發與有限理性的倫理博弈[J].天府新論,2022(6):39-52.

[31] 中國政府網.互聯網信息服務算法推薦管理規定[EB/OL].(2022-11-26)[2023-06-25].https://www.gov.cn/gongbao/content/2022/content_5682428.htm .

[32] Paul B. de Laat. Big Data and Algorithmic Decision-Making[J]. ACM SIGCAS Computers and Society, 2017(47): 39-53.

[33] 宋華琳,孟李冕.人工智能在行政治理中的作用及其法律控制[J].湖南科技大學學報(社會科學版),2018(6):82-90.

[34] Mps, Lords and offices. AI in the UK: ready, willing and able? [EB/OL].(2017-04-16)[2023-06-25]. https://publications.parliament.uk,/,pa,/,ld201719,/,ldselect,/,ldai,/100,/100.pdf.

[35] 羅俊.網絡信息傳播安全的核心議題:互聯網時代的認知操縱及應對策略[J].學術論壇,2021(2):25-40.

[36] 毛湛文,孫曌聞.從“算法神話”到“算法調節”:新聞透明性原則在算法分發平臺的實踐限度研究[J].國際新聞界,2020(7):6-25.

責任編輯:楊葉紅

收稿日期:2023-09-15

作者簡介:房嬌嬌,女,遼寧鞍山人,遼寧科技大學經濟與法律學院副教授,主要研究方向:行政法與經濟法;高天書,男,山東滕州人,中國政法大學“2011”計劃司法文明協同創新中心博士研究生,主要研究方向:司法文明。

猜你喜歡
算法
基于MapReduce的改進Eclat算法
Travellng thg World Full—time for Rree
進位加法的兩種算法
基于CC2530的改進TPSN算法
基于BCH和HOG的Mean Shift跟蹤算法
算法初步兩點追蹤
基于增強隨機搜索的OECI-ELM算法
一種改進的整周模糊度去相關算法
一種抗CPS控制層欺騙攻擊的算法
Wiener核的快速提取算法
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合