?

發展人工智能的政府倫理責任探要

2023-03-08 06:30陳仕偉劉艷紅
重慶三峽學院學報 2023年6期
關鍵詞:后果倫理公眾

陳仕偉 劉艷紅

(江西財經大學馬克思主義學院,江西南昌 330013)

一、問題提出與文獻回顧

在大數據技術的推動下,人工智能技術得以再次振興,以至于世界主要國家都已將人工智能的發展提升至國家戰略的高度。馬克思主義認為,“國家是整個社會的正式代表,是社會在一個有形的組織中的集中表現”[1];現代公共行政理論認為,政府的權力來自公眾,并基于公眾利益最大化行使權力?!柏熑误w系把政府的行政部分和政治部分聯系在一起,并最終對公眾負責。歸根到底,政府的任何行動都是公民通過他們的代表所進行的行動。公共利益的追求‘需要一種精心設計的責任結構以確保那些代表公民利益的人為了公民的利益能夠付出最大的努力’?!盵2]既然政府代表公眾行使權力,在發展人工智能的過程中,就需要對公眾負責,積極促進人工智能的良性運行,確保給公眾帶來福祉,并不斷增強公眾的獲得感?;诖?,從政府治理層面分析發展人工智能的倫理責任,需要從“加大人工智能對社會的影響研究”“努力實現人工智能時代社會的公平正義”和“加強對人工智能科技的監管與調控”等方面以建構友好人工智能[3]。

從現有的研究來看,學術界側重于對政府運用人工智能所面臨的倫理挑戰及其治理的探討。柳亦博認為,政府至少可以在“消除信息歧視、發展機器倫理、建立熔斷機制、進行倫理審查、防止計劃體制”五個方面開展抑惡行動[4]。徐敏寧等人認為,將人工智能嵌入基層治理中存在七個風險點,包括主體性喪失、技術治理利維坦、技術哲學與行政價值沖突、責任主體割裂、數據安全隱患、基層社會極化等[5]。譚九生等人認為,人工智能為政府治理的革新提供了技術支持,但同時也可能帶來隱私侵犯、公平損益、責任模糊、技術依賴和參與缺失等倫理風險[6]。段偉文強調,雖然中國的政府和企業對發展人工智能持樂觀態度,但是其中的倫理風險并非虛構,需要“通過技術倫理評估、‘技術—倫理’矯正和信任機制的構建,展開必要的價值倫理校準”[7]??偟膩碚f,現有的研究主要關注政府運用人工智能進行治理時可能出現的倫理問題及其防控措施,而較少探討政府在領導發展人工智能時應當主動承擔的倫理責任。隨著科技革命和產業變革的深入發展,人工智能技術日新月異,如果政府不能承擔起相應的倫理責任,勢必影響我國新一代人工智能發展規劃目標的實現。因此,政府在引領人工智能發展戰略的過程中,需要主動承擔倫理責任,以實現公眾利益的最大化。不僅要確保人工智能戰略的順利實施,還要確保人工智能的發展能夠保持在安全、可控的范圍內。因此,深入研究政府在發展人工智能中所承擔的倫理責任具有重要意義。

二、政府在發展人工智能中承擔倫理責任的必要性分析

“責任倫理”一詞最早出現在1919 年馬克斯·韋伯(Max Weber)的《作為職業的政治》一文中?!搬槍Ξ敃r的政治家只講權力運用而不考慮行為后果的現象,韋伯呼吁社會倡導一種超越良知倫理的責任倫理?!盵8]政府在發展人工智能中承擔倫理責任,意味著政府具備完全的道德行為能力,并必須在人工智能發展過程中承擔道義上的責任。

(一)政府承擔倫理責任是統籌規劃好人工智能發展戰略的必然要求

政府是代表公眾行使權力的組織機構,通過其工作人員來具體行使權力,他們在具體領導實施人工智能戰略時必然需要承擔相應的倫理責任,需要在領導實施人工智能戰略前做好承擔相應倫理責任的準備。雖然責任倫理是針對行為的后果而提出,但“強調的是一種前瞻性的責任”[9]4。責任倫理認為,責任主體并不是在后果出現之后才考慮承擔相應的倫理責任,而是在進行行為之前就要對可能產生的后果進行必要的預測,因而對自身將要承擔的倫理責任進行評估和考量,否則就是盲目的,不具有可持續性。責任倫理要求我們“不僅強調對已經發生的事情負責,而且還對未發生的事提前負責,彰顯的是一種對事前的責任的倫理追問,是以長遠的眼光來審視人類所應承擔的整體責任”[9]4。對于政府來說,領導實施人工智能戰略需要在實施之前對可能產生的倫理問題以及社會影響進行必要的評估和預測。因此,在規劃人工智能戰略時,政府需要承擔起相應的倫理責任,絕對不能在后果出現后再考慮承擔倫理責任。

(二)政府承擔倫理責任是實施好人工智能發展戰略的必然要求

作為代表公眾行使權力的政府,應當基于公眾利益最大化的原則來發展人工智能。政府要承擔起領導責任,不僅要制定并頒布人工智能戰略,還要領導人工智能戰略的具體實施。然而,要實現人工智能戰略目標,僅有政府的領導和組織是遠遠不夠的,必須有科研機構、企業和公眾等主體的廣泛參與,建立起發展人工智能的共同體。在這個共同體中,政府代表公眾行使權力,能夠聚合全社會的力量來共同發展好人工智能。

政府不僅要承擔統籌規劃的倫理責任,還要承擔起監管責任。這旨在保證人工智能能夠沿著健康有序的方向發展,進而真正實現公眾利益最大化。政府承擔起監管責任的目的,是確保發展人工智能始終堅持以人為本,防止某些研究機構、企業、公眾為了追求自身的利益而不負責任地研發、應用人工智能。因此,政府應當承擔起監管責任,以防止人工智能的異化現象沖擊人的主體地位。

(三)政府承擔倫理責任是保證人工智能良性運行的必然要求

實際上,“責任倫理是基于現代科技時代的倫理反思,對現代責任進行理性的倫理追問,在整體的視閾下探究與當代現實社會責任相關的問題,強調的是一種責任理念和價值訴求,它既是一種責任模式,同時又體現一種倫理訴求”[9]6。政府正是需要從“整體的視閾”來承擔倫理責任,否則很難保證人工智能的良性有序運行。人工智能分為弱人工智能、強人工智能和超人工智能[10]。弱人工智能已廣泛應用于我們的生產生活中,但強人工智能還存在許多技術上的難題,而超人工智能還僅是理論上的概念。值得注意的是,隨著強人工智能的研發與應用,人工智能就不“只是簡單地執行我們交給它的任務”,而已“具備自己獨特的意識,完全獨立于人的意識之外,能夠自主適應外界環境的變化和挑戰”[11]了。因此,政府作為承擔持續而全面倫理責任的主要主體,需要采取措施來防控人工智能異化的風險,確保人工智能的發展始終在人類的掌控之下。

二、政府在發展人工智能中承擔倫理責任的基本內容

人工智能的發展,“營造出了一個嶄新的政府治理環境”[12]。政府作為發展人工智能的領導者,必然要承擔全方位的倫理責任,以保障人工智能的健康有序發展,保證人工智能為公眾所用,為公眾生產生活帶來福祉。

(一)前瞻性倫理責任

前瞻性倫理責任是一種有限度的預防性責任。隨著人工智能的快速發展,政府應該確保公眾在使用和消費人工智能時的可靠性和安全性。根據卡魯姆·蔡斯(Calum Chace)研究分析,公眾在使用和消費人工智能時面臨的最大問題就是隱私、安全、不平等和孤獨[13]。為了實現公眾利益的最大化,政府需要承擔前瞻性的倫理責任。具體而言,政府需要選擇正確的發展方向和價值取向,制定科學的發展人工智能活動的道德標準和規范,并履行說明義務,解釋發展人工智能可能帶來的后果??傊?,基于公眾利益最大化的原則,政府應在領導實施人工智能戰略之前,確保該戰略能夠為公眾帶來福祉。

(二)過程性倫理責任

政府作為發展人工智能的領導者,應承擔起相應的倫理責任,即持續性的過程性倫理責任。政府需要協調好科研機構、企業和公眾等主體之間的關系,以確保人工智能戰略目標的順利實現。雖然政府負責領導實施人工智能戰略,但實現目標還需依賴這些主體的參與。無共同參與,人工智能戰略就無法轉化為現實。

因此,政府在領導實施人工智能戰略時,還需承擔對這些主體的倫理監管責任。這包括對研發、分配、交換和消費等環節的統籌協調,以充分協調其中的利益關系。通過承擔這些責任,政府能夠確保人工智能戰略的順利實施,并為公眾提供人工智能產品和服務。

(三)后果性倫理責任

政府不僅要承擔前瞻性倫理責任和過程性倫理責任,還要對具體實施人工智能戰略的后果承擔倫理責任,即后果性倫理責任。責任倫理的核心在于關注行為后果,要求行為主體必須對自身行為產生的后果承擔相應的倫理責任,無論這個后果是積極的還是消極的。如果后果是消極的,行為主體還需要承擔相應的補償性倫理責任,即盡最大可能將造成的傷害降到最低限度。盡管政府基于公眾利益最大化的原則領導實施人工智能戰略,但在后果的倫理評估和考量方面,應對政府所承擔責任范圍內的所有“利益”及后果進行全面評估和考量?!笆聦嵣?,人工智能對政治、經濟、社會、法律、文化甚至軍事等方面都帶來了多重影響,而我們現在還沒有足夠的知識儲備和恰當的概念框架來理解、應對、引導這些影響,這才是智能化社會的真正危險之處?!盵14]相較于其他主體的倫理責任,政府的倫理責任范圍更廣、要求更高,它代表著發展人工智能中的國家利益和社會公眾利益。因此,政府所要承擔的后果性倫理責任不僅涵蓋政治、經濟方面的倫理責任,還涉及文化、社會和生態等方面產生的倫理責任。此外,政府還需要對已經產生的后果承擔倫理責任,并延伸到由這些后果所衍生出的其他后果。

(四)終極性倫理責任

政府之所以需要對領導實施人工智能戰略的后果承擔倫理責任,是因為“政府是社會控制的最基本的最重要的形式,政府是制度和法規的制定者和執行者,政府控制著自然和社會的絕大多數資源,政府還是民族國家大政方針的制訂者和執行者,也是先進倫理道德的倡導者和實踐者……因而政府的責任也特別重大”[15]。因此,政府需要承擔領導實施人工智能戰略的全面后果責任。在承擔政治、經濟、文化、社會和生態等方面的倫理責任過程中,政府應以最終價值訴求為指引,承擔各方面的倫理責任。這些倫理責任的實現有助于實現最終的價值訴求。在我國,各級政府應在共產黨的領導下,圍繞實現共產主義遠大理想的最終價值訴求,承擔各方面的倫理責任。這種承擔不僅能夠促進共產主義遠大理想的實現,也是為了更好地實現人工智能的健康有序運行。有學者認為,發展人工智能與實現共產主義是相互促進的關系[16]。政府在領導實施人工智能的過程中,需要對最終的“善”承擔倫理責任。這意味著,政府在推進人工智能戰略的過程中,必須緊密圍繞最終的“善”這一價值目標,避免偏離這一方向,以免給人類帶來巨大的倫理風險和災難性后果。因此,政府必須承擔終極性的倫理責任,以確保人工智能的發展符合“善”的目標。

總之,政府在領導實施人工智能戰略的過程中,需要同時承擔前瞻性倫理責任和過程性倫理責任,以及后果性倫理責任和終極性倫理責任。只有這樣,才能確保人工智能戰略目標的順利實現,保障人工智能的良性運行,并始終堅持以人為本的發展理念。

三、政府在發展人工智能中承擔倫理責任的基本策略

如前所述,政府作為公共利益的代表,需要承擔起前瞻性、過程性、后果性和終極性倫理責任,但是這些倫理責任的具體承擔還依賴于具體策略的實施。根據行政倫理學的相關理論,政府要承擔起相應的倫理責任,可從制度倫理和德性倫理兩個視角出發,不斷建立健全相應的制度規范并嚴格執行,保證在發展人工智能過程中實現“有法可依、有法必依、執法必嚴、違法必究”;與此同時,積極弘揚社會美德,促進社會成員形成優秀的道德品格。

(一)政府承擔倫理責任的兩條基本策略:客觀責任和主觀責任

行政倫理學家特里·L.庫珀在《行政倫理學:實現行政責任的途徑》中將公共行政責任劃分為“客觀責任”和“主觀責任”,提出:“客觀責任與來自外部的影響因素有關,主觀責任則與我們內心的觀念和想法即對自身責任的認識有關?!盵17]74具體而言,“客觀責任來源于法律、組織機構、社會對行政人員的角色期待,但主觀責任卻根植于我們自己對忠誠、良知、認同的信仰”[17]84。也就是說,“客觀責任”主要是從外部視角強調行政人員需要承擔“來源于法律、組織結構、社會對行政人員的角色期待”的倫理責任;而“主觀責任”則是從內部要求行政人員承擔行政人員“自己內心的情感和信仰賦予”[17]84的倫理責任。政府在領導實施人工智能戰略過程中也應從內部和外部兩個視角來具體承擔自身的倫理責任。從外部的“客觀責任”視角而言,政府要承擔發展人工智能主要倫理責任應該是制定并執行好相關倫理制度規范;從內部的“主觀責任”視角而言,政府則需要從德性倫理出發來承擔發展人工智能的主要倫理責任。

(二)制度倫理:政府承擔倫理責任的“客觀責任”策略

政府要承擔倫理責任,必須通過工作人員執行。為確保他們能承擔責任,應將倫理責任細分到各部門和具體負責人。為確保他們能承擔相應的倫理責任,政府需要從制度倫理出發,在實施人工智能戰略時承擔好相應的倫理責任。鄧小平指出:“制度好可以使壞人無法任意橫行,制度不好可以使好人無法充分做好事,甚至會走向反面?!盵18]約翰·羅爾斯(John Bordley Rawls)在《正義論》中認為:“正義是社會制度的首要價值,正像真理是思想體系的首要價值一樣?!盵19]因此,從制度倫理視角出發,政府要在領導實施人工智能戰略中真正承擔好相應的倫理責任,首先就需要基于公平正義制定出“好的”“正義的”制度規范,如發展人工智能的行業制度規范、從業者的制度規范即職業倫理規范、人工智能的科研倫理制度規范、人工智能的使用倫理制度規范等等??傊?,政府要保證在發展人工智能的全過程中都能夠實現有法可依,有章可循。習近平總書記指出:“制度的生命力在于執行?!盵20]政府制定出了“好的”“正義的”制度還不夠,還需保證制定出來的制度能夠順利地執行下去,特別是對違規違法行為必須實施必要的懲處。只有政府、科研機構、企業、公眾等主體都能夠自覺地遵守和執行相應的制度規范,才能夠保證人工智能戰略目標的順利實現。

(三)德性倫理:政府承擔倫理責任的“主觀責任”策略

實際上,無論制度規范多么完善,都不可能涵蓋所有方面。為了真正承擔發展人工智能的倫理責任,政府必須在加強制度規范的建設與執行的基礎上,從外部轉向內部,從德性倫理入手。不斷加強政府、科研機構、企業等組織機構的工作人員和公眾的思想道德建設,使其自覺地維護制度的公平正義,并努力促進人工智能的健康有序運行。

從根本上講,德性倫理注重的是培養個人優秀的道德品質。一個具備優秀道德品質的人,其行為本身是善的,行為的結果同樣也是善的?!懊糠N技藝與研究,同樣地,人的每種實踐與選擇,都以某種善為目的?!盵21]因此,擁有優秀道德品質的人總是思考著這樣一個問題:什么樣的生活才是“善”的?換句話說,不“善”的生活是沒有意義的。通過這種分析,德性倫理不僅強調行為本身的“善”,還強調行為結果的“善”??傊?,具備優秀道德品質的人總是以心中的“善”來規范自己的言行舉止。為了確保政府在發展人工智能過程中真正承擔起相應的倫理責任,需要由具體的工作人員來執行政府制定的具體制度規范。而要讓這些具體的制度規范得到徹底貫徹執行,需要不斷提升政府工作人員的思想道德水平。此外,要實現人工智能戰略目標,也需要不斷提升科研機構和企業工作人員以及公眾的思想道德水平。因此,工作人員在處理相關情況的過程中,內心應秉持“善”的理念,否則可能會被人工智能牽著鼻子走?!俺尸F為技術權力奴役下的自由和價值”[22],最終的結果可能是人工智能控制和規定人類,而非人類控制和規定人工智能。因此,政府必須承擔起相應的倫理責任,通過弘揚社會美德,以“善”為目標發展人工智能。只有這樣,人工智能的健康有序運行才能實現。

四、結語

政府具有集中全社會資源并代表公眾行使公權力的能力,因此有義務和能力承擔起全面發展人工智能的倫理責任。由于政府具有這種獨特的優勢,一旦全面承擔起發展人工智能的倫理責任,就能夠有效防范和化解人工智能帶來的倫理風險。同時,政府在領導實施人工智能戰略的過程中積極全面地承擔相應的倫理責任,必然會促使政府建設好自身在人工智能時代的倫理責任結構體系。由于政府在領導實施人工智能戰略過程中所要承擔的倫理責任是全面的、持續的,因此要求政府隨著人工智能的發展不斷建設和完善自身在人工智能時代的倫理責任體系。

猜你喜歡
后果倫理公眾
《心之死》的趣味與倫理焦慮
“耍帥”的后果
公眾號3月熱榜
這些行為后果很嚴重
公眾號9月熱榜
公眾號8月熱榜
公眾號5月熱榜
護生眼中的倫理修養
眾榮的后果8則
上朝遲到了 后果很嚴重
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合