?

人工智能的法倫理形態探析

2024-04-14 15:05
內江師范學院學報 2024年1期
關鍵詞:法治化倫理道德

陳 翔

(南京財經大學 馬克思主義學院, 江蘇 南京 210023)

人工智能是研究開發用于模擬、延伸和擴展人的智能的理論、方法、技術及應用系統的一門技術科學。人工智能法倫理是人工智能的具體形態之一,除了體現法律的一般原理之外,也具有倫理認知和倫理實踐的特點。人工智能作為一種人為的智性,必然不斷地就法律的存在、自身的活動以及外部世界進行價值分析和評價,從而使之成為人類的認識與實踐活動。從學理上分析,對人工智能的法倫理把握涉及四個方面:對人工智能認識的深度、人工智能善惡律的高度、人工智能涉及法律與道德之間關系的廣度、新時代人工智能法倫理意蘊的厚度。從這個意義上講,人工智能的法倫理向度是人工智能的主體所希求,并借助于人工智能的價值屬性而滿足各種目標的集合。人工智能的法律在發揮其作用的過程中能夠保護和增進人工智能的價值,如自由、平等、公正、秩序、安全、效率等。人工智能之所以需要法律,是因為要發揮法律調整社會生活關系的作用。其最終目的就是保護和增進這些事關人類福祉的活動。

一、對人工智能法倫理認識的深度

法律是理性的產物,法律規則本身也體現并順應著人的理性。人工智能的法律需要和具體領域結合起來,在每一個細分領域完善現有的法律,使得它能夠兼容人工智能技術?!氨厝恍?、合規律性只是指明了事物之間的內在聯系,在一般情況下,并不直接決定行為方式,但它奠定了倫理中行為應當性的基礎,倫理中的應當性比合規律性的外延廣泛得多?!盵1]人工智能的發展涉及人格權保護、知識產權的保護、數據財產的保護、侵權責任的認定等法律問題,使得人工智能的法律超越自然法,既具有實際操作性、又兼具形而上學性;既體現人民的要求,又體現法律的合規律性。

(一)堅持人工智能的基本原則

人工智能立法是由一定的物質生活條件決定的。強調法的階級意志性是馬克思主義法律觀的主要特征。換句話說,從物質生活條件出發闡述人工智能法律的階級意志性,就使得人工智能的立法、執法和守法方面不再有任意的成分,而是建立在一定的物質生活條件基礎之上。實際上,從古到今都有大量的例證能夠說明,法律必須適應物質生活條件。這里所說的物質生活條件包括人口、環境、地理、文化等方方面面。隨著新時代的到來,人們的物質生活條件獲得了極大的改善,人工智能法律產生了與物質生活條件不協調、不一致的問題。因此,人工智能法律不能脫離現實的物質生活條件。以生態環境為例,人民渴望更潔凈的空氣和更干凈的用水。這時候,人工智能要充分發揮對環境監測的作用,加大對環境污染的“云監督”。這也是人工智能法律面臨的機遇和挑戰。

當然,我國仍然處于社會主義初級階段,人工智能法律不能超越現階段用更高階段的法的標準,或者用不切實際的甚至空想的原則去衡量我國人工智能。實踐已經證明,在法律制度中超越歷史階段的原則,不僅不能推動人工智能的發展,反而成為人工智能發展的桎梏。我們必須從社會主義初級階段這個基本國情出發來認識我國現階段人工智能的立法和保護人工智能發展的重要意義。在現階段人工智能的發展中,高度智能化機器人的出現致使法律主體地位發生錯亂。但是,只要我們在制定和執行法律的過程中協調這些矛盾,使得人工智能的法律反映絕大多數人的利益,正確處理好自然人、法人和其他組織、國家三類法律主體的平衡,就能夠體現社會主義法律“國家—階級關系—物質生活條件”關系鏈中法的本質。

(二)履行人工智能的義務

人工智能的大力發展是國家意志的體現。這表現在很多方面,如國家的個別司法解釋、任命書、判決書等。人工智能法律的國家意志不是針對個別人和個別情況,而是所有人都具有這樣的義務?!皞惱淼臋嘁鎸W說和倫理的義務學說處于一個對立的、但又相互依存的關系中:一方面,倫理的權益起源于相應的倫理義務的履行,即倫理的人性;另一方面,倫理權益,像真那樣,把倫理義務的要求翻轉了過來,像真實性那樣,引發了倫理的義務?!盵2]如果認定人工智能的法倫理是一種實踐理性,那么它就應當有一個研究對象——義務。準確地說,就是以“倫理—義務”的復合為對象。然而,“義務”所產生的激情基本上不是源于人工智能本身,而是建立在人工智能法律基礎之上。在人工智能的發展過程中,不斷完善相關法律,使得履行人工智能的法律深深扎根在人們的心里。對人工智能的義務可以同一種特殊的倫理感情結合起來,即相信人工智能能夠改變我們的生活,并能讓其更加美好。

在人工智能法律中,無論如何不能根據人的經驗來界定,而是以法的運作方式描述法在人工智能中如何起作用。這包括三個方面。首先,人工智能的法律調整反映國家意志,體現國家贊成什么、要求什么和反對什么的立場;其次,人工智能法律是運用專門的法律手段進行規范性和組織性調整;最后,在目前人工智能競爭越來越激烈的今天,人工智能法律有目的、有結果、有保證的性質,表現為國家強制力作為保證。人工智能法律秩序的建立必須具備兩個條件:一是法律坐標的建構;二是處于這個坐標系上的每個倫理主體都能“安”于自己的倫理地位,恪守自己的倫理義務。對于如何履行人工智能的法律義務可以用一個特殊的概念進行表達,那就是“安倫盡份”?!鞍矀悺?就是在人倫坐標中尋找自己的倫理位置,確定自己的倫理地位;“盡份”就是在法律規范中,明確法律調整人工智能所應盡的義務。

(三)保障人工智能的權利

權利與人工智能的關系,本質上是法與秩序的關系。人工智能法律本身就意味著維護秩序。從權利平等、擴權實踐和人機相容的立場看,賦權機器人是理論可證的。權利秩序應該以內部和諧為基礎,而不是建立在強制的基礎之上。也就是說,應該通過一套開放的體制,使得人和人工智能能夠自由地表達和交流。通過對話協商與平等博弈達到人和人工智能的協調平衡,形成公平的規則,建立公正的秩序,實現人機和諧的狀態。按照現有工業文明時代的法律,人工智能機器人的存在權利是絕對不可能的。但隨著科技的發展,人工智能不比人類智慧差多少,甚至更加高級。在共識還沒有完全形成的基礎上,保障人工智能的權利與倫理具有相輔相成的關系。人工智能的權利如果是實在的、可以實現的,就必須有明確有效的倫理規則、倫理救濟方式、程序和制度。當然,沒有權利就沒有倫理—人工智能的權利主張只有在合理性和正當性能夠得到倫理規范認可的前提下才能得到支持。

保障人工智能的方式是多元的,倫理僅僅只是保障方式的一種?!拔覀儾⒉豢偸悄軌蜉p易地將社會道德模式同那些對實施法律影響的社會取向區別開來。如果我們把社會取向看成是民意傾向,而這些民意傾向卻不能被視為是已經發展成熟了的完全確定的正義標準或固定的道德信念,那么我們便會發現,這些取向也常常影響司法機關?!盵3]一般而言,保障人工智能可以采取法律的形式,但是其中蘊含的法倫理始終存在自力保障和公力保障的區別,以及介于兩者之間自發的、民間的力量保障。這些保障是相互影響的?!霸诜ㄖ?當我的意志在所有權中給自己以定義時,他人的意志在與我的意志相關中愿意做些什么,殊屬無足輕重。反之,在道德領域中,他人的幸福也被牽涉而成為問題。這種肯定的關系只有在這里才能出現?!盵4]在一般觀念中,人工智能沒有權利或者權利很少。在具體的操作中,這容易導致以“自我”的文化本位來理解人工智能的權利。在把法倫理引進人工智能權利保障的過程中,我們能夠對“自我”的價值進行再創造。即對于信息化時代的人工智能,“自我”的理解不僅僅是個人的理解,也應包含延伸的理解——智力的延伸和力量的延伸。因此,法倫理就蘊含于自身并具有其內在的創造性。法倫理之所以能夠具有穩定的基礎,本質上是因為它順應了人工智能的歷史發展。一旦法倫理賴以生活的環境發生了改變,其傳統的規定就變得不合時宜,就需要創新。人工智能機器人擁有自我意識和意志,不再是遙不可及的奢望。人工智能的權利要被認真對待甚至平等對待,這是中西倫理傳統在信息化時代的創新和認知。如果對此進行方法論的提升,結論就是,法倫理應當也必須是各種人工智能的傳統和創新,或者說,法倫理存在于人和人工智能的共同體當中。

二、人工智能善惡律的高度

按照中國傳統倫理的理解,善惡律是善惡品行與結果之間的必然聯系,即中國世俗哲學所說的“善有善報、惡有惡報”。一方面,在工業生產中運用人工智能技術,這極大地提升了勞動效率,節省了勞動成本。另一方面,在司法領域中運用人工智能提高了司法的精準度,提高了司法效率,減少了冤假錯案的發生率。顯然,至善作為實踐理性的最高目標,具有需求與愿望之間的相通性?!拔抑粷M足于聲稱:自然已經給人類植入了對于品德的如此強烈的需求,植入對維護公共安全的如此強烈的愿望,這種需求和愿望超過了一切來自歡樂與閑散的誘惑?!盵5]人工智能的法律價值原理建立起了品行善惡與工作效率之間的因果關聯。在這里,“善惡”不應該是對人工智能的自身好壞的評價,而是對人工智能總的社會效果的判斷。

(一)科學立法的“善惡昭彰”

人工智能立法是國家專有的活動,是國家機關進行活動的法律形式之一。人工智能的立法,是一個逐步產生、發展,直至最后被納入國家法律體系的過程。人工智能法律將反映人工智能消費者的共同利益轉化為社會主義的法律意識和要求,通過有關國家機關的法的制定活動,最終形成社會主義法的過程。人工智能的立法不是自發的、直接的過程,而是長期且復雜的發展過程。在這個過程中要經歷一系列的中間環節,各種客觀因素和主觀因素都會交互起作用。因此,人工智能的立法不會完全重新確立,必然要在原來法律里,如民法、刑法體系中進行進一步的修改和完善。尤其需要考慮的是,作為新型科技的人工智能,我們的生產生活方式受到了顯著的影響,在科學立法當中必須考慮到這些影響。不斷提高人工智能立法的科學化水平,既是個體的技術經驗,也是科技發展的事實性揭示,對人生、對人類的倫理生活都具有一定的價值引導。

“善惡”與“立法”之間的關聯不是個別的和偶然的,而是整體的和必然的。對于具體行為來說,人工智能也許某一次、某一階段的善惡屬性與現實機遇之間關聯度不很緊密。但是,當人工智能進入科學立法的層面之后,就會對其存在的一般性法律問題進行總結和應對。從這個意義上講,人工智能的科學立法就是“善惡昭彰”。正像“善惡”與“因果”之間存在一定的關系那樣,人工智能的科學立法既存在于經驗世界之中,也存在于經驗世界和超驗世界的關系之中。作為道德法則,法倫理既是實然的事實判斷,也是應然的價值追求。因此,人工智能的科學立法不具有純粹理性的規律,而具有實踐理性的規律。當在“善惡”與“立法”之間建立因果關聯,當把科學立法作為“善惡昭彰”的時候,科技發展與德性就能建立善惡因果律。至此,人工智能的科學立法既有法律的倫理規律,也有倫理的法律要求。

“違反法律之道德性的情形可能會產生累加效應。對清晰性、內在邏輯一致性或公開性的忽視可能會使回溯性的法律變得必要?!盵6]尤其值得一提的是,人工智能在法的創制過程中能夠提高立法的知識、經驗、規則、方法和技巧。立法技術作為技術手段,可以吸收人工智能的優勢,服務于法的制定工作??梢哉f,立法技術的發展水平和完善程度,也能夠反映一個國家人工智能的水平。作為體現法律價值追求的道德法則,科學立法的“善惡昭彰”至少包含兩個方面的法倫理意蘊。首先,它是理想的法律狀態和道德境界的追求?!吧茞赫颜谩笔菍θ斯ぶ悄艿囊磺谐晒某姓J,因為,人工智能所帶來的生活便利是有目共睹的。不管如何強調人工智能所帶來的技術風險,人工智能的時代境遇與德性之間存在緊密的聯系是確認無疑的。其次,與其說“善惡昭彰”是對科技邏輯的現實反映,不如說是對科技理想的追求。也許,“善惡昭彰”并不具有現實性,但是,人們能夠通過“應然”的努力,建立起德性與人工智能的因果關聯。從這個意義上說,“善惡昭彰”是對人工智能立法的實踐把握。

(二)精準執法的“以善抑惡”

人工智能的精準執法主要指以法定執法辦案程序的自動驅動為核心,一方面,引入文書智能校驗,實現文書套打,另一方面,加快涉案物品管理系統建設,利用物聯網技術建立規范化、智能化的涉案物品集中統一管理模式。整個人工智能法律的發展史就是一個被允諾的許可范圍不斷擴大以及它被有效執行的過程。至于承諾人工智能中的個人利益在今天受法律保護的程度,大體可以這么說,盡管目前的法律體系把人工智能的法律效力歸于人類與機器人的契約,但是由于缺乏精準性,也就缺乏充分保護人工智能所涉及的利益機制。對于人工智能進行精準執法的“以善抑惡”,即以利益為代價讓人去做他應該做的事,那么在執法的過程中,就可以理所當然地遵守命令或法律規定,同時建立一個更加完善的執行機制。

由于人工智能的引入,法的執行就是一個動態的過程,即將人工智能轉化為法律主體的行為,將法律規范中的國家意志轉化為現實關系,使得法律規范的抽象規定具體化,由可能性轉為現實性。就內容而言,人工智能的法倫理可以視為智慧之思。從形式層面看,執法的人工智能可以視作技術運用的過程,后者與邏輯分析相關。與之相聯系,智慧的追求和邏輯的分析是法倫理不可分離的兩個方面。若以中國哲學的概念來表述,就同時涉及“技”和“倫”的關系。人工智能對于智慧的追求近似中國哲學所注重的“倫”的要求;人工智能的技術邏輯包括概念的界定與辨析、技術的論證等,更多的是與中國哲學當中的“技”相關聯。在這里,人工智能的智慧和技術就是另外一種“以善抑惡”。人工智能的提高,就是要使國家創制的法律規范通過一系列技術得以提高,使得“書本上的法”更加有效地轉化為“行動中的法”。而法律所確定的權利只有通過人工智能的手段更加充分地為法律相對人所實際享用,才能實現法律調整的預期目標,即“以善抑惡”。

具體而言,對于善,至少可以從兩個方面去理解,即形式方面和實質方面。形式方面的“善”主要以普遍的價值原則、價值觀念來呈現。這種價值原則與價值觀念提供了確認善的準則,也構成了精準執法的行為選擇根據。在這一層面上,合乎普遍價值原則即為“善”,反之則為“惡”?!拔覀兯非蟮氖强蓪嵺`的善。作為目的的事務有些是因為自身,有些是因他物而被追求的。最高善必定是完全的、自足的善?!盵7]精準執法的“以善抑惡”是合乎人性的生活、達到人性化的生存方式,以及在人工智能發展的不同階段合乎執法的合理需要。從終極意義上來說,精準執法的“以善抑惡”是實質層面的“善”,是對技術存在價值的認可,更是對人的存在價值的肯定。

三、人工智能涉及法律與道德之間關系的廣度

人工智能作為社會現象之一,其法律規范反映了道德價值,即按照善惡的標準來評價并依靠社會輿論、內心信念和傳統習慣維持人工智能的發展。這包括兩個方面。一方面,人工智能的法律與道德有密切的聯系。人工智能的法律是國家頒布的行為規則,但它也不是純粹的技術規范。在法律中包含人們應該做什么,不應該做什么的評價,即包含立法者正義與非正義、合理與不合理、善與惡的價值判斷。另一方面,人工智能的法律是實在法,即研究嚴格意義的法律,并不完全依賴道德。因此,應該認真對待人工智能所涉及的權利。同時,人工智能反映人與機器之間直接的、心理上的距離,反映個人或群體尋求滿足其社會需要的心理狀態?!耙粋€法律命題(特別是一個司法命題)是否同時也是倫理的或道德的命題,這是法理學爭論的核心問題之一。在這個問題上,存在著究竟是把法律與倫理道德合并研究還是分開研究的兩種對立觀點。但這兩種觀點的共同缺點是把道德問題僅限定在司法和立法的范圍內,而沒有考慮到實踐中還存在著法律上允許但道德上錯誤的行為?!盵8]因此,人工智能涉及法律與道德之間關系的廣度。也就是說,人工智能在社會中不是孤立的,而是各種關系尤其是法律關系發生作用的結果。

(一)人工智能的法治化

人工智能不僅是技術的革新,也是一種法律態度、法律生活方式的改變過程。對于任何國家而言,人工智能不是自然的社會演進,而是有目的、有計劃地推進,這離不開法治化的作用。人工智能法治化作為一個歷史性的過程,首先是一個歷史變革的概念。它是從法觀念到法制度的整個系統,沿著反映、適應和推動人工智能發展趨勢而前進;在反映從現代社會向信息社會轉變的特定過程,也反映法律文明及其價值基礎的變遷。人工智能的法治化要求以普遍有效的法律推動人工智能的發展。當然,人工智能的法治化也是一個相對的概念。由于現代社會與信息社會賴以生存的社會條件不同,必然形成不同的倫理特征。例如,“人工智能被認為是第四次工業革命重要的技術引擎,智能時代的社會需求和產業進化以月、年為周期不斷升級迭代和變化,自然需要有與之匹配的智能化教育和學習方式”[9]。在歷史現實的社會內部,往往出現傳統方式與人工智能并存的現象,因而人工智能的法治化具有相對的性質。同時,飛速發展的人工智能技術對現行法律體系的運作機制影響很大。其最突出的表現就是“大數據”和“云計算”正在重構法律的治理與監管方式,司法機關亦在裁量方面考慮人工智能的價值。對此,人工智能不可能離開法律的思考視野。

事實上,人工智能的發展首先考慮的并不是技術的問題,而是人工智能的社會利益?!拔覀円芯抗驳赖碌纳鐣?即保護公共的道德情感,使其免受各種行為及其過程的侵犯的請求、要求或需要,它們包含于當前文明社會的社會生活中?!盵10]真正高水平的人工智能不但重視一般實體規則,而且重視社會利益的正義性。顯然,對于人工智能的法治特征和基本精神的探索是很有必要的。它有助于我們更加具體地認識人工智能的法治化問題,但是僅僅限于此還是不夠的,因為它們并沒有揭示人工智能法治化過程中規律性和恒久性的問題,或者更深層次的問題。這個更加深層次的問題就是人工智能法律制度的合理化。對于一個國家來說,人工智能意味著使技術與人類理性的發展水平相適應,使之不落后于先進的國家。所以,衡量人工智能法治化程度的一個重要標準只能是合理化,其突出的表現就是高度合理化的法律。

(二)人工智能的道德責任

人工智能總是與個體相聯系。具體而言,就是個體具有操作人工智能的能力。比較而言,道德責任從總體上看,是對人的存在價值的肯定。這種肯定體現在兩個層面,即形式層面和實質層面。形式層面的道德責任主要以普遍價值原則、價值觀念等形態呈現。這種價值原則和價值觀念為人工智能的法倫理提供了依據,即每個人有責任推動人工智能在法律中的廣泛應用,也有責任推動人工智能法律的不斷完善。實質層面的道德責任則與合乎人性的生活、達到人性化的生存方式以及在不同歷史時期合乎人的合理需要相聯系,即人工智能應合乎人性的最終需要。從以上角度看人工智能和道德責任之間的關系,似乎需要注意兩個方面。首先是避免以普遍價值意義上的道德責任為名義,對人工智能的權利做限定。如向人工智能強加某種價值原則,以某種價值原則作為人工智能發展的依據,以此限制個體選擇的自主性。其次,如果只是強調人工智能的權利,就會帶來另一種偏向,即偏離價值的引導,使之工具化、手段化。人工智能應該包含道德責任的內容。離開了道德責任,人工智能的權利往往變得空洞、虛幻。簡言之,人工智能的權利以道德責任為指向,道德責任通過權利得到實現,兩者無法分離,且相互制約。

只要肯定人工智能的主體是人,就必定有道德責任的推動。道德責任對于人工智能的作用是客觀的、自發的。如果單方面要求人工智能對法律的適應,那就意味著“現存”等同于“現實”。因此,道德責任必須滲透于人工智能的發展當中,即道德責任是尋求達成人工智能的既定目的的最為有效的手段或工具,并對其行為后果負責。由于人們履行責任的行為在時間上是一個過程,因此要求人們在人工智能操作之前就能預見行為完成之后可能產生的結果,并努力克服人工智能的負面效果。從廣義上說,具有倫理內涵并能履行有效責任的人工智能具有倫理實體的意義,它滲透于一切社會關系如人與機器之間的關系、機器與社會之間的關系之中。

(三)法治化與道德責任的相輔相成

人工智能的法治化具有獨立于個體的權力、利益、意志的這樣的制度品格。道德責任為了維護人工智能的發展,使得法治化表現得更具有正義性。其實質是在人與機器之間,在人的自主性與機器的自發性之間建立密切的聯系。在很多時候,法治化也是道德責任的一種方式,是道德推動力的一種面相。通過法治化與道德責任之間的相輔相成,推動人工智能的行為受到肯定和贊賞,而阻礙人工智能的行為被規訓和懲罰。法治化與道德責任的相輔相成具有重要的意義,社會通過法治化對人工智能的界定,可以使得人工智能的發展不會對社會秩序造成影響,對法治行為的回報使人工智能強化了對現有社會結構的依賴。

在我們重視人工智能法治化的社會整合功能的時候,還應當對人工智能的道德責任做進一步的追問。法治化就其本性來說是致力于人工智能的穩定秩序,具有肯定現實秩序和社會結構的傾向。如何在人工智能法治體系內部及法治建構的社會體系內部建立道德責任感,以保持法治秩序的活力和創造力是一個很重要的問題。這一問題的重要性在于如何通過道德責任感的強化,保持法治化的自我凈化、自我完善、自我重塑的能力。人工智能的法治化為達此目標就需要強化道德責任感的反思和批判功能。實際上,任何結構完善的新事物要取得不斷進步,都必須發展出此項功能才能夠健康地存續。在人工智能的發展中,法治化與道德責任是相輔相成的,二者共同構成人工智能發展的雙重基礎。兩個基礎分別關聯傳統與現代、理想與現實,體現民族特色與時代精神,給人工智能的現代生活提供不同的養分。

四、人工智能法倫理意蘊的厚度

在新時代,人民追求美好生活的愿望是我們共同努力的目標。如果人工智能不只在技術論的意義上進行把握,而是為了追求有意義、本真性和至善的生活,那么它的發展就可以實現對技術道德品性的實踐探索。在新的形勢下,人工智能的方式、意義和價值被“認識社會”的法倫理重新認識。盡管作為主體的“人工智能”擔負起了某種“認識社會”的功能,但它所體現的“所思”與“我思”之間,由于有了法倫理的厚度作為保障,認識社會和改變社會就不再只是個理論意義的話題。法倫理更關心的是,它是否具有認識論上的特殊性?獲取知識的方式是怎樣的?法倫理究竟是人的內省的還是指向外部世界的機器?這些問題也涉及一系列法學及哲學爭論,例如技術辯護的內在論與外在論之爭、認識論的理性主義與經驗主義之爭等。這種極具理論的問題意識和研究進路使得人工智能的法倫理意蘊具有內在價值的厚度。

(一)扎根中國大地的需要

盡管學術界對于人工智能的法倫理方面的觀點不一,但可以肯定的是,人工智能的法倫理建構是中國社會現代化必須做出的努力?,F代中國社會發生的重大變革或社會轉型離不開人工智能的法倫理建構。前者是事實判斷,后者是價值判斷??梢钥隙?在市場經濟以及上述諸多前提下生長起來的人工智能,具有法和倫理的兩種面向。按照馬克思主義的觀點,法的本質是一定的物質生活條件決定的統治階級意志的體現。倫理作為一種上層建筑,從屬于社會經濟基礎,只能從現實的各種關系中尋找自己的價值。因此,扎根中國大地,大力發展人工智能是社會主義法治建設的目的之一,也是倫理要求所決定的。

從根本上來說,在人工智能法律創制和法律利用的過程中,必然要在國家利益和個人利益、根本利益和非根本利益,長遠利益和短期利益、整體利益和局部利益之間作出取舍。這種取舍的過程就是價值選擇的過程。在人工智能發展的過程中,不可能毫無差別地反映不同主體的所有利益,也不可能在短期內將需要調整的利益通過法律形式體現出來。因此,人工智能的發展需要扎根中國大地才能發展,也必須扎根中國大地才能發展。當前,我們不僅要勾勒人工智能發展的政策框架,還要在具體的法律制度、倫理建構等問題上進行考慮。如果人工智能引起的各種問題面臨無法可依的困境,不但不利于人工智能技術的健康發展,而且會導致漠視公共利益。例如,在中國目前的法律中,由于對智能機器人的法律屬性、行為性質沒有明確定位,導致智能機器人做出超出其控制的不法行為,將不可避免地帶來法治困境。同時,人工智能機器人由于自我意識、自由意志和道德自律的缺失,一旦發生道德危機,不僅有違法律的公平正義,而且將引發倫理危機。

可以說,既有法治的存在,又有倫理的在場,是扎根中國大地發展人工智能的必然。因此,彰顯扎根中國大地的法倫理厚度體現了時代精神,尤其是中國特色社會主義市場經濟所要求的倫理精神。從法倫理品性上說,“法治”是整體本位的概念,“倫理”是個體本位的概念。人工智能的法倫理建構不僅意味著技術發展的秩序,也意味著人們對于人工智能倫理規范和責任的認可與接受。法治與倫理表面上對立,前者強調人工智能發展的“契約”,后者強調人工智能發展的“價值”,但是在實際問題的處理上,兩者是不能分離的。作為社會機體的一部分,人工智能不只是法治的存在,更重要的是價值的存在。在這個意義上的人工智能本性,可以稱之為人工智能的人文本性。

(二)增進人民福祉的要求

隨著大數據、虛擬現實技術的發展,人工智能由專用人工智能向通用人工智能變遷,推動社會結構性變革——智慧社會。智慧社會中的法倫理厚度超越技術限制,更加關注人的個體發展,通過人工智能的廣泛應用,跨越技術層面,提升到人民福祉層面,實現法倫理的本質。因此,人工智能的運用不只局限于某個特定技術的領域活動,而是通過人的知識體系、技能體系的培養,實現技術的正義或公正,在諸如情感、態度、價值觀的精神方面實現增進人民福祉的要求。

正是由于法治與倫理的作用領域不同,不能簡單地認為人工智能的發展由重法治轉向重技術。我們一方面看到,隨著現代化的發展,正義或公正的價值觀日益增強,這對于調節技術與社會之間的關系能夠發揮重要作用。但是另一方面,隨著技術對人的行為干預越來越智能化,法律、倫理等因素纏繞在一起,導致人工智能的發展受到一定的限制。我們以法倫理揚棄技術優先論,應該說在倫理精神的發展中具有內在合理性。在實踐的意義上它增進人民福祉,把人民福祉看成是人工智能的必然結果,并在法治和倫理的統一性上把握人工智能的發展,顯然賦予法倫理更多的,也是更具體的價值意義。在某種意義上,法倫理是對正義或公正的倫理精神的抽象性和外在性的揚棄,它賦予人工智能以更大的秩序和規范。

在增進人民福祉方面,人工智能日益先進。例如,“在實踐中,人工智能已可取代一些基礎性事務人員,使律師從繁雜的日常事務中解脫出來,讓其有更多精力專注于核心事務,尤其是對那些摻雜倫理因素、價值因素、情感因素的事務進行判斷”[11]。我們主張對于人工智能法倫理厚度的分析,在相當程度上是對人工智能的法治化與道德責任的“解釋”和“理解”。在這里,法倫理不僅在德性和正義的雙重意義上被闡釋,而且在法哲學和倫理學的雙重視野上被關照,其中倫理學的視野比法哲學的視野更加具有現實性。主要表現在,人們在人工智能的發展中不斷產生和變換對法律的需求,既自覺遵守法律對人工智能發展的要求,又認同人工智能對人們價值觀的影響,使得人工智能建立在優化的法律供給和人民需求的邊際之上。人民不僅僅需要穩定的工作、良好的教育、可靠的醫療等,也需要良好的智能技術。我們“要把促進社會公平正義、增進人民福祉作為一面鏡子,審視我們各方面體制機制和政策規定,哪里不符合促進社會公平正義的問題,哪里就需要改革”[12]。我們要清醒認識人工智能環境建設的重要性和必要性,以對人民群眾、對子孫后代高度負責的態度和責任,為人民群眾創造良好的人工智能法治環境和倫理規范。

五、結語

人工智能的法倫理向度是一種價值需要,在人類需要中處于顯性狀態。在人工智能的發展中,只有價值需要才存在這樣的問題:何時在人類的意識中生根發芽?在馬克思主義對人類社會發展規律認識中,從價值需要的研究出發探索人工智能進化的規律,這是時代賦予我們的任務。對人工智能法倫理認識的深度、人工智能善惡律的高度、人工智能涉及法律與道德之間關系的廣度、人工智能的法倫理意蘊厚度等四個方面共同構成人工智能的法倫理形態??梢哉f,人工智能的法倫理向度與空間建構的是善的價值,既不是法治論的,也不是倫理論的,而是以“法治—倫理一體化”為視野,以個體至善與社會至善為價值結構,以扎根中國大地和增進人民福祉為價值目標的現代技術論。那么,法倫理的自我生長能力和自我否定能力,就是人工智能的倫理內涵和法治表現的辯證互動和良性循環。因此,人工智能的可持續發展總是同時以法治和倫理的雙重方式呈現的。在技術的研究取得巨大成功的時候,價值顯現的視域和法治前提卻可能被遮蔽,這也是人工智能的法倫理形態探究目的所在。

猜你喜歡
法治化倫理道德
《心之死》的趣味與倫理焦慮
頭上的星空與心中的道德律
護生眼中的倫理修養
跟蹤導練(五)(2)
道德是否必需?——《海狼》對道德虛無主義的思考
家庭教育法治化的幾點思考
信訪法治化中的權利義務配置
國企改革法治化的“知”與“行”
推進基層社會治理法治化的思考
用道德驅散“新聞霧霾”
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合