?

人工智能法律人格否定論

2020-07-09 09:04姜淑明胡明星
新紀實 2020年1期

姜淑明 胡明星

【摘 要】賦予人工智能以法律人格,既缺乏必要性又缺乏可行性。按照當下的研究進度以及現有的研究方法,強人工智能根本難以實現;另外,若賦予強人工智能法律人格,將有可能對現有社會制度造成較大的沖擊,導致社會秩序陷入混亂。而弱人工智能運用和發展產生的法律問題均可以在現有法律制度框架內有效解決,同時因其難以產生獨立自主的意思能力,缺乏獨立的財產,也缺乏賦予法律人格的可行性。

【關鍵詞】強人工智能;弱人工智能;法律人格

能否賦予人工智能以法律人格?理論界紛爭不斷,有“肯定說”和“否定說”兩種對立的觀點?!翱隙ㄕf”內部存在不同的學說,有“擬制說”、“電子奴隸說”、“電子人格說”、“有限人格說”等?!皵M制說”認為需要運用法律擬制的方式賦予人工智能法律人格。[1]“電子奴隸說”將人工智能定性為電子奴隸,奴隸本身沒有權利和義務,沒有權利訂立合同,但是奴隸對外行為的后果由其主人承擔。[2]“電子人格說”認為,應當將人工智能認定為電子人,并且賦予該類電子人法律人格。[3]“有限人格說”認為,人工智能應當具有法律人格,但是其僅具有有限的權利,僅具有有限的法律人格。[4]“否定說”細分為兩派:“工具說”認為人工智能應當被定性為工具,不應當賦予其法律人格。[5]“軟件代理說”認為人工智能僅僅是智能軟件的信息傳遞者,不需要具有獨立的法律人格。[6]

“肯定說”在討論該問題時未能準確分析人工智能發展的趨勢,在強人工智能研究與發展的態度上過于樂觀;同時,忽略了哲學及倫理對于法律和法學觀點的影響,錯誤的認為應當賦予人工智能法律人格;夸大了人工智能發展中產生的影響。筆者認為,不能賦予人工智能以法律人格。

一、賦予人工智能法律人格不符合倫理性要求

(一)具有理性特質的自然人具有法律人格

從哲學上看,理性包括理論理性和實踐理性,理性不但包括基礎判斷力也包括演繹推理能力??档抡軐W理論認為,理性特質是自然人所特有的,由此得以將自然人與物進行有效區分。物具有相對價值,其本質屬性是手段,而具有理性特質的自然人的本質屬性是目的。[7]也因為理性,自然人與物有本質的區分。理性的目的是從現象向物自身前進,從不完整的經驗知識向全部經驗知識的大統一前進,所要達到的最高統一體就是理性的理念。自然人是一類特殊的存在,能夠產生意識,具有主觀能動性。[8]黑格爾提出,人類具有理性特質,人類的屬性是目的,并且人類依據自己的意愿做決策的行為就是自由。[9]自然人為了實現價值,必須要借助于一定的手段,手段必須依附于目的才能具有一定的價值,即僅具有相對價值;主體利用和改造客體,客體作為手段,其實就是主體的工具。物因為沒有理性,確定物為客體,其僅具有相對的價值,是主體改造世界利用的工具。自然人因具有理性而與物之間存在著涇渭分明的明顯界限,人類的地位高于其他存在的物。

(二)缺乏理性特質的人工智能不具有法律人格

人工智能屬于人工創造的物,自然人與人工智能之間的關系,也應當符合上述哲學分析。目前人工智能尚處于弱人工智能階段,人工智能運行的程序均由人為事先設定并調試,其在預先設定的規則或模式內行動,不具有主觀能動性。以阿爾法圍棋為例,圍棋也是一項規則性極強的活動,圍繞圍棋的規則而展開,并且阿爾法圍棋完全在人類事先設置好的規則內行動,阿爾法圍棋的優勢在于其高速的運行能力和海量的處理分析數據能力,尋找每一步最優的策略,而每一步的選擇都是人類事先輸入的數據,完全沒有自主學習、隨機應變的能力和獨立的意識。那么,當人工智能發展到強人工智能時是否可以作為目的?強人工智能的智能程度更高,并且有可能達到與人類近似的智能水平,具備產生獨立意思的可能。但是,強人工智能能否實現,尚存疑問;并且脫離自然人自身的人工創造物,即使具有一定的智能和獨立性,但相對于自然人,其也不能具有絕對價值,仍僅具有相對價值,仍舊是手段,而不是目的本身。故不論人工智能發展到哪一階段,均不能賦予其法律人格。因為,一旦賦予人工智能法律人格,將其放到與人類等同的地位,認定其也具有絕對價值,甚至讓其統治全地球,讓自然人成為其手段,則人類完全失去了價值,世界本身也將變得毫無意義。

二、缺乏賦予人工智能法律人格的必要性

現代民法具有法律人格的主體逐漸擴充,法律人格的范疇由自然人逐步擴展到了自然人之外的非生命實體,出現了“非人可人”的變革。法律人格具有明顯的抽象性。在適當情形下,法律人格可以突破倫理性的要求,賦予公司等社會團體法律人格。從邏輯上講,也可以將法律人格賦予自然人之外的如動物、公共群體等其他實體。但本文認為,通過法律擬制的方式賦予人工智能法律人格的做法不可取。

(一)缺乏賦予弱人工智能法律人格的必要性

就當前的研究情形而言,弱人工智能發展過程中產生的問題包括責任認定、責任承擔主體、確定責任的規則、生成內容著作權歸屬等均可在現有法律制度內予以有效解決。

(二)缺乏賦予強人工智能法律人格的必要性

在樂觀主義者的設想下,在不遠的將來強人工智能將全面的介入人類社會生活,因此,借鑒團體法律人格的經驗,基于社會現實需要,亟需突破倫理性的要求,賦予強人工智能法律人格。那么現有的關于人工智能的研究技術,能夠支撐強人工智能的實現嗎?答案是否定的。人工智能的研究方法包括結構模擬法、功能模擬法和行為模擬法,上述三種研究方法均存在明顯的局限性,如果研究方法沒有取得關鍵性的改變,強人工智能將難以實現。

所謂結構模擬法,即通過技術手段模擬人類的大腦皮層結構,以此來實現對于人類智慧的模擬。人腦科學研究表明,人類智慧的產生主要集中于大腦皮層,想要有效模擬人類的智慧,首先則應當了解人類大腦皮層的結構和機理。經研究發現,對于大腦皮層神經元結構的模擬主要有以下困難:首先,神經元的數量繁多,結構復雜;其次,人類大腦皮層的運行機制和原理不明確,導致即使完成了對于人類大腦皮層結構的模擬,仍缺乏使其自動運行的機制,仍難以實現模擬人類智慧的目的。

所謂功能模擬法,即通過計算機的功能來實現對于人類智慧的模擬。該方法的理論基礎是,人類大腦的功能與計算機的功能等效,因此可以通過編訂計算機程序的方法來模擬人類的智慧。該方法也存在著明顯的局限性。首先,運用計算機的功能實現對人類智慧的模擬,要求計算機具有充足的知識儲備,因為只有具備了充足的知識儲備,才能在面對問題和面臨抉擇時做出正確的決策。目前人工智能自主學習能力尚未實現,人工智能知識的儲備主要依靠人類手工輸入,手工輸入的方式效率很低,因此導致運用功能模擬法模擬人類智慧的時候人工智能容易出現知識儲備的嚴重不足。另一方面功能模擬法僅能模擬人類的“顯性智慧”,而對于人類的“隱性智慧”則難以模擬。人類不僅具有“顯性智慧”的能力,同時也具有“隱性智慧”的能力,“隱性智慧”能力和“顯性智慧”能力二者相輔相成、缺一不可,共同構成了人類的智慧能力。計算機僅具有形式邏輯運算功能,邏輯運算功能僅相當于人類智慧中的“顯性智慧”,即解決問題的能力,而難以對于人類智慧中的“隱性智慧”進行模擬,這也導致該研究方法僅適用于弱人工智能的研究,運用該方法難以實現生產制造強人工智能的目標。

所謂行為模擬,即人工智能對于任何的外界刺激,均能夠以合理的行為妥當的應對,就像人類表現的那樣。當人類面對外界刺激時,總能迅速的做出恰當的反應,例如天氣冷了,便添加衣服;駕駛汽車遇到紅燈時則停止,變成綠燈時再通行等。行為模擬要求人工智能具有很強的模式分類能力,首先要求系統能準確的識別外界的刺激,同時也要求其能迅速的根據刺激做出合理的行動。但是這一方法具有很嚴重的局限性,因為該行為模擬方法僅能模擬一些簡單的行為,而對于比較復雜的行為或者體現人本能的行為,則會顯得無能為力。

正因為如此,強人工智能的研究在經歷一段時期的高速發展后,美國、英國等國家分別就本國強人工智能的研究現狀展開評估,并出具了分析報告。評估報告的結果使強人工智能界的信心遭受了極大的打擊,并開始對強人工智能的實現產生了懷疑,甚至有部分專家改變了對強人工智能的樂觀態度,主動放棄了強人工智能的研究。英國、美國和歐洲其他國家的政府也紛紛減少了對于強人工智能研究的支持力度,許多正在進行中的強人工智能的研究項目因為缺少經費而被迫停止。在這種情況下,強人工智能研究界開始出現分裂,部分研究者轉變了研究的思路,不再積極投身于強人工智能的研究,而是開始了一類名為增強人類智能的研究,該研究將人工智能明確的定位為協助和輔助人類的工具,人工智能只是增強人類智能的手段。強人工智能的研究面臨著多重的困難,強人工智能難以成為現實,缺乏賦予強人工智能法律人格的必要性。

三、缺乏賦予人工智能法律人格的可行性

如果賦予人工智能法律人格,將打破法律世界主客體二元結構,在人工智能與人類形成的法律關系中,人工智能與人類將處于平等的法律地位。那么在這種情形下,當人類與人工智能產生利益沖突時,該如何處理?無疑這將對現有成熟的民事法律制度造成顛覆性的沖擊。

(一)缺乏賦予弱人工智能法律人格的可行性

假設賦予弱人工智能法律人格,弱人工智能將一定程度上獨立自主的參與法律關系,而參與法律關系以具有相應的意思能力為前提。而弱人工智能難以產生獨立意思能力。弱人工智能的主要功能在于解決特定的問題,其主要能力體現在邏輯運算和推理方面,缺乏動機、情感等非邏輯運算和推理的功能。動機的缺乏,使得弱人工智能的行為難以被認定為民法上的意思表示行為,因為其行為不具有目的意思和效果意思。從形式上看,弱人工智能可以通過某些行為表示某些意思,例如簽訂合同等,但其行為實際上僅僅是在執行設定的程序而已,弱人工智能難以真正理解其所從事行為的真實意思,因此弱人工智能難以產生必要的意思能力。其次,弱人工智能缺乏承擔民事責任的能力。作為法律主體,應當遵守法律的規定,不得侵害他人的合法權益,但是如果侵害了他人的合法權益,則應當承擔相應的法律責任。僅從民事責任而言,成為民事主體需要具備承擔民事責任的能力。很顯然,弱人工智能缺乏承擔民事責任的物質基礎,其一般不擁有財產,在特殊情況下弱人工智能可能會擁有一定的財產,但是其作為所有人或使用人控制下的工具,所獲得的財產也應歸屬于其所有人或使用人。故此,因弱人工智能不具有獨立的意思能力和獨立的財產,無法賦予其以獨立的法律人格。

(二)缺乏賦予強人工智能法律人格的可行性

討論是否應當賦予強人工智能法律人格,應當持有一種特別謹慎的態度。因為賦予強人工智能法律人格需要對現有法律制度進行顛覆性的變革,在理論和實踐基礎并不牢固的情況下,在不能有效的評估賦予強人工智能法律人格將會產生怎樣社會影響的情況下,不應當貿然的嘗試賦予強人工智能法律人格。如果單純因為需要杜絕強人工智能被濫用等情況的發生,完全可以參照關于動物保護等的規定,建立健全相關法律制度,強制性的要求人類善待強人工智能即可實現,而不必賦予其法律人格。

綜上所述,就當前的情形而言,人工智能運用和發展產生的法律問題均可以在現有法律制度和框架內有效解決。

參考文獻:

[1]楊清望,張磊.論人工智能的擬制法律人格[J].湖南科技大學學報(社會科學版)2018(6).

[2]SusanneBeck.Theproblemofascribinglegalresponsibil

ityinthecaseofrobotics[M].AI&Soc,2016:473-481,31.

[3]郭少飛.“電子人”法律主體論[J].東方法學2018(3).

[4]袁曾.人工智能有限法律人格審視[J].東方法學2017(5).

[5]郝鐵川.不可幻想和高估人工智能對法治的影響[N].法制日報,2018-1-3(3).

[6]SusanneBeck.Theproblemofascribinglegalresponsibi

lityinthecaseofrobotics[M].AI&Soc,2016:473-481,31.

[7]卡爾·拉倫茨.德國民法總論[M].王曉曄等譯,法律出版社,2003:45.

[8]郭大為.費希特與主體間性問題[J].北京大學學報(哲學社會科學版),1999(3):103-104.

[9]黑格爾.歷史哲學[M].王時造譯,上海書店出版社,1999:73.

91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合