?

人工智能產品的法律人格問題研究

2018-01-22 05:22劉新慧
職工法律天地 2018年24期
關鍵詞:人格人工智能法律

劉新慧

(201701 上海政法學院 上海)

一、引言

人工智能的領域涉及計算機技術、數學、信息學、倫理學、神經生物學、語言文字學、哲學等學科領域的交叉以及融合。隨著相關學科和研究范圍的發展,人工智能的概念與外延也在不斷變化著。目前,人工智能就是指那些以軟硬件的相結合來達到像人類一樣處理事件的智能系統。

二、人工智能的概念、發展及其風險

(一)人工智能的概念

首先從字面上就可以將人工智能分為兩個部分,即“人工”與“智能”?!叭斯ぁ北容^好理解,就是指通過人來操作或制造;但是對于什么是“智能”,學界對其爭議就比較大了,不同的學科對它有著不同的定義比如哲學、經濟學、心理學、計算機等學科都有著自己的“見解”。但是從法律角度可以這樣理解:人基于自身的意志,制造或操作某些工具,從而在無人或者少人的狀態下達到預期效果的系統。這其中“人工”體現了人類在其中的參與;而“智能”則體現了人在意志表達下所展現的效果性,這一特征又是其被法律調整的目的之體現。所以“人工”是“智能”的內在前提,“智能”是“人工”的外在表現。綜上所述,人工智能在法律層面的定義可以這樣來表述:人工智能產品就是生產并投入市場使用該系統的具體商品。

(二)人工智能的發展

人工智能的發展在近十年來可以說是突飛猛進,尤其是在無人車方面:在國外,英、美、法、德、日等多個國家都相繼參與對無人駕駛技術的研發,其中以Google、Uber、Tesla、等企業處在無人駕駛系統研發的第一行列。而在國內目前無人駕駛汽車技術的研發也步入快車道,眾多知名企業參與,互聯網企業如:百度、騰訊等,車企參與的有上汽、比亞迪、吉利等。并且自動駕駛公交阿爾法巴已經在深圳正式投入使用。近期關于人工智能最有爭議的新聞莫過于2017年10月一家名叫漢森的人工智能機器人公司所生產的人工智能機器人索菲亞(Sophia),已經正式被沙特阿拉伯授予了公民身份,這標志著全球第一個具有公民身份的人工智能產品正式出現??梢?,人工智能在近年來的發展越來越快,并且涉及到各個行業。

(三)人工智能的風險

電影不只是娛樂的載體,有時候更多的是創作者思想的表達。人類對于人工智能技術的恐懼與擔憂便以電影的形式體現出來:從最初1968年的科幻史上的鴻篇巨制《2001太空漫游》,再到《黑客帝國》系列,以及直接反思未來人工智能機器人和人類之間對抗的《銀翼殺手》都表達出人類對人工智能技術的擔憂:那就是人工智能很可能會取代人類,因為有了自我意識的人工智能較之人類這個物種來說有著壓倒性的優勢。人工智能幾乎有永恒的生命,且人工智能系統可以儲存自己的意識在任何一臺電腦上,而不必像人類一樣被肉體所束縛,所以死亡對于人工智能而言將不復存在??梢?,當下世界的主流觀點對人工智能的發展存在著較大擔憂。但科技的發展是不可逆的,盡管有不久前剛剛發生的Uber公司的無人駕駛汽車在測試中與一名橫穿馬路的行人相撞并致其死亡這種極端的例子,但是無人駕駛汽車同樣給人類帶來諸多益處,比如可以直接消除每年因醉酒駕駛導致人員傷亡的損失,在提高道路安全性的同時也挽救了很多人的生命。所以我們能做的就是有在人工智能發展的路上盡可能的小心翼翼,就科學界而已,科學家們應當最大可能的保障人工智能產品的安全性,但只有這樣是不夠的,整個社會必須構建完善的法律監督監管體制來應對可能發生的各種狀況,由此可見,對人工智能法律的完善是多么的重要,因為它肩負著安全的最后一道防線。

三、人工智能的法律人格制度缺位

所謂法律人格就是指法律認可的一種享受權利、承擔義務的資格法律擬制的主體,現代法律制度主要賦予自然人和法人以法律人格。對于自然人,其權利的享有以及義務的承擔一般是從出生開始到死亡結束。但對于法律所擬制的主體,其享有的人格權則需要經過嚴格的法律規制才能獲得[1]。另外人格權是指為民事主體所固有而由法律直接賦予民事主體所享有的各種人身權利。最后,人格權還是一種專屬權,即他人不得代位行使。盡管世界各國的民法體系中都對自然人及法人的法律人格做了詳盡的描述及限定,但對于人工智能是否具有法律人格或者具備什么程度的法律人格依然沒有明確的規定。

(一)缺乏法律倫理的支撐

古往今來,往往一項具有劃時代特性的技術被研究出來后都伴隨著各種爭議。二十世紀從第一只克隆羊多利的誕生便因克隆技術產生了巨大的爭議,因為爭議過于巨大,于是在1997年聯合國教科文組織便制定了《人類基因組與人權世界宣言》且明確予以規定:禁止生殖性克隆人類,隨后各國也都制定了大致相同大法律嚴格禁止將克隆技術用于人類。當時的國際社會對于克隆人是否具有法律人格時直接予以法定,但對于人工智能,現行法律法規對是否具有人格權時卻含糊不定,沒有明確的規定。

(二)法律地位的模糊不清

鑒于目前對人工智能法律人格沒有明確的規定,致使其法律地位也模糊不清。假如人工智能可以直接適用人權理論體系制度,那么是否就意味著人工智能的法律地位等同于人類?如果是的話,享有婚姻權的人工智能一旦與人類結婚,那帶來的將是對現行法律體系以及人類倫理道德體系巨大的沖擊。但是即使未來發展到了人工智能具有獨立的思想,可以獨立自主的學習甚至生活的地步,筆者認為也不應該賦予其相應的法律人格,因為我們人類區別于其它物種最大的地方就是是否具有獨立的情感以及思想,一旦人工智能也具有了與人類同等的法律地位,那就是等于承認人工智能也成為了地球上新的物種。所以我們該如何區別人工智能法律人格與人類的法律人格,這都是目前相關法律不明確所留給我們需要彌補的地方[2]。

(三)缺乏具體的相關準則

人工智能在短期內對社會造成的影響取決于誰能夠操控它,而從長遠來看則是人工智能會不會愿意接受被控制。有學者實地對廈門、廣州進行考察調研:目前廈門、廣州倆地的人工智能產品由廈門和廣州的市場監管委進行監管及其審批,但申報的類目卻是玩具類,所有對人工智能相關的申報材料標準均按照相應玩具類標準來申報,并且在海關進出口項目表上也沒有人工智能這一項。所以,將人工智能作為玩具來進行分類,實在無法起到對人工智能產品的有效監管。

四、人工智能的法律人格制度可行性探討

建立完善的人工智能法律法規不僅能有效的促進人工智能產業的發展與生產,也能及時準確的對其進行監管,因此首先需要解決的一個問題就是人工智能應不應當被賦予法律人格。

(一)人工智能法律主體性質的特殊性

學界對于人工智能的性質一直沒有定論。大致有三種學說:工具說、代理說、電子奴隸說。工具說認為人工智能只是一件用來為人類服務的工具而已,所以不應當具有獨立的人格權。代理說認為人工智能所做出的一系列行為均只是受人類操控而已,其不具有獨立的人格權,其所做出的行為導致的任何法律結果都應由其操控者來承擔[3]。電子奴隸說認為人工智能及其產品就像奴隸一樣不應該有任何權利,只要為人類服務就好。上述觀點放在多年前還說的通,但在目前來說每種說法都有缺陷,其共同點在于:隨著科技的發展人工智能將越來越具有獨立的意思表示能力,獨立的情感甚至思想,并且科學技術的發展都是不可逆的,無論它最終導致的結果是好是壞。而一旦人工智能具有了獨立的思考能力以及行為能力,那代理說顯然是不成立的,因為人工智能所做出的行為并不一定都是人類下達的指令。而一旦人工智能具有了情感,在倫理道德的框架約束下我們也不能將其視為工具、奴隸,因為一旦到了那個時候人類甚至會疑惑該不該將具有獨立思考、行為、情感的人工智能視為新的物種了。所以,不能簡單的對人工智能的性質下定義。筆者認為應該將人工智能定義為具有獨立思考和獨立行為能力的智慧工具。

(二)人工智能可以享有法律權利

未來隨著我們將更多工作移交給人工智能,最后可能需要面對的是人工智能的權利問題。盡管當下有很多人提出了這個問題,但在這之前,大家最為關心的仍然是人工智能的危險性問題。阿西莫夫的“機器人學的三大法則”首次出現在1942年的短篇小說《環舞》中,它的規則如下:①機器人不得傷害人類。②機器人應當服從人的所有命令,但不能違抗第一法則。③機器人還應該保護自身的安全,但是不得與第一和第二條法則所抵觸。盡管已經過去70年了,但“阿西莫夫法則”依然被該系列小說視為經典教條,甚至在電影中也廣泛應用。2014年1月,谷歌正式收購DeepMind時,作為交易的一部分美國政府對其規定,谷歌必須成立人工智能倫理委員會,其目的是確保對人工智能技術的明智使用,其宗旨就是在開發利用人工智能的同時,必須嚴謹對待人工智能可能對人類帶來的危害。

現在的科學技術條件下,人工智能已經可以像人一樣管理公司以及訂立合同,甚至可以根據自己的分析處理來做出決定。如此人工智能可不可以要求權利,比如賦予自己姓名、保護自己健康的權利?以及在超負荷工作的情況下可否要求休息的權利?依據斯通納的觀點,一個主體能否擁有法律權利須滿足如下條件:①首先該主體可以自己主動提起法律訴訟。②司法機關在決定給予法律救濟時應當考慮到相關主體的損害情況。③所實施的法律救濟必須滿足它的利益要求。在本質上人工智能依然是工具,但這種人工智能產品很可能價格不菲且承載著其擁有者的情感。比如陪伴失去至親獨自在家的孤寡老人的陪伴型機器人的記憶系統如果被他人損壞,那對于該老人來說就是一種損失,因為對于他來說,這個人工智能產品就像自己的親人一樣。另外法律救濟滿足人工智能的利益要求,比如排除妨害等都是可以適用的。由此不難看出,人工智能是滿足以上關于能否作為法律權利的要求的。因此,人工智能應該被賦予權利。

(三)人工智能必須承擔法律責任

1989年夏天,前蘇聯赫赫有名的國際象棋冠軍尼古拉·古德科夫在莫斯科挑戰一臺名叫M2-21的超級電腦,在對弈的第六天后,尼古拉·古德科夫以3∶0的大比分戰勝了這臺電腦。勝利的古德科夫自然是洋洋得意,并且做起了一系列慶祝動作。但這時電腦顯示屏確閃起了紅燈,也就在此時古德科夫突然一聲慘叫然后就倒在了金屬棋盤上,并且尼古拉·古德科夫不斷有青煙從身上冒起。等到醫生趕到時,尼古拉·古德科夫已經死亡。在后來警方認定,M2-21電腦因為輸棋而氣急敗壞,從而自行主動改變了程序,并向金屬棋盤釋放了足以將人電死的電流,故意殺害了尼古拉·古德科夫。由此可見隨著人工智能技術的不斷提高,其依靠自身的自主意識做出的不可預測的行為將會越來越不可控。由此導致的危害結果往往是由人類來承擔,現實生活中,人類都要為自己的行為負責,更何況是作為工具的人工智能。那么如果人工智能產品犯罪呢,它該如何承擔責任呢?筆者認為人工智能作為一種擁有獨立意識并且可因此做出意思表示的智慧實體,首先在人工智能產品的研發上必須設計為具有可以承擔責任并且可以對自己做出的行為是否正確進行驗證的實體,這其中包含開發相關操作數據的全留存以便人工智能發生侵權行為后查驗、盡可能的將人工智能相關數據做的透明化,使大眾可以隨時查詢,以及盡可能的減少人工智能不可控情形的發生從而減輕相應的法律責任。

五、有限的人工智能法律人格制度建設

用法律手段來調整生命社會關系,應當是最有效、最穩定、最普遍的。我們從人工智能的特征可以看出,人工智能具有獨立的自主意識并以此做出意思表示,那么它就具有法律主體資格,但這種法律主體所取得的人格權并不是完全的,因為人工智能并不能完全算是擬制的法人,所以人工智能所承擔的法律后果也應該是有限的。因此在人工智能法律人格有限的基礎下,我們應當制定合理且有針對性的法律制度。

(一)國外人工智能的立法借鑒

國外立法已經在人工智能具有有限法律人格的基礎上對其做出了一些立法嘗試。首先,人工智能方面的立法者與執法者必須使得人工智能的操作系統不能被濫用,相關法律的規定必須即有效的發展人工智能技術又要確保公民隱私得到妥善保護。歐盟各國在2016年就通過了《一般數據保護條例》,相關各國就加強了個人隱私和數據的保護,這其中就對用戶畫像等自動化決策做出了相關的規定,即用戶有權拒絕企業對其進行畫像等自動化決策,而且用于用戶畫像的數據不能包括用戶的種族根源、政治傾向、宗教信仰、基因情況、生理表征等特殊類別的個人隱私數據。如今我們每個人都處在“大數據”的洪流中,個人數據已經具有重要的商業價值,甚至直接關系我們的人身安全,當下利用人工智能在網絡上非法竊取個人隱私的案例比比皆是。人工智能系統在個人數據方面的使用必須嚴格遵循規范,如果濫用數據或私自窺探隱私將受到法律的懲罰。所以我們在人工智能技術的發展上,首先應該考慮的是該發展產物能否保障公民的數據和隱私不被侵犯,而不是一味地癡迷于科技發展。

(二)人工智能產品有限的責任分擔機制

一方面對人工智能的法律地位進行嚴格的鑒定,另一方面更應該明確如果人工智能發生侵權事件時判定相應法律責任的準則。聯合國教科文組織與世界科學知識與技術倫理委員會提出的解決方法是可以采取責任分擔的方式,讓所有參與人工智能產品的研發、生產、授權和配置過程的人來分擔責任。這種制度設計的初衷,是迫使以及督促人工智能產品系統的設計者、參與者、生產者能夠提前主動地履行應盡的安全性義務,使得受害者能夠找到賠償主體。另外為了保障人工智能產品發生侵權事件后是可以被相關司法機構追責的,人工智能操作系統一定要具備程序層面上可被追責的依據,以此來證明人工智能系統的運作方式是否合理合法。

(三)我國應加快制定《人工智能發展法》

機遇與挑戰并存,不難看出,人工智能已經進入高速發展的道路上了,在不久的將來,人工智能技術會被利用在各行各業,甚至會出現在很多高技術行業,包括軍工產業和航天領域,所以為使我國不在這場技術革命中落后于世界,我們國家急需加快人工智能相關法律法規制度的建設與完善,尤其是加快制定專門的《人工智能使用法》。授權立法者成立專門針對人工智能系統相關問題的機構來創設相對完善的人工智能責任承擔規則?!度斯ぶ悄馨l展法》的立法宗旨包含:①首先堅持以人為本的基本原則,由立法者授權建立“人工智能倫理委員會”,通過制定一系列的規則,來確保人類社會的倫理道德不受人工智能帶來的破壞。②對人工智能的操作系統建立完整的監管體系,來確保人工智能從研發到生產都處在嚴格的監督中。③明晰發生侵權事故后各方的法律責任,恰當且及時地根據人工智能的發展前景做出法律上的調整和規范來確保人工智能的發展始終處在正確的道路上。以及確立嚴格的強制責任保險投保制度,確保各方利益尤其是受害者的利益能夠得到及時的保障。④明晰公民個人數據及隱私得到有效保護,確保人工智能系統對網絡大數據合法的使用。⑤加強對人工智能知識產權的有效保護,以明確的法律條款為支撐,使科研人員更好的開發以及獲得人工智能相關領域的專利保護。⑥還應當開展國際間的人工智能開發及應用合作。尤其是人工智能的法律法規以及倫理道德相關問題的研究,來共同處理不久的將來人工智能帶來的危機與挑戰。⑦最后我們還應盡快制定《人工智能產品的倫理道德章程》以此作為人工智能系統及產品研發、應用的道德基礎。

六、結語

展望未來,人工智能無疑將是人類在近現代以來最具開放性的創新,世界也因此開啟一場關于人工智能技術的巨大變革,對于我們來說這或許不亞于第二次工業革命,又或許,變革已經開始了。人工智能革命對現有法律、社會政策和倫理道德的沖擊也才剛剛開始,伴隨人工智能技術的不斷發展與完善,我們人類自身的知識創新也需要跟進甚至超前,理論和制度的創新尤為重要。最后,期待我們整個社會能夠把握和利用好人工智能技術,因為它在帶給社會便利的同時,也會促進社會的進步。筆者相信在不久的將來,科學技術的智慧之光與法律制度的理性之光,將在人工智能時代交相輝映。

猜你喜歡
人格人工智能法律
列寧的偉大人格及其當代意義
共產黨人的人格力量
法律解釋與自然法
遠去的平凡背影,光輝的偉大人格
法律講堂之——管住自己的饞嘴巴
2019:人工智能
人工智能與就業
數讀人工智能
下一幕,人工智能!
讓人死亡的法律
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合