?

規范人工智能的思考

2020-10-21 00:03姜淑明胡明星
大東方 2020年3期
關鍵詞:人工智能

姜淑明 胡明星

摘 要:因為缺乏賦予人工智能法律人格的必要性與可行性,人工智能僅作為一種法律關系的客體而存在。但人工智能卻有其自身的特殊性,有別于一般的法律關系客體。因此,規范人工智能的運用和發展必須遵循以人為本的發展理念,明確其法律客體地位和責任承擔規則,并明確人工智能生成作品的著作權歸屬。

關鍵詞:人工智能;法律關系客體;法律人格

人工智能按照字面意義理解即人類所制造的智能,與此對應的智能稱為自然智能。所謂自然智能,即自然進化所形成的智能。人類智慧是地球上迄今為止最高級的智能,因此人類智慧是自然智能的典型代表。關于人工智能至今沒有統一的定義,不同學者對人工智能做出了不同的界定。以色列刑法學家Gabriel將人工智能定義為一種軟件系統,該軟件系統借助于載體,比如計算機等,可以實現對于人類思維的模擬。美國計算機科學家Stuart和Peter將人工智能進行了區分,人工智能包括認知體系和行為體系兩個方面。美國的溫斯頓教授將人工智能定義為具有類人行為能力的計算機。鐘義信教授指出,人工智能就是指人類所制造的智能,也就是機器的智能。本文認為,所謂人工智能即人類在通過分析、研究人類智慧的基礎上,人為制造的具有類似人類智慧能力的實體,該類實體能夠以類人的方式思考和行動,可以輔助并增強人類的智慧和行動能力。

廣義上的人工智能包括人工智能學科、人工智能軟件、人工智能體。本文所稱的人工智能乃人工智能體,即具有類似人類智慧和行動能力的人工智能實體,例如擬人機器人、機器手臂等實體形象。其具有主要有以下幾個特征:第一,人工屬性。人工智能非自然界天然孕育產生的,是由人工創造并制造出的產物,沒有生命,其發展水平由人類的知識水平決定,其存在的價值在于滿足人類的需求。人工智能的本質實際上是一種機器裝置,而其與一般的機器裝置相比,最大的不同點在于,其安裝了人工智能系統軟件或芯片等控制系統,可以實現各種目的性的工作,而人類則是基于自身的生物性和智慧性來完成特定工作。第二,工具性。人工智能系人類發明創造的產物,人類發明人工智能的目的在于希望借助人工智能不斷增強自身的智慧能力,人工智能存在的價值在于為人類服務,不論是強人工智能,還是弱人工智能,不論其智能程度的高低,均不能改變其工具屬性。人類與人工智能之間是不平等的關系,人工智能將永遠的處于人類的控制之下,完全不受人類控制的人工智能將不會被允許存在,同時人類也會采取各種措施嚴格限制該類人工智能的存在。第三,智能性。人工智能與普通機器設備最本質的區別在于具有智能,普通機器設備完全不具有智能,人工智能具有一定程度的智能,可以承擔部分或者全部以前需要人類才能完成的工作。人工智能擁有像人類一樣思考或者行動的能力,甚至在某些方面擁有超越人類的能力。人工智能智能水平的發展規律是由弱到強,呈現逐步增強的趨勢,人工智能的發展目標是使人工智能的智能水平不斷提升,最終達到與人類智慧相近的程度。第四,實體性。人工智能應當是客觀實際的存在,人工智能應當體現為兩個部分的有機結合,一部分是具有認知和演繹推理決策能力的指揮控制系統,體現為軟件或者芯片等,另一部分是接受指令,實現特定行為的行動系統,體現為一定的實體,例如機器人、機器狗等。軟件等作為電子數據具有一定的虛擬性,但是人工智能的行動系統一定具有實體性,而只有兩部分的完美組合,才能構成一個統一的人工智能,因此人工智能具有實體性。

隨著科學研究的不斷深入,人工智能的智能水平呈不斷增強的趨勢,阿爾法圍棋是現階段弱人工智能的典型代表,在阿爾法圍棋現有研究的基礎上將發展出一類具有更高智能水平的人工智能,我們稱其為強人工智能。弱人工智能專用于受限領域和專用于解決具體問題,而強人工智能具有通用性,其運用于非受限領域和非專用于解決特定問題,強人工智能又被稱為通用人工智能。自然人因具有理性特質而被法律賦予法律人格,而人工智能因為缺乏賦予法律人格的必要性和可行性,因而不能運用法律擬制技術如法人般賦予其獨立法律人格。因此規范人工智能的運用和發展迫在眉睫。

一、遵循以人為本的發展理念

規范人工智能的運用和發展,應當確立以人為本的發展理念。在確定規范人工智能的一般原則時,需著重考慮有效防范風險、人類利益優先、人類利益最大化等因素。明確人工智能的法律地位為法律客體,人工智能在實質上僅是人類使用和利用的工具,因此規范人工智能的運用和發展應堅持以人為本的原則,采取頂層設計和底層評價相結合的方式。所謂頂層設計即注重頂層設計,設定某些道德原則或者理論行為作為判斷人工智能行為正確與否的標準。所謂底層評價則是創造一定的自由環境,對于人工智能正確的行為予以獎勵,錯誤的行為予以懲戒,以此來開發人工智能的道德敏感性,在日積月累中逐漸培養人工智能的道德能力。

以人為本理念的確立,應采取如下舉措。首先確認人工智能的基本道德原則。參考美國作家艾薩克.阿西莫夫關于“機器人三定律”的內容,明確以下三方面的內容:一是人工智能不得危害人類的安全。人工智能具有工具屬性,人類制造其的目的,在于希望運用人工智能這一工具,實現人類社會的繁榮和美好。人工智能的發展既不得危害人類的生命安全,也不能動搖人類的地位和侵害人類的權利。二是人工智能必須服從人類的指令。要明確人類對于人工智能的絕對控制地位,不允許有不受人類控制的人工智能的存在。故此人工智能難以產生獨立的自主意思。三是不得放任人工智能危害人類安全的行為。對于人工智能遵循基本的道德原則和行為標準的行為予以肯定,對于人工智能不遵循基本的道德原則和行為標準的行為予以否定,并采取懲戒措施。

二、明確人工智能法律客體地位

主體與客體是相互對立的兩個概念,并且是非此即彼的關系,不存在有既是主體又是客體的存在,主體與客體之間存在著難以逾越的界限。在自然人與自然的關系中,具有理性特質的自然人是主體,而不具有理性特質的其他存在則是客體,主體具有自由的意志,能夠依據主觀能動性主動的做出決策和行為,而客體則不具有自由的意志,處于被動的地位,客體是主體行為或施加影響所針對的對象。法律主體和法律客體均是法律層面的概念,僅在法律上具有意義。法律主體是指享有法律權利和承擔法律義務的主體,法律客體是指法律主體行為所指向的特定對象。法律客體具有以下特征:第一,合法性,并非所有現實存在的物體均可以視為法律上的客體,法律上的客體應當具有合法性,不具有合法性的物體,不能成為法律客體,比如毒品等。第二,可控性,法律客體應當是能夠被人類所認識和控制的,如果不能被人類所認識和控制則不能認定為法律客體。作為法律主體行為所指向的對象,法律客體應當是能夠被支配的,如果超出了人類支配的范圍,則不能成為法律客體。第三,有價值性,法律客體應當具有一定的價值性,沒有價值的物體,不能成為法律客體。第四,獨立性,法律客體應當是獨立存在的,如果不是獨立存在的,則不能作為法律客體。因此,人工智能不具有獨立自主的意思能力,僅是在預先設定的程序范圍內進行簡單的數據輸入和輸出,人工智能不應當被認定為法律主體。但人工智能具有價值,能夠被人類所認識和控制,具有合法性和獨立性,符合法律客體的基本特征,人工智能是一類特殊的工具,應當被認定為法律客體。

三、明確人工智能致人損害的責任承擔規則

人工智能與傳統的機械設備有較大的差異,人工智能因智能水平更高,相對的擁有更多的自主權,同時介入人類社會活動的程度更為深入,范圍更為廣泛。人工智能的廣泛運用,在帶來高效和便捷的同時,不可避免的有損害人類合法權益的可能。人工智能致人損害如何確定責任主體,是由人工智能本身承擔?還是應該由人工智能的研發者、生產者、運營者等承擔?在人工智能不具有法律人格的情況之下,筆者認為人工智能致人損害責任的性質應當被認定為產品責任,承擔責任的主體應當是人工智能的研發者、生產者、運營者等,人工智能不能成為承擔損害責任的主體。人工智能致人損害的歸責原則有過錯責任和無過錯責任,對于人工智能的所有者、使用者、運營者承擔過錯責任,對于人工智能的生產者、研發者承擔無過錯責任。有觀點認為,這樣的責任分配方式將會在一定程度上加重人工智能研發者、生產者及運營者等的法律責任,影響技術創新、發展的積極主動性,并且導致人工智能致人損害法律責任最終由程序員來承擔。為了促進人工智能的研究和運用,適當減輕人工智能的研究者、生產運營者等的法律責任,應當建立健全人工智能保險制度和賠償基金制度,這一舉措既能保障受害者所受到的損失能夠得到有效的補償,同時也能不影響研發者、生產者及運營者研究和運用人工智能的積極性。

四、明確人工智能生成作品的著作權歸屬

2017年5月,一款人工智能機器人創作了一本名為《陽光失去了玻璃窗》的詩集,該詩集經出版公司正式出版發行,該機器人有一個文藝的名字,即“小冰”。該詩集具有重要的意義,因為這是第一本由人工智能創作的詩集。這一事件引發了法學理論界的熱烈探討,人工智能創作的內容是否符合作品認定的標準?如果認定人工智能創作內容符合作品認定標準,則該作品的著作權應當歸屬于誰?本文認為,在人工智能不具有法律人格的前提下,人工智能生成內容是否屬于作品,應當依據著作權法關于作品認定的標準來進行,如果按照著作權法的規定可以被認定為作品,則屬于作品。人工智能創作產生的作品,其著作權歸屬人工智能的研發者、生產者、運營者或者所有者等,其著作權不能歸屬于人工智能,但是人工智能可以擁有署名權。有觀點認為一方面認定人工智能生成的內容屬于作品,但是另一方面又認定其不享有著作權,這樣在邏輯上存在矛盾。本文認為這并不矛盾,因為在著作權法上作品的創作者不是作品的著作權人的情況并不少見。

五、加強個人信息保護

在信息技術高速發展的今天,信息數據的傳播速度不斷加快,個人信息的使用頻率不斷的提升,均增加了個人信息被泄露的風險。人工智能的研究和運用需要大量的數據作為支撐,而所使用的數據中就包括了部分的個人信息數據和隱私,如果對于數據的使用不當,就有造成個人信息和隱私被泄露的風險,因此如何規范個人信息的使用和保護,具有重要的意義。就個人層面而言,現在的許多電子產品均有自動記錄個人相關數據的功能,比如位置定位等,許多的網站或者APP要求用戶在進行注冊時輸入個人相關信息,包括姓名,出生日期和手機號碼等,這些均有泄露個人信息和隱私的可能。因此在日常生活當中,應當時刻注意個人信息的保護,不在陌生的網站和APP上進行注冊,并不要輸入個人的重要身份信息等。就企業層面而言,應當牢固樹立保護個人信息的意識,深刻認識到保護用戶個人信息的重要性。采取必要的安全措施,保護用戶的個人信息安全,防止用戶個人信息被泄露,或者被他人非法的竊取。建立健全內部管理機制。就國家層面,應當加快制定個人信息保護的立法工作,美國、歐盟都均已經制定了關于個人信息或隱私保護的相關法律規范,我國可以在吸收借鑒的基礎上,結合我國的實際情況,加緊制定我國的個人信息保護或隱私保護的法律規范,新的《中華人民共和國民法典(草案)》正在如火如荼的討論當中,新法典將為個人信息與個人隱私的保護提供強有力的法律依據。

參考文獻

[1]Gabriel,H.The criminal Liability of artificial intelligence entities-from science fiction to legal social contro[J].Akron Intellectual Property Journal,2010,2(2):171-175.

[2]Stuart,J.R.Peter.N..Artificial Intelligence:A Modem Approach [M].3rd ed.Upper Saddle River,NJ:Pearson Education,Inc,2009:4-5

[3]林夕.人工智能時代下的教育遐想[J].教育實踐與研究,2017,21;1-1.

[4]鐘義信.人工智能:概念?方法?機遇[J].科學通報,2017,62(22):2473-2479.

作者簡介:

姜淑明(1963-,女,湖南師范大學法學院副教授) 胡明星(1989-,男,望城縣人民法院)

(作者單位:1.湖南師范大學法學院;2.望城縣人民法院)

猜你喜歡
人工智能
人工智能AI
人工智能
人工智能之父
2019:人工智能
人工智能
人工智能與就業
China’s Artificial Intelligence Revolution
數讀人工智能
人工智能時代,就業何去何從
下一幕,人工智能!
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合