?

人工智能刑事主體地位的否定和反思

2024-05-10 04:13馮浩然
江西警察學院學報 2024年1期
關鍵詞:設計者刑罰使用者

馮浩然

(武漢大學,湖北 武漢 430072)

一、問題的提出

隨著ChatGPT 等人工智能產品的迭代,如何對人工智能進行準確定位和有效法律規制的理論問題日益突出。2017 年,國務院《新一代人工智能發展規劃》 明確提出我國人工智能技術將進入一個全新的發展時期,在此基礎上也揭示了人工智能在社會發展與經濟發展中的關鍵地位。但是,我們既要意識到人工智能的社會影響日益凸顯,在智慧校園、智慧農業、智慧醫療、智慧運輸等民生領域發揮正向的作用,也要意識到個人信息、數據安全和隱私泄露、人工智能作品知識產權的保護、人工智能產品造成他人人身傷害或者財產損失的民事法律責任、人工智能產生的刑事風險等一系列社會倫理以及法律問題已經顯現出來。人工智能的快速發展給刑事法律制度帶來了一系列挑戰,其中最重要的就是刑事責任分配的問題,相較于研究設計和使用人工智能的自然人是否可以成為刑事責任的承擔者,人工智能本身是否具有刑事責任主體的資格更是一個應該研究的基礎性問題。

目前,歐美主要國家針對人工智能領域的責任問題已經逐步形成了共識,并且在現實世界中在發揮著作用。2016 年,JURI 發布European Civil Law Rules in Robotics,并提出設立歐盟人工智能監管機構并將更智能的自主機器人作為法律意義上的電子人對待。德國于2017 年率先發布了《道路交通法第八修正案》,以修法的方式對高度或者完全自動的駕駛技術進行概括性準入。2021 年德國聯邦法院又通過了《自動駕駛法》的草案。2021年1 月,美國依據《2020 年國家人工智能計劃法案》 設立國家人工智能計劃辦公室。2023 年5 月11 日,歐洲議會通過了《人工智能法案》(the AI Act)的談判授權草案。法案嚴格禁止“對人類安全造成不可接受風險的人工智能系統”。此外,草案還要求部署ChatGPT 等生成式人工智能工具的公司對其算法保持人為控制,提供技術文件,并為“高風險”應用建立風險管理系統。

人工智能技術的快速提升凸顯出加強人工智能領域研究的迫切性,我國在人工智能領域還未出臺相應的法律法規,學界也沒有形成統一的共識,尤其針對刑事主體資格認定的問題。目前在我國,學術界普遍認為,如今社會還是弱人工智能時代,“僅具有局限于特定領域的專用智能和感知智能,離以通用智能、認知智能為標志的廣義人工智能特別是超級人工智能還有較大差距”。[1]不過,一方面,技術的發展速度是人類無法預料的,或許在不久的將來,強人工智能就有可能出現,就如同科幻電影《Artificial Intelligence》展現的那樣,21 世紀的中期人類的科技水平達到了相當高的水平,也發展研制出了強人工智能;另一方面,人工智能的不可控性本身就會帶來刑事風險問題,因此,研究人工智能的刑事主體資格的問題就顯得尤具重要和必要。

未來將至,對人工智能刑事主體資格的研究是對人工智能犯罪進行深入研究的首要任務。本文將針對我國國內學者的觀點以及相關案例出發,論證人工智能并不具備成為刑事主體資格的條件,并且論述涉人工智能犯罪時刑事責任的承擔主體。

二、人工智能刑事主體地位的否定

在我國現行的刑法理論中,犯罪主體是指實施犯罪行為,并依法應當對自己的罪行承擔刑事責任的自然人和單位。因此,犯罪主體應滿足三個方面的基本要求:其一是具有辨認和控制自己行為的能力;其二是實施了危害社會的罪行;其三是依法應負刑事責任。在上述條件中,能夠辨認和控制自身的行為是決定犯罪主體是否可以成立的重要條件。此外,出于社會規制的需要,刑法可以運用擬制的方式賦予某種社會對象以刑事主體地位。因此,筆者首先將從人工智能的責任能力、人工智能的行為能力、人工智能的受刑能力以及人工智能的擬制條件等五個方面論證人工智能無法成為刑事主體。

(一)人工智能欠缺責任能力

具有刑事責任能力是行為人承擔刑事責任的先決條件,如精神病人實行了具有社會危害性的犯罪行為,但因其不能辨認或者不能控制自己的行為而造成了嚴重的危害后果,因此不能受到刑罰的制裁。一般認為,對行為人刑事責任能力的判定主要有兩個方面,即辨認能力和控制能力。但是,一方面,人工智能不具有辨認能力和控制能力,另一方面,我們也無法準確認定人工智能的辨認能力和控制能力。

1.人工智能不具備刑事責任能力。是否具有刑事責任能力取決于行為人是否對自身的行為及造成的后果具有辨認和控制能力。研究人工智能在上述兩方面的能力問題,對于界定人工智能在刑法意義上的地位具有關鍵作用。辨認能力是指行為人對自己行為的認知能力,包括從刑法規范評價的角度出發認識到自己行為的作用、性質以及造成的后果和影響。而控制能力是指行為人能夠支配自身行為的能力,且此種支配力應基于行為人的自主意志的控制。

辨認能力和控制能力是基于行為人的自由意志而產生,而自由意志產生的先決條件是,行為人能夠認識其行為的價值或行為的是非善惡。[2]397這種是非善惡當然包括對社會規范的認識,即行為人對自己行為社會屬性的認識,即認識到自身行為是否違背法律規范、自身行為是否具有社會危害性,并且對違反法律規范的行為是否可以控制。人工智能無法對違反刑法規范進行理解和控制,如微軟小冰①微軟公司推出的一套完整的、面向交互全程的人工智能交互主體基礎框架,除了可以作為聊天機器人,還可以成為少女歌手、主持人、女詩人、記者和設計師。,其可以通過與用戶大量的對話來迅速積累訓練數據,并在平均對話長度、上下文相關性、對話信息含量與話題引導等方面進行深度學習,之后根據算法程序對用戶的信息進行反饋。但這只能說明微軟小冰具有嚴格執行人工程序指令的能力,其無法自行決定繼續還是中斷聊天對話,仍需要用戶使用喚醒詞開啟對話。一些用戶可能在與微軟小冰的對話中刻意表述違反法規范的言論,引導小冰學習并導致其向其他用戶散布,造成了危害社會秩序的后果,小冰并不理解自己散布這些言論的行為已經侵害他人的法益,只是機械地依照程序的設定學習然后反饋處理,無法具有規范意義上的控制能力。

也有些學者提出可以向人工智能輸入大量的法律法規、案例等信息資料,通過其自身的深度學習來實現對規范層面的認識,[3]但這樣的做法過于機械,實際上忽略了人工智能是被設置去認識法律規范,仍然是由自然人進行主導控制并沒有自主性,而且人工智能與自然人可以進行知覺、經驗化、想象等認知活動不同,其只能進行運算、分析等操作,其在認知活動和認識能力方面都是與自然人有較大差距。

盡管人工智能具有比自然人強大的信息采集和數據分析能力,但是“其本身對刑法規范既無理性的認識與遵從能力,也不能體會到違反規范所造成否定性評價帶來的消極后果”。[4]71因此,人工智能并不具備刑事責任能力。

2.無法認定人工智能的刑事責任能力。根據我國刑法的規定,對于行為人是否具有刑事責任能力有很具體的標準,即刑事責任年齡和精神狀態。并且其中刑事責任年齡的制定是基于自然人的身心發展狀況、接受教育的條件以及政治、經濟、文化水平而嚴格制定的,精神狀態的判斷也需要同時結合生物學的方法和心理學的方法。而反觀人工智能,缺乏明確判斷刑事責任能力的標準和依據。如果把人工智能的智能發展程度作為衡量的標準,也存在較大的問題:一方面,此種標準仍較為模糊,缺乏具體可以參照的量化標準;另一方面,制定此種標準必然涉及技術層面,而目前各個企業制造人工智能技術標準不一致,在各方之間形成共識也需要較為漫長的探索過程。

不能單純地從具有辨認與控制能力的路徑來證明人工智能具有刑事責任。辨認和控制能力是刑事責任主體地位論證的必要條件,而非充要條件。辨認和控制能力是刑事責任主體的核心要素,而不是刑事責任主體的全部。換言之,其邏輯關系是因為不具有辨認和控制能力,而排除了人工智能承擔刑事責任的可能性;而并非因具有辨認能力和控制能力,人工智能才具有刑事主體地位。[5]

(二)人工智能欠缺行為能力

行為是產生犯罪的前提,同時也是認定犯罪分子承擔刑事責任的重要條件之一。刑法理論發展史上關于行為的理論學說也有諸多不同角度的研究:自然行為論主張行為是純粹的能使外界發生變化的動作,包括身體的“動”和“靜”,不討論有關意識方面的內容;因果關系論主張行為是意識、動作以及結果發展的現象,涉及“有體性”和“有意性”兩方面;目的行為論主張行為是自然人為了達到一定目的而進行的動作,以人對因果關系的認識作為基礎;人格行為論主張行為就是自然人人格的體現,行為的本質是人格行為。[2]184-185

盡管不同學說研究行為理論的角度不同,但均是以存在人的肉體作為出發點。不同的學說可以從兩個方面進行分析:一是客觀上,行為是人身體進行的活動,包括積極舉動和消極靜止,需要具有一定身體的動靜;二是主觀上,行為是人有意識的活動,是人自主意志控制的產物和表現。因此,刑法規范意義上行為的客觀和主觀兩方面的要素必須齊備,缺一不可,單純的思想以及無意識的動作都不可以被稱為行為。在此意義上,行為能力就是指行為人以自身的自主意志控制自身身體實施活動的能力。

通過比較人工智能運作機理可以得出:第一,人工智能的動作并不是一定的身體活動。人工智能缺少生理學意義上肉體這一核心要素,人工智能的動作只能算是物理學意義上的機械運動。第二,即使對行為進行擴大解釋,把人工智能進行活動認定為滿足行為的客觀要素,但人工智能仍缺乏自主意識,這一行為的主觀要素,其不是在自身意志支配下實施的行為,而是按照設定的程序來執行既定的操作。也有學者提出人工智能具有一定的深度學習能力,并非完全按照編制的程序進行活動,其可以按照自主意志實施行為,但是深度學習本質上還是一種機器學習算法,只不過相比其他算法更為復雜。盡管人工智能深度學習的過程具有一定的不可預見性,但深度學習這套算法仍是由技術開發者編寫,所以人工智能仍是受制于自然人,并不具有自身的獨立意志。

綜上,人工智能在現行的刑法理論下不具有行為的客觀要素和主觀要素,因此其所實施的動作不能成為刑法意義上的行為,并且由于其無法產生自主意志,因此行為能力也是人工智能所不具備的。

(三)人工智能欠缺刑罰能力

刑罰能力,又稱受刑能力,是指犯罪分子對刑罰接受以及承受的能力,亦即適應刑罰的能力?!靶塘P的本質是痛苦,是犯罪相關聯并給犯罪人帶來痛苦的制裁措施?!盵6]刑罰能力一方面要求犯罪分子可以體會到刑罰的自然屬性——痛苦性;另一方面要求犯罪分子可以承受刑罰對自己的懲罰后果。從上述方面出發,人工智能缺乏刑罰能力。

1.無法實現刑罰目的和功能。中國刑法理論普遍認為,刑罰的目的是預防犯罪,其具體表現為兩個方面,一是特殊預防。即對于罪犯,應采取刑罰措施,以防止其再次犯罪;二是一般預防。對于罪犯之外的社會成員,可以在制定、適用以及執行刑罰的同時,以防止社會上有可能模仿罪犯的人實施犯罪。然而,對人工智能施加刑罰不可能實現上述的兩個目的。

(1)人工智能無法實現刑罰特殊預防的目的。特殊預防以犯罪人可以感受到剝奪性痛苦作為前提,但是人工智能是無法感受到刑罰帶來的痛感的。人類因為具有自然的肉體以及心理所以可以感受到自由刑、財產刑帶來的痛苦,而人工智能僅是由機械零部件以及編制的程序軟件組成,本身無法感受到痛苦。對人工智能進行物理上的拆卸或者破壞并不能讓其產生恐懼心理而不敢再次犯罪,更無法實現刑罰特殊預防的目的。

在實現特殊預防的目的的同時,刑罰也發揮著個別威懾功能和教育感化功能,即一方面使犯罪人產生恐懼接受刑罰而不敢再次犯罪,另一方面使犯罪人在刑罰的適用和執行過程中受到教育,培養其養成良好的行為規范意識。首先,上文已提及,人工智能無法體會到刑罰帶來的痛苦,自然也不會產生恐懼心理而害怕再次承受刑罰,即使技術的發展使得人工智能通過相應的機理可以感受到一定的痛苦,但也不能和自然人所感受的程度一樣,相應的刑罰應有的功能無法完全發揮出來;其次,盡管可以靠修改或者刪除編制的程序來實現人工智能犯罪意識的消除,但實際上架空了刑罰的教育功能,審判過程以及刑罰執行中的教育活動并不會對人工智能產生影響。

(2)人工智能無法實現刑罰一般預防的目的。刑罰通過兩個方面實現一般預防的目的:一方面,主要通過刑罰的適用來對社會上的一般人進行威懾,使其恐懼受到刑罰而不敢犯罪;另一方面,主要通過刑罰的適用和執行來強化其他社會成員對法律的忠誠和信賴。

首先,對人工智能適用刑罰并不會對其他的人工智能產生儆戒。人工智能形成對事物的認識是靠編程和深度學習而非生活經驗,加上人工智能設計的初衷,人工智能的認識程度僅限于某一特定領域,對社會沒有整體認知,其判斷對錯的標準也就有可能和自然人不同。[7]而且自然人是具有社會屬性的,這也是刑罰可以實現一般預防目的的原因,而人工智能之間不存在交互,使其并不了解對犯罪的人工智能施加的刑罰,更不會因此調整自己的行為。

其次,對人工智能施加刑罰不會增強民眾對法律的信賴。社會上的自然人是刑罰達到一般預防目的的基礎。如果對人工智能適用刑罰,會引發公眾對人工智能的社會地位產生懷疑,反而會削弱民眾對法律的信任感和忠誠度。

最后,刑罰在達到一般預防目的的過程中,也發揮著安撫功能和補償功能,即對受害者及家屬產生心理上或者經濟上的補償安慰,使其報復的心理情緒得以平復。但“人工智能不具有生物學意義的生命體征、肉體上的痛苦感知與倫理上的負罪譴責感,無法通過刑罰實現被害方心理上的平衡與寬恕”。[4]73

2.無法適用傳統的刑罰體系。我國傳統的刑罰體系分為主刑和附加刑。主刑包括短期自由刑、長期自由刑和生命刑。主刑主要是限制或者剝奪人的基本權利之一自由以及結束自然人的生命。即使人工智能未來被賦予主體地位,但人工智能并不享有人身自由權以及生命權,其生命的形式只能以是否存在作為判斷標準,沒有可以施加主刑的基礎。附加刑包括財產刑和資格刑,其懲罰的內容是剝奪罪犯的財產權益以及剝奪其享有的某些法定權利,而人工智能并沒有自己的財產并且法律也沒有賦予人工智能一定的權利,沒有可以施加附加刑的基礎。因為對人工智能而言,傳統刑罰措施的施加會導致刑罰效果的滅失,因此,人工智能無法適應傳統的刑罰體系。

上文指出,為了彌補現有的刑罰措施不能適用于人工智能的漏洞,有些學者通過重構刑罰體系來實現對人工智能的刑罰制裁,主張為人工智能設立新的刑罰種類:刪除數據、修改程序、永久銷毀。[7]但是無論如何設置刑罰,都無法從根本上實現刑罰一般預防和特殊預防的目的,不可能讓人工智能和自然人一樣感受到刑罰帶來的痛苦,因為人工智能不可能擁有人類與生俱來的感情和倫理道德認知。而且本身這種新的刑罰種類也存在缺陷,比如刪除數據或修改程序,自然人可以刪除或者修改某一個犯罪的人工智能的數據,但無法排除其他人工智能通過學習再次產生類似的違法犯罪的負面數據的可能性。

同時,也無法對人工智能進行合理的量刑。司法實踐中的量刑通常會考慮行為人的主觀惡性,但經過上文的論述,人工智能不具備主觀意志。從理論和事實層面分析,人工智能產生自由意志仍然是一個需要論證的推測。人工智能也無法通過自身程序運算而計算出自己和他人的主觀意志。沒有主觀方面的善惡,無法區分故意與過失,也就無法對人工智能準確地量刑,更無法對人工智能適用相應的減刑情節。所以,對人工智能的刑法體系構想在理論層面和實踐層面均是站不住腳的。

綜上,一方面,對人工智能施加刑罰措施會架空刑罰的目的和功能,另一方面,人工智能與現行的刑罰體系格格不入,傳統的刑罰措施不能發揮效果,所以人工智能并不具有刑法規范意義上的刑罰能力。

(四)人工智能欠缺擬制條件

一些學者認為,根據法人成為犯罪主體的思路,人工智能可以借鑒其理論邏輯,探索出一條新的道路。[8]未來的發展方向就是將人工智能擬制成為刑法上的主體,類似法人。[9]筆者認為,由于人工智能缺少可以像法人(單位)一樣擬制的條件而導致其無法參考擬制主體法人這條路徑。

1.法人擁有獨立自主的意志,人工智能沒有。盡管法人是由自然人組成,但在實行行為時需要以法人的名義并且按照法人規定的程序經過法人的決策機構討論決定,即法人擁有獨立的整體意志,并不是某一個成員的意志或者輕易地疊加全部成員的意志。法人整體意志的根源在于自然人但又與自然人的意志不完全相同,其符合意志的本質特點;人工智能是按照預設的算法和程序進行行為,本質上不屬于意志,而且在運行方式上并沒有經過類似法人的決策程序或通過法人的決策機構將各個成員的意志在協調一致的基礎上轉變為整體意志。

2.法人擁有獨立的利益,人工智能沒有。要成立單位犯罪,必須要求犯罪人是出于單位的需要謀求非法利益或者犯罪所獲利益基本都歸單位,在此意義上,法人擁有財產權;而人工智能本身并不享有獨立的財產利益,其只能作為財產內容而存在。

3.法人犯罪以刑法規范明確規定為前提,人工智能沒有。法人犯罪具有法定性,刑法規范中明確規定了法人可以作為某種犯罪的主體;人工智能犯罪涉及范圍廣,而且不僅牽涉法律問題,還包括倫理等問題,并沒有法律的明確規定,缺乏必要的規范基礎。而且法人被擬制為刑事主體之前,有著充足的社會實踐基礎和法律經驗。在列為刑事主體之前,單位已實質性地參與到社會經濟關系之中,各國對企業有著充分的社會管理經驗。單位有著在先的立法實踐,為立法機關將單位新增為刑法主體積累了充分的立法實踐基礎和經驗來源。[10]

綜上,人工智能并不具有刑法規范意義上的辨認和控制能力、刑法中行為的客觀要素和主觀要素、承受刑罰的能力以及擬制為類似法人的條件,無法突破理論障礙,因此人工智能不能成為刑事主體。

三、涉人工智能犯罪的刑責分配

基于上文的分析,不論是強人工智能還是弱人工智能都不具備成為刑事主體的必要條件。所以在對其進行規制時,不能過于關注人工智能而忽略了傳統的責任主體。應當堅持以自然人為中心,以傳統刑法理論為基礎,合理應對人工智能犯罪刑事責任問題。對于人工智能帶來的風險,刑法不應只是簡單地增設罪名,而是要全面地評估當前人工智能技術的特點以及未來可能的發展方向,并在平衡科技發展和預防犯罪的前提下處理好相關問題。從整體上看,對于人工智能時代的可能出現的風險應當理性看待,沒有必要無限擴大。在我國刑事立法中,對于人工智能犯罪的規制,應該以謙抑原則為基礎,做出合理的回應,在處理涉及人工智能的犯罪時,仍然應該由人工智能的設計者、生產者和使用者來承擔刑事責任。

(一)人工智能設計者和生產者的刑事責任

人工智能的設計者和生產者的行為屬于人工智能犯罪的初始原因,并非最直接的原因,應區分為故意犯罪和過失犯罪。首先,當設計者和生產者為實施人工智能犯罪而研發制造專門用于實施犯罪的人工智能時,并且其為人工智能編制了實施犯罪行為的一系列程序,或者向人工智能輸入大量和犯罪有關的負面數據,則人工智能侵害法益的行為是基于設計者和生產者的目的,能夠被視為設計者和制作者行為的延伸,人工智能的設計者和生產者是明知自己的行為會導致社會危害的結果,但仍然設計或者制造人工智能,存在犯罪故意,兩者應當成立相應的故意犯罪,并且可以適用刑法理論中的預備行為正犯化等進行前置保護。根據人工智能算法及對應數據庫的性質,可以對不同類型人工智能的研發者和生產者的刑事責任承擔方式加以區分。

其次,目的不是為了用于實施犯罪的人工智能的設計者和生產者,可能會構成過失犯罪。不論是由于人工智能本身存在的漏洞,還是由于人工智能經過自身的深度學習功能進而實施了偏離預設程序的行為,設計者或者生產者都在注意義務方面存在一定的過失。雖然各個類型的人工智能對相關主體注意義務內容要求不同,但目前針對人工智能的注意義務大多集中于監督義務和避免義務。如醫療人工智能介入手術操作時,醫生不再占據主導地位,但是手術全程仍需要承擔對醫療人工智能的監督義務,并且在醫療人工智能出現故障時,隨時接管繼續進行手術操作。設計者或生產者與人工智能之間的關系類似于管理者和管理對象之間的關系。設計者或生產者必須妥善管理人工智能,在研發和生產人工智能的過程中以及售后階段,除確保設計和生產的人工智能屬于可控及有益狀態外,還需要持續跟蹤觀察,定期檢測自己生產的人工智能的智能化程度,對于可能出現的新情勢應及時告知使用者等等。

而且,人工智能問題涉及法律、技術、倫理等領域,本身具有復雜性,要規范人工智能的發展,同樣也不止需要法律的手段,還需要綜合運用技術、管理、倫理等手段。在今后的發展過程中,我國人工智能產業的國家標準和行業標準、法律法規、一般倫理都應進一步完善對設計者和生產者注意義務的規定,以達到防范刑事風險的目的。[11]

(二)人工智能使用者的刑事責任

人工智能使用者的不同行為方式會導致刑事責任分配的不同。首先,人工智能的使用者借助專門為了實施犯罪的人工智能,或者非專門為了實施犯罪的人工智能進行犯罪,使用者的這種行為屬于明知自己的行為會發生危害后果,但卻依然希望或者放任這種后果發生,已經違背了人工智能的設計理念,應當以相應的故意犯罪論處。其次,如果使用者對人工智能的使用都是完全按照最初預設的用途和使用方式,使人工智能獨自地執行某項操作,但是卻造成了嚴重危害社會的結果,那么,使用者不需要為自己的行為承擔刑事責任。如果使用者按照使用說明,和人工智能共同完成某項任務而導致了犯罪結果的發生,此時使用者在注意義務方面具有一定的過失,應當以過失犯罪追求其刑事責任。

但是,人工智能的使用者的注意義務與上文的設計者和生產者的注意義務應該有所區別,設計者和生產者相較于使用者還是具備一定的專業知識,所承擔的注意義務的內容和程度是相對較高的。人工智能使用者只需要承擔一般過失的責任,但是前提是生產者或設計者已經詳細告知了使用者人工智能在使用過程中的注意事項、可能出現的風險和預防措施。如果設計者或生產者并沒有履行提醒告知的義務,那么使用者就會對相應的注意事項毫不知情,使用者在使用過程中由于操作不當而導致了危害后果的發生,那么責任不應該由使用者承擔。在美國已有此類案例發生。一位患者因前列腺癌接受達芬奇手術機器人的治療后,直腸破裂、急性腎功能衰竭、中風和失禁?;颊呒覍僬J為,因為操作達芬奇手術機器人的主治醫師沒有接收到充足、正確的技能培訓,相應的制造公司應當承擔責任。[12]

通常情況下,人工智能一般都會在既有的程序范圍內實施特定的行為,但是人工智能還是有可能因失控或故障而做出人類的意志之外侵害法益的行為。通過上文的論述,基于現行的刑法規范,首先應當考慮人工智能的設計者、生產者或使用者對人工智能造成的危害后果承擔刑事責任。但是,人工智能的行為可能超出人的意志,所以人工智能的設計者、生產者或使用者不構成故意犯罪。針對以上的情況,要考慮上述主體是否構成過失犯罪,就需要進一步考察主體是否違反了注意義務、主體對危害后果是否具有預見可能性以及是否具有結果回避可能性。以手術機器人類型的醫療人工智能為例,當醫療人工智能由于自身系統的故障或失控而引發患者輕傷、重傷或死亡等嚴重后果時,醫生就有可能因為沒有盡到對醫療人工智能的監督義務等注意義務而需要承擔責任,構成醫療事故罪。但是,如果沒有預見可能性,或者根本無法避免,則不能追究制造者或者使用者的刑事責任。

四、結語

霍金曾預言:人工智能的出現可能是人類發展史上最為重要的事件,但也許也是最后一件,除非我們學會如何規避風險。盡管技術是中立的,但我們也不能對人工智能擁有過多美好的猜想。在人工智能不斷推進社會發展進步的同時,也必須關注到人工智能所涉及的法律風險。人工智能無論是弱人工智能還是強人工智能,由于始終無法突破刑事主體理論的障礙,而無法成為刑法意義上的“人”。同時由于人工智能和單位存在著較多區別,也無法被擬制成為新的主體。當人工智能犯罪發生時,仍應堅持自然人主義的立場,認清人工智能的應用活動本質上是人的活動,由人工智能的設計者、生產者或者使用者承擔刑事責任。面對人工智能的世紀浪潮,人工智能必然成為刑法立法和理論關注的新命題,但刑法始終應該秉持著“沉穩”和“謙抑”的品格,秉持著前瞻性而非超前性,既立足于當下,回應現實需要,又展望未來,對刑法理念的發展進行更多思考,在促進和保障人工智能技術的發展和保護法益之間積極尋找平衡點。

猜你喜歡
設計者刑罰使用者
“法定許可”情況下使用者是否需要付費
2020德國iF設計獎
2019德國IF設計大獎
刑罰威懾力的刑法學分析
代運為名行詐騙 構成犯罪獲刑罰
新型拼插休閑椅,讓人與人的距離更近
斷鹽也是一種刑罰
抓拍神器
刑罰的證明標準
楊敬:深水區醫改設計者
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合