?

客觀歸責理論與自動駕駛交通肇事刑事責任的歸屬

2024-01-23 14:16
關鍵詞:交通肇事駕駛人員設計者

姚 萬 勤

(西南政法大學 法學院,重慶 401120)

一、問題的提出:生動的現實與刑事責任歸屬的困境

自動駕駛汽車亦即無人駕駛汽車,也稱為智能汽車,它主要是依靠人工智能、視覺計算、雷達、監控裝置和全球定位系統協同合作,讓電腦可以在沒有任何人類主動操作的情況下,自動安全地駕駛機動車輛[1]。自動駕駛汽車從提出到目前已經經過了近40年的發展,目前已然成為汽車市場熱門的話題。然而,隨著該技術突飛猛進的發展,由此而發生的汽車交通肇事事件頻頻見諸報端。例如,2016年,某車主駕駛特斯拉Model S型轎車在高速路上發生車禍,當場死亡,而車子當時正處于自動駕駛模式。2018年3月18日晚上,美國亞利桑那州一名女子被Uber自動駕駛汽車撞傷,之后不幸身亡[2]。這是全球首例自動駕駛車輛致人死亡的事故,由此引起了人們對自動駕駛安全性的深深擔憂。

就我國來說,深圳率先推出了無人駕駛公交車后,2018年11月1日,廣州又推出中國內地首輛自動駕駛出租車,并投入試運營。這也意味著我國未來有望成為自動駕駛技術發展最為迅速的國家之一。然而,由自動駕駛造成的交通事故在我國同樣存在。如2018年福特投資的一輛無人駕駛汽車發生事故,導致兩人受傷并被送往醫院救治。

在自動駕駛技術快速商業化應用的目前階段,也帶來了一系列法律規制方面的難題,特別是在自動駕駛車輛交通肇事時該如何規制,對各國來說都是無法繞過的重要的理論課題和現實問題。刑法如何應對這種處罰的空白,各國都采取了相應的對策。例如,在以成文法為傳統的大陸法系國家,主要存在兩種規制路徑:其一是單獨通過增設相關的法律進行補充規定;其二是通過對現有的法律進行妥當的解釋進行規制。雖然主張通過修改刑法途徑予以應對的方案在我國不乏支持者,例如我國有學者指出,“考察發生重大交通事故時涉及刑事責任的承擔問題等,需要以修訂立法或者以附屬刑法的方式予以明確”[3]。但是該方案在我國短時間內可能難以實現,因為,我國不僅不存在附屬刑法的立法現狀,而且刑法若要增設新的內容,需要對其合理性進行反復論證,由此帶來的立法成本不可低估,且該立法最終能否順利通過也存在不確定性。因此,目前最為妥當的方式是通過刑法解釋學的方式對相關的刑法罪名進行必要的解讀,佐之以必要的理論分析,尋找最終妥當的處斷結論。

通過對我國目前刑法罪名進行檢索,因自動駕駛汽車造成的交通肇事,首先較為恰當的規制罪名是交通肇事罪。然而,對該罪名進行實質解釋和分析,以該罪名論罪處刑是否具有合理性,不無疑問。眾所周知,我國刑法第133條規定的交通肇事罪是指“違反道路交通管理法規,發生重大交通事故,致人重傷、死亡或者使公私財產遭受重大損失的行為?!北咀锏臉嫵梢唧w包括了4個方面的內容:其一,本罪的客體是共同安全秩序;其二,本罪的客觀方面是在交通運輸活動中違反交通運輸管理法規,因而發生重大事故,致人重傷、死亡或者使公私財產遭受重大損失的行為;其三,本罪的主體是年滿16周歲、具有刑事責任能力的自然人;其四,主觀方面是過失,具體包括“疏忽大意的過失”和“過于自信的過失”兩種基本類型。是否符合犯罪構成是判定交通肇事行為構成交通肇事罪的唯一標準。那么,就自動駕駛車輛肇事而言,頗為棘手的問題在于:在介入自動駕駛這一技術媒介后,該如何認定相關人員的刑事責任則變得不明確。

當然,就自動駕駛這一特殊的行為類型所導致的交通肇事來看,其在客觀方面具有危害行為以及產生了危害結果,如果發生在公共交通領域,侵犯或者威脅了社會公共安全法益是不證自明的。那么,涉及更深層次的問題在于:除此之外,犯罪主觀方面以及犯罪主體的成立與否均與自動駕駛能否視為“人”這一要素密切相關。顯然,自動駕駛汽車無論外在還是實質都與自然人犯罪主體存在較大的差異,因此要想準確定性,首當其沖的是需要明確自動駕駛汽車致人死亡或者傷害的過程中,誰才是最終受罰的主體。此外,我國又該選擇何種理論體系以及如何規制自動駕駛交通肇事行為,則成為目前問題復雜化的癥結所在,也是本文將要重點解決的問題。

二、刑事責任歸屬的前提:受罰主體確定的應有方案

不可否認的是,“無人駕駛技術(汽車)是當前最成熟的應用領域。這對傳統交通事故犯罪的影響有:一是‘人’已不實質參與駕駛行為,‘人’作為駕駛主體虛化”[4]。雖然目前的學說動向是越來越多的學者否定人工智能的犯罪主體資格,因為人工智能不僅沒有具備人類所具有的認識能力和意志能力,而且對其判處刑罰也不能實現一般預防以及特殊預防的效果[5]。所以本文也基本認為,在我國目前階段不應承認人工智能的刑事主體資格,但是即便如此,也并不意味著對自動駕駛車輛導致的嚴重危害結果無刑法干預的必要。那么,基于否定論的立場,在我國現有的規范體系之下,何種主體應當受處罰呢?這是突破定性困境必然要解決的首要問題。然而,目前對該問題并未取得統一的見解。

1.現有確定受罰主體的方案及其不足

在自動駕駛時代,誰能成為受罰的主體,在目前世界范圍內存在不同的方案。大致可以歸納出立法與解釋兩種路徑。在立法路徑中,雖然否定自動駕駛獨立成為犯罪主體的國家是主流,但是也不乏肯定的國家。例如,德國在2016~2017年開始進入到針對自動駕駛立法活性化時期,其于2016年通過法案將自動駕駛系統納入“駕駛員”的范圍之內,也就意味著目前德國自動駕駛汽車可以作為犯罪主體接受處罰不存在制度法上的障礙。在2017年,德國不僅完成了對道路交通法的修訂,同時在全球范圍內首次提出了自動駕駛的道德準則。就道路交通法的修訂內容來說,首先確認了在人機交互模式下,駕駛員在任何時候都能隨意切換,而這一要求鎖定在L3階段的自動駕駛級別,其次提高了自動駕駛交通肇事的責任人賠償標準。

而在英美法系的國家,一般將使用自動駕駛技術的人視為“操作者”,應由該操作者成為受罰的主體。例如,美國的《佛羅里達眾議院法案》(Florida House Bill(Ch.2012-111))第3條明確規定:“如果一個人讓自動駕駛汽車技術開始運行的話,那么這個人將被認定為是操作者,不管自動駕駛汽車運行時這個人是否實際坐在汽車內?!贝送?美國的內華達州以及加利福尼亞州的法律也有類似規定。

對此,拋開立法中已經明確規定的國家之外,實質上通過立法形式確立相應的主體責任的國家畢竟占少數。有的國家的學者自行建議并形成立法草案,例如俄羅斯學者就自行建議人工智能可以獨立成為犯罪的主體并起草了第一部機器人法草案《格里申法案》,其中對于人工智能機器人的法律地位與責任認定是將比較法人制度歸于法人的行列,并將機器人下列4類行為納入刑法調整之中:設計專門用于犯罪的殺手機器人、禁用阻止對人類造成損害的軟件和硬件功能、涉及設計能夠給人類造成損害的機器人以及沒有意識到可能給人類造成損害所設計的機器人等[6]。

我國主要是通過政策文件對人工智能以及自動駕駛等發展進行宏觀指導和調控,對其責任主體沒有多少涉及,因而在學理之中就此問題也存在較大的爭議。如有學者認為,應當由相應的程序設計者來承擔?!盁o人駕駛汽車碾壓了行人:如此描述的過程似乎指向智能代理自身的行為,只要它獨立于人的實際操控,其行動是依照預先編制的——具有前面介紹的那種學習能力的——程序”[7]222。另有學者主張,原則上應當由汽車的使用者承擔相應的責任,只有在無人駕駛汽車的使用者沒有違反相關操作規范,而僅因汽車或者軟件出錯所致事故的情形下,汽車制造商、軟件提供商有成立交通肇事罪的空間[8]。

雖然我國學者在該問題上表述不同,但是可以將其爭議的觀點歸納為“主體限定的方案”。顯然,該方案不可避免地存在以下問題:首先,存在責任承擔主體不明的弊端。上述的界定是具體指向自動駕駛系統的設計者還是坐在自動駕駛汽車內的操作者,則不甚明確。因為,讓自動駕駛汽車運行的主體除了操作者之外,還存在自動駕駛汽車的設計者,對此如何進一步分配責任變得模糊不清。而在交通肇事的案件中,責任分配往往又成為不可回避的重要問題。

其次,存在擴大處罰范圍的嫌疑。眾所周知,在自動駕駛技術發展到高級階段,可能坐在車內啟動自動駕駛程序的駕駛者,并不是實際上能夠控制汽車的主體。如果對其也要處罰,顯然擴大了處罰范圍。再者,如果因自動駕駛的軟件故障而導致的交通事故,如果不分青紅皂白,對汽車制造商、軟件提供商都一律進行處罰也不具有妥當性。如此,也會進一步打擊相關科研創新人員的積極性,相關研發群體可能為了自保而不得不放棄對相關新技術的研發,久而久之會導致我國科技水平日漸衰退。

2.確立強/弱階段刑事責任主體的應有方案

筆者認為,不同類型的自動駕駛汽車應當分情況具體討論。目前,最為通俗以及常見的分類是將人工智能區分為“弱人工智能”與“強人工智能”兩種基本類型。無論是人工智能還是相關的智能產品,在未來可能因為所處的強、弱人工智能階段不同而產生不同的效果。相對于弱人工智能階段來說,其主要表現為具體執行相關程序指令;而在強人工智能階段,其具有很強的邏輯演算能力,主要依靠大數據、機器學習能力、演進算法等推進人工智能向著模擬人類的方向發展[9]。

自動駕駛汽車因所處的強弱人工智能階段不同,也大致可以劃分為“駕駛輔助”“半自動化”以及“完全自動化”3個階段。其一,“駕駛輔助類型”是指,前后加速、左右方向、剎車等由系統進行操作,其余是由駕駛人員操作完成。其二,“半自動化類型”是指,前后加速、左右方向、剎車等全部由相關的自動駕駛系統進行操作,在系統發出請求后,駕駛人員根據請求的內容做出相應的處理。其三,“完全自動化類型”是指,前后加速、左右方向、剎車等全部無需駕駛人員進行操作,完全由相關的自動駕駛系統操作完成[10]。

“駕駛輔助”和“半自動化類型”屬于弱人工智能階段,也就是傳統意義上的“人機交互”階段。在這一階段,自動駕駛與人類共同承載著駕駛的重任。而“完全自動化”屬于強人工智能階段,也就是我們通常意義上所說的“完全自動駕駛階段”。對于“人機交互階段”的自動駕駛汽車而言,系統的設計者以及坐在駕駛艙內的駕駛者均有可能成為操控自動駕駛汽車系統的人員,因而也就可能成為處罰的主體。因為此時的自動駕駛汽車并不具備自主意識與意志,由其相關人員所承擔的刑事責任不應也無法轉移給自動汽車承擔[11]。而強人工智能階段的自動駕駛汽車是一個并不再需要司機的階段,坐在自動駕駛汽車內的行為人并不能實際控制該車輛。因此,在強人工智能時代的自動駕駛,實質上與坐在車內的名義上的駕駛者并無多大的關聯。在駕駛員發出相關的指令后,該如何行走等均是由自動駕駛操作系統完成,這也就排除了其成為刑事責任主體的可能。因此,對于“完全自動駕駛”階段的系統設計者而言,其在整個人工智能運行的過程中所起的作用舉足輕重。因而受處罰的主體應當限定為系統的設計者較為妥當。

三、刑事責任歸屬范圍的限縮:客觀歸責理論的引入

那么,是否上文論述的主體都應當受到刑罰處罰呢?眾所周知,刑法是把雙刃劍,特別是在我國高新技術突飛猛進的當下,如果對其產生的風險均通過刑法規制,反而可能會對社會機體造成新的損害。因此,對于自動駕駛汽車交通肇事的歸責,首先應建立在處罰必要性的基礎之上。特別是在“主體與行為”分離的情況下,我們對上述主體進行刑事處罰的正當性根據以及處罰的邊界何在,則成為目前難以消解的疑難問題。筆者認為,隨著“客觀歸責理論”的興起,可以為刑法規制提供內在的理論根據從而限定其成立范圍。

1.客觀歸責理論的基本內容

客觀歸責理論雖然是在德國因果關系理論學說上發展而來,但是目的是解決客觀上的可歸責問題[12]。當然,客觀歸責理論與因果關系存在區別,但是讓兩者存在關聯的因素卻是刑法意義上的風險[13],因而該理論在限制和懲治風險方面必然有所擔當。從客觀歸責理論的內容來看,主要涉及“行為人創設了不被允許的風險、行為人實現了不被允許的風險以及結果存在于構成要件的保護范圍內”3個方面的內容[14]409。

首先,行為人創設了不被允許的風險。社會風險多種多樣,但是有些風險是伴隨著社會發展而無法避免的風險。因此,作為一種理論的限制,在每一個要件內容的判斷上,都需要通過不同的判斷規則判定不同風險的類型[15]10。并就此進一步歸類,將那些不重要的風險排除在刑法的范圍之外。其次,從行為人實現了不被允許的危險來看?!叭绻袨槿酥圃炝瞬槐辉试S的風險,但是導致結果發生并非由該行為所引起,就不能對其進行歸責”[16]。也就是說,“如果只是偶然的話,那么就不能將結果歸咎于危險行為”[17]。最后,在構成要件的保護范圍內。也即,如果實現的風險并不在構成要件預先設定的效力范圍內,那就意味著該風險并沒有被刑法規定為犯罪,因而就不能對行為人進行歸責。

總而言之,面對風險社會提出的新問題,我們應該承認刑法價值的多元存在及刑法體系的割裂性特征,不再一味堅持傳統刑法的罪責自負原則,而是給風險控制在刑法中留下一部分“特區”[18]??陀^歸責理論在上述的第一個要件中為風險劃定了一個大致的范圍,再通過后兩個要件進行階層判斷,從而最終實現限縮處罰的目的。

2.引入客觀歸責理論的正當性:應對不斷擴張的重大科技風險

“社會現代化作為人類社會從工業革命以來所經歷的急劇變革、從傳統農業社會向現代工業社會的歷史轉型,其實質上是科學技術革命引發社會的生產力和生產關系的革命”[19]。因此,隨著科技現代化的逐步推進以及發展,未來社會也會伴隨出現大規模的科技風險?!帮L險為系統地處理現代化自身引致的危險和不安全感的方式”[20]??萍硷L險顯然具備了“外在性、強制性”等特點[21]。為了應對未來的不確定的風險,刑法有所擔當的同時難免會呈現出較多的負面形象。

但是,在風險的控制上,客觀歸責理論不如風險刑法理論那樣表現激進,而是立足于客觀風險本身的客觀事實狀態,重點解決實踐中結果責任歸屬的問題。在客觀歸責理論看來,特別是隨著社會風險的無限擴張,不加區分地對任何風險均進行規制不僅使刑法呈現尾大不掉的局面,而且過于干涉也會使社會停滯不前。因為社會的科技進步總是伴隨著巨大的風險才能轉為實踐現實化。所以,客觀歸責理論重點解決的是社會中已經出現的類型化的重大風險。

具體就人工智能而言,其主要是“通過計算機語言編寫的方式對特定對象的需求信息、數據結構、運行指令等進行處理,進而實現目標對象模仿人類做出類人反應的一種技術方法”[22]。那么,擴展到人工智能的相關智能產品,如自動駕駛汽車,其本質特征無非是利用了人工智能的相關作用機理來具體實現交通領域的障礙物識別、速度控制以及自動轉向等功能。貌似不太起眼的機械功能,但是伴隨著現實應用的進一步擴大化,也不可避免地帶來了一系列的重大刑事風險,具體表現在以下兩個方面:

其一,現實化的風險。相對來說,弱人工智能目前已經被廣泛地運用到日常生活中,因而,其所產生的風險目前已經悄然出現在人類的日常生活中。就目前來說,“人工智能可能產生的威脅,應該來自其被惡意利用或者失控,導致其侵害法益”[23]。雖然有學者指出,自動駕駛將會導致交通事故大量減少[24]。當然,筆者并不否定這種看法,但是刑法所關注的并非是成效,而關注的是何種行為導致了何種嚴重危害社會的結果(結果犯)以及導致嚴重危害結果發生的危險(危險犯)。就目前來看,“自動駕駛車輛所造成的事故數不可能為零”[10]。因而,即便交通事故大量減少也并不意味著該種行為導致的風險就此減弱。例如,就前文所列舉的無人駕駛所致的交通肇事的案例來看,即便是在無人駕駛的情境下,其造成的危害結果與人類駕駛所導致的危害結果“有過之而無不及”。特別是隨著無人駕駛汽車在未來社會的大量應用,在未來由自動駕駛汽車所導致的現實化風險無疑將會進一步加劇。

其二,潛在的風險。人工智能的潛在風險主要表現在強人工智能時代。強人工智能主要涉及“計算機視覺技術”“自然語言處理技術”與“語言識別技術”3項重要的技術[25]。再基于優化算法來實現人工智能的自我學習功能,因而一旦存在黑暗算法的情形,那么就連最初算法設計者也不能予以有效的化解,而由此所隱藏的黑暗算法則成為強人工智能時代產生潛在風險的根源。強人工智能階段的機器不僅能夠智能行動,而且還具有思考能力。就自動駕駛汽車而言,其是否會通過自我學習而出現隨時啟動、任意飆車的情形,從而侵犯或者威脅人類建立已久的社會秩序呢?這些看似天方夜譚的問題在未來社會中是否會出現,目前看似無法回答,實質上便是其潛在的風險引起人類深深憂慮的表現。

3.處罰范圍的進一步限縮:基于客觀歸責理論的階層判斷

就目前來看,無論是自動駕駛所表現的現實風險還是潛在風險,都表現出了巨大的風險性?;诳陀^歸責理論的邏輯分析之下,也都應當是刑法予以干預的重要場域。然而,在社會治理中利用刑法規制并非越前置就越能取得良好的效果。具體看來,在自動駕駛汽車產生的風險領域引入該理論進行限縮的要點如下:

首先,從行為人創設危險的內容進行處罰范圍的限縮。在德國學者Roxin教授看來,客觀歸責理論判斷客觀目的性的標準即為風險原則,這樣就為結果犯設立了一個通行的歸責原理,不受因果關系規律的影響[26]。亦即,正是隨著風險社會的到來,風險充斥于社會生活的方方面面,無處不在。因此,在該理論看來,并非任何風險均能進入到刑法的評價范圍,為了進一步限縮風險的范圍,客觀歸責的首要要件是強調“制造了危險”,但是制造危險的因素較多,所以為了保證處斷結論的合理,在此層面,還需要通過“降低危險”“未制造危險”以及“制造被允許的危險”等反面推定予以排除。同樣,在實現危險的層面,也需要通過“未實現危險”“未實現不被允許的危險”以及“結果不在注意義務的保護范圍之內”進行反面排除。

其次,從事實判斷與價值判斷相分離進行處罰范圍的限縮。在客觀歸責理論的判斷上,首先呈現的理論優勢在于,“將歸因與歸責判斷分離”,從而明確了事實判斷與價值判斷的不同范疇。如前所論,雖然客觀歸責理論來源于因果關系的判斷,但也是為了克服因果關系判斷的不足應運而生。無論是傳統路徑“條件說”還是“相當的因果關系理論”,其出發點想畢其功于一役,將事實判斷與價值判斷融為一體,企圖一勞永逸?!笆聦嵣?行為與結果之間是否具因果關系,只是一個事實的、形式的判斷,在符合條件關系時,即具有因關系(即條件說意義上的因果關系,此說是德國的通說),至于這種具有因關系的結果是否要歸責于行為人,則是一個價值的、實質的判斷”[27]。而客觀歸屬論從明確性判斷的觀點出發,“從認為構成要件是法定行為類型的立場來看,如果理解為因果關系是法定行為類型的要素,則可以對因果關系的判斷加上一般的、類型的判斷的限定。因果關系判斷則成為使結果與實行行為類型歸屬的問題”[28]。因此,在克服相當因果關系說中的行為后需要考慮的普通人預見可能性這種內部矛盾問題上,通過客觀歸責理論判斷則顯得更為徹底,也進一步限定了處罰的范圍。

最后,通過客觀歸責有利于進一步限定對行為人的結果歸屬。就歸因的事實判斷問題,借助條件說就能得以有效解決,因此,在行為和結果之間的條件關系被認可了的情況下,通過使用客觀的歸屬的理論,限制對行為者的結果歸屬[14]371。而對于歸責的價值判斷部分,客觀歸責理論并非無所作為,除了上述的3個判斷要件之外,在每個具體的要件判斷之下還存在諸多的反面判斷的下位要件,從而有效地化解了價值判斷標準——是從行為人還是從社會一般人的角度判斷的爭議性問題[29]。即便在現代社會中存在大量不道德的行為,但是并未通過刑法全面禁止,因而這種價值判斷要求旨在通過統一標準進行層層的篩選,從而最終限定了結果的價值判斷范圍。就客觀歸責理論的各種下位判斷規則來說,都是嘗試將法秩序的要求具體化,而它們本身都是實質的標準[30]。因而對于行為是否成立犯罪的判斷也必然會走向實質可操作性。

總而言之,就自動駕駛汽車所產生的風險而言,在客觀歸責三層次的分析判斷中,注重危險創設與危險實現兩個層面的類型化判斷的同時,“客觀歸責理論的檢驗標準嚴格、實用,通過多重標準反復檢驗,確保了沒有遺漏”[31]。同樣,作為另一方面,其也是將一些不太重要的風險排除在刑法的判斷之外,“為了適當分配這種風險,避免阻礙技術創新,既不應加重某類主體的責任,但是同時為了將相關事故責任落實到位,也不應減輕某類主體的責任”[32]。如此,不僅有利于限定危險的范圍,不至于因為刑法的過多干預而造成科技創新的萎縮,而且也有利于合理限定對行為人的處罰范圍。

四、具體刑事責任的歸屬:基于客觀歸責理論的責任分配

對于強/弱人工智能階段的自動駕駛造成的交通肇事的定性,本文繼續按照前文的分類,按照“人機交互階段”與“完全自動化”兩種類型,并結合客觀歸責理論予以分類探討刑事責任的分配。

1.“人機交互階段”自動駕駛交通肇事的責任分配

(1)“駕駛輔助類型”的責任分配

對于該種類型,自動化系統所起的作用完全是輔助人類,因而其并未承擔主要的核心駕駛任務,換句話說,該車輛仍然在人的控制之下,那么由此而造成的交通事故,根據客觀歸責理論來看,從危險的創設到危險的實現,都是由駕駛員獨立完成。因此,如果導致的危害結果符合刑法第133條交通肇事罪構成要件的話,那么,完全可以通過本罪名追究駕駛人員的交通肇事罪的刑事責任。但是在司法實踐中還存在“輔助駕駛系統失靈導致交通事故”以及“輔助系統錯誤與駕駛人員失誤疊加導致交通事故”兩種特別的類型,未必根據刑法條文就能得出妥當的結論,因此,本文將進一步予以探討。

①輔助駕駛系統失靈導致交通肇事的責任分配

就“輔助駕駛系統”失靈而導致的交通肇事而言,一般是指裝載了“定速巡航”的車輛因為該輔助系統失靈而導致車輛完全停不下來發生交通肇事,那么,該由誰來承擔相應的刑事責任則成為重要的問題點。根據本文所主張的客觀歸責理論的三階層要件來判斷,大致可以得出以下的結論:

其一,從表面來看,創設該危險的人是該系統的設計者而非駕駛人員,實質上并非如此,雖然該系統最終是由設計者以及汽車制造商完成生產,但是這種經過官方機構批準的量化產品,在危險上應當屬于被允許的危險類型。因此,可以排除對相關的設計者以及汽車的制造者追究責任。那么,是否就意味著可以追究駕駛人員相應的刑事責任呢?畢竟就是否使用駕駛輔助功能的選擇權掌握在駕駛人員的手中。其二,筆者認為,歸責的另一個層面在于,除了客觀上所應有的危險現實化之外,在主觀上也應要求相應的主體具有故意或者過失。但就該種情形來說,即便發生了符合交通肇事罪的結果,但是完全可以根據刑法第16條的規定,因行為人主觀上不是出于故意或者過失,而是由于不能抗拒或者不能預見的原因引起的,那么就不能對駕駛人員論罪處刑。

②輔助系統錯誤與駕駛人員失誤疊加導致交通肇事的責任分配

此外,由于駕駛輔助類型并不能完全排除駕駛人員的行為,因而在司法實踐中,“駕駛輔助系統錯誤與駕駛人員失誤兩種因素疊加在一起導致發生了駕駛人員傷亡的危害結果”的案件也逐漸增多,那么又該如何進行歸責呢?

筆者擬以德國學者約爾登教授列舉的“萊茵河案”為例進行具體探討:駕駛在大霧籠罩的萊茵河畔的駕駛人員,在難以辨別方向的同時,聽從了導航系統發出的向右轉彎的指令后,使得自己與駕駛的汽車跌入萊茵河中溺亡。按照正常的路線來說,此處并未有直通彼岸的大橋存在,由于導航發生了錯誤指令,且因濃霧等多種因素綜合在一起最終導致了該事故的發生[33]。對于該案的處理,有學者認為,“當該導航只是普通的電子產品的時候,對于駕駛員和乘客的死亡結果,可以考慮追究導航制造者的刑事責任。其原因是,制造者可以預見到發生這種死亡事故的發生”[33]。

從客觀歸責理論出發,筆者不敢茍同上述學者的論斷,理由有二:首先,即便制造者能夠預見會發生導航失靈抑或會發出錯誤指令的情形,但是這種風險還難以稱得上是刑法意義上的風險。因為在高新科技領域,其風險也并非都能成為刑法干預的對象。權衡社會發展與制造的風險,我們也可以說制造導航這一智能產品的利益與偶然的事故相比,是利大于弊的典型范式。其次,退一步而論,即便前述的風險能視為制造商創設了風險,但是也不能認為由制造商實現了風險。如前所論,作為駕駛輔助功能的導航,其在人類駕駛作為核心地位之時,充其量僅僅是單純的工具。換句話說,在其發出了指令后,僅僅供人類參考,而不能左右人類決策。但是該案的特殊性恰好在于,濃霧籠罩的極端天氣使駕駛人員喪失了正常的判斷,但在天氣良好之時,這種判斷也不會存在多大的困難。就此來看,應當認為是由駕駛人員實現了該風險。因此,綜合案件的所有事實來看,通過客觀歸責階層的判斷,針對類似事故還難以追究產品制造者的刑事責任。

(2)“半自動化類型”的自動駕駛交通肇事的責任分配

此種類型下,只有在系統發生請求之后才由駕駛員進行接管,因而駕駛員并不時時刻刻都在完全支配、控制著車輛。那么,根據客觀歸責理論判斷的關鍵在于:被害者是否處于決定性的支配地位。如果被害者處于決定性支配地位時,只要被害者沒有被視為侵害的道具性,行為者就被認為是不可懲罰的。行為者根據特別的危險創造了受害者的意思瑕疵的情況等,在被害者間接正犯的地位被認可的情況下,行為者也應被認為具有可罰性[34]。因此,對于這種類型的自動駕駛導致的交通肇事事件又可進一步區分為兩種類型:

其一是由自動駕駛系統操控導致的交通肇事類型。該種類型實質上是由自動駕駛系統進行的操作,因而與其后“強人工智能階段的自動駕駛汽車交通肇事的類型”歸責相同,因此,在此為了避免重復贅述,將留待下文探討解決。

其二是在自動駕駛系統請求駕駛員進行操作后,駕駛員操作引起的交通肇事。該情形并非是自動駕駛,因此,駕駛人在此模式下構成交通肇事罪與傳統型交通肇事罪的處斷沒有任何差別。只要是駕駛人員違背了交通運輸法規的義務,那么根據客觀歸責理論來看,駕駛人員在客觀上創設了危險并實現了危險,且在當時已經由自動駕駛系統轉移給人類駕駛,被害人意思瑕疵或者操作不當成為發生事故的主要原因,并且其主觀上存在以疏忽大意或過于自信為內容特征的過失類型,那么就應當以交通肇事罪追究駕駛人員相應的刑事責任。值得注意的是,在責任的承擔上,“在系統發出警告至駕駛員接管為止的時間內,駕駛員的責任將根據駕駛員在警告時點立即接受任務的情形下能否回避結果的發生,即該時點的結果回避可能性的有無(過失的有無)而有所不同”[35]。即如果由駕駛人員立即接手后,由于意外事件以及不可抗力發生了交通事故的,那么駕駛人員也不應承擔刑事責任。

2.“完全自動化類型”的自動駕駛交通肇事的責任分配

雖然這一階段的自動駕駛汽車依然不應具有犯罪主體的特性,但是由其造成的交通肇事來說,設計者應在何種范圍內承擔刑事責任?筆者擬打算通過客觀歸責理論進行具體檢討。如前所論,危險創造關聯是關于行為抽象的危險性的事前判斷,危險實現關聯是考慮判明的全部情況之外又加上因果作用的實際的判斷及規范的保護目的而進行的事后判斷[15]12。就自動駕駛汽車的系統設計者來說,顯然是制造客觀危險的行為,從客觀事實的層面進行形式化的判斷,不能否定其與交通肇事的危害結果之間存在一定的關聯性。但是綜合來看,依然需要分情況具體探討其承擔相應的刑事責任的范圍。

(1)設計者明知系統存在缺陷的責任分配

如果自動駕駛引起了刑法意義上的結果,而這又是由于自動駕駛汽車的系統設計者刻意或者在明知的情況下設定的程序,那么該設計者的刑事責任就不存在疑問[7]222。

首先,這種情形的風險是由設計者制造的。如果設計者明知道存在缺陷,則說明未來存在發生安全事故的風險,這種風險在現實生活中并非不重要,那么采取相應的措施旨在降低風險則成為必然的選擇。放任不管的行為實質上是進一步加劇風險的發生的概率。其次,從表面看來,是由駕駛者導致了危害結果,但是實際中并非如此。在強人工智能時代,駕駛員在實際駕駛中所起到的作用很小,甚至有的駕駛人員在駕駛過程中可以從事與駕駛活動無關的閱讀、睡覺等行為。因而,該危害結果的發生依然是由該自動駕駛系統所延伸導致的結果。

所以,通過客觀歸責理論來看,此時的自動駕駛系統的設計者主觀上明知該產品存在缺陷,對最終危害結果發生的主觀心態應當是過失,因而應當承擔交通肇事罪的刑事責任。值得注意的是,如果設計者放任有缺陷的產品流通市場造成其他財產損失的,但是尚未達到交通肇事罪的入罪標準,對于該種情形,正如前文筆者所表明的立場那樣,此時自動駕駛系統并不具有刑事犯罪主體資格,因而仍然可以通過刑法第146條規定的生產不符合安全標準的產品罪追究相應主體的刑事責任。

(2)設計者不知系統存在缺陷的責任分配

“設計者不知系統存在缺陷”可以區分為兩種不同的類型:①設計者一開始并不明知該系統存在缺陷,但是投入使用后發現存在缺陷,但并不積極采取措施最終導致交通肇事的情形。顯然,根據客觀歸責理論來看,這種危險的制造與實現,對于設計者來說都是客觀存在的。那么,問題是,這種事后的義務是否應強加給相關的設計者。筆者認為,從義務的來源來看,這種高端科技所應當具有的義務于設計者而言,是不可免除的,因為其獲得該項產品瑕疵的渠道以及可能性遠遠超過社會普通的社會成員,所以,即便在經過一段時間后獲得了相關的信息后,其仍然存在消除該風險的義務;否則,由此而導致的危險現實化的結果,仍然需要由設計者承擔相應的責任。②設計者從始至終并不知道該系統存在問題,但最終在現實中還是發生了交通肇事的情形。眾所周知,根據客觀歸責理論來看,即便行為人制造了危險,但是如果該危險是被社會所允許的,那么也不應對行為人進行歸責。雖然在理論上的判斷還存在“主觀說”與“客觀說”的對立。但是無論基于何種立場,發展人工智能這樣的高端科學技術是目前全世界科學領域共同致力踐行的目標之一。作為人工智能的自動化駕駛技術是人類科學技術發展到一定階段的產物和結果,如果限制的過多,也會導致科學技術的進一步萎縮甚至停滯。對于交通領域來說,其本身就屬于具有較高風險的領域,因此,一方面為了保持科學技術強勁發展的勢頭,另一方面為了落實責任主義原則,只要行為人(包括系統的設計者)履行了合理的注意義務,即使自動駕駛車輛最終發生了交通事故,也應當免除相關行為人的刑事責任。所以,不論是從“主觀說”還是“客觀說”來看,這種科學技術所固有的風險應當是社會所允許的危險?!爱斨悄芷嚤辉试S上路之時就表明人類在衡量利弊之后已經接受其所存在的風險,正如傳統汽車也同樣使人類置于交通事故的風險之中并早已被人類所接受一樣”[36]。因此,如果設計者從設計之初就履行了合理的注意義務,只是限于科學技術水平的限制未能發現其缺陷,那么即便由此而發生了交通事故,刑法應保持應有的克制,不應對行為人論罪處刑才具有妥當性[37]。

五、結 語

“與其他實體法相比,在新的社會規范的形成、原有法律規范的強化加固過程中,刑法承擔了非常重要和核心的作用,而且刑法能夠在短期內獲得直接的尊重”[38]。因此,當人們面對目前的自動駕駛汽車交通肇事案件,尋求刑法規制的正當性就變得尤為迫切。然而,就該問題所呈現刑法規制困境的根源無非集中在自動駕駛汽車有無犯罪主體資格問題上。當然,正是我國刑事立法未能“一錘定音”予以明確,所以對該問題的爭議將也不可避免地影響到了自動駕駛汽車交通肇事刑事責任的歸屬。就自動駕駛汽車交通肇事而言,其無非是一種風險,在理論根據上契合了客觀歸責理論,且通過客觀歸責理論的階層性判斷,能夠明確在不同的人工智能階段自動駕駛汽車導致交通肇事時所承擔刑事責任的主體范圍以及限度。特別是在限定處罰范圍上,客觀歸責理論與其他的處理方案相比,表現出了能夠明晰不同責任主體刑事責任的理論優勢。值得注意的是,無論是處在強弱人工智能階段的自動駕駛汽車,均存在相應的免責事由。免除刑事責任并不意味著對其造成的損失不承擔相應的民事責任,至于在民事侵權責任上該如何進行細致的劃分,可以另做進一步的探討,限于與本文主旨關聯性不強,本文不再單獨展開。

猜你喜歡
交通肇事駕駛人員設計者
極端天氣中的車輛安全駕駛技巧分析
如何提高機關事業單位駕駛人員的服務意識
2020德國iF設計獎
汽車駕駛技能的形成與駕駛技能的培養探討
2019德國IF設計大獎
安全駕駛 遠離“路怒”情緒
交通肇事發生后傷者可以得到哪些賠償
“交通運輸肇事后逃逸”的認定——以張某某交通肇事抗訴案為例
楊敬:深水區醫改設計者
深水區醫改設計者
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合