?

無人駕駛的道德困境

2024-05-06 10:15余澤娜裴安琪
嶺南學刊 2024年1期
關鍵詞:無人駕駛倫理決策

余澤娜,裴安琪

(中共廣東省委黨校 哲學教研部,廣東 廣州 510053)

借助機器人在數據和算法的幫助下代替人類從事汽車駕駛工作,正在改變人類的出行方式和生活方式。但是,自2018年3月美國Uber公司的一輛無人駕駛汽車撞死一位行人事件發生之后,關于無人駕駛的倫理和道德討論就開始不斷深入起來。其中的關鍵就在于,無人駕駛如何避免機器算法和判斷的失靈,而不是只滿足于技術上的自動化。而關于機器算法和判斷的失靈的彌補,必然是一個倫理和道德問題,因為只有人才真正具有道德判斷的自主和決策能力。但至今的討論顯然過于簡單化和理想化,并沒有深入分析基于無人駕駛技術帶來的深層次倫理困境問題。無人駕駛技術之所以陷入倫理兩難困境,在于機器的道德決策過程是否具備主體性,以及由此產生的道德決策主體問題、事故歸責問題和隱私問題四大障礙,唯有全面分析這四個方面,才能進一步提出解決這四個障礙的對策。

一、道德決策過程的兩難問題

“電車難題”是倫理學中具有代表性的“兩難問題”,最早由Foot提出[1]。關于這一問題的經典描述是電車行進前方的鐵軌上有五個人,此時一輛剎車失控的電車正朝他們駛來。你可以通過拉動拉桿讓電車駛向另一條鐵軌,但另一條鐵軌上也有一個人,你該如何選擇?在假想的“電車難題”的困境中主要考慮的是人數的差異,但由于無人駕駛問題的現實性,其算法內置程序關于相同境遇中應該考慮的因素應更為細致,因而其道德決策會更加復雜。

比如在年輕人和老人之間如何抉擇,人和動物之間如何抉擇以及科學家和流浪漢之間如何抉擇等等。關于這些問題的內置算法程序在決策的時候,一旦選擇不慎誤用道德共識,就會導致自動駕駛的倫理問題。為此,美國麻省理工學院曾做過一個“道德機器”實驗,這一實驗設計了9種不同事故的場景,面向全球隨機抽取樣本,調查人們在這些場景中希望無人駕駛機器應做出何種道德選擇。實驗結果顯示出人們強烈的道德偏好——無人駕駛汽車在面臨兩難困境時應選擇:人類而非寵物、車內乘客而非行人、多數人而非少數人、女性而非男性、年幼者而非年長者、身體健康而非體弱多病的、社會地位更高而非更低的、守法的而非鉆法律空子的人[2]。

問題在于這些調查違反了幾乎所有的倫理流派的道德底線——把人的生命量化考量。自文藝復興以來“人人平等”成為我們的共識,上述調查研究把人的性別、身份、社會地位等后天因素作為道德決策時的考慮因素,得到的結論與我們的倫理共識存在沖突,讓大多數倫理學家都難以接受。更有甚者,調查還把其他物種(比如小狗)考慮進去,一旦調查結果是無人駕駛可能為救10只小狗的生命而撞人,這將更加違背倫理常識。

上述違背倫理常識的問題可能會讓我們更進一步發問,無人駕駛技術是否能夠做出自我的、可接受的道德決策?顯然困難巨大。與電車難題中對司機的要求一樣,對無人駕駛內置算法程序在道德選擇方面的要求也是一件頗為棘手的事情。

道德決策的兩難困境焦點最終指向功利主義和義務論兩種不同的倫理立場。以邊沁為代表的功利主義者認為要以“滿足最大多數人的最大幸?!痹瓌t為道德決策的指導,主張“兩害相權取其輕”;以康德為代表的義務論者則認為不能把人當做目的,堅持在“普遍律原則”的指導下做出道德決策,但兩者在實踐的過程中都存在不可避免又無法彌補的缺陷。

功利主義的算法設置本質上是一種算術行為,看似最為科學簡明有效,實則面臨嚴峻復雜的算法任務。以功利主義倫理立場為指導的內置算法程序要計算出所有可能會出現的結果并對其進行道德排序,以交付人們從中做出正確的即效用最大化的選擇。數字倫理研究領域著名學者米歇爾·安德森和蘇珊·安德森依據功利主義原則建立了簡單的算法程序:通過考量受影響的人數、每個人快樂或不快樂的強度和持續度以及快樂或不快樂在每一個可能行動中出現的可能性,得出最佳行動方案[3]。但由于“快樂能否量化”問題存在爭議且其強度和持續性難以考量,功利主義并不具有現實的可操作性。更加需要指出的是,功利主義最大的弊端在于他們自始至終都無法解釋“最大多數人的最大利益”何以能夠成為道德行為正確與否的衡量標準,以及利益相關者人數最大化和利益最大化何者更為優先的問題。如果把道德選擇和利益計算相等同,那么人的內在價值將不復存在,道德也就無處存身。這是功利主義無法承認的。

義務論的核心是考量行為本身是否符合道德規范而不關注其結果??档碌牧x務論要求我們確立具有普遍性的道德規范,這似乎不難,問題在于嚴格地執行這種理想的普遍性規范非常困難。每一個規范性理論,如果在實踐中得到完全嚴格的執行,都可能在某些情境下導致人或機器做出違背直覺的、非常不道德的甚至荒謬的行為。因為現實的道德情境和道德主體的行為特征往往是復雜的,這與道德規范理論所闡述的單一性特征相矛盾。比如在“人應該誠實,不能說謊”這一道德規范中,誠實所闡述的是單一性的特征。但是在具體的現實情境中,誠實的道德品質可能會間接導致無辜的人失去生命。這一結果明顯不符合我們的道德直覺。同樣,在無人駕駛中,如果嚴苛地按照事先設定好的準則指示內置程序做出符合道德規范的行為,也將會形成類似“誠實間接致人死亡”的道德困境,即基于定言命令的道德準則與現實情景中的道德直覺發生沖突。面對現實的具體情境,我們需衡量堅守原則與允許打破原則的“例外”存在何者更符合我們的道德直覺。比如,若堅守“誠實”的道德原則會致無辜者死亡,那么“善意的謊言”或“描述部分事實”則應該被視為符合道德原則的一種例外。事實上,做出道德判斷的過程往往是衡量各個道德原則是否應當被破例以符合人們的道德直覺的過程,也是人們的理性思維和感性直觀的博弈過程。人類自身面對如此難題尚且無所適從,若把期望寄托在無人駕駛的內置算法程序上無疑更是過于天真。

無論是功利主義還是義務論,二者在這類道德兩難困境中均不具有絕對的道德正當性,無人駕駛的內置程序無論如何設計都有跌入“騎驢困境”的風險。所以,無人駕駛在道德決策過程中的兩難困境是無法避免的現實,若無人駕駛汽車可以避免做出倫理選擇,那么這一困境就可以得到解決。

從邏輯上來說,無人駕駛汽車可以通過兩種途徑避免做出倫理選擇:第一,無人駕駛汽車可以通過技術發展實現零碰撞。第二,若做不到第一,無人駕駛需要做到在碰撞發生前把決策權交還給人。問題在于,這兩者都無法實現。就零碰撞而言,盡管技術樂觀主義者認為科技發展可以實現這一目標,但目前來講這一美好愿景很難達到。一方面探測系統仍然存在很多局限,部分細小物體難以識別;另一方面即便探測系統未來能夠識別所有物品,但駕駛過程本身復雜多變,技術無法預測道路行人以及路上其他非無人駕駛汽車的動態軌跡。就決策權的轉移而言,在無人駕駛汽車發生碰撞前把決策權交還給人,表面看來確實能避免無人駕駛汽車道德決策的兩難問題,但如果無人駕駛技術需要人時刻保持警惕參與駕駛活動,這不僅是對“無人駕駛”語義直覺的違背,也是對“無人駕駛”本身功能的消解,且對于提升駕駛安全、解放人類駕駛員的作用都有限。因此,在遇到緊急情況時,無人駕駛在道德決策方面面臨的困境是無法通過上述兩種途徑得到根除的。

二、道德決策的主體問題

即使無人駕駛的道德決策不存在倫理爭議,它也面臨另一個困境,即此時道德決策的主體是誰?技術(機器)還是人?這就是無人駕駛中的道德決策主體問題,這一問題包含兩方面的內容。

第一個方面,汽車無人駕駛技術是否可以成為道德主體?

既然是機器在自動駕駛,那么人類可否將駕駛過程中道德決策的自主權讓渡給機器?這就涉及到機器人是否具有道德主體地位的問題。隨著科學技術的發展,汽車無人駕駛技術是否可以成為道德主體進而享有道德權利并且承擔相應道德責任引發學界討論,成為科技倫理的核心問題之一。在討論無人駕駛技術是否具有道德地位之前,我們有必要明確道德地位的概念,即何為道德地位。

甘紹平對道德地位給出的定義是:“一個實體因其自身而獲得人類道德關懷的資格”[4]207。道德地位往往伴隨著一定的道德權利(moral right)和道德義務(moral obligation)。一個實體擁有了一定的道德地位,就表明這個實體必然可以享受道德權利,承擔道德義務。擁有道德地位的行為主體可以獲得人類道德關懷,也應對道德共同體內的其他成員給予道德關懷。

對于無人駕駛技術等人工智能,如果人類以自身擁有的道德意識來對其進行規約,以自身為藍本,要求其擁有相等的道德地位尤其是承擔相等的道德責任和義務,這首先乃是一種對于自然界其他存在物的苛求,是一種道德領域內的人類中心主義。但是即便擺脫道德領域的人類中心主義,從技術工具論角度來看,無人駕駛技術依舊不能成為道德主體,或者說無法擁有其道德地位。

雖然科技發展正在影響著人類生活的方方面面,并且科技在發展的過程中自身呈現出一定的發展規律,這種規律影響著社會的運行方式,無形中改變著社會原本的形態,包括人、科學、政治與經濟等諸多層面都會受到科技的影響??萍际沟萌祟悓ζ溆右蕾?,而且這種影響的發展往往被大眾認為是不可控的。但歸根結底,技術由人研發,聽命于人類,并最終服務于人類。因此人類應該明白,技術僅僅是一種工具,無人駕駛技術最終是由人制造,由人設定規則,并且服務于人,是人在主導無人駕駛技術的發展而不是相反。尤其重要的是,無人駕駛技術本身不具備道德屬性,它無法理解人類所理解的“善”與“惡”,即使能理解也是人類對其設定的程序所致,且其所學習的道德知識——如果它有這個學習能力的話——也是來源于人類。而且,即使它習得了人類的道德規則,也仍然無法理解這些規則的真正意蘊與背后的形而上理由。

因此,本文認為無人駕駛技術不具有道德屬性,自然,它也就不具有道德地位,無法成為道德主體。如果無人駕駛技術被人類強行賦予道德地位,人類強行讓無法成為道德主體的無人駕駛技術成為道德主體,強行讓無法承擔道德責任的無人駕駛技術承擔道德責任,不僅會導致人類產生惡念,導致本應承擔相應道德和法律責任的人利用無人駕駛技術逃脫法律的制裁和道德指責,更會影響乃至改變人類幾千年來形成的相對穩定的責任歸屬和社會規范模式,甚至會導致人類社會形成無責任歸屬和無社會規范的無序社會模式。

第二個方面,如果只有人才能成為無人駕駛中道德決策的主體,那么應該是誰?

這之所以成為一個問題或困境,是因為,在人類駕駛行為中,駕駛人就是道德決策主體,他依據自己的利益或者良心做出選擇;而在無人駕駛中,直接的決策者是機器。但機器既然不能成為道德主體,人們就必須將自己的道德命令事先灌輸給它,讓它按照人的道德尺度行事。問題是,灌輸給機器的道德命令應該是什么人的?與無人駕駛中的道德決策相關的人包括但不限于:駕駛人、乘客、行人、汽車制造商、政府等,在這些人中,誰應該成為道德決策的真正主體?這些可能的主體之間由于存在利益或觀念沖突因而可能會做出不同甚至截然相反的道德決策。所以看起來,在這些不同的人中間尋求某種道德共識是一種合理的解決方案。上述麻省理工學院的實驗正是為了在世界范圍內征集人們的意愿,以評估跨越不同文化、國家、種族、宗教等背景的人們的道德偏好,從而用以指導制定“道德機器”所應遵循的道德規范。

然而,正如倫理學研究早就揭示的,在較大范圍人群中取得道德共識是一件十分困難的事,范圍越大越艱難。不僅如此,而且,人們在假想的實驗中所表露的道德立場往往并不等同于他身處事件之中時會采取的真實道德立場。前者更多地基于理性推導,是抽象的;后者則會因其身份、利益的變化而變化,是具體的。例如,他在實驗中支持遇到兩難困境時應選擇車內乘客優先而非行人優先,但當他真的成為事件中無辜的行人時,他可能會反對自己原來的立場。同時,是否需要征集利益相關者意愿以及在多大程度上采取他們的意愿涉及公共政策與道德偏好之間的關系。收集公眾偏好并不意味著這樣的道德偏好就是我們設計無人駕駛汽車的唯一依據或標準。公共政策作為事實和價值的統一體,還要考慮到技術層面的可行性以及該技術功用目的的達成度。并且,以道德偏好作為公共政策制定的依據暗含“群體歧視”的道德風險。具體到無人駕駛的道德決策問題上,如果以道德偏好作為內置算法程序的決策依據,可能暗含歧視或犧牲少數群體——特定性別、特定族裔、或特定地區——利益的先置設定。并且,訴諸直覺的道德偏好由于不同社會文化背景的差異,具有極強的道德相對主義。同時,道德偏好的選擇僅代表實然層面的“是”,無法提供具有正當性的“應當”。因此,公眾的道德偏好不能成為公共政策的制定依據。事實上,往往不是人們的道德偏好決定公共政策,而是公共政策規定人們的道德偏好。

但是,如果在無人駕駛過程中遇到緊急情況時是依據相關公共政策做出道德決策,那么,姑且不論這種政策是否能夠窮盡駕駛過程中的一切復雜情況和細節,單就政策的制定而言,我們發現我們仍然處于困境之中——政策的制定者似乎成了最終的道德決策主體,而制定者是誰?官員或者專家?他們制定的倫理依據是什么?甚至可能有人會指責:聽取了公眾意愿了嗎?

于是我們發現問題又循環回來了。在眾多利益和價值觀念相異的可能主體中,我們既不能只采取其中一部分人的立場,又很難取得他們關于無人駕駛道德決策的共識。

倫理學研究者很難幫助公眾做出完美的道德決策,我們能做的只是提出一個道德底線,在此基礎之上讓公民自由地選擇。問題在于這個道德底線究竟是什么?這里首先可以參考契約主義的主張。每一種道德選擇都蘊含著各自的價值取向,但我們需要形成一致的解決方案和規則。契約主義在這里為我們提供了啟發,它認為規則的訂立應當以所有人為滿足自己利益而自愿簽訂契約為基礎,這突出了不同主體利益的平衡性、對等性與相互性。這里最為核心的一點就是,規則的制定必須是在“無知之幕”下進行的,在“無知之幕”下,每一個主體都不知道自己將會在無人駕駛的相關事件中充任什么角色。這也符合康德“普遍立法”的道德律,這條道德律令要求人們做出道德決定不能因為場景和身份的轉變而隨之改變。如此就避免了一種尷尬情形——當某人身為自動駕駛汽車上的乘客時,認為應為保護自己而犧牲行人;但當自己身份轉換為行人時,又認為應為保護行人而犧牲車上的乘客。契約主義為包括駕駛人、乘客、行人、汽車制造商、政府等在內的不同主體商談設立無人駕駛倫理規則提供了可供參考的方法論。當各方在滿足自己利益需求的基礎上自愿達成共識并簽署契約,則我們安排機器按照該契約做出的道德決策就應該被視為符合倫理規范的道德決策。

同時,還可以根據那些我們無法接受的倫理規則來確立道德底線。比如無人駕駛內置程序不能提供個性化的道德選擇,因為若如此,則每個人都會根據利己主義做出倫理選擇,這將會損害整體利益并有滑向囚徒困境的風險。

三、事故歸責問題

大部分討論,都停留于上述兩種道德困境,即側重于理論層面的探討。而無人駕駛發生事故后引發的歸責問題以及大數據在搜集道路信息乘客信息時引發的隱私安全問題則屬于實踐層面的困境,這同樣需要更為細致的倫理分析。

傳統駕駛發生事故后的責任劃定可以依據現有的法律規范得出較為清晰的結論,一般來說人類是事故的主體。但無人駕駛發生事故后的歸責不僅涉及復雜的技術認定問題,也涉及倫理、法律界對自動駕駛系統的主體地位認定的爭議。按照我們上面的討論,機器人道德主體地位的模糊性使得我們對其判罰行為的正當性大大削弱。并且,人類歷史上的責任判罰懲處其執行方式通常是剝奪對象某種權利或價值,比如剝奪政治權利、生命權或者自由。無人駕駛技術作為人造物本身不具備社會屬性,不存在自由意志更談不上生命價值。換言之,無人駕駛技術不具備人類社會的可判罰要求。此時,責任歸屬對象變得復雜起來。一方面,自動駕駛車輛及其技術可能正是“罪魁禍首”“肇事者”;另一方面,它卻無法作為具有自由意志的道德主體承擔責任。那么,責任者是誰?是否僅包括汽車供應商和算法設計者;乘客應不應該也被囊括其中?各主體如何認領屬于自己的責任以及如何對責任進行劃分成為需要多方協商解決的重大問題。

需要強調的是,責任劃分要避免出現“道德推脫”的倫理困境。Bandura認為,一個自治的人道的社會根植于道德自我制裁——人們持續地控制自己的行為,且必須承擔自己所做的事情和自我評價的結果[5]。無人駕駛事故發生后的責任裁定涉及到多方主體且各主體所需承擔責任的比重有待商榷,在此過程中要始終對責任擴散現象保持警惕,責任感可以被分散開來,因為分工而消失。大多數事業需要很多人參與其中,每一項任務都被細分為多種工作,導致大家感覺每種工作本身都是無害的[6]。一方面,汽車供應商、算法設計者以及乘客都應積極承擔自己的責任。首先,對汽車供應商而言首要的道德責任就是確保無人駕駛汽車的硬件安全。在無人駕駛汽車出廠之前要嚴格把關質量安全審查,并且要致力于提高無人駕駛汽車的安全性能研究。其次,算法設計者要時刻謹記阿西莫夫提出的機器人學的“三大法則”——安全是最基本的倫理準則[7],也是人的基本價值。算法設計者要在技術上盡可能地做到精細化,以不斷趨近“零碰撞”的美好愿景(盡管可能永遠無法達到)。但是,設計者更要注意的是避免技術自負。當代科技的發展尤其是人工智能技術的發展強化了近代理性主義的傳統,這導致樂觀主義者關于技術萬能的迷信。然而,任何技術都不可能沒有漏洞和安全隱患,我們更不能盲目相信技術可以代替人做出合理的價值判斷。所以,算法設計者等技術人員既需要不斷完善無人駕駛技術,也需要時刻注意用人類的價值理性去規制技術的開發與利用。最后,乘客作為無人駕駛技術的享受者不僅要熟悉無人駕駛技術的性能和局限,在其能力范圍內合理使用無人駕駛技術,而且要對不當使用所致的后果負責。同時,根據需要定期對無人駕駛車輛進行維護和保養。

另一方面,加快建立問責制度是解決責任劃分難題的有效保障。應從責任倫理的視角出發,明確各責任主體的權利和義務,建立清晰有效的問責制度,避免“道德推脫”的問責難題。目前無人駕駛技術基本采用“人機共駕”模式以應對問責難題,即車內搭載安全員在必要時進行人工操作。但該模式仍存在諸多不足,由于旁觀者效應,安全員難以全神貫注時刻保持接管操作車輛的心理準備。2018年美國Uber自動駕駛汽車撞人事件充分證明了這一點。并且,“人機共駕”難以作為消解事故歸責難題的根本之策,只能作為無人駕駛技術落地過渡的緩兵之計。

如果說“人機共駕”是對“無人駕駛”語義直覺的違背,只能作為責任劃分的權宜之計,那么把人類從駕駛任務上剝離但仍然保留其道德和法律上的主體地位,保留人類最終對算法的設置和接管權,確保人類在事故發生之后的責任補位,并最終確定責任由誰承擔歸誰負責,則無疑是我們應該劃定的道德底線。

四、隱私安全問題

隱私原本指不受他人干擾的自由狀態,后引申為人們的一項特有的權利,即隱私權。隱私作為人的一項自然權利,隨著人類文明的進步其內涵也在不斷豐富發展。在日常生活中,隱私即指個人信息未經本人允許禁止被他人收集、處理以及利用。學界對隱私權的地位有著幾種不同的理解,Schoeman認為隱私是實現人類尊嚴的必要條件,是人類生而有之的一種權利和需要[8]12。有些學者則認為隱私僅僅具有工具價值或者相對價值,Volkman認為隱私權僅僅是從基本權利中派生出來的權利,反對把隱私權當作一種自然權利,并且認為由于其派生性所以它只是相對于某些人類基本權益才有價值,它只是一種工具價值、相對價值[9]。

隨著互聯網大數據的發展,傳統的基于物理空間意義上對隱私權的保護已經不能滿足網絡空間面臨的隱私權的新挑戰。具體到無人駕駛的隱私安全問題主要有以下兩個方面:第一,對人類網絡空間的入侵。無人駕駛汽車依賴的是物聯網與大數據共享,做到安全快速的前提是要盡可能多地掌握數據信息。這些數據信息不僅包括車內乘客的行駛、操作記錄,同時也包括車內乘客的交談以及行駛過程中的環境信息。如此,置身于無人駕駛技術下的每個人都有掉入“圓形監獄”的可能,我們失去了相對隱匿的移動能力,無形之中被“監控”起來。并且,在大數據時代這些數據信息蘊含著巨大的價值,最終這些資源由誰監管,乘客是否擁有監督和自治權等問題都懸而未決。第二,算法精準推送限制主體選擇,對個人自我決策產生干擾?;谟脩魯祿摹邦A測性分析”算法推送應用已經非常普及,具體到無人駕駛技術上就是,它會根據搜集到的乘客信息選擇符合乘客偏好的路線。強大的數據預測功能意味著我們的未來將會被算法設計和限制,置身于“圓形監獄”之中,不僅我們的過去是透明的我們的未來也是透明的。這種狀況的直接后果就是我們無法完全按照自己的意志自由地進行決策,正如《未來簡史》為我們敲響的警鐘:最終“算法會成為所有人”[10]108。

大數據搜集道路和乘客信息建立數據庫會模糊隱私邊界,若不對此加以防范,會產生諸多倫理問題。首先,互聯網大數據對隱私權的壓迫違背了密爾的“傷害原則”——“人類之所以有理有權可以各別地或者集體地對其中任何分子的行動自由進行干涉,唯一的目的只是自我防衛”[11]10,密爾的“傷害原則”在個人和社會之間筑起一道防止對個人造成傷害的壁壘。在大數據時代,個體領域不斷被外界“干涉”,基于信息泄漏隱私侵犯所造成的傷害也更為普遍和直接。其次,算法的精準推送有可能違背“公正”和“平等”原則。根據沃爾策的觀點,每一種善都是特殊的并且有著自己獨特的分配方式、分配機制和分配標準,所以為了維護每個領域的公平,每一種分配原則都應該被限制在自己的領域之內,必須反對一個領域的善越過、侵入和統治另一個領域的善。算法獲取信息和數據,只有在生活便捷的邊界內才是善的或者合理的,利用收集的數據對個體實行精準推送的行為一旦越過這一邊界(比如為了獲取商業利益),便會違反“公平”原則。并且,由于數據資源的監管和掌控權的劃分與歸屬尚不明晰,當前更需要對個人數據信息的獲取和流通實施嚴格的法律與倫理規制。

然而令法律和倫理規制感到為難的是,私域與公域、算法推送的便利性與商業性之間的界限到底在哪?無人駕駛汽車車主的身份、車牌號碼、辦公地點、家庭住址、常去的地點等信息無疑屬于個人隱私,但如果這些私人信息不被匯集入公共數據平臺,無人駕駛這一惠及社會的技術就不能發揮任何作用;算法推送的行駛路線、車內音樂讓我們享受到便利,但這些推送又在多大程度上控制著我們的自主選擇、形成了我們的“信息繭房”?更何況,自由、隱私、便利等價值中,何者更為優先,每一種價值的權重是多少,不同的人會有不同的選擇。有關隱私安全的此類難題,構成了無人駕駛在實際應用層面的又一個道德困境。

五、結語

上述無人駕駛道德困境形成的因素是復雜的,如單一倫理立場的局限性及其之間的相互沖突,人們對新技術產物的道德地位尚缺乏準確的認知,人們對這一技術的多種需求之間的倫理沖突,技術本身還不能達到像人一樣的自主意識等等。因此,面對和解決上述倫理困境也將是一個系統而持久的工程。但無論怎樣,人類絕對不能因為技術應用的便利而放棄人自身的道德訴求。作為一種道德的存在物,人類需要平衡自身對于技術的多種利益需求并在必要的時候放棄某些利益。我們需要審慎對待無人駕駛技術的任何突破性的進展,加強對技術發展的法律規制、倫理審視和人文關懷。我們要筑牢無人駕駛內置算法程序的倫理屏障,讓無人駕駛技術在研發、試用以及推廣的過程中多一些倫理審視和倫理關懷。汽車可以無人駕駛,但社會之車在前行過程的任何時刻,其方向盤都應牢牢掌握在人類的道德之手中。

猜你喜歡
無人駕駛倫理決策
《心之死》的趣味與倫理焦慮
我們村的無人駕駛公交
為可持續決策提供依據
無人駕駛車輛
無人駕駛公園
護生眼中的倫理修養
決策為什么失誤了
醫改莫忘構建倫理新機制
婚姻家庭法的倫理性及其立法延展
滬將建600-800km有軌電車 未來或“無人駕駛”
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合