?

人工智能的倫理風險及對策研究

2023-02-23 20:12錢燕娜
關鍵詞:倫理原則人工智能

錢燕娜

(國防大學政治學院,上海 201600)

隨著人工智能技術的不斷發展,它的無限潛能已成為當今世界的一大亮點,引發了一場前所未有的重大變革。中國正在把人工智能技術作為推進產業發展和實現經濟騰飛的重要支撐,努力建設一個具有全球影響力的人工智能強國。中國應當采取多種策略,以實現人工智能技術的全面、多層次的發展,并對其可能帶來的道德和社會影響進行深入的研究和評估,以便制定適當的法規和政策,以確保人工智能技術的可持續性和安全性。

一、人工智能的倫理風險樣態

人工智能可能會面臨三種倫理風險:關系紊亂、價值失衡和行為異化。這些風險可能會對人工智能的發展造成不利影響。

(一)倫理關系失調的風險樣態

隨著技術的進步,人工智能產品的相似性日益增強,使得人機之間的界限變得愈加模糊,而在這個新的時代,倫理學的研究也不斷擴大,不僅僅局限于人與人之間的關系,還涉及到人與機器人、機器人與機器人之間的關系。人工智能的重要性已經不容忽視,它可以為社會帶來巨大的變革,構建一個更加和諧的環境,促進共同的進步。一些學者甚至提出了一個深刻的思考:即使我們無法以物質或化學的方式獲得真正的幸福,但我們也可以以積極的態度參與到社會的交流中去?維護和促進社會的交流與合作依舊至關重要?①參見譚九生、楊建武:《人工智能技術的倫理風險及其協同治理》,載《中國行政管理》2019 年第10 期。隨著科技的發展,越來越多的研究表明,人類和機器之間的邊界越來越模糊,從而導致了倫理關系的失衡。因此,在倫理學上,人們開始討論如何將機器人作為倫理的主體,而非僅僅將其作為人類的工具。這就引發了一場關于人類和機器的倫理之爭②參見劉繼虎、王琛揚:《智能機器人法律主體地位之探討》,載《重慶郵電大學學報(社會科學版)》2021 年第2 期。。盡管單一的形式模型可以提供一定的結構,但由于其缺乏因果關聯,無法實現對意圖的完整捕捉,因此,必須采用更加復雜的方法來構建出更加豐富的結構①John R.Searle,Minds,BrAIn,and Programs.3 Behaviroral &BrAIn Sciences 417(1980).轉引自譚九生、楊建武:《人工智能技術的倫理風險及其協同治理》,載《中國行政管理》2019 年第10 期。。隨著科技的進步,人工智能已經被認識到它在未來扮演重要角色。如果我們把它作為一個倫理主體,那么它將改變我們日常生活中的三種基本社會關系:人際、財富和權力。它還將影響我們的家庭和政治,改善我們的日常生活。因此,我們必須認識到,如果我們把它作為一個倫理主體,就必須采取行動來維護我們的道德和社會秩序。

(二)倫理價值失衡的風險樣態

隨著時代的進步,“人文價值觀”一詞已經成為一種普遍的社會道德準則,它強調了公平、正義、尊重和保護個人的基本權利。此外,它還強調了對人的尊重,認識到人的本質,并將其作為自身行動的基礎。近年來,由于地區、行業和其他智能技術的不均衡發展,使得數字鴻溝日益擴大,算法歧視也變得越來越普遍,這給社會帶來了極大的不利影響,嚴重制約了社會的可持續性和進步性,甚至有從“國家利維坦”②“利維坦”(Leviathan)原為《舊約圣經》中記載的一種海上怪獸,被稱為“上帝所創造的惡魔”。自霍布斯撰寫的《利維坦》問世以后,該詞成為強勢的國家(政府)的代名詞。演變為“數字利維坦”的趨勢,人文價值觀作為社會倫理價值的基本取向,正面臨著被解構的危機。人工智能技術的發展可能會導致社會倫理價值的失衡,這種失衡可以從兩個方面來體現:

第一,公平的社會倫理價值觀受到了嚴重的挑戰。社會公平不僅僅是指生活上的平等,而是指每個人都應該按照法律規定享有同樣的權利,并且應該盡自己的義務,這是一種基本的社會共識。隨著人工智能技術的發展,擁有技術優勢的個人和組織可以獲得更多的資源和信息,但由于每個人的知識結構和技術掌握水平的不同,這些紅利并不能均衡地惠及每一位成員,從而導致了“數字鴻溝”等現象的出現。隨著人工智能技術的發展,它不僅促進了經濟的發展,還造成了技術不對稱,從而導致權利的不公平。此外,人工智能技術還可能導致國家權力的分散,從而阻礙人類社會的平等、自由和共享,但也可能帶來“數字利維坦”的潛在風險。隨著IT 的進步,“國家利維坦”被迫被限制,以促進國家的透明化和民主化,但“數字利維坦”卻開始脫離人類社會,甚至可能對人類社會造成不可逆轉的影響③鄖彥輝:《數字利維坦:信息社會的新型危機》,載《中共中央黨校學報》2015 年第3 期。。隨著人工智能技術的發展,機器人的智能水平已經顯著提高,但同時也帶來了一定的危險,即人類可能會被智能機器人所控制、限制和奴役。因此,我們必須認真思考如何確保公正的倫理價值觀得以實施。

第二,正義的社會倫理價值觀受到了前所未有的挑戰。古希臘哲學家亞里士多德將正義劃分為三個不同的層面:分配正義、矯正正義和回報正義,而羅爾斯則進一步發展了這一理論,以更加全面地理解社會的現實狀況。羅爾斯將正義定義為一種基于平等基本權利和自由的公正原則,以確保公平的分配④[美]約翰·羅爾斯:《政治自由主義》,萬俊人譯,譯林出版社2000 年版,第242 頁。;將矯正正義表述為“調節著基本分配正義問題的原則”⑤[美]約翰·羅爾斯:《政治自由主義》,萬俊人譯,譯林出版社2000 年版,第243 頁。??梢哉f,分配正義的核心是實現形式上的平等,這意味著要給予所有人應得的財富、權力和榮耀,而當這種傳統的公平分配遭遇挑戰時,矯正正義便成為一種可行的方法,它旨在通過適度地偏袒弱勢群體,從而達到實現真正的公平。隨著人工智能的進步,它不僅可以徹底顛覆傳統的公平分配模式,還可以深刻地影響到當今社會的道德準則和價值觀念。隨著人工智能時代的來臨,結構性失業問題受到了廣泛關注,但由于個體差異,技術壁壘使得許多普通勞動者很難跨越,他們的勞動權利和尊嚴受到削弱,甚至可能被社會邊緣化。因此,要想實現真正的公平分配,就不可避免地要求矯正正義,尤其是在這種大規模的公平分配失衡的情況下。隨著科技的發展,人工智能技術的發展正在改變著我們的生活。過去,技術的主導地位一直被擁有技術優勢的個人、機構和政府所控制,導致技術壟斷的局面。但是,當前的IT 時代,技術不再是唯一的財富,社會的財富分配也發生了變化。

(三)倫理行為異化的風險樣態

人工智能技術還存在導致人類倫理行為異化的風險。主要體現在以下三個方面:

第一,導致人類出現獲取信息的路徑依賴。隨著人工智能技術的不斷發展,它為人們提供了更多的信息來源,使得人們能夠更有效地搜尋、分析、處理各種信息,從而更好地掌握自身的需求。此外,企業也利用人工智能分析工具,更加準確地把握消費者的興趣、宗教信仰、價值觀念,實施更有針對性的信息推送。從短期的角度來看,這種信息獲取的方式確實讓人們的日常生活變得更加便利,然而,如果持續下去,就可能導致人們對數據的偏見和依賴。

第二,導致人類社會出現群體極化的行為。凱斯·桑斯坦曾經指出,網絡可能會成為一個“溫床”,因為它讓志同道合的人可以在網上輕松地交流,但卻無法接受不同的觀點。如果長期處于極端的立場之中,接受這些人的觀點,就會讓人們慢慢接受這種觀點,并且更加認同它們①[美]凱斯·桑斯坦:《網絡共和國》,黃維明譯,上海人民出版社2003 年版,第51 頁。。人類社會中出現群體極化行為的原因可以歸結為兩大方面:一是由于網絡群體內部的同質性較強,容易引發激烈的沖突,從而導致個體之間的矛盾演變成社會群體甚至社會階層之間的矛盾②參見鄖彥輝:《數字利維坦:信息社會的新型危機》,載《中共中央黨校學報》2015 年第3 期。;二是隨著人工智能技術的進步,人類的信息收集與處理能力面臨巨大的考驗。傳統的信息收集模式使得人們更容易被虛假、不準確的信息所左右,從而導致社交網絡的分裂。為了保護公眾的利益,我們應該加強對信息收集的管控,以確保社交網絡的安全性。

第三,造成人類社會出現群體隔離的現象。由于當前的人工智能技術的發展,使得人們能夠更加便捷地與其他人建立聯系,從而避免了傳統的社會群體隔離。這種聯系的形式表現為“互動交往”,也就是說,人們能夠更加輕松地與其他人建立聯系,而無需參加任何社會活動。如果人工智能技術的進步達到了可以讓人們進行有效溝通的水平,那么人際關系的緊張程度就可能大大降低,甚至完全消除。由于各種社會個體的知識結構、技術掌握水平和對IT(包括人工智能)的把握程度有所不同,使得當前的階級劃分無法完全依據這些差異來實現,而且,由于數字鴻溝的日益擴大,這種依據技術把握水平來劃分社會群體的做法也變得越來越普遍。因此,人工智能技術可能會引發社會中不同階層之間的道德差距,從而產生倫理上的偏見。

二、人工智能倫理基本原則的確立

“原則”一詞源自拉丁語“原理”,弗里德曼指出,它是一種超級規則,可以用來制定其他規則,也就是說,它是一種規則模式或模型?!霸瓌t”是一種標準,它可以用來衡量其他規則的價值和效力?!霸瓌t”提供了一種抽象的概念,它將許多細微的規律匯集起來,形成了一個普遍的、宏觀的框架③參見[美]勞倫斯·M.弗里德曼:《法律制度》,李瓊英、林欣譯,中國政法大學出版社1994 年版,第46 頁。。因此,要想深入理解人工智能倫理的基本原則,首先必須明確它們的界定標準。

人工智能倫理的基本原則必須具備高度的概括性、廣泛的適用性以及獨特的實踐意義。這些原則必須包括:一方面,它們必須充分考慮人類與人工智能之間的相互影響,以及它們在社會環境中的行為方式;另一方面,它們必須具有明確的目的,以便在實踐中有效地實施;此外,它們還必須具有可操作性,以便在不斷改進的情況下,有效地滿足社會的需求;最后,它們必須具有可持續的發展潛力,以滿足社會的期望,并且具有可持續的可操作性。不論是在科技倫理領域還是其它倫理學領域,都應該遵循一些共同的準則和原則。

(一)以人為本原則

基于“以人為本,科技向善”,我們應該構建一種以人類為中心的人工智能倫理框架,它將有助于解決人工智能倫理問題,并且成為整個科技倫理領域的核心指導思想。我們必須堅定地把人類利益放在首位,并且堅定地追求可持續發展,從而使科學技術能夠更好地服務于人類,從而使我們的未來更加美好。重視將人類的利益放在首位,科技倫理的核心是要讓科學技術成為促進人類進步和發展的重要力量,因此,“以人為本”和“以人為本”的理念都強調了保護和維護人類的基本利益,以及實現可持續的發展。而“以人為本”和“以人為本”的理念,則更加強調了對人工智能的尊重,它們既要求人們擁有自主的行為權,又要求人工智能,特別是類人機器人,不得以任何方式來壓制、欺詐、操控和控制人類,從而實現真正的人工智能保護和維護人類的基本利益。尊重人類的自由不僅僅是針對人工智能,而是要貫徹到醫療、社會、文化、道德等各個層面,以此來維護和促進社會的和諧與發展。在人工智能倫理的框架下,“特殊性”與“普適性”都被認為是對人類的最高權利、可持續發展和尊重個體自由的最佳表達,它們構成了一個完整的倫理體系,為人們提供了一個更加公平、公正的環境,使得人們在使用人工智能時更加安全、舒適。

(二)公平原則

盡管理論界對于應用倫理學的基本原則存有爭議,但對于“公平原則”并無異議。人工智能算法的不可解釋性、歧視性等特征使“公平原則”在人工智能的研發、使用和治理過程中顯得尤為重要,因而有諸多學者認為該原則應當作為人工智能倫理的基本原則。從人工智能應用的實際運行情況來看,算法歧視、不同群體在人工智能技術獲取方面存在差異等問題的確存在,且日趨引起社會重視。正如前文就“公平原則”的簡要分析所言,世界各組織、各國或地區及其學者針對人工智能的特點賦予了“公平原則”以新的內涵。但人工智能倫理基本原則應當具有“特殊性”,“公平原則”作為應用倫理學的基本原則,人工智能倫理問題的治理自當遵循該原則,無須再重復確立為人工智能倫理的基本原則,類同于民法的基本原則無須再同時確定為物權編等下屬分支的基本原則。此處并非否定在教學或研究過程中對公平原則的新內涵給予關注,也并非否定將該原則寫在立法中①參加孫占利:《論電子商務法的基本原則——以全球電子商務立法為視角》,載《現代法學》2008 年第3 期。?!肮皆瓌t”的新內涵反映了人工智能在倫理問題中的部分特征,理應予以充分關注,只是基本原則的“特殊性”要求不應在理論上再重復將其確立為人工智能倫理的基本原則。

(三)透明度原則

“透明度原則”被認為是人工智能算法的核心準則,它強調了人工智能在實踐過程中應遵守的道德準則,而“黑匣子”則更加強調了人工智能在實現復雜任務時應遵守的道德準則,以及人工智能在實現復雜任務時應遵守的道德準則?!案叨刃浴碧岢隽艘恍┗镜臏蕜t,而“透明度原則”卻沒有提供這些準則?!巴该鞫仍瓌t”更加重視人工智能系統的公開、解釋、審核以及驗證,以及提高它們的可理解性、可解讀性、可驗證性、可預測性,以及更好地傳達和披露相關信息。雖然“黑匣子”的實施可以幫助解決人工智能算法的一些挑戰,但它的本質目的在于建立人工智能系統的安全性、可控性和可靠性,而“透明度原則”則無法完整地體現這一理念,因此,在實施人工智能原則時,必須兼顧技術本身以及科技與人類之間的關系。

(四)隱私保護原則

“隱私保護原則”一直是人工智能倫理領域的重點關注對象,因為它的運行依賴大量的數據,如果沒有進行適當的數據處理和過濾,就很容易導致個人信息的外泄?!半[私保護原則”與“高度性”、“普遍性”和“特殊性”并無關聯,這是一個顯著的差異?!案叨刃浴敝荚趲椭鉀Q由人工智能帶來的個人信息泄露問題,它在某種程度上可以為人工智能的倫理和規范制定提供參考,然而,“隱私保護原則”卻未能完整地體現“人本主義”的核心思想與價值觀。人本主義旨在維護人類的尊嚴和價值,但“隱私保護原則”只是對人的權利進行了有限的保護,“隱私保護原則”則未能有效地應對當前的人工智能倫理問題,比如類人機器人的“欺騙性”、人工智能帶來的結構性失業等,“隱私保護原則”則未能有效地應對這些挑戰?!疤厥庑浴焙汀半[私保護原則”都是關于人工智能倫理的重要法規,但它們不是一個完整的體系,因此,在利用大數據、區塊鏈以及AppAP 時,隱私保護的重要性也是不容忽視的。因此,“隱私保護原則”與“高度性”、“普遍性”和“特殊性”的期望存在較大差距。

三、人工智能倫理風險的控制對策

針對人工智能的倫理風險,我們可以借助于其所擁有的基本原則來進行指導,但是,這些原則只是一種表面的準則,而要想真正有效地管控和預防這類風險,就必須建立一套完善的法律體系,以便從技術開發、使用和管理等環節,都可以得到有效的約束。

(一)增設人工智能倫理審查小組

為了有效地管控人工智能的倫理風險,許多全球領先的科技公司都建立起一套完善的倫理審查機制,以確保未來的產品符合道德標準。微軟公司就建立了一個由該公司負責的倫理審查委員會,以確保未來的所有產品都符合道德標準;谷歌公司更是特別建立了一個由該公司負責的倫理審查小組,以確保未來的產品符合道德標準,從而確保公司的可持續發展。我們將對人工智能的新項目、產品和交易進行嚴格的倫理審核。目前,我們的企業內部設有一個專門負責管理人工智能的倫理委員會。這個機構的主要目標是為了確保人工智能的安全、公平、隱私得到有效的保障,同時也為了讓它們遵守相關的法律法規和道德準則①參見曹建峰:《人工智能倫理治理亟需邁向實踐階段》,載微信公眾號“數字法治”2021 年4 月14 日,https://mp.weixin.qq.com/s/lrUFqS_IDHZeeSfqBjdw-WQ。。與傳統的科學技術發展帶來的道德風險形成鮮明對比,人工智能的道德風險不僅涉及到更多的領域,而且還具有極高的威脅性,甚至可能引發毀滅性的后果。為此,2020 年10 月,中華人民共和國政府設立了國家科學技術EC,以構建一個完善的、具有指導性的、統一的、公平、公正、合理的科學技術道德管理體系②參見科技日報評論員:《科技倫理的底線不容突破》,載《科技日報》2019 年7 月26 日,第1 版。。為了保護人工智能的倫理價值,我們建議在國家科技倫理委員會下成立一個審查小組,并賦予它獨立的法律地位,以便更好地規范各方的權利和義務,并為受害者提供救濟途徑。

為了確保人工智能倫理審查小組的獨立性,我國應當加強對其法律地位的認識,并制定相關的法律法規,以確保其在醫學領域的合法性和權威性。此外,應當加強對倫理審查小組的監督。從目前涉及倫理審查委員會的法律文件來看,除《基本醫療衛生與健康促進法》③參見《基本醫療衛生與健康促進法》第32 條第3 款?!端幤饭芾矸ā发軈⒁姟端幤饭芾矸ā返?0 條?!夺t療糾紛預防與處理條例》⑤參見《醫療糾紛預防與處理條例》第11 條。等對此有原則性規定外,具體規定主要集中在《涉及人的生物醫學研究倫理審查辦法》(以下簡稱《倫理審查辦法》)中。值得注意的是,《倫理審查辦法》①參見《涉及人的生物醫學研究倫理審查辦法》第5 條、第7 條第1 款。規定了國家衛生行政部門是倫理審查委員會的監督部門的同時,又將其下屬機構(從事醫學研究的醫療衛生機構)作為倫理審查委員會的管理責任主體,如此一來,醫學領域的倫理審查委員會與被審查對象實際上形成了“自我審查、自我監督”的邏輯結構,能否實現真正的倫理審查目的值得反思。因此,為了保護人類的根本利益,特別是對于人工智能項目和產品,國家應該賦予科技EC 獨立的法律地位,以確保其公正、公平、公開地進行審查,避免受到國家公權力的侵害。

人工智能倫理審查小組應當制定嚴格的倫理標準和流程規范,涵蓋基礎設施、數據處理、應用服務、安全隱私等方面,并建立完善的案例、程序、工具、資源等,以便更好地指導和管控人工智能項目、產品和交易,確保其符合道德標準,保障公眾利益②參見曹建峰:《人工智能倫理治理亟需邁向實踐階段》,載微信公眾號“數字法治”2021 年4 月14 日,https://mp.weixin.qq.com/s/lrUFqS_IDHZeeSfqBjdw-WQ。;為了更好地管理人工智能的R&D,我們需要建立一個嚴格的倫理標準評估體系,以便及時、動態地評估整個R&D 過程中的倫理風險;此外,還需要加強對科技企業內部的倫理風險控制,以確保其關鍵決策(如數據集的選擇、算法的選擇)的正確性、可靠性,并且建立一個完善的回溯機制,以便及早發現、及時處置可能出現的倫理安全風險③參見《網絡安全標準實踐指南-人工智能倫理安全風險防范指引》(TC260-PG-20211A)。;為了確保人工智能的可持續性和安全性,我們應該定期組織倫理培訓,以加深R&D 者對相關倫理標準和流程的了解,并且增強他們的道德意識,以便他們在弱人工智能時代也能夠遵守相關的道德準則。為了確保人工智能的安全、高效、可持續發展,科技倫理委員會應該建立完善的法律制度,并且要求其成員承擔起自身的義務,以便在技術、法律、倫理等多方面都得到充分的認可。此外,還需要對其進行嚴格的倫理審查,以確保其合規性④參見曹建峰:《人工智能倫理治理亟需邁向實踐階段》,載微信公眾號“數字法治”2021 年4 月14 日,https://mp.weixin.qq.com/s/lrUFqS_IDHZeeSfqBjdw-WQ。。

鑒于目前我國醫療衛生領域的倫理審查體系缺乏有效的規范,使得權利人難以獲得必要的救濟。因此,為了保障他們的合法權益,政府有必要建立一套完善的法律體系,以便對科技倫理審查進行有效的監督和管控,以保護他們的合法權益。因為倫理審查的復雜性和專業性,尤其是在人工智能領域,它需要掌握大量的數學、計算機科學和編程技術,因此,我們強烈建議提高國家科學技術EC 的職責,以便解決與之相關的糾紛。為了確保人工智能、基因編輯技術和輔助生殖技術的倫理審查結果得到有效的執行,我們強烈建議在國家科技EC 中設立一個特殊的機構,以便對這些技術帶來的倫理問題進行有效的討論和裁定,以確保不同技術領域的倫理標準能夠得到有效的協調和實施。

(二)塑造人工智能倫理標準認證體系

為了確保人工智能的安全性、可靠性、負責任性,IEEE、ISO 等正在積極推動,不斷完善人工智能的倫理標準,并采取一系列的認證措施,以確保人工智能的安全性。因此,我們應當積極推動人工智能的倫理標準的完善,加快推出更多的倫理認證項目,以求達到更高的社會認可度⑤參見曹建峰:《人工智能倫理治理亟需邁向實踐階段》,載微信公眾號“數字法治”2021 年4 月14 日,https://mp.weixin.qq.com/s/1rUFqS_IDHZeeSfqBjdw-WQ。。關于倫理標準認證體系的建立,需要采用“兩步走”的策略:

2020 年,中央網信辦、國家發展改革委、科技部、工業和信息化部聯合發布《國家新一代人工智能標準體系建設指南》,為了更好地促進人工智能發展,實現其倫理標準的統一,我們必須首先確立一套完善的人工智能倫理標準,并將其納入國家規范的管理框架中,從而實現人工智能發展的有效性。根據本指南的規劃,到2021 年,我們將建立一個完整的人工智能標準體系,以更加細致地研究和分析每一個標準的含義,明確它們之間的關聯,以期促進人工智能標準的進一步完善和發展。針對人工智能倫理標準的制定,我們將對20 項以上的重點標準進行深入研究,特別是在醫療、交通、應急救援等特定行業,更加突出倫理標準的實施,以期達到更好的效果。為此,我國將借鑒國內外有益經驗,匯集多方力量,結合技術專家、法學專家、倫理學專家、標準化專家等,分層、分類、分領域,制定出更加完善的人工智能倫理標準,以期達到更好的效果。特別是在醫療、交通、應急救援等特殊領域,應迅速制定人工智能倫理標準,以確保公平、公正的發展。

第二步,我們需要清楚地界定人工智能的倫理標準,包括其目的、內容和流程。我們必須始終把保障人類的基本權益放在首位,并且嚴格遵守相關法律法規,避免使用人工智能產生的道德風險。除了遵守國家規范,還應該對參與者進行嚴格的審查,以確保他們的行為符合道德規范,特別是對于那些致力于保障人類基本權益的人工智能項目。IEEE 在《人工智能設計的倫理準則》(Ethically Aligned Design)中提出“福祉指標”,以確定智能和自動化是否能夠有效地改善人類的福祉,并且明確指定衡量標準。雖然傳統的正面指標如利潤、職業安全和財政健康等具有一定的參考價值,但它們無法覆蓋個人或社會的全面福祉。研究顯示,心理、社會和環境等多種因素都會對人類的幸福感產生深遠的影響,因此,構建一套完整的幸福指標體系,既可以更精準地評估科學技術的進步,又可以及時發現可能危及幸福感的潛在風險,為社會發展和科學進步提供有力的參考依據①IEEE 自主與智能系統倫理全球倡議項目:《〈人工智能設計的倫理準則〉(第2 版)概要》,載國際科研合作信息網2018 年9月28 日,http://www.ircip.cn/web/993898-993919.html?id=26645&id=26645&newsid=977189。?!案l碇笜恕睘槲覈苿尤斯ぶ悄軅惱順藴收J證項目提供了一個重要的參考,其認證程序包括申請準備、現場考察、審查以及結果通知四個步驟,可以有效地幫助我們更好地實現人工智能倫理標準的認證。首先,申請準備是認證過程中的第一步。這一步包括兩個部分:預申請和正式申請。在預申請階段,申請人應該向有資質的機構提交一份完整的人工智能項目審核報告,以便獲得認證。通過這一步,申請者可以更好地了解自己的情況,并且更有信心地提交正式的申請。其次,鑒于人工智能倫理風險的普遍性和嚴重性,認證機構有責任對所有參與者進行全面的考核,以確保其符合法律法規要求,包括但不限于實地檢查、采訪和審核有關項目的文件材料。再次,經過認證審查,認證機構將對申請者提交的書面材料和實地考察結果進行綜合評估,以確定是否符合要求。根據評估結果,可將其分為不符合標準、基本符合標準和完全符合標準三種類別。認證機構應當仔細審核和記錄所有的評估報告,并將其完整地保存下來。最后,確保認證結果及時傳遞給申請者,以便及時獲得有關信息。同時,為了確保人工智能倫理標準的認證質量,建議每一次審核都要按照規定的期限進行,以確保最終的審核結果符合要求。

(三)建立人工智能產品倫理控檢機制

為了有效地管控人工智能的倫理風險,我們不僅需要成立一個專門的倫理審查小組,建立一套完善的倫理標準認證體系,而且還必須建立一套嚴格的倫理控檢機制。此外,為了有效地防范和減少這類風險,我們可以利用區塊鏈、無線射頻識別技術和大數據等信息技術,從源頭上進行嚴格的監督,同時也要建立一套完善的風險預警、定期抽檢和產品召回等制度。區塊鏈是一種去中心化的數據存儲技術,它將數據塊按照時間順序進行線性排列,并且可以無限增長,從而實現數據的安全性和可靠性,它可以記錄和傳輸所有的信息,從而為用戶提供更加安全、可靠的服務。區塊鏈技術采用了非對稱加密算法(哈希算法),這種加密方式可以將記錄的信息準確地傳輸到每個主體的客戶端,并且保證每個人只能對自己的賬戶進行更改,從而提高了安全性和可靠性①參見孫芳:《數據區塊鏈技術對財務、會計及審計行業的影響》,載《中國戰略新興產業》2017 年第3 期。。通過使用區塊鏈,我們發現它既可以追蹤歷史,又不會被篡改。這樣一來,我們就可以確保每一個節點都是真實的,并建立一種新的、分布式的信任系統。RFID(射頻識別)是一種高效的自動識別技術,它通過無線電波來檢測特定的目標,并且在沒有機械或光學干擾的情況下完成識別。因此,RFID在當今的物流領域中被廣泛應用。

通過利用區塊鏈、無線射頻識別和大數據等先進的信息技術,我們可以將各種人工智能產品的相關資料完整地存儲起來,同時還可以精準地定位、跟蹤和追溯這些產品的來源。從人工智能產品的開發階段起,就要賦予它們特定的編碼,同時,要把它們的基本要求、數據處理要求、硬件設備要求、應用服務要求、安全隱私要求等信息記錄到RFID 芯片上,從而使它們的功能更加完善、更加高效。通過采用區塊鏈作為核心技術,我們將建立一個由RFID 芯片組成的后臺數據庫,一旦該產品被部署,其所有的數據就將被記錄并存儲,這樣就可以通過區塊鏈的可追溯性和不可篡改性,有效地追蹤和管理從R&D 到應用的整個過程。政府有責任加強對人工智能的監督和管理,建立有效的風險評估和預警體系,將人工智能的倫理風險劃分為四個等級:極端危害、嚴重危害、普通危害和輕微危害,并且要求各個等級都有完善的應對措施。政府應該采取有效措施,建立完善的智能化系統,定期檢測和跟蹤人工智能產品,及時發布風險預警,以便及早采取有效措施;為了確保人工智能產品質量,我們需要利用信息共享平臺,讓監管人員實時跟蹤和定期抽查。此外,我們還需要利用區塊鏈和RFID 技術,將人工智能產品的數據進行電子化記錄和溯源,以及建立一套完善的倫理控檢機制,以有效地預防和減少其在整個使用壽命中可能存在的倫理風險。技術和法治的結合是一項艱巨的任務,必須由各方參與,共同努力才能實現。

猜你喜歡
倫理原則人工智能
《心之死》的趣味與倫理焦慮
護生眼中的倫理修養
2019:人工智能
人工智能與就業
堅守原則,逐浪前行
數讀人工智能
下一幕,人工智能!
無罪推定原則的理解與完善
醫改莫忘構建倫理新機制
婚姻家庭法的倫理性及其立法延展
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合