?

我國人工智能綜合立法路徑探索
——以歐美相關立法為參照

2023-02-23 20:12李雪童
關鍵詞:法案規制倫理

李 曄,李雪童

(對外經濟貿易大學法學院,北京 100029)

以Chat GPT 為代表的生成式人工智能的問世掀起了人工智能的熱潮?,F如今與人工智能相關的各種討論引發了前所未有的關注,公眾熱議的焦點也逐漸延伸至法律領域,思考如何推進相關立法以便應對因人工智能不斷升級所帶來的各種法律問題。事實上,近年來隨著人工智能的飛速發展,為社會進步帶來更大機遇的同時,也為人類未來發展添加了諸多不確定性因素?,F實中通過人工智能侵犯公民個人信息、偽造數據詐騙、全自動機器故障引發事故等社會問題喚起了公眾對人工智能不受節制發展的擔憂,針對人工智能進行立法的呼聲愈發高漲。目前,各個國家對人工智能治理總體呈現了加速演進的態勢,美歐作為人工智能規制的探索者,率先構建了以風險監管為中心的人工智能法律框架[1]。中國在針對人工智能進行立法的過程中可能會面臨何種挑戰以及如何妥善處理是目前亟需考慮的問題。

一、人工智能帶來的法律問題及其立法必要性

(一)對人工智能進行綜合立法的必要性分析

人工智能已經越來越深入我們的日常生活和經濟市場,法律作為上層建筑,始終應當以經濟為基礎,以市場為導向。據工信部數據顯示,我國已擁有超4000 億元人工智能產業,并且已經形成完整且初步成熟的產業鏈,在此背景下,人工智能立法具有深遠意義。國務院2017 年7 月20 日印發的《新一代人工智能發展規劃》,在戰略目標中對法律體系建設提出了“三步走”要求:到2020 年,部分領域的人工智能倫理規范和政策法規初步建立;到2025 年,初步建立人工智能法律法規、倫理規范和政策體系,形成人工智能安全評估和管控能力;到2030 年,建成更加完善的人工智能法律法規、倫理規范和政策體系。對人工智能相關法律體系的建設要求也是對法律作為上層建筑價值的呼應。

除此之外,隨著類似于Chat GPT 等生成式人工智能的面世,其運行模式可能對倫理、道德和法律的認知邏輯帶來新挑戰。首先,人工智能的高技術性和發展的靈活性使得傳統監管范圍暴露出一定的不足和滯后,也加劇了監管者、公眾與技術人員之間的信息不對稱。另一方面,人工智能的應用往往涉及到數個行業和機構,可能會對多個利益相關者集團產生影響,極大地增加協調監管的難度[2]。最后,因為人工智能技術的飛速發展,其風險、收益和發展路徑具有不確定性,傳統監管制度可能效果不足,但是想要通過積極有效的事前監管進行規制已經越來越困難[3]。就我國立法現狀看來,目前對于人工智能的治理已經初步形成了從法律、部門規章到地方性法規的多層次規范治理結構,但關于人工智能風險的系統性制度規則法律位階較低,而且過于分散,很難促進相關部門監管活動以及公司自我監管活動的展開。事實上,哪怕運用高位階立法可能也無法達到規制的效果。因此,應當針對人工智能制定一部全面的綜合性法律,提煉出人工智能在各種場景下使用的一般規則,使其成為指導人工智能多場景應用的基本準則[2]。另一方面,針對人工智能進行綜合立法也能夠反過來促進人工智能的正向發展,助力其不斷創新,為其發展保駕護航。

從國際視角來看,以歐美為代表的國家對人工智能領域進行了積極立法,其目的一方面是為了對人工智能進行更好的規制,另一方面也是為了在人工智能領域產生領先的規范影響力。通過及早訂立人工智能領域的規范和行業標準,幫助產品在市場具有更大的競爭力,基于基礎隱喻理論,也能夠形成不易被質疑的前提性規范,確保本國人工智能產業在全球生產布局中占有優勢地位。

(二)人工智能帶來的法律問題

自人工智能被廣泛應用以來,其引發的各種法律風險層出不窮,Chat GPT 等生成式人工智能的出現使得其中部分法律問題更加突出,最主要可以分為人工智能法律主體論的不同意見以及知識產權相關問題兩個方面。

1.人工智能法律主體論帶來的法律問題

從法理學角度來看,人工智能的法律主體資格問題在學界一直是廣受討論的焦點。對人工智能法律主體地位持肯定態度的學者認為,大模型人工智能體在技術方面突破了傳統人工智能的語言能力,使得人工智能體的獨立性不斷增強[4],并逐漸具備某種人類特性。如果否定人工智能的法律主體地位,不僅會對其發展和創新造成阻礙,也會造成法律秩序的混亂。在2023 年1 月30 日,哥倫比亞法院在作出判決時承認使用Chat GPT,由此誕生了“全球首份使用Chat GPT 做出的判決書”。這似乎也為人工智能能夠獲得自然人特征并由此獲得法律主體地位增添希望。并且國際上已有賦予人工智能法律主體資格的先例,比如2017 年沙特阿拉伯賦予“索菲亞”高級智能機器人本國國籍,確認其公民地位。另一方面,否認人工智能法律主體地位的觀點認為,人工智能技術雖然具有蓬勃的發展趨勢,但其絕不可能具有自由意志和人類的道德情感?!拔宜脊饰以凇?,人工智能無法具備和人類等同的自由意志,即使旁征博引強調人工智能在某些方面早已超越人類,仍無法確立其在法律上的主體性。以Chat GPT 為例,雖然其具有前所未有的強大語言理解和文本生成能力,也已經可以駕輕就熟地撰寫論文等高智復雜行為,但是其道德倫理的缺失依然是明顯且不可否認的。法律上的“人”一方面應當擁有行使權利和履行義務的法律資格,另一方面應該事實上具備行使權利和履行義務的能力,若無法滿足這兩個條件,則不能享有法律主體地位[5]。

從民事法律角度來看,人工智能成為法律主體關乎民事主體制度的調整,在民事法律中,自然人,法人和非法人組織是法律規定下的三種法律主體,人工智能想要成為民法上的“人”,其應當滿足自然人或法人的基本法律要素。民法中的法律主體之一——自然人的成立,是因為其擁有“權利能力”,而人的倫理價值是權利能力的基礎,也是取得法律人格的條件。對于民法中具有法律主體地位的法人,其法律主體身份的獲得主要是基于現實發展需要,財產流通、風險隔離、責任劃分、法律關系穩定等現實問題解決的必要性為法人作為權利主體提供正當化說明。

相對于自然人,人工智能法律主體地位獲得的關鍵在于人工智能是否具有自然人所必須的“理性”以及“自由意志”[6];相比于法人,主要問題則在于承認人工智能為法律主體是否具有現實需要。從目前來看,人工智能并不能夠成為理性主體,未來的強人工智能甚至超級人工智能是否能夠成為理性主體也無從知曉[7]。隨著其自主性不斷改變,對于其權利能力的認同度也會隨之改變,問題也會接踵而至。

2.人工智能帶來的知識產權相關法律問題

生成式人工智能擁有強大的大文本數據預訓練模型,通過整合用戶輸入的信息以及其他來自信息網絡的數據,生成最終用戶需要的文本內容,在這一過程中確實存在侵犯知識產權可能性。以Chat GPT 為例,據Chat GPT 開發公司的描述,Chat GPT 是通過大量訓練構建的語言機器模型,訓練主要來自兩個方面:一是鏈接大量的語料庫來訓練模型,二是基于用戶反饋的強化學習。那么,對于一些受著作權保護的文本等,如果沒有得到權利主體的授權而直接使用,就會具有侵犯知識產權的風險。

而另一方面,人工智能所生成內容著作權的歸屬也尚不明確。首先,人工智能生成內容是否能夠稱之為作品具有爭議[8]。依據著作權法,作品指的是文學、藝術和科學領域內具有獨創性并能以一定形式表現的智力成果。于獨創性而言,人工智能生成的內容是否具有獨創性很難產生統一定論;從另一角度來看,人工智能哪怕可以作為創作主體,因其法律主體地位仍不明確,其生成內容若被稱為作品也可能存在一定的不合理性。人工智能生成內容權利歸屬不能簡單按照誰制造誰所有的原則來處理,在定性過程中也需要將鼓勵人工智能繼續創新等因素納入考慮范圍,因此解決知識產權相關法律問題勢必面臨著多重挑戰。

二、歐美人工智能相關立法實踐分析

(一)歐盟《人工智能法案》

2021 年4 月21 日,歐盟發布了《人工智能法案》(以下簡稱《法案》),這是全球范圍內首份針對人工智能風險管理的法案?!斗ò浮返某雠_意味著歐盟正試圖通過領先建立規范以成為在全球人工智能發展中的領導者[9]。

《法案》將人工智能應用場景按照風險高低分為四個等級,從低到高分別為最低風險、有限風險、高風險、不可接受的風險,等級越高,所受到的限制就越嚴格。在最低等級的風險中,比如電子游戲、垃圾郵件識別等人工智能則無需干預;高一級風險——有限風險如聊天機器人等,則建議確保用戶認識到對象是人工智能,并且能夠根據自己的主觀意志決定是否繼續對話,并保證過程的透明公開;更高一級風險指的是可能會對人們安全和生活造成嚴重影響的人工智能,在部分重要領域比如交通基礎設施、教育或職業培訓、醫療輔助等方面,則需要在啟用人工智能前履行充分評估風險、高質量數據交換等嚴格義務;至于最高風險等級——不可接受風險級別的人工智能,此種類別的人工智能可能會明顯威脅人類安全和生活,侵犯個人權利甚至操縱人類思想行為,此時則應當禁止。整體來看,法案對于人工智能發展的態度是鼓勵而不是限制。對于風險的規制,法案并不限于某一階段,而是從人工智能產品入市前到入市后,實現事前、事中和事后的全過程完整規制。

《法案》是全球范圍內首部人工智能立法,嘗試對人工智能進行了界定和分類,也采取了全鏈條的規制措施,在人工智能立法領域意義重大,同時也存在著不少爭議。首先就是對于人工智能的劃分仍然不夠清晰,四種類別的人工智能仍然定義寬泛,隨著技術的發展,實際上并不能涵蓋所有人工智能,現已面世的人工智能也存在涵括范圍不夠全面的情況。另一方面,法案的責任機制也存在缺陷。法案依據的是“提供者責任原則”,將人工智能的責任歸結重點置于人工智能產品的提供者。此時可能會與現實狀況不符,因為現實生活中產品用戶也是重要的責任主體。以人臉識別系統為例,用戶才是系統中主要的運營主體,系統運行中的風險很可能來自于用戶的運營活動而不是早已脫離技術使用場景的技術開發和提供者,此時對開發者追責可能會有失偏頗,違反公平原則。所以僅要求人工智能產品提供者來承擔責任是不夠的,應當根據實際情況考慮將用戶也納入責任承擔體系,加大用戶預防和規避風險的責任和義務[2]。

(二)美國人工智能相關立法

當前美國有關人工智能的監管主要分為州與聯邦兩個層面。在州層面,2022 年共有17 個州引入了有關人工智能的法案,而在聯邦層面,諸多議員已經在有關人工智能監管的各個方面展開了行動,但立法進程仍處于早期階段。2017 年12 月12 日的《人工智能未來法案》是美國在人工智能領域的第一個聯邦法案,該法案致力于大力促進人工智能的發展,以保持美國在人工智能市場的全球競爭力。該法案中并未提出明確的規制措施,核心內容主要是提出建立一個能夠綜合解決人工智能相關問題的咨詢委員會,該咨詢委員會應當由不同部門、不同領域、不同地域的代表組成,主要目的是對人工智能相關事項和問題進行前瞻性研究,也為后續相關法律的出臺提供支持[10]。2022 年5 月4 日,美國國家人工智能咨詢委員會正式成立。

在Chat GPT 問世之后,美國也發布了相關的最新人工智能監管政策。2022 年10 月,美國白宮科技政策辦公室發布了《人工智能權利法案藍圖:讓自動化系統為美國人民服務》(以下簡稱《藍圖》)?!端{圖》旨在支持自動化系統建設、部署和治理過程中,保護美國公民的民主權利。并且包含了經過美國各地的民眾、聯邦機構的公務員以及國際社會的成員討論所得出的一系列原則:安全且有效的系統;算法歧視保護原則;數據隱私原則;通知和解釋原則;人工選擇、考慮和退出原則?!端{圖》不具約束力,也不構成美國政府的政策,但是其為如何建立一個保護所有人免受前述威脅的社會、如何使用技術強化最高的價值觀提供了指南。

相比于歐盟的《人工智能法案》,《藍圖》是框架性和探索性的,在闡述如何將五項原則付諸實踐時,其僅給出了有限數量和有限類型的案例,主要關注的是人工智能在招聘、教育、醫療保健供應、金融服務訪問、商業監控等領域的應用;同時也缺乏設立相關執法機制的細節,比如由聯邦層面協調的監控、審計和審查行動。因此,《藍圖》難以被看作是通用的人工智能原則,但是其對未來人工智能立法仍有一定的啟示作用。

而在美國版權局新頒布的美國聯邦法規中,對人工智能知識產權相關法律問題提出了指導性意見,其明確規定只有人類創造的作品才可以受版權保護。在認定人工智能作品是否受版權保護時,人類作者對其作品所貢獻的創造力是版權局主要的衡量標準。版權局在評估同時包含人類創作與人工智能生成的材料(包括由技術或在技術幫助下生成的材料,這些材料不受版權保護),是否可以注冊為作品的相關標準是:該作品是否主要體現人類的創作成果,而計算機(或其他智能設備)只作為輔助性工具。在包含人工智能材料的作品中,版權局將更多考慮人工智能在作品中的貢獻度,即該作品是否是作者原創性的體現,還是只是利用人工智能進行機械復制。如果使用人工智能生成的材料進行創作的作品足夠體現出作者的原創性,也可以達到版權局對于“作品”的要求。這意味著現代的人工智能技術可以作為作者創作作品的工具,對人工智能是否可以成為法律主體的問題帶來啟示意義。

(三)歐美相關立法于我國綜合立法之借鑒

1.對基本法律問題的啟發性解決

對人工智能進行立法,首先需要解決一系列基礎性法律問題。而在立法過程所面對的基礎性法律問題中,筆者認為厘清人工智能的法律主體地位居于首要地位。因為法律主體身份的承認與否關乎其他各個部門法問題的解決。而對于人工智能主體論的爭議,筆者認為給予其法律主體地位與我國所提倡的以人為本價值觀相悖。

提倡賦予人工智能主體地位觀點的最根本目的是對人工智能可能帶來的違法問題給出針對性規范限制,以期使其承擔法律責任。但筆者認為,一方面,人工智能無法擁有獨立的責任財產來承擔法律責任。無論多么高智能的人工智能,制造者仍是人類,沒有自己獨立的財產。就算能夠以其為主體開設賬戶預存資金,人工智能也沒有自由支配財產的意愿和選擇。通過經濟性法律責任的承擔也并不能對人工智能起到警示作用,人工智能也不會因此而產生對法律威嚴的敬畏。想要通過賦予人工智能法律主體地位而使其承擔法律責任,倒不如對人工智能的生產者、運營者、使用者進行規制,鼓勵生產者創造合法運行的人工智能產品,運營者合法運營、使用者合法使用。

對于人工智能所帶來的知識產權問題,筆者認為可以從以下幾個角度進行考慮。首先,如果人工智能并不能作為法律上的主體,那么其就無法成為知識產權法上的作者,所帶來的一系列法律責任的承擔就自然而然歸屬到了人工智能的生產者、運營者和使用者之間,法律風險的消除也就可以通過對自然人人類主體的規制達到效果。退一步講,哪怕人工可以獲得作者身份或者其產生的內容可以被視為作品,由于人工智能本身還是人類的產物,其產生的內容歸根結底也是通過人類預先設定的程序而形成的,所以人工智能生成物的主體其實還是人類。從另一方面來看,給予人工智能作者身份也并不能起到鼓勵創新的效果,將人工智能生成物的產品權利歸屬于人工智能開發者或所有人更符合著作權權利激勵制度的初衷。這也是美國最新聯邦法規中對于Chat GPT等生成式人工智能所秉持的觀點。

2.歐盟立法經驗于我國之啟示

從歐盟《人工智能法案》的角度看來,其存在的立法缺陷比如人工智能定義和劃分寬泛的問題以及并不完善的責任機制可以為我國未來的人工智能綜合立法提供借鑒和教訓。該法案以不同等級的風險差異作為區分方法進行對應的分級監管,并采取不同層級義務規定的思路值得我國借鑒[11]。

我國現有立法其實已經出現過以風險等級制度為準進行人工智能監管的模式:《深圳經濟特區人工智能產業促進條例》(以下簡稱《深圳條例》)提到了“風險等級”;《上海市促進人工智能產業發展條例》(以下簡稱《上海條例》)也依據不同的風險等級制定了不同的治理辦法。但深圳和上海條例的相關內容均是原則性的概括規定,并未形成成熟和適用性強的細則。未來我國進行人工智能法律監管,可以將歐盟風險分級的方式作為基礎進行發展,但是法規的具體細則仍然應當順應中國實際。通過公眾參與、專家評判,合理界定和劃分不同風險類別,增強制度的科學性和民主性,助力制度的最終落實。

除此之外,《人工智能法案》的全過程的監管機制也可以為我國提供啟發。我國應當在人工智能研發、生產到使用全過程,從技術研發者、應用管理者到使用者起到責任制度全程監管,并且應當考慮建立定期監測和評估機制,與時俱進改進規制措施,對于潛在風險應當及時采取行動加以解決。另外,對于人工智能定義既要能夠涵蓋已有的需要規制的人工智能范圍,也一定要為未來期待的人工智能發展留下解釋和適用空間。

3.美國立法經驗于我國之啟示

美國《人工智能未來法案》中對于人工智能咨詢委員會建立的提倡能夠為我國提供相關經驗。我國可以考慮建立專門的人工智能管理、協調機構?!渡钲跅l例》和《上海條例》都提出了建立人工智能相關治理機構,比如倫理監管委員會、專業技術成果轉化服務機構等。中國可參照美國人工智能咨詢委員會的模式,建立符合中國國情的人工智能專門監管機構,創造更能促進人工智能發展和創新的環境。該機構負責對人工智能可能帶來的倫理、法律及社會問題進行針對的前瞻性研究。這將為人工智能綜合立法提供前置基礎,這些研究成果也將為政府決策及后續的立法提供智力支持[10]。

除此之外,美國《藍圖》中樹立的重要原則也為我國未來人工智能立法提供借鑒。

三、中國已有人工智能立法分析和未來路徑探索

人工智能涉及的問題包括政治、經濟、倫理甚至國家安全等,所帶來的風險更具有復雜性、系統性和不可預測性,對人工智能進行綜合立法的挑戰巨大。隨著人工智能的不斷發展,生成式人工智能在帶來各種法律問題同時也給立法帶來了一些方向。在筆者看來,我國在對人工智能進行綜合性立法時,可以結合歐美相關立法以及我國已有的立法實踐獲得一些啟示。

(一)中國目前已有人工智能立法分析

2017 年我國頒布了《新一代人工智能發展規劃》,預設了我國人工智能發展的階段戰略目標、總體部署和重點任務,將人工智能產業視為未來經濟發展的重要產業。2023 年6 月6 日,國務院辦公廳印發《國務院2023 年度立法工作計劃》,其中人工智能法草案等預備提請全國人大常委會審議,這意味著國家層面的人工智能立法將進入新階段。如今雖然尚無國家層面的專項人工智能產業立法,但是上海和深圳等地已經相繼發布了相關地方立法。

2022 年9 月5 日,《深圳經濟特區人工智能產業促進條例》正式公布,于2022 年11 月1 日起實施,這是我國人工智能領域首次地方性立法。深圳的立法堅持了促進性立法的理念,體現了“全面促進與合理必要的規范”,核心目的是“促進人工智能產業發展”。值得注意的是,《深圳條例》首次在我國法律層面給出人工智能的定義,明確了人工智能產業的邊界,將人工智能相關的軟硬件產品相關系列、人工智能技術在民生服務、社會治理、經濟發展等各領域融合應用形成的相關產業都納入人工智能產業范疇?!渡钲跅l例》也提出設立人工智能相關治理機構,意圖實現多元主體協同共治。

上海出臺的《上海市促進人工智能產業發展條例》是全國首部人工智能領域省級地方性法規,更加系統地闡述了人工智能的定義、技術分支、涉及到的生產要素和產業等,其為政府在人工智能領域的職責范圍劃分提供了指引,更好地保證各部門間的分工合作和執法過程的合法合規?!渡虾l例》明確了與人工智能產業發展相關的行為底線,并規定對于人工智能產業發展過程中的輕微違法行為,可以指定依法不予行政處罰清單,而是通過批評教育、指導約談等措施促進依法合規開展生產經營活動。除此之外,《上海條例》重視人工智能倫理規則的制定,比如設立人工智能倫理專家委員會,要求市政府設立人工智能倫理委員會,加快制定和實施人工智能倫理安全規范,深化人工智能技術倫理、安全風險等方面的研究??偟膩碚f,《促進條例》對于人工智能產業發展有著清晰的路徑謀劃和支持舉措,對于上海乃至全國的人工智能治理都意義非凡。

除去地方性立法,我國也逐漸形成了人工智能法律規范的治理體系,近些年來逐步出臺了比如《網絡安全法》《數據安全法》《個人信息保護法》等法律規范,尤其是在2023 年8 月15 日,我國出臺了《生成式人工智能服務管理暫行辦法》(以下簡稱《辦法》),這是全球第一部針對生成式人工智能的法律,體現了我國與時俱進的人工智能立法進程,是人工智能立法的重要一步。在《辦法》中,我國鼓勵生成式人工智能在各個行業的應用創新以及各行業的溝通協作,也提出了推動生成式人工智能基礎設施和公共訓練數據資源平臺建設的觀點?!掇k法》對人工智能的潛在風險從事前預防、事中事后規制和救濟等方面提出了治理要求[12]。

(二)綜合立法助力我國人工智能規制

深圳和上海等地的地方性立法雖然具有一定重要意義,我國也已經對人工智能有關方面進行了專項立法,但是我國目前用于應對人工智能風險的制度規則過于分散,法律規范數量少、層級低,缺乏頂層設計和統籌規劃的問題仍然較為突出[13],不利于相關機構開展監管活動,也不利于企業自我合規。

總的來說,人工智能立法模式可以分為“橫向”和“縱向”立法兩種。歐盟《人工智能法案》就是典型的橫向立法:由監管機構制定一項法規,涵蓋人工智能可能產生的多種影響,通過該法案實現全面治理[14],也即綜合立法。我國的規制體系總體上是“垂直”傾向的,特定領域特殊立法。雖然,“垂直”立法能夠確保人工智能立法的專業性,有效減輕不同人工智能技術和應用造成的特定危害,但“垂直”立法不僅成本過高,而且可能會削弱監管合力。一方面,過多主體參與治理,增加了立法、執法機構之間的協調難度。另一方面,不同主體基于不同的利益驅動,監管中可能存在競爭與互相推諉的情形。對人工智能出臺綜合性法案,加上配套的法律法規、法律解釋及倫理準則,能更好地確保人工智能的安全運行以及風險的合理控制,有效避免此時“垂直”立法產生的弊端。

雖然能夠效仿《辦法》的立法模式針對性地對某一種人工智能進行“量身定做”的法律規制,但是立法的高成本、滯后性會使得這種做法逐漸失去其合理性和可操作性。綜上,為人工智能制定一部專門的綜合性法律,立足頂層設計,將人工智能用于不同場景中所遵循的共性規則進行提煉以形成能夠規范人工智能多場景應用的基本規則[2],對于我國人工智能法制建設及其本身的發展都具有重要意義,能夠更加強有力地指導各地、各領域的人工智能發展。

(三)我國未來立法其他突破點探索

1.確立契合人工智能屬性的倫理標準

相比于法律規范,倫理規范具有獨特的優勢且尤為重要。在現實生活中,法律規范基于現實生活需要而產生,完成法律規范的構建需要較長時間和較大成本,因此法律的產生總是具有滯后性。相比于此,倫理規范更加靈活,并且能夠起到預設作用,對已經發生和可能將要發生的社會關系作出規制和指引,能夠在一定程度上彌補立法的模糊性和“補漏式”立法的不足[15],因此,對其研究更能保證立法的合理性和完整度[16]。

近些年來,許多國家已經在人工智能相關倫理規范的建構道路上邁出了步伐?!皺C器人倫理學”一詞出現在2004 年第一屆世界機器人倫理學大會上。2005 年,歐洲機器人學研究網絡(EURON)發布了《機器人倫理學路線圖》,并創建了多項與倫理道德建設的人工智能研究計劃。代表硅谷等科技行業發展利益和需求的美國信息技術產業委員會(ITI)頒布了人工智能政策準則,將倫理等AI 公共政策提上議程。除此之外,美國還設立了多項專項基金對“機器人倫理學”進行研究。

對于建立人工智能道德倫理規范的具體舉措,可以從以下方面入手:一方面,為人工智能預先設定道德標準,將不損害人類尊嚴、保護隱私、防止偏見等重要原則囊括其中,對其進行倫理指引;另一方面,對科研人員進行倫理約束,保證人工智能從研發過程開始就具備所期望的道德倫理。隨著倫理規范的深化運用,其也可能會發展成法律規范,為未來的人工智能法制建設提供重要依據[17]。人工智能作為一項“顛覆性”技術,尤其是像Chat GPT 式“有過人之處”的新興人工智能的出現,勢必也需要一套新的與其契合的倫理道德標準。

2.完成數據、算法等基礎性立法

數據、算法和算力是人工智能得以運轉和不斷創新發展不可或缺的部分。數據和算法如果得到了有效的法律規范的規制,將會對人工智能立法起到極大的促進作用。比如Chat GPT 等生成式人工智能的成功除了算法強,同時還有充足和強大的數據來源。大數據是人工智能不可或缺的要素。當前,我國針對數據要素出臺了一系列法律規范,但由于數據權屬、數據價值、數據交易規則等數據要素的基礎性法律制度還沒有建立起來,也制約著數據要素市場發展和人工智能發展。因此,制定一系列數據基礎法律,也是后續人工智能綜合立法必要的準備工作。

以算法相關立法為例,我國在2022 年以部門規章的形式出臺了《互聯網信息服務算法推薦管理規定》以對算法行為作出規制。該規定以部門規章的形式雖然具有較強的應用性,但是因為其法律層級較低,可能無法對算法亂象進行有效全面地規制。如果算法的立法能夠到達法律層級,則能針對算法的法律關系作出更加系統全面的調整。因此,為了對算法亂象進行真正有效地規制,立法需要在法律層級的基礎上提供穩定地規則支持,同時對不斷變化的社會訴求及時作出回應[18]。算法專項立法的完成也會對人工智能綜合立法的到來增添力量。

結語

人工智能技術發展的勢頭無法阻擋,以后勢必會出現更多高智人工智能,但就如今看來人工智能暫時還不能超越人類意志或情感,與其擔心人工智能是否會取代人類,不如針對現有法律、倫理和技術等方面帶來的風險做出回應。如何制定針對于人工智能的相關法律規則,要以如何更好地為人類增添福祉為出發點和中心主旨。對人工智能進行立法規制既要有力,也要為人工智能的創新發展留下空間,努力實現人工智能創新發展、堅守倫理道德底線、法律有效規制之間的平衡。

猜你喜歡
法案規制倫理
《心之死》的趣味與倫理焦慮
主動退市規制的德國經驗與啟示
Industrial Revolution
護生眼中的倫理修養
美國禁止詢問犯罪記錄法案的立法與實踐
保護與規制:關于文學的刑法
論《反不正當競爭法》的規制范疇
美參議院未能通過控槍法案
日本強推新安保法案說明了什么
醫改莫忘構建倫理新機制
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合