?

國內外人工智能監管現狀及其啟示研究

2024-05-02 15:48王麗麗桂婷
電腦知識與技術 2024年5期
關鍵詞:政策建議風險人工智能

王麗麗 桂婷

摘要:人工智能是一把雙刃劍,在推動人類社會發展的同時,也帶來了多重潛在風險。如何保證人工智能技術安全、可靠、可控引發廣泛討論。目前,美國、英國等均已逐步開展人工智能治理實踐,以規避技術發展帶來的風險。關于人工智能這一類新興科技的發展,我國一直是采取鼓勵與監管并行的道路,并且在近年來越發重視新興科技監管方面的建設。文章梳理了歐美國家有代表性的舉措,總結了人工智能治理的最新實踐做法,為我國制定政策提供參考。

關鍵詞:人工智能;監管;風險;政策建議

中圖分類號:TP18 文獻標識碼:A

文章編號:1009-3044(2024)05-0018-03

科技的發展已經讓人工智能從科幻走入現實。近年來,人工智能已深入影響人們的生活,在諸多領域獲得廣泛應用。2022年11月推出的ChatGPT更是讓生成式人工智能炙手可熱。同時,與人工智能相關的網絡安全、數據安全、虛假信息等負面消息也始終伴隨其發展,展示出一些令人擔憂的趨勢,圍繞如何對人工智能進行監管的討論不斷。本文通過研究目前國內外關于人工智能監管的策略和措施,為我國下一步促進人工智能健康發展提供政策建議。

1 人工智能發展存在多重潛在風險

1) 人工智能帶來的網絡攻擊和信息泄露易引發犯罪或威脅國家安全。人工智能是一把雙刃劍。目前,全球范圍內,已有多項研究顯示,隨著人工智能的普及,勒索軟件攻擊增加了一倍。人工智能可能會被濫用于網絡釣魚、虛假信息和網絡犯罪,造成個人信息泄露、被篡改或被濫用,導致社會資源浪費或國家安全受損等后果。例如,現實生活中,不少不法分子利用網絡平臺進行各種“換臉”詐騙;惡意偽造視頻、圖片和文本等信息,向公眾傳播虛假信息,破壞社會的穩定和政治的安全;采用AI技術,將勒索軟件轉化為武器化工具,以更有效地策劃針對國防、城市、公共交通、醫院、商業等相關領域的攻擊行動。

2) 人工智能或對就業造成沖擊,其算法偏見或加劇社會不公?!叭斯ぶ悄苁欠駮е麓笠幠5氖I”一直是互聯網上的熱門話題。毫無疑問,人工智能會導致大量的自動化,一定會取代一些低技能、低附加值的工作。律師、會計師等部分需要高度專業知識的工作,也可能被機器人所取代。人工智能正在挑戰社會就業結構,人們抑或會進入一個技術性失業率不斷上升的時代,社會壓力和不安定感可能會進一步加劇。同時,由算法所引發的偏見和歧視還將影響人工智能判斷的公平性,可能會導致社會不公平現象的加劇,增加社會緊張和不穩定的風險。例如,在就業、教育和醫療等領域,機器學習算法可能會根據用戶的性別、種族、宗教或社會地位等因素進行不公正的推薦,從而加劇社會的不穩定[1]。

3) 人工智能開發或危及人類“文明控制權”。2023年3月,馬斯克和人工智能領域頂尖專家約書亞·本吉奧等千名大佬在一封公開信上簽名,呼吁立即停止開發比GPT-4更強大的人工智能系統,認為AI 對人類和社會構成多重風險,并拋出疑問:“我們是否應該發展最終可能在數量上超過我們、在智能上超越我們、能夠淘汰并取代我們的非人類思維?”[2]這一事件再次將人工智能是否會威脅人類的話題拋到大眾跟前。新興科技正在重塑人類的社會秩序和倫理規范,不道德地使用人工智能,是否會導致人工智能取代人的功能,甚至取代人的主體地位,成為人工智能發展必須考慮的問題。同時,如果某個國家或國際組織獨占一些關鍵的技術、數據和算法,就可能占據全球智能產業的主導地位,從而影響全球文明的走向和人類的未來。

2 國內外關于人工智能監管的策略和措施

有關人工智能的監管問題討論已久。面對迅猛發展的人工智能技術,美國、英國等皆有監管行動。斯坦福大學在發布的一份報告中提到,通過對127個國家的立法記錄進行調查可以發現,2016年到2022 年,通過立法的與“人工智能”相關的法案,從僅1個增長到37個[3]。下面就目前推行的有關人工智能監管的策略和措施進行梳理匯總。

2.1 國際上關于人工智能監管的策略和措施

1) 聯合國。當地時間2023年6月12日,聯合國秘書長古特雷斯表示,支持人工智能行業一些高管的提議,即成立一個像國際原子能機構的國際人工智能監管機構。當地時間2023年7月18日,聯合國安理會在美國紐約首次就人工智能與安全問題舉行高級別公開會。聯合國秘書長古特雷斯表示,聯合國計劃9 月任命一個人工智能顧問委員會,監管人工智能發展,為聯合國可能采取的行動做準備[4]。同時,2023年7月,聯合國教科文組織發布了《生成式人工智能與教育的未來》的報告,對生成式AI帶來的影響進行了批判性反思,呼吁加強對生成式人工智能的審查和監管,以確保生成式人工智能與教育的融合符合教育目標和人類價值觀。

2) 美國。2020年3月,《國家人工智能倡議法》提出應警惕具有自主意識或者不受控制的AI,建立可信賴的AI系統。2021年1月,美國正式頒布《2020年國家人工智能倡議法案》,設立國家人工智能倡議辦公室,承擔“監督和實施美國國家人工智能戰略”等職責。2022年10月,白宮科學和技術政策辦公室發布了《人工智能權利法案藍圖》,其中列舉了算法歧視保護措施。2023年1月,美國NIST(國家標準與技術研究院)實施了《人工智能風險管理框架1.0》,目的是為相關機構設計和管理可信賴的人工智能提供一個管理框架,從而避免產生負面后果。2023年4月11日,美國商務部針對ChatGPT等技術的問責措施正式地公開廣泛征求意見,包括是否應在人工智能模型發布前進行核準認證程序。2023年5月,美國國家科學基金會稱擬撥款1.4億美元,為7所國家人工智能研究院的啟動提供資金。2023年5月16日,在美國參議院隱私、技術和法律小組委員會聽證會上,美國國會成員公開支持成立一個新的聯邦機構,專門負責人工智能的監管和許可。美國雖然尚未頒布專門針對AI監管的全國性法律,然而,一些州開始在AI領域推出相關立法。據美國媒體報道,僅2023年就至少有25個州、波多黎各和哥倫比亞特區推出了人工智能法案。得克薩斯州、北達科他州、西弗吉尼亞州和波多黎各的立法機構成立了咨詢機構來研究和監控各自國家機構正在使用的人工智能系統,而路易斯安那州則成立了一個新技術和網絡安全委員會來研究人工智能對國家運營、采購和政策的影響。

3) 歐盟。從之前發布的《塑造歐洲數字未來》到《人工智能白皮書》、GDPR、《數字服務法案》《數字市場法案》等看出,歐盟在數字領域和人工智能領域一直走在前列,而且整體推進力度也較強。早在2021年4 月21 日,歐盟委員會就提出了《人工智能法案(AIAct) 》的監管法案,旨在為人工智能引入一個共同的監管和法律框架。2023年6月14日,歐洲議會投票通過了《人工智能法案》,禁止實時面部識別,并對Chat?GPT等生成式人工智能工具提出了新的透明度要求。歐盟批準的法律版本提出,任何應用于就業、邊境管制和教育等“高風險”用例的人工智能都必須遵守一系列安全要求,包括風險評估、確保透明度和提交日志記錄。該法案不會自動將ChatGPT等“通用”AI視為高風險,但對“基礎模型”或經過大量數據訓練的強大AI系統施加了透明度和風險評估要求。法案預計將在今年年底獲得最終批準,隨后是企業和組織適應的寬限期,通常約為兩年。

4) 英國。2023年3月底,英國發布了名為《支持創新的人工智能監管方式》的政策文件,為人工智能發展提出意見。該份文件提出了人工智能在所有經濟部門的發展和使用需遵守的五項原則:安全性和穩健性、透明度和可解釋性、公平性、問責制和管理、可競爭性和補救性。為達到風險評估一致性,英國政府計劃匯集來自行業、監管機構、學術界和民間社會的前沿專家,在監管機構的協助下組建中央風險職能部門。5月4日,英國競爭和市場管理機構宣布,將對人工智能市場展開審查,涉及ChatGPT 等工具背后的技術。

5) 其他國家。意大利的個人數據保護機構2023 年3月31日宣布,禁止使用ChatGPT,限制其開發公司使用和處理意大利用戶的信息,并對此進行立案調查。隨后,法國國家信息自由委員會(CNIL) 以及西班牙數據保護機構也決定對ChatGPT立案并展開調查。4月12日,澳大利亞工業、科學、能源和資源部一名發言人表示,堪培拉政府要求澳大利亞主要科學咨詢機構提供關于如何應對人工智能的建議。5月9日,日本首相岸田文雄透露,擬設置磋商制定利用AI相關規則等的“AI戰略會議”。

2.2 我國目前關于人工智能監管的策略和措施

關于人工智能這一類新興科技的發展,我國一直是采取鼓勵與監管并行的道路,并且在近年來越發重視新興科技監管方面的建設。

2022年3月,中國開始實施對算法推薦的管理規定,對網絡服務平臺運用大數據分析用戶喜好、向用戶推送、精選、過濾信息的過程進行監管。2023年1 月10日,中國開始實施與深度偽造相關的管理措施,要求服務提供商對那些“可能導致公眾混淆或者誤認的”AI生成內容進行“顯著標識”。2023年4月,科技部針對《科技倫理審查辦法(試行)》進行公開征求意見,人工智能等科技的倫理審查制度初具雛形。2023 年8月15日,我國實施了《生成式人工智能服務管理暫行辦法》,成為首份監管生成式AI的規范性文件,幫助我國人工智能產業監管實現“彎道超車”。

地方層面,北京、深圳、成都等多地紛紛出臺人工智能相關舉措,希望贏在起跑線上?!渡钲谑屑涌焱苿尤斯ぶ悄芨哔|量發展水平應用行動方案(2023—2024 年)》《成都市進一步促進人工智能產業高質量發展的若干政策措施(征求意見稿)》《北京市加快建設具有全球影響力的人工智能創新策源地實施方案(2023—2025年)》《上海市促進人工智能產業發展條例》等紛紛為人工智能的發展提供了政策指引[5]。

3 下一步做好監管和促進健康發展的政策建議

目前美國、英國、歐盟等的技術發達地區在人工智能監管上還未達成非常有效的、一致性的意見??v觀全球人工智能監管政策,我國的政策落實較快,措施比較到位。下一步,要從政策上多措并舉做好人工智能的監管,促進其健康發展。

1) 充實監管內容,創新監管手段,細化監管體系。人工智能的監管內涵豐富,監管范圍、監管方式、監管標準、數據隱私保護、安全風險防范等內容皆應納入監管考慮。在此基礎上,應不斷創新監管手段,例如檢測虛假信息的技術等,盡早在技術手段方面進行布局。在監管細化上,比如構建人工智能監管分行業、分場景、分應用、分平臺、分技術的區別化監管體系,兼顧各方權利與責任。

2) 采用包容審慎的軟性法律,為人工智能提供靈活的配套監管舉措。需要遵循包容審慎的理念,實現精準監管和鼓勵發展的開放性思路。同時依靠監管之外的多元化措施,如標準、指南、試點等,來共同促進我國的技術創新和產業發展。通過差異化的技術標準與規范,應用設計的安全默認原則、系統測試方案的評估與審核等,為人工智能應用的發展提供更靈活的配套監管舉措。

3) 必須切實加強國際合作,積極推動國際人工智能標準設定。除了面向國內的政策舉措,歐美也在積極建立相關的國際聯盟、“數據俱樂部”等,希冀主導數據流動、數字稅收以及AI技術、倫理、治理等方面的國際標準。作為人工智能大國的中國,我國也應考慮積極投身人工智能領域的國際治理合作與標準制定,重視AI倫理,加強AI治理,積極倡導人工智能發展理念,從而進一步提升科技競爭力和規則話語權。

4 總結

人工智能發展迅速,如何對其進行有效監管也一直備受世界矚目。我國應密切關注國際監管動向,取長補短、因地制宜,用好“他山之石”,走出屬于中國的特色監管道路。

參考文獻:

[1] 陳龍,曾凱,李莎,等.人工智能算法偏見與健康不公平的成因與對策分析[J].中國全科醫學,2023,26(19):2423-2427.

[2] 周馳.馬斯克等千人簽署公開信,人工智能開發危及“文明控制權”?[N/OL]. 中國新聞網,2023-03-30.[2023-08-16].https://baijiahao.baidu.com/s?id=1761720385220967465&wfr=spider&for=pc.

[3] 斯坦福大學以人為本人工智能研究所.2023年人工智能指數報告[R/OL].(2023-04-03).[2023-08-16].https://www.sen?sorexpert.com.cn/article/186064.html.

[4] 南博一,劉煒康,等.聯合國敦促對人工智能實施監管:擔憂技術發展威脅世界和平[N/OL]. 澎湃新聞網,2023-07-19.[2023-08-16]. https://baijiahao. baidu. com/s? id=1771819994007179064&wfr=spider&for=pc.

[5] 蘇德悅.人工智能產業健康發展路在何方?[N].人民郵電報,2023-08-08(6).

【通聯編輯:代影】

猜你喜歡
政策建議風險人工智能
2019:人工智能
人工智能與就業
數讀人工智能
江蘇省中小企業融資現狀調查與思考
科研經費管理政策改革研究
中國經濟轉型的結構性特征、風險與效率提升路徑
城市與區域經濟可持續發展
互聯網金融的風險分析與管理
企業納稅籌劃風險及防范措施
下一幕,人工智能!
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合