?

數字時代深度偽造平臺化治理研究

2023-02-07 19:17孫天宇
警學研究 2023年6期
關鍵詞:深度人工智能信息

孫天宇

(廣東警官學院,廣東 廣州 510440)

一、問題提出

深度偽造(Deepfake)是深度學習(Deep learning)和偽造(Fake)相結合的產物,是利用深度學習算法,實現視頻、音頻、圖像的偽造和模擬形成虛假內容的總稱,是深度學習算法在內容合成制作領域的結果產出。時間回溯至2017年12月,某匿名者將情色電影主角替換成好萊塢某知名女星并上傳至Reddit論壇[1],引起個人、社會、國家層面的廣泛關注,尤其是該換臉源代碼被公開之后,各類應用及其帶來的風險呈井噴之勢,社會個體扭曲現實的能力呈指數級增長,經偽造的信息能無中生有,與AI算法的結合更極大地提高了其可信度。自此,深度偽造的危害后果開始在個人隱私侵權、詐騙犯罪活動、社會秩序破壞、國家政治安全等領域接連發生。2021年3月,在經歷一周的火爆后,沖上中國區應用商店免費軟件下載排名榜首的APP-Avatarify被悄然下架,其憑借一張照片即可合成一段幽默詼諧的動態說唱視頻,受到廣大消費者的熱捧,但其暗含的隱私與信息安全風險成為其被下架的主要原因。[2]假視頻最大的危害是破壞人們識別“真相”的能力,失去對互聯網的信心,并引發和助長社會沖突。進入數據高度開放流動的互聯網領域,現實社會中存在的極端和對立情緒會因不信任因素加劇而激化社會矛盾。

埃隆馬斯克曾在推特上表示:“我們要非常小心人工智能,它可能比核武器更危險?!保?]史蒂芬·霍金也說:“人工智能可能是一個‘真正的危險’。機器人可能會找到改進自己的辦法,而這些改進并不總是會造福人類?!保?]深度偽造的負面作用不得不引起重視,其憑借顛覆性技術特征引發世界各國陷入信息安全的深度焦慮。面對傳統個人言論自由的權利訴求與互聯網不當言論管制的價值沖突,法律規制、技術防范、平臺治理和民眾教育等成為各國普遍嘗試的規制權宜舉措[5],但治理效能最大化的最優解在于發揮各主體的治理專長,而非賦予其同等的責任和義務[6],如何在遏制深度偽造行為危害后果的同時,實現促進人工智能技術的健康發展已成為各國制定政策時的重要考量因素,技術“無價值取向論”無法避免技術淪為個體作惡的工具,而這也將成為技術發展必然面臨的風險。

二、深度偽造危害生成的過程解構

在互聯網時代下,信息流動的載體從文本、語音到視頻,再到虛擬現實,豐富的用戶體驗在技術進步趨勢下逐步實現。深度偽造生成過程具有高度智能化,利用生成式對抗網絡Generative Adversarial Networks(簡稱GAN)進行自我對抗來實現無監督式學習的模型可以生成以假亂真的圖片、音頻、視頻以及三者的結合體。深度偽造技術一方面可用于歷史影像修復、歷史人物再現、虛擬仿真教育、醫學圖像分析、患者康復治療、個人虛擬化身(avatar)等領域,為人類帶來福祉;另一方面,當技術使用者的意圖發生異化,加之標準化監測工具的缺失,甄別、偵測的難度很大,深度偽造的不當使用呈現出“魔道不相上下”的窘境。深度偽造的傳播利用當下全媒體時代的傳播便利、較低的準入門檻、低廉的傳播成本、打假辟謠的時間窗短、難度大的特性,可以造成影響范圍廣泛的危害。

(一)深度學習技術背景下個體的廣泛參與,深度偽造防不勝防

技術的智能化進步趨勢增加了深度偽造的防范甄別難度。2019年6月,在網絡上出現了一段關于扎克伯格的偽造視頻,視頻中人物的言行舉止與其本人出奇一致,引起廣大網友的熱議,而后其出面對此予以澄清才消除風波[7],但此后類似事件層出不窮。技術無所謂善惡,既可用來造福人類,也可用來造成禍患,關鍵在于使用者如何應用。深度偽造生成過程包括三步:一是提取數據,二是訓練,三是轉換。每一步中使用的技術路徑也在不斷更新。GAN作為近年來機器學習領域最為火爆最具沖擊的無監督式學習模型的典范,為人工智能自我學習能力的提升帶來跨越式發展。GAN內含兩個模型:生成模型和鑒別模型,前者用來生成虛假內容,后者辨別其真偽,二者不斷對抗。簡言之,前者比作盾,后者比作矛,矛不斷刺向盾以發現其薄弱環節,而盾據此不斷強化完善,直至達成均衡?;诖朔N智能化學習策略生成的深度偽造為甄別和篩查增加難度。

網絡視頻的生成主要有兩種形式:用戶生成內容(User Generated Content,簡稱UGC)和專業生成內容(Professional Generated Content,簡稱PGC),前者主要指一般用戶作為視頻內容生產者生成視頻并上傳至網絡終端,后者主要指由專業機構制作的視頻并上傳的情形。傳統意義上具有闡釋性偏向造假的UGC和具有技術偏向造假的PGC正在因為技術壁壘的消失而呈現出融合趨勢,加速消解著我們現實評判中“眼見為實”的信任。[8]在自媒體尚未發達的時代,媒體發布渠道的限定性使得發布內容的事前審核成為可能,但在自媒體流行的當下,人人都可以借由互聯網平臺發布信息內容,從而對他人產生影響,海量的流媒體視頻使得傳統依賴人力的內容審查模式無法發揮作用,內容平臺也需憑借算法對傳播內容實施底線性審查。[9]一鍵式生成APP的開發為大眾深度偽造信息的生成提供極大便利,降低了進入的技術門檻,內容制作端的管控成為難題。公眾參與深度偽造的能力受到技術壁壘的限制,但程序開源卻輕易消除了壁壘限制,使得眾人在共享技術紅利的同時,也可能成為深度偽造的潛在危害制造者。深度偽造工具的開源化、普及化已經讓被造假的主體從名人延伸至任何普通人。使用門檻降低,造假成本低,早期的深度偽造技術要通過上萬張照片來作為訓練素材,才能實現替換視頻中的真實畫面,但隨著時間推移,技術不斷迭代,新的視頻造假技術甚至可以做到只憑一張照片就能自動生成視頻畫面。同時,深度偽造中所需的學習數據資源,如圖片、音頻、視頻等,也可以在開放的網絡空間輕松獲取。

(二)過度攫取公民隱私,信息泄露引發的系統安全風險高

掌握適量的個體生物識別信息是深度偽造應用程序得以正常運行的必要前提,如面容、聲音、虹膜、指紋、DNA等,以便作為生成式對抗訓練的數據來源,不同于一般的個人賬號、密碼等信息經由特定程序可以變更,而此類生物特征信息與個體相伴、唯一且具有相對穩定性,屬于高度敏感的個人信息,在被識別收集轉化為電子信息后,一旦被泄露,無法通過更改的方式提升防護等級,而基于個體生物識別特征的安全系統就面臨被攻破的風險。全國網民網絡安全感滿意度調查統計報告顯示,個人信息保護成為網民最關注的問題,37.4%的網民認為網絡個人信息泄露非常多和比較多,個人信息保護、網絡平臺責任和數據安全保護成為三大核心訴求,其中個人信息保護立法訴求占比82.61%,對網絡平臺責任立法訴求占比73.36%,對數據安全保護立法訴求占比63.69%。[10]2015年,“Meta(前身為Facebook)” 因違反 《生物識別信息法案》(Biometric Information Privacy Act),未經用戶同意擅自收集用戶個人的面部生物識別信息,而在伊利諾伊州遭到集體訴訟,該法案被稱為全美國最嚴厲的隱私法案之一,Meta提起的上訴亦被駁回,最終于2020年6月達成6.5億美元的和解協議。[11]2017年一位ID名為“deepfakes”的用戶將好萊塢女星的面容移植到情色電影中并公開發布,結果導致該賬號被封殺,隨即該換臉項目的代碼被公開。[12]在美國引起廣泛爭議并被封殺的應用軟件“Deep Nude”以及國內掀起軒然大波的應用程序“ZAO” 皆是以上述開源代碼為基礎而開發的。風極一時的換臉APP“ZAO”在隱私條款中過度獲取用戶隱私授權,轉嫁平臺的侵權責任風險給用戶,從而在一片爭議中被整改下架。[13]2020年,中央網信辦曾牽頭工信部等4個部門聯合開展“凈網2020”專項執法行動,執法過程中發現許多應用程序在與個人信息相關的隱私協議、采集使用個人信息的范圍與必要性方面存在嚴重問題。由此可見不加管控的任意發展會導致應用程序開發者在利益驅使下無限制地索取常規功能必需以外的個人信息,對個人隱私和信息安全造成極大風險。

(三)社交網絡中的暗黑心理驅使深度偽造內容的廣泛傳播

網絡社交不同于傳統社交的重要區別之一在于非雙向互動性,傳統社交是雙向的互動、溝通、交流,而網絡社交則成為了單向的公眾表演,這恰恰是社交網絡功能逐步演化的結果。[14]2009年Facebook增加“點贊”功能,獲點贊數成為內容受歡迎程度的指向標,同年推特開發了“一鍵轉發”功能,2012年,Facebook引入“分享”按鈕,內容在平臺間的傳播輕而易舉,結果便是社交網絡的激勵機制發生根本性變更,從單一個體的記錄表達空間變成了個體自我展示獲得社會鼓勵與認同的表演舞臺,影響力和受歡迎程度取代內容的質量和真實性成為衡量指標。[15]在“注意力經濟”時代,民眾對于司空見慣、不帶任何煽動性及情感偏向的內容早已失去關注興趣,深度偽造信息的內容新奇,滿足了人們的好奇心,廣受追捧。紐約大學社會心理學研究員William Brady和美國皮尤中心的調查結果為該結論提供例證。①紐約大學的一個社會心理學研究員William Brady在2017年的時候做過這么一項研究,他分析了50萬條推特上的推文,結果發現推文里每增加一個情緒化或者進行道德評判的詞,推文的傳播率會增加20%。美國的民意調查機構皮尤中心也做過一項關于社交網絡的研究,他們發現,如果你在網上的推送傳達出了“憤怒的分歧”,那這種推送獲得點贊、轉發互動的可能性,是普通推送的兩倍。名人的“光環效應”會不斷鞏固其權威性和號召力,讓大眾產生高度的信任,愿聽從其旨意而行事,在借助于其廣泛的社會影響力和社會關系網絡的同時,被深度偽造的信息主體反其道而行之的言行與公眾認知形成巨大反差,信息不對等帶來的自我糾偏困境使得公眾認知走向反面極端。[16]信息內容在互聯網時代需借助于信息發布平臺才能獲得廣泛的傳播,如時下流行的微信、微博、快手、抖音等即時通訊、短視頻直播平臺。平臺內外的資源共享與一鍵轉發,以及平臺全時空的不間斷在線,使得信息的無限流轉僅憑指尖操作即可實現,交易成本幾乎為零?!昂笳嫦鄷r代”的情緒和知覺而非事實真相更能左右人們的選擇,“博取眼球”成為內容發布者博出位、蹭關注、求轉發的常用手段。根據麻省理工學院媒體實驗室發布的報告,虛假信息被轉發的可能性比真實信息高出70%,真實信息覆蓋1 500人所用的時間是虛假信息的6倍。[17]

(四)顯性與隱性危害后果加持,辟謠難以修復

深度偽造生成的第一步即數據提取環節需要大量被偽造者的數據,包括照片、視頻、音頻資料,以便從中提取被偽造者的生物識別特征,實現內容的替換。深度偽造信息根據內容的性質差異可將其造成的危害分為多個層面:首先,對個人隱私權等合法權益的侵害,常見于色情報復影片中的換臉,侵害他人名譽、肖像等;其次,對社會穩定和秩序的危害,如偽造上市公司總裁發布不當言論,導致股價異常波動,偽造成社會名流發布恐襲信息,引發社會恐慌;最后,對國家安全造成潛在威脅。[18]2019年1月29日,美國國家情報局(ODNI)發布了《2019全球威脅評估》[19],其中提到利用網絡影響和干擾選舉成為美國面臨的安全威脅之一,而深度偽造技術是該威脅可茲利用的具體手段方法,敵對勢力和競爭對手完全可以在總統競選過程中利用偽造且無法辨明真偽的信息在媒體公開,以詆毀競爭對手,影響選民的思維和行為,間接影響總統競選結果。傳統地方媒體在互聯網發展趨勢下生存空間被無限擠壓,本應由其承擔的深入調查、揭露真相的功能被不斷弱化,無法與新媒體勢力形成事實對抗驗證機制。假視頻最終被澄清,但還是會造成負面影響。人們的大腦天生喜歡用“可得性啟發式”來判斷信息的可信度,即更熟悉、更容易讓我們回想起來的信息,我們更傾向于認為它是真的,“重復”“熟悉”是虛假信息混淆視聽的必要條件。人們對于事實的基本共識會被破壞,何為“真實”將會被反復質疑。在一個互相信任程度很低、缺乏共識的社會,協作成本高昂、社會嚴重撕裂。Meta在2019年12月20日發布公告稱,封殺其來自美國和越南的610個賬號、89個粉絲頁面、156個群組和72個Instagram賬號,粉絲量累計超過5 500萬,這些賬號采用人工智能合成虛假個人照片,發布大量有關美國政治新聞和議題的內容,主要涉及“支持特朗普”和“攻擊中國政府”,Meta安全政策主管格萊切爾(Nathaniel Gleicher)稱這是“我們第一次看到個人或組織系統性地使用AI技術,以便讓賬號看起來更真實?!保?0]2018年8月,中央網信辦已在虛假不良信息辟謠領域發力,通過在網絡端建立自主舉報、發現處置于一體的聯動處置平臺。在收集到新的謠言線索后,辟謠平臺會根據謠言內容,發送至相關部委、地方或專家學者,請他們協助查證,并組織成員單位、合作單位進行聯合辟謠。[21]但由此不難發現,相比起辟謠所需花費的人力、物力、時間成本而言,謊言生成的難易度及其危害蔓延的范圍遠超前者。

三、深度偽造的法律規制困境

深度偽造應用的負面效應反映出技術發展與法律規制之間存在的普遍矛盾,通過深度偽造技術的屬性解析,闡釋在高新技術領域進行法律規制的特殊性與普遍性之間的張力,多元價值沖突之間的調和與統一,變動性與穩定性之間的沖突等困境。

(一)技術風險的不確定性與法律規制的確定性之間的緊張關系愈發激烈

對技術開發持有的鼓勵、包容的態度成為技術蠻荒增長的必要條件。國家人工智能戰略規劃的落地實施,使人工智能吸納了更多的資源支持,更有力的政策保障。鼓勵、支持的包容態度使得人們選擇性地遮蔽了技術隱含的風險。技術本身所蘊含的風險與發展共生,與時代共存,與全球互聯,成為生活方式的常態。技術風險存在著傳統價值規范的失效與現代控制準則虛設的問題。技術開發帶來的隱形風險層出不窮,造成人工智能領域的規制補全需求不斷凸顯。行業規范性文件的形式無法提供深度偽造行為規制的制度支撐,懲罰機制的缺失亦使得其無法實現預期的效力。

(二)技術倫理的剛性制度約束欠缺,多元價值沖突難以調和

深度偽造技術背后包含了多元價值沖突:既包括言論自由在互聯網領域的拓展與延伸,也包括個人隱私與個人信息應受保護的期待,還包括智能技術開發與利用同人倫道德不得相悖的基本遵循?!凹夹g的‘不良應用’主要指三個方面:一是應用特定技術所要實現的目的是什么;二是不管出于什么目的,特定技術是如何被應用的;三是設計技術中應用技術原理的方式?!保?2]人工智能治理專業委員會在《新一代人工智能治理原則——發展負責的人工智能》中提出8項關于人工智能發展的基本原則?!度斯ぶ悄軅惱盹L險分析報告》將遵循人類根本利益和責任原則嵌入其中:一方面人工智能應以實現人類根本利益為終極目標,另一方面,在人工智能相關的技術開發和應用兩個方面都建立明確的責任體系,據此應遵循透明度原則和權責一致原則。國家網信辦、文旅部和廣電總局等三個部門聯合發布《網絡音視頻信息服務管理規定》,其中增加了針對換臉技術的新規定,在虛假圖像、虛擬現實等內容方面需建立專門的辟謠機制。同時,需對依賴深度學習、虛擬現實等新技術制作、分發的內容進行特別標注,以提醒公眾形成正確認識,且不得利用該技術“制作、發布、傳播虛假信息”。技術倫理的多元探索反映出人們對技術風險規制的美好渴求,但原則性的倫理指引無法形成剛性的制度約束,確保技術風險位于可控風險范圍。

(三)法律否定性評價的量化處罰形式無法達成罪責刑相適應

行為規制模式與權利化模式成為法律介入社會生活,調整彼此間權利義務關系的基本策略,“行為規制”是指從他人行為控制的角度來構建利益空間,通過對他人特定行為的控制來維護利益享有者的利益。相較于權利化模式,行為規制模式的保護力度較弱。[23]消極性的、防御性的權利保護模式無法與經過互聯網放大后的危害程度相匹配。①法釋〔2014〕11號:《最高人民法院關于審理利用信息網絡侵害人身權益民事糾紛案件適用法律若干問題的規定》,2014年8月21日發布。法律規范作為社會治理的手段,它是以調整公民個體行為與行為之間的關系,以協調或彌補可能由之產生的利益沖突和法益侵害為中心,這種抽象機制的強化會導致行為間的關系間接化從而帶來規制的困境。侵權法和刑事法所關注的核心都是行為造成損害時,如何基于損害結果或行為具備的抽象危險,對行為進行歸責?!肮卜感袨檎富?、預備行為實行化、網絡服務提供者的平臺責任”[24]這三種責任模式的立法轉向與實踐探索已為《刑法》解決網絡幫助行為的危害性過大從而確定適當的刑事責任問題提供新的思路[25],但面對深度偽造這種新的社會危害行為尚未納入現行刑事法評價體系進行客觀歸責,尤其是在認定深度偽造行為危害后果的程度上存在較大困境。

四、深度偽造平臺化治理的理論證成

商務交易、互聯網金融以及各類互聯網公共服務類應用規模急速增長,充分體現出網絡服務提供者在我國經濟社會中愈加重要的地位,然而,網絡服務提供者重要性增強的同時,也是我國經濟社會運轉對服務提供者依賴性的同步增強,從整體上構建以網絡服務提供者為規制對象的法律制度以應對網絡犯罪風險成為應然之選。

(一)獲取渠道影響力與內容審核責任一致性

信息哲學認為,信息是物質存在方式和狀態的自身現實。個人信息準確記錄和描述了個體的存在狀態,是單個個體區別于其他個體的外在表現[26],意即識別性是個人信息的本質屬性。識別既可以是將信息主體與其他人區分開來或聯絡到本人,也可以是權利人的行為狀態和行為軌跡等。要求平臺對其上的內容承擔責任的理由也漸漸出現,平臺媒體通過信息傳播這一重要渠道,獲得了影響社會的力量,這一地位的轉變使得平臺也應承擔起防止傳播作用被濫用、危害社會的責任。[27]美國谷歌、Meta、推特等互聯網平臺因深度偽造信息的泛濫而備受指責,但他們卻以自身僅提供信息發布平臺來逃避信息審核的責任。

2019年10月4日,歐盟法院在一份裁決中表示,如果一家法院裁定某項言論具有誹謗性,則網絡服務公司應刪除該言論,且有責任在平臺上搜索與之相同言論并刪除,這一裁決是對《歐盟電子商務指令》的擴大解釋,以強化網絡平臺的管理責任。[28]此舉還可視為歐盟通過向網絡服務平臺施加責任,進而實現對域外信息內容的間接管控。Meta已經采取措施執行所有承諾,并利用消費者授權工具促進其與整個歐盟范圍內的事實檢查人員和研究界的合作。谷歌已采取舉措履行其所有承諾,尤其是強化廣告展示位置的審查,增加政治廣告的透明度并為用戶提供信息、工具和支持,以增強他們的在線體驗感受。推特對惡意行為者采取了優先行動,關閉了假的或可疑的賬戶以及系統自動或機器人操控的賬號。Mozilla即將啟動其瀏覽器的升級版本,默認情況下將阻止跨站點跟蹤,換言之,這將限制披露有關用戶瀏覽活動的信息,以避免這些信息被用于虛假信息宣傳活動。[29]2017年5月2日,國家互聯網信息辦公室發布1號令,《互聯網新聞信息服務管理規定》,其中明確了總編輯及從業人員管理、信息安全管理、平臺用戶管理等要求。賦予內容服務平臺者更多的審核責任與審查義務已成為世界各國的普遍共識,并已經由制度化規范予以調整。

(二)代理式監管的便利考量

羅斯科·龐德曾言:“法律必須穩定,但又不能靜止不變……社會生活環境的不斷變化,則要求法律須根據其他社會利益的壓力和危及安全的新形式不斷做出新的調整?!保?0]科技進步不得以損害人的權利為代價,法律在此過程中起到平抑科技進步造成的負性危害,增進全體社會成員福祉的重要作用。[31]深度偽造信息的傳播須經歷內容策劃、制作、分發、傳播、沉寂等多個階段,分發與傳播是誘導大眾形成認知錯誤或認知偏差,發生危害性后果的關鍵環節?;ヂ摼W服務平臺作為內容發布者或中介平臺,與平臺使用者之間可基于所訂契約形成彼此的權利義務約束,而社會責任的價值應在雙方簽訂的契約中得到體現,因此經由契約方式約束內容發布者的行為,確保深度偽造內容無法獲得任意發布的機會,及事后審查發現的撤銷權利,從而將代表公共利益的公權行使與監管職責分到私權主體上,形成監管的便利化。2018年9月26日歐盟發布的《反虛假信息行為準則》成為世界范圍內首個基于行業自愿原則聯合達成的行業自律準則。該準則在自愿和自律的基礎上確立了四項基本目標,即提高偵測識別能力,協作響應能力,平臺與行業自律,提高公民防范意識和能力,從而打造高透明度的互聯網信息環境,賦予公眾對抗虛假信息的權利和能力,消除民主和政策制定過程中遭遇的虛假信息威脅。這彰顯出歐盟治理互聯網虛假信息的迫切希望,同時也意味著歐洲一向奉為圭臬的“互聯網自由”的破產。上述內容也成為各協議簽訂機構所需定期上報的整改事項。

2020年1月1日起實施的《網絡音視頻信息服務管理規定》(以下簡稱《規定》)調整的主體主要包括三個:行政主管機關、網絡音視頻信息服務提供者和網絡音視頻信息服務使用者,強化了音視頻服務提供者的主體責任要求,具體可分為三個方面:事前真實身份核驗、信息發布審核、信息標注、安全評估和未成年人保護責任,事中的信息安全管理、技術鑒別、停止傳輸、應急處置、知識產權保護等責任,事后的辟謠措施、信息服務使用者的違約懲處?!兑幎ā窂恼娣e極引導和反面禁止性行為的角度給從業者提供明確的指引。其中對網絡信息內容服務平臺的責任規定中,明確其內容管理責任,在重點環節應予展示的內容加以明確,對不得予以傳播的內容建立全流程的審核、篩查、截停、刪除、固定、留存機制。從現行制度規范的功能取向而言,不斷強化平臺服務者的主體責任已成常態,細致全面的審查落實機制為服務平臺的操作落實提供了詳細指引。[32]

(三)主導人工智能治理話語體系的必然要求

在國家層面關于AI的規則制定并不平衡,有的國家已經優先制定了機器人和人工智能的規則,甚至通過立法規制自動駕駛汽車試驗,但大多數國家還并未著手進行處理。在2018年發布歐洲人工智能策略(European Strategy on AI)后,經過廣泛的協商討論,人工智能高階專家小組(High-Level Expert Group on Artificial Intelligence)在2019年制定了可信賴人工智能準則(Guidelines for Trustworthy AI),并在2020年制定了可信賴人工智能評估列表(Assessment List for Trustworthy AI)。同時,2018年12月發布了第一個人工智能協調計劃,以作為成員國的聯合承諾。2020年2月,歐盟委員會發布了三份重要的數字戰略文件:《塑造歐洲的數字未來》(Shaping Europe’s digital future)、《人工智能白皮書》(the White Paper on Artificial Intelligence)、《歐洲數據戰略》(European Data Strategy),分別從基礎設施和工具、標準和法律規則以及價值觀和社會模式三個層面實現規制自主(regulatory autonomy),以實現數字歐洲所反映出的歐洲最好屬性:開放、公平、多樣化、民主和自信,歐盟委員會主席烏爾蘇拉·馮德萊恩提出的“技術主權”(technological sovereignty)成為統轄上述內容的關鍵詞。人工智能白皮書(White Paper on AI)為歐洲的人工智能提出了一個清晰的愿景:一個卓越和信任的生態系統,為AI法規提案奠定基礎。[33]

科技發展引發社會范式的轉變,從而對人們的傳統觀念和規范構成威脅和挑戰??萍紝θ祟惖挠绊懭绱松钊牒蛷氐?,人工智能作為新一輪產業變革和科技革命的顛覆性技術,為人類帶來巨大福祉的同時,因其濫用而引發的風險成為新的隱患。全球看來,中國、美國、歐洲是AI領域的主要“玩家”。為避免制度監管的滯后導致技術監管的不到位,致使AI系統的社會危害不可控,歐盟于2019年4月8日頒布了《人工智能(AI)道德準則》,以期利用原則化概括條款提前介入到AI技術發展的技術規制中,以期提前規制AI技術發展可能帶來的不利后果,改變了針對新興技術領域的傳統法律規制模式。IBM歐洲主席馬丁·葉特(Martin Jetter)認為歐盟委員會的人工智能道德標準為推動AI的道德和責任制定了全球標準。歐盟發布《人工智能道德準則》確立“可信賴AI”的框架:第一,道德指向——應享有的基本權利、原則和價值觀;第二,實現路徑——技術和非技術方法,羅列了滿足“可信賴AI”的7個條件:人類的監管、技術的安全可靠、隱私和數據保護、透明可理解性、多樣非歧視與公平性、環境友好與社會福祉增進、可追責。該準則面向開發、部署或使用AI的所有利益攸關方,但其是否能獲得認可將由上述主體自行決定。歐盟委員會表示,其目前正采取三步行動促進可信賴的人工智能健康發展:制定值得信賴的人工智能的關鍵要求,啟動利益相關者的大規模試點,為以人為中心的人工智能建立國際共識,并于2019年啟動一套人工智能研究卓越中心網絡,建立數字創新中心網絡,與歐盟成員國和利益相關者討論制定數據共享模型。歐盟為確保執法效力,實現域內執法尺度的統一,采用統一立法的方式對歐盟各國適用形成普遍約束力,但本該在《通用數據保護條例》(General Data Protection Regulation)之后出臺以配合該條例順利執行的系列操作細則并未如期執行,在結束2019年“競賽式執法”過程后,個別國家對如此嚴厲的信息規范是否會導致歐盟域內各國本已落后的產業再次陷入發展的僵局產生不同看法。本欲通過立法規范各主體開發利用公民個人信息的技術和行為,以規范和保護本國信息主體的合法權益,換取本國相關產業發展的契機,但事與愿違,初衷并未如期達成。

《新一代人工智能治理原則——發展負責的人工智能》 成為我國應對AI倫理和治理的體現。2019年5月,OECD成員國批準了全球首個由各國政府簽署的AI原則——“負責任地管理可信AI的原則”。[34]2023年7月,美國政府召集AI領域科技巨頭商討人工智能領域衍生巨大風險的應對舉措,其中將“安全、可靠、信任”確立為未來人工智能開發所應遵循的基本原則,參會的7大科技巨頭亦紛紛承諾將采取技術促使人工智能開發朝著負責任的方向前行。2023年7月10日中央網信辦連同數個國家部委正式出臺了《生成式人工智能服務管理暫行辦法》,該辦法于2023年8月15日生效。顯示出各個國家已進入AI的實質性治理階段,規則之治的國際競爭更加激烈。

五、深度偽造平臺化治理模式構建

網絡平臺是數字社會的中樞,在共建共治共享的數字社會治理制度中,平臺應發揮應有的作用,在政府治理和平臺治理之間尋找合適的平衡點,堅持“多元共治、權責一致”思路,使平臺治理成為國家互聯網信息內容治理中的關鍵環節和重要助推。深度偽造作為技術發展的產物,不可避免地附帶有技術發展的天然屬性。傳統制造業領域的“價值無涉論”在第四次工業革命浪潮的驅動下已然具備附隨的價值取向,技術開發者的價值取向嵌入到了程序運行的過程中,尤其是深度偽造融入了政治性、社會性,形成利益的交織。面對現有的技術主導推進,商業推廣占主體,以及政府直接監管效能低下的現狀,應推進平臺化治理模式,以技術倫理的柔性規制和法律規范的剛性約束,行政主體與商業機構相互配合,確保其在良性軌道內順暢運行。

(一)確立網絡服務提供者的監管主體責任

對深度偽造所涉及法律關系會運用到民事責任、刑事責任和行政責任制度來進行調整,單一的規范體系無法全部實現規范或制裁的目的,并且處于變動不居狀態的科技并非相對穩定的某一部門法所能及時適應的,需要通過法律的“綜合治理”。在事前審核端設立審核者的嚴格責任義務,事中的監控環節應設定平臺提供者的巡查發現義務,在事中的發現處置端應增加發布者和平臺共同的危害消除義務,在事后的法律懲戒環節設置直觀可量化的罪責刑標準。在《民法典人格權編》《數據安全管理辦法》以及《網絡音視頻信息服務管理規定》《網絡信息內容生態治理規定》等法律規范中針對深度偽造相關行為的危害后果、侵權責任也作出規定。網絡平臺在被賦予體系化的共性義務之外,還根據內容的不同被賦予了不同管理義務,以制度規范形式將平臺特定的行政義務加以確立。2015年公布的《網絡安全法》,2021年經修訂施行的《未成年人保護法》從被保護對象的利益出發,規定了網絡平臺對待上述主體的共性保護義務。在平臺的個性保護義務方面,2019年中央網信辦分別針對網絡信息內容服務平臺、關鍵信息基礎設施運營者在內的6個主體發布包括《網絡信息內容生態治理規定》和《網絡安全審查辦法》在內的6項規定,從特定內容出發規制網絡平臺的特定義務,與共性義務形成互補。

(二)統一技術向善的基本倫理準則

剛性制度規范應為技術發展留下足夠的拓展空間,尤其是在技術興起的早期階段,其未來應用領域和方向尚未明確的情況下,以框架式、原則式的政策引導技術發展趨向更有利于技術正效應的充分發揮,倫理準則成為引領和指引技術發展的重要框架和可行舉措。歐盟委員會于2021年4月提出了人工智能法規,根據人工智能應用對人們的安全帶來的風險高低,分為四個層級:不可接受的風險(Unacceptable risk)、高風險(High-risk)、有限風險(Limited risk)、最小的風險(Minimal risk),分別規定了各自的使用場景與范圍,以減少風險。[35]在技術發展與風險規制之間尚未探索出明確的文本規范之前,原則性的指引將發揮重要作用,保護用戶數據安全、尊重隱私、保障個人的知情權和選擇權、負責任開發、社會可持續發展等一系列人工智能倫理準則已在監管機構和行業從業機構之間形成共識[36],并通過行業協會、政府治理白皮書等方式將理念傳遞至全體行業從業者,將技術向善的基本倫理準則作為技術發展初期的指導性原則。

(三)建立多層次的治理體系

技術無所謂善惡,不存在原罪,關鍵在于使用技術的人。技術使用所關涉利益維度的復雜性也決定了人工智能領域治理應采用多層級的治理體系[37],對深度偽造涉及到的數據和技術兩個層面分別予以規制,再以頂層規范的邊界劃定,中層的行業自律,到底層的公眾教育與意識培養相結合的方式構建多層次的治理體系。

頂層的法律規范采取分類分級、分階段的方式進行適度監管,中層的行業和企業自律也需發揮重要作用,鼓勵踐行科技向善、負責任創新與研究等理念,以采取行業標準、自律公約、最佳實踐做法、技術指南、倫理框架等敏捷靈活的治理方式來規范、引導人工智能的發展應用,實現科技向善。底層公眾教育和意識培養同樣不可或缺,公眾意識的培養與從業者自律習慣的養成得益于日常的規則普及與全面教化,形成明確穩定的法律后果預期,使得民眾的自我維權意識和從業者的自律精神得到充分發揮。由此可以形成覆蓋數據和技術,多主體參與,全方位監督的多層級治理體系。

猜你喜歡
深度人工智能信息
深度理解一元一次方程
深度觀察
深度觀察
2019:人工智能
人工智能與就業
深度觀察
數讀人工智能
訂閱信息
下一幕,人工智能!
展會信息
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合