?

負責任的人工智能:技術倫理危機下AIGC的治理基點

2024-05-08 00:23陳建兵
關鍵詞:解釋性倫理人工智能

陳建兵,王 明

西安交通大學 馬克思主義學院, 陜西 西安 710049

2022年底,人工智能技術在世界范圍內迎來一次全新“發展期”——OpenAI公司旗下ChatGPT的問世備受矚目,成為大型語言模型處理技術正式走向應用領域的里程碑。隨著以ChatGPT為標志的自動化程度高且使用門檻較低的生成式人工智能(AIGC)技術的出現,其在自動駕駛、醫療診斷、金融分析等領域的某些方面的表現甚至超越人類,這讓人類看到AIGC在諸多領域應用的巨大潛力和光明前景。然而,AIGC能在不經過人類監管的情況下自主生成大量文本和內容,可能會導致虛假信息傳播、隱私泄露以及其他潛在的社會問題。誰該為AIGC造成的傷害負責?這是人類使用AIGC時的普遍擔憂。

推進人工智能技術從“生成式”邁向“負責任”已經在全球范圍內基本達成共識。發展負責任的人工智能需要重新為人工智能技術“立規矩”。那么,何時立負責任的規矩較為妥當?怎樣兼顧AIGC技術的倫理規范與創新發展?各國學界、政府部門以及人工智能企業已經意識到監管的緊迫性,試圖建立對AIGC的倫理治理框架。2023年3月29日,美國生命未來研究所發表公開信,呼吁所有人工智能試驗室立即停止研發比GPT-4能力更強的人工智能系統,停止時長至少6個月,以便給予充分的時間進行安全性和倫理性評估。這份公開信得到了人工智能領域眾多專家和企業高層的支持,包括人工智能“泰斗”級人物辛頓、曾是OpenAI聯合創始人的Musk、StabilityAI首席執行官莫斯塔克等在內的1 000多人簽署了這份公開信。此外,公開信還建議各個試驗室和專家合作,針對人工智能的設計和開發建立共享安全協議,并由獨立的外部專家監督,確保人工智能系統“安全、無可置疑”。2023年3月30日,聯合國教科文組織發表聲明,呼吁各國政府簽署《人工智能倫理問題建議書》,旨在促進人工智能為人類、社會、環境以及生態系統服務,并預防其潛在風險。2023年6月14日,歐洲議會投票通過了《人工智能法案》授權草案,從人工監管、隱私、透明度、安全、非歧視、環境友好等方面全方位監管人工智能系統的開發和使用,詳細規定了各個市場參與者的義務。這份授權草案的立法目的重在監管人工智能產品的開發者和提供者,從而減輕用戶的使用風險??梢?加強人工智能技術倫理危機治理研究,對于促進人工智能技術從“生成式”邁向“負責任”,推進AIGC技術可持續發展具有重要意義。

一、人工智能技術倫理爭論與“負責任的人工智能”的提出

人工智能技術迅猛發展,特別是AIGC技術的強大應用潛力以及帶來的巨大經濟效益,促使人工智能巨頭企業爭搶“技術”研發高地,不斷推進技術迭代進步。然而,隨著AIGC功能日益強大且使用場景逐漸增多,其造成的虛假信息傳播、用戶數據泄露、用戶隱私侵犯、機器事故以及社會犯罪等一系列技術倫理風險也在增加,使得人們開始關注AIGC存在的潛在風險、產生的負面影響以及誘發的技術倫理危機。因此,人工智能發展史上關于人工智能技術是否中立的討論再次進入大眾視野。尤其隨著AIGC負面影響的逐漸顯現,人們對AIGC發展需要規制和引導的呼聲越來越高,要求政府和人工智能企業對AIGC進行“負責任”治理?;诖吮尘?“負責任”成為AIGC技術倫理的治理趨勢。

(一)人工智能發展中關于“技術是否中立”的爭論

科學技術的發展以及由此引發的科技倫理問題的爭論由來已久。當科學技術的發展進入到人工智能這一階段時,關于人工智能“技術是否中立”也存在爭議,主要有四種觀點。

一是技術中立論。在人工智能問世初期,由于其智能程度有限,學者大多持“技術中立”態度,認為人工智能技術本身是中立的,只是設計者和使用者將個人目的施加于機器上。人工智能“技術中立”觀點源于美國計算機科學家Bush,他于1945年發表了《我們的未來》,提出了科學技術的發展只是為人類服務,而不是為了謀取政治權力和利益?!凹夹g中立”思想在相當長的時期內影響著人們對待人工智能技術的態度。例如,1984年美國環球影片公司(Universal Picture)訴索尼公司案、2016年“快播案”引發的“菜刀理論”之爭,都是人工智能“技術中立”觀點的體現。這些案例的立論基礎是:技術本身是中立的,技術沒有承擔道德責任的義務。盡管“技術中立”的觀點在當前人工智能領域仍然存在,但是隨著人工智能技術的迅猛發展、人工智能倫理問題的日益凸顯,人工智能“技術中立論”逐漸喪失說服力。

二是技術批判論。技術批判論者認為,人工智能技術不可能完全中立,因為技術的設計和應用都要受到人類價值觀和利益的影響。人工智能技術批判論者的代表性人物是美國計算機科學家Lanier,他對“技術中立”的觀點進行了批判。此外,美國學者Lessig的《代碼2.0:網絡空間中的法律(修訂版)》以及Winner的《自主性技術:作為政治思想主題的失控技術》也對“技術中立論”進行了批判。他們認為人工智能技術并非完全中立,它可能受到開發者的偏見、數據的偏倚以及算法的設計等因素的影響,從而導致技術的偏向和不公平。

三是技術決定論。技術決定論者認為,人工智能技術的中立性是有限的,它可能會對社會造成不平等和不公正的影響,同時它的發展和應用會對社會產生深遠的影響,從而改變社會結構和人類行為,持這種觀點的代表人物是Kuzweil。2006年,Kuzweil在《靈魂機器的時代》一書中提出了“技術加速”的概念,在他看來,人工智能技術呈指數級增長會引發重大的文化轉變和社會變革,甚至對社會和人類產生決定性影響。

四是技術規制論。技術規制論者認為,科學技術評價涉及倫理、道德和社會價值觀等方面。人工智能技術的發展和應用應該考慮多種利益和價值觀,并通過社會討論和決策確定其應用的邊界,對人工智能技術發展進行規制和引導。持這種觀點的主要代表人物是Musk,他關注人工智能的潛在風險,并提出關于人工智能倫理和安全治理的觀點。2023年2月13日,在迪拜舉行的世界政府峰會上Musk重申了對人工智能安全檢查的呼吁(1)2023年世界政府峰會在迪拜開幕[EB/OL].(2023-02-13)[2023-06-16].https://news.cnr.cn/native/gd/20230213/t20230213.。

(二)“負責任”成為AIGC技術倫理的治理趨勢

21世紀以來,人工智能技術發展迅猛,但同時也暴露出許多潛在風險和隱患。各國政府部門以及相關組織開始意識到:人工智能技術的發展需要制定一個規范和可信賴的框架來保障人類免受傷害。在此背景下,人們開始對人工智能誘發的倫理問題進行反思。例如,2019年4月,歐盟發布的《可信賴的人工智能倫理準則》(以下簡稱《準則》)明確了“可信賴的人工智能”應滿足的三個基本條件,即合法、合乎倫理、穩健。這為人工智能技術倫理問題的治理提供了具體的要求和指導。此外,《準則》不僅提出了人工智能技術發展需要遵循的四項倫理要求,即尊重人類自主性、預防傷害、公平性以及可解釋性,而且還提出了七個關鍵要素,即人類能動和監督、技術安全性、隱私和數據管理、社會和環境福祉、問責制、多樣性、無歧視,進一步加強了人工智能的要求和責任(2)歐盟搶先發布人工智能道德準則:AI要以人為本,負責任且無偏見[EB/OL].(2019-04-09)[2023-06-16].https://news.sina.com.cn/o/2019-04-09/doc-ihvhiewr4402597.shtml.。此外,《全球人工智能治理年度觀察2019》(3)《全球人工智能治理年度觀察2019》發布 共議AI治理[EB/OL].(2020-05-01)[2023-10-26]. https://tech.sina.com.cn/i/2020-05-01/doc-iircuyvi0844294.shtml.發現,人工智能領域的競爭已從技術和產業應用擴張到了國際規則的制定,尤其是人工智能倫理和治理規則的制定。例如,2019年5月,經濟合作與發展組織(OECD)成員國批準了全球首個由各國政府簽署的人工智能原則——“負責任地管理可信人工智能的原則”,包括以人為本、公平、透明、可解釋、穩健、安全可靠、包容性增長、可持續發展、為人類提供福祉以及負責任原則(4)安全內參.經合組織發布人工智能原則評析[EB/OL].(2019-06-05)[2023-10-26].www.secrss.com/articles/11178.。整體而言,從歐盟明確可信賴的人工智能準則到OECD成員國批準全球首個由各國政府簽署的人工智能原則,國際層面的人工智能技術倫理治理已進入實質性階段,初步確立了以人為本、安全可信、創新發展、包容普惠等“負責任”治理的基調。

“負責任的人工智能”是AIGC技術倫理治理的趨勢和方向?!癆IGC對于智慧社會建設意義非凡”[1],這種自動化程度高的技術不僅可以獨立完成圖片分類和知識問答,而且在無人駕駛和人機對弈等方面取得了突破,它填補了人工智能從“可以用”到“很好用”的技術鴻溝。尤其是2022年11月OpenAI公司發布的大型語言模型系統——ChatGPT,引領了新的AIGC技術發展潮流。然而,AIGC的“雙刃劍”效應在使用中才逐漸顯現。雖然AIGC帶來的正面效益令全世界欣喜不已,但是AIGC誘發的負面影響已經引發了全球范圍內的高度關注。例如,2023年3月31日起,意大利禁止使用ChatGPT,并限制OpenAI公司處理意大利用戶的信息數據。這一舉措引起了加拿大、歐洲等國家和地區監管機構和企業的關注和效仿。2023年7月10日,中國國家互聯網信息辦公室發布了《生成式人工智能服務管理暫行辦法》,該辦法鼓勵優先選擇安全可信的軟件、工具和計算數據資源,并劃定了該辦法的管轄范圍、管理權限以及責任主體認定。2023年10月18日,中華人民共和國外交部發布的《全球人工智能治理倡議》中明確提出:“建立科技倫理準則、規范及問責機制,形成人工智能倫理指南,建立科技倫理審查和監管制度,明確人工智能相關主體的責任和權力邊界?!?5)全球人工智能治理倡議[EB/OL].(2023-10-20)[2023-10-26]. https://www.mfa.gov.cn/zyxw/202310/t20231020_11164831.shtml.由此可見,推動AIGC邁向“負責任”,已經成為AIGC技術倫理治理的一種必然趨勢。

二、AIGC技術倫理危機的誘發機制

尚未完善的“負責任”倫理規范以及治理舉措導致AIGC在使用中已經誘發了一些技術倫理風險,主要體現在:AIGC溝通中的“不理解”、決策中的“不可控”、安全性的“不可靠”、合作前景的“不可持續”。

(一)算法運行透明度低導致的溝通“不理解”

AIGC技術雖然能夠更好地收集信息并提取知識,但是其大型語言模型具有高度依賴數據訓練、運行復雜度高、非線性關系復雜以及自適應強等屬性,使得AIGC內部運行機制有時難以被理解和解釋。搜索引擎通常向用戶提供信息的來源即鏈接,并讓用戶決定他們信任什么。相比之下,很少有人知道大型語言模型訓練了什么數據,是大英百科全書還是娛樂八卦[2]。AIGC技術生成的答案之所以有時難以解釋,是因為其類似于創造了“新事物”。例如,用戶向人工智能聊天機器人提問:銷量最高的三種寵物吸塵器的優缺點是什么?人工智能聊天機器人給出的答案是:Bissell寵物吸塵器很吵,會嚇到寵物,并且其吸力很有限……繩索也很短[3]。但是,當用戶點開信息來源鏈接后發現Bissell是一款便攜式手持真空吸塵器,它幾乎無噪聲。這里出現了答案與參考來源信息脫節的問題,因為人工智能聊天機器人類似于創造了新事物。

(二)缺乏主觀善意導致的決策“不可控”

AIGC技術生成的內容基于大量數據訓練,這些數據往往包含了人類偏見、歧視和負面情緒等因素,這些因素會被大型語言模型學習并體現在其生成的結果中,從而導致AIGC產生不當甚至有害內容。一方面,AIGC內部運行機制復雜且透明度低,增加了產生不當輸出的可能。已經有案例顯示,大型語言模型會從訓練數據中學到一些隱藏的模式或關聯,這些模式或關聯與人類的價值觀不一致,從而使得大型語言模型輸出內容不當。另一方面,大型語言模型的自適性也可能會導致不當輸出,因為模型會根據環境變化和輸入數據進行自我調整和優化,從而產生新的輸出。例如,2022年6月,谷歌瀏覽器因在無痕模式下追蹤收集用戶數據而遭到投訴。2023年上半年Nature發文稱:“研究人員向ChatGPT和其他大型語言模型透露的信息可能會被納入模型,聊天機器人在不確認原始來源的情況下將其提供給其他人”[4],與此同時,“人工智能聊天機器人會根據他們的訓練數據嵌入偏見”[5],更為嚴重的是“那些讓人類誤入歧途的偏見,在對話式人工智能中被復制,甚至經常被放大”[6]。AIGC生成的答案是基于大型語言模型的數據學習和訓練,這就使得答案質量由數據質量決定。目前,人工智能企業用以大型語言模型學習和訓練的數據不足,導致這些人工智能企業對數據尚未經過嚴格篩選就用以投喂大型語言模型,有些存在缺陷的數據一旦被大型語言模型學習到,其生成的內容不但不準確,而且可能會造成人類安全感的缺失。例如,2023年2月,一位用戶向New Bing提問:“《阿凡達:水之道》今天在哪里放映?”得到的回答是:“《阿凡達:水之道》目前還未上映?!痹谟脩舾嬖VNew Bing其回答錯誤后,它不僅堅持自己的回答是正確的,而且要求用戶向它道歉,否則就結束對話,甚至表示用戶一直都是錯誤的、魯莽的,不是一個好用戶(6)Bing:“I will not harm you unless you harm me first”[EB/OL].(2023-02-15)[2023-06-12].https://simonwillison.net/2023/Feb/15/bing.。

(三)人工智能幻覺導致的安全性“不可靠”

在人工智能領域,“人工智能幻覺”指聊天機器人能夠輸出看似合理且連貫的信息,但這些信息可能與已知數據或現實完全不符合。有專家認為:不能相信ChatGPT可以正確獲取事實或產生可靠資料,ChatGPT傾向于為它不知道答案的問題創造虛構的答案[2]。例如,2022年12月7日,知名的程序員問答網站Stack Overflow宣布,將臨時禁止在Stack Overflow上發布由ChatGPT生成的文本。Stack Overflow官方表示,這是一項臨時規則,旨在減緩使用ChatGPT創建的答案涌入。這一限制的原因是從ChatGPT獲得正確答案的平均比率太低,如果發布ChatGPT創建的答案,對網站以及查詢正確答案的用戶來說是非常有害的(7)Stack Overflow臨時禁用ChatGPT生成內容,網友:人類和AI快打起來[EB/OL].(2022-12-07)[2023-10-27]. https://www.thepaper.cn/newsDetail_forward_21047296.,那么,ChatGPT是如何為它不知道答案的問題創設虛構答案的?首先,ChatGPT基于大型語言模型對互聯網海量文本數據進行學習。這些文本數據包含了各種來源的信息,包括新聞、維基百科、社交媒體等。然而,這些文本數據在尚未經過人工篩選和驗證情況下參與生成答復,可能會生成帶有錯誤、虛假和偏見內容的消息。其次,ChatGPT是通過自動生成的大型語言模型來產生回復的。目前,ChatGPT并不具備真正的理解和推理能力,它只是根據用戶的輸入提示和上下文語境來預測下一個合適的回復。這種自動生成的方式導致ChatGPT并沒有對其回復的真實性進行驗證或事實檢查,可能會制造人工智能幻覺。此外,ChatGPT還存在其他問題,諸如它在回復同一問題時,可能會給出多個可能的答案,而不是提供一個明確的回答。這也可能導致用戶對ChatGPT的回復產生誤解或產生人工智能幻覺。綜上,人工智能幻覺主要是因為其基于大數據訓練而形成,而這些數據可能存在偏差或錯誤,AIGC也可能會受到模型數據結構、訓練算法等因素的影響,導致輸出的結果不準確。另外,AIGC還面臨著缺乏常識和情感理解的問題,它無法理解人類的情感、價值和道德標準,導致輸出的答案與人類的期望有偏差。解決這些問題,需要采取一系列措施,包括數據清洗、算法調整、建立監督和反饋機制,以確保模型輸出的答案符合人類的標準和期望,同時,也需要加強對AIGC的監督和管理,以確保其安全和可靠。

(四)人機伙伴關系尚未建立導致的合作前景“不可持續”

AIGC扮演了“多領域深度應用者”的角色,其不限于能夠在智慧農場、智能港口、智能礦山、智慧工廠、智慧家居等多個場景中應用,而且在醫療診斷中也有廣泛應用,其應用場景越多,暴露的算法歧視與偏見也就越多。例如,一篇發表在Science上的研究表明,美國醫療保健系統使用商業算法來指導超過2億人的醫療服務健康決策,對非洲裔患者實施了群體性歧視。由于輸入數據中沒有“種族”選項,開發者認為該算法是不分種族的,但對于與白人患病程度相當的非洲裔患者,該算法始終給予其較低風險分數,其未能識別出將近有一半非裔患者有可能產生與白人患者類似的復雜醫療需求,導致這些非洲裔患者無法參與改善健康的干預項目[7]。喬姆斯基是“人工智能不可持續”論的代表人物,他認為ChatGPT表現出某種類似邪惡的平庸,如剽竊、冷漠和回避,它以一種超級自動補全的方式總結了文獻中的標準論點,拒絕在任何事情上表明立場,它不僅以無知為借口,還以缺乏智慧為借口,最終提供了一種“只是服從命令”的辯護,將責任推給它的創造者[8]。人工智能的出發點在于為人類生產生活提供便捷,技術需要助力于人類邁向更加公平、正義、溫情之路。然而,AIGC有時表現出來的“剽竊、冷漠和回避”,是否與人工智能發明者的初心背道而馳呢?人工智能技術能否持續為人類社會創造福祉?人類采取何種態度對待人工智能技術也是決定這種福祉實現程度的重要影響因素之一。余明峰認為:“現代性的‘人類中心主義承諾’實有一種根本上的僭越沖動。這種僭越企圖以現代技術的無限潛能超越自身生存之有限性。不是直面有限性,而是企圖增強力量來達到有限性,基于人工智能和生物技術的各式人類增強技術正是這樣一種現代方案的典型體現??汕∏е@種人類中心主義的妄念,現代人陷入了系統的無限支配。強力的另一面恰恰是無力?!盵9]38因此,人類要摒棄無限支配人工智能技術的態度,要從技術研發、技術倫理遵循以及法律制定等層面構建人機可以合作的、可持續的伙伴關系,應用人工智能技術為人類創造更多福祉。

三、AIGC技術倫理危機的治理基點

AIGC的使用正在誘發技術倫理危機,人們越來越擔憂AIGC的自主決策會帶來不可預測的后果。為了避免AIGC自主決策傷害人類事件繼續發生,加快AIGC監管和治理刻不容緩。AIGC技術倫理治理是一項系統工程,學界應推進人機協同中的可解釋性研究、政府要加強對AIGC的審查和監管、人工智能企業應建立自治自律機制、用戶要提升算法素養。唯有如此,才有可能制定既能推進AIGC可持續發展又能保障人類福祉的技術倫理監管和治理框架。

(一)學界推進人機協同中的可解釋性研究:實現AIGC溝通的“可理解”

人機協同中的可解釋性研究旨在提供機器決策的解釋,使人類對機器的決策過程和結果可理解和可信任,以提高人機協同的效率。為此,2023年3月8日,中國國家自然科學基金委員會啟動了“可解釋、可通用下一代人工智能方法重大研究計劃”,旨在研究并發展下一代可解釋、可通用的人工智能方法,以提高人工智能技術在人機協同工作中的應用。這一計劃將有助于增強人類對機器決策過程和結果的理解和信任,推動人機協同的發展。

1.以可解釋性算法模型設計為基石

既要從技術倫理的視角出發,促進負責任人工智能本身的發展,推進AIGC治理,還要堅持“科學技術對人負責”的基本原則。2018年,歐盟發布了《通用數據保護條例》(GDPR),強制要求人工智能算法具有可解釋性,要求算法模型的設計不僅要“事前解釋”,同時也要“事后解釋”?!笆虑敖忉尅蹦P陀伞白越忉屇P汀币约啊皹嫿ň哂袃戎每山忉屝阅P汀眱刹糠纸M成?!白越忉屇P汀卑ň€性模型、決策樹、樸素貝葉斯模型等,其結構簡單,本身可解釋;“構建具有內置性的可解釋性模型”通過特定方法使得模型自身可解釋,設計方法是引入注意力機制、深化統計模型、基于物理定型?!笆潞蠼忉尅蹦P陀伞叭中越忉屇P汀焙汀熬植啃越忉屇P汀眱刹糠纸M成?!叭中越忉屇P汀贬槍φ麄€模型,說明其整體的工作機制,其設計方法是激活最大化、概念激活矢量測試;“局部解釋模型”針對單個輸入樣本,幫助人們理解模型對于輸入樣本的決策依據,設計方法是反向傳播、類激活映射、局部近似、可解釋機器學習模型(SHAP)?!笆虑敖忉尅焙汀笆潞蠼忉尅眱煞N模型各有優缺點,“事前解釋”模型需要在模型訓練之前進行,因此,需要花費更多時間和精力來構建特征模型;“事后解釋”模型可以快速應用于已有模型,但需要對模型輸出進行解釋,難以準確地捕捉模型中的錯誤和偏差。因此,在算法模型設計中要將“事前解釋”和“事后解釋”兩種模型結合起來,相互補充,共同推進AIGC可解釋性研究。

2.以可解釋性框架準則設計為指導

可解釋性框架準則設計是為了確保人工智能系統的決策和行為可以被理解和解釋。首先,在構建通用、系統的可解釋性的指導框架準則的基礎上,研發優化針對復雜度較高模型的“事后可解釋性”技術,隨后進行評估。其次,在指導性框架準則設計方面,對已有實踐、政策、案例進行調研,將以人為本作為核心參考準則,圍繞“公開性、輔助性、相對性”三項原則,提煉并制定指導框架與具體的執行準則。例如,微軟、谷歌等公司和部分學者提出了“構建可持續交互式人工智能的參考標準/理論框架”。最后,在此基礎上引入人類認知模型,對具體準則進行細化,聚焦人類認識與系統交互,助力可解釋性人工智能。以Apple Watch為例,基于微軟的參考準則,可解釋的交互式Apple Watch應該滿足以下要求:在人機初次接觸時期,幫助用戶了解Apple Watch能做什么,以及幫助用戶了解Apple Watch能在多大程度上做好用戶傳達的任務;在漸入互動時期,提供當前任務的相關信息以及提供基于環境的及時指導;在系統發生錯誤時,能夠明確告知用戶出錯原因,并可以改進或恢復;在深入協作時期,能夠通知用戶系統的有關更改以及告知用戶其行為如何影響產品。

3.以滿足用戶的可解釋需求為橋梁

用戶對AIGC的可解釋性需求主要包括透明性、解釋性、可信度和可追溯,滿足這些需求可以增加用戶對人工智能系統的信任和接受度,改善用戶體驗。2019年,中國國家新一代人工智能治理委員會發布的《新一代人工治理原則——發展負責任的人工智能》就提出,人工智能系統應當不斷提升可解釋性。就目前而言,國內學界對于可解釋性的研究包括但不限于:清華大學人工智能研究院智能信息獲取研究中心,從用戶需求與AIGC現有解釋水平之間的差距、個體差異對AIGC的影響展開研究;武漢大學人機交互與用戶行為研究中心吳丹教授團隊,基于海量用戶數據,著眼語音、手勢、眼動交互及認知等,開展大規模、多情境的用戶研究,分析個體或群體對AIGC的需求。

4.以可解釋性評估為輔助

可解釋性評估對于確保AIGC結果的可解釋和準確性非常重要。由于AIGC的結果是由模型自主生成的,因此,需要對其結果進行評估,以確保結果的可解釋和準確性。要提升AIGC可解釋性評估性能,就要綜合系統解釋本身、開發者、用戶三個視角,納入應用情境、解釋方法差異等指標,構建以用戶為核心、以專家為參考、以技術模型為輔助的多層次、多角度的評估體系,助力實現全面有效的可解釋性評估。從系統本身解釋的質量出發,就要綜合考慮解釋的保真度(解釋是否真實反映系統)、復雜度(解釋的數量和長短)、忠誠度(解釋能否根據用戶的調試而改變)、魯棒性(解釋是否容易被干擾),納入評估指標。從開發者的角度出發,就要綜合考慮開發時的解釋目標以及達成的解釋效果,最終以解釋是否實現其設計目標作為衡量標準。從用戶的角度出發,就要綜合考慮用戶對系統的信任度、滿意度、工作績效、心理模型,最終以用戶接受解釋的效果和體驗為評估指標。

(二)政府加強對AIGC的審查和監管:確保AIGC決策的“可控制”

加強對AIGC的審查和監管,是一項復雜但必要的工作?!吧墒饺斯ぶ悄艿母锩园l展給現有法律責任體系帶來了巨大挑戰?!盵10]為此,政府需要建立評估機制來對AIGC技術的可行性和安全性進行評估,同時還需要建立技術倫理規范,明確技術應用的道德底線和法律法規的界限,最重要的是要加強技術倫理監管力度,確保技術的合規性和安全性。三者協同運作,可以有效地預防引發AIGC科技倫理“不可控”危機,保障技術發展和社會穩定。

1.建立AIGC評估機制

AIGC評估機制是為了確保AIGC技術開發和應用的安全性、可靠性和公平性而建立的,該機制包括數據隱私保護評估、算法公平評估、模型準確評估和應對意外事件評估等方面。首先,數據隱私保護評估機制要求AIGC開發和應用確保用戶的隱私得到保護,這意味著要有足夠的安全措施確保用戶的數據不被泄露或濫用。OpenAI公司已經采取一系列措施保護用戶隱私。2023年4月5日,OpenAI公司發布了OurApproachtoAISafety,表示努力在可行情況下從訓練數據中刪除個人信息,微調模型以拒絕對私人信息的請求,而且能夠響應用戶在OpenAI的系統中刪除個人信息的請求。這些措施最大限度地減少了AIGC生成包含個人信息內容的可能性。其次,算法公平評估機制要求AIGC算法透明、可解釋以及公平。算法不能歧視任何人或群體,應該透明、可接受和公正,這樣可以確保AIGC在開發和應用過程中不會出現歧視行為。再次,模型準確評估機制要求AIGC系統的模型具備高度的準確性和魯棒性。模型需要在各種情況下正確執行任務,準確評估機制的作用是檢查模型是否準確、魯棒和可靠。最后,應對意外事件能力評估機制是為了確保AIGC具備應對意外事件的能力。例如,當輸入數據與預期不符時,系統能夠自動適應并做出合理決策,可以保證生成內容的質量和可行性。需要注意的是,評估機制應該是動態的,隨著模型的使用和反饋進行不斷更新和改進。此外,評估過程還需要充分考慮領域專家的判斷和意見,以確保生成內容的可靠性和實用性。

2.建立技術倫理規范

隨著ChatGPT在行業內外引發越來越多的擔憂,政府部門一致認為,僅憑人工智能產品的開發者和提供者自我監督是不夠的。因此,政府部門應對AIGC的開發和應用進行規范和限制,明確其應遵守的道德倫理標準和責任義務,以保障公眾利益和社會秩序。首先,設立專門監管AIGC的機構,負責監管AIGC技術的開發和應用。這個機構由專門的人工智能專家團隊組成,他們將參與AIGC的安全性、透明性和公正性的審查,同時審查AIGC是否符合技術倫理規范。一些國家在這方面已經取得進展。例如,2023年3月,意大利數據隱私監管機構以ChatGPT涉嫌非法收集個人數據、缺乏未成年人年齡核實等理由,下令禁止使用ChatGPT,直到其尊重隱私法規為止(8)涉嫌侵犯隱私 意大利數據保護機構對ChatGPT開發公司展開調查[EB/OL].(2023-04-01)[2023-06-12].http://world.people.com.cn/n1/2023/0401/c1002-32655784.html.。2023年4月,德國聯邦數據保護專員也向媒體透露了在德國“封殺”ChatGPT的可能性(9)負面情緒正持續發酵 多國計劃加強對ChatGPT監管[EB/OL].(2023-04-10)[2023-06-12].https://news.cctv.com/2023/04/10/ARTIlImrRNUIW2jg9OlZ79.。這些監管機構在確保技術倫理方面發揮了重要作用。其次,制定AIGC安全評估要求。開發者在發布AIGC系統前需進行安全評估,這些評估主要涉及數據隱私、安全性、透明度和公正性等方面。例如,2023年5月4日,美國總統拜登表示,人工智能是否具有潛在危險還有待觀察,但是科技公司有責任確保他們的產品在發布之前是安全的(10)拜登政府會見企業科技龍頭 討論人工智能潛在風險[EB/OL].(2023-05-06)[2023-07-01].https://www.chinanews.com.cn/gj/2023/05-06/10002495.shtml.。再次,制定AIGC數據隱私保護法規,保障用戶個人信息安全和隱私。這些法律法規應該規定AIGC應用開發者遵守的數據收集、使用和共享的規則,以及如何保護用戶個人信息安全。最后,制定AIGC開發和應用的道德倫理規范準則。政府應本著透明、公正原則,要求AIGC開發者不歧視某些群體和用戶,不得違反公共利益和社會秩序,同時也要兼顧考慮不同文化、信仰和價值觀的差異,以防止出現偏見和不公平的結果,確保AIGC應用開發者不損害任何人的利益。

3.加強技術倫理監管力度

人工智能技術快速發展和擴張應用帶來了人類對其潛在危害的擔憂,這促使政府部門必須制定各種相關法規對AIGC進行監管。首先,制定相關政策及法律法規。美國民意調查顯示,美國人普遍認為人工智能不可信,希望對其實施監管。2023年6月14日,歐洲議會投票通過了《人工智能法案》授權草案,旨在確保人工智能發展符合歐洲的價值觀和權利。然而,該法案引起了一些異議,Encord的聯合創始人兼總裁Hansen表示,該法案缺乏靈活性,未考慮到人工智能的快速發展。2023年7月10日,中國國家互聯網信息辦公室發布了《生成式人工智能服務管理暫行辦法》,這一舉措受到學界的高度評價。昆山杜克大學電子與計算機工程教授、大數據研究中心主任黃開竹博士認為,在大量AIGC技術應用和系統涌現后,算法背后的安全性、公平性、可信性、隱私保護和風險等方面的引導和規范相對滯后,但中國的《生成式人工智能服務管理暫行辦法》出臺非常及時,從技術角度審視非常專業,為AIGC的開發者和使用者加上了“護欄”。因此,在制定人工智能法律法規時,應該找到創新與監督之間的平衡,為其發展提供指導和框架,鼓勵創新和研發。其次,制定技術標準。制定AIGC的技術標準旨在對其研發和應用進行指導,確保技術的安全性和可靠性。人工智能技術安全性和可靠性是社會的重要關切,政府制定技術標準可以提升AIGC系統的安全性和可靠性,降低風險。隨著OpenAI和微軟的結合,加上谷歌內部的DeepMind,美國保持了技術領先地位。在制定技術標準這一領域,美國走在了世界前列。2023年1月26日,美國商務部下屬的國家標準與技術研究院發布了其第一版《人工智能風險管理框架》(AIRiskManagementFramework),旨在指導人工智能企業在開發和部署人工智能系統時降低安全風險,避免產生偏見和其他負面后果,提高人工智能可信度,保護公民的公平自由權利(11)NIST AI risk mangement framework(AI RMF 1.0)launch[EB/OL].(2023-03-30)[2023-06-12].https://www.nist.gov/itl/ai-risk-management-framework.。

(三)建立企業行業自治自律機制:實現AIGC安全性的“可信賴”

在意大利、加拿大宣布對OpenAI公司展開調查以后,德國、法國、愛爾蘭等國數據監管機構紛紛跟隨。作為對此次事件的回應,OpenAI公司于2023年4月5日發布了OurApproachtoAISafety,詳細介紹了該公司如何確保人工智能系統的安全性。OpenAI公司的這一企業自治舉措只是人工智能行業展開自治的一個縮影,說明人工智能行業已經意識到AIGC誘發的技術倫理風險并且展開自治自律。Insight Enterprise公司的一項調查研究發現,81%的人工智能大公司(員工超過1 000人)已經在圍繞AIGC制定或實施類似政策或策略。

1.完善AIGC使用規范

人工智能企業扮演著AIGC系統的研發者、使用者和監管者等多重角色,在研發和使用AIGC系統時必須明確自身角色定位,對系統研發程序、使用范圍進行倫理規范,防止AIGC技術被濫用,確保AIGC技術本身遵守社會倫理規范、符合社會價值觀。OpenAI公司也采取了一系列措施來保障用戶權益,他們在OurApproachtoAISafety中規定,用戶必須年滿18周歲,或年滿13周歲在父母批準下才能使用人工智能工具,此外,他們也明確表示不允許其技術用于生成仇恨、騷擾、暴力或成人類別的內容(12)Our approach to AI safety[EB/OL].(2023-04-05)[2023-06-12].https://openai.com/blog/our-approach-to-ai-safety.。顯然,生成仇恨和暴力內容違背了社會的價值觀和道德準則,這種內容可能會導致仇恨犯罪和暴力行為的增加。人工智能企業有責任確保技術的使用不會對社會造成負面影響。與此同時,仇恨和暴力內容對用戶的安全和心理健康同樣會構成威脅,這些內容可能引發仇恨言論、騷擾、恐嚇和暴力行為,對個人或群體造成傷害。因此,限制此類內容有助于保護用戶安全和增加社會福祉。

2.建立AIGC透明機制和可解釋性機制

如果一個AIGC系統不透明或者不可解釋,那么其決策就會缺乏信任度和可靠性,用戶就無法理解其決策的依據,這會導致用戶對AIGC信任度降低。透明度代表AIGC系統的數據和算法是否可以被公開,以便用戶了解AIGC內部工作方式,用戶希望知道AIGC系統是如何處理數據的,其使用了怎樣的算法和模型,這樣用戶才能夠信任該系統??山忉屝砸馕吨鳤IGC系統的決策過程是否可以被解釋清楚,以便用戶可以理解為什么AIGC會做出特定的決策。用戶希望能夠理解AIGC系統背后的邏輯和推理過程,而不僅僅是接受系統的結果。提升AIGC系統的透明度和可解釋性,可以幫助用戶發現潛在偏見和歧視并及時解決,可以增加用戶對AIGC的信任,并使AIGC更加可靠實用。因此,為了增加用戶對AIGC的信任,并使其更加可靠實用,需要在研發過程中提升AIGC系統的透明度和可解釋性,確保用戶可以理解系統內部的運作方式和決策過程。

首先,建立AIGC系統透明機制。這種透明機制是指在人工智能應用中,確保系統的運作過程對用戶是透明的。為了達到這個目的,需要從以下幾個方面進行落實。第一,人工智能企業公布AIGC數據集和算法,使用戶了解AIGC系統是如何運作的,從而增加用戶的信任。第二,保護用戶數據隱私也是建立透明機制重要一環。人工智能企業需要使用技術手段脫敏、差分隱私等來保護用戶數據隱私,確保用戶的個人信息和敏感數據不被泄露或濫用。第三,人工智能企業還要與用戶溝通,解答用戶對AIGC系統的疑問,通過提供相關信息和技術解釋,幫助用戶深入了解AIGC系統的運行原理和決策過程。第四,人工智能企業應及時回應用戶的反饋,并根據用戶反饋問題來增強AIGC系統的透明度,通過不斷優化和改進,使系統更加符合用戶的期待,這樣AIGC系統能夠更好地為用戶服務。

其次,建立AIGC可解釋性機制。第一,可視化是一個重要步驟。人工智能企業可以通過數據可視化方式,將AIGC系統的決策過程呈現給用戶,讓用戶更容易理解AIGC的行為,明白其為什么會做出這樣的決策。第二,解釋模型也是一種可行的途徑。人工智能企業可以使用可解釋模型,例如決策樹邏輯回歸等,這些模型可以提供可視化和更多的可解釋性,同時也能夠以可視化的方式展現出來,使用戶更容易理解AIGC的工作原理。第三,解釋特征也非常重要。人工智能企業可以解釋AIGC系統是如何使用輸入數據特征來做出決策的,這樣的解釋可以幫助用戶更好地理解AIGC決策行為,并對其結果有更深入的認識。第四,解釋誤差是一個可以考慮的方向。人工智能企業可以解釋AIGC系統的誤差來源,比如特定的輸入數據或模型參數,這樣的解釋可以幫助用戶更好地理解AIGC系統的弱點和極限,從而提升對其決策結果的信任度。

3.建立AIGC安全風險管理機制

AIGC廣泛應用于金融、醫療、化學、采礦等特殊領域,或許會涉及大量的敏感信息和國防安全信息。如果人工智能企業不能有效管理和預防這些安全風險隱患,AIGC可能會發生數據泄露、隱私侵犯、惡意軟件、黑客攻擊等情況,從而違背技術倫理,對人類造成傷害。因此,必須建立AIGC的安全風險管理機制。首先,企業需要建立AIGC使用前的安全風險評估機制。這一評估機制包括對系統數據安全、算法安全、模型安全、網絡安全等方面的評估。通過使用前的安全風險評估,企業可以發現AIGC存在的技術漏洞和安全隱患,并制定相應的補救措施。例如,OpenAI公司強調他們在發布任何新系統之前都會進行嚴格測試、聘請外部專家提供反饋,以建立普遍適用的安全和監控系統。OpenAI公司還表示,GPT-4在發布之前已經經過了為期6個月的安全測試。其次,建立AIGC使用中的安全風險管理機制。這一機制包括實時的安全監控、強化的數據保護和網絡防御措施等,以應對可能出現的安全風險。例如,OpenAI公司強調,公司會根據ChatGPT在現實中的使用情況,制定更加詳細的措施防范風險。再次,建立AIGC的應急響應機制。這一機制的建立旨在一旦系統出現風險隱患,能夠及時響應和處置,減少風險事件對系統本身以及用戶的影響。此外,構建與第三方安全機構的合作機制非常重要,與第三方安全機構合作的意義在于定期對AIGC進行安全測試和安全審計,及時發現和解決AIGC系統中存在的安全隱患問題,并進行及時修復。

(四)用戶提升算法素養:實現人類與AIGC合作的“可持續”

“人工智能正成為推動人類進入智能時代的決定性力量”[11],用戶提升算法素養對于人工智能可持續發展至關重要。它可以保護個人數據隱私和安全、降低算法不公平和偏見、促進社會對話和監管、促進技術的接受和應用。這些方面的改進將有助于人工智能技術更好地為人類社會帶來福祉。

1.提升認知AIGC算法缺陷的素養

在計算機科學和信息技術領域,算法是解決問題的一種方法或步驟的描述。算法素養是指對算法的理解和掌握程度,包括對算法的基本概念、原理和應用的了解,以及對算法的設計、分析和優化的能力。AIGC算法在很大程度上受人類算法工程師個人價值觀的影響,這就使得AIGC算法缺乏公正客觀。對于用戶而言,提升認知AIGC算法缺陷的素養對于其在使用AIGC過程中減少算法偏見和歧視十分關鍵。因此,用戶提升認知AIGC算法缺陷的素養需要采取以下兩方面的措施。一方面,用戶要了解AIGC運行的基本原理,認識到AIGC本身存在的技術局限性和算法缺陷,這樣能夠更好地理解AIGC的運作方式以及預防可能出現的問題。另一方面,用戶在使用AIGC時要比較多個來源的內容,以便更好地判斷生成內容是否準確,如果多個來源的內容不一致,用戶需要進一步調查和研究,以確定最終結論,避免單一來源信息的偏見和誤導。

2.提升防范AIGC可能誘發的技術倫理危機的能力

用戶應該培養隱私保護意識、確認信息來源的可靠性、提升安全防范意識以及積極參與反饋和監督,以保護個人權益,促進人工智能的透明和負責任使用。第一,培養隱私保護意識。用戶在使用AIGC提供的服務時,應該妥善保護個人信息不泄露給他人,并且使用強密碼來保護賬戶的安全。第二,確認數據來源的可靠性。在使用AIGC提供服務時,用戶要仔細判斷確認信息來源的真實性和可靠性,避免被虛假信息誤導,以免做出錯誤的判斷和決策。第三,提升安全防范意識。用戶要時刻保持警覺,避免成為釣魚、詐騙等攻擊手段的受害者,要警覺各種欺詐行為,避免在不安全的環境下使用個人數據和信息。第四,積極參與對AIGC的反饋和監督。用戶在使用AIGC提供的服務時,如果發現存在不準確、有偏差或錯誤的地方,可以通過平臺提供的反饋機制進行報告,以幫助平臺改進算法。例如,OpenAI表示,它將向報告其人工智能系統漏洞的用戶提供高達2萬美元的獎勵。此外,用戶也可以參與到人工智能社區的討論和交流中,與其他用戶共同發現錯誤并糾正偏差,如果用戶發現AIGC存在不當、有害甚至違法信息,可以通過平臺提供的舉報機制進行舉報。

四、總結與展望

人類歷史上每一次技術變革與進步都會引發人類對技術的深刻反思。2022年底OpenAI公司ChatGPT的出現備受矚目,這種AIGC技術與以往傳統人工智能技術相比較具有“壓倒性”優勢:AIGC使用門檻更低、應用場景更加廣泛、創新力更強且自動化程度更高。因此,AIGC一經面世就具有造福人類社會的巨大潛力。然而,AIGC在使用過程中因算法透明低導致的溝通“不理解”、缺乏主觀善意導致的決策“不可控”、人工智能幻覺導致的安全性“不可靠”、人機伙伴關系尚未建立導致的合作前景“不可持續”的問題已經誘發了技術倫理危機。AIGC在引爆人工智能技術前進“海嘯”的同時也誘發了技術倫理危機。因此,亟須對AIGC進行負責任監管和治理。這種監管和治理需要利益各方協同發力。學界要堅持對技術負責的原則,推進人機協同中可解釋性研究;政府要堅持對社會負責的原則,加強對AIGC的審查和監管;人工智能企業要堅持對用戶負責的原則,建立企業自律自治機制;用戶要堅持對自己負責的原則,提升算法素養。只有這樣,才有可能實現AIGC溝通的“可理解”、確保AIGC決策的“可控制”、實現AIGC安全性的“可信賴”以及AIGC發展的“可持續”。

人工智能技術進步的腳步不會停歇,AIGC向前發展已勢不可擋。國內外學界許多知名學者和人工智能領域的“翹楚”人物已經認為AIGC是邁向通用人工智能(artificial general intelligence,AGI)時代的雛形。在將來,AGI很有可能被發明并廣泛應用。AIGC作為邁向AGI的前奏,其誘發的技術倫理危機已經向人們敲響了警鐘:人類必須正確處理與人工智能技術發展的關系。問題的關鍵是,當AGI時代真正到來時,人類如何才能確保AGI技術對人類是安全有益的。因此,緊跟AIGC技術發展“更新迭代”腳步,不斷對其“負責任”地治理將永遠在路上。

猜你喜歡
解釋性倫理人工智能
《心之死》的趣味與倫理焦慮
論行政自由裁量的“解釋性控權”
護生眼中的倫理修養
2019:人工智能
人工智能與就業
英漢互譯中的認知隱喻翻譯探究
數讀人工智能
融媒體時代解釋性報道的發展之路
下一幕,人工智能!
非解釋性憲法適用論
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合