?

從算法分析看人工智能的價值非中立性及其應對

2021-01-23 05:27
科技管理研究 2020年24期
關鍵詞:機器決策價值觀

(中國科學技術大學科技哲學部,安徽合肥 230026)

1 作為一項革命性技術的人工智能也是價值中立的嗎?

人工智能(artificial intelligence,AI)作為一項革命性的技術,正在改變著人類的生活方式和生產方式。我國已就人工智能產業發展作出長期規劃,其中明確了人工智能發展的戰略性地位及其發展的不確定性可能帶來的社會倫理挑戰[1]。如今已經很難找到一款不配備語音助手的智能手機,以智能音箱為代表的智能家居也走入千家萬戶,可以預見在不久的將來,人工智能將成為人們生活中不可或缺的重要組成部分。然而,近年來一系列的“大數據殺熟”“人工智能侵權”和“算法歧視”等負面事件卻將人工智能技術推到了技術中立爭論的風口浪尖[2]。更重要的是,隨著人們對人工智能依賴的日益加深,不僅人工智能的決策受到其設計者和使用者的影響,人工智能的決策反過來也已經不可忽視地正在改變著人類的決策、行為以及生活方式[3-5]。在當下這個看似價值中立的智能時代,當我們通過百度等搜索引擎獲取信息時,搜索結果卻是經過人為干預和選擇的;當我們使用亞馬遜、滴滴、攜程等平臺進行消費時,殊不知很可能正在遭遇價格歧視;各個平臺和應用所謂的個性化推薦更像是個性化廣告,個中隱藏著豐富的算法歧視,根據用戶特征投放不同內容,表面上是在為用戶服務、為其推薦其感興趣的個性化內容,實際上卻是行為誘導與偏見塑造。那么我們不禁要問,人工智能這個親密的伙伴真的是價值中立的嗎?我們還能信任它為我們做的決策嗎?

關于人工智能是否具有價值中立性這一論題,有的學者持肯定態度,認為人工智能技術和以往的技術無異,倫理上是價值中立的[6];有的學者則持反對態度,認為人工智能技術本質上便潛藏著來自設計者、使用者以及學習數據的偏見[2,7]。然而,由于近年來人工智能技術的飛速發展,其價值非中立性凸顯,所引發的倫理問題讓人猝不及防[8-9]。為了搶占下一個科技革命制高點,盡快實現符合倫理的人工智能刻不容緩。不僅如此,人工智能的算法更將會成為一種新的社會法則[10]。因此,有必要從算法的層面剖析人工智能價值非中立性的本質。

目前國內研究主要關注在由數據的社會性帶來的偏見問題[11-12];雖然近年來涌現出大量關于算法歧視的研究,但并未深入研究算法的內在邏輯[13-15];關于人工智能的價值非中立性的闡釋尚停留在概念層面,有待深入到算法的內在邏輯層面的系統性的研究[16]。國外研究亦存在上述問題。此外,國外學者更多關注于如何在規制的層面上維系人工智能的公平與公正性[17-18],如de Cornière 等[19]剖析了算法歧視的隱蔽性,但并未深入究其原因;Hoffmann[20]將人工智能的價值非中立性現象歸因為過分強調離散的壞因子,以劣勢為中心的單軸思維以及過分關注有限的一組物品,然而卻缺乏對算法本身的系統性的研究;Mann 等[21]討論了利用算法歧視進行獲利的原理及其應對方案,然而卻同樣沒有對算法本身進行剖析。

因此,本研究擬從人文社會科學領域關注的價值問題出發,借以自然科學的知識和手段對相關問題進行分析。具體而言,分別從數據的社會性、算法的價值偏好以及決策的偏見強化這3 個角度,剖析人工智能算法內在邏輯的非中立性本質,厘清歧視與偏見現象產生的原因,進而為政策制定或相關從業人員提供在算法層面上規避偏見的指導性意見。

2 機器學習算法的價值非中立性

預期治理的“技術中立原則”(Technology Neutrality)是在1984 年由美國聯邦最高法院所審理的著名的“索尼案”中確立的,即某產品或技術同時被用于合法和非法用途,這并非是產品或技術提供者所能預料和控制的,因此其提供者可免負法律責任[22]。由其引申而來的“技術中立”,主要包含功能中立、責任中立和價值中立3 種內涵[2]。本研究所要討論的主要是技術中立的價值中立內涵。

有學者認為技術是無罪的,技術是價值中立的。我國《著作權法》中的“避風港規則”也從法律角度與之形成呼應[23]。2014 年邱仁宗等[6]也曾指出“大數據與其他所有技術一樣是無所謂好壞的,它在倫理學上是中性的?!闭\然,在技術應用的過程中,人們普遍秉持“技術中立原則”。同樣,人們普遍認為技術本身是無意識的,不具備主體性,所以技術是中立的,只是設計者和使用者把他們的目的性施加到了技術上。這一點在過去都是成立的,然而對于基于大數據和機器學習的當代人工智能技術,卻很可能已經不再適用,因為當下的機器學習都可以歸屬于廣義的歸納學習(inductive learning),即“從樣例中學習”的機器學習,都包含一個從特殊到一般的泛化(generalization)過程[24]1-4。機器學習的簡易流程如圖1 所示,即通過對經驗(數據)進行學習(選擇最優的模型、策略和算法)得到所謂的“學習算法”,進而利用學習算法進行決策,周而復始,循環往復。這種機器學習(包括深度學習和強化學習)基于統計學思想和強大的算力,通過對大數據進行學習,構建概率統計模型并運用模型對未知數據自主地進行決策。

圖1 機器學習流程

雖然機器學習本質上是自主性的,是能動的,但其學習的內容——數據卻是社會性的,因而也不可避免地帶有(價值)偏誤(bias),因為歸根結底,人工智能是人類智能的延伸,人工智能的自主性是其設計者的目的性在工具層面上的表達,人工智能的決策是人類社會價值判斷的遷移。因而,人工智能的技術中立性是存在疑問的。

如前所述,從倫理的角度看,人工智能的決策所涉及的不是一個能不能的問題,而是一個應不應該的問題,歸根結底還是一個價值判斷的問題[6]。于是我們不禁要問,人工智能有價值觀嗎?如果有,它們的價值觀是中立的嗎?如果不是,我們又將如何應對其價值偏誤帶來的風險呢?以下將從機器學習過程的數據、(學習)算法和決策3 個方面分別闡明機器學習的價值觀及其價值的非中立性特征。

2.1 由數據的社會性所引發的價值非中立性

2.1.1 概率:規律還是信念?

機器學習的統計學假設是:數據是具有一定的統計學規律性的。這個假設在經驗層面上通常是正確的,然而在操作層面上卻是無從保證的。如前所述,不論是當下的(統計)機器學習、深度學習或是強化學習,都是基于統計學思想。統計學是一門以數據為研究對象的科學,通過對樣本(sample)進行研究,從而得到關于總體(population)的特征和規律的推斷[25]。從方法論上說,統計學不僅貫徹了形而上學的因果決定論,同時又包含著隨機性(不確定性)與必然性的辯證關系。而關于現代統計學思想,其萌芽于人們對不確定現象進行預測的需求,后融合了古希臘時期的演繹推理、文藝復興時期弗朗西斯·培根(Francis Bacon)的經驗主義知識論和約翰·穆勒(John Stuart Mill)的歸納法、托馬斯·貝葉斯(Thomas Bayes)的逆概率法、弗朗西斯·高爾頓(Francis Galton)的回歸思想、卡爾·皮爾遜(Karl Pearson)的擬合優度檢驗等思想而形成了如今的統計學思想[26]。

條件概率(conditional probability)和貝葉斯理論(Bayesian Theory)是人工智能技術處理不確定現象的重要理論工具。其中概率(probability)是用來量化事物不確定性的一種數學工具,條件概率則反映的是各種(約束)信息對概率的貢獻價值,而貝葉斯理論則承認先驗概率的不確定性,并隨著新的證據的加入而不斷更新后驗概率。

機器學習關于“數據”的基本假設是“同類數據具有一定的統計規律性”[27]1-2。然而這是一個復雜的假設,包括來自統計學知識的先驗假設,來自社會和環境的對數據集的后驗修訂,以及數據工程師的人為干預。關于數據的假設背后包含著太多的人類對于具體事件發生的可能性的信念。從貝葉斯學派的角度看,所謂的“概率”只是一個又一個的人們通過對現象進行歸納得到的關于事件發生的信念而已,并不存在任何確定的“規律”。

2.1.2 大數據:人類社會的鏡子

同樣作為以數據為研究對象的大數據技術,彌補了以往統計學的高成本、高誤差、時效低及樣本局限等劣勢,同時在搜索、聚類及擬合等方面依然依賴統計學方法[28]。大數據技術是統計學方法的改良與拓展,是統計學與計算機科學的完美結合。然而大數據技術卻引發了諸如個人隱私、信息安全和數據公平等一系列的倫理問題[29]。數據作為人類認識客觀世界的標度,在認識論上,大數據技術盡管強調對應關系,但本質上遵循的依然是歸納法[30],因此不可避免的是,作為與人類社會同構的大數據只是作為一面“鏡子”,如果進來的數據不可避免地帶有偏見,那么出來的結果也必然是帶有偏見的[12]。例如2016 年微軟公司在Twitter 發布了一款聊天機器人Tay,“她”本是一位19 歲的清純少女,然而上線僅一天就“被學會了”嚴重的種族歧視因此被迫下線;而微軟的另一款聊天機器人小冰,也經常因為內容低俗而飽受詬病。

鑒于由數據導致的非中立性前人已做了大量深入研究,在此不再贅述。簡言之,對非中立的數據進行學習必然得到非中立的學習模型,進而產生非中立的價值判斷與決策。

2.2 算法偏好所導致的價值非中立性

2.2.1 特征提取的價值觀:復雜的現象可被少量主要特征所概括

工程上開始一個機器學習項目,數據工程師首先需要對數據進行特征提?。╢eature extraction)并選擇最適合的模型來將抽象的現實問題轉換為具體的數學問題。特征提取是一個降維(dimensionality reduction)過程,體現了這樣一種價值觀(假設),即復雜的現象可以被少量的主要特征所概括。通過特征提取來抓主要矛盾,進而達到簡化問題,提高效率,揭示事物內部規律的目的。特征提取的有效性,是模型有效性得以保障的前提。

2.2.2 特征提取過程的社會性

以分類模型為例,一個分類模型的分類質量取決于分類的合理性和有效性。要保證分類的合理性,就必須首先保證分類標志的單向性,即每個分類標志都必須是建立在對象的某一確定特征上的;而要滿足單向性,就必須滿足周延性和互斥性。然而這在現實中是無從保證的。在特征選擇(feature selection)與特征提取階段,數據便不得不被“人為”地區分為重要的、次要的和無關的幾大類別。

機器學習可大致分為有監督學習、無監督學習以及二者的結合。對于有監督學習的特征,會被“人為”地貼上“標簽(label)”并作為“正確的榜樣”來訓練符合該評價體系的模型;而對于無監督學習,則在特征提取和求解最優化問題的過程中,皆按照設計者賦予學習方法的價值觀來對每個數據進行評判??梢?,在算法的開發過程中,設計者無時無刻不在將自己的價值觀灌輸給算法,而正是這些價值觀最終導致了算法本身的偏好問題[8]。例如Lambrecht 等[31]在一項研究中發現,由算法自動推薦的求職廣,表面上看似是性別中性的,實則帶有明顯的性別歧視傾向。正如著名宇宙學家麥克斯·泰格馬克(Max Tegmark)所言,人工智能學習的不僅是人們的目標,還有人們的偏好,有時它會誤解,有時也會僅聽一面之詞[32]345-348。

2.2.3 算法的價值觀:如無必要,勿增參數

決策領域通常用損失最小化來保證收益最大化,并使用損失函數來量化損失的效用。通過學習得到的模型若想得到良好的泛化能力(generalization ability,指模型對未知數據的預測能力),則需要對損失函數(loss function,指度量模型一次預測結果的好壞的函數)進行正則化(regularization,指增加模型復雜度的正則化項(regularizer)或懲罰項(penalty term)來限制模型的復雜度,最后通過求解最優化問題實現結構風險最小化(structural risk minimization,SRM)[27]1-15。盡管歸納學習水平一直在不斷提高,但是由于來自生態學、社會學、現象學以及解釋學的挑戰,致使其始終缺乏應對信息的不確定性和不完整性的有效手段[33],由此,對于具體的學習算法,如果想得到唯一的模型,就必須賦予其對某種類型假設的偏好,即“歸納偏好”(inductive bias),而這個偏好即是這個算法的價值觀。最常見的但是并非唯一的一個價值觀即是奧卡姆剃刀(Occam’s razor),并且對奧卡姆剃刀的詮釋也不盡相同[24]6-7。上文提到的正則化便是奧卡姆剃刀的價值觀的一種具體體現形式。式(1)為結構風險函數:

此外,正則化項可以取不同的形式,最常見的為取參數向量的L2范數或L1范數,即所謂的嶺回歸和LASSO 回歸,分別是以歐式距離和曼哈頓距離作為其統計距離。換言之,正則化項的形式不同,得到的最優模型也不盡相同。

2.2.4 超參數:算法的天賦

不僅如此,為了更有效地得到最優解,數據工程師會在模型中加入若干超參數(hyperparameter),即在學習之前便已被人為給定的參數而非通過學習得到的參數。式(1)中的正則化項包含的非負系數λ 便是一個超參數,即該正則化項的懲罰力度。再比如狹義的算法中最常用的梯度下降法中的學習率(learning rate)也是一個超參數。即使現在可以通過網格搜索(grid search)和交叉驗證(cross validation)來輔助確定超參數的取值,然而依然只是起到輔助作用而已。換言之,超參數的取值主要依據數據科學家的經驗而定。如果把算法比作一個人,那么超參數就是它的天賦,超參數取值的差異就決定了這個模型在學習和決策時的不同的特性與偏好。

總之,每一個具體的機器學習算法中都隱含著大量的設計者所施加的價值偏好,算法基于這些被設定的價值偏好來習得最優的模型,進而使用得到的最優模型進行預測與決策。人工智能的智能行為背后總是離不開人類智能的干預,如生活中常見的搜索引擎檢索結果中的不相關的廣告以及各出行服務平臺的“個性化定價”均是固著于算法之中的歧視。

2.3 偏見在決策中強化所造成的價值非中立性

2.3.1 人工智能決策是樸素的

決策作為人的一種認知過程與判斷不盡相同。由于人類本質上具有社會性,因此他們的判斷和決策皆會受到社會因素的影響。然而在某些情況下,社會因素影響的卻只是人的決策而非其背后的判斷[34]。但是對于人工智能,社會性因素對其決策與判斷的影響是等同的,因為人工智能只是依據其通過數據學習到的模型進行判斷,再根據判斷結果作出決策。人工智能在從判斷到決策的過程中缺少了人類的元認知(meta-cognition)層面上的反思能力與過程,因此,人工智能的決策是樸素的,在同樣接收到了有偏誤的經驗和信息時,人類有可能通過反思作出與原判斷不同的決策,而人工智能卻無法做到。這就必然會加強“信息繭房”效應,即由于長期接受同質化信息而導致的群體極化現象。尤其在當下這個被算法支配的信息時代,如今日頭條和抖音等由算法實現的“個性化推薦”信息的APP,為了維系其用戶黏性,不斷地向用戶輸入同質化信息,致使出現了嚴重的群體極化和群體隔離[35]。

2.3.2 偏見的強化過程

2015 年,谷歌照片曾將黑人的照片標簽為大猩猩[7];無獨有偶,2018 年亞馬遜開發的Rekognition也曾將28 位國會議員識別為罪犯,并且這其中38%是有色人種[36]。正是由于缺少人類的反思能力,人工智能在使用從學習到的模型進行判斷與決策時,即使在作出非常偏頗的錯誤判斷時,依然會按照判斷結果進行決策和行動。

基于深度學習和強化學習的遷移學習(transfer learning)將成為未來人工智能領域各巨頭爭奪的下一個豐碑,這在極大地拓寬了人工智能的應用范圍的同時也增加了其產生偏誤的風險[37]。一方面,技術是按照人的目的,通過一定的體制和過程將種種社會存量以某種“黑箱”的方式集成起來的[38];另一方面,技術又是基于現象,通過組合得到的遞歸結構[39]。因此,遷移學習在縮短了AI 的學習周期的同時,不僅使人工智能這個“黑箱”變得更“黑”了,而且在這個基于以多數派的現象為樣本構建的數據集的持續遞歸過程中,少數派群體總會“被成為”一些所謂的“孤立點”,進而越來越被輕視。在模型持久化(model persistence)的過程中,模型會不斷地根據模型應用的反饋來進行自我修正,偏見便會在人工智能的每一次自我修正中得到強化。

由此我們不難發現,機器學習作為一項技術,不僅存在前人已經深入討論過的數據本身的“偏見進,偏見出”的問題,同時在學習方法中也處處體現著人為的價值偏好,只是被隱蔽地藏在了方法的具體細節之中。正如有專家所指出的,算法歧視高度隱秘,個體不易察覺,算法的廣泛應用使公眾愈發依賴算法[7]。不同的人工智能有著不同的價值觀和不同的習得算法,所以即使面對同一問題,其決策也不盡相同。而這些人工智能的價值觀在機器學習領域被稱為“假設”,然而拋開機器學習來看這些價值觀,它們更應該被稱為人類對這個世界的規律性的信念。這些價值觀同數據一樣,都是人工智能算法歧視現象的根源,也是人工智能技術價值非中立性存在的根源。

3 人工智能價值非中立性倫理問題與決策風險的應對

如上所述,在機器學習的各個環節中都潛藏著人類有意或無意的價值偏好,這些價值偏好塑造了人工智能的價值觀,在人工智能的學習和決策過程中成為價值判斷的標準。人工智能的價值非中立性,實質上便是根源于機器學習算法中各部分的價值偏好。從算法結構的角度看,人工智能的價值非中立性是不可避免的,扎根于機器學習算法的各個重要組成部分之中。因此,總體上看,不存在價值中立的人工智能,人工智能價值觀始終被人類的價值偏見所制約。就現階段的人工智能技術而言,更多的智能也許就意味著更多的偏見。

毫無疑問,人工智能技術極大地改善了我們的生活質量,同時再一次革命性地解放了人類的勞動力,但與此同時,我們也要對其負面效應保持持續的警惕。目前我們或許僅僅擔心搜索引擎中的誤導或消費過程中的價格歧視,但是很快我們將不得不擔心是否還能通過新聞來認識外面的世界[35],算法裁決的判決與量刑是否也具有算法歧視[40],甚至自動駕駛汽車是否會在算法的指引下對低價值對象的突然撞來[41]。不僅如此,隨著我國智慧醫療建設的推進,屆時更多的人工智能醫生和人工智能護士將加入到醫療共同決策(shared decision making)中進行價值判斷并提供治療建議[42-43]。

盡管學術界對于人工智能能否成為道德主體依然存在較大爭議,但普遍認同應盡快將人工智能納入道德體系范疇之中。那么,人工智能技術帶來的決策風險應該如何評估?人工智能應承擔的法律責任與倫理義務又該如何得到保障?

首先,我們不能因其價值非中立性的不可避免便放棄作為。我國早在2005 年的《公司法》的修改中便明確提出,公司應當承擔社會責任,作為人工智能產品的設計者和部分使用者的人工智能企業因此就顯得責任格外重大。2018 年在北京召開的人工智能標準化論壇發布了《人工智能標準化白皮書(2018 版)》,建議研究制定人工智能產業發展的標準體系。正如偏見是人類社會所固有的一樣,價值非中立性是人工智能的固有屬性,我們不應該也沒必要回避或是畏懼人工智能技術的價值非中立性實質;相反,我們應該正視和承認它的非中立性實質,并在此基礎上有針對性地制定合理的規范,將由人工智能技術固有的價值非中立性所引發的負面效應限制在一個可接受的范圍之內,所以這是一個需要國家機構、企業、學術界和普通大眾共同完成的艱巨任務。一方面,理論與算法研究應秉持開源、透明和可解釋的算法價值取向;另一方面,也要為人工智能的決策設置“人為”的邊界。

具體而言,在宏觀層面上,明晰了算法及其偏見的產生機制,企業便可以在規制上有的放矢,指定符合倫理的算法開發規范,有效地將可預見的偏見扼殺在算法開發階段,如使用價值敏感設計方法進行概念分析層面的數據倫理概念分析、經驗分析層面的實踐分析以及技術分析層面的算法倫理分析[44];國家相關機構則可以根據具體算法的特征,有針對性地推進改進算法公平性、增加算法透明度和設計責任機制等工作,如針對人工智能技術引發的倫理問題,可采用倫理責任分級制進一步細化各責任主體的倫理責任,同時針對共同決策制定完善的責任分擔機制。此外,應加強政府部門的監管力度與權限和各高校的人工智能技術倫理與規范教育。最終,由各界協同創建與人類的法律、社會規范、道德倫理相契合的算法和架構。另一方面,在微觀層面上,用戶首先應做到有意識地主動保護個人數據的隱私與安全;更重要的是,若要破除如“信息繭房”之類的頑疾,用戶需主動地向算法傳遞積極的價值取向,與人工智能共同完成每一個選擇與決策,而非被動地任由算法左右我們的價值觀。唯有在算法層面上理解了當代人工智能技術的運作原理,才能有效地讓其為我們而服務,進而方可在與人工智能互動的過程中張弛有度,既不會被其牽著鼻子走,亦不會因恐懼迷失其中而對其敬而遠之。

綜上所述,人工智能的決策取決于它的經驗(數據)和價值觀(機器學習算法),經驗難免有偏誤,價值觀也免不了有所偏好,致使人工智能技術在算法層面的價值非中立的難以絕對消除,人工智能背后充斥著人類智能的介入。然而我們依然可以通過共同的努力,將人工智能價值非中立性帶來的影響限制在可接受的范圍之內,最終實現安全、公平、透明、道德、智慧的人工智能技術體系。誠如麥克斯·泰格馬克所言,我們并不必擔心人工智能會變得邪惡,也不必擔心人工智能會擁有意識,實際上我們應該擔心的是日益強大的人工智能與我們的目標不一致[40],并且經常反思“我們所說的目標,究竟是誰的目標?”[32]67。

猜你喜歡
機器決策價值觀
機器狗
我的價值觀
機器狗
為可持續決策提供依據
圖說 我們的價值觀
圖說我們的價值觀(三德)
決策大數據
決策大數據
未來機器城
諸葛亮隆中決策
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合