?

數字平臺算法決策歧視的認定與規制

2024-01-15 10:12牛彬彬
關鍵詞:決策群體主體

牛彬彬

(湖州師范學院沈家本法學院, 湖州 313000)

隨著大數據技術與人工智能產業的發展,自動化決策系統引發的歧視與差別待遇問題也日益受到關注,弗吉尼亞·尤班克斯在其著作《自動不平等》一書中,揭示了AI 自動化決策系統的使用如何影響個人和社會。她通過走訪與調查弗吉尼亞州因為自動化決策系統的使用而被影響的個體,說明自動化算法的使用可以導致更深層次的不平等以及社會分化與分層。由算法的歧視與偏見所引發的問題日益嚴重,學界也開始將算法歧視的應對治理作為研究對象。根據理論界的討論,算法歧視的成因大致有如下幾點:1)數據偏見;2)選樣偏見;3)設計中產生的偏見;4)運行中產生的偏見[1]。學界也針對這些歧視成因紛紛給出因應之策,但這些規制建議也多立足于治理視角,形成“重規制輕認定”的研究格局??梢?,算法歧視的事前防范固然重要,但同樣不得忽視算法歧視認定理論,算法歧視的認定與歸責也是算法歧視治理的關鍵環節,缺少責任認定機制,我們也無法評估算法治理的有效性。算法歧視認定規則需要更加細致的理論研究與規范認定。

一、問題緣起:平臺的“算法重塑效應”對傳統反歧視理論的拷問

算法歧視產生的根源在于算法運行所遵循的數理邏輯與多元社會價值評價體系之間的矛盾,算法去場景化的評價與決策機制,導致了算法的重塑效應。算法通過用戶畫像分析完成對用戶的個體化評估,其包括收集數據、建立預測模型、應用模型評估用戶幾個步驟。然而,算法的評估可能不準確,因為在處理大量不同形式和來源的數據時,可能會丟失有意義的上下文信息,或者解析無關的信息,由此,用戶從“物理世界”被映射入“數字世界”時,經歷了一個“數據扁平化”的過程。在數據主體的身份越來越依賴于算法的量化表達時,算法對數據主體的評價也存在日益嚴重的失真風險。

算法不僅改變個體特征,也影響社會關系的形成。無論是監督學習還是無監督學習,算法通過對數據集群的劃分來理解數據的意義。算法借助于量化、估值和分類社會關系,將數字集群劃分為不同群體,加強了對社會群體的分類系統,或者發現新的數據群組。然后,算法根據其認知的內容,對不同群體進行評價,并重新分配數字資源。這就是算法重塑社會關系的核心——以數理邏輯評價為核心分配社會資源,歧視和差別待遇也由此產生?;谒惴ㄖ厮苄鸬乃惴Q策歧視,也挑戰了傳統的歧視認定規范體系,體現在如下3 個方面。

1.如何認定算法歧視中的“故意”?

傳統歧視理論認為,構成歧視的前提在于行為人主觀故意,即針對存在受保護特征的群體存在歧視的故意,但算法作為技術工具,除非設計者故意設計變量,其決策過程很難為人所知曉。這種缺乏主觀歧視故意的行為,能否構成傳統反歧視理論中的“故意”則有待考證??赡苡袑W者認為,應當注意對“反從屬理論”的應用,因為反從屬理論并不強調歧視認定中的“故意”。但即便如此,如何確定受保護群體與受保護特征仍然是一個有待解決的問題。

2.算法歧視中的受保護特征如何確定?

按照傳統反歧視理論,歧視的認定要求被歧視對象具備受保護特征。算法由于片面地追求效率,經常會進行忽略倫理或者社會意義的關系分析,這導致被歧視對象超脫出傳統意義上的受保護群體。算法決策在大多數情形下是通過用戶畫像影響人類行為的自動化過程,該過程更多地依賴人工智能來檢測模式、建立相關性和預測數據主體的特征,并在此基礎上實現“畫像創建——畫像分配——基于畫像決策”的自動化決策過程。而算法對數據主體的這種概率式陳述有時則會模糊掉數據主體的真正的特征,將本不具有某種特征的用戶錯誤地劃撥到具有特定屬性的群體之中,產生基于“特征剝奪”或“特征誤判”所引致的歧視性結果。所謂“特征剝奪”是指由于用戶畫像顆粒度較低等原因,導致算法篩選器將本不屬于某一群體的數據主體錯誤地劃歸到某一群體之中,進而導致算法對其做出不利的決策。例如,算法模型根據模型預測出該區域90%的人都會有遲延支付賬單的習慣,銀行基于此拒絕了該地區所有居民的貸款申請,包括那些10%的按時支付賬單的人。10%的守約者因為其地域原因而被歸類為“信用較差”的群組中,被忽視了其按時守約支付賬單的特征?!疤卣髡`判”則是指算法運算依賴于受污染的數據集,或者是由于樣本代表性缺失[2],導致對數據主體的特征推斷錯誤。例如,某男性互聯網用戶由于經常瀏覽時尚雜志網站,而被算法基于“時尚雜志”與“女性群體”的高度關聯推測為女性,這些都是算法重塑效應的體現。算法的映射與重塑功能給算法歧視的認定帶來這些難題,沖擊著傳統的反歧視理論,學界也開始逐漸關注到算法歧視的認定問題。

3. 基于“特征剝奪”或者“特征誤判”所引致的歧視性結果如何評價?

傳統的反歧視理論中,無論采用“反歧視理論”還是“反從屬理論”,一個共同的要求是,被歧視對象須具有受保護特征或與該受保護特征相關的其他特征。但由于算法對于個體用戶以及社會關系的重塑與塑形效應,導致數字世界中的用戶并非完全是物理世界中的映射。在重塑個體的過程中,以“深度學習”為特點的AI 智能是通過自行分組并關聯的方式進行特征提取強化,進而產生對特定用戶的“特征剝奪”與“特征誤判”。因此現象導致的對特定用戶的歧視,又應當如何認定?

二、理論爭鳴:算法歧視認定理論的爭議梳理

針對算法歧視的認定,學界的爭議圖景已經初步顯現,大致包括如下3 種觀點。

1.傳統反歧視理論——主觀狀態難以認定

傳統反歧視理論中,包括直接歧視和間接歧視兩種類型,前者以“歧視故意”作為成立要件;后者則要求歧視是針對用戶特定的受保護特征。但是在算法的重塑效應之下,歧視大多并非產生于平臺使用方或者數據控制者,而是由于算法本身的運作機理所導致,由此造成算法歧視中主觀要件的認定困難①。

為了解決算法歧視認定中的主觀狀態難題,有學者主張繼續沿用傳統的反歧視理論框架。張恩典[2]認為,算法歧視認定應當重視“間接歧視”,尤其是“反從屬理論”的使用,因為其不需評估行為人的主觀歧視故意。也有學者采用故意推定的方式,例如,在使用用戶敏感信息造成歧視性結果時,應當推定數據處理者存在主觀歧視故意[3]。但這樣一來,很容易導致歧視認定的泛化。

顯然,繼續沿用傳統的反歧視框架會面臨諸多問題。有學者曾經在5 個方面詳細闡述了這種挑戰,其中有兩個問題最為棘手:第一,受保護特征的有限列舉同基于算法決策的歧視中歧視特征的不確定性;第二,基于特征預測錯誤導致的算法歧視,完全掙脫當前的反歧視規范框架,這一問題應當如何解決。出于這些問題的考量,該學者認為,采用當前反歧視理論框架來認定與規制算法歧視是“有必要但不充分的(necessary but not sufficient)”[4]。其一方面肯定傳統反歧視規范框架在認定算法歧視時的作用,另一方面也反映了當前反歧視理論框架進行補充或修正的必要性。

2.反歧視規范框架的修構——“關聯性歧視”概念的提出

為了解決傳統反歧視框架下受保護特征不確定造成的規范適用難題,有學者提出了“關聯性歧視”(discrimination by association)這一概念。其包括直接的關聯性歧視和間接的關聯性歧視。此種歧視形式并非直接基于數據主體的敏感信息,而是基于同其相關主體(例如家庭成員等)所產生的、針對數據主體的歧視。此種歧視也被稱為直接的關聯性歧視,由S. Colemanv.Attridge Law and Steve Law 一案所確立。根據該案判決,對直接歧視的保護不僅適用于具有有關受保護特征的人,也適用于因與受保護群體“聯系”而遭受歧視的人②。間接的關聯性歧視,是對間接歧視概念的目的性擴張。所謂間接歧視,是指某項規定、標準或做法看似中立和平等,實際上卻將某人或某類人置于極其不利的地位。而間接的關聯性歧視,則是指主體基于某種看似中立的關聯性的特征或者推測興趣而致使自己處于一種不利狀態。間接的關聯性歧視是CHEZ Razpredelenie Bulgaria ADv.Komisia za zashtita ot diskriminatsia 之后確立的③。間接的關聯性歧視不同于直接的關聯性歧視,其允許個人提出某人針對自己假設的特征所產生的歧視,也即被歧視對象實際上并不具有某種受保護的特征或者屬性,僅僅被推測可能具有某種特征,而被錯誤歸入到某種分類中,而導致不利影響或者差別待遇。

關聯性歧視的概念在很大程度上契合“算法重塑效應”技術背景下對歧視性算法決策的認定。目前大多數公司都不會直接使用受保護特征進行決策,而更多地使用不涉及受保護特征的假設性的特征或信息進行決策,這就涉及間接的關聯性歧視,這也是基于自動化算法產生歧視的主要方式。例如,時尚雜志的訂購者與閱讀者大概率與“女性”這一性別特征聯系起來。關聯性歧視回應了因算法對數字主體的扁平化概率式陳述所導致的“特征剝奪”和“特征誤判”所引起的歧視。引入關聯性歧視這一概念的優勢在于,它允許關聯個人基于其假定特征提出反歧視主張,而不僅僅是基于受保護特征[5]。但也存在一些有待解決的問題:第一,可操作性存疑,數據主體如何知曉自己因被錯誤歸類而導致歧視;第二,將關聯性歧視引入算法歧視的認定方案中,算法歧視認定的泛化風險仍然存在,即任何受到算法不利評價的人,都可認為自己被錯誤歸類而受到不利差別評價。如若在后續的理論應用中能夠解決上述難題,“關聯性歧視”這一概念應用也不失為一個解決問題的工具。

3. 沖破傳統框架的理論革新——基于“博弈鎖定”的歧視認定

為了解決“算法歧視泛化”問題,有學者嘗試突破傳統的反歧視理論框架解決算法歧視的認定問題。例如,有學者認為在算法應用中,尤其在私法關系中,構成算法歧視的前提在于用戶對平臺之間存在算法博弈鎖定的行為,這種博弈鎖定包括博弈退出鎖定、博弈規則鎖定和博弈結果鎖定。結合反壟斷法相關理論,綜合平臺市場地位以及用戶可替代性選擇的空間等因素指標,評估平臺算法對用戶的支配程度認定“博弈鎖定”要件,并旨在打破平臺對用戶的橫向博弈封鎖,避免平臺的不利決策[6]。其理論具有一定的創新性,尤其對電商場景中的價格歧視認定具有啟發意義,但仍存在局限:一方面,該文將算法歧視的討論范疇局限于私法場景,尤其是大型平臺之中,探討范圍相對局限;另外,算法究竟在具備何種程度“可博弈性”時才會被認定為非歧視,也是這一理論未能說明之處,因為用戶每一次在平臺上瀏覽、點擊的行為,都會不成比例地增強數字平臺的力量,用戶個人很難實現與大型數字平臺的博弈自由[7];最后,其也未能解決因“特征剝奪”或者“特征誤判”所導致的歧視認定問題。

除此之外,也有觀點認為私法層面的算法歧視并非僅僅是從反壟斷的角度進行認定,例如,有學者認為價格歧視本身并不構成違法性歧視,但是當平臺將其歧視與某些不當影響的行為(例如助推或影響消費者的不當感知等)結合在一起時,才可能會構成違法歧視[8]。

上述理論研究為我們探索算法歧視的認定方法提供了一定的參考(見表1)。算法的重塑效應是引發算法歧視的重要原因,因此構成算法歧視的一個重要前提在于,算法對用戶產生了一種實質上的支配和控制關系,這是認定算法歧視的前提性要件;其次,關聯性歧視概念的提出,能夠在一定程度上解決算法重塑效應所帶來的受保護特征與受保護群體不確定的難題;最后,再結合傳統反歧視理論中的受保護特征、差別待遇、不利影響等因素,梳理出算法歧視認定大致框架。

表1 算法歧視認定的觀點梳理

三、規范認定:算法歧視的一般構成要件

傳統反歧視理論之所以將“故意”視為前提性要件,其目的在于防止“歧視泛化”。但是在算法歧視應用中,由于決策是基于算法運算程序做出,算法設計者故意設計歧視變量的情形少之又少,更多的則是由于“數據偏見”或者“選樣偏見”所導致的歧視,若堅持將“故意”作為算法歧視的主觀要件,則諸多算法歧視行為將難以規制。因此,算法歧視的認定應當摒棄“故意”要件。但并非算法所有的負面評價都需要納入“歧視”的范疇之中,在摒棄“故意”要件的同時,也需要新的限定性要素以防止歧視泛化。正如上文所述,算法歧視產生的原因在于算法的重塑效應,在摒棄主觀要件后,為了防止算法歧視在司法實踐中被“泛化”,一方面需要框定受保護場景,即在哪些應用場景中,基于算法的“偏見”或者“差別待遇”可能會引發歧視問題;另一方面,需要以平臺對用戶存在相當程度的支配或控制為前提。

1.前提要件——取代“故意”的算法支配關系

(1)受保護應用場景。算法并非在所有應用場景中都會產生重塑效應,因此,受保護場景的框定是認定算法歧視的前提。就目前來看,算法評價中的受保護場景應當具備以下幾個要素。

第一,從算法對個體的重塑效應看,要求算法對個體的描述或重塑對數據主體的權利義務有實質性影響。而這也對認定算法歧視的應用場景提出要求,即數據主體處于受保護的應用場景之下。例如,數據主體在申請商業信貸時,受到評價較低的用戶,可能妨礙他人締約自由;或者數據主體受到算法負面評價導致監禁期延長等。

第二,從算法對社會關系的塑形效應看,受保護的應用場景涉及算法對社會資源的分配。人們對特定社會資源的主張或者訴求是社會關系產生的前提和基礎,其嵌入各種社會關系中,成為人們進行社會交往的紐帶。算法的社會關系重塑效應所影響的是社會資源的分配方式和分配路徑,其并非系指資源的均等分配,而是社會成員之間獲得社會資源的機會均等。例如,在利用算法進行福利資源分配的場景中,應當公平分配社會福利資源,不得因為種族、民族不同而在資源分配問題上有所不同;在就業類應用平臺中,男性與女性應當具有相同的機會準入條件,算法應當向不同性別群體均推送工作信息。具體而言,社會資源的分配公平在于兩個方面,第一,資源的平等分配,這主要體現于公法場景中,例如社會福利資源、教育資源的分配等;第二,機會的均等獲得,這主要體現于市場環境下個體的市場準入公平、信息資源的獲取機會以及就業機會均等等方面。機會均等也是羅爾斯正義理論的核心內容。

總之,在算法歧視的認定中,應當尤其注意下列應用場景:就業、社會福利分配、接受商品或者服務、信用評估、健康醫療、教育、行政與司法等可能對數據主體的權利義務有實質性影響的應用場景。當然,受保護的應用場景并非可以被窮盡列舉,需要在司法實踐具體個案中,結合上述兩個條件進行具體認定與裁斷。

(2)受保護場景中的算法支配。用戶被平臺操縱和支配是認定算法歧視成立的另一重要因素,因為只有平臺與用戶之間存在算法支配關系,算法決策才有可能對用戶權利產生實質性影響,算法塑形效應才可能顯現。在算法支配關系下,算法對數據主體的支配主要體現為“控制”和“影響”兩種形式。

1)算法控制。所謂“控制”,即算法決策過程排斥人的干涉與被決策博弈,徑行做出決策的過程。例如,行政機關利用自動化算法對行政相對人做出行政決定;銀行金融機構利用信貸算法決定是否同意申請人的貸款申請以及貸款額度。這種單向的、固定式的算法決策過程,即算法控制。

2)算法影響。在某些應用場景中,算法雖然并未直接對用戶作出相應的決策,但平臺可能會通過潛在的、不易令人察覺的支配形式干擾用戶決策進程,進而實現算法對用戶的操控目的,有學者將其稱為“助推”的方式[9]。當助推策略與數字化技術結合,助推行為的誘導力和影響力將會進一步增強,因此也有學者稱其為“數字助推”。由此網絡服務提供商可以誘導互聯網用戶做出更加符合商家利益的行為決策。例如,數據處理通過分析用戶的行為傾向、習慣偏好向用戶推送定向廣告,影響用戶消費習慣,甚至在某些情形下直接影響數據主體的行為。定向推廣、利用自動化系統進行的差異化定價,這些依托于自動化算法決策系統給數據主體帶來負面影響的報道經常見諸報端,它以十分隱蔽的形式差別化地操縱人們的行為,壓縮數據主體意思自治的空間[10],間接操縱數據主體的行為。

2.核心要件——基于受保護特征的差別待遇

(1)受保護特征。1)存廢之爭。算法歧視中的受保護特征認定,一直以來是一個困擾學界的難題。為了防止算法歧視認定的泛化,歐盟一直將受保護特征限制于特定的特征范疇之中。學者Malleson[11]認為,受保護特征必須滿足以下條件:某種定義和分類穩定性,它們必須廣泛反映人們對社會現實和生活經歷的理解,它們必須與社會中最重要的歧視軸心保持一致。2010年,英國《平等法》將其國內各種反歧視相關規范合并,擴張了其受保護特征的范圍④,但同時指出,由于人類身份與生活經驗日益變得復雜與多樣,未來在確定受保護特征時,可能需要采取基于場景(context-based)的方法[12]。當然,也有學者認為,算法歧視的區分事由具有復雜性、動態性和偽中立性,如若堅持受保護特征這一要素將會導致大量算法歧視行為超脫規制范疇,因此在算法歧視的認定中,應當舍棄受保護特征這一要件,尤其是在私法關系中更應當如此。

在筆者看來,受保護特征在算法歧視的認定中仍然十分必要。歧視作為具備違法性的差別待遇,總是以具有某種特征的個體或者群體為參照系,舍棄受保護特征也就意味著沒有可供參照的對象,又何以體現出差別待遇?但是,受保護特征的確定需要將其限制于合理范疇之內。在這一點上,Malleson 教授的觀點具有一定啟發意義,在其看來,受保護特征需與社會中最重要的歧視特征軸心保持一致。

2)如何確定受保護特征?算法歧視產生的根本原因在于依循自身邏輯的概率式陳述與數理式塑形,歧視性后果的產生有時是基于用戶自身真實的受保護特征,有時是基于算法的錯誤假設,甚至是在塑形新的社會關系過程中,可能產生的新型歧視誘因。因此,筆者將算法歧視中受保護特征的認定分為3 種基本類型:基于映射的核心特征復現、基于關聯的核心特征輻射和基于應用場景的新型受保護特征。

第一,基于映射的核心特征復現。需要明確受保護特征需要嚴格依照我國目前的規范規定。我國并沒有制定統一的反歧視法律,相關的反歧視規范皆散見于各種規范性文件之中。目前我國立法明確禁止的歧視事由包括7 類,即種族、民族、宗教信仰、性別、殘疾、傳染病攜帶源、社會出身。這些特征可以用來檢測是否存在針對某類群體的歧視。如若判斷某項算法決策中是否存在性別歧視,無論算法的決策過程如何,我們只需要以性別為標準,判斷特定算法決策中,不同性別的人群獲得算法正面/負面評價的比例即可,如若獲得算法正面肯定評價的人中男性與女性的比例為4:1,則該算法有可能涉嫌對女性的歧視。

第二,基于關聯的核心特征輻射。面對算法重塑效應帶來的受保護特征不確定的難題,關聯性歧視或許是解決這一問題的重要方法。即便用戶實際上并不具有某種受保護特征,但是由于算法重塑效應導致對用戶的特征誤判,也可能會導致對用戶的歧視,此即由于算法特征剝奪或者特征誤判所導致的歧視。當歧視是由于某一受保護特征的關聯特征所引起的,用戶也可以核心特征輻射的關聯特征作為其受保護特征,宣稱其可能被算法誤判為此類群體而受到不利的差別待遇。至于此類歧視面臨的可操作性難題,本文將在第四部分舉證責任小節加以詳述。

第三,基于應用場景的新型受保護特征。歧視是由人們對某一群體的刻板印象和態度所引起,但是算法偏見,尤其是算法所引起的新型偏見,大多是由于算法(特別是深度學習算法)對目標效率價值的片面追求,以及監督制約機制的匱乏而導致的算法反身與自我強化效應。這種內嵌于算法邏輯之中的、對目標效率的單向度追求,可能會導致算法對特定群體的系統性歧視對待:一方面,算法可能對不符合算法效率價值導向的群體通過給予負面價值評價加以排斥;另一方面,算法也可能對契合其效率價值的個體或者群體進行過度壓榨。因此,在確定新型應用場景中的受保護特征時,可以嘗試以算法效率為基準確定相關變量標簽。以“大數據殺熟”為例,消費者支付意愿的確定是與算法運行效率直接相關的因素,數字平臺對消費者購買意愿的判斷決定了平臺對消費者所實施的定價策略,這也直接影響到后續締約內容、權利義務安排。因此,可將支付意愿作為受保護特征之一,但也并非針對高支付意愿的用戶進行高定價就意味著算法價格歧視成立,其仍然需要判斷“算法支配”的有無與強弱。這種強“支配力”的認定,從行為方面需要判斷是否允許用戶修改刪除不適當的用戶標簽,以對抗算法決策循環。另一方面需要判斷算法推送策略是否破壞了高消費群體的理性決策能力,例如,若算法對高消費群體產生強支配力,即大部分高支付意愿群體最后都承諾支付了高價(如80%以上),或定價超過必要限度,則可能涉嫌對高消費群體的價格歧視。

(2)差別待遇。認定“差別待遇”需要一定參照。在理論上,根據參照對象的不同,可以將差別待遇分為歷時性的差別待遇和共時性的差別待遇。有學者認為,所謂歷時性的差別待遇,即如果以用戶自身過去經歷作為對照,證明其因某項事由發生變化或被揭露,而相比之前遭受不利差別對待,可以認定將其作為差別對待的依據。但需要指出的是,在進行歷時性差別待遇的比對時,其所參照的仍然是其他同類群體,其在本質上仍然屬于橫向比對的范疇?;谒惴ǖ钠缫曀斐傻牟顒e待遇包括個體意義上的差別待遇以及群體意義上的差別待遇。第一,個體意義上的差別待遇,即違背了“相同情況、相同處理”的形式正義原則。例如在人工智能裁判的場景下,在兩個被告人的行為能力、所觸犯的罪名、罪行嚴重程度等條件皆相同的情況下,算法作出了不同的裁決。此時便違反了以“相同情況、相同處理”為原則的形式公平。例如在Johnsonv. Allstate Ins. Co.一案中,原告訴稱該保險公司對類似客戶使用不同的保險評分算法,由此引發了原告針對被告保險公司的訴訟,此案中保險公司亦違反了形式公平原則⑤。

第二,群體意義上的差別待遇。此處的不同群體,應按照數據主體在特定場景下的受保護特征加以確定。例如,算法評價結果在不同性別之間存在結構性失衡,導致對某一性別人群的評價占總人群的比例畸高或者畸低,且此種“不合比例性”沒有符合倫理的理由加以正當化。比如,在銀行利用信貸算法對貸款申請人進行評估決策后,女性獲得貸款審批的概率如果遠遠低于男性,則該算法可能涉嫌對女性的歧視。但是這種差別待遇必須達到一定的程度,在這一方面,各國似乎并沒有一個規范標準,歐洲的判例法曾經在西班牙一個關于兼職歧視的判例中作出如下決定:如果80%受到影響的群體是女性,則不利行動可能會構成歧視[12]。此即統計顯著性檢驗,作此種統計性檢驗的優點在于,確保差別性影響并非因偶然因素所導致[13]。由此,群體差別待遇的差別化影響需要達到相當程度,即影響到不同群體之間就某種事項的平等的機會概率,才可以被認定為違法,否則難以認定其存在歧視。

3.結果要件——類型化視角下的“不利影響”認定

算法對用戶的不利影響是算法歧視認定的結果要件。有學者認為,不利影響包括不利后果以及社會排斥風險,也即,不利影響不僅包括當前的不利決策,而且也包括遠期影響。某些類型的算法歧視其不利影響表現得較為隱蔽,或者表現為算法決策循環中由于衍生數據的偏差所導致的歧視風險,亦或者表現為對于特殊群體的決策誤差偏高,這些“不利”類型雖然并未直接表現為決策的不利,但卻可能使得用戶陷入某種負面決策邏輯循環中,最終對用戶造成損害。因此,算法歧視中的不利,需要滿足兩個條件,即決策性不利和歸因性不利;其中決策性不利可以分為兩種類型,單純的決策不利和錯判率不利,歸因性不利需滿足兩個條件,即與受保護特征至少有關聯且存在針對相似群體的歧視待遇可能。

(1)決策性不利。從類型上看,決策性不利又包括兩種類型,即單純的決策不利和錯判率不利。前者系指相關群體受到算法的不利評價,后者系指算法評價結果在群體之間造成的誤差比率高低。

1)單純決策不利。這種決策性不利的判斷是基于差別待遇。差別待遇是構成決策性不利的前提之一。單純的決策性不利即指數據主體在特征場景下,相對于其他群體而言,在特定的受保護場景下受到算法的負面評價,以及由此引致的不利待遇。這種不利,既包括個體意義上的不利,也包括群體意義上的不利,前者系指不同主體在同等條件下未能獲得算法的公正評價,后者則指概率層面的不利,如若算法評價結果在受保護群體之間產生結構性失衡。例如,基于性別這一受保護特征,算法向女性推送高薪職位的比重與男性相比過低,該算法可能涉嫌對女性的歧視。

2)錯判率不利。平臺算法如若針對某類群體的錯判率畸高,這種誤差本身也可能會構成歧視。錯判率不利是群體意義上的,即平臺算法對于兩個不同的、相互參照的群體的判斷準確率不同,如對其中一類群體的判斷準確率過低,則有可能涉嫌對這一群體錯判率不利。

錯判率作為一種不利影響的類型存在于美國地方司法體系中,COMPAS 是一款被廣泛應用于預測被告再犯風險概率的評估軟件?;谝幌盗袕碗s的歷史數據,包括年齡、性別和已有的犯罪記錄,COMPAS 預測案件行為人被再次逮捕的概率,并計算得出危險分(risk score)供法官參考,分數越高,其被再次逮捕的概率就越高,人身危險性和社會危害性也就越大。但是,COMPAS 計算結論的公平性很快受到質疑,Pro-Publica(美國的一家為公眾利益進行調查報道的非盈利新聞編輯部)審查了COMPAS 分類的公平性,通過對釋放出獄罪犯的實際再犯情況同預測結果的比對,判斷其是否存在種族歧視的可能。ProPublica 利用公開數據,分析了佛羅里達州布勞沃德縣(Broward County)1.8 萬人的COMPAS 分數和犯罪記錄,得出了一個驚人的發現:盡管COMPAS 的正確預測率達到了61%,但在它的系統里,黑人與白人的分數分布卻明顯不同。黑人更有可能被誤判,即雖然目標個體被預測具有再犯的高風險,但實際上卻沒有再犯;白人則更有可能被漏判,即被預測為低風險,但實際上卻再次犯罪。不同種族間的假陽性(false positive) 和假陰性 (false negative) 率的差距可以高達近80%。COMPAS 算法更加傾向于認為黑人具有更高的再犯風險,但事實卻并非如此,顯然,算法對黑人存在歧視。自從COMPAS 一案引發爭議以來,錯判率問題也日益受到人們的關注,例如,算法經常會將誠實納稅的公民預判為可能會偷稅漏稅的不法者,也可能將一個信用良好的申請人評價為可能會遲延還款的人。錯判率的公平性目前也多被用于檢測人臉識別算法的公平性,如果某人臉識別算法在識別某一種族人口時錯誤率畸高,則可能涉嫌對該種族人口的歧視[14]。

(2)歸因性不利。單純的決策性不利并不能直接認定為存在歧視,決策性不利需歸因于特定的受保護特征,歸因性不利是構成算法歧視中“不利”的另一個必要條件。所謂“歸因性不利”是指,平臺算法將數據主體與某種可能招致負面評價的目標變量聯系起來的行為。此種不利是因為算法錯誤地將自己歸類為在算法評價中存在不利因素的一方,算法評價參數所代表的即是一種令人不快的或者有辱人格的變量因素。但需要注意的是,認定成立歸因性不利的前提,是數據主體能夠知曉算法對其進行分組的變量帶有明顯的消極色彩,甚至未來可能成為算法對其作出不利決策的重要原因。歸因性不利既包括直接將種族、膚色、性別等受保護特征作為區別待遇考量因素的顯性歧視,也包括將與受保護的特征高度關聯的代理變量作為決策考量因素的隱性歧視。歸因性不利需要滿足如下兩個條件。

1)歸因性不利之“因”至少與受保護特征存在合理關聯。導致決策性不利的原因不僅僅只有“歸因性不利”中的帶有消極的、易受歧視的特征性因素中的“因”,相反,導致算法對數據主體決策性不利的,可能就是一個沒有任何意義的位置信息或者時間信息。但無論算法歧視中的“歸因”為何,其皆能與特定場景下的受保護特征存在合理關聯,屬于受保護特征合理輻射的范疇。

2)歸因性不利有存在群體不利的可能。不能僅僅以數據主體存在受保護特征且受到差別待遇為由,認定算法存在歧視的嫌疑,其仍然需要達到針對群體歧視的可能。如果僅僅是受保護群體中的個體遭受差別待遇,則可能是由于算法運行錯誤所致,而很難被認定為是算法歧視的結果。例如,在Newmanv. Google LLC.一案中,原告認為,被告的過濾和審查工具分析了原告的種族身份,平臺剖析、使用和考量原告的種族、個人身份和觀點,以干擾、限制或阻止其視頻上傳平臺或在平臺內的傳播,因此導致其無法充分行使其在平臺內的各種權利和自由⑥。在本案中,原告確實擁有受保護的種族身份,但是不能以此直接將決策性不利歸因于其種族身份特征,如若與其具有相同身份特征的大部分群體并未遭受如此待遇,則難以將不利結果歸因于這種受保護特征。本案原告的主張最終也未能得到支持。

(3)由不利地位引致的影響——數據主體的機會損失。如若數據主體在算法評價中僅處于不利地位也不宜直接認定成立歧視,還需上述行為的確對數據主體造成損害。這在美國某些判例中也體現的極為明顯⑦。但是如何界定算法歧視案件中的損害,目前理論和司法實踐中仍然存在爭議。美國判例法對如何確定基于算法的平臺歧視損害積累了一定的經驗,在很多情形下,原告所聲稱遭受的損害大多是物質性的。在 Spokeo, Inc.v. Robins 一案中,法院要求損害必須為:1)實際上受到的傷害,2)可以追溯到被告的質疑行為,3)有可能通過有利的司法裁決來解決的傷害⑧。在 Bradleyv. T-Mobile US, Inc.一案中⑨,法院則要求原告證明這一事實,即原告需要從一般社會意義上說明,其對被告涉嫌就業歧視的特定工作感興趣。

由于算法歧視所招致的損害后果,主要包括兩種類型,一種是直接的名譽利益或者人格尊嚴利益的侵害;另一種則是由于算法歧視所招致的機會損失,后者是最為主要的損害類型。對于前者,數據主體需要證明算法推送內容已經對其達到名譽侵害的程度,而且已經造成數據主體的社會評價降低;后者需要證明其符合獲得該機會的初步資格,由于算法歧視導致機會喪失。規范意義上的“機會”是指,獲得利益和避免損害的可能性[15]。例如,算法在經過分析之后發現,女性更加傾向于選擇薪水較低的職位,由此系統在向女性求職者推薦職位時,自動過濾掉薪水較高的職位,而向其大規模推送低薪崗位[5]。此種分配極大限制了特定人群的可選擇空間,導致數據主體獲得某種待遇的機會概率被迫降低,加劇社會成員不平等的現狀,激化社會矛盾。在被廣泛討論的“意大利戶戶送算法歧視案(Tribunale di Bologna,sez.Lavoro.)”中,由于算法不考慮騎手不赴約的真實原因,使騎手榮譽排名降低,進而導致其優先選擇工作的機會喪失[16]。同樣,在算法價格歧視中,高支付意愿的群體也由于畸高定價喪失獲得公平定價的機會。當然,這些損失需要以算法支配關系成立為前提。

綜上所述,算法歧視的構成,實際是在算法針對受保護群體的強支配力的前提下,由對受保護群體的負面評價所引致的不利,進而導致數據主體在受保護場景下的機會損失。

4.阻卻要件——符合比例原則的差別待遇

如果上述要件全部符合,也不可一概認定為是違法性歧視。因此,衡量算法決策的合理性仍需要結合比例原則,判斷算法的差別待遇是否適當。比例原則一般包括適當性原則、必要性原則和均衡性原則。

首先,需要考察算法造成差別化不利影響的適當性。所謂適當性是指所采取的手段必須適合于目的的達成,如果選擇的手段與目的無關,即違反了適當性的要求。正如上文所述,造成算法歧視的根源性因素之一,在于算法對效率價值的追求,其表現為對所設目標的最優化實現,而這一過程通常缺失公平要素的考量。但是,如果不利影響的差別待遇在特定的應用場景下,系為達到特定目標所必需,其便具有適當性。例如,雇傭就業場景下,經過算法對求職者簡歷的篩選程序,女性入選面試的比例要遠遠高于男性,可能會涉嫌對男性的歧視,但如果是特殊的就業崗位,比如為女性宿舍工作人員、女性監獄工作人員、醫院護士等,女性會不可避免地在獲取面試資格以及錄取比例上較男性更加占據優勢,這是為現實的場景要求所必需,另外包括為了實現合同目的或者公共利益所必需。也就是說,某種不利后果的差別待遇雖然在外觀上可能涉嫌對特定數據主體或者群體的歧視,但是如果能夠證明其結果具有一定程度的適當性,則可以證成其合理性,進而阻卻算法歧視侵權。

其次,需要考察不利差別待遇的必要性。即在所有的能夠實現目的的手段中,應當選擇對權利主體損害最小的手段。例如,為了在獻血過程中防止艾滋病的傳播,如果使用大數據對潛在的獻血者進行分析推測,并在此基礎上推斷出性生活混亂群體、男同性戀群體等可能感染艾滋病的高風險人群,并將其排斥在血液捐獻群體之外。那么使用用戶畫像的形式確定獻血群體不僅可能導致歧視(例如將數據主體納入到性活躍群體、男同性戀群體中皆屬于歸因性不利,可能直接造成對特定群體的歧視),而且某些數據主體可能因算法錯誤分類導致不利待遇。所以,如欲防止獻血活動中艾滋病的傳播,只需要做好事前的血液安全檢測以及嚴格落實抽血活動的操作規范即可實現目的,使用算法分析預測的功能篩選適格主體實無必要。一旦數據主體被動地介入到數據分析與用戶畫像,則有可能導致算法對數據主體失真性重塑。

最后,還需要按照狹義的比例原則,考察不利差別待遇的均衡性?;谒惴ǖ臄底制缫曀斐傻膿p害結果需小于其所獲得的收益。例如在COMPAS 案件中,雖然預測再犯風險的模型準確率高達61%,但是黑人誤判率與白人誤判率的差別已經相差近80%[17],由此可見,這種高準確率的獲得是以對黑人的歧視風險為代價的,其并不符合均衡性原則,因此COMPAS 所使用的算法(系用于預測被歸類為高風險的白人或黑人被告是否會再次犯罪的算法),可能涉嫌對黑人群體的歧視。再者,在信貸類算法中,低收入人群似乎容易得到算法不予放貸的決定,此一決策雖似乎存在對低收入人群的差別化待遇甚至歧視,但是此種評估方式在實際上也將低收入人群的利益考量在內:如若批準此類人員的貸款,則有很大概率該主體難以償還貸款,從而造成更大的信用風險,進而導致此類低收入人群在未來難以從金融機構獲得任何貸款。根據狹義的比例原則,雖然該類算法可能涉嫌對低收入人群的差別化待遇,但是從長遠來看,其仍然有利于低收入人群,故而符合均衡性原則,不構成對低收入人群的歧視。

總之,比例原則在算法歧視認定中的主要制度功能,在于確保算法決策結果的可預期與可解釋。如若一項貌似歧視的決策算法,其決策結果是在可預期范圍之內的,則可以阻卻歧視的認定。

四、制度接榫:規范條文法理闡釋與制度配套

1.請求權規范基礎的完善——細化“自動化決策公平、公正”的規范內涵

《個人信息保護法》第24 條中對自動化算法決策應用提出相當具體的要求,可以作為反算法歧視重要的規范基礎,也是未來數據主體針對歧視性算法決策提起訴請的請求權基礎,但是該規范基礎中,最為關鍵的,仍然是對決策“公平、公正”的界定問題。

“算法公平”的概念有廣義和狹義之分。法國數據保護局[18]、英國信息專員辦公室(ICO)[19]、以及歐盟《一般數據保護條例》(GDPR)序言第71 條對于算法公平的觀點——考量結果對個人的影響,防止錯誤、不準確和歧視性的結果,這一觀點注重結果層面的公平與公正,即狹義的算法決策公平;而廣義的算法公平,則源自挪威奧斯陸大學法學教授拜格雷夫的觀點,其指涉整個信息處理系統的可信與透明,其更像是一種價值理念,所評價的對象是作為整體的數據處理系統,旨在減少信息處理過程中的不對稱與不透明。由此可見,狹義的“算法決策公平”概念內含于廣義的“算法公平”之內,著眼于算法決策本身。而“算法公平”的概念內涵中應天然包含算法決策的公平合理的規范內涵[20],兩者相互區別,又存在緊密聯系?!秱€人信息保護法》第24 條中所指涉的自動化決策的“公平、公正”所強調的,是算法運算結果的公平性,故而是一種狹義上的算法公平。

這也是數字平臺承擔保障決策公平性的注意義務?!八惴Q策公平”主要有兩個層面內涵:其一,個體公平,即同等情況同等對待;其二,群體公平,即平臺算法對于用戶的評價需要在群體之間保持均衡,除非存在正當事由。經過筆者的整理,群體公平大致有以下幾種檢測手段:1)有意識的公平(fairness through awareness)[20];2)無意識的公平(fairness through unawareness)⑩;3)解耦?;4)統計均等[19];5)機會均等?;6)誤差率均衡?。這幾種提高算法公平性的手段,皆有與其最相匹配的應用場景,例如,針對群體中極其少數的群體可使用解耦技術;教育提倡教育對象多樣性,可采用統計均等技術實現公平;在商業貸款中,可采用機會均等的技術手段。另外,可采用多重技術手段實現目標,以保障算法結果的公平性,并要求數據處理者說明為確保算法公平所采用的技術方案及其合理性。

2.權利類型豐富與內涵延展——歸因性不利下衍生信息的知情與修改權

算法歧視產生的一個重要原因在于算法對個體畫像進行概率式陳述時產生分析錯誤或者不當?!秱€人信息保護法》第24 條雖然賦予數據主體以自動化決策的拒絕權,但該權利僅僅是提供給數據主體在結果層面的、針對個體而言的、阻卻不合理算法決策影響的權利,難以應對算法分析式決策所引起的連鎖性效應[21]。出現了針對個體的概率式陳述的錯誤,則應當配合個人信息更正權,將個人信息的更正權擴展到分析的個人數據,從而為數據主體提供更加有效的權利救濟途徑。

為防止歸因性不利中不斷往復的決策循環可能使用戶陷入決策式負面螺旋之中,數據處理者應當在某些決策場景中,向用戶揭示某些歸因標簽,即明顯帶有負面、否定評價的標簽類型。一方面,此類標簽信息可能是算法做出對用戶不利評價的直接、關鍵依據,對于此類標簽的揭示,在一定程度上滿足了決策過程透明的要求;另一方面,此類標簽的說明,也有利于及時發現某些因特征剝奪或者誤判引起歸因錯誤而導致的算法不利決策,用戶也可基于此及時行使信息更正的權利。

具體到個人信息更正權的內容,可以從兩方面對更正權內容加以概括。首先,對于數據主體而言,如果算法應用針對數據主體的歧視是由于特征提取錯誤(特征誤判、特征剝奪等),數據主體可以在提供相應初步證據的基礎上,提出修改其衍生數據信息的申請,其表現為用戶標簽的修改與刪除。第二,如若用戶的原始信息存在錯誤,可能導致后續決策出現偏差或失誤的,用戶也可申請修改其原始數據,此即更正權條款的目的性擴張。

3.算法歧視侵權的訴訟救濟——制度建構和舉證責任的分配與承擔

(1)訴訟制度的建構。為了保障算法歧視的有效規制,算法歧視的訴訟救濟制度建構也是必要的。一方面,訴訟案由中需要明確算法歧視侵權,當發生基于群體的算法決策系統性歧視等大規模侵害事件時,可以考慮由代表機構代替個人行使救濟權利。歐盟已經建立起算法歧視侵權的群體救濟制度機制。在歐盟《一般數據保護條例》第80 條中,明確了數據主體有權委托第三方機構提出申訴、行使司法救濟權,以及獲得賠償[22]。在美國第一例依據《加州消費者隱私法案》提起的訴訟案件,即為因數據泄露所引起的Barnes 向美國童裝店Hanna Anderson 和Salesforce 電子商務平臺提起的集體訴訟,該案最終以調解方式結案,Hanna Anderson 同意支付給20 273 名成員共40萬元的賠償金,并采取其他補救措施[23]。根據報道,由于臉書(Facebook)在招聘時優先雇傭持有H1-B 美國工作簽證的工作人員,沒有給予美國公民在雇傭過程中以平等待遇,從而被美國司法部起訴,并獲得法院支持。歐洲議會也擬出臺新法,允許消費者對違反數據保護的行為提起集體訴訟[24]。我國也可賦予個人信息保護部門、網信辦或者人民檢察院代表被歧視群體向司法機關提起訴訟的權利。

需要進一步說明的是,由于算法應用導致的個人信息侵權、進而引起算法決策歧視時,其請求權基礎究竟為何。因算法應用導致的個人信息侵權案件在司法實踐中大致包括隱私泄露、名譽侵權,甚至可能會導致用戶財產損失?。此時可以直接行使個人信息修改或者刪除權利,其請求權基礎在于《個人信息保護法》第46 條。但如若因歸因性不利引起“不公正”決策時,其可能會產生請求權基礎競合,用戶可以根據具體需要選擇合適的請求權基礎。如若用戶只要擺脫算法針對自己的不利決策,則需要借助《個人信息保護法》第24條認定其屬于歸因性不利,且造成對數據主體的歧視,以此行使針對平臺算法自動化決策的反對權;如若用戶意欲修正算法對自己的不當分析或者關聯導致的個人信息錯誤,用戶可以根據《個人信息保護法》第46條行使個人信息更正或刪除權,防止對數據主體持續的不利影響??傊?,用戶可以根據訴訟目的以及舉證的難易程度選擇合適的請求權基礎。

(2)舉證責任的承擔。算法歧視的證明,是反算法歧視制度落地的關鍵,也是《個人信息保護法》第24條可訴化的關鍵。由于數據主體與數據處理者雙方在收集以及處理數據資源能力方面存在較大懸殊,因此原告提供的證據無需達到確實充分或者高度蓋然的程度。數據主體只需要證明自己在受保護的應用場景下受到不利待遇的客觀事實即可。一個成功的關于差別待遇的起訴,必須在受保護場景下存在一個與不利待遇群體相互對照的群體,這些受保護場景包括但不限于就業、社會福利分配、接受商品或者服務、信用評估、健康醫療、教育、司法場景等。例如,在存在“算法支配關系”的前提下,數據主體因使用某種算法而導致獲得就業的機會概率降低,此時數據主體只需要舉證證明與自己相同或相似條件的、并使用同一應用軟件的數據主體被錄用即可。另外,在證明自己受到關聯性歧視的場合,數據主體則需要提供證明自己可能被錯誤歸類的初步證據,例如,自己的用戶標簽存在錯判或者錯判可能等事由。

基于關聯特征的歧視在當前可能面臨操作性較低的問題。一方面,用戶可能并不知曉自己正在遭受算法歧視,另一方面,用戶也難以知曉其基于何種特征關聯而遭受歧視。針對這一問題,建議用戶可以向法院提供相應的信息瀏覽記錄、平臺推送內容等信息,提出引發歧視的某種可能的受保護特征,以此完成提供初步證據的證明責任。另外,數據處理者在數據處理與決策過程中還需要進一步提高透明度,向用戶說明其推測的用戶信息,尤其是可能的敏感信息。一方面,數據處理者可基于此判斷是否可能會產生針對受保護群體的不利決策,另一方面,用戶也可基于此提出反歧視的主張或訴求。受保護特征雖然是誘發歧視的一項重要因素,但有學者認為可以通過在算法分析中保留這種可能引起算法歧視的受保護特征因素,從而提高算法決策的公平性[20],筆者也大致贊同這一觀點。這種受保護特征可以體現為“用戶標簽”,并設計用戶標簽的強制揭示制度,一方面用戶可以基于受保護特征提出反歧視主張,另一方面,如若發現這種受保護信息出現錯誤,用戶也可以基于個人信息更正權,提出對分析信息的更正請求。

(3)數據處理者的抗辯事由。針對數據主體所提出的相關證據,數據處理者可在此基礎上提出抗辯事由。主要抗辯事由如下:1)不存在算法支配關系,即沒有使用或者處理數據主體的個人數據,并在此基礎上影響數據主體的行為。如果能夠證明數字平臺與數據主體之間不存在算法支配關系,則可以直接抗辯數據主體。2)沒有歧視數據主體并造成數據主體的機會損失。對于機會損失的判斷,可采用反事實(counter-factual)方法輔助判斷,即通過調整敏感信息參數的方式進行測試,以判斷涉案決策結果產生變動的概率大小。例如,在就業系統軟件中,可以通過嘗試改變性別參數測試在多大程度上或者有多大概率會改變算法的運算結果。反事實方法目前已被運用于反壟斷的法律審查之中[25],其在檢驗算法決策的公平性程度方面,同樣能夠發揮重要作用。當然,由于該種測試方式存在技術難度,并且成本高昂,可由法院或者仲裁機構聘請中立的技術第三方進行鑒定,費用由算法設計者或者算法使用者承擔。當然,算法結果公平的實現無法回避敏感(或受保護特征)信息的使用,因為某些結果公平的實現技術正是基于受保護特征的分組而實現的,但在數據處理的過程中,如此明目張膽地使用敏感信息,很可能因違反相關規范而造成違法[26]。因此,如果算法設計者以提高算法結果的公平性為目的而使用數據主體的敏感信息,可因此阻卻敏感信息使用的違法性。3)差別待遇符合比例原則的檢驗要求。即從適當性、必要性以及均衡性三個層面證成涉嫌歧視的自動化決策具有合理的理由。

五、結 語

雖然技術層面提出諸多應對算法歧視的嘗試,但算法歧視危機的完全消弭仍需時日。算法歧視的規范治理,不僅需要事前的預防與規制,更需要對其進行事后的違法性認定,從而構成算法治理的規范閉環?,F階段我們針對自動化決策仍應持謹慎態度,尤其要嚴格限制完全自動化決策的應用場合,并強調算法決策中人的作用[27]。為此,受保護場景下的自動化決策算法有必要履行嚴格的登記義務,在正式投入應用之前,需要進一步強化并證成算法自動化決策的合理性與必要性,并說明特定應用場景中的自動化算法采用了何種技術方法與手段以確保決策公平公正。當然,我們也鼓勵采用創新思維與手段應對算法歧視危機,例如,目前有機構提倡采用眾包模式化解科技倫理風險,推特(Twitter)即發布了第一個算法偏見賞金(bias bounty),通過邀請和激勵人工智能倫理領域的研究人員來幫助識別推特圖像剪裁算法的歧視危害與倫理問題。類似這些都是消弭算法歧視危機的有益嘗試。

注 釋:

①也有學者稱之為算法的反身性。參見:Burk D L. Algorithmic legal metrics. Notre Dame L. Rev., 2020, 96: 1147.

②在Coleman 一案中,Coleman 所在工作單位職員都可因照顧孩子而獲得較為靈活的工作時間,但是Coleman 因為其兒子殘疾而最終沒能獲得同公司中其他職員相同的、靈活的工作時間,并且遭到公司解雇。Coleman 起訴到法庭,法庭認為,公司對Coleman 的行為已經構成了直接的關聯性歧視,也即,在關聯性歧視中,被歧視對象,或者獲得不利結果的本人,不需要具有受保護特征,而只需要因同其相關的主體具有敏感信息。Coleman 案件為直接的關聯性歧視提供了標準。

③在某地區的羅馬人經常會受到當地政府的歧視,其中一種歧視形式,即當地政府將羅馬人店面的電表安裝在距離地面較高的高度,此案圍繞著保加利亞的一名店主尼古洛娃展開。她的店面坐落在一個以羅馬人居住為主的地區,尼古洛娃本人也不是羅馬人的后裔,但她同樣認為自己受到歧視,因為她的電表放在離地面6 米的高度,使得她無法監控自己店面的耗電量,而在大多數非羅馬人聚居的地區,其電表的安裝高度則低得多。法院最終也以當地政府成立間接的“關聯性歧視”為由認定成立歧視。CHEZ 案具有這樣一個里程碑式的意義,即雖然索賠人不屬于受保護群體,或者與受保護群體并無密切關聯,其也可以基于相關理由提起反歧視訴訟。

④受保護特征為:年齡、殘疾、性別變更、婚姻或民事伴侶關系(僅限就業)、懷孕和生育、比賽、宗教或信仰、性別、性取向。參見《英國倫敦平等法案》Equality Act 2010, s 10.

⑤參見案例:Johnsonv. Allstate Ins. Co. , 2011 U. S. Dist. LEXIS 65318.

⑥參見案例:Newmanv. Google LLC., Case No. 20-CV-04011-LHK.

⑦參見案例:Carrollv. Nakatani, 342 F. 3d 934 (9th Cir. 2003).

⑧參見案例:Spokeo, Inc.v. Robins, 136 S. Ct. 1540, 1547, 194 L. Ed. 2d 635 (2016).

⑨參見案例:In Bradleyv. T-Mobile US, Inc., 17-CV-07232-BLF, 2020 WL 1233924 (N.D. Cal. Mar. 13, 2020).

⑩這一技術的目標是要實現相同情況相同對待,即具備相同條件的人應當獲得相似的待遇。此種技術手段對“相似情形”進行數學指標量化,在對群體數據進行正確分類的前提下,對隸屬于每一群體之內的數據主體做出相同或者相似的處理決定。參見:Kleinberg J, Ludwig J, Mullainathan S,et al.Algorithmic fairness. AEA Papers and Proceedings, 2018,108: 22-27.

?解耦技術可以針對不同類型和屬性的群體,分別定義不同的參數、設置不同的算法,根據個體的群體隸屬關系對個體進行分類,并對每個群體創建不同的算法,這種方式為不同類型的群體設定不同的計算參數或者參數權重,以實現不同群體的差別對待。參見:Dwork C, Immorlica N, Kalai A T, et al. Decoupled classifiers for group-fair and efficient machine learning.Conference on Fairness, Accountability and Transparency. PMLR, 2018: 119-133.

?機會均等確保本應屬于低風險人群的社會群體應當被評價為低風險狀態的權利。例如,在貸款申請的場景中,都能償還貸款的男性和女性應當擁有相同的幾率獲得貸款,確保真正的低風險人群能夠得到算法公正的評價。換句話說,平等機會要求給與真正屬于積極階層的群體被歸類為積極階層的機會,并確保群體能夠代表所有的社會成員。參見:Besse P, Barrio E D, Gordaliza P, et al. A survey of bias in machine learning through the prism of statistical parity for the adult data set.arXiv:2003.14263,2020.

?這一統計方法涉及兩個重要概念:假陽性(false positive)和假陰性(false negative),前者是指將本來應當受到消極評價的數據主體進行了積極評價,后者是指將本來應當受到算法積極評價的數據主體進行了消極評價。參見:Polyzou A,Kalantzi M, Karypis G. FaiREO: User group fairness for equality of opportunity in course recommendation. arXiv:2109.05931, 2021.

?例如,在“梁某、某實業公司與某科技公司網絡侵權責任糾紛”中,原告梁某是原告某實業公司的法定代表人,其無意中發現,被告某科技公司運營的企業信用信息查詢平臺上,將與梁某無關的失信被執行人信息、限制高消費信息、終本執行案件信息等錯誤關聯至其以及某實業公司名下,并對梁某造成經濟損失。參見:https://www.12377.cn/jsal/2023/c0277510_web.html.

猜你喜歡
決策群體主體
為可持續決策提供依據
論自然人破產法的適用主體
通過自然感染獲得群體免疫有多可怕
決策為什么失誤了
“群體失語”需要警惕——“為官不言”也是腐敗
關于遺產保護主體的思考
論多元主體的生成
關愛特殊群體不畏難
特殊群體要給予特殊的關愛
翻譯“主體間性”的辯證理解
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合