?

環境決策算法化衍生風險及其法律規制

2023-05-30 04:57趙一丁陳亮
中國人口·資源與環境 2023年3期
關鍵詞:法律規制風險

趙一丁 陳亮

關鍵詞 環境決策;算法化;風險;法律規制

AI時代,作為解決特定問題而采取的確定且有限的步驟,算法迅速內嵌生態環境領域,且借助計算機模型對環境大數據進行自動收集與分析,以輔助環境決策,從而提升決策效率。由此,該研究將環境決策與算法深度適應與融合的過程,描述為“環境決策算法化”。然而,大的災難幾乎并列[1]。環境決策算法化惠澤環境保護的同時,亦衍生風險。目前,關于環境決策算法化衍生風險的規制研究,國內外學界尚未有涉及。學界對于算法的規制研究頗多,但多側重宏觀性的探討,場景化的微觀研究鳳毛麟角。技術存在的意義在于應用,脫離應用場景的算法將淪為無生命的代碼符號。因此,以環境決策算法化為特定場景的規制研究,具有深刻的實踐價值與現實意義。該研究以環境決策與算法的互動為切入點,闡明環境決策算法化帶來的雙重效應,探究其衍生風險的根源,從技術與制度層面,分別提出針對性對策,促進算法在環境決策中的健康應用。

1 環境決策算法化的雙重效應

技術上最偉大的勝利與最大的災難幾乎并列,其表象為技術帶來生產力進步的同時,不乏伴隨技術持有者對他人或社會利益的侵蝕。環境決策算法化場景下,此種技術上的“勝利”與“災難”,表現為環境決策算法化的雙重效應。

1. 1 效應之一:提高環境決策效率

根據西蒙(Simon)的決策理論,人類在認知能力有限、信息能力不足的情況下,依靠有限的認知做出有限理性的判斷,不存在最優決策的可能。即,決策者擁有“信息”的多少與處理“信息”程度,決定決策的“質量”與“速度”。

1. 1. 1 提高“數字密集型”范式

范式(Paradigm)一詞,由庫恩[2]提出,指“一個成熟的科學共同體在某段時間內所認可的研究方法、問題領域和解題標準的活水源頭”??梢哉f,范式是一種公認的模型或者模式。環境決策的范式從“經驗”到“理論”,再到依靠定量分析的“計算”,每一種范式的誕生,除范式本身的發展外,往往依托外部環境的推動。

AI時代,算法崛起,催生“數據密集型”決策范式。與傳統范式不同,“數據密集型”范式借助算法,將數據丟進巨大的計算機中去,只要有相互關系的數據,統計分析算法可以發現過去的科學方法發現不了的新模式、新知識,甚至新規律[3]。作為環境決策的新范式,“數據密集型”范式從數據范圍到決策手段,均有顯著變化,促使環境決策產生質的飛躍。一方面,生態環境數據體量擴充。遙感技術(RS)、地理信息系統(GIS)、全球定位系統(GPS)的廣泛應用,為全方位、全過程地收集生態環境數據提供了可能。從數據規模來看,生態環境數據量也已從TB級別躍升到PB級別[ 4]。例如,目前中國林業大數據中心[ 5]數據量已超過1 PB,氣象部門需要永久保存的數據目前約有4 PB~5 PB, 年增量約1 PB [6]。全球地面氣象站監測網絡集成了不同國家不同地區的實時天氣觀測數據,共包含100多種數據來源和35 000個氣象站點[7],其主要獲取參數包括云量、氣壓、風速、風向、溫度、可見度、降水等。收集范圍從“局部”向“全面”轉化,必然帶來充盈的生態環境數據體量。另一方面,生態環境數據的分析更趨客觀。傳統決策范式以人的經驗或直覺確立目標,繼之以定向分析。這種以目標驅動決策,“假設”到“驗證”的過程,極具主觀性?!皵祿芗汀睕Q策范式則不設“假設”或“目標”,而是根據海量大數據,通過計算得到前所未知的信息或規律。算法對環境大數據迅速分類、刪減、整合,實現對數據的客觀分析,有利于環境決策的精確與公正。

1. 1. 2 “算法自主性”提高決策之率

除決策效能提高外,環境決策算法化的另一優勢在于決策速度的提升,這主要得力于算法自主性。大數據時代,算法逐漸脫離了純粹的工具性角色,而有了自主性和認知特征,甚至具備了自我學習的能力[8],逐步代替人類進行決策。然而,具體到生態環境領域,算法所呈現的并非絕對意義上的自主決策,也并非完全是單純的系統性邏輯規則與數學模型,更多體現為通過算法自主性開發與建模,實現輔助決策。比如,算法系統自動收集環境大數據,且自動分類與整理,提取數據特征,衍生多種決策樹,輸出數億條指令,瞬間生成相應的評估或預測,以輔助環境決策??梢哉f,除決策環節仍保留人的價值因素外,其余各環節很多被自動化的機器覆蓋。因此,借助算法的自主性,環境決策的目標定制、方案設計、方案評估等步驟受到壓縮和簡化,傳統人工干預的時間成本減少,環境決策之“率”得以提高。

正面效應的描述,更好地闡釋了環境決策與算法之間的關系。顯然,算法已滲透環境決策的運行,并處于決策的核心。數據場景、方式手段、決策程序等要素的顯著變化,推動“效”與“率”的提高,環境決策的深度與廣度得到極大的延伸。

1. 2 效應之二:增加衍生風險

海德格爾[9]認為,技術是一種解蔽方式,一切解蔽亦即真理的秘密[10]。然而,除揭示真理外,技術的顛覆性創新本身就是一種新的遮蔽,阻礙人類對技術的客觀認識,進而形成新的風險,甚至最高意義上的風險。算法解蔽生態環境,助力環境決策的同時,亦衍生風險,主要有二:一是,算法所固有的技術風險。二是,算法內嵌環境決策過程中,二者碰撞出的具有場景化特征的新風險。為勾勒完整的風險輪廓,謀求整體層面的風險規制,該研究對上述二風險進行統一描述。

1. 2. 1 政府信任危機

根據委托-代理理論,政府信用主要體現為政治代理人履行契約的程度[11]??梢哉f,信用是國家公信力的維持物。AI 時代,算法介入環境決策的同時,政治信任成本增加,少數公職人員以權謀私、懈怠行政有了空間,因此,引發政府信任危機。

(1)環境決策失準。環境數據涉及環境質量數據、污染排放數據、個人活動數據等,且各數據時刻變動,趨勢不一,總計可達幾十億條。環境大數據需要強大的算力予以支撐。然而,現有的算力并無法滿足環境大數據的處理需求。因而相較其他領域,環境大數據失準概率較高,以環境大數據為基礎的環境決策失準率亦極高。為此,政府所付信用成本是極大的。

(2)環境信息造假。亞當·斯密(Adam Smith)認為,個人在一定約束條件下的社會活動中,每個人都是“理性經濟人”,即通過成本收益分析獲取自身利益最大化。毋庸置疑,政府官員個人也是現實經濟關系制約下的,與社會中其他人沒有本質區別的個人[12]。因此,部分政府官員在追求公共利益最大化的同時不乏實現自身利益最大化的行為。不論算法在環境決策應用中何等優質高效,當具有不良的使用目的時,即表現為政府權力墮落。

(3)決策者怠政。算法以大數據為基礎,通過嚴謹的計算模型推理,得到的相關結論無論從形式上還是過程上都表現得更為客觀與精準。長此以往,人類習慣性地將思考交給算法,無條件地信任算法。如此,對算法的過度依賴,可能會降低人類自身學習的能力。環境決策過程中,自身學習能力的降低主要表現為怠政。人類在決策環節形式上的主導無法掩蓋算法成為實質決策者的真相。盡管認識到存在其他選擇的可能,環境決策者仍然更傾向以算法的判斷作為決策的依據。實質上,怠政現象并非來源于對算法技術的完全依賴,以算法為怠政的借口才是根源。

信息經濟學角度分析,環境決策失準是信息不確定性引發的政治信任成本提高。而環境信息造假與環境決策者怠政卻是典型的機會主義行為,盡管在短期內可以獲得部分利益,但長期的環境信息不對等必然造成劣幣驅逐良幣的“檸檬市場”。此時,公眾辨識環境決策的成本過高,往往自動簡化判斷,對環境決策保持一律的懷疑態度,給政府帶來難以逆轉的信用危機。

1. 2. 2 環境非正義加劇

20世紀80年代,環境正義運動(Environmental JusticeMovement)發端于美國,主要目的是實現國家之間、地區之間、人與人之間,環境資源的平等分配,環境風險與環境責任的公平承擔。當下,環境決策算法化給環境正義的實現帶來了新的挑戰,即環境非正義加劇,主要表現為環境信息資源的不平等分配與環境責任的不公平承擔。

(1)專業壁壘倍增,形成看不見的非正義分配。算法與環境決策的互動,衍生雙重壁壘,即算法壁壘與環境數據壁壘。一方面,算法技術的復雜性和精確性推動了算法專業槽的出現[13],而專業槽在設計者之間與公眾之間形成認知壁壘。據華北電力大學、北京信息科技大學、吉林大學、武漢科技大學、江蘇大學在智能環境監測領域研究顯示,從機構性質看,高校占比97%[14]。算法總是蘊含著價值判斷[15],其設計、研發者必然將個人價值取向植入算法,干擾分配正義。另一方面,與其他領域中數據的直觀、易懂不同,環境數據種類繁多,標準不一。例如,世界衛生組織(WHO)的PM2. 5標準為小于10 μg /m?,而中國的標準卻是小于75 μg /m?。此外,環境數據涉及高度的科技背景,抽象且深奧,對其掌握與甄別需要深厚的專業基礎。諸多環境數據對于非專業的民眾來說,無異于“無用信息”。這種無法跨越的雙重專業壁壘,使得環境信息資源的分配看似公平,實則分配不均。

(2)資本導演的“算法偏私”,左右環境信息資源的分配。公權力與技術背后的資本結合,產生了輔助環境決策的算法系統。然而,資本卻悄然成為決策的核心。相比政府,掌握算法的設計、開發者及其背后的資本更易獲得最新的環境數據。例如,智能手機通過應用程序實時測定細微粉塵,監測大氣污染。應用程序背后的私營公司最先掌握環境數據,便于將有利于自身利益的環境數據報告給環境行政機構,左右環境資源的分配,侵害公眾環境權益,加劇環境非正義。

(3)預警性算法的應用,可能引發環境責任不公平承擔。與其他領域相比,預警性算法在環境治理中的應用更為廣泛。例如,地震災害預警系統、飲水安全監測預警系統、雨量監測預警系統等。除此之外,預警性算法還可以識別最有可能違反環境法治的企業。但是,只有原始的環境數據統計準確,預警性算法才能正確無誤,如果原始的環境數據統計不準確,預警性算法將對企業造成極其不公的后果。它們會成為無辜的“污染嫌疑人”,這顯然有違公平原則[16]。

1. 2. 3 環境保護公眾參與權懸置

公眾參與制度首要價值目標在促進環境保護決策的科學化、民主化,為民主理論在環境管理活動中得以延伸提供制度保障[17]。不可否認,從實踐層面考察,中國環境保護的公眾參與取得了一定成效。但仍存在公眾參與形式有限、公眾參與程度不足等一系列公眾參與權落實不力的問題。AI時代,算法強勢介入環境決策使得落實不力的環境保護公眾參與權直接過渡至懸置狀態。

(1)公眾參與程度低。知情權是公眾參與的前提[18],直接影響公眾參與的程度。環境決策算法化語境下,環境知情權難以落實,主要表現有二:一是,公眾“不想知”。生態環境內涵繁雜,變化速度不一。如,土壤變化極慢,需要幾年甚至幾十年,方能發現。持續性的關注,公眾極易陷入“關注疲累”。大氣環境則瞬息萬變。未待公眾參與,部分信息已過時無效?!熬徛迸c“瞬時”的特性使公眾極易陷入“不想知”的窘境。二是,公眾“不能知”。借助強大的算力,算法運行具有瞬時性。公眾尚不知發生了什么,輔助性的評估或預測已被算法系統瞬間生成。幾乎無法參與的公眾,從“不想知”淪為“不能知”。此外,陳述與申辯程序日益萎縮。自主算法縮減了環境決策程序,雖高效快捷,但聽證環節的缺失,使得公眾從“主體”主動參與決策退化為“客體”被動接受決策。某些程序要素對于一個法律過程來說是最基本的、不可缺少、不可放棄的[19],公眾陳述與申辯權利的萎縮,致使環境公眾參與程度低下。

(2)環境侵權救濟效率低。為防止權力濫用,法律賦予公民環境侵權救濟的權利,即受害人在其環境權益受到侵害時,通過司法和行政途徑實現排除妨害,獲得損害賠償的一種救濟活動。然而,作為公眾參與最后的保障,環境侵權救濟面臨“架空”的風險。政府及相關環保部門過度依賴算法,使得環境決策責任涉及算法設計者、算法適用者、行政決策者,甚至算法自身。追責過程中,法律制度意義上的行為——責任邏輯被切斷,法律因果關系面臨重構的危機。過錯責任人難以定位的情況下,算法設計者、行政決策者極有可能以技術自主錯誤為借口,排斥程序正當的合理訴求,以逃避責任。

與危機不同,風險難以感知。只有達到一定閾值時,風險方轉為危機。環境危機一旦出現,將導致嚴重的財產、健康損失,且多不可逆。因此,環境決策算法化的衍生風險,不容忽視。

2 環境決策算法化衍生風險的內在邏輯

環境決策算法化的正面效應,源自人類對生產力提升的不懈追求。而負面效應(即衍生風險),有其內在邏輯。風險源為何?這個問題的探析,有利于我們提出正確的應對之策。

2. 1 環境決策公開性與算法不透明性的對立

“公開為原則,不公開為例外”,環境決策具有應然的公開性。一方面,環境決策的公開是環境知情權保障的需要。公民有權獲取、知悉與自身環境權益密切相關的環境信息[20],如相關的法律法規、環境決策等。世界八大公害事件后,公眾的環境保護意識進一步提升。域外各國和地區陸續以立法的形式確立了行政機關關于環境信息公開的義務,以保障公民的知情權。其中,具有代表性的是美國的《信息自由法》和歐盟的《奧胡斯公約》。另一方面,環境決策的公開是“陽光政府”的需要。國家權力天然具有膨脹和墮落的傾向。布蘭代斯[21]認為“陽光是最好的消毒劑”??貦噙壿嬛敢?,為保障公民權利,增加國家機關的可問責性,必須將國家權力置于陽光之下,接受公眾的監督。作為環境信息公開不可忽視的內容,環境決策的公開不僅是公眾參與環境治理的前提性權利,也是環境決策合法性的保障。

與環境決策的公開屬性相反,不透明是算法的常態,即算法的“黑箱”屬性。從不同角度看,算法“黑箱”具有不同的表現形式。其一,技術缺陷下的“黑箱”。人工智能輸入的數據和其輸出的答案之間,存在著我們無法洞悉的“隱層”[22]??梢哉f,無論輸入數據與輸出結果何等透明,算法在二者之間是如何運作的,無人知曉。其二,符號代碼的“黑箱”。從算法的運行流程來說,整個過程涉及龐大的數據材料和繁復的計算方法,并以計算機代碼的形式呈現[23]。如,很多代碼是用Python計算機編程語言所編寫,并非能夠被公眾所理解的自然語言。公眾一般不具備理解代碼與認知算法的專業素養。這種知識盲區在算法與公眾之間形成一種隔離,也就是所謂的符號代碼的“黑箱”。即便代碼公開,對于公眾不過是“無效信息”。其三,作為保密信息的“黑箱”。為保護技術持有者的經濟權利與政府治理的效率,法律賦予技術企業與政府對特定代碼不予公開的權利。實質上,是個人利益與公共利益之間的衡平。

無論何種形式的“黑箱”,均遮蔽了算法的運作,人們無法了解環境決策各環節的運作方式,也就無法對其提出質疑或者抗議??梢哉f,“黑箱”成為逃避“公開”的保護傘。算法不透明性對環境決策公開性的不斷蠶食,加劇了二者的內在張力,環境決策算法化的衍生風險成為必然。

2. 2 環境決策風險性與算法自主性并存

較之其他行政決策,環境決策具有鮮明的“風險性格”。一方面,環境問題帶有濃厚的科技背景。環境問題在因果關系的認定上亦格外困難,時常牽涉到科學上的極限,無法立即給予一個肯定的答案,以作為認定責任或采取相對措施的依據[24]。此外,幾乎所有的環境論題都是從具體的科學研究中產生出來的[25],如土壤污染、全球氣候變暖等。這種濃厚的科技背景,使得環境決策不得不涉及科技水準的考量。囿于人類的“有限認知”與科學的不確定因素,依據概率估算的環境決策,只是一個風險決策,其日后被證明是錯誤或偏差的可能性極高。另一方面,環境問題的跨期性,決定了環境決策的高風險。環境問題對人類的影響多有時滯性,需經年累月方可察覺。例如,尚未探尋臭氧層之前,人類根本不知道氟氯化碳(CFC)是導致臭氧層消耗的始作俑者??諝庵卸趸嫉臐舛仍黾?,短期內不會引起即時效應,但若長期如此,則會產生溫室效應。這種慢性的過程,直接導致人類無法確定環境負效應會何時顯現,環境決策不得不決策未知。

AI時代,算法在諸多領域的角色已從“輔助工具”向“決策主體”轉化。但就環境決策領域而言,算法尚任“輔助角色”,決策主體仍為人,決策環節所嵌入的仍是人的價值因素。盡管如此,目標制定、信息調查、方案評估等環節,算法依舊具備自主實現特定計算的功能。也就是說,決策的前置環節均由算法主導。囿于認知的狹隘,決策者對于算法自主行為的對錯,難以甄別。最終,來自算法的數據結果或評估結論直接左右“人的決策”。這種環境決策者與算法之間看似利用與被利用的關系,實則早已被算法自主性顛覆,決策權柄隱性轉移。這意味著,算法自身的不確定性風險被引入環境決策。從內部角度看,算法于前端環節的自主計算過程無法被人工干預,處于計算自由的算法擁有恣意計算的權力。從外部角度看,如上文所述,算法自主性縮減了決策步驟,行政正當程序亦被省略,算法自主行為幾乎無外部約束。此外,決策權柄的隱性轉移必然引發傳統法律規則的失靈,即招致“誰的過錯,誰來負責”的詰問。

“自主性”的嵌入,成為“決策革命”的轉折性標志,推動環境決策效能的升級。然而,正如帕加羅[26]所言,機器人的行為在其他領域似乎也是風險源和潛在威脅。環境決策風險性與算法自主性的疊加,引發“擴大效應”,增加了環境決策的不確定,使得上述詰問成為無解的方程。

2. 3 環境決策社會性與算法資本性的矛盾

作為人類生存的根基,環境是典型公共資源(Com?mon Resource),具有濃厚的社會屬性。環境是不可分割的統一整體,A地環境的變化可能會影響B地的環境,當代環境的變化可能影響未來的環境。因此,環境污染的主體與承受環境污染行為后果的主體常不一致。以萊茵河污染事件為例,瑞士的桑多斯公司倉庫起火,引發鋼罐爆炸,大量的硫、磷、汞等毒物排入萊茵河,其污染范圍并不限于萊茵河,甚至破壞了大西洋的生態環境體系。表面看似“無關”的環境事故中,公眾卻扮演著“絕對弱勢群體”的角色,不得不為污染者的行為“買單”。這種環境污染的負外部性行為,系屬典型的“公地悲劇”。實際上,“公地悲劇”的根源之一在于“公地”對每一個人而言是沒有價值的,不必去為獲取付費[27]。越來越多的經濟主體,在從事經濟活動時,為追求利益最大化,將環境污染或損害成本向社會轉移,公眾成為環境問題的最終承受者。因此,環境決策必須考慮他人利益,將社會公共利益的保障作為衡量決策良莠的重要標準,而非單維度的經濟利益。

AI時代,科技烏托邦(Technological Utopianism)理念再次興起。相信科學技術必定可以實現物質豐裕、秩序合理、自由正義與社會和諧的人類夢想[28]。但事實是,某些老練的法人實體可能正在利用這些算法為自己謀利[29]。多數算法雖由專業人員設計,但其研發、生產、經營所需的經費皆由大型資本企業承擔??梢哉f,大型資本企業作為算法技術的控制者,天然具有資本理性。馬克思認為,“資本來到世間,從頭到腳,每個毛孔都滴著血和骯臟的東西”;“當利潤達到10%的時候,他們將蠢蠢欲動;當利潤達到50%的時候,他們將鋌而走險;當利潤達到100%的時候,他們敢于踐踏人間的一切法律;當利潤達到300%的時候,他們敢于冒絞刑的危險”[30]。由此,算法必然披著“技術中立”的外衣,隱匿自身的單向逐利性,謀求資本利益最大化。

20世紀是全球規模環境破壞的世紀[31],經濟的發展慣以環境的破壞為代價。環境決策社會性與算法資本性不乏沖突,其實質是社會公共利益與個人利益的矛盾。環境決策算法化語境下,算法將資本利益訴求植入環境決策各環節,左右決策的方向與結果。顯然,算法資本屬性的擴張,勢必侵蝕環境決策的社會屬性,公眾環境權益遭到無情的碾壓。社會公共利益與個人利益的失衡,極易產生“強者愈強,弱者愈弱”的“馬太效應”(Matthew Ef?fect),衍生不可預知的風險。

綜上分析,可以從宏觀層面將環境決策算法化的衍生風險認作是環境決策與算法互動過程中負效應的一種釋放。然而,細化到具體的風險,實則是環境決策與算法本質屬性的矛盾。

3 環境決策算法化衍生風險的法律規制

透過上述邏輯分析,規制環境決策算法化衍生風險的關鍵在于調和環境決策與算法本質屬性的矛盾。環境治理的目的決定了環境決策的部分固有價值,不可因算法的應用而放棄。因此,根據內在邏輯的分析,提出針對性的規制路徑,對環境決策與算法本質屬性進行適當的“揚抑”,調和二者之間的矛盾,促進算法在環境決策的健康互動。

3. 1 環境決策算法化的公開與透明

破解“黑箱”是規制環境決策算法化衍生風險的有效手段之一。但是,環境決策涉及國家秘密、商業秘密、個人隱私等合法權益。因此,對于環境決策公開性的扶助,不可絕對。在“ 公開”與“ 不公開”之間,應把握適當的“度”。

3. 1. 1 設立統一的公開原則

中國環境信息公開制度一直踐行“公開為常態,不公開為例外”的原則,而且劃定了國家秘密、商業秘密、個人隱私公開紅線。即便如此,掌握算法的行政機構與大型資本企業仍存在以國家秘密、商業秘密為由,拒絕公開算法的可能性。這種“一刀切”,嚴重干擾了的風險會將“公開為常態,不公開為例外”的原則。

環境信息公開原則下,算法決策的同時,其自身及運行的相關信息勢必面臨“公開”與“保護”的取舍,本質上,實屬利益的衡量。同一算法系統可應用于多個生態環境系統,一旦算法有誤可能影響到整個環境領域的決策,產生多米諾骨牌效應(Domino Effect)。這種彌散化的損害效應直接威脅人類的生命健康安全。國家秘密、商業秘密、個人隱私保護的是經濟利益時,較之生命健康利益,其價值位階,顯然更低。

環境信息的公開不僅是正當程序的需求,而且事關公眾的生命健康。為此,在保護國家秘密、商業秘密、個人隱私的基礎上,我們要進一步提出社會公共利益優先公開的原則。例如,與公眾生命健康具有利害關系的環境決策均應對其應用算法及決策過程予以公開。

3. 1. 2 創設算法可解釋權

算法自主性衍生的決策風險,在于算法可解釋性的問題?;诠箔h境知情權,如果政府不能解釋其行政決策或行為,就不該使用算法,公民有知曉決策理由的權利。然而,礙于技術壁壘,即使公布深度學習的所有代碼,公眾也無法得知算法如何以及為何得出相應的結果。為此,該研究主張采取“反設事實解釋”,賦予公眾算法可解釋權,即不是要求公開技術源代碼,而是要求公開算法自主行為的要素及權重。

3. 1. 3 擴充公開的內容

雖說,追責制度能夠倒逼環境決策部門內部職能的厘清與整合,提高決策效率并使算法設計者或開發者對算法的設計與應用更加審慎。但是,建立追責制度的前提是提高透明度。因此,除上述算法技術透明度的提升外,決策內容透明度的提高亦不可忽視。

(1)環境決策類型化與場景化的公開。輔助算法與自主算法交叉應用在不同場景的不同環境決策環節,公眾無法辨析哪些場景的哪些決策環節是由政府主導,算法輔助;哪些場景的哪些決策環節是由算法自主。拘泥于特定算法類型的分類分級不敷適用[32],法律追責鏈條折斷被無形。為此,有必要立足特定場景,將環境決策分為輔助行為與自主行為,且明示公眾。這種矛盾特殊性的顯性梳理,有助于增強環境決策的針對性,定點環境責任主體,分化風險。正如如果不研究矛盾的特殊性,就無從確定一事物不同于他事物特殊的本質,無從區分科學研究的領域[33]。

(2)設立環境公示制度。環境執行是環境決策的落實,更是環境決策的保障,其透明度直接影響決策執行力。為實施“陽光”執行,增強執行透明度,暢通救濟渠道,有必要針對環境執行的相關信息進行公示。例如,環境決策中,凡有時限要求的,應在時限屆滿前公布執行結果;重點決策的執行應實時公布執行進展,將風險扼殺在執行之中。順延至環境決策的監督,公示亦不可或缺。針對公眾的舉報、投訴,相關部門應公開回復,且禁止概括性回復,需具備說明性的理由。

3. 2 環境決策算法化的重監管與嚴問責

對于人工智能的規制,歐盟《人工智能白皮書》提倡“重監管”,對技術的設計開發以及應用流程均有嚴苛的要求。與歐盟不同,美國《人工智能應用監管指南》更側重于“輕監管”,彈性規定較多,為人工智能應用設置提供了更寬泛的生存空間。環境損害不可逆,算法風險尚不可估算。因此,針對環境決策的風險性與算法的自主性,該研究采取一并削弱的態度,適用“重監管,嚴問責”的理念。

3. 2. 1 重監管

“算法為王”的環境治理,政府對于智能算法的依賴,無以復加。加之,環境一旦受損,難以復初。鑒于此,監管制度的構筑應從“重”。

(1)算法的“重監管”。第一,設立算法許可機制。算法設計、開發者應向有關部門提出申請,經審查批準,下發許可證后,方可設計、開發有關生態環境的應用算法。將監管移至“孕期”,從源頭削弱技術風險。第二,構建算法審計監督制度。設立數據保護官(DPO),專門監控企業內部算法的運行,其審計監督的內容包括但不限于算法運行的合法性、歧視性、效率性。苗頭性、典型性環境問題的相關決策,其所應用的算法系統應予以重點關注,確保2年一次輪審。此外,數據保護官(DPO)必須每半年向行政審計機關提交一次審計報告。

(2)環境決策的“重監管”。第一,環境決策備案制度。經審議的環境決策將其適用算法的名稱、研發者、開發者、應用領域、算法類型、算法自評估報告、決策者、特定環境示意圖、各方案可行性分析報告等相關信息作為備案內容。算法透明最激進的主張,莫過于公開源代碼[34],而該研究未將源代碼的公開納入備案內容。出于審慎,環境備案旨在監管機構對環境決策的風險性認知,非技術性探知。因此,將算法數據組、算法模型性能、算法設置邏輯等涉及商業秘密、專利權的內容排除在外[35]。第二,加重執行監管力度。首先,構建環境決策目標責任制度。通過簽訂責任書的方式,明確主要責任者與責任范圍,規避多頭執行衍生的責任推諉,具體落實環境決策。其次,設立定期定量考核制度。上級機構定期定量考核執行機構對環境決策的落實,以免環境決策淪為空中樓閣。最后,構筑限期執行制度。對于執行不力的環境決策,采取限定執行時間、執行內容及執行效果的強制性行政措施。第三,監察監管者?!氨O管俘虜論”認為,監管者自身也是一個有著獨立利益的理性經濟體,在監管的過程中,監管者可能會被收買或屈服于利益集團的政治壓力,最終導致監管效果偏離公共利益最大化目標[36]。為及時糾偏,提高環境決策效能,應強化政治監督,加強紀委的日常監督、派駐監督、巡視巡察等。

3. 2. 2 嚴問責

行政視域下,環境決策、執行、監管等任何一個環節,皆有可能衍生環境決策算法化風險,其人為因素居多。然而,環境問題,一旦失足,覆水難收。鑒于此,責任機制的構建應從“嚴”。

(1)問責主體的明確。如上文所述,環境決策運行中,決策環節的前置步驟均由算法自主計算、推理、判斷。從這個意義上看,傳統決策者中人的主體性被削弱。不僅如此,由于“人的決策”以前置環節中算法的自主計算、推理、判斷為依據,決策權柄早已實際轉移至算法手中。這種隱性的決策主體更換,讓我們疑惑是否應該將算法視作法律責任主體,承擔決策責任。然而,現行法律并沒有賦予算法自主系統法律主體地位,其法律性質的界定仍在工具范疇,并不具備法律責任的承擔能力。因此,算法的設計者、開發者都應當對算法決策造成的環境損害后果承擔責任。

(2)采用嚴格責任原則。法律因果關系的認定是一個可能性的推斷過程。算法可解釋權的設立成為“行為—責任”法律邏輯鏈條的重要連接點,提高了因果推斷的準確率。并非所有的算法都可以作出可理解性的解釋,無法判定因果的情況居多。相關責任主體常以“算法過錯”為借口,推脫責任。因此,有必要扯下技術的“外衣”,以社會公共利益為圭表,不過分追求因果推斷的無暇,適用無過錯責任原則。簡而言之,算法設計者、開發者、環境決策者,均對負向后果承擔法律責任。為防止“規制俘獲”,環境決策的執行、監管行政機構適用過錯原則,在執行或監管不力時承擔相應的法律責任,且從重處罰。

3. 3 環境決策算法化的公眾全面參與

權力本身具有天然的擴張性、腐蝕性并極易控制和異化,沒有約束的權力必然任性[37],必須對其進行有效的監督。作為外部監督方式之一,公眾參與是限縮權力的有效路徑。賦權公眾,全面參與環境決策算法化的運行,削弱算法的自主性與資本性,預防規制俘獲,保障公眾環境權益。

3. 3. 1 公眾全面參與的算法

算法的“誕生”,往往攜帶“算法歧視”“算法偏好”等固有技術弊端。算法治理實踐中,一定程度的公眾參與被視為構成有效治理的核心要素。顯然,環境決策算法化衍生風險的規制,不僅需從源頭著手,還應著重在算法“誕生”過程中公眾的全面參與。如此,設置算法影響評估機制,即對自動化決策系統的應用流程、數據使用和系統設計等內容進行系統評判,明確該系統的影響水平和風險等級,不失為一個好的選擇。

生態環境領域,相關算法的應用,直接關系到公眾的環境權益。為確保算法的健康誕生,該研究主張公眾代表直接參與算法影響評估。首先,演示環節。算法設計者需向算法專家、環境專家、環境決策者、公眾代表演示算法系統的應用及相關功能性介紹。其次,評估環節。算法專家、環境專家、環境決策者對應用算法的公正性、可問責性、透明性進行分析、評估,包括算法可代替方案分析、可能受到重大影響的環境領域的詳細說明、算法系統作用于特定生態環境的功能性解說等。礙于技術壁壘,公眾代表雖不評估,但可通過提出問題,表明訴求等方式參與評估。最后,反饋環節。算法影響評估制度中,雖不強求公布評估文件和流程信息,但須公布評估結果的核心概要。公眾或公眾代表對評估結果提出質疑或建議時,評估機構須在法定期限內作出回應。如此,公眾以全周期視角進行參與,確保評估的每一階段、步驟、環節都有良好的風險信息交流。公眾的全程監督有助于算法設計者周密的謹慎的設計算法,降低算法設計者和開發者后期不斷將設計復雜化、黑箱化的概率,提高算法系統的源安全性。

3. 3. 2 陳述與申辯程序的落實

環境決策過程中,算法自主計算、推理、判斷等行為,致使陳述與申辯程序約減。由此,應有目的、有步驟地落實陳述與申辯程序。其一,將“事前告知”作為算法決策生效的前提。在傳統告知內容的基礎上,還應包括:①決策的方式:算法輔助決策或算法自主決策。②具有提出算法可解釋權的權利。③具有選擇人工決策的權利。當事人若未收到相應的權利告知,應視為算法決策無效。其二,完善陳述與申辯程序。部分環境事件取證難、搜集慢、內容復雜,應延長當事人陳述與申辯的期限。此外,賦予當事人選擇人工決策的權利。無法進行人工決策的,應當向當事人說明影響決策的重要因素,以便當事人有針對性地申辯。例如,關于企業超標排污的行政處罰,通過企業的陳述與申辯,行政機關無充分證據證明算法自主行為具有正當性時,企業有權申請延緩或撤銷該行政處罰,以減輕算法自主性對企業的不良影響。

3. 3. 3 電子監督平臺

“互聯網+信息化”是環境決策與決策的執行及時正畸的有效手段。電子監督平臺實行動態管理,按照算法類型與環境場景,及時更新環境決策及其執行狀況,公開接受公眾的質疑與反饋,須在限定時間內回復公眾。此外,建立電子監督檔案,對決策重大失誤、執行不力、監管不善的主要責任人制作個人檔案。

4 結 語

AI時代,算法以彌散性的方式內嵌環境決策各環節,其實質是制度與技術的深度互動。由于本質屬性的不同,二者在融合過程中,勢必滋生矛盾,衍生難以確定的風險。但風險的存在并不意味著對算法賦能環境決策的否決。相反,接受環境決策算法化,同時對其衍生風險進行法律規制。法律制度雖貴在穩中求進,但面臨算法技術引發的決策革命,應秉持預防原則,未雨綢繆,而非按圖索驥??梢哉f,從法律規制角度討論環境決策算法化的衍生風險,本質上,是一種將風險局限于法律框架之內的努力。單維度的算法風險分析固然有意義,但這種以領域為界限的研究進路極易忽略算法內嵌環境決策的場景化風險,割裂了制度與技術的互動。為此,本研究立足生態環境與AI的交叉領域探討,力求勾勒完整的風險輪廓。與此同時,將風險內在邏輯的探尋聚焦于環境決策與算法本質屬性的碰撞,通過剖析二者對立、疊加、互斥的關系,提出場景化的規制路徑。實際上,規制路徑的構建,無非是對環境決策與算法背后利益的適度取舍,以便在二者本質屬性之中選擇性地“幫扶”與“壓制”,其最終目的是調和二者本質屬性的矛盾,促進算法在環境決策領域的健康運行。

猜你喜歡
法律規制風險
共享經濟環境下空間共享的定性及法律規制
探析網絡預約車類共享經濟平臺的法律保護
商業預付卡經營行為的法律規制
我國網絡經濟中不正當競爭行為的法律規制
我國著作權集體管理組織壟斷行為的法律規制
論企業社會責任的法律規制
我國P2P網絡借貸的風險和監管問題研究
淺析應收賬款的產生原因和對策
中國經濟轉型的結構性特征、風險與效率提升路徑
互聯網金融的風險分析與管理
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合