?

人工智能投顧的算法風險及其法律規制

2024-01-26 07:03
江漢學術 2024年1期
關鍵詞:人工智能金融法律

劉 輝

(湖南大學法學院,長沙 410082)

我們正生活在一個被算法和大數據包圍的時代。通過算法來處理大數據,并由它輔助人類決策,甚至索性由它獨立進行客戶畫像和數據采集等深度學習進而代替人類決策的人工智能,似乎已經成為我們這個時代最為顯著的標簽之一。人工智能在克服人類情感控制、風險偏好、行為理性等方面的弱點,幫助人類提高行為效率的同時,亦帶來科技倫理、風險生成與法律價值等方面的全新挑戰?;诖髷祿鹑谒惴ǖ娜斯ぶ悄芡额櫴?1 世紀最重要的金融創新,它融合了金融科技和互聯網的雙重優勢,給傳統投顧模式帶來一場深刻的“大數據革命”。無疑,科技倫理必須接受法律的規制,以算法為核心的人工智能投顧作為一種典型的科技倫理,必須在法治的框架下規范發展。

一、人工智能投顧的算法邏輯及其主要優勢

人工智能投顧是一種基于大數據金融算法技術的投資顧問,在世界各國的業務模式和具體實踐并不相同。在美國,人工智能投顧分為“數字化投顧”(digital investment advice)和“機器人投顧”(automated investment tools)兩種類型;在澳大利亞,人工智能投顧被稱為“數字化投顧”;在加拿大,通常以“在線投顧”來描述與人工智能投顧相類似的投資顧問業務。目前,我國法律法規對人工智能投顧尚未作出明確的界定,中國證監會在2016 年8 月給投資者的風險提示中將人工智能投顧定義為“一種網絡虛擬人工智能產品,它基于投資者自身的理財需求、資產狀況、風險承受能力、風險偏好等因素,運用現代投資組合理論,通過算法搭建數據模型,利用人工智能技術和網絡平臺提供理財顧問服務”[1]??傮w而言,從世界范圍來看,人工智能投顧主要有兩種不同的形態:一種是“弱人工智能投顧”,即金融機構(尤其是證券機構)的從業人員為客戶提供投資咨詢分析時輔助使用的基于算法技術的數字化投顧工具;另一種是“強人工智能投顧”,即作為投資顧問存在的“機器人投顧”,它基于客戶自身的投資理財需求,通過算法和產品來完成以往人工提供的理財顧問服務[2]。

無論哪一種類型,算法都是人工智能投顧的底層技術和核心邏輯,它是“一種有限、確定、有效的并適合用計算機程序來實現的解決問題的方法”[3]。正是基于算法來對金融消費者的各種個人金融信息進行數據化處理,并對投資決策形成決定性的影響,人工智能投顧才得以真正產生。人工智能投顧算法,是指利用計算機程序來控制金融決策和金融交易的人工智能運算方法,它是對一系列程序化運算或者自動運算方法的統稱。當金融大數據與算法兩相結合,傳統金融業務的改造升級便迎來了理想的科技基礎?;谒惴寗拥娜斯ぶ悄芡额櫹噍^于傳統人工投顧,具有以下典型優勢。

一是個性化投顧。根據中國證券登記結算有限公司披露的數據,截至2020 年6 月,A 股市場散戶數量高達1.67 億,而取得投資顧問資格從業人數約為5.76 萬人[4],這就意味著,即使不考慮機構投資者,平均每一位投資顧問大約需要同時服務2899 位投資者。這樣的現狀很難實現一對一的“個人化投顧”。人工智能投顧通過“客戶畫像”就能夠迅速采集并分析客戶的社會屬性、生活習慣、行為特征等信息,通過算法處理,抽象出客戶的商業全貌并進而分析出客戶的風險偏好,提供個性化投顧服務。

二是風險分散。在投資理財領域,金融風險的分散主要可以從時間和空間兩大維度著手。從時間維度化解風險的主要形式就是改變短期投資周期,以長期投資為主;從空間維度化解風險的主要做法是優化投資組合。作為人工智能投顧底層核心技術的算法,能夠充分利用各種金融模型和假設,譬如現代資產組合理論、行為金融學理論、道氏理論等,根據客戶的風險類型和偏好,自動優化投資組合和投資周期,達到分散風險之目的。

三是智能調倉。資產配置組合的平衡與再平衡是投資盈利的關鍵因素之一。資產配置組合結構并不是一成不變的,根據宏觀經濟因素和市場環境的變化以及投資者自身風險承受能力的調整,投資顧問必須對投資者的資產組合進行相應的調整。在傳統人工投顧模式下,投資顧問從采集和分析各方面信息、閱讀各類研報到作出投資組合調整,具有一定的時滯性,而人工智能投顧憑借其算法優勢,能夠迅速、精準地實現投資組合的自動再平衡,即所謂的智能調倉,優化投資收益,保護投資者利益。

四是降低投資門檻和費率。跟傳統人工投顧相比,人工智能投顧的運行只需要較少的人工干預,甚至完全不需要人工干預,這就大量節省了人工成本。它可以提供較低的投資門檻,收取較低的投資費率,甚至零費率。目前,美國的人工智能投顧平臺的投資者門檻大約為0—5000美元,遠低于傳統金融機構動輒百萬美元的投資門檻,投資費率甚至降低為零(見表1)。而在中國,早在2015 年,嘉信理財就推出了零費率的智能投資組合管理系統。我國大型商業銀行推出的智能投顧產品的投資門檻已經降到了2000—20000 元左右,可以滿足大部分普通投資者的理財需求。

表1 美國部分人工智能投顧平臺投資門檻與費率

二、人工智能投顧的算法風險

人工智能投顧在優化和重構傳統投資顧問行業的商業模式、驅動科技金融產品和業務創新的同時,亦對傳統金融治理法律和治理模式提出嚴峻的挑戰。這其中,最為核心的挑戰便是基于算法的運用,而引發的有關法律責任主體識別的爭議以及傳統人工投顧法律體系下信義義務規制范式的失靈。具體而言,主體識別難題、算法歧視風險、算法加密技術的內生風險以及算法非理性決策是人工智能投顧算法風險的突出表現。

(一)主體識別難題

算法主要通過算法設計和算法部署應用兩個步驟層次對社會和個人產生影響[5]。在人工智能投顧發展的早期階段,由于算法技術的限制,人工智能投顧實際上只是傳統人工投顧的一種輔助工具,在證券投資領域,被稱為輔助性的“薦股軟件”。但隨著算法技術的迅速崛起,在美國已經出現“強人工智能投顧”,它可以根據“客戶畫像”等采集的基本信息自動而獨立地實施投顧活動。中國目前的人工智能投顧也可以分為全智能投顧模式、內智能投顧模式和半智能投顧模式三種類型(見表2):全智能投顧模式類似于美國的Betterment、Wealthfront,是一種以用戶投資規劃為中心,而不是以產品銷售為中心的智能投顧模式;內智能投顧模式只能通過在平臺內嵌智能投顧引擎的方式來實現智投功能,以產品銷售為中心;半智能投顧模式是以新產品或新業務而非新平臺的方式來進行運作,也不具有全智能投顧模式下的以客戶為中心的屬性[6]。

表2 我國人工智能投顧三大模式及主要運營平臺

正如2020 年7 月,歐洲議會法律事務委員會在《人工智能與民事責任》的研究報告中聲明的那樣,“不能完全否定賦予人工智能法律人格的可能性”,但對人工智能是否需要授予法律人格,需要具備一些“合理條件”[7]??傊?,受益于大數據金融算法的智能驅動,人工智能投顧法律規制首先面臨主體識別難題,特別是對于“強人工智能投顧”,法律是否需要賦予它法律人格并獨立承擔法律責任。并且,就算不承認人工智能投顧具有獨立的法律人格,在人工智能投顧(算法)侵權的場域下,相關的法律責任在算法研發者、算法運營者等主體之間應當如何分配,這也是人工智能算法風險法律規制必須正面回答的問題。

(二)算法歧視風險

人工智能投顧在分散風險、降低市場準入門檻等方面的優勢,使它成為現代金融的重要發展趨勢。然而,并不是所有的人工智能投顧都會如人所愿般勤勉、善意地實施智能投顧服務,作為其技術核心的算法本身只是一套冰冷的計算規則,隱藏其后的,實際上是算法研發者的一套價值理念。如果算法的研發者在算法研發過程中融入了帶有歧視性的算法規則,這樣的人工智能投顧自然面臨算法歧視風險。算法歧視的典型表現包括:投資者準入歧視、產品推薦與運營歧視、價格歧視等。

在投資者準入方面,為了維持特定的優質客戶群體,算法研發者可能設置歧視性的準入變量,甚至可能包含違反憲法基本權利保護要求的諸如民族、種族、宗教信仰、性別等方面的條件限制;在產品推薦方面,算法研發者可能設置對其利潤最大化更為有利的投資產品,在經過算法處理后,投資者收到的可能總是同類帶有歧視性的投顧建議,從而被動陷入一種“信息繭房”效應[8];在產品運營過程中,盡管人工智能投顧具有智能調倉的優勢,但它也可經歧視性的算法設計發生異化,即其根本目的變為智能投顧主體的利益最大化而不是投資者利益最大化;在價格歧視方面,歧視性的算法可能使投資者陷入“大數據殺熟”的困境,對老客戶收取更高的投顧費用,而對新客戶收取更低的投顧費用??傊?,“片面數據性歧視”“延伸性的社會結構性歧視”“統計性歧視”“主觀性歧視”“效率性歧視”等,都是人工智能投顧固化金融歧視和金融排斥的重要原因[9]。

(三)算法加密技術的內生風險

技術安全是數據安全的基線[10]。加密,是一種限制網絡上傳輸數據訪問權的信息技術。為了確保人工智能投顧大數據的安全,算法的研發者一般會通過算法加密技術來對傳輸數據進行訪問權控制。然而,算法加密技術本身并非完美無缺,其內生風險可能成為客戶隱私泄露的導火索。目前,國內最為前沿的人工智能投顧大數據加密算法技術包括聯邦學習(Federal Learning,FL)、數據脫敏(Data Masking,DM)、隱私差分(Differential Privacy,DP)、可信計算(Trusted Computing,TC)以及多方計算(Multiparty Computation,MPC)等,但這些算法加密技術都存在各自的缺陷或者較高的基礎運用環境要求。

聯邦學習允許多個參與方協作解決特定的機器學習問題,但在樣本數據的采集和整合過程中可能存在向整合者泄露數據原文和向其他計算參與方泄露最終模型的風險;數據脫敏是通過一定的規則對數據進行變形、屏蔽或仿真處理,消除它在原始環境中的敏感信息,并保留目標環境所需的數據特征或內容的數據處理技術,但它容易受到各種側信道攻擊或撞庫攻擊,造成脫敏信息被恢復等風險;差分隱私主要通過在保留統計學特征的前提下去除個體特征以保護用戶隱私,但加入噪聲會導致運算結果準確度下降,且隨著運算次數的增加,不同數據集的差別會越來越顯著,從而增加隱私泄露的風險;可信計算是一種通過硬件增強和軟件配套提高計算機系統整體安全性的技術和方案,但可信CPU 本身在工程實現中存在側信道攻擊漏洞的風險;多方安全計算是目前解決數據融合最有效的密碼學方法,但相對于明文計算,它需要較高的計算成本并且存在增加網絡時延等缺點。

因此,受制于現有的計算環境和技術固有的缺陷,人工智能投顧單一加密算法將面臨更大的安全風險,必須使用各種組合加密算法[11]。然而,即便如此,算法加密技術的內生風險依然是人工智能投顧數據風險的重要來源,人工智能投顧的數據風險又可能直接導致客戶金融信息和金融隱私的泄露。不僅如此,在算法進行自我學習和客戶畫像的過程中,如果遭遇到網絡爬蟲的不法攻擊,同樣可能危及個人金融信息安全。另外,人工智能投顧的算法也可能突破必要性原則過度采集個人信息。2021 年2 月5 日,在工信部召開的App 個人信息保護監管座談會上,騰訊應用、螞蟻集團、京東商城等均被通報通過App 違規收集用戶個人信息[12]。

(四)算法非理性決策風險

人工智能算法的不公開、不透明問題,被稱為“算法黑箱”[13]。大數據時代,數據處理方法都遵循IPO(輸入,處理,輸出)模型——數據作為輸入進入系統,進行處理,然后被保留為輸出。作為智能決策“隱層”的算法,始終處于隱蔽的狀態,人們只能看到輸入的數據和輸出的結果,卻無法看到算法在數據處理方面的基本邏輯關系,這就產生了倫理學上著名的“波蘭尼悖論”(Polanyi’s paradox),即“我們所認識的多于我們所能告訴的”[14]。作為人工智能投顧底層技術的算法,無論設計得多么精確,本身依賴的都是歷史信息,而所得的結果僅僅是在此基礎之上的大概率事件。在瞬息萬變的金融市場環境下,算法程序在風險識別與控制、決策模型調整上的及時性和有效性都是存疑的,甚至完全存在錯誤判斷的可能。

在美國CFTC v. Vartuli 案中,投資者被金融交易軟件出售者誤導,認為該金融交易軟件能夠幫助他們實現投資盈利,但最終投資者遭受了巨額損失,法院認為金融交易軟件出售者存在欺詐,算法本身也存在非理性行為①。算法在深度學習的過程中,采集的信息并不一定全面,如果算法本身具有設計瑕疵,有可能只采集到一些片面的信息,這無疑將影響最終的數據處理結果和投資決策行為。此外,當不同的人工智能投顧采用相同或者相似的算法技術的時候,在整個金融市場上也可能產生集體行動風險。比如,2013年4 月23 日,美國道瓊斯工業平均指數、標普500 指數、納斯達克綜合指數的集體下跌,就與對沖基金普遍采用的情緒算法的共振不無關系。

三、人工智能投顧算法風險治理立法的現狀與不足

(一)人工智能投顧算法風險治理的立法現狀

目前,我國對人工智能投顧算法風險的相關立法散見于法律、行政法規、規章、金融監管部門的規范性文件以及地方立法之中。在法律層面,《民法典》設立了人格權編(第四編),明確了自然人個人信息受法律保護;處理個人信息應該遵循合法、正當、必要等基本原則;信息處理者的信息安全保密義務?!毒W絡安全法》第四章專門規定了網絡運營者等主體的網絡信息安全義務和保障制度,其中特別強調了個人信息的采集和使用規范?!断M者權益保護法》(2013 年新修訂)新增規定了經營者收集、使用消費者個人信息的基本要求,這些規定大部分被后來的《民法典》所吸收。

《數據安全法》明確規定了重要數據管理和風險責任管控制度、數據采集的合規性原則、數據交易的可追溯性原則等?!秱€人信息保護法》第二十四條規定,個人信息處理者利用個人信息進行自動化決策,應當保證決策的透明度和結果公平、公正,不得對個人在交易價格等交易條件上實行不合理的差別待遇。通過自動化決策方式向個人進行信息推送、商業營銷,應當同時提供不針對個人特征的選項,或者向個人提供便捷的拒絕方式。通過自動化決策方式作出對個人權益有重大影響的決定,個人有權要求個人信息處理者予以說明,并有權拒絕個人信息處理者僅通過自動化決策的方式作出決定。

國務院反壟斷委員會制定的《關于平臺經濟領域的反壟斷指南》第十七條將具有市場支配地位的平臺經濟領域經營者無正當理由利用算法實施差別待遇的行為定性為濫用市場支配地位行為。中國證監會2012 年出臺的《關于加強對利用“薦股軟件”從事證券投資咨詢業務監管的暫行規定》(以下簡稱“《投顧規定》”)明確,薦股軟件合同的法律性質并不屬于銷售合同,應把它當作投資咨詢業務合同予以對待?!墩餍艠I管理條例》明確了個人信息采集必須堅持本人同意原則。中國人民銀行2020 年9 月18 日新修訂的《消費者權益保護實施辦法》對消費者金融信息保護作出了專門規定,從消費者金融信息安全權角度,進一步強化了信息知情權和信息自主選擇權。中國人民銀行2018 年4 月27 日發布的《關于規范金融機構資產管理業務的指導意見》(銀發〔2018〕106 號)(以下簡稱“《資管新規》”)規定了金融機構的算法備案義務,要求“金融機構應當向金融監督管理部門報備人工智能模型的主要參數以及資產配置的主要邏輯”。同時,《資管新規》明確要求金融機構“避免算法同質化加劇投資行為的順周期性,并針對由此可能引發的市場波動風險制定應對預案”,并且“因算法同質化、編程設計錯誤、對數據利用深度不夠等人工智能算法模型缺陷或者系統異常,導致羊群效應、影響金融市場穩定運行的”,金融機構有義務采取人工干預,消除風險。

另外,我國部分地方性立法也在算法風險治理方面進行了探索,為人工智能投顧的規范發展提供了指引。比如,2021 年6 月29 日,深圳市第七屆人民代表大會常務委員會第二次會議通過的《深圳經濟特區數據條例》第六十九條規定,市場主體不得利用數據分析,對交易條件相同的交易相對人實施差別待遇。2021 年8 月26 日,浙江省市場監督管理局發布的《浙江省平臺企業競爭合規指引》第十二條規定,平臺企業在經營活動過程中要注意基于大數據和算法,根據交易相對人的支付能力、消費偏好、使用習慣等,實行差異性交易價格或者其他交易條件的高風險敏感行為。

(二)人工智能投顧算法風險立法的主要問題

總體來看,我國對人工智能投顧算法風險的相關立法已經顯著滯后并且遠遠不能滿足現實所需。特別表現在:缺乏統一而科學的算法立法理念,導致完善的算法法律體系缺位;基于算法驅動的人工智能投顧的行為和責任主體不明確;人工智能投顧算法私法制度及其救濟機制欠缺;算法綜合治理體系不完善等。

1.缺乏統一而科學的算法立法理念

我國在人工智能投顧算法領域一直采取分散立法的模式,并且大多數的規范都屬于低位階的規范性文件,在法律層面,具有可操作性的規定十分缺乏,并且總體上尚未形成完善的法律體系,一個重要的原因就是缺乏統一而科學的立法理念。2021 年1 月31 日,中共中央辦公廳、國務院辦公廳印發的《建設高標準市場體系行動方案》明確要求,“研究制定加快培育數據要素市場的意見”“推動數據資源開發利用”。在大數據時代,金融數據的要素融合與個人金融信息保護已經成為大數據金融法治的“一體兩面”。從上述對現行立法的梳理不難發現,現行立法仍然側重于個人金融信息保護而忽視了對算法本身規范發展的指導和培育,這顯然不利于促進人工智能投顧等金融創新。

比如,《民法典》第一千零三十八條和《網絡安全法》第四十二條均規定:未經被收集者同意,不得向他人提供個人信息。但是,經過處理無法識別特定個人且不能復原的除外。這實際上體現出法律對個人信息實施的一種“靜態”保護?!稊祿踩ā返谑龡l則一改前述理念,明確“國家統籌發展和安全,堅持以數據開發利用和產業發展促進數據安全,以數據安全保障數據開發利用和產業發展”。這就是一種全新的“動態”保護理念,在人工智能投顧領域,表現為鼓勵數據融合和金融創新,以數據安全來保障金融創新。因此可以說,《數據安全法》與《民法典》《網絡安全法》《個人信息保護法》等相比,在立法理念上實現了超越。從既有的與人工智能投顧算法相關法律、法規、規章以及規范性文件來看,現行的各層級的制度規范并沒有一個統一的立法理念,也尚未形成一個有機協調的算法法律體系。

2. 人工智能投顧的主體法律地位缺乏明確的規定

人工智能可否取得法律人格是智能社會治理中懸而未決的基礎命題[15]。我國目前已經有全智能投顧模式、內智能投顧模式和半智能投顧模式,全智能投顧模式完全具有自主學習和投資顧問的能力(當然這并不代表必然要賦予其獨立的法律人格),那么,它與內智能投顧模式和半智能投顧模式的主體法律地位是否應當有所差別?立法并未予以明確規定。

我國法院對“薦股軟件”的法律地位的認定一直存在激烈的爭議。在徐匯區人民法院(2013)徐民二(商)初字2158 號民事判決書和上海市第一中級人民法院(2015)滬一中民四(商)終字第380 號民事判決書中,法院將“薦股軟件”作為一種普通商品予以認定,認為它并不具有投資顧問主體資格。2012 年中國證監會出臺的《投顧規定》才真正改變了將“薦股軟件”合同認定為銷售合同的重大誤區,確立了它為投資咨詢業務合同的法律屬性?!八]股軟件”屬于從事證券投資咨詢業務的主體,它從事投顧活動,必須依法取得中國證監會的行政許可,獲得證券投資咨詢業務資格方可為之。這意味著適用于傳統人工投顧的義務性的規定,比如不得誤導、欺詐投資者以及投資者適當性管理等法定義務,也必須嚴格在以算法為大腦的人工智能投顧中予以適用[16]。

3. 以算法為核心的人工智能投顧私法關系及救濟機制不完善

人工智能投顧算法私法關系的構建,無疑是大數據時代以算法為紐帶的人工智能投顧平等主體之間的法律關系重構的基礎。我國對人工智能投顧算法的民商事立法嚴重不足,涉及相關金融消費者權益保護的立法及其救濟機制主要圍繞個人金融信息保護而展開。在長期的司法實踐中,金融消費者往往訴諸隱私權、名譽權、一般人格權等訴由來維護自身權益。但通過隱私權或名譽權來實現個人信息保護,必須建立在對現有法律條文的擴張解釋基礎上,這本身就對法官的個人素養提出了很高的要求。對該問題的分歧和差異,必然導致“同案不同判”、司法適用上的混亂和糾結。而一般性人格權作為一種概括性、框架性權利,高度依賴于法官的解釋,這也必然導致司法適用上的模糊性和不確定性[17]。

在人工智能投顧算法侵權的場域,金融消費者如果通過訴訟來維護自身的合法權益,更大的困難還在于舉證環節。由于民事訴訟法并沒有針對人工智能投顧侵權設定舉證責任倒置規則,根據我國民事訴訟“誰主張誰舉證”的一般舉證規則,金融消費者如果要想獲得賠償,必須舉證證明人工智能投顧算法設計上的瑕疵、運營上的過錯甚至算法設計者的過錯等。事實上,對于人工智能投顧算法的設計、解釋和運營,人工智能投顧方掌握著全部的證據資料,這將導致他們在訴訟中占據絕對優勢地位,而金融消費者在“算法黑箱”的隔絕下,很難證明侵權行為的存在及其過錯,這給金融消費者通過訴訟來保護自己的合法權益帶來極大的障礙。此外,對于人工智能投顧算法侵權,法律也沒有明確規定懲罰性賠償責任、精神損害賠償責任,并且大規模侵權救濟機制在我國人工智能投顧算法侵權的場合也依然缺位,導致人工智能投顧侵權成本極低,金融消費者舉證難度極大,維權成本極高。

4.人工智能投顧算法綜合治理體系不完善

完善的人工智能投顧算法綜合治理體系應當包括對人工智能投顧算法的行政監管、行業自律以及金融機構的內控治理機制等。在人工智能投顧算法的監管主體方面,《資管新規》首次明確:“金融機構應當向金融監督管理部門報備人工智能模型的主要參數以及資產配置的主要邏輯?!钡颂幍摹敖鹑诒O管部門”到底是指哪個部門,或者哪些部門?法律沒有明確規定。在行業自律方面,金融行業協會(包括銀行業協會、證券業協會、基金業協會、保險業協會、互聯網金融協會等)和計算機行業協會身處算法運用和算法研發的第一線,深諳人工智能投顧算法的基本原理和運行規范,理應成為算法風險治理的重要主體。比如,美國計算機協會就規定了算法研發者對算法規則的實證檢驗義務,并且鼓勵算法研發者公示其實證檢驗的結果[18]。這對于減輕和消除人工智能投顧的非理性決策、算法準入歧視、價格歧視等行為具有重要意義。在金融機構的內控機制方面,歐盟及其成員國普遍要求金融機構設立專門的數據保護部門以及數據保護官(Data Protection Officer,DPO),以加強對人工智能投顧算法的運營的內部自律管理。

我國的金融業協會和計算機行業協會以及金融機構內部對人工智能投顧算法的自律管理存在嚴重的不足,不同規模、不同行業的金融機構,均未針對人工智能投顧業務設置專門的數據保護部門和數據保護官,并且行政監管與自律管理機制之間尚未形成有機協調、良性互動的治理氛圍。這實際上給人工智能投顧算法標準的確立、算法黑箱、算法同質化、算法歧視的治理、個人金融信息的保護、算法風險的公私協同共治等帶來巨大的障礙。

四、人工智能投顧算法風險法律規制的完善

(一)確立統一、科學的立法理念

法律理念的確立對立法具有提綱挈領的指導性作用,人工智能投顧算法的依法治理必須從統一、科學的立法理念著手。針對傳統立法側重個人金融信息保護而忽視對算法本身的合理引導和規范治理的現狀,在大數據時代,我們應確立鼓勵數據融合和金融創新、加強個人金融信息保護和堅持算法風險審慎治理三大理念。

金融法不能一味地強調保密,更要強調數據的共享和開放[19]。鼓勵數據融合和金融創新是實現金融數據要素化國家戰略的必然要求。盡管算法技術的運用和發展給人工智能投顧的法律規制帶來前所未有的挑戰,但立法不能因噎廢食,全然禁止或者不當限制人工智能投顧算法的合理運用,否則這必然違背金融數據融合的時代大勢。相反,應當鼓勵金融機構在不違反《民法典》《個人信息保護法》《數據安全法》等有關金融信息保護的禁止性規定的前提下,大膽創新人工智能投顧算法技術,以技術創新推動數據要素融合和金融創新。

加強個人金融信息保護和堅持算法風險審慎治理是人工智能投顧發展的基本保障,我們鼓勵金融創新,但其基本前提是在宏觀層面要守住不發生系統性風險的底線,在微觀層面要切實保護好金融消費者的合法權益,包括消費者的金融隱私權、財產權等各項合法權益。這就要求,對個人金融信息權利的立法必須與人工智能投顧算法的規制兩相結合、同步跟進,隨著算法技術的發展和進步,個人金融信息保護的立法腳步必須與其商業模式和算法技術共生共進,并將這三大立法理念有機融合,共同推動形成完善的人工智能投顧算法法律體系。

(二)審慎對待人工智能投顧的法律地位與責任承擔問題

在康德的批判哲學看來,人“有資格作為自然的主人”[20],“人是目的本身而不是手段”“是他自己的最終目的”[21],并且“應當永遠被視為目的本身”[22]。法治的最終目的必定是為了人本身[23],這就要求,必須將算法置于人類的質疑和掌控之下[24]。法律治理可以使得代碼治理具有更多的道德倫理價值[25]。

我國的全智能投顧模式具有獨立的機器學習和自動決策能力,甚至已經具備超越傳統人工投顧的投資意識、投資知識儲備和投資能力。但如果賦予它獨立的法律人格,可能面臨以下方面的質疑:第一,全智能投顧平臺依然高度依賴于算法研發者的算法編制行為,它本身并不能創制算法,如果脫離算法研發者,將無法實施投顧行為。這表明,全智能投顧平臺并不具有法律意義上的獨立意識。第二,如果賦予人工智能投顧平臺獨立的法律地位,將面臨道德和倫理方面的拷問,比如,讓人工智能投顧平臺承擔民事責任,并不能達到對它進行行為和道德上的警示、否定、譴責的功能,因為人工智能平臺背后的一套算法是冰冷的,并不具有情感,也沒有道德羞恥感。民事責任的承擔對人工智能投顧平臺來說,可能毫無法律意義。第三,獨立的法律地位就意味著要獨立地承擔法律責任,人工智能投顧平臺本身并不具備獨立的財產,這對現行民事法律責任的履行而言,顯然存在法理和實踐上的障礙??傊?,目前來看,無論是哪種類型的人工智能投顧平臺,我國法律均不應當承認其獨立的法律地位。

在法律責任的承擔問題上,將算法運營者(多為人工智能投顧平臺所在的金融機構)確定為法定的被告,對金融消費者權益保護而言殊為必要。因為金融消費者要深度了解隱藏在人工智能投顧平臺背后的算法研發者及其算法本身,具有相當大的難度,如果將算法研發者作為法定的被告,金融消費者可能面臨極大的維權難度。因此,法律可以將算法運營者列為直接被告,在他們承擔民事賠償責任以后,如果算法的研發者具有過錯,算法的運營者可以向算法研發者進行追償。當然,人工智能投顧算法的研發者應依法享有算法解釋權,通過向司法機關或者監管機關提出正當的算法解釋,來事后免除其法定責任范圍之外的法律責任。

(三)完善人工智能投顧算法私法關系及救濟機制

如前述,人工智能投顧的算法風險既有單主體風險,也有多主體風險。在人工智能投顧算法侵犯投資者金融信息權和金融財產權的情況下,主要通過法律責任直接分配的路徑予以規制。人工智能投顧算法私法關系的重構可以從正反兩個方面展開:一是基于人工智能投顧的業務特點,明確其算法的概念、算法權利、義務以及算法侵權的法律責任等,從正面對人工智能投顧算法進行引導、激勵和規范;二是從金融消費者權益保護的視角,在《民法典》《國家安全法》《網絡安全法》《數據安全法》《個人信息保護法》等法律的基礎上,進一步完善相應的配套法規、規章和規范性文件,尤其要積極推進中國人民銀行正在進行的《個人金融信息保護管理辦法》的制定工作,從個人金融信息保護的視角,反向限制人工智能投顧算法的無序擴張和算法侵權行為。

當然,徒法不足以自行。人工智能投顧算法的私法保護離不開完善的法律救濟機制。從權利救濟的層面來說,由于人工智能投顧算法具有隱蔽性和高度的技術性,對于算法侵權的民事責任歸責原則有必要進行重構。具體而言,算法侵權的一般歸責原則宜確立為過錯推定責任,即在算法導致人工智能投顧損害消費者權益的情況下,首先推定算法研發者和算法運營者具有主觀過錯,由他們承擔舉證責任來證明自己無過錯,這樣可以實現消費者和平臺之間的舉證責任分配公平。在特殊情況下,對于人工智能投顧平臺具有通過算法嚴重侵犯金融消費者隱私、嚴重損害客戶資金安全、造成金融市場系統性風險等行為,可確立無過錯責任。此外,懲罰性賠償、精神損害賠償、大規模侵權賠償機制以及算法侵權公益訴訟機制等的構建在算法侵權的救濟方面也十分重要。

(四)重構人工智能投顧算法綜合治理體系

在人工智能投顧算法侵權嚴重危及金融市場穩定和眾多金融消費者權益的情況下,通過算法私法關系的法律責任分配機制對它予以治理的路徑就顯得不相適宜。出于控制市場風險的現實需求,有必要構建起一種公私結合、公法為主的人工智能投顧風險控制和治理體系。

盡管有學者倡議在證監會下設專門的智能投顧監督管理辦公室來對人工智能投顧進行獨立監管[26],但筆者不同意這樣的提議。因為算法在擴展式嵌入社會經濟領域時已逐步超越代碼特質,整合并再生為新型“社會權力”[27]。人工智能投顧算法的法律監管不僅僅是一個微觀審慎監管的問題,更是一個宏觀審慎監管的問題,應當建立綜合性的法律治理體系。在人工智能投顧算法運用的行政監管方面,首先要明確具體的監管部門。人工智能投顧算法監管涉及宏觀和微觀兩大層面:在宏觀層面,通過宏觀審慎監管防范系統性金融風險,是人工智能投顧算法監管的首要目標;在微觀層面,通過國家金融監督管理總局、證監會等金融監管部門對特定領域人工智能投顧的業務行為進行監管,達到規范算法行為,保護金融消費者的金融信息權利的目的。由于中國人民銀行負有維護金融穩定的法定職責,可確定為人工智能投顧平臺算法的審查部門,在此基礎上,允許國家金融監督管理總局和證監會對算法進行行為監管和微觀審慎監管,并由人工智能投顧平臺向它們履行算法報備義務。在監管對象方面,要特別注重對人工智能投顧平臺濫用市場支配地位、通過非法獲取數據、數據壟斷等行為侵犯金融消費者合法權益的監管。人工智能投顧平臺算法應急管理體系的建立,對于防范系統性金融風險也頗為重要。此外,筆者曾提出,建立雙向驅動型算法解釋工具,通過公私合作治理,實現算法正義[28],這或將為新時期人工智能投顧算法風險的法律規制提供更優的工具選擇。

人工智能投顧算法綜合治理體系不僅需要政府行政監管,還必須強化自律監管[29]。在人工智能投顧算法的自律監管方面,一方面要充分發揮金融行業協會和計算機協會對算法的自律監管,要特別突出它們在算法標準的選擇和制定方面的重要作用,加強對算法涉嫌壟斷、價格歧視、大數據殺熟、隱私泄露、非理性決策等風險的審查和監督,并推動算法透明,要求人工智能投顧平臺主動公開算法的假設和限制、算法的邏輯、算法的種類、算法的功能、算法的設計者、算法的風險、算法的重大變化等重要事項;另一方面,要加強金融機構對人工智能投顧平臺算法的內部治理規則的建設,要求所有的人工智能投顧平臺所在的金融機構必須設立專門的數據保護部門和數據官,強化對金融數據安全和金融消費者合法權益的保護。最后,可通過“金融監管沙箱”對人工智能投顧算法進行實驗性監管,在確保不發生系統性風險的前提下,實現金融創新,推動人工智能投顧行業的健康發展。

五、結語

在大數據時代,如何讓數據的運用更加尊重人的隱私、尊嚴和自由,更加尊重人的主體價值,讓人類擺脫被大數據以及數據平臺操控的命運,已經成為當代法治必須面對的重大難題[30]。作為金融科技的典型代表,大數據算法在為人工智能投顧帶來投資的個性化、分散風險、智能調倉、降低投資門檻和費率等優勢的同時,也對現代金融法律治理的跟進提出了更高的要求。人工智能的最終目的是服務于人,人工智能投顧的終極使命還是服務于金融投資者。無疑,根據風險回應型金融法的基本原理,加強投資者法律保護必然成為人工智能投顧算法風險治理的價值皈依。

人工智能投顧在利用大數據技術分散風險并降低投資者門檻的同時,讓更多的小額投資者有機會參與到投資活動之中。這些小額的投資者往往風險承受能力更差,并且在風險總值不確定降低的情況下,智能投顧的使用又增加了算法這種特殊的風險種類[31]。因此,法律更應該保護好人工智能投顧的“算法中的人(投資者)”。為此,有必要確立統一、科學的立法理念,并審慎對待人工智能投顧的法律地位與責任承擔問題。

筆者認為,人工智能投顧的法律規制應當依循人工智能投顧的算法風險的不同傳導機制,確立“二元法律規制路徑”。人工智能投顧的算法風險既有單主體風險,也有多主體風險,即群體性風險甚至系統性風險。在普通的人工智能投顧算法侵犯投資者金融信息權和金融財產權的場域,實際上是一種算法的單主體風險,或者說,此時的算法侵權侵犯的是投資者與投顧機構之間的私法律關系,可以通過法律責任直接分配的路徑予以規制。在人工智能投顧算法破壞金融市場穩定或者造成不特定投資者的資產損失和信息權利侵害的情況下,“算法邏輯的相關性本質決定了確定后果和行為之間的因果關系非常困難”[32],法律治理的核心相應地就轉變為規制風險或者說控制風險,防止風險擴散和蔓延。當然,其法律規制路徑也不再是責任分配,而是一種公私結合、公法為主的風險控制路徑??傊?,既要強調完善人工智能投顧算法私法關系及救濟機制,又要重構人工智能投顧算法綜合治理體系,通過公私協力,實現對人工智能投顧算法風險的有效規制。

注釋:

① 參見CFTC v. Vartuli,228F. 3d 94,99-100(2d Cir.2000)。

猜你喜歡
人工智能金融法律
法律解釋與自然法
何方平:我與金融相伴25年
2019:人工智能
君唯康的金融夢
人工智能與就業
數讀人工智能
下一幕,人工智能!
讓人死亡的法律
P2P金融解讀
“互助獻血”質疑聲背后的法律困惑
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合