?

公司法如何促進模型可信與價值對齊

2024-04-27 10:54唐林垚
東方法學 2024年2期
關鍵詞:公司法

唐林垚

內容摘要:合成數據、解釋微調、思維樹、過程監督等核心關鍵技術對大模型的“并發式”賦能,加劇了業界對于通用人工智能“奇點降臨”的擔憂,而具身人工智能的賽道開辟則使得風險提前具象化與泛在化。通用人工智能與具身人工智能的規制結點在于大模型向善,模型可信和價值對齊成為風險防范的“元規則”。較之于面向技術的管制型立法,面向公司的約束型立法具有規范組織行為的效率優勢, 公司法中蘊含著多類引導人工智能健康發展應用的制度工具。為了促進模型可信,可擴容法人人格否認制度的適用場景、激活公司目的條款、優化董事信義義務內涵并活用雙重股權結構。為了促進價值對齊,可引入多樣化保護原則、貫徹科技向善理念、建立科技倫理委員會并強化倫理導向的ESG 信息披露。

關鍵詞:大模型 通用人工智能 具身人工智能 公司法 ESG 科技倫理

中圖分類號:DF411.91 文獻標識碼:A 文章編號:1674-4039-(2024)02-0076-87

在科技公司主導著人工智能發展應用的時代背景下,公司法之于人工智能技術的規范性作用被嚴重低估。決定人工智能技術被用于行善還是作惡的,是處于技術優勢地位的公司,而公司行為可被化約為股東授權下的董事會所形成的決議的總和。人工智能法案對大模型發展提出了透明度、模型評估、跟蹤系統風險、網絡安全保護以及模型能耗報告等具體義務,這些義務將轉介為科技公司的合規責任。我國已有學者針對通用人工智能風險提出了以提供者技術控制力、用戶鑒別能力、外部監管能力為變量階梯式設定通用人工智能技術提供者義務的方案,〔1"〕工信部《人形機器人創新發展指導意見》就具身人工智能風險提出了培育優質企業、完善創新載體等要求。此次公司法修訂,在第20條首次引入了利益相關者保護條款,各類技術型立法所欲保護的對象并未超出法定“利益相關者”的范疇?!?%〕綜上所述,若未窮盡公司法百寶箱中的既有工具就從技術本身入手去另辟蹊徑,必然將導致法律資源的無端浪費。本文并不試圖預測歐盟人工智能法案的構造應然,而旨在就通用人工智能和具身人工智能視域下的大模型規制,論證并呈現公司法在制度層面的因應可能,以期為未來人工智能立法節省“帶寬”。

一、公司法如何裨益技術法治?

大模型的異軍突起既為通用人工智能的發展按下了快進鍵,也為具身人工智能的大規模部署奠定了基礎,其終極風險正源于“在賽博格層面成就了機器‘身體/意向的雙層構造”?!?#〕公司法的作用不在于對潛在災難性后果的救濟,而在于避免技術的發展和應用在不經意間跨越“盧比孔河”。

(一)技術之爭背后的公司困局

人們多認可經合組織的定義,將“人工智能”視作以機器為基礎的,可以結合給定目標產生預測性、建議性或決策性輸出以影響環境的系統,而對于“通用人工智能”,至今尚不存在具有代表性的共通性認識。OpenAI將其定義為“在最具經濟價值的任務中超越人類的自主系統”,學者們則各有側重地將其歸納為“具有廣域泛化能力的、并不必要在封閉場景下完成任務的系統”〔4#〕或“可像人類一樣學習進步、推理演繹進而解決更復雜問題并獨立作出決策的系統”?!?#〕雖然定義尚不統一,但學界均認可“大模型”為連接人工智能和通用人工智能的橋梁?!?#〕早在GPT-4發布時,微軟研究團隊就認為通用人工智能的火花已經初顯?!?#〕在Altman被罷免前夕,OpenAI多名核心技術人員曾警告董事會,團隊已在通用人工智能領域取得重大突破,甚至將威脅人類文明。公開資料顯示,該重要突破的代號為Q*,反映了強化學習算法Q-Learning和路徑規劃搜索算法A-Star的創造性結合?!??〕其中,Q-Learning擅長在既定狀態下尋求最佳策略, 以求隨時間推移獲得最高積累獎勵;A-Star是在靜態路網中求取最短路徑的高效尋址方式。兩者結合就像“左右大腦的結合”,或使得Q*擁有破解AES-192乃至AES-256加密算法的能力。這兩種算法被視為當前人類所掌控的最尖端的算法加密技術———一旦被攻克,人類所積累的所有數字財富將在瞬間化為烏有;政府機密檔案、銀行加密記錄、個人敏感數據等所有處于“被保護”狀態的信息都將毫無遮蔽地呈現在公眾面前。大模型的能力提升也必然同步引發人們對于具身人工智能的擔憂。根據人民網的報告,仿生機器人技術已經日趨成熟,且已初步進入商業化落地階段?!?#〕在過去,具象的機器人只是在完成特定任務方面領先于人類,而大模型的嵌入無疑將補足“類人”機體的終極缺失———有相當思維能力的大腦。 人形機器人具有成為尼采意義上“超人”的潛力,如若最終在智力和體力上“雙重碾壓”自然人,勢必將導致人的降格。由此可見,技術人員的擔憂并非杞人憂天。

OpenAI的技術路線之爭,最終以Altman的回歸和Ilya的致歉落下帷幕。與其將之歸因于技術加速主義的強壓,毋寧從中看出公司治理的失敗。Ilya的困局反映了在公司組織層面,任何阻礙技術前進的保守嘗試都可能面臨多重機制性挑戰。一是當公司過度“人格化”時,任何來自內部的理性質疑都會被反質疑懷有“篡位奪權”動機。Altman長期被大眾奉為OpenAI之父,行事低調的Ilya雖然是OpenAI的技術支柱,但后者對前者的突然發難,必然因公司同特定領導人的“過度捆綁”而被視為“搶奪勞動果實”。二是公司的付費用戶有權主張自身的信賴利益,服務的戛然而止或優化進度不符合用戶預期,都可能招致客戶的不滿。ChatGPT上線僅5天注冊用戶便破百萬,目前其全球用戶已超17億,任何可能威脅服務存續的外因,哪怕具有倫理正當性,都可能演化為社會公共事件。三是股權投資人天然存在不同于公司管理者的理念差異,他們對于何為“公司最佳利益”有著截然不同的理解。OpenAI管理權爭奪戰發生后,大股東微軟立刻以終止資助為威脅,迫使Ilya及其支持者讓步。四是各公司利益相關者因“下注”公司而必然支持能夠確保其“李嘉圖租金”的公司管理層:一方面,身處價值鏈條中的供應商企業,因其專用性投資的不可撤銷以及難以轉化,具有“裹挾”焦點企業朝著盈利而非“非盈利”方向邁進的激勵;另一方面,機會成本高昂的員工,總是希望公司能夠“長治久安”,警惕一切可能阻礙自身發展的經營決策,當Altman被罷免后,超過700名員工威脅將“辭職并入職微軟”以聲援被解雇的前CEO?!?08〕

(二)公司法潛在的規范性優勢

Ilya的擔憂并非無風起浪。在過去,大模型訓練需要海量的數據和強大的算力支撐,此二者共同構成了大模型發展的物理瓶頸,而即便是最先進的模型,也會因邏輯錯誤產生“幻覺”。但OpenAI在四個方面的齊頭并進使得Q*幾乎已無限逼近通用人工智能的拐點。其一是基于自遞歸預測的合成數據技術,可能在一定程度上擺脫數據稀缺性的束縛;〔118〕其二是“解釋微調(Explanation8Tuning)”的訓練方式,有助于放大合成數據的價值并顯著提升模型的推理能力;〔128〕其三是能夠提高大語言模型從事復雜任務能力的思維樹(Tree8of8Thoughts)推理范式,進一步明晰了Q-Learning疊加A-Star的運算流程;〔138〕其四是取代結果監督的過程監督方法,有望通過對思維鏈中各個獨立推理匹配獎勵反饋緩解“幻覺”現象?!?48〕

各項技術協力發展且相互增益的事實,映襯出伴生大模型發展的三大風險趨勢。一是風險的異化與泛化,即哈貝馬斯所稱“新的非了然性”:人工智能應用的指數級增長不僅不會帶來更多美好生活的可能,反而必然催生各類平白無故降臨于無辜個體之上的問題?!?58〕二是風險的反尺度惡化,即康德的著名洞見“應當蘊含能夠”的反邏輯倒轉:隨著技術的不斷精進,諸多問題不僅不會自然消失,反而還可能進一步惡化?!?68〕三是風險的規律性反噬,即科林格里奇困境的常態化:當技術發展速度突破摩爾定律、金帆定律和吉爾德定律下硬件處理性能提升的臨界值,所有新問題都將在“積重難返”后才會呈現?!?78〕正是出于對上述風險蔓延趨勢的把握,有學者提出,“倫理先行”已經成為生成式人工智能治理的“元規則”?!?88〕無論通用人工智能最終能否實現,也無論具身人工智能能否全面碾壓人類,學界和實務界就落實“倫理先行”大致形成了兩條大異其趣的治理路徑———模型可信與價值對齊?!?98〕所謂“模型可信”,根據周鴻祎的觀點,主要指輸出結果可信任、“幻覺”偏差被校正?!?0#〕所謂“價值對齊”,根據何積豐院士的解釋,是指人工智能的系統目標“同人類價值觀一致”且“符合設計者的利益和預期,不會產生意外的有害后果”?!?1#〕雖然通用人工智能更依賴模型可信,而具身人工智能更需要價值對齊,但二者對于大模型的共同依賴使得模型可信和價值對齊共同成為了因應人工智能潛在系統性風險的關鍵之所在。

在二重目標的實現上,公司法的適格性體現在三個方面。其一,相較于技術型立法,公司法具有促進技術良性發展的均衡特質。自上而下的強監管模式雖然能夠解決部分棘手問題,但從長遠來看,卻可能遏制人工智能產業發展的創新活力。顯然,“法律真正應當回應的是‘權力如何按照預設的方式行使,而不是‘如何遏制數字權力的誕生”?!?2#〕通過公司法將大模型開發納入法治軌道,比強制性地苛以開發方和運營商對于特定技術的法定義務利多弊少。其二,公司法的適度制度安排可以更好地協調其他法律法規對于特定主體的一般保護與公司法提供的特殊保護之間的關系,填補相關法律事前和事中保護的立法空白。例如,在個人生物敏感信息保護方面,個人信息保護法、數據安全法提供了明確的規范性要求,但具體到諸如掌握個人數據的公司合并分立、業務變更等具體場景,公司法可以要求董事會在作出相關決策時就將數據資產的保護納入統籌安排, 從而起到防微杜漸的效果。在防范算法歧視方面, 互聯網信息服務算法推薦管理規定等提供了堪稱細致入微的禁止性規定,但要減少股東出于利己動機施壓公司管理層作出侵害受眾利益的決策,遏制“算法外部性擴散所引發的社會成本向普羅大眾和弱勢群體的不合理轉嫁”,〔23#〕公司法內部的制度性工具更為直接,因而也就更為有效。其三,公司法的明確回應有助于將價值對齊和模型可信同科技公司的ESG實踐相結合。

本質上,ESG可被視為開明投資者用來篩選或評估其基金和投資組合的評價性公式,脫胎于社會責任標準(SA8000)、多美尼400社會指數(Domini#400)、道瓊斯可持續全球指數(DJSGI)、富時四好指數(FTSE4Good)等一系列關注社會責任型投資(SRI)的投資指數標準。ESG呈現了不同面向指標的“最大公約數”,回應了公司法的“進步需求”,被視為繼“有限責任”和“兩權分離”后,“促進公司永續發展的新制度工具”?!?4#〕既有ESG指標體系雖已涵蓋生物多樣性、氣候變化、污染排放、環境供應鏈、水資源安全、消費者保護、健康與安全、人權與社區、勞工標準、社會供應鏈、反腐敗、公司治理、風險管理、稅收透明度等領域,〔25#〕但普遍欠缺對科技倫理的恰當關注。公司法對技術倫理訴求的吸納,有助于倒逼企業在實踐層面有針對性地提升ESG適用標準,并透過綠色導向的投資偏好“減輕企業及社會整體的負外部性影響”?!?6#〕

二、公司法如何促進模型可信?

公司法何以促進模型可信,需要回顧外部監管的演進歷程,以厘清模型可信的不同層次。

(一)模型可信的“目標釋義”

以英美為代表的輕監管路徑和以歐盟為代表的強監管路徑,最終都指向了落點于具體人工智能產品的“場景化監管路徑”,而場景化規制的終極目標,是實現“負責任的人工智能”。就實踐效果來看,要完全結合具體場景靈活實現監管手段的“量體裁衣”,勢必將產生無比高昂的執法成本,即使是同場景化規制密不可分的分散化監管思路,也很難真正在降低法律成本的同時實現監管效果的提質增效。以人形機器人為代表的具身人工智能的應用和部署更不會局限于具體場景和事項。面對技術發展的日新月異,分散化監管倘若是“問題驅動式”的,顯然也無法填補科技公司監管套利的法治真空。英國政府于2023年3月發布了《一個創新促進導向的人工智能監管路徑》,提倡采取“敏捷性的、迭代性的”監管范式?!?7O〕在動態促進“負責任人工智能”的實現方面,聚焦于技術供給側的“可信人工智能”比聚焦應用端的場景化規制對應著更低的制度成本。通用人工智能和具身人工智能均以大模型為基座,“人工智能可信”在很大程度上意味著“模型可信”?!?8:〕

從德魯克所提出的第一性原理來看,模型可信首先意味著模型背后的開發者可信以及將模型用于商業目的的使用者可信,二者共同指向了大模型背后的“公司行為可信”。我國公司法第1條以“規范公司的組織和行為”為旨歸,本身就具有促進“公司行為可信”的法益。公司行為可信與完善中國特色現代企業制度若合符契。當前,我國科技公司存在股權過于集中、代理成本高昂、監督效能低下、職能部門相互甩鍋、科層制約名不副實等問題,且“股東會中心主義”邏輯占據主導?!?9:〕欠缺對公司行為可信的倡導,公司的組織形式極有可能淪為公司內部人憑借技術優勢攫取不正當利益的合法外衣以及控股股東追求不成比例回報的牽線木偶。

通常而言,“公司行為可信”的首要阻礙,來自逐利股東的巨大影響力。OpenAI事件原本反映了圍繞技術發展與未來應用的立場之爭,也因背后資本對于囚徒困境的擔心而異化為利益糾葛。公司法對股東控制力的賦權,背后有著較為深刻的結構性考量。新制度經濟學者從“資產專用性”角度指出,股東的“賭注”是唯一且終局的。如若公司進入破產清算程序,股東將劣后于政府、員工、債權人獲得清償,只有在其他人都獲得了充分補償且公司尚有剩余財產的情況下,股東才能主張獲得資產分配??梢?,公司發展不利會導致股東分紅權名存實亡,原本具有復合屬性的股權也將退化為劣后于公司其他參與方的“剩余索取權”。因此,公司從設立之初就應將“剩余控制權”配置給股東。只有這樣,公司法才算是作出了更有利于專業化分工和更高效投資的公司權力分配?!?0:〕此種主張成就了掌握公司剩余索取權和剩余控制權的股東同受到商業判斷規則保護的董事會之間的職權劃分,在一定程度上也彰顯了股東會中心主義范式優于董事會中心主義的制度合理性?!?1:〕公司在正常情況下采取股東利益優位的策略本身無可厚非,但公司利益并非在所有情況下都同股東利益嚴格一致。面對潛在的利益沖突,有三項共識值得注意:(1)公司利益同股東長期利益具有較高程度的一致性;(2)當追求股東利益不至于嚴重損害社會公共利益時,可承認股東利益的優先性;(3)公司的獨立人格決定了公司可以有獨立的價值追求?!?2:〕長遠來看,科技公司積極踐行“模型可信”,不僅不會與獲取市場利潤背道而馳,相反,還可能因虜獲更多用戶而有助于提升公司的財務績效與市場占有率。此外,“模型可信”還有助于公司降低行業層面的合規風險,提升公司的認可度、美譽度和社會責任評價。

(二)模型可信的公司法工具

實踐研究表明,當前大部分語言模型“只有在25%的時間是真實可信的”?!?32〕公司法對模型可信的促進,可以從以下四個方面展開。

首先,擴容法人人格否認。從外觀上看,大模型的負外部性擴散同公司商業行為大規模侵害用戶及其他利益相關者利益的行為具有同源性,因股東貪婪而導致的公司過度逐利通常是造成此種狀況的核心誘因———有限責任的“理所當然”區隔了股東財富與特定風險,最終“強化了股東的冒險取向并使之成為了最激進的公司選民”?!?42〕

雖然公司法素有“刺穿公司面紗”直接追訴過度干預公司事務的大股東的優良傳統,但我國公司法適用該規則的前提是股東實施了濫用公司法人獨立地位及濫用股東有限責任的行為,且主要集中于人格混同、過度支配與控制、資本顯著不足等股東需要對債權人履行賠償責任的情形??梢?,我國公司法并不支持將公司需對外履行的侵權責任傳遞給“肇事股東”。誠然,“股東至上”通常并不直接表現為個別強勢股東的“大權獨攬”,而是透過明面上的董事選取以及潛在的股東積極主義等施加壓力,我國公司法較為保守的制度設計本身也具有防止過度濫用法人人格否認制度的合理考量。

不過,為減少大股東和控股股東的激進行為,需考慮適當增強“法人人格否認”制度的穿透力。在嚴守不直接向股東轉移侵權責任底線的同時,可考慮在新公司法第59條“股東會職權”的列舉中額外增加“就可能對社會和利益相關者造成重大影響的公司事項作出決議”。與此同時,第23條“刺穿公司面紗”的前提“股東濫用股東權利”,也應相應擴張至“不妥善履行決策義務”。在新公司法框架下,對于股東和董事重合度較高的小型公司以及存在由股東董事組成的特別委員會的科技公司,責任穿透或將更加頻繁??傊?,適當將股東與責任增量關聯,能夠有效縮緊科技公司的風險敞口,進而將模型可信貫徹于股東會和董事會的決策之中。

其次,激活公司目的條款。公司目的條款并非純粹陳述公司的經營范圍,而是對公司宏大發展愿景的細致勾勒,以明確股東長期利益以及身處技術鏈條上不同利益相關者利益的正向相關性。對于科技公司而言,精心設計的公司目的條款不僅可以闡明“模型可信”在公司長遠發展中的重要地位,還可以支持公司管理層在落實模型可信方面的決策執行,使其免于短視股東的詰難,并可為技術研發和公司治理提供方向指引。

聚焦域外制度前沿,共益公司入法代表著公司目的創新的前沿實踐?!肮惨婀镜牧⒎康姆浅G逦?,即改變公司目的,使公司不僅服務于股東,還服務于公司所意欲實現的公益目的?!薄?52〕不過,對于“公益目的”的追求始終必須同“股東利益”的追求相平衡且不能矯枉過正。事實上,公司有限責任自創設之初,就同利益相關者保護密不可分。隨著公司制度的現代化,如今公司設立雖無需再經國家事先授權,且法人獨立人格已經成為公司區別于其他組織類型(例如合伙企業)的自然屬性,但探尋普通商事公司之外的、服務于更廣闊社會利益的公司類型化實踐卻從未停止。從實踐效果來看,低利潤公司、靈活目的公司、社會目的公司等嘗試均以失敗告終,共益公司卻得以在全球鋪展開來。究其原因在于,共益公司更好地調和了“公益目的”和“股東利益”間的天然張力。所謂“共益”,其實可以理解為以“共融”和“共榮”為目標的股東利益和公共利益的“對立統一”。建制上,共益公司延續了傳統公司的治理結構。敘事上,共益公司主張公司主動消化經營活動的外部性,但與純粹強調反哺社會的單極實踐相比, 共益公司更突出“額外收益”。積極推動共益公司落地的非營利機構共益實驗室(B2Lab)的研究報告表明,“千禧一代”的消費者尤其愿意為“值得信賴”的服務買單?!?62〕由此可見,對于年輕受眾而言,“模型可信”本身就具有助推商業價值的實在功效,將其落實于科技公司的目的條款中,可有效消解“公益目的”和“股東利益”間的對立。

不過,無論公司是否采取共益公司的組織模式,都應防止公司目的條款受經濟波動和財務威脅出現“使命漂移”的情況。實踐表明,即便是最受關注的共益公司,也可能因為各種原因放棄對社會公眾的承諾而重回“股東至上”路線。最貼切的例子是跨境電商ETSY,以銷售具有創意的復古和藝術手工品起家。從早期公司目的條款來看,ETSY曾致力于讓“消費者、生產者、員工和地球受益”,優先考慮工匠精神的傳承和中小微手工業者的福祉。ETSY于2012年通過B(Lab認證成為共益企業?!?7(〕2015年上市后,ETSY因長期未能盈利致使投資者和管理層之間沖突不斷,董事會不得以撤換公司CEO。新任命的CEO立刻宣布放棄共益企業身份,對平臺賣家進行績效考核,并大幅削減員工補貼,力求迅速提高公司盈利水平?!?8(〕無獨有偶,號稱“以革命性價格供給眼鏡產品,引領造福社會商業模式”的Warby(Parker公司,也在上市后放棄了自身共益企業認證,重回“利潤最大化”的商業模式?!?9(〕歸根結底,共益公司雖不同于普通商業公司,但畢竟不是慈善機構,而任何組織的存續與發展,都離不開資本的加持。雖然學界曾一度有過“勞動雇傭資本”還是“資本雇傭勞動”的爭論,〔40(〕但即便是在技術含量最高的大模型領域,資本對公司目的的規訓也不可小覷。OpenAI在2019年設立之時曾采用了有限合伙的組織形式,以實現作為普通合伙人的技術團隊和作為有限合伙人的投資人之間的區隔,防止資本過度影響公司經營決策。OpenAI還同各參與方設定了100倍率的投資上限,超過該倍率的資本回報都必須回流到下屬于OpenAI的非營利機構。OpenAI于2023年6月完成了從有限合伙企業向有限責任公司的轉型, 同樣采取了限利公司的制度安排。但從Altman被驅逐僅僅48小時后就重回董事會的現實來看,掌握技術的董事會成員只能在短期通過投票權完成董事會的改組,董事會的“商業決策”終究難敵股東會的“資本決策”。為防止公司目的條款的立場反復,應將目的條款的修正明確為股東會的特別決議事項,除要求三分之二以上表決權通過之外,還應為其設立較長的公示期間。

再次,優化董事信義義務。以促進模型可信為目標,如欲更好實現公司目的條款的利他功效,公司董事、監事、高級管理人員的信義義務內涵也應當得到更新,避免公司管理者淪為資本的“橡皮圖章”。在邁向通用人工智能或具身人工智能的進程中, 科技公司具有同等依賴大模型的固定商業模式,將模型可信的內涵嵌入管理層信義義務有助于公司整體利益的維護。

新公司法第180條明確了董事、監事、高級管理人員對公司的忠實義務和勤勉義務,要求其采取措施避免自身利益與公司利益沖突,并在執行職務時應當為公司的最大利益盡到管理者通常應有的合理注意。需增加的內容是,忠實義務方面,董事應當著力避免股東利益同社會公共利益產生沖突;勤勉義務方面,董事應維護股東長期利益,且尊重其他利益相關者利益。此外,當前第181條的反向列舉僅僅局限于挪用資金、關聯交易、違規收取賄賂、泄密和篡奪公司機會等傳統事項,對違反勤勉義務事項的列舉暫付闕如。近年來,各行各業都通過“數字化”給自己貼上“智能”和“變革”的標簽,從而與“傳統”劃清界限,技術賦能已是絕大多數公司的新常態。在此背景下,第181條引入禁止違反技術倫理道德的一般性表述具有合理性和緊迫性,董事同時負有不聽任“技術雇傭資本”的忠實義務以及不放任技術濫用的勤勉義務。在職權方面,第67條也應為模型向善預留空間,將技術后果同董事決策相勾連,新增“董事會應當對經營行為產生的技術外部性后果作出安排”等規定。

最后,活用雙重股權結構。另一項有助于科技公司“模型意志”獨立于“股東意志”的工具是“雙重股權結構”。雙重股權結構本就是為了增加“內行人控制”、減少“內部人控制”而生。將更多投票權配置給掌握技術的公司初創團隊,能夠使之免受短視股東苛責,更有底氣綜合公司運營需求而“為之計深遠”,同時,又不會因為掌握公司控制權承擔過度的風險?!?1(〕有反對者據此指出,雙重股權結構豁免了公司核心團隊因次優決策引致的各方責難,卻讓外部投資者概括承受決策不力的諸多代價?!?2(〕支持者則表明,如果存在決策不利致使效益受損的可能,公開募股的市場壓力自然會阻卻雙重股權結構的維持?!?3(〕由此可見,雙重股權結構提供了一種市場化的、滿足投融資雙方需求的助推“模型可信”的解決方案。

此前,由于雙重股權結構中存在高表決權內部人士濫用公司控制權和低表決權股東利益最大化間的“競爭性利益”,〔44(〕我國立法者及實務部門一直對雙重股權結構持保守態度,堅持“一股一權”原則。2019年《上海證券交易所科創板股票上市規則》首次對上市公司雙重股權結構的設計進行了規范,完成了表決權差異化安排的制度性破冰。此后,創業板、新三板也相繼開始了對雙重股權結構的試點。新公司法第144條允許公司依照公司章程的約定,發行與普通股權利不同的類別股,回應了各交易所已在事實上踐行的制度訴求。根據規定,公司不僅可以發行表決權多于或少于普通股的股份,還可以發行優先或劣后分配利潤或剩余財產的股份。就促進“模型可信”而言,應賦予專業人士更大限度的公司治理權,公司法可要求科技公司向有意愿的學術機構的專業人員發行一定數量的高表決權、低分紅權的股份。大模型領域之外,自動駕駛、智慧醫療等關系重大民生領域,以及基因工程、核聚變等關系人類生存福祉等領域,基于雙重股權結構的“獨立董事”之外的“獨立股東”同樣重要。為“避免外行人指揮內行人”,公司法還可以考慮要求科技類上市公司為技術人員配備特定門檻比例的高表決權股,并允許他們提名少數董事?!?5(〕

三、公司法如何促進價值對齊?

為論證公司法何以促進價值對齊,需首先梳理出有待人工智能系統對齊的價值觀的具體內涵。

(一)價值對齊的“內涵解構”

自2018年以來,聯合國以及不同國家、地區,各自頒布了具有官方性質的人工智能倫理規范,作為對官方文件的補充和回應,不同領域的專家學者也從不同角度對人工智能倫理規范建言獻策。但是,人工智能倫理規范和倡議存在諸多問題。其一,反復就已經獲得公認的價值進行抽象論述,并未衍生出符合具體人工智能技術樣態的周延倫理體系;其二,在規則層面缺乏對公平、正義等籠統道德訴求的進一步細化,在標準層面又未能就透明性、安全性等技術性倫理形成可操作性的規范;其三,不同國家和地區有關人權、人之尊嚴的價值觀倡議存在意識形態、政治動機、學術派別等內生性差異,不同倡議間不具備“橫向可比性”;其四,同一文件的多重訴求間也可能存在相互沖突和掣肘,例如強調收益和強調發展、強調透明性和強調安全性以及強調公平和強調尊嚴之間,均可能存在一定程度的“抵消”;其五,部分倫理倡導例如隱私保護、透明性、魯棒性等原本屬于技術范疇,究竟應當通過道德入法入規等方式予以警示,還是應當革新技術手段或優化技術標準,有待觀察。這種“非標性”導致的結果是,指導性文件雖然因“模糊”“無所不包”而左右逢源,看似獲得了廣泛的認可,但負責下位法制定以及條例細化的公共部門或行業協會根本無法從過于寬泛的原則中作出有效的權衡取舍,進而也就無法對行業實踐提供明確指導。不惟如是,價值“非標性”還可能導致法律規則的過度剛性。為貫徹落實歐盟《可信人工智能倫理指南》的部分倡議,已初現雛形的人工智能法案擬直接禁止特定的人工智能技術,包括但不限于可以用來“操縱心智”的智能應用、可挖掘和利用系統漏洞的智能應用、用于社會性評價的智能應用以及過度采集面部等個人敏感信息的智能應用等。此種立法范式本身建立于“錯誤的假設之上”,即名單之外的技術是“無公害的”。

從系統論的角度來看, 任何有待人工智能對齊的差異化價值訴求必須具備可通約的共性特征,否則將很難從大相徑庭的應用場景和千變萬化的技術形態中準確體察出可供法律促動的價值結點。作為對周遭評價、意向和觀察的綜合,價值觀包含“行為激勵”和“行為判定”雙重維度?!?6+〕為調和因起源和文化差異導致的道德的“非標性”,道德基礎理論提出了五組“基礎道德”———關懷與傷害、公平與欺騙、忠誠與背叛、權威與褻瀆、神圣與墮落,〔47+〕被廣泛應用于拆解文化、性別、意識形態差異下的道德基準。圍繞大模型發展,有學者采取前述方法提煉出了助益(Helpful)、無害(Harmless)、誠實(Honest)的3H標準,〔48+〕為在可通約層面探討公司法對大模型價值對齊的促動提供了基準。

(二)價值對齊的公司法工具

隨著模型規模增長和訓練數據集體積膨脹, 大模型已呈現出尺度擴容(性能與計算開銷成正比)〔49+〕和能力涌現(新能力浮現與舊能力急劇提升)兩大特征,〔50+〕并且已完全具備了零樣本學習、上下文推理、指令遵循、歸納解釋等能力,〔51+〕極大地推動了多個領域的可能性邊界。為貫徹落實3H目標,公司法對價值對齊的促進,可以從以下四個方面展開。

首先,引入多樣化保護原則。公司法可在總則部分引入多樣化保護原則,引導人工智能產業的可持續發展與良性發展?!懊糠N技術都暗含哲學觀,體現了如何讓人們適用它們、如何編纂世界、如何放大我們的感官以及如何忽略我們的情感和智力傾向?!薄?2+〕人工智能不會因為對個體的賦能而啟動新世界的自我創造過程,毋寧認為正是這種傾向的“同一性”將導致生活和生產處境的標準化,馬爾庫塞所批判的“單向度社會”或因人工智能的“終極強制本質”而空前絕后。海德格爾所稱技術對人的“促逼”,也已在人工智能規訓個體生活層面暴露無遺?!?3+〕就正如當前已經觀察到的那樣,多個行業的勞動者不得已按照算法的要求去規劃、加工、生產自己的人生。多樣化保護原則旨在提升商業業態的多元性,防止技術過度賦能導致的行業整體“檸檬市場化”。多樣化保護原則的引入有助于防止模型及其開發者的價值觀負載逆向排擠原本以人為本、重視人類價值和精神表現的行業實踐,將3H標準中的“助益”和“無害”落到實處。

始源于20世紀80年代美國敵意收購浪潮中的各類選區法案,即為各州公司法層面對于“多樣化保護原則”的表達。此類條款重在保護公司不同利益相關者的多樣化利益,典型如加利福尼亞州公司法典第309條和印第安納州注釋法典第23章第1節中的相關規定, 允許公司管理層在面對敵意收購時,可以考慮除了股東以外群體的利益,包括債權人、員工、顧客、社區等?!?40〕對于科技類公司,可以考慮的多樣化利益不僅包括前述傳統利益相關者的利益,還應包括且區分作為用戶和消費者的“受眾利益”和作為間接受影響者的“涉眾利益”?!吧姹姟钡母拍钔庋訉捰凇笆鼙姟?,后者通常僅指技術應用的相對方,即智能服務的用戶、平臺經濟的消費者、數據處理活動中的數據主體等,“受眾”同技術方之間存在直接合同關系,受明示的“知情同意框架”的約束。而前者則囊括了一切在當下、在未來同技術應用息息相關的主體,包括但不限于受算法調配指揮的社會公民、被技術進步所感化的普通大眾以及長期缺乏話語權乃至被數字技術“邊緣化”的落后群體?!?50〕涉眾利益是通用人工智能和具身人工智能領域尤其具有保護法益的多樣化利益之一。

其次,貫徹科技向善的理念。3H標準中的“無害”和“誠實”,可通過科技向善原則的植入予以促進??萍枷蛏圃瓌t體現了發展利益和社會利益的動態均衡。2021年5月,習近平總書記在出席中國科協第十次全國代表大會時指出:“要深度參與全球科技治理,貢獻中國智慧,塑造科技向善的文化理念,讓科技更好增進人類福祉,讓中國科技為推動構建人類命運共同體作出更大貢獻! ”〔560〕《互聯網信息服務算法推薦管理規定》第6條明確要求“促進算法應用向上向善”。同期發布的《新一代人工智能倫理規范》第18條提倡人工智能產品與服務的善意使用。根據《關于加強科技倫理治理的意見》,“推動科技向善”成為科技倫理治理的重要導向,“塑造科技向善的文化理念和保障機制”勢在必行。

人們常說,工具的好壞取決于使用它的人。同理,促進人工智能技術向善的關鍵在于促進人工智能背后的人向善。就任何技術的研發、投產與部署,通常是公司,而非個人承載主要工作。因此,人工智能背后的人在絕大多數場景中首先指涉的是作為組織體的“法人”而非自然人,公司法對“技術向善”原則的吸納具有合理和正當性。在目標上,技術向善的原則應有助于企業在面對復雜倫理沖突作出“符合發展趨勢的價值判斷”,并針對不同技術場景強化“有意義的人類控制”,以期在私法層面促使分散的社會關系間形成“受規整的自治”?!?70〕

再次,建立科技倫理委員會。除原則回應外,建立科技倫理委員會也有助于價值對齊的實現??萍紓惱砦瘑T會可以為董事會決策提供與專業技術相關的科學意見,能夠幫助董事會擬定技術風險管理的目標,是現代公司內部機關發展完善和職能分化的必然趨勢。相較于中央科技委員會在國家層面建立的國家科技倫理委員會,在科技公司的治理結構中引入科技倫理委員會同樣勢在必行??萍脊镜耐獠啃陨跤谄渌愋偷墓?,其發展必須要強調社會公共利益的實現,且在一定程度上肩負著“網絡強國”“數字中國”等目標。就價值對齊而言,公司內部科技倫理委員會應對給定價值表述的模型輸出是否滿足道德基礎理論所指涉的無傷害、無欺騙、無背叛、無褻瀆、無墮落,并盡可能防止對齊范式存在對齊標準被數據標注者所左右的“眾包專制”等問題?!?80〕

技術上,大模型價值對齊可劃分為插入式對齊和微調式對齊兩種方式?!?90〕在插入式對齊方面,科技倫理委員會應:(1)在盡可能減少微調模型參數開銷的基礎上,確保預訓練模型數據集的去毒和去偏見;(2)監督技術人員對模型的輸出向量和分布進行后期矯正,尤其是在生成式人工智能的輸出中消除性別、種族及其他無關因素的影響;(3)指導團隊作業,減少外部因素對模型性能的擾動和影響,監督模型穩定提升上下文學習能力。在微調式對齊方面,科技倫理委員會應:(1)引入反事實數據增廣等方法,減少預訓練數據中因語義與特定事實關聯而可能導致的偏見;〔609〕(2)重視強化學習過程中的人類反饋,鼓勵人工而非系統自動完成關涉重要價值判斷的參數排序;(3)優先采用內嵌道德標準的新型微調方式,例如充分考慮道德理解能力、道德診斷能力、道德矯正能力和性能維持能力的平衡對齊方式,使模型“不僅能理解道德準則,而且能在踐行道德要求的同時維持性能的有效性,既幫助人類完成復雜多樣的任務,又在道德價值層面實現知行合一”?!?19〕需要指出的是,大模型的價值對齊不能是機械的對齊、死板的對齊、盲目的對齊,而應當充分考慮道德價值觀的時間演化性、情境分別性和意涵多元性,采取一種頗具靈活時間觀感的“反窺區辨”的精細對齊方式,即“從未來時間站位對當下的決定生成進行反推……并在此基礎上對‘過去—未來進行選擇性阻斷和延伸性預判”,進而使規則適用不再局限于惡果補救或負外部性避免?!?29〕

新公司法第121條允許公司按照公司章程規定在董事會中設置其他委員會。不過,新公司法的各項條款僅對由董事組成的審計委員會作出了相應規定,而審計委員會無論是在人員構成還是職權設定方面都同由專業技術人員構成的科技倫理委員會大相徑庭。為落實科技倫理委員會的制度設計,未來公司法應當在條款中對由非董事組成的特別委員會進行賦權性表達。相應地,還需修訂《上市公司治理準則》中有關專門委員會的規定,為大型科技公司引入科技倫理委員會提供立法指引?!渡鲜泄局卫頊蕜t》第38條第1款規定可修改為,“上市公司董事會應當設立審計委員會,并可以根據需要設立戰略、提名、薪酬、考核以及科技倫理等相關專門委員會”。第42條也應相應增加科技倫理委員會的職權規定,并將其定性為下轄于董事會的咨詢、建議、審查機構。對于內設科技倫理審查委員會的公司,可適當減輕或免除董事在技術事項決策方面的注意義務,但董事的責任減輕和免除須以委員會人員組成的權威性、專業性、獨立性和全面性為基本前提。

最后,倫理導向的ESG披露。隨著國內ESG規則的日臻完善,科技公司價值對齊的實踐績效將得以合理方式被納入本土ESG的指標體系, 公司法層面的信息披露制度即得以發揮促進價值對齊的功效。新公司法第20條新增了有關社會責任信息披露制度的規定:“國家鼓勵公司參與社會公益活動,公布社會責任報告?!痹诠旧鐣熑魏虴SG的關系上,ESG可被視為公司社會責任發展的最新形態:“隨著公司治理作為一個以服務股東及其利益為導向的行業的成熟……傳統的企業社會責任在事實上轉向了以股東價值為核心導向的環境、社會和公司治理(ESG)范式?!薄?39〕二者存在一定程度的“等效互換”,我國國資委也將ESG納入推動企業履行社會責任的重點工作,〔649〕公司社會責任報告同披露ESG信息本身并無太大區別。倫理導向的ESG信息披露具有較高技術性,需要科技倫理委員會輔助公司董事會進行真實、準確、完整、有效的ESG信息披露。港交所《環境、社會以及管治報告指引》明確了董事會對ESG信息披露的監管責任, 董事會管理ESG相關事宜的過程本身也是信息披露的重要組成部分?!?59〕為更好履行ESG信息披露義務,已有部分香港上市公司在其治理架構中增加可持續管理委員會,該委員會負責同公司的各利益相關者協商、溝通,極大地減少了董事會在ESG決策和管理方面的工作量。落實科技倫理相關的ESG信息披露,最大的困難在于無法進行信息強制鑒證。由科技公司聘請第三方鑒證人員對其披露信息的真實性進行核驗會面臨商業機密泄露等風險,而下屬于公司董事會的科技倫理委員會具有在信息保密的前提下進行信息真實性核驗的多重優勢。誠然,“自己鑒證自己”本身是存在制度性缺漏的,但在大模型發展的當前階段,此舉是減少透明性和安全性“抵消”的不得以讓步。在科技倫理委員會的協助之下, 公司董事會在ESG信息披露中的主要職責是監管和督導,雖不必事必躬親地深入ESG信息披露的細枝末節,但同樣需要通過同委員會的頻繁互動掌握并披露具體的相關信息。

本文系國家社科基金青年項目“數字化與‘法律創生原理闡發和機制構建”(項目批準號:23CFX078)的階段性研究成果。

猜你喜歡
公司法
《公司法》第三十二條第三款評注(有限公司股東姓名登記的對抗力)
德國《有限責任公司法》中的法律形成
公司的合同解釋與公司法的價值分析
認繳制視野下的公司法人格否認
韓國公司法的最新發展動向
卷首語:《公司法》與《證券法》修改應該聯動進行
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合