?

中國大模型產業的五個真問題

2024-02-20 04:03劉以秦
財經 2024年4期
關鍵詞:算力模型

劉以秦

圖/視覺中國

2023年科技領域最熱的話題就是AI大模型。這股熱潮由美國創業公司OpenAI引領,ChatGPT發布后幾個月,中國公司密集發布自己的大模型,整個2023年,中國公司發布的大模型數量已經超過130個。

OpenAI能夠實現技術突破,和許多科技創新領域公司的特點類似。有足夠優秀的人才,海量資金支持,多年持續投入,以及對目標堅定。在ChatGPT發布之前的很長一段時間里,產業界和投資界大多不看好OpenAI,但并未動搖該公司的方向。2023年,幾乎所有人都認可了大模型的方向,大家認為,OpenAI已經把結果擺出來了,其他公司要做的就是盡快跟進,不斷優化,確保能參與未來。

一些人把過去沒有大規模投入大模型的原因歸咎于不確定結果?,F在已經確定了,算力、數據、人才都可以加大投入,中國公司擅長工程優化,做出能實際應用的大模型產品指日可待。

但事實真的如此嗎?對于OpenAI來說,大模型從來都是確定的方向,OpenAI的大部分資金都花在了算力上,當時英偉達的A100(AI專用芯片)價格比今天低很多。據第三方數據機構SemiAnalysis估計,OpenAI使用了約3617臺HGX A100服務器,包含近3萬塊英偉達GPU。光有GPU還不夠,投資方微軟幫助OpenAI搭建了大模型定制化的算力集群,能夠進一步提升這些GPU的效率。在數據方面,OpenAI從數據收集、數據標注、數據清洗、數據整理、數據優化等每個環節都有持續投入。OpenAI團隊中大部分人,都來自頂尖的科研機構或科技巨頭。

也就是說,在這種實力和投入力度下,OpenAI依然用了超過八年的時間,才打造出突破性產品GPT4,且存在“幻覺”(也就是答非所問、胡說八道等情況)。為什么中國公司在幾個月的時間里,就能做出號稱匹敵GPT4的大模型?這是誰的幻覺?

2023年下半年,陸續有部分大模型被指出是“套殼”,直接套用了國外的開源大模型,在一些檢驗大模型能力的榜單上排名靠前,不少指標都接近GPT4。多位業內人士告訴《財經》記者,榜單表現越好,套殼比例越高,略有調整表現就會變差。

“套殼”只是中國大模型產業現狀的冰山一角,這背后折射出產業發展的五個問題,它們之間互為因果,每個問題都無法獨立解決。到今天,大模型的大眾熱度已經明顯下滑,2024年,中國大模型產業的問題會進一步暴露。但在熱鬧、問題之下,大模型已經在產業中發揮價值。

2023年11月,阿里巴巴前技術副總裁、AI科學家賈揚清發文稱,某國內大廠做的大模型用的是Meta的開源模型LLaMA,只是修改了幾個變量名。賈揚清表示,因為改名導致他們需要做很多工作來適配。

此前,就有國外開發者稱,李開復創辦的“零一萬物”使用的就是LLaMA,只是重命名了兩個張量,因此,業內質疑零一萬物就是“套殼”。隨后,李開復和零一萬物均有回應,稱在訓練過程中沿用了開源架構,出發點是充分測試模型,執行對比實驗,這樣能快速起步,但其發布的Yi-34B和Yi-6B模型都是從0開始訓練,并做了大量原創性優化和突破工作。

2023年12月,媒體報道稱,字節跳動秘密研發的大模型項目中,調用了OpenAI的API(應用程序接口),并使用ChatGPT輸出的數據進行模型訓練。而這是OpenAI的使用協議中明確禁止的行為。

隨后,OpenAI暫停了字節的賬號,表示會進一步調查,如果屬實將要求更改或終止賬戶。

字節對此的回應是,2023年初,技術團隊在大模型探索初期,有部分工程師將GPT的API服務應用于較小模型的實驗性項目研究中。該模型僅為測試,沒有計劃上線,也從未對外使用。在4月公司引入GPT API調用規范檢查后,這種做法已經停止。且字節大模型團隊已經提出了明確的內部要求,不得將GPT模型生成的數據添加到字節大模型的訓練數據集,并培訓工程師團隊在使用GPT時遵守服務條款。

目前國產大模型中,主要分為三類,一是原創大模型;二是套殼國外的開源大模型;三是拼裝大模型,也就是把過去的小模型們拼在一起,變成參數量看起來很大的“大模型”。

其中,原創大模型數量最少,做原創大模型需要有很強的技術積累,且要有持續的高投入,風險很大,因為一旦模型沒有足夠強的競爭力,這些大規模投入就打了水漂。大模型的價值需要商業化來證明,當市場上已經出現足夠好的基礎大模型,其他公司應該去挖掘新的價值點,比如大模型在不同領域的應用,或是中間層,比如幫大模型訓練、數據處理、算力服務等。

但現狀是,大部分參與者都在“卷”所謂的“原創大模型”,又擔心風險太高,于是有了大量套殼、拼裝的大模型。無論是直接使用開源模型或是拼裝模型,只要符合相關規范,都沒有問題。到商業化落地階段,客戶也不太會在意是否原創,有用就行,甚至不少客戶會因為成本更低,更愿意選擇非原創的技術。

問題在于,即使是拼裝和套殼,大家也要不斷強調“原創”,為了證明“原創”,就需要調整修改,而這又會影響大模型的迭代能力,陷入內耗。

大模型的基礎之一是海量算力,且是先進算力,因此大模型也被稱為暴力美學。英偉達的A100此前被認為是最適合訓練大模型的,近期英偉達又推出了更先進的算力芯片H100,但還未在中國市場開售。

一位英偉達的長期合作伙伴告訴《財經》記者,2023年,A100的售價漲了約1倍,據他了解,2023年密集購買A100的中國公司主要是自身有業務需求的大廠,包括阿里巴巴、騰訊、字節跳動、百度等,創業公司很少。有一些知名大模型創業公司會主動要求和他建立戰略合作關系,以此來對外證明自己在投入算力,“不給錢的那種”。

盡管有美國政府的“出口管制規則”,中國公司想要獲得英偉達的算力,并非不可能,目前有很多方式可以選擇。除了直接購買,還可以通過英偉達在中國的合作伙伴們購買。GPU本身很貴,買來之后的部署、運營、調試、使用,都是成本。此前業內流傳的一句話是,中國不少科研機構連A100的電費都付不起。

由八張A100組成的DGX服務器最大功率是6.5kW,也就是運行一小時需要6.5度電,同時要搭配大約同等電量的散熱設備。按照平均工業用電每度0.63元計算,一臺服務器開一天(24小時)的電費約200元。如果是1000臺服務器,一天的電費就是約20萬元。

因此,除了大廠,創業公司很難大規模購買、部署GPU。

GPU資源還可以租用,在阿里云、騰訊云或是亞馬遜AWS等云服務平臺上,都可以直接租用A100算力服務。租金同樣在過去一年漲了不少。

但實際情況是,不少大模型公司并不想在算力上做大規模投入。多位關注AI的投資人告訴《財經》記者,一旦創業公司開始部署算力,會出現兩個“問題”,一是這個投入沒有上限,沒有終點,誰也不知道要燒到什么程度。OpenAI到今天還會因為算力跟不上而出現宕機。二是公司會因此變成重資產公司,這對于公司未來的估值有不利影響,會直接影響到投資人的收益。

2023年,中國不少投資人會直接告訴大模型創業者,先招一些名校背景的人,抓緊開發布會,發布大模型產品,然后做下一輪融資,不要去買算力。

創業公司們在風口期拿到大量融資,高薪招人,高調發布產品,推高估值。一旦風口過去,繼續融資或是上市就需要收入,到時候再通過此前融到的錢,去低價甚至虧本競標項目,或是直接對外投資來并表收入。

這就有可能陷入一個惡性循環:不愿意承擔算力高投入的風險,就很難在大模型領域有突破性發展,也就難以和那些真正在這個方向上大規模投入的巨頭們競爭。

數據和算力都是大模型的基礎,在數據方面,中國大模型產業面臨和算力同樣的問題:是否值得大規模投入?

在中國,一般的數據獲取門檻很低,過去主要是用爬蟲工具來收集數據,現在可以直接用開源的數據集。中國大模型以中文數據為主,業內普遍認為中文互聯網數據的質量較低。

一位AI公司創始人形容,當他需要在互聯網上搜索專業信息時,他會用谷歌搜索,或是上YouTube。國內的網站或App上,并非缺少專業信息,而是廣告內容太多,找到專業內容需要的時間更久。

OpenAI用于訓練大模型的中文數據同樣來源于中國互聯網平臺,但它額外做了很多工作來提升數據質量,這不是普通的數據標注工作能完成的,需要專業團隊對數據進行清洗、整理。

此前就有AI創業者表示,在中國很難找到相對標準化的數據服務商,大多是定制化服務,定制服務又很貴。

這和是否要大規模投資算力的邏輯有些類似,這筆投入對于很多公司,尤其是創業公司來說,看起來并不劃算。如果大規模投入,一旦最后的模型效果不理想,同樣是“打水漂”,還不如用開源數據訓練,直接開發布會。

此外,中國市場缺乏有效的數據保護手段,一位大廠AI負責人說,“在中國,你能拿到的數據,別人也能拿到”,“如果你花很多錢去做高質量數據,別人可以用很低的成本拿到,反過來也一樣?!?/p>

包括數據處理在內的大模型中間環節,在2024年會是一個相對明確的新發展方向。無論是哪種模型,在落地到具體應用場景中時,必須要用專業數據做優化調試,這對于數據處理的要求更高,此外還需要有模型調試、工程優化等環節參與。

但如果其中的環節又變成了投資人眼里的“新風口”,那又是另一個故事了。

以上的三個問題,背后都指向一個共同的方向:資本短視。

盡管OpenAI已經蹚出一條明確的道路,對于絕大部分公司來說,想從零開始做出成熟的大模型,需要耗費的成本和時間并不會短很多。

對于大部分投資人來說,每筆投資的目的很明確:退出、賺錢。OpenAI火了,估值一路攀升,未來還會繼續增長。2023年4月,該公司估值約280億美元,到2023年12月,據美國媒體報道,OpenAI最新一輪估值或將超過1000億美元。這在投資人眼里是一個非常確定的信號,如果以合適的價格投資中國大模型創業公司,也能在很短時間內做到估值成倍增長。

中國投資人的耐心只有三五年,這是資本運作模式決定的。投資人從LP手里募資,需要在一定年限內退出并拿到可觀的收益。投資人退出的渠道包括項目并購、上市,或是在后續融資中把自己手里的股份賣給新投資方。

早期融資可以靠風口和講故事,但走到中后期甚至上市,就必須有一定規模的商業化能力。投資人們發現,拖得越久,項目上市或被并購的難度就越高,因為AI領域主要的商業模式是做B端的定制化項目,這條路徑就決定了創業公司很難做出高增長的收入。投資人只能趁風口還在,迅速推動公司完成多輪融資,抬高估值,之后哪怕打折出售手里的股份,也是劃算的。

2023年密集購買A100的中國公司主要是自身有業務需求的大廠,創業公司很少。圖/IC

這也是為什么2023年大模型相關的發布會層出不窮,各種大模型榜單百花齊放且排名各不相同,這些都是有助于融資的“故事”。類似的路徑在幾年前的AI產業已經出現過一次,那個階段的代表公司是AI四小龍。2023年的大模型創業只是把過去三年走完的路在一年時間里加速完成。

但短視絕不是投資人單方面的問題。在今天的商業環境下,大部分人都追求短期的、確定性的結果,十年,甚至五年后的未來都似乎難以把握。

2023年,中國大模型產業迅速從比拼大模型參數進入到比拼商業化的階段。2024年1月的CES(消費電子展)上,兩位著名的AI科學家李飛飛和吳恩達均表示,接下來AI商業化會有明顯發展,會深入到更多行業。

目前看來,大模型的主要應用方向有兩個,一是通過大模型技術為C端用戶提供新的工具,比如付費版GPT4、百度用文心大模型重構的百度文庫、新的AI視頻剪輯工具、文生圖工具等。但C端付費短期內很難有大規模增長,對于大模型工具有剛需的人群相對較少。

更有希望的商業化方向是B端服務。在中國市場,做B端軟件服務一直是一個“老大難”的生意。多位投資人和業內人士都提到,中國市場最大的B端客戶是政府和國企,大模型做為先進的生產力工具,會有一個直接影響是減少人力。而在政府和國企,減少人力在很多時候反而會變成阻力。

如果退而求其次,選擇中小B客戶,在2024年恐怕也很難。一位AI大模型創業者說,他近期詢問了不少企業客戶,得到的回應是:“大模型能做什么?能幫我裁員還是能幫我賺錢?”

到今天,即使是最先進的大模型也依然存在“幻覺”問題,這在C端應用上還可以忍受,但在一些專業的B端場景中,有“幻覺”就意味著難以真正落地。過去比對式AI,例如人臉識別,如果識別錯誤,人工輔助、調整的成本很低,但大模型擅長“一本正經地胡說八道”,具有一定迷惑性。

但大模型已經切實在實際應用了。多位業內人士都提到,因為大模型的出現,很多過去無法解決的問題都有了新方法可以解決,且效率有明顯提升。例如前文提到的拼接大模型,在過去很少有人嘗試,現在不少AI公司都開始把多個不同場景的小模型拼在一起,在解決大部分同類問題時,不需要再單獨訓練模型,可以直接調取使用。

此外,在一些有龐大業務的公司里,大模型也已經落地使用。類似于上一輪AI視覺技術帶動AI算法的發展,這些AI算法迅速在內容推薦、電商、打車、外賣等領域發揮重要價值?,F在,騰訊的游戲業務、阿里的電商業務、字節的內容業務等,都已經用上了大模型。

2024年,AI大模型的發展會有幾個相對確定的趨勢,一是融資熱度下滑,2023年出現的一家公司完成多輪數億美元融資的情況會明顯減少,大模型創業公司需要尋找新的出路。目前看來,大廠們更有實力做大模型基礎設施的工作,創業公司可以考慮調整方向,填補基礎大模型到應用之間的空白。

二是大模型的應用會持續深入,但這主要會集中在數字化程度很高且業務體量非常大的領域。在C端,大模型也會進一步普及,不過對于中國公司來說,不能只依賴C端用戶付費,C端應用場景中會加入其他變現模式,主要是廣告。

三是國產算力會進一步得到重視,得到重視并不意味著短期內會有明顯進步,這是一個漫長的過程。國產算力能力提升的同時,會有更多趁機炒作、造勢、圈錢的現象。

風口會刺激產業迅速擴張,泡沫隨之而生,機會越大,泡沫就越大。只有撇開泡沫,才能看清產業發展的新機會。

猜你喜歡
算力模型
基于網絡5.0的重疊網形態算力網絡
蘇州:到2025 年算力產業創新集群規模達4 000 億元
首屆算力互聯互通大會在京召開 共話算力產業機遇與挑戰
衛星通信在算力網絡中的應用研究
中國電信董事長柯瑞文:算力成為數字經濟的主要生產力
適用于BDS-3 PPP的隨機模型
基于SiteAI算力終端的交通態勢感知系統
p150Glued在帕金森病模型中的表達及分布
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合