?

人工智能要消耗多少電力?

2024-05-06 11:13高地雪/編譯
世界科學 2024年4期
關鍵詞:用例消耗能源

高地雪/編譯

要計算出生成單張“教皇身著巴黎世家”AI圖片所消耗的瓦數和焦耳數并不容易。但論及人工智能的真實能耗,我們并非完全一無所知。

眾所周知,機器學習要消耗大量的能量。所有那些支持生成電子郵件摘要、弒君聊天機器人,以及動畫角色霍默 · 辛普森(Homer Simpson)唱新金屬音樂的視頻的人工智能模型,都在以每小時數兆瓦的速度累積著巨額的服務器費用。但似乎沒有人——甚至是這項技術背后的公司——能夠準確地說出成本是多少。

估計數字確實存在,但專家表示,這些數字只是部分和偶然的,只能讓人們對人工智能的總能源使用情況有一個粗略的了解。這是因為機器學習模型具有難以置信的可變性,能夠以顯著改變其功耗的方式進行配置。此外,那些最有條件制定法案的組織——如元平臺(Meta)、微軟(Microsoft)和開放人工智能(OpenAI)等公司——根本就沒有共享相關信息。微軟負責云運營和創新的首席技術官朱迪 · 普里斯特(Judy Priest)在一封電子郵件中表示,該公司目前正在“投入研究開發方法,以量化人工智能的能源使用和碳影響,同時致力于提高大型系統在培訓和應用方面的效率”。開放人工智能和元平臺方面則沒有給出回復。

我們可以確定的一個重要因素是首次訓練模型時和將其部署給用戶時的功耗區別。模型訓練尤其耗能,它消耗的電力要遠超傳統的數據中心活動。例如,訓練一個像GPT-3這樣的大語言模型,估計使用的電力要將近1300兆瓦時,大約相當于130戶美國家庭一年消耗的電量。對這個數據更直觀的說明是:在線觀看一小時的網飛視頻需要大約0.8千瓦時(0.0008兆瓦時)的電。這意味著你必須觀看1 625 000小時的流媒體才能消耗與訓練GPT-3所需的同等電量。

但是,我們很難說這樣一個數字要如何適用于目前最先進的系統。實際的能耗可能會比這更大,因為多年來人工智能模型的規模一直在穩步上升,而更大的模型需要更多的能源。另一方面,企業可能正在使用一些已經驗證過的方法來讓這些系統變得更節能,這將抑制能源成本上升的趨勢。

法美聯合人工智能公司抱抱臉(Hugging Face)的研究員薩莎 · 盧喬尼(Sasha Luccioni)表示,計算最新估計數據的挑戰在于,隨著人工智能逐漸贏利,企業變得更加保密?;乜磶啄昵?,像開放人工智能這樣的公司還會發布他們訓練制度的細節,包括使用的硬件和訓練時長。但是盧喬尼表示,對于ChatGPT和GPT-4這樣的最新模型,同樣的信息根本不發布。

“對于ChatGPT,我們不知道它有多大,不知道它的底層模型有多少參數,也不知道它在哪里運行……它有可能是‘三只浣熊疊羅漢站在雨衣里裝成人,因為你根本不知道兜帽下面是什么?!?/p>

盧喬尼撰寫了幾篇研究人工智能能源使用情況的論文,她認為這種保密性在一定程度上是源于企業之間的競爭,但也是為了轉移批評意見。人工智能的能源使用統計數據——尤其是那些最無聊瑣碎的用例的數據——自然會讓人聯想到加密貨幣的能耗浪費,并將兩者相比較。她表示:“人們越來越意識到,這一切并非沒有代價?!?/p>

訓練模型只是整個能耗問題中的一部分。在一個系統創建完成之后,它會被推向消費者,消費者使用它來生成輸出,這一過程被稱為“推理”。 2023年12月,盧喬尼和抱抱臉公司及美國卡內基梅隆大學的同事發表了一篇論文(目前正在等待同行評審),其中包含了對各種人工智能模型的推理能耗的初次估計。

盧喬尼和她的同事們對88個不同的模型進行了測試,這些模型涵蓋了從回答問題到識別對象和生成圖像的一系列用例。在每個用例下,他們運行任務1000次,并估計能源成本。他們測試的大多數任務使用的能源較少,例如,對書面樣本分類耗能0.002千瓦時,生成文本耗能0.047千瓦時。如果我們用觀看網飛流媒體一小時的耗能做比較,這些時間分別相當于觀看9秒或3.5分鐘所消耗的能量。(別忘了:這是執行每項任務1000次的能源成本。)圖像生成模型的能耗數據明顯更大,平均每1000次推理需耗能2.907千瓦時。這篇論文指出,智能手機充滿電所需的平均用電量為0.012千瓦時,因此,利用人工智能生成一幅圖像所消耗的能量可能幾乎和給你的智能手機充電所消耗的能量一樣多。

然而,重點在于“可能”,因為這些數據并不一定適用于所有用例。盧喬尼和她的同事們測試了十種不同的系統,包括從生成微小的64x64像素圖片的小型模型到生成4 K圖像的大模型,這導致最終得出的數值范圍極大。研究人員對所使用的硬件進行了標準化,以便更好地比較不同的人工智能模型。這并不一定反映了真實世界的部署,因為在真實世界中,軟硬件通常針對能源效率進行了優化。

“這肯定不能代表每個人的用例,但至少現在我們有了一些數據,”盧喬尼說,“我想在地上插一面旗子,說‘讓我們從這里開始吧?!?/p>

因此,這項研究提供了有用的相對數據,但并非絕對數據。例如,它表明,人工智能模型在生成輸出時所需的功率比在分類輸入時更多。它還表明,任何涉及圖像的任務都比文本更耗能。盧喬尼表示,盡管這些數據的偶然性或許令人沮喪,但這種有條件的、不確定的性質本身就說明了問題?!芭c生成性人工智能革命相伴而來的是我們一無所知的全球性代價,對我而言,這種(數據)差異尤其具有指示意義,”她說,“一言以蔽之:我們就是不知道?!?/p>

因此,由于變量繁雜,試圖確定生成一幅“身著巴黎世家的教皇”圖片所需的能源成本是很棘手的。但如果我們想更好地了解其中的全球性代價,還有其他的方法。如果我們不專注于模型推理,而是把目光放得更遠呢?

這就是荷蘭阿姆斯特丹自由大學的在讀博士生亞歷克斯 · 德弗里斯(Alex de Vries)的做法。他在自己的博客網站“數字經濟學家”(Digiconomist)上初次嘗試了計算比特幣的能源消耗,并使用英偉達圖形處理器(Nvidia GPU,這是人工智能硬件的黃金標準)來估算比特幣行業的全球能源消耗情況。德弗里斯2023年在《焦耳》(Joule)上發表的評論中解釋道,英偉達占據了人工智能市場銷售額的大約95%。該公司還發布了旗下硬件的能源規格和銷售預測。

通過整合這些數據,德弗里斯計算出,到2027年,人工智能行業每年可能要消耗85至134太瓦時(1太瓦時=10億千瓦時)的電力。這大約相當于德弗里斯的祖國荷蘭每年的能源需求。

“也就是說,到2027年,人工智能的電力消耗可能占全球電力消耗的0.5%,”德弗里斯告訴“前沿網”(The Verge),“我認為這是一個相當巨大的數字?!?/p>

國際能源署最近的一份報告也給出了類似的估計,報告表明,由于人工智能和加密貨幣的需求,數據中心的用電量將在不久的將來大幅增加。該機構表示,當前數據中心的能源使用量在2022年約為460太瓦時,到2026年可能增加到620至1050太瓦時,這分別相當于瑞典和德國的(年度)能源需求量。

但德弗里斯表示,重要的是把這些數字放在大背景下考量。他指出,從2010年到2018年,數據中心的能源使用量一直相當穩定,約占全球能源消耗的1%至2%。(我們這里所說的“數據中心”指的是構成“互聯網”的一切:從公司的內部服務器到你智能手機上所有無法離線使用的應用程序。)德弗里斯說,在這段時間內,需求確實增加了,但硬件效率也提高了,從而抵消了需求的增加。

他擔心的是,對于人工智能而言,情況可能會有所不同,這恰恰是因為企業傾向于簡單地投入更大的模型和更多的數據來處理任何任務?!斑@對效率來說是一種真正致命的動態,”德弗里斯說,“因為它為人們無腦地不斷增加計算資源創造了一種自然的激勵,而一旦模型或硬件變得更高效,人們就會把這些模型做得比之前更大?!?/p>

效率的提高是否能夠抵消不斷增長的需求和使用量,這是個無法回答的問題。與盧喬尼一樣,德弗里斯也為缺乏可用數據而感到惋惜,但他表示,世界不能簡單地忽視這件事?!澳壳八龅臄祿烙嬎闶菫榱烁闱宄@個問題未來走向的權宜之計,它肯定不是完美的數據,”他說,“但它已足以給出一些警告?!?/p>

一些涉足人工智能的企業聲稱,該技術本身可以幫助解決這些問題。代表微軟發言的普里斯特表示,人工智能“將成為推進可持續解決方案的有力工具”,并強調微軟正在努力實現“到2030年實現負碳排、水資源正效益和零浪費的可持續發展目標”。

但是,一家企業的目標永遠無法涵蓋整個行業的需求??赡苓€需要其他的方法。

盧喬尼表示,她希望看到企業為人工智能模型引入能源星級評級,讓消費者能夠像對待家電一樣對能源效率進行比較。對于德弗里斯來說,我們應該采用更根本的方法:我們真的需要使用人工智能來執行特定的任務嗎?“因為,考慮到人工智能的各種局限性,在很多情況下,它可能根本不是正確的解決方案,而我們將走上更難的那條路、通過浪費大量的時間和資源來搞懂這一點?!?/p>

資料來源 The Verge

本文作者詹姆斯 · 文森特(James Vincent)是一位專注于人工智能、機器人領域的資深記者

猜你喜歡
用例消耗能源
如此消耗卡路里
玉鋼燒結降低固體燃料消耗實踐
UML用例間包含關系與泛化關系的比較與分析
UML用例模型中依賴關系的比較與分析
降低鋼鐵料消耗的生產實踐
第六章意外的收獲
聯鎖軟件詳細設計的測試需求分析和用例編寫
我們消耗很多能源
用完就沒有的能源
————不可再生能源
從出土文獻用例看王氏父子校讀古書的得失
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合