隨著 AI 算力的逐步提升,能耗和成本也在逐漸增加。根據最新的研究結果,訓練一個 AI 模型產生的能耗多達五輛汽車一生排放的碳總量,昂貴的 BERT 模型的碳足跡約為 1400 磅二氧化碳,這與一個人來回坐飛機穿越美洲的排放量相當。再加上演算法、資料和算力成本,機器學習可能會使公司花費 51,750 美元至 136,750 美元不等,難道這也是普通公司和開發者玩不起系列?
AI 算力提升的背後:能耗劇增
過去,人工智慧經常被比作石油行業:一旦對(資料 / 石油)進行開採、精煉,就可以變為高利潤的商品。現在看來,人工智慧在能耗層面的表現也可與石油行業一較高下。根據最新的論文結果,訓練一個 AI 模型產生的能耗多達五輛汽車一生排放的碳總量。
這篇 是馬薩諸塞大學阿默斯特校區的研究人員公佈的, 以常見的幾種大型 AI 模型的訓練週期為例,發現該過程可排放超過 626,000 磅二氧化碳,幾乎是普通汽車壽命週期排放量的五倍(其中包括汽車本身的製造過程)。
這一結果也是很多 AI 研究人員沒有想到的。西班牙拉科魯尼亞大學的一位電腦科學家表示:“雖然我們中的很多人對此(能耗)有一個抽象的、模糊的概念,但這些數字表明事實比我們想象得要嚴重。我或者是其他 AI 研究人員可能都沒想過這對環境的影響如此之大。”
以自然語言處理為例,研究人員研究了該領域中效能取得最大進步的四種模型:Transformer、ELMo、 和 GPT-2。研究人員在單個 GPU 上訓練了至少一天,以測量其功耗。然後,使用模型原始論文中列出的幾項指標來計算整個過程消耗的總能量。
結果顯示,訓練的計算環境成本與模型大小成正比,然後在使用附加的調整步驟以提高模型的最終精度時呈爆炸式增長,尤其是調整神經網路體系結構以儘可能完成詳盡的試驗,並最佳化模型的過程,相關成本非常高,幾乎沒有效能收益。 BERT 模型的碳足跡約為 1400 磅二氧化碳,這與一個人來回坐飛機穿越美洲的排放量相當。
此外,研究人員指出,這些數字僅僅是基礎,因為培訓單一模型所需要的工作還是比較少的,大部分研究人員實踐中會從頭開發新模型或者為現有模型更改資料集,這都需要更多時間培訓和調整,換言之,這會產生更高的能耗。根據測算, 構建和測試最終具有價值的模型至少需要在六個月的時間內訓練 4,789 個模型,換算成碳排放量,超過 78,000 磅。
隨著 AI 算力的提升,這一問題會更加嚴重。
人工智慧趨向私有化:成本高昂
這些結果也凸顯了 AI 另一個日益嚴重的問題:產生結果所需的大量資源使學術界工作人員很難繼續研究。顯然,這種透過大量資料訓練龐大模型的趨勢對學者尤其是研究生來說並不可行,因為沒有資源,這讓學術界和工業界的研究人員之間出現公平訪問的問題。
拋開環保和能耗本身,人工智慧的訓練過程同樣成本高昂。以機器學習為例,資料、演算法、算力成本同樣“觸目驚心”。
資料成本
與資料相關的機器學習成本主要表現在資料集方面,包括資料集的獲得、資料的標註等。 代表 Alegion 所做的一項 表明,所有組織中的 96%都遇到了與訓練資料質量和數量相關的問題。同一項研究表明,大多數專案需要超過 100,000 個資料樣本才能表現良好。
如果還沒有資料,可以假設能夠在大約一個小時內收集 5–10 個樣本並對它們進行標註。利用 之類的服務來實驗整個過程, 生成 100,000 個樣本資料集的話,花費大約為 70,000 美元。
如果已經收集了大量資料,則可以使用 之類的服務來對其進行標註。在這種情況下,獲得 100,000 個帶有標籤的資料樣本,則可能需要花費 8,000 到 80,000 美元的費用,具體的需要取決於標註的複雜程度。
此外,檢查和校正資料樣本與生成和註釋資料樣本一樣耗時。Dimensional Research 研究報告中提到,66%的公司在其資料集中遇到偏差和錯誤問題。有些公司選擇採用完整的內部方法(自己做所有標註),也有一些公司會選擇外包和內部混合使用。第二種常見的情況是將大部分工作外包,然後由個別人員負責驗證和清理。 外包 10 萬個資料樣本的初始成本可能會增加大約 2500 至 5,000 美元。
演算法成本
Dimensional Research 報告指出,大多數企業 AI 團隊的成員不足 10 名。假設每個技術團隊有 5 名成員,其中 3 個是外包。在這種配置下,團隊可能足以並行處理兩個專案,平均每 1.5 個月研究一個專案。基於此的成本是 2 名員工(2 x 5,000 美元),3 名自由職業者(3 x 3,000 美元),每月的總成本是 19,000 美元。如果團隊可以同時處理兩個專案,並且研究時間為 1.5 個月,則意味著該階段的成本約為每個專案 14,250 美元。
算力成本
與算力相關的機器學習成本主要表現在基礎架構、整合、維護以及各種處理器的功耗方面。
生產成本包括基礎架構成本(雲端計算,資料儲存),整合成本(資料管道開發,API 開發,文件)和維護成本。
其中,雲端計算的支出取決於部署演算法的複雜性。如果模型不是很深,並且是在低維表格資料上進行訓練,則將獲得 4 個虛擬 CPU 執行在 1 到 3 個節點上的服務,每月費用為 100 到 300 美元,即每年 1200 到 3600 美元。另一方面,對於無延遲的深度學習推理,價格從 10,000 美元到 30,000 美元不等。
整合可能比較棘手。在大多數情況下,只需要將 API 端點放在雲中並記錄下來,供系統的其餘部分使用即可,準備要使用的機器學習模型並編寫 API 腳手架最多需要 20 到 30 個開發小時,其中包括測試,成本約為 1,500 美元,加上修改系統的其餘部分以使用新 API 所需的成本。穩定的資料管道將花費更多的時間,大概需要 80 個小時左右。
附加項:落地成本
迄今為止,實施 AI 的最大成本是落地。太多人著迷於 ML 和 AI,並將其開發預算投入到追求該技術而不是解決實際問題上。我們正處於機器學習仍然是一項高度實驗性技術的階段,其成功率差異很大。Garter 預測,到 2022 年,將有 85%的 AI 專案交付錯誤的結果。
玩不起系列:成本總和
除去附加項成本和一系列功耗所帶來的成本, 機器學習專案可能會使公司花費 51,750 美元至 136,750 美元(不包括難以確定的其他成本)。高差異是由資料的性質決定的。這是一個非常樂觀的估計。如果企業位於美國,並且使用的是明智的資料(自由職業者不會這樣做),則與人才相關的費用將激增,使 ML 專案的費用超過 108,500 美元。
這樣高昂的價格使想要解決新問題或自動化其流程和決策的個人、小型團隊和初創企業無法使承擔。最艱難的步驟是第一步:獲取資料。沒有資料,幾乎不可能在研究階段驗證機器學習解決方案,從而導致幾乎死鎖。
綜上,這些因素都可能會導致人工智慧研究的私有化。對此,一位大資料和人工智慧領域的技術專家在接受 InfoQ 採訪時表示,BERT 模型其實可以解決一部分資料問題,因為要達到同樣的效果,它需要的資料量相對較小,但算力確實是很難攻破的問題,這也就意味著 硬體成本很難下降。目前,一種可行的解決方式是透過租用雲端 TPU 的方式來降低成本,但人工智慧逐漸趨於私有化確是事實,未來學術界將在非強依賴算力的領域有更多創新,工業界由於尚可承擔算力提升帶來的各種成本,會在強依賴算力的領域有更多突破,這將實現學術界與工業界的合理分工。