據《紐約客》雜誌報導,OpenAI的熱門聊天機器人ChatGPT每天可能要消耗超過50萬千瓦時的電力,以響應使用者的大約2億個請求。相比之下,美國家庭平均每天使用約29千瓦時的電力。將ChatGPT每天的用電量除以普通家庭的用電量,可以發現ChatGPT每天的用電量是家庭用電量的1.7萬多倍。

聽起來很多,但如果生成式人工智慧被進一步採用,耗電量可能會更多。

例如,根據荷蘭國家銀行(Dutch National Bank)資料科學家亞歷克斯·德弗里斯(Alex de Vries)在可持續能源期刊《焦耳》(Joule)上發表的一篇論文中的計算,如果谷歌將生成式A技術整合到每次搜尋中,它每年將消耗約290億千瓦時的電量。據《紐約客》報導,這比肯亞、瓜地馬拉和克羅埃西亞等國一年的用電量還要多。

“人工智慧是非常耗能的,”德弗里斯說,“每個人工智慧伺服器的耗電量已經相當於十幾個英國家庭的總和。所以這些數字很快就會增加。”

然而,估計蓬勃發展的人工智慧行業消耗多少電力是很難確定的。據the Verge報導,大型人工智慧模型的執行方式存在相當大的差異,而推動人工智慧繁榮的大型科技公司並沒有完全公開他們的能源使用情況。

然而,在他的論文中,德弗里斯提出了一個基於英偉達(Nvidia)公佈的資料的粗略計算。這家晶片製造商佔據了圖形處理器市場約95%的份額。

德弗里斯在論文中估計,到2027年,整個人工智慧行業每年將消耗85至134太瓦時(1太瓦時相當於10億千瓦時)。

“到2027年,人工智慧的用電量可能佔全球用電量的0.5%,”德弗里斯說,“我認為這是一個相當重要的數字。”

自 環球市場播報