英偉達與AI晶片的未來之戰

機器之能發表於2021-06-22

圖片

英偉達 GPU 主導著 AI 晶片。不過在GPU這條道路上,AI系統有朝一日將花費數億甚至數十億美元進行訓練——並且,還有其他成本。更多的主體將被排除在所謂主流之外。而使用更多 GPU 的問題還在於,每次 GPU 數量增加一倍,成本就會增加一倍,環境足跡、碳和汙染也會增加一倍。

大量初創公司表示,快速發展的人工智慧領域需要新架構,GPU類似一種簡單的語言阻止了人們思考更更復雜的問題,也讓AI創新陷入困境。

隨著智慧物聯網裝置開始一場機器對機器的革命,更多的資料集將會流動,所有人的觀點都集中在同一件事上——擁有人工智慧晶片的未來。 我們仍處於人工智慧的早期階段。


作者 | NICOLE KOBIE

編譯 | 吳昕


有一個關於英偉達如何從遊戲和圖形硬體轉向主宰 AI 晶片的虛構故事,它與「貓」有關。

早在 2010 年,現任英偉達首席科學家的比爾·達利 (Bill Dally) 與史丹佛大學前同事、電腦科學家吳恩達 (Andrew Ng) 共進早餐,當時他正在與谷歌合作一個專案。

「他試圖在網際網路上尋找貓——他沒有那樣說,但他就是這樣做的,」達利說。

吳恩達在 Google X 實驗室從事一個專案,旨在構建一個可以自主學習的神經網路。這個神經網路在 YouTube 上觀看了 1000 萬個影片,學會了如何識別人臉、身體和貓—— 但要做到這一點,系統還需要數千箇中央處理器。

「我說,『我敢打賭我們可以只用幾個 GPU 就可以做到,』」Dally 說。GPU(圖形處理單元)專門用於處理更密集的工作負載,例如 3D 渲染——這使得它們在處理AI方面比CPU更拿手。

為此,Dally 求助於現在領導英偉達深度學習研究的 Bryan Catanzaro。他做到了——僅用 12 個 GPU(就搞定了)——這證明訓練吳恩達的神經網路識別貓,在處理平行計算方面,GPU 比 CPU 更快、更有效。

不過,Catanzaro希望人們知道英偉達開始AI方面的努力並非緣於那次偶然的早餐。事實上,在 2008 年加入英偉達之前,他還是伯克利分校的研究生時就一直在為 AI 開發 GPU。

「英偉達在這個市場上的地位並非偶然,」他說。

現在英偉達主導了 AI 晶片,這一切的時間和方式似乎並不重要。1993年,黃仁勳與他人建立英偉達,主要收入來源仍然是圖形和遊戲顯示卡,但就在上一個財政年度,資料中心 GPU 銷售額已經攀升至 67 億美元。2019 年,前四大雲提供商 AWS、谷歌、阿里巴巴和 Azure 中 97.4%的人工智慧加速器中部署了英偉達的圖形處理器

Cambrian AI Research 的分析師 Karl Freund 表示,它佔據了人工智慧演算法訓練市場「近 100%」的份額。500 強超級計算機中近 70% 使用其 GPU。幾乎所有 AI 里程碑都發生在英偉達的硬體上。吳恩達的 YouTube cat finder、DeepMind 的棋盤遊戲冠軍 AlphaGo、OpenAI 的語言預測模型 GPT-3 都在 英偉達的硬體上執行。

儘管英偉達取得了這樣的成功,但Catanzaro 仍然對一些人的說法感到不滿,即英偉達是盲目地從遊戲領域進入人工智慧領域的。

「我發誓,我讀過的幾乎每一個故事都是這樣的:圖形處理器碰巧在人工智慧方面表現出色,英偉達透過向新市場出售現有晶片獲得了暫時的意外之財,很快它們就會被初創公司取代。」Catanzaro 說。

「但10年來,英偉達在如何進軍AI市場方面一直非常注重戰略。」

十年過去了,該市場已經成熟,可以進行顛覆。越來越多的企業開始使用人工智慧來理解他們收集的海量資料,而政府則將資金投入深度學習研究以保持領先地位。中美之間的競爭尤為激烈;德勤分析師 Costi Perricos 表示,人工智慧將成為各國競爭的「下一種超級大國」。與此同時,深度學習模型的規模和複雜性不斷增加,需要更多計算能力。

OpenAI 的 GPT-3,一個可以寫出合理文字段落的深度學習系統,就是一個極端的例子,它由 1750 億個引數組成,這些引數是構成模型的變數。它的計算成本估計為 460 萬美元,此後被具有 1.6 萬億個引數的谷歌語言模型超越。需要更高效的硬體來處理更多引數和更多資料以提高準確性,同時還要防止人工智慧成為更大的環境災難——丹麥研究人員計算出,訓練GPT-3所需的能量相當於駕駛70萬公里的碳足跡。

我們需要更多的人工智慧晶片,我們需要更好的人工智慧晶片。雖然英偉達的早期工作為 GPU 製造商提供了領先優勢,但挑戰者正在競相迎頭趕上。

谷歌於 2015 年開始製造自己的晶片;在 2016 年收購 Annapurna Labs 後,亞馬遜去年開始將 Alexa 的大腦轉移到自己的 Inferentia 晶片上;百度擁有崑崙,最近估值為20億美元;高通擁有 Cloud AI 100;IBM 正在致力於節能設計。AMD 收購 Xilinx 用於 AI 資料中心工作,Intel 在 2019 年為其 Xeon 資料中心 CPU 新增了 AI 加速;它還收購了兩家初創公司,2016 年以 4.08 億美元收購了 Nervana,2019 年以 20 億美元收購了 Habana Labs。尚未被搶購的初創公司已經發布了自己的硬體,在過去幾年中,Graphcore、SambaNova、Cerebras、Mythic AI 等公司釋出或試用了 AI 晶片。

我們仍處於人工智慧的早期階段。這些貓是十年前才計算出來的,而這些初創公司大多隻有幾年的歷史。

隨著智慧物聯網裝置開始一場機器對機器的革命,更多的資料集將會流動起來,所有人的觀點都集中在同一件事上:擁有人工智慧晶片的未來。

圖片Bryan Catanzaro, NVIDIA 副總裁,領導英偉達深度學習研究

機器學習對工作量不同於其他任何計算,需要使用欠精確的數字進行大量的數學計算。傳統的高效能運算(HPC)是將多個系統連線在一起,構建超級計算機來處理複雜的工作負載,如科學模擬或金融建模,需要高精度的數學,使用64位數字(如果不是更高的話)。

「數學運算大部分都很簡單,但有計算量很大。」人工智慧計算也需要大量的計算基礎設施,但所使用的數學計算並不精確,數字是16位甚至是8位——這類似於超現實影像和80年代畫素化遊戲之間的區別。

人工智慧晶片是透過程式設計框架(如谷歌TensorFlow和Facebook的PyTorch)最佳化以執行機器學習工作負載的處理器。在訓練或執行深度學習模型時,AI 晶片不一定會完成所有工作,而是作為加速器快速處理最密集的工作負載。

例如,NVIDIA 的盒裝 AI 系統 DGX A100 使用 8 個自己的 A100 「Ampere」GPU 作為加速器,但還配備了 128 核 AMD CPU。

人工智慧並不新鮮,但我們之前很難使深度學習模型成為可能的計算能力,這讓研究人員不得不等待硬體跟上他們的想法。

「GPU的出現開啟了一扇大門。」另一家制造人工智慧晶片的初創公司SambaNova的聯合創始人兼執行長 Rodrigo Liang表示。

2012年,多倫多大學的研究人員 Alex Krizhevsky 在一年一度的 ImageNet 計算機視覺挑戰賽中擊敗了其他競爭對手,該挑戰賽讓研究人員相互競爭以開發可以識別影像或其中物體的演算法。Krizhevsky 首次使用由 GPU 驅動的深度學習來擊敗手工的編碼工作。到2015年,所有在ImageNet競賽中排名靠前的都是使用GPU。

深度學習研究爆炸式增長。英偉達的技術效能提高了20倍甚至更多,當英國晶片初創公司Graphcore的聯合創始人成立公司時,投資人都不見他們。

「我們從風投那裡聽到的是:『什麼是人工智慧?』」該公司聯合創始人兼技術長西蒙•諾爾斯(Simon Knowles)回憶起2015年去加州尋求融資的經歷。

「這真的很令人驚訝。」幾個月後,也就是2016年初,一切都變了。「那時,每個人都熱衷於人工智慧,」Knowles 說。「然而,他們不喜歡晶片。」新的晶片架構被認為是不必要的,英偉達已經覆蓋了整個行業。

圖片

GPU、IPU、RPU——它們都用於處理深度學習的資料集,但名稱確實反映了架構上的差異。Graphcore的Colossus MK2 IPU與獨立執行的處理器是大規模並行的,這種技術被稱為多指令、多資料。

但是,在 2016 年 5 月,谷歌改變了一切,他們宣佈已經為人工智慧應用開發了自己的晶片,Cerebras 的 Feldman 稱之為「虛張聲勢的戰略決策」。這些被稱為張量處理單元 (TPU),旨在與公司的 TensorFlow 機器學習程式設計框架配合使用。Knowles 表示,此舉向投資者發出了一個訊號,即新處理器設計可能存在市場。

「突然間,所有的風投都在想:那些瘋狂的英國人在哪裡?」 他說。從那時起,Graphcore 已經籌集了 7.1 億美元(5.15 億英鎊)。

英偉達的競爭對手辯稱,GPU 是為圖形而不是機器學習而設計的,儘管其強大的處理能力意味著它們在人工智慧任務方面比 CPU 更好,但是,它們的市場主導地位持續這麼長時間主要是因為精心最佳化和複雜的軟體層。

「英偉達在隱藏GPU複雜性方面做得非常出色」Graphcore 聯合創始人兼執行長Nigel Toon說。

「它之所以有效,是因為他們建立的軟體庫、框架和最佳化,使複雜性得以隱藏。對於英偉達來說,這是一項非常艱鉅的任務。」

但是忘記GPU吧,人們認為,你可能會從頭開始設計一個具有全新架構的AI晶片。有很多可供選擇。Google的TPU是專用積體電路(ASIC),專為特定工作負載而設計;Cerebras製造了一個晶圓級引擎,這是一個比任何其他晶片大56倍的龐然大物;IBM和BrainChip以人腦為模型製造神經形態晶片;Mythic和Graphcore都製造了智慧處理單元(IPU),儘管它們的設計有所不同。還有很多。

Catanzaro認為,許多晶片只是 AI 加速器的變體——任何能提升 AI 的硬體的名稱。「我們談論 GPU、TPU 或 IPU 或其他任何東西,但人們對這些字母過於執著,」他說。

「我們之所以稱 GPU 是因為我們所做的事情的歷史……但 GPU 一直是關於加速計算的,人們關心的工作負載的性質在不斷變化。」

任何人都可以競爭這個領域嗎?英偉達在核心基準測試 MLPerf 中占主導地位,MLPerf 是深度學習晶片的黃金標準,儘管基準測試很棘手。

Cambrian AI Research 的分析師 Karl Freund 指出,MLPerf 是一種由包括谷歌在內的學術界和行業參與者設計的基準測試工具,目前由谷歌和英偉達主導,但初創公司通常不會費心完成所有工作,因為建立一個系統的成本最好花在其他地方。

NVIDIA確實很麻煩——而且每年都要超過谷歌的TPU。「谷歌發明了 MLPerf 來展示他們的 TPU 有多好,」英偉達解決方案架構和工程負責人馬克·漢密爾頓( Marc Hamilton)說。「黃仁勳說如果谷歌每次執行MLPerf基準測試時,結果都顯示GPU比TPU稍微快一點,那就太好了。」

為了確保它在一個版本的基準測試中名列前茅,英偉達將一臺內部超級計算機從36個DGX盒升級到驚人的96個。這需要重新安裝整個系統。為了儘快完工,他們簡單地切斷了電纜—— Hamilton 說這是價值100萬美元的裝置——並把新裝置運了進來。這可能有助於突出基準驅動下的瘋狂行為,但它也啟發了重新設計DGX:當前一代區塊現在可以以20個為一組組合,而無需重新佈線。

為了確保GPU在一個版本的基準測試中名列前茅,英偉達將一臺內部超級計算機從 36 個 DGX 盒升級到了驚人的 96 個。這需要重新佈線整個系統。為了足夠快地做到這一點,他們簡單地切斷了電纜—— Hamilton 說這是價值約 100 萬美元的套件——並運送了新裝置。這可能有助於突出由基準驅動的瘋狂行為,但它也激發了重新設計DGX 的:當前的區塊現在可以組合為20個組,而不需要重新佈線。

在基準測試和超級計算機方面,您可以隨時新增更多晶片。但對於 AI 計算的另一面——邊緣推理——這是一個不同的故事。

圖片一個 NVIDIA SuperPOD,它的機架構成了 Cambridge-1 超級計算機

英偉達在 2020 年以 400 億美元的價格收購了 ARM,這家英國晶片設計公司的架構為全球 95% 的智慧手機提供支援,這引起了全世界的關注。

但各界反應不一。早已卸去實際職務而只擔任ARM股東的ARM聯合創始人Hermann Hauser,認為英偉達收購ARM是一場「災難」,這可能會破壞 ARM 在市場上的中立性。世界各地的監管機構——歐盟、英國、中國和美國——正在密切研究該交易。

ARM 設計晶片,將智慧財產權授權給公司以供其使用。如果 AI 晶片製造商需要用於系統的 CPU,他們可以從 ARM 獲得晶片設計許可,並按照他們的規格製造。競爭對手擔心英偉達控制 ARM 可能會限制這些合作伙伴關係,儘管黃「明確」表示英偉達會尊重 ARM 的開放模式。

據報導,英國政府正在考慮對國家安全的任何影響,儘管 ARM 目前歸日本軟銀所有,而且中國擔心 ARM 歸一家美國公司所有,這可能意味著其設計在現有限制下被禁止出口到列入黑名單的中國公司。

圖片

在 Cerebras,執行長 Andrew Feldman 意識到,晶片上的通訊速度很快,但它們之間的通訊速度會變慢——所以為什麼不建造一個真正的大晶片,這樣你的資料就永遠不必離開? Cerebras Wafer Scale Engine 將 400,000 個核心塞進 46.225 平方毫米。「GPU 有正確的核心,但有錯誤的通訊架構,」他說。

ARM是晶片的主要設計者,該晶片將在現實世界中應用深度學習——即所謂的邊緣推理。這意味著該交易可能對市場形態產生巨大影響;在ARM幫助下,英偉達可以憑藉其GPU和邊緣優勢在資料中心領域佔據主導地位。

什麼是邊緣推理?為了訓練和應用模型,英偉達強大、高效能的系統會對資料進行大量處理,但人工智慧還有另一種工作量稱為推理,這是一項更輕量級的任務,即使用訓練過的模型來解釋一些東西——比如,無人駕駛汽車理解攝像頭看到的東西,一個智慧手機應用程式發現你的臉部邊緣,把貓耳朵貼在你的自拍照上,或者一個醫學成像模型在掃描中發現癌症的跡象。由於需要巨大的計算能力,訓練是在一個資料中心完成的,但推理可以在兩個地方找到。

第一個也在資料中心:當你向 Alexa 或 Siri 提問時,它會被髮送回亞馬遜和蘋果的伺服器進行轉錄和回覆。第二個推理發生在終端使用者裝置中,例如相機、汽車和智慧手機——這被稱為邊緣計算。這需要較少的處理能力,但需要快速(沒有人願意等待他們的無人駕駛汽車思考後再決定是否剎車)。

英偉達目前在資料中心方面佔據主導地位。它的 A100 處理用於訓練的資料,而推理被虛擬化為更小的微型伺服器,允許在同一硬體上同時發生 50 個或更多推理工作負載。這對於像 AWS 這樣提供 AI 即服務的科技巨頭很有幫助,因為多家公司可以使用相同的硬體而沒有資料洩露的風險。

在邊緣,英偉達有用於無人駕駛汽車的 DRIVE 和用於現場推理的 EGX,但低功耗晶片不是它的傳統專長——如果你曾經使用過遊戲膝上型電腦,你會發現它比Chromebook更需要頻繁插電。低功耗晶片是ARM的領域,這也是英偉達斥資400億美元收購該公司的原因。

談到人工智慧,ARM 的努力主要集中在兩個領域。首先,它正在將軟體框架安裝到其現有的 CPU 上。對於更密集的工作負載,它開發了一種稱為 Ethos 的神經處理單元 (NPU),用作加速器。ARM 的 IP 產品部總裁 Rene Haas 表示,使用 Ethos-U55 的裝置應該很快就會到貨,因為獲得該設計許可的公司已經生產了晶片。

有了邊緣人工智慧,語音助手將不再需要將語音上傳到 AWS 或蘋果伺服器進行處理,而是可以根據本地智慧做出響應。

「它允許工作在靠近源頭的地方完成,這在很多方面都有助於提高效率,」Haas 說,並指出將資料來回傳送到雲會消耗電池電量。

「我們談論物聯網已經很長時間了,但直到現在才實現這一願景。」英偉達歐洲、中東和非洲地區副總裁戴維·霍根 (David Hogan) 表示, 「正是這種轉變是我們收購 ARM 計劃的核心。」

圖片Cambridge-1 超級計算機受控環境中的技術人員

當其他人都在烤香蕉麵包、狂看Netflix的時候,英偉達的解決方案架構和工程主管Marc Hamilton 在去年花了很多時間建造了一臺價值4000萬英鎊的超級計算機,克服了疫情造成的短缺,基本上按時組裝了Cambridge-1。

英偉達樂高式系統使構建變得更加容易。8個A100晶片構成了被稱為DGX的計算系統的核心——這與執行你的膝上型電腦的英特爾或AMD晶片之間的關係是一樣的。DGX售價19.9萬美元,是一臺完整的人工智慧計算機,具有記憶體、網路和其他功能,被設計成相對即插即用。Cambridge-1由一排又一排裝著20個dgx的金盒子組成,被稱為「超級pod」。

Hamilton 說,Cambridge-1 將成為英國最大、最強大的人工智慧超級計算機,在世界上排名第 30 位(儘管排名可能會發生變化)——但它只會在英偉達自己的集合中排名第五。Cambridge-1 使用 80 個 DGX A100 盒子建造,而最大的 Selene 使用了 560 個盒子。

英偉達在英國建造 Cambridge-1 的部分原因是收購了 ARM,因為收購意味著該公司在英國獲得了員工。雖然它不是整體最快的,也不是最大的,但是,Cambridge-1 聲稱擁有兩個第一。

Hamilton 稱其為世界上第一臺雲原生超級計算機,因為它具有類似於 AWS 的分割槽功能,讓公司可以使用相同的硬體而不會出現安全漏洞或資料洩露的風險。這讓 Cambridge-1 有了第二個第一:這是英偉達將向外部合作伙伴開放的唯一超級計算機,讓大學和醫療保健巨頭 AstraZeneca、Oxford Nanopore 和 GSK 執行自己的深度學習模型。

為什麼英偉達要建造自己的超級計算機?原因之一是它需要用這種工具來吸引最優秀的人。早在 2016 年,英偉達還沒有超級計算機,Facebook 和谷歌正在搶購最優秀的人工智慧研究人員。

「有時候人才流動並不完全取決於薪酬,」Hamilton 說。「谷歌和 Facebook 擁有數以千計的 GPU 用於運營業務,並且允許AI 研究人員使用這些 GPU。」

圖片

SambaNova Systems 的軟體定義方法將資料放在首位,用過濾和減少指令代替加法和減法等整數。SambaNova 將其設計稱為可重新配置的資料流,這是透過每個「Cardinal」晶片的 1.5TB 記憶體實現的,其中每個 DataScale SN10-8R 系統中有 8 個記憶體。

現在,英偉達超級計算機 Selene 是世界第五大計算機,僅次於日本一臺、中國一臺和美國政府擁有的兩臺。Hamilton 說,這意味著如果你是一名想要獲得最快 AI 硬體的研究人員,你可以為中國、美國或英偉達工作。中國的目標是到 2030 年成為人工智慧的全球領導者,而美國則希望保持其在技術上的領先地位;人工智慧方面已經存在緊張局勢,但最近兩國之間的貿易戰可能會將其變成一場軍備競賽。作為一家美國公司,英偉達並沒有完全避免此類問題。

Catanzaro的40人實驗室的研究人員開發了可在英偉達自己系統中使用的人工智慧,但該實驗室還充當系統架構師的「玻璃容器」,可以窺視深度學習模型在未來的工作方式。

「如果你想為未來製造晶片,希望它對未來有用,你必須有能力預測未來最重要的工作負載是什麼——它們在計算上是什麼樣子,」Catanzaro 說。「如果你搞砸了,你就製造了錯誤的晶片。」晶片的設計和製造需要數年時間,這種遠見是必要的。

雖然目前大多數研究人員目前都在研究 GPU,但開發模型有沒有可能脫離GPU呢?「如果開發的模型不再在 GPU 上執行,或者至少不能在 GPU 上執行,會發生什麼?」Dally 認為這並非不可能。

「新模型起飛之前,我們通常已經聽說過它並有機會對其進行測試,確保它在我們的 GPU 上執行良好。」他說。

其他人不同意。他們認為 GPU 可能會阻礙深度學習模型發揮其全部潛力。「每個人都將他們的模型轉向當今的技術,」Cerebras 的 Feldman 說。

「我們最高興和最興奮的事情之一是看到一群正在編寫全新模型的客戶。」 他說,今年 Cerebras 將展示它所謂的「GPU 不可能完成的工作」的例子——在 GPU 上根本無法完成的工作。

Graphcore 的 Toon 說,研究人員早就告訴他,今天的硬體阻礙了他們。他的搭檔Knowles則引用了奧威爾的話,「這就像是一種簡單的語言阻止了人們思考更復雜的問題。」

「有一些想法,例如機率機器學習,仍然被擱置,因為像 GPU 這樣的今天的硬體不允許這種想法繼續向前發展,」Toon 說。「競爭焦點將是英偉達能夠以多快的速度發展 GPU,還是會推出新的東西來實現這一點?」

麻省理工學院(MIT)電腦科學和人工智慧實驗室(Computer Science and Artificial Intelligence Lab)的研究員尼爾·湯普森(Neil Thompson)在人工智慧會議上注意到一個趨勢,研究人員暗示,計算能力的限制阻礙了他們的模型,限制了他們的選擇和資料集,迫使一些人在他們的工作中留下錯誤,因為他們負擔不起重新執行模型來解決問題。

「這真的很普遍,如果我們要像迄今為止一樣實踐它,這對於深度學習的未來來說是一個非常大的問題,」他說。

Thompson 和同事分析了 1,058 篇 AI 論文,發現機器學習的計算需求遠遠超過硬體改進或模型訓練效率。在這條道路上,系統有朝一日將花費數億甚至數十億美元來訓練——並且還有其他成本。

「使用更多 GPU 的問題在於,每次 GPU 數量增加一倍,成本就會增加一倍,環境足跡、碳和汙染也會增加一倍,」Thompson 說。

他認為,僅靠硬體解決方案——無論是來自英偉達還是挑戰者——都不足以阻止人工智慧創新陷入困境。相反,我們需要構建更高效的模型並更好地利用我們已有的模型。諸如稀疏性之類的想法——忽略資料集中的零以節省計算——可以提供幫助,因為對資料更加有條理,只將其與相關引數進行比較。另一個想法是將我們從模型中學到的東西提煉成更輕量級的方程,只執行模型的相關部分而不是大量通用部分。

如果沒有這樣的努力,我們將需要更大的資料中心。但人工智慧不應該僅限於那些買得起超級計算機的人。Thompson 說,在從事高階深度學習工作的大學中,「計算機能力較弱的大學所佔比例已經越來越小」。

「仍然有相當多的人可以玩這個遊戲,但是隨著計算負擔的增加,玩家的數量越來越少。我們已經到了有些人被排除在外的地步。」

可以削減成本,這可能是初創公司贏得客戶對抗現有企業的一種方式。AWS 去年將 Habana Labs 的晶片新增到其雲中,稱這位英特爾擁有的以色列設計師的執行成本降低了 40%。

「為了讓 AI 惠及所有人而不僅僅是富人,你確實需要提高價效比。」Habana Labs 首席商務官 Eitan Medina 表示。

人工智慧已經存在偏見問題,而對硬體的不平等訪問加劇了這一問題。「這意味著我們只會看到硬幣的一面,」英偉達新興領域負責人 Kate Kallot 說。

「如果你不考慮世界上的大部分人口……我們將如何解決世界各地的挑戰?」 她指出聯合國的可持續發展目標:許多人工智慧研究人員正在將他們的工作轉向解決貧困和氣候危機等挑戰,但這些問題將在很大程度上影響新興市場。

除此之外,還有其他挑戰。在大流行期間,處理器的製造一直受到限制,而去年中美之間的貿易衝突讓人們擔心,全球晶片工廠主要在亞洲。歐盟(EU)最近承諾,到2030年,將生產全球五分之一的高階晶片。晶片設計師大多外包製造——英偉達的晶片是由臺灣台積電(TSMC)製造的——不過,英特爾有自己的代工廠。今年3月,英特爾宣佈計劃首次在美國開設兩家新工廠,為外部設計師生產晶片,這或許會讓美國在製造方面擁有更多控制權。

隨著這些障礙被克服,晶片繼續進化,人工智慧將擴充套件到觸控一切,就像wifi支援和應用程式被新增到從烤麵包機到冰箱的物體上的連線浪潮一樣。但在未來,智慧不僅僅意味著聯網,還意味著嵌入人工智慧

「它將無處不在,」ARM的哈斯說。「在未來幾年內,它將無處不在地出現在每一個計算應用程式中。」圖片

參考連結

https://www.wired.co.uk/article/nvidia-ai-chips

相關文章