諾獎得主哈薩比斯新作登Nature,AlphaQubit解碼出更可靠量子計算機
机器之心發表於2024-11-21
谷歌「Alpha」家族又壯大了,這次瞄準了量子計算領域。
今天凌晨,新晉諾貝爾化學獎得主、DeepMind 創始人哈薩比斯參與撰寫的新論文登上了 Nature,主題是如何更準確地識別並糾正量子計算機內部的錯誤。我們知道,量子計算機有潛力徹底改變藥物發現、材料設計和基礎物理學。不過前提是:我們得讓它們可靠地工作。雖然對於傳統計算機花費數十億年才能解決的某些問題,量子計算機在幾小時內就可以搞定。然而,量子計算機比傳統計算機更容易受到噪聲的影響。如果想要量子計算機更可靠,尤其是在大規模情況下,則需要更準確地識別和糾正內部的錯誤。因此,谷歌 DeepMind 聯合谷歌量子 AI 團隊發表了一篇論文,推出了 AI 解碼器 AlphaQubit,它能夠以 SOTA 準確性識別並糾正量子計算的錯誤。據介紹,這項工作彙集了谷歌 DeepMind 的機器學習知識和谷歌量子 AI 的糾錯專業知識,從而加速構建可靠量子計算機的程序。兩支團隊表示,準確識別量子計算機錯誤是促使它們能夠大規模執行長時間計算的關鍵一步,將為科學突破和更多新領域的發現開啟大門。Nature 論文的標題為《Learning High-accuracy Error Decoding for Quantum Processors》,即《學習量子處理器的高準確性錯誤解碼》。- Nature 地址:https://www.nature.com/articles/s41586-024-08148-8
谷歌 CEO 桑達爾・皮查伊表示,「AlphaQubit 使用了 Transformers 解碼量子計算機,從而達到量子糾錯準確性新 SOTA。這是 AI + 量子計算的激動人心的交集。」我們接下來看 AlphaQubit 的技術細節和實驗結果。量子計算機利用最小尺度上物質的獨特屬性,例如疊加和糾纏,以比傳統計算機少得多的步驟解決某些型別的複雜問題。該技術依賴於量子位元,它們可以利用量子干涉篩選大量可能性以找到答案。不過,量子位元的自然量子態很脆弱,可能受到各種因素的干擾,包括硬體中的微觀缺陷、熱量、振動、電磁干擾甚至宇宙射線,可以說無處不在。量子糾錯透過使用冗餘提供了一種解決方案:將多個量子位元分組為單個邏輯量子位元,並定期進行一致性檢查。AlphaQubit 解碼器透過利用這些一致性檢查來識別邏輯量子位元中的錯誤,從而保留量子資訊,並進行糾錯。如下動圖展示了邊長為 3(碼距離)的量子位元網格中 9 個物理量子位元(小灰色圓圈)如何形成邏輯量子位元。其中,在每個步驟中,另外 8 個量子位元在每個時間步驟執行一致性檢查(正方形和半圓形區域,失敗時為藍色和品紅色,否則為灰色),以通知神經網路解碼器(AlphaQubit)。在實驗結束時,AlphaQubit 確定發生了哪些錯誤。AlphaQubit 是一個基於神經網路的解碼器,基於 Transformers 構建,而該架構也是當今許多大型語言模型的基礎。下圖為 AlphaQubit 的糾錯和訓練流程。a 為表面碼的一輪糾錯。b 為解碼訓練階段。預訓練樣本要麼來自資料無關的 SI1000 噪聲模型,要麼來自使用 p_ij 或 XEB 方法從實驗資料得出的誤差模型。AlphaQubit 使用一致性檢查(consistency checks)作為輸入,旨在預測邏輯量子位元在實驗結束時的狀態是否與初始準備狀態發生了翻轉。透過一致性檢查,可以識別並糾正計算過程中出現的錯誤,確保邏輯量子位元狀態保持正確。最終,AlphaQubit 可以報告其預測的置信度,從而有助於提高整體量子處理器的效能。實驗測試了 AlphaQubit 對量子處理器 Sycamore 中的邏輯量子位元的保護效果。谷歌使用量子模擬器在各種設定中生成了數億個示例。然後,透過為 AlphaQubit 提供來自特定 Sycamore 處理器的數千個實驗樣本,針對特定解碼任務對其進行微調。在對 Sycamore 量子處理器的新資料進行測試時,AlphaQubit 在準確率方面設立了新的標準。在規模最大的 Sycamore 實驗中,AlphaQubit 的錯誤率比張量網路方法低 6%。此外,AlphaQubit 的錯誤率比相關匹配方法低 30%。在 Sycamore 量子處理器的實驗中,解碼準確性因實驗規模而異。對於小規模實驗(距離 3,對應 17 個物理量子位元)和大規模實驗(距離 5,對應 49 個物理量子位元),AlphaQubit 的解碼準確性均優於其他方法。具體而言,AlphaQubit 的表現超過了張量網路(TN)方法,後者在大規模實驗中難以擴充套件。同時,AlphaQubit 也優於相關匹配方法,儘管該方法在準確性和擴充套件性方面表現良好,但在解碼準確性上仍不及 AlphaQubit。 在一系列實驗中,解碼器 AlphaQubit 犯的錯誤最少。為了評估 AlphaQubit 在更大規模且錯誤率更低的量子計算機上的適應性,研究人員使用模擬的量子系統資料對其進行了訓練,規模達到 241 個量子位元,超出了 Sycamore 平臺的現有能力。結果顯示,AlphaQubit 的效能優於現有的主要演算法解碼器,表明其在未來中型量子裝置上也將具備良好的適用性。在不同規模的實驗中,即從距離 3(17 個量子位元)到距離 11(241 個量子位元)的實驗中,AlphaQubit 的解碼準確性始終優於相關匹配方法。需要注意的是,張量網路解碼器由於在大規模實驗中執行速度過慢,未在此圖中顯示。最後,該系統還展示了一些高階功能,例如能夠接收和報告輸入和輸出的置信度。這些資訊豐富的介面有助於進一步提高量子處理器的效能。當谷歌研究員在包含多達 25 輪糾錯的樣本上訓練 AlphaQubit 時,它在多達 100,000 輪的模擬實驗中保持了良好的效能,表明它能夠泛化到訓練資料之外的場景。AlphaQubit 在利用機器學習進行量子誤差糾錯方面取得了重要的里程碑。但谷歌表示他們仍然面臨速度和可擴充套件性方面的重大挑戰。例如,在一個快速的超導量子處理器中,每秒需要進行上百萬次一致性檢查。雖然 AlphaQubit 在準確識別錯誤方面表現出色,但目前還無法實時糾正超導處理器中的錯誤。谷歌還需要找到更高效的資料訓練方法,用於支援基於 AI 的解碼器。目前,谷歌正在結合機器學習和量子誤差糾錯的前沿技術,努力克服這些挑戰,為實現可靠的量子計算機鋪平道路,這些技術將有能力解決世界上一些最複雜的問題。https://blog.google/technology/google-deepmind/alphaqubit-quantum-error-correction/https://x.com/GoogleDeepMind/status/1859273143157657735