前沿情報丨當人工智慧遇上量子計算機AlphaGo將爆發出洪荒之力
這一週,
人工智慧成為新聞熱詞,
AlphaGo對戰世界圍棋第一人柯潔,
掀起了人工智慧與人類的一場智力巔峰對決。
但幾乎不出人意料,
AlphaGo連勝兩局。
聶衛平開玩笑道:
“柯潔想贏估計只能靠找到bug,
或者我們派小魚兒去拔個電源什麼的。”
看來在強大的機器面前,
人類想要勝利已是難如登天。
AlphaGo已經如此厲害了!
TA能否更上一層樓?
當智商超群的人工智慧
邂逅運算超凡的量子計算,
將碰撞出怎樣的火花?
帶來一次怎樣的歷史變革?
1人工智慧將進入量子計算時代
人工智慧的發展可能存在三個階段:伺服器時代、雲端計算時代、量子計算時代。
現階段人工智慧基本只能依靠集中處理的方式實現相關功能和應用,也就是通過雲端計算的方式。根據我們的判斷,量子計算有望給人工智慧帶來的變革性變化在於小型化和移動化。當量子晶片中的量子位元數量達到一定數量後,計算能力將滿足人工智慧對運算能力的需求,人工智慧將不再依賴於大型伺服器叢集。未來量子晶片小型化後,人工智慧前端系統的快速實時處理便成為可能,比如車載智慧系統、無人機智慧系統等。
全球資料總量發展趨勢(EB)
量子計算髮展歷史
2017年5 月3 日,中科院宣佈首臺光量子計算機在我國誕生,標誌著我國量子計算已處於世界領先水平。人工智慧產業的突破需要藉助相關產業鏈的進一步完善,量子計算的超強算力有望加速人工智慧的突破和商業化應用。
2人工智慧的瓶頸之一:資料龐大 算力有限
人工智慧的爆發是近兩年才開始的,主要原因是使用效果上取得了突破。人工智慧是一門計算機技術,主要讓計算機去替代人來完成部分工作。如今主流的技術主要是指使用深度學習等演算法來實現替代人工,完成大量簡單重複性勞動。
雖然人工智慧概念的提出已有將近60年了,但之前的發展速度一直偏慢,主要原因是無論方法如何進步,實際使用效果依舊差強人意。從2015年起,人工智慧迎來了真正的大爆發,這在很大程度上與GPU的廣泛應用有關。
人工智慧的高速發展將為各個產業帶來翻天覆地的變化。目前很多商業領域已經採用人工智慧,尤其在谷歌、百度這樣的公司,在它們的搜尋、推薦、廣告等領域都已使用了類似機器學習的技術。
目前人工智慧應用最為廣泛的是在人臉識別領域。人臉識別引入人工智慧技術後,識別率大幅提升,其中核心的突破是在演算法層面。在人臉識別中,人工智慧能做到97%的識別正確率,超過了人類95%的識別率,這意味著大規模商業應用具備了價值的基礎,尤其是在安防領域、金融領域等,機器做得比人更好。
3人工智慧高速發展的基礎是演算法、資料和硬體算力
演算法、資料和硬體算力組成了人工智慧高速發展的三要素。人工智慧的實現所需要具備的基礎,第一個是優秀的人工智慧演算法,比如現在最流行的深度學習演算法,就是近期人工智慧領域中最大的突破之一,為人工智慧的商業化帶來了希望;第二個是被收集的大量資料,資料是驅動人工智慧取得更好的識別率和精準度的核心因素;第三個是大量高效能硬體組成的計算能力,以前的硬體算力並不能滿足人工智慧的需求,當GPU和人工智慧結合後,人工智慧才迎來了真正的高速發展。從目前情況看,以上三要素缺一不可。
為什麼人工智慧近兩年才開始爆發?
主要是因為直到今日,人工智慧的演算法、資料和硬體才滿足了人工智慧的基本需求。
演算法方面,以人臉識別為例,在2013年深度學習應用到人臉識別之前,各種方法的識別成功率只有不到93%,低於人眼的識別率,因此不具備商業價值。而隨著演算法的更新,深度學習使得人臉識別的成功率提升到了97%,這才為人臉識別的應用奠定了商業化基礎。
第二,在資料方面,進入網際網路時代後,出現了大資料的高速發展與積累,這為人工智慧的訓練學習過程奠定了良好的基礎。比如,在AlphaGo的學習過程中,核心資料來自網際網路的3000萬例棋譜,而這些資料的積累是歷經了十多年網際網路行業的發展。所以直到今年,基於深度學習演算法的AlphaGo才取得突破性進展。離開了這些棋譜資料的積累,機器戰勝人是無法實現的。
第三點是硬體的算力。在二十年前,一個機器人,當時是用32個CPU,達到120MHz的速度。現在的人工智慧系統使用的是成百上千個GPU來提升計算能力,這使得處理學習或者智慧的能力得到比較大地增強。之前用CPU一個月才能出結果,然後再去調整引數,一年只能調整12次,也就是有12次迭代。GPU產生後,大幅提升了計算量,現在用GPU可以一天就出結果,這樣可以迭代得更快,這是技術大幅發展的條件。
4量子人工智慧演算法相比經典演算法節省大量時間
經典計算機的計算核心使用的是中央處理器,是一種基於半導體理論設計的電子晶片,用於序列運算。而在量子計算機中,它的計算核心是量子晶片,通過量子的疊加性帶來了並行運算的能力,替代傳統的電子晶片。可以看到,量子計算機與經典計算機的物理實現完全不同,如果在量子計算機中使用經典演算法的話,那麼量子晶片將和普通電子晶片發揮基本相同的功能,只能實現序列計算。這是由於設計經典演算法時,其設計思想是基於序列運算而得到的,這是經典演算法自身的侷限性。為此,需要設計相應的量子人工智慧演算法,才能實現量子計算的超強算力,這種專門面向量子計算設計的人工智慧演算法被稱為量子人工智慧演算法。
5量子計算提升人工智慧效率 擴充應用場景
在很多應用領域,人工智慧需要擁有快速處理資料、快速響應的能力。比如智慧駕駛等應用場景,對於人工智慧的反應速度要求很高。再比如手機上的人工智慧系統,對於資料的處理能力要求非常高,在這些應用場景中,急需人工智慧的硬體系統實現可移動化和快速響應能力。
隨著人工智慧對硬體計算能力的需求不斷提升,人工智慧從單機或者小型伺服器模式,逐步轉型為雲端計算模式。目前,隨著人工智慧應用的發展,單機或者小型伺服器模式的劣勢逐漸顯現。一方面,這種模式可提供的算力到達了一個瓶頸階段,已無法滿足人工智慧對算力的需求;另一方面,這種模式是一次性採購的,對於使用者的資金壓力較大,並且後期維護成本不低,需要自己搭建相應的軟體環境。現階段一種主要的解決方案是將人工智慧應用或者服務放在雲端,運用雲端計算平臺提供更加優質廉價的人工智慧服務,其主要的優點是可以按照實際需求來購買計算能力,隨時滿足現階段的應用需求。另外,付費模式相對彈性,按照使用狀況來逐次結算費用,減輕資金壓力。
在摩爾定律近乎失效的情況下,基於現有的計算能力,在如此龐大的資料面前,人工智慧的訓練學習過程將變得無比漫長,甚至完全無法實現最基本的功能。而量子計算機的量子位元數量以指數形式增長,也就是每兩年翻一番。又因為量子計算的特點,其計算能力是量子位元數量的指數級,這個增長速度將遠遠大於資料量的增長,為資料爆發時代的人工智慧帶來了強大的硬體基礎。
量子計算時代為人工智慧帶來的顛覆,除了在計算能力方面,更重要的是極大地增加了應用場景。
6量子計算可實現人工智慧的小型化
現在的人工智慧系統使用的是成百上千個GPU來提升計算能力,這使得處理學習或者智慧的能力得到比較大地增強,然而這套系統也需要龐大的硬體機櫃和相配套的硬體機房。較大型的人工智慧硬體系統需要將近半個足球場的佔地空間,這無疑是對人工智慧發展的一個重要限制。隨著大資料時代的不斷進步,資料將呈現指數級增長,而基於CPU或者GPU雲端計算的資料中心將無法滿足資料爆發的需求。
目前非通用型量子計算機已經實現了1000位量子位元,在特定演算法上,計算效率比經典計算機要快一億倍。也就是如果想要實現人工智慧,原來需要一千臺計算機,或者需要一萬臺計算機的規模,現在只要用一臺量子計算機就可以了。而且這個量子計算機的計算能力完全能夠滿足人工智慧對速度的要求,也就是人工智慧將不再依賴於大型伺服器叢集,或者龐大的雲端計算中心。
7量子計算可高速處理大資料 實現人工智慧移動化
目前量子計算較為成功的應用集中在大資料快速搜尋,這主要是因為在這個應用領域中,誕生了優秀的量子計算演算法,使得經典計算體系中無解或者趨近無解的問題,在量子計算的環境中,轉化為了可解並且能快速求解的狀態,使得這個領域成為目前量子計算的重要應用方向。
量子晶片的大資料處理能力將實現人工智慧的移動化,主要的應用場景包括:車載智慧系統、無人機的智慧系統或者手機上的人工智慧系統。
主要可行的方案有兩種:第一是它們實時收集的大量資訊和感測器資料,之後傳輸給雲端的量子計算系統,在雲端實現超短時間內的快速運算,然後再將結果反饋給相應移動端,實現對移動端的控制。這種方案的優勢在於可以極大節省計算的時間,提高智慧系統的響應速度。
另一種方案是通過自身攜帶的量子計算系統,可以在本地處理大量的資料,並且得到實時響應,指導汽車自動駕駛或者對手機終端反饋資訊。這個系統的優勢是不只節省了計算時間,還完全省去了上傳和下傳資料的時間。但是這種方案的不確定性在於量子晶片能否在日常環境中直接使用,比如不再要求超低溫的環境等。總之,這些應用場景對於資料處理能力的要求非常高,而量子計算通過節省大量的計算時間,實現可移動化的人工智慧系統,提供資料的快速響應能力。
8量子計算機能自我學習——更聰明的計算
量子計算也被稱為AI co-processors (人工智慧協處理器),非常適合人工智慧AI及機器學習。
機器學習 machine learning 即授於計算機研究世界並不斷從經驗中學習的能力。它是人工智慧領域的一個分支。
通常,我們編寫的程式碼中的大部分都是相當靜態的,即給定新資料,它仍將執行相同的計算,一遍又一遍,並作出相同的錯誤結果。
使用量子計算機器學習,系統可以設計程式,修改自己的程式碼,機器可以不斷學習新的方法來處理它之前未遇到過的資料。
比如傳統的計算機去無法識別它之前從未接觸的新影像,因根據傳統的計算架構,設計遵循非常嚴格的邏輯推理。而量子計算機的處理器就非常適合此類需要先質疑,後決策的高階任務!
形象點比喻,相當而言,傳統計算是「一根筋」,而量子計算是「活腦筋」。
AI機器學習通常按已知的演算法即監督學習法supervised learning algorithm進行的。下圖所示谷歌AI實驗室在2013年採用了512量子位元的系統,主要應用於幫助科學家建立更有效而精確的的AI模型,用於諸如從語音識別、網頁搜尋到(生物化學的)蛋白質摺疊(模擬)。
原文釋出時間為:2017-05-26
本文作者:流蘇
本文來源:九州量子,如需轉載請聯絡原作者。
相關文章
- 前沿科技:量子計算
- 探索挖掘資料的洪荒之力
- 全程燒腦幹貨,當人工智慧遇見量子計算人工智慧
- 從基礎量子位到當下火熱的量子計算機,一文助你入門量子計算計算機
- Chrome釋出重要安全更新,將抵禦量子計算機發起的黑客攻擊Chrome計算機黑客
- 當頁面渲染遇上邊緣計算
- 跟量子計算比起來,AI和機器學習弱爆了!AI機器學習
- IBM量子計算機亮相 距離標準量子計算機相距甚遠IBM計算機
- 量子計算將如何改變世界?
- 【計算講談社】第十講|當雲端計算遇上碳中和
- 當IDC遇上雲端計算,如何才能落地生花
- 谷歌釋出72個量子計算機2018年量子霸權競賽提前了谷歌計算機
- 當《人民日報》遇上GTA
- 厲害了量子計算機!瞧瞧它是如何“秒殺”其他計算機計算機
- IBM已開發第一臺獨立量子計算機IBM計算機
- 學習筆記 -《量子計算與程式設計入門》- 量子計算機硬體基礎筆記程式設計計算機
- 量子計算機,開啟中國速度計算機
- 不同量子計算機的架構計算機架構
- 基於 Groq 和 Cartesia 的高速 AI 語音助手釋出;xAI 將自行打造超級計算機丨 RTE 開發者日報AI計算機開發者日報
- 新質互融,算力共振:玻色量子釋出新一代550計算量子位元相干光量子計算機計算機
- 通用量子計算機任重道遠的研發之路計算機
- NFT算力挖礦系統開發設計丨算力礦機原始碼丨dapp丨FIL原始碼APP
- 入門量子計算
- Adobe:當創意工作遇上AIGC ,人工智慧還是取代了設計師?AIGC人工智慧
- 量子計算Q#將來會如何發展?微軟官方出面說明微軟
- 當計算機圖形學遇上深度學習,針對3D影像的TensorFlow Graphics面世計算機深度學習3D
- 衡量量子計算機效能的新型基準測試法出爐LTJ計算機
- IDC:預計2027年的量子計算支出將達86億美元
- FIL雲算力挖礦系統設計開發丨雲算力礦機原始碼丨FIL丨PHA原始碼
- 當 sendBeacon 遇上 Blob
- 當 Rust 遇上 FedoraRust
- Amazon Braket 與量子計算
- 雲算力合約挖礦系統開發詳情丨dapp丨defi丨NFT丨LPAPP
- 當「軟體研發」遇上 AI 大模型AI大模型
- Tractica:2030年量子計算市場將達到91億美元
- 想和人工智慧兩開花的量子計算|AI的朋友(五)人工智慧AI
- 量子計算機改變世界的7大方式計算機
- 當class properties遇上decorator