前沿情報丨當人工智慧遇上量子計算機AlphaGo將爆發出洪荒之力

雪花又一年發表於2018-05-03

這一週,

人工智慧成為新聞熱詞,

AlphaGo對戰世界圍棋第一人柯潔,

掀起了人工智慧與人類的一場智力巔峰對決。

但幾乎不出人意料,

AlphaGo連勝兩局。

聶衛平開玩笑道:

“柯潔想贏估計只能靠找到bug,

或者我們派小魚兒去拔個電源什麼的。”

看來在強大的機器面前,

人類想要勝利已是難如登天。

AlphaGo已經如此厲害了!

TA能否更上一層樓?

當智商超群的人工智慧

邂逅運算超凡的量子計算,

將碰撞出怎樣的火花?

帶來一次怎樣的歷史變革?


1人工智慧將進入量子計算時代


人工智慧的發展可能存在三個階段:伺服器時代、雲端計算時代、量子計算時代。


640?wx_fmt=jpeg&tp=webp&wxfrom=5&wx_lazy


現階段人工智慧基本只能依靠集中處理的方式實現相關功能和應用,也就是通過雲端計算的方式。根據我們的判斷,量子計算有望給人工智慧帶來的變革性變化在於小型化和移動化。當量子晶片中的量子位元數量達到一定數量後,計算能力將滿足人工智慧對運算能力的需求,人工智慧將不再依賴於大型伺服器叢集。未來量子晶片小型化後,人工智慧前端系統的快速實時處理便成為可能,比如車載智慧系統、無人機智慧系統等。


640?tp=webp&wxfrom=5&wx_lazy=1

全球資料總量發展趨勢(EB)  


640?wx_fmt=jpeg&tp=webp&wxfrom=5&wx_lazy

量子計算髮展歷史  


2017年5 月3 日,中科院宣佈首臺光量子計算機在我國誕生,標誌著我國量子計算已處於世界領先水平。人工智慧產業的突破需要藉助相關產業鏈的進一步完善,量子計算的超強算力有望加速人工智慧的突破和商業化應用。


2人工智慧的瓶頸之一:資料龐大 算力有限


人工智慧的爆發是近兩年才開始的,主要原因是使用效果上取得了突破。人工智慧是一門計算機技術,主要讓計算機去替代人來完成部分工作。如今主流的技術主要是指使用深度學習等演算法來實現替代人工,完成大量簡單重複性勞動。


雖然人工智慧概念的提出已有將近60年了,但之前的發展速度一直偏慢,主要原因是無論方法如何進步,實際使用效果依舊差強人意。從2015年起,人工智慧迎來了真正的大爆發,這在很大程度上與GPU的廣泛應用有關。


人工智慧的高速發展將為各個產業帶來翻天覆地的變化。目前很多商業領域已經採用人工智慧,尤其在谷歌、百度這樣的公司,在它們的搜尋、推薦、廣告等領域都已使用了類似機器學習的技術。


目前人工智慧應用最為廣泛的是在人臉識別領域。人臉識別引入人工智慧技術後,識別率大幅提升,其中核心的突破是在演算法層面。在人臉識別中,人工智慧能做到97%的識別正確率,超過了人類95%的識別率,這意味著大規模商業應用具備了價值的基礎,尤其是在安防領域、金融領域等,機器做得比人更好。


3人工智慧高速發展的基礎是演算法、資料和硬體算力


演算法、資料和硬體算力組成了人工智慧高速發展的三要素。人工智慧的實現所需要具備的基礎,第一個是優秀的人工智慧演算法,比如現在最流行的深度學習演算法,就是近期人工智慧領域中最大的突破之一,為人工智慧的商業化帶來了希望;第二個是被收集的大量資料,資料是驅動人工智慧取得更好的識別率和精準度的核心因素;第三個是大量高效能硬體組成的計算能力,以前的硬體算力並不能滿足人工智慧的需求,當GPU和人工智慧結合後,人工智慧才迎來了真正的高速發展。從目前情況看,以上三要素缺一不可。


為什麼人工智慧近兩年才開始爆發?


主要是因為直到今日,人工智慧的演算法、資料和硬體才滿足了人工智慧的基本需求。


演算法方面,以人臉識別為例,在2013年深度學習應用到人臉識別之前,各種方法的識別成功率只有不到93%,低於人眼的識別率,因此不具備商業價值。而隨著演算法的更新,深度學習使得人臉識別的成功率提升到了97%,這才為人臉識別的應用奠定了商業化基礎。


第二,在資料方面,進入網際網路時代後,出現了大資料的高速發展與積累,這為人工智慧的訓練學習過程奠定了良好的基礎。比如,在AlphaGo的學習過程中,核心資料來自網際網路的3000萬例棋譜,而這些資料的積累是歷經了十多年網際網路行業的發展。所以直到今年,基於深度學習演算法的AlphaGo才取得突破性進展。離開了這些棋譜資料的積累,機器戰勝人是無法實現的。


第三點是硬體的算力。在二十年前,一個機器人,當時是用32個CPU,達到120MHz的速度。現在的人工智慧系統使用的是成百上千個GPU來提升計算能力,這使得處理學習或者智慧的能力得到比較大地增強。之前用CPU一個月才能出結果,然後再去調整引數,一年只能調整12次,也就是有12次迭代。GPU產生後,大幅提升了計算量,現在用GPU可以一天就出結果,這樣可以迭代得更快,這是技術大幅發展的條件。


4量子人工智慧演算法相比經典演算法節省大量時間


經典計算機的計算核心使用的是中央處理器,是一種基於半導體理論設計的電子晶片,用於序列運算。而在量子計算機中,它的計算核心是量子晶片,通過量子的疊加性帶來了並行運算的能力,替代傳統的電子晶片。可以看到,量子計算機與經典計算機的物理實現完全不同,如果在量子計算機中使用經典演算法的話,那麼量子晶片將和普通電子晶片發揮基本相同的功能,只能實現序列計算。這是由於設計經典演算法時,其設計思想是基於序列運算而得到的,這是經典演算法自身的侷限性。為此,需要設計相應的量子人工智慧演算法,才能實現量子計算的超強算力,這種專門面向量子計算設計的人工智慧演算法被稱為量子人工智慧演算法。


640?wx_fmt=jpeg&tp=webp&wxfrom=5&wx_lazy


5量子計算提升人工智慧效率 擴充應用場景


在很多應用領域,人工智慧需要擁有快速處理資料、快速響應的能力。比如智慧駕駛等應用場景,對於人工智慧的反應速度要求很高。再比如手機上的人工智慧系統,對於資料的處理能力要求非常高,在這些應用場景中,急需人工智慧的硬體系統實現可移動化和快速響應能力。


隨著人工智慧對硬體計算能力的需求不斷提升,人工智慧從單機或者小型伺服器模式,逐步轉型為雲端計算模式。目前,隨著人工智慧應用的發展,單機或者小型伺服器模式的劣勢逐漸顯現。一方面,這種模式可提供的算力到達了一個瓶頸階段,已無法滿足人工智慧對算力的需求;另一方面,這種模式是一次性採購的,對於使用者的資金壓力較大,並且後期維護成本不低,需要自己搭建相應的軟體環境。現階段一種主要的解決方案是將人工智慧應用或者服務放在雲端,運用雲端計算平臺提供更加優質廉價的人工智慧服務,其主要的優點是可以按照實際需求來購買計算能力,隨時滿足現階段的應用需求。另外,付費模式相對彈性,按照使用狀況來逐次結算費用,減輕資金壓力。


在摩爾定律近乎失效的情況下,基於現有的計算能力,在如此龐大的資料面前,人工智慧的訓練學習過程將變得無比漫長,甚至完全無法實現最基本的功能。而量子計算機的量子位元數量以指數形式增長,也就是每兩年翻一番。又因為量子計算的特點,其計算能力是量子位元數量的指數級,這個增長速度將遠遠大於資料量的增長,為資料爆發時代的人工智慧帶來了強大的硬體基礎。


量子計算時代為人工智慧帶來的顛覆,除了在計算能力方面,更重要的是極大地增加了應用場景。


6量子計算可實現人工智慧的小型化


現在的人工智慧系統使用的是成百上千個GPU來提升計算能力,這使得處理學習或者智慧的能力得到比較大地增強,然而這套系統也需要龐大的硬體機櫃和相配套的硬體機房。較大型的人工智慧硬體系統需要將近半個足球場的佔地空間,這無疑是對人工智慧發展的一個重要限制。隨著大資料時代的不斷進步,資料將呈現指數級增長,而基於CPU或者GPU雲端計算的資料中心將無法滿足資料爆發的需求。


目前非通用型量子計算機已經實現了1000位量子位元,在特定演算法上,計算效率比經典計算機要快一億倍。也就是如果想要實現人工智慧,原來需要一千臺計算機,或者需要一萬臺計算機的規模,現在只要用一臺量子計算機就可以了。而且這個量子計算機的計算能力完全能夠滿足人工智慧對速度的要求,也就是人工智慧將不再依賴於大型伺服器叢集,或者龐大的雲端計算中心。


7量子計算可高速處理大資料 實現人工智慧移動化


目前量子計算較為成功的應用集中在大資料快速搜尋,這主要是因為在這個應用領域中,誕生了優秀的量子計算演算法,使得經典計算體系中無解或者趨近無解的問題,在量子計算的環境中,轉化為了可解並且能快速求解的狀態,使得這個領域成為目前量子計算的重要應用方向。


量子晶片的大資料處理能力將實現人工智慧的移動化,主要的應用場景包括:車載智慧系統、無人機的智慧系統或者手機上的人工智慧系統。


主要可行的方案有兩種:第一是它們實時收集的大量資訊和感測器資料,之後傳輸給雲端的量子計算系統,在雲端實現超短時間內的快速運算,然後再將結果反饋給相應移動端,實現對移動端的控制。這種方案的優勢在於可以極大節省計算的時間,提高智慧系統的響應速度。


另一種方案是通過自身攜帶的量子計算系統,可以在本地處理大量的資料,並且得到實時響應,指導汽車自動駕駛或者對手機終端反饋資訊。這個系統的優勢是不只節省了計算時間,還完全省去了上傳和下傳資料的時間。但是這種方案的不確定性在於量子晶片能否在日常環境中直接使用,比如不再要求超低溫的環境等。總之,這些應用場景對於資料處理能力的要求非常高,而量子計算通過節省大量的計算時間,實現可移動化的人工智慧系統,提供資料的快速響應能力。


8量子計算機能自我學習——更聰明的計算


量子計算也被稱為AI co-processors (人工智慧協處理器),非常適合人工智慧AI及機器學習。


機器學習 machine learning 即授於計算機研究世界並不斷從經驗中學習的能力。它是人工智慧領域的一個分支。


通常,我們編寫的程式碼中的大部分都是相當靜態的,即給定新資料,它仍將執行相同的計算,一遍又一遍,並作出相同的錯誤結果。


使用量子計算機器學習,系統可以設計程式,修改自己的程式碼,機器可以不斷學習新的方法來處理它之前未遇到過的資料。


比如傳統的計算機去無法識別它之前從未接觸的新影像,因根據傳統的計算架構,設計遵循非常嚴格的邏輯推理。而量子計算機的處理器就非常適合此類需要先質疑,後決策的高階任務!


形象點比喻,相當而言,傳統計算是「一根筋」,而量子計算是「活腦筋」。


AI機器學習通常按已知的演算法即監督學習法supervised learning algorithm進行的。下圖所示谷歌AI實驗室在2013年採用了512量子位元的系統,主要應用於幫助科學家建立更有效而精確的的AI模型,用於諸如從語音識別、網頁搜尋到(生物化學的)蛋白質摺疊(模擬)。

原文釋出時間為:2017-05-26
本文作者:流蘇
本文來源:九州量子,如需轉載請聯絡原作者。


相關文章