量子神經網路:人工智慧研究的新正規化

dicksonjyl560101發表於2019-06-14


https://www.toutiao.com/a6702017695618957832/


量子神經網路:人工智慧研究的新正規化

1 引言

近年來,機器學習技術快速崛起,已經成為大資料時代下的技術基石。機器學習根據已有資料進行學習策略的探索和潛在結構的發現,依據所得模型進行預測及預警。機器學習源於人工智慧和統計學,其應用極其廣泛,從資料探勘到人臉識別,從自然語言處理到生物特徵識別,從垃圾郵件分類到醫學診斷,社會生活的各個方面都被機器學習技術所影響。隨著資訊科技不斷髮展,資料成爆炸式增長,這種增長不僅是資料量的增長,還包括資料種類、結構和產生速度上的增長。最近幾年,全球資料量的增長率接近24%。以Google為代表,憑藉資料服務為核心、機器學習技術為支撐的一大批IT公司佔領資料探勘與資訊化的市場。它們掌握海量資料,使用機器學習技術挖掘潛在情報資訊並提供資料服務,從而改變社會生活的各個方面。資料的增長不僅帶來豐厚的利潤,同時也帶來技術上的挑戰。不少傳統機器學習演算法已無法應對大資料時代海量資料的處理和分析,因此不得不尋找新的方法來解決問題。

早在古希臘時期,一些哲學家就給出了腦和思維過程的形而上的解釋。到了20世紀,藉助心理學和神經生理學的研究成果,分析神經建模逐漸引起了研究者的注意。20世紀50年代以來,隨著心理學、神經科學、計算機資訊科學、人工智慧和神經影像學技術的發展,用自然科學方法探索人類意識的條件趨於成熟,世界各國不少學者開始投身於神經計算的研究,並取得不少有價值的研究成果。而量子計算和神經計算結合可能產生前所未有的解決問題的能力,如Shor演算法可以以多項式的時間解決大數質因式分解問題,而大數質因式分解問題被認為是經典NP(Non Polynomial)問題。本文總結量子機器學習技術研究進展,分析量子神經網路模型以及對傳統神經網路的效能提升,並指出未來可能的研究方向。

2 量子機器學習技術研究進展

目前,不少研究機構及大型IT公司都將目光集中到了量子計算上,想通過量子計算的獨特性質,解決傳統演算法的運算效率問題。傳統電子計算機儲存電平的高低,每次只能處理一個位元的狀態資料。量子計算機儲存量子位元,一個量子位元可表示量子態|0>和|1>的疊加,一次運算就可同時處理兩個狀態的資訊。以此類推,經典計算機對2 n 位元的資料執行相同計算需要2 n 次操作,而量子計算機只需要對n個量子位元進行一次操作即可。正因如此,量子計算不管在資料儲存能力還是資料處理能力上都理論上遠超經典計算。

早在1982年,Feynman指出基於量子力學建造的計算機對特定問題的求解是傳統計算機無法比擬的。1994年,Shor提出了一種里程碑式的量子因子分解演算法,稱為Shor演算法。計算步驟上,傳統大數因子分解的最佳演算法的時間複雜度隨問題規模成指數倍增加,而Shor演算法可在多項式時間內完成。1997年,Gorver提出一種量子搜尋演算法,該演算法相比傳統無序資料庫搜尋演算法有著平方級效率的提升。現有的量子演算法,大多相較於對應的經典演算法有著明顯提速效果。由此,研究學者猜想既然量子計算對特定經典問題的求解有顯著提速,是否可將其應用到機器學習領域,解決目前處理大資料時計算效率低的問題。

美國著名科技媒體《連線》在2018年2月份刊登的一篇文章中分析了量子計算在機器學習系統中應用的優勢、弊端以及現有範例,表示兩者的結合或終將解決人工智慧等諸多問題。近年來,出現越來越多量子計算和機器學習的結合研究。研究人員一方面希望通過量子計算解決機器學習的運算效率問題;另一方面,探索使用量子力學的性質,開發更加智慧的機器學習演算法。量子機器學習領域的研究最早可追溯到1995年對量子神經網路的研究:Kak最先提出量子神經計算的概念。隨後研究人員提出了各類量子神經網路模型,如Behrman等人提出的基於量子點神經網路模型,Toth等人提出了量子細胞神經網路,Ventura等人提出的使用量子疊加態表示網路,Matsui等人提出了通過量子閘電路實現的神經網路,Zhou等人提出了量子感知機,Schuld等人提出了由量子隨機行走構建神經網路,等等。研究人員發現量子特性有助於研究無監督聚類問題,故提出了量子無監督聚類演算法。2001年,Horn等人最早將量子力學特性引入傳統聚類演算法,其將薛定諤方程與Parzen窗估算量的極大值求解聯絡起來,用於發現資料的聚類中心。2013年,Lloyd等人將量子態的疊加性應用到經典向量表示上,提出量子K-means演算法,該演算法理論上能夠實現海量資料的高效聚類。同年,Ameur等人提出了量子分裂聚類演算法,其藉助Grover變體演算法進行子過程中最大距離的快速搜尋。類似還有研究人員結合監督分類演算法和量子計算,提出量子有監督分類演算法,例如2014年,Microsoft公司的Wiebe等人提出了用量子態的概率幅表示經典向量,並通過比較兩個量子態間距離完成量子最近鄰演算法。同年,Rebentrost等人首次提出使用量子系統的密度矩陣進行支援向量機中核矩陣的表示。2016年,Microsoft公司的Wiebe等人提出了量子深度學習的概念,首次將量子計算同深度學習相結合,其通過量子取樣實現受限玻爾茲曼機的梯度估計,旨在加速深度網路的訓練。上述量子機器學習演算法的核心大多還是與傳統演算法相同,主要區別在於通過量子計算的高並行性去處理計算耗時的子步驟。

其他關於量子計算及機器學習 核心問題的研究也進一步推動量子機器學習的發展。首先,Giovannetti等人於2008年提出了量子隨機存取儲存器(Quantum Random Access Memory, QRAM),隨後許多量子機器學習演算法相繼產生,如2014年Lloyd等人基於QRAM提出量子主成分分析(Quantum Principle Component Analy sis, QPCA)演算法等。其次,Harrow等人於2009年,提出用量子演算法解決線性系統的方程問題,被研究人員稱為HHL演算法;2015年,Childs等人也對該問題進行了相關研究,進一步擴充了量子演算法對線性系統問題的解決能力。很多傳統機器學習問題最終與最優化問題的求解相關,而最優化問題常涉及線性方程組的求解,所以通過該技術有助於經典機器學習中最優化步驟的提速。例如,Rebentrost等人在2014年提出的量子支援向量機,就用到了量子線性方程求解演算法。很多演算法是以QRAM物理實現為前提,利用QRAM實現任意量子態的製備,繼而進行後續量子態計算。

對於量子機器學習的可學習性及其與經典演算法的比較,也是研究人員的關注點之一。2004年,Servedio等人對傳統機器學習演算法的可學習性與量子演算法的可學習性進行了分析與比較。隨後,2006年,Ameur等人提出了在量子環境下完成機器學習任務的猜想。Yoo等人從二分類問題上對量子機器學習與傳統機器學習進行了比較,指出量子的疊加性原理使得量子機器學習演算法運算效率明顯優於傳統演算法,並從學習的接受域上進行了比較,發現量子機器學習的接受域較大,從而決定了學習效率優於傳統演算法。隨著大資料時代的到來,傳統演算法對於海量資料的處理能力,也日益捉襟見肘。這就進一步促使研究人員考慮量子機器學習對大資料問題的解決能力和可行性。這些研究工作,都進一步推動了量子計算在資料探勘和資料分析方面的研究和應用。

以Google、Microsoft、IBM為首的科技巨頭也紛紛投入量子計算領域的研究。2008年,Google公司的Neven及D-Wave公司的Rose等人在其研發的超導絕熱量子處理器上使用量子絕熱演算法解決影象識別問題,此後他們又做了一系列將量子絕熱演算法應用到人工智慧領域的研究。這一系列量子絕熱演算法沒有通過量子閘電路進行量子計算,而是執行在D-Wave研發的特定量子晶片上,並且其執行的環境條件也相對苛刻。目前他們研究的演算法還有很多限制,其商業領域的實際應用還有一段距離,不過已經向量子機器學習的產業化應用邁出了堅實的一步。在2018年舉行的第一屆量子軟體和量子機器學習國際研討會(QSML)上,Google AI Quantum團隊釋出了Cirq的公開測試版,這是一款用於NISQ計算機的開源框架。Cirq專注於解決近期問題,幫助研究人員瞭解NISQ量子計算機是否能夠解決具有實際重要性的計算問題。Cirq基於Apache 2許可發行,可以自由修改或嵌入到商業或開源的軟體包中。Cirq可以在本地模擬器上執行這些演算法,並可以輕鬆地與未來的量子硬體或更大規模的雲端模擬器整合。該團隊還發布了OpenFermion-Cirq,這是一個基於Cirq的應用程式示例,使用了近期演算法。OpenFermion是一個為化學問題開發量子演算法的平臺,而OpenFermion-Cirq是一個開源庫,將量子模擬演算法編譯成Cirq。該庫利用了為量子化學問題構建低深度量子演算法的最新進展,幫助使用者將化學問題的細節轉變為高度優化的可以在特定硬體上執行的量子電路。例如,該庫可用於輕鬆構建量子變分演算法,用以模擬分子和複雜材料的特性。Google公司的量子團隊已經證明了量子計算能解決傳統機器學習中的影象分類問題,而且隨著技術的發展,量子計算機將在學習能力上超越經典的神經網路,此外,該團隊最近還證明量子計算還可以解決經典網路中一些棘手問題,比如預防出現模型訓練中的梯度消失問題。

3 量子神經網路模型

量子神經網路(Quantum Neural Network, QNN)是由量子物理學與數學、電腦科學、資訊科學、認知科學、複雜性科學等多學科交叉而形成的一個全新的研究領域,量子神經網路是傳統神經計算系統的自然進化,它充分利用量子計算的巨大威力,提升神經計算的資訊處理能力。因此,量子神經網路研究為量子計算與神經計算的結合提供了有益的支援。已有研究成果表明,人腦處理資訊的過程可能與量子現象有關(即量子意識或量子思維),通過比較分析,量子系統的演化與人腦資訊處理過程之間的可能關係為:

(1)量子系統是所有物理過程的微觀基礎,同樣也應該是生物和心理過程的基礎,即大腦工作的基礎;

(2)量子系統的概念超出了物質中有關粒子波相互作用以及場的劃分,它綜合表現為一種不可分的並行分散式處理系統,是用來描述人腦作用整體性的比較合適的候選者之一;

(3)人腦作用源於複雜的系統動力學,並非傳統人工神經網路(Conventional Artificial Neural Network, CANN)所能完全描述,而量子系統具有與生物神經網路相似的動力學特徵,因此將人工神經網路(Artificial Neural Network, ANN)與量子理論結合起來會更好地模擬人腦的資訊處理過程;

(4)計算機硬體的發展存在極限。當積體電路的線寬繼續縮小下去,Moore定律將會失效,門和連線僅包含幾個原子,量子效應就會出現並且發揮重要的作用,現有晶片設計工藝已達到10 奈米,預計2020 年到達2 奈米。這個級別上的電晶體只能容納10 個原子,量子效應開始影響電子的正常運動,那時就不得不涉及到量子計算。同樣道理,神經計算的量子推廣也是神經網路發展的必然趨勢,因為兩者之間存在著某些本質上的聯絡。

量子神經網路:人工智慧研究的新正規化

量子神經網路(QNN)模型,摘自“Classification with Quantum Neura

量子神經網路:人工智慧研究的新正規化

量子神經網路訓練,摘自“Barren Plateaus in Quantum Neural Netw

雖然目前量子神經計算的研究還處於起步階段,其理論遠未成熟,但已有的理論分析和應用已經證明, 與傳統的神經計算比較,量子神經網路模型至少在以下幾個方面具有明顯的優勢:(1)指數級的記憶容量;(2)神經網路採用少的隱層神經元卻能有更高的效能;(3)學習速率快;(4)消除了災變性的失憶現象;(5)單層網路可以解決線性不可分問題;(6)處理速度快(1010bits/s);(7)規模小、穩定性和可靠性高;(8)處理的模式數或影象數目比較大。這些優勢為建立超大容量、超高速新型資訊處理系統提供了強大的資訊處理能力,而且有助於重新理解智力和人腦的功能。因此,隨著量子機器學習理論、特別是量子神經網路技術的不斷成熟和完善,更多巧妙結合物理原理和機器學習理論的新型演算法的提出,量子機器學習將極大促進現有機器學習的發展,產生出更加高效、強大的新演算法、新技術以及新的計算平臺。

4 結束語

人工智慧已被認為是繼網際網路之後新一代革命性技術,人工智慧算力需求隨著資料量的急劇增長,在摩爾定律近乎失效的情況下,基於現有的計算能力,在如此龐大的資料面前,人工智慧的訓練學習過程將變得無比漫長,甚至完全無法實現最基本的功能,而量子神經網路為解決大資料時代人工智慧發展所面臨的問題提供了一種創新的研究思路。


來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/29829936/viewspace-2647687/,如需轉載,請註明出處,否則將追究法律責任。

相關文章