人工智慧中神經網路發展緩慢的原因

CDA 資料分析師發表於2019-03-07


人工智慧是現在十分火熱的技術,這是因為人工智慧夠給我們帶來很多的便捷,比如說蘋果的Siri、三星的bixby、小米的小愛同學等,這些都給我們的生活中增加了不少的樂趣。而人工智慧的核心技術就是機器學習以及深度學習,當然,還涉及到了神經網路的技術。其實這三個技術中,神經網路的技術發展是十分緩慢的,那麼到底是為什麼呢?下面我們就給大家詳細解答一下這個問題。

在上個世紀80年代,通用計算機的出現使得人工神經網路的研究經歷了一波復甦。同時,一種演算法逐漸成熟,而這個演算法就是反向傳播。就目前而言,反向傳播演算法都是訓練神經網路的最主要方法。但是,神經網路的規模依然受限於當時的硬體條件而導致規模依然不大。同時,以支援向量機為代表的基於核方法的機器學習技術,表現出了不俗的能力,正是由於這個原因,大量科研人員再一次放棄了神經網路。

在發展神經網路的路上,有兩個攔路虎,第一就是計算機的效能,第二就是訓練資料不夠多。正是由於這個原因,使得神經網路在最初的幾十年內都沒有表現出過人的效能,實際上,其實在很多的實驗室中有這在試驗和後來深度神經網路類似的結構,其中一個經典的神經網路結構就是現在的LeNet。但是,增加神經網路的深度,就會讓神經網路的訓練速度變慢。在那個記憶體不過幾十MB,GPU還沒有出現的年代,要訓練一個小規模的深度神經網路模型,需要花上數週甚至數月。而訓練資料不夠多也使得神經網路發展受到了阻礙,而隨著特徵維度的增加,演算法的搜尋空間急劇變大,要在這樣的特徵空間中尋找適合的模型,需要大量的訓練資料。神經網路要解決的問題,通常具有成千上萬維的特徵,維度越高,特徵也就越多,可以想象,要在如此大的特徵中尋找一個模型,需要多少資料,而這個特徵空間規模不過是深度學習問題中比較小的。

當然,我們可以通過一個非常有用的先驗假設進行簡化,這是因為我們這個世界的事物都是通過更小的事物組合而成的。不僅實際的物體滿足這一先驗假設,抽象的概念也一樣如此。因此深度神經網路利用了這一假設,通過將網路層數加深,每一層神經元都是前面一層神經元輸出的組合,通過這樣的假設,將整個搜尋空間大大減小。然而,訓練深度神經網路依然需要大量的資料,才能得到一個比較好的結果。所以說,資料的存量是神經網路發展的前提。

在這篇文章中我們給大家介紹了很多關於人工智慧中的神經網路發展緩慢的原因,通過這篇文章我們不難發現,科技從0到1的發展是非常艱難的。不過只要突破了這一個障礙,人工智慧就能夠得到巨大的發展。

相關文章