人工智慧中神經網路發展緩慢的原因
人工智慧是現在十分火熱的技術,這是因為人工智慧夠給我們帶來很多的便捷,比如說蘋果的Siri、三星的bixby、小米的小愛同學等,這些都給我們的生活中增加了不少的樂趣。而人工智慧的核心技術就是機器學習以及深度學習,當然,還涉及到了神經網路的技術。其實這三個技術中,神經網路的技術發展是十分緩慢的,那麼到底是為什麼呢?下面我們就給大家詳細解答一下這個問題。
在上個世紀80年代,通用計算機的出現使得人工神經網路的研究經歷了一波復甦。同時,一種演算法逐漸成熟,而這個演算法就是反向傳播。就目前而言,反向傳播演算法都是訓練神經網路的最主要方法。但是,神經網路的規模依然受限於當時的硬體條件而導致規模依然不大。同時,以支援向量機為代表的基於核方法的機器學習技術,表現出了不俗的能力,正是由於這個原因,大量科研人員再一次放棄了神經網路。
在發展神經網路的路上,有兩個攔路虎,第一就是計算機的效能,第二就是訓練資料不夠多。正是由於這個原因,使得神經網路在最初的幾十年內都沒有表現出過人的效能,實際上,其實在很多的實驗室中有這在試驗和後來深度神經網路類似的結構,其中一個經典的神經網路結構就是現在的LeNet。但是,增加神經網路的深度,就會讓神經網路的訓練速度變慢。在那個記憶體不過幾十MB,GPU還沒有出現的年代,要訓練一個小規模的深度神經網路模型,需要花上數週甚至數月。而訓練資料不夠多也使得神經網路發展受到了阻礙,而隨著特徵維度的增加,演算法的搜尋空間急劇變大,要在這樣的特徵空間中尋找適合的模型,需要大量的訓練資料。神經網路要解決的問題,通常具有成千上萬維的特徵,維度越高,特徵也就越多,可以想象,要在如此大的特徵中尋找一個模型,需要多少資料,而這個特徵空間規模不過是深度學習問題中比較小的。
當然,我們可以通過一個非常有用的先驗假設進行簡化,這是因為我們這個世界的事物都是通過更小的事物組合而成的。不僅實際的物體滿足這一先驗假設,抽象的概念也一樣如此。因此深度神經網路利用了這一假設,通過將網路層數加深,每一層神經元都是前面一層神經元輸出的組合,通過這樣的假設,將整個搜尋空間大大減小。然而,訓練深度神經網路依然需要大量的資料,才能得到一個比較好的結果。所以說,資料的存量是神經網路發展的前提。
在這篇文章中我們給大家介紹了很多關於人工智慧中的神經網路發展緩慢的原因,通過這篇文章我們不難發現,科技從0到1的發展是非常艱難的。不過只要突破了這一個障礙,人工智慧就能夠得到巨大的發展。
相關文章
- 神經網路的發展史神經網路
- 淺聊卷積神經網路的發展卷積神經網路
- 文字生成神經網路架構發展神經網路架構
- 神經網路不收斂的 11 個原因神經網路
- 人工智慧 (11) 神經網路人工智慧神經網路
- 【深度學習篇】--神經網路中的卷積神經網路深度學習神經網路卷積
- 論文閱讀丨神經清潔: 神經網路中的後門攻擊識別與緩解神經網路
- 從MobileNet看輕量級神經網路的發展神經網路
- 網站開啟緩慢或打不開的原因網站
- 神經網路和機器學習、強人工智慧神經網路機器學習人工智慧
- 神經網路篇——從程式碼出發理解BP神經網路神經網路
- 神經網路之所以強大的兩個原因 - tunguz神經網路
- AI發展三境:神,神經,神經病AI
- 讀人工智慧全傳09神經網路人工智慧神經網路
- 神經網路:numpy實現神經網路框架神經網路框架
- (四)卷積神經網路 -- 8 網路中的網路(NiN)卷積神經網路
- 人工智慧的神經網路到底是什麼?人工智慧神經網路
- 量子神經網路:人工智慧研究的新正規化神經網路人工智慧
- 神經網路神經網路
- iOS 10 和macOS中的神經網路iOSMac神經網路
- 人工智慧教程 - 1.1.1 什麼是神經網路人工智慧神經網路
- 人工智慧、機器學習、深度學習、神經網路的關係人工智慧機器學習深度學習神經網路
- 國外評論:中國開源發展緩慢的“病因”
- 神經網路中間層輸出神經網路
- 理解神經網路中的目標函式神經網路函式
- LSTM神經網路神經網路
- 8、神經網路神經網路
- BP神經網路神經網路
- 模糊神經網路神經網路
- 一文帶你瞭解卷積神經網路CNN的發展史卷積神經網路CNN
- 聊聊從腦神經到神經網路神經網路
- 圖神經網路GNN 庫,液體神經網路LNN/LFM神經網路GNN
- 為什麼說BP神經網路就是人工神經網路的一種?神經網路
- 人工智慧技術在移動網際網路發展中的應用人工智慧
- 卷積神經網路中的視覺化方法卷積神經網路視覺化
- Tensorflow中神經網路的啟用函式神經網路函式
- MATLAB中神經網路工具箱的使用Matlab神經網路
- 【神經網路篇】--RNN遞迴神經網路初始與詳解神經網路RNN遞迴