大資料與深度學習區別

DarkNightRequiem發表於2017-08-30
作者:知乎使用者
連結:https://www.zhihu.com/question/31814850/answer/53634281
來源:知乎
著作權歸作者所有。商業轉載請聯絡作者獲得授權,非商業轉載請註明出處。

簡單來說:
1)深度學習(Deep Learning)只是機器學習(Machine Learning)的一種類別,一個子領域。機器學習 > 深度學習
2)大資料(Big Data)不是具體的方法,甚至不算具體的研究學科,而只是對某一類問題,或需處理的資料的描述。

具體來說:
1)機器學習(Machine Learning)是一個大的方向,裡面包括了很多種approach,比如deep learning, GMM, SVM, HMM, dictionary learning, knn, Adaboosting...不同的方法會使用不同的模型,不同的假設,不同的解法。這些模型可以是線性,也可以是非線性的。他們可能是基於統計的,也可能是基於稀疏的....
不過他們的共同點是:都是data-driven的模型,都是學習一種更加abstract的方式來表達特定的資料,假設和模型都對特定資料廣泛適用。好處是,這種學習出來的表達方式可以幫助我們更好的理解和分析資料,挖掘資料隱藏的結構和關係。
Machine Learning的任務也可以不同,可以是預測(prediction),分類(classification),聚類(clustering),識別(recognition),重建(reconstruction),約束(regularization),甚至降噪(denoising),超分辨(super-resolution),除馬賽克(Demosaicing)等等....

2)深度學習(Deep Learning)是機器學習的一個子類,一般特指學習高層數的網路結構。這個結構中通常會結合線性和非線性的關係。
Deep Learning也會分各種不同的模型,比如CNN, RNN, DBN...他們的解法也會不同。
Deep Learning目前非常流行,因為他們在影象,視覺,語音等各種應用中表現出了很好的empirical performance。並且利用gpu的並行運算,在模型相當複雜,資料特別大量的情況下,依然可以達到很理想的學習速度。
因為Deep Learning往往會構建多層數,多節點,多複雜度的模型,人們依然缺乏多裡面學習的結構模型的理解。很多時候,Deep Learning甚至會被認為擁有類似於人類神經網路的結構,並且這種類似性被當做deep learning居然更大potential的依據。但答主個人認為,其實這略有些牽強...聽起來更像是先有了這種network的結構,再找一個類似性。當然,這僅僅是個人觀點...(私貨私貨)

3)大資料(Big Data,我們也叫他逼格資料....)是對資料和問題的描述。通常被廣泛接受的定義是3個V上的“大”:Volume(資料量), Velocity(資料速度)還有variety(資料類別)。大資料問題(Big-data problem)可以指那種在這三個V上因為大而帶來的挑戰。

Volume很好理解。一般也可以認為是Large-scale data(其實學術上用這個更準確,只是我們出去吹逼的時候就都叫big data了...)。“大”可以是資料的維度,也可以是資料的size。一般claim自己是big-data的演算法會比較scalable,複雜度上對這兩個不敏感。演算法和系統上,人們喜歡選擇並行(Parallel),分佈(distributed)等屬性的方法來增加capability。

Velocity就是資料到達的速度。對於資料高速到達的情況,需要對應的演算法或者系統要有效的處理。而且資料在時間上可能存在變化,對應的演算法或者系統居然做出調整和即時判斷,以適應新的資料。這就要求我們提出高效(Efficiency),即時(real-time),動態(dynamic),還有有預測性(predictive)等等....

Variaty指的是資料的類別。以往的演算法或者系統往往針對某一種已知特定類別的資料來適應。而一般大資料也會指標對處理那些unstructured data或者multi-modal data,這就對傳統的處理方法帶來了挑戰。

相關文章