從分治演算法說起
要說 Hadoop MapReduce 就不得不說分治演算法,而分治演算法其實說白了,就是四個字 分而治之 。其實就是將一個複雜的問題分解成多組相同或類似的子問題,對這些子問題再分,然後再分。直到最後的子問題可以簡單得求解。
要具體介紹分治演算法,那就不得不說一個很經典的排序演算法 -- 歸併排序。這裡不說它的具體演算法程式碼,只說明它的主要思想。而歸併排序的思想正是分治思想。
歸併排序採用遞迴的方式,每次都將一個陣列分解成更小的兩個陣列,再對這兩個陣列進行排序,不斷遞迴下去。直到分解成最簡單形式的兩個陣列的時候,再將這一個個分解後的陣列進行合併。這就是歸併排序。
下面有一個取自百度百科的具體例子可以看看:
我們可以看到,初始的陣列是:{10,4,6,3,8,2,5,7}
第一次分解後,變成兩個陣列:{10,4,6,3},{8,2,5,7}
分解到最後為 5 個陣列:{10},{4,6},{3,8},{2,5},{7}
然後分別合併並排序,最後排序完成:{2,3,4,5,6,7,8,10}
上述的例子這是比較簡單的情況,那麼我們想想看,當這個陣列很大的時候又該怎麼辦呢?比如這個陣列達到 100 GB大小,那麼在一臺機器上肯定是無法實現或是效率較為低下的。
那一臺機器不行,那我們可以拆分到多臺機器中去嘛。剛好使用分治演算法將一個任務可以拆分成多個小任務,並且這多個小任務間不會相互干擾,可以獨立計算。那麼我們可以拆分這個陣列,將這個陣列拆分成 20 個塊,每個的大小為 5 GB。然後將這每個 5 GB的塊分散到各個不同的機器中去執行,最後再將處理的結果返回,讓中央機器再進行一次完整的排序,這樣無疑速度上會提升很多。
上述這個過程就是 Hadoop MapReduce 的大致原理了。
函式式的 MapReduce
Map 和 Reduce 其實是函數語言程式設計中的兩個語義。Map 和迴圈 for 類似,只不過它有返回值。比如對一個 List 進行 Map 操作,它就會遍歷 List 中的所有元素,然後根據每個元素處理後的結果返回一個新的值。下面這個例子就是利用 map 函式,將 List 中每個元素從 Int 型別 轉換為 String 型別。
val a:List[Int] = List(1,2,3,4)
val b:List[String] = a.map(num => (num.toString))
而 Reduce 在函數語言程式設計的作用則是進行資料歸約。Reduce 方法需要傳入兩個引數,然後會遞迴得對每一個引數執行運算。還是用一個例子來說明:
val list:List[Int] = List(1,2,3,4,5)
//運算順序是:1-2 = -1; -1-3 = -4; -4-4 = -8; -8-5 = -13;
//所以結果等於 -13
list.reduce(_ - _)
談談 Hadoop 的 MapReduce
Hadoop MapReduce 和函式式中的 Map Reduce 還是比較類似的,只是它是一種程式設計模型。我們來看看 WordCount 的例子就明白了。
在這個 wordcount 程式中,Hadoop MapReduce 會對輸入先進行切分,這一步其實就是分治中分的過程。切分後不同部分就會讓不同的機器去執行 Map 操作。而後便是 Shuffle,這一階段會將不相同的單詞加到一起,最後再進行 Reduce 。
這個 WordCount 程式是官方提供的一個簡易的 Demo,更復雜的任務需要自己分解成 Hadoop MapReduce 模型的程式碼然後執行。
所謂 MapReduce 的意思是任何的事情只要都嚴格遵循 Map Shuffle Reduce 三個階段就好。其中Shuffle是系統自己提供的而Map和Reduce則使用者需要寫程式碼。
當碰到一個任務的時候,我們需要將它解析成 Map Reduce 的處理方式然後編寫 Hadoop MapReduce 程式碼來實現。我看過一個比喻很貼切,Hadoop MapReduce 這個東西這就像是說我們有一把大砍刀,一個錘子。世界上的萬事萬物都可以先砍幾刀再錘幾下,就能搞定。至於刀怎麼砍,錘子怎麼錘,那就算個人的手藝了。
從模型的角度來看,Hadoop MapReduce 是比較粗糙的,無論什麼方法都只能用 Map Reduce 的方式來執行,而這種方式無疑不是萬能的,很多應用場景都很難解決。而從做資料庫的角度來看,這無非也就是一個 select + groupBy() 。這也就是為什麼有了後面 Spark 基於 DAG 的 RDD 概念的崛起。
這裡不得不多說一句,Hadoop 的檔案系統 Hadoop Hdfs 才是 Hadoop MapReduce 的基礎,因為 Map Reduce 最實質的支撐其實就是這個 Hadoop Hdfs 。沒有它, Map Reduce 不過是空中閣樓。你看,在 Hadoop MapReduce 式微的今天,Hadoop Hdfs 還不是活得好好的,Spark 或是 Hive 這些工具也都是以它為基礎。不得不說,Hadoop Hdfs 才牛逼啊。
為什麼會出現 Hadoop MapReduce
好了,接下來我們來探究一下為什麼會出現 Hadoop MapReduce 這個東西。
MapReduce 在 Google 最大的應用是做網頁的索引。大家都知道 Google 是做搜尋引擎起家的,而搜尋引擎的基本原理就是索引,就是爬去網際網路上的網頁,然後對建立 單詞->文件 的索引。這樣什麼搜尋關鍵字,才能找出對應網頁。這也是為什麼 Google 會以 WordCount 作為 MapReduce 的例子。
既然明白搜尋引擎的原理,那應該就明白自 2000 年來網際網路爆發的年代,單臺機器肯定是不夠儲存大量的索引的,所以就有了分散式儲存,Google 內部用的叫 Gfs,Hadoop Hdfs 其實可以說是山寨 Gfs 來的。而在 Gfs 的基礎上,Hadoop MapReduce 的出現也就自然而然了。
推薦閱讀: