推薦六個用於大資料分析的最好工具

edithfang發表於2015-03-05
在大資料和大資料分析,他們對企業的影響有一個興趣高漲。大資料分析是研究大量的資料的過程中尋找模式,相關性和其他有用的資訊,可以幫助企業更好地適應變化,並做出更明智的決策。

一、Hadoop

Hadoop 是一個能夠對大量資料進行分散式處理的軟體框架。但是 Hadoop 是以一種可靠、高效、可伸縮的方式進行處理的。Hadoop 是可靠的,因為它假設計算元素和儲存會失敗,因此它維護多個工作資料副本,確保能夠針對失敗的節點重新分佈處理。Hadoop 是高效的,因為它以並行的方式工作,通過並行處理加快處理速度。Hadoop 還是可伸縮的,能夠處理 PB 級資料。此外,Hadoop 依賴於社群伺服器,因此它的成本比較低,任何人都可以使用。

推薦六個用於大資料分析的最好工具



Hadoop是一個能夠讓使用者輕鬆架構和使用的分散式計算平臺。使用者可以輕鬆地在Hadoop上開發和執行處理海量資料的應用程式。它主要有以下幾個優點:

⒈高可靠性。

Hadoop按位儲存和處理資料的能力值得人們信賴。

⒉高擴充套件性。

Hadoop是在可用的計算機集簇間分配資料並完成計算任務的,這些集簇可以方便地擴充套件到數以千計的節點中。

⒊高效性。

Hadoop能夠在節點之間動態地移動資料,並保證各個節點的動態平衡,因此處理速度非常快。

⒋高容錯性。

Hadoop能夠自動儲存資料的多個副本,並且能夠自動將失敗的任務重新分配。

Hadoop帶有用 Java 語言編寫的框架,因此執行在 Linux 生產平臺上是非常理想的。Hadoop 上的應用程式也可以使用其他語言編寫,比如 C++。

二、HPCC

HPCC,High Performance Computing and Communications(高效能運算與通訊)的縮寫。1993年,由美國科學、工程、技術聯邦協調理事會向國會提交了“重大挑戰專案:高效能運算與 通訊”的報告,也就是被稱為HPCC計劃的報告,即美國總統科學戰略專案,其目的是通過加強研究與開發解決一批重要的科學與技術挑戰問題。HPCC是美國 實施資訊高速公路而上實施的計劃,該計劃的實施將耗資百億美元,其主要目標要達到:開發可擴充套件的計算系統及相關軟體,以支援太位級網路傳輸效能,開發千兆 位元網路技術,擴充套件研究和教育機構及網路連線能力。

推薦六個用於大資料分析的最好工具


該專案主要由五部分組成:

1、高效能運算機系統(HPCS),內容包括今後幾代計算機系統的研究、系統設計工具、先進的典型系統及原有系統的評價等;

2、先進軟體技術與演算法(ASTA),內容有巨大挑戰問題的軟體支撐、新演算法設計、軟體分支與工具、計算計算及高效能運算研究中心等;

3、國家科研與教育網格(NREN),內容有中接站及10億位級傳輸的研究與開發;

4、基本研究與人類資源(BRHR),內容有基礎研究、培訓、教育及課程教材,被設計通過獎勵調查者-開始的,長期 的調查在可升級的高效能運算中來增加創新意識流,通過提高教育和高效能的計算訓練和通訊來加大熟練的和訓練有素的人員的聯營,和來提供必需的基礎架構來支 持這些調查和研究活動;

5、資訊基礎結構技術和應用(IITA ),目的在於保證美國在先進資訊科技開發方面的領先地位。

三、Storm

推薦六個用於大資料分析的最好工具



Storm是自由的開源軟體,一個分散式的、容錯的實時計算系統。Storm可以非常可靠的處理龐大的資料流,用於處理Hadoop的批量資料。Storm很簡單,支援許多種程式語言,使用起來非常有趣。Storm由Twitter開源而來,其它知名的應用企業包括Groupon、淘寶、支付寶、阿里巴巴、樂元素、Admaster等等。

Storm有許多應用領域:實時分析、線上機器學習、不停頓的計算、分散式RPC(遠過程呼叫協議,一種通過網路從遠端計算機程式上請求服務)、 ETL(Extraction-Transformation-Loading的縮寫,即資料抽取、轉換和載入)等等。Storm的處理速度驚人:經測 試,每個節點每秒鐘可以處理100萬個資料元組。Storm是可擴充套件、容錯,很容易設定和操作。

四、Apache Drill

為了幫助企業使用者尋找更為有效、加快Hadoop資料查詢的方法,Apache軟體基金會近日發起了一項名為“Drill”的開源專案。Apache Drill 實現了 Google’s Dremel.

據Hadoop廠商MapR Technologies公司產品經理Tomer Shiran介紹,“Drill”已經作為Apache孵化器專案來運作,將面向全球軟體工程師持續推廣。

推薦六個用於大資料分析的最好工具



該專案將會建立出開源版本的谷歌Dremel Hadoop工具(谷歌使用該工具來為Hadoop資料分析工具的網際網路應用提速)。而“Drill”將有助於Hadoop使用者實現更快查詢海量資料集的目的。

“Drill”專案其實也是從谷歌的Dremel專案中獲得靈感:該專案幫助谷歌實現海量資料集的分析處理,包括分析抓取Web文件、跟蹤安裝在Android Market上的應用程式資料、分析垃圾郵件、分析谷歌分散式構建系統上的測試結果等等。

通過開發“Drill”Apache開源專案,組織機構將有望建立Drill所屬的API介面和靈活強大的體系架構,從而幫助支援廣泛的資料來源、資料格式和查詢語言。

五、RapidMiner

RapidMiner是世界領先的資料探勘解決方案,在一個非常大的程度上有著先進技術。它資料探勘任務涉及範圍廣泛,包括各種資料藝術,能簡化資料探勘過程的設計和評價。

推薦六個用於大資料分析的最好工具


功能和特點

  • 免費提供資料探勘技術和庫
  • 100%用Java程式碼(可執行在作業系統)
  • 資料探勘過程簡單,強大和直觀
  • 內部XML保證了標準化的格式來表示交換資料探勘過程
  • 可以用簡單指令碼語言自動進行大規模程式
  • 多層次的資料檢視,確保有效和透明的資料
  • 圖形使用者介面的互動原型
  • 命令列(批處理模式)自動大規模應用
  • Java API(應用程式設計介面)
  • 簡單的外掛和推廣機制
  • 強大的視覺化引擎,許多尖端的高維資料的視覺化建模
  • 400多個資料探勘運營商支援


耶魯大學已成功地應用在許多不同的應用領域,包括文字挖掘,多媒體挖掘,功能設計,資料流挖掘,整合開發的方法和分散式資料探勘。

六、Pentaho BI

Pentaho BI 平臺不同於傳統的BI 產品,它是一個以流程為中心的,面向解決方案(Solution)的框架。其目的在於將一系列企業級BI產品、開源軟體、API等等元件整合起來,方便商務智慧應用的開發。它的出現,使得一系列的面向商務智慧的獨立產品如Jfree、Quartz等等,能夠整合在一起,構成一項項複雜的、完整的商務智慧解決方案。

推薦六個用於大資料分析的最好工具



Pentaho BI 平臺,Pentaho Open BI 套件的核心架構和基礎,是以流程為中心的,因為其中樞控制器是一個工作流引擎。工作流引擎使用流程定義來定義在BI 平臺上執行的商業智慧流程。流程可以很容易的被定製,也可以新增新的流程。BI 平臺包含元件和報表,用以分析這些流程的效能。目前,Pentaho的主要組成元素包括報表生成、分析、資料探勘和工作流管理等等。這些元件通過 J2EE、WebService、SOAP、HTTP、Java、JavaScript、Portals等技術整合到Pentaho平臺中來。 Pentaho的發行,主要以Pentaho SDK的形式進行。

Pentaho SDK共包含五個部分:Pentaho平臺、Pentaho示例資料庫、可獨立執行的Pentaho平臺、Pentaho解決方案示例和一個預先配製好的 Pentaho網路伺服器。其中Pentaho平臺是Pentaho平臺最主要的部分,囊括了Pentaho平臺原始碼的主體;Pentaho資料庫為 Pentaho平臺的正常執行提供的資料服務,包括配置資訊、Solution相關的資訊等等,對於Pentaho平臺來說它不是必須的,通過配置是可以用其它資料庫服務取代的;可獨立執行的Pentaho平臺是Pentaho平臺的獨立執行模式的示例,它演示瞭如何使Pentaho平臺在沒有應用伺服器支援的情況下獨立執行;

Pentaho解決方案示例是一個Eclipse工程,用來演示如何為Pentaho平臺開發相關的商業智慧解決方案。

Pentaho BI 平臺構建於伺服器,引擎和元件的基礎之上。這些提供了系統的J2EE 伺服器,安全,portal,工作流,規則引擎,圖表,協作,內容管理,資料整合,分析和建模功能。這些元件的大部分是基於標準的,可使用其他產品替換之。
評論(1)

相關文章