海量資料處理 (轉)
對海量的資料處理,對大表建立索引是必行的,建立索引要考慮到具體情況,例如針對大表的分組、排序等欄位,都要建立相應索引,一般還可以建立複合索引,對經常插入的表則建立索引時要小心,筆者在處理資料時,曾經在一個ETL流程中,當插入表時,首先刪除索引,然後插入完畢,建立索引,並實施聚合操作,聚合完成後,再次插入前還是刪除索引,所以索引要用到好的時機,索引的填充因子和聚集、非聚集索引都要考慮。
五、建立快取機制
當資料量增加時,一般的處理工具都要考慮到快取問題。快取大小設定的好差也關係到資料處理的成敗,例如,筆者在處理2億條資料聚合操作時,快取設定為100000條/Buffer,這對於這個級別的資料量是可行的。
六、加大虛擬記憶體
如果系統資源有限,記憶體提示不足,則可以靠增加虛擬記憶體來解決。筆者在實際專案中曾經遇到針對18億條的資料進行處理,記憶體為1GB,1個P4 2.4G的CPU,對這麼大的資料量進行聚合操作是有問題的,提示記憶體不足,那麼採用了加大虛擬記憶體的方法來解決,在6塊磁碟分割槽上分別建立了6個4096M的磁碟分割槽,用於虛擬記憶體,這樣虛擬的記憶體則增加為 4096*6 + 1024 = 25600 M,解決了資料處理中的記憶體不足問題。
七、分批處理
來源:(http://blog.sina.com.cn/s/blog_4934a04a0100azzx.html) - 如何處理海量資料_Jack_新浪部落格
海量資料處理難因為資料量大,那麼解決海量資料處理難的問題其中一個技巧是減少資料量。可以對海量資料分批處理,然後處理後的資料再進行合併操作,這樣逐個擊破,有利於小資料量的處理,不至於面對大資料量帶來的問題,不過這種方法也要因時因勢進行,如果不允許拆分資料,還需要另想辦法。不過一般的資料按天、按月、按年等儲存的,都可以採用先分後合的方法,對資料進行分開處理。
八、使用臨時表和中間表
資料量增加時,處理中要考慮提前彙總。這樣做的目的是化整為零,大表變小表,分塊處理完成後,再利用一定的規則進行合併,處理過程中的臨時表的使用和中間結果的儲存都非常重要,如果對於超海量的資料,大表處理不了,只能拆分為多個小表。如果處理過程中需要多步彙總操作,可按彙總步驟一步步來,不要一條語句完成,一口氣吃掉一個胖子。
九、優化查詢SQL語句
在對海量資料進行查詢處理過程中,查詢的SQL語句的效能對查詢效率的影響是非常大的,編寫高效優良的SQL指令碼和儲存過程是資料庫工作人員的職責,也是檢驗資料庫工作人員水平的一個標準,在對SQL語句的編寫過程中,例如減少關聯,少用或不用遊標,設計好高效的資料庫表結構等都十分必要。筆者在工作中試著對1億行的資料使用遊標,執行3個小時沒有出結果,這是一定要改用程式處理了。
十、使用文字格式進行處理
對一般的資料處理可以使用資料庫,如果對複雜的資料處理,必須藉助程式,那麼在程式運算元據庫和程式操作文字之間選擇,是一定要選擇程式操作文字的,原因為:程式操作文字速度快;對文字進行處理不容易出錯;文字的儲存不受限制等。例如一般的海量的網路日誌都是文字格式或者csv格式(文字格式),對它進行處理牽扯到資料清洗,是要利用程式進行處理的,而不建議匯入資料庫再做清洗。
十一、定製強大的清洗規則和出錯處理機制
海量資料中存在著不一致性,極有可能出現某處的瑕疵。例如,同樣的資料中的時間欄位,有的可能為非標準的時間,出現的原因可能為應用程式的錯誤,系統的錯誤等,這是在進行資料處理時,必須制定強大的資料清洗規則和出錯處理機制。
十二、建立檢視或者物化檢視
檢視中的資料來源於基表,對海量資料的處理,可以將資料按一定的規則分散到各個基表中,查詢或處理過程中可以基於檢視進行,這樣分散了磁碟I/O,正如10根繩子吊著一根柱子和一根吊著一根柱子的區別。
十三、避免使用32位機子(極端情況)
目前的計算機很多都是32位的,那麼編寫的程式對記憶體的需要便受限制,而很多的海量資料處理是必須大量消耗記憶體的,這便要求更好效能的機子,其中對位數的限制也十分重要。
十四、考慮作業系統問題
海量資料處理過程中,除了對資料庫,處理程式等要求比較高以外,對作業系統的要求也放到了重要的位置,一般是必須使用伺服器的,而且對系統的安全性和穩定性等要求也比較高。尤其對作業系統自身的快取機制,臨時空間的處理等問題都需要綜合考慮。
十五、使用資料倉儲和多維資料庫儲存
資料量加大是一定要考慮OLAP的,傳統的報表可能5、6個小時出來結果,而基於Cube的查詢可能只需要幾分鐘,因此處理海量資料的利器是OLAP多維分析,即建立資料倉儲,建立多維資料集,基於多維資料集進行報表展現和資料探勘等。
十六、使用取樣資料,進行資料探勘
基於海量資料的資料探勘正在逐步興起,面對著超海量的資料,一般的挖掘軟體或演算法往往採用資料抽樣的方式進行處理,這樣的誤差不會很高,大大提高了處理效率和處理的成功率。一般取樣時要注意資料的完整性和,防止過大的偏差。筆者曾經對1億2千萬行的表資料進行取樣,抽取出400萬行,經測試軟體測試處理的誤差為千分之五,客戶可以接受。
還有一些方法,需要在不同的情況和場合下運用,例如使用代理鍵等操作,這樣的好處是加快了聚合時間,因為對數值型的聚合比對字元型的聚合快得多。類似的情況需要針對不同的需求進行處理。
海量資料是發展趨勢,對資料分析和挖掘也越來越重要,從海量資料中提取有用資訊重要而緊迫,這便要求處理要準確,精度要高,而且處理時間要短,得到有價值資訊要快,所以,對海量資料的研究很有前途,也很值得進行廣泛深入的研究。
來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/16436858/viewspace-665783/,如需轉載,請註明出處,否則將追究法律責任。
相關文章
- 海量資料處理
- 海量資料處理2
- 海量資料處理_批量插入
- 海量資料處理_批量更新
- 海量資料的併發處理
- 海量資料處理_表分割槽
- 海量資料處理:十道面試題與十個海量資料處理方法總結面試題
- 海量資料處理利器greenplum——初識
- 海量資料處理_資料泵分批資料遷移
- 海量資料處理_表結構變更
- 海量資料處理_刪除重複行
- 海量資料處理_使用外部表進行資料遷移
- 超3萬億資料實時分析,JCHDB助力海量資料處理
- 快手關於海量模型資料處理的實踐模型
- 滴滴處理海量資料的祕訣是什麼?
- SQL Server 2005對海量資料的處理SQLServer
- 海量資料處理_表分割槽(線上重定義)
- 大資料時代,野心勃勃的MongDB為你處理海量資料!大資料
- 關於海量資料處理分析的經驗總結
- 十道海量資料處理面試題與十個方法大總結(轉)面試題
- 我的《海量資料處理與大資料技術實戰》出版啦!大資料
- 海量資料處理問題知識點複習手冊
- Jtti:怎樣正確處理Redis中的海量資料JttiRedis
- 羅強:騰訊新聞如何處理海量商業化資料?
- 資料處理及跳轉
- N道大資料海量資訊處理 演算法面試集錦大資料演算法面試
- 簡述高併發解決思路-如何處理海量資料(中)
- 教你如何迅速秒殺掉:99%的海量資料處理面試題面試題
- 處理海量資料的模式MapReduce,大規模資料集的並行運算模式並行
- FreeBSD資料處理方式(轉)
- 嵌入式:微軟將推出第二代AI處理器應對海量資料處理微軟AI
- 5.22成都workshop:1、海量資料儲存與多媒體處理
- O'Reilly精品圖書推薦:大資料猩球:海量資料處理實踐指南大資料
- SpringMVC:資料處理及跳轉SpringMVC
- Delphi資料壓縮處理(1) (轉)
- Delphi資料壓縮處理(2) (轉)
- mysql處理海量資料時的一些優化查詢速度方法MySql優化
- 經典演算法-海量資料處理演算法(top K問題)演算法