Java 大資料量處理問題
我先描述下我的需求吧:
1.每秒有200-300條資料從簡訊閘道器上來。
2.每條簡訊在處理邏輯中需要二次確認,所以這些簡訊就要被當做原始記錄(物件)保持起來
3.二次確認可能需要很長時間,比如30分鐘,超過30分鐘就被刪除掉。
從上面需求看,以30分鐘為界限就需要儲存:30*60*300=54萬 的資料量 如果以60分鐘為界線就是100多萬儲存量
那麼請哪位大哥們看一下下面哪種方法可行?或者有更好的方法幫我想想。
1.透過LRU快取遷出演算法,把有限的資料儲存在記憶體中,比如10萬,超過的部分持久化到資料庫中。這樣做好處是實現方式簡單,但是這樣做增加了資料庫的負擔,因為高峰期本來資料庫負荷就很高,所以不希望再增加資料庫負擔。
2.透過LRU快取遷出演算法,把有限的資料儲存在記憶體中,比如10萬,超過的部分持久化到本地磁碟上。這樣做可以不增加資料庫負擔,但持久到磁碟以檔案方式儲存,這樣做對於高速查詢來說比較吃力,因為只有透過遍歷方式查詢,不知有更好的查詢方式沒有?
請各位出出主意,謝謝!
1.每秒有200-300條資料從簡訊閘道器上來。
2.每條簡訊在處理邏輯中需要二次確認,所以這些簡訊就要被當做原始記錄(物件)保持起來
3.二次確認可能需要很長時間,比如30分鐘,超過30分鐘就被刪除掉。
從上面需求看,以30分鐘為界限就需要儲存:30*60*300=54萬 的資料量 如果以60分鐘為界線就是100多萬儲存量
那麼請哪位大哥們看一下下面哪種方法可行?或者有更好的方法幫我想想。
1.透過LRU快取遷出演算法,把有限的資料儲存在記憶體中,比如10萬,超過的部分持久化到資料庫中。這樣做好處是實現方式簡單,但是這樣做增加了資料庫的負擔,因為高峰期本來資料庫負荷就很高,所以不希望再增加資料庫負擔。
2.透過LRU快取遷出演算法,把有限的資料儲存在記憶體中,比如10萬,超過的部分持久化到本地磁碟上。這樣做可以不增加資料庫負擔,但持久到磁碟以檔案方式儲存,這樣做對於高速查詢來說比較吃力,因為只有透過遍歷方式查詢,不知有更好的查詢方式沒有?
請各位出出主意,謝謝!
相關文章
- 大資料量處理實踐方案整理大資料
- Salesforce 大資料量處理篇(二)IndexSalesforce大資料Index
- laravel 處理mongodb大資料量對比方法LaravelMongoDB大資料
- 大資料處理需留意哪些問題大資料
- 資料處理--pandas問題
- java大資料處理:如何使用Java技術實現高效的大資料處理Java大資料
- 【Weblogic】java.lang.UnsupportedClassVersionError問題處理方案WebJavaError
- [git] git問題處理Git
- golang json處理問題GolangJSON
- Java處理正則匹配卡死(正則回溯問題)Java
- 資料量越發龐大怎麼辦?新一代資料處理利器Greenplum來助攻
- oracle系統表空間過大問題處理Oracle
- 開發者在處理大資料問題時,有哪些關鍵點?大資料
- Ubuntu處理依賴問題Ubuntu
- 處理SQLServer errorlog滿問題SQLServerError
- 併發問題處理方式
- Linux 問題處理集錦Linux
- openGauss資料庫xlog目錄滿問題處理資料庫
- 專案管理中,如何處理人力資源問題?專案管理
- Oracle資料庫中的逐行處理問題NEOracle資料庫
- Java工作中的併發問題處理方法總結Java
- oracle SP2-問題處理Oracle
- 記憶體分配問題處理記憶體
- gc buffer busy acquire問題處理GCUI
- 如何處理HTTP 503故障問題?HTTP
- 如何處理 No DMARC Record Found 問題
- 【問題處理】IPC Send timeout detected
- MySQL:亂碼問題處理流程MySql
- PHP 開發版本問題處理PHP
- 【故障處理】TNS-04610問題
- JVM問題分析處理手冊JVM
- 資料庫主機重啟卡住問題處理分享資料庫
- 乾貨丨RPA工程中的資料處理問題
- Oracle日常問題處理-資料庫無法啟動Oracle資料庫
- 今天面試有個大資料量處理的問題沒找到答案,不知道哪位大佬可以解答一下(在goole上邊沒查到好的答案)面試大資料Go
- oracle大資料量分批刪除Oracle大資料
- 3大問題!Redis快取異常及處理方案總結Redis快取
- 【問題處理】MySQL忘記root密碼的處理辦法MySql密碼
- java讀取大檔案並處理Java