一、背景
分頁應該是極為常見的資料展現方式了,一般在資料集較大而無法在單個頁面中呈現時會採用分頁的方法。
各種前端UI元件在實現上也都會支援分頁的功能,而資料互動呈現所相應的後端系統、資料庫都對資料查詢的分頁提供了良好的支援。
以幾個流行的資料庫為例:
查詢表 t_data 第 2 頁的資料(假定每頁 5 條)
- MySQL 的做法:
select * from t_data limit 5,5
- PostGreSQL 的做法:
select * from t_data limit 5 offset 5
- MongoDB 的做法:
db.t_data.find().limit(5).skip(5);
儘管每種資料庫的語法不盡相同,通過一些開發框架封裝的介面,我們可以不需要熟悉這些差異。如 SpringData 提供的分頁介面:
public interface PagingAndSortingRepository<T, ID extends Serializable>
extends CrudRepository<T, ID> {
Page<T> findAll(Pageable pageable);
}
這樣看來,開發一個分頁的查詢功能是非常簡單的。
然而萬事皆不可能盡全盡美,儘管上述的資料庫、開發框架提供了基礎的分頁能力,在面對日益增長的海量資料時卻難以應對,一個明顯的問題就是查詢效能低下!
那麼,面對千萬級、億級甚至更多的資料集時,分頁功能該怎麼實現?
下面,我以 MongoDB 作為背景來探討幾種不同的做法。
二、傳統方案
就是最常規的方案,假設 我們需要對文章 articles 這個表(集合) 進行分頁展示,一般前端會需要傳遞兩個引數:
- 頁碼(當前是第幾頁)
- 頁大小(每頁展示的資料個數)
按照這個做法的查詢方式,如下圖所示:
因為是希望最後建立的文章顯示在前面,這裡使用了**_id 做降序排序**。
其中紅色部分語句的執行計劃如下:
{
"queryPlanner" : {
"plannerVersion" : 1,
"namespace" : "appdb.articles",
"indexFilterSet" : false,
"parsedQuery" : {
"$and" : []
},
"winningPlan" : {
"stage" : "SKIP",
"skipAmount" : 19960,
"inputStage" : {
"stage" : "FETCH",
"inputStage" : {
"stage" : "IXSCAN",
"keyPattern" : {
"_id" : 1
},
"indexName" : "_id_",
"isMultiKey" : false,
"direction" : "backward",
"indexBounds" : {
"_id" : [
"[MaxKey, MinKey]"
]
...
}
可以看到隨著頁碼的增大,skip 跳過的條目也會隨之變大,而這個操作是通過 cursor 的迭代器來實現的,對於cpu的消耗會比較明顯。
而當需要查詢的資料達到千萬級及以上時,會發現響應時間非常的長,可能會讓你幾乎無法接受!
或許,假如你的機器效能很差,在數十萬、百萬資料量時已經會出現瓶頸
三、改良做法
既然傳統的分頁方案會產生 skip 大量資料的問題,那麼能否避免呢?答案是可以的。
改良的做法為:
- 選取一個唯一有序的關鍵欄位,比如 _id,作為翻頁的排序欄位;
- 每次翻頁時以當前頁的最後一條資料_id值作為起點,將此併入查詢條件中。
如下圖所示:
修改後的語句執行計劃如下:
{
"queryPlanner" : {
"plannerVersion" : 1,
"namespace" : "appdb.articles",
"indexFilterSet" : false,
"parsedQuery" : {
"_id" : {
"$lt" : ObjectId("5c38291bd4c0c68658ba98c7")
}
},
"winningPlan" : {
"stage" : "FETCH",
"inputStage" : {
"stage" : "IXSCAN",
"keyPattern" : {
"_id" : 1
},
"indexName" : "_id_",
"isMultiKey" : false,
"direction" : "backward",
"indexBounds" : {
"_id" : [
"(ObjectId('5c38291bd4c0c68658ba98c7'), ObjectId('000000000000000000000000')]"
]
...
}
可以看到,改良後的查詢操作直接避免了昂貴的 skip 階段,索引命中及掃描範圍也是非常合理的!
效能對比
為了對比這兩種方案的效能差異,下面準備了一組測試資料。
測試方案
準備10W條資料,以每頁20條的引數從前往後翻頁,對比總體翻頁的時間消耗
db.articles.remove({});
var count = 100000;
var items = [];
for(var i=1; i<=count; i++){
var item = {
"title" : "論年輕人思想建設的重要性-" + i,
"author" : "王小兵-" + Math.round(Math.random() * 50),
"type" : "雜文-" + Math.round(Math.random() * 10) ,
"publishDate" : new Date(),
} ;
items.push(item);
if(i%1000==0){
db.test.insertMany(items);
print("insert", i);
items = [];
}
}
傳統翻頁尾本
function turnPages(pageSize, pageTotal){
print("pageSize:", pageSize, "pageTotal", pageTotal)
var t1 = new Date();
var dl = [];
var currentPage = 0;
//輪詢翻頁
while(currentPage < pageTotal){
var list = db.articles.find({}, {_id:1}).sort({_id: -1}).skip(currentPage*pageSize).limit(pageSize);
dl = list.toArray();
//沒有更多記錄
if(dl.length == 0){
break;
}
currentPage ++;
//printjson(dl)
}
var t2 = new Date();
var spendSeconds = Number((t2-t1)/1000).toFixed(2)
print("turn pages: ", currentPage, "spend ", spendSeconds, ".")
}
改良翻頁尾本
function turnPageById(pageSize, pageTotal){
print("pageSize:", pageSize, "pageTotal", pageTotal)
var t1 = new Date();
var dl = [];
var currentId = 0;
var currentPage = 0;
while(currentPage ++ < pageTotal){
//以上一頁的ID值作為起始值
var condition = currentId? {_id: {$lt: currentId}}: {};
var list = db.articles.find(condition, {_id:1}).sort({_id: -1}).limit(pageSize);
dl = list.toArray();
//沒有更多記錄
if(dl.length == 0){
break;
}
//記錄最後一條資料的ID
currentId = dl[dl.length-1]._id;
}
var t2 = new Date();
var spendSeconds = Number((t2-t1)/1000).toFixed(2)
print("turn pages: ", currentPage, "spend ", spendSeconds, ".")
}
以100、500、1000、3000頁數的樣本進行實測,結果如下:
可見,當頁數越大(資料量越大)時,改良的翻頁效果提升越明顯!
這種分頁方案其實採用的就是時間軸(TImeLine)的模式,實際應用場景也非常的廣,比如Twitter、微博、朋友圈動態都可採用這樣的方式。
而同時除了上述的資料庫之外,HBase、ElastiSearch 在Range Query的實現上也支援這種模式。
四、完美的分頁
時間軸(TimeLine)的模式通常是做成“載入更多”、上下翻頁這樣的形式,但無法自由的選擇某個頁碼。
那麼為了實現頁碼分頁,同時也避免傳統方案帶來的 skip 效能問題,我們可以採取一種折中的方案。
這裡參考Google搜尋結果頁作為說明:
通常在資料量非常大的情況下,頁碼也會有很多,於是可以採用頁碼分組的方式。
以一段頁碼作為一組,每一組內資料的翻頁採用ID 偏移量 + 少量的 skip 操作實現
具體的操作如下圖所示:
實現步驟
對頁碼進行分組(groupSize=8, pageSize=20),每組為8個頁碼;
- 提前查詢 end_offset,同時獲得本組頁碼數量:
db.articles.find({ _id: { $lt: start_offset } }).sort({_id: -1}).skip(20*8).limit(1)
- 分頁資料查詢以本頁組 start_offset 作為起點,在有限的頁碼上翻頁(skip)
由於一個分組的資料量通常很小(8*20=160),在分組內進行skip產生的代價會非常小,因此效能上可以得到保證。
小結
隨著物聯網,大資料業務的白熱化,一般企業級系統的資料量也會呈現出快速的增長。而傳統的資料庫分頁方案在海量資料場景下很難滿足效能的要求。
在本文的探討中,主要為海量資料的分頁提供了幾種常見的優化方案(以MongoDB作為例項),並在效能上做了一些對比,旨在提供一些參考。