ElasticSearch第3篇 大資料處理3大問題(“10000條”問題解決方案、hits total值統計總數不精確解決方案、大資料深度分頁效能問題3種最佳化方案)

小松聊PHP进阶發表於2024-07-28

“10000條”問題(個人稱謂)

  • 症狀: 在資料量不大的情況下,可能還會使用from + size的傳統分頁方式,但是數量受限,只能取前10000條的資料。
  • 緣由:ES限值10000條,是ES團隊挑選一個不大不小的數作為閾值,為了避免深度分頁的策略。
  • 調整:max_result_window 用於控制在搜尋查詢中可以檢索到的最大文件數,是有符號int型別,最大可設定231 - 1,調大可以,但隨著資料量(不是max_result_window 值)增加會有效能問題。
返回bool
$params = [
    'index' => 'performance_test',
    'body'  => [
        'index' => [
            'max_result_window' => 2147483647 //用於控制在搜尋查詢中可以檢索到的最大文件數,有符號int型別,最大可設定2^31 - 1,但隨著資料量增加會有效能問題。
        ]
    ]
];

$response = $client->indices()->putSettings($params);
dd($response->asBool());

hits total值統計總數不精確解決方案(另一種“10000條”問題)

  • 症狀:呼叫search()方法,可能查詢到的結果有20000條(count()方法統計得出),ES也返回有10000條資料匹配。
{
    "took": 101,
    "timed_out": false,
    "_shards": {
        "total": 1,
        "successful": 1,
        "skipped": 0,
        "failed": 0
    },
    "hits": {
        "total": {
            "value": 10000, //這裡的統計結果不準,解決的就是這裡的問題
            "relation": "gte"
        },
        "max_score": 1.0342529,
        "hits": [
            ......
    }
}
  • 緣由:ES團隊挑選一個不大不小的數作為閾值,處於效能和業務考慮,畢竟使用者基本沒耐心看數萬條之後的資料。
  • 解決:新增track_total_hits為true即可。
$params = [
    'index' => 'performance_test',
    'body'  => [
        'query' => [
            'match' => [
                'content' => '的'
            ]
        ],
        'track_total_hits' => true
    ]
];

$response = $client->search($params);
dd($response->asArray());

大資料深度分頁效能問題

  • 極簡概括:在大資料情況下,查詢很多頁後的資料,ES響應速度會變慢甚至崩潰。
  • 問題由來:假設億級資料,要查詢某頁(頁數很大)之後的資料,ES底層就需要把前面很多頁的資料都要過一遍才能定位到指定頁,這是一個巨大的開銷。所以大資料深度分頁一般不推薦使用from + size的傳統分頁方式。也算是一類業界難題。
  • 測試:花了3個小時向ES插入了1.09億條中文資料,實測每頁顯示2條資料,翻頁到2000萬頁,效果如下:
深度分頁會把記憶體幹爆,導致java程式OutOfMemoryError,ES程序被終止。
[2024-07-27T09:01:39,206][INFO ][o.e.c.r.a.AllocationService] [localhost.localdomain] current.health="YELLOW" message="Cluster health status changed from [RED] to [YELLOW] (reason: [shards started [[performance_test][0]]])." previous.health="RED" reason="shards started [[performance_test][0]]"
[2024-07-27T09:01:58,487][INFO ][o.e.m.j.JvmGcMonitorService] [localhost.localdomain] [gc][21] overhead, spent [331ms] collecting in the last [1.1s]
[2024-07-27T09:02:00,495][INFO ][o.e.m.j.JvmGcMonitorService] [localhost.localdomain] [gc][23] overhead, spent [334ms] collecting in the last [1s]
[2024-07-27T09:02:02,674][WARN ][o.e.m.j.JvmGcMonitorService] [localhost.localdomain] [gc][24] overhead, spent [2s] collecting in the last [2.1s]
[2024-07-27T09:02:04,181][WARN ][o.e.m.j.JvmGcMonitorService] [localhost.localdomain] [gc][25] overhead, spent [1.2s] collecting in the last [1.5s]
[2024-07-27T09:02:07,837][WARN ][o.e.m.j.JvmGcMonitorService] [localhost.localdomain] [gc][26] overhead, spent [3.5s] collecting in the last [1.8s]
java.lang.OutOfMemoryError: Java heap space
Dumping heap to data/java_pid20168.hprof ...

索引與對映結構(下文要用)

$params = [
    'index' => 'performance_test',
    'body'  => [
        'settings' => [
            'analysis' => [
                'analyzer' => [
                    'ik_analyzer' => [
                        'type'      => 'ik_max_word',
                    ],
                ],
            ],
        ],
        'mappings' => [
            'properties' => [
                'id' => [
                    'type'     => 'integer',
                ],
                'content' => [
                    'type'     => 'text',
                    'analyzer' => 'ik_analyzer',
                ],
            ],
        ],
    ],
];

方案1(業務需求最佳化)

從業務需求源頭限制深度分頁。
例如某度搜尋,深度分頁也就50~76頁是最後一頁(甚至不讓使用者從小頁碼直接跳轉大頁碼),某寶搜尋最大100頁
這個資訊自然無法全部彙集。它們的定位不是要匯聚更全的資訊,而是找出最精準的(或者金主爸爸打錢)資料。
人為的也幾乎沒有耐心看完那麼多頁的詞條。
可以說深度分頁並非適合所有業務場景,而是要做權衡(說人話就是要和產品經理溝通以上文案)。

方案2 (Scroll API)

  • 輔助理解:類比愚公移山。操作物件太大,那就每次少量的處理,然後不停的分批迭代。這和分頁的分批處理思想相似,不過不用手動處理分頁問題。
  • 優點:允許處理超大規模的資料集。
  • 缺點:不支援頁跳轉(第M頁跳轉N頁),只支援遞增頁和遞減頁。scroll查詢的相應資料是非實時的,如果遍歷過程是,其它請求要返回的資料進行了寫操作,是查詢不到最新的結果的。
$params = [
    'index' => 'performance_test',
    'scroll' => '1m', //用於設定滾動上下文的存活時間,1m是一分鐘,過了這個時間,scroll_id引數就失效了,有這個id,好比建立了一個專門的任務,讓ES去處理這件事
    'size' => 2,
    'body'  => [
        'query' => [
            'match' => [
                'content' => '袁隆平' //要搜尋整個文件中,包含袁隆平的
            ]
        ]
    ]
];

$response = $client->search($params);
dump($response->asArray()); //常規的處理


$scroll_id = $response['_scroll_id'];

while (true) {
    $response = $client->scroll([
        'scroll_id' => $scroll_id,
        'scroll'    => '1m'
    ]);

    // 檢查是否有資料返回
    if (empty($response['hits']['hits'])) {
        break;
    }

    // 處理資料,這裡只做列印
    foreach ($response['hits']['hits'] as $hit) {
        dump($hit['_source']);
    }

    // 更新 scroll ID
    $scroll_id = $response['_scroll_id'];
}

// 清理Scroll請求,釋放資源
$client->clearScroll([
    'scroll_id' => $scroll_id
]);

方案3 (Search After 推薦方案)

  • 輔助理解:上一頁的最後一條資料,作為當前頁的起始偏移量。操作物件太大,那就每次少量的處理,然後不停的迭代,這和分頁的分批處理思想相似。
  • 優點:ES針對深度分頁的新解決方案,不會有太多的效能問題。
  • 缺點:必須指定排序欄位,否則起始偏移量參考系引數無法使用。
$params = [
    'index' => 'performance_test',
    'body'  => [
        'query' => [
            'match_all' => new stdClass()
        ],
        'sort'  => [
            ['id' => 'asc']
        ],
        'size'  => 2 //這個排序是必須的,不一定是id,但通常是id,排序是為了去上一條資料的時候定位不會錯亂
    ]
];

//發起第一次查詢,獲取第一頁結果
$response = $client->search($params);


//模擬處理第一頁的結果
foreach ($response['hits']['hits'] as $hit) {
    //模擬處理
    dump($hit['_source']['content']);
}


/**
 * @function SearchAfter方法封裝
 * @param   $client   object      ElasticSearch物件
 * @param   $params   array       search()所需要的引數
 * @param   $response object|null search()方法查詢出來的結果
 * @return  object
 */
function searchAfter($client, $params, $response) {
    if(is_object($response)) {
        $response = $response->asArray();
    }

    if(empty($response['hits']['hits'])) {
        return null;
    }

    $last_data = end($response['hits']['hits']);
    //在其餘查詢條件不變的情況下,只修改search_after值。
    $params['body']['search_after'] = $last_data['sort'];
    //然後再次查詢
    $response = $client->search($params);
    return $response;
}


//模擬處理第二頁的資料
$response = searchAfter($client, $params, $response);
dd($response->asArray());

相關文章