MySQL 億級資料資料庫最佳化方案測試-銀行交易流水記錄的查詢
作者:逸宸a
連結:
對MySQL的效能和億級資料的處理方法思考,以及分庫分表到底該如何做,在什麼場景比較合適?
比如銀行交易流水記錄的查詢
限鹽少許,上實際實驗過程,以下是在實驗的過程中做一些操作,以及踩過的一些坑,我覺得坑對於讀者來講是非常有用的。
首先:建立一個現金流量表,交易歷史是各個金融體系下使用率最高,歷史存留資料量最大的資料型別。現金流量表的資料搜尋,可以根據時間範圍,和個人,以及金額進行搜尋。
-- 建立一張 現金流量表
DROP TABLE IF EXISTS `yun_cashflow`;
CREATE TABLE `yun_cashflow` (
`id` bigint(20) NOT NULL AUTO_INCREMENT,
`userid` int(11) DEFAULT NULL,
`type` int(11) DEFAULT NULL COMMENT '1、入賬,2提現',
`operatoruserid` int(11) DEFAULT NULL COMMENT '操作員ID',
`withdrawdepositid` bigint(20) DEFAULT NULL COMMENT '提現ID',
`money` double DEFAULT NULL COMMENT '錢數',
`runid` bigint(20) DEFAULT NULL COMMENT '工單ID',
`createtime` timestamp NULL DEFAULT CURRENT_TIMESTAMP ON UPDATE CURRENT_TIMESTAMP,
PRIMARY KEY (`id`)
) ENGINE=InnoDB AUTO_INCREMENT=63 DEFAULT CHARSET=utf8;
然後開始造1個億的資料進去。
-- 迴圈插入
drop PROCEDURE test_insert;
DELIMITER;;
CREATE PROCEDURE test_insert()
begin
declare num int;
set num=0;
while num < 10000 do
insert into yun_cashflow(userid,type,operatoruserid,withdrawdepositid,money) values(FLOOR(7 + (RAND() * 6))+FLOOR(22 + (RAND() * 9)),1,FLOOR(97 + (RAND()
* 6))+FLOOR(2 + (RAND() * 9)),FLOOR(17 + (RAND() * 6))+FLOOR(2 + (RAND() * 9)),FLOOR(5 + (RAND() * 6))+FLOOR(2 + (RAND() * 9)));
set num=num+1;
end while;
END;;
call test_insert();
坑一:
這個儲存過程建立好了之後,發現插入資料特別的慢,一天一晚上也插入不到100萬條資料,平均每秒40~60條資料,中間我停過幾次,以為是隨機函式的問題,都變成常數,但效果一樣,還是很慢,當時讓我對這個MySQL資料庫感覺到悲觀,畢竟Oracle用慣了,那插速是真的很快,不過功夫不負有心人,原來可以用另外一種寫法造資料,速度很快,上程式碼。
INSERT INTO example
(example_id, name, value, other_value)
VALUES
(100, 'Name 1', 'Value 1', 'Other 1'),
(101, 'Name 2', 'Value 2', 'Other 2'),
(102, 'Name 3', 'Value 3', 'Other 3'),
(103, 'Name 4', 'Value 4', 'Other 4');
就是在迴圈裡,用這種格式造很多資料,VALUES後面以,隔開,然後把資料寫上去,我用Excel造了1萬條資料,按照語句格式貼上了出來,就變成每迴圈一次,就1萬條資料,這樣沒多久1億資料就造好了。
select count(*) from yun_cashflow
我還比較好奇,8個欄位1億條資料,到底佔了多大的地方,透過以下語句找到資料的路徑。
show global variables like "%datadir%";
透過檢視檔案,是7.78GB,看來如果欄位不是很多,資料量大的話,其實不是什麼問題,這其實作為架構師來講,在估算機器配置硬碟冗餘的時候,這是最簡單直接粗暴的換算思路。
行了,表建完了,各種實驗開始
首先,啥條件不加看看咋樣。
呵呵了,Out of memory,看來這個查詢是真往記憶體裡整,記憶體整冒煙了,看來7.8G的資料是往記憶體裡放,我記憶體沒那麼大導致的。
資金流水一般會按照時間進行查詢,看看這速度到底怎樣。
select * from yun_cashflow where createtime between '2018-10-23 09:06:58' and '2018-10-23 09:06:59'
我去,腦補一下,當你拿這支付寶查歷史資金明細的時候,56條資訊,103.489秒,也就是將近2分鐘的查詢速度,你會是怎樣的體驗。哦 哦,不對,這個還沒加用條件,那下面單獨試試某個使用者不限時間範圍的條件是怎樣的。
select count(*) from yun_cashflow where userid=21
也是將近1分半的速度,那在試試金額的條件。
select count(*) from yun_cashflow where money<62 and userid=32
同樣都是將近一分半的時間。
那把兩個條件做下級聯,看看效果會是怎樣。
一樣,也是將近1分半的時間。
小總結一:在不加索引的情況下,無論單獨,還是聯合條件查詢,結果都是1分多鐘不到2分鐘。
好吧,那就加上索引試試,看看到底會有啥樣奇蹟發生。
給使用者加索引
ALTER TABLE yun_cashflow ADD INDEX index_userid (userid)
`
給金額加索引
ALTER TABLE yun_cashflow ADD INDEX index_money (money)
給時間加索引
ALTER TABLE yun_cashflow ADD INDEX index_createtime (createtime)
小總結二: 建立索引的時間平均在1400秒左右,大概在23分鐘左右。
索引都建立完了,在開始以前的條件查詢,看看效果。
1、時間範圍查詢
select * from yun_cashflow where createtime between '2018-10-23 09:06:58' and '2018-10-23 09:06:59'
2、使用者查詢與錢的聯合查詢
3、使用者查詢與錢與時間三個條件的聯合查詢
select * from yun_cashflow where money<62 and userid=32 and createtime between '2018-10-22 09:06:58' and '2018-10-23 09:06:59'
小總結三:建立完索引後,這種級聯性質的查詢,速度基本都很快,資料量不大的情況下,基本不會超過一秒。
由於時間的範圍返回是56條資料,資料量比較小,所以速度快可能與這個有關,那實驗下條件多的資料效果會是什麼樣。
先試試加完索引, 金額條件的效果。
2千5百萬的資料,返回時間為11.460秒。
加一個使用者數量比較多的條件 UserID=21
返回1000多萬的資料,用了6秒
在找一個使用者數量比較少的userid=34
返回4000多條,用不到1秒。
小總結四:條件返回的資料統計量越多,速度就越慢,超過1000萬就慢的離譜,1秒左右就是100萬的量才行。
那。。。。。。。。。。。。我們們程式猿都知道,我們在做資料的時候,都要用到分頁。分頁一般會用到LIMIT,比如每頁10行,第二頁就是LIMIT 10,10,得試試在分頁的時候,哪些頁的情況下,會是什麼樣的效果呢?
limit在1千時候速度
limit在1百萬時候速度
limit在1千萬時候速度
小總結五:LIMIT 引數1,引數2 在隨著引數1(開始索引)增大時候,這個速度就會越來越慢,如果要求1秒左右返回時候的速度是100萬資料,在多在大就慢了,也就是,如果10條一頁,當你到第10萬頁之後,就會越來越慢。如果到30萬頁之後,可能就會到不到一般系統的3秒要求了。
資料庫都建上索引了,那我插資料速度有沒有影響呢,那試試
也就是說100條資料插了將近5秒,平均每秒插20條。
小總結六:也就是說,按照這樣的速度插入,併發量一但大的情況下,操作起來會很慢。所以在有索引的條件下插入資料,要麼索引失效,要麼插入會特別慢。
分庫分表的思維,一個大表返回那麼多資料慢,那我把它變成若干張表,然後每張表count(*)後,我統計累加一下,一合計,就是所有資料的查詢結果的條數,然後就是到第多少頁,我先算一下這頁在哪個庫,哪張表,在從那張表讀不就完了。透過之前 的總結,100萬資料返回為1秒,所以就一張表裡放100萬個資料,1億的資料就100張表。
BEGIN
DECLARE `@i` int(11);
DECLARE `@createSql` VARCHAR(2560);
DECLARE `@createIndexSql1` VARCHAR(2560);
DECLARE `@createIndexSql2` VARCHAR(2560);
DECLARE `@createIndexSql3` VARCHAR(2560);
set `@i`=0;
WHILE `@i`< 100 DO
SET @createSql = CONCAT('CREATE TABLE IF NOT EXISTS yun_cashflow_',`@i`,'(
`id` bigint(20) NOT NULL AUTO_INCREMENT,
`userid` int(11) DEFAULT NULL,
`type` int(11) DEFAULT NULL ,
`operatoruserid` int(11) DEFAULT NULL ,
`withdrawdepositid` bigint(20) DEFAULT NULL ,
`money` double DEFAULT NULL ,
`runid` bigint(20) DEFAULT NULL ,
`createtime` timestamp NULL DEFAULT CURRENT_TIMESTAMP ON UPDATE CURRENT_TIMESTAMP,
PRIMARY KEY (`id`)
)'
);
prepare stmt from @createSql;
execute stmt;
-- 建立索引
set @createIndexSql1 = CONCAT('create index `t_money` on yun_cashflow_',`@i`,'(`money`);');
prepare stmt1 from @createIndexSql1;
execute stmt1;
set @createIndexSql2 = CONCAT('create index `t_userid` on yun_cashflow_',`@i`,'(`userid`);');
prepare stmt2 from @createIndexSql2;
execute stmt2;
SET `@i`= `@i`+1;
END WHILE;
END
表建完了,庫裡的效果是醬樣的。
是不是很酷,這表分的,絕了,滿庫全是表。那還得往每張表裡整100萬的資料。這部分程式碼就不寫了,可以參考前面的改,相信能把文章看到這的都是懂行的人,也是對這方面有一腚追求的人。
坑二:我高估了我的計算機的平行計算能力,當我啟用100個執行緒同時玩我自己電腦的資料庫連線的時候,到後期給我反饋的結果是這樣的。
說白了,連線滿了,超時,資料庫都不給我返回值了,所以這種實驗,不找100臺機器,也別可一臺機器去霍霍,因為如果能快,那個1個億的大表,返回的也不會慢。這時候拼的就是計算能力了,都在一臺機器上去做實驗,會讓你懷疑人生的。
那咋辦, 這地方我就假裝返回都是1000毫秒,也就1秒,然後每個執行緒都在1秒的時候都給我返回值,這個值我寫死,可以看看多執行緒分散式統計count的效果。
最後總體耗時,就是最後那個返回時間最長的執行緒返回的時間,所以理論上100個執行緒同時啟動,應該在1秒完成,但執行緒這玩意有快有慢,所以1秒多一點,也是可以接受的。如果碰上都是機器效能好的時候,所有資料庫返回都在1秒以內,那麼也就是1秒了。
這個多執行緒程式設計可以試試類似Java的countDownLatch/AKKA 將非同步多執行緒結果同步返回。
最後是在資料庫資料量比較大的時候,透過MySQL以上的特性,進行不同場景應用的思考。
場景:銀行交易流水記錄的查詢
根據小總結六的特性,操作表和歷史查詢表一定要時間可以分開,由於帶索引的歷史表,插入會很慢,所以要插入到操作表內,操作表和歷史表的欄位是一樣的。
根據小總結二特性,然後固定某個時間點,比如半夜12點,或者固定日期,或者選擇非交易查詢活躍的時間,把操作表裡的資料往歷史表裡插一下,由於重建索引也用不了太久,一樣半個小時左右。讓兩種表並存。還有另外一種策略,由於流水主要以時間做為排序物件,可以按照時間順序,也就是ID自增長的順序進行分庫分表,就像試驗的那樣,100萬左右條資料一張表,另外在做一張時間範圍的索引表,如下:
CreateTimeIndexTable
ID TableName CreateTimeStart CreateTimeEnd
1 yun_cashflow_1 2018-10-22 09:06:58 2018-10-26 09:06:58
2 yun_cashflow_2 2018-10-26 09:06:58 2018-10-29 09:06:58
3 yun_cashflow_3 2018-11-12 09:06:58 2018-11-22 09:06:58
4 yun_cashflow_4 2018-11-22 09:06:58 2018-11-26 09:06:58
當遇見這樣語句需求的時候:
select * from yun_cashflow where money<62 and userid=32 and createtime between '2018-10-27 09:06:58' and '2018-10-28 09:06:59'
1)、就改寫成這樣的順序
select TableName from CreateTimeIndexTable where CreateTimeStart> '2018-10-27 09:06:58' and CreateTimeEnd < '2018-10-28 09:06:59'
2)、當得到TableName的時候,結果是yun_cashflow_2,在進行語句的查詢
select * from yun_cashflow_2 where money<62 and userid=32 and createtime between '2018-10-27 09:06:58' and '2018-10-28 09:06:59'
這樣,兩遍就可以查詢到結果。
不過也有可能查詢的結果是多個,比如
select TableName from CreateTimeIndexTable where CreateTimeStart> '2018-10-27 09:06:58' and CreateTimeEnd < '2018-11-13 09:06:59'
yun_cashflow_2,和yun_cashflow_3,這個時候,就需要把兩個表的結果都查詢出來,進行merge。相信程式設計師們對兩個表的結果集合並邏輯都不是什麼難事,這地方不多解釋。
這樣做的好處,主要是每次重建索引的時候,就不用整個1個億的大表進行重建,而是隻重建最近的1百萬的那張分出來的表,速度會很快的。
根據小總結一和小總結三的特性,把關鍵的欄位加上索引,使用者,時間,這樣保證查詢的速度。
根據小總結四的特性,儘量限制查詢結果的數量範圍,比如,單個人查自己的交易明細,可以限制範圍,比如查詢時間範圍不超過三個月,或半年,或一年。
來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/31545814/viewspace-2646925/,如需轉載,請註明出處,否則將追究法律責任。
相關文章
- 上億級別資料庫查詢資料庫
- 資料庫查詢和資料庫(MySQL)索引的最佳化建議資料庫MySql索引
- 壓測平臺 - 記錄一次百億級資料查詢最佳化
- cmdb 查詢資料庫操作記錄資料庫
- MySQL資料庫查詢多個欄位值全部相同的記錄MySql資料庫
- 查詢MySQL資料庫,MySQL表的大小MySql資料庫
- 【資料庫】MySQL查詢優化資料庫MySql優化
- 為VNPY增加資料庫記錄交易資料功能資料庫
- 資料庫系列:MySQL慢查詢分析和效能最佳化資料庫MySql
- MySQL資料庫學習筆記02(事務控制,資料查詢)MySql資料庫筆記
- python資料庫-MySQL資料庫高階查詢操作(51)Python資料庫MySql
- MySQL資料庫基礎——多表查詢:子查詢MySql資料庫
- 資料庫查詢第5到8行的資料資料庫
- MYSQL資料庫表記錄刪除解決方案MySql資料庫
- MYSQL查詢資料MySql
- PHP連線、查詢MySQL資料庫PHPMySql資料庫
- MySQL 資料庫生成 10000 條測試資料MySql資料庫
- clickhouse 億級資料效能測試
- 測試驅動開發(TDD)—— 資料庫查詢篇資料庫
- 常見資料庫最佳化記錄資料庫
- TestComplete資料驅動測試教程(二)——記錄測試資料
- MySQL - 資料查詢 - 簡單查詢MySql
- 資料庫遞迴查詢:MySQL VS Sequelize資料庫遞迴MySql
- Excel資料庫轉MySQL,實現查詢Excel資料庫MySql
- 【Mysql】資料庫索引,百萬資料測試索引效果MySql資料庫索引
- 30個MySQL千萬級大資料SQL查詢最佳化技巧詳解MySql大資料
- 梧桐資料庫淺談查詢最佳化技巧資料庫
- Prometheus時序資料庫-資料的查詢Prometheus資料庫
- 資料庫mysql學習筆記記錄資料庫MySql筆記
- php基礎之連線mysql資料庫和查詢資料PHPMySql資料庫
- 15個高效的MySQL資料庫查詢小技巧MySql資料庫
- mysql資料庫連表查詢的幾種方法MySql資料庫
- Elasticsearch如何做到億級資料查詢毫秒級返回?Elasticsearch
- Jemter查詢資料庫資料庫
- 求助:資料庫查詢資料庫
- ThinkPHP 資料庫查詢PHP資料庫
- 資料庫排序查詢資料庫排序
- 查詢資料庫大小資料庫