mysql load 相關實驗記錄
一:load 的過程相當於是:先start transaction,然後再insert資料,最後commit
我猜測mysql 區別於oracle sqlldr,沒有後者的rows的引數來控制每次提交的資料行
但是我感覺 mysql 是自己透過估算出一個值,來批次讀取 ,我覺得他不是 一條一條的 insert的
二:load 如果資料存在(主鍵或者唯一鍵),預設是跳過的,可以選擇replace存在就替換!
三:load 沒有類似於oracle的 sqlldr的rows引數來控制每次提交的行數,只能先透過linux命令來
切分(split)成小檔案來實現並行;
實驗一:load會不會鎖表
session1
[root@beijing-fuli-hadoop-04 ~]# cat /data/t.txt
100, liu ,18
102, liu ,18
101, liu, 18
root@localhost : (none) 11:50:05>start transaction;
Query OK, 0 rows affected (0.00 sec)
root@localhost : (none) 11:51:08>LOAD DATA LOCAL INFILE '/data/t.txt' INTO TABLE liuwenhe.t fields terminated by ',' LINES TERMINATED BY '\n' ;
Query OK, 3 rows affected (0.03 sec)
Records: 3 Deleted: 0 Skipped: 0 Warnings: 0
然後不commit!
session2
如下全部等待
root@localhost : liuwenhe 11:52:36>delete from t where id=101;
root@localhost : liuwenhe 11:52:36>delete from t where id=102;
root@localhost : liuwenhe 11:52:36>delete from t where id=103;
如下 不等待
delete from t where id=104
delete from t where id=100
結論:
load 在提交之前,會鎖定所有剛load的資料!!!也間接的說明這是一個事務把三個資料
都load進去了,會不會是 mysql 預設把N行資料作為一個事務呢?採用大資料量來做驗證
實驗二:load是不是一個事務
1.檔案/data/12.txt是26135101行資料的檔案
2.然後開始load
root@localhost : liuwenhe 13:54:50>LOAD DATA LOCAL INFILE '/data/12.txt' INTO TABLE liuwenhe.t fields terminated by ',' LINES TERMINATED BY '\n' ;
3.另開一個會話,查詢資料,發現再load完成之前一直是空,
root@localhost : liuwenhe 13:55:15>select count(*) from t;
+----------+
| count(*) |
+----------+
| 0 |
+----------+
1 row in set (0.66 sec)
這就進一步說明 load操作是一個事務的!!!
實驗三:是否允許在同一個表上同時進行load? 只要沒有衝突是可以並行的!
這裡所說的衝突是指: 已經load 處理了的資料中和另一個會話要處理的資料有衝突,具體實驗如下:
假如1.txt 檔案 是id從1到2147483647這個範圍的資料,而2.txt是id=2147483647的
一條資料,而3.txt是id從1到3的範圍並且還有id=2147483646這條資料
具體如下:
[root@beijing-fuli-hadoop-04 liuwenhe]# cat 2.txt
26293013,liu ,18
[root@beijing-fuli-hadoop-04 liuwenhe]# cat 3.txt
1, liu ,18
26293013,liu ,18
具體實驗過程:
實驗1)
會話1:
執行這個,因為資料量比較大,所以會執行一會
root@localhost : liuwenhe 13:54:50>LOAD DATA LOCAL INFILE '/data/liuwenhe/1.txt' INTO TABLE liuwenhe.t fields terminated by ',' LINES TERMINATED BY '\n' ;
會話2:
[root@beijing-fuli-hadoop-04 liuwenhe]# cat 2.txt
26293013,liu ,18
然後會話1還沒有結束呢,執行如下操作,發現沒有等待!確實進去了,
root@localhost : liuwenhe 13:54:50>LOAD DATA LOCAL INFILE '/data/liuwenhe/2.txt' INTO TABLE liuwenhe.t fields terminated by ',' LINES TERMINATED BY '\n' ;
root@localhost : liuwenhe 17:33:18>select * from t where id =26293013;
+----------+-------+------+
| id | name | num |
+----------+-------+------+
| 26293013 | liu | 18 |
+----------+-------+------+
1 row in set (0.12 sec)
說明:load順序執行,當執行到的id=1的資料到達innodb層,mysql就會把id=1的資料上鎖gap鎖,
這時候你再load=1的資料就會有鎖等待,但是你沒有執行到id=26293013的資料,也就沒有給這條資料上鎖,所以你並行執行另一個load (id=26293013)的資料就不會等待。
實驗2)
會話1:
執行這個,因為資料量比較大,所以會執行一會
root@localhost : liuwenhe 13:54:50>LOAD DATA LOCAL INFILE '/data/liuwenhe/1.txt' INTO TABLE liuwenhe.t fields terminated by ',' LINES TERMINATED BY '\n' ;
會話2:
在會話1還沒有結束的時候,執行如下發現等待,因為id=1的資料被會話1鎖定,所以下面的操作是需要等待的,因為load 3.txt是先處理id=1的資料,但是它已經被鎖定了,
[root@beijing-fuli-hadoop-04 liuwenhe]# cat 3.txt
1, liu ,18
26293013,liu ,18
root@localhost : liuwenhe 13:54:50>LOAD DATA LOCAL INFILE '/data/3.txt' INTO TABLE liuwenhe.t fields terminated by ',' LINES TERMINATED BY '\n' ;
實驗3)load 產生死鎖:
會話1:
執行這個,因為資料量比較大,所以會執行一會;
root@localhost : liuwenhe 13:54:50>LOAD DATA LOCAL INFILE '/data/liuwenhe/1.txt' INTO TABLE liuwenhe.t fields terminated by ',' LINES TERMINATED BY '\n' ;
會話2:
在會話1還沒有結束的時候,執行如下發現等待,因為id=1的資料被會話1鎖定,但是id=26293013的資料沒有被鎖定呢,所以說load 4.txt的時候,能把第一條資料(id=26293013)load進innodb引擎層並且鎖定,但是1這條資料卻被鎖定,進而會話1和會話2產生鎖等待!
[root@beijing-fuli-hadoop-04 liuwenhe]# cat 4.txt
26293013,liu ,18
1, liu ,18
root@localhost : (none) 18:13:10>LOAD DATA LOCAL INFILE '/data/liuwenhe/4.txt' INTO TABLE liuwenhe.t fields terminated by ',' LINES TERMINATED BY '\n' ;
ERROR 1213 (40001): Deadlock found when trying to get lock; try restarting transaction
註釋:為什麼會選擇回滾會話2的事務?因為我開啟了死鎖檢測,然後資料庫選擇插入更新或者刪除的行數最少的事務回滾
MySQL 如何處理死鎖?
MySQL有兩種死鎖處理方式:
- 等待,直到超時(innodb_lock_wait_timeout=50s)。
- 發起死鎖檢測,主動回滾一條事務,讓其他事務繼續執行(innodb_deadlock_detect=on)。
由於效能原因,一般都是使用死鎖檢測來進行處理死鎖。
死鎖檢測
死鎖檢測的原理是構建一個以事務為頂點、鎖為邊的有向圖,判斷有向圖是否存在環,存在即有死鎖。
回滾
檢測到死鎖之後,
選擇插入更新或者刪除的行數最少的事務回滾,基於 INFORMATION_SCHEMA.INNODB_TRX 表中的 trx_weight 欄位來判斷。
來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/29654823/viewspace-2677213/,如需轉載,請註明出處,否則將追究法律責任。
相關文章
- mysql load 相關實驗MySql
- Laravel 記錄相關Laravel
- ePWM相關記錄
- linux相關記錄Linux
- oracle實驗記錄 (關於表實際大小)Oracle
- git相關操作,個人記錄Git
- QT/c++相關記錄QTC++
- DB2 LOAD相關DB2
- 實戰分享丨MySQL 與Django版本匹配相關經驗MySqlDjango
- Spring相關問題記錄Spring
- 實驗七 檔案相關
- oracle實驗記錄 關於記憶體的幾個viewOracle記憶體View
- JDBC mysql 相關內容筆記JDBCMySql筆記
- oracle實驗記錄 (恢復-關於熱備份)Oracle
- Medium裡面的react相關文章記錄React
- Laravel佇列相關問題記錄Laravel佇列
- Android application類相關記錄AndroidAPP
- oracle實驗記錄 (flashback)Oracle
- oracle實驗記錄 (OMF)Oracle
- oracle實驗記錄 (NET)Oracle
- oracle實驗記錄 (audit)Oracle
- mysql 相關MySql
- oracle實驗記錄 (恢復-關於控制檔案(1))Oracle
- oracle實驗記錄 (恢復-關於控制檔案(2))Oracle
- oracle實驗記錄 (恢復-關於控制檔案(3))Oracle
- oracle實驗記錄 (恢復-關於控制檔案(4))Oracle
- 記錄Java執行緒相關知識Java執行緒
- 【演算法】HashMap相關要點記錄演算法HashMap
- 軟體測試相關簡要記錄
- 記錄shell指令碼程式設計相關指令碼程式設計
- [ARKit]0-相關實踐目錄
- Oracle Data Redaction實驗記錄Oracle
- oracle實驗記錄 (block cleanout)OracleBloC
- oracle實驗記錄 (dump undo)Oracle
- oracle實驗記錄 (inlist card)Oracle
- 大資料實驗記錄大資料
- oracle實驗記錄 (oracle 關於instance引數設定)Oracle
- MySQL 優化實戰記錄MySql優化