資料庫存資料時,邏輯上防重了為啥還會出現重複記錄?

小小後端發表於2019-03-03

在很多異常情況下,比如高併發、網路糟糕的時候,資料庫裡偶爾會出現重複的記錄。

假如現在有一張書籍表,結構類似這樣

+----+--------------+
| id | name         |
+----+--------------+
|  1 | 世界簡史     |
+----+--------------+
複製程式碼

在異常情況下,可能會出現下面這樣的記錄

+----+--------------+
| id | name         |
+----+--------------+
|  1 | 世界簡史     |
|  2 | 人類簡史     |
|  3 | 人類簡史     |
+----+--------------+
複製程式碼

但是,想了想,自己在處理相關資料的時候也加了判重的相關邏輯,比如,新增時當圖書 name 相同時,會提示圖書重複而返回。

初次遇到這個情況的時候,感覺有點摸不著頭腦,後面想了想,還是理清了,其實這和資料庫的事務隔離級別有一定關係。

先簡單說下資料庫事務的 4 個隔離級別,然後重現下上述問題,最後說說解決辦法。

1 資料庫事務的 4 個隔離級別

1.1 未提交讀

顧名思義,當事務隔離級別處於這個設定的時候,不同事務能讀取其它事務中未提交的資料。

便於說明,我開了兩個客戶端(A 以及 B),並設定各自的隔離級別為未提交讀。(並沒有全域性設定)

設定隔離級別命令

SET [SESSION | GLOBAL] TRANSACTION ISOLATION LEVEL {READ UNCOMMITTED | READ COMMITTED | REPEATABLE READ | SERIALIZABLE}
複製程式碼

好了,開始。

Client A

mysql> SET SESSION TRANSACTION ISOLATION LEVEL READ UNCOMMITTED;
Query OK, 0 rows affected (0.00 sec)

mysql> SELECT @@session.tx_isolation;
+------------------------+
| @@session.tx_isolation |
+------------------------+
| READ-UNCOMMITTED       |
+------------------------+
1 row in set (0.00 sec)

mysql> start transaction;
Query OK, 0 rows affected (0.01 sec)

mysql> select * from books;
+----+--------------+
| id | name         |
+----+--------------+
|  1 | 世界簡史     |
+----+--------------+
1 row in set (0.00 sec)

mysql> insert into books(name) values(`人類簡史`);
Query OK, 1 row affected (0.01 sec)

mysql> select * from books;
+----+--------------+
| id | name         |
+----+--------------+
|  1 | 世界簡史     |
|  4 | 人類簡史     |
+----+--------------+
2 rows in set (0.00 sec)
複製程式碼

當 A 中的事務沒有關閉的時候,我們去 B 中看下資料

Client B

mysql> SET SESSION TRANSACTION ISOLATION LEVEL READ UNCOMMITTED;
Query OK, 0 rows affected (0.00 sec)

mysql> SELECT @@session.tx_isolation;
+------------------------+
| @@session.tx_isolation |
+------------------------+
| READ-UNCOMMITTED       |
+------------------------+
1 row in set (0.00 sec)

mysql> start transaction;
Query OK, 0 rows affected (0.00 sec)

mysql> select * from books;
+----+--------------+
| id | name         |
+----+--------------+
|  1 | 世界簡史     |
|  4 | 人類簡史     |
+----+--------------+
2 rows in set (0.00 sec)
複製程式碼

B 中可以讀取 A 未提交的資料,所謂未提交讀就是這樣。

最後,記得把各個事務提交。

Client A & Client B

mysql> commit;
複製程式碼

1.2 提交讀

不能事務可以讀取其它事務中已經提交的資料。

篇幅問題,這裡我就不貼出設定隔離級別的語句,測試某個隔離級別的時候,預設已經設定好該級別。

Client A

mysql> start transaction;
Query OK, 0 rows affected (0.00 sec)

mysql> select * from books;
+----+--------------+
| id | name         |
+----+--------------+
|  1 | 世界簡史     |
+----+--------------+
1 row in set (0.00 sec)

mysql> insert into books(name) values(`人類簡史`);
Query OK, 1 row affected (0.00 sec)

mysql> select * from books;
+----+--------------+
| id | name         |
+----+--------------+
|  1 | 世界簡史     |
|  5 | 人類簡史     |
+----+--------------+
2 rows in set (0.00 sec)
複製程式碼

A 沒提交,在 B 裡面去看下資料

Client B

mysql> start transaction;
Query OK, 0 rows affected (0.00 sec)

mysql> select * from books;
+----+--------------+
| id | name         |
+----+--------------+
|  1 | 世界簡史     |
+----+--------------+
1 row in set (0.00 sec)
複製程式碼

和預期一樣,A 中未提交的資料在 B 中看不到。

A 中提交事務

Client A

mysql> commit;
複製程式碼

在 B 中看下

Client B

mysql> select * from books;
+----+--------------+
| id | name         |
+----+--------------+
|  1 | 世界簡史     |
|  5 | 人類簡史     |
+----+--------------+
2 rows in set (0.00 sec)

mysql> commit;
Query OK, 0 rows affected (0.00 sec)
複製程式碼

B 中能看到 A 中提交的資料。

1.3 可重複讀

細心的朋友可能會發現一個問題,那就是在 B 中的同一個事務讀同一個表,得到的結果卻不一致,開始只有 1 條,後面有 2 條,而如果沒有這個問題的話,也就是可重複讀了。

我們來驗證下

Client A

mysql> start transaction;
Query OK, 0 rows affected (0.00 sec)

mysql> select * from books;
+----+--------------+
| id | name         |
+----+--------------+
|  1 | 世界簡史     |
+----+--------------+
1 row in set (0.00 sec)

mysql> insert into books(name) values(`人類簡史`);
Query OK, 1 row affected (0.01 sec)

mysql> select * from books;
+----+--------------+
| id | name         |
+----+--------------+
|  1 | 世界簡史     |
|  6 | 人類簡史     |
+----+--------------+
2 rows in set (0.00 sec)
複製程式碼

Client B

mysql> start transaction;
Query OK, 0 rows affected (0.00 sec)

mysql> select * from books;
+----+--------------+
| id | name         |
+----+--------------+
|  1 | 世界簡史     |
+----+--------------+
1 row in set (0.00 sec)
複製程式碼

Client A

mysql> commit
Query OK, 0 rows affected (0.00 sec)
複製程式碼

Client B

mysql> select * from books;
+----+--------------+
| id | name         |
+----+--------------+
|  1 | 世界簡史     |
+----+--------------+
1 row in set (0.00 sec)
複製程式碼

和預期一致。B 中事務沒有受到 A 中事務的提交影響,讀取的資料和事務剛開始的時候一致,books 中都只有一條資料,這就是可重複讀。

當然,B 在自己的事務中做修改,肯定是可見的。

Client B

mysql> insert into books(name) value (`時間簡史`);
Query OK, 1 row affected (0.00 sec)

mysql> select * from books;
+----+--------------+
| id | name         |
+----+--------------+
|  1 | 世界簡史     |
|  8 | 時間簡史     |
+----+--------------+
2 rows in set (0.00 sec)

mysql> commit;
Query OK, 0 rows affected (0.00 sec)
複製程式碼

1.4 序列化

這是隔離級別最嚴格的一級,在該級別中,不同事務中的讀寫會相互阻塞。

Client A

mysql> start transaction;
Query OK, 0 rows affected (0.00 sec)

mysql> select * from books;
+----+--------------+
| id | name         |
+----+--------------+
|  1 | 世界簡史     |
+----+--------------+
1 row in set (0.00 sec)
複製程式碼

當 A 未提交的時候在 B 中對同一個表進行寫

Client B

mysql> start transaction;
Query OK, 0 rows affected (0.00 sec)

mysql> select * from books;
+----+--------------+
| id | name         |
+----+--------------+
|  1 | 世界簡史     |
+----+--------------+
1 row in set (0.00 sec)

mysql> insert into books(name) value (`人類簡史`);
ERROR 1205 (HY000): Lock wait timeout exceeded; try restarting transaction
複製程式碼

由於不同事務中的讀寫相互阻塞,所以出現了上面超時的情況。

如果 A 中提交事務

Client A

mysql> commit;
Query OK, 0 rows affected (0.00 sec)
複製程式碼

那麼在 B 中就能正常寫了

Client B

mysql> insert into books(name) value (`人類簡史`);
Query OK, 1 row affected (0.00 sec)

mysql> commit;
Query OK, 0 rows affected (0.01 sec)
複製程式碼

同理,在 A 中開啟事務並向 books 中插入一條記錄後不提交,B 中開啟事務並對該表進行讀操作,也會超時。當 A 中的事務提交後,B 中對 books 的讀操作就沒有問題了。

2 重現問題

由於 MySQL 的 Innodb 的預設事務隔離級別為可重複讀,也就導致了判重邏輯可能會出現問題,我們來重現一下。

現在,資料庫的資料是這樣的

+----+--------------+
| id | name         |
+----+--------------+
|  1 | 世界簡史     |
+----+--------------+
複製程式碼

後端邏輯類似這樣的

try:
	book_name = `人類簡史`
	book = get_by_name(book_name)
	if book:
		raise Exception(f`圖書 {book_name} 已存在`)

	# 新增操作
	# 其它操作

	db.session.commit()
	return {`success`: True}
except Exception as e:
	db.session.rollback()
	return {`success`: False, `msg`: f`新增圖書失敗 {e}`}
複製程式碼

當兩個使用者輸入書名「人類簡史」並提交後,同時有兩個執行緒執行這段邏輯,也就相當於上面兩個客戶端同時開啟了事務,我們以這兩個客戶端來說明問題

Client A

mysql> start transaction;
Query OK, 0 rows affected (0.00 sec)

mysql> select * from books where name = `人類簡史`;
Empty set (0.00 sec)

mysql> insert into books(name) values(`人類簡史`);
Query OK, 1 row affected (0.00 sec)
複製程式碼

A 中檢測圖書不存在,然後插入,但是由於「其它操作」由於網路或者其它原因太費時間,導致事務提交延遲。

這時在 B 中執行類似操作

Client B

mysql> start transaction;
Query OK, 0 rows affected (0.00 sec)

mysql> select * from books where name = `人類簡史`;
Empty set (0.00 sec)

mysql> insert into books(name) values(`人類簡史`);
Query OK, 1 row affected (0.00 sec)
複製程式碼

由於事務隔離級別是可重複讀的,B 中無法讀取 A 中未提交的資料,所以判重邏輯順利通過,也插入了同一本書。(也就是說隔離級別在提交讀及以上都有可能出現這個問題)

最後 A 和 B 都提交後

Client A & Clinet B

mysql> commit;
Query OK, 0 rows affected (0.01 sec)
複製程式碼

就出現了重複記錄了

+----+--------------+
| id | name         |
+----+--------------+
|  1 | 世界簡史     |
| 12 | 人類簡史     |
| 13 | 人類簡史     |
+----+--------------+
複製程式碼

3 怎麼解決

3.1 資料庫層面

從底層進行限制,對 name 新增唯一索引後,插入重複記錄會報錯,簡單粗暴的解決了這個問題。

3.2 程式碼層面

加唯一索引能解決,但是總覺得程式碼不夠完整,其實在程式碼層面也可以解決這個問題。

如果我們在接收請求的時候如果碰到關鍵引數相同的請求,我們可以直接拒絕,返回類似「操作進行中」的響應,這樣也就從源頭上解決了這個問題。

實現上面的思路也很簡單,藉助 redis 的 setnx 即可。

book_name = request.form.get(`book_name`, ``)
if not book_name:
	reutrn json.dumps({`success`: False, `msg`: `請填寫書名`})

redis_key = f`add_book_{book_name}`
set_res = redis_client.setnx(redis_key, 1)
if not set_res:
	reutrn json.dumps({`success`: False, `msg`: `操作進行中`})

add_res = add_book(book_name)  # 新增操作

redis_client.delete(redis_key)
return json.dumps(add_res)
複製程式碼

如果類似場景比較多,可以考慮把 redis 的操作封裝成一個裝飾器,讓程式碼能複用起來,這裡不再贅述。

4 小結

由於資料庫隔離級別的原因,一些資料就算是邏輯上進行防重了,也有可能出現重複記錄。解決這個問題,可以在資料庫層面加唯一索引解決,也可以在程式碼層面進行解決。

本文首發於公眾號「小小後端」,關注並回復「1024」你懂的。

相關文章