眾所周知,資料庫能實現本地事務,也就是在同一個資料庫中,你可以允許一組操作要麼全都正確執行,要麼全都不執行。這裡特別強調了本地事務,也就是目前的資料庫只能支援同一個資料庫中的事務。但現在的系統往往採用微服務架構,業務系統擁有獨立的資料庫,因此就出現了跨多個資料庫的事務需求,這種事務即為“分散式事務”。那麼在目前資料庫不支援跨庫事務的情況下,我們應該如何實現分散式事務呢?本文首先會為大家梳理分散式事務的基本概念和理論基礎,然後介紹幾種目前常用的分散式事務解決方案。廢話不多說,那就開始吧~
什麼是事務?
事務由一組操作構成,我們希望這組操作能夠全部正確執行,如果這一組操作中的任意一個步驟發生錯誤,那麼就需要回滾之前已經完成的操作。也就是同一個事務中的所有操作,要麼全都正確執行,要麼全都不要執行。
事務的四大特性 ACID
說到事務,就不得不提一下事務著名的四大特性。
-
原子性
原子性要求,事務是一個不可分割的執行單元,事務中的所有操作要麼全都執行,要麼全都不執行。 -
一致性
一致性要求,事務在開始前和結束後,資料庫的完整性約束沒有被破壞。 -
隔離性
事務的執行是相互獨立的,它們不會相互干擾,一個事務不會看到另一個正在執行過程中的事務的資料。 -
永續性
永續性要求,一個事務完成之後,事務的執行結果必須是持久化儲存的。即使資料庫發生崩潰,在資料庫恢復後事務提交的結果仍然不會丟失。
注意:事務只能保證資料庫的高可靠性,即資料庫本身發生問題後,事務提交後的資料仍然能恢復;而如果不是資料庫本身的故障,如硬碟損壞了,那麼事務提交的資料可能就丟失了。這屬於『高可用性』的範疇。因此,事務只能保證資料庫的『高可靠性』,而『高可用性』需要整個系統共同配合實現。
事務的隔離級別
這裡擴充套件一下,對事務的隔離性做一個詳細的解釋。
在事務的四大特性ACID中,要求的隔離性是一種嚴格意義上的隔離,也就是多個事務是序列執行的,彼此之間不會受到任何干擾。這確實能夠完全保證資料的安全性,但在實際業務系統中,這種方式效能不高。因此,資料庫定義了四種隔離級別,隔離級別和資料庫的效能是呈反比的,隔離級別越低,資料庫效能越高,而隔離級別越高,資料庫效能越差。
事務併發執行會出現的問題
我們先來看一下在不同的隔離級別下,資料庫可能會出現的問題:
-
更新丟失
當有兩個併發執行的事務,更新同一行資料,那麼有可能一個事務會把另一個事務的更新覆蓋掉。
當資料庫沒有加任何鎖操作的情況下會發生。 -
髒讀
一個事務讀到另一個尚未提交的事務中的資料。
該資料可能會被回滾從而失效。
如果第一個事務拿著失效的資料去處理那就發生錯誤了。 -
不可重複讀
不可重複度的含義:一個事務對同一行資料讀了兩次,卻得到了不同的結果。它具體分為如下兩種情況:- 虛讀:在事務1兩次讀取同一記錄的過程中,事務2對該記錄進行了修改,從而事務1第二次讀到了不一樣的記錄。
- 幻讀:事務1在兩次查詢的過程中,事務2對該表進行了插入、刪除操作,從而事務1第二次查詢的結果發生了變化。
不可重複讀 與 髒讀 的區別?
髒讀讀到的是尚未提交的資料,而不可重複讀讀到的是已經提交的資料,只不過在兩次讀的過程中資料被另一個事務改過了。
資料庫的四種隔離級別
資料庫一共有如下四種隔離級別:
-
Read uncommitted 讀未提交
在該級別下,一個事務對一行資料修改的過程中,不允許另一個事務對該行資料進行修改,但允許另一個事務對該行資料讀。
因此本級別下,不會出現更新丟失,但會出現髒讀、不可重複讀。 -
Read committed 讀提交
在該級別下,未提交的寫事務不允許其他事務訪問該行,因此不會出現髒讀;但是讀取資料的事務允許其他事務的訪問該行資料,因此會出現不可重複讀的情況。 -
Repeatable read 重複讀
在該級別下,讀事務禁止寫事務,但允許讀事務,因此不會出現同一事務兩次讀到不同的資料的情況(不可重複讀),且寫事務禁止其他一切事務。 -
Serializable 序列化
該級別要求所有事務都必須序列執行,因此能避免一切因併發引起的問題,但效率很低。
隔離級別越高,越能保證資料的完整性和一致性,但是對併發效能的影響也越大。對於多數應用程式,可以優先考慮把資料庫系統的隔離級別設為Read Committed。它能夠避免髒讀取,而且具有較好的併發效能。儘管它會導致不可重複讀、幻讀和第二類丟失更新這些併發問題,在可能出現這類問題的個別場合,可以由應用程式採用悲觀鎖或樂觀鎖來控制。
什麼是分散式事務?
到此為止,所介紹的事務都是基於單資料庫的本地事務,目前的資料庫僅支援單庫事務,並不支援跨庫事務。而隨著微服務架構的普及,一個大型業務系統往往由若干個子系統構成,這些子系統又擁有各自獨立的資料庫。往往一個業務流程需要由多個子系統共同完成,而且這些操作可能需要在一個事務中完成。在微服務系統中,這些業務場景是普遍存在的。此時,我們就需要在資料庫之上通過某種手段,實現支援跨資料庫的事務支援,這也就是大家常說的“分散式事務”。
這裡舉一個分散式事務的典型例子——使用者下單過程。
當我們的系統採用了微服務架構後,一個電商系統往往被拆分成如下幾個子系統:商品系統、訂單系統、支付系統、積分系統等。整個下單的過程如下:
- 使用者通過商品系統瀏覽商品,他看中了某一項商品,便點選下單
- 此時訂單系統會生成一條訂單
- 訂單建立成功後,支付系統提供支付功能
- 當支付完成後,由積分系統為該使用者增加積分
上述步驟2、3、4需要在一個事務中完成。對於傳統單體應用而言,實現事務非常簡單,只需將這三個步驟放在一個方法A中,再用Spring的@Transactional註解標識該方法即可。Spring通過資料庫的事務支援,保證這些步驟要麼全都執行完成,要麼全都不執行。但在這個微服務架構中,這三個步驟涉及三個系統,涉及三個資料庫,此時我們必須在資料庫和應用系統之間,通過某項黑科技,實現分散式事務的支援。
CAP理論
CAP理論說的是:在一個分散式系統中,最多隻能滿足C、A、P中的兩個需求。
CAP的含義:
- C:Consistency 一致性
同一資料的多個副本是否實時相同。 - A:Availability 可用性
可用性:一定時間內 & 系統返回一個明確的結果 則稱為該系統可用。 - P:Partition tolerance 分割槽容錯性
將同一服務分佈在多個系統中,從而保證某一個系統當機,仍然有其他系統提供相同的服務。
CAP理論告訴我們,在分散式系統中,C、A、P三個條件中我們最多隻能選擇兩個。那麼問題來了,究竟選擇哪兩個條件較為合適呢?
對於一個業務系統來說,可用性和分割槽容錯性是必須要滿足的兩個條件,並且這兩者是相輔相成的。業務系統之所以使用分散式系統,主要原因有兩個:
-
提升整體效能
當業務量猛增,單個伺服器已經無法滿足我們的業務需求的時候,就需要使用分散式系統,使用多個節點提供相同的功能,從而整體上提升系統的效能,這就是使用分散式系統的第一個原因。 -
實現分割槽容錯性
單一節點 或 多個節點處於相同的網路環境下,那麼會存在一定的風險,萬一該機房斷電、該地區發生自然災害,那麼業務系統就全面癱瘓了。為了防止這一問題,採用分散式系統,將多個子系統分佈在不同的地域、不同的機房中,從而保證系統高可用性。
這說明分割槽容錯性是分散式系統的根本,如果分割槽容錯性不能滿足,那使用分散式系統將失去意義。
此外,可用性對業務系統也尤為重要。在大談使用者體驗的今天,如果業務系統時常出現“系統異常”、響應時間過長等情況,這使得使用者對系統的好感度大打折扣,在網際網路行業競爭激烈的今天,相同領域的競爭者不甚列舉,系統的間歇性不可用會立馬導致使用者流向競爭對手。因此,我們只能通過犧牲一致性來換取系統的可用性和分割槽容錯性。這也就是下面要介紹的BASE理論。
BASE理論
CAP理論告訴我們一個悲慘但不得不接受的事實——我們只能在C、A、P中選擇兩個條件。而對於業務系統而言,我們往往選擇犧牲一致性來換取系統的可用性和分割槽容錯性。不過這裡要指出的是,所謂的“犧牲一致性”並不是完全放棄資料一致性,而是犧牲強一致性換取弱一致性。下面來介紹下BASE理論。
- BA:Basic Available 基本可用
- 整個系統在某些不可抗力的情況下,仍然能夠保證“可用性”,即一定時間內仍然能夠返回一個明確的結果。只不過“基本可用”和“高可用”的區別是:
- “一定時間”可以適當延長
當舉行大促時,響應時間可以適當延長 - 給部分使用者返回一個降級頁面
給部分使用者直接返回一個降級頁面,從而緩解伺服器壓力。但要注意,返回降級頁面仍然是返回明確結果。
- “一定時間”可以適當延長
- 整個系統在某些不可抗力的情況下,仍然能夠保證“可用性”,即一定時間內仍然能夠返回一個明確的結果。只不過“基本可用”和“高可用”的區別是:
- S:Soft State:柔性狀態
同一資料的不同副本的狀態,可以不需要實時一致。 - E:Eventual Consisstency:最終一致性
同一資料的不同副本的狀態,可以不需要實時一致,但一定要保證經過一定時間後仍然是一致的。
酸鹼平衡
ACID能夠保證事務的強一致性,即資料是實時一致的。這在本地事務中是沒有問題的,在分散式事務中,強一致性會極大影響分散式系統的效能,因此分散式系統中遵循BASE理論即可。但分散式系統的不同業務場景對一致性的要求也不同。如交易場景下,就要求強一致性,此時就需要遵循ACID理論,而在註冊成功後傳送簡訊驗證碼等場景下,並不需要實時一致,因此遵循BASE理論即可。因此要根據具體業務場景,在ACID和BASE之間尋求平衡。
分散式事務協議
下面介紹幾種實現分散式事務的協議。
兩階段提交協議 2PC
分散式系統的一個難點是如何保證架構下多個節點在進行事務性操作的時候保持一致性。為實現這個目的,二階段提交演算法的成立基於以下假設:
- 該分散式系統中,存在一個節點作為協調者(Coordinator),其他節點作為參與者(Cohorts)。且節點之間可以進行網路通訊。
- 所有節點都採用預寫式日誌,且日誌被寫入後即被保持在可靠的儲存裝置上,即使節點損壞不會導致日誌資料的消失。
- 所有節點不會永久性損壞,即使損壞後仍然可以恢復。
1. 第一階段(投票階段):
- 協調者節點向所有參與者節點詢問是否可以執行提交操作(vote),並開始等待各參與者節點的響應。
- 參與者節點執行詢問發起為止的所有事務操作,並將Undo資訊和Redo資訊寫入日誌。(注意:若成功這裡其實每個參與者已經執行了事務操作)
- 各參與者節點響應協調者節點發起的詢問。如果參與者節點的事務操作實際執行成功,則它返回一個”同意”訊息;如果參與者節點的事務操作實際執行失敗,則它返回一個”中止”訊息。
2. 第二階段(提交執行階段):
當協調者節點從所有參與者節點獲得的相應訊息都為”同意”時:
- 協調者節點向所有參與者節點發出”正式提交(commit)”的請求。
- 參與者節點正式完成操作,並釋放在整個事務期間內佔用的資源。
- 參與者節點向協調者節點傳送”完成”訊息。
- 協調者節點受到所有參與者節點反饋的”完成”訊息後,完成事務。
如果任一參與者節點在第一階段返回的響應訊息為”中止”,或者 協調者節點在第一階段的詢問超時之前無法獲取所有參與者節點的響應訊息時:
- 協調者節點向所有參與者節點發出”回滾操作(rollback)”的請求。
- 參與者節點利用之前寫入的Undo資訊執行回滾,並釋放在整個事務期間內佔用的資源。
- 參與者節點向協調者節點傳送”回滾完成”訊息。
- 協調者節點受到所有參與者節點反饋的”回滾完成”訊息後,取消事務。
不管最後結果如何,第二階段都會結束當前事務。
二階段提交看起來確實能夠提供原子性的操作,但是不幸的事,二階段提交還是有幾個缺點的:
- 執行過程中,所有參與節點都是事務阻塞型的。當參與者佔有公共資源時,其他第三方節點訪問公共資源不得不處於阻塞狀態。
- 參與者發生故障。協調者需要給每個參與者額外指定超時機制,超時後整個事務失敗。(沒有多少容錯機制)
- 協調者發生故障。參與者會一直阻塞下去。需要額外的備機進行容錯。(這個可以依賴後面要講的Paxos協議實現HA)
- 二階段無法解決的問題:協調者再發出commit訊息之後當機,而唯一接收到這條訊息的參與者同時也當機了。那麼即使協調者通過選舉協議產生了新的協調者,這條事務的狀態也是不確定的,沒人知道事務是否被已經提交。
為此,Dale Skeen和Michael Stonebraker在“A Formal Model of Crash Recovery in a Distributed System”中提出了三階段提交協議(3PC)。
三階段提交協議 3PC
與兩階段提交不同的是,三階段提交有兩個改動點。
- 引入超時機制。同時在協調者和參與者中都引入超時機制。
- 在第一階段和第二階段中插入一個準備階段。保證了在最後提交階段之前各參與節點的狀態是一致的。
也就是說,除了引入超時機制之外,3PC把2PC的準備階段再次一分為二,這樣三階段提交就有CanCommit、PreCommit、DoCommit三個階段。
1. CanCommit階段
3PC的CanCommit階段其實和2PC的準備階段很像。協調者向參與者傳送commit請求,參與者如果可以提交就返回Yes響應,否則返回No響應。
- 事務詢問
協調者向參與者傳送CanCommit請求。詢問是否可以執行事務提交操作。然後開始等待參與者的響應。 - 響應反饋
參與者接到CanCommit請求之後,正常情況下,如果其自身認為可以順利執行事務,則返回Yes響應,並進入預備狀態。否則反饋No
2. PreCommit階段
協調者根據參與者的反應情況來決定是否可以記性事務的PreCommit操作。根據響應情況,有以下兩種可能。
假如協調者從所有的參與者獲得的反饋都是Yes響應,那麼就會執行事務的預執行。
-
傳送預提交請求
協調者向參與者傳送PreCommit請求,並進入Prepared階段。 -
事務預提交
參與者接收到PreCommit請求後,會執行事務操作,並將undo和redo資訊記錄到事務日誌中。 -
響應反饋
如果參與者成功的執行了事務操作,則返回ACK響應,同時開始等待最終指令。
假如有任何一個參與者向協調者傳送了No響應,或者等待超時之後,協調者都沒有接到參與者的響應,那麼就執行事務的中斷。
-
傳送中斷請求
協調者向所有參與者傳送abort請求。 -
中斷事務
參與者收到來自協調者的abort請求之後(或超時之後,仍未收到協調者的請求),執行事務的中斷。
3. doCommit階段
該階段進行真正的事務提交,也可以分為以下兩種情況。
該階段進行真正的事務提交,也可以分為以下兩種情況。
3.1 執行提交
- 傳送提交請求
協調接收到參與者傳送的ACK響應,那麼他將從預提交狀態進入到提交狀態。並向所有參與者傳送doCommit請求。 - 事務提交
參與者接收到doCommit請求之後,執行正式的事務提交。並在完成事務提交之後釋放所有事務資源。 - 響應反饋
事務提交完之後,向協調者傳送Ack響應。 - 完成事務
協調者接收到所有參與者的ack響應之後,完成事務。
3.2 中斷事務
協調者沒有接收到參與者傳送的ACK響應(可能是接受者傳送的不是ACK響應,也可能響應超時),那麼就會執行中斷事務。
-
傳送中斷請求
協調者向所有參與者傳送abort請求 -
事務回滾
參與者接收到abort請求之後,利用其在階段二記錄的undo資訊來執行事務的回滾操作,並在完成回滾之後釋放所有的事務資源。 -
反饋結果
參與者完成事務回滾之後,向協調者傳送ACK訊息 -
中斷事務
協調者接收到參與者反饋的ACK訊息之後,執行事務的中斷。
分散式事務的解決方案
分散式事務的解決方案有如下幾種:
- 全域性訊息
- 基於可靠訊息服務的分散式事務
- TCC
- 最大努力通知
方案1:全域性事務(DTP模型)
全域性事務基於DTP模型實現。DTP是由X/Open組織提出的一種分散式事務模型——X/Open Distributed Transaction Processing Reference Model。它規定了要實現分散式事務,需要三種角色:
-
AP:Application 應用系統
它就是我們開發的業務系統,在我們開發的過程中,可以使用資源管理器提供的事務介面來實現分散式事務。 -
TM:Transaction Manager 事務管理器
- 分散式事務的實現由事務管理器來完成,它會提供分散式事務的操作介面供我們的業務系統呼叫。這些介面稱為TX介面。
- 事務管理器還管理著所有的資源管理器,通過它們提供的XA介面來同一排程這些資源管理器,以實現分散式事務。
- DTP只是一套實現分散式事務的規範,並沒有定義具體如何實現分散式事務,TM可以採用2PC、3PC、Paxos等協議實現分散式事務。
-
RM:Resource Manager 資源管理器
- 能夠提供資料服務的物件都可以是資源管理器,比如:資料庫、訊息中介軟體、快取等。大部分場景下,資料庫即為分散式事務中的資源管理器。
- 資源管理器能夠提供單資料庫的事務能力,它們通過XA介面,將本資料庫的提交、回滾等能力提供給事務管理器呼叫,以幫助事務管理器實現分散式的事務管理。
- XA是DTP模型定義的介面,用於向事務管理器提供該資源管理器(該資料庫)的提交、回滾等能力。
- DTP只是一套實現分散式事務的規範,RM具體的實現是由資料庫廠商來完成的。
- 有沒有基於DTP模型的分散式事務中介軟體?
- DTP模型有啥優缺點?
方案2:基於可靠訊息服務的分散式事務
這種實現分散式事務的方式需要通過訊息中介軟體來實現。假設有A和B兩個系統,分別可以處理任務A和任務B。此時系統A中存在一個業務流程,需要將任務A和任務B在同一個事務中處理。下面來介紹基於訊息中介軟體來實現這種分散式事務。
- 在系統A處理任務A前,首先向訊息中介軟體傳送一條訊息
- 訊息中介軟體收到後將該條訊息持久化,但並不投遞。此時下游系統B仍然不知道該條訊息的存在。
- 訊息中介軟體持久化成功後,便向系統A返回一個確認應答;
- 系統A收到確認應答後,則可以開始處理任務A;
- 任務A處理完成後,向訊息中介軟體傳送Commit請求。該請求傳送完成後,對系統A而言,該事務的處理過程就結束了,此時它可以處理別的任務了。
但commit訊息可能會在傳輸途中丟失,從而訊息中介軟體並不會向系統B投遞這條訊息,從而系統就會出現不一致性。這個問題由訊息中介軟體的事務回查機制完成,下文會介紹。 - 訊息中介軟體收到Commit指令後,便向系統B投遞該訊息,從而觸發任務B的執行;
- 當任務B執行完成後,系統B向訊息中介軟體返回一個確認應答,告訴訊息中介軟體該訊息已經成功消費,此時,這個分散式事務完成。
上述過程可以得出如下幾個結論:
- 訊息中介軟體扮演者分散式事務協調者的角色。
- 系統A完成任務A後,到任務B執行完成之間,會存在一定的時間差。在這個時間差內,整個系統處於資料不一致的狀態,但這短暫的不一致性是可以接受的,因為經過短暫的時間後,系統又可以保持資料一致性,滿足BASE理論。
上述過程中,如果任務A處理失敗,那麼需要進入回滾流程,如下圖所示:
- 若系統A在處理任務A時失敗,那麼就會向訊息中介軟體傳送Rollback請求。和傳送Commit請求一樣,系統A發完之後便可以認為回滾已經完成,它便可以去做其他的事情。
- 訊息中介軟體收到回滾請求後,直接將該訊息丟棄,而不投遞給系統B,從而不會觸發系統B的任務B。
此時系統又處於一致性狀態,因為任務A和任務B都沒有執行。
上面所介紹的Commit和Rollback都屬於理想情況,但在實際系統中,Commit和Rollback指令都有可能在傳輸途中丟失。那麼當出現這種情況的時候,訊息中介軟體是如何保證資料一致性呢?——答案就是超時詢問機制。
系統A除了實現正常的業務流程外,還需提供一個事務詢問的介面,供訊息中介軟體呼叫。當訊息中介軟體收到一條事務型訊息後便開始計時,如果到了超時時間也沒收到系統A發來的Commit或Rollback指令的話,就會主動呼叫系統A提供的事務詢問介面詢問該系統目前的狀態。該介面會返回三種結果:
- 提交
若獲得的狀態是“提交”,則將該訊息投遞給系統B。 - 回滾
若獲得的狀態是“回滾”,則直接將條訊息丟棄。 - 處理中
若獲得的狀態是“處理中”,則繼續等待。
訊息中介軟體的超時詢問機制能夠防止上游系統因在傳輸過程中丟失Commit/Rollback指令而導致的系統不一致情況,而且能降低上游系統的阻塞時間,上游系統只要發出Commit/Rollback指令後便可以處理其他任務,無需等待確認應答。而Commit/Rollback指令丟失的情況通過超時詢問機制來彌補,這樣大大降低上游系統的阻塞時間,提升系統的併發度。
下面來說一說訊息投遞過程的可靠性保證。
當上遊系統執行完任務並向訊息中介軟體提交了Commit指令後,便可以處理其他任務了,此時它可以認為事務已經完成,接下來訊息中介軟體**一定會保證訊息被下游系統成功消費掉!**那麼這是怎麼做到的呢?這由訊息中介軟體的投遞流程來保證。
訊息中介軟體向下遊系統投遞完訊息後便進入阻塞等待狀態,下游系統便立即進行任務的處理,任務處理完成後便向訊息中介軟體返回應答。訊息中介軟體收到確認應答後便認為該事務處理完畢!
如果訊息在投遞過程中丟失,或訊息的確認應答在返回途中丟失,那麼訊息中介軟體在等待確認應答超時之後就會重新投遞,直到下游消費者返回消費成功響應為止。當然,一般訊息中介軟體可以設定訊息重試的次數和時間間隔,比如:當第一次投遞失敗後,每隔五分鐘重試一次,一共重試3次。如果重試3次之後仍然投遞失敗,那麼這條訊息就需要人工干預。
有的同學可能要問:訊息投遞失敗後為什麼不回滾訊息,而是不斷嘗試重新投遞?
這就涉及到整套分散式事務系統的實現成本問題。
我們知道,當系統A將向訊息中介軟體傳送Commit指令後,它便去做別的事情了。如果此時訊息投遞失敗,需要回滾的話,就需要讓系統A事先提供回滾介面,這無疑增加了額外的開發成本,業務系統的複雜度也將提高。對於一個業務系統的設計目標是,在保證效能的前提下,最大限度地降低系統複雜度,從而能夠降低系統的運維成本。
不知大家是否發現,上游系統A向訊息中介軟體提交Commit/Rollback訊息採用的是非同步方式,也就是當上遊系統提交完訊息後便可以去做別的事情,接下來提交、回滾就完全交給訊息中介軟體來完成,並且完全信任訊息中介軟體,認為它一定能正確地完成事務的提交或回滾。然而,訊息中介軟體向下遊系統投遞訊息的過程是同步的。也就是訊息中介軟體將訊息投遞給下游系統後,它會阻塞等待,等下游系統成功處理完任務返回確認應答後才取消阻塞等待。為什麼這兩者在設計上是不一致的呢?
首先,上游系統和訊息中介軟體之間採用非同步通訊是為了提高系統併發度。業務系統直接和使用者打交道,使用者體驗尤為重要,因此這種非同步通訊方式能夠極大程度地降低使用者等待時間。此外,非同步通訊相對於同步通訊而言,沒有了長時間的阻塞等待,因此係統的併發性也大大增加。但非同步通訊可能會引起Commit/Rollback指令丟失的問題,這就由訊息中介軟體的超時詢問機制來彌補。
那麼,訊息中介軟體和下游系統之間為什麼要採用同步通訊呢?
非同步能提升系統效能,但隨之會增加系統複雜度;而同步雖然降低系統併發度,但實現成本較低。因此,在對併發度要求不是很高的情況下,或者伺服器資源較為充裕的情況下,我們可以選擇同步來降低系統的複雜度。
我們知道,訊息中介軟體是一個獨立於業務系統的第三方中介軟體,它不和任何業務系統產生直接的耦合,它也不和使用者產生直接的關聯,它一般部署在獨立的伺服器叢集上,具有良好的可擴充套件性,所以不必太過於擔心它的效能,如果處理速度無法滿足我們的要求,可以增加機器來解決。而且,即使訊息中介軟體處理速度有一定的延遲那也是可以接受的,因為前面所介紹的BASE理論就告訴我們了,我們追求的是最終一致性,而非實時一致性,因此訊息中介軟體產生的時延導致事務短暫的不一致是可以接受的。
方案3:最大努力通知(定期校對)
最大努力通知也被稱為定期校對,其實在方案二中已經包含,這裡再單獨介紹,主要是為了知識體系的完整性。這種方案也需要訊息中介軟體的參與,其過程如下:
- 上游系統在完成任務後,向訊息中介軟體同步地傳送一條訊息,確保訊息中介軟體成功持久化這條訊息,然後上游系統可以去做別的事情了;
- 訊息中介軟體收到訊息後負責將該訊息同步投遞給相應的下游系統,並觸發下游系統的任務執行;
- 當下遊系統處理成功後,向訊息中介軟體反饋確認應答,訊息中介軟體便可以將該條訊息刪除,從而該事務完成。
上面是一個理想化的過程,但在實際場景中,往往會出現如下幾種意外情況:
- 訊息中介軟體向下遊系統投遞訊息失敗
- 上游系統向訊息中介軟體傳送訊息失敗
對於第一種情況,訊息中介軟體具有重試機制,我們可以在訊息中介軟體中設定訊息的重試次數和重試時間間隔,對於網路不穩定導致的訊息投遞失敗的情況,往往重試幾次後訊息便可以成功投遞,如果超過了重試的上限仍然投遞失敗,那麼訊息中介軟體不再投遞該訊息,而是記錄在失敗訊息表中,訊息中介軟體需要提供失敗訊息的查詢介面,下游系統會定期查詢失敗訊息,並將其消費,這就是所謂的“定期校對”。
如果重複投遞和定期校對都不能解決問題,往往是因為下游系統出現了嚴重的錯誤,此時就需要人工干預。
對於第二種情況,需要在上游系統中建立訊息重發機制。可以在上游系統建立一張本地訊息表,並將 任務處理過程 和 向本地訊息表中插入訊息 這兩個步驟放在一個本地事務中完成。如果向本地訊息表插入訊息失敗,那麼就會觸發回滾,之前的任務處理結果就會被取消。如果這量步都執行成功,那麼該本地事務就完成了。接下來會有一個專門的訊息傳送者不斷地傳送本地訊息表中的訊息,如果傳送失敗它會返回重試。當然,也要給訊息傳送者設定重試的上限,一般而言,達到重試上限仍然傳送失敗,那就意味著訊息中介軟體出現嚴重的問題,此時也只有人工干預才能解決問題。
對於不支援事務型訊息的訊息中介軟體,如果要實現分散式事務的話,就可以採用這種方式。它能夠通過重試機制+定期校對實現分散式事務,但相比於第二種方案,它達到資料一致性的週期較長,而且還需要在上游系統中實現訊息重試釋出機制,以確保訊息成功釋出給訊息中介軟體,這無疑增加了業務系統的開發成本,使得業務系統不夠純粹,並且這些額外的業務邏輯無疑會佔用業務系統的硬體資源,從而影響效能。
因此,儘量選擇支援事務型訊息的訊息中介軟體來實現分散式事務,如RocketMQ。
方案4:TCC(兩階段型、補償型)
TCC即為Try Confirm Cancel,它屬於補償型分散式事務。顧名思義,TCC實現分散式事務一共有三個步驟:
- Try:嘗試待執行的業務
- 這個過程並未執行業務,只是完成所有業務的一致性檢查,並預留好執行所需的全部資源
- Confirm:執行業務
- 這個過程真正開始執行業務,由於Try階段已經完成了一致性檢查,因此本過程直接執行,而不做任何檢查。並且在執行的過程中,會使用到Try階段預留的業務資源。
- Cancel:取消執行的業務
- 若業務執行失敗,則進入Cancel階段,它會釋放所有佔用的業務資源,並回滾Confirm階段執行的操作。
下面以一個轉賬的例子來解釋下TCC實現分散式事務的過程。
假設使用者A用他的賬戶餘額給使用者B發一個100元的紅包,並且餘額系統和紅包系統是兩個獨立的系統。
-
Try
- 建立一條轉賬流水,並將流水的狀態設為交易中
- 將使用者A的賬戶中扣除100元(預留業務資源)
- Try成功之後,便進入Confirm階段
- Try過程發生任何異常,均進入Cancel階段
-
Confirm
- 向B使用者的紅包賬戶中增加100元
- 將流水的狀態設為交易已完成
- Confirm過程發生任何異常,均進入Cancel階段
- Confirm過程執行成功,則該事務結束
-
Cancel
- 將使用者A的賬戶增加100元
- 將流水的狀態設為交易失敗
在傳統事務機制中,業務邏輯的執行和事務的處理,是在不同的階段由不同的部件來完成的:業務邏輯部分訪問資源實現資料儲存,其處理是由業務系統負責;事務處理部分通過協調資源管理器以實現事務管理,其處理由事務管理器來負責。二者沒有太多互動的地方,所以,傳統事務管理器的事務處理邏輯,僅需要著眼於事務完成(commit/rollback)階段,而不必關注業務執行階段。
TCC全域性事務必須基於RM本地事務來實現全域性事務
TCC服務是由Try/Confirm/Cancel業務構成的,
其Try/Confirm/Cancel業務在執行時,會訪問資源管理器(Resource Manager,下文簡稱RM)來存取資料。這些存取操作,必須要參與RM本地事務,以使其更改的資料要麼都commit,要麼都rollback。
這一點不難理解,考慮一下如下場景:
假設圖中的服務B沒有基於RM本地事務(以RDBS為例,可通過設定auto-commit為true來模擬),那麼一旦[B:Try]操作中途執行失敗,TCC事務框架後續決定回滾全域性事務時,該[B:Cancel]則需要判斷[B:Try]中哪些操作已經寫到DB、哪些操作還沒有寫到DB:假設[B:Try]業務有5個寫庫操作,[B:Cancel]業務則需要逐個判斷這5個操作是否生效,並將生效的操作執行反向操作。
不幸的是,由於[B:Cancel]業務也有n(0<=n<=5)個反向的寫庫操作,此時一旦[B:Cancel]也中途出錯,則後續的[B:Cancel]執行任務更加繁重。因為,相比第一次[B:Cancel]操作,後續的[B:Cancel]操作還需要判斷先前的[B:Cancel]操作的n(0<=n<=5)個寫庫中哪幾個已經執行、哪幾個還沒有執行,這就涉及到了冪等性問題。而對冪等性的保障,又很可能還需要涉及額外的寫庫操作,該寫庫操作又會因為沒有RM本地事務的支援而存在類似問題。。。可想而知,如果不基於RM本地事務,TCC事務框架是無法有效的管理TCC全域性事務的。
反之,基於RM本地事務的TCC事務,這種情況則會很容易處理:[B:Try]操作中途執行失敗,TCC事務框架將其參與RM本地事務直接rollback即可。後續TCC事務框架決定回滾全域性事務時,在知道“[B:Try]操作涉及的RM本地事務已經rollback”的情況下,根本無需執行[B:Cancel]操作。
換句話說,基於RM本地事務實現TCC事務框架時,一個TCC型服務的cancel業務要麼執行,要麼不執行,不需要考慮部分執行的情況。
TCC事務框架應該提供Confirm/Cancel服務的冪等性保障
一般認為,服務的冪等性,是指標對同一個服務的多次(n>1)請求和對它的單次(n=1)請求,二者具有相同的副作用。
在TCC事務模型中,Confirm/Cancel業務可能會被重複呼叫,其原因很多。比如,全域性事務在提交/回滾時會呼叫各TCC服務的Confirm/Cancel業務邏輯。執行這些Confirm/Cancel業務時,可能會出現如網路中斷的故障而使得全域性事務不能完成。因此,故障恢復機制後續仍然會重新提交/回滾這些未完成的全域性事務,這樣就會再次呼叫參與該全域性事務的各TCC服務的Confirm/Cancel業務邏輯。
既然Confirm/Cancel業務可能會被多次呼叫,就需要保障其冪等性。
那麼,應該由TCC事務框架來提供冪等性保障?還是應該由業務系統自行來保障冪等性呢?
個人認為,應該是由TCC事務框架來提供冪等性保障。如果僅僅只是極個別服務存在這個問題的話,那麼由業務系統來負責也是可以的;然而,這是一類公共問題,毫無疑問,所有TCC服務的Confirm/Cancel業務存在冪等性問題。TCC服務的公共問題應該由TCC事務框架來解決;而且,考慮一下由業務系統來負責冪等性需要考慮的問題,就會發現,這無疑增大了業務系統的複雜度。