分散式事務框架 seata-golang 通訊模型詳解
作者 | 劉曉敏 於雨
一、簡介
Java 的世界裡,大家廣泛使用的一個高效能網路通訊框架 netty,很多 RPC 框架都是基於 netty 來實現的。在 golang 的世界裡,getty 也是一個類似 netty 的高效能網路通訊庫。getty 最初由 dubbogo 專案負責人於雨開發,作為底層通訊庫在 dubbo-go 中使用。隨著 dubbo-go 捐獻給 apache 基金會,在社群小夥伴的共同努力下,getty 也最終進入到 apache 這個大家庭,並改名 dubbo-getty 。
18 年的時候,我在公司裡實踐微服務,當時遇到最大的問題就是分散式事務問題。同年,阿里在社群開源他們的分散式事務解決方案,我也很快關注到這個專案,起初還叫 fescar,後來更名 seata。由於我對開源技術很感興趣,加了很多社群群,當時也很關注 dubbo-go 這個專案,在裡面默默潛水。隨著對 seata 的瞭解,逐漸萌生了做一個 go 版本的分散式事務框架的想法。
要做一個 golang 版的分散式事務框架,首要的一個問題就是如何實現 RPC 通訊。dubbo-go 就是很好的一個例子擺在眼前,遂開始研究 dubbo-go 的底層 getty。
二、如何基於 getty 實現 RPC 通訊
getty 框架的整體模型圖如下:
下面結合相關程式碼,詳述 seata-golang 的 RPC 通訊過程。
1. 建立連線
實現 RPC 通訊,首先要建立網路連線吧,我們從 client.go 開始看起。
func (c *client) connect() {
var (
err error
ss Session
)
for {
// 建立一個 session 連線
ss = c.dial()
if ss == nil {
// client has been closed
break
}
err = c.newSession(ss)
if err == nil {
// 收發報文
ss.(*session).run()
// 此處省略部分程式碼
break
}
// don't distinguish between tcp connection and websocket connection. Because
// gorilla/websocket/conn.go:(Conn)Close also invoke net.Conn.Close()
ss.Conn().Close()
}
}
connect()
方法通過 dial()
方法得到了一個 session 連線,進入 dial() 方法:
func (c *client) dial() Session {
switch c.endPointType {
case TCP_CLIENT:
return c.dialTCP()
case UDP_CLIENT:
return c.dialUDP()
case WS_CLIENT:
return c.dialWS()
case WSS_CLIENT:
return c.dialWSS()
}
return nil
}
我們關注的是 TCP 連線,所以繼續進入 c.dialTCP()
方法:
func (c *client) dialTCP() Session {
var (
err error
conn net.Conn
)
for {
if c.IsClosed() {
return nil
}
if c.sslEnabled {
if sslConfig, err := c.tlsConfigBuilder.BuildTlsConfig(); err == nil && sslConfig != nil {
d := &net.Dialer{Timeout: connectTimeout}
// 建立加密連線
conn, err = tls.DialWithDialer(d, "tcp", c.addr, sslConfig)
}
} else {
// 建立 tcp 連線
conn, err = net.DialTimeout("tcp", c.addr, connectTimeout)
}
if err == nil && gxnet.IsSameAddr(conn.RemoteAddr(), conn.LocalAddr()) {
conn.Close()
err = errSelfConnect
}
if err == nil {
// 返回一個 TCPSession
return newTCPSession(conn, c)
}
log.Infof("net.DialTimeout(addr:%s, timeout:%v) = error:%+v", c.addr, connectTimeout, perrors.WithStack(err))
<-wheel.After(connectInterval)
}
}
至此,我們知道了 getty 如何建立 TCP 連線,並返回 TCPSession。
2. 收發報文
那它是怎麼收發報文的呢,我們回到 connection 方法接著往下看,有這樣一行 ss.(*session).run()
,在這行程式碼之後程式碼都是很簡單的操作,我們猜測這行程式碼執行的邏輯裡面一定包含收發報文的邏輯,接著進入 run()
方法:
func (s *session) run() {
// 省略部分程式碼
go s.handleLoop()
go s.handlePackage()
}
這裡起了兩個 goroutine,handleLoop
和 handlePackage
,看字面意思符合我們的猜想,進入 handleLoop()
方法:
func (s *session) handleLoop() {
// 省略部分程式碼
for {
// A select blocks until one of its cases is ready to run.
// It choose one at random if multiple are ready. Otherwise it choose default branch if none is ready.
select {
// 省略部分程式碼
case outPkg, ok = <-s.wQ:
// 省略部分程式碼
iovec = iovec[:0]
for idx := 0; idx < maxIovecNum; idx++ {
// 通過 s.writer 將 interface{} 型別的 outPkg 編碼成二進位制的位元
pkgBytes, err = s.writer.Write(s, outPkg)
// 省略部分程式碼
iovec = append(iovec, pkgBytes)
//省略部分程式碼
}
// 將這些二進位制位元傳送出去
err = s.WriteBytesArray(iovec[:]...)
if err != nil {
log.Errorf("%s, [session.handleLoop]s.WriteBytesArray(iovec len:%d) = error:%+v",
s.sessionToken(), len(iovec), perrors.WithStack(err))
s.stop()
// break LOOP
flag = false
}
case <-wheel.After(s.period):
if flag {
if wsFlag {
err := wsConn.writePing()
if err != nil {
log.Warnf("wsConn.writePing() = error:%+v", perrors.WithStack(err))
}
}
// 定時執行的邏輯,心跳等
s.listener.OnCron(s)
}
}
}
}
通過上面的程式碼,我們不難發現,handleLoop()
方法處理的是傳送報文的邏輯,RPC 需要傳送的訊息首先由 s.writer
編碼成二進位制位元,然後通過建立的 TCP 連線傳送出去。這個 s.writer
對應的 Writer 介面是 RPC 框架必須要實現的一個介面。
繼續看 handlePackage()
方法:
func (s *session) handlePackage() {
// 省略部分程式碼
if _, ok := s.Connection.(*gettyTCPConn); ok {
if s.reader == nil {
errStr := fmt.Sprintf("session{name:%s, conn:%#v, reader:%#v}", s.name, s.Connection, s.reader)
log.Error(errStr)
panic(errStr)
}
err = s.handleTCPPackage()
} else if _, ok := s.Connection.(*gettyWSConn); ok {
err = s.handleWSPackage()
} else if _, ok := s.Connection.(*gettyUDPConn); ok {
err = s.handleUDPPackage()
} else {
panic(fmt.Sprintf("unknown type session{%#v}", s))
}
}
進入 handleTCPPackage()
方法:
func (s *session) handleTCPPackage() error {
// 省略部分程式碼
conn = s.Connection.(*gettyTCPConn)
for {
// 省略部分程式碼
bufLen = 0
for {
// for clause for the network timeout condition check
// s.conn.SetReadTimeout(time.Now().Add(s.rTimeout))
// 從 TCP 連線中收到報文
bufLen, err = conn.recv(buf)
// 省略部分程式碼
break
}
// 省略部分程式碼
// 將收到的報文二進位制位元寫入 pkgBuf
pktBuf.Write(buf[:bufLen])
for {
if pktBuf.Len() <= 0 {
break
}
// 通過 s.reader 將收到的報文解碼成 RPC 訊息
pkg, pkgLen, err = s.reader.Read(s, pktBuf.Bytes())
// 省略部分程式碼
s.UpdateActive()
// 將收到的訊息放入 TaskQueue 供 RPC 消費端消費
s.addTask(pkg)
pktBuf.Next(pkgLen)
// continue to handle case 5
}
if exit {
break
}
}
return perrors.WithStack(err)
}
從上面的程式碼邏輯我們分析出,RPC 消費端需要將從 TCP 連線收到的二進位制位元報文解碼成 RPC 能消費的訊息,這個工作由 s.reader 實現,所以,我們要構建 RPC 通訊層也需要實現 s.reader 對應的 Reader 介面。
3. 底層處理網路報文的邏輯如何與業務邏輯解耦
我們都知道,netty 通過 boss 執行緒和 worker 執行緒實現了底層網路邏輯和業務邏輯的解耦。那麼,getty 是如何實現的呢?
在 handlePackage()
方法最後,我們看到,收到的訊息被放入了 s.addTask(pkg)
這個方法,接著往下分析:
func (s *session) addTask(pkg interface{}) {
f := func() {
s.listener.OnMessage(s, pkg)
s.incReadPkgNum()
}
if taskPool := s.EndPoint().GetTaskPool(); taskPool != nil {
taskPool.AddTaskAlways(f)
return
}
f()
}
pkg
引數傳遞到了一個匿名方法,這個方法最終放入了 taskPool
。這個方法很關鍵,在我後來寫 seata-golang 程式碼的時候,就遇到了一個坑,這個坑後面分析。
接著我們看一下 taskPool 的定義:
// NewTaskPoolSimple build a simple task pool
func NewTaskPoolSimple(size int) GenericTaskPool {
if size < 1 {
size = runtime.NumCPU() * 100
}
return &taskPoolSimple{
work: make(chan task),
sem: make(chan struct{}, size),
done: make(chan struct{}),
}
}
構建了一個緩衝大小為 size(預設為 runtime.NumCPU() * 100
)的 channel sem
。再看方法 AddTaskAlways(t task)
:
func (p *taskPoolSimple) AddTaskAlways(t task) {
select {
case <-p.done:
return
default:
}
select {
case p.work <- t:
return
default:
}
select {
case p.work <- t:
case p.sem <- struct{}{}:
p.wg.Add(1)
go p.worker(t)
default:
goSafely(t)
}
}
加入的任務,會先由 len(p.sem) 個 goroutine 去消費,如果沒有 goroutine 空閒,則會啟動一個臨時的 goroutine 去執行 t()。相當於有 len(p.sem) 個 goroutine 組成了 goroutine pool,pool 中的 goroutine 去處理業務邏輯,而不是由處理網路報文的 goroutine 去執行業務邏輯,從而實現瞭解耦。寫 seata-golang 時遇到的一個坑,就是忘記設定 taskPool 造成了處理業務邏輯和處理底層網路報文邏輯的 goroutine 是同一個,我在業務邏輯中阻塞等待一個任務完成時,阻塞了整個 goroutine,使得阻塞期間收不到任何報文。
4. 具體實現
下面的程式碼見 getty.go:
// Reader is used to unmarshal a complete pkg from buffer
type Reader interface {
Read(Session, []byte) (interface{}, int, error)
}
// Writer is used to marshal pkg and write to session
type Writer interface {
// if @Session is udpGettySession, the second parameter is UDPContext.
Write(Session, interface{}) ([]byte, error)
}
// ReadWriter interface use for handle application packages
type ReadWriter interface {
Reader
Writer
}
// EventListener is used to process pkg that received from remote session
type EventListener interface {
// invoked when session opened
// If the return error is not nil, @Session will be closed.
OnOpen(Session) error
// invoked when session closed.
OnClose(Session)
// invoked when got error.
OnError(Session, error)
// invoked periodically, its period can be set by (Session)SetCronPeriod
OnCron(Session)
// invoked when getty received a package. Pls attention that do not handle long time
// logic processing in this func. You'd better set the package's maximum length.
// If the message's length is greater than it, u should should return err in
// Reader{Read} and getty will close this connection soon.
//
// If ur logic processing in this func will take a long time, u should start a goroutine
// pool(like working thread pool in cpp) to handle the processing asynchronously. Or u
// can do the logic processing in other asynchronous way.
// !!!In short, ur OnMessage callback func should return asap.
//
// If this is a udp event listener, the second parameter type is UDPContext.
OnMessage(Session, interface{})
}
通過對整個 getty 程式碼的分析,我們只要實現 ReadWriter
來對 RPC 訊息編解碼,再實現 EventListener
來處理 RPC 訊息的對應的具體邏輯,將 ReadWriter
實現和 EventLister
實現注入到 RPC 的 Client 和 Server 端,則可實現 RPC 通訊。
4.1 編解碼協議實現
下面是 seata 協議的定義:
在 ReadWriter 介面的實現 RpcPackageHandler
中,呼叫 Codec 方法對訊息體按照上面的格式編解碼:
// 訊息編碼為二進位制位元
func MessageEncoder(codecType byte, in interface{}) []byte {
switch codecType {
case SEATA:
return SeataEncoder(in)
default:
log.Errorf("not support codecType, %s", codecType)
return nil
}
}
// 二進位制位元解碼為訊息體
func MessageDecoder(codecType byte, in []byte) (interface{}, int) {
switch codecType {
case SEATA:
return SeataDecoder(in)
default:
log.Errorf("not support codecType, %s", codecType)
return nil, 0
}
}
4.2 Client 端實現
再來看 client 端 EventListener
的實現 RpcRemotingClient
:
func (client *RpcRemoteClient) OnOpen(session getty.Session) error {
go func()
request := protocal.RegisterTMRequest{AbstractIdentifyRequest: protocal.AbstractIdentifyRequest{
ApplicationId: client.conf.ApplicationId,
TransactionServiceGroup: client.conf.TransactionServiceGroup,
}}
// 建立連線後向 Transaction Coordinator 發起註冊 TransactionManager 的請求
_, err := client.sendAsyncRequestWithResponse(session, request, RPC_REQUEST_TIMEOUT)
if err == nil {
// 將與 Transaction Coordinator 建立的連線儲存在連線池供後續使用
clientSessionManager.RegisterGettySession(session)
client.GettySessionOnOpenChannel <- session.RemoteAddr()
}
}()
return nil
}
// OnError ...
func (client *RpcRemoteClient) OnError(session getty.Session, err error) {
clientSessionManager.ReleaseGettySession(session)
}
// OnClose ...
func (client *RpcRemoteClient) OnClose(session getty.Session) {
clientSessionManager.ReleaseGettySession(session)
}
// OnMessage ...
func (client *RpcRemoteClient) OnMessage(session getty.Session, pkg interface{}) {
log.Info("received message:{%v}", pkg)
rpcMessage, ok := pkg.(protocal.RpcMessage)
if ok {
heartBeat, isHeartBeat := rpcMessage.Body.(protocal.HeartBeatMessage)
if isHeartBeat && heartBeat == protocal.HeartBeatMessagePong {
log.Debugf("received PONG from %s", session.RemoteAddr())
}
}
if rpcMessage.MessageType == protocal.MSGTYPE_RESQUEST ||
rpcMessage.MessageType == protocal.MSGTYPE_RESQUEST_ONEWAY {
log.Debugf("msgId:%s, body:%v", rpcMessage.Id, rpcMessage.Body)
// 處理事務訊息,提交 or 回滾
client.onMessage(rpcMessage, session.RemoteAddr())
} else {
resp, loaded := client.futures.Load(rpcMessage.Id)
if loaded {
response := resp.(*getty2.MessageFuture)
response.Response = rpcMessage.Body
response.Done <- true
client.futures.Delete(rpcMessage.Id)
}
}
}
// OnCron ...
func (client *RpcRemoteClient) OnCron(session getty.Session) {
// 傳送心跳
client.defaultSendRequest(session, protocal.HeartBeatMessagePing)
}
clientSessionManager.RegisterGettySession(session)
的邏輯將在下文中分析。
4.3 Server 端 Transaction Coordinator 實現
程式碼見 DefaultCoordinator
:
func (coordinator *DefaultCoordinator) OnOpen(session getty.Session) error {
log.Infof("got getty_session:%s", session.Stat())
return nil
}
func (coordinator *DefaultCoordinator) OnError(session getty.Session, err error) {
// 釋放 TCP 連線
SessionManager.ReleaseGettySession(session)
session.Close()
log.Errorf("getty_session{%s} got error{%v}, will be closed.", session.Stat(), err)
}
func (coordinator *DefaultCoordinator) OnClose(session getty.Session) {
log.Info("getty_session{%s} is closing......", session.Stat())
}
func (coordinator *DefaultCoordinator) OnMessage(session getty.Session, pkg interface{}) {
log.Debugf("received message:{%v}", pkg)
rpcMessage, ok := pkg.(protocal.RpcMessage)
if ok {
_, isRegTM := rpcMessage.Body.(protocal.RegisterTMRequest)
if isRegTM {
// 將 TransactionManager 資訊和 TCP 連線建立對映關係
coordinator.OnRegTmMessage(rpcMessage, session)
return
}
heartBeat, isHeartBeat := rpcMessage.Body.(protocal.HeartBeatMessage)
if isHeartBeat && heartBeat == protocal.HeartBeatMessagePing {
coordinator.OnCheckMessage(rpcMessage, session)
return
}
if rpcMessage.MessageType == protocal.MSGTYPE_RESQUEST ||
rpcMessage.MessageType == protocal.MSGTYPE_RESQUEST_ONEWAY {
log.Debugf("msgId:%s, body:%v", rpcMessage.Id, rpcMessage.Body)
_, isRegRM := rpcMessage.Body.(protocal.RegisterRMRequest)
if isRegRM {
// 將 ResourceManager 資訊和 TCP 連線建立對映關係
coordinator.OnRegRmMessage(rpcMessage, session)
} else {
if SessionManager.IsRegistered(session) {
defer func() {
if err := recover(); err != nil {
log.Errorf("Catch Exception while do RPC, request: %v,err: %w", rpcMessage, err)
}
}()
// 處理事務訊息,全域性事務註冊、分支事務註冊、分支事務提交、全域性事務回滾等
coordinator.OnTrxMessage(rpcMessage, session)
} else {
session.Close()
log.Infof("close a unhandled connection! [%v]", session)
}
}
} else {
resp, loaded := coordinator.futures.Load(rpcMessage.Id)
if loaded {
response := resp.(*getty2.MessageFuture)
response.Response = rpcMessage.Body
response.Done <- true
coordinator.futures.Delete(rpcMessage.Id)
}
}
}
}
func (coordinator *DefaultCoordinator) OnCron(session getty.Session) {
}
coordinator.OnRegTmMessage(rpcMessage, session)
註冊 Transaction Manager,coordinator.OnRegRmMessage(rpcMessage, session)
註冊 Resource Manager。具體邏輯分析見下文。
訊息進入 coordinator.OnTrxMessage(rpcMessage, session)
方法,將按照訊息的型別碼路由到具體的邏輯當中:
switch msg.GetTypeCode() {
case protocal.TypeGlobalBegin:
req := msg.(protocal.GlobalBeginRequest)
resp := coordinator.doGlobalBegin(req, ctx)
return resp
case protocal.TypeGlobalStatus:
req := msg.(protocal.GlobalStatusRequest)
resp := coordinator.doGlobalStatus(req, ctx)
return resp
case protocal.TypeGlobalReport:
req := msg.(protocal.GlobalReportRequest)
resp := coordinator.doGlobalReport(req, ctx)
return resp
case protocal.TypeGlobalCommit:
req := msg.(protocal.GlobalCommitRequest)
resp := coordinator.doGlobalCommit(req, ctx)
return resp
case protocal.TypeGlobalRollback:
req := msg.(protocal.GlobalRollbackRequest)
resp := coordinator.doGlobalRollback(req, ctx)
return resp
case protocal.TypeBranchRegister:
req := msg.(protocal.BranchRegisterRequest)
resp := coordinator.doBranchRegister(req, ctx)
return resp
case protocal.TypeBranchStatusReport:
req := msg.(protocal.BranchReportRequest)
resp := coordinator.doBranchReport(req, ctx)
return resp
default:
return nil
}
4.4 session manager 分析
Client 端同 Transaction Coordinator 建立連線起連線後,通過 clientSessionManager.RegisterGettySession(session)
將連線儲存在 serverSessions = sync.Map{}
這個 map 中。map 的 key 為從 session 中獲取的 RemoteAddress 即 Transaction Coordinator 的地址,value 為 session。這樣,Client 端就可以通過 map 中的一個 session 來向 Transaction Coordinator 註冊 Transaction Manager 和 Resource Manager 了。具體程式碼見 getty_client_session_manager.go
。
Transaction Manager 和 Resource Manager 註冊到 Transaction Coordinator 後,一個連線既有可能用來傳送 TM 訊息也有可能用來傳送 RM 訊息。我們通過 RpcContext 來標識一個連線資訊:
type RpcContext struct {
Version string
TransactionServiceGroup string
ClientRole meta.TransactionRole
ApplicationId string
ClientId string
ResourceSets *model.Set
Session getty.Session
}
當收到事務訊息時,我們需要構造這樣一個 RpcContext 供後續事務處理邏輯使用。所以,我們會構造下列 map 來快取對映關係:
var (
// session -> transactionRole
// TM will register before RM, if a session is not the TM registered,
// it will be the RM registered
session_transactionroles = sync.Map{}
// session -> applicationId
identified_sessions = sync.Map{}
// applicationId -> ip -> port -> session
client_sessions = sync.Map{}
// applicationId -> resourceIds
client_resources = sync.Map{}
)
這樣,Transaction Manager 和 Resource Manager 分別通過 coordinator.OnRegTmMessage(rpcMessage, session)
和 coordinator.OnRegRmMessage(rpcMessage, session)
註冊到 Transaction Coordinator 時,會在上述 client_sessions map 中快取 applicationId、ip、port 與 session 的關係,在 client_resources map 中快取 applicationId 與 resourceIds(一個應用可能存在多個 Resource Manager)的關係。在需要時,我們就可以通過上述對映關係構造一個 RpcContext。這部分的實現和 java 版 seata 有很大的不同,感興趣的可以深入瞭解一下。具體程式碼見 getty_session_manager.go
。
至此,我們就分析完了 seata-golang 整個 RPC 通訊模型的機制。
三、seata-golang 的未來
seata-golang 從今年 4 月份開始開發,到 8 月份基本實現和 java 版 seata 1.2 協議的互通,對 mysql 資料庫實現了 AT 模式(自動協調分散式事務的提交回滾),實現了 TCC 模式,TC 端使用 mysql 儲存資料,使 TC 變成一個無狀態應用支援高可用部署。下圖展示了 AT 模式的原理:
後續,還有許多工作可以做,比如:對註冊中心的支援、對配置中心的支援、和 java 版 seata 1.4 的協議互通、其他資料庫的支援、raft transaction coordinator 的實現等,希望對分散式事務問題感興趣的開發者可以加入進來一起來打造一個完善的 golang 的分散式事務框架。如果你有任何疑問,歡迎加入交流群【釘釘群號 33069364】。
另外,歡迎對 dubbogo 感興趣的朋友到 dubbogo 社群釘釘群(釘釘群號 31363295)溝通 dubbogo 技術問題。
參考資料
- seata 官方:https://seata.io
- java 版 seata:https://github.com/seata/seata
- seata-golang 專案地址:https://github.com/opentrx/seata-golang
- seata-golang go 夜讀 b 站分享:https://www.bilibili.com/video/BV1oz411e72T
作者簡介
劉曉敏 (GitHubID dk-lockdown),目前就職於 h3c 成都分公司,擅長使用 Java/Go 語言,在雲原生和微服務相關技術方向均有涉獵,目前專攻分散式事務。
於雨 (github @AlexStocks),dubbo-go 專案和社群負責人,一個有十多年服務端基礎架構研發一線工作經驗的程式設計師,陸續參與改進過 Muduo/Pika/Dubbo/Sentinel-go 等知名專案,目前在螞蟻金服可信原生部從事容器編排和 service mesh 工作。
- 加微信實戰群請加微信(註明:實戰群):gocnio
相關文章
- Go Mysql Driver 整合 Seata-Golang 解決分散式事務問題MySqlGolang分散式
- 3大主流分散式事務框架詳解(圖文總結)分散式框架
- 分散式通訊框架 – rmi分散式框架
- 分散式通訊框架 - rmi分散式框架
- 搞懂分散式技術19:使用RocketMQ事務訊息解決分散式事務分散式MQ
- 解密分散式事務框架-Fescar解密分散式框架
- 分散式訊息佇列RocketMQ--事務訊息--解決分散式事務的最佳實踐分散式佇列MQ
- 分散式事務之Seata的AT模型分散式模型
- 分散式柔性事務之事務訊息詳解分散式
- RocketMQ 分散式事務訊息MQ分散式
- 阿里分散式事務框架 GTS 全解析阿里分散式框架
- Feacar分散式事務框架簡單使用分散式框架
- lms框架分散式事務使用簡介框架分散式
- 通過改變業務模型的預留模式避免分散式事務 - CodeOpinion模型模式分散式
- 分散式事務解決方案分散式
- 分散式事務(一)—分散式事務的概念分散式
- 分散式流處理框架 Apache Storm —— 程式設計模型詳解分散式框架ApacheORM程式設計模型
- 微服務架構中的分散式事務全面詳解 -DZone微服務微服務架構分散式
- 阿里分散式事務框架GTS開源啦!阿里分散式框架
- 快速瞭解阿里微服務熱門開源分散式事務框架——Seata阿里微服務分散式框架
- 分散式事務(2)---強一致性分散式事務解決方案分散式
- 分散式事務利器——RocketMQ事務訊息的啟示分散式MQ
- SpringCloud 分散式事務解決方案SpringGCCloud分散式
- 分散式事務:訊息可靠傳送分散式
- 分散式事務(3)---RocketMQ實現分散式事務原理分散式MQ
- 分散式事務和分散式hash分散式
- 分散式服務框架之遠端通訊技術及原理分析分散式框架
- 分散式事務:基於可靠訊息服務分散式
- DAOS 分散式非同步物件儲存|事務模型分散式非同步物件模型
- Seata 分散式事務框架 TCC 模式原始碼分析分散式框架模式原始碼
- 分散式事務與Seate框架(2)——Seata實踐分散式框架
- DTM:Golang中微服務架構的分散式事務框架Golang微服務架構分散式框架
- 分散式事務(4)---RocketMQ實現分散式事務專案分散式MQ
- 常用的分散式事務解決方案分散式
- 分散式事務解決方案彙總分散式
- 分散式事務解決方案--GTS(二)分散式
- 分散式事務解決方案--GTS(一)分散式
- MSSQL server分散式事務解決方案SQLServer分散式