前言
SOFA 包含了 RPC 框架,底層通訊框架是 bolt ,基於 Netty 4,今天將通過 SOFA—RPC 原始碼中的例子,看看他是如何釋出一個服務的。
示例程式碼
下面的程式碼在 com.alipay.sofa.rpc.quickstart.QuickStartServer
類下。
ServerConfig serverConfig = new ServerConfig()
.setProtocol("bolt") // 設定一個協議,預設bolt
.setPort(9696) // 設定一個埠,預設12200
.setDaemon(false); // 非守護執行緒
ProviderConfig<HelloService> providerConfig = new ProviderConfig<HelloService>()
.setInterfaceId(HelloService.class.getName()) // 指定介面
.setRef(new HelloServiceImpl()) // 指定實現
.setServer(serverConfig); // 指定服務端
providerConfig.export(); // 釋出服務
複製程式碼
首先,建立一個 ServerConfig ,包含了埠,協議等基礎資訊,當然,這些都是手動設定的,在該類載入的時候,會自動載入很多配置檔案中的伺服器預設配置。比如 RpcConfigs 類,RpcRuntimeContext 上下文等。
然後呢,建立一個 ProviderConfig,也是個 config,不過多繼承了一個 AbstractInterfaceConfig 抽象類,該類是介面級別的配置,而 ServerConfig 是 伺服器級別的配置。雖然都繼承了 AbstractIdConfig。
ProviderConfig 包含了介面名稱,介面指定實現類,還有伺服器的配置。
最後,ProviderConfig 呼叫 export 釋出服務。
展示給我的 API 很簡單,但內部是如何實現的呢?
在看原始碼之前,我們思考一下:如果我們自己來實現,怎麼弄?
RPC 框架簡單一點來說,就是使用動態代理和 Socket。
SOFA 使用 Netty 來做網路通訊框架,我們之前也寫過一個簡單的 Netty RPC,主要是通過 handler 的 channelRead 方法來實現。
SOFA 是這麼操作的嗎?
一起來看看。
# 原始碼分析
上面的示例程式碼其實就是 3 個步驟,建立 ServerConfig,建立 ProviderConfig,呼叫 export 方法。
先看第一步,還是有點意思的。
雖然是空構造方法,但 ServerConfig 的屬性都是自動初始化的,而他的父類 AbstractIdConfig 更有意思了,父類有 1 個地方值得注意:
static {
RpcRuntimeContext.now();
}
複製程式碼
熟悉類載入的同學都知道,這是為了主動載入 RpcRuntimeContext ,看名字是 RPC 執行時上下文,所謂上下文,大約就是我們人類聊天中的 “老地方” 的意思。
這個上下文會在靜態塊中載入 Module(基於擴充套件點實現),註冊 JVM 關閉鉤子(類似 Tomcat)。還有很多配置資訊。
然後呢?建立 ProviderConfig 物件。這個類比上面的那個類多繼承了一個 AbstractInterfaceConfig,介面級別的配置。比如有些方法我不想釋出啊,比如權重啊,比如超時啊,比如具體的實現類啊等等,當然還需要一個 ServerConfig 的屬性(註冊到 Server 中啊喂)。
最後就是釋出了。export 方法。
ProviderCofing 擁有一個 export 方法,但並不是直接就在這裡釋出的,因為他是一個 config,不適合在config 裡面做這些事情,違背單一職責。
SOFA 使用了一個 Bootstrap 類來進行操作。和大部分伺服器類似,這裡就是啟動伺服器的地方。因為這個類會多執行緒使用,比如併發的釋出服務。而不是一個一個慢慢的釋出服務。所以他不是單例的,而是和 Config 一起使用的,並快取在 map 中。
ProviderBootstrap 目前有 3 個實現:Rest,Bolt,Dubbo。Bolt 是他的預設實現。
export 方法預設有個實現(Dubbo 的話就要重寫了)。主要邏輯是執行 doExport 方法,其中包括延遲載入邏輯。
而 doExport 方法中,就是 SOFA 釋出服務的邏輯所在了。
樓主將方法的異常處理邏輯去除,整體如下:
private void doExport() {
if (exported) {
return;
}
String key = providerConfig.buildKey();
String appName = providerConfig.getAppName();
// 檢查引數
checkParameters();
// 注意同一interface,同一uniqleId,不同server情況
AtomicInteger cnt = EXPORTED_KEYS.get(key); // 計數器
if (cnt == null) { // 沒有釋出過
cnt = CommonUtils.putToConcurrentMap(EXPORTED_KEYS, key, new AtomicInteger(0));
}
int c = cnt.incrementAndGet();
int maxProxyCount = providerConfig.getRepeatedExportLimit();
if (maxProxyCount > 0) {
// 超過最大數量,直接丟擲異常
}
// 構造請求呼叫器
providerProxyInvoker = new ProviderProxyInvoker(providerConfig);
// 初始化註冊中心
if (providerConfig.isRegister()) {
List<RegistryConfig> registryConfigs = providerConfig.getRegistry();
if (CommonUtils.isNotEmpty(registryConfigs)) {
for (RegistryConfig registryConfig : registryConfigs) {
RegistryFactory.getRegistry(registryConfig); // 提前初始化Registry
}
}
}
// 將處理器註冊到server
List<ServerConfig> serverConfigs = providerConfig.getServer();
for (ServerConfig serverConfig : serverConfigs) {
Server server = serverConfig.buildIfAbsent();
// 註冊序列化介面
server.registerProcessor(providerConfig, providerProxyInvoker);
if (serverConfig.isAutoStart()) {
server.start();
}
}
// 註冊到註冊中心
providerConfig.setConfigListener(new ProviderAttributeListener());
register();
// 記錄一些快取資料
RpcRuntimeContext.cacheProviderConfig(this);
exported = true;
}
複製程式碼
主要邏輯如下:
- 根據 providerConfig 建立一個 key 和 AppName。
- 檢驗同一個服務多次釋出的次數。
- 建立一個 ProviderProxyInvoker, 其中包含了過濾器鏈,而過濾器鏈的最後一鏈就是對介面實現類的呼叫。
- 初始化註冊中心,建立 Server(會有多個Server,因為可能配置了多個協議)。
- 將 config 和 invoker 註冊到 Server 中。內部是將其放進了一個 Map 中。
- 啟動 Server。啟動 Server 其實就是啟動 Netty 服務,並建立一個 RpcHandler,也就是 Netty 的 Handler,這個 RpcHandler 內部含有一個資料結構,包含介面級別的 invoker。所以,當請求進入的時候,RpcHandler 的 channelRead 方法會被呼叫,然後間接的呼叫 invoker 方法。
- 成功啟動後,註冊到註冊中心。將資料快取到 RpcRuntimeContext 的一個 Set 中。
一起來詳細看看。
Invoker 怎麼構造的?很簡單,最主要的就是過濾器。關於過濾器,我們之前已經寫過一篇文章了。不再贅述。
關鍵看看 Server 是如何構造的。
關鍵程式碼 serverConfig.buildIfAbsent()
,類似 HashMap 的 putIfAbsent。如果不存在就建立。
Server 介面目前有 2 個實現,bolt 和 rest。當然,Server 也是基於擴充套件的,所以,不用怕,可以隨便增加實現。
關鍵程式碼在 ServerFactory 的 getServer 中,其中會獲取擴充套件點的 Server,然後,執行 Server 的 init 方法,我們看看預設 bolt 的 init 方法。
@Override
public void init(ServerConfig serverConfig) {
this.serverConfig = serverConfig;
// 啟動執行緒池
bizThreadPool = initThreadPool(serverConfig);
boltServerProcessor = new BoltServerProcessor(this);
}
複製程式碼
儲存了 serverConfig 的引用,啟動了一個業務執行緒池,建立了一個 BoltServerProcessor 物件。
第一:這個執行緒池會在 Bolt 的 RpcHandler 中被使用,也就是說,複雜業務都是在這個執行緒池執行,不會影響 Netty 的 IO 執行緒。
第二:BoltServerProcessor 非常重要,他的構造方法包括了當前的 BoltServer,所以他倆是互相依賴的。關鍵點來了:
BoltServerProcessor 實現了 UserProcessor 介面,而 Bolt 的 RpcHandler 持有一個 Map<String, UserProcessor<?>>
,所以,當 RpcHandler 被執行 channelRead 方法的時候,一定會根據介面名稱找到對應的 UserProcessor,並執行他的 handlerRequest 方法。
那麼,RpcHandler 是什麼時候建立並放置到 RpcHandler 中的呢?
具體是這樣的:在 server.start()
執行的時候,該方法會初始化 Netty 的 Server,在 SOFA 中,叫 RpcServer,將 BoltServerProcessor 放置到名叫 userProcessors 的 Map 中。然後,當 RpcServer 啟動的時候,也就是 start 方法,會執行一個 init 方法,該方法內部就是設定 Netty 各種屬性的地方,包括 Hander,其中有 2 行程式碼對我們很重要:
final RpcHandler rpcHandler = new RpcHandler(true, this.userProcessors);
pipeline.addLast("handler", rpcHandler);
複製程式碼
建立了一個 RpcHandler,並新增到 pipeline 中,這個 Handler 的構造引數就是包含所有 BoltServerProcessor 的 Map。
所以,總的流程就是:
每個介面都會建立一個 providerConfig 物件,這個物件會建立對應的 invoker 物件(包含過濾器鏈),這兩個物件都會放到 BoltServer 的 invokerMap 中,而 BoltServer 還包含其他物件,比如 BoltServerProcessor(繼承 UserProcessor), RpcServer(依賴 RpcHandler)。當初始化 BoltServerProcessor 的時候,會傳入 this(BoltServer),當初始化 RpcServer 的時候,會傳入 BoltServerProcessor 到 RpcServer 的 Map 中。在 RpcHandler 初始化的時候,又會將 RpcServer 的 Map 傳進自己的內部。完成最終的依賴。
當請求進入,RpcHandler 呼叫對應的 UserProcessor 的 handlerRequest 方法,而該方法中,會呼叫對應的 invoker,invoker 呼叫過濾器鏈,知道呼叫真正的實現類。
而大概的 UML 圖就是下面這樣的:
紅色部分是 RPC 的核心,包含 Solt 的 Server,實現 UserProcessor 介面的 BoltServerProcessor,業務執行緒池,儲存所有介面實現的 Map。
綠色部分是 Bolt 的介面和類,只要實現了 UserProcessor 介面,就能將具體實現替換,也既是處理具體資料的邏輯。
最後,看看關鍵類 BoltServerProcessor ,他是融合 RPC 和 Bolt 的膠水類。
該類會註冊一個序列化器替代 Bolt 預設的。handleRequest 方法是這個類的核心方法。有很多邏輯,主要看這裡:
// 查詢服務
Invoker invoker = boltServer.findInvoker(serviceName);
// 真正呼叫
response = doInvoke(serviceName, invoker, request);
/**
* 找到服務端Invoker
*
* @param serviceName 服務名
* @return Invoker物件
*/
public Invoker findInvoker(String serviceName) {
return invokerMap.get(serviceName);
}
複製程式碼
根據服務名稱,從 Map 中找到服務,然後呼叫 invoker 的 invoker 方法。
再看看 Netty 到 BoltServerProcessor 的 handlerRequest 的呼叫鏈,使用 IDEA 的 Hierarchy 功能,檢視該方法,最後停留在 ProcessTast 中,一個 Runnable.
根據經驗,這個類肯定是被放到執行緒池了。什麼時候放的呢?看看他的構造方法的 Hierarchy。
從圖中可以看到 ,Bolt 的 RpcHandler 的 channelRead 最終會呼叫 ProcessTask 的 構造方法。
那麼 BoltServer 的使用者執行緒池什麼時候使用呢?還是使用 IDEA 的 Hierarchy 功能。
其實也是在這個過程中,當使用者沒有設定執行緒池,則使用系統執行緒池。
總結
好了,關於 SOFA 的服務釋出和服務的接收過程,就介紹完了,可以說,整個框架還是非常輕量級的。基本操作就是:內部通過在 Netty的 Handler 中儲存一個儲存服務實現的 Map 完成遠端呼叫。
其實和我們之前用 Netty 寫的小 demo 類似。