gRPC-rs:從 C 到 Rust

PingCAP發表於2019-03-03

介紹

上篇文章中,我們講到 TiKV 為了支援 gRPC,我們造了個輪子 gRPC-rs,這篇文章簡要地介紹一下這個庫。首先我們來聊聊什麼是 gRPC。gRPC 是 Google 推出的基於 HTTP2 的開源 RPC 框架,希望通過它使得各種微服務之間擁有統一的 RPC 基礎設施。它不僅支援常規的平臺如 Linux,Windows,還支援移動裝置和 IoT,現有十幾種語言的實現,現在又多了一種語言 Rust。

gRPC 之所以有如此多的語言支援,是因為它有一個 C 寫的核心庫(gRPC core),因此只要某個語言相容 C ABI,那麼就可以通過封裝,寫一個該語言的 gRPC 庫。Rust 對 C 有良好的支援,gRPC-rs 就是對 gRPC core ABI 的 Rust 封裝。

Core 能非同步處理 RPC 請求,在考慮到 Rust 中已有較為成熟的非同步框架 Futures,我們決定將 API 設計成 Future 模式。

gRPC-rs 架構圖

我們將根據架構圖從底向上地講一下,在上一篇文章中已經討論過傳輸層和協議,在這就不再贅述。

gRPC Core

Core 中有幾個比較重要的物件:

  • Call 以及 4 種型別 RPC: Call 代表了一次 RPC,可以派生出四種型別 RPC,

    • Unary: 這是最簡單的一種 RPC 模式,即一問一答,客戶端傳送一個請求,服務端返回一個回覆,該輪 RPC 結束。
    • Client streaming: 這類的 RPC 會建立一個客戶端到服務端的流,客戶端可以通過這個流,向服務端傳送多個請求,而服務端只會返回一個回覆。
    • Server streaming: 與上面的類似,不過它會建立一個服務端到客戶端的流,服務端可以傳送多個回覆,
    • Bidirectional streaming: 如果說上面兩類是單工,那麼這類就是雙工了,客戶端和服務端可以同時向對方傳送訊息。

      值得一提的是由於 gRPC 基於 HTTP2,它利用了 HTTP2 多路複用特性,使得一個 TCP 連線上可以同時進行多個 RPC,一次 RPC 即為 HTTP2 中的一個 Stream。

  • Channel: 它是對底層連結的抽象,具體來說一個 Channel 就是一條連著遠端伺服器的 TCP 連結。

  • Server: 顧名思義,它就是 gRPC 服務端封裝,可以在上面註冊我們的服務。
  • Completion queue: 它是 gRPC 完成事件佇列,事件可以是收到新的回覆,可以是新來的請求。

簡要介紹一下 Core 庫的實現,Core 中有一個 Combiner 的概念,Combiner 中一個函式指標或稱組合子(Combinator)佇列。每個組合子都有特定的功能,通過不同的組合可以實現不同的功能。下面的偽碼大概說明了 Combiner 的工作方式。

class combiner {
  mpscq q; // multi-producer single-consumer queue can be made non-blocking
  state s; // is it empty or executing

  run(f) {
    if (q.push(f)) {
      // q.push returns true if it`s the first thing
      while (q.pop(&f)) { // modulo some extra work to avoid races
        f();
      }
    }
  }
}複製程式碼

Combiner 裡面有一個 mpsc 的無鎖佇列 q,由於 q 只能有一個消費者,這就要求在同一時刻只能有一個執行緒去呼叫佇列裡面的各個函式。呼叫的入口是 run() 方法,在 run() 中各個函式會被序列地執行。當取完 q 時,該輪呼叫結束。假設一次 RPC 由六個函式組成,這樣的設計使這組函式(RPC)可以在不同的執行緒上執行,這是非同步化 RPC 的基礎。

Completion queue(以下簡稱 CQ)就是一個 Combiner,它暴露出了一個 next()藉口,相當於 Combiner 的 run()。由於介面的簡單,Core 內部不用開啟額外執行緒,只要通過外部不斷呼叫 next() 就能驅動整個 Core。

所有的 HTTP2 處理,Client 的 RPC 請求和 Server 的 RPC 連線全是通過一個個組合子的不同組合而構成的。下面是一次 Unary 的程式碼。它由6個組合子組成,這些組合子作為一個 batch 再加上 Call 用於記錄狀態,兩者構成了這次的 RPC。

grpc_call_error grpcwarp_call_start_unary(
    grpc_call *call, grpcsharp_batch_context *tag) {

  grpc_op ops[6];
  ops[0].op = GRPC_OP_SEND_INITIAL_METADATA;
  ...
  ops[1].op = GRPC_OP_SEND_MESSAGE;
  ...
  ops[2].op = GRPC_OP_SEND_CLOSE_FROM_CLIENT;
  ...
  ops[3].op = GRPC_OP_RECV_INITIAL_METADATA;
  ...
  ops[4].op = GRPC_OP_RECV_MESSAGE;
  ...
  ops[5].op = GRPC_OP_RECV_STATUS_ON_CLIENT;

  return grpcwrap_call_start_batch(call, ops, tag);
}複製程式碼

用 Rust 封裝 Core

介紹完 Core,現在說一下如何用 Rust 封裝它。這一層封裝並不會產生額外的開銷,不像有的語言在呼叫 C 時會有型別的轉換或者 runtime 會有較大開銷,在 Rust 中開銷微乎其微,這得益於 Rust 用 llvm 做編譯器後端,它對 C 有良好的支援,Rust 呼叫 C ABI 就像呼叫一個普通的函式,可以做到 Zero-cost。

同時用 Rust 封裝 C ABI 是一件很簡單的事情,簡單到像黑魔法。比如封裝 CQ next():

C:

grpc_event grpc_completion_queue_next(grpc_completion_queue *cq,
                                      gpr_timespec deadline,
                                      void *reserved);複製程式碼

Rust:

extern "C" {
  pub fn grpc_completion_queue_next(cq: *mut GrpcCompletionQueue,
                                    deadline: GprTimespec,
                                    reserved: *mut c_void)
                                    -> GrpcEvent;
}複製程式碼

接著我們看看如何封裝 C 的型別。繼續以 next() 為例子:

C:

// CQ 指標
grpc_completion_queue *cq;

// grpc_event 結構體
struct grpc_event {
  grpc_completion_type type;
  int success;
  void *tag;
};複製程式碼

Rust:

pub enum GrpcCompletionQueue {}

#[repr(C)]
pub struct GrpcEvent {
    pub event_type: GrpcCompletionType,
    pub success: c_int,
    pub tag: *mut c_void,
}複製程式碼

CQ 在 Core 的 ABI 中傳遞的形式是指標,Rust Wraper 無須知道 CQ 具體的內部結構。對於這種情況,Rust 推薦用無成員的列舉體表示,具體好處有兩個,第一,由於沒有成員,我們無法在 Rust 中構建該列舉體的例項,第二,Type safe,當傳遞了一個錯誤型別的指標時編譯器會報錯。

#[repr(C)] 也是 Rust 的黑魔法之一。加上了這個標籤的結構體,在記憶體中的佈局和對齊就和 C 一樣了,這樣的結構體可以安全地傳遞給 C ABI。

Futures in gRPC-rs

經過上一節的封裝,我們已經得到了一個可用但是非常裸的 Rust gRPC 庫了,grpc-sys。在實踐中,我們不推薦直接用 grpc-sys,直接用它就像在 Rust 中寫 C 一樣,事倍功半,Rust 語言的諸多特性無法得到施展,例如泛型,Trait,Ownership 等,也無法融入 Rust 社群。

上面說過 Core 能非同步處理 RPC,那麼如何用 Rust 來做更好的封裝呢? Futures!它是一個成熟的非同步程式設計庫,同時有一個活躍的社群。 Futures 非常適用於 RPC 等一些 IO 操作頻繁的場景。Futures 中也有組合子概念,和 Core 中的類似,但是使用上更加方便,也更加好理解。舉一個栗子:

use futures::{future, Future};

fn double(i: i64) -> i64 { i * 2 }

let ans = future::ok(1)
              .map(double)
              .and_then(|i| Ok(40 + i));

println!("{:?}", ans.wait().unwrap());複製程式碼

你覺得輸出的答案是多少呢?沒錯就是 42。在 Core 那節說過不同的組合子組織在一起可以幹不同的事,在 Future 中我們可以這麼理解,一件事可以分成多個步驟,每個步驟由一個組合子完成。比如上例,map 完成了翻倍的動作,and_then 將輸入加上 40。 現在來看看 gRPC-rs 封裝的 API。

// helloworld.proto
service Greeter {
    // An unary RPC, sends a greeting
    rpc SayHello (HelloRequest) returns (HelloReply) {}
}

impl GreeterClient {
    pub fn say_hello_async(&self, req: HelloRequest) -> ClientUnaryReceiver<HelloReply> {
        self.client.unary_call_async(&METHOD_GREETER_SAY_HELLO, req, CallOption::default())
    }
    ...
}複製程式碼

helloworld.proto 為例,GreeterClient::say_hello_async() 向遠端 Server 傳送一個請求 (HelloRequest),Server 返回給一個結果 (HelloReply)。由於是非同步操作,這個函式會立即返回,返回的 ClientUnaryReceiver 實現了 Future,當它完成時就會得到 HelloReply。在一般的非同步程式設計中都會有 Callback,用於處理非同步的返回值,在這個 RPC 中就是 HelloReply,在 Future 中可以用組合子來寫,比如 and_then,再舉一個栗子,現有一次完整的 RPC 邏輯,拿到回覆後列印到日誌。下面就是 gRPC-rs 的具體用法。

// 同步
let resp = client.say_hello(req);
println!("{:?}", resp);

// 非同步
let f = client.say_hello_async(req)
              .and_then(|resp| {
                  println!("{:?}", resp);
                  Ok(())
              });
executer.spawn(f); // 類似 Combiner,
                   // 用於非同步執行 Future,
                   // 常用的有 tokio-core。複製程式碼

Unary RPC

gRPC-rs 根據 service 在 proto 檔案中的定義生成對應的程式碼,包括 RPC 方法的定義(Method)、客戶端和服務端程式碼,生成的程式碼中會使用 gRPC-rs 的 API。那麼具體是怎麼做的呢?這節還是以 helloworld.proto 為例,來講講客戶端 Unary RPC 具體的實現。首先,SayHelloMethod 記錄了 RPC 型別,全稱以及序列化反序列化函式。為什麼要序列化反序列化函式呢?因為 Core 本身不涉及訊息的序列化,這一部分交由封裝層解決。在生成的客戶端中可以會呼叫 gRPC-rs 的 API,根據 Method 的定義發起 RPC。

// 生成的程式碼
const METHOD_GREETER_SAY_HELLO: Method<HelloRequest, HelloReply> = Method {
    ty: MethodType::Unary,
    name: "/helloworld.Greeter/SayHello",
    req_mar: Marshaller { ser: pb_ser, de: pb_de },
    resp_mar: Marshaller { ser: pb_ser, de: pb_de },
};

impl GreeterClient {
    // An unary RPC, sends a greeting
    pub fn say_hello_async(&self, req: HelloRequest)
                           -> ClientUnaryReceiver<HelloReply> {
        self.client.unary_call_async(&METHOD_GREETER_SAY_HELLO, req)
    }
    ...
}

// gRPC-rs 的 API。該函式立即返回,不會等待 RPC 完成。省略部分程式碼。
pub fn unary_async<P, Q>(channel: &Channel,
                         method: &Method<P, Q>,
                         req: P)
                         -> ClientUnaryReceiver<Q> {
    let mut payload = vec![];
    (method.req_ser())(&req, &mut payload);            // 序列化訊息
    let call = channel.create_call(method, &opt);      // 新建 Call
    let cq_f = unsafe {
        grpc_sys::grpcwrap_call_start_unary(call.call, // 發起 RPC
                                            payload,
                                            tag)
    };
    ClientUnaryReceiver::new(call, cq_f, method.resp_de()) // 收到回覆後再反序列化
}複製程式碼

寫在最後

這篇簡單介紹了 gRPC Core 的實現和 gRPC-rs 的封裝,詳細的用法,在這就不做過多介紹了,大家如果感興趣可以檢視 examples。 gRPC-rs 深入使用了 Future,裡面有很多神奇的用法,比如 Futures in gRPC-rs 那節最後的 executer, gRPC-rs 利用 CQ 實現了一個能併發執行 Future 的 executer(類似 furtures-rs 中的 Executer),大幅減少 context switch,效能得到了顯著提升。如果你對 gRPC 和 rust 都很感興趣,歡迎參與開發,目前還有一些工作沒完成,詳情請點選 github.com/pingcap/grp…

參考資料:

gRPC open-source universal RPC framework

The rust language implementation of gRPC

Hypertext Transfer Protocol Version 2 (HTTP/2)

Zero-cost Futures in Rust

深入瞭解 gRPC:協議

gRPC, Combiner Explanation

Rust, Representing opaque structs

Rust repr(), alternative representations

gRPC – A solution for RPCs by Google

Tokio, A platform for writing fast networking code with Rust.

作者:沈泰寧

相關文章