自適應負載均衡演算法原理與實現
背景
在選擇負載均衡演算法時,我們希望滿足以下要求:
- 具備分割槽和機房排程親和性
- 每次選擇的節點儘量是負載最低的
- 每次儘可能選擇響應最快的節點
- 無需人工干預故障節點
- 當一個節點有故障時,負載均衡演算法可以自動隔離該節點
- 當故障節點恢復時,能夠自動恢復對該節點的流量分發
基於這些考慮,go-zero
選擇了 p2c+EWMA
演算法來實現。
演算法的核心思想
p2c
p2c (Pick Of 2 Choices)
二選一: 在多個節點中隨機選擇兩個節點。
go-zero
中的會隨機的選擇 3 次,如果其中一次選擇的節點的健康條件滿足要求,就中斷選擇,採用這兩個節點。
EWMA
EWMA (Exponentially Weighted Moving-Average)
指數移動加權平均法: 是指各數值的加權係數隨時間呈指數遞減,越靠近當前時刻的數值加權係數就越大,體現了最近一段時間內的平均值。
-
公式:
-
變數解釋:
-
Vt
: 代表的是第t
次請求的EWMA值
-
Vt-1
: 代表的是第t-1
次請求的EWMA值
-
β
: 是一個常量
-
EWMA 演算法的優勢
- 相較於普通的計算平均值演算法,
EWMA
不需要儲存過去所有的數值,計算量顯著減少,同時也減小了儲存資源。 - 傳統的計算平均值演算法對網路耗時不敏感, 而
EWMA
可以通過請求頻繁來調節β
,進而迅速監控到網路毛刺或更多的體現整體平均值。- 當請求較為頻繁時, 說明節點網路負載升高了, 我們想監測到此時節點處理請求的耗時 (側面反映了節點的負載情況), 我們就相應的調小
β
。β
越小,EWMA值
就越接近本次耗時,進而迅速監測到網路毛刺; - 當請求較為不頻繁時, 我們就相對的調大
β值
。這樣計算出來的EWMA值
越接近平均值
- 當請求較為頻繁時, 說明節點網路負載升高了, 我們想監測到此時節點處理請求的耗時 (側面反映了節點的負載情況), 我們就相應的調小
β計算
go-zero
採用的是牛頓冷卻定律中的衰減函式模型計算 EWMA
演算法中的 β
值:
其中 Δt
為兩次請求的間隔,e
,k
為常數
gRPC 中實現自定義負載均衡器
-
首先我們需要實現
google.golang.org/grpc/balancer/base/base.go/PickerBuilder
介面, 這個介面是有服務節點更新的時候會呼叫介面裡的Build
方法type PickerBuilder interface { // Build returns a picker that will be used by gRPC to pick a SubConn. Build(info PickerBuildInfo) balancer.Picker }
-
還要實現
google.golang.org/grpc/balancer/balancer.go/Picker
介面。這個介面主要實現負載均衡,挑選一個節點供請求使用type Picker interface { Pick(info PickInfo) (PickResult, error) }
最後向負載均衡
map
中註冊我們實現的負載均衡器
go-zero 實現負載均衡的主要邏輯
- 在每次節點更新,
gRPC
會呼叫Build
方法,此時在Build
裡實現儲存所有的節點資訊。 -
gRPC
在獲取節點處理請求時,會呼叫Pick
方法以獲取節點。go-zero
在Pick
方法裡實現了p2c
演算法,挑選節點,並通過節點的EWMA值
計算負載情況,返回負載低的節點供gRPC
使用。 - 在請求結束的時候
gRPC
會呼叫PickResult.Done
方法,go-zero
在這個方法裡實現了本次請求耗時等資訊的儲存,並計算出了EWMA值
儲存了起來,供下次請求時計算負載等情況的使用。
負載均衡程式碼分析
- 儲存服務的所有節點資訊
我們需要儲存節點處理本次請求的耗時、EWMA
等資訊,go-zero
給每個節點設計瞭如下結構:
go
type subConn struct {
addr resolver.Address
conn balancer.SubConn
lag uint64 // 用來儲存 ewma 值
inflight int64 // 用在儲存當前節點正在處理的請求總數
success uint64 // 用來標識一段時間內此連線的健康狀態
requests int64 // 用來儲存請求總數
last int64 // 用來儲存上一次請求耗時, 用於計算 ewma 值
pick int64 // 儲存上一次被選中的時間點
}
-
p2cPicker
實現了balancer.Picker
介面,conns
儲存了服務的所有節點資訊type p2cPicker struct { conns []*subConn // 儲存所有節點的資訊 r *rand.Rand stamp *syncx.AtomicDuration lock sync.Mutex }
-
gRPC
在節點有更新的時候會呼叫Build
方法,傳入所有節點資訊,我們在這裡把每個節點資訊用subConn
結構儲存起來。並歸併到一起用p2cPicker
結構儲存起來func (b *p2cPickerBuilder) Build(info base.PickerBuildInfo) balancer.Picker { ...... var conns []*subConn for conn, connInfo := range readySCs { conns = append(conns, &subConn{ addr: connInfo.Address, conn: conn, success: initSuccess, }) } return &p2cPicker{ conns: conns, r: rand.New(rand.NewSource(time.Now().UnixNano())), stamp: syncx.NewAtomicDuration(), } }
-
隨機挑選節點資訊,在這裡分了三種情況:
- 只有一個服務節點,此時直接返回供
gRPC
使用即可 - 有兩個服務節點,通過
EWMA值
計算負載,並返回負載低的節點返回供gRPC
使用 - 有多個服務節點,此時通過
p2c
演算法選出兩個節點,比較負載情況,返回負載低的節點供gRPC
使用
主要實現程式碼如下:
switch len(p.conns) { case 0:// 沒有節點,返回錯誤 return emptyPickResult, balancer.ErrNoSubConnAvailable case 1:// 有一個節點,直接返回這個節點 chosen = p.choose(p.conns[0], nil) case 2:// 有兩個節點,計算負載,返回負載低的節點 chosen = p.choose(p.conns[0], p.conns[1]) default:// 有多個節點,p2c 挑選兩個節點,比較這兩個節點的負載,返回負載低的節點 var node1, node2 *subConn // 3次隨機選擇兩個節點 for i := 0; i < pickTimes; i++ { a := p.r.Intn(len(p.conns)) b := p.r.Intn(len(p.conns) - 1) if b >= a { b++ } node1 = p.conns[a] node2 = p.conns[b] // 如果這次選擇的節點達到了健康要求, 就中斷選擇 if node1.healthy() && node2.healthy() { break } } // 比較兩個節點的負載情況,選擇負載低的 chosen = p.choose(node1, node2) }
- 只有一個服務節點,此時直接返回供
-
load
計算節點的負載情況上面的
choose
方法會呼叫load
方法來計算節點負載。計算負載的公式是:
load = ewma * inflight
在這裡簡單解釋下:
ewma
相當於平均請求耗時,inflight
是當前節點正在處理請求的數量,相乘大致計算出了當前節點的網路負載。func (c *subConn) load() int64 { // 通過 EWMA 計算節點的負載情況; 加 1 是為了避免為 0 的情況 lag := int64(math.Sqrt(float64(atomic.LoadUint64(&c.lag) + 1))) load := lag * (atomic.LoadInt64(&c.inflight) + 1) if load == 0 { return penalty } return load }
-
請求結束,更新節點的
EWMA
等資訊- 把節點正在處理請求的總數減 1
- 儲存處理請求結束的時間點,用於計算距離上次節點處理請求的差值,並算出
EWMA
中的β值
- 計算本次請求耗時,並計算出
EWMA值
儲存到節點的lag
屬性裡 - 計算節點的健康狀態儲存到節點的
success
屬性中
func (p *p2cPicker) buildDoneFunc(c *subConn) func(info balancer.DoneInfo) { start := int64(timex.Now()) return func(info balancer.DoneInfo) { // 正在處理的請求數減 1 atomic.AddInt64(&c.inflight, -1) now := timex.Now() // 儲存本次請求結束時的時間點,並取出上次請求時的時間點 last := atomic.SwapInt64(&c.last, int64(now)) td := int64(now) - last if td < 0 { td = 0 } // 用牛頓冷卻定律中的衰減函式模型計算EWMA演算法中的β值 w := math.Exp(float64(-td) / float64(decayTime)) // 儲存本次請求的耗時 lag := int64(now) - start if lag < 0 { lag = 0 } olag := atomic.LoadUint64(&c.lag) if olag == 0 { w = 0 } // 計算 EWMA 值 atomic.StoreUint64(&c.lag, uint64(float64(olag)*w+float64(lag)*(1-w))) success := initSuccess if info.Err != nil && !codes.Acceptable(info.Err) { success = 0 } osucc := atomic.LoadUint64(&c.success) atomic.StoreUint64(&c.success, uint64(float64(osucc)*w+float64(success)*(1-w))) stamp := p.stamp.Load() if now-stamp >= logInterval { if p.stamp.CompareAndSwap(stamp, now) { p.logStats() } } } }
專案地址
https://github.com/tal-tech/go-zero
歡迎使用 go-zero
並 star 支援我們!
微信交流群
關注『微服務實踐』公眾號並點選 交流群 獲取社群群二維碼。
- 加微信實戰群請加微信(註明:實戰群):gocnio
相關文章
- 遊戲陪玩系統實現自適應負載均衡演算法的方式遊戲負載演算法
- 淺談負載均衡演算法與實現負載演算法
- 伺服器負載均衡原理及實現伺服器負載
- nginx實現負載均衡Nginx負載
- SpringCloud微服務中使用RestTemplate+Ribbon實現負載均衡(實現方法+實現原理+替換負載均衡策略)SpringGCCloud微服務REST負載
- GRPC 負載均衡實現RPC負載
- HaProxy 實現 MySQL 負載均衡MySql負載
- Ribbon實現負載均衡負載
- Oracle負載均衡實現方式Oracle負載
- Nginx + IIS 實現負載均衡Nginx負載
- SAP 應用服務負載均衡的實現負載
- 5大負載均衡演算法 (原理圖解)負載演算法圖解
- Consul-template+nginx實現自動負載均衡Nginx負載
- 解密負載均衡技術和負載均衡演算法解密負載演算法
- 負載均衡原理的解析負載
- WEBLOGIC負載均衡原理Web負載
- 負載均衡演算法負載演算法
- 【演算法】使用Golang實現加權負載均衡演算法演算法Golang負載
- 一篇有趣的負載均衡演算法實現負載演算法
- dubbo(三):負載均衡實現解析負載
- Nginx 動靜分離與負載均衡的實現Nginx負載
- 搞懂分散式技術9:Nginx負載均衡原理與實踐分散式Nginx負載
- Nginx 負載均衡原理解讀Nginx負載
- 基於gRPC的註冊發現與負載均衡的原理和實戰RPC負載
- 負載均衡的幾種演算法Java實現程式碼負載演算法Java
- 幾行程式碼實現負載均衡輪詢演算法行程負載演算法
- 多種負載均衡演算法及其Java程式碼實現負載演算法Java
- 多種負載均衡演算法及其 Java 程式碼實現負載演算法Java
- 負載均衡的演算法負載演算法
- orleans叢集及負載均衡實現負載
- Nginx如何實現四層負載均衡?Nginx負載
- Haproxy搭建 Web 群集實現負載均衡Web負載
- nginx+tomcat實現負載均衡NginxTomcat負載
- Nginx實現簡單的負載均衡Nginx負載
- Python實現簡單負載均衡Python負載
- 華納雲:伺服器負載均衡的原理和實現的方法伺服器負載
- 基於 gRPC 的服務註冊與發現和負載均衡的原理與實戰RPC負載
- Java實現負載均衡演算法--輪詢和加權輪詢Java負載演算法