服務監控之分散式追蹤一篇讀懂
現在越來越多的應用遷移到基於微服務的雲原生的架構之上,微服務架構很強大,但是同時也帶來了很多的挑戰,尤其是如何對應用進行除錯,如何監控多個服務間的呼叫關係和狀態。如何有效的對微服務架構進行有效的監控成為微服務架構運維成功的關鍵。 |
現在越來越多的應用遷移到基於微服務的雲原生的架構之上,微服務架構很強大,但是同時也帶來了很多的挑戰,尤其是如何對應用進行除錯,如何監控多個服務間的呼叫關係和狀態。如何有效的對微服務架構進行有效的監控成為微服務架構運維成功的關鍵。用軟體架構的語言來說就是要增強微服務架構的可觀測性(Observability)。
微服務的監控主要包含一下三個方面:
- 通過收集日誌,對系統和各個服務的執行狀態進行監控
- 通過收集量度(Metrics),對系統和各個服務的效能進行監控
- 通過分散式追蹤,追蹤服務請求是如何在各個分佈的元件中進行處理的細節
對於是日誌和量度的收集和監控,大家會比較熟悉。常見的日誌收集架構包含利用Fluentd對系統日誌進行收集,然後利用ELK或者Splunk進行日誌分析。而對於效能監控,Prometheus是常見的流行的選擇。
分散式追蹤正在被越來越多的應用所採用。分散式追蹤可以通過對微服務呼叫鏈的跟蹤,構建一個從服務請求開始到各個微服務互動的全部呼叫過程的檢視。使用者可以從中瞭解到諸如應用呼叫的時延,網路呼叫(HTTP,RPC)的生命週期,系統的效能瓶頸等等資訊。那麼分散式追蹤是如何實現的呢?
谷歌在2010年4月發表了一篇論文《Dapper, a Large-Scale Distributed Systems Tracing Infrastructure》(http://1t.click/6EB),介紹了分散式追蹤的概念。
對於分散式追蹤,主要有以下的幾個概念:
- 追蹤 Trace:就是由分佈的微服務協作所支撐的一個事務。一個追蹤,包含為該事務提供服務的各個服務請求。
- 跨度 Span:Span是事務中的一個工作流,一個Span包含了時間戳,日誌和標籤資訊。Span之間包含父子關係,或者主從(Followup)關係。
- 跨度上下文 Span Context:跨度上下文是支撐分散式追蹤的關鍵,它可以在呼叫的服務之間傳遞,上下文的內容包括諸如:從一個服務傳遞到另一個服務的時間,追蹤的ID,Span的ID還有其它需要從上游服務傳遞到下游服務的資訊。
基於谷歌提出的概念OpenTracing(http://1t.click/6tC)定義了一個開放的分散式追蹤的標準。
Span是分散式追蹤的基本組成單元,表示一個分散式系統中的單獨的工作單元。每一個Span可以包含其它Span的引用。多個Span在一起構成了Trace。
OpenTracing的規範定義每一個Span都包含了以下內容:
- 操作名(Operation Name),標誌該操作是什麼
- 標籤 (Tag),標籤是一個名值對,使用者可以加入任何對追蹤有意義的資訊
- 日誌(Logs),日誌也定義為名值對。用於捕獲除錯資訊,或者相關Span的相關資訊
- 跨度上下文呢 (SpanContext),SpanContext負責子微服務系統邊界傳遞資料。它主要包含兩部分:
- 和實現無關的狀態資訊,例如Trace ID,Span ID
- 行李項 (Baggage Item)。如果把微服務呼叫比做從一個城市到另一個城市的飛行, 那麼SpanContext就可以看成是飛機運載的內容。Trace ID和Span ID就像是航班號,而行李項就像是運送的行李。每次服務呼叫,使用者都可以決定傳送不同的行李。
這裡是一個Span的例子:
t=0 operation name: db_query t=x +-----------------------------------------------------+ | · · · · · · · · · · Span · · · · · · · · · · | +-----------------------------------------------------+ Tags: - db.instance:"jdbc:mysql://127.0.0.1:3306/customers - db.statement: "SELECT * FROM mytable WHERE foo='bar';" Logs: - message:"Can't connect to mysql server on '127.0.0.1'(10061)" SpanContext: - trace_id:"abc123" - span_id:"xyz789" - Baggage Items: - special_id:"vsid1738"
要實現分散式追蹤,如何傳遞SpanContext是關鍵。OpenTracing定義了兩個方法Inject和Extract用於SpanContext的注入和提取。
Inject 虛擬碼
span_context = ... outbound_request = ... # We'll use the (builtin) HTTP_HEADERS carrier format. We # start by using an empty map as the carrier prior to the # call to `tracer.inject`. carrier = {} tracer.inject(span_context, opentracing.Format.HTTP_HEADERS, carrier) # `carrier` now contains (opaque) key:value pairs which we pass # along over whatever wire protocol we already use. for key, value in carrier: outbound_request.headers[key] = escape(value)
這裡的注入的過程就是把context的所有資訊寫入到一個叫Carrier的字典中,然後把字典中的所有名值對寫入 HTTP Header。
inbound_request = ... # We'll again use the (builtin) HTTP_HEADERS carrier format. Per the # HTTP_HEADERS documentation, we can use a map that has extraneous data # in it and let the OpenTracing implementation look for the subset # of key:value pairs it needs. # # As such, we directly use the key:value `inbound_request.headers` # map as the carrier. carrier = inbound_request.headers span_context = tracer.extract(opentracing.Format.HTTP_HEADERS, carrier) # Continue the trace given span_context. E.g., span = tracer.start_span("...", child_of=span_context) # (If `carrier` held trace data, `span` will now be ready to use.)
抽取過程是注入的逆過程,從carrier,也就是HTTP Headers,構建SpanContext。
整個過程類似客戶端和伺服器傳遞資料的序列化和反序列化的過程。這裡的Carrier字典支援Key為string型別,value為string或者Binary格式(Bytes)。
好了講了一大堆的概念,作為程式猿的你早已經不耐煩了,不要講那些有的沒的,快上程式碼。不急我們這就看看具體如何使用Tracing。
我們用一個程式猿喜聞樂見的列印‘hello world’的Python應用來說明OpenTracing是如何工作的。
import requests import sys import time from lib.tracing import init_tracer from opentracing.ext import tags from opentracing.propagation import Format def say_hello(hello_to): with tracer.start_active_span('say-hello') as scope: scope.span.set_tag('hello-to', hello_to) hello_str = format_string(hello_to) print_hello(hello_str) def format_string(hello_to): with tracer.start_active_span('format') as scope: hello_str = http_get(8081, 'format', 'helloTo', hello_to) scope.span.log_kv({'event': 'string-format', 'value': hello_str}) return hello_str def print_hello(hello_str): with tracer.start_active_span('println') as scope: http_get(8082, 'publish', 'helloStr', hello_str) scope.span.log_kv({'event': 'println'}) def http_get(port, path, param, value): url = 'http://localhost:%s/%s' % (port, path) span = tracer.active_span span.set_tag(tags.HTTP_METHOD, 'GET') span.set_tag(tags.HTTP_URL, url) span.set_tag(tags.SPAN_KIND, tags.SPAN_KIND_RPC_CLIENT) headers = {} tracer.inject(span, Format.HTTP_HEADERS, headers) r = requests.get(url, params={param: value}, headers=headers) assert r.status_code == 200 return r.text # main assert len(sys.argv) == 2 tracer = init_tracer('hello-world') hello_to = sys.argv[1] say_hello(hello_to) # yield to IOLoop to flush the spans time.sleep(2) tracer.close()
客戶端完成了以下的工作:
- 初始化Tracer,trace的名字是‘hello-world’
- 建立以個客戶端操作say_hello,該操作關聯一個Span,取名‘say-hello’,並呼叫span.set_tag加入標籤
- 在操作say_hello中呼叫第一個HTTP 服務A,format_string, 該操作關聯另一個Span取名‘format’,並呼叫span.log_kv加入日誌
- 之後呼叫另一個HTTP 服務B,print_hello, 該操作關聯另一個Span取名‘println’,並呼叫span.log_kv加入日誌
- 對於每一個HTTP請求,在Span中都加入標籤,標誌http method,http url和span kind。並呼叫tracer.inject把SpanContext注入到http header 中。
from flask import Flask from flask import request from lib.tracing import init_tracer from opentracing.ext import tags from opentracing.propagation import Format app = Flask(__name__) tracer = init_tracer('formatter') @app.route("/format") def format(): span_ctx = tracer.extract(Format.HTTP_HEADERS, request.headers) span_tags = {tags.SPAN_KIND: tags.SPAN_KIND_RPC_SERVER} with tracer.start_active_span('format', child_of=span_ctx, tags=span_tags): hello_to = request.args.get('helloTo') return 'Hello, %s!' % hello_to if __name__ == "__main__": app.run(port=8081)
服務A響應format請求,呼叫tracer.extract從http headers中提取資訊,構建spanContext。
from flask import Flask from flask import request from lib.tracing import init_tracer from opentracing.ext import tags from opentracing.propagation import Format app = Flask(__name__) tracer = init_tracer('publisher') @app.route("/publish") def publish(): span_ctx = tracer.extract(Format.HTTP_HEADERS, request.headers) span_tags = {tags.SPAN_KIND: tags.SPAN_KIND_RPC_SERVER} with tracer.start_active_span('publish', child_of=span_ctx, tags=span_tags): hello_str = request.args.get('helloStr') print(hello_str) return 'published' if __name__ == "__main__": app.run(port=8082)
服務B和A類似。
之後在支援分散式追蹤的軟體UI上(下圖是Jaeger UI),就可以看到類似下圖的追蹤資訊。我們可以看到服務hello-word和三個操作say-hello/format/println的詳細追蹤資訊。
當前有很多分散式追蹤軟體都提供了OpenTracing的支援,包括:Jaeger,LightStep,Instanna,Apache SkyWalking,inspectIT,stagemonitor,Datadog,Wavefront,Elastic APM等等。其中作為開源軟體的Zipkin(http://1t.click/6Ec)和Jaeger(http://1t.click/6DY)最為流行。
Zipkin
Zipkin(http://1t.click/6Ec)是Twitter基於Dapper開發的分散式追蹤系統。它的設計架構如下圖:
- 藍色實體是Zipkin要追蹤的目標元件,Non-Intrumented Server表示不直接呼叫Tracing API的微服務。通過Intrumented Client從Non-Intrumented Server中收集資訊併傳送給Zipkin的收集器Collector。Intrumented Server 直接呼叫Tracing API,傳送資料到Zipkin的收集器。
- Transport是傳輸通道,可以通過HTTP直接傳送到Zipkin或者通過訊息/事件佇列的方式。
- Zipkin本身是一個Java應用,包含了:收集器Collector負責資料採集,對外提供資料介面;儲存;API和UI。
Zipkin的使用者介面像這個樣子:
Zipkin官方支援以下幾種語言的客戶端:C#,Go,Java,JavaScript,Ruby,Scala,PHP。開源社群也有其它語言的支援。
Zipkin發展到現在有快4年的時間,是一個相對成熟的專案。更多知識請關注《Linux就該這麼學》
Jaeger(http://1t.click/6DY)最早是由Uber開發的分散式追蹤系統,同樣基於Dapper的設計理念。現在Jaeger是CNCF(Cloud Native Computing Foundation)的一個專案。如果你對CNCF這個組織有所瞭解,那麼你可以推測出這個專案應該和Kubernetes有非常緊密的整合。
Jaeger基於分散式的架構設計,主要包含以下幾個元件:
- Jaeger Client,負責在客戶端收集跟蹤資訊。
- Jaeger Agent,負責和客戶端通訊,把收集到的追蹤資訊上報個收集器 Jaeger Collector
- Jaeger Colletor把收集到的資料存入資料庫或者其它儲存器
- Jaeger Query 負責對追蹤資料進行查詢
- Jaeger UI負責使用者互動
這個架構很像ELK,Collector之前類似Logstash負責採集資料,Query類似Elastic負責搜尋,而UI類似Kibana負責使用者介面和互動。這樣的分散式架構使得Jaeger的擴充套件性更好,可以根據需要,構建不同的部署。
Jaeger作為分散式追蹤的後起之秀,隨著雲原生和K8s的廣泛採用,正變得越來越流行。利用官方給出的K8s部署模版(http://1t.click/6DU),使用者可以快速的在自己的k8s叢集上部署Jaeger。
當然除了支援OpenTracing標準的產品之外,還有其它的一些分散式追蹤產品。這裡引用一些其它博主的分析,給大家一些參考:
- 呼叫鏈選型之Zipkin,Pinpoint,SkyWalking,CAT(http://1t.click/6tY)
- 分散式呼叫鏈調研(pinpoint,skywalking,jaeger,zipkin等對比)(http://1t.click/6DK)
- 分散式跟蹤系統——產品對比(http://1t.click/6ug)
在微服務大行其道,雲原生成為架構設計的主流的情況下,微服務系統監控,包含日誌,指標和追蹤成為了系統工程的重中之重。OpenTracing基於Dapper的分散式追蹤設計理念,定義了分散式追蹤的實現標準。在開源專案中,Zipkin和Jaeger是相對優秀的選擇。尤其是Jaeger,由於對雲原生框架的良好整合,是構建微服務追蹤系統的必備良器。
來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/31559985/viewspace-2654784/,如需轉載,請註明出處,否則將追究法律責任。
相關文章
- 分散式服務呼叫鏈追蹤分散式
- SkyWalking —— 分散式應用監控與鏈路追蹤分散式
- OpenTelemetry分散式追蹤分散式
- 一文讀懂鏈路追蹤
- 分散式鏈路追蹤技術分散式
- zipkin分散式鏈路追蹤介紹分散式
- 分散式鏈路追蹤的利器——Zipkin分散式
- 分散式應用追蹤系統 - Skywalking分散式
- 讓你的Nginx支援分散式追蹤Nginx分散式
- 分散式監控系統之Zabbix proxy分散式
- 微服務追蹤SQL(支援Isto管控下的gorm查詢追蹤)微服務SQLGoORM
- Java後端分散式系統的服務監控:Zabbix與NagiosJava後端分散式iOS
- 分散式鏈路追蹤之Spring Cloud Sleuth+Zipkin最全教程!分散式SpringCloud
- BOS分散式鏈路追蹤產品揭秘分散式
- 分散式監控系統之Zabbix基礎分散式
- 像跟蹤分散式服務呼叫那樣跟蹤 Go 函式呼叫鏈分散式Go函式
- 架構設計 | 分散式體系下,服務分層監控策略架構分散式
- 分散式系統中的分散式鏈路追蹤與分散式呼叫鏈路分散式
- 分散式監控系統之Zabbix主動、被動及web監控分散式Web
- Dubbo 整合 Pinpoint 做分散式服務請求跟蹤分散式
- go-kit微服務:服務鏈路追蹤Go微服務
- 分散式監控系統之Zabbix基礎使用分散式
- [分散式]--Dubbo分散式服務框架-服務治理分散式框架
- 服務監控工具
- 微服務追蹤SQL上報至Jaeger(支援Istio管控下的gorm查詢追蹤)微服務SQLGoORM
- 分散式鏈路追蹤Jaeger + 微服務Pig在Rainbond上的實踐分享分散式微服務AI
- SpringCloud分散式微服務雲架構第九篇: 服務鏈路追蹤(Finchley版本)SpringGCCloud分散式微服務架構
- OpenTracing——設計分散式追蹤系統的有效方法分散式
- 分散式鏈路追蹤自從用了SkyWalking,睡得真香!分散式
- 分散式鏈路追蹤框架的基本實現原理分散式框架
- 分散式監控系統之Zabbix網路發現分散式
- 一文讀懂clickhouse叢集監控
- Ubuntu下監控服務Ubuntu
- PHP 微服務之【分散式事務】閱讀提示PHP微服務分散式
- PHP 微服務之 [分散式事務] 閱讀提示PHP微服務分散式
- spring cloud構建網際網路分散式微服務雲平臺-服務鏈路追蹤SpringCloud分散式微服務
- Go微服務框架go-kratos實戰05:分散式鏈路追蹤 OpenTelemetry 使用Go微服務框架分散式
- SpringCloud分散式微服務雲架構 | 第十一篇: 斷路器監控SpringGCCloud分散式微服務架構