記一次引入Elasticsearch的系統架構實戰

陳珙發表於2021-12-27

前言

  我曾經面試安踏的技術崗,當時面試官問了我一個問題:如果你想使用某個新技術但是領導不願意,你怎麼辦?

  對於該問題我相信大家就算沒有面試被問到過,現實工作中同事之間的合作也會遇到。 

因此從我的角度重新去回答這個問題,有以下幾點:

  1.師出有名,在軟體工程裡是針對問題場景提供解決方案的,如果脫離的實際問題(需求)去做技術選型,無疑是耍流氓。大家可以回顧身邊的“架構師”、“技術Leader”是不是拍拍腦袋做決定,問他們為什麼這麼做,可能連個冠冕堂皇的理由都給不出。

  2.信任度,只有基於上面的條件,你才有理由建議引入新技術。領導願不願意引入新技術有很多原因:領導不瞭解這技術、領導偏保守、領導不是做技術的等。那麼我認為這幾種都是信任度,這種信任度分人和事,人就是引入技術的提出者,事就是提出引入的技術。

  3.盡人事,任何問題只是單純解決都是簡單的,以我以往的做法,把基本資料收集全並以通俗易懂的方式歸納與講解,最好能提供一些能量化的資料,這樣更加有說服力。知識普及OK後,就可以嘗試寫方案與做個Demo,方案最好可以提供多個,可以分短期收益與長期收益的。完成上面幾點可以說已經盡人事了,如果領導還不答應那麼的確有他的顧慮,就算無法落實,到目前為止的收穫也不錯。

  4.複雜的是人,任何人都無法時刻站在理智與客觀的角度去看待問題,事是由人去辦的,所以同一件事由不同的人說出來的效果也不一樣。因此得學會向上管理、保持與同事之間合作融洽度,儘早的建立合作信任。本篇文章更多敘述的事,因此人方面不過多深究,有興趣的我可以介紹一本書《知行 技術人的管理之路》。

  本篇我的實踐做法與上述一樣,除了4無法體現。那麼下文我分了4大模組:業務背景介紹基礎概念講解方案的選用技術細節

  該篇文章不包含程式碼有8000多千字,花了我3天時間寫,可能需要您花10分鐘慢慢閱讀,我承諾大家正文裡面細節滿滿

  曾有朋友建議我拆開來寫,但是我的習慣還是希望以一篇文章,這樣更加系統化的展示給大家。當然大家有什麼建議也可以在下方留言給我。

  部分原始碼,我放到了https://github.com/SkyChenSky/Sikiro 的Sikiro.ES.Api裡

背景

  本公司多年以來用SQL Server作為主儲存,隨著多年的業務發展,已經到了數千萬級的資料量。

  而部分非核心業務原本應該超億的量級了,但是因為從物理表的設計優化上進行了資料壓縮,導致維持在一個比較穩定的數量。壓縮資料雖然能減少儲存量,優化提供一定的效能,但是同時帶來的損失了業務可擴充套件性。舉個例子:我們平臺某個使用者擁有最後訪問作品記錄總的閱讀時長,但是沒有某個使用者的閱讀明細,那麼這樣的設計就會導致後續新增一個抽獎業務,需要在某個時間段內閱讀了多長時間或者章節數量的作品,才能參加與抽獎;或者運營想通過閱讀記錄統計或者分析出,使用者的愛好受歡迎的作品。現有的設計對以上兩種業務情況都是無法滿足的。

  此外我們平臺還有作品搜尋功能,like ‘%搜尋%’查詢是不走索引的而走全表掃描,一張表42W全表掃描,資料庫伺服器配置可以的情況下還是可以的,但是存在併發請求時候,資源消耗就特別厲害了,特別是在偶爾被爬蟲爬取資料。(我們平臺API的併發峰值能達到8w/s,每天的介面在淡季請求次數達到了1億1千萬)

  關係型資料庫擁有ACID特性,能通過金融級的事務達成資料的一致性,然而它卻沒有橫向擴充套件性,只要在海量資料場景下,單例項,無論怎麼在關係型資料庫做優化,都是隻是治標。而NoSQL的出現很好的彌補了關係型資料庫的短板,在馬丁福勒所著的《NoSQL精粹》對NoSQL進行了分類:文件型、圖形、列式,鍵值,從我的角度其實可以把搜尋引擎納入NoSQL範疇,因為它的確滿足的NoSQL的4大特性:易擴充套件、大資料量高效能、靈活的資料模型、高可用。我看過一些同行的見解,把Elasticsearch歸為文件型NoSQL,我個人是沒有給他下過於明確的定義,這個上面說法大家見仁見智。

  MongoDB作為文件型資料庫也屬於我的技術選型範圍,它的讀寫效能高且平衡、資料分片與橫向擴充套件等都非常適合我們平臺部分場景,最後我還是選擇Elasticsearch。原因有三:

  1. 我們運維相比於MongoDB更熟悉Elasticsearch。
  2. 我們接下來有一些統計報表類的需求,Elastic Stack的各種工具能很好滿足我們的需求。
  3. 我們目前著手處理的場景以非實時、純讀為主的業務,Elasticsearch近實時搜尋已經能滿足我們。

Elasticsearch優缺點

百度百科 :

Elasticsearch是一個基於Lucene的搜尋伺服器。它提供了一個分散式多使用者能力的全文搜尋引擎,基於RESTful web介面。Elasticsearch由Java語言開發的,是一種流行的企業級搜尋引擎。Elasticsearch用於雲端計算中,能夠達到實時搜尋,穩定,可靠,快速,安裝使用方便。官方客戶端在Java、.NET(C#)、PHP、Python、Apache Groovy、Ruby和許多其他語言中都是可用的。

  對於滿足當下的業務需求和未來支援海量資料的搜尋,我選擇了Elasticsearch,其實原因主要以下幾點:

優點 描述
橫向可擴充套件性 可單機、可叢集,橫向擴充套件非常簡單方便,自動整理資料分片
索引被分為多個分片(Shard),利用多臺伺服器,使用了分而治之的思想提升處理效率
支援搜尋多樣化 與傳統關係型資料庫相比,ES提供了全文檢索、同義詞處理、相關度排名、複雜資料分析、海量資料的近實時處理等功能
高可用 提供副本(Replica)機制,一個分片可以設定多個副本,假如某伺服器當機後,叢集仍能正常工作。
開箱即用 簡易的運維部署,提供基於Restful API,多種語言的SDK

  那麼我個人認為Elasticsearch比較大的缺點只有 吃記憶體,具體原因可以看下文記憶體讀取部分。

Elasticsearch為什麼快?

我個人對於Elasticsearch快的原因主要總結三點:

  • 記憶體讀取
  • 多種索引
    • 倒排索引  
    • doc values
  • 叢集分片

記憶體讀取

  Elasticsearch是基於Lucene, 而Lucene被設計為可以利用作業系統底層機制來快取記憶體資料結構,換句話說Elasticsearch是依賴於作業系統底層的 Filesystem Cache,查詢時,作業系統會將磁碟檔案裡的資料自動快取到 Filesystem Cache 裡面去,因此要求Elasticsearch效能足夠高,那麼就需要伺服器的提供的足夠記憶體給Filesystem Cache 覆蓋儲存的資料

  上一段最後一句話什麼意思呢?假如:Elasticsearch 節點有 3 臺伺服器各64G記憶體,3臺總記憶體就是 64 * 3 = 192G。每臺機器給 Elasticsearch  jvm heap 是 32G,那麼每伺服器留給 Filesystem Cache 的就是 32G(50%),而叢集裡的 Filesystem Cache 的就是 32 * 3 = 96G 記憶體。此時,在 3 臺Elasticsearch伺服器共佔用了 1T 的磁碟容量,那麼每臺機器的資料量約等於 341G,意味著每臺伺服器只有大概10分之1資料是快取在記憶體的,其餘都得走硬碟。

  說到這裡大家未必會有一個直觀得認識,因此我從《大型網站技術架構:核心原理與案例分析》第36頁摳了一張表格下來:

操作 響應時間
開啟一個網站 幾秒
在資料庫中查詢一條記錄(有索引) 十幾毫秒
機械磁碟一次定址定位 4毫秒
從機械磁碟順序讀取1MB資料 2毫秒
從SSD磁碟順序讀取1MB資料 0.3毫秒
從遠端分散式快取Redis讀取一個資料 0.5毫秒
從記憶體中讀取1MB資料 十幾微秒
Java程式本地方法呼叫 幾微秒
網路傳輸2KB資料 1微秒

   從上圖加粗項看出,記憶體讀取效能是機械磁碟的200倍,是SSD磁碟約等於30倍,假如讀一次Elasticsearch走記憶體場景下耗時20毫秒,那麼走機械硬碟就得4秒,走SSD磁碟可能約等於0.6秒。講到這裡我相信大家對是否走記憶體的效能差異有一個直觀的認識。

對於Elasticsearch有很多種索引型別,但是我認為核心主要是倒排索引和doc values

倒排索引

  Lucene將寫入索引的所有資訊組織為倒排索引(inverted index)的結構形式。倒排索引是一種將分詞對映到文件的資料結構,可以認為倒排索引是面向分詞的而不是面向文件的。

  假設在測試環境的Elasticsearch存放了有以下三個文件:

  • Elasticsearch Server(文件1)
  • Masterring Elasticsearch(文件2)
  • Apache Solr 4 Cookbook(文件3)

  以上文件索引建好後,簡略顯示如下:

詞項 數量 文件
4 1 <3>
Apache 1 <3>
Cooking 1 <3>
Elasticsearch 2 <1><2>
Mastering 1 <1>
Server 1 <1>
Solr 1 <3>

  如上表格所示,每個詞項指向該詞項所出現過的文件位置,這種索引結構允許快速、有效的搜尋出資料。

doc values  

  對於分組、聚合、排序等某些功能來說,倒排索引的方式並不是最佳選擇,這類功能操作的是文件而不是詞項,這個時候就得把倒排索引逆轉過來成正排索引,這麼做會有兩個缺點:

  1. 構建時間長
  2. 記憶體佔用大,易OutOfMemory,且影響垃圾回收

  Lucene 4.0之後版本引入了doc values和額外的資料結構來解決上面得問題,目前有五種型別的doc values:NUMERIC、BINARY、SORTED、SORTED_SET、SORTED_NUMERIC,針對每種型別Lucene都有特定的壓縮方法。

  doc values是列式儲存的正排索引,通過docID可以快速讀取到該doc的特定欄位的值,列式儲存儲存對於聚合計算有非常高的效能。

 

叢集分片

  Elasticsearch可以簡單、快速利用多節點伺服器形成叢集,以此分攤伺服器的執行壓力

  此外資料可以進行分片儲存,搜尋時併發到不同伺服器上的主分片進行搜尋。

這裡可以簡單講述下Elasticsearch查詢原理,Elasticsearch的查詢分兩個階段:分散階段合併階段

  任意一個Elasticsearch節點都可以接受客戶端的請求。接受到請求後,就是分散階段,並行傳送子查詢給其他節點;

  然後是合併階段,則從眾多分片中收集返回結果,然後對他們進行合併、排序、取長等後續操作。最終將結果返回給客戶端。

機制如下圖:

分頁深度陷阱

  基於以上查詢的原理,擴充套件一個分頁深度的問題。

  現需要查頁長為10、第100頁的資料,實際上是會把每個 Shard 上儲存的前 1000(10*100) 條資料都查到一個協調節點上。如果有 5 個 Shard,那麼就有 5000 條資料,接著協調節點對這 5000 條資料進行一些合併、處理,再獲取到最終第 100 頁的 10 條資料。也就是實際上查的資料總量為pageSize*pageIndex*shard,頁數越深則查詢的越慢。因此ElasticSearch也會有要求,每次查詢出來的資料總數不會返回超過10000條。

   那麼從業務上儘可能跟產品溝通避免分頁跳轉,使用滾動載入。而Elasticsearch使用的相關技術是search_after、scroll_id。

ElasticSearch與資料庫基本概念對比

ElasticSearch

RDBMS

Index

Document

Field

Mapping

表結構

  在Elasticsearch 7.0版本之前(<7.0),有type的概念,而Elasticsearch關係型資料庫的關係是,index = database、type = table,但是在Elasticsearch 7.0版本後(>=7.0)弱化了type預設為_doc,而官方會在8.0之後會徹底移除type。

伺服器選型

  在官方文件(https://www.elastic.co/guide/cn/elasticsearch/guide/current/heap-sizing.html)裡建議Elasticsearch  JVM Heap最大為32G,同時不超過伺服器記憶體的一半,也就是說記憶體分別為128G和64G的伺服器,JVM Heap最大隻需要設定32G;而32G伺服器,則建議JVM Heap最大16G,剩餘的記憶體將會給到Filesystem Cache充分使用。如果不需要對分詞字串做聚合計算(例如,不需要 fielddata )可以考慮降低JVM Heap。JVM Heap越小,會導致Elasticsearch的GC頻率更高,但Lucene就可以的使用更多的記憶體,這樣效能就會更高。

  對於我們公司的未來新增業務還會有收集使用者的訪問記錄來統計PV(page view)、UV(user view),有一定的聚合計算,經過多方便的考慮與討論,平衡成本與需求後選擇了騰訊雲的三臺配置為CPU 16核、記憶體64G,SSD雲硬碟的伺服器,並給與Elasticsearch 配置JVM Heap = 32G。

需求場景選擇

Elasticsearch在本公司系統的可使用場景非常多,但是作為第一次引入因慎重選擇,給與開發與運維一定的時間熟悉與觀察。

經過商討,選擇了兩個業務場景,使用者閱讀作品的記錄明細作品搜尋,選擇這兩個業務場景原因如下:

  • 寫場景
    • 我們平臺的使用者黏度比較高,閱讀作品是一個高頻率的呼叫,因此使用者閱讀作品的記錄明細可在短時間內造成海量資料的場景。(現一個月已達到了70G的資料量,共1億1千萬條)
  • 讀場景
    • 閱讀記錄需提供給未來新增的抽獎業務使用,可從閱讀章節數、閱讀時長等進行搜尋計算。
    • 作品搜尋原有實現是通過關係型資料庫like查詢,已是具有潛在的效能問題與資源消耗的業務場景

對於上述兩個業務,使用者閱讀作品的記錄明細抽獎業務屬於新增業務,對於在投入成本相對較少,也無需過多的需要相容舊業務的壓力。

而作品搜尋業務屬於優化改造,得保證相容原有的使用者搜尋習慣前提下,新增拼音搜尋。同時最好以擴充套件的方式,儘可能的減少程式碼修改範圍,如果使用效果不好,隨時可以回滾到舊的實現方式。

設計方案

共性設計

  我使用.Net 5 WebApi將Elasticsearch封裝成ES業務服務API,這樣的做法主要用來隱藏技術細節(時區、分詞器、型別轉換等),暴露粗粒度的讀寫介面。這種做法在馬丁福勒所著的《NoSQL精粹》稱把資料庫視為“應用程式資料庫”,簡單來說就是隻能通過應用間接的訪問儲存,對於這個應用由一個團隊負責維護開發,也只有這個團隊才知道儲存的結構。這樣通過封裝的API服務解耦了外部API服務與儲存,呼叫方就無需過多關注儲存的特性,像Mongodb與Elasticsearch這種無模式的儲存,無需優先定義結構,換而言之就是對於儲存已有結構可隨意修改擴充套件,那麼“應用程式資料庫”的做法也避免了其他團隊無意侵入的修改。

  考慮到現在業務需求複雜度相對簡單,MQ消費端也一起整合到ES業務服務,若後續MQ消費業務持續增多,再考慮把MQ消費業務抽離到一個(或多個的)消費端程式。

  目前以同步讀、同步寫、非同步寫的三種互動方式,進行與其他服務通訊。

閱讀記錄明細

  本需求是完全新增,因此引入相對簡單,只需要在【平臺API使用【RabbitMQ】進行解耦,使用非同步方式寫入Elasticsearch,使用佇列除了用來解耦,還對此用來緩衝高併發寫壓力的情況。

  對於後續新增的業務例如抽獎服務,則只需要通過RPC框架對接ES業務API,以同步讀取的方式查詢資料。

 

作品搜尋

  對於該業務,我第一反應採用CQRS的思想,原有的寫入邏輯我無需過多的關注與瞭解,因此我只需要想辦法把關係型資料庫的資料同步到Elasticsearch,然後提供業務查詢API替換原有平臺API的資料來源即可。

  那麼資料同步則一般都是分兩種方式。

  推的實時性無疑是比拉要高,只需增量的推送做寫入的資料(增、刪、改)即可,無論是從效能、資源利用、時效各方面來看都比拉更有效。

  實施該方案,可以選擇Debezium和SQL Server開啟CDC功能。

  Debezium由RedHat開源的,同時需要依賴於kafka的,一個將多種資料來源實時變更資料捕獲,形成資料流輸出的開源工具,同類產品有Canal, DataBus, Maxwell。

  CDC全稱Change Data Capture,直接翻譯過來為變更資料捕獲,核心為監測服務捕獲資料庫的寫操作(插入,更新,刪除),將這些變更按發生的順序完整記錄下來。

我個人在我部落格文章多次強調架構設計的輸入核心為兩點滿足需求組織架構,在滿足需求的前提應優先選擇簡單、合適的方案。技術選型應需要考慮自己的團隊是否可以支撐。在上述無論是額外加入Debezium和kafka,還是需要針對SQL Server開啟CDC都超出了我們運維所能承受的極限。

  拉無疑是最簡單最合適的實現方式,只需要使用排程任務服務,每隔段時間定時去從資料庫拉取資料寫入到Elasticsearch就可。

  然而拉取資料,分全量同步增量同步

  對於增量同步,只需要每次查詢資料來源Select * From Table_A Where RowVersion > LastUpdateVersion,則可以過濾出需要同步的資料。但是這個方式有點致命的缺點,資料來源已被刪除的資料是無法查詢出來的,如果把Elasticsearch反向去跟SQL Server資料做對比又是一件比較愚蠢的方式,因此只能放棄該方式。

  而全量同步,只要每次從SQL Server資料來源全量新增到Elasticsearch,並替換舊的Elasticsearch的Index,因此該方案得全刪全增。但是這裡又引申出新的問題,如果先刪後增,那麼在刪除後再新增的這段真空期怎麼辦?假如有5分鐘的真空期是沒有資料,使用者就無法使用搜尋功能。那麼只能先增後刪,先新增到一個Index_Temp,全量新增完後,把原有Index改名成Index_Delete,然後再把Index_Temp改成Index,最後把Index_Delete刪除。這麼一套操作下來,有沒有覺得很繁瑣很費勁?Elasticsearch有一個叫別名(Aliases)的功能,別名可以一對多的指向多個Index,也可以以原子性的進行別名指向Index的切換,具體實現可以看下文。

 

閱讀記錄實現細節

實體定義

   優先定義了個抽象類ElasticsearchEntity進行復用,對於實體定義有三個注意的細節點:

  1.對於ElasticsearchEntity我定義兩個屬性_id與Timestamp,Elasticsearch是無模式的(無需預定義結構),如果實體本身沒有_id,寫入到Elasticsearch會自動生成一個_id,為了後續的使用便捷性,我仍然自主定義了一個。

  2.基於上述的分頁深度的問題,因此在後續涉及的業務儘可能會以search_after+滾動載入的方式落實到我們的業務。原本我們只需要使用DateTime型別的欄位用DateTime.Now記錄後,再使用search_after後會自動把DateTime型別欄位轉換成毫秒級的Timestamp,但是我在實現demo的時候,去製造資料,在程式裡以for迴圈new資料的時候,發現生成的速度會在微秒級之間,那麼假設用毫秒級的Timestamp進行search_after過濾,同一個毫秒有4、5條資料,那麼容易在使用滾動載入時候少載入了幾條資料,這樣就到導致資料返回不準確了。因此我擴充套件了個[DateTime.Now.DateTimeToTimestampOfMicrosecond()]生成微秒級的Timestamp,以此儘可能減少出現漏載入資料的情況。

  3.對於Elasticsearch的操作實體的日期時間型別均以DateTimeOffset型別宣告,因為Elasticsearch儲存的是UTC時間,而且會因為Http請求的日期格式不同導致存放的日期時間也會有所偏差,為了避免日期問題使用DateTimeOffset型別是一種保險的做法。而對於WebAPI 介面或者MQ的Message接受的時間型別可以使用DateTime型別,DTO(傳輸物件)與DO(持久化物件)使用Mapster或者AutoMapper類似的物件對映工具進行轉換即可(注意DateTimeOffset轉DateTime得定義轉換規則 [TypeAdapterConfig<DateTimeOffset, DateTime>.NewConfig().MapWith(dateTimeOffset => dateTimeOffset.LocalDateTime)])。

  如此一來,把Elasticsearch操作細節隱藏在WebAPI裡,以友好、簡單的介面暴露給開發者使用,降低了開發者對技術細節認知負擔。

    [ElasticsearchType(RelationName = "user_view_duration")]
    public class UserViewDuration : ElasticsearchEntity
    {
        /// <summary>
        /// 作品ID
        /// </summary>
        [Number(NumberType.Long, Name = "entity_id")]
        public long EntityId { get; set; }

        /// <summary>
        /// 作品型別
        /// </summary>
        [Number(NumberType.Long, Name = "entity_type")]
        public long EntityType { get; set; }

        /// <summary>
        /// 章節ID
        /// </summary>
        [Number(NumberType.Long, Name = "charpter_id")]
        public long CharpterId { get; set; }

        /// <summary>
        /// 使用者ID
        /// </summary>
        [Number(NumberType.Long, Name = "user_id")]
        public long UserId { get; set; }

        /// <summary>
        /// 建立時間
        /// </summary>
        [Date(Name = "create_datetime")]
        public DateTimeOffset CreateDateTime { get; set; }

        /// <summary>
        /// 時長
        /// </summary>
        [Number(NumberType.Long, Name = "duration")]
        public long Duration { get; set; }

        /// <summary>
        /// IP
        /// </summary>
        [Ip(Name = "Ip")]
        public string Ip { get; set; }
    }
public abstract class ElasticsearchEntity
    {
        private Guid? _id;

        public Guid Id
        {
            get
            {
                _id ??= Guid.NewGuid();
                return _id.Value;
            }
            set => _id = value;
        }

        private long? _timestamp;

        [Number(NumberType.Long, Name = "timestamp")]
        public long Timestamp
        {
            get
            {
                _timestamp ??= DateTime.Now.DateTimeToTimestampOfMicrosecond();
                return _timestamp.Value;
            }
            set => _timestamp = value;
        }
    }

非同步寫入

對於非同步寫入有兩個細節點:

  1.該資料從RabbtiMQ訂閱消費寫入到Elasticsearch,從下面程式碼可以看出,我刻意以月的維度建立Index,格式為 userviewrecord-2021-12,這麼做的目的是為了方便管理Index和資源利用,有需要的情況下會刪除舊的Index。

  2.訊息訂閱與WebAPI暫時整合到同一個程式,這樣做主要是開發、部署都方便,如果後續訂閱多了,在把訊息訂閱相關的業務抽離到獨立的程式。

按需演變,避免過度設計

訂閱消費邏輯

 public class UserViewDurationConsumer : BaseConsumer<UserViewDurationMessage>
    {
        private readonly ElasticClient _elasticClient;

        public UserViewDurationConsumer(ElasticClient elasticClient)
        {
            _elasticClient = elasticClient;
        }

        public override void Excute(UserViewDurationMessage msg)
        {
            var document = msg.MapTo<Entity.UserViewDuration>();

            var result = _elasticClient.Create(document, a => a.Index(typeof(Entity.UserViewDuration).GetRelationName() + "-" + msg.CreateDateTime.ToString("yyyy-MM"))).GetApiResult();
            if (result.Failed)
                LoggerHelper.WriteToFile(result.Message);
        }
    }

 

/// <summary>
    /// 訂閱消費
    /// </summary>
    public static class ConsumerExtension
    {
        public static IApplicationBuilder UseSubscribe<T, TConsumer>(this IApplicationBuilder appBuilder, IHostApplicationLifetime lifetime) where T : EasyNetQEntity, new() where TConsumer : BaseConsumer<T>
        {
            var bus = appBuilder.ApplicationServices.GetRequiredService<IBus>();
            var consumer = appBuilder.ApplicationServices.GetRequiredService<TConsumer>();

            lifetime.ApplicationStarted.Register(() =>
            {
                bus.Subscribe<T>(msg => consumer.Excute(msg));
            });

            lifetime.ApplicationStopped.Register(() => bus?.Dispose());

            return appBuilder;
        }
    }

訂閱與注入

public class Startup
    {
        public Startup(IConfiguration configuration)
        {
            Configuration = configuration;
        }

        public IConfiguration Configuration { get; }

        public void ConfigureServices(IServiceCollection services)
        {
            ......
        }

        public void Configure(IApplicationBuilder app, IWebHostEnvironment env, IHostApplicationLifetime lifetime)
        {
            app.UseAllElasticApm(Configuration);

            app.UseHealthChecks("/health");

            app.UseDeveloperExceptionPage();
            app.UseSwagger();
            app.UseSwaggerUI(c =>
            {
                c.SwaggerEndpoint("/swagger/v1/swagger.json", "SF.ES.Api v1");
                c.RoutePrefix = "";
            });

            app.UseRouting();
            app.UseEndpoints(endpoints =>
            {
                endpoints.MapControllers();
            });

            app.UseSubscribe<UserViewDurationMessage, UserViewDurationConsumer>(lifetime);
        }
    }

查詢介面

查詢介面此處有兩個細節點:

  1.如果不確定月份,則使用萬用字元查詢userviewrecord-*,當然有需要的也可以使用別名處理。

  2.因為Elasticsearch是記錄UTC時間,因此時間查詢得指定TimeZone。

     [HttpGet]
        [Route("record")]
        public ApiResult<List<UserMarkRecordGetRecordResponse>> GetRecord([FromQuery] UserViewDurationRecordGetRequest request)
        {
            var dataList = new List<UserMarkRecordGetRecordResponse>();

            string dateTime;

            if (request.BeginDateTime.HasValue && request.EndDateTime.HasValue)
            {
                var month = request.EndDateTime.Value.DifferMonth(request.BeginDateTime.Value);

                if(month <= 0 )
                    dateTime = request.BeginDateTime.Value.ToString("yyyy-MM");
                else
                    dateTime = "*";
            }
            else
                dateTime = "*";

            var mustQuerys = new List<Func<QueryContainerDescriptor<UserViewDuration>, QueryContainer>>();

            if (request.UserId.HasValue)
                mustQuerys.Add(a => a.Term(t => t.Field(f => f.UserId).Value(request.UserId.Value)));

            if (request.EntityType.HasValue)
                mustQuerys.Add(a => a.Term(t => t.Field(f => f.EntityType).Value(request.EntityType)));

            if (request.EntityId.HasValue)
                mustQuerys.Add(a => a.Term(t => t.Field(f => f.EntityId).Value(request.EntityId.Value)));

            if (request.CharpterId.HasValue)
                mustQuerys.Add(a => a.Term(t => t.Field(f => f.CharpterId).Value(request.CharpterId.Value)));

            if (request.BeginDateTime.HasValue)
                mustQuerys.Add(a => a.DateRange(dr =>
                    dr.Field(f => f.CreateDateTime).GreaterThanOrEquals(request.BeginDateTime.Value).TimeZone(EsConst.TimeZone)));

            if (request.EndDateTime.HasValue)
                mustQuerys.Add(a =>
                    a.DateRange(dr => dr.Field(f => f.CreateDateTime).LessThanOrEquals(request.EndDateTime.Value).TimeZone(EsConst.TimeZone)));

            var searchResult = _elasticClient.Search<UserViewDuration>(a =>
                a.Index(typeof(UserViewDuration).GetRelationName() + "-" + dateTime)
                    .Size(request.Size)
                    .Query(q => q.Bool(b => b.Must(mustQuerys)))
                    .SearchAfterTimestamp(request.Timestamp)
                    .Sort(s => s.Field(f => f.Timestamp, SortOrder.Descending)));

            var apiResult = searchResult.GetApiResult<UserViewDuration, List<UserMarkRecordGetRecordResponse>>();
            if (apiResult.Success)
                dataList.AddRange(apiResult.Data);

            return ApiResult<List<UserMarkRecordGetRecordResponse>>.IsSuccess(dataList);
        }

作品搜尋實現細節

實體定義

SearchKey是原有SQL Server的資料,現需要同步到Elasticsearch,仍是繼承抽象類ElasticsearchEntity實體定義,同時這裡有三個細節點:

  1. public string KeyName,我定義的是Text型別,在Elasticsearch使用Text型別才會分詞。

  2.在實體定義我沒有給KeyName指定分詞器,因為我會使用兩個分詞器:拼音和預設分詞,而我會在批量寫入資料建立Mapping時定義。

  3.實體裡的 public List<int> SysTagId 與SearchKey在SQL Server是兩張不同的物理表是一對多的關係,在程式碼表示如下,但是在關係型資料庫是無法與之對應和體現的,這就是我們們所說的“阻抗失配”,但是能在以文件型儲存系統(MongoDB、Elasticsearch)裡很好的解決這個問題,可以以一個聚合的方式寫入,避免多次查詢關聯。

    [ElasticsearchType(RelationName = "search_key")]
    public class SearchKey : ElasticsearchEntity
    {
        [Number(NumberType.Integer, Name = "key_id")]
        public int KeyId { get; set; }

        [Number(NumberType.Integer, Name = "entity_id")]
        public int EntityId { get; set; }

        [Number(NumberType.Integer, Name = "entity_type")]
        public int EntityType { get; set; }

        [Text(Name = "key_name")]
        public string KeyName { get; set; }

        [Number(NumberType.Integer, Name = "weight")]
        public int Weight { get; set; }

        [Boolean(Name = "is_subsidiary")]
        public bool IsSubsidiary { get; set; }

        [Date(Name = "active_date")]
        public DateTimeOffset? ActiveDate { get; set; }

        [Number(NumberType.Integer, Name = "sys_tag_id")]
        public List<int> SysTagId { get; set; }
    }

資料同步

  資料同步我採用了Quartz.Net定時排程任務框架,因此時效不高,所以每4小時同步一次即可,有42W多的資料,同步一次的時間大概2分鐘。因此使用RPC呼叫[ES業務API服務]。

  因為具體業務邏輯已經封裝在[ES業務API服務],因此同步邏輯也相對簡單,查詢出SQL Server資料來源、聚合整理、呼叫[ES業務API服務]的批量寫入介面、重新繫結別名到新的Index。

  [DisallowConcurrentExecution]
    public class SearchKeySynchronousJob : BaseJob
    {
        public override void Execute()
        {
            var rm = SFNovelReadManager.Instance();

            var maxId = 0;
            var size = 1000;
            string indexName = "";

            while (true)
            {
                //避免一次性全部查詢出來,每1000條一次寫入。
                var searchKey = sm.searchKey.GetList(size, maxId);

                if (!searchKey.Any())
                    break;

                var entityIds = searchKey.Select(a => a.EntityID).Distinct().ToList();

                var sysTagRecord = rm.Novel.GetSysTagRecord(entityIds);

                var items = searchKey.Select(a => new SearchKeyPostItem
                {
                    Weight = a.Weight,
                    EntityType = a.EntityType,
                    EntityId = a.EntityID,
                    IsSubsidiary = a.IsSubsidiary ?? false,
                    KeyName = a.KeyName,
                    ActiveDate = a.ActiveDate,
                    SysTagId = sysTagRecord.Where(c => c.EntityID == a.EntityID).Select(c => c.SysTagID).ToList(),
                    KeyID = a.KeyID
                }).ToList();

                //以一個聚合寫入到ES
                var postResult = new SearchKeyPostRequest
                {
                    IndexName = indexName,
                    Items = items
                }.Excute();

                if (postResult.Success)
                {
                    indexName = (string)postResult.Data;
                    maxId = searchKey.Max(a => a.KeyID);
                }
            }

            //別名從舊Index指向新的Index,最後刪除舊Index
            var renameResult = new SearchKeyRenameRequest
            {
                IndexName = indexName
            }.Excute();
        }
    }
}

業務API介面

批量新增介面這裡有2個細節點:

  1.在第一次有資料進來的時候需要建立Mapping,因為得對KeyName欄位定義分詞器,其餘欄位都可以使用AutoMap即可。

  2.新建立的Index名稱是精確到秒的 SearchKey-202112261121

     /// <summary>
        /// 批量新增作品搜尋列表(返回建立的indexName)
        /// </summary>
        /// <param name="request"></param>
        /// <returns></returns>
        [HttpPost]
        public ApiResult Post(SearchKeyPostRequest request)
        {
            if (!request.Items.Any())
                return ApiResult.IsFailed("無傳入資料");

            var date = DateTime.Now;
            var relationName = typeof(SearchKey).GetRelationName();
            var indexName = request.IndexName.IsNullOrWhiteSpace() ? (relationName + "-" + date.ToString("yyyyMMddHHmmss")) : request.IndexName;

            if (request.IndexName.IsNullOrWhiteSpace())
            {
                var createResult = _elasticClient.Indices.Create(indexName,
                    a =>
                        a.Map<SearchKey>(m => m.AutoMap().Properties(p =>
                            p.Custom(new TextProperty
                            {
                                Name = "key_name",
                                Analyzer = "standard",
                                Fields = new Properties(new Dictionary<PropertyName, IProperty>
                                {
                                    { new PropertyName("pinyin"),new TextProperty{ Analyzer = "pinyin"} },
                                    { new PropertyName("standard"),new TextProperty{ Analyzer = "standard"} }
                                })
                            }))));

                if (!createResult.IsValid && request.IndexName.IsNullOrWhiteSpace())
                    return ApiResult.IsFailed("建立索引失敗");
            }
            
            var document = request.Items.MapTo<List<SearchKey>>();

            var result = _elasticClient.BulkAll(indexName, document);

            return result ? ApiResult.IsSuccess(data: indexName) : ApiResult.IsFailed();
        }

重新繫結別名介面這裡有4個細節點:

1.別名使用searchkey,只會有一個Index[searchkey-yyyyMMddHHmmss]會跟searchkey繫結.

2.優先把已繫結的Index查詢出來,方便解綁與刪除。

3.別名繫結在Elasticsearch雖然是原子性的,但是不是資料一致性的,因此得先Add後Remove。

4.刪除舊得Index免得佔用過多資源。

     /// <summary>
        /// 重新繫結別名
        /// </summary>
        /// <returns></returns>
        [HttpPut]
        public ApiResult Rename(SearchKeyRanameRequest request)
        {
            var aliasName = typeof(SearchKey).GetRelationName();
            var getAliasResult = _elasticClient.Indices.GetAlias(aliasName);

            //給新index指定別名
            var bulkAliasRequest = new BulkAliasRequest
            {
                Actions = new List<IAliasAction>
                {
                    new AliasAddDescriptor().Index(request.IndexName).Alias(aliasName)
                }
            };

            //移除別名裡舊的索引
            if (getAliasResult.IsValid)
            {
                var indeNameList = getAliasResult.Indices.Keys;
                foreach (var indexName in indeNameList)
                {
                    bulkAliasRequest.Actions.Add(new AliasRemoveDescriptor().Index(indexName.Name).Alias(aliasName));
                }
            }

            var result = _elasticClient.Indices.BulkAlias(bulkAliasRequest);

            //刪除舊的index
            if (getAliasResult.IsValid)
            {
                var indeNameList = getAliasResult.Indices.Keys;
                foreach (var indexName in indeNameList)
                {
                    _elasticClient.Indices.Delete(indexName);
                }
            }

            return result != null && result.ApiCall.Success ? ApiResult.IsSuccess() : ApiResult.IsFailed();
        }

查詢介面這裡跟前面細節得差不多:

  但是這裡有一個得特別注意的點,可以看到這個查詢介面同時使用了should和must,這裡得設定minimumShouldMatch才能正常像SQL過濾。

  should可以理解成SQL的Or,Must可以理解成SQL的And。

  預設情況下minimumShouldMatch是等於0的,等於0的意思是,should不命中任何的資料仍然會返回must命中的資料,也就是你們可能想搜尋(keyname.pinyin=’chengong‘ or keyname.standard=’chengong‘) and id > 0,但是es裡沒有存keyname='chengong'的資料,會把id> 0 而且 keyname != 'chengong' 資料給查詢出來。

  因此我們得對minimumShouldMatch=1,就是should條件必須得任意命中一個才能返回結果。

  在should和must混用的情況下必須得注意minimumShouldMatch的設定!!!

/// <summary>
        /// 作品搜尋列表
        /// </summary>
        /// <param name="request"></param>
        /// <returns></returns>
        [HttpPost]
        [Route("search")]
        public ApiResult<List<SearchKeyGetResponse>> Get(SearchKeyGetRequest request)
        {
            var shouldQuerys = new List<Func<QueryContainerDescriptor<SearchKey>, QueryContainer>>();
            int minimumShouldMatch = 0;
            if (!request.KeyName.IsNullOrWhiteSpace())
            {
                shouldQuerys.Add(a => a.MatchPhrase(m => m.Field("key_name.pinyin").Query(request.KeyName)));
                shouldQuerys.Add(a => a.MatchPhrase(m => m.Field("key_name.standard").Query(request.KeyName)));
                minimumShouldMatch = 1;
            }

            var mustQuerys = new List<Func<QueryContainerDescriptor<SearchKey>, QueryContainer>>
            {
                a => a.Range(t => t.Field(f => f.Weight).GreaterThanOrEquals(0))
            };

            if (request.IsSubsidiary.HasValue)
                mustQuerys.Add(a => a.Term(t => t.Field(f => f.IsSubsidiary).Value(request.IsSubsidiary.Value)));

            if (request.SysTagIds != null && request.SysTagIds.Any())
                mustQuerys.Add(a => a.Terms(t => t.Field(f => f.SysTagId).Terms(request.SysTagIds)));

            if (request.EntityType.HasValue)
            {
                if (request.EntityType.Value == ESearchKey.EntityType.AllNovel)
                {
                    mustQuerys.Add(a => a.Terms(t => t.Field(f => f.EntityType).Terms(ESearchKey.EntityType.Novel, ESearchKey.EntityType.ChatNovel, ESearchKey.EntityType.FanNovel)));
                }
                else
                    mustQuerys.Add(a => a.Term(t => t.Field(f => f.EntityType).Value((int)request.EntityType.Value)));
            }

            var sortDescriptor = new SortDescriptor<SearchKey>();
            sortDescriptor = request.Sort == ESearchKey.Sort.Weight
                ? sortDescriptor.Field(f => f.Weight, SortOrder.Descending)
                : sortDescriptor.Field(f => f.ActiveDate, SortOrder.Descending);

            var searchResult = _elasticClient.Search<SearchKey>(a =>
                a.Index(typeof(SearchKey).GetRelationName())
                    .From(request.Size * request.Page)
                    .Size(request.Size)
                    .Query(q => q.Bool(b => b.Should(shouldQuerys).Must(mustQuerys).MinimumShouldMatch(minimumShouldMatch)))
                    .Sort(s => sortDescriptor));

            var apiResult = searchResult.GetApiResult<SearchKey, List<SearchKeyGetResponse>>();

            if (apiResult.Success)
                return apiResult;

            return ApiResult<List<SearchKeyGetResponse>>.IsSuccess("空集合資料");
        }

APM監控

   雖然在上面我做了足夠的實現準備,但是對於上生產後的實際使用效果我還是希望有一個直觀的體現。我之前寫了一篇文章《.Net微服務實戰之可觀測性》很好敘述了該種情況,有興趣的可以移步去看看。

  在之前公司做微服務的時候的APM選型我們使用了Skywalking,但是現在這家公司的運維沒有接觸過,但是對於Elastic Stack他相對比較熟悉,如同上文所說架構設計的輸入核心為兩點滿足需求組織架構,秉著我的技術選型原則是基於團隊架構,我們採用了Elastic APM + Kibana(7.4版本),如下圖所示:

結尾

  最後上生產的時候也是平滑無損的切換到Elasticsearch,總體情況都十分滿意。

  本篇文章的資訊量作為作者的我也認為非常的多,非常感謝各位讀者抽出您寶貴的時間閱讀完,如果您對此篇文章有任何疑問,隨時可以通過右上角的聯絡方式與我交流(QQ或者微信)。

 

相關文章