Elasticsearch系列---生產資料備份恢復方案

清茶豆奶發表於2020-06-12

前言

生產環境中執行的元件,只要有資料儲存,定時備份、災難恢復是必修課,mysql資料庫的備份方案已經非常成熟,Elasticsearch也同樣有成熟的資料備份、恢復方案,我們來了解一下。

概要

本篇介紹Elasticsearch生產叢集資料的資料備份、恢復和升級的常規操作。

curl命令

curl是Linux操作的必備工具,Elasticsearch生產環境的搭建,不能保證都能使用kibana訪問到,而Elasticsearch Restful API都可以使用curl工具來完成訪問。

使用curl還有一個好處:有些操作需要一連串的請求才能完成,我們可以使用shell指令碼將這些關聯的操作,封裝到指令碼里,後續使用起來就非常方便。

如果有定時執行的命令,也是使用shell將一系列操作封裝好,運用Linux自帶的crontab進行觸發。

後續的一些操作命令,將會用curl來完成,並且只需要將完整的curl請求拷貝到kibana的dev tools上,kibana能夠自動轉化成我們之前常見的請求,非常方便。

在Linux下的請求命令:

[esuser@elasticsearch02 ~]$ curl -XGET 'http://elasticsearch02:9200/music/children/_search?pretty' -H 'Content-Type: application/json' -d '
{
  "query": {
    "match_all": {}
  }
}
'

完整的命令拷貝到dev tools裡時,自動會變成:

GET /music/children/_search
{

  "query": {

    "match_all": {}

  }

}

這工具真是強大,不過反過來操作不行的,我已經試過了。

curl命令,有Body體的,記得加上-H 'Content-Type: application/json'?pretty引數可以讓響應結果格式化輸出

資料備份

我們知道Elasticsearch的索引拆分成多個shard進行儲存在磁碟裡,shard雖然分了primary shard和replica shard,可以保證叢集的資料不丟失,資料訪問不間斷,但如果機房停電導致叢集節點全部當機這種重大事故時,我們就需要提前定期地對資料進行備份,以防萬一。

既然是磁碟檔案儲存,那儲存介質的選擇就有很多了:本地磁碟,NAS,檔案儲存伺服器(如FastDFS、HDFS等),各種雲端儲存(Amazon S3, 阿里雲OSS)等

同樣的,Elasticsearch也提供snapshot api命令來完成資料備份操作,可以把叢集當前的狀態和資料全部儲存到一個其他目錄上,本地路徑或網路路徑均可,並且支援增量備份。可以根據資料量來決定備份的執行頻率,增量備份的速度還是很快的。

建立備份倉庫

我們把倉庫地址暫定為本地磁碟的/home/esuser/esbackup目錄,

首先,我們需要在elasticsearch.yml配置檔案中加上

path.repo: /home/esuser/esbackup

並重啟Elasticsearch。

啟動成功後,傳送建立倉庫的請求:

[esuser@elasticsearch02 ~]$ curl -XPUT 'http://elasticsearch02:9200/_snapshot/esbackup?pretty' -H 'Content-Type: application/json' -d '
{
    "type": "fs", 
    "settings": {
        "location": "/home/esuser/esbackup",
        "max_snapshot_bytes_per_sec" : "50mb", 
        "max_restore_bytes_per_sec" : "50mb"
    }
}
'
{"acknowledged":true}
[esuser@elasticsearch02 ~]$ 

引數解釋:

  • type: 倉庫的型別名稱,請求裡都是fs,表示file system。
  • location: 倉庫的地址,要與elasticsearch.yml配置檔案相同,否則會報錯
  • max_snapshot_bytes_per_sec: 指定資料從Elasticsearch到倉庫(資料備份)的寫入速度上限,預設是20mb/s
  • max_restore_bytes_per_sec: 指定資料從倉庫到Elasticsearch(資料恢復)的寫入速度上限,預設也是20mb/s

用於限流的兩個引數,需要根據實際的網路進行設定,如果備份目錄在同一區域網內,可以設定得大一些,便於加快備份和恢復的速度。

也有查詢命令可以看倉庫的資訊:

[esuser@elasticsearch02 ~]$ curl -XGET 'http://elasticsearch02:9200/_snapshot/esbackup?pretty'

{"esbackup":{"type":"fs","settings":{"location":"/home/esuser/esbackup","max_restore_bytes_per_sec":"50mb","max_snapshot_bytes_per_sec":"50mb"}}}

[esuser@elasticsearch02 ~]$

使用hdfs建立倉庫

大資料這塊跟hadoop生態整合還是非常推薦的方案,資料備份這塊可以用hadoop下的hdfs分散式檔案儲存系統,關於hadoop叢集的搭建方法,需要自行完成,本篇末尾有補充說明,可供參考。

對Elasticsearch來說,需要安裝repository-hdfs的外掛,我們的Elasticsearch版本是6.3.1,對應的外掛則使用repository-hdfs-6.3.1.zip,hadoop則使用2.8.1版本的。

外掛下載安裝命令:

./elasticsearch-plugin install https://artifacts.elastic.co/downloads/elasticsearch-plugins/repository-hdfs/repository-hdfs-6.3.1.zip

如果生產環境的伺服器無法連線外網,可以先在其他機器上下載好,上傳到生產伺服器,解壓到本地,再執行安裝:

./elasticsearch-plugin install file:///opt/elasticsearch/repository-hdfs-6.3.1

安裝完成後記得重啟Elasticsearch節點。

檢視節點狀態:

[esuser@elasticsearch02 ~]$ curl -XGET elasticsearch02:9200/_cat/nodes?v

ip             heap.percent ram.percent cpu load_1m load_5m load_15m node.role master name
192.168.17.137           38          95   2    0.03    0.03     0.05 mdi       *      node-1
建立hdfs倉庫

先檢視節點的shard資訊

[esuser@elasticsearch02 ~]$ curl -XGET 'http://elasticsearch02:9200/_count?pretty' -H 'Content-Type: application/json' -d '
 {
     "query": {
         "match_all": {}
     }
}'


{
  "count" : 5392,
  "_shards" : {
    "total" : 108,
    "successful" : 108,
    "skipped" : 0,
    "failed" : 0
  }
}

建立一個hdfs的倉庫,名稱為hdfsbackup

[esuser@elasticsearch02 ~]$ curl -XPUT  'http://elasticsearch02:9200/_snapshot/hdfsbackup?pretty' -H 'Content-Type: application/json' -d '
 {
   "type": "hdfs",
   "settings": {
     "uri": "hdfs://elasticsearch02:9000/",
     "path": "/home/esuser/hdfsbackup",
   "conf.dfs.client.read.shortcircuit": "false",
   "max_snapshot_bytes_per_sec" : "50mb", 
     "max_restore_bytes_per_sec" : "50mb"
   }
 }'

{
  "acknowledged" : true
}
驗證倉庫

倉庫建立好了之後,可以用verify命令驗證一下:

[esuser@elasticsearch02 ~]$ curl -XPOST 'http://elasticsearch02:9200/_snapshot/hdfsbackup/_verify?pretty'
{
  "nodes" : {
    "A1s1uus7TpuDSiT4xFLOoQ" : {
      "name" : "node-1"
    }
  }
}
索引備份

倉庫建立好並驗證完成後,可以執行snapshot api對索引進行備份了,

如果不指定索引名稱,表示備份當前所有open狀態的索引都備份,還有一個引數wait_for_completion,表示是否需要等待備份完成後才響應結果,預設是false,請求提交後會立即返回,然後備份操作在後臺非同步執行,如果設定為true,請求就變成同步方式,後臺備份完成後,才會有響應。建議使用預設值即可,有時備份的整個過程會持續1-2小時。

示例1:備份所有的索引,備份名稱為snapshot_20200122

[esuser@elasticsearch02 ~]$ curl -XPUT 'http://elasticsearch02:9200/_snapshot/hdfsbackup/snapshot_20200122?pretty'
{
  "accepted" : true
}

示例2:備份索引music的資料,備份名稱為snapshot_20200122_02,並指定wait_for_completion為true

[esuser@elasticsearch02 ~]$ curl -XPUT 'http://elasticsearch02:9200/_snapshot/hdfsbackup/snapshot_20200122_02?wait_for_completion=true&pretty' -H 'Content-Type: application/json' -d '
{
  "indices": "music",
  "ignore_unavailable": true,
  "include_global_state": false,
  "partial": true
}'


{
  "snapshot" : {
    "snapshot" : "snapshot_20200122_02",
    "uuid" : "KRXnzc6XSWagCQO92EQx6A",
    "version_id" : 6030199,
    "version" : "6.3.1",
    "indices" : [
      "music"
    ],
    "include_global_state" : false,
    "state" : "SUCCESS",
    "start_time" : "2020-01-22T07:11:06.594Z",
    "start_time_in_millis" : 1579677066594,
    "end_time" : "2020-01-22T07:11:07.313Z",
    "end_time_in_millis" : 1579677067313,
    "duration_in_millis" : 719,
    "failures" : [ ],
    "shards" : {
      "total" : 5,
      "failed" : 0,
      "successful" : 5
    }
  }
}

這條命令中幾個引數介紹:

  • indices:索引名稱,允許寫多個,用","分隔,支援萬用字元。
  • ignore_unavailable:可選值true/false,如果為true,indices裡不存在的index就可以忽略掉,備份操作正常執行,預設是false,如果某個index不存在,備份操作會提示失敗。
  • include_global_state:可選值true/false,含義是要不要備份叢集的全域性state資料。
  • partial:可選值true/false,是否支援備份部分shard的資料。預設值為false,如果索引的部分primary shard不可用,partial為false時備份過程會提示失敗。

使用snapshot api對資料的備份是增量進行的,執行snapshotting的時候,Elasticsearch會分析已經存在於倉庫中的snapshot對應的index file,在前一次snapshot基礎上,僅備份建立的或者發生過修改的index files。這就允許多個snapshot在倉庫中可以用一種緊湊的模式來儲存,非常節省儲存空間,並且snapshotting過程是不會阻塞所有的Elasticsearch讀寫操作的。

同樣的,snapshot作為資料快照,在它之後寫入index中的資料,是不會反應到這次snapshot中的,snapshot資料的內容包含index的副本,也可以選擇是否儲存全域性的cluster後設資料,後設資料裡面包含了全域性的cluster設定和template。

每次只能執行一次snapshot操作,如果某個shard正在被snapshot備份,那麼這個shard此時就不能被移動到其他node上去,這會影響shard rebalance的操作。只有在snapshot結束之後,這個shard才能夠被移動到其他的node上去。

檢視snapshot備份列表
  1. 檢視倉庫內所有的備份列表
curl -XGET 'http://elasticsearch02:9200/_snapshot/hdfsbackup/_all?pretty'
  1. 檢視單個備份資料
[esuser@elasticsearch02 ~]$ curl -XGET 'http://elasticsearch02:9200/_snapshot/hdfsbackup/snapshot_20200122_02?pretty'
{
  "snapshots" : [
    {
      "snapshot" : "snapshot_20200122_02",
      "uuid" : "KRXnzc6XSWagCQO92EQx6A",
      "version_id" : 6030199,
      "version" : "6.3.1",
      "indices" : [
        "music"
      ],
      "include_global_state" : false,
      "state" : "SUCCESS",
      "start_time" : "2020-01-22T07:11:06.594Z",
      "start_time_in_millis" : 1579677066594,
      "end_time" : "2020-01-22T07:11:07.313Z",
      "end_time_in_millis" : 1579677067313,
      "duration_in_millis" : 719,
      "failures" : [ ],
      "shards" : {
        "total" : 5,
        "failed" : 0,
        "successful" : 5
      }
    }
  ]
}
刪除snapshot備份

如果需要刪除某個snapshot備份快照,一定要使用delete命令,造成別自個跑到伺服器目錄下做rm操作,因為snapshot是增量備份的,裡面有各種依賴關係,極可能損壞backup資料,記住不要上來就自己幹檔案,讓人家標準的命令來執行,命令如下:

[esuser@elasticsearch02 ~]$ curl -XDELETE 'http://elasticsearch02:9200/_snapshot/hdfsbackup/snapshot_20200122?pretty'
{
  "acknowledged" : true
}
檢視備份進度

備份過程長短視資料量而定,wait_for_completion設定為true雖然可以同步得到結果,但時間太長的話也不現實,我們是希望備份操作後臺自己搞,我們時不時的看看進度就行,其實還是呼叫的snapshot的get操作命令,加上_status引數即可,備份過程中會顯示什麼時間開始的,有幾個shard在備份等等資訊:

curl -XGET 'http://elasticsearch02:9200/_snapshot/hdfsbackup/snapshot_20200122_02/_status?pretty'

取消備份

正在備份的資料可以執行取消,使用的是delete命令:

curl -XDELETE 'http://elasticsearch02:9200/_snapshot/hdfsbackup/snapshot_20200122?pretty'

這個命令有兩個作用:

  1. 如果備份正在進行中,那麼取消備份操作,並且刪除備份了一半的資料。
  2. 如果備份已經完成,直接刪除備份資料。

資料恢復

生產環境的備份操作,是定期執行的,執行的頻率看實際的資料量,有1天執行1次的,有4小時一次的,簡單的操作是使用shell指令碼封裝備份的命令,然後使用Linux的crontab定時執行。

既然資料有備份,那如果資料出現異常,或者需要使用到備份資料時,恢復操作就能派上用場了。

常規恢復

資料恢復使用restore命令,示例如下:

[esuser@elasticsearch02 ~]$ curl -XPOST 'http://elasticsearch02:9200/_snapshot/hdfsbackup/snapshot_20200122_02/_restore?pretty'
{
  "accepted" : true
}

注意一下被恢復的索引,必須全部是close狀態的,否則會報錯,關閉索引的命令:

[esuser@elasticsearch02 ~]$ curl -XPOST  'http://elasticsearch02:9200/music/_close?pretty'

恢復完成後,索引自動還原成open狀態。

同樣有些引數可以進行選擇:

[esuser@elasticsearch02 ~]$ curl -XPOST 'http://elasticsearch02:9200/_snapshot/hdfsbackup/snapshot_20200122_02/_restore
{
    "indices": "music", 
	"ignore_unavailable": true,
	"include_global_state": true
}

預設會把備份資料裡的索引全部還原,我們可以使用indices引數指定需要恢復的索引名稱。同樣可以使用wait_for_completion引數,ignore_unavailable、partial和include_global_state與備份時效果相同,不贅述。

監控restore的進度

與備份類似,呼叫的recovery的get操作命令檢視恢復的進度:

curl -XGET 'http://elasticsearch02:9200/music/_recovery?pretty'

music為索引名稱。

取消restore

與備份類似,delete正在恢復的索引可以取消恢復過程:

curl -XDELETE 'http://elasticsearch02:9200/music'

叢集升級

我們現在使用的版本是6.3.1,目前官網最新版本已經是7.5.2了,如果沒有重大的變更或嚴重bug報告的情況下,一般是不需要做升級,畢竟升級有風險,釋出要謹慎。

這裡就簡單說一下通用的步驟,謹慎操作:

  1. 檢視官網最新版本的文件,從當前版本到目標版本的升級,有哪些變化,新加入的功能和修復的bug。
  2. 在開發環境或測試環境先執行升級,相應的外掛也做一次匹配升級,穩定執行幾個專案版本週期後,再考慮生產環境的升級事宜。
  3. 升級前對資料進行全量的備份,萬一升級失敗,還有挽救的餘地。
  4. 申請生產環境升級的時間視窗,逐個node進行升級驗證。

補充hadoop叢集搭建

Elasticsearch的資料備份,通常建議的實踐方案是結合hadoop的hdfs檔案儲存,這裡我們搭建一個hadoop的叢集環境用作演示,hadoop相關的基礎知識請自行了解,已經掌握的童鞋可以跳過。

版本環境:
hadoop 2.8.1

虛擬機器環境

hadoop叢集至少需要3個節點。我們選用elasticsearch02、elasticsearch03、elasticsearch04三臺機器用於搭建。

  1. 下載解壓

官網下載hadoop-2.8.1.tar.gz,解壓至/opt/hadoop目錄

  1. 設定環境變數

演示環境擁有root許可權,就介紹一種最簡單的設定方法,修改/etc/profile檔案,新增變數後記得source一下該檔案。


[root@elasticsearch02 ~]# vi /etc/profile

# 檔案末尾新增
export HADOOP_HOME=/opt/hadoop/hadoop-2.8.1
export PATH=${HADOOP_HOME}/bin:$PATH

[root@elasticsearch02 ~]# source /etc/profile
  1. 建立hadoop資料目錄,啟動hadoop時我們使用esuser賬戶,就在/home/esuser下建立目錄,如 /home/esuser/hadoopdata

  2. 修改hadoop的配置檔案,在/opt/hadoop/hadoop-2.8.1/etc/hadoop目錄下,基本上是新增配置,涉及的配置檔案:

  • core-site.xml
  • hdfs-site.xml
  • yarn-site.xml
  • mapred-site.xml
  • slaves(注:我們選定elasticsearch02為master,其餘兩個為slave)

示例修改如下:

core-site.xml

<property>
  <name>fs.defaultFS</name>
  <value>hdfs://elasticsearch02:9000</value>
</property>

hdfs-site.xml

<property>
  <name>dfs.namenode.name.dir</name>
  <value>/home/esuser/hadoopdata/namenode</value>
</property>
<property>
  <name>dfs.datanode.data.dir</name>
  <value>/home/esuser/hadoopdata/datanode</value>
</property>

yarn-site.xml

<property>
  <name>yarn.resourcemanager.hostname</name>
  <value>elasticsearch02</value>
</property>

mapred-site.xml

<property>
  <name>mapreduce.framework.name</name>
  <value>yarn</value>
</property>

slaves

elasticsearch03
elasticsearch04
  1. 拷貝設定後的檔案到另外兩臺機器上
scp -r /opt/hadoop/hadoop-2.8.1 esuser@elasticsearch03:/opt/hadoop/hadoop-2.8.1
scp -r /opt/hadoop/hadoop-2.8.1 esuser@elasticsearch04:/opt/hadoop/hadoop-2.8.1

拷貝的檔案有點大,需要等一會兒,拷貝完成後,在elasticsearch03、elasticsearch04再設定一次HADOOP_HOME環境變數

  1. 啟動叢集

格式化namenode,在hadoop master節點(elasticsearch02),HADOOP_HOME/sbin目錄下執行hdfs namenode -format

執行啟動命令:start-dfs.sh
這個啟動過程會建立到elasticsearch03、elasticsearch04的ssh連線,輸入esuser的密碼即可,也可以提前建立好免密ssh連線。

我們只需要用它的hdfs服務,其他的元件可以不啟動。

驗證啟動是否成功,三臺機器分別輸入jps,看下面的程式,如無意外理論上應該是這樣:
elasticsearch02:NameNode、SecondaryNameNode
elasticsearch03:DataNode
elasticsearch04:DataNode

同時在瀏覽器上輸入hadoop master的控制檯地址:http://192.168.17.137:50070/dfshealth.html#tab-overview,應該能看到這兩個介面:

datanodes看到2個結點,表示叢集啟動成功,如果只能看到一個或一個都沒有,可以檢視相應的日誌:/opt/hadoop/hadoop-2.8.1/logs

Error: JAVA_HOME is not set and could not be found 錯誤解決辦法

這個明明已經設定了JAVA_HOME,並且export命令也能看到,啟動時死活就是不行,不跟他槓了,直接在/opt/hadoop/hadoop-2.8.1/etc/hadoop/hadoop-env.sh檔案加上

export JAVA_HOME="/opt/jdk1.8.0_211"

小結

本篇主要以hadoop分散式檔案儲存為背景,講解了Elasticsearch資料的備份與恢復,可以瞭解一下。叢集版本升級這類操作,實踐起來比較複雜,受專案本身影響比較大,這裡就簡單提及要注意的地方,沒有作詳細的案例操作,真要有版本升級的操作,請各位慎重操作,多驗證,確保測試環境充分測試後再上生產,記得資料要備份。

專注Java高併發、分散式架構,更多技術乾貨分享與心得,請關注公眾號:Java架構社群
可以掃左邊二維碼新增好友,邀請你加入Java架構社群微信群共同探討技術
Java架構社群

相關文章