分散式搜尋引擎Elasticsearch基礎入門學習

九卷發表於2023-05-10

一、Elasticsearch介紹

Elasticsearch介紹

Elasticsearh 是 elastic.co 公司開發的分散式搜尋引擎。

image-20230508184732325

Elasticsearch(簡稱ES)是一個開源的分散式、高度可擴充套件的全文搜尋和分析引擎。它能夠快速、近乎實時的儲存、搜尋和分析大量資料。適用於包括文字、數字、地理空間、結構化和非結構化資料等在內的所有型別資料。

它通常為具有複雜搜尋功能的應用提供底層搜尋技術。

當然,它也可以用來實現分散式資料儲存、日誌統計、分析、系統監控、地理空間查詢等功能。

Elasticsearch 最底層的搜尋引擎技術是 Apache 基金會開源的搜尋引擎類庫 Lucene,Lucene 提供了搜尋引擎核心 API 。

ES 在 Lucene 的基礎上提供了分散式支援,可以水平擴充套件,提供了 Restful 這種簡潔的訪問介面,能被任何語言呼叫。

Elasticsearch能做什麼

  • 應用搜尋,常見的 github 的程式碼搜尋,滴滴,美團,點評,銀行等各種搜尋
  • 網站搜尋
  • 日誌記錄和日誌分析
  • 基礎設定指標和容器監控
  • 應用效能監控
  • 地理空間資料分析和視覺化
  • 商業分析
  • 安全分析

二、ELK 是什麼

ELK 是 ElasticsearchLogstashKibana 的第一個字母組合,也叫 ELK Stack。是一套用於資料採集、儲存、分析和視覺化的開源工具集。

  • Elasticsearch:儲存、索引、計算、搜尋、分析資料。

  • Logstash:用於收集、轉換資料,然後將它儲存在 ES 中。後面還開發新的收集資料軟體 Beats

  • Beats:它是一個輕量級的資料採集代理工具,可以向 Elasticsearch 傳送資料。

  • Kibana:用於查詢分析、視覺化 ES 的資料,它還可以用於監控和報警的方案。它是 Elasticsearch 基於瀏覽器的分析和搜尋儀表盤。

它們之間關係圖:

image-20230508192434575

​ (來自:Elasticsearch 簡介

把上面的圖簡化下:

image-20230508223114578

三、ES中的基礎概念

文件document

Elasticsearch 是面向文件,它可以儲存整個物件或文件。它不僅僅是儲存,還會索引每個文件的內容使之可以被搜尋。在 ES 中,你可以對文件進行索引、搜尋、排序、過濾。

在 ES 中,文件是索引資訊的基本單位。

JSON

Elasticsearch 使用 json 格式作為文件序列化格式。這種格式在 NoSQL 資料庫中使用比較多。

一個 json 物件是由 key 和 value 組成。key 是欄位(field)或屬性(property)的名字,值(value)可以是字串、數字、布林型別、另外一個物件、值陣列或其他特殊型別,比如表示日期的字串或表示地理位置的物件。

在關係型資料庫中,使用行和列儲存資料,比如儲存在 MySQL 表中的資料:

id name
1 比亞迪電動車
2 理想電動車
3 小鵬電動車
4 比亞迪電池
5 理想電池

把上面的資料用 json 格式儲存在 elasticsearch 中:

{
    "id": 1,
    "name": "比亞迪電動車"
}
{
    "id": 2,
    "name": "理想電動車"
}
{
    "id": 3,
    "name": "小鵬電動車"
}
{
    "id": 4,
    "name": "比亞迪電池"
}
{
    "id": 5,
    "name": "理想電池"
}

上面 json 中的欄位 id 相當於 MySQL 資料表中列 id。

每個文件就是一條json資料。一條 json 資料相當於 MySQL 表中的一行。

索引index

index 索引是具有相似特徵文件的集合。一個索引透過名字(必須全部是小寫)來標識,並且在對其中的文件執行索引、搜尋、更新和刪除操作時,都會用到這個索引的名字。

索引可以是一個名詞,相當於文件儲存的地方。

索引也可以是一個動詞,索引一個文件表示把一個文件儲存到索引裡,以便它可以被檢索和查詢。

例如,你有一個使用者資料的索引,索引名稱叫 user,每一份使用者資訊就是一個文件:

{
    "id": 1,
    "name": "tom",
    "age": 25
},
{
    "id": 2,
    "name": "hanlei",
    "age": 35
},
{
    "id": 1,
    "name": "tom",
    "age": 25
},
{
    "id": 3,
    "name": "hanmeimei",
    "age": 36
}

*型別type

型別 type 這個概念在 elasticsearch 7.X 已被完全移除(參考文件 Removal of mapping types)。這裡就不作介紹。

對映mapping

對映(mapping)是索引文件中欄位的型別和欄位的其它資訊,都儲存在對映(mapping)中,它也叫模式定義(schema definition)。

相當於 MySQL 資料表的 schema,如定義表結構、欄位名稱、欄位型別等資訊。

而在 ES 中,對映可以設定某個欄位的資料型別、預設值、分析器、是否被索引等等,其它處理 ES 裡面的資料使用規則設定也叫對映。

mapping還有許多內容請檢視文件:https://www.elastic.co/guide/en/elasticsearch/reference/8.4/mapping.html

mapping field doc:https://www.elastic.co/guide/en/elasticsearch/reference/8.4/mapping-fields.html

對映的設定:

{
    "mappings": {
      "properties": {
        "id": {
          "type": "keyword"
        },
        "message": {
          "type": "text"
        }
      }
    }
}

文件後設資料

一個文件不僅僅包含 json 資料,也包含後設資料 - 後設資料是有關文件資訊的一些資料。

建立對映時,可以自定義其中一些後設資料欄位的行為。例如,建立一個文件:

// 先建立一個對映mapping關係,相當於MySQL中表的schema,定義json文件中欄位的屬性
PUT test
{
    "mappings": {
      "properties": {
        "id": {
          "type": "keyword"
        },
        "message": {
          "type": "text"
        }
      }
    }
}

給文件寫入一條資料:

// 給test索引寫入一條json文件資料
PUT test/_doc/1
{
 "id": "12",
 "message": "hello world"
}

上面 PUT test/_doc/1 命令會返回一條資訊:

{
   "_index" : "test",
   "_id" : "1",
   "_version" : 1,
   "result" : "created",
  "_shards" : {
     "total" : 2,
     "successful" : 1,
     "failed" : 0
   },
   "_seq_no" : 0,
   "_primary_term" : 1
}
  • _index:表示文件所屬的索引
  • _id:文件唯一標識 ID
  • _source:表示文件 doc 的原生 json 資料
  • _size:整個 _source 欄位的位元組大小,它是由 mapper-size 外掛提供
  • _shards:表示索引的分片數。一個索引可以劃分為多個 shards,這樣就可以儲存更多的資料

更多後設資料資訊請檢視:https://www.elastic.co/guide/en/elasticsearch/reference/8.4/mapping-fields.html

分散式叢集

節點node

一個節點node表示叢集中的一臺伺服器,它作為叢集的一部分儲存資料,並參與叢集的索引和搜尋功能。

節點由名稱標識,預設情況下是在啟動時分配給節點的一個隨機 UUID 唯一識別符號。如果不想要預設值,可以自定義節點名稱。

可以將節點透過叢集名稱加入特定叢集中。預設情況下,每個節點都加入一個名為 “elasticsearch” 的叢集中,這意味著如果

網路上啟動了多個節點,它們可以相互發現,那麼它們將自動形成一個名為 elasticsearch 的叢集。

在單個叢集中,你可以擁有任意數量的節點。

此外,如果網路上沒有其它節點在執行,則會啟動單個節點將預設形成一個名為 elasticsearch 的新節點叢集。

叢集cluster

叢集(cluster)是由一個或多個節點node(伺服器)組成,它們一起儲存全部資料並提供跨所有節點的聯合索引和搜尋功能。叢集由唯一識別符號標識,預設為“elasticsearch”。這個名稱很重要,因為一個節點被設定為透過名稱加入叢集時,該節點才能成為叢集的一部分。

注意:擁有一個節點的叢集也是完全可以的。

此外,你也可以擁有多個獨立的叢集,每個叢集都擁有自己獨立的名稱。

分片shard和副本replica

索引可能會儲存大量的資料,而這些資料的容量可能會超過單個節點伺服器的硬體容量限制。比如,佔用 1TB 磁碟空間的 10 億文件的單個索引可能無法儲存在單個節點的磁碟上,因為節點磁碟容量不足以容納下這麼大容量的資料,或者速度太慢無法滿足來自單個節點的搜尋速度請求。

  • 這些問題怎麼解決?

Elasticsearch 可以將索引的資料進行分割,這些分割的部分稱為分片,每個分片可以分配到不同節點上。

相當於關係型資料中儲存資料太多,而進行分庫分表操作,把資料進行分散儲存。

在 Elasticsearch 中,當你建立索引時,你可以定義想要的分片數量。每個分片都是一個功能齊全、獨立的“索引”,可以在叢集的任意節點上託管。

  • 分片的好處:
  • 它可以對資料進行水平拆分,擴充套件儲存資料的容量
  • 提供效能、吞吐量,它允許跨分片(可以在多個節點上)分佈資料和並行化操作
  • 如果發生網路故障,資料丟了怎麼辦?

這時就會用到資料副本replica功能。Elasticsearch 允許將索引分片構造複製成一個或多個副本,即所謂的複製分片,簡稱副本。

這樣就提供了 ES 的高可用性,為了高可用,ES 不允許副本分片和主分片(或原始分片)分配在同一節點上。

叢集架構圖解

在 ES 中,索引 index 是由多個 json 格式的文件 document 組成的。每個索引 index 又可以劃分為多個分片 Shard。

為了保證高可用,一個分片 shard,又可以分為主分片(primary shard)和副分片(replica shard),副分片是對主分片資料的備份,每個主分片可以有多個副分片,也就是說主分片可以有多個備份資料,

image-20230509033909819

​ (每個索引index由多個documen組成)

image-20230509034004606

​ (每個索引index可以劃分為多個分片shard,上圖劃分為shard 1,shard 2,shard 3)

叢集 cluster 和節點 Node,主分片 Primary 和副分片 Replica 的關係圖:

image-20230508234925720

​ (上圖中虛線框裡同顏色表示同一份資料的不同分片,Primary-主分片,和此主分片的副本(Replica - 副分片))

對上面叢集圖 Cluster 說明:

  • 把一個索引分成 3 個分片(主分片):Primary 1,Primary 2,Primary 3,然後把 3 個主分片分配到 3 個不同節點Node上
  • 每個主分片有 2 個副分片:Replica 1 和 Replica 2,且分別在不同的節點上。比如主分片 Primary 1 在 Node 1 上,它的副分片Replica 1 和 Replica 2 分別在 Node 2 和 Node 3 上

image-20230509001033438

​ (上圖:主分片和它所屬副分片,副分片是對主分片資料的備份)

ES與關係型資料庫對比

Elasticsearch 與關係型資料庫的一個簡單類比:

Elasticsearch(ES搜尋引擎) Relational DB(關係型資料庫)
Indices(多個索引) Databases(資料庫)
Index(單個索引) Table(表)
Document(文件) Row(行)
Field(欄位) Column(列)

Elasticsearch叢集可以包含多個索引(indices)(資料庫),每一個索引包含多個文件(documents)(行),然後每個文件包含多個欄位(Fields)(列)。用於理解 ES 中的概念,作一個簡單的類比。

四、資料結構: 倒排索引

下面介紹 Elasticsearch 中最重要的資料結構之一 - 倒排索引

索引簡介

索引,在生活中最常見的就是書籍的目錄,它就是一種類似索引結構,有時我們也叫索引目錄,它能讓人快速找到書籍相關章節的內容。

在計算機技術中,索引是一種常用的資料結構,目的就是加快查詢資料的速度。比如我們常用的 MySQL 資料庫,就有多種索引。

在搜尋引擎中,面對海量的資料,如何根據關鍵字詞快速找到使用者需要的相關內容?

這裡就要用到 倒排索引 這種資料結構,這是搜尋引擎中最重要的資料結構。

倒排索引

倒排索引中的一些概念:

  • 文件(document):用來搜尋的資料,一般是以文字形式存在的儲存物件。比如一條簡訊,一封郵件等。更廣義的還有 Word、PDF、XML 等不同格式的文件。
  • 文件集合(document collection):由若干個文件組成的集合叫文件集合。
  • 文件編號(document id):文件集合中每個文件的唯一編號,用這個唯一編號來標識這個文件。
  • 詞條(term):對文件資料,用某種分詞演算法後,得到的有含義的詞語就是詞條。例如:我們好好學習,可以用分詞演算法分為:我們,好好學習,學習等幾個詞條。
  • 倒排索引(inverted index):倒排索引是實現詞條和文件的一種儲存形式。透過倒排索引,可以根據詞條快速獲取包含這個詞語的文件列表。

我們平常使用 MySQL 關係型資料庫儲存資料,裡面有資料表。建立一個關於電動車的資料表:

id name
1 比亞迪電動車
2 理想電動車
3 小鵬電動車
4 比亞迪電池
5 理想電池

怎麼把上面的表用倒排索引來表示呢?

詞條(term) 文件id(doc id)
比亞迪 1,4
電動車 1,2,3
理想 2,5
小鵬 3
電池 4,5
1,2,3

這張表就是倒排索引。

上面 MySQL 中的表,可以看作是正向索引表,然後把這張表資料倒過來,就變成倒排索引表。

MySQL 表變成倒排索引表的處理過程:

  • 利用分詞演算法對文件資料進行分詞,得到一個一個詞條。
  • 建立倒排索引表,每行資料詞條、文件id等

倒排索引表的詞條具有唯一性,然後可以給詞條建立索引加快查詢速度,比如雜湊表索引。

五、安裝ES

下載並安裝ES

因為我的是windows,所以我下載win的安裝包,如果你是其它系統請下載相應平臺的。我這裡想下載 V8.4.3 版本,下載地址:

但是我電腦上安裝的是 JDK 1.8,不適合 8 以上的 ES 版本,見這裡說明,JDK 和 ES 的對應版本

後面我換到了能使用jdk 1.8 的 ES V7.17.10 版本。

下載之後直接解壓,然後進入 bin 目錄,點選 elasticsearch.bat 啟動 ES,啟動會有一些時間,稍微等一下;

9300 是 tcp 通訊埠,ES 叢集之間使用 tcp 通訊;9200 是 http 協議埠。

在瀏覽器上輸入 http://localhost:9200/ 檢視,我這裡輸出以下資料,安裝成功了,

{
  "name": "AIS",
  "cluster_name": "elasticsearch",
  "cluster_uuid": "bKg5AkWZScafo0vp03XOyA",
  "version": {
    "number": "7.17.10",
    "build_flavor": "default",
    "build_type": "zip",
    "build_hash": "fecd68e3150eda0c307ab9a9d7557f5d5fd71349",
    "build_date": "2023-04-23T05:33:18.138275597Z",
    "build_snapshot": false,
    "lucene_version": "8.11.1",
    "minimum_wire_compatibility_version": "6.8.0",
    "minimum_index_compatibility_version": "6.0.0-beta1"
  },
  "tagline": "You Know, for Search"
}

安裝elasticsearch-head外掛

elasticsearch-head 外掛可以檢視 ES 的各種資料。

透過 git clone 下載 head 外掛:

git clone https://github.com/mobz/elasticsearch-head.git
cd ./elasticsearch-head
npm install
npm run start

瀏覽器上開啟:http://localhost:9100/

image-20230509025416952

當然還有其它多種安裝方式。

第二種方式 chrome 外掛安裝:

還可以透過 chrome extension 執行外掛,Elasticsearch Head 在 Chrome store 的 下載地址

下載 chrome 外掛後,安裝到 chrome 瀏覽器裡。

第三種方式 docker 安裝:

透過 docker 安裝,具體檢視:https://github.com/mobz/elasticsearch-head

設定跨域:

如果連線不上 ES,需要設定跨域訪問,開啟配置檔案 config/elasticsearch.yml,在最後增加下面配置項:

http.cors.enabled: true
http.cors.allow-origin: "*"

設定完成後,重新啟動 ES。

開啟 http://localhost:9100/,然後點選連線按鈕,出現下面 green 顏色表示連線成功,如下圖:

image-20230509030403436

六、ES操作-增刪改查搜

使用cURL命令操作ES

  • curl 操作命令格式

使用 curl,將請求從命令列提交到本地 Elasticsearch 例項,這些請求包含任何 HTTP 請求相同部分:

curl -X<VERB> '<PROTOCOL>://<HOST>:<PORT>/<PATH>?<QUERY_STRING>' -d '<BODY>'

命令引數說明:

命令引數 說明
HTTP 方法,例如,GET,POST,PUT,HEAD 或 DELETE
http 或 https,如果你在 ES 前面有一個 https 代理
Elasticsearch 叢集中任何節點的主機名。 或用 localhost 來代表本地機器上的節點
執行 Elasticsearch HTTP 服務的埠號,預設為 9200
API 的終端路徑,可以包含多個引數,例如,_cluster/stats
<QUERY_STRING> 任何可選的查詢字串引數。
JSON 編碼格式的請求正文,如果有需要

如果 elasticsearch 啟動了安全功能,則必須提供有許可權執行 API 的有效使用者名稱和密碼:

curl -u elastic:password -X<VERB> '<PROTOCOL>://<HOST>:<PORT>/<PATH>?<QUERY_STRING>' -d '<BODY>'

// elastic 使用者名稱
// password 密碼
  • curl 安裝和文件地址

我是win這裡用 chocolatey 安裝:

choro install curl

安裝完成後直接 cd 到它的安裝目錄 C:\ProgramData\chocolatey\bin 目錄下,然後執行檢視 curl 版本命令,安裝成功:

不知道安裝到哪裡了?可以使用 where curl 命令來查詢安裝位置

image-20230509193440932

查詢 ES 的 http 服務埠 9200,命令:curl.exe -XGET 'http://localhost:9200' -H 'Content-Type: application/json'

image-20230509195246969

這裡還可以使用 Go 語言實現的 curl 工具 curlie 來操作 ES。

  • 安裝 curlie
go install github.com/rs/curlie@v1.6.0

用 curlie 在 terminal 上訪問 HTTP 埠 9200,我是 win 使用 PowerShell,命令如下:

curlie -XGET 'http://localhost:9200' -H 'Content-Type: application/json'

返回結果:

image-20230509164840949

如果 ES 設定了使用者和密碼,可以用如下命令:

$ curlie -XGET -u "elastic:pwdes" 'http://localhost:9200/' -H 'Content-Type: application/json'

說明:如果執行 curlie 返回安全錯誤資訊,那麼找到ES安裝位置,然後在 config/elasticsearch.yml 檔案最後面加上

xpack.security.enabled: false ,把安全驗證設定為 false。

建立索引和文件

前面說了,索引 index 可以是名詞儲存文件的地方,也可以是動詞建立索引的意思。

建立索引基本語法:

PUT /{索引名稱}

建立索引和文件基本語法:

PUT /{索引名稱}/_doc/文件id
// 也可以把上面 PUT 換成 POST 
  • curl建立索引和文件:

例如,建立一個賣書的書店bookmall索引,然後給索引增加一些資料,命令如下:

curl -XPUT "http://localhost:9200/bookmall/_doc/1?pretty" -H "Content-Type: application/json" -d '{"product_id": 123456, "quantity": 100}'

我的是windows,在cmd下執行後出錯,出錯資訊如下:

{
  "error" : {
    "root_cause" : [
      {
        "type" : "mapper_parsing_exception",
        "reason" : "failed to parse"
      }
    ],
    "type" : "mapper_parsing_exception",
    "reason" : "failed to parse",
    "caused_by" : {
      "type" : "json_parse_exception",
      "reason" : "Unexpected character ('p' (code 112)): was expecting double-quote to start field name\n at [Source: (ByteArrayInputStream); line: 1, column: 3]"
    }
  },
  "status" : 400
}

需要把上面的命令修改下,雙引號前加上斜線,

curl -XPUT 'http://localhost:9200/bookmall/_doc/1?pretty' -H 'Content-Type: application/json' -d '{\"product_id\": 123456, \"quantity\": 100}'

在執行,成功了,返回資訊:

{
  "_index" : "bookmall",
  "_type" : "_doc",
  "_id" : "1",
  "_version" : 1,
  "result" : "created",
  "_shards" : {
    "total" : 2,
    "successful" : 1,
    "failed" : 0
  },
  "_seq_no" : 0,
  "_primary_term" : 1
}

在 linux 下就不需要加這條斜線,所以學習建議在 linux 平臺下。 - -!

上面的命令 curl -XPUT 也可以換成 curl -XPOST

例如,部落格巴士的部落格文章,我們可以用 ES 來索引這些部落格文章資訊。

下面我使用 Postman 這款測試 API 的軟體來增加索引,開啟 Postman 軟體(如沒安裝請先安裝),首先新建一個請求的 tab,

image-20230509212534805

然後在 Headers 里加上 Content-Type: application/json ,如下:

image-20230509203955945

然後請求方法選擇 PUT, url 欄裡填上 http://localhost:9200/blogerbus/_doc/1?pretty ,然後點選 body,選擇 raw 選項,格式選擇 JSON , 填上 json 格式的資料,最後點選 Send 按鈕傳送資料,如下圖:

image-20230509204539954

Status:201 Created ,成功返回資料:

{
    "_index": "blogerbus",
    "_type": "_doc",
    "_id": "1",
    "_version": 1,
    "result": "created",
    "_shards": {
        "total": 2,
        "successful": 1,
        "failed": 0
    },
    "_seq_no": 0,
    "_primary_term": 1
}

對這條 URL http://localhost:9200/blogerbus/_doc/1?pretty 的說明:

  • http://localhost:9200:ES HTTP 本地服務端地址:埠號

  • blogerbus:索引名稱

  • _doc:文件終端endpoint,ES 裡的一個固定欄位

  • 1:文件 id

  • ?preety:將返回的json格式化資料,顯示為更易於讓人閱讀的形式

查詢索引index文件

基本語法:

// 根據單個id查詢
GET /{索引名稱}/_doc/文件id

//批次查詢:查詢該索引庫下的全部文件 
GET /{索引名稱}/_search

用 Postman 來查詢索引文件,在url欄輸入 http://localhost:9200/blogerbus/_doc/1?pretty=true,點選 Send,返回:

image-20230509205523297

返回內容:

{
    "_index": "blogerbus",
    "_type": "_doc",
    "_id": "1",
    "_version": 1,
    "_seq_no": 0,
    "_primary_term": 1,
    "found": true,
    "_source": {
        "user": "lilei",
        "create_at": "2021-09-15T08:12:43",
        "title": "hello world",
        "article": "hello world, this is good thing"
    }
}

搜尋

基本語法:

GET /{索引名稱}/_search  // 後面可以跟一些查詢字串,也可以跟json的DSL

給索引 blogerbus 多增加幾個文件,用於我們的搜尋:

// 第2篇文件,http://localhost:9200/blogerbus/_doc/2?pretty
{
    "user": "lilei", 
    "create_at": "2021-09-18T09:12:04", 
    "title": "math lesson",
    "article": "hello math, this my first lesson"
}

// 第3篇文件,http://localhost:9200/blogerbus/_doc/3?pretty
{
    "user": "hanmeimei", 
    "create_at": "2021-10-10T03:24:34", 
    "title": "test lesson",
    "article": "hello lesson, this my test lesson"
}
  • Postman 搜尋

搜尋 user 為 lilei 的所有文章,在 Postman 的url欄輸入:http://localhost:9200/blogerbus/_search?q=user:lilei&pretty=true,點選 Send 按鈕,返回值:

image-20230509211359550

上面是直接在 url 上用字串查詢,還可以用 json 格式來查詢:

{
    "query" : {
        "match" : { "user": "lilei" }
    }
}

url 修改為 http://localhost:9200/blogerbus/_search?pretty=true

image-20230509211858549

返回的資料與上面相同。

  • curl 搜尋
curl -XGET 'http://localhost:9200/blogerbus/_search?pretty=true' -H 'Content-Type: application/json' -d '{\"query\": {\"match\":{\"user\": \"lilei\"}}}'

返回的內容與 Postman 搜尋返回內容相同

刪除

刪除文件基本語法:

DELETE /{索引名稱}/_doc/文件id

例如,curl 刪除一篇 id 為 2 的文件:

curl -XDELETE 'http://localhost:9200/bookmall/_doc/2'

返回:

{"_index":"bookmall","_type":"_doc","_id":"2","_version":3,"result":"deleted","_shards":{"total":2,"successful":1,"failed":0},"_seq_no":3,"_primary_term":1}

後面沒有加?pretty=true,所以返回資料排版是不易讀的json。

刪除索引基本語法:

DELETE /{索引名稱}

修改

修改有2種方式:全量修改和增量修改

  • 全量修改:直接覆蓋原來的文件。根據指定 id 刪除,id 不存在時,修改變成新增。

基本語法:

PUT /{索引名稱}/_doc/文件id
{
    "欄位1": "值1",
    "欄位2": "值2",
    // ... 略
}
  • 增量修改:修改文件中部分欄位,只修改指定 id 中匹配文件的部分欄位。

基本語法:

POST /{索引名稱}/_update/文件id
{
    "doc": {
         "欄位名": "新值",
    }
}

curl 全量修改:

把上面的 bookmall/_doc/1 中 2 個欄位值都修改下:

curl -XPUT "http://localhost:9200/bookmall/_doc/1?pretty" -H "Content-Type: application/json" -d '{\"product_id\": 1234567, \"quantity\": 1000}'

修改成功後返回資料:

{
  "_index" : "bookmall",
  "_type" : "_doc",
  "_id" : "1",
  "_version" : 2,
  "result" : "updated",
  "_shards" : {
    "total" : 2,
    "successful" : 1,
    "failed" : 0
  },
  "_seq_no" : 4,
  "_primary_term" : 1
}

那能不能修改值的同時新增一個欄位?可以的。例如,給文件 id 為 1 的新增一個欄位 num:50 ,修改 quantity 為 2000,如下:

curl -XPUT "http://localhost:9200/bookmall/_doc/1?pretty" -H "Content-Type: application/json" -d '{\"product_id\": 123456, \"quantity\": 2000,\"name\":\"shiije\",\"num\":50}'

可以修改成功。

curl 部分修改:

修改文件 id 為 1 中的欄位 product_id 為 123,

curl -XPOST "http://localhost:9200/bookmall/_update/1?pretty" -H "Content-Type: application/json" -d '{\"doc\":{\"product_id\": 123}}'

可以修改成功。

七、參考

相關文章