什麼是 IK 分詞器
分詞∶即把一段中文或者別的劃分成一個個的關鍵字,我們在搜尋時候會把自己的資訊進行分詞,會把資料庫中或者索引庫中的資料進行分詞,然後進行一個匹配操作,預設的中文分詞是將每個字看成一個詞,比如“我愛程式設計”會被分為"我""愛""編""程”,這顯然是不符合要求的,所以我們需要安裝中文分詞器ik來解決這個問題。
如果使用中文,建議使用ik分詞器!
IK提供了兩個分詞演算法:ik_smart和ik_max_word,其中 ik_smart為最少切分,ik_max_word為最細粒度劃分!
- 1、下載:github.com/medcl/elasticsearch-ana...
- 2、下載完畢之後,放入到我們的elasticsearch外掛即可
- 3、重啟觀察ES,可以看到ik分詞器被載入了!
- 4、elasticsearch-plugin 可以通過這個命令檢視載入進來的外掛
- 5、使用kibana測試
檢視不同的分詞效果
ik_smart最少切分
ik_max_word為最細粒度劃分,窮盡詞庫的可能!
發現問題:弧度孤鬼被拆開了
這種自己需要的詞,需要自己加到我們的分詞器的字典中
ik分詞器增加自己的配置
載入了我們自定義的dic檔案
再次測試一下
以後,我們需要自己配置分詞就在自定義的dic檔案中進行配置即可!
本作品採用《CC 協議》,轉載必須註明作者和本文連結