IK 分詞器外掛

HuDu發表於2020-11-13

什麼是 IK 分詞器

分詞∶即把一段中文或者別的劃分成一個個的關鍵字,我們在搜尋時候會把自己的資訊進行分詞,會把資料庫中或者索引庫中的資料進行分詞,然後進行一個匹配操作,預設的中文分詞是將每個字看成一個詞,比如“我愛程式設計”會被分為"我""愛""編""程”,這顯然是不符合要求的,所以我們需要安裝中文分詞器ik來解決這個問題。

如果使用中文,建議使用ik分詞器!

IK提供了兩個分詞演算法:ik_smart和ik_max_word,其中 ik_smart為最少切分,ik_max_word為最細粒度劃分!

IK 分詞器外掛

  • 3、重啟觀察ES,可以看到ik分詞器被載入了!

IK 分詞器外掛

  • 4、elasticsearch-plugin 可以通過這個命令檢視載入進來的外掛

IK 分詞器外掛

  • 5、使用kibana測試

    檢視不同的分詞效果

ik_smart最少切分

IK 分詞器外掛

ik_max_word為最細粒度劃分,窮盡詞庫的可能!

IK 分詞器外掛

IK 分詞器外掛
發現問題:弧度孤鬼被拆開了
這種自己需要的詞,需要自己加到我們的分詞器的字典中

ik分詞器增加自己的配置

IK 分詞器外掛
載入了我們自定義的dic檔案
IK 分詞器外掛
再次測試一下

IK 分詞器外掛
以後,我們需要自己配置分詞就在自定義的dic檔案中進行配置即可!

本作品採用《CC 協議》,轉載必須註明作者和本文連結

相關文章