一、IK簡介
IK Analyzer是一個開源的,基於java語言開發的輕量級的中文分詞工具包。最初,它是以開源專案Luence為應用主體的,結合詞典分詞和文法分析演算法的中文分片語件。從3.0版本開 始,IK發展為面向Java的公用分片語件,獨立於Lucene專案,同時提供了對Lucene的預設最佳化實現。在2012版本中,IK實現了簡單的分詞 歧義排除演算法,標誌著IK分詞器從單純的詞典分詞向模擬語義分詞衍化。
二、安裝IK分詞外掛
1、獲取分詞的依賴包
透過git clone https://github.com/medcl/elasticsearch-analysis-ik,下載分詞器原始碼,然後進入下載目錄:
執行命令:mvn clean package,打包生成elasticsearch-analysis-ik-1.2.5.jar
將這個jar複製到ES_HOME/plugins/analysis-ik目錄下面,如果沒有該目錄,則先建立該目錄。
2、ik目錄複製
將下載目錄中的ik目錄複製到ES_HOME/config目錄下面。
3、分詞器配置
開啟ES_HOME/config/elasticsearch.yml檔案,在檔案最後加入如下內容:
index: analysis: analyzer: ik: alias: [ik_analyzer] type: org.elasticsearch.index.analysis.IkAnalyzerProvider ik_max_word: type: ik use_smart: false ik_smart: type: ik use_smart: true 或: index.analysis.analyzer.default.type: ik
ok!外掛安裝已經完成,請重新啟動ES,接下來測試ik分詞效果啦!
三、ik分詞測試
1、建立一個索引,名為index
curl -XPUT http://localhost:9200/index
如果Elasticsearch 安裝完IK分詞外掛後使用curl命令建立索引出錯如下:
nested: ClassNotFoundException[org.apache.http.client.ClientProtocolException]; ","status":500}
解決方法:
Elasticsearch lib 資料夾中 引入:httpclient-4.3.5.jar和httpcore-4.3.2.jar。
下載地址:http://hc.apache.org/httpcomponents-client-4.4.x/download.html
2、為索引index建立mapping
curl -XPOST http://localhost:9200/index/fulltext/_mapping -d' { "fulltext": { "_all": { "analyzer": "ik" }, "properties": { "content": { "type" : "string", "boost" : 8.0, "term_vector" : "with_positions_offsets", "analyzer" : "ik", "include_in_all" : true } } } }'
3、測試
curl 'http://localhost:9200/index/_analyze?analyzer=ik&pretty=true' -d ' { "text":"世界如此之大" }'
顯示結果如下:
{ "tokens" : [ { "token" : "text", "start_offset" : 4, "end_offset" : 8, "type" : "ENGLISH", "position" : 1 }, { "token" : "世界", "start_offset" : 11, "end_offset" : 13, "type" : "CN_WORD", "position" : 2 }, { "token" : "如此", "start_offset" : 13, "end_offset" : 15, "type" : "CN_WORD", "position" : 3 }, { "token" : "之大", "start_offset" : 15, "end_offset" : 17, "type" : "CN_WORD", "position" : 4 } ] }