HanLP中文分詞Lucene外掛
基於 HanLP,支援包括Solr(7.x)在內的任何基於Lucene(7.x)的系統。
Maven
<dependency>
<groupId>com.hankcs.nlp</groupId>
<artifactId>hanlp-lucene-plugin</artifactId>
<version>1.1.6</version>
</dependency>
Solr快速上手
1. 將 hanlp-portable.jar和hanlp-lucene-plugin.jar共兩個jar放入${webapp}/WEB-INF/lib下。(或者使用mvn package對原始碼打包,複製target/hanlp-lucene-plugin-x.x.x.jar到${webapp}/WEB-INF/lib下)
2. 修改 solr core的配置檔案${core}/conf/schema.xml:
<fieldType name="text_cn" class="solr.TextField">
<analyzer type="index">
<tokenizer class="com.hankcs.lucene.HanLPTokenizerFactory" enableIndexMode="true"/>
</analyzer>
<analyzer type="query">
<!-- 切記不要在query中開啟index模式 -->
<tokenizer class="com.hankcs.lucene.HanLPTokenizerFactory" enableIndexMode="false"/>
</analyzer>
</fieldType>
<!-- 業務系統中需要分詞的欄位都需要指定type為text_cn -->
<field name="my_field1" type="text_cn" indexed="true" stored="true"/>
<field name="my_field2" type="text_cn" indexed="true" stored="true"/>
· 如果你的業務系統中有其他欄位,比如 location,summary之類,也需要一一指定其type="text_cn"。切記,否則這些欄位仍舊是solr預設分詞器。
· 另外,切記不要在 query中開啟indexMode,否則會影響PhaseQuery。indexMode只需在index中開啟一遍即可。
高階配置
目前本外掛支援如下基於 schema.xml的配置:
更高階的配置主要透過 class path下的hanlp.properties進行配置,請閱讀HanLP自然語言處理包文件以瞭解更多相關配置,如:
0. 使用者詞典
1. 詞性標註
2. 簡繁轉換
3. ……
停用詞與同義詞
推薦利用 Lucene或Solr自帶的filter實現,本外掛不會越俎代庖。 一個示例配置如下:
呼叫方法
在 Query改寫的時候,可以利用HanLPAnalyzer分詞結果中的詞性等屬性,如
String text = "中華人民共和國很遼闊";
for (int i = 0; i < text.length(); ++i)
{
System.out.print(text.charAt(i) + "" + i + " ");
}
System.out.println();
Analyzer analyzer = new HanLPAnalyzer();
TokenStream tokenStream = analyzer.tokenStream("field", text);
tokenStream.reset();
while (tokenStream.incrementToken())
{
CharTermAttribute attribute = tokenStream.getAttribute(CharTermAttribute.class);
// 偏移量
OffsetAttribute offsetAtt = tokenStream.getAttribute(OffsetAttribute.class);
// 距離
PositionIncrementAttribute positionAttr = tokenStream.getAttribute(PositionIncrementAttribute.class);
// 詞性
TypeAttribute typeAttr = tokenStream.getAttribute(TypeAttribute.class);
System.out.printf("[%d:%d %d] %s/%s\n", offsetAtt.startOffset(), offsetAtt.endOffset(), positionAttr.getPositionIncrement(), attribute, typeAttr.type());
}
在另一些場景,支援以自定義的分詞器(比如開啟了命名實體識別的分詞器、繁體中文分詞器、 CRF分詞器等)構造HanLPTokenizer,比如:
tokenizer = new HanLPTokenizer(HanLP.newSegment()
.enableJapaneseNameRecognize(true)
.enableIndexMode(true), null, false);
tokenizer.setReader(new StringReader("林志玲亮相網友:確定不是波多野結衣?"));
文章摘自: 2019 github
來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/31524777/viewspace-2641378/,如需轉載,請註明出處,否則將追究法律責任。
相關文章
- 基於 HanLP 的 ES 中文分詞外掛HanLP中文分詞
- 基於hanlp的es分詞外掛HanLP分詞
- ElasticSearch安裝中文分詞外掛IKElasticsearch中文分詞
- Hanlp分詞之CRF中文詞法分析詳解HanLP分詞CRF詞法分析
- 分詞工具Hanlp基於感知機的中文分詞框架HanLP中文分詞框架
- java+lucene中文分詞,搜尋引擎搜詞剖析Java中文分詞
- Simple: SQLite3 中文結巴分詞外掛SQLite分詞
- 中文分詞演算法工具hanlp原始碼解析中文分詞演算法HanLP原始碼
- Hanlp在java中文分詞中的使用介紹HanLPJava中文分詞
- ElasticSearch(三) ElasticSearch中文分詞外掛IK的安裝Elasticsearch中文分詞
- IK 分詞器外掛分詞
- HanLP分詞工具中的ViterbiSegment分詞流程HanLP分詞Viterbi
- es 自定義分詞外掛分詞
- Elasticsearch整合HanLP分詞器ElasticsearchHanLP分詞
- es筆記四之中文分詞外掛安裝與使用筆記中文分詞
- ElasticSearch(四) ElasticSearch中文分詞外掛IK的簡單測試Elasticsearch中文分詞
- hanlp中文智慧分詞自動識別文字提取例項HanLP分詞
- hanlp原始碼解析之中文分詞演算法詳解HanLP原始碼中文分詞演算法
- HanLP-實詞分詞器詳解HanLP分詞
- Lucene中文分析器的中文分詞準確性和效能比較中文分詞
- ElasticSearch安裝ik分詞外掛Elasticsearch分詞
- java分詞工具hanlp介紹Java分詞HanLP
- Hanlp等七種優秀的開源中文分詞庫推薦HanLP中文分詞
- Ansj與hanlp分詞工具對比HanLP分詞
- MapReduce實現與自定義詞典檔案基於hanLP的中文分詞詳解HanLP中文分詞
- HanLP分類模組的分詞器介紹HanLP分詞
- HanLP分詞命名實體提取詳解HanLP分詞
- python呼叫hanlp分詞包手記PythonHanLP分詞
- Spark中分散式使用HanLP(1.7.0)分詞示例Spark分散式HanLP分詞
- Hanlp中使用純JAVA實現CRF分詞HanLPJavaCRF分詞
- #Elasticsearch中文分詞器 #IK分詞器 @FDDLCElasticsearch中文分詞
- 中文分詞原理及常用Python中文分詞庫介紹中文分詞Python
- Spring MVCD框架中呼叫HanLP分詞的方法SpringMVC框架HanLP分詞
- HanLP程式碼與詞典分離方案與流程HanLP
- 中文分詞技術中文分詞
- Python分詞模組推薦:jieba中文分詞PythonJieba中文分詞
- mybatis generator外掛系列--分頁外掛MyBatis
- lucene中文分片語件(詞典全切分演算法)下載演算法