大資料語義分析:靈玖中文分詞的分詞處理
在中文自然語言處理中,詞是最小的能夠獨立活動的有意義的語言成分。漢語是以字為基本書寫單位,詞語之間沒有明顯的區分標記,因此進行中文自然語言處理通常是先將漢語文字中的字串切分成合理的詞語序列,然後再在此基礎上進行其它分析處理。中文分詞是中文資訊處理的一個基礎環節,已被廣泛應用於中文文字處理、資訊提取、文字挖掘等應用中。分詞涉及許多方面的問題,主要包括:
(1). 核心詞表問題:許多分詞演算法都需要有一個核心的(通用、與領域無關的)詞表。凡在該詞表中的詞,分詞時就應該切分出來。但對於哪些詞應當收進核心詞表,目前尚無一個標準;
(2). 詞的變形問題:漢語中的動詞和形容詞有些可以產生變形結構,如“打牌”、“開心”、“看見”、“相信”可能變形成“打打牌”、“開開心”等,它們可以被切出“打打/牌”,但“開開/心”就不合理。又如大量的離合詞如“打架”、“睡覺”等可以合理地變形為“打了一場架”、“睡了一大覺”。對這些變形結構的切分往往缺少可操作而又合理的規範;
(3). 詞綴的問題:如語素“者”在現代漢語中單用是沒有意義的,因此“作者”、“成功者”、“開發者”內部不能切開。依據這個標準,如“作出了巨大個人財產和精神犧牲者”、“克服許多困難而最終獲得成功者”也不能切開,但這樣複雜的結構與詞的定義相矛盾。又如職務名稱“教育局長”,語義上理解為“教育局之長”,但切成“教育/局長”、“教育局/長”、“教育/局/長”或不予切分,都會有人提出異議。
(4). 漢語自動分詞規範須支援各種不同目標的應用,但不同目標的應用對詞的要求是不同甚至是矛盾的。比如以詞為單位的鍵盤輸入系統為了提高輸入速度,一些互現頻率高的相互鄰接的幾個字也常作為輸入單位,如“這是”、“每一”、“並不”、“不多”等;檢索系統中,檢索系統的詞庫注重術語和專名,且多數檢索系統傾向於分詞單位小型化,比如把“中國科學院”切成“中國/科學院”,使得無論用“中國科學院”還是用“科學院”檢索,系統都能查到,提高查全率;在校對系統中往往將含有易錯字的詞和片語作為詞單位,如許多人“作”、“做”分不清,計算機自動判別時,若把它們當作單字詞也不好區分,但在同前後文構成的詞或片語中往往可以有確定的選擇,故應把有關的詞和片語都收進詞庫,如“敢做”、“敢作敢為”、“叫做”、“做出”、“看作”、“做為”等,而校對系統要求分詞單位較大,如把“勇鬥”、“力擒”、“智取”等分別作為一個分詞單位並劃歸及物動詞參與上下文檢查,“張老師”、“五分之三”、“北京中醫學院”也應分別作為分詞單位,並分別歸類作為人、數字、機構名,再參與上下文檢查。
而NLPIR文字搜尋與挖掘開發平臺針對網際網路內容處理的需要,融合了自然語言理解、網路搜尋和文字挖掘的技術,提供了用於技術二次開發的基礎工具集。是一套專門針對原始文字集進行處理和加工的軟體,提供了中介軟體處理效果的視覺化展示,也可以作為小規模資料的處理加工工具。使用者可以使用該軟體對自己的資料進行處理。
NLPIR文字搜尋與挖掘開發平臺的幾大功能:
1. 全文精準檢索:支援文字、數字、日期、字串等各種資料型別,多欄位的高效搜尋,支援AND/OR/NOT以及NEAR鄰近等查詢語法,支援維語、藏語、蒙語、阿拉伯、韓語等多種少數民族語言的檢索。可以無縫地與現有文字處理系統與資料庫系統融合。
2. 新詞發現:從檔案集合中挖掘出內涵的新詞語列表,可以用於使用者專業詞典的編撰;還可以進一步編輯標註,匯入分詞詞典中,從而提高分詞系統的準確度,並適應新的語言變化。
3. 分詞標註:對原始語料進行分詞、自動識別人名地名機構名等未登入詞、新詞標註以及詞性標註。並可在分析過程中,匯入使用者定義的詞典。
4. 統計分析與術語翻譯: 針對切分標註結果,系統可以自動地進行一元詞頻統計、二元詞語轉移機率統計(統計兩個詞左右連線的頻次即機率)。針對常用的術語,會自動給出相應的英文解釋。
5. 文字聚類及熱點分析:能夠從大規模資料中自動分析出熱點事件,並提供事件話題的關鍵特徵描述。同時適用於長文字和簡訊、微博等短文字的熱點分析。
6. 分類過濾: 針對事先指定的規則和示例樣本,系統自動從海量文件中篩選出符合需求的樣本。
7. 正負面分析:針對事先指定的分析物件和示例樣本,系統自動從海量文件中篩選出正負面的得分和句子樣例。
8. 自動摘要: 能夠對單篇或多篇文章,自動提煉出內容的精華,方便使用者快速瀏覽文字內容。
9. 關鍵詞提取:能夠對單篇文章或文章集合,提取出若干個代表文章中心思想的詞彙或短語,可用於精化閱讀、語義查詢和快速匹配等。
10. 文件去重: 能夠快速準確地判斷檔案集合或資料庫中是否存在相同或相似內容的記錄,同時找出所有的重複記錄。
來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/31386431/viewspace-2128147/,如需轉載,請註明出處,否則將追究法律責任。
相關文章
- 語義挖掘:靈玖大資料漢語智慧分詞大資料分詞
- 語義分析發現:靈玖大資料檢索與分詞大資料分詞
- 靈玖大資料在中文語義分析完成新突破大資料
- 自然語言處理:分詞方法自然語言處理分詞
- 自然語言處理之jieba分詞自然語言處理Jieba分詞
- 中文分詞研究難點-詞語劃分和語言規範中文分詞
- 大資料資訊挖掘中文分詞是關鍵大資料中文分詞
- 語義挖掘:靈玖大資料文字過濾大資料
- Hanlp分詞之CRF中文詞法分析詳解HanLP分詞CRF詞法分析
- #Elasticsearch中文分詞器 #IK分詞器 @FDDLCElasticsearch中文分詞
- Python自然語言處理實戰(3):中文分詞技術Python自然語言處理中文分詞
- NLP自然語言處理 jieba中文分詞,關鍵詞提取,詞性標註,並行分詞,起止位置,文字挖掘,NLP WordEmbedding的概念和實現自然語言處理Jieba中文分詞詞性標註並行
- Python分詞模組推薦:jieba中文分詞PythonJieba中文分詞
- NLPIR語義分析系統不斷提高中文分詞準確率中文分詞
- 分詞工具Hanlp基於感知機的中文分詞框架HanLP中文分詞框架
- 中文分詞原理及常用Python中文分詞庫介紹中文分詞Python
- Python文字處理NLP:分詞與詞雲圖Python分詞
- 中文分詞技術中文分詞
- IKAnalyzer 中文分詞的不同版本切詞方式中文分詞
- NLP自然語言處理中的hanlp分詞例項自然語言處理HanLP分詞
- 自然語言處理中的分詞問題總結自然語言處理分詞
- 自然語言處理工具中的中文分詞器介紹自然語言處理中文分詞
- 中文分詞工具之基於字標註法的分詞中文分詞
- 中文自然語言處理工具集:分詞,相似度匹配自然語言處理分詞
- iOS中文近似度的演算法及中文分詞(結巴分詞)的整合iOS演算法中文分詞
- paip.語義分析--分詞--常見的單音節字詞 2_deDuli 單字詞 774個AI分詞
- 文字挖掘之語料庫、分詞、詞頻統計分詞
- 自然語言處理工具pyhanlp分詞與詞性標註自然語言處理HanLP分詞詞性標註
- [python] LDA處理文件主題分佈及分詞、詞頻、tfidf計算PythonLDA分詞
- pyhanlp 中文詞性標註與分詞簡介HanLP詞性標註分詞
- Python 自然語言處理(基於jieba分詞和NLTK)Python自然語言處理Jieba分詞
- 使用Docker快速安裝部署ES和Kibana並配置IK中文分詞器以及自定義分詞擴充詞庫Docker中文分詞
- Java中文分片語件 - word分詞(skycto JEEditor)Java分詞
- Go 語言高效分詞, 支援英文、中文、日文等Go分詞
- SCWS PHP 中文簡易分詞PHP分詞
- HanLP中文分詞Lucene外掛HanLP中文分詞
- python 中文分詞包 jiebaPython中文分詞Jieba
- ElasticSearch5.6.1 + 中文分詞(IK)ElasticsearchH5中文分詞