中文搜尋引擎技術揭密:中文分詞
前言
資訊的飛速增長,使搜尋引擎成為人們查詢資訊的首選工具,Google、百度、yisou、中搜等大型搜尋引擎一直人們討論的話題。隨著搜尋市場價值的不斷增加,越來越多的公司開發出自己的搜尋引擎,阿里巴巴的商機搜尋、8848的購物搜尋等也陸續面世,自然,搜尋引擎技術也成為技術人員關注的熱點。
搜尋引擎技術的研究,國外比中國要早近十年,從最早的Archie,到後來的Excite,以及altvista、overture、google等搜尋引擎面世,搜尋引擎發展至今,已經有十幾年的歷史,而國內開始研究搜尋引擎是在上個世紀末本世紀初。在許多領域,都是國外的產品和技術一統天下,特別是當某種技術在國外研究多年而國內才開始的情況下。例如作業系統、字處理軟體、瀏覽器等等,但搜尋引擎卻是個例外。雖然在國外搜尋引擎技術早就開始研究,但在國內還是陸續湧現出優秀的搜尋引擎,像百度、中搜等。目前在中文搜尋引擎領域,國內的搜尋引擎已經和國外的搜尋引擎效果上相差不遠。之所以能形成這樣的局面,有一個重要的原因就在於中文和英文兩種語言自身的書寫方式不同,這其中對於計算機涉及的技術就是中文分詞。
什麼是中文分詞
眾所周知,英文是以詞為單位的,詞和詞之間是靠空格隔開,而中文是以字為單位,句子中所有的字連起來才能描述一個意思。例如,英文句子I am a student,用中文則為:“我是一個學生”。計算機可以很簡單通過空格知道student是一個單詞,但是不能很容易明白「學」、「生」兩個字合起來才表示一個詞。把中文的漢字序列切分成有意義的詞,就是中文分詞,有些人也稱為切詞。我是一個學生,分詞的結果是:我 是 一個 學生。
中文分詞和搜尋引擎
中文分詞到底對搜尋引擎有多大影響?對於搜尋引擎來說,最重要的並不是找到所有結果,因為在上百億的網頁中找到所有結果沒有太多的意義,沒有人能看得完,最重要的是把最相關的結果排在最前面,這也稱為相關度排序。中文分詞的準確與否,常常直接影響到對搜尋結果的相關度排序。筆者最近替朋友找一些關於日本和服的資料,在搜尋引擎上輸入「和服」,得到的結果就發現了很多問題。下面就以這個例子來說明分詞對搜尋結果的影響,在目前最有三個中文搜尋引擎上做測試。測試方法是直接在Google、百度、中搜上以「和服」為關鍵詞進行搜尋:
在Google上輸入「和服」搜尋所有中文簡體網頁,總共結果507,000條,前20條結果中有14條與和服一點關係都沒有。在第一頁就有以下錯誤:
“通訊資訊報:瑞星以技術和服務開拓網路安全市場”
“使用純HTML的通用資料管理和服務- 開發者- ZDNet ...”
“陳慧琳《心口不一》 化妝和服裝自己包辦”
“::外交部:中國境外領事保護和服務指南(2003年版) ...”
“產品和服務”
等等。第一頁只有三篇是真正在講「和服」的結果。
在百度上輸入「和服」搜尋網頁,總共結果為287,000條,前20條結果中有6條與和服一點關係都沒有。在第一頁有以下錯誤:
“福建省晉江市恆和服裝有限公司系獨資企業”
“關於商品和服務實行明碼標價的規定”
“青島東和服裝裝置”
在中搜山輸入「和服」搜尋網頁,總共結果為26,917條,前20條結果都是與和服相關的網頁。
這次搜尋引擎結果中的錯誤,就是由於分詞的不準確所造成的。通過筆者的瞭解,Google的中文分詞技術採用的是美國一家名叫Basis Technology(http://www.basistech.com)的公司提供的中文分詞技術,百度使用的是自己公司開發的分詞技術,中搜使用的是國內海量科技(http://www.hylanda.com)提供的分詞技術。業界評論海量科技的分詞技術目前被認為是國內最好的中文分詞技術,其分詞準確度超過99%,由此也使得中搜在搜尋結果中搜尋結果的錯誤率很低。由此可見,中文分詞的準確度,對搜尋引擎結果相關性和準確性有相當大的關係。
中文分詞技術
中文分詞技術屬於自然語言處理技術範疇,對於一句話,人可以通過自己的知識來明白哪些是詞,哪些不是詞,但如何讓計算機也能理解?其處理過程就是分詞演算法。
現有的分詞演算法可分為三大類:基於字串匹配的分詞方法、基於理解的分詞方法和基於統計的分詞方法。
基於字串匹配的分詞方法
這種方法又叫做機械分詞方法,它是按照一定的策略將待分析的漢字串與一個「充分大的」機器詞典中的詞條進行配,若在詞典中找到某個字串,則匹配成功(識別出一個詞)。按照掃描方向的不同,串匹配分詞方法可以分為正向匹配和逆向匹配;按照不同長度優先匹配的情況,可以分為最大(最長)匹配和最小(最短)匹配;按照是否與詞性標註過程相結合,又可以分為單純分詞方法和分詞與標註相結合的一體化方法。常用的幾種機械分詞方法如下:
- 正向最大匹配法(由左到右的方向);
- 逆向最大匹配法(由右到左的方向);
- 最少切分(使每一句中切出的詞數最小)。
一種方法是改進掃描方式,稱為特徵掃描或標誌切分,優先在待分析字串中識別和切分出一些帶有明顯特徵的詞,以這些詞作為斷點,可將原字串分為較小的串再來進機械分詞,從而減少匹配的錯誤率。另一種方法是將分詞和詞類標註結合起來,利用豐富的詞類資訊對分詞決策提供幫助,並且在標註過程中又反過來對分詞結果進行檢驗、調整,從而極大地提高切分的準確率。
對於機械分詞方法,可以建立一個一般的模型,在這方面有專業的學術論文,這裡不做詳細論述。
基於理解的分詞方法
這種分詞方法是通過讓計算機模擬人對句子的理解,達到識別詞的效果。其基本思想就是在分詞的同時進行句法、語義分析,利用句法資訊和語義資訊來處理歧義現象。它通常包括三個部分:分詞子系統、句法語義子系統、總控部分。在總控部分的協調下,分詞子系統可以獲得有關詞、句子等的句法和語義資訊來對分詞歧義進行判斷,即它模擬了人對句子的理解過程。這種分詞方法需要使用大量的語言知識和資訊。由於漢語語言知識的籠統、複雜性,難以將各種語言資訊組織成機器可直接讀取的形式,因此目前基於理解的分詞系統還處在試驗階段。
基於統計的分詞方法
從形式上看,詞是穩定的字的組合,因此在上下文中,相鄰的字同時出現的次數越多,就越有可能構成一個詞。因此字與字相鄰共現的頻率或概率能夠較好的反映成詞的可信度。可以對語料中相鄰共現的各個字的組合的頻度進行統計,計算它們的互現資訊。定義兩個字的互現資訊,計算兩個漢字X、Y的相鄰共現概率。互現資訊體現了漢字之間結合關係的緊密程度。當緊密程度高於某一個閾值時,便可認為此字組可能構成了一個詞。這種方法只需對語料中的字組頻度進行統計,不需要切分詞典,因而又叫做無詞典分詞法或統計取詞方法。但這種方法也有一定的侷限性,會經常抽出一些共現頻度高、但並不是詞的常用字組,例如「這一」、「之一」、「有的」、「我的」、「許多的」等,並且對常用詞的識別精度差,時空開銷大。實際應用的統計分詞系統都要使用一部基本的分詞詞典(常用詞詞典)進行串匹配分詞,同時使用統計方法識別一些新的詞,即將串頻統計和串匹配結合起來,既發揮匹配分詞切分速度快、效率高的特點,又利用了無詞典分詞結合上下文識別生詞、自動消除歧義的優點。
到底哪種分詞演算法的準確度更高,目前並無定論。對於任何一個成熟的分詞系統來說,不可能單獨依靠某一種演算法來實現,都需要綜合不同的演算法。筆者瞭解,海量科技的分詞演算法就採用「複方分詞法」,所謂複方,相當於用中藥中的複方概念,即用不同的藥才綜合起來去醫治疾病,同樣,對於中文詞的識別,需要多種演算法來處理不同的問題。
分詞中的難題。
有了成熟的分詞演算法,是否就能容易的解決中文分詞的問題呢?事實遠非如此。中文是一種十分複雜的語言,讓計算機理解中文語言更是困難。在中文分詞過程中,有兩大難題一直沒有完全突破。
- 歧義識別。
交叉歧義相對組合歧義來說是還算比較容易處理,組合歧義就必需根據整個句子來判斷了。例如,在句子「這個門把手壞了」中,「把手」是個詞,但在句子「請把手拿開」中,「把手」就不是一個詞;在句子「將軍任命了一名中將」中,「中將」是個詞,但在句子「產量三年中將增長兩倍」中,「中將」就不再是詞。這些詞計算機又如何去識別?
如果交叉歧義和組合歧義計算機都能解決的話,在歧義中還有一個難題,是真歧義。真歧義意思是給出一句話,由人去判斷也不知道哪個應該是詞,哪個應該不是詞。例如:「乒乓球拍賣完了」,可以切分成「乒乓 球拍 賣 完 了」、也可切分成「乒乓球 拍賣 完 了」,如果沒有上下文其他的句子,恐怕誰也不知道「拍賣」在這裡算不算一個詞。
- 新詞識別。
新詞中除了人名以外,還有機構名、地名、產品名、商標名、簡稱、省略語等都是很難處理的問題,而且這些又正好是人們經常使用的詞,因此對於搜尋引擎來說,分詞系統中的新詞識別十分重要。目前新詞識別準確率已經成為評價一個分詞系統好壞的重要標誌之一。
中文分詞的應用
目前在自然語言處理技術中,中文處理技術比西文處理技術要落後很大一段距離,許多西文的處理方法中文不能直接採用,就是因為中文必需有分詞這道工序。中文分詞是其他中文資訊處理的基礎,搜尋引擎只是中文分詞的一個應用。其他的比如機器翻譯(MT)、語音合成、自動分類、自動摘要、自動校對等等,都需要用到分詞。因為中文需要分詞,可能會影響一些研究,但同時也為一些企業帶來機會,因為國外的計算機處理技術要想進入中國市場,首先也是要解決中文分詞問題。在中文研究方面,相比外國人來說,中國人有十分明顯的優勢。
分詞準確性對搜尋引擎來說十分重要,但如果分詞速度太慢,即使準確性再高,對於搜尋引擎來說也是不可用的,因為搜尋引擎需要處理數以億計的網頁,如果分詞耗用的時間過長,會嚴重影響搜尋引擎內容更新的速度。因此對於搜尋引擎來說,分詞的準確性和速度,二者都需要達到很高的要求。目前研究中文分詞的大多是科研院校,清華、北大、中科院、北京語言學院、東北大學、IBM研究院、微軟中國研究院等都有自己的研究隊伍,而真正專業研究中文分詞的商業公司除了海量科技以外,幾乎沒有了。科研院校研究的技術,大部分不能很快產品化,而一個專業公司的力量畢竟有限,看來中文分詞技術要想更好的服務於更多的產品,還有很長一段路。
相關文章
- 中文分詞技術中文分詞
- 搜尋引擎es-分詞與搜尋分詞
- NLP第3章 中文分詞技術中文分詞
- 語音技術——關鍵詞搜尋
- 搜尋引擎核心技術與演算法 —— 詞項詞典與倒排索引優化演算法索引優化
- 中文分詞原理及常用Python中文分詞庫介紹中文分詞Python
- 搜尋引擎核心技術與演算法 —— 詞項詞典與倒排索引最佳化演算法索引
- Python自然語言處理實戰(3):中文分詞技術Python自然語言處理中文分詞
- NLP技術如何為搜尋引擎賦能
- 開源搜尋技術的核心引擎 —— Lucene
- SAP UI 搜尋分頁技術UI
- NLP之中文分詞中文分詞
- Laravel + Elasticsearch 實現中文搜尋LaravelElasticsearch
- solr搜尋分詞優化Solr分詞優化
- #Elasticsearch中文分詞器 #IK分詞器 @FDDLCElasticsearch中文分詞
- python 中文分詞包 jiebaPython中文分詞Jieba
- 後端技術雜談2:搜尋引擎工作原理後端
- 搜尋引擎-03-搜尋引擎原理
- 古詩詞 中文 分詞 自動化分詞
- 【搜尋引擎】 PostgreSQL 10 實時全文檢索和分詞、相似搜尋、模糊匹配實現類似Google搜尋自動提示SQL分詞Go
- HanLP中文分詞Lucene外掛HanLP中文分詞
- 如何用Python做中文分詞?Python中文分詞
- SCWS PHP 中文簡易分詞PHP分詞
- 中文分詞器,整理自Ai中文分詞AI
- 【搜尋引擎】SOLR VS Elasticsearch(2019技術選型參考)SolrElasticsearch
- 網路偵察技術(一)搜尋引擎資訊收集
- 【搜尋引擎】Solr Suggester 實現全文檢索功能-分詞和和自動提示Solr分詞
- 分詞工具Hanlp基於感知機的中文分詞框架HanLP中文分詞框架
- python 實現中文分詞統計Python中文分詞
- elastcisearch中文分詞器各個版本AST中文分詞
- 深度有趣 | 15 淺談中文分詞中文分詞
- Coreseek-帶中文分詞的Sphinx中文分詞
- 史上最全中文分詞工具整理中文分詞
- 海量資料搜尋---搜尋引擎
- 後端技術雜談1:搜尋引擎基礎倒排索引後端索引
- 搜尋引擎分散式系統思考實踐 |得物技術分散式
- 搜尋器robot技術
- pyhanlp 中文詞性標註與分詞簡介HanLP詞性標註分詞