基於單字位置最大概率的Python分詞工具snailseg
[i=s] 本帖最後由 jieforest 於 2012-9-22 21:33 編輯
snailseg是一個使用Python編寫的簡單的中文分詞庫。
專案地址:https://github.com/fxsjy/snailseg
線上分詞效果展示:https://snailsegdemo.appspot.com/(使用代理訪問)
使用方法
將snailseg目錄放置於當前目錄或者site-packages目錄
import snailseg
程式碼示例
words = snailseg.cut("南京市長江大橋")
for w in words:
print w 演算法
演算法是統計單字在詞語中出現位置的概率大小,選擇最大可能的分詞方案。演算法很簡單,只有100行純Python程式碼。
效能
測試環境:Intel(R) Core(TM) i7-2600 CPU @ 3.4GHz;《圍城》.txt
速度:700 KB/Second
示例
線上分詞效果展示:https://snailsegdemo.appspot.com/
測試用例:https://github.com/fxsjy/snailseg/blob/master/test.py
snailseg是一個使用Python編寫的簡單的中文分詞庫。
專案地址:https://github.com/fxsjy/snailseg
線上分詞效果展示:https://snailsegdemo.appspot.com/(使用代理訪問)
使用方法
將snailseg目錄放置於當前目錄或者site-packages目錄
import snailseg
程式碼示例
CODE:
import snailsegwords = snailseg.cut("南京市長江大橋")
for w in words:
print w 演算法
演算法是統計單字在詞語中出現位置的概率大小,選擇最大可能的分詞方案。演算法很簡單,只有100行純Python程式碼。
效能
測試環境:Intel(R) Core(TM) i7-2600 CPU @ 3.4GHz;《圍城》.txt
速度:700 KB/Second
示例
線上分詞效果展示:https://snailsegdemo.appspot.com/
測試用例:https://github.com/fxsjy/snailseg/blob/master/test.py
來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/301743/viewspace-744829/,如需轉載,請註明出處,否則將追究法律責任。
相關文章
- 中文分詞工具之基於字標註法的分詞中文分詞
- 分詞工具Hanlp基於感知機的中文分詞框架HanLP中文分詞框架
- [Python] 基於 jieba 的中文分詞總結PythonJieba中文分詞
- 基於中文分詞工具pkuseg-python,我用張小龍的3萬字演講做了測試中文分詞Python
- 雙向最大匹配演算法——基於詞典規則的中文分詞(Java實現)演算法中文分詞Java
- 基於spark2.0文字分詞+多分類模型Spark分詞模型
- 基於hanlp的es分詞外掛HanLP分詞
- paip.語義分析--分詞--常見的單音節字詞 2_deDuli 單字詞 774個AI分詞
- HanLP分詞工具中的ViterbiSegment分詞流程HanLP分詞Viterbi
- 基於 HanLP 的 ES 中文分詞外掛HanLP中文分詞
- NLP——史丹佛分詞工具簡單使用分詞
- Python 自然語言處理(基於jieba分詞和NLTK)Python自然語言處理Jieba分詞
- PostgreSQL中英文混合分詞特殊規則(中文單字、英文單詞)-中英分明SQL分詞
- 用Python寫一個簡單的中文分詞器Python中文分詞
- 分詞問題;及最大乘積分析分詞
- Python分詞模組推薦:jieba中文分詞PythonJieba中文分詞
- Django python 基於Layui的分頁DjangoPythonUI
- 基於Python的Excel處理工具PythonExcel
- 怎樣實現基於Trie樹和字典的分詞功能分詞
- python分詞和生成詞雲圖Python分詞
- MapReduce實現與自定義詞典檔案基於hanLP的中文分詞詳解HanLP中文分詞
- Java 英語單詞本 (基於有道翻譯)Java
- 【Python】jieba分詞模組PythonJieba分詞
- NETPLIER : 一款基於概率的網路協議逆向工具(一)理論協議
- python 背單詞Python
- 基於概率的矩陣分解原理詳解(PMF)矩陣
- 部分常用分詞工具使用整理分詞
- java分詞工具hanlp介紹Java分詞HanLP
- 基於海量詞庫的單詞拼寫檢查、推薦到底是咋做的?
- 基於結構化平均感知機的分詞器Java實現分詞Java
- 達觀資料基於Deep Learning的中文分詞嘗試中文分詞
- 基於Python的郵件檢測工具Python
- 中文分詞原理及常用Python中文分詞庫介紹中文分詞Python
- PRML 概率分佈概率分佈
- Python中的隨機取樣和概率分佈(一)Python隨機概率分佈
- Python中的隨機取樣和概率分佈(二)Python隨機概率分佈
- Python中的結巴分詞初探Python分詞
- python 中文分詞包 jiebaPython中文分詞Jieba