python分詞和生成詞雲圖
main.py
#coding: utf-8
'''
程式執行前,需要用詞雲圖資料夾下的wordcloud.py替換掉以下路徑中的wordcloud.py
Anaconda3\Lib\site-packages\wordcloud
以上路徑為pip install wordcloud下載包所在路徑,如果涉及虛擬環境,則進入以下路徑
Anaconda3\envs\***\Lib\site-packages\wordcloud
替換原因:原來的wordcloud.py無法返回生成的詞語和頻率
'''
import jieba.analyse
import jieba
import wordcloud
# import pandas as pd
def cut(text):
# 選擇分詞模式
word_list = jieba.cut(text, cut_all=True)
# 分詞後在單獨個體之間加上空格
result = " ".join(word_list)
# 返回分詞結果
return result
if __name__ == '__main__':
# 載入自定義詞典
jieba.load_userdict('dict.txt')
src = 'text.txt'
f = open(src, 'r', encoding='utf-8')
text = f.read()
text = cut(text)
# print(text)
w = wordcloud.WordCloud(font_path='msyh.ttc', width=1000, height=700, background_color='white')
w.generate(text)
words_dict = w.return_words # 字典
# for k, v in words.items():
# print(k)
w.to_file('grwordcloud.png')
wordcloud.py
class WordCloud(object):
def __init__(self,...)
...
self.return_words = {}
...
def generate_from_frequencies(self, frequencies, max_font_size=None):
...
for word, freq in frequencies:
...
self.return_words[word] = freq
...
...
return self
相關文章
- Python文字處理NLP:分詞與詞雲圖Python分詞
- python讀取txt文字資料進行分詞並生成詞雲圖片Python分詞
- 已知詞頻生成詞雲圖(資料庫到生成詞雲)--generate_from_frequencies(WordCloud)資料庫Cloud
- Python如何生成詞雲(詳細分析)Python
- Python pyecharts繪製詞雲圖PythonEcharts
- 如何用python建立詞雲圖片Python
- Python 詞雲系列Python
- python使用jieba實現中文文件分詞和去停用詞PythonJieba分詞
- 中文分詞原理及常用Python中文分詞庫介紹中文分詞Python
- python jieba庫,句子分詞PythonJieba分詞
- python 中文分詞包 jiebaPython中文分詞Jieba
- Python視覺化-generate_from_frequencies給定詞頻畫詞雲圖(WordCloud)Python視覺化Cloud
- 如何用Python做詞雲?Python
- python -wordcloudan雲詞安裝PythonCloud
- 分詞分詞
- 如何用Python做中文分詞?Python中文分詞
- 中文分詞研究難點-詞語劃分和語言規範中文分詞
- python爬蟲學習:爬蟲QQ說說並生成詞雲圖,回憶滿滿Python爬蟲
- Python自定義詞雲圖形狀和文字顏色Python
- HanLP分詞工具中的ViterbiSegment分詞流程HanLP分詞Viterbi
- #Elasticsearch中文分詞器 #IK分詞器 @FDDLCElasticsearch中文分詞
- 如何用Python 製作詞雲-對1000首古詩做詞雲分析Python
- elasticsearch之ik分詞器和自定義詞庫實現Elasticsearch分詞
- python 實現中文分詞統計Python中文分詞
- python呼叫hanlp分詞包手記PythonHanLP分詞
- 分詞-1分詞
- Python:Python 中 jieba 庫的使用(中文分詞)PythonJieba中文分詞
- Python 自然語言處理(基於jieba分詞和NLTK)Python自然語言處理Jieba分詞
- HanLP-實詞分詞器詳解HanLP分詞
- 動詞過去式過去分詞分詞
- 古詩詞 中文 分詞 自動化分詞
- jieba 詞性標註 & 並行分詞Jieba詞性標註並行分詞
- 親手做的詞向量分佈圖
- Python爬蟲之js加密破解,抓取網易雲音樂評論生成詞雲Python爬蟲JS加密
- 使用Docker快速安裝部署ES和Kibana並配置IK中文分詞器以及自定義分詞擴充詞庫Docker中文分詞
- 詞!自然語言處理之詞全解和Python實戰!自然語言處理Python
- 匹配關鍵詞和敏感詞
- 單詞劃分