騰訊word2vec模型縮小版
騰訊開源的word2vec模型。
原版15個G,一般愛好者很難玩出來。
所以做了一些小的。方便大家使用。
5000-small.txt 這個有5000詞,可以下下來玩玩
45000-small.txt 這個有4.5w的詞,已經能解決很多問題了
70000-small.txt 7w詞 133MB https://pan.baidu.com/s/1DprHD8HwEqkWRBG0ss2y1A
100000-small.txt 10w詞 190MB https://pan.baidu.com/s/1KqPOwfrw3KoLJqTsCUdriA
500000-small.txt 50w詞 953MB https://pan.baidu.com/s/1SGwxpGW8HjYw8HdKQUB8Gw
1000000-small.txt 100w詞 1.9GB https://pan.baidu.com/s/1ObstPl7R8o1L98Ag9owGiw
2000000-small.txt 200w詞 3.8GB https://pan.baidu.com/s/1hmCiMandgyedjmP520_Aog
再大就自己去下載吧
https://ai.tencent.com/ailab/nlp/data/Tencent_AILab_ChineseEmbedding.tar.gz
使用
讀模型
from gensim.models import KeyedVectors
model = KeyedVectors.load_word2vec_format("50-small.txt")
使用
model.most_similar(positive=['女', '國王'], negative=['男'], topn=1)
model.doesnt_match("上海 成都 廣州 北京".split(" "))
model.similarity('女人', '男人')
model.most_similar('川普',topn=10)
相關文章
- word2vec原理(二) 基於Hierarchical Softmax的模型模型
- 87 GB 模型種子,GPT-4 縮小版,超越ChatGPT3.5,多平臺線上體驗模型ChatGPT
- 動手實踐word2vec和doc2vec模型模型
- word2vec原理(一) CBOW與Skip-Gram模型基礎模型
- BERT 模型壓縮方法模型
- word2vec原理(三) 基於Negative Sampling的模型模型
- 在Python和TensorFlow上構建Word2Vec詞嵌入模型Python模型
- 騰訊 AI Lab提出自動化模型壓縮框架PocketFlow:將深度學習裝進口袋AI模型框架深度學習
- yolov5--4.0--模型壓縮YOLO模型
- 模型壓縮之 BinaryNet模型
- MySQL壓縮版教程MySql
- 無所不能的Embedding 1 - Word2vec模型詳解&程式碼實現模型
- 如何縮小物件體積物件
- 深度學習模型壓縮方法概述深度學習模型
- word2vec的理解
- 「NLP-詞向量」從模型結構到損失函式詳解word2vec模型函式
- ps放大縮小快捷鍵是什麼 ps裡面放大縮小怎麼操作
- CANN5.0黑科技解密 | 別眨眼!縮小隧道,讓你的AI模型“身輕如燕”!解密AI模型
- 縮小APK,增加下載量APK
- oracle compress壓縮小記Oracle
- 模型壓縮-剪枝演算法詳解模型演算法
- 「騰訊地圖」小程式外掛地圖
- 騰訊雲Codeigniter小記
- TensorFlow推出模型優化工具包,可將模型壓縮75%模型優化
- 圖片縮小尺寸演算法演算法
- JavaScript設定字型放大和縮小JavaScript
- js實現放大縮小頁面JS
- prml線性模型小結模型
- unity小恐龍模型控制Unity模型
- 最大熵模型原理小結熵模型
- cad縮小比例快捷鍵命令是什麼 cad圖太大了怎麼縮小比例
- TensorFlow推出模型最佳化工具包,可將模型壓縮75%模型
- Word2Vec演算法梳理演算法
- NLP:Gensim庫之word2vec
- 用gensim學習word2vec
- NeurIPS 2018 | 騰訊AI Lab詳解3大熱點:模型壓縮、機器學習及最優化演算法AI模型機器學習優化演算法
- Mac安裝壓縮版MySQL ServerMacMySqlServer
- 深入淺出騰訊BERT推理模型--TurboTransformers模型ORM