詞向量word to vector通俗理解
word2vec
概述
之前使用one-hot編碼來表示詞向量,比如貓為(1,0,0),狗為(0,1,0),這種稀疏編碼,維度大,詞與詞之間是孤立的,無法表示詞與詞之間的語義資訊!
word2vec就是為了解決這個問題,下圖就是表示形式,我們從圖中可以看到man和woman的兩個詞矩陣相似度更高,這種表示方法能捕捉到詞與詞之間的關聯資訊。
一個詞向量是一個一維向量,將所有單詞的向量按照行堆疊起來就被稱為embedding矩陣,像下面一樣
訓練得到embedding矩陣
如何為每一個單詞都生成一個這樣的向量呢,下面來慢慢介紹:
下面的模型,先看看整體情況,不考慮細節。先僅僅看一下模型的輸入輸出。輸入一個單詞,輸出當前句子的下一個單詞,也就是通過前面的單詞預測下一個單詞。
比如下面圖中的句子,輸入Thou和shalt,輸出就是not(下面所有圖中的綠色部分為輸入,紅色為輸出),然後慢慢滑動這個紫色的視窗,就可以得到大量的資料樣本(例如下一個視窗是shalt和not,輸出make)
或者我們也可以通過兩邊的單詞來預測中間的單詞,即從上下文這個角度這樣可以讓預測更加準確
回到訓練模型,我們剛開始不知道這個embedding矩陣,就先隨機給一個,然後輸入不同的單詞時,在embedding矩陣中查詢對應的向量,輸入到模型中進行訓練,迭代使之與輸出值一致。最後就可以得到embedding矩陣,為其他領域所應用。
但是實際上,word2vec並不是上面這樣訓練
因為從計算的角度來看,第三步更新迭代是非常昂貴的——尤其是知道我們將為資料集中的每個訓練樣本執行一次(很容易達到數千萬次)。我們需要做些什麼來提高效能。
我們可以把輸入輸出改一下,我們一開始是not來預測thou
現在我們把not和thou同時作為輸入,如果他們兩個詞相鄰,那麼我們就輸出1,如果兩個詞不相鄰就輸出0,這樣就不用像之前那樣更新很大的引數矩陣,這樣做效率更高
參考部落格:https://jalammar.github.io/illustrated-word2vec/
相關文章
- 詞向量表示:word2vec與詞嵌入
- 利用詞向量進行推理(Reasoning with word vectors)
- 基於word2vec訓練詞向量(一)
- python-Vector向量Python
- STL---vector(向量)
- 學習SVM(四) 理解SVM中的支援向量(Support Vector)
- 【詞向量表示】Word2Vec原理及實現
- GitHub上中文詞向量(Chinese Word Vectors)的下載地址Github
- [namespace hdk] 向量 direct_vectornamespace
- 亂燉“簡書交友”資料之程式碼(2):關鍵詞抽取、Word2Vec詞向量
- 機器學習(四):通俗理解支援向量機SVM及程式碼實踐機器學習
- 詞向量入門
- 初始化向量(IV)通俗解釋
- 文字情感分析(二):基於word2vec和glove詞向量的文字表示
- 記憶體--通俗理解記憶體
- 帶你通俗理解httpsHTTP
- 「NLP-詞向量」從模型結構到損失函式詳解word2vec模型函式
- Vector Magic for Mac/win,圖片向量化的神器!Mac
- 一、【資料結構】向量(vector)的實現資料結構
- 支援向量機(Support Vector Machine,SVM)—— 線性SVMMac
- elasticsearch高亮之詞項向量Elasticsearch
- word_cloud 中文詞雲Cloud
- 資料庫-SQL_duckdb向量化計算-vector資料庫SQL
- 張量(Tensor)、標量(scalar)、向量(vector)、矩陣(matrix)矩陣
- 通俗理解.NET 6 Minimal APIsAPI
- 通俗易懂地理解ReduxRedux
- 如何通俗的理解散度?
- 通俗理解一些概念
- 好用的向量圖形轉換軟體:vector magic for MacMac
- 【詞向量表示】Item2Vec、DeepWalk、Node2vec、EGES詞向量生成演算法演算法
- 如何通俗理解泊松分佈?
- Vector Magic for mac(向量圖片轉換工具)1.2.0啟用版Mac
- 通俗易懂講解Word2vec的本質
- 通俗易懂理解 模型微調finetune模型
- 怎麼通俗易懂的理解OSPF?
- 3.2 神經網路的通俗理解神經網路
- 通俗理解線性迴歸(Linear Regression)
- 如何通俗理解設計模式及其思想?設計模式