@
目錄
- 前言
- 需求
- 簡介
- 實操開始
- 1. 新增pom.xml依賴
- 2. 文字相似度工具類
- 3. 案例驗證
- 4. 驗證結果
- 總結
前言
請各大網友尊重本人原創知識分享,謹記本人部落格:南國以南i、
提示:以下是本篇文章正文內容,下面案例可供參考
需求
當我們需要求兩個或兩個以上的字串相似度百分比時,可以使用HanLP漢語言處理包來幫助我們,求兩個文字的相似度百分比、海明距離、
簡介
HanLP(Han Language Processing)
在漢語義處理方面具備強大的功能,由中國科學院計算技術研究所自然語言處理與社會人文計算研究中心開發。它提供了包括分詞、詞性標註、命名實體識別、依存句法分析、情感分析、文字分類等多種自然語言處理任務的功能。
主要功能:
- 分詞: HanLP提供了多種分詞模型,包括基於規則的模型、基於神經網路的模型等,能夠準確地進行中文分詞。
- 詞性標註: 在分詞的基礎上,HanLP還能對詞語進行詞性標註,幫助理解詞語在句子中的作用。
- 命名實體識別: HanLP能夠識別文字中的命名實體,如人名、地名、組織機構名等,這對於資訊抽取等任務非常重要。
- 依存句法分析: 透過對句子中各個詞語之間的依存關係建模,HanLP能夠分析句子結構,提取句子的語義資訊。
- 情感分析: HanLP支援對文字進行情感分析,判斷文字所表達的情感傾向,如正面、負面或中性。
- 文字分類: HanLP還提供了文字分類的功能,可以將文字按照預設的分類體系進行分類。
友情連結:
HanLP專案主頁 、HanLP下載地址、詳細介紹
實操開始
注意:
本文以Java開發語言為案例
1. 新增pom.xml依賴
<!--junit依賴-->
<dependency>
<groupId>junit</groupId>
<artifactId>junit</artifactId>
<version>3.8.1</version>
<scope>test</scope>
</dependency>
<!--hanlp語言處理依賴-->
<dependency>
<groupId>com.hankcs</groupId>
<artifactId>hanlp</artifactId>
<version>portable-1.7.6</version>
</dependency>
<!-- https://mvnrepository.com/artifact/org.apache.commons/commons-lang3 -->
<dependency>
<groupId>org.apache.commons</groupId>
<artifactId>commons-lang3</artifactId>
<version>3.4</version>
</dependency>
<!-- https://mvnrepository.com/artifact/org.jsoup/jsoup -->
<dependency>
<groupId>org.jsoup</groupId>
<artifactId>jsoup</artifactId>
<version>1.10.3</version>
</dependency>
2. 文字相似度工具類
import com.hankcs.hanlp.seg.common.Term;
import com.hankcs.hanlp.tokenizer.StandardTokenizer;
import org.apache.commons.lang3.StringUtils;
import org.jsoup.Jsoup;
import org.jsoup.safety.Whitelist;
import java.math.BigInteger;
import java.util.*;
public class MySimHash {
private String tokens; //字串
private BigInteger strSimHash;//字元產的hash值
private int hashbits = 64; // 分詞後的hash數;
public MySimHash(String tokens) {
this.tokens = tokens;
this.strSimHash = this.simHash();
}
private MySimHash(String tokens, int hashbits) {
this.tokens = tokens;
this.hashbits = hashbits;
this.strSimHash = this.simHash();
}
/**
* 清除html標籤
*
* @param content
* @return
*/
private String cleanResume(String content) {
// 若輸入為HTML,下面會過濾掉所有的HTML的tag
content = Jsoup.clean(content, Whitelist.none());
content = StringUtils.lowerCase(content);
String[] strings = {" ", "\n", "\r", "\t", "\\r", "\\n", "\\t", " "};
for (String s : strings) {
content = content.replaceAll(s, "");
}
return content;
}
/**
* 這個是對整個字串進行hash計算
*
* @return
*/
private BigInteger simHash() {
tokens = cleanResume(tokens); // cleanResume 刪除一些特殊字元
int[] v = new int[this.hashbits];
List<Term> termList = StandardTokenizer.segment(this.tokens); // 對字串進行分詞
//對分詞的一些特殊處理 : 比如: 根據詞性新增權重 , 過濾掉標點符號 , 過濾超頻詞彙等;
Map<String, Integer> weightOfNature = new HashMap<String, Integer>(); // 詞性的權重
weightOfNature.put("n", 2); //給名詞的權重是2;
Map<String, String> stopNatures = new HashMap<String, String>();//停用的詞性 如一些標點符號之類的;
stopNatures.put("w", ""); //
int overCount = 5; //設定超頻詞彙的界限 ;
Map<String, Integer> wordCount = new HashMap<String, Integer>();
for (Term term : termList) {
String word = term.word; //分詞字串
String nature = term.nature.toString(); // 分詞屬性;
// 過濾超頻詞
if (wordCount.containsKey(word)) {
int count = wordCount.get(word);
if (count > overCount) {
continue;
}
wordCount.put(word, count + 1);
} else {
wordCount.put(word, 1);
}
// 過濾停用詞性
if (stopNatures.containsKey(nature)) {
continue;
}
// 2、將每一個分詞hash為一組固定長度的數列.比如 64bit 的一個整數.
BigInteger t = this.hash(word);
for (int i = 0; i < this.hashbits; i++) {
BigInteger bitmask = new BigInteger("1").shiftLeft(i);
// 3、建立一個長度為64的整數陣列(假設要生成64位的數字指紋,也可以是其它數字),
// 對每一個分詞hash後的數列進行判斷,如果是1000...1,那麼陣列的第一位和末尾一位加1,
// 中間的62位減一,也就是說,逢1加1,逢0減1.一直到把所有的分詞hash數列全部判斷完畢.
int weight = 1; //新增權重
if (weightOfNature.containsKey(nature)) {
weight = weightOfNature.get(nature);
}
if (t.and(bitmask).signum() != 0) {
// 這裡是計算整個文件的所有特徵的向量和
v[i] += weight;
} else {
v[i] -= weight;
}
}
}
BigInteger fingerprint = new BigInteger("0");
for (int i = 0; i < this.hashbits; i++) {
if (v[i] >= 0) {
fingerprint = fingerprint.add(new BigInteger("1").shiftLeft(i));
}
}
return fingerprint;
}
/**
* 對單個的分詞進行hash計算;
*
* @param source
* @return
*/
private BigInteger hash(String source) {
if (source == null || source.length() == 0) {
return new BigInteger("0");
} else {
/**
* 當sourece 的長度過短,會導致hash演算法失效,因此需要對過短的詞補償
*/
while (source.length() < 3) {
source = source + source.charAt(0);
}
char[] sourceArray = source.toCharArray();
BigInteger x = BigInteger.valueOf(((long) sourceArray[0]) << 7);
BigInteger m = new BigInteger("1000003");
BigInteger mask = new BigInteger("2").pow(this.hashbits).subtract(new BigInteger("1"));
for (char item : sourceArray) {
BigInteger temp = BigInteger.valueOf((long) item);
x = x.multiply(m).xor(temp).and(mask);
}
x = x.xor(new BigInteger(String.valueOf(source.length())));
if (x.equals(new BigInteger("-1"))) {
x = new BigInteger("-2");
}
return x;
}
}
/**
* 計算海明距離,海明距離越小說明越相似;
*
* @param other
* @return
*/
private int hammingDistance(MySimHash other) {
BigInteger m = new BigInteger("1").shiftLeft(this.hashbits).subtract(
new BigInteger("1"));
BigInteger x = this.strSimHash.xor(other.strSimHash).and(m);
int tot = 0;
while (x.signum() != 0) {
tot += 1;
x = x.and(x.subtract(new BigInteger("1")));
}
return tot;
}
/**
* .
* 求百分比
*
* @param s2
* @return
*/
public double getSemblance(MySimHash s2) {
double i = (double) this.hammingDistance(s2);
return 1 - i / this.hashbits;
}
}
詳細說明:
/*--------------------------------------相似度演算法說明--------------------------------------
借鑑hashmap演算法找出可以hash的key值,因為我們使用的simhash是區域性敏感雜湊,這個演算法的特點是隻要相似的字串只有個別的位數是有差別變化。
那這樣我們可以推斷兩個相似的文字,至少有16位的simhash是一樣的。具體選擇16位、8位、4位,大家根據自己的資料測試選擇,雖然比較的位數越小越精準,但是空間會變大。
分為4個16位段的儲存空間是單獨simhash儲存空間的4倍。之前算出5000w資料是 382 Mb,擴大4倍1.5G左右,還可以接受:) 透過這樣計算,我們的simhash查詢過程全部降
到了1毫秒以下。就加了一個hash效果這麼厲害?我們可以算一下,原來是5000w次順序比較,現在是少了2的16次方比較,前面16位變成了hash查詢。後面的順序比較的個數是多少?
2^16 = 65536, 5000w/65536 = 763 次。。。。實際最後連結串列比較的資料也才 763次!所以效率大大提高! 到目前第一點降到3.6毫秒、支援5000w資料相似度比較做完了。
還有第二點同一時刻發出的文字如果重複也只能保留一條和短文字相識度比較怎麼解決。其實上面的問題解決了,這兩個就不是什麼問題了。 之前的評估一直都是按照線性計算來估計的,
就算有多執行緒提交相似度計算比較,我們提供相似度計算伺服器也需要線性計算。比如同時客戶端傳送過來兩條需要比較相似度的請求,在伺服器這邊都進行了一個排隊處理,一個接著一個,
第一個處理完了在處理第二個,等到第一個處理完了也就加入了simhash庫。所以只要服務端加了佇列,就不存在同時請求不能判斷的情況。 simhash如何處理短文字?換一種思路,
simhash可以作為區域性敏感雜湊第一次計算縮小整個比較的範圍,等到我們只有比較700多次比較時,就算使用我們之前精準度高計算很慢的編輯距離也可以搞定。當然如果覺得慢了,也可以使用餘弦夾角等效率稍微高點的相似度演算法";
*/
/*--------------------------------------分詞說明--------------------------------------
分詞,把需要判斷文字分詞形成這個文章的特徵單詞。 最後形成去掉噪音詞的單詞序列併為每個詞加上權重,我們假設權重分為5個級別(1~5)。
只要相似的字串只有個別的位數是有差別變化。那這樣我們可以推斷兩個相似的文字, 比如:“ 美國“51區”僱員稱內部有9架飛碟,曾看見灰色外星人 ” ==>
分詞後為 “ 美國(4) 51區(5) 僱員(3) 稱(1) 內部(2) 有(1) 9架(3) 飛碟(5) 曾(1) 看見(3) 灰色(4) 外星人(5)”, 括號裡是代表單詞在
整個句子裡重要程度,數字越大越重要。 2、hash,透過hash演算法把每個詞變成hash值, 比如“美國”透過hash演算法計算為 100101, “51區”透過hash演算法計算為 101011。
這樣我們的字串就變成了一串串數字,還記得文章開頭說過的嗎,要把文章變為數字計算才能提高相似度計算效能,現在是降維過程進行時。 3、加權,透過 2步驟的hash生成結果,
需要按照單詞的權重形成加權數字串, 比如“美國”的hash值為“100101”,透過加權計算為“4 -4 -4 4 -4 4”;“51區”的hash值為“101011”,透過加權計算為 “ 5 -5 5 -5 5 5”。 4、合併,
把上面各個單詞算出來的序列值累加,變成只有一個序列串。 比如 “美國”的 “4 -4 -4 4 -4 4”,“51區”的 “ 5 -5 5 -5 5 5”, 把每一位進行累加, “4+5 -4+-5 -4+5 4+-5 -4+5 4+5” ==》 “9 -9 1 -1 1 9”。
這裡作為示例只算了兩個單詞的,真實計算需要把所有單詞的序列串累加。 5、降維,把4步算出來的 “9 -9 1 -1 1 9” 變成 0 1 串,形成我們最終的simhash簽名。 如果每一位大於0 記為 1,小於0 是統優先公司";
/*--------------------------------------敏感雜湊說明--------------------------------------
演算法找出可以hash的key值,因為我們使用的simhash是區域性敏感雜湊,這個演算法的特點是隻要相似的字 把需要判斷文字分詞形成這個文章的特徵單詞。
最後形成去掉噪音詞的只要相似的字串只有個別的位數是有差別變化。那這樣我們可以推斷兩個相似的文字,單詞序分詞是代表單詞在整個句子裡重要程度,數字越大越重要。
2、hash,透過hash演算法把每個詞變成hash值, 比如“美國”透過hash演算法計算為 100101, “51區”透過hash演算法計算為 101011。 這樣我們的字串就變成了一串串數字,
還記得文章開頭說過的嗎,要把文章變為數字加權,透過 家可能會有疑問,經過這麼多步驟搞這麼麻煩,不就是為了得到個 0 1 字串嗎?我直接把這個文字作為字串輸入v較,
前面16位變成了hash查詢。後面的順序比較的個數是多,用hd5是用於生成唯一簽來相差甚遠;hashmap也是用於鍵值對查詢,便於快速插入和查詢的資料結構。不過我們主要解決的
是文字相似度計算,要比較的是兩個文章是否相識,當然我們降維生成了hashcode也是用於這個目的。看到這裡估計大家就明白了,我們使用的sim是這樣的,傳統hash函式解決的是
生成唯一值,比如 md5、hashmap等。md5是用於生成唯一簽名串,只要稍微多加一個字元md5的兩個數字看起來相差甚遠;hashmap也是用於鍵值對查詢,便於快速插入和查詢的數
據結構。不過我們主要解決的是文字相似度計算,要比較的是兩個文章是否相識,當然我們降維生成了hashcode也是用於這個目的。看到這裡估計大家就明白了,我們使用的simhash
就算把文章中的字串變成 01 串也還是可以用於計算相似度的,而傳統的hashcode卻不行。我們可以來做個測試,兩個相差只有一個字元的文字串,“你媽媽喊你回家吃飯哦,回家
羅回家羅” 和 “你媽媽叫你回家吃飯啦,回家羅回家羅”。短文字大量重複資訊不會被過濾,是不是";
*/
/*--------------------------------------過濾說明--------------------------------------
最後形成去掉噪音詞的單詞序分詞是代表單詞在整個句子裡重要程度,數字越大越重要。 最後形成去掉噪音詞的單詞序列併為每個詞加上權重 2、hash,透過hash演算法把每個詞變成hash值,
比如“美國”透過hash演算法計算為 100101, “51區”透過hash演算法計算為 101011。 這樣我們的字串就變成了一串串數字,還記得文章開頭說過的嗎,分為4個16位段的儲存空間是單獨simhash
儲存空間的4倍。之前算出5000w資料是 382 Mb,擴大4倍1.5G左右,還可以接受:) 要把文章變為數字加權,透過 家可能會有疑問,經過這麼多步驟搞這麼麻煩,不就是為了得到個 0 1 字串嗎?
我直接把這個文字作為字串輸入,用hd5是用於生成唯一簽來相差甚遠;hashmap也是用於鍵值對查詢,便於快速插入和查詢的資料結構。不過我們主要解決的是文字相似度計算,要比較的是兩個文章是否相識,
當然我們降維生成了hashcode也是用於這個目的。看到這裡估計大家就明白了,我們使用的sim是這樣的,傳統hash函式解決的是生成唯一值,比如 md5、hashmap等。md5是用於生成唯一簽名串,只要稍微多加
一個字元md5的兩個數字看起來相差甚遠;hashmap也是用於鍵值對查詢,便於快速插入和查詢的資料結構。不過我們主要解決的是文字相似度計算,要比較的是兩個文章是否相識,當然我們降維生成了hashcode也
是用於這個目的。看到這裡估計大家就明白了,我們使用的simhash就算把文章中的字串變成 01 串也還是可以用於計算相似度的,而傳統的hashcode卻不行。我們可以來做個測試,兩個相差只有一個字元的文字
串,“你媽媽喊你回家吃飯哦,回家羅回家羅” 和 “你媽媽叫你回家吃飯啦,回家羅回家羅”。短文字大量重複資訊不會被過濾,";
*/
3. 案例驗證
public static void main(String[] args) {
String text = "杏南一區";
List<String> itemList = new LinkedList<String>();
itemList.add("杏南一區");
itemList.add("杏南二區");
itemList.add("杏南三區");
itemList.add("杏南四區");
itemList.add("杏南五區");
itemList.add("杏南六區");
itemList.add("杏南七區");
itemList.add("杏南八區");
itemList.add("杏南九區");
itemList.add("杏南十區");
System.out.println("======================================");
long startTime = System.currentTimeMillis();
MySimHash hash1 = new MySimHash(text, 64);
List<Double> list = new LinkedList<Double>();
for (String str : itemList) {
MySimHash hash2 = new MySimHash(str, 64);
//海明距離越小說明越相似
System.out.println("海明距離:" + hash1.hammingDistance(hash2) + "###" + "文字相似度:" + hash2.getSemblance(hash1));
list.add(hash2.getSemblance(hash1));
}
long endTime = System.currentTimeMillis();
Double max = Collections.max(list);
int index = list.indexOf(max);//獲取集合下標
System.out.println("======================================");
System.out.println("耗時:" + (endTime - startTime));
System.out.println("相似度集合內容:" + list.toString());
System.out.println("集合中最大值:" + max + "###" + "集合下標:" + index);
System.out.println("對比內容:" + text + "###" + "相似度最高:" + itemList.get(index));
}
4. 驗證結果
總結
我是南國以南i記錄點滴每天成長一點點,學習是永無止境的!轉載請附原文連結!!!
參考連結、