基於倒排表的電力排程知識問答系統構建 (nlp問答系統實現,有程式碼)
問答系統所需要的資料已經提供,對於每一個問題都可以找得到相應的答案,所以可以理解為每一個樣本資料是 <問題、答案>。 那系統的核心是當使用者輸入一個問題的時候,首先要找到跟這個問題最相近的已經儲存在庫裡的問題,然後直接返回相應的答案即可。
由於作者是學電氣的,這裡以電力排程知識文字來構建問答系統
原始表格樣子,我準備了排程相關的205個的問題和答案。
語言:python3.7
第一步:讀取資料
import pandas as pd
import numpy as np
import jieba
import re
csv='電力排程問答.csv'
file_txt=pd.read_csv(csv, header=0,encoding='gbk')#[205 rows x 2 columns]
file_txt=file_txt.dropna()#刪除空值[[205 rows x 2 columns]
print(file_txt.head())#檢視前5行
第二步:過濾停用詞,標點符號,單字詞
中文停用詞連結;
nlp 中文停用詞資料集
# 定義刪除除字母,數字,漢字以外的所有符號的函式
def remove_punctuation(line):
line = str(line)
if line.strip() == '':
return ''
rule = re.compile(u"[^a-zA-Z0-9\u4E00-\u9FA5]")
line = rule.sub('', line)
return line
#停用詞
def stopwordslist(filepath):
stopwords = [line.strip() for line in open(filepath, 'r', encoding='gbk').readlines()]
return stopwords
stopwords = stopwordslist("停用詞.txt")
#去除標點符號
file_txt['clean_review']=file_txt['問題'].apply(remove_punctuation)
#去除停用詞
file_txt['cut_review']=file_txt['clean_review'].apply(lambda x:" ".join([w for w in list(jieba.cut(x)) if w not in stopwords and len(w)>1]))
print(file_txt.head())
得到的cut_review為問題的關鍵詞資訊
檢視下cut_review
第三步:文字向量化表示
因為我們是根據輸入一個問題,然後從系統裡找到和使用者所題問題相似的問題,輸出答案。需要計算相似度,在這之前需要先文字向量化表示。
我採用tf-idf表示,直接匯入包使用吧。
from sklearn.feature_extraction.text import CountVectorizer#詞袋
from sklearn.feature_extraction.text import TfidfTransformer#tfidf
count_vect = CountVectorizer()
X= count_vect.fit_transform(file_txt['cut_review'])
#tf-idf
tfidf_transformer = TfidfTransformer()
X_fidf = tfidf_transformer.fit_transform(X)
print(X_fidf)
第四步:原始索引
我這裡的原始索引為
{‘問題IID’:[關鍵詞1,關鍵詞2…],‘問題2ID’:[關鍵詞2,關鍵詞3…]…}
其中的ID為問題1所以的行數,即問題1為第一個問題,ID為1。
for i in range(len(file_txt)):
left, rights = i,file_txt.iloc[i]['cut_review'].split()
由於數太多,我這裡修改下程式碼,假設只有5個問題
for i in range(len(file_txt.head())):
left, rights = i,file_txt.iloc[i]['cut_review'].split()
print('left is ',i,'rights is ',rights)
原始索引可以不出現總程式碼裡,我寫出來,只是為了方便你們閱讀。
第五步:倒排索引實現
因為我們需要將使用者提出的問題和庫的問題進行相似度計算,然後返回相似度高的問題答案。 如果我們遍歷庫的每一個問題,然後和使用者提出的問題做相似度計算,如果資料量大,則時間成本太大。
於是,這裡需要倒排索引。
前文提到的原始索引為
{‘問題IID’:[關鍵詞1,關鍵詞2…],‘問題2ID’:[關鍵詞2,關鍵詞3…]…}
處理後的倒排索引為
{‘關鍵詞1’:[問題1ID],‘關鍵詞2’:[問題1ID,問題2ID…}
然後對使用者提的問題,首先先分詞,找到問題的關鍵詞。然後根據關鍵詞,找到包含該關鍵詞的所有問題ID。再把這些問題和使用者提的問題進行相似度計算。
通過倒排表,我們無需在計算相似度時遍歷庫的所有問題,只需遍歷包含使用者問題關鍵詞的問題即可。
result={}
for i in range(len(file_txt)):
left, rights = i,file_txt.iloc[i]['cut_review'].split()
for right in rights:
if right in result.keys():
result[right].append(left)
else:
result[right] = [left]
同理,由於原始資料太大,我假設問題只有5個,這時來檢視下倒排索引是什麼。體驗下什麼是倒排索引
result={}
for i in range(len(file_txt.head())):
left, rights = i,file_txt.iloc[i]['cut_review'].split()
for right in rights:
if right in result.keys():
result[right].append(left)
else:
result[right] = [left]
print(result)
如圖所示,在只有5個問題下,包含關鍵詞制定的問題只有1,包含關鍵詞電力企業的有問題1,3…
第六步:對使用者輸入的問題進行分詞,提取關鍵詞,找到匹配到的所有問題ID
假設使用者輸入的問題是:sentence=“中性點接地方式有哪些”
得到的關鍵詞是:[‘中性點’, ‘接地’, ‘方式’]
sentence="中性點接地方式有哪些"
clean_reviewyonghu=remove_punctuation(sentence)#去除標點
cut_reviewyonghu=[w for w in list(jieba.cut(clean_reviewyonghu)) if w not in stopwords and len(w)>1]#去除停用詞,單字詞
#print(cut_reviewyonghu)
# ['中性點', '接地', '方式']
Problem_Id=[]
for j in cut_reviewyonghu:
Problem_Id.extend(result[j])
id=(list(set(Problem_Id)))#去重之後的ID
print(id)
得到的問題ID是
該問題在資料庫裡對應的問題有17個問題
第七步:相似度計算
將使用者所提問題 “中性點接地方式有哪些” 和找到的17個問題,一一計算文件相似度。
相似度計算有很多種方式,我在下面用的相似度計算方法,沒有用上第三步中文字向量化。
相似度計算有多種方式,具體參考我之前的一篇部落格
文字相似度幾種計算方法及程式碼python實現
#餘弦相識度計算方法
def cosine_similarity(sentence1: str, sentence2: str) -> float:
"""
:param sentence1: s
:param sentence2:
:return: 兩句文字的相識度
"""
seg1 = [word for word in jieba.cut(sentence1) if word not in stopwords]
seg2 = [word for word in jieba.cut(sentence2) if word not in stopwords]
word_list = list(set([word for word in seg1 + seg2]))#建立詞庫
word_count_vec_1 = []
word_count_vec_2 = []
for word in word_list:
word_count_vec_1.append(seg1.count(word))#文字1統計在詞典裡出現詞的次數
word_count_vec_2.append(seg2.count(word))#文字2統計在詞典裡出現詞的次數
vec_1 = np.array(word_count_vec_1)
vec_2 = np.array(word_count_vec_2)
#餘弦公式
num = vec_1.dot(vec_2.T)
denom = np.linalg.norm(vec_1) * np.linalg.norm(vec_2)
cos = num / denom
sim = 0.5 + 0.5 * cos
return sim
str1=sentence#使用者所提問題
similarity={}#儲存結果
if len(id)==0:
print('資料庫裡沒有該問題,請重新提問')
else:
for i in id:
str2 = file_txt.iloc[i]['問題']
sim1 = cosine_similarity(str1, str2) # 餘弦相識度
print('使用者所提問題和問題{0}的相似度是{1}'.format(i, sim1))
similarity[i] = sim1
print(similarity)
第八步:給出答案
將第七步得到的similarity={} 進行排序,輸出相似度最高的2個問題答案
jieguo=sorted(similarity.items(),key=lambda d:d[1],reverse=True)[:2]#降序
print(jieguo)
print('使用者所提的問題是:',sentence)
for i,j in jieguo:
print('資料庫相似的問題是{0} 答案是{1}'.format(i,file_txt.iloc[i]['答案']))
答案如下:可以發問題33的答案是我們要找的答案
完美
這是一個簡單的問答系統,現實生活中,該業務應該還包含語音
即將語音轉換為文字,然後進行問答系統。
我們需要的維護的就是資料庫中的問題(即對應本文的問題答案表格)
問題越多,該問題系統效果就越好。
如何需要提升效果和速度,可以再修改停用詞(本文給出的停用詞針對所有文字,不是專門為電力設計的),使最後得到的關鍵詞只包含電力領域的詞。
可以再封裝為軟體,懶得再動手封裝為介面軟體啦,就不演示啦。
電氣工程的計算機萌新:餘登武。寫博文不容易。如果你覺得本文對你有用,請點個贊支援下,謝謝
我一個學電氣的,怎麼懂得這些。唉
相關文章
- 知了 | 基於NLP的智慧問答推薦系統
- NLP教程(7) - 問答系統
- NLP實踐專案:智慧問答系統
- 基於TP3.2.3的問答系統!
- 知識圖譜構建下的自動問答KBQA系統實戰-文輝
- 基於neo4j構建火影忍者知識圖譜視覺化及問答系統視覺化
- 基於學者網資訊和知識圖譜的智慧問答系統
- ERP基礎知識問答
- ??探索人工智慧的世界:構建智慧問答系統之實戰篇人工智慧
- 達觀智慧知識問答系統可幫助企業實現知識價值共享,助力智慧企業建設
- 探索人工智慧的世界:構建智慧問答系統之前置篇人工智慧
- 客服系統接入coze釦子機器人 實現了知識庫問答,以及文生圖功能機器人
- 自然語音處理(NLP)系列(五)——詳解智慧問答系統
- 通義靈碼知識庫問答增強:知識庫構建與管理指南
- 融合外部知識的常識問答
- TP3.23開發的分答微信版語音問答系統原始碼原始碼
- ACL 2020 | 基於稠密段落檢索的開放域問答系統技術
- 馭碼上新,AI Code Review、基於程式碼庫的知識問答,讓研發起飛AIView
- 本地部署AI問答知識庫AI
- 有問有答,全能社群由你來建!TensorFlow 問答版塊怎麼玩?
- Android知識問答與分享專案實戰Android
- [基礎入門]網路安全知識問答(二)!
- 檢索增強生成(RAG)實踐:基於LlamaIndex和Qwen1.5搭建智慧問答系統AIIndex
- 仿知乎+微博系統原始碼 帶打賞功能+內容付費問答原始碼
- DashVector x 通義千問大模型:打造基於專屬知識的問答服務大模型
- 實現基於內容的電影推薦系統—程式碼實現
- 基礎問答
- 基於 AutoFlow 快速搭建基於 TiDB 向量搜尋的本地知識庫問答機器人TiDB機器人
- 讓問答更自然:基於拷貝和檢索機制的自然答案生成系統研究
- 如何構建分散式系統的知識體系分散式
- RAG 示例:使用 langchain、Redis、llama.cpp 構建一個 kubernetes 知識庫問答LangChainRedis
- 一文詳解維基百科的開放性問答系統
- 基於SSM框架的簡單問答社群SSM框架
- 問題解決:構建基於深度學習架構的推薦系統!深度學習架構
- 基於BERT進行抽取式問答
- 美團知識圖譜問答技術實踐與探索
- 構建RAG應用-day04-將LLM 接入 LangChain 構建檢索問答鏈 部署知識庫助手LangChain
- 一文教你基於LangChain和ChatGLM3搭建本地知識庫問答LangChain