使用python爬蟲實現百度翻譯(requests)
python爬蟲
- 上一篇介紹了怎麼使用瀏覽器的【開發者工具】獲取請求的【地址、狀態、引數】以及使用python爬蟲實現百度翻譯功能【urllib】版
- 上一篇連結:https://blog.csdn.net/qq_40147863/article/details/81590849
- 本篇介紹使用python爬蟲實現百度翻譯功能【requests】版
使用requests,必須先新增requests包
- 安裝requests
- 如果使用Anaconda環境,使用下面命令:
conda install requests
如果不是,就自己手動在【PyCharm】>【file】>【settings】>【Project Interpreter】>【+】>【requests】>【install】
具體操作截圖:
這裡寫圖片描述
直接獻上程式碼
- py05requests.py檔案:https://xpwi.github.io/py/py%E7%88%AC%E8%99%AB/py05requests.py
# 百度翻譯
# 新增包的方法在上面
import requests
import json
def fanyi(keyword):
url = 'http://fanyi.baidu.com/sug'
# 定義請求引數
data = {
'kw': keyword
}
# 傳送請求,抓取資訊
res = requests.post(url,data=data)
# 解析結果並輸出
str_json = res.text
myjson = json.loads(str_json)
info = myjson['data'][0]['v']
print(info)
if __name__=='__main__':
while True:
keyword = input('請輸入翻譯的單詞:')
if keyword == 'q':
break
fanyi(keyword)
執行結果
沒錯,requests版就是這麼簡潔,只不過需要載入requests包
使用python爬蟲實現百度翻譯功能(requests)版就介紹到這裡了
更多文章連結:Python 爬蟲隨筆
- 本筆記不允許任何個人和組織轉載