Python 爬蟲實戰(一):使用 requests 和 BeautifulSoup,我們使用了 requests 做網路請求,拿到網頁資料再用 BeautifulSoup 解析,就在前不久,requests 作者 kennethreitz 出了一個新庫 requests-html,Pythonic HTML Parsing for Humans™,它可以用於解析 HTML 文件的。requests-html 是基於現有的框架 PyQuery、Requests、lxml 等庫進行了二次封裝,更加方便開發者呼叫。
安裝
Mac:
pip3 install requests-html
複製程式碼
Windows:
pip install requests-html
複製程式碼
例項
程式碼擼多了,讓我們看會妹紙,爬的網站我選的是 http://www.win4000.com/zt/xinggan.html ,開啟網站,觀察到這是個列表,圖片是縮圖,要想儲存圖片到本地,當然需要高清大圖,因此得進入列表詳情,進一步解析,完整程式碼如下:
from requests_html import HTMLSession
import requests
import time
session = HTMLSession()
# 解析圖片列表
def get_girl_list():
# 返回一個 response 物件
response = session.get('http://www.win4000.com/zt/xinggan.html') # 單位秒數
content = response.html.find('div.Left_bar', first=True)
li_list = content.find('li')
for li in li_list:
url = li.find('a', first=True).attrs['href']
get_girl_detail(url)
# 解析圖片詳細
def get_girl_detail(url):
# 返回一個 response 物件
response = session.get(url) # 單位秒數
content = response.html.find('div.scroll-img-cont', first=True)
li_list = content.find('li')
for li in li_list:
img_url = li.find('img', first=True).attrs['data-original']
img_url = img_url[0:img_url.find('_')] + '.jpg'
print(img_url + '.jpg')
save_image(img_url)
# 保持大圖
def save_image(img_url):
img_response = requests.get(img_url)
t = int(round(time.time() * 1000)) # 毫秒級時間戳
f = open('/Users/wuxiaolong/Desktop/Girl/%d.jpg' % t, 'ab') # 儲存圖片,多媒體檔案需要引數b(二進位制檔案)
f.write(img_response.content) # 多媒體儲存content
f.close()
if __name__ == '__main__':
get_girl_list()
複製程式碼
程式碼就這麼多,是不是感覺很簡單啊。
說明:
1、requests-html 與 BeautifulSoup 不同,可以直接通過標籤來 find,一般如下: 標籤 標籤.someClass 標籤#someID 標籤[target=_blank] 引數 first 是 True,表示只返回 Element 找到的第一個,更多使用:http://html.python-requests.org/ ;
2、這裡儲存本地路徑 /Users/wuxiaolong/Desktop/Girl/
我寫死了,需要讀者改成自己的,如果直接是檔名,儲存路徑將是專案目錄下。
遺留問題
示例所爬網站是分頁的,沒有做,可以定時迴圈來爬妹紙哦,有興趣的讀者自己玩下。
參考
今天用了一下Requests-HTML庫(Python爬蟲)
公眾號
我的公眾號:吳小龍同學,歡迎交流~