50行爬蟲?️抓取並處理圖靈書目

阿狸不歌發表於2019-02-25

使用 requests進行爬取、BeautifulSoup進行資料提取。

主要分成兩步: 第一步是解析圖書列表頁,並解析出裡面的圖書詳情頁連結。 第二步是解析圖書詳情頁,提取出感興趣的內容,本例中根據不同的資料情況,採用了不同的提取方法,總的感覺就是BeautifulSoup用起來很方便?

《Python資料處理》封面

參考《Python資料處理》第11章 網頁抓取:獲取並儲存網路資料。

以下是幾個典型HTML內容提取的Python程式碼片段


1、提取詳情頁連結

列表頁中的詳情頁連結片段

<h4 class="name">
    <a href="/book/1921" title="深度學習入門:基於Python的理論與實現">
        深度學習入門:基於Python的理論與實現
    </a>
</h4>

提取詳情頁連結的Python程式碼

# bs是BeautifulSoup的instance
bs.select('.name')
for 詳情連結資訊 in bs.select('.name'):
    # 提取出連結
    print(詳情連結資訊.a.get('href'))

2、提取詳情頁中的圖書名稱

詳情頁中圖書名稱HTML程式碼

<h2>
         深度學習入門:基於Python的理論與實現
</h2>

提取圖書名稱的Python程式碼

# 因為提取出來的文字前後還帶了很多空格,所以要用strip去掉    
bs.h2.get_text().strip()

3、提取電子書價格資訊

詳情頁中電子書價格HTML程式碼

<dt>電子書</dt>
    <dd>
            <span class="price">¥29.99</span>
    </dd>

提取電子書價格的Python程式碼

# 因為不是每本書都有電子書,所以要判斷一下
有電子書 = bs.find("dt", text="電子書")
if 有電子書:
    價格=有電子書.next_sibling.next_sibling.find("span", {"class": "price"}).get_text().strip()[1:]
    print(float(價格))

完整程式碼

# ituring.py,python3版本,預設只抓兩頁,可以通過啟動引數控制要抓的列表頁範圍
import sys
import requests
import time
from bs4 import BeautifulSoup

def 輸出圖書列表中的詳情連結(bs):
    # 找到頁面中所有的 <h4 class="name"><a href="/book/...">...</a></h4>
    for 詳情連結資訊 in bs.select('.name'):
        # 提取出連結
        yield 詳情連結資訊.a.get('href')

def 獲取圖書詳情(連結):
    詳情頁 = requests.get('http://www.ituring.com.cn%s' %連結)
    if 詳情頁.ok:
        bs = BeautifulSoup(詳情頁.content, features="html.parser")

        圖書 = {}

        圖書['title'] = bs.h2.get_text().strip()
        圖書['status'] = bs.find("strong", text="出版狀態").next_sibling

        有定價 = bs.find("strong", text="定  價")
        if 有定價:
            圖書['price'] = 有定價.next_sibling

            有電子書 = bs.find("dt", text="電子書")
            if 有電子書:
                圖書['ePrice'] = float(有電子書.next_sibling.next_sibling.find("span", {"class": "price"}).get_text().strip()[1:])

        有出版日期 = bs.find("strong", text="出版日期")
        if 有出版日期:
            圖書['date'] = 有出版日期.next_sibling

        圖書['tags'] = []
        for tag in bs.select('.post-tag'):
            圖書['tags'].append(tag.string)

        return 圖書

    else:
        print('❌ 詳情頁 http://www.ituring.com.cn%s' %連結)

def 解析圖書列表頁(起始頁, 終止頁):
    for 頁序號 in range(起始頁 - 1, 終止頁): 
        # 逐一訪問圖書列表頁面
        列表頁 = requests.get('http://www.ituring.com.cn/book?tab=book&sort=new&page=%s' %頁序號)

        if 列表頁.ok:
            # 建立 BeautifulSoup 的 instance
            bs = BeautifulSoup(列表頁.content, features="html.parser")

            # 提取 列表頁中的 詳情頁連結,並逐一分析
            for 詳情頁面連結 in 輸出圖書列表中的詳情連結(bs):
                圖書資訊 = 獲取圖書詳情(詳情頁面連結)
                # 得到的圖書資訊,按照自己的需求去處理吧
                print(圖書資訊)
                # 抓完一本書休息一下
                time.sleep(0.1)

            print('✅ 第%s頁獲取完畢\n\t' %(頁序號 + 1))
        else:
            print('❌ 第%s頁獲取出錯\n\t' %(頁序號 + 1))

if __name__ == '__main__':
    # 預設圖書列表起始頁 和 終止頁
    起始圖書列表頁碼 = 1
    終止圖書列表頁碼 = 2 # ⚠️ 改改內碼表可以實現自動獲得最後一頁 

    # 獲取輸入引數; ⚠️此處未對輸入引數的型別做檢測
    if(len(sys.argv)==2):
        # 只有一個引數時,輸入的是終止頁碼,起始頁碼預設為 0
        終止圖書列表頁碼 = int(sys.argv[1])
    if(len(sys.argv)==3):
        # 有兩個引數時, 第一個引數是起始頁碼,第二個引數是終止頁碼
        起始圖書列表頁碼 = int(sys.argv[1])
        終止圖書列表頁碼 = int(sys.argv[2])

    解析圖書列表頁(起始圖書列表頁碼, 終止圖書列表頁碼)

相關文章