在之前的文章中我們介紹了 scrapy 框架並給予 scrapy 框架寫了一個爬蟲來爬取《糗事百科》的糗事,本章我們繼續說一下 scrapy 框架並對之前的糗百爬蟲做一下優化和豐富。
在上一篇文章中,我們在專案中建立了一個 qiushiSpider.py 的檔案,程式碼如下:
1 import scrapy 2 from ..items import QiushiItem 3 4 5 class QiushiSpider(scrapy.Spider): 6 # 爬蟲名 7 name = "qiubai" 8 # 允許爬蟲作用的範圍,不能越界 9 allowd_domains = ["https://www.qiushibaike.com/"] 10 # 爬蟲起始url 11 start_urls = ["https://www.qiushibaike.com/text/page/1/"] 12 13 # 我們無需再像之前利用 urllib 庫那樣去請求地址返回資料,在 scrapy 框架中直接利用下面的 parse 方法進行資料處理即可。 14 def parse(self, response): 15 # 通過 scrayy 自帶的 xpath 匹配想要的資訊 16 qiushi_list = response.xpath('//div[contains(@id,"qiushi_tag")]') 17 for site in qiushi_list: 18 # 例項化從 items.py 匯入的 QiushiItem 類 19 item = QiushiItem() 20 # 根據查詢發現匿名使用者和非匿名使用者的標籤不一樣 21 try: 22 # 非匿名使用者 23 username = site.xpath('./div/a/img/@alt')[0].extract() # 作者 24 imgUrl = site.xpath('./div/a/img/@src')[0].extract() # 頭像 25 except Exception: 26 # 匿名使用者 27 username = site.xpath('./div/span/img/@alt')[0].extract() # 作者 28 imgUrl = site.xpath('./div/span/img/@src')[0].extract() # 頭像 29 content = site.xpath('.//div[@class="content"]/span[1]/text()').extract() 30 item['username'] = username 31 item['imgUrl'] = "https:" + imgUrl 32 item['content'] = content 33 yield item
在上面的程式碼中我們定義了一個 QiubaiSpider 的類,並且整合了 scrapy.Spider,我們就對這個類做一下詳細分析。
Spider類定義瞭如何爬取某個(或某些)網站。包括了爬取的動作(例如:是否跟進連結)以及如何從網頁的內容中提取結構化資料(爬取item)。 換句話說,Spider就是您定義爬取的動作及分析某個網頁(或者是有些網頁)的地方。
class scrapy.Spider
是最基本的類,所有編寫的爬蟲必須繼承這個類。
主要用到的函式及呼叫順序為:
__init__() 初始化爬蟲名字和start_urls列表
start_requests() 呼叫 make_requests_from url() 生成Requests物件交給Scrapy下載並返回response
parse() 解析response,並返回Item或Requests(需指定回撥函式)。Item傳給Item pipline持久化 , 而Requests交由Scrapy下載,並由指定的回撥函式處理(預設parse() ),一直進行迴圈,直到處理完所有的資料為止。
1 #所有爬蟲的基類,使用者定義的爬蟲必須從這個類繼承 2 class Spider(object_ref): 3 4 #定義spider名字的字串(string)。spider的名字定義了Scrapy如何定位(並初始化)spider,所以其必須是唯一的。 5 #name是spider最重要的屬性,而且是必須的。 6 #一般做法是以該網站(domain)(加或不加 字尾 )來命名spider。 例如,如果spider爬取 mywebsite.com ,該spider通常會被命名為 mywebsite 7 name = None 8 9 #初始化,提取爬蟲名字,start_ruls 10 def __init__(self, name=None, **kwargs): 11 if name is not None: 12 self.name = name 13 # 如果爬蟲沒有名字,中斷後續操作則報錯 14 elif not getattr(self, 'name', None): 15 raise ValueError("%s must have a name" % type(self).__name__) 16 17 # python 物件或型別通過內建成員__dict__來儲存成員資訊 18 self.__dict__.update(kwargs) 19 20 #URL列表。當沒有指定的URL時,spider將從該列表中開始進行爬取。 因此,第一個被獲取到的頁面的URL將是該列表之一。 後續的URL將會從獲取到的資料中提取。 21 if not hasattr(self, 'start_urls'): 22 self.start_urls = [] 23 24 # 列印Scrapy執行後的log資訊 25 def log(self, message, level=log.DEBUG, **kw): 26 log.msg(message, spider=self, level=level, **kw) 27 28 # 判斷物件object的屬性是否存在,不存在做斷言處理 29 def set_crawler(self, crawler): 30 assert not hasattr(self, '_crawler'), "Spider already bounded to %s" % crawler 31 self._crawler = crawler 32 33 @property 34 def crawler(self): 35 assert hasattr(self, '_crawler'), "Spider not bounded to any crawler" 36 return self._crawler 37 38 @property 39 def settings(self): 40 return self.crawler.settings 41 42 #該方法將讀取start_urls內的地址,併為每一個地址生成一個Request物件,交給Scrapy下載並返回Response 43 #該方法僅呼叫一次 44 def start_requests(self): 45 for url in self.start_urls: 46 yield self.make_requests_from_url(url) 47 48 #start_requests()中呼叫,實際生成Request的函式。 49 #Request物件預設的回撥函式為parse(),提交的方式為get 50 def make_requests_from_url(self, url): 51 return Request(url, dont_filter=True) 52 53 #預設的Request物件回撥函式,處理返回的response。 54 #生成Item或者Request物件。使用者必須實現這個類 55 def parse(self, response): 56 raise NotImplementedError 57 58 @classmethod 59 def handles_request(cls, request): 60 return url_is_from_spider(request.url, cls) 61 62 def __str__(self): 63 return "<%s %r at 0x%0x>" % (type(self).__name__, self.name, id(self)) 64 65 __repr__ = __str__
主要屬性和方法
-
name
定義spider名字的字串。
例如,如果spider爬取 mywebsite.com ,該spider通常會被命名為 mywebsite
-
allowed_domains
包含了spider允許爬取的域名(domain)的列表,可選。
-
start_urls
初始URL元祖/列表。當沒有制定特定的URL時,spider將從該列表中開始進行爬取。
-
start_requests(self)
該方法必須返回一個可迭代物件(iterable)。該物件包含了spider用於爬取(預設實現是使用 start_urls 的url)的第一個Request。
當spider啟動爬取並且未指定start_urls時,該方法被呼叫。
-
parse(self, response)
當請求url返回網頁沒有指定回撥函式時,預設的Request物件回撥函式。用來處理網頁返回的response,以及生成Item或者Request物件。
-
log(self, message[, level, component])
使用 scrapy.log.msg() 方法記錄(log)message。
接下來我們再將之前的的糗百爬蟲進行一下豐富。之前的爬蟲,我們只是爬取了第一頁內糗事,即 start_urls = ["https://www.qiushibaike.com/text/page/1/"] ,其中最末尾的 1 即代表了當前頁碼,所以當該頁資料爬取完畢後讓其自動 +1 即為下一頁內容,然後再接著爬取我們想要的資料。
1 import scrapy 2 from ..items import QiushiItem 3 import re 4 5 6 class QiushiSpider(scrapy.Spider): 7 # 爬蟲名 8 name = "qiubai" 9 # 允許爬蟲作用的範圍,不能越界 10 allowd_domains = ["https://www.qiushibaike.com/"] 11 # 爬蟲起始url 12 start_urls = ["https://www.qiushibaike.com/text/page/1/"] 13 14 # 我們無需再像之前利用 urllib 庫那樣去請求地址返回資料,在 scrapy 框架中直接利用下面的 parse 方法進行資料處理即可。 15 def parse(self, response): 16 # 通過 scrayy 自帶的 xpath 匹配想要的資訊 17 qiushi_list = response.xpath('//div[contains(@id,"qiushi_tag")]') 18 for site in qiushi_list: 19 # 例項化從 items.py 匯入的 QiushiItem 類 20 item = QiushiItem() 21 # 根據查詢發現匿名使用者和非匿名使用者的標籤不一樣 22 try: 23 # 非匿名使用者 24 username = site.xpath('./div/a/img/@alt')[0].extract() # 作者 25 imgUrl = site.xpath('./div/a/img/@src')[0].extract() # 頭像 26 except Exception: 27 # 匿名使用者 28 username = site.xpath('./div/span/img/@alt')[0].extract() # 作者 29 imgUrl = site.xpath('./div/span/img/@src')[0].extract() # 頭像 30 content = site.xpath('.//div[@class="content"]/span[1]/text()').extract() 31 item['username'] = username 32 item['imgUrl'] = "https:" + imgUrl 33 item['content'] = content 34 35 # 通過 re 模組匹配到請求的 url 裡的數字 36 currentPage = re.search('(\d+)', response.url).group(1) 37 page = int(currentPage) + 1 38 url = re.sub('\d+', str(page), response.url) 39 40 # 將獲取的資料交給 pipeline 41 yield item 42 43 # 傳送新的 url 請求加入待爬佇列,並呼叫回撥函式 self.parse 44 yield scrapy.Request(url, callback=self.parse)
在上面的程式碼中,我們在將獲取到的 item 資料交給管道檔案 pipeline 之後,獲取到此時的請求 url 連結,根據 re 模組獲取到連結裡的數字,即頁碼數,然後將頁碼數 +1,再次傳送新的 url 連結請求即可獲取其餘頁碼的資料了。