普通反爬蟲機制的應對策略

發表於2017-04-26

爬蟲與反爬蟲,這相愛相殺的一對,簡直可以寫出一部壯觀的鬥爭史。而在大資料時代,資料就是金錢,很多企業都為自己的網站運用了反爬蟲機制,防止網頁上的資料被爬蟲爬走。然而,如果反爬機制過於嚴格,可能會誤傷到真正的使用者請求;如果既要和爬蟲死磕,又要保證很低的誤傷率,那麼又會加大研發的成本。
簡單低階的爬蟲速度快,偽裝度低,如果沒有反爬機制,它們可以很快的抓取大量資料,甚至因為請求過多,造成伺服器不能正常工作。而偽裝度高的爬蟲爬取速度慢,對伺服器造成的負擔也相對較小。所以,網站反爬的重點也是那種簡單粗暴的爬蟲,反爬機制也會允許偽裝度高的爬蟲,獲得資料。畢竟偽裝度很高的爬蟲與真實使用者也就沒有太大差別了。
這篇文章主要討論使用Scrapy框架時,如何應對普通的反爬機制。

header檢驗

最簡單的反爬機制,就是檢查HTTP請求的Headers資訊,包括User-Agent, Referer、Cookies等。

User-Agent

User-Agent是檢查使用者所用客戶端的種類和版本,在Scrapy中,通常是在下載器中介軟體中進行處理。比如在setting.py中建立一個包含很多瀏覽器User-Agent的列表,然後新建一個random_user_agent檔案:

這樣就可以在每次請求中,隨機選取一個真實瀏覽器的User-Agent。

Referer

Referer是檢查此請求由哪裡來,通常可以做圖片的盜鏈判斷。在Scrapy中,如果某個頁面url是通過之前爬取的頁面提取到,Scrapy會自動把之前爬取的頁面url作為Referfer。也可以通過上面的方式自己定義Referfer欄位。

Cookies

網站可能會檢測Cookie中session_id的使用次數,如果超過限制,就觸發反爬策略。所以可以在Scrapy中設定COOKIES_ENABLED = False讓請求不帶Cookies。
也有網站強制開啟Cookis,這時就要麻煩一點了。可以另寫一個簡單的爬蟲,定時向目標網站傳送不帶Cookies的請求,提取響應中Set-cookie欄位資訊並儲存。爬取網頁時,把儲存起來的Cookies帶入Headers中。

X-Forwarded-For

在請求頭中新增X-Forwarded-For欄位,將自己申明為一個透明的代理伺服器,一些網站對代理伺服器會手軟一些。
X-Forwarded-For頭一般格式如下

這裡將client1,proxy1設定為隨機IP地址,把自己的請求偽裝成代理的隨機IP產生的請求。然而由於X-Forwarded-For可以隨意篡改,很多網站並不會信任這個值。

限制IP的請求數量

如果某一IP的請求速度過快,就觸發反爬機制。當然可以通過放慢爬取速度繞過,這要以爬取時間大大增長為代價。另一種方法就是新增代理。
很簡單,在下載器中介軟體中新增:

然後再每次請求時使用不同的代理IP。然而問題是如何獲取大量的代理IP?
可以自己寫一個IP代理獲取和維護系統,定時從各種披露免費代理IP的網站爬取免費IP代理,然後定時掃描這些IP和埠是否可用,將不可用的代理IP及時清理。這樣就有一個動態的代理庫,每次請求再從庫中隨機選擇一個代理。然而這個方案的缺點也很明顯,開發代理獲取和維護系統本身就很費時費力,並且這種免費代理的數量並不多,而且穩定性都比較差。如果必須要用到代理,也可以去買一些穩定的代理服務。這些服務大多會用到帶認證的代理。
在requests庫中新增帶認證的代理很簡單,

然而Scrapy不支援這種認證方式,需要將認證資訊base64編碼後,加入Headers的Proxy-Authorization欄位:

動態載入

現在越來越多的網站使用ajax動態載入內容,這時候可以先擷取ajax請求分析一下,有可能根據ajax請求構造出相應的API請求的URL就可以直接獲取想要的內容,通常是json格式,反而還不用去解析HTML。
然而,很多時候ajax請求都會經過後端鑑權,不能直接構造URL獲取。這時就可以通過PhantomJS+Selenium模擬瀏覽器行為,抓取經過js渲染後的頁面。具體可以參考:Scrapy+PhantomJS+Selenium動態爬蟲
需要注意的是,使用Selenium後,請求不再由Scrapy的Downloader執行,所以之前新增的請求頭等資訊都會失效,需要在Selenium中重新新增

另外,呼叫PhantomJs需要指定PhantomJs的可執行檔案路徑,通常是將該路徑新增到系統的path路徑,讓程式執行時自動去path中尋找。我們的爬蟲經常會放到crontab中定時執行,而crontab中的環境變數和系統的環境變數不同,所以就載入不到PhamtonJs需要的路徑,所以最好是在申明時指定路徑:

相關文章