python爬蟲ip代理伺服器的簡要思路-VeCloud

雲V小編發表於2020-10-19

python爬蟲有的時候會遇到被禁ip的情況,這個時候你可以找一下代理網站,抓取一下ip,來進行動態的輪詢就沒問題了,也可以用別人做好的第三方ip代理平臺,比如說crawlera,crawlera是一個利用代理IP地址池來做分散式下載的第三方平臺,除了scrapy可以用以外,普通的java、php、python等都可以透過curl的方式來呼叫

python爬蟲ip代理伺服器的簡要思路-VeCloud

如果不使用第三方的平臺做代理ip,我們就必須得手動抓取ip了,可以google搜尋代理ip,可以找到一大堆網站,找幾個穩定的代理網站,可以寫一個爬蟲指令碼持續抓取,要是使用量不大的話,也可以手動貼上抓取,要是土豪一點呢就買一點其實也可以,大概1塊錢可以買幾千個,還是挺值得的。

這時候如果你使用的是python,你需要自己維護一個ip池,控制每個ip的訪問次數,隨機更換ip什麼的,但是如果你想做成服務化,你可以使用Squid繫結多個ip地址,做正向代理,Squid是一種在Linux系統下使用的比較優秀的代理伺服器軟體,把代理列表的代理ip,按照squid的cache_peer機制按照一定格式,寫在配置檔案中即可。

這個就相當於將管理和排程的問題全交給了squid來做,你只需要使用爬蟲訪問squid的服務埠就可以了。

現在可以將所有步驟歸納總結一下:

1.利用爬蟲指令碼每天定時抓取代理網站上的免費ip,或者買一定數量的ip,寫入mongodb或者其他的資料庫中,這張表作為原始表。

2.使用之前需要做一步測試,就是測試這個ip是否有效,方法就是利用curl訪問一個網站檢視返回值,需要建立一張新表,迴圈讀取原始表有效則插入,驗證之後將其從原始表中刪除,驗證的同時可以利用響應時間來計算這個ip的質量,和最大使用次數,有一個演算法可以參考一種基於連線代理最佳化管理的多執行緒網路爬蟲處理方法。

3.將有效的ip寫入squid的配置檔案,重新載入配置檔案。

4.讓爬蟲程式去指定的squid的服務ip和埠,進行抓取。

以上就是python爬蟲ip代理伺服器的簡要思路的介紹。

VeCloud是一家面向企業提供雲交換網路服務為核心業務的技術創新企業,公司有24*7專業運維團隊支撐,可以快速定位客戶使用中遇到的問題,最快解決問題。

來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/69984549/viewspace-2727827/,如需轉載,請註明出處,否則將追究法律責任。

相關文章