scrapy實戰之定向抓取某網店商品資料
網路爬蟲(web crawler)又稱為網路蜘蛛(web spider)是一段計算機程式,它從網際網路上按照一定的邏輯和演算法抓取和下載網際網路的網頁,是搜尋引擎的一個重要組成部分。一般的爬蟲從一部分start url開始,按照一定的策略開始爬取,爬取到的新的url在放入到爬取佇列之中,然後進行新一輪的爬取,直到抓取完畢為止。
我們看一下crawler一般會遇到什麼樣的問題吧:
- 抓取的網頁量很大
- 網頁更新量也很大,一般的網站,比如新聞,電子商務網站,頁面基本是實時更新的
- 大部分的網頁都是動態的,多媒體,或者封閉的(facebook)
海量網頁的存在就意味著在一定時間之內,抓取只能的抓取其中的一部分,因此需要定義清楚抓取的優先順序;網頁更新的頻繁,也就意味著需要抓取最新的網頁和保證連結的有效性,因此一個更有可能帶來新網頁的列表頁顯得尤為重要;對於新聞網站,新的網站一般出現在首頁,或者在指定的分類網頁,但是對於淘寶來說,商品的更新就很難估計了;動態網頁怎麼辦呢?現在的網頁大都有JS和AJAX,抓取已經不是簡單的執行wget下載,現代的網頁結構需要我們的爬蟲更加智慧,需要更靈活的應對網頁的各種情況。
因此,對一個通用的爬蟲個,我們要定義
- 抓取策略,那些網頁是我們需要去下載的,那些是無需下載的,那些網頁是我們優先下載的,定義清楚之後,能節省很多無謂的爬取
- 更新策略,監控列表頁來發現新的頁面;定期check頁面是否過期等等
- 抽取策略,我們應該如何的從網頁中抽取我們想要的內容,不僅僅包含最終的目標內容,還有下一步要抓取的url
- 抓取頻率,我們需要合理的去下載一個網站,卻又不失效率
抓取策略
使用URL的正則特徵是一個簡單但卻很高效的模式;對於定向抓取,一般的網站的URL有一定的特徵,比如可能僅僅關心 .html, .htm, .asp, .aspx, .php, .jsp, .jspx型別的網頁;或者是如果可以得到目標網站的正則,則可以大大的降低抓取的數量;又或者我們無需關心某一類網頁,比如我們不抓取bbs.taobao.com下面的內容;僅僅需要抓取淘寶的商品頁面(http://item.taobao.com/item.htm?id=\d+ )。通過URL的正則能極大的降低抓取數量;
也可以通過網頁的文字特徵來確定;不過要複雜得多了,一般需要一定數量已知頁面的訓練集合,然後提取頁面的文字特徵,然後通過向量空間模型或者其其他基於主題詞提取的模型計算目標網頁和訓練集網頁的距離,決定是否是目標網頁。
更新策略
Freshness:表示抓取到的網頁是否已經被修改
Age:表示抓取的網頁過期的時間
對於更新來說,目標是讓平均age時間越小,freshness越高;一般的更新策略有兩種:定期批量更新和按更新週期更新;定期批量更新指對一批URL,按照失效時間定期去重新整理,按週期更新指的是按照頁面更新變化頻率而修正是更新頻率,一般來說,更新越頻繁的網頁更新也就越快。
抽取策略:
XPATH是一個簡單直觀,但是很有效的一個方案,XPATH能精準的定位網頁的任意一個位置,意味著我們可以很精準的抽取頁面上的任意位置,當面臨很多網站的時候,當然配置XPATH就是一個很艱鉅的任務,也許存在一個自適應的XPATH識別的方法。
JS和AJAX
在java下面,HtmlUnit是一個不錯的解決方案,HtmlUnit是Junit 的擴充套件測試框架之一,該框架模擬瀏覽器的行為,開發者可以使用其提供的API對頁面的元素進行操作,套用官方網站的話HtmlUnit“是Java程式的瀏覽器”。HtmlUnit支援HTTP,HTTPS,COOKIE,表單的POST和GET方法,能夠對HTML文件進行包裝,頁面的各種元素都可以被當作物件進行呼叫,另外對JavaScript的支援也比較好。一般來說,HtmlUnit是在java環境下解決JS的很好的選擇
WebKit包含一個網頁引擎WebCore和一個指令碼引擎JavaScriptCore,它們分別對應的是KDE的KHTML和KJS;目前比較主流的瀏覽器Google Chrome和Apple的safari,都是基於WebKit的核心寫的。使用瀏覽器作為抓取能更好的模擬使用者瀏覽的行為,能夠天然的解決JS和AJAX等問題,問題可能就是效能是一個瓶頸,
抓取頻率
同時開啟N個執行緒抓取一個網站,相信很快就會被對方網站封掉;因此抓取的頻率也很重要;抓取網站同時不對對方網站造成壓力;在robot.txt協議裡面定義Crawl-delay來確定抓取的頻率也是一種網站的通用的做法,對於一般的抓取而言,10到20秒抓取一次是一個比較保險的頻率,也有提出10*t的抓取間隔(t是download時間)比較合理
定向抓取的框架
通用抓取架構,如下圖
多執行緒下載模組(Multi-threaded downloader)
該模組一般包含:
- 下載模組,下載網頁,並應對一些web的一些錯誤,包括redirect等等
- DNS解析模組,網頁數量很多的時候,我們需要一個本地的DNS解析模組來維護domain到IP的對映
- 連結抽取模組,抽取下一步要抓取的連結(follow link)
排程模組(schedule)
排程模組是抓取系統的核心,排程模組從url佇列裡面選擇一批url喂到下載模組下載;其中會涉及到
- url排程,排程模組按照一定的策略,選取url進入抓取系統
- url除重,一定時期之內已經抓取的網頁,不再抓取
例項:使用開源的scrapy爬蟲抓取B2C站點的商品
Scrapy(http://scrapy.org/)是基於Twisted的非同步處理框架,純python實現的爬蟲框架,使用者只需要定製開發幾個模組就可以輕鬆的實現一個爬蟲,用來抓取網頁內容以及各種圖片,非常之方便,現在我們以scrapy為例子,簡單配置一個抓取商品的例子。
Scrapy的安裝請參考http://doc.scrapy.org/intro/install.html#intro-install
- 定義起始頁面:http://www.xxxx.com
- 定義詳情頁,例如:http://product.xxxx.com/product.htm?id=\d+
- 執行scrapy startproject mycrawler,新建一個mycrawler的工程
- 在mycrawler/mycrawler/spiders目錄下,寫抓取的python程式碼:mycrawlerspider.py
12345678910111213141516171819202122232425262728293031 | fromscrapy.selector importHtmlXPathSelectorfromscrapy.spider importBaseSpiderfromscrapy.contrib.linkextractors.sgml importSgmlLinkExtractorfromscrapy.utils.url importurljoin_rfcfromscrapy.http importRequestclassMySpider(BaseSpider):name ='test'allowed_domains =['xxxx.com']start_urls =['http://www.xxxx.com',]download_delay =10defparse(self, response):forlink inSgmlLinkExtractor(allow=" product.htm\?id=\d+").extract_links(response):yieldRequest(link.url,callback=self.parse_detail)hxs =HtmlXPathSelector(response)forurl inhxs.select('//a/@href').extract():url =self._urljoin(response,url)#print urlyieldRequest(url, callback=self.parse)defparse_detail(self, response):hxs =HtmlXPathSelector(response)what_u_want=hxs.select("/xpath/text()").extract()[0]print'url=',response.url, what_u_want.strip()returndef_urljoin(self, response, url):"""Helper to convert relative urls to absolute"""returnurljoin_rfc(response.url, url, response.encoding) |
最後,在工程目錄裡面執行 scrapy crawl mycrawler
簡單幾步,我們就可以抓取得到一個站點想要的頁面了,並且可以抽取指定xpath的內容。
一個簡單的定向爬蟲就搭建起來了,關鍵是一個能夠大規模的分散式的爬蟲可能是一個挑戰,後續再進一步介紹如何在分散式環境進行大規模的抓取,以及抓取遇到的一些更為棘手的問題,see u
原文http://hi.baidu.com/hnsoar/blog/item/e296d7f455a0823abd31095b.html
相關文章
- Scrapy爬蟲:實習僧網最新招聘資訊抓取爬蟲
- Python爬蟲入門實戰之貓眼電影資料抓取(實戰篇)Python爬蟲
- Selenium + Scrapy爬取某商標資料
- Javascript抓取京東、淘寶商品資料JavaScript
- API商品資料介面呼叫實戰API
- Python實現拼多多商品資訊抓取方法Python
- tb店鋪所有商品資料介面
- 如何使用代理IP進行資料抓取,PHP爬蟲抓取亞馬遜商品資料PHP爬蟲亞馬遜
- Python 爬蟲實戰之爬拼多多商品並做資料分析Python爬蟲
- 1688 API分享:抓取1688商品詳情頁資料API
- API商品資料介面呼叫爬蟲實戰API爬蟲
- 使用scrapy抓取Youtube播放列表資訊
- JS逆向實戰26——某店ua模擬登陸JS
- js逆向實戰之某資料平臺響應數解密邏輯JS解密
- Python爬蟲入門實戰之貓眼電影資料抓取(理論篇)Python爬蟲
- Java爬蟲實戰:API商品資料介面呼叫Java爬蟲API
- 如何利用BeautifulSoup選擇器抓取京東網商品資訊
- 網頁資料抓取之噹噹網網頁
- 爬蟲實戰scrapy爬蟲
- API商品資料介面呼叫實戰:爬蟲與資料獲取API爬蟲
- js逆向實戰之某網遊登入引數password加密JS加密
- js逆向實戰之某樂網登入引數pwd加密JS加密
- 使用Scrapy抓取新浪微博使用者資訊
- Python爬蟲入門教程 33-100 《海王》評論資料抓取 scrapyPython爬蟲
- [知識圖譜實戰篇] 一.資料抓取之Python3抓取JSON格式的電影實體PythonJSON
- 爬蟲抓取網頁資料原理爬蟲網頁
- 淘寶拼多多京東上貨必備API 商品詳情頁資料抓取 APP商品詳情原資料APIAPP
- Python爬蟲之Js逆向案例-拼多多商品詳情資料&商品列表資料&商品優惠券資料Python爬蟲JS
- Python學習筆記——爬蟲之Scrapy專案實戰Python筆記爬蟲
- 實時獲取化工網商品詳情API資料API
- 網頁抓取如何幫助資料分析?網頁
- Python爬蟲實戰:爐石傳說卡牌、原畫資料抓取Python爬蟲
- 電商API介面:資料抓取 拼多多根據ID取商品詳情API
- 透過1688店鋪所有商品API介面一鍵獲取店鋪所有商品資訊API
- JavaScript逆向之七麥資料實戰JavaScript
- 資料分析 | Numpy實戰(一) - 分析某單車騎行時間
- 打造全網最全電商實戰專案系列教程[商品功能模組資料庫設計]資料庫
- Linux 資料重定向Linux
- 如何用Python爬資料?(一)網頁抓取Python網頁