scrapy爬蟲
最近在學Python,同時也在學如何使用python抓取資料,於是就被我發現了這個非常受歡迎的Python抓取框架Scrapy,下面一起學習下Scrapy的架構,便於更好的使用這個工具。
一、概述下圖顯示了Scrapy的大體架構,其中包含了它的主要元件及系統的資料處理流程(綠色箭頭所示)。下面就來一個個解釋每個元件的作用及資料的處理過程。
二、元件1、Scrapy Engine(Scrapy引擎)
Scrapy引擎是用來控制整個系統的資料處理流程,並進行事務處理的觸發。更多的詳細內容可以看下面的資料處理流程。
2、Scheduler(排程)
排程程式從Scrapy引擎接受請求並排序列入佇列,並在Scrapy引擎發出請求後返還給他們。
3、Downloader(下載器)
下載器的主要職責是抓取網頁並將網頁內容返還給蜘蛛( Spiders)。
4、Spiders(蜘蛛)
蜘蛛是有Scrapy使用者自己定義用來解析網頁並抓取制定URL返回的內容的類,每個蜘蛛都能處理一個域名或一組域名。換句話說就是用來定義特定網站的抓取和解析規則。
蜘蛛的整個抓取流程(週期)是這樣的:
- 首先獲取第一個URL的初始請求,當請求返回後調取一個回撥函式。第一個請求是通過呼叫start_requests()方法。該方法預設從start_urls中的Url中生成請求,並執行解析來呼叫回撥函式。
- 在回撥函式中,你可以解析網頁響應並返回專案物件和請求物件或兩者的迭代。這些請求也將包含一個回撥,然後被Scrapy下載,然後有指定的回撥處理。
- 在回撥函式中,你解析網站的內容,同程使用的是Xpath選擇器(但是你也可以使用BeautifuSoup, lxml或其他任何你喜歡的程式),並生成解析的資料項。
- 最後,從蜘蛛返回的專案通常會進駐到專案管道。
5、Item Pipeline(專案管道)
專案管道的主要責任是負責處理有蜘蛛從網頁中抽取的專案,他的主要任務是清晰、驗證和儲存資料。當頁面被蜘蛛解析後,將被髮送到專案管道,並經過幾個特定的次序處理資料。每個專案管道的元件都是有一個簡單的方法組成的Python類。他們獲取了專案並執行他們的方法,同時他們還需要確定的是是否需要在專案管道中繼續執行下一步或是直接丟棄掉不處理。
專案管道通常執行的過程有:
- 清洗HTML資料
- 驗證解析到的資料(檢查專案是否包含必要的欄位)
- 檢查是否是重複資料(如果重複就刪除)
- 將解析到的資料儲存到資料庫中
6、Downloader middlewares(下載器中介軟體)
下載中介軟體是位於Scrapy引擎和下載器之間的鉤子框架,主要是處理Scrapy引擎與下載器之間的請求及響應。它提供了一個自定義的程式碼的方式來擴充Scrapy的功能。下載中間器是一個處理請求和響應的鉤子框架。他是輕量級的,對Scrapy盡享全域性控制的底層的系統。
7、Spider middlewares(蜘蛛中介軟體)
蜘蛛中介軟體是介於Scrapy引擎和蜘蛛之間的鉤子框架,主要工作是處理蜘蛛的響應輸入和請求輸出。它提供一個自定義程式碼的方式來擴充Scrapy的功能。蛛中介軟體是一個掛接到Scrapy的蜘蛛處理機制的框架,你可以插入自定義的程式碼來處理髮送給蜘蛛的請求和返回蜘蛛獲取的響應內容和專案。
8、Scheduler middlewares(排程中介軟體)
排程中介軟體是介於Scrapy引擎和排程之間的中介軟體,主要工作是處從Scrapy引擎傳送到排程的請求和響應。他提供了一個自定義的程式碼來擴充Scrapy的功能。
三、資料處理流程Scrapy的整個資料處理流程有Scrapy引擎進行控制,其主要的執行方式為:
- 引擎開啟一個域名,時蜘蛛處理這個域名,並讓蜘蛛獲取第一個爬取的URL。
- 引擎從蜘蛛那獲取第一個需要爬取的URL,然後作為請求在排程中進行排程。
- 引擎從排程那獲取接下來進行爬取的頁面。
- 排程將下一個爬取的URL返回給引擎,引擎將他們通過下載中介軟體傳送到下載器。
- 當網頁被下載器下載完成以後,響應內容通過下載中介軟體被髮送到引擎。
- 引擎收到下載器的響應並將它通過蜘蛛中介軟體傳送到蜘蛛進行處理。
- 蜘蛛處理響應並返回爬取到的專案,然後給引擎傳送新的請求。
- 引擎將抓取到的專案專案管道,並向排程傳送請求。
- 系統重複第二部後面的操作,直到排程中沒有請求,然後斷開引擎與域之間的聯絡。
Scrapy是由Twisted寫的一個受歡迎的Python事件驅動網路框架,它使用的是非堵塞的非同步處理。如果要獲得更多關於非同步程式設計和Twisted的資訊,請參考下面兩條連結。
相關文章
- 爬蟲--Scrapy簡易爬蟲爬蟲
- Scrapy爬蟲-草稿爬蟲
- Scrapy爬蟲框架爬蟲框架
- 爬蟲(9) - Scrapy框架(1) | Scrapy 非同步網路爬蟲框架爬蟲框架非同步
- scrapy爬蟲代理池爬蟲
- 爬蟲實戰scrapy爬蟲
- Python Scrapy 爬蟲(二):scrapy 初試Python爬蟲
- scrapy之分散式爬蟲scrapy-redis分散式爬蟲Redis
- Scrapy框架的使用之Scrapy通用爬蟲框架爬蟲
- scrapy + mogoDB 網站爬蟲Go網站爬蟲
- 爬蟲框架-scrapy的使用爬蟲框架
- python爬蟲Scrapy框架Python爬蟲框架
- Scrapy爬蟲框架的使用爬蟲框架
- 【Python篇】scrapy爬蟲Python爬蟲
- Python爬蟲—Scrapy框架Python爬蟲框架
- Scrapy建立爬蟲專案爬蟲
- Scrapy之"並行"爬蟲並行爬蟲
- Scrapy 示例 —— Web 爬蟲框架Web爬蟲框架
- python網路爬蟲(14)使用Scrapy搭建爬蟲框架Python爬蟲框架
- 爬蟲 Scrapy框架 爬取圖蟲圖片並下載爬蟲框架
- Python爬蟲教程-30-Scrapy 爬蟲框架介紹Python爬蟲框架
- 爬蟲(14) - Scrapy-Redis分散式爬蟲(1) | 詳解爬蟲Redis分散式
- 爬蟲學習之基於Scrapy的網路爬蟲爬蟲
- scrapy定製爬蟲-爬取javascript內容爬蟲JavaScript
- 精通Scrapy網路爬蟲【一】第一個爬蟲專案爬蟲
- Windows下安裝配置爬蟲工具Scrapy及爬蟲環境Windows爬蟲
- Python爬蟲教程-31-建立 Scrapy 爬蟲框架專案Python爬蟲框架
- 我的第一個 scrapy 爬蟲爬蟲
- scrapy 爬蟲利器初體驗(1)爬蟲
- 爬蟲0060:scrapy快速入門爬蟲
- Python scrapy爬蟲框架簡介Python爬蟲框架
- 第三篇:爬蟲框架 - Scrapy爬蟲框架
- 使用scrapy搭建大型爬蟲系統爬蟲
- 爬蟲教程——用Scrapy爬取豆瓣TOP250爬蟲
- 在scrapy框架下建立爬蟲專案,建立爬蟲檔案,執行爬蟲檔案框架爬蟲
- 快速上手——我用scrapy寫爬蟲(一)爬蟲
- scrapy入門教程()部署爬蟲專案爬蟲
- Scrapy使用入門及爬蟲代理配置爬蟲