Scrapy八小時快速入門第一小時:安裝,建立與執行我們的Scrapy
,或者也可以從我的這個地址下載相應的內容,之後我的這個系列的程式碼都會放在
我們tree一下子這個文件,就可以檢視到相應的內容,示例如下:
下面是其中的示例程式碼:
# -*- coding: utf-8 -*-import scrapyclass BooksSpider(scrapy.Spider): # 首先要繼承原來額Spider方法 name = "books" # 然後是name ,用於在終端中執行該指令碼 # allowed_domains = ["books.toscrape.com"] # start_urls = [ '', ] # 我們需要一個start url def parse(self, response): for book_url in response.css("article.product_pod > h3 > a ::attr(href)").extract(): yield scrapy.Request(response.urljoin(book_url), callback=self.parse_book_page) # 然後是獲取相應內容,並建立解析函式 next_page = response.css("li.next > a ::attr(href)").extract_first() if next_page: yield scrapy.Request(response.urljoin(next_page), callback=self.parse) # 關鍵之處之一,找到下一個連結 def parse_book_page(self, response): # 解析函式,我們在Scrapy中使用,Selector與xpath選擇器,css選擇器與一些其他Python程式碼實現該功能 item = {} product = response.css("div.product_main") item["title"] = product.css("h1 ::text").extract_first() item['category'] = response.xpath( "//ul[@class='breadcrumb']/li[@class='active']/preceding-sibling::li[1]/a/text()" ).extract_first() item['description'] = response.xpath( "//div[@id='product_description']/following-sibling::p/text()" ).extract_first() item['price'] = response.css('p.price_color ::text').extract_first() yield item
至於,這份程式碼的詳細解釋,我會在之後的內容中給出,當然這份簡單的demo是不能幫助我們真正的入門的,我們還需要一些其他內容,之後我會寫更多的demo.
來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/855/viewspace-2802473/,如需轉載,請註明出處,否則將追究法律責任。
相關文章
- Scrapy框架的使用之Scrapy入門框架
- scrapy的簡介與安裝
- scrapy入門
- 淺談Python中的scrapy的安裝和建立工程。Python
- 安裝scrapy失敗
- Ubuntu 安裝 SCRAPY 方法Ubuntu
- CentOS6.5安裝ScrapyCentOS
- Windows環境安裝ScrapyWindows
- 一小時入門ReactReact
- containerd容器執行時快速入門使用指南AI
- 追書神器(一)—Scrapy入門
- windows 10專業版下安裝pymysql、scrapy、pyspidy等出錯時WindowsMySql
- 快速上手——我用scrapy寫爬蟲(一)爬蟲
- python3安裝scrapy框架Python框架
- Servlet入門二:Tomcat安裝與執行ServletTomcat
- windows安裝Anaconda3,Anaconda3安裝scrapy抓取鏈家資料入門例子Windows
- win10 python 3.6.6 安裝 scrapyWin10Python
- 在win10下安裝scrapyWin10
- python爬蟲學習筆記 4.2 (Scrapy入門案例(建立專案))Python爬蟲筆記
- scrapy入門教程()部署爬蟲專案爬蟲
- Python網路爬蟲4 - scrapy入門Python爬蟲
- Scrapy使用入門及爬蟲代理配置爬蟲
- mac Pro 安裝scrapy報錯解決Mac
- linux 安裝dotnet 8.0執行時Linux
- Scrapy入門-第一個爬蟲專案爬蟲
- python爬蟲利器 scrapy和scrapy-redis 詳解一 入門demo及內容解析Python爬蟲Redis
- 如何匯入Scrapy框架框架
- Python網路框架Django和Scrapy安裝指南Python框架Django
- Python2.7安裝Scrapy錯誤處理Python
- python安裝scrapy出錯怎麼解決Python
- 我的第一個 scrapy 爬蟲爬蟲
- Scrapy框架的使用之Scrapy框架介紹框架
- Scrapy框架的使用之Scrapy通用爬蟲框架爬蟲
- Scrapy框架的使用之Scrapy對接Splash框架
- scrapy入門:豆瓣電影top250爬取
- 2.Metabase的快速安裝、啟動與執行
- 從Android執行時出發,打造我們的脫殼神器Android
- pip install scrapy 報異常時怎麼處理?