Scrapy八小時快速入門第一小時:安裝,建立與執行我們的Scrapy
,或者也可以從我的這個地址下載相應的內容,之後我的這個系列的程式碼都會放在
我們tree一下子這個文件,就可以檢視到相應的內容,示例如下:
下面是其中的示例程式碼:
# -*- coding: utf-8 -*-import scrapyclass BooksSpider(scrapy.Spider): # 首先要繼承原來額Spider方法 name = "books" # 然後是name ,用於在終端中執行該指令碼 # allowed_domains = ["books.toscrape.com"] # start_urls = [ '', ] # 我們需要一個start url def parse(self, response): for book_url in response.css("article.product_pod > h3 > a ::attr(href)").extract(): yield scrapy.Request(response.urljoin(book_url), callback=self.parse_book_page) # 然後是獲取相應內容,並建立解析函式 next_page = response.css("li.next > a ::attr(href)").extract_first() if next_page: yield scrapy.Request(response.urljoin(next_page), callback=self.parse) # 關鍵之處之一,找到下一個連結 def parse_book_page(self, response): # 解析函式,我們在Scrapy中使用,Selector與xpath選擇器,css選擇器與一些其他Python程式碼實現該功能 item = {} product = response.css("div.product_main") item["title"] = product.css("h1 ::text").extract_first() item['category'] = response.xpath( "//ul[@class='breadcrumb']/li[@class='active']/preceding-sibling::li[1]/a/text()" ).extract_first() item['description'] = response.xpath( "//div[@id='product_description']/following-sibling::p/text()" ).extract_first() item['price'] = response.css('p.price_color ::text').extract_first() yield item
至於,這份程式碼的詳細解釋,我會在之後的內容中給出,當然這份簡單的demo是不能幫助我們真正的入門的,我們還需要一些其他內容,之後我會寫更多的demo.
來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/855/viewspace-2802473/,如需轉載,請註明出處,否則將追究法律責任。
相關文章
- scrapy入門教程1:scrapy環境配置以及安裝
- Scrapy框架的使用之Scrapy入門框架
- scrapy入門
- scrapy入門教程3:scrapy的shell命令
- 爬蟲0060:scrapy快速入門爬蟲
- scrapy的簡介與安裝
- python 3.6.2 安裝與執行 Scrapy 問題與解決Python
- python3安裝scrapy並執行成功Python
- CentOS 安裝ScrapyCentOS
- scrapy安裝——UbuntuUbuntu
- ubuntu安裝ScrapyUbuntu
- ubuntu安裝scrapy外掛的時候缺失python.hUbuntuPython
- Ubuntu 安裝 SCRAPY 方法Ubuntu
- 安裝scrapy失敗
- 一小時入門ReactReact
- 淺談Python中的scrapy的安裝和建立工程。Python
- CentOS6.5安裝ScrapyCentOS
- 追書神器(一)—Scrapy入門
- 快速上手——我用scrapy寫爬蟲(一)爬蟲
- containerd容器執行時快速入門使用指南AI
- windows 10專業版下安裝pymysql、scrapy、pyspidy等出錯時WindowsMySql
- python3安裝scrapy框架Python框架
- 在win10下安裝scrapyWin10
- Servlet入門二:Tomcat安裝與執行ServletTomcat
- scrapy入門教程()部署爬蟲專案爬蟲
- Scrapy使用入門及爬蟲代理配置爬蟲
- windows安裝Anaconda3,Anaconda3安裝scrapy抓取鏈家資料入門例子Windows
- Scrapy建立爬蟲專案爬蟲
- Scrapy定向爬蟲教程(一)——建立執行專案和基本介紹爬蟲
- win10 python 3.6.6 安裝 scrapyWin10Python
- mac Pro 安裝scrapy報錯解決Mac
- Scrapy入門-第一個爬蟲專案爬蟲
- Python網路爬蟲4 - scrapy入門Python爬蟲
- python爬蟲學習筆記 4.2 (Scrapy入門案例(建立專案))Python爬蟲筆記
- 如何匯入Scrapy框架框架
- 我的第一個 scrapy 爬蟲爬蟲
- beego orm 時間相差八小時GoORM
- python爬蟲利器 scrapy和scrapy-redis 詳解一 入門demo及內容解析Python爬蟲Redis