想成為Python高手,必須看這篇爬蟲原理介紹!(附29個爬蟲專案)
網際網路是由一個個站點和網路裝置組成的大網,我們通過瀏覽器訪問站點,站點把HTML、JS、CSS程式碼返回給瀏覽器,這些程式碼經過瀏覽器解析、渲染,將豐富多彩的網頁呈現我們眼前。
一、爬蟲是什麼?
如果我們把網際網路比作一張大的蜘蛛網,資料便是存放於蜘蛛網的各個節點,而爬蟲就是一隻小蜘蛛,沿著網路抓取自己的獵物(資料)爬蟲指的是:向網站發起請求,獲取資源後分析並提取有用資料的程式。
從技術層面來說就是 通過程式模擬瀏覽器請求站點的行為,把站點返回的HTML程式碼/JSON資料/二進位制資料(圖片、視訊) 爬到本地,進而提取自己需要的資料,存放起來使用;
二、爬蟲的基本流程
使用者獲取網路資料的方式:
方式1:瀏覽器提交請求—>下載網頁程式碼—>解析成頁面
方式2:模擬瀏覽器傳送請求(獲取網頁程式碼)->提取有用的資料->存放於資料庫或檔案中
爬蟲要做的就是方式2。
1、發起請求
使用http庫向目標站點發起請求,即傳送一個Request
Request包含:請求頭、請求體等
Request模組缺陷:不能執行JS 和CSS 程式碼
2、獲取響應內容
如果伺服器能正常響應,則會得到一個Response
Response包含:html,json,圖片,視訊等
3、解析內容
解析html資料:正規表示式(RE模組),第三方解析庫如Beautifulsoup,pyquery等
解析json資料:json模組
解析二進位制資料:以wb的方式寫入檔案
4、儲存資料
資料庫(MySQL,Mongdb、Redis)
檔案
三、http協議 請求與響應
**Request:**使用者將自己的資訊通過瀏覽器(socket client)傳送給伺服器(socket server)
**Response:**伺服器接收請求,分析使用者發來的請求資訊,然後返回資料(返回的資料中可能包含其他連結,如:圖片,js,css等)
**ps:**瀏覽器在接收Response後,會解析其內容來顯示給使用者,而爬蟲程式在模擬瀏覽器傳送請求然後接收Response後,是要提取其中的有用資料。
四、 request
1、請求方式:
常見的請求方式:GET / POST
2、請求的URL
url全球統一資源定位符,用來定義網際網路上一個唯一的資源 例如:一張圖片、一個檔案、一段視訊都可以用url唯一確定
url編碼
https://www.baidu.com/s?wd=圖片
圖片會被編碼(看示例程式碼)
網頁的載入過程是:
載入一個網頁,通常都是先載入document文件,
在解析document文件的時候,遇到連結,則針對超連結發起下載圖片的請求
3、請求頭
User-agent:請求頭中如果沒有user-agent客戶端配置,服務端可能將你當做一個非法使用者host;
cookies:cookie用來儲存登入資訊
注意:一般做爬蟲都會加上請求頭
請求頭需要注意的引數:
(1)Referrer:訪問源至哪裡來(一些大型網站,會通過Referrer 做防盜鏈策略;所有爬蟲也要注意模擬)
(2)User-Agent:訪問的瀏覽器(要加上否則會被當成爬蟲程式)
(3)cookie:請求頭注意攜帶
4、請求體
請求體
如果是get方式,請求體沒有內容 (get請求的請求體放在 url後面引數中,直接能看到)
如果是post方式,請求體是format data
ps:
1、登入視窗,檔案上傳等,資訊都會被附加到請求體內
2、登入,輸入錯誤的使用者名稱密碼,然後提交,就可以看到post,正確登入後頁面通常會跳轉,無法捕捉到post
五、 響應Response
1、響應狀態碼
200:代表成功
301:代表跳轉
404:檔案不存在
403:無許可權訪問
502:伺服器錯誤
2、respone header
響應頭需要注意的引數:
(1)Set-Cookie:BDSVRTM=0; path=/:可能有多個,是來告訴瀏覽器,把cookie儲存下來
(2)Content-Location:服務端響應頭中包含Location返回瀏覽器之後,瀏覽器就會重新訪問另一個頁面
3、preview就是網頁原始碼
JSO資料
如網頁html,圖片
二進位制資料等
專門建立的Python學習扣QUN:⑦⑧④⑦⑤⑧②①④ 從零基礎開始到Python各領域的專案實戰教程、開發工具與電子書籍。與你分享企業當下對於python人才需求及學好python的高效技巧,不停更新最新教程!點選加入我們的 python學習圈
六、總結
1、總結爬蟲流程:
爬取—>解析—>儲存
2、爬蟲所需工具:
** 請求庫:**requests,selenium(可以驅動瀏覽器解析渲染CSS和JS,但有效能劣勢(有用沒用的網頁都會載入);)
** 解析庫:**正則,beautifulsoup,pyquery
** 儲存庫:**檔案,MySQL,Mongodb,Redis
補充:29個Python爬蟲專案**(所有連結指向GitHub)**
WechatSogou [1]- 微信公眾號爬蟲。基於搜狗微信搜尋的微信公眾號爬蟲介面,可以擴充套件成基於搜狗搜尋的爬蟲,返回結果是列表,每一項均是公眾號具體資訊字典。
連結:https://github.com/Chyroc/WechatSogou
DouBanSpider [2]- 豆瓣讀書爬蟲。可以爬下豆瓣讀書標籤下的所有圖書,按評分排名依次儲存,儲存到Excel中,可方便大家篩選蒐羅,比如篩選評價人數>1000的高分書籍;可依據不同的主題儲存到Excel不同的Sheet ,採用User Agent偽裝為瀏覽器進行爬取,並加入隨機延時來更好的模仿瀏覽器行為,避免爬蟲被封。
連結:https://github.com/lanbing510/DouBanSpider
zhihu_spider [3]- 知乎爬蟲。此專案的功能是爬取知乎使用者資訊以及人際拓撲關係,爬蟲框架使用scrapy,資料儲存使用mongo
連結:https://github.com/LiuRoy/zhihu_spider
bilibili-user [4]- Bilibili使用者爬蟲。總資料數:20119918,抓取欄位:使用者id,暱稱,性別,頭像,等級,經驗值,粉絲數,生日,地址,註冊時間,簽名,等級與經驗值等。抓取之後生成B站使用者資料包告。
連結:https://github.com/airingursb/bilibili-user
SinaSpider [5]- 新浪微博爬蟲。主要爬取新浪微博使用者的個人資訊、微博資訊、粉絲和關注。程式碼獲取新浪微博Cookie進行登入,可通過多賬號登入來防止新浪的反扒。主要使用 scrapy 爬蟲框架。
連結:https://github.com/LiuXingMing/SinaSpider
distribute_crawler [6]- 小說下載分散式爬蟲。使用scrapy,Redis, MongoDB,graphite實現的一個分散式網路爬蟲,底層儲存MongoDB叢集,分散式使用Redis實現,爬蟲狀態顯示使用graphite實現,主要針對一個小說站點。
連結:https://github.com/gnemoug/distribute_crawler
CnkiSpider [7]- 中國知網爬蟲。設定檢索條件後,執行src/CnkiSpider.py抓取資料,抓取資料儲存在/data目錄下,每個資料檔案的第一行為欄位名稱。
連結:https://github.com/yanzhou/CnkiSpider
LianJiaSpider [8]- 鏈家網爬蟲。爬取北京地區鏈家歷年二手房成交記錄。涵蓋鏈家爬蟲一文的全部程式碼,包括鏈家模擬登入程式碼。
連結:https://github.com/yanzhou/CnkiSpider
scrapy_jingdong [9]- 京東爬蟲。基於scrapy的京東網站爬蟲,儲存格式為csv。
連結:https://github.com/taizilongxu/scrapy_jingdong
QQ-Groups-Spider [10]- QQ 群爬蟲。批量抓取 QQ 群資訊,包括群名稱、群號、群人數、群主、群簡介等內容,最終生成 XLS(X) / CSV 結果檔案。
連結:https://github.com/caspartse/QQ-Groups-Spider
wooyun_public[11]-烏雲爬蟲。烏雲公開漏洞、知識庫爬蟲和搜尋。全部公開漏洞的列表和每個漏洞的文字內容存在MongoDB中,大概約2G內容;如果整站爬全部文字和圖片作為離線查詢,大概需要10G空間、2小時(10M電信頻寬);爬取全部知識庫,總共約500M空間。漏洞搜尋使用了Flask作為web server,bootstrap作為前端。
連結:https://github.com/hanc00l/wooyun_public
spider[12]- hao123網站爬蟲。以hao123為入口頁面,滾動爬取外鏈,收集網址,並記錄網址上的內鏈和外鏈數目,記錄title等資訊,windows7 32位上測試,目前每24個小時,可收集資料為10萬左右。
連結:https://github.com/hanc00l/wooyun_public
findtrip [13]- 機票爬蟲(去哪兒和攜程網)。Findtrip是一個基於Scrapy的機票爬蟲,目前整合了國內兩大機票網站(去哪兒 + 攜程)。
連結:https://github.com/hanc00l/wooyun_public
163spider [14] - 基於requests、MySQLdb、torndb的網易客戶端內容爬蟲。
連結:https://github.com/leyle/163spider
doubanspiders[15]- 豆瓣電影、書籍、小組、相簿、東西等爬蟲集 writen by Python
連結:https://github.com/sdfzy/doubanspiders
QQSpider [16]- QQ空間爬蟲,包括日誌、說說、個人資訊等,一天可抓取 400 萬條資料。
連結:https://github.com/LiuXingMing/QQSpider
baidu-music-spider [17]- 百度mp3全站爬蟲,使用redis支援斷點續傳。
連結:https://github.com/Shu-Ji/baidu-music-spider
tbcrawler[18]- 淘寶和天貓的爬蟲,可以根據搜尋關鍵詞,物品id來抓去頁面的資訊,資料儲存在mongodb。
連結:https://github.com/pakoo/tbcrawler
stockholm [19]- 一個股票資料(滬深)爬蟲和選股策略測試框架。根據選定的日期範圍抓取所有滬深兩市股票的行情資料。支援使用表示式定義選股策略。支援多執行緒處理。儲存資料到JSON檔案、CSV檔案。
連結:https://github.com/benitoro/stockholm
BaiduyunSpider[20]-百度雲盤爬蟲。
連結:https://github.com/k1995/BaiduyunSpider
Spider[21]-社交資料爬蟲。支援微博,知乎,豆瓣。
連結:https://github.com/Qutan/Spider
proxy pool[22]-Python爬蟲代理IP池(proxy pool)。
連結:https://github.com/Qutan/Spider
music-163[23]-爬取網易雲音樂所有歌曲的評論。
連結:https://github.com/RitterHou/music-163
CnblogsSpider[24]-cnblogs列表頁爬蟲。
連結:https://github.com/jackgitgz/CnblogsSpider
spider_smooc[25]-爬取慕課網視訊。
連結:https://github.com/jackgitgz/CnblogsSpider
knowsecSpider2[26]-知道創宇爬蟲題目。
連結:https://github.com/littlethunder/knowsecSpider2
SinaSpider[27]-動態IP解決新浪的反爬蟲機制,快速抓取內容。
連結:https://github.com/szcf-weiya/SinaSpider
csdn-spider[28]-爬取CSDN上的部落格文章。
連結:https://github.com/Kevinsss/csdn-spider
ProxySpider[29]-爬取西刺上的代理IP,並驗證代理可用性。
連結:https://github.com/changetjut/ProxySpider
相關文章
- Python爬蟲教程-01-爬蟲介紹Python爬蟲
- python爬蟲初探--第一個python爬蟲專案Python爬蟲
- Python爬蟲教程-32-Scrapy 爬蟲框架專案 Settings.py 介紹Python爬蟲框架
- python爬蟲-33個Python爬蟲專案實戰(推薦)Python爬蟲
- Python爬蟲教程-34-分散式爬蟲介紹Python爬蟲分散式
- Python爬蟲教程-30-Scrapy 爬蟲框架介紹Python爬蟲框架
- 爬蟲介紹爬蟲
- Python網路爬蟲實戰專案大全 32個Python爬蟲專案demoPython爬蟲
- Python爬蟲深造篇(四)——Scrapy爬蟲框架啟動一個真正的專案Python爬蟲框架
- Python爬蟲專案100例,附原始碼!100個Python爬蟲練手例項Python爬蟲原始碼
- Java 爬蟲專案實戰之爬蟲簡介Java爬蟲
- Java爬蟲入門(一)——專案介紹Java爬蟲
- 32個Python爬蟲專案demoPython爬蟲
- (python)爬蟲----八個專案帶你進入爬蟲的世界Python爬蟲
- 【Python學習】爬蟲爬蟲爬蟲爬蟲~Python爬蟲
- 【爬蟲】爬蟲專案推薦 / 思路爬蟲
- 為什麼學習python及爬蟲,Python爬蟲[入門篇]?Python爬蟲
- Python爬蟲教程-31-建立 Scrapy 爬蟲框架專案Python爬蟲框架
- 爬蟲專案爬蟲
- 網路爬蟲(python專案)爬蟲Python
- 專案--python網路爬蟲Python爬蟲
- 這 6 個爬蟲開源專案 yyds爬蟲
- 不踩坑的Python爬蟲:Python爬蟲開發與專案實戰,從爬蟲入門 PythonPython爬蟲
- 【Python篇】scrapy爬蟲Python爬蟲
- Python爬蟲小專案:爬一個圖書網站Python爬蟲網站
- python爬蟲例項專案大全-GitHub 上有哪些優秀的 Python 爬蟲專案?Python爬蟲Github
- 通用新聞爬蟲開發系列(專案介紹)爬蟲
- 精通Scrapy網路爬蟲【一】第一個爬蟲專案爬蟲
- python爬蟲---網頁爬蟲,圖片爬蟲,文章爬蟲,Python爬蟲爬取新聞網站新聞Python爬蟲網頁網站
- python爬蟲實操專案_Python爬蟲開發與專案實戰 1.6 小結Python爬蟲
- Python爬蟲開源專案合集Python爬蟲
- 爬蟲小專案爬蟲
- 爬蟲專案部署爬蟲
- python爬蟲:爬蟲的簡單介紹及requests模組的簡單使用Python爬蟲
- github上的python爬蟲專案_GitHub - ahaharry/PythonCrawler: 用python編寫的爬蟲專案集合GithubPython爬蟲
- 資料分析專案(一)——爬蟲篇爬蟲
- 分散式爬蟲原理之分散式爬蟲原理分散式爬蟲
- Python爬蟲需要學哪些東西?這些知識點必須掌握!Python爬蟲