Python網路爬蟲實戰專案大全!

weixin_47095734發表於2020-12-19

轉自:https://blog.csdn.net/t7sfokzord1jaymsfk4/article/details/78758345

 

學習Python主要是爬取各種資料,進行資料分析,獲得各種有意思的東西。今天我們就來做些Python網路爬蟲實戰專案,包含微信公號、豆瓣、知乎等網站爬蟲,大家也要自己動手練練看呀。

1

WechatSogou - 微信(http://lib.csdn.net/base/wechat)公眾號爬蟲。基於搜狗微信搜尋的微信公眾號爬蟲介面,通過搜狗搜尋獲取公眾號的openid,建立公眾號歷史訊息請求URL,解析出歷史訊息總量、歷史訊息總頁數、單個歷史訊息的XML,根據讀取到的所有的歷史訊息XML內容,建立RSS檔案。

程式碼:https://github.com/Chyroc/WechatSogou

2

DouBanSpider - 豆瓣讀書爬蟲。可以爬下豆瓣讀書標籤下的所有圖書,按評分排名依次儲存,儲存到Excel中,可方便大家篩選蒐羅,比如篩選評價人數>1000的高分書籍;可依據不同的主題儲存到Excel不同的Sheet ,採用User Agent偽裝為瀏覽器進行爬取,並加入隨機延時來更好的模仿瀏覽器行為,避免爬蟲被封。

程式碼:https://github.com/lanbing510/DouBanSpider

3

zhihu_spider - 知乎爬蟲。此專案的功能是爬取知乎使用者資訊以及人際拓撲關係,爬蟲框架使用scrapy,資料儲存使用mongo

程式碼:https://github.com/LiuRoy/zhihu_spider

 

640?wx_fmt=png&wxfrom=5&wx_lazy=1

4

bilibili-user - Bilibili使用者爬蟲。總資料數:20119918,抓取欄位:使用者id,暱稱,性別,頭像,等級,經驗值,粉絲數,生日,地址,註冊時間,簽名,等級與經驗值等。抓取之後生成B站使用者資料包告。

程式碼:https://github.com/airingursb/bilibili-user

5

SinaSpider  新浪微博爬蟲。主要爬取新浪微博使用者的個人資訊、微博資訊、粉絲和關注。程式碼獲取新浪微博Cookie進行登入,可通過多賬號登入來防止新浪的反扒。主要使用 scrapy 爬蟲框架。

程式碼:https://github.com/LiuXingMing/SinaSpider

6

distribute_crawler - 小說下載分散式爬蟲。使用scrapy,Redis, MongoDB,graphite實現的一個分散式網路爬蟲,底層儲存mongodb叢集,分散式使用redis實現,爬蟲狀態顯示使用graphite實現,主要針對一個小說站點。

程式碼:https://github.com/gnemoug/distribute_crawler

7

CnkiSpider - 中國知網爬蟲。設定檢索條件後,執行src/CnkiSpider.py抓取資料,抓取資料儲存在/data目錄下,每個資料檔案的第一行為欄位名稱。

程式碼:https://github.com/yanzhou/CnkiSpider

8

LianJiaSpider - 鏈家網爬蟲。爬取北京地區鏈家歷年二手房成交記錄。涵蓋鏈家爬蟲一文的全部程式碼,包括鏈家模擬登入程式碼。

程式碼:https://github.com/lanbing510/LianJiaSpider

9

scrapy_jingdong - 京東爬蟲。基於scrapy的京東網站爬蟲,儲存格式為csv。

程式碼:https://github.com/taizilongxu/scrapy_jingdong

 

0?wx_fmt=png

10

QQ-Groups-Spider - QQ 群爬蟲。批量抓取 QQ 群資訊,包括群名稱、群號、群人數、群主、群簡介等內容,最終生成 XLS(X) / CSV 結果檔案。

程式碼:https://github.com/caspartse/QQ-Groups-Spider

11

QQSpider - QQ空間爬蟲,包括日誌、說說、個人資訊等,一天可抓取 400 萬條資料。

程式碼:https://github.com/LiuXingMing/QQSpider

12

tbcrawler - 淘寶和天貓的爬蟲,可以根據搜尋關鍵詞,物品id來抓去頁面的資訊,資料儲存在mongodb。

程式碼:https://github.com/caspartse/QQ-Groups-Spider

相關文章