Python爬蟲入門並不難,甚至進階也很簡單,掌握了這些就簡單了
網際網路的資料爆炸式的增長,而利用 Python 爬蟲我們可以獲取大量有價值的資料:
1.爬取資料,進行市場調查和商業分析
爬取知乎優質答案,篩選各話題下最優質的內容; 抓取房產網站買賣資訊,分析房價變化趨勢、做不同區域的房價分析;爬取招聘網站職位資訊,分析各行業人才需求情況及薪資水平。
2.作為機器學習、資料探勘的原始資料
比如你要做一個推薦系統,那麼你可以去爬取更多維度的資料,做出更好的模型。
3.爬取優質的資源:圖片、文字、視訊
爬取商品(店鋪)評論以及各種圖片網站,獲得圖片資源以及評論文字資料。
掌握正確的方法,在短時間內做到能夠爬取主流網站的資料,其實非常容易實現。
但建議你從一開始就要有一個具體的目標,在目標的驅動下,你的學習才會更加精準和高效。這裡給你一條平滑的、零基礎快速入門的學習路徑:
1.瞭解爬蟲的基本原理及過程
2.Requests+Xpath 實現通用爬蟲套路
3.瞭解非結構化資料的儲存
4.應對特殊網站的反爬蟲措施
5.Scrapy 與 MongoDB,進階分散式
1、瞭解爬蟲的基本原理及過程
大部分爬蟲都是按“傳送請求——獲得頁面——解析頁面——抽取並儲存內容”這樣的流程來進行,這其實也是模擬了我們使用瀏覽器獲取網頁資訊的過程。
簡單來說,我們向伺服器傳送請求後,會得到返回的頁面,通過解析頁面之後,我們可以抽取我們想要的那部分資訊,並儲存在指定的文件或資料庫中。
在這部分你可以簡單瞭解 HTTP 協議及網頁基礎知識,比如 POSTGET、HTML、CSS、JS,簡單瞭解即可,不需要系統學習。
更多Python視訊、原始碼、資料加群683380553免費獲取
2、學習 Python 包並實現基本的爬蟲過程
Python中爬蟲相關的包很多:urllib、requests、bs4、scrapy、pyspider 等,建議你從requests+Xpath 開始,requests 負責連線網站,返回網頁,Xpath 用於解析網頁,便於抽取資料。
如果你用過 BeautifulSoup,會發現 Xpath 要省事不少,一層一層檢查元素程式碼的工作,全都省略了。掌握之後,你會發現爬蟲的基本套路都差不多,一般的靜態網站根本不在話下,小豬、豆瓣、糗事百科、騰訊新聞等基本上都可以上手了。
來看一個爬取豆瓣短評的例子:
選中第一條短評,右鍵-“檢查”,即可檢視原始碼
把短評資訊的XPath資訊複製下來
我們通過定位,得到了第一條短評的 XPath 資訊:
如果我們想爬取很多條短評,那麼自然應該去獲取(複製)更多這樣的 XPath:
觀察第1、2、3條短評的 XPath,你會發現規律,只有<li>後面的序號不一樣,恰好與短評的序號相對應。那如果我們想爬取這個頁面所有的短評資訊,那麼不要這個序號就好了呀。
通過XPath資訊,我們就可以用簡單的程式碼將其爬取下來了:
爬取的該頁面所有的短評資訊
當然如果你需要爬取非同步載入的網站,可以學習瀏覽器抓包分析真實請求或者學習Selenium來實現自動化爬取,這樣,知乎、時光網、貓途鷹這些動態的網站也基本沒問題了。
你還需要了解 Python 的基礎知識,比如:
檔案讀寫操作:用來讀取引數、儲存爬取內容
list(列表)、dict(字典):用來序列化爬取的資料
條件判斷(if/else):解決爬蟲中的判斷是否執行
迴圈和迭代(for ……while):用來迴圈爬蟲步驟
3、非結構化資料的儲存
爬回來的資料可以直接用文件形式存在本地,也可以存入資料庫中。
開始資料量不大的時候,你可以直接通過 Python 的語法或 pandas 的方法將資料存為text、csv這樣的檔案。還是延續上面的例子:
用Python的基礎語言實現儲存:
用pandas的語言來儲存:
這兩段程式碼都可將爬下來的短評資訊儲存起來,把程式碼貼在爬取程式碼後面即可。
儲存的該頁的短評資料
當然你可能發現爬回來的資料並不是乾淨的,可能會有缺失、錯誤等等,你還需要對資料進行清洗,可以學習 pandas 包,掌握以下知識點就好:
- 缺失值處理:對缺失資料行進行刪除或填充
- 重複值處理:重複值的判斷與刪除
- 空格和異常值處理:清楚不必要的空格和極端、異常資料
- 資料分組:資料劃分、分別執行函式、資料重組
4、掌握各種技巧,應對特殊網站的反爬措施
爬取一個頁面的的資料是沒問題了,但是我們通常是要爬取多個頁面。
這個時候就要看看在翻頁的時候url是如何變化了,還是以短評的頁面為例,我們來看多個頁面的url有什麼不同:
通過前四個頁面,我們就能夠發現規律了,不同的頁面,只是在最後標記了頁面的序號。我們以爬取5個頁面為例,寫一個迴圈更新頁面地址就好了。
當然,爬蟲過程中也會經歷一些絕望啊,比如被網站封IP、比如各種奇怪的驗證碼、userAgent訪問限制、各種動態載入等等。
遇到這些反爬蟲的手段,當然還需要一些高階的技巧來應對,常規的比如訪問頻率控制、使用代理IP池、抓包、驗證碼的OCR處理等等。
比如我們經常發現有的網站翻頁後url並不變化,這通常就是非同步載入。我們用開發者工具取分析網頁載入資訊,通常能夠得到意外的收穫。
通過開發者工具分析載入的資訊
比如很多時候如果我們發現網頁不能通過程式碼訪問,可以嘗試加入userAgent 資訊,甚至是瀏覽器的 cookie 資訊。
瀏覽器中的userAgent資訊
在程式碼中加入userAgent資訊
往往網站在高效開發和反爬蟲之間會偏向前者,這也為爬蟲提供了空間,掌握這些應對反爬蟲的技巧,絕大部分的網站已經難不到你了。
5、Scrapy 與 MongoDB,進階分散式
掌握前面的技術,一般量級的資料和程式碼基本沒有問題了,但是在遇到非常複雜的情況,可能仍然會力不從心,這個時候,強大的 scrapy 框架就非常有用了。
scrapy 是一個功能非常強大的爬蟲框架,它不僅能便捷地構建request,還有強大的 selector 能夠方便地解析 response,然而它最讓人驚喜的還是它超高的效能,讓你可以將爬蟲工程化、模組化。
分散式爬取租房資訊
爬取的資料量大了,自然會需要資料庫,MongoDB 可以方便你去儲存大規模的資料。因為這裡要用到的資料庫知識其實非常簡單,主要是資料如何入庫、如何進行提取,在需要的時候再學習就行。
MongoDB 儲存職位資訊
分散式這個東西,聽起來非常嚇人,但其實就是利用多執行緒的原理讓多個爬蟲同時工作,需要你掌握 Scrapy + MongoDB + Redis 這三種工具。
Scrapy 用於做基本的頁面爬取,MongoDB 用於儲存爬取的資料,Redis 則用來儲存要爬取的網頁佇列,也就是任務佇列。
這個時候,你已經可以去寫分散式爬蟲了。
你看,這一條學習路徑下來,你已然可以成為老司機了,非常的順暢。所以在一開始的時候,儘量不要系統地去啃一些東西,找一個實際的專案(開始可以從豆瓣、小豬這種簡單的入手),直接開始就好。
因為爬蟲這種技術,既不需要你係統地精通一門語言,也不需要多麼高深的資料庫技術,高效的姿勢就是從實際的專案中去學習這些零散的知識點,你能保證每次學到的都是最需要的那部分。
相關文章
- 簡單的Python爬蟲 就是這麼簡單Python爬蟲
- Linux併發執行很簡單,這麼幹就對了Linux
- SpringDataJPA入門就這麼簡單Spring
- SpringMVC入門就這麼簡單SpringMVC
- 誰說 JavaScript 很簡單了?JavaScript
- 一天時間入門python爬蟲,直接寫一個爬蟲案例,分享出來,很簡單Python爬蟲
- ajax入門 不要畏懼 很簡單 進了門一切都好學多了
- Python超簡單超基礎的免費小說爬蟲!爬蟲入門從這開始!Python爬蟲
- python簡單爬蟲(二)Python爬蟲
- 入門Flink,很簡單
- python爬蟲:爬蟲的簡單介紹及requests模組的簡單使用Python爬蟲
- python最簡單的爬蟲 , 一看就會Python爬蟲
- 簡單瞭解python爬蟲Python爬蟲
- Python簡單爬蟲專案Python爬蟲
- HTML很簡單?不!HTML
- 讀寫分離很難嗎?springboot結合aop簡單就實現了Spring Boot
- spring 掌握這些就夠了Spring
- 為什麼寫爬蟲用Python語言?原因很簡單!爬蟲Python
- C語言入門很簡單pdfC語言
- 簡單的爬蟲程式爬蟲
- 簡單的單例模式其實也不簡單單例模式
- Python爬蟲進階之JS逆向入門Python爬蟲JS
- Python代理IP爬蟲的簡單使用Python爬蟲
- 一個簡單的python爬蟲程式Python爬蟲
- 用PYTHON爬蟲簡單爬取網路小說Python爬蟲
- Python爬蟲學習(5): 簡單的爬取Python爬蟲
- 爬蟲基本功就這?早知道幹爬蟲了爬蟲
- 爬蟲,其實本就是這麼簡單爬蟲
- Python《成功破解簡單的 動態載入 的爬蟲》Python爬蟲
- Nginx 簡單入門指北不指南Nginx
- Python 從入門到爬蟲極簡教程Python爬蟲
- Python 爬蟲從入門到進階之路(十六)Python爬蟲
- Python 爬蟲從入門到進階之路(十七)Python爬蟲
- Python 爬蟲從入門到進階之路(十八)Python爬蟲
- Python 爬蟲從入門到進階之路(二)Python爬蟲
- Python 爬蟲從入門到進階之路(三)Python爬蟲
- Python 爬蟲從入門到進階之路(十二)Python爬蟲
- Python 爬蟲從入門到進階之路(十五)Python爬蟲