Python庫大全涵蓋了Python應用的方方面面建議收藏留用!

糖寶發表於2019-02-16

學Python,想必大家都是從爬蟲開始的吧。畢竟網上類似的資源很豐富,開源專案也非常多。

Python學習網路爬蟲主要分3個大的版塊:抓取,分析,儲存

當我們在瀏覽器中輸入一個url後回車,後臺會發生什麼?

簡單來說這段過程發生了以下四個步驟:

查詢域名對應的IP地址。

向IP對應的伺服器傳送請求。

伺服器響應請求,發回網頁內容。

瀏覽器解析網頁內容。

網路爬蟲要做的,簡單來說,就是實現瀏覽器的功能。通過指定url,直接返回給使用者所需要的資料,而不需要一步步人工去操縱瀏覽器獲取。

抓取這一步,你要明確要得到的內容是什麼?是HTML原始碼,還是Json格式的字串等。將得到內容逐一解析就好。具體的如何解析,以及如何處理資料,文章後面提供了非常詳細的且功能強大的開源庫列表。

當然了,爬去別人家的資料,很有可能會遭遇反爬蟲機制的,怎麼辦?使用代理。

適用情況:限制IP地址情況,也可解決由於“頻繁點選”而需要輸入驗證碼登陸的情況。

這種情況最好的辦法就是維護一個代理IP池,網上有很多免費的代理IP,良莠不齊,可以通過篩選找到能用的。

對於“頻繁點選”的情況,我們還可以通過限制爬蟲訪問網站的頻率來避免被網站禁掉。

有些網站會檢查你是不是真的瀏覽器訪問,還是機器自動訪問的。這種情況,加上User-Agent,表明你是瀏覽器訪問即可。有時還會檢查是否帶Referer資訊還會檢查你的Referer是否合法,一般再加上Referer。也就是偽裝成瀏覽器,或者反“反盜鏈”。

對於網站有驗證碼的情況,我們有三種辦法:

使用代理,更新IP。

使用cookie登陸。

驗證碼識別。

接下來我們重點聊聊驗證碼識別。這個python群 227435450就是小編期待大家一起進群交流討論,各種入門資料啊,進階資料啊,框架資料啊 免費領取

可以利用開源的Tesseract-OCR系統進行驗證碼圖片的下載及識別,將識別的字元傳到爬蟲系統進行模擬登陸。當然也可以將驗證碼圖片上傳到打碼平臺上進行識別。如果不成功,可以再次更新驗證碼識別,直到成功為止。

好了,爬蟲就簡單聊到這兒,有興趣的朋友可以去網上搜尋更詳細的內容。

文末附上本文重點:實用Python庫大全。

網路

urllib -網路庫(stdlib)。

requests -網路庫。

grab – 網路庫(基於pycurl)。

pycurl – 網路庫(繫結libcurl)。

urllib3 – Python HTTP庫,安全連線池、支援檔案post、可用性高。

httplib2 – 網路庫。

RoboBrowser – 一個簡單的、極具Python風格的Python庫,無需獨立的瀏覽器即可瀏覽網頁。

MechanicalSoup -一個與網站自動互動Python庫。

mechanize -有狀態、可程式設計的Web瀏覽庫。

socket – 底層網路介面(stdlib)。

網路爬蟲框架

grab – 網路爬蟲框架(基於pycurl/multicur)。

scrapy – 網路爬蟲框架。

pyspider – 一個強大的爬蟲系統。

cola – 一個分散式爬蟲框架。

HTML/XML解析器

lxml – C語言編寫高效HTML/ XML處理庫。支援XPath。

cssselect – 解析DOM樹和CSS選擇器。

pyquery – 解析DOM樹和jQuery選擇器。

BeautifulSoup – 低效HTML/ XML處理庫,純Python實現。

html5lib – 根據WHATWG規範生成HTML/ XML文件的DOM。該規範被用在現在所有的瀏覽器上。

feedparser – 解析RSS/ATOM feeds。

MarkupSafe – 為XML/HTML/XHTML提供了安全轉義的字串。

文字處理

用於解析和操作簡單文字的庫。

difflib – (Python標準庫)幫助進行差異化比較。

Levenshtein – 快速計算Levenshtein距離和字串相似度。

fuzzywuzzy – 模糊字串匹配。

esmre – 正規表示式加速器。

ftfy – 自動整理Unicode文字,減少碎片化。

自然語言處理

處理人類語言問題的庫。

NLTK -編寫Python程式來處理人類語言資料的最好平臺。

Pattern – Python的網路挖掘模組。他有自然語言處理工具,機器學習以及其它。

TextBlob – 為深入自然語言處理任務提供了一致的API。是基於NLTK以及Pattern的巨人之肩上發展的。

jieba – 中文分詞工具。

SnowNLP – 中文文字處理庫。

loso – 另一箇中文分詞庫。

瀏覽器自動化與模擬

selenium – 自動化真正的瀏覽器(Chrome瀏覽器,火狐瀏覽器,Opera瀏覽器,IE瀏覽器)。

Ghost.py – 對PyQt的webkit的封裝(需要PyQT)。

Spynner – 對PyQt的webkit的封裝(需要PyQT)。

Splinter – 通用API瀏覽器模擬器(selenium web驅動,Django客戶端,Zope)。

多重處理

threading – Python標準庫的執行緒執行。對於I/O密集型任務很有效。對於CPU繫結的任務沒用,因為python GIL。

multiprocessing – 標準的Python庫執行多程式。

celery – 基於分散式訊息傳遞的非同步任務佇列/作業佇列。

concurrent-futures – concurrent-futures 模組為呼叫非同步執行提供了一個高層次的介面。

非同步

非同步網路程式設計庫

asyncio – (在Python 3.4 +版本以上的 Python標準庫)非同步I/O,時間迴圈,協同程式和任務。

Twisted – 基於事件驅動的網路引擎框架。

Tornado – 一個網路框架和非同步網路庫。

pulsar – Python事件驅動的併發框架。

diesel – Python的基於綠色事件的I/O框架。

gevent – 一個使用greenlet 的基於協程的Python網路庫。

eventlet – 有WSGI支援的非同步框架。

Tomorrow – 非同步程式碼的奇妙的修飾語法。

佇列

celery – 基於分散式訊息傳遞的非同步任務佇列/作業佇列。

huey – 小型多執行緒任務佇列。

mrq – Mr. Queue – 使用redis & Gevent 的Python分散式工作任務佇列。

RQ – 基於Redis的輕量級任務佇列管理器。

simpleq – 一個簡單的,可無限擴充套件,基於Amazon SQS的佇列。

python-gearman – Gearman的Python API。

雲端計算

picloud – 雲端執行Python程式碼。

dominoup.com – 雲端執行R,Python和matlab程式碼

網頁內容提取

提取網頁內容的庫。

HTML頁面的文字和後設資料

newspaper – 用Python進行新聞提取、文章提取和內容策展。

html2text – 將HTML轉為Markdown格式文字。

python-goose – HTML內容/文章提取器。

lassie – 人性化的網頁內容檢索工具

WebSocket

用於WebSocket的庫。

Crossbar – 開源的應用訊息傳遞路由器(Python實現的用於Autobahn的WebSocket和WAMP)。

AutobahnPython – 提供了WebSocket協議和WAMP協議的Python實現並且開源。

WebSocket-for-Python – Python 2和3以及PyPy的WebSocket客戶端和伺服器庫。

DNS解析

dnsyo – 在全球超過1500個的DNS伺服器上檢查你的DNS。

pycares – c-ares的介面。c-ares是進行DNS請求和非同步名稱決議的C語言庫。

計算機視覺

OpenCV – 開源計算機視覺庫。

SimpleCV – 用於照相機、影像處理、特徵提取、格式轉換的簡介,可讀性強的介面(基於OpenCV)。

mahotas – 快速計算機影像處理演算法(完全使用 C++ 實現),完全基於 numpy 的陣列作為它的資料型別。

代理伺服器

shadowsocks – 一個快速隧道代理,可幫你穿透防火牆(支援TCP和UDP,TFO,多使用者和平滑重啟,目的IP黑名單)。

tproxy – tproxy是一個簡單的TCP路由代理(第7層),基於Gevent,用Python進行配置。

另:

Python有很多Web開發框架,大而全的開發框架非Django莫屬,用得也最廣泛.有很多公司有使用Django框架,如某狐,某訊等。以簡潔著稱的web.py,flask都非常易於上手,以非同步高效能著稱的tornado,原始碼寫得美如畫,知乎,Quora都在用

相關文章