Python2爬蟲利器:requests庫的基本用法
前言
之前我們用了 urllib 庫,這個作為入門的工具還是不錯的,對了解一些爬蟲的基本理念,掌握爬蟲爬取的流程有所幫助。入門之後,我們就需要學習一些更加高階的內容和工具來方便我們的爬取。那麼這一節來簡單介紹一下 requests 庫的基本用法。
注:Python 版本依然基於 2.7
官方文件
以下內容大多來自於官方文件,本文進行了一些修改和總結。要了解更多可以參考
安裝
利用 pip 安裝
$ pip install requests
或者利用 easy_install
$ easy_install requests
透過以上兩種方法均可以完成安裝。
引入
首先我們引入一個小例子來感受一下
import requests r = requests.get('http://cuiqingcai.com') print type(r) print r.status_code print r.encoding #print r.text print r.cookies
以上程式碼我們請求了本站點的網址,然後列印出了返回結果的型別,狀態碼,編碼方式,Cookies等內容。
執行結果如下
<class 'requests.models.Response'> 200 UTF-8 <RequestsCookieJar[]>
怎樣,是不是很方便。別急,更方便的在後面呢。
基本請求
requests庫提供了http所有的基本請求方式。例如
r = requests.post("") r = requests.put("") r = requests.delete("") r = requests.head("") r = requests.options("")
嗯,一句話搞定。
基本GET請求
最基本的GET請求可以直接用get方法
r = requests.get("")
如果想要加引數,可以利用 params 引數
import requests payload = {'key1': 'value1', 'key2': 'value2'} r = requests.get("", params=payload) print r.url
執行結果
?key2=value2&key1=value1
如果想請求JSON檔案,可以利用 json() 方法解析
例如自己寫一個JSON檔案命名為a.json,內容如下
["foo", "bar", { "foo": "bar" }]
利用如下程式請求並解析
import requests r = requests.get("a.json") print r.text print r.json()
執行結果如下,其中一個是直接輸出內容,另外一個方法是利用 json() 方法解析,感受下它們的不同
["foo", "bar", { "foo": "bar" }] [u'foo', u'bar', {u'foo': u'bar'}]
如果想獲取來自伺服器的原始套接字響應,可以取得 r.raw 。 不過需要在初始請求中設定 stream=True 。
r = requests.get('', stream=True) r.raw <requests.packages.urllib3.response.HTTPResponse object at 0x101194810> r.raw.read(10) 'x1fx8bx08x00x00x00x00x00x00x03'
這樣就獲取了網頁原始套接字內容。
如果想新增 headers,可以傳 headers 引數
import requests payload = {'key1': 'value1', 'key2': 'value2'} headers = {'content-type': 'application/json'} r = requests.get("", params=payload, headers=headers) print r.url
透過headers引數可以增加請求頭中的headers資訊
基本POST請求
對於 POST 請求來說,我們一般需要為它增加一些引數。那麼最基本的傳參方法可以利用 data 這個引數。
import requests payload = {'key1': 'value1', 'key2': 'value2'} r = requests.post("", data=payload) print r.text
執行結果
{ "args": {}, "data": "", "files": {}, "form": { "key1": "value1", "key2": "value2" }, "headers": { "Accept": "*/*", "Accept-Encoding": "gzip, deflate", "Content-Length": "23", "Content-Type": "application/x-www-form-urlencoded", "Host": "httpbin.org", "User-Agent": "python-requests/2.9.1" }, "json": null, "url": "" }
可以看到引數傳成功了,然後伺服器返回了我們傳的資料。
有時候我們需要傳送的資訊不是表單形式的,需要我們傳JSON格式的資料過去,所以我們可以用 json.dumps() 方法把表單資料序列化。
import json import requests url = '' payload = {'some': 'data'} r = requests.post(url, data=json.dumps(payload)) print r.text
執行結果
{ "args": {}, "data": "{"some": "data"}", "files": {}, "form": {}, "headers": { "Accept": "*/*", "Accept-Encoding": "gzip, deflate", "Content-Length": "16", "Host": "httpbin.org", "User-Agent": "python-requests/2.9.1" }, "json": { "some": "data" }, "url": "" }
透過上述方法,我們可以POST JSON格式的資料
如果想要上傳檔案,那麼直接用 file 引數即可
新建一個 a.txt 的檔案,內容寫上 Hello World!
import requests url = '' files = {'file': open('test.txt', 'rb')} r = requests.post(url, files=files) print r.text
可以看到執行結果如下
{ "args": {}, "data": "", "files": { "file": "Hello World!" }, "form": {}, "headers": { "Accept": "*/*", "Accept-Encoding": "gzip, deflate", "Content-Length": "156", "Content-Type": "multipart/form-data; boundary=7d8eb5ff99a04c11bb3e862ce78d7000", "Host": "httpbin.org", "User-Agent": "python-requests/2.9.1" }, "json": null, "url": "" }
這樣我們便成功完成了一個檔案的上傳。
requests 是支援流式上傳的,這允許你傳送大的資料流或檔案而無需先把它們讀入記憶體。要使用流式上傳,僅需為你的請求體提供一個類檔案物件即可
with open('massive-body') as f: requests.post('', data=f)
這是一個非常實用方便的功能。
Cookies
如果一個響應中包含了cookie,那麼我們可以利用 cookies 變數來拿到
import requests url = '' r = requests.get(url) print r.cookies print r.cookies['example_cookie_name']
以上程式僅是樣例,可以用 cookies 變數來得到站點的 cookies
另外可以利用 cookies 變數來向伺服器傳送 cookies 資訊
import requests url = '' cookies = dict(cookies_are='working') r = requests.get(url, cookies=cookies) print r.text
執行結果
'{"cookies": {"cookies_are": "working"}}'
可以已經成功向伺服器傳送了 cookies
超時配置
可以利用 timeout 變數來配置最大請求時間
requests.get('', timeout=0.001)
注:timeout 僅對連線過程有效,與響應體的下載無關。
也就是說,這個時間只限制請求的時間。即使返回的 response 包含很大內容,下載需要一定時間,然而這並沒有什麼卵用。
會話物件
在以上的請求中,每次請求其實都相當於發起了一個新的請求。也就是相當於我們每個請求都用了不同的瀏覽器單獨開啟的效果。也就是它並不是指的一個會話,即使請求的是同一個網址。比如
import requests requests.get('/set/sessioncookie/123456789') r = requests.get("") print(r.text)
結果是
{ "cookies": {} }
很明顯,這不在一個會話中,無法獲取 cookies,那麼在一些站點中,我們需要保持一個持久的會話怎麼辦呢?就像用一個瀏覽器逛淘寶一樣,在不同的選項卡之間跳轉,這樣其實就是建立了一個長久會話。
解決方案如下
import requests s = requests.Session() s.get('/set/sessioncookie/123456789') r = s.get("") print(r.text)
在這裡我們請求了兩次,一次是設定 cookies,一次是獲得 cookies
執行結果
{ "cookies": { "sessioncookie": "123456789" } }
發現可以成功獲取到 cookies 了,這就是建立一個會話到作用。體會一下。
那麼既然會話是一個全域性的變數,那麼我們肯定可以用來全域性的配置了。
import requests s = requests.Session() s.headers.update({'x-test': 'true'}) r = s.get('', headers={'x-test2': 'true'}) print r.text
透過 s.headers.update 方法設定了 headers 的變數。然後我們又在請求中設定了一個 headers,那麼會出現什麼結果?
很簡單,兩個變數都傳送過去了。
執行結果
{ "headers": { "Accept": "*/*", "Accept-Encoding": "gzip, deflate", "Host": "httpbin.org", "User-Agent": "python-requests/2.9.1", "X-Test": "true", "X-Test2": "true" } }
如果get方法傳的headers 同樣也是 x-test 呢?
r = s.get('', headers={'x-test': 'true'})
嗯,它會覆蓋掉全域性的配置
{ "headers": { "Accept": "*/*", "Accept-Encoding": "gzip, deflate", "Host": "httpbin.org", "User-Agent": "python-requests/2.9.1", "X-Test": "true" } }
那如果不想要全域性配置中的一個變數了呢?很簡單,設定為 None 即可
r = s.get('', headers={'x-test': None})
執行結果
{ "headers": { "Accept": "*/*", "Accept-Encoding": "gzip, deflate", "Host": "httpbin.org", "User-Agent": "python-requests/2.9.1" } }
嗯,以上就是 session 會話的基本用法
SSL證照驗證
現在隨處可見 https 開頭的網站,Requests可以為HTTPS請求驗證SSL證照,就像web瀏覽器一樣。要想檢查某個主機的SSL證照,你可以使用 verify 引數
現在 12306 證照不是無效的嘛,來測試一下
import requests r = requests.get('', verify=True) print r.text
結果
requests.exceptions.SSLError: [SSL: CERTIFICATE_VERIFY_FAILED] certificate verify failed (_ssl.c:590)
果真如此
來試下 github 的
import requests r = requests.get('', verify=True) print r.text
嗯,正常請求,內容我就不輸出了。
如果我們想跳過剛才 12306 的證照驗證,把 verify 設定為 False 即可
import requests r = requests.get('', verify=False) print r.text
發現就可以正常請求了。在預設情況下 verify 是 True,所以如果需要的話,需要手動設定下這個變數。
代理
如果需要使用代理,你可以透過為任意請求方法提供 proxies 引數來配置單個請求
import requests proxies = { "https": "" } r = requests.post("", proxies=proxies) print r.text
也可以透過環境變數 HTTP_PROXY 和 HTTPS_PROXY 來配置代理
export HTTP_PROXY="" export HTTPS_PROXY=""
透過以上方式,可以方便地設定代理。
API
以上講解了 requests 中最常用的引數,如果需要用到更多,請參考官方文件 API
結語
以上總結了一下 requests 的基本用法,如果你對爬蟲有了一定的基礎,那麼肯定可以很快上手,在此就不多贅述了。
練習才是王道,大家儘快投注於實踐中吧。
python學習網,免費的線上學習,歡迎關注!
本文轉自:https://cuiqingcai.com/2556.html
來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/964/viewspace-2835463/,如需轉載,請註明出處,否則將追究法律責任。
相關文章
- 5.爬蟲 requests庫講解 高階用法爬蟲
- 爬蟲之requests庫爬蟲
- Python爬蟲神器requests庫的使用Python爬蟲
- 【Python3網路爬蟲開發實戰】3-基本庫的使用 2-使用requests 1-基本用法Python爬蟲
- requests基本用法
- Python爬蟲十六式 - 第三式:Requests的用法Python爬蟲
- python爬蟲常用庫之requests詳解Python爬蟲
- 使用Python和requests庫的簡單爬蟲程式Python爬蟲
- 【Python3網路爬蟲開發實戰】3-基本庫的使用 2-使用requests 2-高階用法Python爬蟲
- 爬蟲——Requests模組爬蟲
- 爬蟲-Requests模組爬蟲
- 6.爬蟲 requests庫講解 總結爬蟲
- Python爬蟲之Selenium庫的基本使用Python爬蟲
- 爬蟲智慧解析庫 Readability 和 Newspaper 的用法爬蟲
- python爬蟲requests模組Python爬蟲
- 爬蟲基本原理及urllib庫的基本使用爬蟲
- Python爬蟲(1.爬蟲的基本概念)Python爬蟲
- 基本的爬蟲工作原理爬蟲
- JB的Python之旅-爬蟲篇--requests&ScrapyPython爬蟲
- python爬蟲:爬蟲的簡單介紹及requests模組的簡單使用Python爬蟲
- 【爬蟲】第二章-基本請求庫爬蟲
- 爬蟲系列 | 6、詳解爬蟲中BeautifulSoup4的用法爬蟲
- Python—Requests庫的爬取效能分析Python
- Python----Requests庫基本使用Python
- 使用requests+BeautifulSoup的簡單爬蟲練習爬蟲
- Python爬蟲教程-06-爬蟲實現百度翻譯(requests)Python爬蟲
- Python網路爬蟲資料採集實戰:Requests和Re庫Python爬蟲
- 1.爬蟲 urlib庫講解 Handler高階用法爬蟲
- Python3爬蟲利器:Appium的安裝Python爬蟲APP
- python併發爬蟲利器tomorrow(一)Python爬蟲
- scrapy 爬蟲利器初體驗(1)爬蟲
- Java爬蟲利器HTML解析工具-JsoupJava爬蟲HTMLJS
- 基於bs4+requests的python爬蟲偽裝Python爬蟲
- Python 爬蟲實戰(二):使用 requests-htmlPython爬蟲HTML
- python爬蟲利用requests製作代理池sPython爬蟲
- 4.爬蟲 requests庫講解 GET請求 POST請求 響應爬蟲
- Python3爬蟲利器之ChromeDriver的安裝Python爬蟲Chrome
- 網路爬蟲筆記2, requests庫入門-2(程式設計例項)爬蟲筆記程式設計