Python2爬蟲利器:requests庫的基本用法

airland發表於2021-09-11

Python2爬蟲利器:requests庫的基本用法

前言

之前我們用了 urllib 庫,這個作為入門的工具還是不錯的,對了解一些爬蟲的基本理念,掌握爬蟲爬取的流程有所幫助。入門之後,我們就需要學習一些更加高階的內容和工具來方便我們的爬取。那麼這一節來簡單介紹一下 requests 庫的基本用法。

注:Python 版本依然基於 2.7

官方文件

以下內容大多來自於官方文件,本文進行了一些修改和總結。要了解更多可以參考

安裝

利用 pip 安裝

$ pip install requests

或者利用 easy_install

$ easy_install requests

透過以上兩種方法均可以完成安裝。

引入

首先我們引入一個小例子來感受一下

import requests
 
r = requests.get('http://cuiqingcai.com')
print type(r)
print r.status_code
print r.encoding
#print r.text
print r.cookies

以上程式碼我們請求了本站點的網址,然後列印出了返回結果的型別,狀態碼,編碼方式,Cookies等內容。

執行結果如下

<class 'requests.models.Response'>
200
UTF-8
<RequestsCookieJar[]>

怎樣,是不是很方便。別急,更方便的在後面呢。

基本請求

requests庫提供了http所有的基本請求方式。例如

r = requests.post("")
r = requests.put("")
r = requests.delete("")
r = requests.head("")
r = requests.options("")

嗯,一句話搞定。

基本GET請求

最基本的GET請求可以直接用get方法

r = requests.get("")

如果想要加引數,可以利用 params 引數

import requests
 
payload = {'key1': 'value1', 'key2': 'value2'}
r = requests.get("", params=payload)
print r.url

執行結果

?key2=value2&key1=value1

如果想請求JSON檔案,可以利用 json() 方法解析

例如自己寫一個JSON檔案命名為a.json,內容如下

["foo", "bar", {
  "foo": "bar"
}]

利用如下程式請求並解析

import requests
 
r = requests.get("a.json")
print r.text
print r.json()

執行結果如下,其中一個是直接輸出內容,另外一個方法是利用 json() 方法解析,感受下它們的不同

["foo", "bar", {
 "foo": "bar"
 }]
 [u'foo', u'bar', {u'foo': u'bar'}]

如果想獲取來自伺服器的原始套接字響應,可以取得 r.raw 。 不過需要在初始請求中設定 stream=True 。

r = requests.get('', stream=True)
r.raw
<requests.packages.urllib3.response.HTTPResponse object at 0x101194810>
r.raw.read(10)
'x1fx8bx08x00x00x00x00x00x00x03'

這樣就獲取了網頁原始套接字內容。

如果想新增 headers,可以傳 headers 引數

import requests
payload = {'key1': 'value1', 'key2': 'value2'}
headers = {'content-type': 'application/json'}
r = requests.get("", params=payload, headers=headers)
print r.url

透過headers引數可以增加請求頭中的headers資訊

基本POST請求

對於 POST 請求來說,我們一般需要為它增加一些引數。那麼最基本的傳參方法可以利用 data 這個引數。

import requests
payload = {'key1': 'value1', 'key2': 'value2'}
r = requests.post("", data=payload)
print r.text

執行結果

{
  "args": {}, 
  "data": "", 
  "files": {}, 
  "form": {
    "key1": "value1", 
    "key2": "value2"
  }, 
  "headers": {
    "Accept": "*/*", 
    "Accept-Encoding": "gzip, deflate", 
    "Content-Length": "23", 
    "Content-Type": "application/x-www-form-urlencoded", 
    "Host": "httpbin.org", 
    "User-Agent": "python-requests/2.9.1"
  }, 
  "json": null, 
  "url": ""
}

可以看到引數傳成功了,然後伺服器返回了我們傳的資料。

有時候我們需要傳送的資訊不是表單形式的,需要我們傳JSON格式的資料過去,所以我們可以用 json.dumps() 方法把表單資料序列化。

import json
import requests
url = ''
payload = {'some': 'data'}
r = requests.post(url, data=json.dumps(payload))
print r.text

執行結果

{
  "args": {}, 
  "data": "{"some": "data"}", 
  "files": {}, 
  "form": {}, 
  "headers": {
    "Accept": "*/*", 
    "Accept-Encoding": "gzip, deflate", 
    "Content-Length": "16", 
    "Host": "httpbin.org", 
    "User-Agent": "python-requests/2.9.1"
  }, 
  "json": {
    "some": "data"
  },  
  "url": ""
}

透過上述方法,我們可以POST JSON格式的資料

如果想要上傳檔案,那麼直接用 file 引數即可

新建一個 a.txt 的檔案,內容寫上 Hello World!

import requests
url = ''
files = {'file': open('test.txt', 'rb')}
r = requests.post(url, files=files)
print r.text

可以看到執行結果如下

{
  "args": {}, 
  "data": "", 
  "files": {
    "file": "Hello World!"
  }, 
  "form": {}, 
  "headers": {
    "Accept": "*/*", 
    "Accept-Encoding": "gzip, deflate", 
    "Content-Length": "156", 
    "Content-Type": "multipart/form-data; boundary=7d8eb5ff99a04c11bb3e862ce78d7000", 
    "Host": "httpbin.org", 
    "User-Agent": "python-requests/2.9.1"
  }, 
  "json": null, 
  "url": ""
}

這樣我們便成功完成了一個檔案的上傳。

requests 是支援流式上傳的,這允許你傳送大的資料流或檔案而無需先把它們讀入記憶體。要使用流式上傳,僅需為你的請求體提供一個類檔案物件即可

with open('massive-body') as f:
    requests.post('', data=f)

這是一個非常實用方便的功能。

Cookies

如果一個響應中包含了cookie,那麼我們可以利用 cookies 變數來拿到

import requests
url = ''
r = requests.get(url)
print r.cookies
print r.cookies['example_cookie_name']

以上程式僅是樣例,可以用 cookies 變數來得到站點的 cookies

另外可以利用 cookies 變數來向伺服器傳送 cookies 資訊

import requests
url = ''
cookies = dict(cookies_are='working')
r = requests.get(url, cookies=cookies)
print r.text

執行結果

'{"cookies": {"cookies_are": "working"}}'

可以已經成功向伺服器傳送了 cookies

超時配置

可以利用 timeout 變數來配置最大請求時間

requests.get('', timeout=0.001)

注:timeout 僅對連線過程有效,與響應體的下載無關。

也就是說,這個時間只限制請求的時間。即使返回的 response 包含很大內容,下載需要一定時間,然而這並沒有什麼卵用。

會話物件

在以上的請求中,每次請求其實都相當於發起了一個新的請求。也就是相當於我們每個請求都用了不同的瀏覽器單獨開啟的效果。也就是它並不是指的一個會話,即使請求的是同一個網址。比如

import requests
requests.get('/set/sessioncookie/123456789')
r = requests.get("")
print(r.text)

結果是

{
  "cookies": {}
}

很明顯,這不在一個會話中,無法獲取 cookies,那麼在一些站點中,我們需要保持一個持久的會話怎麼辦呢?就像用一個瀏覽器逛淘寶一樣,在不同的選項卡之間跳轉,這樣其實就是建立了一個長久會話。

解決方案如下

import requests
s = requests.Session()
s.get('/set/sessioncookie/123456789')
r = s.get("")
print(r.text)

在這裡我們請求了兩次,一次是設定 cookies,一次是獲得 cookies

執行結果

{
  "cookies": {
    "sessioncookie": "123456789"
  }
}

發現可以成功獲取到 cookies 了,這就是建立一個會話到作用。體會一下。

那麼既然會話是一個全域性的變數,那麼我們肯定可以用來全域性的配置了。

import requests
s = requests.Session()
s.headers.update({'x-test': 'true'})
r = s.get('', headers={'x-test2': 'true'})
print r.text

透過 s.headers.update 方法設定了 headers 的變數。然後我們又在請求中設定了一個 headers,那麼會出現什麼結果?

很簡單,兩個變數都傳送過去了。

執行結果

{
  "headers": {
    "Accept": "*/*", 
    "Accept-Encoding": "gzip, deflate", 
    "Host": "httpbin.org", 
    "User-Agent": "python-requests/2.9.1", 
    "X-Test": "true", 
    "X-Test2": "true"
  }
}

如果get方法傳的headers 同樣也是 x-test 呢?

r = s.get('', headers={'x-test': 'true'})

嗯,它會覆蓋掉全域性的配置

{
  "headers": {
    "Accept": "*/*", 
    "Accept-Encoding": "gzip, deflate", 
    "Host": "httpbin.org", 
    "User-Agent": "python-requests/2.9.1", 
    "X-Test": "true"
  }
}

那如果不想要全域性配置中的一個變數了呢?很簡單,設定為 None 即可

r = s.get('', headers={'x-test': None})

執行結果

{
  "headers": {
    "Accept": "*/*", 
    "Accept-Encoding": "gzip, deflate", 
    "Host": "httpbin.org", 
    "User-Agent": "python-requests/2.9.1"
  }
}

嗯,以上就是 session 會話的基本用法

SSL證照驗證

現在隨處可見 https 開頭的網站,Requests可以為HTTPS請求驗證SSL證照,就像web瀏覽器一樣。要想檢查某個主機的SSL證照,你可以使用 verify 引數

現在 12306 證照不是無效的嘛,來測試一下

import requests
r = requests.get('', verify=True)
print r.text

結果

requests.exceptions.SSLError: [SSL: CERTIFICATE_VERIFY_FAILED] certificate verify failed (_ssl.c:590)

果真如此

來試下 github 的

import requests
r = requests.get('', verify=True)
print r.text

嗯,正常請求,內容我就不輸出了。

如果我們想跳過剛才 12306 的證照驗證,把 verify 設定為 False 即可

import requests
r = requests.get('', verify=False)
print r.text

發現就可以正常請求了。在預設情況下 verify 是 True,所以如果需要的話,需要手動設定下這個變數。

代理

如果需要使用代理,你可以透過為任意請求方法提供 proxies 引數來配置單個請求

import requests
 
proxies = {
  "https": ""
}
r = requests.post("", proxies=proxies)
print r.text

也可以透過環境變數 HTTP_PROXY 和 HTTPS_PROXY 來配置代理

export HTTP_PROXY=""
export HTTPS_PROXY=""

透過以上方式,可以方便地設定代理。

API

以上講解了 requests 中最常用的引數,如果需要用到更多,請參考官方文件 API

結語

以上總結了一下 requests 的基本用法,如果你對爬蟲有了一定的基礎,那麼肯定可以很快上手,在此就不多贅述了。

練習才是王道,大家儘快投注於實踐中吧。

python學習網,免費的線上學習,歡迎關注!

本文轉自:https://cuiqingcai.com/2556.html

來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/964/viewspace-2835463/,如需轉載,請註明出處,否則將追究法律責任。

相關文章