[python爬蟲] BeautifulSoup設定Cookie解決網站攔截並爬取螞蟻短租
我們在編寫Python爬蟲時,有時會遇到網站拒絕訪問等反爬手段,比如這麼我們想爬取螞蟻短租資料,它則會提示“當前訪問疑似黑客攻擊,已被網站管理員設定為攔截”提示,如下圖所示。此時我們需要採用設定Cookie來進行爬取,下面我們進行詳細介紹。非常感謝我的學生承峰提供的思想,後浪推前浪啊!
一. 網站分析與爬蟲攔截
當我們開啟螞蟻短租搜尋貴陽市,反饋如下圖所示結果。
網址為:http://www.mayi.com/guiyang/1/?map=n
我們可以看到短租房資訊呈現一定規律分佈,如下圖所示,這也是我們要爬取的資訊。
通過瀏覽器審查元素,我們可以看到需要爬取每條租房資訊都位於<dd></dd>節點下。
在定位房屋名稱,如下圖所示,位於<div class="room-detail clearfloat"></div>節點下。
接下來我們寫個簡單的BeautifulSoup進行爬取。
# -*- coding: utf-8 -*-
import urllib
import re
from bs4 import BeautifulSoup
import codecs
url = 'http://www.mayi.com/guiyang/?map=no'
response=urllib.urlopen(url)
contents = response.read()
soup = BeautifulSoup(contents, "html.parser")
print soup.title
print soup
#短租房名稱
for tag in soup.find_all('dd'):
for name in tag.find_all(attrs={"class":"room-detail clearfloat"}):
fname = name.find('p').get_text()
print u'[短租房名稱]', fname.replace('\n','').strip()
但很遺憾,報錯了,說明螞蟻金服防範措施還是挺到位的。
二. 設定Cookie的BeautifulSoup爬蟲
新增訊息頭的程式碼如下所示,這裡先給出程式碼和結果,再教大家如何獲取Cookie。
# -*- coding: utf-8 -*-
import urllib2
import re
from bs4 import BeautifulSoup
#爬蟲函式
def gydzf(url):
user_agent="Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/51.0.2704.103 Safari/537.36"
headers={"User-Agent":user_agent}
request=urllib2.Request(url,headers=headers)
response=urllib2.urlopen(request)
contents = response.read()
soup = BeautifulSoup(contents, "html.parser")
for tag in soup.find_all('dd'):
#短租房名稱
for name in tag.find_all(attrs={"class":"room-detail clearfloat"}):
fname = name.find('p').get_text()
print u'[短租房名稱]', fname.replace('\n','').strip()
#短租房價格
for price in tag.find_all(attrs={"class":"moy-b"}):
string = price.find('p').get_text()
fprice = re.sub("[¥]+".decode("utf8"), "".decode("utf8"),string)
fprice = fprice[0:5]
print u'[短租房價格]', fprice.replace('\n','').strip()
#評分及評論人數
for score in name.find('ul'):
fscore = name.find('ul').get_text()
print u'[短租房評分/評論/居住人數]', fscore.replace('\n','').strip()
#網頁連結url
url_dzf = tag.find(attrs={"target":"_blank"})
urls = url_dzf.attrs['href']
print u'[網頁連結]', urls.replace('\n','').strip()
urlss = 'http://www.mayi.com' + urls + ''
print urlss
#主函式
if __name__ == '__main__':
i = 1
while i<10:
print u'頁碼', i
url = 'http://www.mayi.com/guiyang/' + str(i) + '/?map=no'
gydzf(url)
i = i+1
else:
print u"結束"
輸出結果如下圖所示:
頁碼 1
[短租房名稱] 大唐東原財富廣場--城市簡約複式民宿
[短租房價格] 298
[短租房評分/評論/居住人數] 5.0分·5條評論·二居·可住3人
[網頁連結] /room/851634765
http://www.mayi.com/room/851634765
[短租房名稱] 大唐東原財富廣場--清新檸檬複式民宿
[短租房價格] 568
[短租房評分/評論/居住人數] 2條評論·三居·可住6人
[網頁連結] /room/851634467
http://www.mayi.com/room/851634467
...
頁碼 9
[短租房名稱] 【高鐵北站公園旁】美式風情+超大舒適安逸
[短租房價格] 366
[短租房評分/評論/居住人數] 3條評論·二居·可住5人
[網頁連結] /room/851018852
http://www.mayi.com/room/851018852
[短租房名稱] 大營坡(中大國際購物中心附近)北歐小清新三室
[短租房價格] 298
[短租房評分/評論/居住人數] 三居·可住6人
[網頁連結] /room/851647045
http://www.mayi.com/room/851647045
接下來我們想獲取詳細資訊,比如:http://www.mayi.com/room/851634467
我們需要獲取租房地址及詳細資訊等。
這裡作者主要是提供分析Cookie的方法,使用瀏覽器開啟網頁,右鍵“檢查”,然後再重新整理網頁。在“NetWork”中找到網頁並點選,在彈出來的Headers中就隱藏這這些資訊。
最常見的兩個引數是Cookie和User-Agent,如下圖所示:
然後在Python程式碼中設定這些引數,再呼叫Urllib2.Request()提交請求即可,核心程式碼如下:
user_agent="Mozilla/5.0 (Windows NT 10.0; Win64; x64) ... Chrome/61.0.3163.100 Safari/537.36"
cookie="mediav=%7B%22eid%22%3A%22387123...b3574ef2-21b9-11e8-b39c-1bc4029c43b8"
headers={"User-Agent":user_agent,"Cookie":cookie}
request=urllib2.Request(url,headers=headers)
response=urllib2.urlopen(request)
contents = response.read()
soup = BeautifulSoup(contents, "html.parser")
for tag1 in soup.find_all(attrs={"class":"main"}):
....
注意,每小時Cookie會更新一次,我們需要手動修改Cookie值即可,就是上面程式碼的cookie變數和user_agent變數。完整程式碼如下所示:
# -*- coding: utf-8 -*-
import urllib2
import re
from bs4 import BeautifulSoup
import codecs
import csv
c = open("ycf.csv","wb") #write 寫
c.write(codecs.BOM_UTF8)
writer = csv.writer(c)
writer.writerow(["短租房名稱","地址","價格","評分","可住人數","人均價格"])
#爬取詳細資訊
def getInfo(url,fname,fprice,fscore,users):
#通過瀏覽器開發者模式檢視訪問使用的user_agent及cookie設定訪問頭(headers)避免反爬蟲,且每隔一段時間執行要根據開發者中的cookie更改程式碼中的cookie
user_agent="Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/61.0.3163.100 Safari/537.36"
cookie="mediav=%7B%22eid%22%3A%22387123%22eb7; mayi_uuid=1582009990674274976491; sid=42200298656434922.85.130.130"
headers={"User-Agent":user_agent,"Cookie":cookie}
request=urllib2.Request(url,headers=headers)
response=urllib2.urlopen(request)
contents = response.read()
soup = BeautifulSoup(contents, "html.parser")
#短租房地址
for tag1 in soup.find_all(attrs={"class":"main"}):
print u'短租房地址:'
for tag2 in tag1.find_all(attrs={"class":"desWord"}):
address = tag2.find('p').get_text()
print address
#可住人數
print u'可住人數:'
for tag4 in tag1.find_all(attrs={"class":"w258"}):
yy = tag4.find('span').get_text()
print yy
fname = fname.encode("utf-8")
address = address.encode("utf-8")
fprice = fprice.encode("utf-8")
fscore = fscore.encode("utf-8")
fpeople = yy[2:3].encode("utf-8")
ones = int(float(fprice))/int(float(fpeople))
#儲存至本地
writer.writerow([fname,address,fprice,fscore,fpeople,ones])
#爬蟲函式
def gydzf(url):
user_agent="Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/51.0.2704.103 Safari/537.36"
headers={"User-Agent":user_agent}
request=urllib2.Request(url,headers=headers)
response=urllib2.urlopen(request)
contents = response.read()
soup = BeautifulSoup(contents, "html.parser")
for tag in soup.find_all('dd'):
#短租房名稱
for name in tag.find_all(attrs={"class":"room-detail clearfloat"}):
fname = name.find('p').get_text()
print u'[短租房名稱]', fname.replace('\n','').strip()
#短租房價格
for price in tag.find_all(attrs={"class":"moy-b"}):
string = price.find('p').get_text()
fprice = re.sub("[¥]+".decode("utf8"), "".decode("utf8"),string)
fprice = fprice[0:5]
print u'[短租房價格]', fprice.replace('\n','').strip()
#評分及評論人數
for score in name.find('ul'):
fscore = name.find('ul').get_text()
print u'[短租房評分/評論/居住人數]', fscore.replace('\n','').strip()
#網頁連結url
url_dzf = tag.find(attrs={"target":"_blank"})
urls = url_dzf.attrs['href']
print u'[網頁連結]', urls.replace('\n','').strip()
urlss = 'http://www.mayi.com' + urls + ''
print urlss
getInfo(urlss,fname,fprice,fscore,user_agent)
#主函式
if __name__ == '__main__':
i = 0
while i<33:
print u'頁碼', (i+1)
if(i==0):
url = 'http://www.mayi.com/guiyang/?map=no'
if(i>0):
num = i+2 #除了第一頁是空的,第二頁開始按2順序遞增
url = 'http://www.mayi.com/guiyang/' + str(num) + '/?map=no'
gydzf(url)
i=i+1
c.close()
輸出結果如下,儲存本地CSV檔案:同時,大家可以嘗試Selenium爬取螞蟻短租,應該也是可行的方法。最後希望文章對您有所幫助,如果存在不足之處,請海涵~
(By:Eastmount 2017-03-07 晚上7點 http://blog.csdn.net/eastmount/ )
相關文章
- [python爬蟲] 招聘資訊定時系統 (一).BeautifulSoup爬取資訊並儲存MySQLPython爬蟲MySql
- python爬蟲---網頁爬蟲,圖片爬蟲,文章爬蟲,Python爬蟲爬取新聞網站新聞Python爬蟲網頁網站
- Python爬蟲爬取美劇網站Python爬蟲網站
- Python爬蟲—爬取某網站圖片Python爬蟲網站
- Python爬蟲之BeautifulSoupPython爬蟲
- Python爬蟲之BeautifulSoup庫Python爬蟲
- python爬蟲常用庫之BeautifulSoup詳解Python爬蟲
- [譯] 如何使用 Python 和 BeautifulSoup 爬取網站內容Python網站
- Python爬蟲教程-13-爬蟲使用cookie爬取登入後的頁面(人人網)(下)Python爬蟲Cookie
- Python爬蟲教程-12-爬蟲使用cookie爬取登入後的頁面(人人網)(上)Python爬蟲Cookie
- [python爬蟲] BeautifulSoup和Selenium簡單爬取知網資訊測試Python爬蟲
- python 小爬蟲 DrissionPage+BeautifulSoupPython爬蟲
- python爬蟲爬取網頁中文亂碼問題的解決Python爬蟲網頁
- python爬蟲:使用BeautifulSoup修改網頁內容Python爬蟲網頁
- 記一次nginx攔截爬蟲Nginx爬蟲
- Python 爬蟲進階篇-利用beautifulsoup庫爬取網頁文章內容實戰演示Python爬蟲網頁
- [python爬蟲] BeautifulSoup爬取+CSV儲存貴州農產品資料Python爬蟲
- 爬蟲系列 | 6、詳解爬蟲中BeautifulSoup4的用法爬蟲
- python爬蟲 之 BeautifulSoup庫入門Python爬蟲
- Python網路爬蟲——模擬登陸爬取網站資料並載入到excl表格裡Python爬蟲網站
- python網路爬蟲--爬取淘寶聯盟Python爬蟲
- 【Python爬蟲】正則爬取趕集網Python爬蟲
- 爬蟲搭建代理池、爬取某網站影片案例、爬取新聞案例爬蟲網站
- python網路爬蟲(7)爬取靜態資料詳解Python爬蟲
- [python爬蟲] BeautifulSoup和Selenium對比爬取豆瓣Top250電影資訊Python爬蟲
- 常見網站反爬蟲的解決措施網站爬蟲
- 用PYTHON爬蟲簡單爬取網路小說Python爬蟲
- Python爬蟲教程-14-爬蟲使用filecookiejar儲存cookie檔案(人人網)Python爬蟲CookieJAR
- python例項,python網路爬蟲爬取大學排名!Python爬蟲
- 爬蟲 Scrapy框架 爬取圖蟲圖片並下載爬蟲框架
- Python3 大型網路爬蟲實戰 — 給 scrapy 爬蟲專案設定為防反爬Python爬蟲
- 【Python學習】爬蟲爬蟲爬蟲爬蟲~Python爬蟲
- 利用Python爬蟲獲取招聘網站職位資訊Python爬蟲網站
- python 爬蟲 爬取 learnku 精華文章Python爬蟲
- python爬蟲——爬取大學排名資訊Python爬蟲
- Python爬蟲入門教程 2-100 妹子圖網站爬取Python爬蟲網站
- 爬蟲:HTTP請求與HTML解析(爬取某乎網站)爬蟲HTTPHTML網站
- 如何使用robots禁止各大搜尋引擎爬蟲爬取網站爬蟲網站