python爬蟲-1w+套個人簡歷模板爬取
import requests # 傳送請求
from lxml import etree # 資料解析
import time # 執行緒暫停,怕封 ip
import os # 建立資料夾
# 由於目標網站更新了反爬蟲機制,簡單的 UA 偽裝不能滿足我們的需求,所有對整個訊息頭進行了偽裝
headers = {
'Accept':
'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,*/*;q=0.8',
'Accept-Encoding':
'gzip, deflate, br',
'Accept-Language':
'zh-CN,zh;q=0.8,zh-TW;q=0.7,zh-HK;q=0.5,en-US;q=0.3,en;q=0.2',
'Cache-Control':
'max-age=0',
'Connection':
'keep-alive',
'Cookie':
'__gads=undefined; Hm_lvt_aecc9715b0f5d5f7f34fba48a3c511d6=1614145919,1614755756; ' 'UM_distinctid=177d2981b251cd-05097031e2a0a08-4c3f217f-144000-177d2981b2669b; '
'sctj_uid=ccf8a73d-036c-78e4-6b1d-6035e961b0d3; '
'CNZZDATA300636=cnzz_eid%3D1737029801-1614143206-%26ntime%3D1614759211; ' 'Hm_lvt_398913ed58c9e7dfe9695953fb7b6799=1614145927,1614755489,1614755737; ' '__gads=ID=af6dc030f3c0029f-226abe1136c600e4:T=1614760491:RT=1614760491:S=ALNI_MZAA0rXz7uNmNn6qnuj5BPP7heStw; '
'ASP.NET_SessionId=3qd454mfnwsqufegavxl5lbm; Hm_lpvt_398913ed58c9e7dfe9695953fb7b6799=1614760490; '
'bbsmax_user=ce24ea68-9f80-42e3-8d4f-53b13b13c719; avatarId=a034b11b-abc9-4bfd-a8b2-bdf7fef644bc-; '
'Hm_lpvt_aecc9715b0f5d5f7f34fba48a3c511d6=1614756087',
'Host':
'sc.chinaz.com',
'If-None-Match':
'',
'Referer':
'
'Upgrade-Insecure-Requests':
'1',
'User-Agent':
'Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:86.0) Gecko/20100101 Firefox/86.0',
}
# 如果該資料夾不存在 , 則建立資料夾
if not os.path.exists('./moban'):
os.mkdir('./moban')
for i in range(1, 701): # 預計可爬 700*20 套簡歷模板
print(f" 正準備爬取第 {i} 頁簡歷模板 ")
print(" 怕封 ip ,操作暫停中 ......") # 操作暫停提示語
time.sleep(15) # 跟單網 每獲取一個列表頁暫停 15s ,一個列表頁有 20 分簡歷模板的連結
url = f'{str(i)}.html' # 設定相應的路由 i
try: # 異常處理
response = requests.get(url=url, headers=headers) # 獲取響應
except Exception as e: # 給異常取名為 e
print(e) # 列印異常名稱
print(' 連線失敗,選擇跳過!!! ') # 連不上就不要連了,頭鐵容易出事
print(" 怕封 ip ,獲取列表頁操作暫停中 ......") # 操作暫停提示語
time.sleep(5) # 每出現一次異常暫停 5s
continue # 跳過本次迴圈
response.encoding = 'utf-8' # 中文編碼為 utf-8
page = response.text # 獲取響應的文字資料
tree = etree.HTML(page) # 用 etree 進行資料解析
a_list = tree.xpath("//div[@class='box col3 ws_block']/a") # 用 xpath 提取目標內容形成 20 份一起的列表
for a in a_list:
resume_href = 'https:' + a.xpath('./@href')[0] # 根據爬取的連結設定新的網頁
resume_name = a.xpath('./img/@alt')[0] # 爬取名字,並對列表進行切片取第一個
resume_name = resume_name.strip() # 去掉首尾的空格
try:
resume_response = requests.get(url=resume_href, headers=headers) # 進入簡歷模板詳情頁面
except Exception as e:
print(e)
print(' 連線失敗,選擇跳過!!! ')
print(" 怕封 ip ,獲取個人簡歷詳情頁操作暫停中 ......")
time.sleep(5)
continue
resume_response.encoding = 'utf-8' # 中文編碼為 utf-8
resume_page = resume_response.text # 獲取響應的文字資料
resume_tree = etree.HTML(resume_page) # 用 etree 進行資料解析
resume_link = resume_tree.xpath('//ul[@class="clearfix"]/li/a/@href')[0] # 用 xpath 提取目標內容的下載連結
try:
download = requests.get(url=resume_link, headers=headers).content # 獲取二進位制資料
except Exception as e:
print(e)
print(' 連線失敗,選擇跳過!!! ')
print(" 怕封 ip ,下載個人簡歷操作暫停中 ......")
time.sleep(5)
continue
download_path = './moban/' + resume_name + '.rar' # 設定儲存路徑以及檔名稱
with open(download_path, 'wb') as fp: # 設定檔案製作,以二進位制形式
fp.write(download) # 儲存檔案
print(resume_name, ' 下載成功!!! ') # 下載成功提示語
來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/69946337/viewspace-2761442/,如需轉載,請註明出處,否則將追究法律責任。
相關文章
- python操作個人簡歷,python爬蟲開發工程師應屆生個人簡歷模板(Word可以直接使用)...Python爬蟲工程師
- 用PYTHON爬蟲簡單爬取網路小說Python爬蟲
- Python爬蟲學習(5): 簡單的爬取Python爬蟲
- python爬蟲---網頁爬蟲,圖片爬蟲,文章爬蟲,Python爬蟲爬取新聞網站新聞Python爬蟲網頁網站
- 求職簡歷-Python爬蟲工程師求職Python爬蟲工程師
- 【Python學習】爬蟲爬蟲爬蟲爬蟲~Python爬蟲
- python 爬蟲 爬取 learnku 精華文章Python爬蟲
- python爬蟲——爬取大學排名資訊Python爬蟲
- python爬蟲簡歷專案怎麼寫_爬蟲專案咋寫,爬取什麼樣的資料可以作為專案寫在簡歷上?...Python爬蟲
- Python爬蟲的兩套解析方法和四種爬蟲實現Python爬蟲
- python爬蟲--爬取鏈家租房資訊Python爬蟲
- Python爬蟲爬取美劇網站Python爬蟲網站
- python爬蟲爬取糗事百科Python爬蟲
- 爬蟲--Scrapy簡易爬蟲爬蟲
- 一個人人網python爬蟲Python爬蟲
- python 爬蟲 mc 皮膚站 little skin 的簡單爬取Python爬蟲
- 【python爬蟲】python爬蟲demoPython爬蟲
- 爬蟲:拉勾自動投遞簡歷+資料獲取爬蟲
- C語言爬蟲程式編寫的爬取APP通用模板C語言爬蟲APP
- python 爬蟲 1 爬取酷狗音樂Python爬蟲
- Python爬蟲爬取淘寶,京東商品資訊Python爬蟲
- 小白學 Python 爬蟲(25):爬取股票資訊Python爬蟲
- python網路爬蟲--爬取淘寶聯盟Python爬蟲
- Python實現微博爬蟲,爬取新浪微博Python爬蟲
- Python爬蟲—爬取某網站圖片Python爬蟲網站
- 爬蟲——爬取貴陽房價(Python實現)爬蟲Python
- 【Python爬蟲】正則爬取趕集網Python爬蟲
- 利用Python爬蟲爬取天氣資料Python爬蟲
- [python爬蟲] BeautifulSoup和Selenium簡單爬取知網資訊測試Python爬蟲
- 利用python爬取58同城簡歷資料Python
- Python爬蟲入門教程 50-100 Python3爬蟲爬取VIP視訊-Python爬蟲6操作Python爬蟲
- 爬蟲個人總結爬蟲
- python簡介怎麼寫-python爬蟲簡歷怎麼寫Python爬蟲
- [python爬蟲] 正規表示式使用技巧及爬取個人部落格例項Python爬蟲
- python簡單爬蟲(二)Python爬蟲
- 爬蟲爬取微信小程式爬蟲微信小程式
- 爬蟲之股票定向爬取爬蟲
- Python 第一個爬蟲,爬取 147 小說Python爬蟲