爬蟲遇到頭疼的驗證碼?教你彈窗處理和驗證碼識別

pythonputao發表於2020-12-30

本文的文字及圖片來源於網路,僅供學習、交流使用,不具有任何商業用途,,版權歸原作者所有,如有問題請及時聯絡我們以作處理

作者:劉早起   來源:CSDN

本文連結:https://blog.csdn.net/weixin_41846769/article/details/107629483

PS:如有需要Python學習資料的小夥伴可以加點選下方連結自行獲取

python免費學習資料以及群交流解答點選即可加入

前言

在我們寫爬蟲的過程中,目標網站常見的干擾手段就是設定驗證碼等,本就將基於Selenium實戰講解如何處理彈窗和驗證碼,爬取的目標網站為某儀器預約平臺

img

可以看到登入所需的驗證碼構成比較簡單,是彩色的標準數字配合簡單的背景干擾****

img

因此這裡的驗證碼識別不需要藉助人工智慧的手段,可直接利用二值法對圖片處理後交給谷歌的識別引擎tesseract-OCR即可獲得圖中的數字。

:selenium 和 tesseract 的配置讀者可自行搜尋,本文不做介紹)

Python實戰

首先匯入所需模組

import re
# 圖片處理
from PIL import Image
# 文字識別
import pytesseract
# 瀏覽器自動化
from selenium import webdriver
import time

解決彈出框問題

先嚐試開啟示例網站

url = 'http://lims.gzzoc.com/client'
driver = webdriver.Chrome()
driver.get(url)
time.sleep(30)

img

有趣的地方出現了,網站顯示了一個我們前面沒有看到的彈窗,簡單說一下彈窗的知識點,初學者可以將彈出框簡單分為alert和非alert

alert式彈出框

alert(message)方法用於顯示帶有一條指定訊息和一個 OK 按鈕的警告框confirm(message)方法用於顯示一個帶有指定訊息和 OK 及取消按鈕的對話方塊prompt(text,defaultText)方法用於顯示可提示使用者進行輸入的對話方塊

看一下這個彈出框的js是怎麼寫的:

img

看起來似乎是alert式彈出框,那麼直接用driver.switch_to.alert嗎?先不急

非傳統alert式彈出框的處理

彈出框位於div層,跟平常定位方法一樣

彈出框是巢狀的iframe層,需要切換iframe

彈出框位於巢狀的handle,需要切換視窗

所以我們對這個彈出框進行元素審查

img

所以問題實際上很簡單,直接定位按鈕並點選即可

url = 'http://lims.gzzoc.com/client'

driver = webdriver.Chrome()
driver.get(url)
time.sleep(1)
driver.maximize_window() # 最大化視窗
driver.find_element_by_xpath("//div[@class='jconfirm-buttons']/button").click()

獲取圖片位置並截圖

二值法處理驗證碼的簡單思路如下:

切割擷取驗證碼所在的圖片

轉為灰度後二值法將有效資訊轉為黑,背景和干擾轉為白色

處理後的圖片交給文字識別引擎

輸入返回的結果並提交

切割擷取驗證碼的圖片進一步思考解決策略:首先獲取網頁上圖片的css屬性,根據size和location算出圖片的座標;然後截圖;最後用這個座標進一步去處理截圖即可(由於驗證碼js的特殊性,不能簡單獲取img的href後下載圖片後讀取識別,會導致前後不匹配)

img = driver.find_element_by_xpath('//img[@id="valiCode"]')
time.sleep(1)
location = img.location
size = img.size
# left = location['x']
# top = location['y']
# right = left + size['width']
# bottom = top + size['height']
left = 2 * location['x']
top = 2 * location['y']
right = left + 2 * size['width'] - 10
bottom = top + 2 * size['height'] - 10
driver.save_screenshot('valicode.png')
page_snap_obj = Image.open('valicode.png')
image_obj = page_snap_obj.crop((left, top, right, bottom))
image_obj.show()

正常情況下直接使用註釋的四行程式碼即可,但不同的電腦不同的瀏覽器,縮放倍率存在差異,因此如果擷取出的圖存在偏差這需要考慮乘上倍率係數。最後可以再加減數值進行微調

img

可以看到圖片這成功擷取出來了!

驗證碼圖片的進一步處理

這個閾值需要具體用Photoshop或者其他工具嘗試,即找到一個畫素閾值能夠將灰度圖片中真實資料和背景干擾分開,本例經測試閾值為205

img = image_obj.convert("L")  # 轉灰度圖
pixdata = img.load()
w, h = img.size
threshold = 205
# 遍歷所有畫素,大於閾值的為黑色
for y in range(h):
    for x in range(w):
        if pixdata[x, y] < threshold:
            pixdata[x, y] = 0
        else:
            pixdata[x, y] = 255

根據畫素二值結果重新生成圖片

data = img.getdata()
w, h = img.size
black_point = 0
for x in range(1, w - 1):
    for y in range(1, h - 1):
        mid_pixel = data[w * y + x]
        if mid_pixel < 50:
            top_pixel = data[w * (y - 1) + x]
            left_pixel = data[w * y + (x - 1)]
            down_pixel = data[w * (y + 1) + x]
            right_pixel = data[w * y + (x + 1)]
            if top_pixel < 10:
                black_point += 1
            if left_pixel < 10:
                black_point += 1
            if down_pixel < 10:
                black_point += 1
            if right_pixel < 10:
                black_point += 1
            if black_point < 1:
                img.putpixel((x, y), 255)
            black_point = 0
img.show()

影像處理前後對比如下

img

文字識別

將處理後的圖片就給谷歌的文字識別引擎就能完成識別

result = pytesseract.image_to_string(img)
# 可能存在異常符號,用正則提取其中的數字
regex = '\d+'
result = ''.join(re.findall(regex, result))
print(result)

識別結果如下

img

提交賬號密碼、驗證碼等資訊

在處理完驗證碼之後,現在我們就可以向網站提交賬號密碼、驗證碼等登陸所需資訊

driver.find_element_by_name('code').send_keys(result)
driver.find_element_by_name('userName').send_keys('xxx')
driver.find_element_by_name('password').send_keys('xxx')
# 最後點選確定
driver.find_element_by_xpath("//div[@class='form-group login-input'][3]").click()

需要注意的是,二值法識別驗證碼成功率不是100%,因此需要考慮到驗證碼識別錯誤,需要單擊圖片更換驗證碼重新識別,可以將上述程式碼拆解成多個函式後,用如下迴圈框架試錯

while True:
    try:
        ...
        break
    except:
        driver.find_element_by_id('valiCode').click()

為了方便理解,程式碼的書寫沒有以函式形式呈現,歡迎讀者自行嘗試修改!

小結

成功登入後就可以獲得個人的cookies,接下來可以繼續用selenium進行瀏覽器自動化或者把cookies傳給requests,後面就能爬取需要的資訊做分析或者實現一些自動化功能。

 

相關文章