Python爬取網頁資訊時,經常使用的正規表示式及方法。
1.獲取<tr></tr>標籤之間內容 2.獲取<a href..></a>超連結之間內容 3.獲取URL最後一個引數命名圖片或傳遞引數 4.爬取網頁中所有URL連結 5.爬取網頁標題title兩種方法 6.定位table位置並爬取屬性-屬性值 7.過濾<span></span>等標籤 8.獲取<script></script>等標籤內容
1). 獲取<tr></tr>標籤之間內容
開始標籤如:<tr>、<th>、<td>、<a>、<table>、<div>...
字尾標籤如:</tr>、</th>、</td>、</a>、</table>、</div>...
核心程式碼:
res_tr = r'<tr>(.*?)</tr>' m_tr = re.findall(res_tr,language,re.S|re.M)
# eg_v1
import re language = '''<tr><th>床前明月光</th><td>憂思獨傷心</td></tr><tr>''' # 正規表示式獲取<tr></tr>之間內容 res_tr = r"<tr>(.*?)</tr>" m_tr = re.findall(res_tr,language,re.S|re.M) print (unicode(m_tr,"utf-8")) for line in m_tr: print line res_th = r"<th>(.*?)</th>" m_th = re.findall(res_th,line,re.S|re.M) for mm in m_th: print (unicode(mm,"utf-8")) res_td = r"<td>(.*?)</td>" m_td = re.findall(res_td,line,re.S|re.M) for nn in m_td: print (unicode(nn,"utf-8"))
2). 獲取超連結<a href=..></a>之間內容
在使用正規表示式時,需要分析網頁連結,獲取URL或網頁內容。核心程式碼如下:
res = r'<a .*?>(.*?)</a>' mm = re.findall(res, content, re.S|re.M) urls=re.findall(r"<a.*?href=.*?<\/a>", content, re.I|re.S|re.M)
# eg_v2
import re content = ''' <td> <a href="https://www.baidu.com/articles/zj.html" title="浙江省">浙江省主題介紹</a> <a href="https://www.baidu.com//articles/gz.html" title="貴州省">貴州省主題介紹</a> </td> '''
# 獲取<a href></a>之間的內容
res = r'<a .*?>(.*?)</a>' mm = re.findall(res,content,re.S|re.M) for value in mm: print (value)
# 獲取所有<a href></a>連結所有內容
urls = re.findall(r"a.*?href=.*?<\/a>",content,re.I|re.S|re.M) for i in urls: print i
# 獲取<a href></a>中的URL
res_url = r"(?<=href=\").+?(?=\")|(?<=href=\').+?(?=\')" link = re.findall(res_url,content,re.I|re.S|re.M) for url in link: print (url)
3). 獲取URL最後一個引數命名圖片或傳遞引數
使用Python爬取圖片過程中,會遇到圖片對應的URL最後一個欄位通常用於命名圖片
通過該URL的"/"後面的引數命名圖片
# eg_v3
urls = 'http://i1.hoopchina.com.cn/blogfile/201411/11/BbsImg141568417848931_640*640.jpg' value = urls.split("/")[-1] print (value) # BbsImg141568417848931_640*640.jpg
使用Python獲取GET方法的URL連結中,還可能存在傳遞引數的值,獲取引數方法:
url = 'http://localhost/test.py?a=hello&b=world' values = url.split('?')[-1] print (values) # a=hello&b=world for key_value in values.split('&'): print (key_value.split('=')) # ['a', 'hello'] # ['b', 'world']
4). 爬取網頁中所有URL連結
從固有網頁中爬取URL連結,再進行下一步的迴圈爬取或URL抓取.
# eg_v4 (爬取CSDN首頁的所有URL連結)
import re import urllib2 url = "http://www.csdn.net/" content = urllib2.urlopen(url).read() urls = re.findall(r'<a.*?href=.*?<\/a>',content,re.I) for url in urls: print (unicode(url,"utf-8")) link_list = re.findall(r"(?=href=\".+?(?=\")|(?<=href=\').+?(?=\')",content) for url in link_list: print (url)
5). 爬取網頁標題title兩種方法
獲取網頁標題也是一種常見的爬蟲,常位於<html><head><title>標題</title></head></html>中
# eg_v5 (爬取CSDN標題)
import re import urllib2 url = 'http://www.csdn.net/' content = urllib2.urlopen(url).read() # 方法一 title_pat = r'(?<=<title>).*?(?=</title>)' title_ex = re.compile(title_pat,re.M|re.S) title_obj = re.search(title_ex,content) title = title_obj.group() print (title) # 方法二 title = re.findall(r'<title>(.*?)</title>',content) print (title[0])
6). 定位table位置並爬取屬性-屬性值
# eg_v6 (正規表示式獲取td值的例子)
import re s = '''<table> <tr> <td>序列號</td><td>DEIN3-39CD3-2093J3</td> <td>日期</td><td>2013年1月22日</td> <td>售價</td><td>392.70 元</td> <td>說明</td><td>僅限5使用者使用</td> </tr> </table> ''' res = r'<td>(.*?)</td><td>(.*?)</td>' m = re.findall(res,s,re.S|re.M) for line in m: print (unicode(line[0],'utf-8'),unicode(line[1],'utf-8'))
# 如果<td id="">包含該屬性則正規表示式為r'<td id=.*?>(.*?)</td>';同樣如果不一定是id屬性開頭,則可以使用正規表示式r'<td .*?>(.*?)</td>'
7). 過濾<span></span>等標籤
獲取值過程中,通常會存在<span>、<br>、<a href>等標籤
核心程式碼:
elif "span" in nn: #處理標籤<span> res_value = r'<span .*?>(.*?)</span>' m_value = re.findall(res_value,nn,re.S|re.M) for value in m_value: print unicode(value,'utf-8'),
# eg_v7
import re language = ''' <table class="infobox bordered vcard" style="width: 21em; font-size: 89%; text-align: left;" cellpadding="3"> <caption style="text-align: center; font-size: larger;" class="fn"><b>購書</b></caption> <tr> <th>性別:</th> <td>男</td>d </tr> <tr> <th>異名:</th> <td><span class="nickname">(字) 翔宇</span></td> </tr> <tr> <th>政黨:</th> <td><span class="org"><a href="../articles/%E4%B8%AD9A.html" title="購書中心"></a></span></td> </tr> <tr> <th>籍貫:</th> <td><a href="../articles/%E6%B5%9981.html" title="廣東省">廣東省</a><a href="../articles/%E7%BB%8D82.html" title="紹興市">紹興市</a></td> </tr> </table> ''' # 獲取table中tr值 res_tr = r'<tr>(.*?)</tr>' m_tr = re.findall(res_tr,language,re.S|re.M) # 獲取表格第一列th 屬性 for line in m_tr: res_th = r'<th>(.*?)</th>' m_th = re.findall(res_th,line,re.S|re.M) for mm in m_th: if "href" in mm: # 如果獲取加粗的th中含超連結則處理 restr = r'<a href=.*?(.*?)<\a>' h = re.findall(res_tr,mm,re.S|re.M) print (unicode(h[0],'utf-8')) else: print (unicode(mm,'utf-8')) # 取表格第二列td 屬性值 res_td = r'<td>(.*?)</td>' m_td = re.findall(res_td,line,re.S|re.M) for nn in m_td: if 'href' in nn: res_value = r'<a .*?>(.*?)</a>' m_value = re.findall(res_value,nn,re.S|re.M) for value in m_value: print (unicode(value,'utf-8')) elif "span" in nn: res_value = r'<span .*?>(.*?)</span>' m_value = re.findall(res_value,nn,re.S|re.M) for value in m_value: print (unicode(value,'utf-8') else: print (unicode(nn,'utf-8')) print (' ')
8). 獲取<script></script>等標籤內容
在獲取遊訊網相簿中,圖集對應的原圖它是儲存在script中,其中獲取原圖-original即可
通過正規表示式下載URL:
res_original = r'"original":"(.*?)"' #原圖 m_original = re.findall(res_original,script)
# eg_v8
import re import os import urllib content = ''' <script>var images = [ { "big":"http://i-2.yxdown.com/2015/3/18/KDkwMHgp/6381ccc0-ed65-4422-8671-b3158d6ad23e.jpg", "thumb":"http://i-2.yxdown.com/2015/3/18/KHgxMjAp/6381ccc0-ed65-4422-8671-b3158d6ad23e.jpg", "original":"http://i-2.yxdown.com/2015/3/18/6381ccc0-ed65-4422-8671-b3158d6ad23e.jpg", "title":"","descript":"","id":75109}, { "big":"http://i-2.yxdown.com/2015/3/18/KDkwMHgp/fec26de9-8727-424a-b272-f2827669a320.jpg", "thumb":"http://i-2.yxdown.com/2015/3/18/KHgxMjAp/fec26de9-8727-424a-b272-f2827669a320.jpg", "original":"http://i-2.yxdown.com/2015/3/18/fec26de9-8727-424a-b272-f2827669a320.jpg", "title":"","descript":"","id":75110}, </script> ''' html_script = r'<script>(.*?)</script>' m_script = re.findall(html_script,content,re.S|re.M) for script in m_script: res_original = r'"original":"(.*?)"' m_original = re.findall(res_original,script) for pic_url in m_original: print (pic_url) filename = os.path.basename(pic_url) urllib.urlretrieve(pic_url,"D:\\" + filename)