學了python以後,知道python的抓取功能其實是非常強大的,當然不能浪費,呵呵。我平時很喜歡美女圖,呵呵,程式設計師很苦悶的,看看美女,養養眼,增加點樂趣。好,那就用python寫一個美女圖自動抓取程式吧~~
其中用到urllib2模組和正規表示式模組。下面直接上程式碼:
用python批量抓取美女圖片
#!/usr/bin/env python #-*- coding: utf-8 -*- #通過urllib(2)模組下載網路內容 import urllib,urllib2,gevent #引入正規表示式模組,時間模組 import re,time from gevent import monkey monkey.patch_all() def geturllist(url): url_list=[] print url s = urllib2.urlopen(url) text = s.read() #正則匹配,匹配其中的圖片 html = re.search(r'<ol.*</ol>', text, re.S) urls = re.finditer(r'<p><img src="(.+?)jpg" /></p>',html.group(),re.I) for i in urls: url=i.group(1).strip()+str("jpg") url_list.append(url) return url_list def download(down_url): name=str(time.time())[:-3]+"_"+re.sub('.+?/','',down_url) print name urllib.urlretrieve(down_url, "D:\\TEMP\\"+name) def getpageurl(): page_list = [] #進行列表頁迴圈 for page in range(1,700): url="http://jandan.net/ooxx/page-"+str(page)+"#comments" #把生成的url加入到page_list中 page_list.append(url) print page_list return page_list if __name__ == '__main__': jobs = [] pageurl = getpageurl()[::-1] #進行圖片下載 for i in pageurl: for (downurl) in geturllist(i): jobs.append(gevent.spawn(download, downurl)) gevent.joinall(jobs)
程式不長才45行,不是太難,大家可以研究下,這裡我只是拋磚引玉,大家可以根據原理開發出其他的抓取程式,呵呵,自己想去吧。。。我就不多說了~~