Python 萬能程式碼模版:爬蟲程式碼篇
# file_name: excel_crawler_urllib3.py
import urllib3
import pandas as pd
def download_content(url):
# 建立一個 PoolManager 物件,命名為 http
http = urllib3.PoolManager()
# 呼叫 http 物件的 request 方法,第一個引數傳一個字串 "GET"
# 第二個引數則是要下載的網址,也就是我們的 url 變數
# request 方法會返回一個 HTTPResponse 類的物件,我們命名為 response
response = http.request("GET", url)
# 獲取 response 物件的 data 屬性,儲存在變數 response_data 中
response_data = response.data
# 呼叫 response_data 物件的 decode 方法,獲得網頁的內容,儲存在 html_content
# 變數中
html_content = response_data.decode()
return html_content
def save_excel():
html_content = download_content(")
# 呼叫 read_html 函式,傳入網頁的內容,並將結果儲存在 cmb_table_list 中
# read_html 函式返回的是一個 DataFrame 的 list
cmb_table_list =外匯跟單gendan5.com pd.read_html(html_content)
# 透過列印每個 list 元素,確認我們所需要的是第二個,也就是下標 1
cmb_table_list[1].to_excel("tips2.xlsx")
def main():
save_excel()
if __name__ == '__main__':
main()
# file_name: excel_crawler_requests.py
import requests
import pandas as pd
from requests.exceptions import RequestException
def download_content(url):
try:
response = requests.get(url)
if response.status_code == 200:
return response.text
else:
return "None"
except RequestException as e:
return e
def save_excel(filename):
html_content = download_content(")
# 呼叫 read_html 函式,傳入網頁的內容,並將結果儲存在 cmb_table_list 中
# read_html 函式返回的是一個 DataFrame 的 list
cmb_table_list = pd.read_html(html_content)
# 透過列印每個 list 元素,確認我們所需要的是第二個,也就是下標 1
# print(cmb_table_list)
cmb_table_list[1].to_excel(filename)
def main():
filename = "tips2.xlsx"
save_excel(filename)
if __name__ == '__main__':
main()
來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/69946337/viewspace-2911969/,如需轉載,請註明出處,否則將追究法律責任。
相關文章
- Python 萬能程式碼模版:批量搞圖,秀翻全場(上)Python
- Python開發爬蟲專案+程式碼Python爬蟲
- python爬蟲之多執行緒、多程式+程式碼示例Python爬蟲執行緒
- 不用寫程式碼的爬蟲爬蟲
- golang echo 程式碼詳解之模版篇Golang
- 如何爬取視訊的爬蟲程式碼原始碼爬蟲原始碼
- 手把手教你利用爬蟲爬網頁(Python程式碼)爬蟲網頁Python
- Python爬蟲指令碼Python爬蟲指令碼
- 5 行程式碼就能入門爬蟲?行程爬蟲
- 爬蟲錯誤程式碼如何解決?爬蟲
- 上天的Node.js之爬蟲篇 15行程式碼爬取京東資源Node.js爬蟲行程
- 有道翻譯最新爬蟲程式碼-基於Python3爬蟲Python
- Python小白的爬蟲問題與解決(含程式碼)Python爬蟲
- 爬蟲:多程式爬蟲爬蟲
- python爬蟲抓取資料時失敗_python爬蟲 大佬 請教下 為什麼爬取的資料有時能爬到 有時有爬不到, 程式碼如下:...Python爬蟲
- 5行程式碼就能入門爬蟲?行程爬蟲
- 爬蟲的代理ip怎麼用程式碼爬蟲
- scrapy通用專案和爬蟲程式碼模板爬蟲
- scrapy爬蟲程式xpath中文編碼報錯爬蟲
- 新一代爬蟲平臺!不寫程式碼即可完成爬蟲...爬蟲
- 【Python篇】scrapy爬蟲Python爬蟲
- python 爬蟲 response得到亂碼Python爬蟲
- Python爬蟲亂碼問題Python爬蟲
- Java實現網路爬蟲 案例程式碼Java爬蟲
- 新手小白的爬蟲神器-無程式碼高效爬取資料爬蟲
- Python爬蟲入門教程 55-100 python爬蟲高階技術之驗證碼篇Python爬蟲
- Python 自用程式碼(scrapy多級頁面(三級頁面)爬蟲)Python爬蟲
- 網路爬蟲有什麼用?怎麼爬?手把手教你爬網頁(Python程式碼)爬蟲網頁Python
- 前端開發程式碼模版收錄前端
- JB的Python之旅-爬蟲篇-圖形驗證碼(1)-- tesserocrPython爬蟲
- 用一段爬蟲程式碼爬取高音質音訊示例爬蟲音訊
- python自學,小知識程式碼,能飛天的小程式碼Python
- 50行程式碼,Node爬蟲練手專案 ?️行程爬蟲
- 爬蟲常見錯誤程式碼及解決措施爬蟲
- 利用爬蟲採集音訊資訊完整程式碼示例爬蟲音訊
- 《Python3網路爬蟲開發實戰程式碼》基本庫使用Python爬蟲
- 爬蟲程式最佳化要點—附Python爬蟲影片教程爬蟲Python
- python爬蟲的最佳實踐(六)--爬蟲中的多程式Python爬蟲