爬蟲P2P網站某產品交易資料統計分析
前言
通過爬蟲p2p網站某產品交易資料,分析實時交易量及增長趨勢,判斷產品活力。
(因不想體現為某p2p網站,所以裡面網站地址使用xxxxxx進行代替,另程式碼可參看最下方的github地址。)
目錄
一、P2P某產品交易量分析
二、工具及相關python包
三、獲取網站的標號及交易量並存入本地excel
四、根據excel表格中的資料進行分析統計實時交易量
五、jenkins配置
六、效果圖展示如下圖
七、gitlab原始碼地址
一、實現思路
1、提取投標專案號
2、根據標號進入分頁進行資金收集
3、將交易量輸入excel表格
4、根據excel統計出最新的交易總和
二、工具及相關python包
python3 Pycharm urllib bs4 re xlrd xlutils.copy jenkins
三、獲取網站的標號及交易量並存入本地excel
#匯入所需要的相關包
from html.parser import HTMLParser
from urllib import request
from bs4 import BeautifulSoup
import reimport time
import xlrd,xlwt,os,sys,xlutils
from xlrd import open_workbook
from xlutils.copy import copy
#此函式為獲取網站的標號及剩餘量
def getdata(data1,data2,data3):
with request.urlopen(data1) as f:
data = f.read().decode('utf-8').replace(u'\xa9', u'') #listp接收標號的url進行拼接
listp = []
res_tr = re.findall(r'/Venus/\d+',data)
for i in res_tr:
listp.append(i)
listj = []
listm = []
#listj接收剩餘量 listm接收標號
for j in listp:
listm.append(j.split('/')[2]) #獲取/標號
url = "https://xxxxxxxx.com" + j #拼接標號url
with request.urlopen(url) as f:
data = f.read().decode('utf-8').replace(u'\xa9', u'') #獲取標號頁面
with open(data3, 'w') as f: #標號頁面存入data3
for i in data: f.write(i)
soup = BeautifulSoup(open(data3)) #使用BeautifulSoup格式化頁面html
jr = (soup.find_all(class_="canbid-amount")) #根據class標籤找到剩餘量
if jr: listj.append(str(jr[0]).split('')[1].split('')[0]) #切割剩餘量獲取資料
else: listj.append("收益中") #無剩餘量顯示
dictjm = dict(zip(listm, listj)) #剩餘量 標號存入字典dictjm
return dictjm #返回
def sendexcl(url,getjm):
rexcel = open_workbook(url) #開啟excel
rows = rexcel.sheets()[0].nrows #統計行
cols = rexcel.sheets()[0].ncols #統計列
excel = copy(rexcel) #複製表
table = excel.get_sheet(0) #第一張表
j = 0
for i, m in getjm.items(): #字典讀取資料excel寫入標號
table.write(rows, j, i) #第一張錶行寫入資料j用於定位行列 i為插入資料
j += 1 #列後移一位
rows += 1 #行後移一位
excel.save(url) #儲存資料
j = 0
for i, m in getjm.items(): #excel寫入剩餘量
table.write(rows, j, m)
j += 1
rows += 1
excel.save(url)
getjm = getdata("https://xxxxxxxxxxxxxx","jmgetlog","jmget1log") #獲取剩餘量標號字典sendexcl("F:\JIMU\JMQST.xlsx",getjm) #excel存入字典
四、根據excel表格中的資料進行分析統計實時交易量
import xlrd
data = xlrd.open_workbook("F:\JIMU\JMQST.xlsx")
table = data.sheets()[0] # 第幾個sheet
nrows = table.nrows # 行數
ncols = table.ncols # 列數
colnames = table.row_values(1) # 某一行資料
print(colnames)
colnames2 = table.row_values(nrows-1)
print(colnames2)
dictn = dict(zip(colnames,colnames2))
del dictn["收益中"]
print(dictn)
listn = []
for i,j in dictn.items():
i = i.replace(',','')
j = j.replace(',','')
m = float(i) - float(j)
listn.append(m)
print(listn)
m = 0
for i in listn:
m += i
print(m)
print("輕鬆投減少量為:%f"%(m))
with open('F:\JIMU\pylog', 'a+') as f:
f.write('\n')
f.write(str(m))
print("sucessful ok")
五、jenkins配置
圖一為jenkins定時任務配置兩分鐘進行一次
圖二為jenkins python配置 jimuDA3.py獲取實時交易量 test1.py 統計交易總
六、效果圖展示如下圖
圖三交易量收集輸入excel表格
圖四 根據excel表格資料統計出實時的交易量,兩分鐘統計一次,由圖可見最新總交易量為一千一百餘萬
七、github地址
https://github.com/tanghuan123/getdata
https://github.com/tanghuan123/getdata/blob/master/getjmdata.py
https://github.com/tanghuan123/getdata/blob/master/test1.py
相關文章
- Python網路爬蟲3 – 生產者消費者模型爬取某金融網站資料Python爬蟲模型網站
- Python網路爬蟲3 - 生產者消費者模型爬取某金融網站資料Python爬蟲模型網站
- Python爬蟲—爬取某網站圖片Python爬蟲網站
- 爬蟲:HTTP請求與HTML解析(爬取某乎網站)爬蟲HTTPHTML網站
- 爬蟲技術抓取網站資料方法爬蟲網站
- 爬蟲搭建代理池、爬取某網站影片案例、爬取新聞案例爬蟲網站
- 某網站加密返回資料加密_爬取過程網站加密
- 產品必備技能(三):網際網路資料分析師、產品經理和運營常用資料網站合集網站
- 網站如何判斷爬蟲在採集資料?網站爬蟲
- 爬蟲-adsbexchange飛機網站-結果資料解析爬蟲網站
- python爬蟲---網頁爬蟲,圖片爬蟲,文章爬蟲,Python爬蟲爬取新聞網站新聞Python爬蟲網頁網站
- 使用正則編寫簡單的爬蟲爬取某網站的圖片爬蟲網站
- 招聘網站爬蟲模板網站爬蟲
- scrapy + mogoDB 網站爬蟲Go網站爬蟲
- 3天學會網頁爬蟲進行資料分析網頁爬蟲
- 資料分析專案(一)——爬蟲篇爬蟲
- 爬蟲代理IP產品如何選擇爬蟲
- 爬蟲抓取網頁資料原理爬蟲網頁
- 利用python爬取某殼的房產資料Python
- 房產資料爬取、智慧財產權資料爬取、企業工商資料爬取、抖音直播間資料python爬蟲爬取Python爬蟲
- Scrapy爬蟲(6)爬取銀行理財產品並存入MongoDB(共12w+資料)爬蟲MongoDB
- python爬蟲利用代理IP分析大資料Python爬蟲大資料
- 爬取某網站寫的python程式碼網站Python
- 使用 Python 爬取網站資料Python網站
- 爬蟲Selenium+PhantomJS爬取動態網站圖片資訊(Python)爬蟲JS網站Python
- 用Python爬蟲分析演唱會銷售資料Python爬蟲
- 教你用python爬蟲爬blibili網站彈幕!Python爬蟲網站
- 使用百度統計分析你的網站訪問資料網站
- Python爬蟲入門【3】:美空網資料爬取Python爬蟲
- 爬蟲專案:大麥網分析爬蟲
- 利用Python爬蟲獲取招聘網站職位資訊Python爬蟲網站
- 我爬取了爬蟲崗位薪資,分析後發現爬蟲真香爬蟲
- 不會Python爬蟲?教你一個通用爬蟲思路輕鬆爬取網頁資料Python爬蟲網頁
- Python 爬蟲實戰之爬拼多多商品並做資料分析Python爬蟲
- 快速爬取登入網站資料網站
- 爬蟲(6) - 網頁資料解析(2) | BeautifulSoup4在爬蟲中的使用爬蟲網頁
- Python爬蟲之小說資訊爬取與資料視覺化分析Python爬蟲視覺化
- Python爬蟲小專案:爬一個圖書網站Python爬蟲網站