前言
今天完成我的部落格頁面剩下的內容,並將該頁面的所有內容整合起來,弄出一個歸納與提醒的小程式。
歸檔與標籤
根據前面獲取到的內容可以很容易的就完成歸檔與標籤的獲取,程式碼如下:
month_post_count = result.xpath('//div [@class = "ui list readmore"]/a/@href')
label_list = result.xpath('//a [@class = "ui label basic"]/@href')
print("部落格歸檔連結為:{},標籤連結為:{}".format(month_post_count, label_list))
到此整個我的部落格頁面已經全部獲取完畢了,接下來開始進行爬蟲整合的工作
整合爬取到的內容
將前兩天的爬蟲進行整合
- 新建一個
content.py
的檔案,寫入初始資料BLOG_NAME = "SilenceHL" POST_COUNT = 41 FANS_COUNT = 2 LIKE_COUNT = 5 FAVORITES_COUNT = 6 ACCESS = 571 RANK = 1609
- 完成對個人資料的展示以及資料的更新
print("歡迎來到{}的部落格,\n目前該部落格博文數量為{}篇,較昨日新增{}篇,\n粉絲數為{}人,較昨日新增{}人,\n獲得喜歡的數量為{},較昨日新增{},\n" "獲得收藏的數量為{},較昨日新增{},\n當前訪問人數為{},較昨日新增{},\n當前排名為{},較昨日新增{},\n部落格所有歸檔連結為{}\n,所有標籤連結為{}".format(name, post_count, int( post_count) - POST_COUNT, fans_count, int( fans_count) - FANS_COUNT, like_count, int( like_count) - LIKE_COUNT, favorites_count, int( favorites_count) - FAVORITES_COUNT, access, int(access) - ACCESS, rank, int(rank) - RANK, month_post_list, label_list)) with open('content.py', 'w') as f: f.write("""BLOG_NAME = "{}" POST_COUNT = {} FANS_COUNT = {} LIKE_COUNT = {} FAVORITES_COUNT = {} ACCESS = {} RANK = {}""".format(name, post_count, fans_count, like_count, favorites_count, access, rank)) print('完成當日資料更新')
本作品採用《CC 協議》,轉載必須註明作者和本文連結