資料分析|改革春風吹滿地火在哪裡

公號_python學習開發發表於2019-01-02


改革春風吹滿地,中國人民真爭氣。


2018年年末,“改革春風吹滿地”火了。這是一個來自嗶哩嗶哩的一個鬼畜類音樂視訊。
由up主小可兒上傳,目前播放量已達到1400多萬,有著相當高的熱度。該視訊剪輯了趙本山的歷年作品的經典臺詞,配以略帶喜感的音樂(bgm由其他up主製作),每一句臺詞銜接的相當完美。在網易雲音樂裡也可以搜到同名音樂,另有別名「唸詩之王」正常,網易雲的一位
名為A96ccA的這樣寫道:

第一遍:這是啥玩意?
第二遍:嗯,還可以
第三遍:改革春風吹滿地…
複製程式碼

可以看出同樣的是一首洗腦的音樂。
下面讓我先來欣賞(再度洗腦)一下。
視訊地址:https://v.qq.com/x/page/n0806nqulao.html
下面就讓我們爬取b站上該視訊的評論內容,並進行分析為什麼這個視訊會如此的火。

. 資料下載

首先我們找到視訊:https://www.bilibili.com/video/av19390801.
然後找到評論部分,開啟谷歌瀏覽器的控制檯,檢視network選項的請求資訊。通過觀察我們發現了這樣的連結:https://api.bilibili.com/x/v2/reply?callback=jQuery17204794190151297566_1546432727230&jsonp=jsonp&pn=1&type=1&oid=19390801&sort=0&_=1546432740370
去掉沒有用的資訊最後我們得到最終的url形式為:https://api.bilibili.com/x/v2/reply?pn={pn}&type=1&oid=19390801
其中pn為第幾頁,目前看到評論有1129頁,這些資料我們用作簡單的資料分析基本夠用了。
下面就可以編寫我們的程式碼了,這裡我採取的是非同步網路請求模組aiohttp。然後儲存下了每條評論的所以網頁可以得到的資訊,後期獲取每條評論的內容,為後面資料分析使用


下面是主要爬取邏輯

base_url = "https://api.bilibili.com/x/v2/reply?pn={pn}&type=1&oid=19390801"

async def fetch(url):
    async with sem: #併發個數控制
        async with aiohttp.ClientSession() as session: #建立session
            with async_timeout.timeout(10): #等10s
                async with session.get(url) as res: 
                    data = await res.json()#通過await獲取非同步過程中的資料
                    print(data)
                    await asyncio.sleep(2)#加個非同步等待防止被封。
                    await save_data(glom.glom(data, "data.replies"))#glom模組json資料解析用。
複製程式碼

這裡需要用到以下模組,使用pip install即可安裝

aiohttp
async_timeout
uvloop(windows就不用了,只支援unix系統)
glom
複製程式碼

需要說明的是之前我就是因為沒有加等待時間,所以被b站這個介面的連結給封了,造成的現象就是視訊可以看但是評論是重新整理不出來的,挺有意思的。關於aiohttp的使用方法,有興趣的朋友可以看我之前寫的文章:aiohttp地址放這。
到這裡資料下載邏輯就完事了,下面是資料儲存邏輯。

. 資料儲存

因為上面的下載的結果是json格式,所以首先資料庫就是mongodb,這裡為了統一使用了非同步mongo資料模組motor,一個基於事件迴圈的模組。
首先建立資料連結

class MotorBase:
    _db = {}
    _collection = {}

    def __init__(self, loop=None):
        self.motor_uri = ''
        self.loop = loop or asyncio.get_event_loop()

    def client(self, db):
        self.motor_uri = f"mongodb://localhost:27017/{db}"
        return AsyncIOMotorClient(self.motor_uri, io_loop=self.loop)

    def get_db(self, db='weixin_use_data'):
        if db not in self._db:
            self._db[db] = self.client(db)[db]

        return self._db[db]
複製程式碼

這裡使用模組有:

asyncio
motor
複製程式碼

然後開始使用類似pymongo的方式插入資料,具體程式碼如下

async def save_data(items):
    mb = MotorBase().get_db('weixin_use_data') #獲取連結物件,weixin_use_data是我的資料庫名。
    for item in items:
        try:
            await mb.bilibili_comments.update_one({
                'rpid': item.get("rpid")},
                {'$set': item},
                upsert=True)#bilibili_comments是我的表名,update_one方法的作用是不存在就插入存在更新。
        except Exception as e:
            print("資料插入出錯", e.args,"此時的item是",item)
複製程式碼

然後通過執行這個事件迴圈,事件迴圈是這裡所有非同步的基礎。

    loop = asyncio.get_event_loop()#建立一個事件迴圈
    loop.run_until_complete(get_data())#開始執行直到程式結束
複製程式碼

. 資料解析

上面我們拿到了作出資料,但是資料都是json格式的,而且量很大,我們需要的只有評論內容,所以我們需要進一步對資料進行處理,同樣的這裡我也使用了檔案讀寫非同步模組aiofiles

這部分程式碼量也很少,用法和open file差不多,多了些非同步的形式而已。
首先讀取mongo裡的資料

async def get_data():
    mb = MotorBase().get_db('weixin_use_data')
    data=mb.bilibili_comments.find()
    return data
複製程式碼

讀取還是用的motor模組為了配合後面的檔案讀入使用。

async def m2f():
    data = await get_data()
    async for item in data:
        t = item.get("content").get("message").strip()
        fs = await aiofiles.open(pathlib.Path.joinpath(pathlib.Path.cwd().parent, "msg.txt"), 'a+')#pathlib路徑拼接
        await fs.write(t)
複製程式碼

到目前為止資料獲取部分基本結束了,後面就是對上面的文字檔案進行分析了。

. 資料分析

為了清晰的表達資料所帶來的資訊,對於評論資訊,我們選用直觀的方式--詞雲圖

準備工作

安裝包

jieba
wordcloud
matplotlib
複製程式碼

生成詞雲需要用的圖


字型檔案
mac中預設字型顯示亂碼,這裡指定了別的字型msyhbd.ttf,網上隨便搜了一個,windows可以或其他系統支援字型即可
停用詞設定
經過分析大概設定瞭如下停用詞:

哈
哈哈
哈哈哈
xa0
一個
u3000
什麼
視訊
這個
up
看到
怎麼
播放
真的
知道
已經
改革
春風
滿地
鬼畜
抖音
現在
春晚
千萬
助攻
複製程式碼

停用詞設定是為了去除一些沒有意義的詞,比如這個,那個之類的。或者當前檔案的標題
程式碼如下

# -*- coding: utf-8 -*-
# @Time : 2019/1/2 7:52 PM
# @Author : cxa
# @File : cutword.py
# @Software: PyCharm
# coding=utf-8
import jieba
import matplotlib.pyplot as plt
from wordcloud import WordCloud

# 獲取所有評論
comments = []
with open('msg.txt', mode='r', encoding='utf-8') as f:
    rows = f.readlines()
    for row in rows:
        comments.append(row)


# 設定分詞
comment_after_split = jieba.cut(str(comments), cut_all=False)  #分詞,cut_all=false
words = ' '.join(comment_after_split)  # 以空格進行拼接

# 設定遮蔽詞
STOPWORDS = set(map(str.strip, open('stopwords').readlines()))
print(STOPWORDS)
# 匯入背景圖
bg_image = plt.imread('1.jpeg')
# 設定詞雲引數,引數分別表示:畫布寬高、背景顏色、背景圖形狀、字型,遮蔽詞、最大詞的字型大小
wc = WordCloud(width=2024, height=1400, background_color='white', mask=bg_image,font_path='msyhbd.ttf',stopwords=STOPWORDS, max_font_size=400,
               random_state=50)

# 將分詞後資料傳入雲圖
wc.generate_from_text(words)
plt.imshow(wc)
plt.axis('off')  # 不顯示座標軸
plt.show()

# 儲存結果到本地
wc.to_file('ggcfcmd.jpg')
複製程式碼

最終結果


由此可以看出這視訊最重要的還是洗腦,導致進來就出不去了,同樣的也是追憶本山大叔多年來帶給大家的無數快樂時光,總之洗腦就完事了。

為了方便大家的閱讀程式碼,本文中所有涉及到的程式碼,已經傳到https://github.com/muzico425/bilibilianalysis.git


相關文章