Python工具箱系列(五十一)

西安衍舆航天發表於2024-03-29

九宮格與詞雲

對圖片進行九宮格切割,並且放到微信朋友圈曾經風靡一時。對於python來說,這個也非常簡單。

from PIL import Image
import math


def ninerectanglegrid(inputfilename):
    """
    實現九宮格切割

    Args:
        inputfilename (string): 輸入檔名稱
    """
    cols = 3
    rows = 3

    # 原圖
    im = Image.open(inputfilename)

    # 計算縮放比例
    width, height = im.size

    # 選取原圖片長、寬中較大值作為新圖片的九宮格半徑
    new_image_length = width if width > height else height
    
    # 產生一張白底新圖,並且是正方形
    new_image = Image.new(im.mode, (new_image_length, new_image_length), color='white')
    
    # 將原圖貼上在新圖上,位置為居中
    if width > height:
        new_image.paste(im, (0, int((new_image_length - height) / 2)))
    else:
        new_image.paste(im, (int((new_image_length - width) / 2), 0))

    targetwidth = math.ceil(new_image_length/cols)
    targetheight = math.ceil(new_image_length/rows)

    # cut
    for row in range(rows):
        for col in range(cols):
            box = (targetwidth*col,targetheight*row,targetwidth*(col+1),targetheight*(row+1))
            out = new_image.crop(box)
            out.save(f'{row*cols+col}.png')


ninerectanglegrid(r'd:\test\girl.png')

執行後會將源圖片直接切割成為9個圖片檔案。將它們上傳到微信後,就可以組成九宮格圖片了,其效果如下圖所示。

從效果圖中可以看出,如果切割點在頭部附近會有一些失真的感覺。所以九宮格這種形式還是適合於二次元圖片。

詞雲

在資料視覺化方面,詞雲一直是一種視覺衝擊力很強的方式。對輸入的一段文字進行語義分割,得到不同頻度的詞彙,然後以正比於詞頻的字型大小無規則的集中顯示高頻詞,簡潔直觀高效。如果僅僅是偶然一用,使用線上的詞雲生成工具即可。網上搜尋詞雲線上生成工具,會得到很多結果,包括國內外的網站平臺都有。對比了搜尋較為靠前的幾款線上工具,但或多或少都存在一些使用上瑕疵,有的是網頁載入慢,有的是要註冊後方可使用,有的是字型支援較差,還有的是要付費使用。尤其是各類註冊,更是讓人擔心個人資訊保安的問題。所以,坐而論道,不如起而行之,自己製作詞雲。主要工具有以下:

•wordcloud

•PyEcharts

•stylecloud

以下程式碼演示了詞雲生成。

import os

import jieba
import numpy as np
from PIL import Image
from wordcloud import WordCloud

# 寫入使用者定義的詞,主要是人名/地名等專用的詞
userdict_list = ['洛迦諾','萊茵蘭','蘇臺德','特申','盧西尼亞']

def jieba_processing_txt(text,stopwordsfilename):
    """
    使用jieba進行更好的分詞

    Args:
        text (string): 要處理的文字

    Returns:
        string: 分好的詞
    """
    for word in userdict_list:
        jieba.add_word(word)

    mywordlist = []
    seg_list = jieba.cut(text, cut_all=False)
    liststr = "/ ".join(seg_list)

    with open(stopwords_path, encoding='utf-8') as f_stop:
        f_stop_text = f_stop.read()
        f_stop_seg_list = f_stop_text.splitlines()

    for myword in liststr.split('/'):
        if not (myword.strip() in f_stop_seg_list) and len(myword.strip()) > 1:
            mywordlist.append(myword)
    return ' '.join(mywordlist)


def create_wordcloud(inputfilelist=None,backimg=None,fontname=None,stopwordsfilename=None):
    """
    生成詞雲

    Args:
        inputfile (string, optional): 要處理的文件
        backimg (string, optional): 背景圖
        fontname (string, optional): 字型檔案
        stopwordsfilename (string, optional): 停詞表
        outputfilename (string, optional): 要輸出的詞雲圖片
    """
    for index,inputfile in enumerate(inputfilelist):
        text = open(inputfile,encoding='utf-8').read()
        keywords = jieba_processing_txt(text,stopwordsfilename)
        
        shape_mask = np.array(Image.open(backimg))
        wc = WordCloud(background_color="white",
                    max_words=2000,
                    font_path=fontname,  # 設定字型格式,如不設定顯示不了中文
                    mask=shape_mask
                    )

        wc.generate(keywords)
        wc.to_file(f'd:\\test\\wordcloud-{index}.png')

startdir = r'd:\test'

back_image = f'{startdir}\\black.jpg'
textfilename1 = f'{startdir}\\alice.txt'
textfilename2 = f'{startdir}\\歷史的抉擇.txt'
cn_font = f'{startdir}\\SourceHanSerifK-Light.otf'
stopwords_path = f'{startdir}\\stopwords_cn_en.txt'

inputlist = [textfilename1,textfilename2]
create_wordcloud(inputlist,back_image,cn_font,stopwords_path)

詞雲的效果如下圖所示。

其中:

•black.jpg提供背景,隨意替換

•alice.txt是英文小說,隨意替換

•歷史的抉擇.txt是一箇中文的政論文,隨意替換

•SourceHanSerifK-Light.otf是一箇中文字型檔案,可以隨意替換為自己喜歡的字型檔案

•stopwords_cn_en.txt是一個包含了中英文的停詞表,用於分詞,在網上可以查到​​​​

相關文章