如何用深度學習框架PaddlePaddle實現智慧春聯

PaddlePaddle發表於2019-01-30

是什麼讓機器擁有對春聯這項技能?通過智慧春聯H5,“刷臉”對春聯只需幾秒就能實現,而這背後是一系列“不可描述”的高深技術。視覺方面,主要應用了人臉檢測、屬性分析、人臉融合等技術,可對圖片中的人臉進行檢測,分析人臉對應的年齡、性別、顏值、微笑指數、是否佩戴眼鏡等資訊,並通過一個詞語概括人臉的特性;進而將圖片中的人臉,與指定模板圖中的人臉進行融合,得到新的圖片。這些技術的難度在於,需要對各種角度的人臉進行檢測,並且能夠提取人臉的五官特徵,以便能夠生成與原始人臉相似,但也和模板人臉神似,且毫無違和感的新圖片。

其次是自然語言處理(NLP)方面,基於百度深度學習框架PaddlePaddle先進的神經網路機器翻譯技術,可以將春聯創作轉化為“翻譯”的過程,所不同的是,翻譯是在兩種語言之間建立聯絡,而春聯是在同一種語言中建立聯絡。當然,有些人可能會中招“彩蛋”,這些不是AI寫的春聯。比如你刷臉得出“戲精”這個關鍵詞,就會獲得一副“流量體質天生有戲,主角光環蓋不住你”,橫批“過足戲癮”的春聯,這麼霸氣十足可是由人工專門為你埋的梗哦!這樣的春聯出現在朋友圈裡,毫無疑問,點贊人數會瘋狂UpUpUp……

讓我們嘗試體驗一下吧!PaddlePaddle作為深度學習框架,不僅支援深度學習演算法的開發和調研,而且官方釋出的模型庫(https://github.com/PaddlePaddle/models)裡面彙集了各種領先的影象分類自然語言處理演算法。通過這些演算法,我們可以很方便地實現各種好玩有趣的功能,比如:智慧春聯。

如何用深度學習框架PaddlePaddle實現智慧春聯

智慧春聯有各種玩法,可以根據使用者輸入的關鍵詞,生成一副對聯,實現定製化的專屬春聯,比如:使用者輸入“好運”,百度人工智慧春聯生成程式就會創作出上下聯為“一年好運滿園錦繡,萬眾同心遍地輝煌”、橫批為“春光滿園”的春聯;使用者輸入自己的名字,智慧春聯生成程式可以把自己的名字藏在生成的春聯中,形成個性化非常強的春聯,用來傳送給自己的朋友;甚至使用者不需要輸入關鍵詞,只需要拍一張照片,然後就可以根據這張照片生成圖文並茂的春聯。那這些功能都是怎麼做到的呢?這裡我們給大家介紹一下如何用PaddlePaddle開發一套專屬的智慧春聯生成系統。

如何用深度學習框架PaddlePaddle實現智慧春聯

一、我們的系統需要先做到能理解影象的內容,比如:使用者輸入的到底是什麼?

這是一個典型影象分類的問題,影象分類是根據影象的語義資訊對不同類別影象進行區分,是計算機視覺中重要的基礎問題,是物體檢測、影象分割、物體跟蹤、行為分析、人臉識別等其他高層視覺任務的基礎,在許多領域都有著廣泛的應用。在深度學習時代,影象分類準確率大幅度提升,PaddlePaddle在經典的資料集ImageNet上,開放了常用的模型,包括AlexNet、VGGGoogLeNet、ResNet、Inception-v4、MobileNet、DPN(Dual Path Network)、SE-ResNeXt模型,同時也開源了訓練的模型方便使用者下載使用。基於這些影象分類演算法,可以知道使用者輸入的類別,用類似的技術,還可以知道一些更具體的屬性,比如:對於一張人臉的照片,可以知道性別、年齡這些屬性。有了圖片的這些特徵和屬性之後,我們可以進行關鍵詞擴充套件。比如:對於年輕的女性可以聯想出一些關鍵詞“風華絕代”、“秀麗”、“端莊”等等,對於小孩可以聯想出關鍵詞“活潑可愛”、“機智”、“勇敢”等等。

如何用深度學習框架PaddlePaddle實現智慧春聯

圖1. 智慧春聯絡統結構圖

二、拿到這些關鍵詞之後,接下來的任務是什麼?

根據一個關鍵詞,自動生成一副相關的春聯。春聯的生成過程可以分成2個步驟,第一個步驟是從關鍵詞生成一副上聯。然後再根據上聯生成一副下聯。那麼如何實現這2個生成步驟呢?我們發現這個任務跟機器翻譯很相似,可以用類似的技術來實現。機器翻譯(Machine Translation, MT)是用計算機來實現不同語言之間翻譯的技術。被翻譯的語言通常稱為源語言(Source Language),翻譯成的結果語言稱為目標語言(Target Language)。機器翻譯即實現從源語言到目標語言轉換的過程,是自然語言處理的重要研究領域之一。PaddlePaddle的模型庫(PaddlePaddle/models)裡面,提供了兩個機器翻譯演算法的實現,一個是經典的基於LSTM的Seq2Seq模型,另一個是最新的基於Attention的Transformer模型。 類比於機器翻譯任務,可以把智慧春聯輸入的關鍵詞看作是機器翻譯裡的源語言句子,然後把根據關鍵詞生成的上聯,看作是機器翻譯裡的目標語言譯文。相較於此前 Seq2Seq 模型中廣泛使用的迴圈神經網路(Recurrent Neural Network, RNN),使用(Self)Attention 進行輸入序列到輸出序列的變換主要具有以下優勢:計算複雜度更小、計算併發度更高、更容易學到長距離的依賴關係。我們推薦使用翻譯效果更好的Transformer模型,通常Transfomer可以得到比Seq2Seq更好的翻譯效果。

如何用深度學習框架PaddlePaddle實現智慧春聯

圖2. Transformer模型核心元件Multi-Head Attention

    def  scaled_dot_product_attention(q, k, v, attn_bias, d_key, dropout_rate):

         """

        Scaled  Dot-Product Attention

         """

        scaled_q  = layers.scale(x=q, scale=d_key**-0.5)

        product =  layers.matmul(x=scaled_q, y=k, transpose_y=True)

        if  attn_bias:

             product += attn_bias

        weights =  layers.softmax(product)

        if  dropout_rate:

             weights = layers.dropout(

                 weights,

                 dropout_prob=dropout_rate,

                 seed=ModelHyperParams.dropout_seed,

                 is_test=False)

        out =  layers.matmul(weights, v)

        return  out

圖3. Scaled Dot-Product Attention的PaddlePaddle程式碼實現

三、選定了使用的生成演算法之後,如何讓機器能夠學會寫春聯呢?

接下來就需要給系統準備訓練資料了,所謂“熟讀唐詩三百首”,對於機器來說,需要見到大量的春聯,才能夠學會春聯裡用詞和用字的規律。我們可以去網際網路上找到大量的春聯資料,比如:“爆竹傳吉語”“臘梅報新春”等等,然後把它們作為訓練資料,通常需要幾萬條。有了這些資料後,我們從上聯裡抽取出關鍵詞,“爆竹”-> “爆竹傳吉語”,訓練一個從關鍵詞到上聯的生成模型;然後我們再用“爆竹傳吉語”“臘梅報新春”訓練一個從上聯到下聯的生成模型

準備好訓練資料後,就可以啟動Transformer模型的訓練了,可以參考PaddlePaddle/models/neural_machine_translation/transformer裡的命令。這個是英德翻譯的例子,在做關鍵詞到上聯的生成時,需要把訓練資料替換成“關鍵詞”到對應“春聯上聯”的資料;在做上聯到下聯生成時,需要把訓練資料替換成“春聯上聯”到對應“春聯下聯”的資料。

python -u train.py \

   --src_vocab_fpath gen_data/wmt16_ende_data_bpe/vocab_all.bpe.32000 \

   --trg_vocab_fpath gen_data/wmt16_ende_data_bpe/vocab_all.bpe.32000 \

  --special_token  '<s>''<e>''<unk>' \

   --train_file_pattern  gen_data/wmt16_ende_data_bpe/train.tok.clean.bpe.32000.en-de \

   --token_delimiter ' ' \

   --use_token_batch True \

  --batch_size  4096 \

  --sort_type  pool \

  --pool_size  200000

訓練完成後就可以得到一個關鍵詞到上聯的生成模型,還有一個從上聯到下聯的生成模型。注意生成過程,需要執行2次Transformer的預測過程,先輸入一個關鍵詞,生成上聯;然後輸入生成的上聯,再生成一個下聯。具體生成參考以下命令。

python -u infer.py \

   --src_vocab_fpath gen_data/wmt16_ende_data_bpe/vocab_all.bpe.32000 \

   --trg_vocab_fpath gen_data/wmt16_ende_data_bpe/vocab_all.bpe.32000 \

  --special_token  '<s>''<e>''<unk>' \

   --test_file_pattern  gen_data/wmt16_ende_data_bpe/newstest2016.tok.bpe.32000.en-de \

   --token_delimiter ' ' \

  --batch_size 32  \

  model_path  trained_models/iter_100000.infer.model \

  beam_size 4 \

  max_out_len 255

根據以上PaddlePaddle官方模型庫提供的一些技術,就可以實現一個好玩的智慧春聯絡統了。當然還可以做很多有意思的擴充套件,比如,可以增加一些古詩詞作為訓練語料,使得生成的春聯內容更為豐富;藏頭春聯,把關鍵詞按字分開,通過Grid Beam Search的技術,保證生成的關鍵詞會在春聯特定的位置出現。

感興趣的朋友,可以收集好春聯訓練語料,便可嘗試實現一個好玩的智慧春聯絡統了。

Github地址:

https://github.com/PaddlePaddle/models/blob/develop/fluid/PaddleNLP/neural_machine_translation/transformer/README_cn.md

相關文章