BERT是深雙向的,OpenAI GPT是單向的,ELMo是淺雙向的。
但根據實際使用情況,將 seq2seq 模型⽤於⽂本⽣成也有一些實質性的缺陷,例如:⽣成輸⼊⽂本不⽀持的輸出(稱為幻覺,hallucination)、需要⼤量的訓練資料才能到達很好的效果;此外,seq2seq 模型通常需要逐字⽣成輸出,因此其推斷時間較長。
# 文字生成神經網路架構發展 #
來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/69946223/viewspace-2676828/,如需轉載,請註明出處,否則將追究法律責任。