文字生成神經網路架構發展

AIBigbull2050發表於2020-02-23


# 文字生成神經網路架構發展 #



BERT是深雙向的,OpenAI GPT是單向的,ELMo是淺雙向的。

但根據實際使用情況,將 seq2seq 模型⽤於⽂本⽣成也有一些實質性的缺陷,例如:⽣成輸⼊⽂本不⽀持的輸出(稱為幻覺,hallucination)、需要⼤量的訓練資料才能到達很好的效果;此外,seq2seq 模型通常需要逐字⽣成輸出,因此其推斷時間較長。

文字生成神經網路架構發展






來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/69946223/viewspace-2676828/,如需轉載,請註明出處,否則將追究法律責任。

相關文章