百度開源自然語言理解模型 ERNIE 2.0,16 個 NLP 任務中碾壓 BERT 和 XLNet!
7 月 30 日,百度釋出了 ERNIE(Enhanced Representation through kNowledge IntEgration)的優化版本——ERNIE 2.0 自然語言理解框架。這個中英文對話的 AI 框架不僅獲得了最優的(SOTA)結果,並且在 16 個 NLP 任務中表現出優於 BERT 和最近的 XLNet 的高水準。目前,ERNIE 2.0 程式碼和英文預訓練模型已開源。
ERNIE 2.0 的由來
近年來,類似於 BERT,XLNet 的無監督預訓練自然語言表達模型在各種自然語言理解任務中取得了重大突破,包括語言推斷、語義相似度、命名實體識別、情感分析等。這也表明了基於大規模資料的無監督預訓練技術能夠在自然語言處理中發揮至關重要的作用。
SOTA 預訓練模型(如 BERT,XLNet 和 ERNIE 1.0)的預訓練系統核心是基於幾個簡單的任務來模擬單詞或句子的共現。例如,BERT 構建了掩碼模型和下一個句子預測任務,從而捕獲單詞和句子的共現資訊;XLNet 則構造了一種全排列的語言模型,並採用了自迴歸的方式來捕獲單詞的共現資訊。
然而除了共現之外,訓練語料庫中還包含語法、語義資訊等更多有價值的資訊。例如:命名實體(名稱、位置和組織),則可以包含概念資訊、句子之間的順序和距離關係等結構知識;而文件層面的語義相似性或句子之間的話語關係,則能夠訓練模型學習語義感知表示。假設模型能夠經過訓練從而不斷學習更多型別的任務,是否這樣可以進一步提高模型的效果呢?
ERNIE 2.0 ——可持續學習語義理解框架
ERNIE 2.0 介紹
基於這一理念,百度提出了一種持續學習的語義理解預訓練框架 ERNIE 2.0,它可以通過持續的多工學習,逐步學習和建立預訓練任務。
該框架支援增量引入詞彙 (lexical)、語法 (syntactic) 、語義 (semantic) 等 3 個層次的自定義預訓練任務,並通過多工學習對其進行訓練,實現全面捕捉訓練語料中的詞法、語法、語義等潛在資訊。而且每當引入新任務時,該框架在遞增地訓練分散式表示的同時,還會記住先前任務的資訊。
新發布的 ERNIE 2.0 模型的結構
ERNIE 2.0 與 BERT 或 XLNet 等經典預訓練方法的不同之處在於,它並不是在少量的預訓練任務上完成的,而是通過不斷引入大量預訓練任務,從而幫助模型高效地學習詞彙、句法和語義表徵。作為一種全新的語言理解持續預訓練框架,ERNIE 2.0 不僅實現了 SOTA 效果,而且為開發人員構建自己的 NLP 模型提供了可行的方案。
ERNIE 2.0 測試效果
百度將 ERNIE 2.0 模型的效能與英文資料集 GLUE 和 9 個流行的中文資料集的現有 SOTA 預訓練模型進行了比較。結果表明,ERNIE 2.0 在 7 種 GLUE 語言理解任務上優於 BERT 和 XLNet,並在所有 9 種中文 NLP 任務上擊敗 BERT,例如:基於 DuReader 資料集的閱讀理解,情感分析和問答。
模型在 9 項常規中文 NLP 任務中的結果;模型結果均為五次實驗結果的中位數,粗體字表示 SOTA 結果
實際上根據 GLUE 資料集的測試結果,無論是基本模型還是大型模型,我們能夠觀察到 ERNIE 2.0 在英語任務上優於 BERT 和 XLNET。此外,ERNIE 2.0 大型模型還實現了最佳效能,併為中文 NLP 任務創造了新的最優效能的結果。
模型在 GLUE 上的結果,其中開發集上的結果是五次實驗結果的中位數,測試集結果根據 GLUE 評估服務完成
原文地址:
http://research.baidu.com/Blog/index-view?id=121
模型論文地址:
https://arxiv.org/abs/1907.12412
Github 專案地址:
https://www.leiphone.com/news/201908/54MrhN6fQtjNivFV.html
來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/29829936/viewspace-2652836/,如需轉載,請註明出處,否則將追究法律責任。
相關文章
- 百度正式釋出ERNIE 2.0,16項中英文任務超越BERT、XLNet,重新整理SOTA
- 中文任務全面超越 BERT:百度正式釋出NLP預訓練模型ERNIE模型
- 自然語言處理(NLP)系列(一)——自然語言理解(NLU)自然語言處理
- 2018年最強自然語言模型 Google BERT 資源彙總模型Go
- ChineseGLUE:為中文NLP模型定製的自然語言理解基準模型
- 谷歌開源 BERT:最先進的 NLP 預訓練技術,支援中文和更多語言谷歌
- 最強NLP預訓練模型!谷歌BERT橫掃11項NLP任務記錄模型谷歌
- 自然語言處理NLP(四)自然語言處理
- 自然語言處理(NLP)概述自然語言處理
- 「四大模型」革新NLP技術應用,揭秘百度文心ERNIE最新開源預訓練模型大模型
- nlp中的傳統語言模型與神經語言模型模型
- 用於訓練自然語言處理 (NLP) 和文字模型的 7 個頂級開源資料集 - KDnuggets自然語言處理模型
- 掌握BERT:從初學者到高階的自然語言處理(NLP)全面指南自然語言處理
- 自然語言處理(NLP)簡介 | NLP課程自然語言處理
- NLP生成任務超越BERT、GPT!微軟提出通用預訓練模型MASSGPT微軟模型
- 重回榜首!Facebook開源加強版BERT,全面超越XLNet
- 華為開源預訓練語言模型「哪吒」:編碼、掩碼升級,提升多項中文 NLP 任務效能!模型
- NLP神經語言學的12條假設(不是自然語言處理哪個NLP哈)自然語言處理
- ACL 2019 | 基於知識增強的語言表示模型,多項NLP任務表現超越BERT模型
- pytorch中:使用bert預訓練模型進行中文語料任務,bert-base-chinese下載。PyTorch模型
- 自然語言處理NLP快速入門自然語言處理
- Pytorch系列:(六)自然語言處理NLPPyTorch自然語言處理
- 2023nlp影片教程大全 NLP自然語言處理教程 自然語言處理NLP從入門到專案實戰自然語言處理
- 中文和英文NLP自然語言處理異同點分析自然語言處理
- NLP自然語言處理中的hanlp分詞例項自然語言處理HanLP分詞
- 自然語言處理中的語言模型預訓練方法自然語言處理模型
- 語義理解和研究資源是自然語言處理的兩大難題自然語言處理
- 自然語言處理NLP(6)——詞法分析自然語言處理詞法分析
- 自然語言處理(NLP)路線圖 - kdnuggets自然語言處理
- 自訓練 + 預訓練 = 更好的自然語言理解模型模型
- 從Word Embedding到Bert模型—自然語言處理中的預訓練技術發展史模型自然語言處理
- 深入學習自然語言:NLP、NLG不可分開戰鬥!
- NLP自然語言理解-中科院(宗成慶) P1~P4
- BERT 模型壓縮方法模型
- XLM — 基於BERT的跨語言模型模型
- NLP 與 NLU:從語言理解到語言處理
- 自然語言處理(NLP)- 一個英文拼寫糾錯系統自然語言處理
- NLP漢語自然語言處理入門基礎知識自然語言處理