新預訓練模型CodeBERT出世,程式語言和自然語言都不在話下
新預訓練模型CodeBERT出世,程式語言和自然語言都不在話下
對於自然語言處理從業者來說,BERT 這個概念一定不陌生,自從誕生以來,它在諸多工檢測中都有著非常優秀的表現。近日,來自哈爾濱工業大學、中山大學和微軟亞洲研究院的研究者合作提出了一個可處理雙模態資料的新預訓練模型 CodeBERT,除了自然語言(NL),程式語言(PL)如今也可以進行預訓練了。
CodeBERT 學習能夠支援下游 NL-PL 應用的通用表示,比如自然語言程式碼搜尋、程式碼文件生成,經實驗 CodeBERT 模型在兩項任務均取得 SOTA 效果,同時研究者構建了 NL-PL 探測資料集,CodeBERT 在 zero-shot 設定中的效能表現也持續優於 RoBERTa。
CodeBERT 既能處理自然語言又能處理程式語言,比如 Python、Java、JavaScript 等。它可以捕捉自然語言和程式語言之間的語義連線,並輸出可廣泛支援 NL-PL 理解任務(如自然語言程式碼搜尋)和生成任務(如程式碼文件生成)的通用表示。CodeBERT 模型基於多層 Transformer 構建而成,Transformer 如今已被廣泛應用於大型預訓練模型中。
為了利用雙模態資料例項 NL-PL 對和大量可用單模態程式碼,研究者使用混合目標函式來訓練 CodeBERT,函式包括標準遮蔽語言建模(MLM)和替換 token 檢測(RTD),替換 token 檢測利用單模態程式碼學得更好的生成器,從而輸出更好的替換 token。
研究使用了 6 種程式語言訓練 CodeBERT,其中雙模態資料點是具備函式級自然語言文件的程式碼。CodeBERT 模型的訓練設定與多語言 BERT (Pires et al., 2019) 類似,即針對 6 種程式語言學習一個預訓練模型,且不使用顯式標記來標註輸入程式語言。
來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/69946223/viewspace-2677437/,如需轉載,請註明出處,否則將追究法律責任。
相關文章
- 新預訓練模型CodeBERT出世,程式語言和自然語言都不在話下,哈工大、中山大學、MSRA出品模型
- 自訓練 + 預訓練 = 更好的自然語言理解模型模型
- 自然語言處理中的語言模型預訓練方法自然語言處理模型
- 既能理解又能生成自然語言,微軟提出統一預訓練新模型UniLM微軟模型
- 【預訓練語言模型】 使用Transformers庫進行BERT預訓練模型ORM
- Findings | 中文預訓練語言模型回顧模型
- 常見預訓練語言模型簡述模型
- 知識增強的預訓練語言模型系列之ERNIE:如何為預訓練語言模型注入知識模型
- 新型大語言模型的預訓練與後訓練正規化,谷歌的Gemma 2語言模型模型谷歌Gemma
- 新型大語言模型的預訓練與後訓練正規化,Meta的Llama 3.1語言模型模型
- 預訓練語言模型:還能走多遠?模型
- 2024 CCF BDCI 小樣本條件下的自然語言至圖查詢語言翻譯大模型微調|Google T5預訓練語言模型訓練與PyTorch框架的使用大模型GoPyTorch框架
- 【預訓練語言模型】使用Transformers庫進行GPT2預訓練模型ORMGPT
- 預訓練模型ProphetNet:根據未來文字資訊進行自然語言生成模型
- 新型大語言模型的預訓練與後訓練正規化,蘋果的AFM基礎語言模型模型蘋果
- COLING 2020 | CharBERT:字元敏感的預訓練語言模型字元模型
- 從Word Embedding到Bert模型——自然語言處理預訓練技術發展史模型自然語言處理
- 預約直播 | 基於預訓練模型的自然語言處理及EasyNLP演算法框架模型自然語言處理演算法框架
- 海南話語音識別模型——模型訓練(一)模型
- 新型大語言模型的預訓練與後訓練正規化,阿里Qwen模型阿里
- 從Word Embedding到Bert模型—自然語言處理中的預訓練技術發展史模型自然語言處理
- 00 預訓練語言模型的前世今生(全文 24854 個詞)模型
- 【EMNLP 2023】面向垂直領域的知識預訓練語言模型模型
- 知識增廣的預訓練語言模型K-BERT:將知識圖譜作為訓練語料模型
- 讓預訓練語言模型讀懂數字:超對稱技術釋出 10 億引數 BigBang Transformer [乾元]金融大規模預訓練語言模型模型ORM
- 通用模型、全新框架,WavLM語音預訓練模型全解模型框架
- ICML 2024 | 大語言模型預訓練新前沿:「最佳適配打包」重塑文件處理標準模型
- 使用 LoRA 和 Hugging Face 高效訓練大語言模型Hugging Face模型
- 牛津大學xDeepMind自然語言處理 第9講(下)語音模型自然語言處理模型
- 周明:預訓練模型在多語言、多模態任務的進展模型
- ELMo的朋友圈:預訓練語言模型真的一枝獨秀嗎?模型
- 探索自然語言處理:語言模型的發展與應用自然語言處理模型
- 生成式預訓練語言模型能否視作閉卷問答的知識庫?模型
- EasyNLP釋出融合語言學和事實知識的中文預訓練模型CKBERT模型
- 聊聊 C 語言和 ABAP 這兩門程式語言的關係
- 牛津大學xDeepMind自然語言處理 第13講 語言模型(3)自然語言處理模型
- 自然語言處理(NLP)系列(一)——自然語言理解(NLU)自然語言處理
- Hanlp自然語言處理工具的使用演練HanLP自然語言處理