預約直播 | 基於預訓練模型的自然語言處理及EasyNLP演算法框架
一、分享議題:
基於預訓練模型的自然語言處理及EasyNLP演算法框架
二、 直播時間:
2022年08月24日(週三)18:00-18:30
三、 議題介紹:
此次分享將深入介紹預訓練語言模型的研究進展以及各種下游自然語言理解的應用;為了解決大模型落地難問題,重點展示多種知識蒸餾、基於Prompt的小樣本學習等前沿自然語言處理技術。此外,在構建預訓練語言模型基礎上,我們進一步介紹融入多模態知識的預訓練模型,用於各種文圖理解和生成任務。基於上述內容,將會介紹開源演算法框架EasyNLP,從黑盒化的AppZoo模式和白盒化的Python模式分別展現EasyNLP的使用方式和功能。
四、講師介紹
汪誠愚,阿里巴巴高階演算法工程師
在阿里雲機器學習平臺(PAI)從事深度學習演算法的研發,主要研究興趣包括自然語言處理、多模態資訊處理、遷移學習、小樣本學習等,在ACL、KDD、SIGIR、WWW、AAAI、TKDE、CIKM、SDM、EMNLP等國際會議和期刊上發表研究論文60餘篇。
歡迎掃描二維碼進群,預約參與觀看直播,同 技術大牛、同行小夥伴們 一起 交流分享心得!
來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/70004426/viewspace-2910935/,如需轉載,請註明出處,否則將追究法律責任。
相關文章
- 自然語言處理中的語言模型預訓練方法自然語言處理模型
- 自訓練 + 預訓練 = 更好的自然語言理解模型模型
- 從Word Embedding到Bert模型——自然語言處理預訓練技術發展史模型自然語言處理
- 從Word Embedding到Bert模型—自然語言處理中的預訓練技術發展史模型自然語言處理
- EasyNLP釋出融合語言學和事實知識的中文預訓練模型CKBERT模型
- 使用Spark MLlib訓練和提供自然語言處理模型Spark自然語言處理模型
- 【預訓練語言模型】 使用Transformers庫進行BERT預訓練模型ORM
- 模型訓練:資料預處理和預載入模型
- 知識增強的預訓練語言模型系列之ERNIE:如何為預訓練語言模型注入知識模型
- 常見預訓練語言模型簡述模型
- 【預訓練語言模型】使用Transformers庫進行GPT2預訓練模型ORMGPT
- 既能理解又能生成自然語言,微軟提出統一預訓練新模型UniLM微軟模型
- 新預訓練模型CodeBERT出世,程式語言和自然語言都不在話下模型
- 預訓練語言模型:還能走多遠?模型
- Findings | 中文預訓練語言模型回顧模型
- 預訓練模型ProphetNet:根據未來文字資訊進行自然語言生成模型
- 通用模型、全新框架,WavLM語音預訓練模型全解模型框架
- 00 預訓練語言模型的前世今生(全文 24854 個詞)模型
- Pytext 簡介——Facebook 基於 PyTorch 的自然語言處理 (NLP) 框架PyTorch自然語言處理框架
- C語言的本質(21)——預處理之三:其它預處理特性及總結C語言
- 用於訓練自然語言處理 (NLP) 和文字模型的 7 個頂級開源資料集 - KDnuggets自然語言處理模型
- ICML 2024 | 大語言模型預訓練新前沿:「最佳適配打包」重塑文件處理標準模型
- 探索自然語言處理:語言模型的發展與應用自然語言處理模型
- 基於 Python 的簡單自然語言處理實踐Python自然語言處理
- 獲取和生成基於TensorFlow的MobilNet預訓練模型模型
- 火山引擎釋出大模型訓練影片預處理方案,已應用於豆包影片生成模型大模型
- 自然語言處理的神經網路模型初探自然語言處理神經網路模型
- NLP領域預訓練模型的現狀及分析模型
- 大語言模型訓練資料常見的4種處理方法模型
- 基於Theano的深度學習框架keras及配合SVM訓練模型深度學習框架Keras模型
- 自然語言處理(NLP)自然語言處理
- 知識增廣的預訓練語言模型K-BERT:將知識圖譜作為訓練語料模型
- PyTorch預訓練Bert模型PyTorch模型
- 自然語言處理之:搭建基於HanLP的開發環境自然語言處理HanLP開發環境
- 基於深度多工學習的自然語言處理技術自然語言處理
- CANN訓練:模型推理時資料預處理方法及歸一化引數計算模型
- 基於Mindspore2.0的GPT2預訓練模型遷移教程GPT模型
- 新預訓練模型CodeBERT出世,程式語言和自然語言都不在話下,哈工大、中山大學、MSRA出品模型