大規模語言模型(LM)已經被證明可以很好的應用到小樣本學習任務。例如 OpenAI 提出的 GPT-3 ,引數量達 1,750 億,不僅可以更好地答題、翻譯、寫文章,還帶有一些數學計算的能力等。在不進行微調的情況下,可以在多個 NLP 基準上達到最先進的效能。
論文地址:https://arxiv.org/pdf/2109.01652.pdf
GitHub 地址:https://github.com/google-research/flan.
大規模語言模型(LM)已經被證明可以很好的應用到小樣本學習任務。例如 OpenAI 提出的 GPT-3 ,引數量達 1,750 億,不僅可以更好地答題、翻譯、寫文章,還帶有一些數學計算的能力等。在不進行微調的情況下,可以在多個 NLP 基準上達到最先進的效能。
論文地址:https://arxiv.org/pdf/2109.01652.pdf
GitHub 地址:https://github.com/google-research/flan.