論文1:Chain-of-Thought Prompting Elicits Reasoning in Large Language Models (ICLR)
思維鏈是一系列導致最終輸出的中間自然語言推理步驟,我們將這種方法稱為思維鏈提示。
作者在算術、常識和符號推理上進行了實驗,表明思維鏈提示優於標準提示,而且有時達到了驚人的效果。
模型引數規模:
大模型引數和視訊記憶體換算:https://blog.csdn.net/Johntill/article/details/132629075?spm=1001.2014.3001.5506
論文2:Generalizable Chain-of-Thought Prompting in Mixed-task Scenarios with Large Language Models
作者將現有的cot方法分為:General Zero-Shot-CoT and Specific Few-Shot-CoT
並認為,前者具有很好的泛化效能,但是在具體任務上表現時又比後者差很多;而後者的泛化效能不好。
而且,現實場景中,很多工都是混雜在一起的,無法具體區分屬於哪一種任務,因此作者提出了一個新任務:混合場景下的COT問題,並在泛化和效能之間取了一個折中。