论文1:Chain-of-Thought Prompting Elicits Reasoning in Large Language Models (ICLR)
思维链是一系列导致最终输出的中间自然语言推理步骤,我们将这种方法称为思维链提示。
作者在算术、常识和符号推理上进行了实验,表明思维链提示优于标准提示,而且有时达到了惊人的效果。
模型参数规模:
大模型参数和显存换算:https://blog.csdn.net/Johntill/article/details/132629075?spm=1001.2014.3001.5506
论文2:Generalizable Chain-of-Thought Prompting in Mixed-task Scenarios with Large Language Models
作者将现有的cot方法分为:General Zero-Shot-CoT and Specific Few-Shot-CoT
并认为,前者具有很好的泛化性能,但是在具体任务上表现时又比后者差很多;而后者的泛化性能不好。
而且,现实场景中,很多任务都是混杂在一起的,无法具体区分属于哪一种任务,因此作者提出了一个新任务:混合场景下的COT问题,并在泛化和性能之间取了一个折中。
标签:思维,Shot,泛化,Prompting,论文,Large,阅读 From: https://www.cnblogs.com/xhhh/p/18074054