大语言模型(LLM)即使面对相同提示词,也可能因为表述方式或信息顺序不同而给出不同答案。Google Research最新公布的研究显示,只需将同一提示词原样重复一遍、即连续输入两次,就有可能显著提升模型准确率。
据外媒Gigazine当地时间25日报道,这一方法被称为“Prompt Repetition”。其核心做法并不复杂,就是把原本输入一次的指令或问题,完整复制后再输入一遍。研究团队指出,这一效果并非来自所谓“说服效应”,而是有助于减少模型按顺序处理文本时对条件或关键信息的遗漏。
研究团队解释称,LLM通常按从左到右的顺序处理输入内容,首次读取时可能忽略后半部分的限制条件或重点信息。将提示词重复输入后,模型在再次处理同样内容时,更容易回溯前文并调用相关条件,从而减少遗漏,提升回答准确率。
在实验中,研究团队针对Gemini、GPT-4o、Claude、DeepSeek等7款主流模型开展了多项基准测试。结果显示,在总计70项测试条件中,有47项在采用提示词重复后,准确率出现显著提升,且未见性能下降。
从具体场景来看,这一方法在长输入任务中效果尤为明显,尤其是题目先给出多个选项、较难把握上下文时。研究团队给出的一个极端案例是“NameIndex”任务:在包含50个姓名的列表中询问第25个姓名时,Gemini 2.0 Flash Lite在单次输入下的准确率仅为21%;将同一提示词重复输入后,准确率升至97%。研究团队认为,这说明在长输入场景下,重复读取有助于弥补模型未能定位关键信息的问题。
对于“输入变长可能推高成本或延长等待时间”的担忧,研究团队表示,多数测试条件下并未观察到明显的响应时间上升。他们解释称,在LLM的处理流程中,输入读取阶段可能并行完成。
不过,研究团队也指出,在“Think step by step”等引导模型逐步推理的提示条件下,这一方法往往效果有限,甚至可能无效。原因在于,这类提示本身就会促使模型在生成答案时复述问题或重复要点,因此单纯重复输入内容未必能进一步提升表现,反而可能降低效率。实验结果也显示,推理类提示下的提升幅度通常不及非推理类提示。
研究团队补充称,真正起作用的关键在于“重复相同内容”,而不是单纯拉长输入长度。这项研究表明,在无需复杂调优的情况下,简单的提示词重复也可以成为提升LLM表现的一种实用途径。