不可思议!谷歌研究(Google Research)的一项最新发现颠覆了提示词工程:想要让大语言模型在不开启推理设置的情况下更精准,无需复杂逻辑,只需将问题直接复制粘贴再重复一遍,准确率即可从21.33%大幅提升至97.33%!
这种简单到让人大跌眼镜的技巧,在非推理任务中展现了惊人的威力。研究表明,仅通过简单的“复读”策略,主流大模型的表现就能获得质的飞跃。
近日,谷歌研究团队揭示了这一既简单又粗暴的提示词技巧,彻底打破了以往对“思维链”(Chain of Thought)或“情绪勒索”等复杂Prompt工程的依赖。
在名为《Prompt Repetition Improves Non-Reasoning LLMs》的论文中,研究者通过海量实验证明:
无论是Gemini、GPT-4o还是Claude和DeepSeek,这些顶尖模型在处理特定任务时,并不一定需要复杂的心理攻势。只需将输入内容完整重复一遍,模型在非推理任务上的准确率最高可提升76个百分点。
这并非巧合,而是真实有效的“物理外挂”。
甚至有网友调侃这种技巧为“向AI咆哮”。
受益于Transformer架构的并行处理特性,这种“复读机”策略几乎不会显著增加生成延迟。这意味着开发者可以在不增加显性成本的情况下,免费获取更高性能的“午餐”。
为了榨干AI的性能,工程师们曾绞尽脑汁。从最早的“一步步思考”到后来的“多样本学习”,甚至演变出“扣工资”等情绪威胁手段,试图通过人类心理学逻辑来驯服AI。
然而,谷歌研究人员在对Gemini 2.0 Flash-Lite、Claude 3.7 Sonnet及DeepSeek V3等7种主流模型进行横向评测后发现,在不要求模型输出推理过程的场景下,“提示重复”在70组对比测试中取得了47胜23平的傲人战绩,无一败绩。
特别是在超长文本的信息检索任务中,提升效果尤为显著。例如在从50个随机名字中找出第25个的测试中,Gemini 2.0 Flash-Lite最初准确率仅为21.33%,但重复一遍问题后,准确率奇迹般地飙升至97.33%。
为什么简单的重复会产生“上帝视角”?这源于Transformer模型固有的结构性缺陷——因果盲点(Causal Blind Spot)。
目前主流的大模型大多采用自回归因果语言模型,只能从左向右单向处理文本。这意味着当模型读到第N个词时,它无法知晓后续词汇的内容,导致其在处理“上下文+问题”时,对问题的理解往往是片面的。
“提示重复”实际上通过一种黑客式的思路为系统打了补丁。当我们将输入从<QUERY>变为<QUERY><QUERY>时,模型在处理第二遍内容时,每一个Token都已经能够“注意”到第一遍时出现的完整信息。这相当于赋予了模型一种模拟的双向注意力机制,让它在阅读第二遍时具备了全局视野。
传统的认知认为,输入翻倍意味着成本和延迟翻倍。但谷歌的研究打破了这一顾虑。由于LLM在“预填充(Prefill)”阶段具有极高的并行计算能力,增加的重复文本对于GPU而言只是微不足道的计算增量。
对于企业而言,这意味着可以使用更廉价、响应更快的轻量级模型(如Flash系列),通过简单的提示重复,在信息提取和分类任务上直接对标昂贵的顶配模型。这不仅是技术的进步,更是降本增效的终极方案。
需要注意的是,该技巧主要针对“非推理任务”。研究发现,如果将“提示重复”与“思维链”混合使用,效果提升会变得微乎其微。因为擅长推理的模型在思考过程中,往往已经包含了自我复述和逻辑自检。
此外,这种机制也带来了安全挑战。攻击者可能会利用重复指令来增加“越狱”语句的权重,试图突破模型的安全防线。但反过来看,防御者也可以在系统提示词中重复安全准则,以极低成本强化模型的合规性。
总之,在下一代能够彻底解决因果盲点的架构普及前,“再说一遍”可能是目前最廉价且最高效的AI性能增强剂。如果你正为AI不够听话而烦恼,不妨试试最原始的方法:再叮嘱它一遍。
本文由主机测评网于2026-04-02发表在主机测评网_免费VPS_免费云服务器_免费独立服务器,如有疑问,请联系我们。
本文链接:https://www.vpshk.cn/20260432931.html