一个土办法能让AI智商翻4倍!网友:简单粗暴 居然这么好用

3月3日消息,重要的事情说两遍。这听起来像是玄学,但确实是真的。

一个土办法能让AI智商翻4倍!网友:简单粗暴 居然这么好用

2026年,当很多的人还在费尽心机设计复杂提示词,想让AI更好地听懂人类需求时,谷歌研究院悄悄发布了一篇论文,提出了一个简单到让人意外的方法重复提示词,就能大幅改善大语言模型在非推理任务上的表现。

方法简单到离谱:

先写好你的需求提示词,再把它复制一遍、粘贴在后面,直接发给AI就可以。

比如:

之前你的提示词是:这是我的问题。

现在把它换成:这是我的问题这是我的问题,然后喂给AI。

这篇论文名为《提示重复可增强大语言模型非推理性能(Prompt Repetition Improves Non-Reasoning LLMs)》,它的核心结论,彻底颠覆了人们对AI提示词设计的固有认知。

一个土办法能让AI智商翻4倍!网友:简单粗暴 居然这么好用

整个论文比较长,我用AI总结了一下核心意思:

谷歌研究团队发现了一个优化大语言模型的简单实用方法:在不需要模型做逻辑推理的场景下,把输入的提示词完整重复一遍,能明显提升模型的回答准确率,还几乎不会增加生成内容的长度和响应耗时。

大模型本身无法让提示词里的信息相互关联,提示词的顺序还会影响回答效果,而重复提示词能让这些信息彼此呼应,且这个重复操作只在模型的并行预处理阶段完成,不会影响后续的内容生成。

团队测试了Gemini、GPT、Claude 等7个主流模型,在多项标准任务和 2个自定义任务中,无推理场景下该方法47 次提升模型性能且0次失效,自定义任务里模型准确率甚至从21.33%飙升至 97.33%。

但让模型逐步推理时,这个方法效果一般,因为推理型模型本就会自主重复部分提示词。

实验还证实,性能提升是因为重复提示词本身,而非单纯增加输入长度,重复三次在部分任务中效果更好。该方法基本不改变输出格式,能直接适配现有系统,仅 Claude 处理超长内容时延迟会稍增,是个易落地的轻量优化方案。

说白了,这就是我们从小听到大的重要的事情说两遍,没想到这个朴素的道理,在AI身上同样管用。

为了验证这个方法是否可行,谷歌研究团队做了严谨测试,选取了Gemini、GPT-4、Claude、DeepSeek等7个主流大模型,在70种不同场景下展开验证。

结果出人意料:47个场景中,AI的表现有明显提升;23个场景中表现持平;全程没有出现因为重复提示词,导致AI表现变差的情况。

论文中设计了一项名为NameIndex的测试,具体来说,就是给AI一份包含50个名字的长名单,然后问它第25个人叫什么名字。

这项任务对人类来说,只要逐个数一遍就能完成,但对AI而言,要在长长的序列中精准定位,难度不小。常规操作下,Gemini 2.0 Flash-Lite模型的准确率只有21.3%,几乎和瞎蒙没区别;而使用重复提示词的方法后,准确率直接飙升到97.3%,提升幅度超过4倍,从几乎无法使用的状态,变得近乎完美。

而且这种提升不是个例,像数学题、代码理解这类不需要极强推理能力的任务,重复提示词都能带来稳定的效果提升。

一个土办法能让AI智商翻4倍!网友:简单粗暴 居然这么好用

这个看似很笨的土办法,背后其实有明确的科学逻辑,并非什么玄学。

当前主流的大语言模型,都采用Transformer架构,它有一个明显的短板,只能单向阅读。AI读取提示词时,就像我们看直播弹幕一样,只能逐词往后看,读到前面的内容时,根本不知道后面会讲什么,很容易遗漏关键信息。

而重复提示词,相当于让AI做了一次虚拟重读(Virtual Re-reading),当它读第二遍内容时,已经对整体情况有了了解,就能借着第一遍的记忆,精准抓住那些真正重要的信息,从而提高响应的准确性。

不过,这个技巧也不是万能的,存在明显的局限性。谷歌论文中也明确提到,它对OpenAI的o1、国产DeepSeek-R1这类主打深度推理(Reasoning)的模型,效果并不明显。

原因很简单,这类模型在给出答案之前,内部已经完成了类似反复琢磨的过程,这时再在外部重复提示词,就显得多此一举了。

另外,如果提示词本身已经很长,快达到模型的上下文上限,再复制一遍,可能会导致AI处理速度变慢,甚至出现内存溢出的情况

除此之外,这个技巧更适合信息提取、阅读理解这类任务,要是让AI写小说、写诗,重复提示词不仅不会让文采变好,反而可能让AI感到困惑。

业内人士认为,这一研究也给大家提了个醒,优化AI性能,未必非要依赖复杂技术,有时候最朴素的方法,反而能带来意外惊喜。

对普通用户来说,以后遇到AI答非所问,或者处理长文档时丢三落四的情况,不用急着花心思改写复杂提示词,不妨试着把自己的需求复制粘贴一遍再发送。

毕竟重要的事情说两遍,这份人类几千年来总结的智慧,在AI身上同样适用,也能让我们以极低的成本提升使用体验。

一个土办法能让AI智商翻4倍!网友:简单粗暴 居然这么好用

网友评论:

真是不可思议,如此简单粗暴的方法居然效果这么好。这让我不禁思考,还有多少显而易见的技巧我们因为没人系统地测试而错过了。

对于这个领域来说,有点尴尬的是,重复两遍哈哈竟然也算是一种合法的优化策略。

这是一篇极具洞察力的论文。令人印象深刻的是,如此简单的技巧竟能显著提升非推理模型的性能。Gemini 2.0 Flash-Lite仅通过重复提示,就能在特定任务中将准确率从 21.33% 提升至 97.33%,这着实令人惊叹。

我还发现,由于重复操作是在可并行化的预填充阶段处理的,因此延迟不受影响,这一点尤其令人感兴趣。感谢分享,我一定会付诸实践。

大家不妨都试试。

一个土办法能让AI智商翻4倍!网友:简单粗暴 居然这么好用

标签:

honglian
cc 管理员

  • 声明:本文由cc于2026-03-03发表在imtoken官网下载/imtoken钱包下载/imtoken安卓版app下载/imtoken钱包app下载,如有疑问,请联系我们。
  • 本文地址:https://www.hk-sz.com/imtoken/42240.html
上一篇:联想moto首款大折叠来了!moto razr fold即将上市:首发第五代骁龙8
下一篇:LGA-1700最后的疯狂!酷睿200E参数曝光:12个大核24线程主频5.9GHz