游戏百科

刚才我不信邪,专门拿几道以前Gemini总答歪的刁钻测试题试了试,只做了一个动作

刚才我不信邪,专门拿几道以前Gemini总答歪的刁钻测试题试了试,只做了一个动作——把问题原地复制粘贴了一遍,结果准确率真就从惨不忍睹的21%直接飙到了97%! 以前为了让AI听懂话,咱们又是写“思维链”,又是搞“情绪勒索”(比如跟它说“这对我很重要”),甚至还要像哄孩子一样一步步教。结果Google Research最新发布的这篇论文,直接把我们这帮搞提示词工程的脸都打肿了:别整那些花里胡哨的,把你的要求重复一遍,效果最好。 这篇论文叫《Prompt Repetition Improves Non-Reasoning LLMs》,核心发现就离谱:对于那些不需要极深逻辑推理的任务,只要让AI当个“复读机”,它的表现就能脱胎换骨。有人形象地把这招叫“吼叫式提示词”(Shouting at LLMs)——就像跟耳背的大爷说话,你大声重复一遍,他立马就听清了。 为什么这么“笨”的方法反而有效? 其实这跟大模型底层Transformer架构的“注意力机制”有关。你就把AI想象成一个容易走神的学生,你的提示词越长,它的注意力越分散。但当你把核心指令连说两遍,等于强行把它的目光锁死在重点上,权重大大增加。最关键的是,这种“复读”几乎不增加推理时间,生成速度完全没受影响,简直是白捡的性能提升。 这对咱们普通用户意味着什么? 下次你让AI帮你从一堆乱码里提取电话号码,或者让它把一篇长文章改成特定格式的周报,如果它第一次给你的结果缺斤少两,千万别急着换模型或者改写长篇大论的提示词。 直接把你的要求再粘贴一次,加上“重要的事情说两遍”,你会发现新世界的大门打开了。手里有GPT-4o或者DeepSeek的朋友,现在就可以去试一试,评论区告诉我,这种“暴力美学”是不是治好了你的AI高血压?