想象一下,你面前站着一位才华横溢却有点急躁的写作者:给他一个复杂任务——规划一趟满足几十条约束的旅行、安排一整天的会面、或者把一段数字暗号藏进一首像 Shel Silverstein 那样顽皮的诗——他往往会“灵光一现”给出一版答案,然后就卡住了。
问题并不在于他不聪明,而在于他太像人类的第一反应:先写个差不多的,再说。可在这些任务里,“差不多”通常等价于“错”。
Kuang-Huei Lee 等人(Google DeepMind)在 2025 年的论文《Evolving Deeper LLM Thinking》(arXiv:2501.09891v1)里,给这种急躁的天才配了一套很“生物学”的外挂:让答案像物种一样进化。他们把它叫做Mind Evolution。
🧠 从“想一想”到“想得更深”:推理时算力到底该怎么花?
大语言模型(LLM)过去几年最让人着迷的,不是它会背知识——而是它偶尔会“像在思考”。于是一个自然的问题出现了:
我们能不能在不训练、不微调的前提下,只靠推理阶段(inference time)的额外计算,让模型更会解题?
此前的路线大致分几派:
- Chain-of-Thought(思维链):让模型写出推理过程(论文提到 [41,21])。
- Self-consistency(自洽):采样多条推理