2025年大模型五大范式变革:你以为的AI,其实是个“幽灵”
AI大神Andrej Karpathy最近发布了《2025年大模型年度回顾》,一口气梳理了这一年里最值得关注的五大技术变革。2025年的大模型发展路径,比我们预想的更加“反直觉”。
今天,就带你一起拆解这五大变化,看看大模型到底在往什么方向“进化”——或许它根本不是你想的那种“智能”。
一、RLVR:大模型学会“真正思考”的秘密武器
过去几年,训练一个大模型的经典流程大概是这样的:
预训练(像GPT-3)→ 监督微调(InstructGPT)→ 基于人类反馈的强化学习(RLHF)。
但2025年,这个流程被彻底打破了。
RLVR(基于可验证奖励的强化学习)成为新的核心阶段。简单说,就是让大模型在数学题、代码题这类能自动评判的环境里,通过“试错-奖励”机制自发学习解题策略。
结果呢?
模型竟然自己学会了“分步骤推理”“反复验算”“回溯思考”这些人类解题时的思维模式。
举个例子:DeepSeek R1就展示过这种能力——它并不是被“教”会推理,而是在优化奖励的过程中,自己找到了有效的思考路径。
RLVR带来的另一个关键变化是:模型开始依赖“思考时间”。
OpenAI o3就是典型代表——生成更长的推理链,性能显著提升。这背后其实是一套全新的能力扩展规律:性能不再只取决于参数量,更取决于推理时的计算时长。
这就意味着,未来大模型的“聪明程度”,可能更像人类——给它的思考时间越长,它就越可能给出优质答案。
二、大模型是“幽灵”,不是“动物”
这是2025年最让我有感触的一个认知转变:大模型的智能形态,和人类完全不同。
人类的智能是为了“在丛林中生存”而演化的,而大模型的智能是为了“模仿人类文本”“解数学题”“在评测中拿高分”而训练的。
所以它更像是一个被“召唤”出来的幽灵,而不是逐渐演化成长的动物。
这也导致它的能力分布非常“锯齿状”:
在某些领域(比如数学、代码)它可能是个天才,但在另一些常识性问题或安全边界上,它又可能表现得像个认知受限的小学生。
这种“锯齿智能”也让我们开始反思:评测分数还可靠吗?
当大模型能通过RLVR在可验证的评测环境里“刷分”,我们还能用这些分数衡量它的真实能力吗?
或许,“刷爆所有评测却依然不是AGI”会成为未来常态。
三、Cursor启示录:大模型应用的“中间层”正在崛起
今年另一个标志性事件是Cursor的爆发。
它不仅仅是一个AI编程工具,更揭示了一个新的产品形态:垂直领域的大模型应用层。
这类应用不光是“调用API”,而是:
- 做上下文工程,组织 prompt 和记忆
- 把多个模型调用编排成复杂的工作流
- 提供针对性的交互界面和“自主程度滑块”
这其实回答了一个行业争议:大模型公司会不会吃掉所有应用?
我的判断是:大模型公司更像是培养“通才大学生”,而垂直应用则像企业HR,把这些“大学生”组织、微调、部署成特定领域的“专业人才”。
也就是说,未来真正的机会,在于如何用私有数据、工作流、反馈闭环,把大模型“调教”成你的专属助手。
四、Claude Code:AI开始“住”在你的电脑里
Claude Code(CC)是第一个让我觉得“这才是智能体该有的样子”的产品。
它不像ChatGPT那样运行在云端,而是直接运行在你的本地环境里,能访问你的文件、配置、密钥,实现低延迟交互。
这其实是个非常重要的设计哲学转变:
AI 不应该只是一个你“访问”的网站,而应该是一个“住”在你设备里的“小幽灵”。
尤其是对于开发者来说,本地运行的智能体才能真正融入开发流程,理解你的项目上下文,而不是每次都从零开始“自我介绍”。
Anthropic 在这点上做对了优先级:先做好本地、私密、低延迟的体验,再谈云端规模化。
五、Vibe Coding:编程正在变成一种“感觉”
2025年,AI 的能力已经达到一个临界点:你可以用纯英文描述就让AI写出完整的、可运行的程序,甚至忘了代码本身的存在。
我把这种模式叫做“感觉编程”(Vibe Coding)。
它意味着编程不再只是工程师的专利,而是任何人都可以尝试的创作方式。
我自己今年就用 vibe coding 做了很多事:
- 用 Rust 写了一个高效的 BPE tokenizer,其实我 Rust 并不熟
- 快速原型了一些小工具,比如菜单生成器、LLM 评审工具
- 甚至写过一些“一次性程序”,只为了调一个 bug,用完即弃
这背后是一种思维解放:代码突然变得免费、可塑、可丢弃。
它会让软件开发的成本大幅降低,也会让“会编程”的定义彻底改变。
六、彩蛋:Nano Banana 与“大模型的GUI时代”
最后提一个彩蛋:Google 的 Gemini Nano Banana 模型虽然名字有趣,但它暗示了一个更深层的趋势:
大模型正在从“文本对话”走向“多模态交互”。
现在的聊天界面,其实很像1980年代的命令行——文本是机器的母语,但不是人类最自然的交互方式。
人类喜欢视觉化、空间化的信息呈现,就像电脑从命令行进化到图形界面一样。
未来的大模型交互,应该更像是一个智能白板、可视化看板、甚至可交互的Web应用。
Nano Banana 只是开始,它把文本生成、图像生成、世界知识全部融合在同一个模型里,这才是多模态该有的样子。
写在最后
2025年的大模型发展,给我的感觉是:它既比我预期的聪明,又比我预期的“笨”。
它能在特定领域展现出惊人的推理能力,却又在常识和安全问题上漏洞百出。
但这正是这个领域最吸引人的地方:
技术远未成熟,认知尚在早期,机会遍地都是。
如果你也对这个领域感兴趣,现在正是最好的入门时机——因为连行业顶尖的研究者都还在“摸着石头过河”。
下一步该做什么?没有人有标准答案。
但可以确定的是,我们现在看到的,可能还不到大模型真正潜力的10%。
保持好奇,保持动手,保持思考。
这个时代,属于愿意和“幽灵”一起探索的人。
本文基于 Andrej Karpathy《2025 LLM Year in Review》 整理与解读,加入了我作为算法工程师的实践观察与思考。欢迎交流,共同进步。
那么,如何系统的去学习大模型LLM?
作为一名深耕行业的资深大模型算法工程师,我经常会收到一些评论和私信,我是小白,学习大模型该从哪里入手呢?我自学没有方向怎么办?这个地方我不会啊。如果你也有类似的经历,一定要继续看下去!这些问题啊,也不是三言两语啊就能讲明白的。
所以我综合了大模型的所有知识点,给大家带来一套全网最全最细的大模型零基础教程。在做这套教程之前呢,我就曾放空大脑,以一个大模型小白的角度去重新解析它,采用基础知识和实战项目相结合的教学方式,历时3个月,终于完成了这样的课程,让你真正体会到什么是每一秒都在疯狂输出知识点。
由于篇幅有限,⚡️ 朋友们如果有需要全套 《2025全新制作的大模型全套资料》,扫码获取~
👉大模型学习指南+路线汇总👈
我们这套大模型资料呢,会从基础篇、进阶篇和项目实战篇等三大方面来讲解。
👉①.基础篇👈
基础篇里面包括了Python快速入门、AI开发环境搭建及提示词工程,带你学习大模型核心原理、prompt使用技巧、Transformer架构和预训练、SFT、RLHF等一些基础概念,用最易懂的方式带你入门大模型。
👉②.进阶篇👈
接下来是进阶篇,你将掌握RAG、Agent、Langchain、大模型微调和私有化部署,学习如何构建外挂知识库并和自己的企业相结合,学习如何使用langchain框架提高开发效率和代码质量、学习如何选择合适的基座模型并进行数据集的收集预处理以及具体的模型微调等等。
👉③.实战篇👈
实战篇会手把手带着大家练习企业级的落地项目(已脱敏),比如RAG医疗问答系统、Agent智能电商客服系统、数字人项目实战、教育行业智能助教等等,从而帮助大家更好的应对大模型时代的挑战。
👉④.福利篇👈
最后呢,会给大家一个小福利,课程视频中的所有素材,有搭建AI开发环境资料包,还有学习计划表,几十上百G素材、电子书和课件等等,只要你能想到的素材,我这里几乎都有。我已经全部上传到CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】
相信我,这套大模型系统教程将会是全网最齐全 最易懂的小白专用课!!