苏州市网站建设_网站建设公司_HTML_seo优化
2026/1/10 17:26:39 网站建设 项目流程

本文揭示当前AI发展泡沫,指出各大实验室"技能注入"实则是模型缺乏类人学习能力的表现;AI商业化受阻的真正原因是能力缺失而非市场采用滞后;提出AGI的真正北极星指标是持续学习能力的突破;强调AGI发展将是一个长达10年的渐进过程,真正的机会在于解决模型如何从部署后经验中学习的问题。


  1. 主编按语

Why Now
在 OpenAI o1/o3 系列引发新一轮“Scaling Law”狂热的当下,市场普遍认为通过强化学习(RL)的扩展,AGI 将在 2-3 年内降临。然而,随着模型落地应用时的“手感”与宏大叙事出现偏差,我们需要冷静的冷思考。

Who & Conflict
本期内容源自一著名AI播客博主Dwarkesh基于 2025 年视角的复盘。核心冲突在于**“短期极速派”与“技术现实主义”的对撞**:前者认为通过 RLVR(基于可验证结果的强化学习)可以迅速通往 AGI;后者则尖锐指出,目前各大实验室疯狂进行“技能注入(Skill Baking)”的行为,恰恰暴露了模型缺乏核心的泛化与自学能力。

Value
这篇研报将为你祛魅。它指出了目前 AI 商业化受阻的真正原因并非“市场采用滞后”,而是“能力缺失”。同时,它提出了判断 AGI 真正的北极星指标——不是刷榜分数的提升,而是**持续学习(Continual Learning)**能力的突破。


  1. 深度拆解·核心议题

📌 议题 1:「技能注入」悖论——RL 扩展的虚假繁荣

  • 核心论点

    各大实验室目前通过“Mid-training(中特训)”向模型硬塞 Excel、浏览器操作等技能,这并非通往 AGI 的捷径,而是模型缺乏类人学习能力的铁证

  • 逻辑推演

  • 现状

    目前 AI 供应链中存在大量公司,专门构建 RL 环境来教模型如何浏览网页或构建金融模型。

  • 悖论

    如果模型真的接近人类智能(AGI),它们应该像人类员工一样,通过“在岗学习(On-the-job learning)”掌握这些工具,而不需要预先“烘焙(Bake in)”所有可能用到的软件技能。

  • 成本黑洞

    实验室正在花费数十亿美元聘请 PhD 和专家编写问题和推理步骤。这实际上是在用人力堆砌出的“伪智能”来掩盖模型无法自主归纳经验的缺陷。

  • 类比

    这就像机器人领域,如果有了类人学习器,机器人本该通过算法解决通用操作;但因为没有,我们被迫去一千个不同的家庭收集数据,教它如何折叠衣服。

  • Nuance(微妙之处)
  • 反方观点认为,这种笨拙的 RL 训练是为了培养出一个“超级 AI 研究员”(自动化 Ilya),然后由它去解决更难的学习问题。
  • 但作者反驳:一个连基本“儿童级”自学能力都没有的模型,如何能解决人类研究了一个世纪的 AGI 算法难题?这不符合逻辑。
  • 精彩原话

“人类不需要经历一个特殊的训练阶段,去预演他们未来可能用到的每一个软件。如果模型真有那么聪明,这种预烘焙就是毫无意义的。”

📌 议题 2:经济扩散的谎言——“采用滞后”是能力不足的遮羞布

  • 核心论点

    AI 尚未在大规模商业中产生万亿级收入,原因不是**“技术扩散慢”,而是“模型能力不够”**。

  • 逻辑推演

  • 反驳“扩散滞后论”

    高技能移民(人类)进入新经济体时,几乎可以立即整合并创造价值。如果 AI 真的是“服务器上的高智商人类”,它们的整合速度应该比人类更快(几分钟读完公司所有 Slack 和 Drive)。

  • 柠檬市场(Lemon Market)消失

    招聘人类存在信息不对称(不知道谁是好员工),但部署经过验证的 AGI 模型不存在这个问题。因此,AI 的扩散摩擦力本应极低。

  • 数据证伪

    全球知识工作者的年薪总和是数十万亿美元。如果模型能力达标,企业会毫不犹豫地花费数万亿购买 Token。然而,目前实验室的收入与此相差4 个数量级

  • 结论

    这种巨大的收入鸿沟,只能说明模型目前还无法替代真正的知识工作。

  • 精彩原话

“如果这些模型真的是‘服务器上的人类’,它们的扩散速度会快得惊人……‘技术扩散需要时间’只是人们用来掩盖模型缺乏核心经济价值这一事实的托词(Cope)。”

📌 议题 3:终局推演——从“预训练红利”到“持续学习”的苦旅

  • 核心论点

    真正的 AGI 爆发(Intelligence Explosion)不会来自单纯的算力堆叠,而是来自解决**“持续学习(Continual Learning)”**,这将是一个长达 10 年的渐进过程。

  • 逻辑推演

  • 偷换概念

    人们试图将“预训练 Scaling Law”的确定性(像物理定律一样稳固),“洗白(Launder)”嫁接到 RL 扩展上。但 RL 的扩展并没有公开、拟合良好的趋势线。Toby Ord 的研究甚至暗示,RL 需要100 万倍的算力增长才能获得类似 GPT 级的提升。

  • 未来形态

    未来的 AGI 形态是无数个 Agent 被派往各行各业,在工作中学习,然后将经验**“回传”给蜂巢思维(Hive Mind)**进行批量蒸馏。

  • 时间表

    解决“持续学习”不是一蹴而就的(像 GPT-3 并没有彻底解决 In-context learning 一样)。这需要 5-10 年的迭代。

  • 竞争格局

    因为没有“一夜之间”的突破,先发优势会被人才流动和逆向工程抹平。各大实验室将继续轮流坐庄,不会出现单一寡头垄断。

  • 精彩原话

“人们正在试图‘洗白’预训练扩展的声望,用它来为 RLVR 的看涨预测背书……但当我们试图从稀缺的数据点中拼凑真相时,结果相当悲观。”


  1. 思维模型与框架

1. The “Schlep” Filter(繁琐过滤器)

  • 定义

    Schlep (Yiddish) 指繁琐、令人不快但必须做的工作。人类劳动的核心价值,在于处理那些无法被标准化、需要实时判断的“非标准化繁琐事务”。

  • 应用场景

    当你评估一个 AI 产品是否能替代人工时,问自己:这个任务是否需要为每个细分场景建立单独的训练循环(High Schlep)?如果是,目前的 AI 很难替代;如果 AI 能通过通用逻辑解决,才是真正的 AGI。

2. Prestige Laundering(声望洗白)

  • 定义

    利用一个已验证趋势(如 Pre-training Scaling)的权威性,去论证另一个尚未验证、机制完全不同的趋势(如 RL Scaling/推理侧扩展),从而制造确定性的假象。

  • 应用场景

    投资人在看 AI 项目 BP 时,需警惕创始人是否用 GPT-4 的成功路径,来强行推导 Agent 或机器人的必然成功。

3. Hive Mind Distillation(蜂巢思维蒸馏)

  • 定义

    一种未来的 AI 学习架构。边缘端的 Agent 在具体任务中获取“隐性知识”,然后定期同步回中央大模型,中央模型通过“批量蒸馏”吸收经验并更新,再分发给所有 Agent。

  • 应用场景

    判断 AI 应用公司的护城河——不仅看模型多强,要看是否建立了“端侧执行 -> 经验回流 -> 中央模型迭代”的闭环。


  1. Decision Signals(决策信号·高价值判断)

🔴看空/风险:短期 AGI 泡沫

  • 警惕那些基于“RL 扩展将由 o1/o3 带来指数级飞跃”的短期激进预测。如果一家公司赌的是“2026 年模型将无所不能”,其商业模式极其脆弱。目前的 RL 扩展更像是为了特定 Benchmark 的“应试教育”。

🟢看多/机会:持续学习(Continual Learning)基础设施

  • 真正的机会在于解决“模型如何从部署后的经验中学习”这一问题。关注那些致力于数据回流、自动化评估、模型自我更新架构的技术栈。这是未来 10 年的真正主战场。

💡非共识:AI 招聘的“反柠檬市场”效应

  • 大众认为 AI 难以落地是因为企业保守。非共识观点是:一旦 AI 能力跨过某个阈值(真正具备自学能力),其采用速度将是垂直的(Vertical Adoption)。目前的缓慢采用恰恰证明了能力尚未达标。不要在模型能力未达标时,过分纠结于 Go-To-Market 的优化,核心瓶颈仍在技术本身。

如何系统的学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

一直在更新,更多的大模型学习和面试资料已经上传带到CSDN的官方了,有需要的朋友可以扫描下方二维码免费领取【保证100%免费】👇👇

01.大模型风口已至:月薪30K+的AI岗正在批量诞生

2025年大模型应用呈现爆发式增长,根据工信部最新数据:

国内大模型相关岗位缺口达47万

初级工程师平均薪资28K(数据来源:BOSS直聘报告)

70%企业存在"能用模型不会调优"的痛点

真实案例:某二本机械专业学员,通过4个月系统学习,成功拿到某AI医疗公司大模型优化岗offer,薪资直接翻3倍!

02.大模型 AI 学习和面试资料

1️⃣ 提示词工程:把ChatGPT从玩具变成生产工具
2️⃣ RAG系统:让大模型精准输出行业知识
3️⃣ 智能体开发:用AutoGPT打造24小时数字员工

📦熬了三个大夜整理的《AI进化工具包》送你:
✔️ 大厂内部LLM落地手册(含58个真实案例)
✔️ 提示词设计模板库(覆盖12大应用场景)
✔️ 私藏学习路径图(0基础到项目实战仅需90天)





第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。

如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

需要专业的网站建设服务?

联系我们获取免费的网站建设咨询和方案报价,让我们帮助您实现业务目标

立即咨询