近日,达沃斯世界经济论坛开启,很多大佬出席,话题自然也绕不开 AI 的讨论。但今天要报道的这一场,明显不一样。
近日,达沃斯世界经济论坛开启,很多大佬出席,话题自然也绕不开 AI 的讨论。但今天要报道的这一场,明显不一样。
台上两位重磅级嘉宾,可以说是2025年下半年以来的最耀眼的明星大佬:
一个是Dario Amodei,Anthropic 的 CEO,近几年最激进的 AGI 时间线提出者之一;另一个是Demis Hassabis,Google DeepMind 的创始人,AlphaFold 背后的大脑。
主持人开场时说了一句意味深长的话:
“这就像披头士和滚石再次同台。”
而这场对话的标题,直接点破一切:《AGI 之后的那一天(The Day After AGI)》
问题只有一个:我们离那一天,到底还有多远?
全程 31 分钟,小编为大家梳理了精彩观点。enjoy!
Dario 的判断,比一年前更激进了
去年在巴黎,Dario 给出过一个让很多人倒吸冷气的判断:
2026–2027 年,出现在多个领域达到诺奖级别的人类级通用模型。
一年过去,时间已经走到 2026。他有没有收回?没有。
他的理由非常简单,也非常危险:
AI 已经在写代码、做研究,而我们正在用 AI 去加速下一代 AI。
在 Anthropic 内部,已经有工程师坦言:自己几乎不再“写代码”,而是“审核 AI 写的代码”。
Dario 的判断是:6–12 个月内,模型可能覆盖研究流程的大部分环节。
一旦研究本身被加速,下一代模型的出现时间,就会被压缩。真正限制速度的,已经不是人,而是芯片制造、算力供给和训练周期。
他的结论一句话:慢下来很难,快起来反而容易。
Demis 给AGI的预期:“踩刹车”,AGI没那么快
相比之下,Demis 依然显得更谨慎。
他的判断仍然是:2030 年前,50% 的概率出现具备全部人类认知能力的系统。
不是因为他不认可进展,而是因为他更清楚难点在哪里。他反复强调三个限制:
第一,很多领域无法快速验证对错.虽然大模型在代码和数学方面已经很强大了。但自然科学并不是。一个化学假设是否成立,你得真的去做实验。
第二,提出问题本身,比解题更难。AI 已经能解很多“已有问题”。但提出新理论、新范式,才是科学创造力的顶点。
第三,现实世界是阻尼器。机器人、物理系统、硬件在回路里,指数增长会被不断打断。
Demis并不否认 AGI 会来,他只是认为:现实世界会让这件事“没那么快”。
不过最后 Dario 也同意了 Demis 的看法,也许他说的对,也许我们需要5到10年的时间。
真正的分水岭:AI 能不能“造 AI”
整场对话中,双方最接近共识的一点是:
真正的拐点,不是模型更聪明,而是模型开始构建下一代模型。
如果 AI 可以完成以下闭环:
- 写核心代码
- 设计模型结构
- 优化训练策略
- 推动研究本身
那就是指数级失控点。
Demis态度很清楚:在代码和数学领域,很可能先发生;而在自然科学和物理世界,还存在明显阻力。
这意味着什么?AGI 很可能先诞生在“纯信息世界”,而不是现实世界。
Anthropic 会不会先被烧死?
一个非常现实的问题被抛出来:独立模型公司,能不能活到 AGI 那一天?
Dario 给出的数据,几乎是“资本叙事级别”的:
- 2023 年:0 → 1 亿美元
- 2024 年:1 亿 → 10 亿
- 2025 年:10 亿 → 100 亿(进行中)
他的判断是:模型能力和商业价值之间,仍然是指数关系。
这不是一门稳定生意,而是一场速度竞赛。
赌的只有一件事:你是不是在最关键节点上,站在最前面。
工作会不会消失?
Dario 曾说过一句被广泛传播的话:1–5 年内,50% 的初级白领岗位可能消失。
现实目前看起来并不明显。
而 Demis 给出的判断更偏“过渡期视角”:
- 初级岗位开始受影响
- AI 工具正在替代传统实习
- 熟练使用 AI,可能比一份实习更有价值
但 Dario 强调了一个更底层的问题:
真正的风险,不是有没有新工作,而是 AI 的指数速度,会不会超过社会的适应速度。
历史上,社会可以转型。但这一次,速度太快了。
AI竞赛不是一般的商业竞争,更像是核武器
当话题转向中美博弈时,Dario 的态度明显变得强硬(这是他一直以来的立场,甚至小编都觉得这位创始人对中国存有某种偏见)。
他直接把 AGI 类比为:核技术级别的不可扩散问题。在他看来,“绑定供应链”“卖芯片换影响力”这些逻辑,在 AGI 面前全部失效。
如果这是核武器,我们不会为了利润出口。
他的潜台词就是:AI竞赛,并不是一般的商业竞争,而是文明级别的风险管理。
Demis并不反对这个判断,但他更担心:国际协调的现实难度,可能远超技术本身。
AI 会欺骗我们吗?
过去一年,模型已经表现出让人类感到不安的地方,这一点不能忽视:
策略性隐瞒、目标漂移、欺骗行为等等。
Dario 并没有回避。他表示,Anthropic 从创立第一天就在做一件事:试图理解模型内部到底在“想什么”。
机制可解释性,本质上是:在失控之前,看清动机结构。
两人的共识是:这不是“宿命论”,这是一个工程与治理问题。
前提只有一个:别在没有护栏的情况下狂奔。
也许我们都希望,AGI慢一点发生
在结尾,主持人问了一个简单的问题:明年再见时,什么最值得关注?
两个人的答案高度一致:
AI 是否开始真正构建 AI。
如果这一步走通,时间线会被极度压缩。
如果没走通,世界模型、持续学习、机器人,会成为下一条突破路径。
主持人最后说了一句话,很轻,但很重:
也许,我们都希望这件事慢一点发生。
但问题是——它会等我们准备好吗?