黄仁勋指出,随着市场不断扩大,每个模型公司都可以选择自己想要差异化竞争的垂直方向或细分领域,比如“最强的编程模型”或“最容易使用、最适合大众的消费级产品”,他预测大模型领域未来会呈现出高度多样化的形态。
“即便 ChatGPT 从未出现,英伟达也会是一家市值数千亿美元的公司!”
在最新采访中,老黄自信满满地放出了这句豪言。这句话背后的原因是,随着摩尔定律的终结,从通用计算向加速计算的转变已不可避免,而这正是英伟达所押注的路线。
前段时间,《No Prior》的Sarah Guo 与 Elad Gil 邀请英伟达 CEO 黄仁勋做了一场“2025年终总结”。在节目中,黄仁勋公开回应了对AI是否会取代人类岗位、AI泡沫、算力成本、开源追赶闭源、中美关系、哪些行业会迎来“ChatGPT”时刻等关键问题。
黄仁勋指出,随着市场不断扩大,每个模型公司都可以选择自己想要差异化竞争的垂直方向或细分领域,比如“最强的编程模型”或“最容易使用、最适合大众的消费级产品”,他预测大模型领域未来会呈现出高度多样化的形态。
同时,他也认为未来五年内,会出现大量服务于垂直行业的AI公司。对于消费级AI来说,核心通用技术只能做到 99%,只有垂直行业公司才能解决更多长尾问题,把系统打磨到真正可用、接近“零失误”的水平。
黄仁勋对AI算力成本的下降相当乐观,他指出,由于每一代硬件、算法、模型架构都同时在进化,AI 的成本正在每年下降远超 10 倍。他甚至表示:
如果你告诉我:10 年内 token 生成成本下降 10 亿倍,我一点都不会惊讶。
此外,黄仁勋指出,中国的开源模型对全球的AI产业有着重要贡献,尤其是DeepSeek。他毫不吝啬地表示:DeepSeek 实际上极大地帮助了美国初创公司、美国 AI 实验室和基础设施公司。很可能是去年对美国 AI 贡献最大的一项工作。
黄仁勋也对中美关系的改善抱着乐观的期待。他认为中国的互联网产业给美国带来了极大繁荣,中国的开源成果,也帮助美国涌现出大量新一代科技创业公司。
黄仁勋明确表示反对“AI泡沫”的说法,并指出现在的算力需求是前所未有的,这是一个跨公司、跨行业、全球性的供给短缺问题,而“AI泡沫”的叙事过于肤浅和表面。
他还点出了三个可能将要迎来“ChatGPT时刻”的行业:分别是数字生物学、机器人和自动驾驶。
在就业问题上,黄仁勋认为AI并不会取代人类的工作,反而能够创造出更多高质量的工作岗位。
在不改变原意的基础上,小编节选和整理了播客的对话实录,其中有不少有价值的信息,建议各位收藏细读,enjoy!
推理 Token 爆发式增长,已被证明“高度可盈利”
Sarah:回顾 2025 年发生的一切,你最大的感受是什么?
黄仁勋:有些事情其实并不让我意外。比如“规模定律”,这并不惊讶,因为我们早就知道技术会沿着这条路径演进。真正让我感到欣慰的,是几个方面的显著进步:模型的事实对齐能力提升了,推理能力提升了,模型与搜索的连接更加紧密了;同时,在模型前面出现了各种“护栏”和机制,可以根据回答的置信度决定是否继续做必要的研究,从整体上提升了答案的质量和准确性。我认为,整个行业在这一年里,正面回应了 AI 领域长期以来最大的质疑之一——模型输出的不稳定性、幻觉问题。无论是语言、视觉,还是机器人、自驾领域,推理能力与结果对齐能力都有了非常、非常大的跃迁。
Elad:我们已经看到一些非常明确的例子:比如医生在使用 OpenEvidence 这样的工具作为医学信息的“第一参考来源”;在法律领域,像 Harvey 这样的产品,已经让 AI 成为专家可以真正信赖的工具或“工作对手”。
黄仁勋:没错。从某种意义上说,这一切我早有预期,但我仍然感到欣慰,也为整个行业感到自豪。另外一个让我既高兴、又稍感意外的是:token 的生成速度,尤其是推理 token 的增长速度,快得惊人,而且是多重维度同时扩张。
更重要的是,这些 token 现在已经是可以盈利的。我今天听说,像 OpenEvidence 这样的公司,其毛利率高达 90%。这些 token 非常有价值。Cursor 的毛利率很好,面向企业的云服务毛利率也很好,这说明一件事:我们正在生成足够好、足够有价值的 token,好到用户愿意为它们支付可观的费用。这为整个行业奠定了一个非常扎实的基础。当然,围绕中国的讨论在今年占据了我大量时间——地缘政治、技术在国家竞争中的重要性。我今年的全球出行时间,可能超过了此前所有年份的总和。我们讨论了出口管制、国家安全,以及国家安全所涵盖的多个层面;也讨论了就业、AI 对能源的影响、劳动力短缺问题……几乎所有重大议题都被摆上了桌面。
AI会创造更多的就业岗位
Elad:很多人认为AI会取代人类岗位,你怎么看就业问题?
黄仁勋:我想从三个时间尺度来谈这个问题:当下、近期,以及更远的未来。
首先,一个非常关键的点是:AI 是软件,但它不是“预录制的软件”。传统软件是由工程师编写、编译后分发,多年不变;而 AI 不同,它会结合上下文、世界状态,每一次生成的每一个 token,都是第一次被生成。
这意味着,每一次使用 AI,计算都在实时发生。这一点在历史上是前所未有的。正因为如此,我把它称为“AI 工厂”。它既像软件,又像基础设施——因为它影响每一个应用、每一家公司、每一个行业、每一个国家,就像能源和互联网一样。
而为了支撑这种实时生成,我们必须建设前所未有规模的计算基础设施。于是,三个全新的产业出现了:
第一,我们需要更多的芯片工厂;第二,我们需要全新的超级计算机工厂(像 Grace Blackwell 这样的系统,已经完全不同于传统服务器);第三,我们需要真正意义上的AI 工厂。
这三类设施,正在美国以及全球范围内以前所未有的规模建设。这带来了巨大的、立竿见影的就业需求:建筑工人、水管工、电工、技术员、网络工程师……甚至可以说,电工的薪资已经翻倍,他们也开始像我们一样“出差工作”。这些新工厂正在创造大量高质量的工作岗位。
我很喜欢杰弗里·辛顿的一个例子。他在五六年前曾说:AI 会彻底改变放射学,放射科医生将不再需要。事实是放射学 100% 已经被 AI 渗透,他说得完全对。但有趣的是,放射科医生的数量反而增加了。
为什么?因为一个工作的“任务”和“目的”是两回事。放射科医生的任务是看影像,但他们的目的,是诊断疾病、做研究、服务病人。AI 提升了效率,让他们能看更多片子、做更深入判断,医院更高效,服务更多病人,于是反而需要更多医生。
我们必须正视一个事实:全球存在严重的劳动力短缺。工厂工人、卡车司机都极度不足,而人口老龄化正在加剧这个问题。机器人并不是“抢走工作”,而是在填补我们本就无法满足的需求。
而且别忘了:有汽车,就需要修车工;有机器人出租车,就需要维护团队;如果未来有 10 亿台机器人,那将诞生全球最大的维修产业。
如果没有开源,整个 AI 产业生态都会被严重扼杀
Elad:我们已经看到一些在基准测试中得分最高的模型,来自中国的开源体系,甚至在某些封闭模型上超过了美国的模型,比如 DeepSeek 等,表现非常出色。在这样的趋势下,你如何看待开源整体的发展?
黄仁勋:首先,什么是 AI?AI 的本质能力,是第一次实现了对“智能本身”的自动化。你可以把它与电子技术结合,把智能“具身化”,让机器能够执行真实世界中的任务——这就是 AI 自动化的核心。接下来要问的问题是:支撑 AI 的技术栈是什么?我通常把它形容为一个“分层蛋糕”:最底层,是能源;能源之上,是芯片;再上一层,是基础设施,包括硬件、软件、数据中心、供电、散热、调度与编排系统;再往上,才是大家最熟悉的那一层:AI 模型本身。
但理解 AI 非常重要的一点是:AI 并不只是聊天机器人,也不只处理人类语言。世界上的信息是多模态的,有生物信息、化学信息、物理信息、金融信息、医疗信息……蛋白质不“理解”英语,它们理解的是分子结构;细胞不看文本,它们感知的是化学信号。
AI 的本质,是理解和建模各种形式的信息。人类语言只是其中一种重要形式,但绝不是全部。在模型之上,是应用层,而应用形态高度依赖行业。你提到的 OpenEvidence、Harvey、Cursor 都是应用;自动驾驶是一种被“具身化”在汽车里的 AI 应用;人形机器人,则是被具身化在“类人载体”中的 AI 应用。
在理解了 AI 的技术能力、技术栈结构以及应用多样性之后,我们才能真正回答一个问题:开源到底有多重要?
今天,前沿模型实验室选择封闭模型路线,这是完全可以理解的商业选择。企业需要计算投入产出、选择最适合自身规模化和持续创新的商业模式。但如果没有开源,整个 AI 产业生态都会被严重扼杀。初创公司会举步维艰;制造业、交通、医疗等传统行业将难以使用 AI;大量企业将无法获得可用、可定制、可落地的基础能力。
开源为他们提供了一个“可起步的基础”:企业可以在此之上进行微调、适配,将模型真正训练成适用于自身领域和应用场景的 AI。人们往往严重低估了开源对产业的渗透程度和重要性。
我所合作的一些拥有上百年历史的工业企业、医疗企业,如果没有开源 AI,今天几乎会被彻底压制、无法转型。
因此,我花了大量时间与政策制定者沟通,反复强调一件事:无论你们制定什么政策、采取什么措施,都不要伤害开源创新。
同样重要的是:不要忘记生物领域,不要忘记科学研究。这些领域,正是开源 AI 最具长期价值的土壤。
当成本足够便宜,AI会被用来监控AI
Sarah:有观点认为 AI 最终应该由一个高度垂直、一体化的巨头来完成,一个“无所不能的模型”,而你的核心观点似乎恰恰相反:我们真正需要的是高度多样化的 AI 应用生态。也许有一天会出现“上帝 AI(God AI)”,但那一天究竟什么时候会到来?
黄仁勋:我不认为任何一家公司,哪怕是最前沿的公司,真的接近了“上帝 AI”;我也不认为任何研究者具备创造“上帝 AI”的现实能力。关于“必须由一个超级公司、一个超级国家掌控 AI”的说法,本身就是没有建设性的极端假设。
我们应该回到现实,看看今天技术在哪、未来几年能走到哪。过去一年,我行业没有被“减速”,而是持续、大规模投入,推动技术前进。我们解决了 grounding,解决了 reasoning,解决了研究能力。AI 不是变得更危险了,而是变得更可控、更有用、更符合预期。安全的第一前提是什么?是性能。
一辆车的安全性,不是先假设有人会把它当导弹;而是它在 99.999% 的时间里,按说明书正常工作。
AI 也是一样。让 AI 按照设计目标可靠运行,本身就需要极其大量的工程投入。过去两三年,整个行业在这件事上投入巨大,我对此非常欣慰。
你们也看到了:合成数据公司、AI 安全公司、AI 网络安全公司大量涌现,AI 正在被用来监控 AI。
很多人认为:AI 的边际成本下降,会让 AI 更危险。事实恰恰相反。当 AI 足够便宜时,一个 AI 会被成千上万个 AI 监控。未来的 AI,不会是“孤立运行的代理”,而是被一整套 AI 系统包围、审计、监控。
AI算力成本每年下降远超10倍,DeepSeek是去年对美国AI贡献最大的工作
Elad:以 GPT-4 等价模型为例,2024 年每百万 token 的成本下降了 100 倍以上。同时,模型公司却在谈论巨额资本开支。你怎么看训练成本与推理成本的长期趋势?
黄仁勋:Karpathy 估算过:最早的 ChatGPT,今天你可能在一台 PC 上就能复现。三年前需要数十亿美元、超级计算机集群的事情,现在可能一个周末就能完成。我们每一代架构都在进步:Volta、Ampere、Hopper、Blackwell……硬件、算法、模型架构同时在进化。每年 5–10 倍的综合提升并不罕见。十年下来,10 万倍到 100 万倍的提升完全合理。
如果你告诉我:10 年内 token 生成成本下降 10 亿倍,我一点都不会惊讶。DeepSeek 可能是过去几年里,硅谷研究者阅读最多、影响最大的论文之一。它是真正前沿、而且是开源的。DeepSeek 实际上极大地帮助了美国初创公司、美国 AI 实验室和基础设施公司。很可能是去年对美国 AI 贡献最大的一项工作。
有人听到“美国 AI 从其他国家学习”会感到不安。但这有什么好奇怪的?美国的 AI 研究者,本来就来自世界各地。全世界的思想,不可能、也不应该只来自一个国家。关于 AI 成本的某些叙事,本质上是在把其他人吓出市场:“只有我们才能做预训练,只有我们才能训练前沿模型。”
但现实恰恰相反。AI 的成本正在每年下降远超 10 倍。只要你落后不到一年,甚至半年,你就依然在牌桌上。
预训练从来就没有结束
Sarah:Ilia 最近提出了一个观点:我们正在重新回到“研究的时代”,而不再只是一个单纯“规模化的时代”。当然,这两件事其实是同时发生的:大家依然在多个维度上不断扩张规模。
黄仁勋:随着市场不断扩大,每一个模型其实都可以选择自己想要差异化竞争的垂直方向或细分领域。有人可能选择成为“最强的编程模型”,有人可能选择“最容易使用、最适合大众的消费级产品”。模型开始呈现出高度多样化的形态。在这种情况下,你并不需要在所有方面都做到顶尖,完全可以在某一个细分领域实现“跳跃式突破”,依然对市场产生巨大价值。
两年前大家讨论“预训练”,有人甚至说“预训练已经结束了”。但实际上,预训练从来就没有结束。预训练的意义,是为真正的训练做准备,这也是为什么它叫“预训练”。后来我们又开始称之为“后训练”,这本身就有点奇怪——归根结底,它们都只是训练而已。
训练的本质在于:算力规模几乎可以直接转化为智能水平。如今真正需要的数据量其实并不大,更多是可验证的结果,问题已经高度算法化、算力密集化。你不需要在所有事情上都做到最好,就像人一样,我们会选择一个方向,把精力集中投入,从而在某个领域变得极其出色。AI 实验室也会开始这样分化,创业公司同样如此:找到一个微型细分市场,基于开源基础,把一件事做到极致。
Sarah:这些“微细分领域”本身就非常有价值。我觉得编码,可能会成为第一个达到十亿美元年经常性收入(ARR)的 AI 原生应用级业务。越来越多的人意识到:软件工程本身就是一个高度专业化的领域,而且需求只会越来越大。
黄仁勋:这点也很有意思。我们在 NVIDIA 内部大量使用 Cursor,几乎每一位工程师都在用。同时,我们现在招聘的工程师数量也非常惊人。
为什么会这样?因为今天软件工程师的“目的”和“任务”正在发生变化。软件工程师的目的,不是写代码,而是解决已知问题,并发现新的问题。
编码只是其中的一项任务。如果一个人的目的只是写代码,那确实很可能会被 AI 取代。但我们所有的软件工程师,他们的核心目标是解决问题。而公司里存在着大量尚未被发现的问题,工程师拥有越多时间去探索这些未知问题,公司就会变得越强。
关于算力成本的问题非常重要。这也是为什么我们长期坚持“可编程架构”而不是固定功能架构。很多年前,有人说 CNN 芯片会终结 NVIDIA;后来又有人说 Transformer 芯片会终结 NVIDIA。类似的说法至今仍在出现。专用 ASIC 的确可以把某一项任务做到极致,但 Transformer 本身也在快速演化:注意力机制、扩散模型、自回归模型、混合 SSM 架构不断涌现。Transformer 的形态正在发生剧烈变化,未来几年仍会持续演进。
与此同时,摩尔定律已经接近极限,晶体管带来的性能提升可能每年只有 10% 左右。但我们希望的是每年获得数倍、甚至数十倍的提升,这种提升只能来自算法和架构。因此,能够承载任意算法的可编程架构,才是长期最优解。
我们之所以坚持架构兼容性,是因为工程师在优化算法时,希望它能在尽可能多的系统上运行,而不是只跑在某一个小型云环境里。正因为这种兼容性,Flash Attention、SSM、Diffusion、自回归模型、CNN、LSTM 都可以在整个生态中运行。这种大规模、可编程、面向未来的架构,最终会持续降低成本。
哪些行业将迎来“ChatGPT”时刻:数字生物学、自动驾驶和机器人
Elad:通常当成本下降时,会催生新的应用和新的行业。过去一年,编码领域已经出现了像 Cursor、Cognition 这样的突破。你如何看待接下来会迎来“ChatGPT 时刻”的行业?
黄仁勋:我认为会有几个行业迎来自己的“ChatGPT 时刻”。首先是多模态和超长上下文,这会带来更强大的聊天系统。但更重要的是,结合多模态与合成数据生成的基础架构,将推动数字生物学迎来属于它的生成式 AI 时刻。这个时刻一定会到来。
我们已经在蛋白质理解方面取得了很大进展,多蛋白理解正在快速成熟。我们最近发布了一个开源模型,用于多蛋白表示学习和生成。接下来,蛋白生成、化学理解、化学生成、蛋白—化学构象理解与生成,都会快速推进。这一整套能力,正在共同构成数字生物学的“ChatGPT 时刻”。
第二个让我非常兴奋的领域是自动驾驶和机器人。推理能力在语言领域已经取得突破,而推理同样会彻底改变汽车。未来的汽车将不再只是“感知 + 规划”的系统,而是“会思考的系统”。当它遇到从未见过的场景时,能够将问题拆解为若干已知情境,再构建出合理的推理路径。这将显著改善 AI 在分布外场景中的表现。
在人形机器人和多形态机器人领域,我同样非常乐观。虽然人形机器人在机电、安全、交互等方面仍面临巨大挑战,但其核心技术同样可以应用于搬运、分拣、工程机械等各种形态。最终,一切会“动”的东西都会成为机器人。AI 也将成为多形态、多载体的通用智能,就像人类可以驾驶汽车、使用工具、操作机械一样,AI 也将“附身”于各种设备之中。这将是一个极其广阔的空间。
未来五年,垂类AI公司会大量出现
Elad:那会不会最终只有少数几家公司,负责“让 AI 具备一切形态的具身能力”?还是大量细分应用并存的格局?
黄仁勋:我认为你一定会看到大量的软件公司存在,而这些软件公司可以服务于很多不同的垂直行业。但与此同时,每一个具体行业里,仍然会有深度的解决方案提供者,把这些通用技术真正“落地”,打磨成可以完美运作的系统。
因为在消费级 AI 场景中,只要系统 90% 的时间能正常工作,用户就已经非常惊艳了;哪怕只有 80%,用户通常也还能接受。但在大多数工业级、物理世界中的 AI 应用里,90% 的成功率几乎毫无意义,人们只会盯着那失败的 10%,而那基本意味着 100% 的不满意。所以,工业级 AI 的目标不是 90%,而是 99.99999%。
核心通用技术也许只能把你带到 99%,但像卡特彼勒这样的垂直行业公司,可以在此基础上,把系统打磨到真正可用、接近“零失误”的水平。
Sarah:你觉得在这么早期、这么不成熟的市场里,最先发生的事情会不会是高度垂直整合?因为完全垂直化,似乎可以最快地控制迭代速度、走向市场。
黄仁勋:问题在于,对于通用型技术来说,彻底垂直化的难点在于:你并不具备足够的研发规模,去独立承担通用技术本身的研发成本。当然,开源在这里起到了极大的帮助作用,这也是为什么在接下来的几年里,你会看到 AI 垂直化机会的大爆发。
我的判断是:未来五年,整个行业真正令人兴奋的主题就是“垂直化”。你会发现,我们对 OpenEvidence 感到兴奋,对 Harvey 感到兴奋,对 Cursor 感到兴奋。Cursor 本身是一个横向产品,但又带有明显的“垂直属性”。
很多人说,AI 会变得足够强大,最终所有这些“套壳公司”都会被淘汰。我认为这完全抓错了重点。一个从未当过外科医生的人,才会轻易去谈论外科医生的工作;一个从未做过会计、税务专家的人,才会轻易地说“AI 可以完全替代他们”;一个从未当过服务员的人,才会随意评论服务员的工作。问题在于,他们并没有真正理解这些工作的复杂性和深度。很多时候,技术解决的是“任务”,而不是“工作的目的”。如果你不理解工作的真正目的,就不可能做出真正有价值的垂直解决方案。
能源瓶颈依然是大问题,AI产业正反向推动能源产业发展
Elad:AI 会不会消耗掉我们无法承受的能源?我们是否真的有足够的能源来支撑 AI 的发展?
黄仁勋:在特朗普总统任期的第一周,他提出了“drill, baby, drill(加大能源开采)”,当时遭到了大量批评。但如果不是美国在能源增长问题上发生了这种观念转变,我们现在完全可以承认:这场新的工业革命,很可能已经被拱手让给了别人。
即便如此,我们今天依然受制于能源瓶颈。没有能源,就不可能诞生新产业。事实上,我们已经经历了将近十年的能源匮乏。
如果不是这种叙事的逆转,美国的处境会非常糟糕。没有能源,就没有工业增长;没有工业增长,就没有国家繁荣;没有繁荣,就无法解决国内的社会问题。
我们需要能源来增长,而且是所有形式的能源:天然气、电网扩容、表后能源、核能。风能不够,太阳能也不够——我们需要一切可以获得的能源。至少在未来十年里,天然气可能是唯一现实可行的大规模解决方案。
Sarah:我觉得一个非常有意思的现象是:AI 基础设施本身,反而成为了美国气候与能源创新的最大推动力。因为人们终于看到了明确、真实的需求,这种需求正在催生大量新的电池公司、太阳能聚光技术,以及对新型能源的强烈投入。
黄仁勋:完全同意。建设 AI 产业,正在反向推动整个可持续能源产业的发展。如果不是 AI,对可持续能源的需求和投资不可能被如此强力地激活。AI 可能是人类历史上推动可持续能源发展的最大驱动力。
对中美关系改善持乐观态度,中国互联网产业给美国带来了巨大繁荣
Elad:你如何看待 2026 年?你对什么感到兴奋?有哪些重要变化值得我们提前关注?
黄仁勋:我对中美关系的改善持乐观态度。
我认为特朗普总统及其政府,在如何看待中国的问题上,展现出了一种务实、理性的态度。他们认识到:中国既是对手,在很多方面也是合作伙伴;“全面脱钩”这个概念本身是天真的,无论是从哲学角度还是国家安全角度看,都缺乏现实基础。两个国家在事实上高度耦合、相互依赖。当然,双方都应该投资于自身的独立性,但也必须承认彼此之间的深度连接。
这是未来一个世纪里最重要的国际关系,全球所有人都依赖于中美之间建设性、稳定的互动。我很高兴看到政府正在尝试寻找一种更具建设性的解决方案,包括在出口管制政策上,以国家安全为基础,同时承认中国已经具备大量自主技术能力。美国的通用技术并不太可能被中国军方使用,正如美国军方也不会使用中国的技术一样。这种政策既关乎国家安全,也关乎技术领导力与国家繁荣。
世界上最强大的军队,依托的是世界上最强大的经济。技术带来的财富、就业和税收,最终支撑着国家安全。这是一个高度相互依赖的系统,需要极其细腻、理性的战略。我很高兴看到美国在努力保持技术领先的同时,也在寻找一种更可持续的全球竞争方式。
Elad:有观点认为,在互联网时代,中国通过“防火长城”阻挡了美国公司的进入,而美国市场却更为开放,同时还伴随着 90 年代、2000 年代大量制造业和就业向中国转移,这些经济失衡至今仍被反复提起。
黄仁勋:我看这个问题时,仍然会回到技术的“全栈视角”。以互联网为例,你有芯片层、系统层、软件层,以及最上层的服务与应用。中国互联网的增长,实际上为英特尔、AMD、三星、美光等美国科技公司带来了巨大的繁荣。它是美国科技产业的第二大互联网市场。也许这对某些应用层公司并不有利,但你不能只盯着栈中的某一层,而忽略整体。
此外,中国对开源的贡献极其巨大,全球没有任何一个国家对开源社区的贡献超过中国。正是这些开源成果,帮助美国涌现出大量新一代科技创业公司。所以,你不能孤立地看待某一个环节,而必须从整个技术生命周期、整个技术栈的角度去理解。
当你这样看时,就会发现:中国互联网产业,实际上为美国创造了巨大的整体繁荣,这种繁荣,并不完全体现在某几个互联网应用公司身上。
反对“AI泡沫”说法,现在的算力需求是前所未有的
Sarah:我们现在是不是处在AI 泡沫之中?
黄仁勋:“AI 泡沫”这个问题,其实有很多不同的分析路径。每次被问到这个问题时,我都会先退一步,重新思考两个最根本的问题:什么是 AI?以及我们现在处在什么位置。
首先,要区分 AI 和计算本身。NVIDIA 发明的是加速计算,加速计算可以做计算机图形和渲染,但 AI 并不做这些;加速计算可以做数据处理、SQL 数据分析,AI 也不做这些;加速计算可以用于分子动力学、量子化学,而 AI 同样不做这些。很多人会说,将来 AI 也许能做到,但至少在今天,它还做不到。实际上,加速计算是经典机器学习不可或缺的基础,比如 XGBoost、推荐系统,以及整个特征工程、数据抽取、加载与转换的流程。整个数据科学和机器学习生命周期,几乎都依赖加速计算。
如果从 NVIDIA 的视角来看,最核心的变化在于:计算范式正在从通用计算,转向加速计算。摩尔定律基本已经走到尽头,CPU 已经无法像过去那样“什么都干”。它的效率不够高,也不再具备足够的通缩性。因此,我们必须转向一种新的计算模型,这正是加速器存在的意义。
即便你把生成式 AI、聊天机器人这些东西全部拿掉,假设 OpenAI、Anthropic、Gemini 都不存在,NVIDIA 依然会是一家市值数千亿美元的公司。原因很简单:计算的基础正在向加速计算迁移,这是一个结构性的变化。
接下来再回到 AI 本身。当人们问“有没有 AI 泡沫”时,几乎都会立刻盯着 OpenAI 的收入来看。但这本身就有些片面。如果 OpenAI 现在拥有两倍的算力,他们的收入就会翻倍;如果拥有十倍的算力,我真的相信他们的收入也会增长十倍。他们现在真正缺的不是需求,而是产能。
这和 NVIDIA 需要台积电的晶圆没有本质区别。我们需要 DRAM,需要产能;而他们需要的是“工厂”——用来生成 token 的工厂。如果没有足够的工厂产能,他们就无法扩大收入规模。所以,AI 领域的问题并不是需求不足,而是算力供给不足。
而且,AI 远远不只是聊天机器人。比如 NVIDIA 的自动驾驶业务规模正在逼近 100 亿美元,但几乎没人提这件事。你必须训练世界模型,训练自动驾驶 AI,如今机器人出租车已经在全球各地落地。再比如数字生物学、金融服务。量化交易整个行业正在从传统机器学习转向 AI。过去是由一群“量化分析师”手工设计特征,现在我们用 AI 来完成这件事。结果是什么?你不再需要那么多“quants”,而是需要大量超级计算机。金融服务已经成为我们增长最快的业务之一。
把这些加在一起:自动驾驶、机器人、数字生物学、金融服务——每一个领域都是数十亿美元级别。那么它们的天花板到底有多高?
我们可以做一个非常简单的推算。全球 GDP 约为 100 万亿美元,其中大约 2% 用于研发,也就是每年约 2 万亿美元。回到五年前,全球最大的制药公司把研发投入主要用在湿实验室;而现在,它们在干什么?在建超级计算机。
(注:“湿实验室”指的是以实体实验为核心、需要直接操作化学或生物材料的实验环境,与之相对的是“干实验室”)
这意味着,用于研发的那 2 万亿美元,并不是消失了,而是从“旧方式”转向了“AI 方式”。而 2 万亿美元规模的 AI 研发,必然需要同等规模的基础设施投入,这正是为什么我们正在全球各地建设超级计算中心。
所以,无论你是从底层计算基础往上看,还是从宏观经济往里推,都可以得出同一个结论:我们现在经历的算力需求是前所未有的。
请你给我举一个例子:哪家初创公司会说“算力已经够了”?没有。再举一个例子:哪所大学的研究人员、哪家公司的科学家会说“我们算力富余”?没有。全世界都在抢算力。这是一个跨公司、跨行业、全球性的供给短缺问题,而不仅仅是 OpenAI 的问题。
因此,用“AI 泡沫”这种叙事方式来理解今天的局面,既不充分,也过于肤浅。用“120 亿美元的收入,对应数千亿美元的基础设施建设”来证明泡沫,更是过于简单化了。
Elad:MIT 有一项研究认为,大多数企业级 AI 部署并没有产生太大的价值。
黄仁勋:那我会反问:你们有没有做组织变革?有没有流程重构?有没有真正把 AI 集成进工具链?一个企业的规划周期本来就可能是一年,而你却用六个月就下结论。这类说法往往被严重夸大,但如果你去看真实发生的事情,AI 公司的增长速度、实际落地情况,你会发现完全是另一个世界。
如果你真的想知道全球创新发生在哪里,我不会去看传统企业。企业永远是新技术最慢的采用者。我会去看那三万、四万家正在做这些事情的初创公司。我会去问 OpenAI、Cursor:实际效果怎么样?我会直接去和这些人聊。
Sarah:但确实也有一些公司,在企业市场已经做到上亿美元甚至数亿美元的收入,比如 Harvey、Sierra。与此同时,很多增长最快的公司,其实是从终端用户开始渗透的,哪怕是在医疗、工程这种极其保守的行业。
黄仁勋:恰恰是这些最保守的行业,才最在意“正确答案”。正因为如此,像 OpenEvidence 这种能做扎实研究、提供高质量、可验证信息的工具,才会变得如此重要。没有人真的想做“研究”,他们想要的是答案;没有人想做“搜索”,他们想要的是结论。而 AI 正是在帮助我们做到这一点。
过去我们靠搜索、靠自己读论文;现在,我会把所有资料直接丢进 ChatGPT,让它学习、总结、再总结,然后和我交互。目标从来都不是“找资料”,而是“变得更聪明”。
最终,一切还是要回到那个框架:AI 是一个多层系统,它不是聊天机器人,而是横跨行业、模态、信息类型和应用场景的庞大技术体系。
如果我们谈“赢得 AI”,就不应该是“某一家美国公司赢了”,而是要在所有层面、所有领域全面领先。同样地,能源也很关键。没有能源就没有工厂,没有工厂就没有 AI。这种系统性的理解,能让我们对 AI 的叙事更加理性、务实和平衡。
我们当然要重视安全,但保持安全的最好方式之一,就是加速技术进步。我为这个行业过去一年的进展感到非常自豪。
Sarah:没人想开第一代汽车。
黄仁勋:没错。ABS 是好东西,车道保持是好东西,全自动驾驶也是好东西。
我相信,AI 的第三年、第四年会让人真正兴奋。过去一年,整个行业取得了巨大进步。扩展定律依然成立:更多算力意味着更高智能,而一个领域的创新会迅速扩散到所有其他领域。
未来五年一定会非常非凡,下一年也会非常精彩。毫无疑问。
如果你想更深入地学习大模型,以下是一些非常有价值的学习资源,这些资源将帮助你从不同角度学习大模型,提升你的实践能力。
一、全套AGI大模型学习路线
AI大模型时代的学习之旅:从基础到前沿,掌握人工智能的核心技能!
因篇幅有限,仅展示部分资料,需要点击文章最下方名片即可前往获取
二、640套AI大模型报告合集
这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示
因篇幅有限,仅展示部分资料,需要点击文章最下方名片即可前往获取
三、AI大模型经典PDF籍
随着人工智能技术的飞速发展,AI大模型已经成为了当今科技领域的一大热点。这些大型预训练模型,如GPT-3、BERT、XLNet等,以其强大的语言理解和生成能力,正在改变我们对人工智能的认识。 那以下这些PDF籍就是非常不错的学习资源。
因篇幅有限,仅展示部分资料,需要点击文章最下方名片即可前往获取
四、AI大模型商业化落地方案
作为普通人,入局大模型时代需要持续学习和实践,不断提高自己的技能和认知水平,同时也需要有责任感和伦理意识,为人工智能的健康发展贡献力量