你永远可以相信谷歌。
上个月刚发布Gemini 3 Pro,这个月就给你 Flash 版本。
几小时前,Gemini 3 Flash正式上线。
如果说 Pro 模型是旗舰,那 Flash 就是真正的主力。
它在 Gemini API 里的 token 消耗量是最大的,几百万开发者每天都在用。
谷歌官方说:Flash 系列才是真正的「workhorse model」,当代「牛马」。
这次的3 Flash有点狠。
它比2.5 Pro强,速度还快了 3 倍,但价格只要3 Pro的四分之一。
注意,是比2.5 Pro强。
直接上数据。
GPQA Diamond 测试博士级科学知识,3 Flash拿了 90.4%。
HLE(Humanity's Last Exam)是人类专家出的终极难题,3 Flash在不使用工具的情况下拿下 33.7% 的准确率。
作为对比,上一代2.5 Flash只有 11%。
MMMU-Pro 测试模型的多模态理解与推理,3 Flash得分 81.2%,这个分数直接超过了Gemini 3 Pro、GPT-5.2和Claude Sonnet 4.5。
代码就更有意思了。
SWE-bench Verified,测试 AI 写代码解决真实问题的能力,3 Flash拿到了 78%。
这个分数不仅吊打整个2.5系列,还比自家的3 Pro更高。
是的,你没有看错,比Gemini 3 Pro高。
这你敢信?
一个轻量版模型在代码任务上超过了「旗舰版」,这在以前简直难以想象。
价格呢?
Gemini 3 FlashAPI 输入 0.5 美元/百万 tokens,输出 3 美元/百万 tokens。
开启缓存再省 90%。
用 Batch API 可以再省 50%。
对比3 Pro的输入 2、输出 12 美元,3 Flash以四分之一的价格,在某些任务上表现更好。
谷歌产品负责人 Tulsee Doshi 说:3 Flash就是当代牛马。
当然,这是我翻译过来的。
批量任务、高频调用、实时交互,都是它的使用场景。
游戏公司 Latitude 用3 Flash做 AI 游戏引擎。
之前只有Sonnet 4.5这种顶级模型才能搞定,现在青春版的 Flash 就可以。
Resemble AI 用它做深度伪造检查,多模态分析速度比2.5 Pro快了 4 倍。
法律 AI 公司 Harvey 测了自家的 BigLaw Bench,3 Flash比2.5 Flash提升了 7%,低延迟加强推理,完美适合大批量法律文档处理。
GitHub Copilot 官宣支持Gemini 3 Flash,VS Code 和移动端全覆盖。
JetBrains、Figma、Cursor 也都已经接入。
怎么用?
从今天开始,Gemini 3 Flash成为了 Gemini app 的默认模型。
全球所有用户自动升级。
你打开 Gemini,默认就是用它。
关键是,免费。
开发者这边,Google AI Studio、Gemini CLI、Vertex AI 都能用。
谷歌上个月发布的 agentic 开发平台反重力(Antigravity)也同步支持。
另外有个好消息。
Gemini 3 FlashAPI 免费层级也能调用!
前一阵谷歌取消了免费层级的2.5 ProAPI,3 Flash加回来了。
但,亲测 RPM(每分钟请求数)只有 5,RPD(每天请求数)只有 20。
聊胜于无吧。
12 月初,Sam Altman 给 OpenAI 团队发了「红色警戒」Code Red 的内部信。
暂停一切非核心项目。
GPT-5.2发布后,他又自信地表示,预计将于明年 Q1 解除 Code Red。
今天,谷歌发布Gemini 3 Flash。
这下,OpenAI 的「红色警戒」又得继续下去了。
我是木易,一个专注 AI 领域的技术产品经理,国内 Top2 本科 + 美国 Top10 CS 硕士。
相信 AI 是普通人的“外挂”,致力于分享 AI 全维度知识。这里有最新的 AI 科普、工具测评、效率秘籍与行业洞察。
欢迎关注“AI信息Gap”,用 AI 为你的未来加速。