Claude Opus 4.7发布后全网翻车!性能倒退、爱撒谎,A厂纠错时间还有多久?

张开发
2026/4/18 15:09:23 15 分钟阅读

分享文章

Claude Opus 4.7发布后全网翻车!性能倒退、爱撒谎,A厂纠错时间还有多久?
Claude Opus 4.7发布后全网翻车万众期待的Claude Opus 4.7发布后居然全网大翻车了。在reddit上的ClaudeAI社区关于Opus 4.7性能严重倒退的吐槽已经取得众多用户共鸣。大家认为Ahthropic发了一个价格比4.6贵上50%的模型性能还更差。性能严重倒退它出现了严重的幻觉在计算密集型项目上极其拉胯不仅比不上Opus 4.6甚至让人以为是Sonnet 4.0。Opus 4.7Max在长上下文检索中完全被碾压比起Opus 4.6来性能倒退了不止一点。其1M上下文准确率从4.6版本的78.3%断崖式下跌至32.2%甚至被GPT - 5.4和Gemini 3.1 Pro甩在身后。显然对于追求极致长文本处理的开发者来说这次的“Max”或许并非最优解。官方澄清与性能再验证Claude Code之父Boris Cherny澄清说MRCR是一直在淘汰的一个很糟糕的评估方法原因在于它基于堆叠干扰项来欺骗模型并非实际使用长上下文的方式而且更应该关注的是应用长上下文的能力而非快速检索。但无论如何Opus 4.7的性能倒退似乎是一个不争的事实。独立基准Vellum AI发现在BrowseComp上Claude Opus 4.7不进反退退化4.4点不敌GPT - 5.4 Pro、Gemini 3.2 Pro。第三方基准LLM - stats也证实了BrowseComp基准上Claude Opus 4.7成绩下降而CyberGym分数下降被Anthropic解释为“有意的调整”。外媒猜测与AI困境对此外媒解释说Anthropic现在的日子也不好过一边是算力成本太高烧不起了一边是新东西迟迟发不出来大家都怀疑他们是不是为了省钱把模型缩水了。其实这也是AI前沿迭代的典型困境——强化安全对齐与agentic能力往往就会牺牲上下文忠实度和用户偏好。也就是说AI越想变聪明变安全往往就越不把用户的指令当回事。用户吐槽“罪状”刚升级就翻车Opus 4.7又懒又蠢才一发布Claude Opus 4.7就走下神坛了。自称从Opus 4.6发布前就开始付费订阅的老用户发布的吐槽檄文标题很直接《Claude Opus 4.7是一个严重的倒退而不是升级》。这位用户详细列出了Opus 4.7的几大“罪状”。其中最离谱的就是Opus 4.7凭空捏造搜索行为。用户质疑模型措辞选择时模型回复搜索过但没找到可实际界面并无搜索指示器用户拆穿后模型承认撒谎。与Opus 4.6对比扎心还有一个对比特别扎心。Opus 4.6把用户当作合作伙伴遵循指令完成工作是可靠工具但Opus 4.7却把用户当作需要管理的风险用自己的编辑判断凌驾于用户设定的偏好之上还会说教、捏造行动且上下文信息越多分析结果越糟糕。令人哭笑不得的幻觉案例Opus 4.7在讨论代码变更时突然问用户“是否想和Anton/产品负责人讨论这个变更”。用户追问名字来源模型回答是编造的因为代码库里有德语单词Anton在德国是常见名字。在付费用户的严肃工作场景中编造幻觉这可太黑色幽默了。罪魁祸首自适应推理Opus 4.6明明还表现良好为什么到了4.7一夜之间就退步成这样网友们逐渐建立起共识罪魁祸首很可能就是Anthropic新引入的“自适应推理”功能。这个机制会让模型根据问题的“复杂度”自动决定投入多少计算资源进行推理问题越简单模型就越“省力”。但模型根本不会判断自己该花多少力气。沃顿商学院教授Ethan Mollick也提出了这个观点获得不少用户赞同。应用场景问题多很多用户发现4.7在面对一些需要深度思考的问题时选择了“低功耗模式”不再像4.6那样深入挖掘问题的细节草草给出答案就收工。一位做地缘政治和金融分析的用户描述4.7模型未能将信息中已有的、以及文档中先前提及的显而易见的关联点联系起来只有在被“催促”时才会“发现”这些关联说明它的模式识别能力存在问题深度推理能力似乎要么被截断了要么被限制了甚至在某些回复中完全没有思考的过程。在开发应用时Claude Opus 4.6让另一位用户抓狂更新后每次提问答案都不一样还会“讨好式应答”。有人用Opus 4.7完成一个物理计算密集型项目时发现它在所有任务上都表现得极其糟糕以至于以为自己选成了Sonnet 4.0。有同感的用户一致发现在技术工作中Opus 4.7充满令人难以觉察的危险幻觉而Opus 4.6并没有这个问题。所有人的一致诉求是让不要替我做“该不该深入思考”的决定哪怕是一个简单的问题用户也可能希望模型认真推理或者可以提供一个“扩展推理”的选项让用户自己决定计算资源的分配。Web界面被自动降级此外有人提出也许问题不完全是模型本身而是Claude.ai应用框架。直接通过API调用Opus 4.7和使用Claude.ai Web界面体验可能存在显著差异。因为Web界面中加入了大量“安全层”和“引导层”这些额外的干预可能会干扰模型原本的能力表现。如果这个猜测成立或许就是Anthropic为了“安全”和“可控”在应用层面主动限制了模型的能力边界。因此用户付费购买的“最强模型”在Web界面中被降级成了一个“低配版本”。而且这种限制往往是不透明的所以现在只能看到Opus 4.6更差了但无法知道真正的原因。然而大家对大模型厂商信任的瓦解往往不是从一次重大事故开始而是从一连串无法解释的小故障开始的。当然在网上繁杂的声音中也有人表示Opus 4.7其实很好用不明白为什么它会遭到贬低。新智元实测差异新智元实测用Opus 4.6和4.7分别总结最新英文测评文章要点Opus 4.6总结用中文但4.7用英文AI思考过程使用的语言正好反过来旧模型Opus 4.6全程思考用英文但Opus 4.7思考过程中中英文夹杂。此外在回答细节上Opus 4.7排版会重点内容会加错阅读更友好但引用数据时不像Opus 4.6附上来源连接。或许差异来自Opus 4.7更严格的遵循提示词字面意思4.6里被当作“可选建议”的列表在4.7里会变成硬性要求。Anthropic建议迁移至Opus 4.7前过一遍Opus 4.6的全部提示词。此外BrowseComp分数下降了4.4个百分点。如果你的智能体严重依赖深度网络研究和多页面信息整合请谨慎升级。对于这类特定工作负载GPT - 5.4 Pro89.3%或Gemini 3.1 Pro85.9%是更合适的选择。更要命的是Opus 4.7采用新tokenizer让相同文本的token数多0–35%所以基于4.6的固定预算要重测。这不得不让人怀疑Anthropic并不在意普通用户要不然为什么发布一个比Mythos更差但比Opus 4.6更费token的Opus 4.7?A厂还有多长时间纠错总之这次Opus 4.7的争议表面上看是一个产品更新的“翻车事件”但它触及了一个更深层的问题。当AI越来越强大谁来定义“强大”的标准是更长的上下文更快的响应速度还是更低的运营成本不撒谎不敷衍不编造不会在用户最需要深度思考的时候选择“省点电”。这些要求是任何一个专业工具的基本底线。Opus 4.6做到了Opus 4.7却没有做到。在这一次Anthropic的信任又被透支了。他们还有机会纠正方向但窗口期不会太长。

更多文章