葫芦岛市网站建设_网站建设公司_React_seo优化
2025/12/23 15:36:33 网站建设 项目流程

GLM-4.7 已经支持了主流的 Agent 框架,如 Claude Code、Roo Code 等。也就是说,如果你订阅了 GLM Coding Plan,现在就可以直接升级使用了。此外,GLM-4.7 的模型权重(358B 参数)也已经开源发布在 HuggingFace 上,可以实现本地部署。

这个12月,智谱卯足了劲儿。

一边是冲刺IPO上市,递交招股书;一边是新模型连发不断:AutoGLM、GLM-4.6V……现在又迎来了一位开源编程SOTA选手——GLM 4.7。

GLM-4.7 最大的卖点,就是强悍的编程能力。

  • 在主流基准测试中,GLM-4.7 的代码能力已经对齐 Claude Sonnet 4.5,部分指标实现反超。
  • 在 SWE-bench Verified 上,GLM-4.7 以 73.8% 拿下开源模型 SOTA;
  • 在 LiveCodeBench V6 中提升至 84.9%,超过 Claude Sonnet 4.5;
  • AIME 25和人类最后考试(HLE)等基准中,GLM-4.7分数超GPT-5.1

在Code Arena(全球百万用户参与盲测的专业编码评估系统)中,GLM-4.7一举夺得开源新SOTA,超过GPT-5.2。

官方demo显示,它能轻松写出一个植物大战僵尸小游戏:

官网Chatbot和API均已就位,现在就能上手开玩。

前端能力显著提升:让代码更有审美

看了官方展示的前端开发case,小编只有一句话:这些网页设计都太太太美观了!

在前端生成质量上,GLM-4.7较前代展现出明显升级:页面结构更干净,组件层级更清晰,配色和元素设计也更有美感。

相比4.6的设计风格较为简约,4.7的设计显然元素更加丰富、交互效果也更多了。

图片

3D物体的生成也有明显提升:

做PPT、海报等物料也不在话下。对比前代,GLM-4.7的设计层级和结构更清晰,元素尺寸更美观:

在复杂几何结构与空间关系的表达上,GLM-4.7模型能够保持较好的结构一致性与细节稳定性。

小编自己也第一时间试了一把经典的六边形弹珠测试,不过这次增加了点难度。让我可以控制六边形旋转速度和弹球的重力和弹性,可以看出物理规律让4.7玩明白了!

硬刚GPT-5 与 Claude 4.5:新开源王者

GLM-4.7在推理、编码、工具三大核心能力方面全面拉升:

  • 复杂推理方面,GLM-4.7 实现了明显跃升:HLE(含工具)达到42.8,相比 GLM-4.6 提升12.4;MMUL-Pro84.3、GPQA-Diamond85.7,数学与逻辑推理表现更稳定、更可靠。
  • 编码能力方面,GLM-4.7 的Code Agent进一步强化了多语言开发与终端级任务处理能力:SWE-bench Verified73.8(+5.8)、SWE-bench Multilingual66.7(+12.9),Terminal Bench 2.0 提升至41.0(+16.5),并支持“先思考、再行动”的完整编程流程。
  • 工具使用与通用代理方面上,模型对网页浏览、上下文管理和工具链协同的掌控明显增强:BrowseComp52.0(+6.9)、BrowseComp(含上下文管理)67.5(+10.0)、τ²-Bench87.4(+12.2)。

此外,GLM-4.7在对话、创意写作、角色扮演等场景中同样有提升,系统性增强了编码、推理与工具使用能力。

技术亮点:交错思考与保留思考

在技术方面,GLM-4.7进一步强化了GLM-4.5以来就支持的交错式思考能力,引入保留式思考与轮级思考,使复杂任务执行更稳、更可控。

  • 交错思考:
    GLM-4.7 会在每一次回复和工具调用前进行思考,从而显著提升指令遵循能力和生成结果的质量。
  • 保留思考:
    在编码代理等场景中,GLM-4.7 会在多轮对话中自动保留全部思考过程,并在后续回合中复用已有推理,而不是每次从头推导。这有效减少了信息丢失和逻辑不一致问题,特别适合长周期、复杂任务。
  • 轮级思考GLM-4.7 支持在同一会话中按“论”控制是否启用推理:对于轻量请求可关闭思考以降低延迟和成本;对于复杂任务则开启思考,以提升准确性和稳定性。

更多技术详情,智谱官方也开源了详细技术报告。

开源、便宜、即刻可用

除了编码能力强,GLM的价格也是一如既往的“真香”。作为“双旦礼物”,智谱官方推出了“节日限定优惠”:每月最低20元即可畅享GLM-4.7,仅需1/7的价格,即可用上Claude Pro套餐3倍用量。

GLM-4.7 已经支持了主流的 Agent 框架,如 Claude Code、Roo Code 等。也就是说,如果你订阅了 GLM Coding Plan,现在就可以直接升级使用了。

此外,GLM-4.7 的模型权重(358B 参数)也已经开源发布在 HuggingFace 上,可以实现本地部署。

小编已经把地址整理在下方,感兴趣的朋友们可以去试试~

参考链接:https://x.com/Zai_org/status/2003156119087382683

技术博客:https://z.ai/blog/glm-4.7

HuggingFace:https://huggingface.co/zai-org/GLM-4.7

体验地址:https://chat.z.ai/

如果你想更深入地学习大模型,以下是一些非常有价值的学习资源,这些资源将帮助你从不同角度学习大模型,提升你的实践能力。

一、全套AGI大模型学习路线

AI大模型时代的学习之旅:从基础到前沿,掌握人工智能的核心技能!​

因篇幅有限,仅展示部分资料,需要点击文章最下方名片即可前往获取

二、640套AI大模型报告合集

这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示

因篇幅有限,仅展示部分资料,需要点击文章最下方名片即可前往获取

三、AI大模型经典PDF籍

随着人工智能技术的飞速发展,AI大模型已经成为了当今科技领域的一大热点。这些大型预训练模型,如GPT-3、BERT、XLNet等,以其强大的语言理解和生成能力,正在改变我们对人工智能的认识。 那以下这些PDF籍就是非常不错的学习资源。

因篇幅有限,仅展示部分资料,需要点击文章最下方名片即可前往获取

四、AI大模型商业化落地方案

作为普通人,入局大模型时代需要持续学习和实践,不断提高自己的技能和认知水平,同时也需要有责任感和伦理意识,为人工智能的健康发展贡献力量。

需要专业的网站建设服务?

联系我们获取免费的网站建设咨询和方案报价,让我们帮助您实现业务目标

立即咨询