丽水市网站建设_网站建设公司_VPS_seo优化
2025/12/24 22:08:04 网站建设 项目流程

文章目录

    • 一、AI Ping 中的模型
    • 二、模型介绍与使用
      • GLM-4.7模型
        • GLM-4.7介绍
        • GLM-4.7实测数据
        • GLM-4.7 的示例代码与 API 说明
      • MiniMax-M2.1模型
        • MiniMax-M2.1介绍
        • MiniMax-M2.1实测数据
        • MiniMax-M2.1 的示例代码与 API 说明
    • 三、核心:AI Ping 统一 API 接口规范
    • 四、获取免费的 AI Ping API 密钥
    • 五、分步配置指南:将 AI Ping 集成到四大 CLI 工具
        • 4.1 环境准备
        • 4.2 工具一:Claude Code 配置指南
        • 4.3 工具二:Codex CLI 配置指南
    • 六、 总结与展望

一、AI Ping 中的模型

随着大语言模型技术的飞速发展,AI 辅助编程已成为新常态。其中,“氛围编程”作为一种新兴范式,强调开发者通过自然语言与 AI 进行流畅交互,在沉浸式的开发环境中获得代码建议、问题解答和自动化任务支持 。这种范式极大地依赖于强大的后端 AI 模型和顺畅的前端工具集成。在此背景下,一个名为AI Ping的新兴 API 聚合服务应运而生。
AI Ping是国内领先的大模型服务评测与聚合平台,致力于为开发者提供全面、客观、真实的模型性能数据和统一调用入口。平台已接入智谱、MiniMax、DeepSeek、通义千问等主流厂商,覆盖近百种模型,涵盖文本生成、视觉理解、图像生成、Embedding、Reranker 等多种类型。

最近AI Ping上线了最新的强大模型包括:MiniMax-M2.1、GLM-4.7。

模型库:

AI Ping 模型库概览,热门模型如下:

  • NEW - 新上线:GLM-4.7、MiniMax-M2.1、MiMo-V2-Flash、Ring-1T 等

  • FREE - 免费:DeepSeek-V3.2、GLM-4.7、MiniMax-M2.1、Doubao-Seedream-4.5 等

  • HOT - 热门:GLM-4.7、GLM-4.6、MiniMax-M2、DeepSeek系列等

二、模型介绍与使用

GLM-4.7模型

GLM-4.7介绍

GLM-4.7 是智谱最新旗舰模型,GLM-4.7 面向 Agentic Coding 场景强化了编码能力、长程任务规划与工具协同,并在可控推理机制支撑下实现了复杂工程任务的稳定交付。通用能力全面提升,回复更简洁自然,写作更具沉浸感。在执行复杂智能体任务时,指令遵循能力更强,Artifacts 与 Agentic Coding 的前端美感和长程任务完成效率进一步提升。

GLM-4.7实测数据

AI Ping 平台测试数据

GLM-4.7 的示例代码与 API 说明

AI Ping 会帮你在不同的服务提供商之间规范化处理请求和响应,为你统一接口。

AI Ping 提供了兼容 OpenAI 的 Completion API ,可连接 500 多款模型与服务供应商。

from openai import OpenAI openai_client = OpenAI( base_url="https://www.aiping.cn/api/v1", api_key="QC-********************************", ) response = openai_client.chat.completions.create( model="GLM-4.7", stream=True, extra_body={ "provider": { "only": [], "order": [], "sort": None, "input_price_range": [], "output_price_range": [], "input_length_range": [], "throughput_range": [], "latency_range": [] } }, messages=[ {"role": "user", "content": "Hello"} ] ) for chunk in response: if not getattr(chunk, "choices", None): continue reasoning_content = getattr(chunk.choices[0].delta, "reasoning_content", None) if reasoning_content: print(reasoning_content, end="", flush=True) content = getattr(chunk.choices[0].delta, "content", None) if content: print(content, end="", flush=True)

MiniMax-M2.1模型

MiniMax-M2.1介绍

MiniMax M2.1 是 MiniMax 最新旗舰模型,MiniMax M2.1 面向长链 Agent 执行场景强化了多语言工程能力、持续运行效率与收敛推理路径,并在高效 MoE 架构支撑下实现了吞吐与稳定性的出色平衡。在执行长时间 Agent 工作流时,推理路径更收敛、工具调用更高效,凭借低激活参数与 200k 长上下文优势,连续编码与持续运行吞吐进一步提升。

MiniMax-M2.1实测数据

AI Ping 平台测试数据

MiniMax-M2.1 的示例代码与 API 说明

AI Ping 会帮你在不同的服务提供商之间规范化处理请求和响应,为你统一接口。

AI Ping 提供了兼容 OpenAI 的 Completion API ,可连接 500 多款模型与服务供应商。

fromopenaiimportOpenAI openai_client=OpenAI(base_url="https://www.aiping.cn/api/v1",api_key="QC-****************",)response=openai_client.chat.completions.create(model="MiniMax-M2.1",stream=True,extra_body={"provider":{"only":[],"order":[],"sort":None,"input_price_range":[],"output_price_range":[],"input_length_range":[],"throughput_range":[],"latency_range":[]}},messages=[{"role":"user","content":"Hello"}])forchunkinresponse:ifnotgetattr(chunk,"choices",None):continuereasoning_content=getattr(chunk.choices[0].delta,"reasoning_content",None)ifreasoning_content:print(reasoning_content,end="",flush=True)content=getattr(chunk.choices[0].delta,"content",None)ifcontent:print(content,end="",flush=True)

三、核心:AI Ping 统一 API 接口规范

为了适配不同的 CLI 工具,我们首先需要理解 AI Ping 提供的统一 API 接口规范。AI Ping 巧妙地将不同模型的原生 API 封装成与 OpenAI API 格式兼容的接口,这极大地简化了集成过程。

  • API 端点 (Endpoint URL):AI Ping 提供了一个统一的 API 基础 URL。所有模型调用都通过这个地址进行路由。根据对类似服务的分析 这个地址通常形如:

    base_url = "https://aiping.cn/api/v1"
  • 认证方式 (Authentication):AI Ping 采用Bearer Token的认证方式。开发者需要在请求的Authorization头中包含从 AI Ping 平台获取的 API 密钥 。

    Authorization: Bearer <您的AI_PING_API_KEY>
  • 模型标识符 (Model ID):在请求体中,通过model字段指定要使用的模型 。AI Ping 为免费模型分配了以下标识符:

    • MiniMax-M2.1:model=“MiniMax-M2.1”

    • GLM-4.7:model=“GLM-4.7”

四、获取免费的 AI Ping API 密钥

在配置任何工具之前,首要任务是获取 AI Ping 的免费 API 密钥。

  1. 访问 AI Ping 官方平台:打开浏览器,访问 AI Ping 的官方网站:https://www.aiping.cn/。
  • 注册并登录账户:使用您的手机号码、邮箱或 GitHub 账户进行注册和登录。
  1. 进入 API 密钥管理页面:登录后,在个人中心中找到API秘钥。

  2. 创建新的 API 密钥:点击“创建新密钥”(Create new key),系统会生成一个以 QC-开头的字符串。请立即复制并妥善保管此密钥。

五、分步配置指南:将 AI Ping 集成到四大 CLI 工具

接下来,我们将详细介绍如何在不同操作系统(Linux, macOS, Windows with WSL)上配置四款主流的 CLI 编码工具。

4.1 环境准备

确保您的开发环境满足以下基本要求:

  • Node.js: 版本需v18.0.0或更高。推荐使用nvm(Node Version Manager) 进行安装和管理 。

  • Git: 版本需2.23+

  • Python: 版本需3.10+(某些工具或其插件可能需要)。

  • Shell 环境: 推荐使用 Zsh (配合 Oh My Zsh) 或 Bash。

4.2 工具一:Claude Code 配置指南

Claude Code 是由 Anthropic 开发的一款功能强大的终端原生 AI 助手,以其对项目上下文的深度理解和多文件操作能力而闻名 。

步骤 1:安装 Claude Code

打开终端,使用npm进行全局安装 。

npminstall-g @anthropic-ai/claude-code

安装完成后,运行以下命令验证是否成功:

claude --version

终端输出:

步骤 2:配置环境变量

Claude Code 通过环境变量来配置 API 端点和密钥。由于 AI Ping 提供了 OpenAI 兼容的 API,我们可以通过设置OPENAI_API_KEYOPENAI_API_BASE两个环境变量来“欺骗”Claude Code,使其连接到 AI Ping。

打开您的 shell 配置文件(如~/.zshrc~/.bashrc),在文件末尾添加以下内容 :

# AI Ping Configuration for Claude CodeexportOPENAI_API_BASE="https://aiping.cn/api/v1"exportOPENAI_API_KEY="<此处粘贴您获取的AI_PING_API_KEY>"

保存文件后,执行source ~/.zshrcsource ~/.bashrc使配置生效。

步骤 3:选择并启用模型

默认情况下,Claude Code 可能会尝试调用其原生模型。我们需要通过命令行参数或配置文件指定使用 AI Ping 提供的模型。

方法A:通过命令行参数

每次启动时,通过-m--model参数指定模型 :

# 使用 Kimi-K2-Thinking 模型claude edit"src/app.js"-m"aiping/minimax-m2.1"-p"请重构这个文件,将所有回调函数改为 async/await 语法"# 使用 GLM-4.7 模型claude -m"aiping/glm-4.7""请为我编写一个检查密码强度的 Python 函数"

方法B:通过全局配置文件(推荐)

为了避免每次都输入模型名称,我们可以修改 Claude Code 的全局配置文件。该文件通常位于~/.config/claude-code/mcp_settings.json。如果文件不存在,请先运行一次claude命令让其自动创建。

编辑该文件,设置defaultModel字段:

{"defaultModel":"aiping/minimax-m2.1","telemetry":{"disabled":true}}

通过这种方式,您将 MiniMax-M2.1 设置为默认模型。现在,您可以直接运行claude命令,它将自动使用 AI Ping 的模型。

终端输出(使用配置好的 Claude Code):

4.3 工具二:Codex CLI 配置指南

Codex CLI 是 OpenAI 开源的一款本地编码代理工具,允许开发者在终端中与代码库进行交互 。它同样支持通过环境变量配置 API。

步骤 1:安装 Codex CLI

使用npm进行全局安装 :

npminstall-g @openai/codex

步骤 2:配置环境变量

与 Claude Code 类似,我们配置OPENAI_API_KEYOPENAI_API_BASE两个变量。如果您已为 Claude Code 配置过,此步骤可以跳过。

# AI Ping Configuration for Codex CLIexportOPENAI_API_BASE="https://aiping.cn/api/v1"exportOPENAI_API_KEY="<此处粘贴您获取的AI_PING_API_KEY>"

记得source您的配置文件。

步骤 3:配置模型

Codex CLI 允许通过~/.codex/config.toml文件来配置默认模型 。创建并编辑此文件:

# ~/.codex/config.toml # 设置默认使用的模型为 AI Ping 的 GLM-4.7 model = "aiping/glm-4.7"

步骤 4:开始使用

现在,您可以在项目目录中启动 Codex CLI,并开始与 AI Ping 的模型进行交互。

# 进入你的项目目录cdmy-project# 启动 codexcodex

终端输出:

六、 总结与展望

本文详细给大家介绍了如何利用 AI Ping 提供的限时免费大模型资源,最近AI Ping上线了最新的强大模型包括:MiniMax-M2.1、GLM-4.7。这两个大模型功能强大,模型输出效果都很好。我们通过遵循本指南提供的分步操作,开发者可以零成本地在自己熟悉的终端环境中,享受到顶级 AI 模型带来的编程效率提升。

利用 AI Ping 提供的 OpenAI 兼容 API 接口,通过设置标准的环境变量(如OPENAI_API_BASEOPENAI_API_KEY)或工具特定的配置,将这些 CLI 工具的请求重定向到 AI Ping 服务。随着 AI 技术的不断普及,类似 AI Ping 的聚合服务将使开发者能够更灵活、更低成本地切换和使用来自不同提供商的先进模型。我们鼓励开发者积极拥抱“氛围编程”这一新范式,并持续关注 AI Ping 等平台未来的发展,抓住更多技术红利,打造更加智能和高效的开发工作流。

https://aiping.cn/#?channel_partner_code=GQCOZLGJ (注册登录立享30元算力金)

需要专业的网站建设服务?

联系我们获取免费的网站建设咨询和方案报价,让我们帮助您实现业务目标

立即咨询