拿捏 Claude Code:手把手教你对接 DeepSeek、GLM、MiniMax 、Qwen等国产大模型

张开发
2026/4/5 1:37:24 15 分钟阅读

分享文章

拿捏 Claude Code:手把手教你对接 DeepSeek、GLM、MiniMax 、Qwen等国产大模型
每天 1亿 Token 免费领白嫖DeepSeek、GLM、MiniMax 、Qwen等国产大模型这篇教程是专门为“行动派”准备的。我不扯那些虚头巴脑的概念直接帮大家搞定四件事怎么顺利安装 Claude Code怎么测试它是不是真能用怎么把它和国产大模型连起来怎么玩转多模型自动路由如果你是头一回捣鼓 Claude Code听我一句劝老老实实按顺序来别一上来就折腾高难度配置。每天 1亿 Token 免费领白嫖DeepSeek、GLM、MiniMax 、Qwen等国产大模型一、明确核心逻辑我们要的是“ Claude Code 的皮国产模型的芯”咱们折腾这一圈不只是为了换个模型而是为了留住 Claude Code 那套无敌的工作流直接在终端里开搞自动读取整个项目的代码动动嘴就能改文件顺手帮你执行命令完美衔接 Git 提交记录所以最聪明的玩法是保留 Claude Code 这种“在终端里指点江山”的体验把底层换成更省钱、更稳定、国内用起来更顺手的模型。比如DeepSeek 全系列智谱的 GLM 5 或 4.6MiniMax-M2.5阿里通义千问系列还有各种聚合平台上的模型每天 1亿 Token 免费领白嫖DeepSeek、GLM、MiniMax 、Qwen等国产大模型二、先把 Claude Code 装好2.1 常见的 npm 安装法先瞅一眼你的电脑装没装 Node.jsnode -v npm -v只要能正常蹦出版本号就闭眼执行这行命令npm install -g anthropic-ai/claude-code装完测试下claude --version看到数字说明这第一步稳了。2.2 官方脚本安装法要是你讨厌 npm那就直接用官方给的脚本。macOS / Linux / WSL 系统curl -fsSL https://claude.ai/install.sh | bashWindows PowerShell 环境irm https://claude.ai/install.ps1 | iexWindows CMD 环境curl -fsSL https://claude.ai/install.cmd -o install.cmd install.cmd del install.cmd装完别忘了也测一下版本claude --version每天 1亿 Token 免费领白嫖DeepSeek、GLM、MiniMax 、Qwen等国产大模型三、先跑一趟原厂流程看看底子好不好使随便进一个你的代码目录cd /你的/项目/路径 claude初次见面它会让你登录授权。这时候先别急着改配置先确认这几点程序能不能跑起来能不能读懂你的项目你说的话它能不能听懂可以试着丢给它这几个指令帮我解释下这个项目的结构 给 utils/date.ts 写点测试用例 把这个函数改成异步写法 找找这个模块里有没有明显的 Bug只要这几步没报错咱们再往下整。四、最无脑的接法借道兼容接口这一段是全文的精华建议直接复制粘贴。只要某个模型厂家支持 Anthropic 的接口协议咱们改个环境变量就能直接“白嫖” Claude Code。我首推这两个因为最容易搞定DeepSeek智谱 GLM每天 1亿 Token 免费领白嫖DeepSeek、GLM、MiniMax 、Qwen等国产大模型五、对接 DeepSeek省钱又省心的首选5.1 临时尝鲜关掉窗口就失效在你的终端里敲这几行export ANTHROPIC_BASE_URLhttps://api.deepseek.com/anthropic export ANTHROPIC_AUTH_TOKEN这里填你的_DEEPSEEK_API_KEY export API_TIMEOUT_MS600000 export ANTHROPIC_MODELdeepseek-chat export ANTHROPIC_SMALL_FAST_MODELdeepseek-chat export CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC1然后直接开跑cd /你的/项目/路径 claude只要它能搭理你就说明 DeepSeek 已经上岗了。5.2 长期固定推荐做法如果你用的是 zsh把这堆东西塞进~/.zshrcexport ANTHROPIC_BASE_URLhttps://api.deepseek.com/anthropic export ANTHROPIC_AUTH_TOKEN这里填你的_DEEPSEEK_API_KEY export API_TIMEOUT_MS600000 export ANTHROPIC_MODELdeepseek-chat export ANTHROPIC_SMALL_FAST_MODELdeepseek-chat export CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC1记得运行一下生效指令source ~/.zshrc要是你还在用 bash那就写在~/.bashrc里export ANTHROPIC_BASE_URLhttps://api.deepseek.com/anthropic export ANTHROPIC_AUTH_TOKEN这里填你的_DEEPSEEK_API_KEY export API_TIMEOUT_MS600000 export ANTHROPIC_MODELdeepseek-chat export ANTHROPIC_SMALL_FAST_MODELdeepseek-chat export CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC1同样也要 source 一下source ~/.bashrc5.3 检查 DeepSeek 到底上没上线先看看变量对不对echo $ANTHROPIC_BASE_URL echo $ANTHROPIC_MODEL只要屏幕显示的是https://api.deepseek.com/anthropic和deepseek-chat就没毛病。接着运行claude随口问它一句帮我写个 Python 版的 Hello World顺便解释下代码。没报错的话恭喜你通关了。每天 1亿 Token 免费领白嫖DeepSeek、GLM、MiniMax 、Qwen等国产大模型六、接入智谱 GLM国内开发者的另一条稳路接 GLM 有两种法子改~/.claude/settings.json配置文件依然用 shell 环境变量建议两个都了解下配置文件不行就换环境变量。6.1 修改 settings.json 对接 GLM先给配置建个家mkdir -p ~/.claude打开或新建这个文件nano ~/.claude/settings.json把这段话贴进去{ env: { ANTHROPIC_AUTH_TOKEN: 这里填你的_GLM_API_KEY, ANTHROPIC_BASE_URL: https://open.bigmodel.cn/api/anthropic, API_TIMEOUT_MS: 3000000, ANTHROPIC_DEFAULT_HAIKU_MODEL: glm-4.5-air, ANTHROPIC_DEFAULT_SONNET_MODEL: glm-4.6, ANTHROPIC_DEFAULT_OPUS_MODEL: glm-4.6 } }保存好之后直接运行就行。6.2 环境变量法备用方案要是上面的不管用就直接在终端执行export ANTHROPIC_AUTH_TOKEN这里填你的_GLM_API_KEY export ANTHROPIC_BASE_URLhttps://open.bigmodel.cn/api/anthropic export API_TIMEOUT_MS3000000 export ANTHROPIC_DEFAULT_HAIKU_MODELglm-4.5-air export ANTHROPIC_DEFAULT_SONNET_MODELglm-4.6 export ANTHROPIC_DEFAULT_OPUS_MODELglm-4.6想一劳永逸的话还是老规矩塞进~/.zshrc或~/.bashrc。6.3 看看 GLM 通了没执行命令测测echo $ANTHROPIC_BASE_URL echo $ANTHROPIC_DEFAULT_SONNET_MODEL然后启动程序给它个任务试试用几句话总结下这个项目是干啥的。只要接口没弹错误信息就代表成了。每天 1亿 Token 免费领白嫖DeepSeek、GLM、MiniMax 、Qwen等国产大模型七、MiniMax-M2.5更适合放在“备选池”里说句实在话MiniMax 很强但不建议直接拿它硬刚 Claude Code 的第一优先级。因为能不能稳定跑通关键在于它对 Anthropic 或 OpenAI 的兼容层做得好不好是不是用了中转聚合平台的标准接口有没有路由层帮它做协议转换所以更靠谱的玩法是先拿 DeepSeek 或 GLM 练手跑通了再说。之后再把它挂到模型路由器下面。简单说MiniMax 最好是配合这些东西一起用OpenRouter 等聚合平台自己搭建的 API 兼容转发专门的 Claude Code Router (CCR)八、进阶必杀技配置 Claude Code Router (CCR)如果你只是想简单用用上面那些就够了。但如果你追求极致体验简单的活儿给便宜模型干费脑子的活儿给强力模型干巨长的代码给长上下文模型干某个模型挂了能自动换另一个那你就必须得整一个 CCR 了。8.1 安装 CCRnpm install -g musistudio/claude-code-router看看装上没ccr --help8.2 创建路由器配置mkdir -p ~/.claude-code-router nano ~/.claude-code-router/config.json8.3 CCR 极简配置模版别整那些复杂的先用这份能直接跑通的试试{ LOG: true, API_TIMEOUT_MS: 600000, NON_INTERACTIVE_MODE: false, Providers: [ { name: deepseek, api_base_url: https://api.deepseek.com/chat/completions, api_key: 这里填你的_DEEPSEEK_API_KEY, models: [deepseek-chat, deepseek-reasoner], transformer: { use: [deepseek], deepseek-chat: { use: [tooluse] } } }, { name: glm, api_base_url: https://open.bigmodel.cn/api/paas/v4/chat/completions, api_key: 这里填你的_GLM_API_KEY, models: [glm-4.6, glm-4.5-air] } ], Router: { default: deepseek,deepseek-chat, think: deepseek,deepseek-reasoner, background: glm,glm-4.5-air, longContext: glm,glm-4.6, longContextThreshold: 60000 } }这份配置的逻辑很简单平常干活默认用deepseek-chat遇到烧脑的逻辑用deepseek-reasoner背后偷偷跑的任务用glm-4.5-air代码量特别大时自动切到glm-4.68.4 启动 CCR 增强版的 Claude Code以后别直接运行claude了改用这个ccr code你可以把它理解为给 Claude Code 套了个“智能大脑”底层模型它说了算。要是改了配置想重来ccr restart想看可视化界面ccr ui每天 1亿 Token 免费领白嫖DeepSeek、GLM、MiniMax 、Qwen等国产大模型九、送你一套“模型分层”黄金法则别再一个模型用到黑了聪明人都这么分工方案 A极致省钱版默认干活DeepSeek V3.2深度思考DeepSeek Reasoner 或 GLM 5超长文档GLM 5 或通义千问长文本版后台打杂随便找个不要钱或者极便宜的方案 B稳扎稳打版默认干活GLM 4.6 或 GLM 5深度思考顶尖的推理模型超长文档找个读文档最稳的厂家保底方案DeepSeek V3.2重点只有一句话什么样的活儿配什么样的兵别指望一个模型包打天下。十、避坑指南遇到问题怎么办10.1 找不到claude命令一般是没装好或者 npm 的路径没配对。先搜搜东西在哪npm root -g npm bin -g要是装了还是找不到就手动把那个 bin 路径加进系统 PATH 里。10.2 提示 API Key 有误看到 401 或者 unauthorized 之类的字眼基本就是 Key 的问题。自查一下echo $ANTHROPIC_AUTH_TOKEN要是空的说明你刚才配的环境变量没生效记得执行下source。10.3 接口地址Base URL报错看到 404 或者找不到模型通常是地址填错了。核对下这个echo $ANTHROPIC_BASE_URL10.4 路由器CCR配置报红这多半是 JSON 格式写歪了。检查下是不是少了逗号或者 provider 的地址写错了再或者是模型名字没对上。最简单的办法是用cat ~/.claude-code-router/config.json仔细盯着看。10.5 连上了但模型像个笨蛋这可能不是技术问题而是这个模型根本不会用你给它的工具任务太复杂它脑子转不过来建议换个更强的推理模型试试每天 1亿 Token 免费领白嫖DeepSeek、GLM、MiniMax 、Qwen等国产大模型十一、给急躁读者的“抄作业”路径如果你只想现在就开始不想听我啰嗦选一条路走第一条路快准狠版安软件npm install -g anthropic-ai/claude-code走流程进项目跑一下官方原版确认没坏。配环境把 DeepSeek 的那几行 export 贴进终端。开整再次运行claude。这就是最快的法子。第二条路模型自由版安软件把 Claude Code 和 CCR 全都装上。写配置在~/.claude-code-router/config.json贴入我给你的那段模版。启动直接运行ccr code。十二、最后掏心窝子说几句如果你刚开始用选 DeepSeek 或 GLM 直连。先用起来感受到生产力的提升。如果你打算天天用研究多模型分工和路由。这是避免“被单一厂家绑架”的最好办法。如果你非要试 MiniMax别直连走路由器这样哪怕它报错你也能瞬间切换。十三、一句话总结Claude Code 的灵魂在于它把 AI 变成了你终端里的得力助手而接入国产模型则是为了让这份生产力更便宜、更顺畅。先求跑通再求分工最后上路由器。这才是最稳的进阶之路。每天 1亿 Token 免费领白嫖DeepSeek、GLM、MiniMax 、Qwen等国产大模型

更多文章