中国大模型如何接入 Claude Code:DeepSeek 与智谱 GLM 实战指南

面向国内开发者的 Claude Code 接入指南,覆盖 DeepSeek、智谱 GLM 的 Anthropic 兼容端点、模型映射、验证步骤和工程安全边界。

Claude Code 的价值在于它不是普通聊天窗口,而是运行在终端里的 coding agent。它可以读取代码库、理解任务、修改文件、运行命令,并把改动留在开发者熟悉的 git diff 和测试流程里。对国内开发者来说,一个很实用的方式是:保留 Claude Code 作为交互入口,把模型请求路由到支持 Anthropic 兼容接口的中国大模型服务。

这篇文章参考 DeepSeek 和智谱 AI 的官方文档,分别整理 DeepSeek 与 GLM Coding Plan 的接入方式。重点不是伪装成 Claude,而是把模型后端、配置位置、验证方法和工程风险说清楚,让这套工作流可以稳定复现。

一、这类接入到底改变了什么

Claude Code 本身仍然是终端里的编码工具。真正改变的是 API 调用层。

默认情况下,Claude Code 会使用 Anthropic 的模型与服务。接入中国大模型时,我们通过 Anthropic 兼容环境变量或 Claude Code 设置文件,把请求发送到 DeepSeek 或智谱的兼容端点。

因此,本地使用方式仍然是熟悉的:安装 Claude Code,进入项目目录,运行 claude,让它读代码、改文件、跑命令,然后由开发者检查 diff 和测试结果。变化的是 base URL、API Key、模型名称、套餐额度和兼容性细节。

二、前置条件

先安装 Node.js 18 或更新版本。macOS 和 Linux 用户建议使用 nvm 之类的版本管理工具,避免全局 npm 权限问题。Windows 用户还需要安装 Git for Windows。

然后安装 Claude Code:

npm install -g @anthropic-ai/claude-code

检查安装结果:

claude --version

如果能看到版本号,说明 Claude Code 已安装成功。接下来不要急着在生产代码库里运行大任务,先配置模型提供方。

三、方案一:DeepSeek 接入 Claude Code

DeepSeek 官方文档给出的 Anthropic 兼容端点是:

https://api.deepseek.com/anthropic

macOS 或 Linux 可以在运行 Claude Code 的终端里设置这些环境变量:

export ANTHROPIC_BASE_URL=https://api.deepseek.com/anthropic export ANTHROPIC_AUTH_TOKEN=你的 DeepSeek API Key export ANTHROPIC_MODEL=deepseek-v4-pro[1m] export ANTHROPIC_DEFAULT_OPUS_MODEL=deepseek-v4-pro[1m] export ANTHROPIC_DEFAULT_SONNET_MODEL=deepseek-v4-pro[1m] export ANTHROPIC_DEFAULT_HAIKU_MODEL=deepseek-v4-flash export CLAUDE_CODE_SUBAGENT_MODEL=deepseek-v4-flash export CLAUDE_CODE_EFFORT_LEVEL=max

Windows PowerShell 使用对应的 $env 写法即可。

这组配置的实际含义是:主模型和高强度任务走 deepseek-v4-pro[1m],轻量模型与 subagent 走 deepseek-v4-flash。这样可以把复杂代码理解、规划和改动交给更强模型,把辅助任务交给更轻量模型。

配置完成后,进入项目目录启动:

cd /path/to/my-project claude

第一次建议选择一个低风险项目。可以先让 Claude Code 解释项目结构、阅读 README、做一处文档修改,然后检查 diff。不要一上来就让它做跨模块重构。

四、方案二:智谱 GLM Coding Plan 接入 Claude Code

智谱官方文档给出的 Anthropic 兼容端点是:

https://open.bigmodel.cn/api/anthropic

智谱更推荐通过 Claude Code 的设置文件配置。macOS 和 Linux 路径通常是 ~/.claude/settings.json,Windows 在用户目录下的 .claude/settings.json。

手动配置示例:

{ "env": { "ANTHROPIC_AUTH_TOKEN": "你的智谱 API Key", "ANTHROPIC_BASE_URL": "https://open.bigmodel.cn/api/anthropic", "API_TIMEOUT_MS": "3000000", "CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC": 1 } }

智谱文档还提到可以在 ~/.claude.json 中加入 hasCompletedOnboarding,减少重复 onboarding:

{ "hasCompletedOnboarding": true }

智谱的一个关键点是服务端模型映射。也就是说,Claude Code 界面里看到的可能仍是 Claude 模型名,但实际后端调用的是 GLM 模型。官方文档描述的默认映射包括:Opus 和 Sonnet 路由到 GLM-4.7,Haiku 路由到 GLM-4.5-Air。

如果你的套餐支持 GLM-5.1 或 GLM-5-Turbo,并希望把高阶任务路由过去,可以在 ~/.claude/settings.json 里添加或替换模型变量:

{ "env": { "ANTHROPIC_DEFAULT_HAIKU_MODEL": "glm-4.5-air", "ANTHROPIC_DEFAULT_SONNET_MODEL": "glm-5-turbo", "ANTHROPIC_DEFAULT_OPUS_MODEL": "glm-5.1" } }

修改配置后,关闭旧终端,重新打开一个新终端,再进入项目运行 claude。启动后可以在 Claude Code 中输入 /status 查看当前模型状态。

五、DeepSeek 和 GLM 应该怎么选

如果你想快速试用、希望每个终端会话都能显式控制模型和 endpoint,DeepSeek 的环境变量方式更直接。它适合临时实验、项目级切换、脚本化启动,以及想清楚看到每个模型变量的人。

如果你已经使用智谱 GLM Coding Plan,或者希望 Claude Code 每次启动都读取固定配置,GLM 的 settings.json 方式更适合。它适合长期固定使用同一个模型供应商的个人或团队。

但选择供应商时,不要只看第一条 prompt 是否成功。真正应该测试的是你的真实开发任务:中等规模代码库阅读、多文件修改、测试失败后的修复、上下文保持、中文需求理解、命令执行稳定性,以及最终 diff 是否符合项目风格。

六、验证清单

第一,确认 claude --version 正常。

第二,确认模型路由。DeepSeek 检查当前终端的 ANTHROPIC_BASE_URL、ANTHROPIC_AUTH_TOKEN 和模型变量。GLM 检查 ~/.claude/settings.json,确认 JSON 格式正确。

第三,在低风险项目里启动 Claude Code。让它先读 README,总结架构,列出它准备查看的文件,而不是直接改代码。

第四,让它做一个很小的修改,例如文档补充、测试说明或局部类型修复。

第五,人工检查 diff。Coding agent 可以很快,但它仍然可能误解本地约定、扩大改动范围,或者删除看似无用但实际重要的上下文。

第六,运行项目检查。至少跑 lint、typecheck、test、build 中已有的命令。如果项目还没有这些命令,先补一个最小验证路径,再把 agent 用到更大的改动上。

七、常见问题

如果 GLM 手动配置不生效,先关闭所有 Claude Code 窗口,重新打开终端,再运行 claude。然后检查 settings.json 是否是合法 JSON,少一个逗号或多一个逗号都会导致配置异常。

如果大任务经常超时,先确认 endpoint、API Key 和套餐额度,再考虑调大 API_TIMEOUT_MS。过早拉长 timeout 可能会掩盖网络、额度或模型路由问题。

如果输出质量忽高忽低,检查 Opus、Sonnet、Haiku 和 subagent 是否被路由到了不同模型。混合路由可以节省成本,也可以提升效率,但必须是有意设计的。

如果 agent 开始做危险改动,说明任务边界太大。把指令改成先分析、先列文件、先说明计划,再允许修改。不要在生产仓库里直接下达“优化整个项目”“重构全部代码”这类宽泛指令。

八、工程安全边界

Claude Code 应该被当作加速器,而不是免审提交者。

API Key 不要写进仓库,不要放进 README,不要截图发群,也不要硬编码到项目文件里。环境变量、用户目录下的本地设置文件或密钥管理工具都比提交到 git 更安全。

早期任务要小。适合的任务包括文档更新、测试修复、局部重构、代码解释和类型错误修复。不适合的早期任务包括认证、支付、权限、数据库迁移、安全策略和大规模架构重写。

所有改动都要检查 diff。生产项目还要跑和人类工程师一样的检查:类型、测试、构建、迁移审查、安全审查。

涉及用户数据、管理员权限、支付、登录、内容发布和审核流程时,必须保留人工审批。AI 可以起草实现,但不能成为最终发布判断。

九、推荐的第一次提示词

配置完成后,可以从这样的提示开始:

先阅读这个仓库,用五条要点解释架构。然后指出一个不改变运行时行为的最小改进点。不要立刻编辑文件,先列出你计划查看和可能修改的文件。

这个提示词会强制 Claude Code 先观察、再提出窄范围方案,并把分析和修改分开。等你确认模型路由、输出质量和命令执行都稳定后,再让它做真实开发任务。

结语

有价值的做法不是“把 Claude 偷换成国产模型”,也不是假设所有模型表现完全一样。更可控的做法是:保留 Claude Code 成熟的终端工作流,同时明确模型后端、配置来源和验证方式。

DeepSeek 更适合环境变量式快速接入。智谱 GLM 更适合 settings.json 持久配置和 GLM Coding Plan 用户。两条路线都可以用,但都不能跳过工程基本功:密钥不进仓库,任务边界要清楚,diff 必须人工 review,测试必须跑,敏感改动必须有人把关。

对团队来说,最终要看的不是“能不能跑起来”,而是这套配置能否被复现、模型路由能否被检查、密钥能否安全管理、AI 改动能否进入正常代码审查流程。只有这些成立,Claude Code 接入中国大模型才真正适合日常工程使用。