引言

Claude Code 是 Anthropic 的官方 CLI 工具,提供了强大的 AI 辅助编程能力。但在实际使用中,我们会遇到一些挑战:单一模型难以应对所有场景、上下文窗口有限、缺少任务规范化管理。

随着 Model Context Protocol (MCP) 生态的发展,社区涌现出一批优秀工具,通过多模型协作、智能路由、规范化工作流等方式,大幅提升使用体验。本文介绍四个优秀的开源项目,帮助你构建更强大的 AI 编程工作流。

我们将介绍两种主流方案:

  • 方案 A:Zen MCP Server + OpenSpec(高级用户,追求灵活性和定制化)
  • 方案 B:Claude Code Router + ZCF(新手友好,零配置快速上手)

核心工具详解

Zen MCP Server

GitHub 地址: BeehiveInnovations/zen-mcp-server
许可证: Apache 2.0

项目简介

Zen MCP Server 是一个多模型协作 MCP 服务器,将 Claude Code、GeminiCLI、CodexCLI 等工具与多家 AI 提供商(Gemini、OpenAI、OpenRouter、Azure、Grok、Ollama 等)无缝集成,实现统一工作流。

核心功能

1. 多模型智能调度

Zen MCP Server 支持在单个提示中使用多个 AI 模型,通过协作机制让不同模型发挥各自优势:

  • Gemini 2.5 Pro:拥有 100 万 token 上下文窗口,适合整体架构规划、大型代码库分析、长文档处理
  • GPT-5:强大的推理能力,适合复杂算法设计、逻辑推理、数学问题求解
  • Claude 4.5:作为默认执行器,处理日常编码任务、代码审查、文档编写

2. 对话线程与上下文保持

支持对话线程,让 CLI 工具与多个 AI 模型持续讨论:

  • 跨工具和模型的上下文无缝延续
  • 支持复杂工作流:代码审查 → 规划 → 实现 → 预提交验证
  • 多模型协同,获得更深入的见解

3. CLI 子代理机制

Claude Code 可以生成 Codex 子代理,Codex 可以生成 Gemini CLI 子代理,实现任务分层处理:

  • 将重型任务(代码审查、Bug 追踪)卸载到新的上下文环境
  • 保持主会话的上下文窗口清洁
  • 避免上下文污染,提高工作效率

配置示例

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
{
"mcpServers": {
"zen": {
"command": "npx",
"args": ["-y", "@beehiveinnovations/zen-mcp-server"],
"env": {
"OPENAI_BASE_URL": "https://api.foobar.example/v1",
"OPENAI_API_KEY": "your-openai-key",
"GEMINI_BASE_URL": "https://api.foobar.example/gemini",
"GEMINI_API_KEY": "your-gemini-key",
"ANTHROPIC_BASE_URL": "https://api.foobar.example/claude",
"ANTHROPIC_API_KEY": "your-anthropic-key"
}
}
}
}

使用场景

场景 推荐模型 原因
大型代码库重构 Gemini 2.5 Pro 100 万 token 上下文,全局视野
算法优化与性能调优 GPT-5 强大的推理和数学能力
日常编码与代码审查 Claude 4.5 平衡的能力,快速响应
复杂技术决策 多模型协同 不同视角,集体智慧

OpenSpec

GitHub 地址: Fission-AI/OpenSpec
许可证: MIT

项目简介

OpenSpec 是一个为 AI 编码助手设计的规范驱动开发框架。通过”先定义规格,再编写代码”的理念,实现人类与 AI 对齐,确保双方在开始编码前就对目标达成共识。

核心功能

1. Spec-driven 开发流程

  • 传统流程:需求 → 直接编码 → 频繁返工
  • OpenSpec 流程:需求 → 编写 Spec → AI 审查 Spec → 基于 Spec 编码

Spec 是一个结构化文档,包含:

  • 功能需求和边界条件
  • API 接口设计
  • 数据结构定义
  • 测试用例和验收标准

2. 人机对齐机制

通过规范文件实现:

  • 清晰期望:AI 明确知道要构建什么
  • 减少误解:避免 AI 基于模糊需求产生偏差
  • 可追溯性:每次修改都有明确的规格依据

3. 经验包管理

将项目规格和经验保存为”经验包”:

  • 历史查看:回顾过去的设计决策
  • 团队共享:标准化团队开发流程
  • 知识沉淀:积累最佳实践模板

工作流示例

1
2
3
4
5
6
7
8
9
10
11
12
13
14
# 1. 创建新规格
openspec init feature-auth

# 2. 编辑规格文件(描述认证功能需求)
# openspec/specs/feature-auth.yaml

# 3. AI 审查规格
openspec review feature-auth

# 4. 基于规格生成代码
openspec generate feature-auth

# 5. 保存为经验包
openspec save feature-auth --template

使用场景

  • 复杂功能开发:需要多轮沟通的大型功能,先写 Spec 可以避免大量返工
  • 团队协作:多人协作时,Spec 作为统一的真实来源(Single Source of Truth)
  • 代码审查:审查时对照 Spec,确保实现符合设计
  • 知识管理:将成功的 Spec 保存为模板,复用到类似项目

Claude Code Router

GitHub 地址: musistudio/claude-code-router
替代方案:

项目简介

Claude Code Router 是一个智能代理工具,拦截 Claude Code 的 API 请求并路由到其他 AI 提供商(OpenRouter、DeepSeek、Ollama、Gemini 等),让你用 Claude Code 界面享受其他模型的能力或更低成本。

核心功能

1. 请求拦截与路由

Claude Code Router 作为中间层,透明地拦截请求:

1
Claude Code → Router → [OpenRouter/DeepSeek/Ollama/Gemini/...]

Claude Code 感知不到这个过程,以为自己仍在与 Claude 模型对话。

2. 多提供商支持

  • OpenRouter:访问 400+ 模型(GPT-5, Gemini, Llama, Qwen 等)
  • DeepSeek:性价比极高的国产模型
  • Ollama:本地模型,完全离线使用
  • Gemini:Google 的强大模型
  • Volcengine / SiliconFlow:国内云服务商

3. 动态模型切换

通过 /model 命令即时切换模型:

1
2
3
4
5
6
7
8
# 切换到 GPT-5 进行复杂推理
/model gpt-5

# 切换到 DeepSeek 进行性价比开发
/model deepseek-coder

# 切换到本地 Ollama 进行离线开发
/model ollama:qwen2.5-coder

4. 自动模型选择

Router 可以根据任务类型自动选择模型:

  • 背景任务(日志分析)→ 使用便宜的模型
  • 思考任务(算法设计)→ 使用强推理能力的模型
  • 长上下文任务(代码库分析)→ 使用大窗口模型

配置示例

1
2
3
4
5
6
7
8
9
10
{
"provider": "openrouter",
"apiKey": "your-openrouter-key",
"defaultModel": "anthropic/claude-sonnet-4.5",
"modelRouting": {
"thinking": "openai/gpt-5",
"longContext": "google/gemini-2.5-pro",
"background": "deepseek/deepseek-coder"
}
}

使用场景

  • 无 Anthropic 订阅:想使用 Claude Code 界面,但不想订阅 Claude Max/Pro
  • 成本优化:将简单任务路由到便宜模型,节省成本
  • 本地开发:结合 Ollama,完全离线使用
  • 多模型实验:快速切换不同模型,对比效果

替代方案对比

项目 特点 推荐场景
claude-code-router 功能全面,支持自动路由 需要智能调度的用户
ccproxy 基于 LiteLLM,支持更多提供商 需要最大兼容性的用户
y-router Cloudflare Worker,无需本地运行 喜欢云端方案的用户
claude-code-provider-proxy 简单易用,专注 OpenRouter 集成 只需 OpenRouter 的用户

ZCF (Zero-Config Code Flow)

GitHub 地址: UfoMiao/zcf

项目简介

ZCF 是一个零配置的 AI 编码工作流工具,专为 Claude Code 和 Codex CLI 设计。提供保姆级的 MCP 服务配置,无需手动编辑复杂配置文件,即可享受完整 MCP 生态。

核心功能

1. 零配置启动

传统方式:手动编辑 claude_desktop_config.json,配置环境变量,处理路径问题…

ZCF 方式:

1
2
3
npx zcf
# 选择 "4. Configure Codex MCP services"
# 自动生成配置,自动添加环境变量,自动修复路径

2. MCP 服务共享

ZCF 最大的亮点是 Claude Code 和 Codex 共享同一套 MCP 服务配置:

  • 配置一次,两个工具同时生效
  • 工作流模板通用
  • 保持开发体验一致性

3. 跨平台支持

ZCF 自动处理平台差异:

  • Windows:使用 cmd /c npx 格式,自动添加 SYSTEMROOT 环境变量
  • Unix (macOS/Linux):使用直接 npx 执行

4. 内置 MCP 服务

ZCF 内置了一些开箱即用的 MCP 服务:

  • Open Web Search:多引擎搜索(DuckDuckGo、Bing、Brave),无需 API Key
  • Git 集成:自动管理 Git 操作
  • 文件系统:安全的文件读写能力

使用流程

1
2
3
4
5
6
7
8
9
10
11
12
13
# 1. 安装 ZCF
npm install -g zcf

# 2. 运行配置向导
npx zcf

# 3. 选择配置 Codex MCP 服务
# 选项 4: Configure Codex MID services

# 4. 自动修复 Windows MCP 连接问题(如果在 Windows 上)
npx zcf --fix-windows

# 5. 开始使用 Claude Code 或 Codex,MCP 服务已就绪

配置示例

ZCF 自动生成的配置(无需手动编辑):

1
2
3
4
5
6
7
8
9
10
11
12
13
14
{
"mcpServers": {
"web-search": {
"command": "npx",
"args": ["-y", "@beehiveinnovations/open-web-search"],
"env": {}
},
"filesystem": {
"command": "npx",
"args": ["-y", "@modelcontextprotocol/server-filesystem"],
"env": {}
}
}
}

使用场景

  • 新手入门:不想处理复杂配置,快速体验 MCP 生态
  • 跨工具使用:同时使用 Claude Code 和 Codex
  • 团队标准化:通过 ZCF 统一团队的 MCP 配置
  • 快速修复:解决 MCP 连接问题(特别是 Windows 用户)

方案对比与选择

架构关系图

graph TB
    subgraph "方案 A:高级定制化"
        A[Claude Code] --> B[Zen MCP Server]
        B --> C1[Gemini 2.5 Pro]
        B --> C2[GPT-5]
        B --> C3[Claude 4.5]
        B --> C4[Other Models]
        A --> D[OpenSpec]
        D --> E[Spec Files]
        E --> F[Experience Packages]
    end

    subgraph "方案 B:零配置快速"
        G[Claude Code] --> H[Claude Code Router]
        H --> I1[OpenRouter]
        H --> I2[DeepSeek]
        H --> I3[Ollama]
        H --> I4[Gemini]
        G --> J[ZCF]
        J --> K[MCP Services]
        K --> L[Auto Config]
    end

    style A fill:#e1f5ff
    style G fill:#fff4e1
    style B fill:#d4edda
    style H fill:#d4edda
    style D fill:#f8d7da
    style J fill:#f8d7da

详细对比表格

对比维度 方案 A (Zen + OpenSpec) 方案 B (Router + ZCF)
配置难度 ⭐⭐⭐⭐ 需要手动配置多个 API Key ⭐ 零配置,自动生成
灵活性 ⭐⭐⭐⭐⭐ 完全自定义,无限可能 ⭐⭐⭐ 预设方案,简单选择
学习曲线 ⭐⭐⭐⭐ 需要理解 MCP、Spec-driven 等概念 ⭐ 开箱即用
成本 需要多个 API 订阅(Gemini/OpenAI/Anthropic) 可选择免费模型(Ollama)或低成本方案
多模型协作 ⭐⭐⭐⭐⭐ 原生支持,强大的线程机制 ⭐⭐⭐ 支持切换,但协作能力有限
规范化开发 ⭐⭐⭐⭐⭐ OpenSpec 提供完整的 Spec 流程 ⭐⭐ 缺乏规范化工具
离线能力 ❌ 依赖云端 API ✅ 结合 Ollama 可完全离线
上手速度 ⭐⭐ 需要 1-2 小时配置和学习 ⭐⭐⭐⭐⭐ 5 分钟即可开始使用
适合人群 高级用户、团队协作、复杂项目 新手、个人开发者、快速原型
维护成本 ⭐⭐⭐ 需要管理多个 API Key 和配置 ⭐ 几乎无需维护

使用场景推荐

选择方案 A(Zen MCP Server + OpenSpec)如果你:

✅ 是经验丰富的开发者,熟悉 AI 工具生态
✅ 需要处理复杂的、多模态的项目(大型代码库、复杂架构)
✅ 希望让不同 AI 模型发挥各自优势(Gemini 分析 + GPT-5 推理 + Claude 执行)
✅ 重视开发流程的规范化和可追溯性
✅ 在团队中工作,需要统一的 Spec 标准
✅ 预算充足,愿意订阅多个 API 服务

典型工作流

  1. 使用 OpenSpec 编写功能规格
  2. Claude Code 审查 Spec,提出改进建议
  3. 通过 Zen MCP 调用 Gemini 2.5 Pro 分析整体架构
  4. 通过 Zen MCP 调用 GPT-5 设计核心算法
  5. Claude 4.5 执行具体编码任务
  6. 将成功的 Spec 保存为经验包,供未来复用

选择方案 B(Claude Code Router + ZCF)如果你:

✅ 是 AI 编程工具的新手
✅ 希望快速体验 Claude Code 的能力,不想花时间配置
✅ 没有 Anthropic 订阅,或想节省成本
✅ 倾向于本地开发(结合 Ollama)
✅ 不需要复杂的多模型协作,只需偶尔切换模型
✅ 个人项目或快速原型开发

典型工作流

  1. 运行 npx zcf 完成零配置设置
  2. 使用 Claude Code Router 路由到 DeepSeek/Ollama(低成本/离线)
  3. 遇到复杂算法时,通过 /model gpt-5 切换到强推理模型
  4. 需要大上下文时,通过 /model gemini-2.5-pro 切换
  5. ZCF 确保 MCP 服务在所有工具中一致可用

混合方案

你也可以结合两种方案的优点:

  • Zen MCP Server + ZCF:享受多模型协作 + 零配置便利
  • Claude Code Router + OpenSpec:低成本路由 + 规范化开发

根据实际需求灵活组合工具,打造最适合自己的工作流。


实践建议

新手推荐路径

第一步:从 ZCF 开始(预计 10 分钟)

1
2
3
4
5
6
7
8
# 1. 全局安装 ZCF
npm install -g zcf

# 2. 运行配置向导
npx zcf

# 3. 选择 "4. Configure Codex MCP services"
# 自动配置完成后,重启 Claude Code

第二步:尝试 Claude Code Router(预计 20 分钟)

1
2
3
4
5
6
7
8
9
10
11
# 1. 安装 Router
npm install -g claude-code-router

# 2. 配置 OpenRouter API Key(注册 openrouter.ai 获取)
export OPENROUTER_API_KEY=your-key

# 3. 启动 Router
claude-code-router start

# 4. 配置 Claude Code 使用 Router 的代理地址
# 在 Claude Code 设置中修改 API 端点为 http://localhost:3000

第三步:实验不同模型(边用边学)

1
2
3
4
# 在 Claude Code 中尝试不同命令
/model deepseek-coder # 切换到性价比模型
/model gpt-5 # 遇到难题时切换到强推理模型
/model gemini-2.5-pro # 分析大型代码库时使用

高级用户推荐路径

第一步:部署 Zen MCP Server(预计 30 分钟)

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
# 1. 准备 API Keys
# - Gemini: https://aistudio.google.com/apikey
# - OpenAI: https://platform.openai.com/api-keys
# - Anthropic: https://console.anthropic.com/settings/keys

# 2. 配置 Claude Code 的 MCP 服务
# 编辑 ~/.config/claude/claude_desktop_config.json
{
"mcpServers": {
"zen": {
"command": "npx",
"args": ["-y", "@beehiveinnovations/zen-mcp-server"],
"env": {
"OPENAI_API_KEY": "your-openai-key",
"GEMINI_API_KEY": "your-gemini-key",
"ANTHROPIC_API_KEY": "your-anthropic-key"
}
}
}
}

# 3. 重启 Claude Code,验证 Zen MCP 连接成功

第二步:引入 OpenSpec(预计 1 小时)

1
2
3
4
5
6
7
8
9
10
11
12
13
14
# 1. 安装 OpenSpec
npm install -g @fission-ai/openspec

# 2. 初始化第一个 Spec
openspec init my-feature

# 3. 编辑 Spec 文件(参考官方文档学习 Spec 语法)
# openspec/specs/my-feature.yaml

# 4. 让 AI 审查你的 Spec
openspec review my-feature

# 5. 基于 Spec 生成代码
openspec generate my-feature

第三步:构建协作工作流(实战应用)

在实际项目中尝试:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
# 场景:重构一个大型模块

# 1. 用 OpenSpec 编写重构规格
openspec init refactor-user-module

# 2. 在 Claude Code 中调用 Zen MCP
"使用 Gemini 2.5 Pro 分析 src/user/ 目录的整体架构"

# 3. 让 GPT-5 设计优化后的数据流
"使用 GPT-5 设计新的用户状态管理方案"

# 4. Claude 4.5 执行具体重构
"基于 Spec 和设计方案,重构 UserService 类"

# 5. 保存成功的 Spec 为模板
openspec save refactor-user-module --template refactor-service

常见问题与注意事项

Q1: Zen MCP Server 和 Claude Code Router 可以同时使用吗?

理论上可以,但不推荐。它们都是模型路由工具,同时使用会导致双重代理,增加复杂性。建议:

  • 如果已有 Anthropic 订阅 → 使用 Zen MCP Server
  • 如果想节省成本或离线使用 → 使用 Claude Code Router

Q2: OpenSpec 的 Spec 文件格式是什么?

OpenSpec 支持 YAML 和 Markdown 格式。推荐使用 YAML,因为它更结构化:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
name: feature-auth
description: 用户认证系统
version: 1.0.0

requirements:
- 支持邮箱密码登录
- 支持 OAuth (Google, GitHub)
- JWT token 有效期 7

api:
- endpoint: POST /api/auth/login
input: { email: string, password: string }
output: { token: string, user: object }

tests:
- 测试正确密码登录成功
- 测试错误密码登录失败
- 测试 token 过期自动刷新

Q3: ZCF 配置的 MCP 服务在哪里存储?

  • Claude Code: ~/.config/claude/claude_desktop_config.json
  • Codex: ~/.config/codex/config.json

ZCF 会自动同步这两个文件,确保配置一致。

Q4: 如何监控 Zen MCP Server 的 API 调用成本?

建议在各个 AI 提供商的控制台设置预算提醒:

你也可以在 Zen MCP 配置中启用日志记录:

1
2
3
4
5
6
7
8
9
10
11
12
{
"mcpServers": {
"zen": {
"command": "npx",
"args": ["-y", "@beehiveinnovations/zen-mcp-server"],
"env": {
"ZEN_LOG_LEVEL": "debug",
"ZEN_LOG_API_CALLS": "true"
}
}
}
}

Q5: Claude Code Router 支持哪些本地模型?

通过 Ollama 集成,Router 支持所有 Ollama 支持的模型:

1
2
3
4
5
6
7
8
# 1. 安装 Ollama (https://ollama.ai)
# 2. 下载模型
ollama pull qwen2.5-coder:latest
ollama pull deepseek-coder-v2:latest

# 3. 在 Router 中使用
/model ollama:qwen2.5-coder
/model ollama:deepseek-coder-v2

本地模型的优势:

  • ✅ 完全免费
  • ✅ 完全离线
  • ✅ 无隐私顾虑
  • ❌ 性能取决于硬件(推荐 16GB+ 内存)

Q6: 团队如何统一 OpenSpec 的 Spec 模板?

建议在代码仓库中创建 .openspec/templates/ 目录:

1
2
3
4
5
6
7
8
9
project-root/
├── .openspec/
│ ├── templates/
│ │ ├── feature.yaml # 功能开发模板
│ │ ├── bugfix.yaml # Bug 修复模板
│ │ └── refactor.yaml # 重构模板
│ └── specs/ # 项目实际的 Spec 文件
│ ├── feature-auth.yaml
│ └── refactor-db.yaml

团队成员使用模板创建新 Spec:

1
openspec init feature-payment --template feature

总结

本文介绍了四个强大的工具,它们从不同维度增强了 Claude Code 的能力:

工具 核心价值 适合场景
Zen MCP Server 多模型智能协作,发挥各模型优势 复杂项目、大型代码库、团队协作
OpenSpec 规范化开发流程,人机对齐 需要清晰设计、团队协作、知识沉淀
Claude Code Router 低成本/离线使用,灵活切换模型 预算有限、本地开发、实验不同模型
ZCF 零配置启动,开箱即用 新手入门、快速上手、团队标准化

最后的建议

如果你只有 5 分钟:试试 ZCF,体验零配置的便利。

如果你有 1 小时:部署 Claude Code Router + ZCF,享受多模型切换的自由。

如果你想深度探索:学习 Zen MCP Server + OpenSpec,构建专业级的 AI 辅助开发工作流。

无论选择哪种方案,记住:工具只是手段,目标是提高开发效率和代码质量。根据实际需求灵活选择,不要为了使用工具而使用工具。

祝你在 AI 辅助编程的道路上越走越远!🚀


相关链接