概述
OpenClaw 支持通过 OpenAI 兼容接口接入国产大模型。本文覆盖目前最热门的四大国产模型:DeepSeek、通义千问、Kimi(月之暗面)和豆包(字节跳动)。
模型对比
| 模型 | 厂商 | API 价格 | 上下文长度 | 特长 | 兼容 OpenAI 接口 |
|---|---|---|---|---|---|
| DeepSeek-V3 | DeepSeek | ¥1/百万 token | 64K | 代码、推理 | ✅ |
| 千问-Max | 阿里云 | ¥2/百万 token | 128K | 通用、多模态 | ✅ |
| Kimi | 月之暗面 | ¥2/百万 token | 200K | 长文本、搜索 | ✅ |
| 豆包 Pro | 字节跳动 | ¥0.8/百万 token | 128K | 性价比 | ✅ |
价格为 2026 年 3 月数据,可能随时调整。
一、DeepSeek 接入
1.1 申请 API Key
- 访问 DeepSeek 开放平台
- 注册账号并完成实名认证
- 在「API Keys」页面创建密钥
- 新用户赠送 500 万免费 token
1.2 配置 OpenClaw
model:
provider: "openai_compatible"
base_url: "https://api.deepseek.com"
model: "deepseek-chat" # 或 deepseek-reasoner
api_key: "sk-your-deepseek-key"
temperature: 0.7
max_tokens: 4096
1.3 推荐场景
- 代码辅助:DeepSeek 在代码生成和调试方面表现出色
- 数学推理:deepseek-reasoner 模型专门优化了推理能力
- 日常对话:deepseek-chat 适合通用场景
二、通义千问接入
2.1 申请 API Key
- 访问 阿里云百炼平台
- 开通模型服务
- 在「API-KEY 管理」中创建密钥
- 新用户赠送 100 万免费 token
2.2 配置 OpenClaw
model:
provider: "openai_compatible"
base_url: "https://dashscope.aliyuncs.com/compatible-mode/v1"
model: "qwen-max" # 或 qwen-plus, qwen-turbo
api_key: "sk-your-qwen-key"
temperature: 0.7
max_tokens: 4096
2.3 模型选择
| 模型 | 价格 | 适合场景 |
|---|---|---|
| qwen-max | ¥2/百万 token | 高质量输出,复杂任务 |
| qwen-plus | ¥0.8/百万 token | 日常使用,性价比高 |
| qwen-turbo | ¥0.3/百万 token | 简单任务,速度快 |
三、Kimi 接入
3.1 申请 API Key
- 访问 Moonshot AI 开放平台
- 注册并完成认证
- 在「API 密钥」中创建密钥
- 新用户赠送 1500 万免费 token
3.2 配置 OpenClaw
model:
provider: "openai_compatible"
base_url: "https://api.moonshot.cn/v1"
model: "moonshot-v1-128k" # 或 moonshot-v1-8k, moonshot-v1-32k
api_key: "sk-your-moonshot-key"
temperature: 0.7
max_tokens: 4096
3.3 推荐场景
- 长文档处理:200K 上下文窗口,适合分析长文档
- 联网搜索:内置搜索能力,可获取实时信息
- 知识问答:擅长基于文档的问答
四、豆包接入
4.1 申请 API Key
- 访问 火山引擎
- 开通豆包大模型服务
- 创建模型推理接入点(Endpoint)
- 获取 API Key
4.2 配置 OpenClaw
model:
provider: "openai_compatible"
base_url: "https://ark.cn-beijing.volces.com/api/v3"
model: "your-endpoint-id" # 使用推理接入点 ID
api_key: "your-ark-api-key"
temperature: 0.7
max_tokens: 4096
4.3 推荐场景
- 高并发:豆包 API 并发限制较高
- 预算有限:价格最低,适合大量调用
- 通用对话:日常问答表现稳定
五、性能调优建议
5.1 降低延迟
model:
# 启用流式输出
stream: true
# 限制输出长度
max_tokens: 2048
# 降低采样温度(更快收敛)
temperature: 0.5
5.2 控制成本
model:
# 使用更便宜的模型处理简单任务
model: "deepseek-chat"
# 限制上下文历史
max_history_messages: 10
# 启用 token 用量统计
track_usage: true
5.3 提高质量
model:
# 使用更强的模型
model: "qwen-max"
# 设置系统提示词
system_prompt: |
你是一个专业的 AI 助手。请用简洁、准确的语言回答问题。
如果不确定,请如实告知。
# 适当提高温度增加创造性
temperature: 0.8
常见问题
Q: 国产模型和 ChatGPT 相比如何?
A: 在中文场景下,DeepSeek 和千问的表现已经接近甚至超越 GPT-4o,且价格更低、延迟更小(国内网络直连)。
Q: 应该选哪个模型?
A: 建议根据场景选择:代码任务用 DeepSeek,长文档用 Kimi,通用场景用千问,预算有限用豆包。
Q: API 调用失败怎么办?
A: 检查以下几点:1) API Key 是否正确;2) base_url 是否正确;3) 账户余额是否充足;4) 模型名称是否正确。
Q: 可以混合使用多个模型吗?
A: 可以,OpenClaw 支持配置多个模型,根据任务类型自动路由到不同模型。