返回适配列表

国产模型接入指南:DeepSeek/千问/Kimi/豆包

OpenClaw 接入国产大模型完整教程,覆盖 DeepSeek、通义千问、Kimi、豆包四大模型的 API 申请、配置和性能调优。

2026-03-1015 分钟
DeepSeek千问Kimi豆包国产模型OpenClaw

概述

OpenClaw 支持通过 OpenAI 兼容接口接入国产大模型。本文覆盖目前最热门的四大国产模型:DeepSeek、通义千问、Kimi(月之暗面)和豆包(字节跳动)。

模型对比

模型厂商API 价格上下文长度特长兼容 OpenAI 接口
DeepSeek-V3DeepSeek¥1/百万 token64K代码、推理
千问-Max阿里云¥2/百万 token128K通用、多模态
Kimi月之暗面¥2/百万 token200K长文本、搜索
豆包 Pro字节跳动¥0.8/百万 token128K性价比

价格为 2026 年 3 月数据,可能随时调整。


一、DeepSeek 接入

1.1 申请 API Key

  1. 访问 DeepSeek 开放平台
  2. 注册账号并完成实名认证
  3. 在「API Keys」页面创建密钥
  4. 新用户赠送 500 万免费 token

1.2 配置 OpenClaw

model:
  provider: "openai_compatible"
  base_url: "https://api.deepseek.com"
  model: "deepseek-chat"  # 或 deepseek-reasoner
  api_key: "sk-your-deepseek-key"
  temperature: 0.7
  max_tokens: 4096

1.3 推荐场景

  • 代码辅助:DeepSeek 在代码生成和调试方面表现出色
  • 数学推理:deepseek-reasoner 模型专门优化了推理能力
  • 日常对话:deepseek-chat 适合通用场景

二、通义千问接入

2.1 申请 API Key

  1. 访问 阿里云百炼平台
  2. 开通模型服务
  3. 在「API-KEY 管理」中创建密钥
  4. 新用户赠送 100 万免费 token

2.2 配置 OpenClaw

model:
  provider: "openai_compatible"
  base_url: "https://dashscope.aliyuncs.com/compatible-mode/v1"
  model: "qwen-max"  # 或 qwen-plus, qwen-turbo
  api_key: "sk-your-qwen-key"
  temperature: 0.7
  max_tokens: 4096

2.3 模型选择

模型价格适合场景
qwen-max¥2/百万 token高质量输出,复杂任务
qwen-plus¥0.8/百万 token日常使用,性价比高
qwen-turbo¥0.3/百万 token简单任务,速度快

三、Kimi 接入

3.1 申请 API Key

  1. 访问 Moonshot AI 开放平台
  2. 注册并完成认证
  3. 在「API 密钥」中创建密钥
  4. 新用户赠送 1500 万免费 token

3.2 配置 OpenClaw

model:
  provider: "openai_compatible"
  base_url: "https://api.moonshot.cn/v1"
  model: "moonshot-v1-128k"  # 或 moonshot-v1-8k, moonshot-v1-32k
  api_key: "sk-your-moonshot-key"
  temperature: 0.7
  max_tokens: 4096

3.3 推荐场景

  • 长文档处理:200K 上下文窗口,适合分析长文档
  • 联网搜索:内置搜索能力,可获取实时信息
  • 知识问答:擅长基于文档的问答

四、豆包接入

4.1 申请 API Key

  1. 访问 火山引擎
  2. 开通豆包大模型服务
  3. 创建模型推理接入点(Endpoint)
  4. 获取 API Key

4.2 配置 OpenClaw

model:
  provider: "openai_compatible"
  base_url: "https://ark.cn-beijing.volces.com/api/v3"
  model: "your-endpoint-id"  # 使用推理接入点 ID
  api_key: "your-ark-api-key"
  temperature: 0.7
  max_tokens: 4096

4.3 推荐场景

  • 高并发:豆包 API 并发限制较高
  • 预算有限:价格最低,适合大量调用
  • 通用对话:日常问答表现稳定

五、性能调优建议

5.1 降低延迟

model:
  # 启用流式输出
  stream: true
  # 限制输出长度
  max_tokens: 2048
  # 降低采样温度(更快收敛)
  temperature: 0.5

5.2 控制成本

model:
  # 使用更便宜的模型处理简单任务
  model: "deepseek-chat"
  # 限制上下文历史
  max_history_messages: 10
  # 启用 token 用量统计
  track_usage: true

5.3 提高质量

model:
  # 使用更强的模型
  model: "qwen-max"
  # 设置系统提示词
  system_prompt: |
    你是一个专业的 AI 助手。请用简洁、准确的语言回答问题。
    如果不确定,请如实告知。
  # 适当提高温度增加创造性
  temperature: 0.8

常见问题

Q: 国产模型和 ChatGPT 相比如何?

A: 在中文场景下,DeepSeek 和千问的表现已经接近甚至超越 GPT-4o,且价格更低、延迟更小(国内网络直连)。

Q: 应该选哪个模型?

A: 建议根据场景选择:代码任务用 DeepSeek,长文档用 Kimi,通用场景用千问,预算有限用豆包。

Q: API 调用失败怎么办?

A: 检查以下几点:1) API Key 是否正确;2) base_url 是否正确;3) 账户余额是否充足;4) 模型名称是否正确。

Q: 可以混合使用多个模型吗?

A: 可以,OpenClaw 支持配置多个模型,根据任务类型自动路由到不同模型。