OpenClaw 模型切换完全指南:临时换模型、永久改默认、多 Agent 配不同模型
OpenClaw 怎么切换模型?/model 命令临时换、openclaw.json 永久改、不同 Agent 用不同模型,三种场景一篇说清楚。还有 GitHub Copilot 可用模型列表和实际使用建议。
装好 OpenClaw 之后,很多人第一件事就是去折腾模型——默认配的是什么,能不能换成更好的,不同任务能不能用不同模型,哪些模型免费哪些要花钱。这些问题我刚开始用的时候也全想过,这篇就把模型相关的操作从头捋一遍。
不管是临时切换模型、永久改默认模型、还是给不同 Agent 配不同模型,操作都不复杂,但有几个地方容易搞混,先说清楚。
先搞清楚:OpenClaw 的模型格式
OpenClaw 里所有模型都用 provider/model 的格式表示,比如 github-copilot/claude-sonnet-4.6、openai/gpt-4o、ollama/llama3.2。前面是提供商,后面是具体模型名。
常用提供商:
github-copilot:GitHub Copilot 订阅,支持 Claude Sonnet/Opus/Haiku、GPT-4o、GPT-4o-mini 等主流模型,国内用最方便。
openai:直接用 OpenAI API key,需要境外支付方式和能访问 api.openai.com 的网络。
anthropic:直接用 Anthropic API key,同样需要境外网络。
ollama:本地跑的模型,完全免费,不需要任何 API key,但对硬件有要求。
openrouter:聚合平台,一个 key 可以调很多家的模型,按量计费。
对国内用户来说,github-copilot 是最省心的选择,一个订阅搞定所有主流模型,不用单独申请各家的 API key。
查看当前用的是什么模型
有两种方式确认当前配置的模型:
方法一:CLI 命令
openclaw models list这个命令会列出所有已认证的提供商和可用模型,当前默认模型会有标记。
方法二:看配置文件
cat ~/.openclaw/openclaw.json | grep primaryprimary 字段就是当前默认模型。
临时切换模型(只影响当前对话)
最快的方式是直接在对话里用斜杠命令:
/model github-copilot/claude-opus-4.6发送这条消息之后,当前 session 就换成了 Opus,但只对这次对话有效,下次新开 session 还是回到默认模型。
临时切换适合什么场景:你平时用 Haiku 处理日常任务,偶尔遇到需要深度推理的问题,临时换 Opus 或 Sonnet 处理,处理完再继续用轻量模型。不用改配置文件,随切随用。
所有可用的斜杠命令可以看CLI 命令速查这篇,里面有完整的命令列表。
永久更换默认模型
要让模型切换在每次新 session 都生效,有两种方式:
方法一:CLI 命令(推荐)
openclaw models set github-copilot/claude-sonnet-4.6跑完之后 OpenClaw 会自动更新配置文件,下次重启就生效了。这是最简单的方式,不用手动改 JSON。
方法二:直接改 openclaw.json
打开 ~/.openclaw/openclaw.json,找到 agents.defaults.model.primary 字段改掉:
{
"agents": {
"defaults": {
"model": {
"primary": "github-copilot/claude-sonnet-4.6"
}
}
}
}改完之后重启 gateway 生效:
openclaw gateway restart两种方式效果一样,CLI 命令更省事,直接改配置文件更直观。
GitHub Copilot 有哪些模型可以用
用 Copilot 的话,先确认一下你的账号下有哪些模型:
openclaw models list --provider github-copilot不同订阅计划能用的模型不一样。Copilot Pro(学生包免费)通常可以用:
claude-sonnet-4.6:综合能力强,写作、分析、代码都不错,日常主力模型。
claude-haiku-4.5:速度快,token 消耗少,适合简单问答、搜索汇总、格式转换这类轻任务。
claude-opus-4.6:推理能力最强,适合复杂问题分析、代码架构设计,但响应稍慢。
gpt-4o:OpenAI 的主力模型,代码能力很强,和 Claude 系列各有所长。
gpt-4o-mini:轻量版 GPT-4o,速度快,适合极简任务。
如果某个模型 ID 报错,可能是 Copilot 更新了命名,用 models list 看一下实际可用的 ID 再填。
给不同 Agent 配不同模型
如果你配了多个独立 Agent,可以让每个 Agent 用不同的模型,不用都共享一个默认模型。
在 openclaw.json 的 agents.list 里给每个 Agent 单独指定:
{
"agents": {
"list": [
{
"id": "main",
"model": "github-copilot/claude-sonnet-4.6"
},
{
"id": "light",
"model": "github-copilot/claude-haiku-4.5"
}
]
}
}这样主 Agent 用 Sonnet,另一个 Agent 用 Haiku,各自独立,互不影响。实际用下来,Haiku 处理轻量任务的速度比 Sonnet 快不少,两个模型搭配着用很划算。
多 Agent 的完整配置可以看这篇多 Agent 教程,里面有 workspace 隔离、bindings 路由的详细步骤。
配置模型别名(alias)
模型 ID 比较长,每次输完整路径比较麻烦。可以在配置里给常用模型设置别名:
{
"agents": {
"defaults": {
"models": {
"github-copilot/claude-sonnet-4.6": {
"alias": "sonnet"
},
"github-copilot/claude-haiku-4.5": {
"alias": "haiku"
},
"github-copilot/claude-opus-4.6": {
"alias": "opus"
},
"github-copilot/gpt-4o-mini": {
"alias": "mini"
}
}
}
}
}设好别名之后,临时切换就可以直接用短名:
/model opus比输全路径省事很多。
接入其他模型提供商
除了 GitHub Copilot,OpenClaw 支持接入很多其他提供商。几个常见的:
OpenAI 直连
{
"providers": {
"openai": {
"apiKey": "sk-your-api-key"
}
},
"agents": {
"defaults": {
"model": {
"primary": "openai/gpt-4o"
}
}
}
}Ollama 本地模型
本地跑 Ollama 的话,配置很简单:
{
"providers": {
"ollama": {
"baseUrl": "http://127.0.0.1:11434"
}
},
"agents": {
"defaults": {
"model": {
"primary": "ollama/llama3.2"
}
}
}
}Ollama 的完整配置和用本地模型做记忆检索,可以看Ollama + OpenClaw 那篇。
OpenRouter(多模型聚合)
OpenRouter 是个聚合平台,一个 API key 可以调几百个模型,包括很多开源模型。按量计费,便宜的模型几乎不花钱:
{
"providers": {
"openrouter": {
"apiKey": "sk-or-your-key"
}
},
"agents": {
"defaults": {
"model": {
"primary": "openrouter/google/gemini-flash-1.5"
}
}
}
}删除不再使用的模型配置
如果某个提供商的 token 过期了,或者你不再用某个模型,可以清理掉:
清理认证 token
openclaw models auth list看一下所有已保存的认证配置,然后删掉不需要的:
openclaw models auth remove --profile-id github-copilot:default重置模型配置
如果模型配置乱掉了(比如切换过多个提供商之后状态不对),可以删掉 agents 目录下的 models.json 重新来过:
rm ~/.openclaw/agents/main/agent/models.json
openclaw gateway restart删掉之后 OpenClaw 会重新初始化模型配置,恢复到默认状态,然后重新设置需要的模型就好。
模型选择的实际建议
用了大半年下来,说说我自己的分配方式,仅供参考:
日常对话、搜索、简单任务用 Haiku,响应快,基本不感觉有延迟。
写文章、分析问题、整理信息用 Sonnet,能力和速度都不错,综合性价比最高。
模型切换之后行为变化在哪
很多人换了模型但感觉不明显,不知道差异在哪。说几个实际能感知到的区别:
响应速度:Haiku 明显比 Sonnet 快,Sonnet 比 Opus 快。如果你的任务不需要深度推理,用 Haiku 交互流畅很多。
长文生成:Haiku 写长文章容易缺乏深度,逻辑跳跃,Sonnet 和 Opus 在长文输出上明显更稳。让 AI 帮你写超过 1000 字的内容,建议至少用 Sonnet。
代码质量:GPT-4o 在纯代码任务上有时候比 Claude 系列更顺手,尤其是需要生成大段代码的场景。Claude 系列在理解需求、给出解释方面更细致。
指令跟随:Opus 在理解复杂指令、执行多步骤任务方面最稳,不容易跑偏。Haiku 有时候会简化步骤或者忽略细节要求。
这些差异在日常聊天里可能感知不强,但在复杂任务上会很明显。根据任务类型选模型,比一直用同一个模型效果好很多。
子 Agent 的模型策略
子 Agent 是主脑临时派出去执行任务的进程,默认继承主脑的模型。但有时候你希望子 Agent 用轻量模型来节省响应时间,尤其是批量执行的任务。
在对话里可以直接告诉主脑:「用 Haiku 帮我并行搜索这三个关键词」,主脑会给子 Agent 临时指定 Haiku。
也可以在 openclaw.json 里设置子 Agent 的默认模型:
{
"agents": {
"defaults": {
"subagents": {
"model": "github-copilot/claude-haiku-4.5"
}
}
}
}这样所有子 Agent 默认用 Haiku,主脑继续用 Sonnet 或 Opus,分工明确。批量任务的执行速度会快不少。
模型不可用或报错怎么处理
报错:model not found 或 model rejected
原因:模型 ID 写错,或者你的订阅不包含这个模型。先用 openclaw models list 确认一下实际可用的模型 ID,Copilot 有时候会更新模型命名。
报错:authentication failed 或 401
原因:认证 token 过期。重新登录一下:
openclaw models auth login-github-copilot报错:rate limit 或 429
原因:请求频率太高,触达了模型的速率限制。Copilot 有每日请求配额,子 Agent 并行任务比较多的时候容易触达。短暂等一下再试,或者临时换一个模型。
模型配置乱掉了,恢复默认
如果切换了好几个提供商之后状态不对,或者模型一直报莫名其妙的错误,删掉 models.json 重置:
rm ~/.openclaw/agents/main/agent/models.json
openclaw gateway restart重启后 OpenClaw 会重新初始化,用 openclaw models set 重新设置一遍默认模型就好。
其他安装和启动阶段的报错,去报错修复手册翻一下,常见问题都有对应处理方法。
模型费用怎么算
这个问题很多人纠结,说几个常见方案的费用逻辑:
GitHub Copilot 订阅制:月付 10 美元或年付 100 美元,不按 token 计费。用 Claude Opus 和用 Haiku 费用一样,区别只是速度和质量。学生可以通过 GitHub Education 免费获取,国内在校生用学校 edu 邮箱申请就行。
OpenAI API 按量计费:用多少花多少,GPT-4o 比 GPT-4o-mini 贵很多,高频使用成本不低。
Anthropic API 按量计费:Claude Opus 价格比 Claude Haiku 贵 15 倍左右,重量级模型做轻量任务很浪费。
Ollama 本地模型:完全免费,硬件够用的话是最省钱的方案,适合不想依赖任何境外服务的场景。
在会话中查看当前用的是哪个模型
有时候切换过几次之后,不确定现在这个 session 用的是哪个模型,直接问就行:
发「你现在用的是什么模型」,AI 会告诉你当前 session 使用的模型名称。
也可以用斜杠命令查看 session 状态:
openclaw /status 命令会显示当前 session 的模型、token 用量、session 时长等信息。
另外如果你在 openclaw.json 里配置了 alias,用 /model 切换时显示的是 alias,实际跑的模型名可以通过 /status 确认。
国内自建模型接入 OpenClaw
如果你不想依赖境外 API,国内也有几个选项可以接入 OpenClaw:
通义千问(Qwen):阿里云出的大模型,国内访问速度快,有免费额度。通过 OpenAI 兼容接口接入:
Kimi(Moonshot AI):月之暗面的模型,支持超长上下文,接口也是 OpenAI 兼容格式,配置方式和 OpenAI 一样,换一下 base URL 和 API key 就行。
DeepSeek:性价比很高的国产模型,推理能力强,API 价格便宜,OpenAI 兼容接口。
这几个模型接入 OpenClaw 的方式基本相同,在 openclaw.json 里配置 baseUrl 指向对应的 API 地址,apiKey 填对应平台的 key 就行。国内访问速度比境外模型快,不需要代理,适合服务器在国内的用户。
服务器在国内的完整配置方案,可以看国内使用指南那篇,里面有代理配置和各种网络问题的处理方法。
对个人用户来说,Copilot 订阅制最省心,不用算 token,不怕账单超额。OpenRouter 适合想尝试各种模型的人,按量计费,便宜的开源模型很实惠。
复杂推理、代码架构、需要反复思考的问题才用 Opus,响应会慢一点,但遇到真正难的问题确实更靠谱。
子 Agent 执行批量任务时,能用 Haiku 就用 Haiku,速度快,省 token,大部分任务不需要重型模型。
没有固定答案,根据自己的使用习惯和预算调整就好。Copilot 订阅模式不按 token 计费,所以用重型模型也不会额外花钱,主要差异就是响应速度和质量。
如果还在摸索 OpenClaw 的玩法,进阶配置那篇里有 Cron 定时任务、记忆系统、子 Agent 并行这些内容,配合好模型选择能把 OpenClaw 的能力发挥出来。