OpenClaw 国内使用完整指南:模型选择、网络配置、常见报错一次说清
在国内用 OpenClaw 最容易卡在哪里?模型选 GitHub Copilot、服务器选境外 VPS,这两个条件搞定了剩下都好说。整理了国内用户最常遇到的网络问题、报错和解决方案。
OpenClaw 在国内用是可以用的,但有几个地方如果不提前知道,会把你卡很久。不是什么玄学问题,就是网络环境的老问题,加上几个配置细节没注意到,搞得好像怎么弄都跑不起来。
我装了好几次,从最开始一头雾水到后来摸清楚了套路,这篇把国内用 OpenClaw 会遇到的坑全整理出来,按顺序说。
先说清楚:OpenClaw 在国内能不能用
能用,但有前提条件。
OpenClaw 本身是个跑在你自己服务器上的程序,不存在「国内访问不了」的问题。真正的问题出在它需要调用的 AI 模型 API 上——OpenAI、Anthropic、Google Gemini 这些接口在国内都访问不了,所以如果你的服务器在国内,或者出口 IP 被识别为中国大陆,就会直接报错。
解决方案有两个方向:一是把 OpenClaw 装在境外 VPS 上(香港、美西、日本都行),直接就能用;二是在国内服务器上装,但要给 OpenClaw 配一个能访问 API 的代理出口。
大多数人选第一种,省事。但如果你手头只有国内服务器,或者对延迟有要求,第二种也有办法搞定,后面会说。
模型选哪个:GitHub Copilot 是国内最省心的选择
这是国内用 OpenClaw 最值得说的一个点。
OpenClaw 支持很多模型提供商:OpenAI、Anthropic Claude、Google Gemini、本地 Ollama……但对国内用户来说,这些要么需要境外支付方式,要么有地区限制,要么需要绕路。
GitHub Copilot 是个例外。原因有三个:
第一,GitHub 在国内能访问。Copilot API 走的是 GitHub 的接口,不像 OpenAI 那样被直接封锁,很多时候国内出口 IP 也能直连,不用额外绕路。
第二,学生包免费。如果你有 GitHub Education(学生认证),Copilot Pro 是完全免费的,里面包含 Claude Sonnet 4.6、Claude Opus 4.6、GPT-4o 这些主流模型,一个账号全搞定,不用单独充值各家的 API 费用。就算没有学生包,Copilot 的月费也比单独买 API 便宜得多。
第三,配置简单。OpenClaw 内置了 GitHub Copilot 的登录流程,一行命令就能搞定认证,不用自己去找 API key,也不用配什么 base URL,开箱即用。
所以如果你还没确定用哪个模型,GitHub Copilot 是国内用 OpenClaw 的最优解,没有之一。
GitHub Copilot 怎么接入 OpenClaw
OpenClaw 装好之后,认证 GitHub Copilot 就一条命令:
openclaw models auth login-github-copilot跑完之后它会给你一个 URL 和一个一次性验证码,在浏览器里打开 URL,输入验证码,授权完成。如果你在 VPS 上操作没有图形界面,浏览器就在本地开,把 URL 复制过去访问就行。
授权完之后设置默认模型:
openclaw models set github-copilot/claude-sonnet-4.6验证一下能不能正常对话:
openclaw chat能正常回复就说明 Copilot 接入成功了。如果报错,大概率是网络问题,接着往下看。
Copilot 下可以用的模型列表:
openclaw models list常用的几个:claude-sonnet-4.6 适合日常对话和写作,claude-haiku-4.5 速度快适合简单任务,claude-opus-4.6 推理能力强适合复杂问题,gpt-4o 和 gpt-4o-mini 适合代码相关任务。根据自己的需求选就行。
装在哪:境外 VPS 还是本地机器
这个问题很多人纠结,直接说建议。
境外 VPS 是最省心的方案。香港、日本、新加坡、美西节点都行,主要看你 Telegram 的延迟能不能接受。OpenClaw 装在 VPS 上,24 小时运行,心跳任务、定时提醒、消息通知都不用担心,SSH 断了服务照样跑。
本地机器也可以装,macOS 和 Windows 都支持。但明显的问题是:关机或者休眠之后 OpenClaw 就断了,心跳任务停,消息接不到。如果只是偶尔用用,本地装够了;如果想当作长期的个人助手,还是 VPS 更靠谱。
还有一种折中方案:本地调试,VPS 跑生产。本地装一个 OpenClaw 用来测配置,改好了再同步到 VPS 上,省得每次都要 SSH 进去折腾。
VPS 选择上,不用太纠结配置,OpenClaw 本身不吃资源,1 核 1G 内存就能跑。主要看网络质量和 IP 是否干净,Copilot API 偶尔会检查 IP 来源,太差的 IP 可能会遇到奇怪的问题。
安装的具体步骤——宿主机直装和 Docker 两种方式的对比——之前写过一篇,可以直接看安装教程那篇,Debian 和 Ubuntu 都适用。
服务器在国内怎么办:代理配置
如果你的 VPS 在国内,或者 IP 被识别为中国大陆(比如某些香港 VPS 的出口 IP 会被风控),Copilot API 调用可能会失败,Gemini 之类的接口会直接报「User location is not supported」。
这种情况有两种处理方式:
方式一:系统级代理
如果服务器本身能通过某种方式出境,直接设置环境变量:
export https_proxy=http://127.0.0.1:你的代理端口
export http_proxy=http://127.0.0.1:你的代理端口然后再启动 OpenClaw Gateway,发出去的请求就会走代理。要永久生效的话,写进 systemd service 文件的 Environment 字段里:
[Service]
Environment="https_proxy=http://127.0.0.1:7890"
Environment="http_proxy=http://127.0.0.1:7890"方式二:CLIProxyAPI 中转
这是更灵活的方案,之前也写过CLIProxyAPI 的详细教程。
CLIProxyAPI 是个 API 聚合网关,部署在一台能出境的机器上,把 Gemini、Claude、Copilot 等接口统一转成标准 OpenAI 格式。OpenClaw 配置指向它的地址,就完全不用担心本机 IP 被风控的问题了。
在 openclaw.json 里指向自定义 API 地址:
{
"providers": {
"openai": {
"baseUrl": "https://你的CLIProxyAPI地址/v1",
"apiKey": "你设置的密钥"
}
}
}配一次之后就不用再管了,即使本机 IP 变了也没影响。
国内访问 Control UI 的问题
OpenClaw 的控制面板默认只绑定 127.0.0.1,只有本机能访问。如果装在 VPS 上,想从本地浏览器打开控制面板,用 SSH 隧道:
ssh -L 18789:127.0.0.1:18789 root@你的VPS地址然后本地浏览器访问 http://127.0.0.1:18789/ 就能打开了。不建议直接把控制面板端口暴露到公网,token 泄露了很麻烦。
如果嫌每次开隧道麻烦,可以用 nginx 做一层反代,配上 HTTPS 和 HTTP Basic Auth,这样外部访问也安全。但不是必须的,Telegram 聊天日常完全够用,控制面板主要是配置调试时才用。
本地模型:完全不依赖境外 API 的方案
如果你不想依赖任何境外服务,或者网络实在不稳定,本地 Ollama 是个选项。OpenClaw 支持接入本地 Ollama,模型完全跑在自己机器上,没有网络限制,也不用付费。
代价是硬件要求:跑 7B 参数的模型需要至少 16GB 内存(或者 8GB 显存),效果和云端模型比差一些,但日常对话基本够用。国内 VPS 一般配置不高,本地 Ollama 更适合在有 GPU 的本地机器上跑。
怎么配 Ollama + OpenClaw,可以看这篇 Ollama 本地记忆搜索教程,里面顺带讲了用本地 embedding 模型做 memorySearch,完全不依赖境外服务的最小方案。
常见报错快速排查
GitHub 设备流程卡住/超时
原因:服务器访问 github.com 超时或被拦截。解决方法:在本地机器上跑登录命令,token 保存之后把 auth-profiles.json 文件 scp 到 VPS 上对应目录。或者服务器挂代理后再跑。
Copilot API 报 401 或 403
原因:认证 token 过期。GitHub Copilot 的 token 不是永久有效的,隔一段时间会失效。重新跑一次登录命令就好:
openclaw models auth login-github-copilotGemini 报 User location is not supported
原因:服务器 IP 被识别为中国大陆,Gemini 不支持该地区。直接换成 GitHub Copilot 作为主模型,或者给服务器配代理出口,这个问题就解决了。
安装阶段的各种报错
spawn einval、command not found、missing control ui assets 这些,去报错修复手册翻一下,基本都有对应的解决方案,按步骤来就好。
GitHub Copilot 怎么免费或低成本搞到
GitHub Copilot 是付费产品,个人版每月 10 美元,一年 100 美元。对于只是想玩 OpenClaw 的人来说,这个成本不算低。但有几个合法的免费方式:
最稳的是学生认证。如果你还在上学,有学校的 edu 邮箱,去 GitHub Education 提交申请,审核通过之后 Copilot Pro 直接免费,而且附带 GitHub Student Developer Pack 里一堆其他权益。申请的时候需要提交在学证明,国内的学信网英文版学籍验证报告是可以用的。
没有 edu 邮箱的话,还有一个野路子:.edu.kg 域名。这是吉尔吉斯斯坦的教育子域名,任何人都能注册,注册成本一年大概 20 来块钱,注册完之后自己建邮局,就有了一个 @xxx.edu.kg 的邮箱。
这个邮箱能不能过 GitHub 学生认证?不保证,因为 GitHub 审核会看不止邮箱后缀。但作为白嫖尝试成本很低,之前专门写过一篇edu.kg 注册教程,感兴趣可以看看。
如果以上都搞不定,Copilot 个人版 10 美元/月其实也不算贵——毕竟这一个订阅包含了 Claude Sonnet、Opus、GPT-4o 全家,比单独订阅每个模型的 API 便宜很多。拿来跑 OpenClaw 性价比还是很高的。
还有一个选项是 Copilot Free,GitHub 提供了有限制的免费版本,每月有一定的请求配额,偶尔用用够了,但跑 OpenClaw 这种有心跳任务、频繁对话的场景很快就会触达上限。
Telegram 和 OpenClaw 的配合:国内使用注意事项
Telegram 在国内需要代理才能用,这个大家都知道。但有一点容易被忽略:OpenClaw 在 VPS 上发 Telegram 消息的时候,走的是服务器的网络,不是你手机的网络。
所以如果 VPS 在香港或者其他境外节点,Telegram API 一般能直接访问,OpenClaw 发消息不需要额外配置。如果 VPS 在国内,Telegram API 就访问不了,消息发不出去,这时候 VPS 本身也需要有代理出口。
你手机上的 Telegram 客户端用代理看消息,和 VPS 上 OpenClaw 发消息,是两件独立的事。前者是接收,后者是发送,都要能访问 Telegram 才行。
Telegram bot 的延迟方面,香港 VPS 对大陆用户来说一般在 50-100ms,日本和新加坡稍慢一点,美西就明显感觉到延迟了。如果对响应速度比较在意,选香港节点最合适。
最后
国内用 OpenClaw 的核心就两件事:模型选 GitHub Copilot,服务器选境外 VPS。这两个条件满足了,剩下的和其他地区没什么区别。
如果服务器在国内或者 IP 有问题,CLIProxyAPI 中转配一次之后就不用再管了,相对省心。Ollama 本地方案适合有硬件的情况,作为备用或者离线方案。
装好之后怎么进一步配置——记忆系统、心跳任务、多 Agent——去进阶配置教程看一下,网络问题解决了剩下都是通用的内容,国内境外一样配。