OpenClaw 2026.4.22 更新了什么?xAI 全家桶、腾讯 Hy3、/models add 一篇看懂
最近一周 OpenClaw 还在高频更新,但如果只让我挑一版最值得单独写,那就是 v2026.4.22。
原因很简单:这版不是单纯又加了几个看起来很酷的新能力,而是同时碰了 模型接入、语音能力、安装体验、命令体验、诊断排错、国产模型接入 这几条最影响日常使用的线。对已经在用 OpenClaw 的人来说,这版会直接影响你后面怎么配;对还在观望的人来说,这版也比前几周更像“能真的装起来并长期用”的版本。
先说结论:这版最值得看的,不是又变强了,而是更完整了
如果你只看一句话,这版可以理解成:
OpenClaw 开始把一堆过去要手动拼的能力,慢慢补成默认就能顺手用的状态。
以前很多更新给人的感觉是“能力上限更高了”;这次更像是“真正开始照顾使用过程里最烦的那些地方”。
具体看,最重要的是下面 6 件事:
- xAI 直接补成一整套:图像生成、TTS、STT、实时转写都来了
- 腾讯 provider 进官方插件体系了,Hy3 这条国产模型线更容易上手
- `/models add` 可以直接在聊天里加模型,不用重启 Gateway
- 首次配置会自动装缺失插件,安装体验少踩一个大坑
- 诊断与稳定性导出更完整,排错门槛继续下降
- 本地终端聊天(TUI local embedded mode)更顺了,不一定非得先折腾 Gateway
下面分开讲。
一、xAI 这次不是“多支持一个模型”,而是把语音和图像能力整条线补上了
官方 release 里最显眼的一条,就是 Providers/xAI 这一段。以前很多人对 xAI 的印象还停留在“能不能接 Grok 文本模型”,但到 2026.4.22 这版,OpenClaw 已经把 xAI 接成更完整的一套了。
这次加上的东西包括:
- 图像生成:
grok-imagine-image、grok-imagine-image-pro - 支持参考图编辑(reference-image edits)
- 文本转语音(TTS)
- 语音转文本(STT)
- Voice Call 场景下的实时转写
- 多种语音输出格式:MP3、WAV、PCM、G.711
- 6 个 xAI voice 可直接用
这件事为什么重要?
因为它意味着 OpenClaw 里的 xAI,不再只是“多一个模型提供商”,而是开始具备 文本 + 图像 + 音频 的组合能力。
对普通用户来说,最直接的影响是三种场景:
1)你想让助手“能说能听”
如果你平时不只是在 Telegram 或网页里敲字,而是希望后面接语音通话、语音消息、语音总结,那 TTS / STT 的补齐很关键。过去你可能还要单独找别的 provider 或自己拼接口,现在至少官方集成层已经往前走了一大步。
2)你想让助手顺手处理图片
图像生成和参考图编辑这块,不一定每个人都高频用,但它至少说明一件事:OpenClaw 对 xAI 的接入不再只是“最基础能聊天”,而是在往完整媒体能力走。
3)你想做更像“真人助理”的交互
OpenClaw 这类东西,真正的方向本来就不只是做一个聊天框。你要它更像助理,语音输入、语音输出、实时转写,这些迟早都得补。2026.4.22 这版,xAI 这条线已经明显在往这个方向推了。
如果你之前已经在关注 OpenClaw 的 Voice Call、媒体能力或多模态路线,那这条更新很值得单独留意。
二、腾讯 provider 进官方体系,国内用户终于多了一条更像样的路
这版另一个很值得写的点,是 Providers/Tencent。
官方 changelog 写得很明确:
- 新增 bundled Tencent Cloud provider plugin
- 带 TokenHub onboarding
- 文档补齐
- 新增
hy3-preview模型目录项 - 带 Hy3 的分层价格元数据
这个更新的价值,不在于“又多了一个 provider 名字”,而在于:
腾讯这条线终于不再像边缘玩法,而是开始进入 OpenClaw 官方整合后的可用路径。
这对国内用户很关键。
因为很多人装 OpenClaw 后,最现实的问题根本不是“有没有最强模型”,而是:
- 哪条线路更稳
- 哪条线路更容易配
- 哪条线路更适合国内环境
- 哪条线路后面更有机会做长期替代
过去大家提到国内可用路线,常见思路还是 OpenAI 兼容接口、OpenRouter、Moonshot/Kimi、部分第三方聚合层。现在腾讯 provider 被正式带进来,至少说明 OpenClaw 官方已经开始更认真地把 国产模型接入 这件事做成可理解、可配置、可在 onboarding 阶段出现的选项。
hy3-preview 为什么值得关注?
因为它不是泛泛的“腾讯也支持了”,而是已经落到了具体模型入口上。
对站内读者来说,这种信息比“某某大厂也入局了”更有用。真正会被搜索的,是这类问题:
- OpenClaw 能不能接腾讯模型
- Hy3 怎么接进 OpenClaw
- 国内用户有没有更稳的模型路线
- TokenHub 怎么配
所以从内容价值上,这条更新后面其实还可以继续拆成独立教程。比如:
- OpenClaw 怎么接腾讯 Hy3?
- TokenHub 是什么?在 OpenClaw 里怎么配?
- 国内用户现在该优先试哪些 OpenClaw provider?
这也是为什么我判断:这次腾讯 provider 不是一条“顺手提一下”的边缘更新,而是后续能继续吃搜索的一条新支线。
三、/models add 很小,但非常有用:终于不用每次都重启了
如果让我从这版里选一个最像普通用户会直接感知到的实用更新,我会选 `/models add`。
官方说明很直白:
- 新增
/models add - 可以直接从聊天里注册一个模型
- 不需要重启 gateway
/models本身保留为 provider 浏览入口- 还补了更清晰的 add guidance 和可复制的命令示例
这个更新看上去不像 xAI、腾讯 provider 那么显眼,但它对实际使用体验的改善非常大。
为什么以前这件事烦?
因为很多人在试模型时,最烦的不是模型本身,而是配置过程:
- 改配置
- 看格式对不对
- 重启 Gateway
- 再试一次
- 发现名字写错了或参数不对
- 再来一轮
这种体验特别打断节奏,尤其是你本来只是想“先加一个模型试试看”。
而 /models add 的意义就是把这个过程压缩掉一部分:
- 你可以在聊天里直接加
- 不用切出去改那么多配置
- 不用每次都重启服务
- 模型试错成本更低
这会改变谁的使用方式?
至少两类人会明显受益:
1)刚装好 OpenClaw 的新手
新手最怕的就是每次改一点点都要重启,然后一报错就不知道是模型不支持、provider 没配好,还是配置文件写坏了。
/models add 至少把“加模型”这一步变成了更轻的动作。
2)喜欢切模型、换 provider 的重度用户
如果你本来就经常试不同 provider,不想每次都走完整配置和重启流程,这个功能会明显顺手很多。
从搜索角度看,这也是很适合后面补独立文章的点,因为它天然对应“怎么做”搜索,而不是“是什么”搜索。
四、首次配置自动补插件,这个更新对新手比你想的更重要
官方 release 里有一条很容易被忽略,但其实很“救命”的变化:
- Onboarding: auto-install missing provider and channel plugins during setup
翻成大白话就是:
在首次配置过程中,如果缺少 provider 或 channel 插件,OpenClaw 会尽量自动帮你装,而不是让你自己中断流程再去补。
为什么这很重要?
因为很多自托管工具真正把人劝退的,不是“不会装主程序”,而是:
- 主程序装好了
- 启动了
- 到配置某个 provider / channel 时突然发现缺依赖
- 然后你要自己退出去装插件
- 装完还不一定知道有没有装对
- 再回头继续配
这类断点对新手杀伤力非常大。
尤其是 OpenClaw 本身功能面很广,渠道、provider、插件、节点、UI、CLI、voice、browser 这些东西一多,首次 onboarding 的任何一个断点都可能让人直接放弃。
所以这条更新虽然不炫,但属于典型的“减少首次流失”的工程。
这也是我前面说的:2026.4.22 的重点不是单纯又加了什么厉害能力,而是开始更认真地补“能不能顺利用起来”。
五、诊断导出和稳定性记录增强,说明官方在继续补“排错闭环”
这版还有一条很像工程细节,但对真实用户其实很重要:
- 默认开启 payload-free stability recording
- 新增更适合支持/反馈用的 diagnostics export
- 导出内容包括 sanitized logs、status、health、config、stability snapshots
如果你之前折腾过 OpenClaw,就知道这类项目到了一定复杂度之后,难点往往不是“有没有功能”,而是:
- 出问题时你能不能快速定位
- 反馈 issue 时你能不能拿出够用的信息
- 排错过程是不是每次都只能靠猜
现在官方把 diagnostics export 继续往“可直接用于支持和 bug report”的方向推,说明他们也在面对一个现实:
OpenClaw 已经不是一个只有少数极客自己本地玩的玩具了,用户规模和使用复杂度上来之后,诊断体系必须补。
这类更新不会带来最直观的传播感,但会直接影响项目后面的口碑和可维护性。
对于想长期用的人来说,这种更新比“再多一个酷功能”更值钱。
六、TUI local embedded mode:对终端党是好消息
这版还加了一个点:
- TUI: add local embedded mode for running terminal chats without a Gateway while keeping plugin approval gates enforced
简单理解就是:
- 你可以在终端里跑本地聊天
- 不一定非得先把 Gateway 那一整套拉起来
- 但审批和安全门还在,不是完全裸奔
这个功能更适合谁?
- 喜欢 terminal 工作流的人
- 想快速本地试 OpenClaw 的人
- 暂时不想先配完整远程/聊天渠道的人
- 更习惯 CLI/TUI 而不是先开控制台网页的人
它未必是最适合所有读者的更新,但它说明 OpenClaw 这边对“使用入口”也在继续拆分:
- 不是所有人都必须从同一条重路径进来
- 可以先从更轻的 terminal 方式体验
对项目增长来说,这很重要。因为入口越单一,试用成本越高;入口越灵活,愿意留下来的人就越多。
七、这版还有哪些值得一提,但不用在标题里抢主位?
除了上面几条主线,这版还有一些更新也值得知道,但更适合在正文里顺手提,不一定要放进标题:
1)WhatsApp reply quoting
WhatsApp 增加了可配置的 native reply quoting。对重度用 WhatsApp 聊天的人来说会更自然,但不是国内读者最优先关心的点。
2)/status 里新增 Runner 字段
现在会更明确显示当前会话跑在什么东西上,比如 embedded Pi、CLI-backed provider、ACP harness 等。这个对排错和理解运行环境有帮助。
3)openclaw doctor 更快了
doctor 插件路径 lazy-load 后,官方给出的数据是 非交互 doctor 运行时间大约下降 74%。这看着像小事,但对排错频率高的人来说会很舒服。
4)插件加载更快
bundled plugin dist 模块优先走 native Jiti loading,官方给出的量化是 插件加载时间降低 82%-90%。这也说明项目在继续处理“越做越大后启动变慢”的问题。
这些东西单独看不一定构成一篇文章,但放在一起看,会得到一个很清楚的判断:
OpenClaw 现在不是只在扩功能面,它也在认真处理大项目常见的性能、启动、诊断和接入复杂度问题。
八、和前一两版连起来看,2026.4.22 这次更像“补使用体验转折点”
如果把最近几版放在一起看,会更容易理解这次为什么值得单独写。
v2026.4.20 更像在补基础体验和维护层
比如:
- onboarding/wizard 界面整理
- Kimi 相关默认模型与价格能力
- sessions 维护与 OOM 防护
- cron/job 状态拆分
- 一大批安全、模型、会话、插件修复
v2026.4.21 相对是小版本过渡
主要是:
- OpenAI image generation 默认 provider 调整
- doctor 插件路径修复
- 若干权限与渠道小修
到了 v2026.4.22,开始出现“使用层面能明显感知”的组合更新
比如:
- xAI 媒体能力补齐
- 腾讯 provider 进入官方集成路径
/models add减少重启折腾- onboarding 自动补插件
- diagnostics export 更完整
- 本地 TUI embedded mode 更轻量
所以这版的价值不只是“又发了新版本”,而是它确实更像一个阶段性节点:
OpenClaw 正在从‘能力很多但需要你自己拼’往‘能力越来越能直接上手’过渡。
这就是这篇文章真正想表达的核心。
九、普通用户现在最该试哪 3 件事?
如果你已经装了 OpenClaw,但没空把整份 changelog 都读完,我建议你先关注下面三件事。
第一件:看你后面要不要试 xAI 语音/图像路线
如果你本来就在关注:
- 语音交互
- 实时转写
- 图像生成
- 更完整的多模态助手
那这版的 xAI 补强值得你重点看。
第二件:国内用户可以开始留意腾讯 / Hy3 这条线
哪怕你现在还不用,也建议记住:
- 腾讯 provider 已经不是纯野路子
- 官方开始带 onboarding 和文档
- 这条线后面大概率还会继续补
对于想找更稳国内路线的人,这很可能是后续值得持续观察的一条支线。
第三件:有空就试试 /models add
这是最不花时间、但最容易立刻感受到差别的功能。
如果你平时会试不同模型,或者你正准备重新整理自己的 provider/model 配置,先把这个功能用起来,体验会比以前顺很多。
十、这版适不适合专门升级?我的判断
如果你问我:OpenClaw 2026.4.22 值不值得专门关注?
我的答案是:值得,而且是最近一周里最值得单独写的一版。
原因不是因为它 headline 最夸张,而是因为它同时打中了几件真正影响使用的问题:
- 多模态能力更完整
- 国产 provider 路线更明确
- 模型接入更轻
- 首装流程更顺
- 排错支持更强
- 终端入口更灵活
如果你是以下几类人,我觉得尤其值得看:
- 前阵子装了 OpenClaw,但后来吃灰了
- 一直嫌模型接入和 provider 配置太折腾
- 想找更适合国内环境的线路
- 想观察 OpenClaw 现在是不是开始进入“更能长期用”的阶段
我的最终判断
这版最该记住的不是某个单点功能,而是一个趋势:
OpenClaw 正在把“高上限”往“低摩擦”上收。
对于一个想真正走向日常使用的 AI 助手项目来说,这比单纯多几个新模型、更花哨几个新工具都更重要。
如果你之前已经装过,但有点吃灰,这版确实值得重新打开看看。
延伸阅读
如果你最近也在持续关注 OpenClaw,可以顺手看看我前面几篇:
- OpenClaw Active Memory 是什么?怎么开?值不值得用?官方文档拆给你看(2026)
- OpenClaw v2026.4.12 更新了什么?Active Memory、插件加载、Feishu 增强,一篇看懂
- 国内用户到底该怎么接入 OpenClaw?飞书、微信、QQ、钉钉 4 条路线一次讲透
- OpenClaw gateway 命令与排错指南(2026):status、restart、probe 怎么用
Member discussion