行业动态

OpenClaw 发布 2026.4.19-beta.2 版本:多项核心修复提升稳定性

· 约 4 分钟阅读

发布时间:2026年4月19日

来源:OpenClaw GitHub Releases

核心更新内容

1. 流式请求优化

Agents/openai-completions 迎来关键修复:现在始终在流式请求中发送 stream_options.include_usage 参数。这一改变使得本地和自定义 OpenAI 兼容后端能够报告真实的上下文使用率,而非显示为0%。此前,许多用户在使用流式输出时无法准确获取 token 消耗数据,新版本彻底解决了这一痛点。

2. 嵌套代理隔离

Agents/nested lanes 进行了重要的会话隔离改进:现在嵌套代理工作按目标会话进行作用域划分。这意味着在一个会话上运行的长周期嵌套任务不再阻塞其他无关会话的请求,解决了此前存在的”队头阻塞”问题。对于需要同时运行多个代理场景的用户,这一改进显著提升了并发处理能力。

3. 会话状态保持

Agents/status 增强了对提供商缺失使用率元数据的处理:当提供商未返回使用率信息时,系统现在会保留之前转发的会话 token 总计。这意味着 /status 命令和 OpenClaw 会话界面能够持续显示上一次的上下文使用情况,而非退回到”未知”或”0%”状态。

4. 安装与更新兼容

Install/update 模块进行了兼容性维护:保持传统更新验证与 QA Lab 运行时 shim 的兼容性,确保将旧版全局安装升级到测试版时,不再在 npm 成功安装包之后失败。这一修复解决了部分用户在版本升级过程中遇到的卡顿问题。

影响范围

这次更新对以下场景的用户尤为重要:

  1. 使用本地模型的用户:流式请求的使用率报告现在准确无误
  2. 运行多会话的用户:嵌套代理不再相互阻塞
  3. 依赖状态监控的用户:token 使用情况更加透明
  4. 频繁升级的用户:版本升级流程更加顺畅

结语

2026.4.19-beta.2 是一次重要的稳定性维护版本。虽然没有大规模的新功能引入,但底层修复为即将到来的正式版本奠定了坚实基础。OpenClaw 团队表示,将继续优化核心体验,为用户带来更可靠的 AI 助手服务。

分享到: QQ 微博