GoClaw v2.66.0 发布,BytePlus ModelArk 与知识图谱渲染升级
GoClaw v2.66.0 版本带来 BytePlus ModelArk 提供商集成、知识图谱 Canvas 渲染器重构以及 Ollama 本地模型发现增强,进一步巩固其作为 OpenClaw 高性能 Go 语言实现的产品定位。
BytePlus ModelArk 与媒体生成能力
v2.66.0 版本最重要的新增功能是 BytePlus ModelArk 提供商集成。ModelArk 是字节跳动旗下的企业级 AI 模型服务平台,支持 Seedream 和 Seedance 两款媒体生成模型。开发者可以通过 GoClaw 直接调用这些模型进行图像和视频内容创作,无需单独接入字节跳动的 API。
这一集成对国内用户尤其友好——BytePlus 在国内部署了完善的节点,网络延迟和稳定性都有保障。配合 GoClaw 已有的 OpenAI、Anthropic、DeepSeek 等 20 多家 LLM 提供商支持,ModelArk 的加入进一步丰富了用户在媒体生成场景的选择。
知识图谱渲染架构升级
知识图谱模块在本次更新中完成了渲染架构的重构。开发团队用 react-force-graph-2d Canvas 渲染器替换了原有的 ReactFlow SVG 方案,图谱节点上限从原来的几十个提升到 200 个节点。Canvas 渲染在处理大规模图谱时性能优势明显,节点拖拽、缩放、筛选等交互更加流畅。
配合渲染升级,知识图谱还新增了节点数量选择器、取消了自动缩放行为、将图谱视图设置为默认展示方式。双击节点交互、筛选器重载、统计布局等细节也得到了修复。对于依赖知识图谱进行复杂信息管理的用户,这次更新能明显改善使用体验。
Ollama 本地模型发现增强
Ollama 作为最流行的本地模型运行时,在 GoClaw 中的支持也得到了加强。新版本通过 /api/tags 端点实现了富模型列表功能,用户无需手动配置模型名称,系统会自动发现本地已下载的 Ollama 模型。
同时,针对 Ollama “思考模型”(thinking models)的推理输出,开发团队添加了 reasoning 字段别名,确保这类模型的推理过程能被正确解析和展示。Ollama API 地址也会自动标准化,补全 /v1 后缀,减少配置出错的可能。
安全与稳定性改进
安全方面,v2.66.0 加固了沙箱执行、身份认证和 Shell 命令拦截策略。MCP stdio 传输初始化现在支持指数退避重试,避免因临时网络抖动导致的连接失败。Gateway 会话层新增了所有权校验,chat.send 等 WebSocket 方法会验证请求者的会话归属,防止跨会话操作。
桌面版(Lite Edition)也获得了一系列修复,包括追踪日志预览优化、文件名处理防护、代码审查问题整改等。Docker 镜像增加了 Python 和 npm 依赖版本锁定,避免上游包变更导致的构建失败。
Web UI 重构与开发者体验
Web UI 在本版本进行了大规模代码重构,分为五个阶段完成。开发团队将原有的臃肿表单对话框拆分为独立的表单字段组件,引入 Zod 模式校验和 React Hook Form,用 Zustand 持久化中间件替代原有的状态管理方案。
这些改动对用户不可见,但显著提升了代码可维护性。新的组件架构为后续功能迭代打下基础,也降低了社区贡献者理解代码库的门槛。
多提供商兼容性优化
提供商兼容性方面,Together AI 请求现在正确处理推理、流式传输和视觉门控;Mistral 工具调用 ID 标准化处理;Fireworks 非流式请求的 max_tokens 参数会被自动限制在 4096 以内,避免超出 API 限制导致的错误。本地提供商类型(Ollama、Claude CLI)允许使用 localhost URL,方便开发调试。
GoClaw 作为 OpenClaw 生态中唯一采用 Go 语言实现的衍生品,其单二进制部署、低内存占用和多租户 PostgreSQL 架构的特点,在企业级部署场景中具有独特优势。v2.66.0 的发布进一步缩小了与原版 OpenClaw 在功能覆盖上的差距,同时在安全性、性能和可维护性方向上走出了自己的路线。