行业动态

OpenClaw小龙虾记忆系统升级从上下文窗口到持久化记忆图谱

· 约 6 分钟阅读

上下文窗口告急,AI 的记忆困境怎么破?

大语言模型的上下文窗口不是无限的,但这问题往往被选择性忽视——直到你真正上手用起来。那些声称”记住一切”的 AI 助手,其实只是把对话历史塞进 context,token 烧完就失忆了。OpenClaw 在这个问题上,走得比大多数人都远。它最新版本里的 Dreaming 子系统,正在把”上下文窗口”这套枷锁彻底拆掉。

OpenClaw GitHub 仓库在 4 月 9 日释出的 2026.4.7 版本(Release Tag: 2026.04.09),一口气合并了数十条改动。其中最核心的,是 Memory/dreamingControl UI/dreaming 两个模块的大规模重构。

从即时回忆到慢速沉淀:REM Backfill 机制

传统的 AI 记忆方案,本质上是往 prompt 里塞历史——能塞多少,取决于上下文窗口有多大。OpenClaw 这次引入了一套叫 REM Backfill Lane 的机制:每天的日记(daily notes)会经过一个专门的”回填管道”,把其中的关键事实提取出来,沉淀进长期记忆。

这个过程不是简单复制粘贴。系统会分析日记内容,识别可迁移的 durable facts(持久化事实),同时保留原始来源标签。这意味着当 AI 需要调用某段历史记忆时,它能追溯到这条记忆最初来自哪天的对话记录。

更关键的是,系统会把即时短时记忆的 promotion(提升)也纳入这个流程——刚发生的事,经过一段时间的”消化”,会自动成为可以被复用的持久记忆。用户不需要手动触发任何操作。

Control UI:日记有了可视化时间线

伴随记忆机制升级,OpenClaw 的控制面板也新增了一套结构化日记视图。核心功能包括:

  • Timeline Navigation:按时间轴浏览所有日记条目,不用翻聊天记录
  • Backfill/Reset Controls:手动控制回填流程,记忆出了问题可以回滚
  • Dreaming Summaries:对每段睡眠窗口的”梦境”生成摘要,告诉你 AI 在后台想了什么
  • Scene Lane with Promotion Hints:可视化展示哪些记忆即将被提升,哪些还在排队

还有一个安全操作:clear-grounded,专门用于清除分期回填信号,防止记忆系统在某些边界情况下出现状态不一致。

跳出 context 做记忆

这套系统的设计逻辑很清晰:把”记忆”这件事从 LLM 的推理过程里剥离出来,交给一个独立的后台进程处理。LLM 专注于当前任务,后台进程负责维护一个持续更新、可以随时查询的记忆图谱。

对用户来说,这意味着 AI 不再只活在”当前对话”里。你昨天跟它讨论过的项目方案、上周交代过的偏好习惯,切换到新会话时它依然掌握。不再需要每次都从头 prompt。

安全改进同样密集

除了记忆系统,这个版本还有大量安全相关修复。Browser 模块重新在交互驱动的主帧导航后执行了 SSRF 隔离检查;dotenv 文件加载策略收紧,运行控制类环境变量和浏览器覆盖变量不再从不可信的工作区 .env 中读取;远程节点执行事件(exec.started/finished/denied)现在被标记为不可信,系统会先做内容消毒再入队,防止通过节点输出注入伪造的系统指令。

此外 basic-ftp 升级到 5.2.1 以修复 CRLF 命令注入漏洞,Hono 及 @hono/node-server 也同步更新。

QA Lab:让 AI 行为可量化

对开发者而言,这个版本还有个实用更新:QA/lab 模块新增了 character-vibes evaluation reports 功能。支持选择不同模型并行运行,快速对比候选行为差异。在调试 AI 人格、测试 prompt 变体时,不用再靠主观感受,报告直接出数据。

分享到: QQ 微博