Seventy3:借助NotebookLM的能力进行论文解读,专注人工智能、大模型、机器人算法、crypto方向,让大家跟着AI一起进步。
如果你有自己的论文要解读,或者推荐论文,请留言。
今天的主题是:
Agentic Memory: Learning Unified Long-Term and Short-Term Memory Management for Large Language Model Agents
Summary
由于上下文窗口长度有限,大语言模型(LLM)智能体在长时程推理(long-horizon reasoning)任务中面临根本性约束,因此高效的记忆管理机制至关重要。现有方法通常将长期记忆(LTM)与短期记忆(STM)作为相互独立的模块进行处理,并依赖启发式规则或外部控制器进行调度,这种分离式架构限制了系统的自适应能力与端到端优化潜力。
本文提出了 Agentic Memory(AgeMem),一种将长期记忆与短期记忆管理统一纳入智能体策略内部的框架。AgeMem 将记忆操作抽象为基于工具的行动(tool-based actions),使 LLM 智能体能够自主决策何时以及如何存储、检索、更新、总结或丢弃信息,从而实现对记忆资源的策略化管理。
为训练这种统一的记忆决策行为,我们提出了一种三阶段渐进式强化学习策略,并设计了逐步式 GRPO(step-wise GRPO)算法,以缓解由记忆操作引发的稀疏且不连续奖励信号问题。该方法通过细粒度策略优化,增强了记忆相关行为的可学习性与稳定性。
在五个长时程基准任务上的实验结果表明,AgeMem 在多种 LLM 主干模型(backbone)上均显著优于强基线的记忆增强方法,不仅在任务完成度方面取得提升,还实现了更高质量的长期记忆构建与更高效的上下文利用效率。
原文链接:arxiv.org

