Agent 记忆:国内外研究现状摘录

本文由《开题报告第九版》第 2 章「国内外研究现状」中与 Agent 记忆 直接相关的论述摘录整理而成。学术引用与编号以原稿为准。

一、认知架构中的记忆:CoALA 与通用 Agent 范式

随着大语言模型(LLM)能力的跃升,智能体(Agent)技术已经从单一的基础能力验证阶段,迈向了基于统一认知架构的模块化发展阶段。在这一进程中,学术界正致力于将人类的认知规律复刻到机器系统中。

Sumers 等人(2024)提出的语言智能体认知架构(CoALA, Cognitive Architectures for Language Agents)为现代 Agent 的设计确立了标准范式,其核心是将大语言模型(LLM)从单纯的文本生成器升级为具备结构化控制流的认知中枢。

CoALA 将语言智能体定位为以 LLM 为核心的认知架构,该架构包含记忆模块、结构化动作空间、通用决策流程三大核心维度:

多层级记忆模块(Memory Modules)
整个系统的记忆被明确划分为即时交互状态的「工作记忆(Working Memory)」,以及被持久化存储的「长期记忆(Long-term Memory)」。其中,长期记忆被进一步细分为情景记忆(Agent 过往的经验与经历)、语义记忆(事实与世界知识)和程序性记忆(决定行为的底层规则与模型权重)。

内外解耦的动作空间(Action Space)
在 CoALA 框架下,Agent 不仅具备与外部环境交互的「外部动作」,更被赋予了针对内部记忆操作的「内部动作」。这包括:从长期记忆中读取信息的检索(Retrieval)、利用 LLM 加工工作记忆的推理(Reasoning),以及将新经验沉淀至长期记忆的学习(Learning)

闭环式决策程序(Decision Procedure)
在时间序列上,Agent 依托「观察(Observation)→ 规划(Planning:包含候选动作的提出与评估)→ 选择与执行(Selection & Execution)」的持续反馈循环,实现各个记忆模块与动作模块的动态协同,不断收集所需要的信息并存储起来,然后根据当前的信息规划当前应该采取的行动,从而得到最合理的执行策略。

CoALA 框架在理论上证明了将认知心理学中的「情景记忆」「工作记忆」等机制引入 Agent 架构是实现拟人化智能的必经之路。基于 CoALA 框架,长效记忆学习能力的核心发展方向体现在两方面:

  • 长效记忆:突破传统检索增强仅「读取」人类编写语料的限制,实现智能体对长时记忆的自如且高效的增删查改,同时融合检索与推理过程,让记忆召回与决策规划深度结合,提升规划的正确性与可执行性。
  • 学习能力:将学习从传统的上下文学习、LLM 参数微调,拓展至智能体代码的自主更新(如学习更好的检索、推理流程),同时研究元学习、遗忘机制、多学习方式的交互效应,解决代码更新的风险性和 LLM 微调的高成本问题,让智能体实现高效的终身自主学习。

在长周期的情感陪伴场景落地时,这两点也是当前主流 Agent 架构依然面临的两大核心瓶颈。情感陪伴场景同时也有自己的特点:

  1. 现有系统中的「情景记忆(Episodic Memory)」大多以扁平化的文本日志形式存在,或者以向量的形式存储在数据库中,缺乏高度结构化且清晰的拓扑关联以及长周期下的动态演化机制
  2. 现有 Agent 在「Profile/情感」模块中处理多模态情绪感知时,高度依赖特定的大型基础模型,缺乏轻量化、可插拔的多模态特征融合能力以及根据已有对话提升自身对用户情绪认知的能力。这直接导致了现有 AI 伴侣在长期交互中容易出现「人设崩塌」和「情绪共鸣缺失」的问题。

二、Agent 记忆管理技术与认知仿生研究

记忆管理是赋予 AI 伴侣长期陪伴能力的核心基石。根据 Luo 等人(2026)关于 LLM Agent 记忆机制演进的最新研究,Agent 记忆正经历从早期的「被动存储(Storage)」向「反思(Reflection)」与「经验抽象(Experience)」的跨越。当前的记忆技术主要呈现以下技术流派与痛点。

2.1 传统纯语义检索(RAG)的结构性缺陷

主流的记忆管理多依赖于将历史对话切片并转化为向量,存储于向量数据库中进行线性检索。这种基于传统 RAG 的机制在处理长周期陪伴时存在严重缺陷:时间推理能力不足(难以处理知识的时效性与过期记忆的冲突),且因果结构信息缺失(忽略了实体关系与多跳逻辑)。当交互轮次达到数百轮时,无限制的记忆膨胀还会导致「灾难性遗忘」,错误信息在系统中传播,严重污染学习效果。

2.2 结构化图记忆的兴起

为了克服离散的记忆检索与召回问题,研究者开始转向结构化记忆(Structured Storage),利用知识图谱或语义图来对历史交互中的实体和关系进行拓扑建模。例如,Mem0 等图记忆架构通过提取名词作为节点、动词作为边,大幅提升了复杂上下文中的关联检索能力。它提出的自适应记忆模型实现了智能体记忆的动态性,通过语境–事件双向量构建记忆单元,基于语境相似度匹配实现记忆的精准更新,让智能体可实时更新环境知识。然而,现有的图记忆多停留在静态的语义拓扑层面,缺乏符合人类遗忘与巩固规律的动态演化机制。

人类记忆并非静态的离散文本数据库,而是包含记忆巩固、激活与遗忘的动态生命周期。最新前沿研究已开始将认知心理学机制引入 Agent 架构的底层记忆管理中,推动记忆系统从「被动存储」向「主动认知」跨越。

2.3 动态环境对记忆机制的挑战(提要)

在真实世界中,LLM 智能体的记忆机制不能再是简单的「存–取」模式,而需要:主动管理知识的时效性,避免使用过时信息;理解并建模环境的因果结构,从而在长时间跨度的交互中做出正确决策。这既涉及知识随时间「过期」的问题,也涉及行动与反馈之间存在时间延迟的因果链问题。

2.4 动态情感记忆:DAM-LLM、遗忘与贝叶斯闭环

Lu 等人(2025)提出的 DAM-LLM(Dynamic Affective Memory) 模型打破了传统架构,构建了一个由**主控智能体(Master Agent)提取智能体(Extraction Agent)**协同的闭环认知架构。该架构创新性地将记忆视为一种动态的「置信度分布」,而非不可变的绝对事实。

基于时间衰减的遗忘机制
Lewis 等人的研究证明,遗忘对于 Agent 的记忆是非常重要的。Zhong 等人(2023)提出的 MemoryBank 模型率先引入了艾宾浩斯遗忘曲线(Ebbinghaus Forgetting Curve)。该系统在记忆检索与管理架构中,为长期记忆片段赋予了随时间呈指数衰减的权重参数。这一设计模拟了人脑对历史信息的自然遗忘规律,使 Agent 在处理超长上下文时能够自动淘汰陈旧且低频的信息,优先提取近期或被反复强化的记忆。

基于贝叶斯概率与信念熵的闭环架构
在每次交互时,提取智能体负责将用户的自然语言输入转化为结构化的「情感证据」(包含极性与强度)。随后,主控智能体利用贝叶斯更新机制,将新证据与记忆库中的历史先验信念相融合,动态计算并更新对某一实体的「情感倾向置信度(后验概率)」。这种架构模拟了人类「随着证据积累逐渐形成稳定认知」的学习过程,避免了因单次随意表达而导致的记忆突变。

该架构还引入了认知科学中的「信念熵」来量化和评估记忆的混乱度或不确定性。主控智能体以「最小化全局记忆熵」为核心目标运行:当它巡检发现某些记忆单元的信念熵极高(即情感证据充满矛盾、无法收敛)且权重极低时,会将其判定为无价值的「噪音」并主动执行删除或融合操作。实验表明,这种信息熵驱动的压缩算法在 500 轮长对话中成功将系统的总记忆量压缩了近 70%(仅保留约 130 个核心记忆单元),在有效缓解记忆膨胀的同时提升了情感共鸣。

工程化要点(路由与两阶段检索)
DAM-LLM 一类架构中,路由智能体负责判断是直接生成响应、从长时记忆检索,还是写入新信息;长时记忆常采用「目录检索(元数据过滤)→ 内容检索(语义重排序)」等两阶段检索,再结合贝叶斯学习更新后验信念,使记忆随交互逐步演化。

三、小结:从「存储」走向「带遗忘与因果的结构化经验」

综合上述研究现状:在对 Agent 的记忆管理方面,学界与工业界已积累从 RAG 向量记忆图结构记忆(如 Mem0),到引入遗忘曲线贝叶斯置信度熵驱动压缩等认知仿生机制的路径;同时,CoALA 等工作从架构层面统一了工作记忆、情景/语义/程序性记忆与内部动作(检索、推理、学习)的接口。面向长周期、拟人化陪伴,结构化拓扑、时效与因果、以及符合人类规律的遗忘与巩固仍是亟待深化的方向。

参考文献(节选)

  • Sumers T R, Yao S, Narasimhan K, et al. Cognitive Architectures for Language Agents[J]. Transactions on Machine Learning Research, 2024.
  • Chhikara P, Khant D, Aryan S, et al. Mem0: Building Production-Ready AI Agents with Scalable Long-Term Memory[EB/OL]. arXiv, 2025.
  • Lu J, Li Y. Dynamic Affective Memory Management for Personalized LLM Agents[EB/OL]. arXiv, 2025.
  • Luo J, Tian Y, Cao C, et al. From Storage to Experience: A Survey on the Evolution of LLM Agent Memory Mechanisms[EB/OL]. Preprints.org, 2026.
  • Zhang Z, Bo X, Ma C, et al. A Survey on the Memory Mechanism of Large Language Model based Agents[EB/OL]. arXiv, 2024.
  • Packer C, Fang V, Patil S G, et al. MemGPT: Towards LLMs as Operating Systems[EB/OL]. arXiv, 2023.
  • Boscaglia M, Gastaldi C, Gerstner W, et al. A Dynamic Attractor Network Model of Memory Formation, Reinforcement and Forgetting[J]. PLOS Computational Biology, 2023.
  • Lewis S J. Forgetting May Be a Crucial Step to Remembering Later[EB/OL]. Northwestern Now, 2024.

(完整参考文献列表见原开题报告「参考文献」章节。)