conversation-memory

用于LLM对话的持久记忆系统,包括短期记忆、长期记忆及实体记忆。适用于:对话记忆、记忆保持、长期记忆、聊天历史记录。

作者

安装

热度:8

下载并解压到你的 skills 目录

复制命令,发送给 OpenClaw 自动安装:

下载并安装这个技能 https://openskills.cc/api/download?slug=sickn33-skills-conversation-memory&locale=zh&source=copy

Conversation Memory - LLM 对话记忆系统

技能概述


Conversation Memory 为 LLM 应用提供持久化记忆能力,让 AI 助手能够记住用户、保存对话历史,并在需要时智能检索相关内容。

适用场景

1. 需要"记住"用户的 AI 助手


当你希望你的 AI 应用能够在多次对话中记住用户偏好、历史交互和个人信息时,这个技能提供了分层记忆系统(短期、长期、实体记忆),让 AI 像真人一样建立持续的用户关系。

2. 长时间对话保持上下文连贯


对于需要跨越多天甚至多月的长期对话场景,Conversation Memory 通过记忆整合和智能检索机制,确保 AI 能够调用历史信息,避免重复询问或上下文丢失的问题。

3. 多用户环境下的记忆隔离


在客服、企业知识库等多人共用场景中,该技能内置严格的用户隔离机制,确保每个用户的记忆安全独立,不会出现数据泄露或混淆。

核心功能

分层记忆架构


提供短期记忆、长期记忆和实体记忆三种类型,分别应对即时上下文、持久化信息和结构化知识提取。短期记忆处理当前会话,长期记忆存储跨会话信息,实体记忆自动提取和更新人物、地点、事件等关键实体信息。

智能记忆检索


不是简单地将所有历史记录塞入提示词,而是根据当前对话内容智能筛选最相关的记忆片段。这既保证了上下文相关性,又避免了记忆过多导致的响应变慢和成本上升。

记忆生命周期管理


内置记忆清理、合并和优先级管理机制,防止记忆存储无限增长。系统会自动识别过时或低价值记忆并进行整理,确保长期运行下的性能稳定。

常见问题

Conversation Memory 和 RAG 有什么区别?


RAG(检索增强生成)主要用于从外部文档库中检索知识,适合处理静态文档和知识库;而 Conversation Memory 专注于对话过程中的动态信息存储和检索,关注用户交互历史和上下文延续。两者可以配合使用:RAG 提供知识,Memory 提供个性化上下文。

记忆系统会让我的应用变慢吗?


不会。Conversation Memory 采用按需检索策略,只会将与当前查询相关的记忆片段加载到上下文中,而不是全部历史。配合记忆生命周期管理,长期使用也能保持稳定性能。

如何确保多用户的记忆安全?


该技能支持严格的用户隔离机制,每个用户的记忆独立存储,通过用户 ID 进行访问控制。在实现时需要确保正确传递用户标识符,避免跨用户访问。

这个技能有什么使用限制吗?


Conversation Memory 主要管理对话记忆,不适合存储大量非对话型数据(如文档、图片)。对于需要存储和检索外部文档的场景,建议配合 RAG 类技能使用。另外,记忆检索的质量取决于当前查询与历史记忆的相关性匹配算法。

相关技能


配合 context-window-management 优化提示词长度,rag-implementation 处理外部知识库,prompt-caching 降低重复上下文的调用成本。