conversation-memory
用于LLM对话的持久记忆系统,包括短期记忆、长期记忆及实体记忆。适用于:对话记忆、记忆保持、长期记忆、聊天历史记录。
作者
分类
AI 技能开发安装
热度:8
下载并解压到你的 skills 目录
复制命令,发送给 OpenClaw 自动安装:
下载并安装这个技能 https://openskills.cc/api/download?slug=sickn33-skills-conversation-memory&locale=zh&source=copy
Conversation Memory - LLM 对话记忆系统
技能概述
Conversation Memory 为 LLM 应用提供持久化记忆能力,让 AI 助手能够记住用户、保存对话历史,并在需要时智能检索相关内容。
适用场景
1. 需要"记住"用户的 AI 助手
当你希望你的 AI 应用能够在多次对话中记住用户偏好、历史交互和个人信息时,这个技能提供了分层记忆系统(短期、长期、实体记忆),让 AI 像真人一样建立持续的用户关系。
2. 长时间对话保持上下文连贯
对于需要跨越多天甚至多月的长期对话场景,Conversation Memory 通过记忆整合和智能检索机制,确保 AI 能够调用历史信息,避免重复询问或上下文丢失的问题。
3. 多用户环境下的记忆隔离
在客服、企业知识库等多人共用场景中,该技能内置严格的用户隔离机制,确保每个用户的记忆安全独立,不会出现数据泄露或混淆。
核心功能
分层记忆架构
提供短期记忆、长期记忆和实体记忆三种类型,分别应对即时上下文、持久化信息和结构化知识提取。短期记忆处理当前会话,长期记忆存储跨会话信息,实体记忆自动提取和更新人物、地点、事件等关键实体信息。
智能记忆检索
不是简单地将所有历史记录塞入提示词,而是根据当前对话内容智能筛选最相关的记忆片段。这既保证了上下文相关性,又避免了记忆过多导致的响应变慢和成本上升。
记忆生命周期管理
内置记忆清理、合并和优先级管理机制,防止记忆存储无限增长。系统会自动识别过时或低价值记忆并进行整理,确保长期运行下的性能稳定。
常见问题
Conversation Memory 和 RAG 有什么区别?
RAG(检索增强生成)主要用于从外部文档库中检索知识,适合处理静态文档和知识库;而 Conversation Memory 专注于对话过程中的动态信息存储和检索,关注用户交互历史和上下文延续。两者可以配合使用:RAG 提供知识,Memory 提供个性化上下文。
记忆系统会让我的应用变慢吗?
不会。Conversation Memory 采用按需检索策略,只会将与当前查询相关的记忆片段加载到上下文中,而不是全部历史。配合记忆生命周期管理,长期使用也能保持稳定性能。
如何确保多用户的记忆安全?
该技能支持严格的用户隔离机制,每个用户的记忆独立存储,通过用户 ID 进行访问控制。在实现时需要确保正确传递用户标识符,避免跨用户访问。
这个技能有什么使用限制吗?
Conversation Memory 主要管理对话记忆,不适合存储大量非对话型数据(如文档、图片)。对于需要存储和检索外部文档的场景,建议配合 RAG 类技能使用。另外,记忆检索的质量取决于当前查询与历史记忆的相关性匹配算法。
相关技能
配合
context-window-management 优化提示词长度,rag-implementation 处理外部知识库,prompt-caching 降低重复上下文的调用成本。