context-degradation
识别上下文失效的模式:中间迷失、毒化、分散注意力和冲突。
作者
分类
AI 技能开发安装
热度:7
下载并解压到你的 skills 目录
复制命令,发送给 OpenClaw 自动安装:
下载并安装这个技能 https://openskills.cc/api/download?slug=sickn33-skills-context-degradation&locale=zh&source=copy
Context Degradation - AI 上下文退化模式识别技能
技能概述
Context Degradation 帮助开发者识别和诊断大语言模型在长上下文场景下的性能退化模式,包括迷失中间效应、上下文中毒、干扰和冲突等现象,为设计抗退化的 AI 系统提供指导。
适用场景
1. AI Agent 长对话性能诊断
当智能体在多轮对话中表现逐渐下降、输出质量不稳定或开始遗忘之前的指令时,使用此技能分析是否存在上下文退化。特别适用于生产环境中需要追踪对话历史、执行复杂任务序列的 AI 助手调试。
2. 生产系统上下文架构设计
在设计企业级 AI 应用时,评估不同上下文管理策略的有效性。帮助架构师决定是采用长上下文直接输入、检索增强、子代理隔离还是混合方案,以平衡性能、成本和可靠性。
3. 上下文工程优化研究
适用于 AI 研究者和工程师深入研究上下文窗口的利用效率,测试不同模型的退化阈值,验证 compaction、masking、partitioning 等 mitigation 技术的实际效果。
核心功能
1. 退化模式识别与诊断
识别五种主要的上下文退化模式:Lost-in-Middle(中间信息被忽略)、Context Poisoning(错误信息通过重复引用强化)、Context Distraction(无关信息分散注意力)、Context Confusion(任务类型切换导致的混淆)和 Context Clash(相互矛盾的信息冲突)。提供症状清单帮助定位具体问题。
2. 模型退化阈值参考
提供主流大模型的实际退化基准数据,包括 GPT-5.2、Claude Opus 4.5、Claude Sonnet 4.5、Gemini 3 Pro/Flash 等模型的退化起始点(约 64K-500K tokens)和严重退化点。这些数据基于 RULER 等权威基准测试,帮助选择合适的模型和上下文策略。
3. 架构缓解策略指导
提供四种核心缓解策略:Write(将上下文保存到窗口外)、Select(检索相关上下文)、Compress(摘要和抽象压缩)、Isolate(跨子代理分割上下文)。每种策略配有具体的架构模式和实践示例。
常见问题
什么是 AI 的"lost in middle"现象?
Lost-in-Middle 是指大语言模型对上下文开头和结尾的信息关注度高,而对中间部分信息的召回准确率显著降低的现象。研究表明,中间信息的召回准确率可能比首尾信息低 10-40%。这是由于注意力机制的分配特性导致的——模型会向 BOS token 分配大量注意力作为"注意力汇",随着上下文增长,中间 token 获得的注意力权重不足。
如何检测 AI agent 是否发生上下文退化?
观察以下症状:之前能正确完成的任务开始失败或质量下降;调用的工具或参数不符合任务需求;输出中出现持续存在的幻觉,即使纠正后仍重复;模型似乎忽略了明确给出的指令。如果这些症状与上下文长度增长(如从 8K 增加到 60K+ tokens)相关联,很可能发生了上下文退化。
哪些大模型在长上下文下表现最好?
根据 2025 年的基准数据:Gemini 3 Pro 具有最高的退化阈值(约 500K 开始退化),拥有 1M 上下文窗口;Claude Opus 4.5 在 100K 左右开始退化,但具有最低的幻觉率和保守的拒绝策略;GPT-5.2 在 64K 左右开始退化,但其 thinking 模式能通过逐步验证减少幻觉。选择时应考虑任务类型——高准确性要求优先 Claude,超长上下文需求优先 Gemini,推理密集型任务优先 GPT-5.2 thinking 模式。