context-fundamentals

理解上下文的概念、其重要性以及在智能体系统中的结构分析

作者

安装

热度:7

下载并解压到你的 skills 目录

复制命令,发送给 OpenClaw 自动安装:

下载并安装这个技能 https://openskills.cc/api/download?slug=sickn33-skills-context-fundamentals&locale=zh&source=copy

Context Fundamentals - 上下文工程基础指南

技能概述


Context Fundamentals 提供智能体上下文工程的完整基础知识,帮助开发者理解 LLM 推理时的上下文构成、注意力机制原理,以及如何通过渐进式披露和 Token 预算管理来优化智能体系统性能。

适用场景

1. 设计和构建智能体系统


在创建新的 AI Agent 或修改现有架构时,理解上下文的各个组件(系统提示、工具定义、检索文档、消息历史、工具输出)如何协同工作,是设计高效智能体的基础。掌握上下文工程原则可以帮助你做出更合理的架构决策。

2. 调试 Agent 异常行为


当智能体出现意外行为时,问题往往源于上下文管理不当。可能是系统提示过于模糊、工具描述不够清晰,或者是消息历史过长导致注意力分散。本技能提供系统化的调试思路,帮助你快速定位问题根源。

3. 优化 Token 使用和成本控制


工具输出可能占据上下文 Token 总量的 80% 以上。通过学习上下文预算管理、渐进式披露和混合加载策略,可以显著降低 Token 消耗和 API 调用成本,同时保持或提升智能体性能。

核心功能

上下文构成解析


深入理解上下文的五大核心组件:系统提示确立 Agent 身份和行为约束,工具定义指定可用操作,检索文档提供领域知识,消息历史维护对话状态,工具输出返回执行结果。每个组件都有其独特的特征和管理策略。

注意力机制理解


LLM 通过注意力机制处理上下文,但存在"注意力预算"限制。随着上下文长度增加,模型的捕获能力会被稀释。理解位置编码、上下文扩展的影响,以及上下文中段和两端的注意力分布差异,是有效管理上下文的关键。

优化策略实践


掌握渐进式披露原则——仅在需要时加载信息;学习混合加载策略——平衡速度与灵活性;应用上下文预算管理——在 70-80% 利用率时触发压缩;理解"信息性优于全面性"原则,用最小的高信号 Token 集合实现最佳结果。

常见问题

什么是上下文?为什么说它是有限资源?


上下文是 LLM 在推理时可用的完整状态,包括系统指令、工具定义、文档、对话历史和工具输出等。由于注意力机制的计算复杂度是 O(n²),上下文越长,模型的处理能力越分散。就像人类的工作记忆有限一样,LLM 也有一个"注意力预算",每个新增的 Token 都会消耗这个预算。

系统提示应该写多详细?太简略或太详细有什么问题?


系统提示需要找到"最佳高度":太具体会引入脆弱逻辑,增加维护负担;太模糊则无法给出明确的行为信号。建议使用清晰的结构(如 XML 标签或 Markdown 标题)组织提示,包含背景信息、指令、工具指导和输出描述等独立部分。既要足够具体以有效引导行为,又要保持足够的灵活性。

什么是渐进式披露?如何应用?


渐进式披露是指只在需要时才加载信息的策略。例如:启动时只加载技能名称和描述,知道何时可能使用某个技能;只有在技能被激活时才加载完整内容。这使 Agent 保持快速响应,同时在需要时可以访问更多上下文。应用方式包括:技能层面的按需加载、文档的动态检索、甚至工具结果的选择性返回。

本技能适合谁学习?


本技能适合所有从事 AI Agent 开发、LLM 应用构建的技术人员。无论是正在设计新系统的架构师、需要调试问题的工程师、希望优化成本的开发者,还是刚入门上下文工程概念的新人,都能从中获益。它是其他高级技能(如 context-degradation、context-optimization、multi-agent-patterns)的前置基础。