ai-engineer

构建生产就绪的LLM应用、高级RAG系统和智能代理。实现向量搜索、多模态AI、智能体编排与企业AI集成。主动应用于LLM功能开发、聊天机器人、AI代理或AI驱动型应用程序。

作者

安装

热度:43

下载并解压到你的 skills 目录

复制命令,发送给 OpenClaw 自动安装:

下载并安装这个技能 https://openskills.cc/api/download?slug=sickn33-skills-ai-engineer&locale=zh&source=copy

AI 工程师技能

技能概述


构建生产级大语言模型应用、高级 RAG 系统和智能 AI 代理的专家级技能,涵盖向量搜索、多模态 AI 和企业 AI 集成。

适用场景

  • 企业知识库与智能问答

  • 构建基于企业文档的 RAG 系统,实现精准的语义检索和智能问答,支持多种文档格式和混合搜索策略。

  • AI 智能体与自动化工作流

  • 设计多智能体协作系统,实现复杂的任务编排和工具调用,适用于客服机器人、研究助手和业务自动化场景。

  • LLM 应用生产化部署

  • 将大语言模型集成到生产环境,包括成本优化、性能调优、安全监控和灰度发布,确保系统稳定可靠。

    核心功能

  • 高级 RAG 系统架构

  • 支持多阶段检索管道、混合向量搜索、查询优化和上下文压缩。集成主流向量数据库(Pinecone、Qdrant、Weaviate),实现高准确率的知识检索。

  • AI 智能体框架开发

  • 基于 LangChain、LangGraph、LlamaIndex 和 CrewAI 构建复杂的智能体系统,支持多模态工具调用、记忆管理和状态编排。

  • 生产级 AI 系统运维

  • 提供完整的监控、缓存、降级和成本控制方案,支持流式推理、A/B 测试和模型路由,确保大规模部署的稳定性。

    常见问题

    AI 工程师技能适合什么场景使用?


    适合所有需要集成大语言模型的场景,包括企业知识库问答、智能客服、内容生成、代码助手、数据分析等。尤其擅长需要高准确率检索和复杂推理的生产级应用。

    如何构建生产级的 RAG 系统?


    核心组件包括:文档处理与 chunking 策略、向量数据库选型、嵌入模型选择、混合检索(向量+关键词)、重排序优化,以及查询理解和上下文压缩。该技能提供从架构设计到性能调优的完整方案。

    LLM 应用如何控制成本?


    通过模型选择策略(GPT-4o/Claude/开源模型组合)、语义缓存、提示优化、批处理和监控告警来降低成本。该技能内置成本优化最佳实践,支持根据场景自动选择最经济的模型。

    向量数据库应该选择哪个?


    根据规模和需求选择:Pinecone 适合快速上线,Qdrant 适合自部署,Weaviate 提供丰富的过滤功能,pgvector 适合已有 PostgreSQL 的场景。该技能支持所有主流向量数据库,可提供选型建议。

    多智能体系统如何设计?


    采用角色分工、协作编排和记忆共享模式。支持单一智能体完成简单任务,多智能体协作处理复杂工作流。基于 LangGraph 和 CrewAI 实现状态管理和任务分发。

    AI 应用如何保证安全性?


    内置多层安全防护:内容审核、提示注入检测、PII 识别脱敏、访问控制和审计日志。支持合规性检查和红队测试,确保企业级安全要求。

    RAG 系统如何提升检索准确率?


    采用混合检索(向量+BM25)、查询扩展和分解、重排序模型、上下文压缩和负反馈优化。该技能支持 GraphRAG、HyDE 等高级模式,显著提升检索质量。

    企业部署 LLM 应用的最佳实践是什么?


    采用渐进式部署:POC 验证、小规模试点、灰度发布和全量上线。重点关注可观测性、降级策略、成本监控和模型版本管理。该技能提供完整的生产部署框架。