转载:https://artisan.blog.csdn.net/article/details/156735615

概述🔖
在大模型从“能聊天”的通用工具,演进到“能负责结果”的专业自治系统的过程中,一个越来越清晰的共识是:光有一个强大的 LLM 远远不够,需要一整套围绕 Agent、Skills、MCP、RAG 构建的系统化架构。
这套架构既要能连接真实世界的系统与数据,又要能沉淀领域经验、可控地调度外部能力,并在长周期内稳定地产生“可交付结果”。
接下来我将从从架构与产品视角拆解一个三层智能体系统:感知 / 决策 / 执行三层之上,分别落位 Agent、Skills、MCP 与 RAG,并通过真实业务故事说明如何从“一个对话框”进化到“一个能胜任岗位的数字员工”。
从宏观视角看,一个可落地的智能体系统,至少要闭合三件事:看得懂输入、做得出决策、调用得动外部世界。

可以抽象为三层架构:
- 感知层:
- 以 Agent 为核心入口,接收自然语言任务,识别意图、理解上下文,并结合 RAG 检索长期知识。
负责“听懂用户的需求”,并将其转化为结构化目标与子任务。
- 以 Agent 为核心入口,接收自然语言任务,识别意图、理解上下文,并结合 RAG 检索长期知识。
- 决策层:
- 由 Skills 作为主要承载,把“怎么做这件事”以结构化的流程与规范固化下来。
解决“面对一个任务,正确且专业的做法是什么”。
- 由 Skills 作为主要承载,把“怎么做这件事”以结构化的流程与规范固化下来。
- 执行层:
- 由 MCP 连接数据库、业务系统、API、文件等外部资源,是智能体的“神经与四肢”。
决定“能不能真正对业务系统动手,而不是只给建议”。
- 由 MCP 连接数据库、业务系统、API、文件等外部资源,是智能体的“神经与四肢”。
在这个视角中,Agent 是调度与大脑,Skills 是行业经验,MCP 是执行肌肉,RAG 则是一整套持续更新的长期记忆系统。
架构上可以想象这样一幅图:
- 左侧:各种业务入口(聊天界面、IDE 插件、工单系统、Webhook)。
- 中间:一个 Agent Runtime,内部挂载多个 Skills 以及 RAG 子系统,负责任务拆解与工具/技能选择。
- 右侧下方:通过 MCP 挂接的 BI 系统、数据库、Git、合同系统、第三方 API 等。
- 右侧上方:企业知识库、日志库、FAQ 文档等,被 RAG 预处理并接入向量数据库。

MCP:AI 的“USB-C 接口”,统一连接外部世界🔖

如果把大模型视作 CPU,那么 MCP(Model Context Protocol)就像是 AI 世界里的“USB-C 标准接口”:解决的是“AI 如何稳定、标准化地接入各种外部能力”的问题。
协议架构:Host / Client / Server 三元模型
MCP 的基本拓扑可以理解为一个三段式链路:
- Host
- 面向用户的 AI 应用本身,可能是聊天工具、IDE 插件、工作台等。
- 负责:会话管理、模型调用、决定要不要使用 MCP 工具。
- Client
- Host 内部的连接器,负责与具体的 MCP Server 建立 1:1 通道。
- 处理协议细节:JSON-RPC 2.0 消息、重试、异常处理、鉴权等。
- Server
- 每个外部系统或工具的适配层,比如“BI 系统 Server”、“Git Server”、“合同库 Server”。
- 把私有 API 或本地能力抽象成 MCP 标准原语:Tools / Resources / Prompts。

这意味着,在产品与架构视角下可以获得两点关键收益:
- 对 Host 开发者:不关心具体外部系统的 API 差异,只需做一次 MCP 接入能力。
- 对工具/系统方:只要实现一个 MCP Server,就能被所有支持 MCP 的 Host 调用。
MCP 之后,我们还需要什么?🔖
MCP(Model Context Protocol)由 Anthropic 团队提出,其核心设计理念是标准化智能体与外部工具/资源的通信方式。想象一下,你的智能体需要访问文件系统、数据库、GitHub、Slack 等各种服务。传统做法是为每个服务编写专门的适配器,这不仅工作量大,而且难以维护。MCP 通过定义统一的协议规范,让所有服务都能以相同的方式被访问。
MCP 的设计哲学是”上下文共享”。它不仅仅是一个远程过程调用协议,更重要的是它允许智能体和工具之间共享丰富的上下文信息。让我们回顾一个典型的 MCP 使用场景:
from hello_agents import ReActAgent, HelloAgentsLLM
from hello_agents.tools import MCPTool
# 1. 初始化大语言模型实例
llm = HelloAgentsLLM()
# 2. 创建ReAct模式智能体,指定智能体名称
agent = ReActAgent(
name="数据分析助手",
llm=llm
)
# 3. 初始化MCP工具,启动数据库的MCP服务端程序
db_mcp = MCPTool(
server_command=["python", "database_mcp_server.py"]
)
# 4. 将MCP数据库工具挂载给智能体,完成能力赋予
agent.add_tool(db_mcp)
# 5. 运行智能体,执行自然语言指令的数据库查询任务
response = agent.run("查询员工表中薪资最高的前10名员工")
# 6. 打印智能体返回的最终结果
print(response)
这段代码工作得很好,智能体成功连接到了数据库。但当你尝试处理更复杂的任务时,会发现一些微妙的问题:
# 一个更复杂的需求 response = agent.run(""" 分析公司内部谁的话语权最高?
需要综合考虑:
1. 管理层级和下属数量
2. 薪资水平和涨薪幅度
3. 任职时长和稳定性
4. 跨部门影响力 """)
这个任务需要执行多次数据库查询,每次查询的结果会影响下一次查询的策略。更关键的是,它需要智能体具备领域知识:知道如何衡量”话语权”,知道应该从哪些维度分析数据,知道如何组合多个查询结果得出结论。
此时,你会遇到两个根本性的问题:
- 第一个问题是上下文爆炸。为了让智能体能够灵活查询数据库,MCP 服务器通常会暴露数十甚至上百个工具(不同的表、不同的查询方法)。这些工具的完整 JSON Schema 在连接建立时就会被加载到系统提示词中,可能占用数万个 token。据社区开发者反馈,仅加载一个 Playwright MCP 服务器就会占用 200k 上下文窗口的 8%,这在多轮对话中会迅速累积,导致成本飙升和推理能力下降。
- 第二个问题是能力鸿沟。MCP 解决了”能够连接”的问题,但没有解决”知道如何使用”的问题。拥有数据库连接能力,不等于智能体知道如何编写高效且安全的 SQL;能够访问文件系统,不意味着它理解特定项目的代码结构和开发规范。这就像给一个新手程序员开通了所有系统的访问权限,但没有提供操作手册和最佳实践。
这正是Agent Skills要解决的核心问题。2025年初,Anthropic 在推出 MCP 之后,进一步提出了 Agent Skills 的概念,引发了业界的广泛关注。有开发者评论说:”Skill 和 MCP 是两种东西,Skill 是领域知识,告诉模型该如何做,本质上是高级 Prompt;而 MCP 对接外部工具和数据。” 也有人认为:”从 Function Call 到 Tool Call 到 MCP 到 Skill,核心大差不差,就是工程实践和表现形式的优化演进。”
那么,Agent Skills 到底是什么?它与 MCP 有何本质区别?两者是竞争关系还是互补关系?本章将深入探讨这些问题。
什么是 Agent Skills?🔖
🔹核心设计理念
Agent Skills 是一种标准化的程序性知识封装格式。如果说 MCP 为智能体提供了”手”来操作工具,那么 Skills 就提供了”操作手册”或”SOP(标准作业程序)”,教导智能体如何正确使用这些工具。
这种设计理念源于一个简单但深刻的洞察:连接性(Connectivity)与能力(Capability)应该分离。MCP 专注于前者,Skills 专注于后者。这种职责分离带来了清晰的架构优势:
- MCP 的职责:提供标准化的访问接口,让智能体能够”够得着”外部世界的数据和工具
- Skills 的职责:提供领域专业知识,告诉智能体在特定场景下”如何组合使用这些工具”
用一个类比来理解:MCP 像是 USB 接口或驱动程序,它定义了设备如何连接;而 Skills 像是软件应用程序,它定义了如何使用这些连接的设备来完成具体任务。你可以拥有一个功能完善的打印机驱动(MCP),但如果没有告诉你如何在 Word 里设置页边距和双面打印(Skill),你仍然无法高效地完成打印任务。
🔹渐进式披露:破解上下文困境
Agent Skills 最核心的创新是渐进式披露(Progressive Disclosure)机制。这种机制将技能信息分为三个层次,智能体按需逐步加载,既确保必要时不遗漏细节,又避免一次性将过多内容塞入上下文窗口。
图 Agent Skills 渐进式披露三层架构

- 第一层:元数据(Metadata)
在 Skills 的设计中,每个技能都存放在一个独立的文件夹中,核心是一个名为SKILL.md的 Markdown 文件。这个文件必须以 YAML 格式的 Frontmatter 开头,定义技能的基本信息。
当智能体启动时,它会扫描所有已安装的技能文件夹,仅读取每个SKILL.md的 Frontmatter 部分,将这些元数据加载到系统提示词中。根据实测数据,每个技能的元数据仅消耗约100 个 token。即使你安装了 50 个技能,初始的上下文消耗也只有约 5,000 个 token。
这与 MCP 的工作方式形成了鲜明对比。在典型的 MCP 实现中,当客户端连接到一个服务器时,通常会通过tools/list请求获取所有可用工具的完整 JSON Schema,可能立即消耗数万个 token。
- 第二层:技能主体(Instructions)
当智能体通过分析用户请求,判断某个技能与当前任务高度相关时,它会进入第二层加载。此时,智能体会读取该技能的完整SKILL.md文件内容,将详细的指令、注意事项、示例等加载到上下文中。
此时,智能体获得了完成任务所需的全部上下文:数据库结构、查询模式、注意事项等。这部分内容的 token 消耗取决于指令的复杂度,通常在 1,000 到 5,000 个 token 之间。
- 第三层:附加资源(Scripts & References)
对于更复杂的技能,SKILL.md可以引用同一文件夹下的其他文件:脚本、配置文件、参考文档等。智能体仅在需要时才加载这些资源。
例如,一个 PDF 处理技能的文件结构可能是:
skills/pdf-processing/
├── SKILL.md # 主技能文件
├── parse_pdf.py # PDF 解析脚本
├── forms.md # 表单填写指南(仅在填表任务时加载)
└── templates/ # PDF 模板文件
├── invoice.pdf
└── report.pdf
在SKILL.md中,可以这样引用附加资源:
- 当需要执行 PDF 解析时,智能体会运行
parse_pdf.py脚本 - 当遇到表单填写任务时,才会加载
forms.md了解详细步骤 - 模板文件只在需要生成特定格式文档时访问
这种设计有两个关键优势:
- 无限的知识容量:通过脚本和外部文件,技能可以”携带”远超上下文限制的知识。例如,一个数据分析技能可以附带一个 1GB 的数据文件和一个查询脚本,智能体通过执行脚本来访问数据,而无需将整个数据集加载到上下文中。
- 确定性执行:复杂的计算、数据转换、格式解析等任务交给代码执行,避免了 LLM 生成过程中的不确定性和幻觉问题。
- 渐进式披露的效果:从 16k 到 500 Token
社区开发者分享的实践案例充分证明了渐进式披露的威力。在一个真实场景中:
- 传统 MCP 方式:直接连接一个包含大量工具定义的 MCP 服务器,初始加载消耗16,000 个 token
- Skills 包装后:创建一个简单的 Skill 作为”网关”,仅在 Frontmatter 中描述功能,初始消耗仅500 个 token
当智能体确定需要使用该技能时,才会加载详细指令并按需调用底层的 MCP 工具。这种架构不仅大幅降低了初始成本,还使得对话过程中的上下文管理更加精准和高效。
Agent Skills vs MCP:本质区别与协作关系🔖
现在,我们可以系统地比较这两种技术的本质区别了。

🔹1. 从工程视角理解差异
让我们通过一个具体的例子来理解这种差异。假设你要构建一个智能体来帮助团队进行代码审查:
MCP 的职责:
from hello_agents import ReActAgent, HelloAgentsLLM
from hello_agents.tools import MCPTool
# 初始化大语言模型实例
llm = HelloAgentsLLM()
# 创建智能体 - 定义为【GitHub仓库分析助手】
agent = ReActAgent(
name="GitHub仓库分析助手",
llm=llm
)
# MCP 提供对 GitHub 的标准化协议访问
# 启动官方GitHub专用的MCP服务端,标准化对接GitHub所有操作
github_mcp = MCPTool(
server_command=["npx", "-y", "@modelcontextprotocol/server-github"]
)
# 将GitHub的MCP工具挂载给智能体,赋予智能体操作GitHub仓库的完整能力
agent.add_tool(github_mcp)
# =============================================================================
# MCP 标准化暴露的 GitHub 操作工具函数(简化示例 | 智能体可直接调用)
# =============================================================================
# - list_pull_requests(repo, state) # 列出仓库的PR列表,可筛选状态(open/closed/merged)
# - get_pull_request_details(pr_number) # 获取指定PR的完整详情信息
# - list_pr_comments(pr_number) # 列出指定PR的所有评论内容
# - create_pr_comment(pr_number, body) # 给指定PR新增评论
# - get_file_content(repo, path, ref) # 获取仓库指定文件的内容
# - list_pr_files(pr_number) # 列出指定PR中变更的所有文件
MCP 让智能体”能够”访问 GitHub,能够调用这些 API。但它不知道”应该”做什么。
Skills 的职责:
---
name: code-review-workflow
description: 执行标准的代码审查流程,包括检查代码风格、安全问题、测试覆盖率等
---
# 代码审查工作流
## 审查清单
当执行代码审查时,按以下步骤进行:
1. **获取 PR 信息**:调用`get_pull_request_details`了解变更背景
2. **分析变更文件**:调用`list_pr_files`获取文件列表
3. **逐文件审查**:
- 对于 `.py` 文件:检查是否符合 PEP 8 规范,是否存在明显的性能问题
- 对于 `.js/.ts` 文件:检查是否有未处理的 Promise 异常,是否使用了废弃的 API
- 对于测试文件:验证单元测试是否覆盖了本次新增的所有代码路径
4. **安全检查**:
- 代码中是否硬编码敏感信息(密钥、密码、Token、数据库账号等)
- 是否存在 SQL 注入、XSS 跨站脚本、CSRF 等常见安全风险
5. **提供反馈**:
- 严重问题:直接调用`create_pr_comment`在PR内逐条评论反馈
- 建议改进项:汇总后在审查总结中统一提出
## 公司特定规范(强制遵循)
- 所有数据库查询语句,必须使用参数化查询,禁止字符串拼接
- 所有后端API接口端点,必须添加权限验证装饰器/拦截器
- 新增业务功能必须附带对应的单元测试,测试覆盖率要求 ≥ 80%
## 示例评论模板
### 严重问题
⚠️ 安全风险:第 45 行直接拼接 SQL 字符串,存在 SQL 注入风险。
建议改用参数化查询:
```python
cursor.execute("SELECT * FROM users WHERE id = ?", (user_id,))
Skills 告诉智能体”应该”做什么、如何组织审查流程、需要关注哪些公司特定的规范。它是领域知识和最佳实践的容器。
🔹2. 上下文管理策略的本质差异
MCP 急切加载 vs Skills 惰性加载对比

3. 互补而非竞争:Skills + MCP 的混合架构
理解了两者的差异后,我们会发现:Skills 和 MCP 不是竞争关系,而是互补关系。最佳实践是将两者结合,形成分层架构:
Skills + MCP 混合架构设计

典型工作流:
- 用户问:”分析公司内部谁的话语权最高”
- Skills 层识别这是一个数据分析任务,加载
mysql-employees-analysis技能 - Skills 层根据技能指令,将任务分解为子步骤:查询管理关系、薪资对比、任职时长等
- MCP 层执行具体的 SQL 查询,返回结果
- Skills 层根据技能中的领域知识,解读数据并生成综合分析
- 返回结构化的答案给用户
这种架构的优势是:
- 关注点分离:MCP 专注于”能力”,Skills 专注于”智慧”
- 成本优化:渐进式加载大幅降低 token 消耗
- 可维护性:业务逻辑(Skills)与基础设施(MCP)解耦
- 复用性:同一个 MCP 服务器可以被多个 Skills 使用
Skills:把“资深同事的经验”变成可复用能力包🔖
单靠一段长 Prompt,已经难以支撑复杂业务流程。Skills 的核心思想,是把经验、规范和脚本组织成一个结构化的“能力包”,让 Agent 能够可控地调用。

git-commit-helper/ # 技能文件夹(名称与skill name一致)
├── SKILL.md # 核心入口(必需)
│ ├── YAML元数据 # name/description/allowed-tools(<100 tokens)
│ │ name: git-commit-helper
│ │ description: 生成符合团队规范的Git提交信息
│ │ allowed-tools: Bash
│ └── Markdown指令 # 工作流/规范/异常处理(<5k tokens)
│ 1. 运行git diff --staged获取变更
│ 2. 首行≤50字(现在时),第二行空行
│ 3. 关联Jira编号(如PROJ-123)
├── scripts/ # 可执行脚本(可选,Python/shell)
│ └── extract-staged.py # 提取暂存区变更的脚本
├── references/ # 参考文档(可选,按需加载)
│ └── commit-spec.md # 团队提交规范细则
└── assets/ # 静态资源(可选,不加载到上下文)
└── commit-template.txt # 提交信息模板
典型 Skill 可以想象为一个小型仓库,至少包含三类内容:
- SKILL.md:
- 顶部是 YAML 元数据:名称、描述、允许调用的工具(allowed-tools)。
- 下方是 Markdown 格式的工作流与指令,如“步骤 1 做什么、遇到异常怎么办”。
- scripts/:
- 任务中用到的脚本,如提取 Git diff、处理表格、跑规则引擎。
- references/ 与 assets/:
- 参考规范文档、模板文件等,不必全部加载到上下文,需要时再按需检索。
这种结构的优势在于:经验与执行逻辑被“物化”为一个可版本化、可审计的实体,而不是散落在每个人的脑子里或者角落里的 Prompt 文档里。
🔹渐进式加载:不把模型“喂撑”
Skill 在运行时并不会一次性把所有内容塞给模型,而是采用“渐进式加载”:

- Level 1:元数据常驻
- Agent 通过这些信息做技能选择与触发。
- Level 2:核心指令按需加载
- 当某个 Skill 真正被选中执行时,才把其主要工作流内容送入上下文。
- Level 3:资源层按步骤拉取
- 某一步需要具体规范或脚本时,再基于路径或 URI 拉取对应文档或资源。
产品含义是:你可以让一个 Agent 掌握上百个技能,但在某次具体任务中,只让它“专心处理真正相关的那几个”,保证质量与成本的平衡。
🔹安全与边界:allowed-tools 的意义
对于企业与高风险场景,一个重要问题是:智能体到底能做什么,不能做什么?
Skills 的 allowed-tools 正是“能力边界”的声明,例如:
- 某个审计 Skill:
- allowed-tools: Read, Grep → 只能读文件与检索,不能写文件、更不能访问网络。
- 某个分析 Skill:
- allowed-tools: Python, SQLite → 可以跑计算与查本地库,但不能调用任意 HTTP。
这给产品与安全团队提供了一个“可控旋钮”,既能释放智能体能力,又能防止越权执行高危操作。
技术实现:如何创建和使用 Skills🔖
🔹1. SKILL.md 规范详解
让我们深入了解SKILL.md文件的标准结构:
--- # === 必需字段 === name: skill-name # 技能的唯一标识符,使用 kebab-case 命名 description: > 简洁但精确的描述,说明: 1.这个技能做什么 2.什么时候应该使用它 3.它的核心价值是什么 # 注意:description 是智能体选择技能的唯一依据,必须写清楚! # === 可选字段 === version: 1.0.0 # 语义化版本号 allowed_tools: [tool1, tool2] # 此技能可以调用的工具列表(白名单) required_context: [context_item1] # 此技能需要的上下文信息 license: MIT # 许可协议 author: Your Name<email@example.com> # 作者信息 tags: [database, analysis, sql] # 便于分类和搜索的标签 --- # 技能标题 ## 概述 (对技能的详细介绍,包括使用场景、技术背景等) ## 前置条件 (使用此技能需要的环境配置、依赖项等) ## 工作流程 (详细的步骤说明,告诉智能体如何执行任务) ## 最佳实践 (经验总结、注意事项、常见陷阱等) ## 示例 (具体的使用案例,帮助智能体理解) ## 故障排查 (常见问题和解决方案)
🔹2. 编写高质量 Skills 的原则
根据 Anthropic 官方文档和社区最佳实践,编写有效的 Skills 需要遵循以下原则:
2.1 精准的 Description
description是智能体决策的关键。它应该:
- 精确定义适用范围:避免模糊的描述如”帮助处理数据”
- 包含触发关键词:让智能体能够匹配用户意图
- 说明独特价值:与其他技能区分开来
❌不好的 description:
description:处理数据库查询
✅好的 description:
description:> 将中文业务问题转换为 SQL 查询并分析 MySQL employees 示例数据库。 适用于员工信息查询、薪资统计、部门分析、职位变动历史等场景。 当用户询问关于员工、薪资、部门的数据时使用此技能。
2. 2 模块化与单一职责
一个 Skill 应该专注于一个明确的领域或任务类型。如果一个 Skill 试图做太多事情,会导致:
- Description 过于宽泛,匹配精度下降
- 指令内容过长,浪费上下文
- 难以维护和更新
建议:与其创建一个”通用数据分析”技能,不如创建多个专门的技能:
mysql-employees-analysis:专门分析 employees 数据库sales-data-analysis:专门分析销售数据user-behavior-analysis:专门分析用户行为数据
2.3. 确定性优先原则
对于复杂的、需要精确执行的任务,优先使用脚本而不是依赖 LLM 生成。例如,在数据导出场景中,与其让 LLM 生成 Excel 二进制内容(容易出错),不如编写一个专门的脚本来处理这个任务,SKILL.md 中只需要指导智能体何时调用这个脚本即可。
2.4. 渐进式披露策略
合理利用三层结构,将信息按重要性和使用频率分层:
- SKILL.md 主体:放置核心工作流、常用模式
- 附加文档(如
advanced.md):放置高级用法、边缘情况 - 数据文件:放置大型参考数据,通过脚本按需查询
行业动态与生态演进🔖
🔹 标准化进程与厂商支持
Agent Skills 虽然由 Anthropic 提出,但其设计理念正在影响整个行业。
Anthropic Claude:
- Claude Desktop 和 Claude Code 原生支持 Skills
- 提供官方 SDK 和开发工具
- 维护官方技能库
OpenAI 的响应:虽然 OpenAI 尚未官方采用 “Skills” 这个术语,但在 2025 年 3 月的更新中,ChatGPT 引入了类似的概念:
- Custom Instructions 增强:支持更复杂的多步骤指令
- Memory 与 Context Profiles:允许用户保存和复用特定领域的知识
- GPTs 的”知识库”功能:可以附加文档和脚本,按需加载
这些功能本质上是 Skills 理念的不同实现形式。
Google Vertex AI: Google 在 Gemini 模型中引入了”Grounding with Functions”,允许开发者定义”函数包”(Function Packages),每个包包含:
- 函数定义(类似 MCP 的 tools)
- 使用指南(类似 Skills 的 instructions)
- 示例(examples)
这种设计与 Skills + MCP 的混合架构高度相似。
🔹 分层架构的必然性
综合各方观点,我们认为:Skills 和 MCP 代表了智能体架构中两个必然分离的层级。随着智能体系统的复杂度增加,这种分层是不可避免的:
应用层(Application Layer) ↓ ▸ Agent Skills └─ 领域知识、工作流、最佳实践 传输层(Transport Layer) ↓ ▸ MCP └─ 标准化接口、工具调用、资源访问 基础设施层(Infrastructure Layer) ↓ ▸ 数据库、API、文件系统、外部服务
这与传统软件架构的演进路径完全一致(从单体到分层到微服务),只是在 AI 领域重新演绎了一遍。
🔹 标准化的趋势
随着行业对智能体技术的重视,我们预见以下趋势:
1. 协议融合
未来可能出现统一的智能体能力描述协议,融合 MCP 的连接性和 Skills 的知识表达:
# 未来的统一协议示例(假想)
apiVersion: agent.io/v1
kind: Capability
metadata:
name: enterprise-data-analysis
spec:
transport:
protocol: mcp
server: database-mcp-server
tools: [query, schema]
knowledge:
type: skill
workflow: data-analysis-workflow.md
examples: examples/
2. 市场化与生态系统
类似于 NPM、PyPI,未来可能出现智能体能力的包管理系统:
# 假想的未来命令 agent-cli install @anthropic/frontend-design-skill agent-cli install @google/data-analysis-suite agent-cli install @openai/code-review-assistant
开发者可以发布、分享、售卖自己的 Skills 和 MCP 服务器,形成繁荣的生态系统。
3. 自动化能力发现
智能体可能发展出自动发现和学习新能力的机制:
# 未来的智能体可能具备自主学习能力
agent = SelfEvolvingAgent()
# 智能体在执行任务时发现缺少某种能力
response = agent.run("生成 3D 建模文件")
# [内部日志] 检测到未知任务类型:3D建模
# [内部日志] 搜索技能库...发现 "blender-3d-modeling" skill
# [内部日志] 请求用户授权安装...已授权
# [内部日志] 技能安装完成,重新执行任务
🔹 挑战与风险
此同时,我们也需要警惕潜在的风险:
安全性挑战:
- Skills 包含可执行脚本,存在代码注入风险
- MCP 服务器可能暴露敏感数据接口
- 第三方技能的可信度难以验证
上下文污染:
- 随着 Skills 数量增加,即使是元数据也可能占用大量上下文
- 需要更智能的技能索引和检索机制
碎片化风险:
- 虽然 MCP 正在标准化,但 Skills 格式尚未统一
- 不同厂商可能推出不兼容的 Skills 规范
Agent Skills 和 MCP 总结与选型🔖
Agent Skills 和 MCP 代表了智能体技术栈中两个关键的抽象层:
- MCP(Model Context Protocol):解决”连接性”问题,是智能体与外部世界交互的标准化接口,相当于”神经系统”或”双手”
- Agent Skills:解决”能力”问题,是领域知识和工作流的封装,相当于”大脑皮层”或”操作手册”
两者不是竞争关系,而是互补关系:

关键洞察:
- 分层架构是必然趋势:随着智能体系统复杂度增加,”连接层”和”知识层”的分离是不可避免的
- 上下文效率是核心矛盾:Skills 的渐进式披露机制将 token 消耗降低 90% 以上,这是其最大的技术优势
- 领域知识的民主化:Skills 让非开发者也能贡献智能体能力,这将极大拓展 AI 应用的边界
- 混合架构是最佳实践:在企业级应用中,MCP 提供基础设施连接,Skills 提供业务逻辑,两者结合才能构建高效、可维护的智能体系统
实践建议:
- 对于外部服务连接(数据库、API、云服务),优先使用 MCP
- 对于复杂工作流(多步骤任务、领域专业知识),优先使用 Skills
- 在上下文受限的场景(长对话、大量工具),使用 Skills 进行渐进式管理
- 构建企业级智能体时,采用 MCP + Skills 的分层架构
智能体技术仍在快速演进中。MCP 已成为连接层的事实标准,Skills 的理念也在影响整个行业。掌握这两种技术,将帮助你在 AI 浪潮中构建更强大、更实用的智能体应用。