Skip to main content

Search: #Skills

无原创,纯转发
  1. 别构建 Agent,构建 Skills 才是正道

    来自 Anthropic 的 Barry Zhang 和 Mahesh Murag 在 AI Engineer 大会上分享了一个重要理念:与其不断重建 Agent,不如专注构建 Skills

    核心观点:

    🔹 代码是通用接口 — 代码不仅是一种用例,更是连接数字世界的通用接口。Claude Code 实际上是一个通用型 Agent,核心脚手架可以简化到 bash 和文件系统。

    🔹 Agent 的短板 — 当前 Agent 虽然智能,但缺乏领域专业知识。就像让天才数学家去报税,不如找一个经验丰富的税务专家。

    🔹 什么是 SkillsSkills 是组织化的文件夹集合,包含可组合的程序性知识。设计上保持简单:可以用 Git 版本控制、放在 Google Drive、打包分享。

    🔹 渐进式加载Skills 采用渐进式披露机制,运行时仅加载元数据,需要时才读取完整内容,可支持数百个 Skills 同时存在。

    🔹 生态发展 — 发布 5 周已产生数千个 Skills,涵盖基础能力、第三方集成、企业内部知识等类型。非技术人员如财务、法务也在创建 Skills

    🔹 与 MCP 互补 — MCP 提供外部世界的连接,Skills 提供专业知识,两者协同工作。

    🔹 持续学习Skills 让 Claude 在第 30 天比第 1 天更强,学习成果可跨会话迁移。

    类比传统计算:
    模型 ≈ 处理器
    Agent 运行时 ≈ 操作系统
    Skills ≈ 应用程序

    📺 原视频

    #AIAgent #Skills #Anthropic #ClaudeCode #MCP
  2. 如何让 Claude Code Skills 可靠激活

    Claude Code 的 Skills 功能理论上会根据描述自动激活,但实际测试发现激活率仅约 20%,跟抛硬币差不多。作者通过 200+ 次测试,找到了两种有效方案。

    测试结果对比:

    Simple 简单指令:整体成功率仅 20%
    Forced Eval 强制评估:成功率 84%,最稳定
    LLM Eval 预评估:成功率 80%,更快更省钱

    核心发现

    强制评估之所以有效,在于它创建了「承诺机制」:

    1. Claude 必须逐一评估每个 Skill 并给出 YES/NO
    2. 明确表态后才能继续实现
    3. 使用 "MANDATORY"、"CRITICAL" 等强硬措辞增加执行力

    如何选择

    Forced Eval:追求稳定性,不介意输出冗长
    LLM Eval:追求速度和成本,适合单一技能场景

    使用方法:在 .claude/hooks/ 创建对应脚本,并在 settings.json 中配置 hook。如果用 claude-skills-cli,可直接运行:

    pnpm exec claude-skills-cli add-hook
    


    🔗 原文链接

    #ClaudeCode #Skills #开发技巧 #Anthropic #AI工具 GitHub - spences10/claude-skills-cli: 🤖 CLI for creating Claude Agent Skills with progressive disclosure validation. Built for…
1px