Anthropic 放出了一份近30页的 Skill 创建指南,手把手教开发者给 Claude 做定制化能力模块。这事儿说明个大趋势,模型能力正在变得结构化。 以前想增强大模型能力,要么写花里胡哨的 Prompt,要么让它调用外部工具,要么靠 Agent 来调度流程。但这几种办法都不太靠谱:Prompt 老写错,工具太零碎,Agent 写起来太麻烦。 Skill 就是来解决这些麻烦的,它定在 Tool 和 Agent 中间。Tool 干具体操作活儿,Skill 封装抽象能力,Agent 负责指挥调度。 Skill 不光是把接口封装一下,而是明确定义了职责,规范了输入输出格式,还能组合调用。这一步是在给大模型建立一个“能力模块系统”。 从官方指南里能看出几个意思:Skill 是模型推理能力的自然延伸,不是乱七八糟的外挂脚本;必须强制规定输入输出格式来防出错;强调一个 Skill 只干一件事儿。其实就是把软件工程里的那一套好规矩拿来用了。 项目里经常有人把 Skill、Tool 和 Agent 混着用。画张图就明白了:Agent 不直接碰底层工具,Skill 负责说清楚要干啥意思,Tool 去执行具体动作,外面的系统模型看不到。 Skill 设计得好,调度逻辑就简单;如果 Skill 乱七八糟,调度就会变得非常复杂。 Skill 干活的流程大概是这样:模型不直接控制底层系统,Skill 是连接语义和执行的桥梁。每一步都能看得到、测得到。这意味着 AI 系统有了可追踪的能力链路。 Skill 变得结构化后,工程体系也会跟着变。第一,能力可以沉淀下来了。第二,测试的重点不再是简单的指令是否正确。第三,质量体系要能覆盖整条能力链路。 当能力被模块化后,整个系统反而变得更好控制了。 我们霍格沃兹测试开发学社是测吧(北京)科技有限公司旗下的社区。学社主要关注现代软件测试工程体系。内容涵盖了从入门到精通的所有测试方向,包括 Python、Java、Web 和 App 自动化测试。我们还在探索怎么用 AI 来做测试设计、用例生成还有自动化执行。学社也做人才培养,给高校提供实训平台和赛事支持。 除了线上交流,我们还为在职工程师提供名企 1v1 私教服务。我们希望通过这种方式帮助大家提升技能并落地实践。