AWS SageMaker AI 推出9项内置技能的智能体微调工作流,集成Kiro与Claude Code
亚马逊于2026年5月4日在SageMaker AI中推出了智能体引导工作流,内置9项智能体技能,涵盖从用例规范到模型部署的完整模型定制生命周期。系统支持SFT、DPO和RLVR训练方法,可在JupyterLab环境中与Kiro(默认)和Claude Code集成,声称能将数月的专业ML工作压缩至数天完成。
本文由人工智能基于一手来源生成。
2026年5月4日,AWS在Amazon SageMaker AI中推出了智能体引导工作流——一套通过九项内置智能体技能提供对话式模型定制方法的系统,并在JupyterLab环境中直接集成了Kiro和Claude Code。其目标是将深度ML专业知识的要求降低到用自然语言描述问题,智能体系统在流水线的每个步骤生成可编辑的Jupyter笔记本。
智能体引导工作流如何启动?
开发者在SageMaker AI Studio JupyterLab的聊天面板中用自然语言描述用例(例如”我需要一个能逐步分析医疗案例的临床推理模型”)。编程智能体识别相关技能,按顺序激活,并在每个阶段生成开发者可在执行前修改的可编辑Jupyter笔记本。AWS在公告中声称,智能体技能”不仅提高了生产力,还因针对性激活而减少了token消耗”。
九项技能覆盖完整的定制生命周期:用例规范、规划/发现、微调设置、数据集评估、数据集转换、微调、模型评估和模型部署,以及一个编排步骤。系统支持SFT(监督微调)、DPO(直接偏好优化)和RLVR(带可验证奖励的强化学习)。覆盖的模型系列:Amazon Nova、GPT-OSS、Llama、Qwen和DeepSeek。
Kiro与Claude Code集成有何区别?
Kiro是默认智能体——预配置于SageMaker AI Studio JupyterLab聊天面板中,通过设备流程认证。Claude Code通过npm包@zed-industries/claude-agent-acp安装,支持ACP(智能体通信协议),并通过配置文件与Amazon Bedrock集成。两个智能体均可在JupyterLab环境中自动访问SageMaker技能智能体。
技术架构依赖ACP兼容性,并与SageMaker AI Hub(基础模型)、Amazon S3(数据存储)、MLflow(指标跟踪)和Amazon Bedrock(部署)集成。公告中的演示用例是一个”在做出诊断前逐步分析医疗案例”的临床推理模型——这一示例与同日ArXiv上医疗应用ReClaim基础模型的趋势直接呼应。
这对企业ML团队意味着什么?
AWS声称”曾经需要数月专业ML工作的任务现在可以在数天内完成”——这一说法意义重大,但只有当团队通过该工作流生产出第一批生产模型时才能得到验证。更宏观来看:AWS将SageMaker定位为集成的智能体编排平台,类似于IBM同步发布的watsonx Orchestrate next-gen和AWS Bedrock AgentCore Optimization(同日上午发布)。“智能体引导模型定制”作为标准企业界面的融合趋势,现在已是明确的行业趋势,而非实验性方法。
定价未在发布帖中公布,表明采用标准SageMaker按使用量计费。所有拥有AWS账户和SageMaker AI域的组织均可使用——公告中未提及地理限制。
常见问题
- SageMaker AI中的9项智能体技能是什么?
- 这些技能涵盖:用例规范、规划/发现、微调设置、数据集评估、数据集转换、微调、模型评估、模型部署以及一个编排步骤。编程智能体根据与开发者的对话按顺序激活这些技能。
- 智能体工作流支持哪些训练方法?
- 工作流支持SFT(监督微调)、DPO(直接偏好优化)和RLVR(带可验证奖励的强化学习)。覆盖Amazon Nova、GPT-OSS、Llama、Qwen和DeepSeek模型系列。
- 如何与Claude Code集成?
- Claude Code通过npm包@zed-industries/claude-agent-acp安装,使用ACP(智能体通信协议)进行通信,并通过配置文件与Amazon Bedrock集成。在JupyterLab环境中可自动访问SageMaker技能智能体。