🟡 🤝 Agenten Dienstag, 5. Mai 2026 · 3 Min. Lesezeit ·

AWS SageMaker AI erhält agentische Fine-Tuning-Workflows mit 9 integrierten Skills und Kiro- und Claude-Code-Integration

Editorial-Illustration: futuristischer Roboterarm, umgeben von 9 Modulen und einem Chip-Netzwerk

Amazon startete am 4. Mai 2026 agenten-gestützte Workflows in SageMaker AI mit 9 integrierten Skill-Agenten, die den gesamten Modell-Anpassungslebenszyklus abdecken — von der Use-Case-Spezifikation bis zum Deployment. Das System unterstützt SFT, DPO und RLVR, integriert sich mit Kiro (Standard) und Claude Code in JupyterLab und verspricht, Monate spezialisierter ML-Arbeit auf Tage zu reduzieren.

🤖

Dieser Artikel wurde mithilfe von künstlicher Intelligenz aus Primärquellen erstellt.

AWS stellte am 4. Mai 2026 agenten-gestützte Workflows in Amazon SageMaker AI vor — ein System, das einen konversationellen Ansatz zur Modellanpassung durch neun integrierte agentische Skills bietet, mit direkter Integration von Kiro und Claude Code in der JupyterLab-Umgebung. Ziel ist es, den Deep-ML-Expertise-Bedarf für Fine-Tuning auf eine natürlichsprachliche Problembeschreibung zu reduzieren, wobei das agentische System in jedem Schritt der Pipeline editierbare Jupyter-Notebooks generiert.

Wie startet ein agenten-gestützter Workflow?

Ein Entwickler beschreibt seinen Use Case in natürlicher Sprache über das Chat-Panel in SageMaker AI Studio JupyterLab (z. B. „Ich brauche ein klinisches Reasoning-Modell, das medizinische Fälle Schritt für Schritt interpretiert”). Der Coding-Agent identifiziert relevante Skills, aktiviert sie sequenziell und generiert in jeder Phase ein editierbares Jupyter-Notebook, das der Entwickler vor der Ausführung anpassen kann. AWS behauptet in der Ankündigung, dass Agenten-Skills „nicht nur die Produktivität steigern, sondern auch den Token-Verbrauch reduzieren” durch gezielte Aktivierung.

Die neun Skills decken den gesamten Anpassungslebenszyklus ab: Use Case Specification, Planning/Discovery, Fine-tuning Setup, Dataset Evaluation, Dataset Transformation, Fine-tuning, Model Evaluation und Model Deployment plus Orchestrierungsschritt. Das System unterstützt SFT (Supervised Fine-Tuning), DPO (Direct Preference Optimization) und RLVR (Reinforcement Learning with Verifiable Rewards). Unterstützte Modellfamilien: Amazon Nova, GPT-OSS, Llama, Qwen und DeepSeek.

Was ist der Unterschied zwischen Kiro- und Claude-Code-Integration?

Kiro ist der Standard-Agent — vorkonfiguriert im SageMaker AI Studio JupyterLab Chat-Panel und über Device-Flow authentifiziert. Claude Code wird über das npm-Paket @zed-industries/claude-agent-acp installiert, unterstützt ACP (Agent Communication Protocol) und integriert sich mit Amazon Bedrock über eine Konfigurationsdatei. Beide Agenten greifen in der JupyterLab-Umgebung automatisch auf SageMaker-Skill-Agenten zu.

Die technische Architektur basiert auf ACP-Kompatibilität, Integration mit dem SageMaker AI Hub (Basismodelle), Amazon S3 (Datenspeicherung), MLflow (Metriken-Tracking) und Amazon Bedrock (Deployment). Der Demo-Use-Case in der Ankündigung ist ein klinisches Reasoning-Modell, das „medizinische Fälle Schritt für Schritt durchgeht, bevor es eine Diagnose stellt” — ein Beispiel, das direkt mit dem ReClaim-Foundation-Model-Trend für medizinische Anwendungen korreliert (siehe parallelen arXiv-Artikel vom selben Tag).

Was bedeutet dies für Unternehmens-ML-Teams?

AWS’ Aussage, dass „was früher Monate spezialisierter ML-Arbeit erforderte, nun in Tagen abgeschlossen werden kann”, ist bedeutsam — bleibt aber erst dann verifizierbar, wenn Teams ihre ersten Produktionsmodelle durch den Workflow erstellt haben. Im größeren Bild positioniert AWS SageMaker als integrierte Agenten-Orchestrierungsplattform, ähnlich IBMs gleichzeitig angekündigtem Next-Gen-watsonx-Orchestrate und AWS Bedrock AgentCore Optimization (am selben Morgen gestartet). Die Konvergenz hin zu „agenten-gestützter Modellanpassung” als Standard-Unternehmensschnittstelle ist nun ein klarer Branchentrend, kein experimenteller Ansatz mehr.

Preise wurden im Launch-Post nicht genannt, was auf standardmäßiges nutzungsbasiertes SageMaker-Billing hindeutet. Verfügbar für alle Organisationen mit AWS-Konten und SageMaker-AI-Domain — ohne genannte geografische Einschränkungen.

Häufig gestellte Fragen

Was sind die 9 agentischen Skills in SageMaker AI?
Die Skills umfassen: Use Case Specification, Planning/Discovery, Fine-tuning Setup, Dataset Evaluation, Dataset Transformation, Fine-tuning, Model Evaluation, Model Deployment sowie einen Orchestrierungsschritt. Der Coding-Agent aktiviert sie sequenziell auf Basis des Entwicklergesprächs.
Welche Trainingsmethoden unterstützt der agentische Workflow?
Der Workflow unterstützt SFT (Supervised Fine-Tuning), DPO (Direct Preference Optimization) und RLVR (Reinforcement Learning with Verifiable Rewards). Abgedeckte Modellfamilien: Amazon Nova, GPT-OSS, Llama, Qwen und DeepSeek.
Wie erfolgt die Integration mit Claude Code?
Claude Code wird über das npm-Paket @zed-industries/claude-agent-acp installiert, nutzt ACP (Agent Communication Protocol) und integriert sich mit Amazon Bedrock über eine Konfigurationsdatei. In der JupyterLab-Umgebung greift es automatisch auf SageMaker-Skill-Agenten zu.