Agenten
Prompt Engineering
Sprachmodell-Anfragen so gestalten, dass sie zuverlässig das gewünschte Ergebnis liefern — umfasst Wortwahl, Struktur, Beispiele und System-Prompts.
Prompt Engineering ist die Disziplin, den Text — und zunehmend auch Bilder, Audio oder strukturierte Daten — zu gestalten, der an ein großes Sprachmodell gesendet wird, damit es genau die Ausgabe produziert, die wir benötigen. Heutige Modelle reagieren empfindlich auf Wortwahl, Reihenfolge und Kontext, sodass kleine Änderungen am Prompt Qualität, Tonalität, Genauigkeit und Zuverlässigkeit dramatisch verschieben können.
Ein praktischer Prompt enthält typischerweise mehrere der folgenden Elemente: einen System-Prompt, der Rolle und Regeln definiert, eine klar gestellte Aufgabe, relevanten Kontext oder Dokumente, Anweisungen zur Formatierung, Beispiele (few-shot) und Einschränkungen, was zu vermeiden ist. Fortgeschrittene Techniken — Chain-of-Thought, Self-Consistency, Role-Play, Planung, Zerlegung in Teilaufgaben und Retrieval Augmentation — verbessern das Reasoning bei schwierigeren Aufgaben.
Prompt Engineering ist dort am wichtigsten, wo das Modell direkt exponiert ist: Chat-Assistenten, KI-Agenten, Code-Copiloten, Kundensupport-Bots und Content-Pipelines. Es überschneidet sich mit Sicherheit: Schlecht gestaltete Prompts sind anfällig für Prompt Injection, wenn sie Text enthalten, der von Nutzern oder dem Web stammt, ohne klare Befehlsgrenzen.
Mit zunehmend leistungsfähigeren Modellen verlieren rohe Prompt-Tricks an Bedeutung, während Prompt-Design — klare Spezifikationen, Evaluationssets und strukturierte Ausgaben — wichtiger wird.