Glossar
Glossar
KI-Terminologie, prägnant definiert.
38 Begriffe
A
- AI Act Artikel 50 (Transparenz) Artikel 50 des EU AI Act regelt Transparenzpflichten — Chatbots, Deepfakes und KI-generierte Inhalte müssen klar gekennzeichnet sein; Geltung ab August 2026.
- Aufmerksamkeitsmechanismus (attention) Eine Technik neuronaler Netze, die es einem Modell erlaubt, die Wichtigkeit jedes Eingabetokens relativ zu anderen zu gewichten — der Kern moderner Transformer.
C
- Chatbot Ein Software-Agent, der über Text oder Sprache ein Gespräch mit Nutzern führt; moderne Chatbots werden von großen Sprachmodellen und Werkzeugen angetrieben.
- Claude Anthropics Familie großer Sprachmodelle mit Fokus auf Sicherheit, langen Kontext und Werkzeugnutzung — treibt Claude.ai und den Claude-Code-Agenten an.
D
- Deep Learning Teilgebiet des Machine Learnings mit mehrschichtigen neuronalen Netzen zum Lernen komplexer Muster — treibt heutige Vision-, Sprach- und Sprachmodell-KI an.
- Diffusionsmodell Generative Modelle, die lernen, schrittweises Rauschen rückgängig zu machen — der heute dominierende Ansatz für KI-generierte Bilder, Videos und Audio.
E
- Embedding (Vektorrepräsentation) Eine Vektorrepräsentation eines Wortes, Satzes oder Dokuments in einem hochdimensionalen Raum, in dem semantisch ähnliche Bedeutungen nahe beieinander liegen.
- EU AI Act (KI-Verordnung der EU) EU-Verordnung zur Regulierung von KI nach Risikoklassen (inakzeptabel, hoch, begrenzt, minimal); das weltweit erste umfassende KI-Gesetz, in Kraft 2024–2027.
F
- Fine-Tuning Weiteres Training eines vortrainierten LLMs auf einem kleineren Datensatz, um es auf eine bestimmte Aufgabe, Domäne oder einen Ausgabestil zu spezialisieren.
- Foundation Model Großes, auf breiten Daten trainiertes Modell, das sich für viele Aufgaben anpassen lässt; Stanford-CRFM-Begriff für LLMs, Vision- und multimodale Modelle.
G
- Generative Pretrained Transformer (GPT) Decoder-Only-Transformer-Sprachmodelle, vortrainiert auf riesigen Textmengen und für Anweisungen feinabgestimmt — die Architektur hinter ChatGPT und Co.
- Google Gemini Multimodale Foundation Models von Google DeepMind, die Text, Bilder, Audio und Video verarbeiten — treiben die Gemini-App, Workspace und Vertex AI an.
- Grafikprozessor (GPU) Grafikprozessor mit Tausenden parallelen Kernen — heute die wichtigste Hardware für Training und Inferenz von KI-Modellen, dominant NVIDIA H100/B200.
- Großes Sprachmodell (LLM) Neuronales Netzwerk, auf Milliarden Wörtern trainiert, das Sprache vorhersagt und generiert; Grundlage moderner KI-Assistenten wie ChatGPT, Claude und Gemini.
H
I
K
- KI-Agent LLM-gesteuertes System, das Ziele autonom durch Planung, Werkzeugaufrufe und Iteration verfolgt — bis die Aufgabe vollständig abgeschlossen ist.
- KI-Alignment (AI alignment) Ein Forschungsfeld, das sicherstellen will, dass KI-Systeme menschlichen Absichten, Werten und Sicherheitszielen folgen — und nicht unerwünschten Ausgängen.
- KI-Beschleuniger (NPU/TPU) Spezialisierter Chip für KI-Workloads — NPUs in Smartphones, Googles TPU, AWS Trainium — oft schneller und pro Dollar effizienter als eine GPU.
- KI-Sicherheit (AI safety) Breites Feld zu technischen, organisatorischen und politischen Risiken von KI — von Fehlern und Missbrauch bis zu langfristigen existenziellen Bedenken.
- Knowledge Distillation Kompressionstechnik, bei der ein Student-Modell die Ausgaben eines größeren Teacher-Modells nachahmt, um die Größe bei erhaltener Genauigkeit zu reduzieren.
- Kontextfenster Maximale Anzahl Tokens, die ein LLM gleichzeitig berücksichtigen kann — Prompt, Dokumente und Antwort; reicht heute von 8K bis 2 Millionen Tokens.
L
M
- Mixture of Experts (MoE) Netzwerkarchitektur, die je Eingabe nur wenige Experten aktiviert und dadurch die Kapazität sehr großer Modelle zu einem Bruchteil der Inferenzkosten liefert.
- Model Context Protocol (MCP) Offenes Anthropic-Protokoll (2024), das KI-Assistenten standardisiert an externe Werkzeuge und Datenquellen anbindet — analog zu USB-C für physische Ports.
- Multi-Agenten-System KI-Architektur, in der mehrere spezialisierte Agenten zusammenarbeiten, delegieren oder konkurrieren — zuverlässiger als ein einzelnes monolithisches Modell.
N
P
- Prompt Engineering Sprachmodell-Anfragen so gestalten, dass sie zuverlässig das gewünschte Ergebnis liefern — umfasst Wortwahl, Struktur, Beispiele und System-Prompts.
- Prompt Injection Angriff, bei dem eingeschleuster Text ein LLM dazu bringt, Angreifer- statt Entwickleranweisungen zu folgen; Platz 1 in der OWASP Top 10 für LLM-Anwendungen.
R
- Reasoning-Modell LLM, das vor der Antwort eine lange Gedankenkette erzeugt und so Inferenzzeit gegen höhere Genauigkeit bei Mathematik, Code und komplexen Logikaufgaben tauscht.
- Red Team Strukturiertes Testen von KI-Systemen mit Angriffsmethoden — Prompt Injection, Jailbreak, Missbrauch — um Schwachstellen vor dem Produktiveinsatz aufzudecken.
- Reinforcement Learning from Human Feedback (RLHF) Eine Trainingsmethode, bei der menschliche Bewerter Modellantworten ranken und diese Rankings genutzt werden, um ein LLM hilfreich und sicher zu machen.
- Retrieval-Augmented Generation (RAG) Retrieval-System plus LLM: relevante Dokumente werden vor der Antwort aus einer Wissensquelle abgerufen und als Kontext eingefügt, um Ausgaben zu verankern.
S
- Selbstüberwachtes Lernen Trainingsansatz, bei dem ein Modell aus ungelabelten Daten lernt, indem es sich eigene Ziele schafft, z. B. durch Vorhersage maskierter Tokens in einem Satz.
- Stable Diffusion 2022 von Stability AI veröffentlichtes latentes Diffusionsmodell mit offenen Gewichten — der erste breit verfügbare Text-zu-Bild-Generator für Consumer-GPUs.
T
- Tokenisierung Zerlegung von Text in kleinere Einheiten (Tokens) — Wörter, Subwörter oder Zeichen —, die ein Sprachmodell verarbeiten und in Zahlen umwandeln kann.
- Transformer Die 2017 vorgestellte neuronale Netzwerkarchitektur, die heute praktisch jedes moderne große Sprachmodell antreibt. Basiert auf dem Self-Attention-Mechanismus.