Modelle
Llama (Meta)
Eine Open-Weight-Familie großer Sprachmodelle von Meta, in der Open-Source-Community weit verbreitet für Fine-Tuning und lokalen Einsatz.
Llama ist Metas Open-Weight-Familie von großen Sprachmodellen, erstmals als LLaMA im Februar 2023 vorgestellt und über Llama 2 (Mitte 2023), Llama 3 (2024) und die Generation Llama 4 fortgeführt. Jede Veröffentlichung kommt in mehreren Größen — typischerweise 7B / 8B, 70B und ein deutlich größeres Flagship — sowie in instruktionsgetunten Varianten für Chat- und Assistenten-Anwendungsfälle.
Was Llama auszeichnet, ist die Lizenz: Die Gewichte können kostenlos heruntergeladen werden, mit Bedingungen, die permissiv genug sind, um den Großteil der kommerziellen Nutzung abzudecken. Damit wurde Llama zum Standardausgangspunkt für gemeinschaftliches Fine-Tuning, Domain-Adaption, lokale Inferenz und akademische Forschung. Ein großes Ökosystem — Hugging Face, Ollama, llama.cpp, vLLM, LM Studio — existiert in erster Linie, um Llama-artige Modelle bereitzustellen und anzupassen.
Architektonisch ist Llama ein Decoder-Only-Transformer, ähnlich wie andere moderne LLMs, mit Verfeinerungen wie RMSNorm, Rotary Positional Embeddings, Grouped-Query Attention und SwiGLU-Aktivierungen. Llama 4 brachte Multimodalität und Mixture-of-Experts. Zusammen mit Mistral, DeepSeek und Qwen definiert Llama die Open-Weight-Frontier und ist der Grund, warum ein Großteil der heutigen KI-Tools außerhalb der Hyperscaler-Cloud laufen kann.