📦 Open Source

13 Nachrichten

🟡 📦 Open Source 24. April 2026 · 3 Min. Lesezeit

Google DeepMind Decoupled DiLoCo: 20-fach geringere Netzwerkbandbreite für KI-Training über geografisch verteilte Rechenzentren

Editorial illustration: Open-Source-Tool — open-source

Google DeepMind hat Decoupled DiLoCo vorgestellt, eine verteilte Architektur für das Training von KI-Modellen. Die erforderliche Netzwerkbandbreite sinkt von 198 Gbit/s auf 0,84 Gbit/s über 8 Rechenzentren, und es wird ein Goodput von 88 % gegenüber 27 % bei herkömmlichen Methoden erreicht.

🟡 📦 Open Source 24. April 2026 · 3 Min. Lesezeit

vLLM integriert DeepSeek V4 mit 8,7× kleinerem KV-Cache: eine Million Token Kontext auf Standard-GPU-Hardware

Editorial illustration: vLLM DeepSeek V4 Kompression — KV-Cache-Module

vLLM veröffentlichte am selben Tag wie DeepSeek die vollständige Integration von V4-Pro und V4-Flash, mit einem 8,7× kleineren KV-Cache gegenüber V3.2 bei einer Million Token Kontext. Die Kombination aus Sparse Attention und aggressiver Kompression ermöglicht Serving auf Standard-GPU-Hardware.

🟢 📦 Open Source 24. April 2026 · 2 Min. Lesezeit

Allen AI: OlmoEarth-Embeddings ermöglichen Landschaftssegmentierung mit nur 60 Pixeln und einem F1-Wert von 0,84

Editorial illustration: Open-Source-Tool — open-source

Allen Institute for AI hat OlmoEarth Studio mit drei Modellgrößen (Nano, Tiny, Base) für Satelliten-Embeddings veröffentlicht. Die Modelle erzielen einen F1-Wert von 0,84 für die Landschaftssegmentierung mit nur 60 markierten Pixeln und unterstützen Änderungserkennung und PCA-Visualisierung.

🟡 📦 Open Source 23. April 2026 · 2 Min. Lesezeit

Apple auf der ICLR 2026 stellt ParaRNN vor: Paralleles Training nichtlinearer RNNs mit 665-fachem Speedup

Redaktionelle Illustration: Open-Source-Tool — open-source

Apple präsentierte fünf Forschungsarbeiten auf der ICLR 2026 in Rio de Janeiro. Die bedeutendste ist ParaRNN — eine Methode zum parallelen Training nichtlinearer rekurrenter neuronaler Netze mit einem 665-fachen Speedup gegenüber sequenziellen Ansätzen, die RNNs auf Milliarden von Parametern skaliert und mit Transformern konkurriert.

🟡 📦 Open Source 23. April 2026 · 2 Min. Lesezeit

Linux Foundation veröffentlicht RGAF-Leitfaden mit 35 Open-Source-Tools für verantwortungsvolle KI

Redaktionelle Illustration: Open-Source-Tool — open-source

Linux Foundation AI & Data hat einen praktischen Leitfaden zur Implementierung des RGAF (Responsible Generative AI Framework) über neun Dimensionen verantwortungsvoller KI veröffentlicht, mit einem Katalog von 35 konkreten Open-Source-Tools und Ausrichtung an NIST AI RMF, EU AI Act, ISO/IEC 42001 und OECD-Grundsätzen.

🟢 📦 Open Source 22. April 2026 · 2 Min. Lesezeit

WorldDB: Memory-Engine, der Vektordatenbank und Weltgraph für KI-Agenten vereint

Redaktionelle Illustration: Vektordatenbank und Knotengraph durch Ontologie verbunden im Agenten-Gedächtnis

WorldDB ist eine neue Memory-Engine für KI-Agenten, die eine Vektordatenbank mit einem Graphen verschachtelter Welten und einer Ontologie kombiniert. Sie gleicht Wissen beim Schreiben ab und verhindert Widersprüche im Agenten-Gedächtnis — mit 96,40 % Genauigkeit auf dem LongMemEval-s-Benchmark.

🟡 📦 Open Source 21. April 2026 · 3 Min. Lesezeit

Allen Institute BAR: Modulares Post-Training mit Mixture-of-Experts bringt +7,8 Punkte für Mathematik auf OLMo 2 7B

Redaktionelle Illustration eines modularen MoE-Systems mit einer Router-Komponente, die Anfragen an verschiedene Experten delegiert

BAR (Branch-Adapt-Route) ist ein neuer modularer Ansatz zum Post-Training vom Allen Institute for AI, der unabhängiges Training von Domänen-Experten — Mathematik, Code, Tool Use, Sicherheit — und deren Zusammenführung in ein einheitliches Mixture-of-Experts-Modell ermöglicht. Ergebnisse auf OLMo 2 7B: 49,1 durchschnittlicher Score, +7,8 Punkte für Mathematik und +4,7 für Code gegenüber dem Baseline-Retraining.

🟡 📦 Open Source 21. April 2026 · 3 Min. Lesezeit

AMD FLy: Training-freies spekulatives Decoding liefert 5,21-fache Beschleunigung auf Llama-3.3-405B mit über 99 % Genauigkeit

Redaktionelle Illustration des spekulativen Decodings — Draft-Modell schlägt Tokens vor, Target-Modell überprüft sie parallel

AMD FLy ist eine neue training-freie Methode des spekulativen Decodings, die durch semantische Akzeptanz von Draft-Tokens eine 4,80- bis 5,21-fache Beschleunigung auf Llama-3.3-405B und 2,74-fach auf Llama-3.1-70B bei einer Genauigkeit von über 99 % erreicht, ohne zusätzliches Modelltraining.

🔴 📦 Open Source 18. April 2026 · 3 Min. Lesezeit

Google Gemma 4: vier offene Modelle, 31B Dense auf Platz drei der Arena-Bestenliste, Apache-2.0-Lizenz

Gemma 4 ist Googles neue Generation offener Modelle in vier Varianten: E2B für Mobilgeräte, E4B für Edge-Geräte, 26B MoE mit 3,8 Milliarden aktiven Parametern und 31B Dense. Das 31B-Modell belegt den dritten Platz auf der Arena-Bestenliste offener Modelle und übertrifft angeblich Modelle, die 20-mal größer sind. Das 26B MoE liegt auf Platz sechs. Alle Modelle sind multimodal (Text, Bild, Video, Audio), unterstützen 140 Sprachen, bieten bis zu 256K Token Kontext und werden unter der Apache-2.0-Lizenz veröffentlicht.

🟢 📦 Open Source 17. April 2026 · 2 Min. Lesezeit

HuggingFace: Leitfaden zum Training multimodaler Embedding- und Reranker-Modelle

HuggingFace hat einen detaillierten Leitfaden für das Fine-Tuning multimodaler Embedding- und Reranker-Modelle über die Sentence-Transformers-Bibliothek veröffentlicht. Der Fokus liegt auf der Vereinigung von Text und Bild in einem gemeinsamen Embedding-Raum, der semantische Suche über heterogene Daten ermöglicht. Die primäre Anwendung liegt in RAG-Systemen, die mit einer Mischung aus Dokumenten, Tabellen, Bildern und Scans arbeiten.

🟢 📦 Open Source 17. April 2026 · 2 Min. Lesezeit

HuggingFace: Transformers-to-MLX-Skill für Claude Code bringt KI-gestütztes Modell-Porting auf Apple Silicon

HuggingFace hat einen 15.000 Wörter umfassenden Transformers-to-MLX-Skill veröffentlicht, der Claude Code für das Portieren von Transformers-Modellen auf die MLX-LM-Plattform für Apple Silicon verwendet. Der Skill enthält ein Test-Harness, das Ergebnisse unabhängig verifiziert und das Problem von LLM-Halluzinationen eliminiert, und adressiert die wachsende Herausforderung von Open-Source-Projekten, bei denen KI-Agenten das Pull-Request-Volumen um das 10-Fache erhöhen.

🟢 📦 Open Source 16. April 2026 · 2 Min. Lesezeit

LangChain: Wie wir unsere Dokumentation mithilfe von Deep Agents dazu gebracht haben, sich selbst zu testen

LangChain hat mithilfe von Deep Agents ein automatisiertes System zum Testen der Dokumentation entwickelt, das veraltete Code-Beispiele verhindert. Das System nutzt mehrere Skills, die Inline-Code-Snippets in eigenständige Testdateien migrieren, sie über GitHub Actions ausführen und verifizierte Snippets regenerieren, sodass die Dokumentation stets den tatsächlichen Zustand der API widerspiegelt.

🟡 📦 Open Source 10. April 2026 · 2 Min. Lesezeit

Waypoint-1.5: KI generiert interaktive 720p-Welten auf einer handelsüblichen RTX 3090

Overworld hat Waypoint-1.5 veröffentlicht, ein Echtzeit-Video-World-Model, das interaktive virtuelle Umgebungen in 720p/60fps auf Consumer-GPUs wie der RTX 3090 und Apple Silicon Macs erzeugt. Das Modell wurde mit ~100-mal mehr Daten trainiert als die Vorgängerversion und ist Open Source auf HuggingFace verfügbar.