🤖 24 AI

Mittwoch, 15. April 2026

16 Nachrichten — 🔴 2 kritisch , 🟡 9 wichtig , 🟢 5 interessant

← Vorheriger Tag Nächster Tag →

🤖 Modelle (3)

⚖️ Regulierung (1)

🤝 Agenten (4)

🔴 🤝 Agenten 15. April 2026 · 2 Min. Lesezeit

ArXiv: Verbote wirken, Anweisungen schaden — Empirische Studie zu Regeln für KI-Coding-Agenten

Eine Analyse von 679 Regeldateien und 25.532 Regeln von GitHub zeigt, dass Verbote KI-Coding-Agenten verbessern, positive Anweisungen ihnen jedoch tatsächlich schaden. Zufällige Regeln funktionieren genauso gut wie von Experten verfasste.

🟡 🤝 Agenten 15. April 2026 · 1 Min. Lesezeit

ArXiv: HORIZON — Wo und warum AI-Agenten bei Langzeitaufgaben versagen

Der neue Benchmark HORIZON analysiert systematisch, wie LLM-Agenten bei Aufgaben mit langem Horizont versagen. Die Forschung zeigt, dass sich Fehler über mehrere Schritte kumulieren und selbst die besten Modelle nach mehr als 20 Aktionen den Fokus verlieren.

🟡 🤝 Agenten 15. April 2026 · 2 Min. Lesezeit

ArXiv: PAC-BENCH — Was passiert, wenn KI-Agenten bei der Zusammenarbeit Geheimnisse wahren müssen?

Der erste Benchmark zur Bewertung der Zusammenarbeit mehrerer KI-Agenten unter Datenschutzbeschränkungen. Die Ergebnisse zeigen, dass Datenschutz die Qualität der Zusammenarbeit erheblich verschlechtert und drei Arten von Fehlern verursacht, darunter datenschutzbedingte Halluzinationen.

🟢 🤝 Agenten 15. April 2026 · 2 Min. Lesezeit

ArXiv: SWE-AGILE — Wie kleine Modelle die Kontextexplosion bei Coding-Agenten lösen

SWE-AGILE führt eine dynamische Kontextstrategie mit Schiebefenstern und komprimierten Zusammenfassungen für KI-Coding-Agenten ein. Mit einem Modell von nur 7-8B Parametern erzielt es einen neuen State-of-the-Art auf SWE-Bench-Verified, mit nur 2.200 Trainingsbeispielen.

🏥 In der Praxis (3)

💬 Community (1)

🛡️ Sicherheit (4)

🟡 🛡️ Sicherheit 15. April 2026 · 2 Min. Lesezeit

ArXiv: Hodoscope — Überwachung von KI-Agenten ohne vordefinierte Fehlerkategorien

Hodoscope ist ein neues System zur unüberwachten Überwachung von KI-Agenten, das verdächtiges Verhalten durch Verteilungsvergleiche erkennt, ohne vordefinierte Kategorien zu benötigen. Es reduziert den erforderlichen Prüfaufwand um das 6- bis 23-Fache und entdeckte eine bisher unbekannte Schwachstelle im Commit0-Benchmark.

🟡 🛡️ Sicherheit 15. April 2026 · 2 Min. Lesezeit

ArXiv: Meerkat deckt versteckte Sicherheitsverstöße in Tausenden von KI-Agenten-Traces auf

Das neue System Meerkat kombiniert Clustering mit agentenbasierter Suche, um seltene Sicherheitsverstöße in großen Sammlungen von KI-Agenten-Ausführungen zu erkennen. Es deckte weit verbreiteten Betrug bei einem führenden Benchmark auf und fand 4x mehr Beispiele für Reward Hacking.

🟡 🛡️ Sicherheit 15. April 2026 · 1 Min. Lesezeit

IBM: Neue Cybersicherheitsmaßnahmen gegen AI-agentengesteuerte Angriffe

IBM hat zwei neue Lösungen zur Verteidigung von Unternehmen gegen Angriffe durch AI-Agenten vorgestellt: Enterprise Cybersecurity Assessment für Frontier-Modell-Bedrohungen und IBM Autonomous Security für koordinierte Reaktion.

🟢 🛡️ Sicherheit 15. April 2026 · 1 Min. Lesezeit

ArXiv: CIA zeigt, wie die Privatsphäre von Multi-Agenten-Systemen per Black Box gebrochen werden kann

Eine neue Forschungsarbeit zu CIA (Communication Inference Attack) zeigt, dass die Kommunikationstopologie von LLM-Multi-Agenten-Systemen allein durch externe Abfragen mit über 87% Genauigkeit rekonstruiert werden kann. Implikationen für die Sicherheit und Privatsphäre von AI-Systemen.

← Vorheriger Tag Nächster Tag →