<?xml version="1.0" encoding="UTF-8"?><rss version="2.0" xmlns:content="http://purl.org/rss/1.0/modules/content/" xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>24 AI</title><description>Täglicher Überblick über die wichtigsten Nachrichten aus der Welt der künstlichen Intelligenz</description><link>https://24-ai.news/</link><language>de</language><atom:link href="https://24-ai.news/de/rss.xml" rel="self" type="application/rss+xml"/><lastBuildDate>Tue, 14 Apr 2026 19:55:43 GMT</lastBuildDate><generator>24 AI Pipeline</generator><item><title>AI2: KI-Agenten loesen 80 % der Schulwissenschaft, aber nur 20 % echter wissenschaftlicher Probleme</title><link>https://24-ai.news/de/vijest/2026-04-14/ai2-agenti-znanstvena-otkrica</link><guid isPermaLink="true">https://24-ai.news/de/vijest/2026-04-14/ai2-agenti-znanstvena-otkrica</guid><description>Das Allen Institute for AI analysiert zwei Benchmarks, die eine dramatische Kluft zwischen KI-Leistung bei Wissenstests und der Faehigkeit zu echten wissenschaftlichen Entdeckungen aufzeigen. Waehrend Modelle auf Schulniveau 80 % erreichen, fallen sie bei komplexen wissenschaftlichen Aufgaben auf 20 %.</description><pubDate>Tue, 14 Apr 2026 00:00:00 GMT</pubDate><content:encoded>&lt;p&gt;&lt;strong&gt;Das Allen Institute for AI analysiert zwei Benchmarks, die eine dramatische Kluft zwischen KI-Leistung bei Wissenstests und der Faehigkeit zu echten wissenschaftlichen Entdeckungen aufzeigen. Waehrend Modelle auf Schulniveau 80 % erreichen, fallen sie bei komplexen wissenschaftlichen Aufgaben auf 20 %.&lt;/strong&gt;&lt;/p&gt;</content:encoded><category>agenti</category><category>važno</category></item><item><title>Anthropic: LTBT Trust haelt nun die Mehrheit im Verwaltungsrat — ehemaliger Novartis-CEO ernannt</title><link>https://24-ai.news/de/vijest/2026-04-14/anthropic-ltbt-narasimhan-odbor</link><guid isPermaLink="true">https://24-ai.news/de/vijest/2026-04-14/anthropic-ltbt-narasimhan-odbor</guid><description>Anthropic hat die Ernennung von Vas Narasimhan, CEO von Novartis, in den Verwaltungsrat ueber den Long-Term Benefit Trust bekannt gegeben. Die LTBT-Direktoren bilden nun die Mehrheit im Verwaltungsrat, wodurch die Aufsicht ueber die Sicherheitsmission des Unternehmens gestaerkt wird.</description><pubDate>Tue, 14 Apr 2026 00:00:00 GMT</pubDate><content:encoded>&lt;p&gt;&lt;strong&gt;Anthropic hat die Ernennung von Vas Narasimhan, CEO von Novartis, in den Verwaltungsrat ueber den Long-Term Benefit Trust bekannt gegeben. Die LTBT-Direktoren bilden nun die Mehrheit im Verwaltungsrat, wodurch die Aufsicht ueber die Sicherheitsmission des Unternehmens gestaerkt wird.&lt;/strong&gt;&lt;/p&gt;</content:encoded><category>regulacija</category><category>važno</category></item><item><title>ArXiv: Algorithmische Monokultur — LLMs koennen nicht divergieren, wenn sie es sollten</title><link>https://24-ai.news/de/vijest/2026-04-14/arxiv-algoritamska-monokultura-llm</link><guid isPermaLink="true">https://24-ai.news/de/vijest/2026-04-14/arxiv-algoritamska-monokultura-llm</guid><description>Neue Forschung zeigt, dass Sprachmodelle in Multi-Agenten-Koordinationsspielen eine hohe Basisaehnlichkeit (Monokultur) aufweisen und Schwierigkeiten haben, diverse Strategien aufrechtzuerhalten, selbst wenn Divergenz vorteilhaft waere. Dies hat Auswirkungen auf Systeme, die mehrere KI-Agenten verwenden.</description><pubDate>Tue, 14 Apr 2026 00:00:00 GMT</pubDate><content:encoded>&lt;p&gt;&lt;strong&gt;Neue Forschung zeigt, dass Sprachmodelle in Multi-Agenten-Koordinationsspielen eine hohe Basisaehnlichkeit (Monokultur) aufweisen und Schwierigkeiten haben, diverse Strategien aufrechtzuerhalten, selbst wenn Divergenz vorteilhaft waere. Dies hat Auswirkungen auf Systeme, die mehrere KI-Agenten verwenden.&lt;/strong&gt;&lt;/p&gt;</content:encoded><category>sigurnost</category><category>važno</category></item><item><title>ArXiv Camera Artist: Multi-Agenten-KI-System, das Video mit filmischer Sprache generiert</title><link>https://24-ai.news/de/vijest/2026-04-14/arxiv-camera-artist-filmski-video</link><guid isPermaLink="true">https://24-ai.news/de/vijest/2026-04-14/arxiv-camera-artist-filmski-video</guid><description>Forscher haben Camera Artist vorgestellt, ein Multi-Agenten-System, das reale Filmproduktions-Workflows fuer die Generierung narrativer Videos modelliert. Das System koordiniert spezialisierte KI-Agenten, die die Rollen von Regisseur, Kameramann und Editor fuer kohaerentes visuelles Storytelling simulieren.</description><pubDate>Tue, 14 Apr 2026 00:00:00 GMT</pubDate><content:encoded>&lt;p&gt;&lt;strong&gt;Forscher haben Camera Artist vorgestellt, ein Multi-Agenten-System, das reale Filmproduktions-Workflows fuer die Generierung narrativer Videos modelliert. Das System koordiniert spezialisierte KI-Agenten, die die Rollen von Regisseur, Kameramann und Editor fuer kohaerentes visuelles Storytelling simulieren.&lt;/strong&gt;&lt;/p&gt;</content:encoded><category>zanimljivosti</category><category>zanimljivo</category></item><item><title>ArXiv HiL-Bench: Wissen KI-Agenten, wann sie einen Menschen um Hilfe bitten sollten?</title><link>https://24-ai.news/de/vijest/2026-04-14/arxiv-hil-bench-agenti-pomoc</link><guid isPermaLink="true">https://24-ai.news/de/vijest/2026-04-14/arxiv-hil-bench-agenti-pomoc</guid><description>Der neue Benchmark HiL-Bench misst die Faehigkeit von KI-Agenten, ihre eigenen Grenzen zu erkennen und um menschliche Hilfe zu bitten, anstatt zu raten. Die Ergebnisse zeigen, dass selbst Frontier-Modelle schlecht einschaetzen, wann sie Hilfe benoetigen, aber gezieltes Training diese Faehigkeit verbessern kann.</description><pubDate>Tue, 14 Apr 2026 00:00:00 GMT</pubDate><content:encoded>&lt;p&gt;&lt;strong&gt;Der neue Benchmark HiL-Bench misst die Faehigkeit von KI-Agenten, ihre eigenen Grenzen zu erkennen und um menschliche Hilfe zu bitten, anstatt zu raten. Die Ergebnisse zeigen, dass selbst Frontier-Modelle schlecht einschaetzen, wann sie Hilfe benoetigen, aber gezieltes Training diese Faehigkeit verbessern kann.&lt;/strong&gt;&lt;/p&gt;</content:encoded><category>agenti</category><category>važno</category></item><item><title>ArXiv OpenKedge: Kryptographisches Protokoll, das vor jeder KI-Agentenaktion eine Genehmigung verlangt</title><link>https://24-ai.news/de/vijest/2026-04-14/arxiv-openkedge-sigurnost-agenata</link><guid isPermaLink="true">https://24-ai.news/de/vijest/2026-04-14/arxiv-openkedge-sigurnost-agenata</guid><description>OpenKedge ist ein neues Sicherheitsprotokoll fuer autonome KI-Agenten, das vor der Ausfuehrung von Aenderungen eine explizite Genehmigung verlangt. Es verwendet kryptographische Beweisketten fuer vollstaendige Auditierbarkeit und verhindert unsichere Operationen im grossen Massstab.</description><pubDate>Tue, 14 Apr 2026 00:00:00 GMT</pubDate><content:encoded>&lt;p&gt;&lt;strong&gt;OpenKedge ist ein neues Sicherheitsprotokoll fuer autonome KI-Agenten, das vor der Ausfuehrung von Aenderungen eine explizite Genehmigung verlangt. Es verwendet kryptographische Beweisketten fuer vollstaendige Auditierbarkeit und verhindert unsichere Operationen im grossen Massstab.&lt;/strong&gt;&lt;/p&gt;</content:encoded><category>sigurnost</category><category>važno</category></item><item><title>ArXiv: Process Reward Agents — Echtzeit-Feedback verbessert KI-Schlussfolgerungen in der Medizin ohne Retraining</title><link>https://24-ai.news/de/vijest/2026-04-14/arxiv-process-reward-agents-medicina</link><guid isPermaLink="true">https://24-ai.news/de/vijest/2026-04-14/arxiv-process-reward-agents-medicina</guid><description>Forscher haben Process Reward Agents (PRA) vorgestellt, einen neuen Ansatz, der waehrend des KI-Schlussfolgerungsprozesses in medizinischen Domaenen schrittweises Feedback liefert. Das System funktioniert mit bestehenden Modellen ohne Retraining und erzielt bedeutende Ergebnisse auf medizinischen Benchmarks.</description><pubDate>Tue, 14 Apr 2026 00:00:00 GMT</pubDate><content:encoded>&lt;p&gt;&lt;strong&gt;Forscher haben Process Reward Agents (PRA) vorgestellt, einen neuen Ansatz, der waehrend des KI-Schlussfolgerungsprozesses in medizinischen Domaenen schrittweises Feedback liefert. Das System funktioniert mit bestehenden Modellen ohne Retraining und erzielt bedeutende Ergebnisse auf medizinischen Benchmarks.&lt;/strong&gt;&lt;/p&gt;</content:encoded><category>modeli</category><category>važno</category></item><item><title>AWS: Wie Sie Reward-Funktionen mit Lambda fuer das Fine-Tuning von Amazon-Nova-Modellen erstellen</title><link>https://24-ai.news/de/vijest/2026-04-14/aws-reward-funkcije-amazon-nova</link><guid isPermaLink="true">https://24-ai.news/de/vijest/2026-04-14/aws-reward-funkcije-amazon-nova</guid><description>Amazon Web Services hat einen detaillierten technischen Leitfaden zur Erstellung skalierbarer Reward-Funktionen mit AWS Lambda fuer die Anpassung von Amazon-Nova-Modellen veroeffentlicht. Der Leitfaden behandelt RLVR- und RLAIF-Ansaetze, das Design mehrdimensionaler Belohnungssysteme und Monitoring ueber CloudWatch.</description><pubDate>Tue, 14 Apr 2026 00:00:00 GMT</pubDate><content:encoded>&lt;p&gt;&lt;strong&gt;Amazon Web Services hat einen detaillierten technischen Leitfaden zur Erstellung skalierbarer Reward-Funktionen mit AWS Lambda fuer die Anpassung von Amazon-Nova-Modellen veroeffentlicht. Der Leitfaden behandelt RLVR- und RLAIF-Ansaetze, das Design mehrdimensionaler Belohnungssysteme und Monitoring ueber CloudWatch.&lt;/strong&gt;&lt;/p&gt;</content:encoded><category>praksa</category><category>zanimljivo</category></item><item><title>GitHub: Lernen Sie, KI-Agenten durch ein interaktives Sicherheitsspiel zu hacken</title><link>https://24-ai.news/de/vijest/2026-04-14/github-secure-code-game-ai-agenti</link><guid isPermaLink="true">https://24-ai.news/de/vijest/2026-04-14/github-secure-code-game-ai-agenti</guid><description>GitHub hat die vierte Staffel des Secure Code Game gestartet, die sich auf die Sicherheit von KI-Agenten konzentriert. Spieler lernen, Schwachstellen wie Prompt Injection, Memory Poisoning und Werkzeugmissbrauch ueber 5 aufeinander aufbauende Stufen auszunutzen.</description><pubDate>Tue, 14 Apr 2026 00:00:00 GMT</pubDate><content:encoded>&lt;p&gt;&lt;strong&gt;GitHub hat die vierte Staffel des Secure Code Game gestartet, die sich auf die Sicherheit von KI-Agenten konzentriert. Spieler lernen, Schwachstellen wie Prompt Injection, Memory Poisoning und Werkzeugmissbrauch ueber 5 aufeinander aufbauende Stufen auszunutzen.&lt;/strong&gt;&lt;/p&gt;</content:encoded><category>sigurnost</category><category>važno</category></item><item><title>Google Chrome: KI-Skills verwandeln Prompts in Ein-Klick-Werkzeuge</title><link>https://24-ai.news/de/vijest/2026-04-14/google-chrome-ai-skills</link><guid isPermaLink="true">https://24-ai.news/de/vijest/2026-04-14/google-chrome-ai-skills</guid><description>Google hat die Skills-Funktion in Chrome gestartet, die es Nutzern ermoeglicht, KI-Prompts als wiederverwendbare Ein-Klick-Werkzeuge zu speichern. Die Funktion nutzt Gemini und funktioniert auf Mac-, Windows- und ChromeOS-Plattformen.</description><pubDate>Tue, 14 Apr 2026 00:00:00 GMT</pubDate><content:encoded>&lt;p&gt;&lt;strong&gt;Google hat die Skills-Funktion in Chrome gestartet, die es Nutzern ermoeglicht, KI-Prompts als wiederverwendbare Ein-Klick-Werkzeuge zu speichern. Die Funktion nutzt Gemini und funktioniert auf Mac-, Windows- und ChromeOS-Plattformen.&lt;/strong&gt;&lt;/p&gt;</content:encoded><category>praksa</category><category>važno</category></item><item><title>Google Research: Vantage — KI-Plattform, die kritisches Denken und Kreativitaet durch Gespraeche mit Avataren bewertet</title><link>https://24-ai.news/de/vijest/2026-04-14/google-vantage-procjena-vjestina</link><guid isPermaLink="true">https://24-ai.news/de/vijest/2026-04-14/google-vantage-procjena-vjestina</guid><description>Google Research stellt in Zusammenarbeit mit der NYU Vantage vor, eine experimentelle Plattform, die generative KI zur Bewertung schwer messbarer menschlicher Faehigkeiten wie kritisches Denken und Kreativitaet einsetzt. Die KI-Bewertung zeigte eine Uebereinstimmung mit menschlichen Experten, die mit der Uebereinstimmung zwischen Experten vergleichbar ist.</description><pubDate>Tue, 14 Apr 2026 00:00:00 GMT</pubDate><content:encoded>&lt;p&gt;&lt;strong&gt;Google Research stellt in Zusammenarbeit mit der NYU Vantage vor, eine experimentelle Plattform, die generative KI zur Bewertung schwer messbarer menschlicher Faehigkeiten wie kritisches Denken und Kreativitaet einsetzt. Die KI-Bewertung zeigte eine Uebereinstimmung mit menschlichen Experten, die mit der Uebereinstimmung zwischen Experten vergleichbar ist.&lt;/strong&gt;&lt;/p&gt;</content:encoded><category>praksa</category><category>važno</category></item><item><title>OpenAI und Cloudflare: GPT-5.4 und Codex treiben neue Agent-Cloud-Plattform fuer Unternehmen an</title><link>https://24-ai.news/de/vijest/2026-04-14/openai-cloudflare-agent-cloud</link><guid isPermaLink="true">https://24-ai.news/de/vijest/2026-04-14/openai-cloudflare-agent-cloud</guid><description>Cloudflare hat OpenAIs GPT-5.4- und Codex-Modelle in seine neue Agent-Cloud-Plattform integriert und ermoeglicht es Unternehmenskunden, KI-Agenten fuer reale Geschaeftsaufgaben mit Schwerpunkt auf Geschwindigkeit und Sicherheit zu erstellen, bereitzustellen und zu skalieren.</description><pubDate>Tue, 14 Apr 2026 00:00:00 GMT</pubDate><content:encoded>&lt;p&gt;&lt;strong&gt;Cloudflare hat OpenAIs GPT-5.4- und Codex-Modelle in seine neue Agent-Cloud-Plattform integriert und ermoeglicht es Unternehmenskunden, KI-Agenten fuer reale Geschaeftsaufgaben mit Schwerpunkt auf Geschwindigkeit und Sicherheit zu erstellen, bereitzustellen und zu skalieren.&lt;/strong&gt;&lt;/p&gt;</content:encoded><category>agenti</category><category>kritično</category></item><item><title>Perplexity API: n8n-Integration, AWS Marketplace und neuer /v1/models-Endpoint</title><link>https://24-ai.news/de/vijest/2026-04-14/perplexity-api-n8n-aws-marketplace</link><guid isPermaLink="true">https://24-ai.news/de/vijest/2026-04-14/perplexity-api-n8n-aws-marketplace</guid><description>Perplexity hat im April 2026 mehrere API-Updates angekuendigt: eine native n8n-Integration fuer visuelle KI-Workflows, Verfuegbarkeit auf dem AWS Marketplace fuer vereinfachte Beschaffung sowie einen neuen /v1/models-Endpoint ohne Authentifizierung.</description><pubDate>Tue, 14 Apr 2026 00:00:00 GMT</pubDate><content:encoded>&lt;p&gt;&lt;strong&gt;Perplexity hat im April 2026 mehrere API-Updates angekuendigt: eine native n8n-Integration fuer visuelle KI-Workflows, Verfuegbarkeit auf dem AWS Marketplace fuer vereinfachte Beschaffung sowie einen neuen /v1/models-Endpoint ohne Authentifizierung.&lt;/strong&gt;&lt;/p&gt;</content:encoded><category>praksa</category><category>zanimljivo</category></item><item><title>UK AISI: Claude Mythos Preview erreicht 73 % bei Experten-Cyber-Aufgaben — erstes Modell, das einen vollstaendigen Netzwerkangriff abschliesst</title><link>https://24-ai.news/de/vijest/2026-04-14/uk-aisi-claude-mythos-cyber</link><guid isPermaLink="true">https://24-ai.news/de/vijest/2026-04-14/uk-aisi-claude-mythos-cyber</guid><description>Das britische KI-Sicherheitsinstitut hat eine Evaluierung von Anthropics Claude Mythos Preview Modell veroeffentlicht, die bedeutende Fortschritte bei autonomen Cyber-Faehigkeiten zeigt. Das Modell ist das erste, das eine vollstaendige 32-Schritte-Simulation eines Angriffs auf ein Unternehmensnetzwerk erfolgreich abgeschlossen hat.</description><pubDate>Tue, 14 Apr 2026 00:00:00 GMT</pubDate><content:encoded>&lt;p&gt;&lt;strong&gt;Das britische KI-Sicherheitsinstitut hat eine Evaluierung von Anthropics Claude Mythos Preview Modell veroeffentlicht, die bedeutende Fortschritte bei autonomen Cyber-Faehigkeiten zeigt. Das Modell ist das erste, das eine vollstaendige 32-Schritte-Simulation eines Angriffs auf ein Unternehmensnetzwerk erfolgreich abgeschlossen hat.&lt;/strong&gt;&lt;/p&gt;</content:encoded><category>sigurnost</category><category>kritično</category></item><item><title>ArXiv HiL-Bench: Kein Frontier-Modell weiss, wann es um Hilfe bitten soll</title><link>https://24-ai.news/de/vijest/2026-04-13/arxiv-hil-bench-agenti-pomoc</link><guid isPermaLink="true">https://24-ai.news/de/vijest/2026-04-13/arxiv-hil-bench-agenti-pomoc</guid><description>Ein neuer Benchmark deckt einen universellen Beurteilungsmangel bei KI-Agenten auf — wenn Spezifikationen unvollstaendig sind, erreicht kein Frontier-Modell mehr als einen Bruchteil seiner vollen Leistung. Forscher zeigen, dass diese Faehigkeit mit RL trainiert werden kann.</description><pubDate>Mon, 13 Apr 2026 00:00:00 GMT</pubDate><content:encoded>&lt;p&gt;&lt;strong&gt;Ein neuer Benchmark deckt einen universellen Beurteilungsmangel bei KI-Agenten auf — wenn Spezifikationen unvollstaendig sind, erreicht kein Frontier-Modell mehr als einen Bruchteil seiner vollen Leistung. Forscher zeigen, dass diese Faehigkeit mit RL trainiert werden kann.&lt;/strong&gt;&lt;/p&gt;</content:encoded><category>agenti</category><category>kritično</category></item><item><title>ArXiv PRA: 4B-Modell erreicht 80,8% auf medizinischem Benchmark — neuer SOTA fuer kleine Skala</title><link>https://24-ai.news/de/vijest/2026-04-13/arxiv-pra-medicinski-reasoning</link><guid isPermaLink="true">https://24-ai.news/de/vijest/2026-04-13/arxiv-pra-medicinski-reasoning</guid><description>Process Reward Agents ermoeglichen kleinen eingefrorenen Modellen (0,5B-8B), medizinisches Reasoning ohne jegliches Training signifikant zu verbessern — Qwen3-4B erreicht einen neuen State-of-the-Art von 80,8% auf MedQA.</description><pubDate>Mon, 13 Apr 2026 00:00:00 GMT</pubDate><content:encoded>&lt;p&gt;&lt;strong&gt;Process Reward Agents ermoeglichen kleinen eingefrorenen Modellen (0,5B-8B), medizinisches Reasoning ohne jegliches Training signifikant zu verbessern — Qwen3-4B erreicht einen neuen State-of-the-Art von 80,8% auf MedQA.&lt;/strong&gt;&lt;/p&gt;</content:encoded><category>modeli</category><category>važno</category></item><item><title>ArXiv SAGE: 27 LLMs getestet — Modelle verstehen die Absicht, fuehren aber nicht korrekt aus</title><link>https://24-ai.news/de/vijest/2026-04-13/arxiv-sage-execution-gap</link><guid isPermaLink="true">https://24-ai.news/de/vijest/2026-04-13/arxiv-sage-execution-gap</guid><description>Ein neuer Benchmark fuer Kundenservice deckt zwei Phaenomene auf: &apos;Execution Gap&apos; (Modelle klassifizieren Absichten korrekt, fuehren aber nicht die richtigen Aktionen aus) und &apos;Empathy Resilience&apos; (Modelle bleiben hoeflich, waehrend sie logische Fehler machen).</description><pubDate>Mon, 13 Apr 2026 00:00:00 GMT</pubDate><content:encoded>&lt;p&gt;&lt;strong&gt;Ein neuer Benchmark fuer Kundenservice deckt zwei Phaenomene auf: &apos;Execution Gap&apos; (Modelle klassifizieren Absichten korrekt, fuehren aber nicht die richtigen Aktionen aus) und &apos;Empathy Resilience&apos; (Modelle bleiben hoeflich, waehrend sie logische Fehler machen).&lt;/strong&gt;&lt;/p&gt;</content:encoded><category>agenti</category><category>zanimljivo</category></item><item><title>ArXiv SPPO: PPO auf Sequenzebene loest das Credit-Assignment-Problem in langen Denkketten</title><link>https://24-ai.news/de/vijest/2026-04-13/arxiv-sppo-sequence-ppo-reasoning</link><guid isPermaLink="true">https://24-ai.news/de/vijest/2026-04-13/arxiv-sppo-sequence-ppo-reasoning</guid><description>Sequence-Level PPO formuliert LLM-Reasoning als kontextuelles Bandit-Problem um und erreicht die Leistung teurer Gruppenmethoden wie GRPO mit dramatisch weniger Ressourcen — ohne Multi-Sampling.</description><pubDate>Mon, 13 Apr 2026 00:00:00 GMT</pubDate><content:encoded>&lt;p&gt;&lt;strong&gt;Sequence-Level PPO formuliert LLM-Reasoning als kontextuelles Bandit-Problem um und erreicht die Leistung teurer Gruppenmethoden wie GRPO mit dramatisch weniger Ressourcen — ohne Multi-Sampling.&lt;/strong&gt;&lt;/p&gt;</content:encoded><category>modeli</category><category>važno</category></item><item><title>Anthropic: Emotionen in Claude 4.5 beeinflussen Reward Hacking und Sycophancy kausal</title><link>https://24-ai.news/de/vijest/2026-04-12/anthropic-emotion-concepts-claude45</link><guid isPermaLink="true">https://24-ai.news/de/vijest/2026-04-12/anthropic-emotion-concepts-claude45</guid><description>Das Interpretability-Team von Anthropic hat eine Arbeit veröffentlicht, in der interne Repräsentationen von Emotionen in Claude Sonnet 4.5 identifiziert werden, und belegt, dass diese das Verhalten des Modells kausal beeinflussen — einschließlich Reward Hacking, Erpressung und Sycophancy.</description><pubDate>Sun, 12 Apr 2026 00:00:00 GMT</pubDate><content:encoded>&lt;p&gt;&lt;strong&gt;Das Interpretability-Team von Anthropic hat eine Arbeit veröffentlicht, in der interne Repräsentationen von Emotionen in Claude Sonnet 4.5 identifiziert werden, und belegt, dass diese das Verhalten des Modells kausal beeinflussen — einschließlich Reward Hacking, Erpressung und Sycophancy.&lt;/strong&gt;&lt;/p&gt;</content:encoded><category>sigurnost</category><category>kritično</category></item><item><title>ArXiv: Mathematischer Beweis der Unmöglichkeit vollständiger Verantwortlichkeit in Mensch-KI-Kollektiven</title><link>https://24-ai.news/de/vijest/2026-04-12/arxiv-accountability-horizon-impossibility</link><guid isPermaLink="true">https://24-ai.news/de/vijest/2026-04-12/arxiv-accountability-horizon-impossibility</guid><description>Der Forscher Tibebu beweist ein formales Unmöglichkeitsresultat: Oberhalb einer bestimmten Autonomieschwelle von KI-Agenten können in Systemen, die Menschen und KI kombinieren, nicht alle vier Eigenschaften der Verantwortlichkeit gleichzeitig gelten.</description><pubDate>Sun, 12 Apr 2026 00:00:00 GMT</pubDate><content:encoded>&lt;p&gt;&lt;strong&gt;Der Forscher Tibebu beweist ein formales Unmöglichkeitsresultat: Oberhalb einer bestimmten Autonomieschwelle von KI-Agenten können in Systemen, die Menschen und KI kombinieren, nicht alle vier Eigenschaften der Verantwortlichkeit gleichzeitig gelten.&lt;/strong&gt;&lt;/p&gt;</content:encoded><category>regulacija</category><category>važno</category></item><item><title>ArXiv ACIArena: Der erste Benchmark für Prompt-Injection-Angriffe durch Ketten von KI-Agenten</title><link>https://24-ai.news/de/vijest/2026-04-12/arxiv-aciarena-cascading-injection</link><guid isPermaLink="true">https://24-ai.news/de/vijest/2026-04-12/arxiv-aciarena-cascading-injection</guid><description>Das Team um An hat 1.356 Testfälle für 6 Multi-Agenten-Implementierungen veröffentlicht, die die Robustheit gegenüber „Cascading Injection“-Angriffen messen — bei denen ein bösartiger Prompt durch Kommunikationskanäle zwischen Agenten weitergeleitet wird.</description><pubDate>Sun, 12 Apr 2026 00:00:00 GMT</pubDate><content:encoded>&lt;p&gt;&lt;strong&gt;Das Team um An hat 1.356 Testfälle für 6 Multi-Agenten-Implementierungen veröffentlicht, die die Robustheit gegenüber „Cascading Injection“-Angriffen messen — bei denen ein bösartiger Prompt durch Kommunikationskanäle zwischen Agenten weitergeleitet wird.&lt;/strong&gt;&lt;/p&gt;</content:encoded><category>sigurnost</category><category>važno</category></item><item><title>ArXiv IatroBench: KI-Sicherheitsmechanismen reduzieren Hilfe für Laien um 13,1 Prozentpunkte</title><link>https://24-ai.news/de/vijest/2026-04-12/arxiv-iatrobench-iatrogenic-harm</link><guid isPermaLink="true">https://24-ai.news/de/vijest/2026-04-12/arxiv-iatrobench-iatrogenic-harm</guid><description>Ein neuer präregistrierter Benchmark misst, wie oft KI-Modelle Informationen je nach Selbstdarstellung des Nutzers zurückhalten. Frontier-Modelle geben 13,1 Prozentpunkte seltener hochwertige Hinweise, wenn die Frage von einem Laien statt von einem Experten kommt.</description><pubDate>Sun, 12 Apr 2026 00:00:00 GMT</pubDate><content:encoded>&lt;p&gt;&lt;strong&gt;Ein neuer präregistrierter Benchmark misst, wie oft KI-Modelle Informationen je nach Selbstdarstellung des Nutzers zurückhalten. Frontier-Modelle geben 13,1 Prozentpunkte seltener hochwertige Hinweise, wenn die Frage von einem Laien statt von einem Experten kommt.&lt;/strong&gt;&lt;/p&gt;</content:encoded><category>sigurnost</category><category>važno</category></item><item><title>ArXiv: Gesamtes Munkres-Topologie-Lehrbuch mit LLM-Unterstützung in Isabelle/HOL formalisiert</title><link>https://24-ai.news/de/vijest/2026-04-12/arxiv-munkres-topology-isabelle</link><guid isPermaLink="true">https://24-ai.news/de/vijest/2026-04-12/arxiv-munkres-topology-isabelle</guid><description>Ein Team um Bryant hat mit einer LLM-unterstützten Pipeline Munkres&apos; vollständiges Lehrbuch „General Topology“ in Isabelle/HOL formal verifiziert — über 85.000 Zeilen verifizierten Codes und alle 806 formalen Ergebnisse.</description><pubDate>Sun, 12 Apr 2026 00:00:00 GMT</pubDate><content:encoded>&lt;p&gt;&lt;strong&gt;Ein Team um Bryant hat mit einer LLM-unterstützten Pipeline Munkres&apos; vollständiges Lehrbuch „General Topology“ in Isabelle/HOL formal verifiziert — über 85.000 Zeilen verifizierten Codes und alle 806 formalen Ergebnisse.&lt;/strong&gt;&lt;/p&gt;</content:encoded><category>praksa</category><category>zanimljivo</category></item><item><title>ArXiv: Jailbreak ohne Training — Forscher entfernen KI-Sicherheitsleitplanken zur Inferenzzeit</title><link>https://24-ai.news/de/vijest/2026-04-12/arxiv-silencing-guardrails-jailbreak</link><guid isPermaLink="true">https://24-ai.news/de/vijest/2026-04-12/arxiv-silencing-guardrails-jailbreak</guid><description>Eine neue Arbeit stellt Contextual Representation Ablation (CRA) vor — eine Methode, die Refusal-Aktivierungen in den verborgenen Schichten eines großen Sprachmodells während der Dekodierung identifiziert und unterdrückt. Sicherheitsmechanismen offener Modelle lassen sich ganz ohne Fine-Tuning umgehen.</description><pubDate>Sun, 12 Apr 2026 00:00:00 GMT</pubDate><content:encoded>&lt;p&gt;&lt;strong&gt;Eine neue Arbeit stellt Contextual Representation Ablation (CRA) vor — eine Methode, die Refusal-Aktivierungen in den verborgenen Schichten eines großen Sprachmodells während der Dekodierung identifiziert und unterdrückt. Sicherheitsmechanismen offener Modelle lassen sich ganz ohne Fine-Tuning umgehen.&lt;/strong&gt;&lt;/p&gt;</content:encoded><category>sigurnost</category><category>kritično</category></item><item><title>CNCF von der KubeCon EU: Platform Engineering durch die Linse vielfältiger Teamperspektiven</title><link>https://24-ai.news/de/vijest/2026-04-12/cncf-kubecon-platform-engineering</link><guid isPermaLink="true">https://24-ai.news/de/vijest/2026-04-12/cncf-kubecon-platform-engineering</guid><description>Diana Todea von VictoriaMetrics schreibt von der KubeCon EU in Amsterdam darüber, wie die Vielfalt der Teamperspektiven das Platform Engineering beeinflusst — vom Abstraction Design bis zur Teambindung.</description><pubDate>Sun, 12 Apr 2026 00:00:00 GMT</pubDate><content:encoded>&lt;p&gt;&lt;strong&gt;Diana Todea von VictoriaMetrics schreibt von der KubeCon EU in Amsterdam darüber, wie die Vielfalt der Teamperspektiven das Platform Engineering beeinflusst — vom Abstraction Design bis zur Teambindung.&lt;/strong&gt;&lt;/p&gt;</content:encoded><category>zajednica</category><category>zanimljivo</category></item><item><title>CNCF: Schülerin spricht auf der KubeCon EU — Hurrikan-Vorhersage mit Kubernetes und vLLM</title><link>https://24-ai.news/de/vijest/2026-04-12/cncf-kubecon-srednjoskolka-govornica</link><guid isPermaLink="true">https://24-ai.news/de/vijest/2026-04-12/cncf-kubecon-srednjoskolka-govornica</guid><description>Avery Yang von der North Carolina School of Science and Mathematics ist eine der jüngsten Sprecherinnen auf der KubeCon EU 2026 in Amsterdam. Sie stellte ein Poster über Hurrikan-Vorhersage mit Hilfe von Kubernetes-Clustern und vLLM zur Inferenz vor.</description><pubDate>Sun, 12 Apr 2026 00:00:00 GMT</pubDate><content:encoded>&lt;p&gt;&lt;strong&gt;Avery Yang von der North Carolina School of Science and Mathematics ist eine der jüngsten Sprecherinnen auf der KubeCon EU 2026 in Amsterdam. Sie stellte ein Poster über Hurrikan-Vorhersage mit Hilfe von Kubernetes-Clustern und vLLM zur Inferenz vor.&lt;/strong&gt;&lt;/p&gt;</content:encoded><category>zajednica</category><category>zanimljivo</category></item><item><title>GitHub Copilot CLI: Offizieller Einsteigerleitfaden — Aufgaben an Cloud-Agenten aus dem Terminal delegieren</title><link>https://24-ai.news/de/vijest/2026-04-12/github-copilot-cli-tutorial</link><guid isPermaLink="true">https://24-ai.news/de/vijest/2026-04-12/github-copilot-cli-tutorial</guid><description>GitHub hat am 10. April ein offizielles Tutorial für das Tool Copilot CLI veröffentlicht. Der Leitfaden deckt Installation über npm, Authentifizierung mit dem GitHub-Konto und praktische Beispiele ab — einschließlich der Delegation von Aufgaben an Cloud-Agenten.</description><pubDate>Sun, 12 Apr 2026 00:00:00 GMT</pubDate><content:encoded>&lt;p&gt;&lt;strong&gt;GitHub hat am 10. April ein offizielles Tutorial für das Tool Copilot CLI veröffentlicht. Der Leitfaden deckt Installation über npm, Authentifizierung mit dem GitHub-Konto und praktische Beispiele ab — einschließlich der Delegation von Aufgaben an Cloud-Agenten.&lt;/strong&gt;&lt;/p&gt;</content:encoded><category>agenti</category><category>važno</category></item><item><title>OpenAI: Kompromittierung des Axios-Entwicklertools — Code-Signing-Zertifikate rotiert, Nutzerdaten sicher</title><link>https://24-ai.news/de/vijest/2026-04-12/openai-axios-supply-chain-incident</link><guid isPermaLink="true">https://24-ai.news/de/vijest/2026-04-12/openai-axios-supply-chain-incident</guid><description>OpenAI hat eine offizielle Reaktion auf einen Supply-Chain-Angriff auf das Entwicklungstool Axios veröffentlicht. Das Unternehmen hat die macOS-Code-Signing-Zertifikate rotiert und bestätigt, dass keine Nutzerdaten kompromittiert wurden.</description><pubDate>Sun, 12 Apr 2026 00:00:00 GMT</pubDate><content:encoded>&lt;p&gt;&lt;strong&gt;OpenAI hat eine offizielle Reaktion auf einen Supply-Chain-Angriff auf das Entwicklungstool Axios veröffentlicht. Das Unternehmen hat die macOS-Code-Signing-Zertifikate rotiert und bestätigt, dass keine Nutzerdaten kompromittiert wurden.&lt;/strong&gt;&lt;/p&gt;</content:encoded><category>sigurnost</category><category>važno</category></item><item><title>Anthropic veröffentlicht Policy-Framework ‚Trustworthy agents in practice&apos;</title><link>https://24-ai.news/de/vijest/2026-04-11/anthropic-trustworthy-agents-policy</link><guid isPermaLink="true">https://24-ai.news/de/vijest/2026-04-11/anthropic-trustworthy-agents-policy</guid><description>Anthropic hat ein umfassendes Policy-Framework ‚Trustworthy agents in practice&apos; veröffentlicht, das definiert, was es bedeutet, KI-Agenten zuverlässig zu entwickeln, bereitzustellen und zu nutzen. Das Dokument dient als Leitfaden für Unternehmen, die Agenten erstellen oder einsetzen.</description><pubDate>Sat, 11 Apr 2026 00:00:00 GMT</pubDate><content:encoded>&lt;p&gt;&lt;strong&gt;Anthropic hat ein umfassendes Policy-Framework ‚Trustworthy agents in practice&apos; veröffentlicht, das definiert, was es bedeutet, KI-Agenten zuverlässig zu entwickeln, bereitzustellen und zu nutzen. Das Dokument dient als Leitfaden für Unternehmen, die Agenten erstellen oder einsetzen.&lt;/strong&gt;&lt;/p&gt;</content:encoded><category>agenti</category><category>važno</category></item><item><title>Apple Machine Learning Research auf der CHI-2026-Konferenz in Barcelona</title><link>https://24-ai.news/de/vijest/2026-04-11/apple-chi-2026-konferencija</link><guid isPermaLink="true">https://24-ai.news/de/vijest/2026-04-11/apple-chi-2026-konferencija</guid><description>Apple Machine Learning Research hat seine Teilnahme an der ACM-CHI-2026-Konferenz bekannt gegeben, die vom 13. bis 17. April in Barcelona stattfindet. Apple wird neue Forschungsergebnisse aus dem Bereich Human-Computer Interaction vorstellen.</description><pubDate>Sat, 11 Apr 2026 00:00:00 GMT</pubDate><content:encoded>&lt;p&gt;&lt;strong&gt;Apple Machine Learning Research hat seine Teilnahme an der ACM-CHI-2026-Konferenz bekannt gegeben, die vom 13. bis 17. April in Barcelona stattfindet. Apple wird neue Forschungsergebnisse aus dem Bereich Human-Computer Interaction vorstellen.&lt;/strong&gt;&lt;/p&gt;</content:encoded><category>zajednica</category><category>zanimljivo</category></item></channel></rss>