UK AISI: neues MoU mit Microsoft für Frontier-KI-Sicherheit in 3 Bereichen
Das UK AI Security Institute hat am 5. Mai eine Partnerschaft mit Microsoft zur Frontier-KI-Sicherheit bekannt gegeben. Die Zusammenarbeit umfasst drei Forschungsbereiche: Bewertung hochriskanter Fähigkeiten, Testen von Schutzmaßnahmen und Erforschung gesellschaftlicher Resilienz gegenüber konversationeller KI.
Dieser Artikel wurde mithilfe von künstlicher Intelligenz aus Primärquellen erstellt.
Was hat AISI bekannt gegeben?
Das britische AI Security Institute (AISI), das unter dem Department for Science, Innovation and Technology tätig ist, hat am 5. Mai 2026 eine neue Zusammenarbeit mit Microsoft angekündigt. Die Vereinbarung umfasst drei Forschungsbereiche zur Frontier-KI-Sicherheit — die leistungsfähigsten Systeme, die über die aktuelle Modellgeneration hinausgehen.
Microsoft veröffentlichte am selben Tag eine parallele Erklärung auf seinem Blog, womit die Partnerschaft von beiden Seiten formell bestätigt wurde.
Welche drei Bereiche deckt die Zusammenarbeit ab?
Die Vereinbarung definiert einen klar abgegrenzten Forschungsumfang:
- Bewertung hochriskanter Fähigkeiten — Methoden zur Einschätzung fortgeschrittener KI-Systemfähigkeiten in riskanten Kontexten
- Testen von Schutzmaßnahmen — Bewertung der Schutzmaßnahmen, die Frontier-Systeme zur Verhinderung von Missbrauch einsetzen
- Erforschung gesellschaftlicher Resilienz — wie konversationelle KI mit Nutzern in sensiblen Situationen interagiert (psychische Gesundheit, Desinformation u. Ä.)
Die drei Bereiche decken gemeinsam sowohl die technische Ebene (Modellfähigkeiten) als auch die menschliche Ebene (Endnutzer) ab.
Warum sucht AISI die Zusammenarbeit mit der Industrie?
In seiner offiziellen Erklärung hält AISI fest: „Da KI-Systeme immer leistungsfähiger werden, ist eine nachhaltige bidirektionale Zusammenarbeit zwischen der Regierung und den Unternehmen, die Frontier-KI entwickeln und einsetzen, für unser gemeinsames Verständnis der großen Risiken für die öffentliche und nationale Sicherheit unerlässlich.”
Anders gesagt: Der Regulierer erkennt an, dass er ohne Zugang zu Pre-Release-Modellen und internen Kennzahlen keine effektive Risikobewertung durchführen kann. Microsoft ist als einer der vier Frontier-Anbieter (neben OpenAI, Anthropic und Google DeepMind) in der Lage, diesen Zugang zu gewähren.
Was bedeutet das für die Frontier-KI-Sicherheit?
Die Partnerschaft erweitert das AISI-Netzwerk über frühere Vereinbarungen mit OpenAI und Anthropic hinaus. AISI deckt nun drei der vier führenden Frontier-Anbieter ab, was die Repräsentativität ihrer Bewertungen erhöht und das Risiko einer Marktverzerrung der Ergebnisse verringert.
Häufig gestellte Fragen
- Was ist das UK AISI?
- Das AI Security Institute ist eine britische Regierungsbehörde unter dem Department for Science, Innovation and Technology, die die Sicherheit der fortschrittlichsten KI-Systeme erforscht.
- Welche drei Bereiche umfasst die Zusammenarbeit?
- Bewertung hochriskanter Fähigkeiten, Testen von Schutzmaßnahmen für Frontier-KI sowie Erforschung gesellschaftlicher Resilienz gegenüber konversationeller KI in sensiblen Kontexten.
- Hat Microsoft eine parallele Erklärung veröffentlicht?
- Ja, Microsoft veröffentlichte zeitgleich eine entsprechende Partnerschaftserklärung auf seinem Blog.
Verwandte Nachrichten
NIST CAISI weitet Frontier-KI-Sicherheitstests auf Google DeepMind, Microsoft und xAI aus
LangChain und LangSmith zielen auf den EU AI Act: Compliance-Tools zu Artikeln 9, 10, 12-15 und 72 vor der Frist am 2. August 2026
OpenAI erhält FedRAMP Moderate-Autorisierung: ChatGPT Enterprise und API für sichere Einführung in US-Bundesbehörden geöffnet