UK AISI: Microsoft とフロンティア AI 安全における 3 分野の MoU を締結
英国の AI Security Institute が 5 月 5 日に Microsoft とのフロンティア AI 安全に関するパートナーシップを発表しました。協力は 3 つの研究分野をカバーします:高リスク能力の評価、防護措置のテスト、対話型 AI の社会的回復力研究。
この記事はAIにより一次情報源から生成されました。
AISI は何を発表しましたか?
科学・イノベーション・技術省の下に置かれる英国の **AI Security Institute(AISI)**は、2026 年 5 月 5 日に Microsoft との新しい協力関係を発表しました。協定は現世代のモデルを超える最も強力なシステムであるフロンティア AI 安全に関連する 3 つの研究分野をカバーします。
Microsoft は同日そのブログで並行声明を公開し、パートナーシップを双方から正式に確認しました。
協力がカバーする 3 つの分野とは?
協定は明確に区切られた研究範囲を定義しています:
- 高リスク能力の評価——リスクのある文脈での AI システムの高度な能力を評価する手法
- 防護措置のテスト——フロンティアシステムが悪用防止のために使用する保護措置の評価
- 社会的回復力研究——対話型 AI が敏感な状況(メンタルヘルス、偽情報など)でユーザーとどのように対話するか
3 つの分野は合わせて技術層(モデルの能力)と人間層(エンドユーザー)の両方をカバーしています。
AISI が産業界との協力を求める理由は何ですか?
公式声明で AISI は次のように述べています:「AI システムがより高い能力を持つようになるにつれて、政府とフロンティア AI を開発・展開する企業との間の持続可能な双方向の協力は、公共安全と国家安全への重大なリスクに関する共通理解を進めるために不可欠です。」
言い換えれば、規制機関はプレリリースモデルと内部指標へのアクセスなしにリスクを効果的に評価できないことを認めています。Microsoft は 4 つのフロンティアプロバイダーの 1 つとして(OpenAI、Anthropic、Google DeepMind とともに)、そのようなアクセスを確保できます。
これはフロンティア AI 安全にとって何を意味しますか?
このパートナーシップは OpenAI や Anthropic との以前の協定を超えて AISI ネットワークを拡大します。これにより AISI は 4 つの主要フロンティアプロバイダーのうち 3 つをカバーし、評価の代表性が高まり、市場バイアスのある結果のリスクが低減されます。
よくある質問
- UK AISI とは何ですか?
- AI Security Institute は英国の科学・イノベーション・技術省の下に置かれる政府機関で、最先端の AI システムの安全性を研究しています。
- 協力の 3 つの分野は何ですか?
- フロンティア AI の高リスク能力評価、フロンティア AI の保護措置のテスト、敏感な状況における対話型 AI の社会的回復力研究。
- Microsoft は並行声明を発表しましたか?
- はい、Microsoft は同時にそのブログで対応するパートナーシップ声明を発表しました。