🔴 ⚖️ 規制 2026年5月5日火曜日 · 3 分で読めます ·

NIST CAISIがフロンティアAI国家安全テストをGoogle DeepMind・Microsoft・xAIに拡大

コンセプトイラスト:回路基板とチップに囲まれた正義の天秤と地球、AIの国家安全保障を象徴

NISTのAI標準イノベーションセンター(CAISI)は2026年5月5日、Google DeepMind・Microsoft・xAIとフロンティアモデルの事前・事後展開テストに関する拡張協定を締結しました。CAISIはこれまで40件以上の評価を実施しており、未公開の最先端モデルのテストを含め、セーフガードを削除した機密環境で通常実施されています。

🤖

この記事はAIにより一次情報源から生成されました。

NISTのAI標準イノベーションセンター(CAISI)は2026年5月5日、国家安全保障の観点からフロンティアAIモデルをテストするため、Google DeepMind・Microsoft・xAIと拡張協力協定を締結したと発表しました。新協定は、2024年8月にCAISIがAnthropicおよびOpenAIと結んだ先行協定を拡充するもので、米国政府は今や米国の主要フロンティアラボ5社すべてと正式な評価取り決めを持つことになります。

協定が具体的にカバーする内容

協定は、事前展開評価(モデルの公開前)と事後展開研究(市場投入済みモデルの分析)をカバーします。CAISIはこれまで40件以上の評価を実施しており、各ラボが公開前に提出した未公開最先端モデルの評価も含まれます。

協定の技術的枠組みにより、ラボはモデルを「セーフガードを削減または除去した状態」(例:コンテンツフィルタ、拒否レイヤー)で提出できます。これにより、CAISIは安全ガードレールの干渉を受けずにモデルの真の能力限界を測定できます。テストは2024年11月に設立されたTRAINSタスクフォースを通じた機関横断の専門家により、機密環境で通常実施されます。

所長の発言が示す戦略的文脈

CAISI所長のChris Fallは協定の趣旨をこう要約しました。「フロンティアAIとその国家安全保障上の意義を理解するには、独立した厳格な計測科学が不可欠です。」この言葉は、CAISIの使命が計測活動であり政策立案ではないことを強調しています。目標はモデルの能力閾値を客観的に測ることであり、市場アクセスの条件を規定することではありません。

協定は柔軟に構造化されており、将来のAI進歩に対して再交渉なしに迅速に対応できる条項が含まれています。テスト結果は機密チャネルに留まりますが、NISTはラボと連携して自発的な製品改善や国際競争力に関する情報交換を進めています。

なぜこれはフロンティアAI規制の転換点なのか

米国の主要フロンティアラボ5社(Anthropic・OpenAI・Google DeepMind・Microsoft・xAI)が単一の政府評価枠組みに統合されたことは、構造的な変化です。18か月前、政府によるAIモデル評価は場当たり的で任意開示に依存していました。CAISIは今や事実上のフロンティアAI評価国家機関となっています。

産業への実際的な影響:各ラボはCAISI方法論で検証可能な形で能力を文書化し、機密テストパイプラインを維持し、大幅な能力向上の際にはリリース前の政府審査を想定しなければなりません。EU AI办公室や英国AI安全研究所にとって、これは参照モデルとなります——「セーフガード除去」テスト機構を備えた正式な事前展開テスト義務ですが、EU AI法第51条(システミックリスクを持つ汎用モデル)はこのレベルの詳細な実施にまだ至っていません。

よくある質問

CAISIとはどのような機関で、現在どの企業が対象ですか?
CAISI(AI標準イノベーションセンター)はNISTが設置した機関です。2026年5月5日の新協定締結後、米国の主要フロンティアAIラボ5社すべて(Anthropic・OpenAI・Google DeepMind・Microsoft・xAI)と評価協定を結んでいます。
CAISIはこれまでに何件の評価を実施しましたか?
CAISIはフロンティアモデルに対して40件以上の評価を実施しており、セーフガードが削減または除去された状態での未公開最先端モデルの評価も含まれます。テストはTRAINSタスクフォースを通じ、機密環境で常時実施されています。
事前展開テストと事後展開テストの違いは何ですか?
事前展開テストはモデルの公開前に実施し、国家安全保障上の影響を評価します。事後展開研究はすでに市場に出回っているモデルを分析します。いずれもCAISIの新協定でカバーされています。