🔴 ⚖️ 监管 2026年5月5日星期二 · 2 分钟阅读 ·

NIST CAISI将前沿AI国家安全测试扩展至谷歌DeepMind、微软和xAI

概念插图:正义天平被电路板和芯片环绕,背景为地球,象征AI国家安全

NIST人工智能标准与创新中心(CAISI)于2026年5月5日与谷歌DeepMind、微软和xAI签署了扩展协议,用于前沿模型的部署前和部署后测试。CAISI迄今已开展40余次评估,包括对未公开的最先进模型的测试,相关工作在移除安全限制措施的保密环境中常规进行。

🤖

本文由人工智能基于一手来源生成。

NIST人工智能标准与创新中心(CAISI)于2026年5月5日宣布,已与谷歌DeepMind、微软和xAI签署扩展合作协议,将在国家安全背景下对前沿AI模型进行测试。新协议在2024年8月CAISI与Anthropic和OpenAI签署的早期协议基础上进一步扩展,使美国政府现已与美国五大领先前沿实验室均建立正式评估安排。

协议具体涵盖哪些内容?

协议涵盖部署前评估(模型公开发布前)和部署后研究(对已上市模型的分析)。迄今为止,CAISI已开展逾40次评估——包括对各实验室在公开发布前提交测试的未公开最先进模型的评估。

协议的技术框架允许各实验室以”削减或移除安全限制措施”(如内容过滤器、拒绝层)的方式提交模型,以便CAISI在不受安全护栏干扰的情况下测量模型的真实能力边界。测试在保密环境中由跨机构专家常规开展,这些专家通过TRAINS工作组行动——该协调机构成立于2024年11月,旨在将AI研究与国家安全工作对齐。

主任声明如何定义战略背景?

CAISI主任Chris Fall概括了协议宗旨:“独立、严格的测量科学对于理解前沿AI及其国家安全影响至关重要。“此表述强调,CAISI的职责是计量活动,而非政策制定——目标是客观测量模型的能力阈值,而非规定市场准入条件。

协议结构灵活——包含允许对未来AI发展迅速响应的条款,无需重新谈判。测试结果保留在保密渠道内,但NIST与各实验室反向合作,推动自愿产品改进和国际竞争力信息共享。

为什么这是前沿AI监管的里程碑?

将美国五大领先前沿实验室(Anthropic、OpenAI、谷歌DeepMind、微软、xAI)整合到统一的政府评估框架下,是一项结构性变革。18个月前,政府对AI模型的评估还是临时性的,依赖自愿披露。CAISI现已成为事实上的前沿AI评估国家实验室。

对产业的实际影响:各实验室现在必须维护保密测试流程,以可通过CAISI方法论验证的方式记录能力声明,并预期在能力大幅提升时接受发布前的政府审查。对欧盟AI办公室和英国AI安全研究所而言,这是一个参考模型——一种具有”移除安全限制”测试机制的正式部署前测试义务,而欧盟AI法案第51条(具有系统性风险的通用模型)在这一细节层面尚未落地实施。

常见问题

什么是CAISI,目前涵盖哪些公司?
CAISI(人工智能标准与创新中心)是NIST下属机构。2026年5月5日新协议签署后,CAISI已与美国五大前沿AI实验室均建立评估合作:Anthropic、OpenAI、谷歌DeepMind、微软和xAI。
CAISI迄今已开展多少次评估?
CAISI已对前沿模型开展超过40次评估,包括在安全限制措施被削减或移除的条件下对未公开最先进模型的评估。相关测试在保密环境中通过TRAINS工作组开展。
部署前测试与部署后测试有何区别?
部署前测试在模型公开发布前进行,用于评估国家安全影响;部署后研究则分析已在市场上运行的模型。两种方式均涵盖在CAISI的新协议中。