UK AISI: 与 Microsoft 签署前沿 AI 安全 3 个领域合作备忘录
英国 AI 安全研究所于 5 月 5 日宣布与 Microsoft 开展前沿 AI 安全合作。合作涵盖三个研究领域:高风险能力评估、防护措施测试以及对话式 AI 社会韧性研究。
本文由人工智能基于一手来源生成。
AISI 发布了什么?
英国AI 安全研究所(AISI)隶属于科学、创新与技术部,于 2026 年 5 月 5 日宣布与 Microsoft 开展新合作。该协议涵盖与前沿 AI 安全相关的三个研究领域——这些是超越当前模型代际的最强大系统。
Microsoft 同日在其博客上发布了并行声明,从双方正式确认了这一合作关系。
合作涵盖哪三个领域?
该协议定义了明确划定的研究范围:
- 高风险能力评估——在风险情境中评估 AI 系统先进能力的方法
- 防护措施测试——评估前沿系统用于防止滥用的保护措施
- 社会韧性研究——对话式 AI 如何在敏感情境下与用户互动(心理健康、虚假信息等)
这三个领域共同涵盖了技术层面(模型能力)和人类层面(最终用户)。
为什么 AISI 寻求与行业合作?
在官方声明中,AISI 指出:“随着 AI 系统变得越来越有能力,政府与开发和部署前沿 AI 的公司之间的持续双向合作,对于推进我们对公共安全和国家安全重大风险的共同理解至关重要。”
换句话说,监管机构承认,没有访问预发布模型和内部指标的权限,就无法有效评估风险。Microsoft 作为四大前沿提供商之一(与 OpenAI、Anthropic 和 Google DeepMind),可以确保这种访问权限。
这对前沿 AI 安全意味着什么?
这一合作关系将 AISI 网络扩展到了之前与 OpenAI 和 Anthropic 达成的协议之外。由此,AISI 涵盖了四大领先前沿提供商中的三家,提高了其评估的代表性,并降低了市场偏见结果的风险。
常见问题
- 什么是 UK AISI?
- AI 安全研究所是英国科学、创新与技术部下属的政府机构,专门研究最先进 AI 系统的安全性。
- 合作涵盖哪三个领域?
- 前沿 AI 高风险能力评估、前沿 AI 保护措施测试,以及在敏感情境中对话式 AI 的社会韧性研究。
- Microsoft 是否发表了并行声明?
- 是的,Microsoft 同时在其博客上发布了相应的合作声明。