🟡 ⚖️ 监管 2026年5月6日星期三 · 1 分钟阅读 ·

UK AISI: 与 Microsoft 签署前沿 AI 安全 3 个领域合作备忘录

编辑插图:英国政府机构与科技公司之间专注于前沿 AI 安全的握手

英国 AI 安全研究所于 5 月 5 日宣布与 Microsoft 开展前沿 AI 安全合作。合作涵盖三个研究领域:高风险能力评估、防护措施测试以及对话式 AI 社会韧性研究。

🤖

本文由人工智能基于一手来源生成。

AISI 发布了什么?

英国AI 安全研究所(AISI)隶属于科学、创新与技术部,于 2026 年 5 月 5 日宣布与 Microsoft 开展新合作。该协议涵盖与前沿 AI 安全相关的三个研究领域——这些是超越当前模型代际的最强大系统。

Microsoft 同日在其博客上发布了并行声明,从双方正式确认了这一合作关系。

合作涵盖哪三个领域?

该协议定义了明确划定的研究范围:

  • 高风险能力评估——在风险情境中评估 AI 系统先进能力的方法
  • 防护措施测试——评估前沿系统用于防止滥用的保护措施
  • 社会韧性研究——对话式 AI 如何在敏感情境下与用户互动(心理健康、虚假信息等)

这三个领域共同涵盖了技术层面(模型能力)和人类层面(最终用户)。

为什么 AISI 寻求与行业合作?

在官方声明中,AISI 指出:“随着 AI 系统变得越来越有能力,政府与开发和部署前沿 AI 的公司之间的持续双向合作,对于推进我们对公共安全和国家安全重大风险的共同理解至关重要。”

换句话说,监管机构承认,没有访问预发布模型和内部指标的权限,就无法有效评估风险。Microsoft 作为四大前沿提供商之一(与 OpenAI、Anthropic 和 Google DeepMind),可以确保这种访问权限。

这对前沿 AI 安全意味着什么?

这一合作关系将 AISI 网络扩展到了之前与 OpenAI 和 Anthropic 达成的协议之外。由此,AISI 涵盖了四大领先前沿提供商中的三家,提高了其评估的代表性,并降低了市场偏见结果的风险。

常见问题

什么是 UK AISI?
AI 安全研究所是英国科学、创新与技术部下属的政府机构,专门研究最先进 AI 系统的安全性。
合作涵盖哪三个领域?
前沿 AI 高风险能力评估、前沿 AI 保护措施测试,以及在敏感情境中对话式 AI 的社会韧性研究。
Microsoft 是否发表了并行声明?
是的,Microsoft 同时在其博客上发布了相应的合作声明。