HuggingFace宣言:开源是AI网络安全的基础
为什么重要
HuggingFace发布了一份宣言,Margaret Mitchell、Yacine Jernite、Clem Delangue及17位联合作者主张,封闭AI系统是网络安全的单点故障。这是对Anthropic Mythos项目的回应,呼吁采用具有可审计日志和人工监督的半自主智能体。
HuggingFace宣言:开源是AI网络安全的基础
2026年4月21日,HuggingFace发布了一份详尽的宣言,Margaret Mitchell、Yacine Jernite、Clem Delangue及17位联合作者在其中论证,网络防御的未来依赖于开放模型、开放脚手架和可审计的轨迹。该文本是对Anthropic Mythos项目的直接回应。
为什么封闭AI系统是单点故障?
作者认为,AI在网络安全中的能力并不平滑——它取决于模型运行的系统(计算资源、软件数据、用于发现漏洞的脚手架、自主性)。在封闭项目中,这个系统存在于单一制造商处。这意味着只有一个组织能够看到和修复代码,作者将此描述为”单点故障”。额外的问题是,AI工具越来越容易对混淆的二进制文件进行逆向工程,因此专有的混淆已不再是防御策略。相比之下,开放生态系统通过四个阶段分配工作:检测、验证、协调和补丁传播。每个阶段都得益于更多的眼睛和分享发现的团队。
AI工具如何放大封闭代码中的漏洞?
宣言警告了一个正在发生的场景:企业在错误激励下——速度优先于安全——采用AI代码开发工具。在这种条件下,作者认为”AI加速的开发可能向专有代码引入比传统开发更多的漏洞”。这些漏洞随后存在于封闭代码库中,只有一个组织能够发现和修复它们,而AI武装的攻击者越来越成功地从外部发现同样的漏洞。作者将这种风险称为攻击者和防御者之间的”能力不对称”——开放模型和工具减少了这种差距,因为它们给了防御者访问攻击者所使用的同类能力。
什么是具有监督的半自主智能体,为什么推荐它们?
宣言提议采用半自主智能体,而非完全在没有人工监督下运行的自主系统。在这种系统中,行动是预定义的,某些步骤需要人工批准,人类保持控制权。关键句子是:“只有当人类能看到循环中的内容时,『人在循环中』才有意义。」为使监督真实有效,需要开放的智能体脚手架、开放的规则引擎和可审计的决策和轨迹日志。对于高风险组织(银行、医院、关键基础设施),这意味着能够检查监控系统、在自身数据上进行精细调整、定制的监督机制,以及在内部环境中运行——无需将敏感数据发送给外部AI提供商。作者得出结论,网络安全的未来将由生态系统而非单个模型塑造,而开放性是给予防御者可见性、控制权和共享基础设施以保持领先于攻击者的唯一途径。
本文由人工智能基于一手来源生成。