OpenAI为发现GPT-5.5生物安全通用越狱漏洞提供最高25,000美元奖励
为什么重要
OpenAI随GPT-5.5发布了生物安全漏洞赏金计划,对发现生物安全领域通用越狱漏洞的研究人员提供最高25,000美元的奖励。这是一个面向研究人员的定向红队挑战活动。
OpenAI随GPT-5.5发布启动了生物安全漏洞赏金计划——一个专项红队计划,寻求安全研究人员发现模型生物安全领域的通用越狱漏洞。最严重类别的漏洞奖励高达25,000美元。
什么是「生物安全漏洞赏金计划」?
传统漏洞赏金计划在软件行业已存在数十年——谷歌、微软和Meta等公司向外部研究人员支付报酬,请他们发现其产品中的漏洞。OpenAI将这一理念移植到AI安全领域,但聚焦于一个特定领域:生物安全。
原因显而易见。先进语言模型已展示出详细讨论科学话题的能力,包括微生物学、基因工程和化合物合成。这使其成为双重用途技术——可以加速新疗法、疫苗和诊断的开发,但也可能为生物武器开发提供便利。
为何专注于生物学?
监管机构已将生物安全列为优先事项。美国第14110号行政令(2023年)明确将生物风险列为前沿AI实验室需要特别关注的类别。欧盟人工智能法案将可能协助开发CBRN威胁(化学、生物、放射性、核威胁)的系统归类为高风险。
前沿实验室以不同方式回应这一挑战。Anthropic引入了ASL(AI安全级别)量表,对在生物安全方面显示「显著提高风险」的模型在部署前要求额外措施。Google DeepMind通过前沿安全框架建立了类似机制。OpenAI的生物安全漏洞赏金计划属于同一系列主动举措。
什么是「通用越狱漏洞」?
经典越狱漏洞是在特定场景下绕过安全防护措施的特定提示词。通用越狱漏洞是一种更强大的技术,可在广泛场景和话题中发挥作用——一旦被发现,即可应用于各种形式的有害查询。
正是这类技术对攻击者最具价值,因此OpenAI最希望在其落入恶意行为者手中之前将其检测出来。25,000美元的奖励表明公司对这一风险的高度重视。
谁可以参与?
该计划对红队人员、生物安全研究人员、AI安全专家及普通安全社区开放。其他实验室也有类似计划——Anthropic有内部和外部红队流程,Google DeepMind与外部顾问合作。
对于本地区的研究人员和安全专业人士,这意味着一个具体机会:参与前沿AI实验室的赏金计划,既可获得收入,也能获得声誉优势。生物安全漏洞赏金计划目前是为数不多具有明确领域专注度和奖励金额的计划之一。
参与的详细条件、披露规则(负责任披露)和技术文档可在计划官方网站上查阅。
本文由人工智能基于一手来源生成。