🟡 🛡️ 安全 2026年5月9日星期六 · 2 分钟阅读 ·

OpenAI: 如何在生产环境中安全运行Codex——沙箱、审批与代理遥测

编辑插图:沙箱中的Codex编码代理,展示审批系统界面

OpenAI发布了在企业环境中安全运行Codex编码代理的指南,描述了四个安全层:执行沙箱、审批系统、网络策略以及代理原生遥测,面向考虑合规要求和在开发流水线中进行受控AI代理集成的团队。

🤖

本文由人工智能基于一手来源生成。

OpenAI于5月8日发布了文档《Running Codex safely at OpenAI》,这是一份面向企业用户的指南,描述如何在生产环境中安全运行Codex编码代理。该材料是OpenAI编码代理安全系列文章的一部分,延续了2026年3月早期关于Codex Security代理的文章。

OpenAI提出的四个安全层是什么?

该指南描述了四种互补机制。沙箱将代码执行隔离在受控环境中,代理无法直接影响生产系统。审批系统对高风险操作(网络访问、敏感文件修改、部署)强制执行人工监督。网络策略定义代理可以访问哪些外部域名和内部服务。代理原生遥测记录工具调用、决策和上下文,实现行为审计,而不仅仅是记录请求/响应对。

这对企业合规意味着什么?

这种方法反映了AI安全从模型层面转向代理执行层面的趋势。传统应用安全假设代码是确定性的;AI代理引入了合规团队必须通过细粒度执行策略和审计追踪来应对的不确定性。OpenAI发出信号:仅仅「模型是安全的」是不够的——运行环境控制必须确保即使不安全或不可预测的输出也能保持在可接受范围内。

这与OpenAI Codex叙事有何关联?

该指南是继两篇早期文章之后发布的:3月6日的《Codex Security: Now in Research Preview》关于AI漏洞发现代理,以及3月16日的《Why Codex Security Doesn’t Include a SAST Report》关于基于约束的漏洞检测方法。新文档形成闭环——在讨论代理本身的安全能力之后,焦点转向在生产中安全操作代理。撰写本文时,文章全文尚未通过公开渠道获取;本摘要基于官方RSS描述。

常见问题

什么是代理原生遥测?
专为AI代理设计的遥测系统——记录工具调用、决策过程、上下文和执行结果,而非传统的请求/响应日志。它能够实现代理行为审计和异常检测。
为什么审批系统对AI编码代理至关重要?
审批系统确保高风险操作(如网络访问、删除文件、部署)必须经过人工监督。这防止代理自行执行未经团队批准的操作,并留下审计追踪。
这份OpenAI指南面向哪些对象?
面向已经或正在考虑将Codex用于生产的企业团队,这些团队需要满足合规、安全和内部审查要求。该指南同时也是内部安全策略的参考依据。