OpenAI: 프로덕션에서 Codex를 안전하게 실행하는 방법——샌드박스, 승인 흐름, 에이전트 텔레메트리
OpenAI가 엔터프라이즈 환경에서 Codex 코딩 에이전트를 안전하게 실행하기 위한 가이드라인을 공개했습니다. 실행 샌드박스, 승인 시스템, 네트워크 정책, 에이전트 네이티브 텔레메트리의 네 가지 보안 계층을 설명하며, 컴플라이언스와 개발 파이프라인에서의 AI 에이전트 통합을 검토하는 팀을 대상으로 합니다.
이 기사는 AI가 1차 출처를 기반으로 생성했습니다.
OpenAI는 5월 8일에 「Running Codex safely at OpenAI」를 공개했습니다. 이는 Codex 코딩 에이전트를 프로덕션 환경에서 안전하게 실행하는 방법을 설명하는 엔터프라이즈 사용자 대상 가이드입니다. 이 자료는 2026년 3월에 Codex Security 에이전트에 관한 글을 공개한 이후 OpenAI의 코딩 에이전트 보안 시리즈의 일환으로 발표되었습니다.
OpenAI가 제안하는 네 가지 보안 계층은 무엇입니까?
이 가이드는 네 가지 상호 보완적인 메커니즘을 설명합니다. 샌드박스는 코드 실행을 제어된 환경으로 격리하여 에이전트가 프로덕션 시스템에 직접 영향을 미치는 것을 방지합니다. 승인 시스템은 고위험 작업(네트워크 액세스, 민감한 파일 수정, 배포)에 인간의 감독을 의무화합니다. 네트워크 정책은 에이전트가 접근할 수 있는 외부 도메인과 내부 서비스를 정의합니다. 에이전트 네이티브 텔레메트리는 도구 호출, 의사 결정, 컨텍스트를 기록하여 요청/응답 쌍 로깅만이 아닌 동작 감사를 가능하게 합니다.
엔터프라이즈 컴플라이언스에 어떤 의미가 있습니까?
이 접근 방식은 AI 보안이 모델 레벨에서 에이전트 실행 레벨로 이동하는 트렌드를 반영합니다. 전통적인 애플리케이션 보안은 결정론적 코드를 가정합니다. AI 에이전트는 컴플라이언스 팀이 세분화된 실행 정책과 감사 추적으로 해결해야 하는 불확실성을 도입합니다. OpenAI는 「모델이 안전하다」는 것만으로는 충분하지 않다는 신호를 보내고 있으며, 환경적 제어를 통해 안전하지 않거나 예측 불가능한 출력도 허용 가능한 범위 내에 유지되어야 합니다.
이것이 OpenAI Codex 서사에 어떻게 맞습니까?
이 가이드는 두 편의 선행 글 이후 공개되었습니다. 3월 6일의 「Codex Security: Now in Research Preview」(AI 취약점 발견 에이전트)와 3월 16일의 「Why Codex Security Doesn’t Include a SAST Report」(제약 기반 버그 발견 접근 방식)입니다. 새 문서는 루프를 닫습니다——에이전트 자체의 보안 기능을 설명한 후, 이제는 프로덕션에서 에이전트를 안전하게 운용하는 것에 초점이 맞춰집니다. 작성 시점에 문서의 전체 텍스트는 공개 채널을 통해 확인할 수 없었으며, 이 요약은 공식 RSS 설명에 기반합니다.
자주 묻는 질문
- 에이전트 네이티브 텔레메트리란 무엇입니까?
- AI 에이전트를 위해 특별히 설계된 텔레메트리로, 기존의 요청/응답 로그 대신 도구 호출, 의사 결정, 컨텍스트, 실행 결과를 기록합니다. 에이전트 동작 감사와 이상 탐지를 가능하게 합니다.
- AI 코딩 에이전트에게 승인 시스템이 중요한 이유는 무엇입니까?
- 승인 시스템은 고위험 작업(네트워크 액세스, 파일 삭제, 배포 등)에 인간의 감독을 필수화합니다. 에이전트가 팀이 승인하지 않은 작업을 독자적으로 실행하는 것을 방지하고 감사 추적을 남깁니다.
- 이 OpenAI 가이드는 누구를 대상으로 합니까?
- 이미 Codex를 프로덕션에서 사용하거나 도입을 검토 중이며, 컴플라이언스, 보안, 내부 검토 요건을 충족해야 하는 엔터프라이즈 팀을 대상으로 합니다. 내부 보안 정책의 참고 자료로도 활용할 수 있습니다.