AWS, Bedrock AgentCore Runtime에서 서버리스 MCP 프록시를 실행하는 거버넌스·감사 아키텍처 공개
AWS는 2026년 4월 29일 Amazon Bedrock AgentCore Runtime에서 커스텀 Model Context Protocol(MCP) 프록시를 서버리스로 실행하기 위한 레퍼런스 아키텍처를 공개했습니다. 프록시는 AI 에이전트와 업스트림 MCP 서버 사이에 배치되어 기존 서버를 수정하지 않고도 거버넌스·감사 추적·입력 새니타이즈를 추가합니다. 데모는 FastMCP와 3단계 인증을 사용합니다.
AWS는 2026년 4월 29일 Amazon Bedrock AgentCore Runtime에서 스테이트리스 MCP 프록시를 서버리스 워크로드로 실행하기 위한 상세한 레퍼런스 아키텍처를 공개했습니다. 시니어 솔루션 아키텍트 Nizar Kheir는 프록시를 “AI 에이전트와 업스트림 MCP 서버 사이의 프로그래머블 레이어”로 설명하며, 엔터프라이즈 고객이 기존 인프라를 리팩터링하지 않고도 자체적인 보안 및 컴플라이언스 제어를 적용할 수 있게 한다고 밝혔습니다.
프록시는 어떻게 작동합니까?
프록시는 FastMCP Python 라이브러리를 기반으로 하며, 시작 시 업스트림 MCP 서버(AgentCore Gateway, 자체 MCP 서버 또는 서드파티)의 툴을 동적으로 검색한 후 커스텀 로직을 주입하여 클라이언트에 재노출합니다. AWS 아티클에는 토큰화·검증·필터링을 주입하면서 호출을 전달하는 툴 핸들러 생성 방법을 보여주는 구체적인 코드 스니펫이 포함되어 있습니다:
def _make_tool_handler(tool_name: str):
def handler(**kwargs) -> str:
result = _send_gateway_request("tools/call", ...)
# 커스텀 로직: 토큰화, 검증, 필터링
return result
3단계 인증
아키텍처는 세 가지 독립적인 인증 레이어를 정의합니다. 클라이언트→프록시는 AgentCore Identity(IAM 또는 JWT/OAuth 2.0 토큰), 프록시→업스트림 서버는 AWS SigV4 또는 OAuth 클라이언트 자격증명, 업스트림→외부 툴은 OAuth 토큰과 API 키를 관리하는 AgentCore 자격증명 공급자를 사용합니다.
대표적인 사용 사례
AWS는 다섯 가지 일반적인 시나리오를 제시합니다: 백엔드가 툴 호출을 수신하기 전 입력 새니타이즈, 컴플라이언스 대응 감사 추적 생성, 프로토콜 수준의 민감 데이터 편집, 호출자 ID 기반 툴 수준 접근 제어, 툴 호출 인수의 PII 토큰화. 이 모든 것은 업스트림 서버를 일체 수정하지 않고 실현할 수 있습니다.
코드 이용 방법
전체 데모는 GitHub 리포지토리 aws-samples/sample-mcp-proxy-agentcore-runtime에서 공개되어 있습니다. setup_and_deploy.py 스크립트가 deploy_config.json과 연동하여 배포를 자동화하며, 설정 파일에는 업스트림 게이트웨이 엔드포인트·인증 방식·리전·선택적 Cognito 자격증명을 정의합니다.
자주 묻는 질문
- MCP 프록시란 무엇입니까?
- MCP 클라이언트(에이전트)와 업스트림 MCP 서버 사이에 위치하는 프로그래머블 레이어로, 업스트림 서버 자체를 수정하지 않고도 거버넌스 제어·감사 로그·데이터 새니타이즈를 추가하기 위해 툴 호출을 인터셉트합니다.
- 지원되는 인증 방식은 무엇입니까?
- 세 가지 독립적인 레이어: 에이전트→프록시는 AgentCore Identity(IAM 또는 JWT/OAuth 2.0), 프록시→업스트림은 AWS SigV4 또는 OAuth 클라이언트 자격증명, 업스트림→툴은 OAuth 토큰과 API 키를 관리하는 AgentCore 자격증명 공급자.
- 프록시는 엔터프라이즈 컴플라이언스에 어떻게 도움이 됩니까?
- 백엔드가 툴 호출을 수신하기 전 입력 새니타이즈, 컴플라이언스 감사 추적 생성, 민감 데이터 편집, 툴 수준 접근 제어, 툴 호출 인수의 PII 토큰화를 실현합니다.
이 기사는 AI가 1차 출처를 기반으로 생성했습니다.