HuggingFace 선언문: 오픈소스가 AI 사이버 보안의 기반
왜 중요한가
HuggingFace가 선언문을 발표했습니다. Margaret Mitchell, Yacine Jernite, Clem Delangue와 17명의 공동 저자가 폐쇄형 AI 시스템이 사이버 보안의 단일 실패 지점이라고 주장합니다. Anthropic Mythos에 대한 응답으로, 감사 가능한 로그와 인간 감독이 있는 반자율 에이전트를 촉구합니다.
HuggingFace 선언문: 오픈소스가 AI 사이버 보안의 기반
HuggingFace가 2026년 4월 21일 광범위한 선언문을 발표했습니다. Margaret Mitchell, Yacine Jernite, Clem Delangue와 17명의 공동 저자가 사이버 방어의 미래가 개방형 모델, 개방형 스캐폴딩, 감사 가능한 추적에 달려 있다고 주장합니다. 이 텍스트는 Anthropic의 프로젝트 Mythos에 대한 직접적인 응답입니다.
폐쇄형 AI 시스템은 왜 단일 실패 지점인가?
저자들은 사이버 보안에서 AI의 능력이 매끄럽지 않다고 주장합니다——그것은 모델이 운영되는 시스템(컴퓨팅 리소스, 소프트웨어 데이터, 취약점 발견을 위한 스캐폴딩, 자율성)에 달려 있습니다. 폐쇄형 프로젝트에서 이 시스템은 단일 제조업체에 존재합니다. 이는 한 조직만이 코드를 보고 수정할 수 있음을 의미하며, 저자들은 이를 “단일 실패 지점”으로 설명합니다. 추가적인 문제는 AI 도구가 난독화된 바이너리를 역공학하기 점점 더 쉽게 만들고 있어, 독점적 난독화가 더 이상 방어 전략이 아니라는 것입니다. 반면 개방형 생태계는 탐지, 검증, 조정, 패치 전파의 네 단계에 걸쳐 작업을 분산시킵니다. 각 단계는 더 많은 눈과 결과를 공유하는 팀으로부터 혜택을 받습니다.
AI 도구는 폐쇄형 코드의 취약점을 어떻게 증폭시키는가?
선언문은 이미 일어나고 있는 시나리오에 대해 경고합니다. 기업들이 잘못된 인센티브——안전보다 속도——아래 코드 개발 AI 도구를 채택하고 있습니다. 그러한 조건에서, 저자들에 따르면 “AI 가속 개발은 전통적 개발보다 더 많은 취약점을 독점 코드에 도입할 수 있습니다.” 이 취약점들은 폐쇄형 코드베이스에 존재하며 한 조직만이 발견하고 수정할 수 있지만, AI로 무장한 공격자들은 외부에서 동일한 허점을 점점 더 성공적으로 발견하고 있습니다. 저자들은 이 위험을 공격자와 방어자 사이의 “능력 비대칭”이라고 부릅니다——개방형 모델과 도구는 방어자에게 공격자가 사용하는 것과 동일한 종류의 능력에 대한 접근을 제공하기 때문에 이 격차를 줄입니다.
감독이 있는 반자율 에이전트란 무엇이며 왜 권장하는가?
인간 감독 없이 완전 자율적으로 운영되는 시스템 대신, 선언문은 반자율 에이전트를 제안합니다——행동이 미리 정의되고, 특정 단계에서 인간 승인이 필요하며, 인간이 통제권을 유지하는 시스템입니다. 핵심 문장은 “「루프 속의 인간」은 인간이 루프를 볼 수 있을 때만 의미가 있습니다”입니다. 그 감독이 실질적이기 위해서는 에이전트의 개방형 스캐폴딩, 개방형 규칙 엔진, 결정과 추적의 감사 가능한 로그가 필요합니다. 높은 위험을 가진 조직(은행, 병원, 핵심 인프라)에게 이는 모니터링 시스템을 검사하고, 자체 데이터에서 미세 조정하고, 맞춤형 감독 메커니즘을 갖추고, 내부 환경 내에서 운영할 수 있는 능력을 의미합니다——외부 AI 공급업체에 민감한 데이터를 보내지 않고. 저자들은 사이버 보안의 미래는 개별 모델이 아닌 생태계에 의해 형성될 것이며, 개방성이 방어자에게 가시성, 제어, 공격자보다 한 발 앞서기 위한 공유 인프라를 제공하는 유일한 길이라고 결론짓습니다.
이 기사는 AI가 1차 출처를 기반으로 생성했습니다.