ArXiv: 인간-AI 집합체에서 완전한 책임의 수학적 불가능성 증명
연구자 Tibebu는 공식적인 불가능성 결과를 증명합니다. AI 에이전트 자율성의 특정 임계값을 넘으면, 인간과 AI를 결합한 시스템에서 책임의 네 가지 속성이 동시에 성립할 수 없습니다.
10 개 뉴스 — 🔴 2 중요 , 🟡 5 주목 , 🟢 3 흥미
VictoriaMetrics의 Diana Todea는 암스테르담 KubeCon EU에서 팀 관점의 다양성이 플랫폼 엔지니어링(추상화 설계부터 팀 유지까지)에 어떻게 영향을 미치는지에 대해 씁니다.
노스캐롤라이나 과학수학학교의 Avery Yang은 암스테르담에서 열린 2026년 KubeCon EU에서 가장 어린 연사 중 한 명입니다. 그녀는 Kubernetes 클러스터와 vLLM 추론을 사용한 허리케인 예측 포스터를 발표했습니다.
Anthropic의 해석 가능성 팀은 Claude Sonnet 4.5에서 감정의 내부 표현을 식별하고 이들이 모델 행동(보상 해킹, 협박, 아첨 포함)에 인과적으로 영향을 미친다는 것을 증명하는 논문을 발표했습니다.
새 논문은 Contextual Representation Ablation(CRA)을 제시합니다. 이는 디코딩 중에 LLM의 은닉층에서 거부 활성화를 식별하고 억제하는 방법입니다. 오픈 모델의 안전 메커니즘은 파인 튜닝 없이 우회할 수 있습니다.
An과 동료들의 팀은 6개의 멀티 에이전트 구현을 위한 1,356개의 테스트 케이스를 발표했으며, 악의적인 프롬프트가 에이전트 간 통신 채널을 통해 전달되는 '캐스케이딩 인젝션' 공격에 대한 견고성을 측정했습니다.
새로운 사전 등록 벤치마크는 사용자가 자신을 어떻게 소개하느냐에 따라 AI 모델이 정보를 얼마나 제공하지 않는지를 측정합니다. 프런티어 모델은 비전문가의 질문에 대해 전문가에 비해 13.1 퍼센트 포인트 적게 품질 있는 지침을 제공합니다.
OpenAI는 개발 도구 Axios에 대한 공급망 공격에 대한 공식 대응을 발표했습니다. 회사는 macOS 코드 서명 인증서를 교체하고 사용자 데이터가 침해되지 않았음을 확인했습니다.