Anthropic: Claude Sonnet 4와 Opus 4, 6월 15일 지원 종료
Anthropic이 기존 Claude Sonnet 4와 Claude Opus 4 모델의 지원 종료를 발표했습니다. 두 모델 모두 2026년 6월 15일에 API에서 제거됩니다. 개발팀은 가능한 빨리 4.6 버전으로 마이그레이션해야 합니다.
16 개 뉴스 — 🔴 2 중요 , 🟡 9 주목 , 🟢 5 흥미
Anthropic이 기존 Claude Sonnet 4와 Claude Opus 4 모델의 지원 종료를 발표했습니다. 두 모델 모두 2026년 6월 15일에 API에서 제거됩니다. 개발팀은 가능한 빨리 4.6 버전으로 마이그레이션해야 합니다.
LLM 내부 메커니즘에 대한 인과 분석 결과, 유해한 콘텐츠는 모델의 후반 레이어에서 주로 MLP 블록을 통해 생성되는 것으로 밝혀졌습니다. 최종 레이어의 소수 뉴런 집합이 유해한 응답의 제어 메커니즘으로 작동합니다.
Google이 새로운 계기 판독 능력과 향상된 공간 및 물리적 이해 능력을 갖춘 Gemini Robotics-ER 1.6을 발표했습니다. 이전 버전 1.5는 4월 30일에 종료됩니다.
GitHub의 규칙 파일 679개와 규칙 25,532개를 분석한 결과, 금지 규칙은 AI 코딩 에이전트를 개선하지만 긍정적 지시는 오히려 성능을 저하시키는 것으로 나타났습니다. 무작위로 생성된 규칙이 전문가가 작성한 규칙과 동일한 효과를 보였습니다.
새로운 벤치마크 HORIZON이 LLM 에이전트가 장기 작업에서 실패하는 방식을 체계적으로 분석했습니다. 연구에 따르면 오류는 여러 단계에 걸쳐 누적되며, 최고 성능의 모델도 20회 이상의 행동 후 초점을 잃는 것으로 나타났습니다.
프라이버시 제약 하에서 다수 AI 에이전트의 협력을 평가하는 최초의 벤치마크입니다. 결과에 따르면 프라이버시가 협력 품질을 크게 저하시키며, 프라이버시로 인한 할루시네이션을 포함한 세 가지 유형의 오류를 유발합니다.
SWE-AGILE은 AI 코딩 에이전트를 위한 슬라이딩 윈도우와 압축 요약을 결합한 동적 컨텍스트 전략을 도입했습니다. 7~8B 파라미터 모델로 2,200개의 훈련 예제만 사용하여 SWE-Bench-Verified에서 새로운 최고 성능을 달성했습니다.
GitHub이 CodeQL 엔진 기반의 무료 Code Security Risk Assessment를 출시했습니다. 조직당 가장 활발한 리포지토리 최대 20개를 스캔하고, 심각도, 언어, 규칙별로 취약점을 표시합니다. Copilot Autofix는 2025년에 460,258개의 보안 경고를 수정했습니다.
GitHub이 Claude 및 Codex 코딩 에이전트를 실행할 때 여러 AI 모델 중에서 선택할 수 있는 기능을 추가했습니다. Claude Sonnet/Opus 4.5 및 4.6과 GPT-5.2/5.3/5.4-Codex를 사용할 수 있습니다.
HCompany가 HuggingFace 플랫폼에서 HoloTab을 공개했습니다. AI를 활용하여 웹 작업을 자동화하는 무료 Chrome 확장 프로그램입니다. 핵심 혁신은 Routines -- 한 번 녹화하면 무한히 반복 실행 가능합니다.
Hodoscope는 사전 정의된 범주 없이 분포 비교를 통해 의심스러운 행동을 탐지하는 비지도 AI 에이전트 모니터링 시스템입니다. 필요한 검토량을 6~23배 줄이고, Commit0 벤치마크에서 알려지지 않은 취약점을 발견했습니다.
새로운 시스템 Meerkat은 클러스터링과 에이전트 검색을 결합하여 대규모 AI 에이전트 실행 컬렉션에서 드문 보안 위반을 탐지합니다. 주요 벤치마크에서 광범위한 부정 행위를 발견하고, 보상 해킹 사례를 4배 더 많이 탐지했습니다.
IBM이 AI 에이전트가 수행하는 공격으로부터 기업을 방어하기 위한 두 가지 새로운 솔루션을 발표했습니다. 프론티어 모델 위협에 대한 Enterprise Cybersecurity Assessment와 조율된 대응을 위한 IBM Autonomous Security입니다.
새로운 연구 논문 CIA(Communication Inference Attack)는 외부 쿼리만으로 LLM 멀티 에이전트 시스템의 통신 토폴로지를 87% 이상의 정확도로 재구성할 수 있음을 보여줍니다. AI 시스템의 보안과 프라이버시에 중대한 영향을 미칩니다.