🟡 🤖 모델 2026년 4월 13일 · 1 분 읽기
ArXiv PRA: 4B 모델이 의료 벤치마크에서 80.8% 달성 — 소규모 모델의 새로운 SOTA
Process Reward Agents는 소규모 동결 모델(0.5B-8B)이 어떠한 훈련 없이도 의료 추론을 크게 향상시킬 수 있게 한다 — Qwen3-4B가 MedQA에서 80.8%의 새로운 최고 성능을 달성했다.
4 개 뉴스 — 🔴 1 중요 , 🟡 2 주목 , 🟢 1 흥미
Process Reward Agents는 소규모 동결 모델(0.5B-8B)이 어떠한 훈련 없이도 의료 추론을 크게 향상시킬 수 있게 한다 — Qwen3-4B가 MedQA에서 80.8%의 새로운 최고 성능을 달성했다.
Sequence-Level PPO는 LLM 추론을 컨텍스트 밴딧 문제로 재정의하여, 멀티 샘플링 없이 GRPO와 같은 비용이 많이 드는 그룹 방법의 성능을 극적으로 적은 리소스로 달성한다.
새로운 벤치마크가 AI 에이전트의 판단력에서 보편적인 결함을 드러냈다 — 사양이 불완전할 때, 어떤 프론티어 모델도 전체 성능의 극히 일부밖에 달성하지 못한다. 연구자들은 이 능력이 강화학습으로 훈련 가능함을 보여주었다.
고객 서비스를 위한 새로운 벤치마크가 두 가지 현상을 밝혔다: 'Execution Gap'(모델이 의도를 정확히 분류하지만 올바른 조치를 실행하지 않음)과 'Empathy Resilience'(모델이 논리적 오류를 범하면서도 예의를 유지함).