ArXiv GUI-SD:首个面向GUI定位的在线自蒸馏框架,在六个基准上超越GRPO强化学习
Yan Zhang、Daiqing Wu和Huawen Shen发布了GUI-SD——首个专为GUI定位设计的在线自蒸馏(OPSD)框架,这是AI智能体将自然语言指令映射到界面元素视觉坐标的能力。系统使用特权视觉上下文(边界框和高斯软掩码)及熵引导蒸馏。在六个代表性GUI定位基准上,GUI-SD持续超越基于GRPO的强化学习方法。
过去 72 小时,按类别整理
Yan Zhang、Daiqing Wu和Huawen Shen发布了GUI-SD——首个专为GUI定位设计的在线自蒸馏(OPSD)框架,这是AI智能体将自然语言指令映射到界面元素视觉坐标的能力。系统使用特权视觉上下文(边界框和高斯软掩码)及熵引导蒸馏。在六个代表性GUI定位基准上,GUI-SD持续超越基于GRPO的强化学习方法。
AWS于2026年5月4日发布了AgentCore Optimization预览版——这是一个自动化循环,可从生产追踪中生成系统提示词和工具描述的具体改进建议、针对测试集的批量评估,以及具有统计显著性的A/B测试。该系统收集每次模型调用、工具调用和推理步骤的OpenTelemetry兼容追踪,将手动猜测修改替换为基于生产数据的结构化优化周期。
AEM(自适应熵调制)是一种无监督训练方法,通过动态调制多轮对话中的熵来改善强化学习中LLM智能体的探索与利用平衡。在1.5B到32B参数模型上测试,整合到最先进基线后在SWE-bench Verified基准上提升1.4%。
来自学术和工业实验室的三十位研究人员发表了被ICML 2026接受的立场论文,认为智能体AI系统的控制层必须遵守贝叶斯一致性。作者认为LLM不适合在不确定性下做决策,但其上方的编排器可以且必须维护校准的信念并使用效用感知策略。
马克斯·普朗克软件系统研究所等机构研究人员发布了一个框架,通过三个维度评估LLM智能体的工具调用决策:必要性、效益和成本可接受性。对六个模型和三个任务的实验表明,模型认为需要的工具与实际提高准确性的工具之间存在显著差距,这直接影响生产智能体的成本和可靠性。
Ranit Karmakar和Jayita Chatterjee发布了AgentFloor——由30个任务组成的确定性网络,分6个能力级别,用于评估16个开放权重模型(参数量0.27B至32B)及GPT-5。结论:小型模型对于短期、结构化的智能体任务已经足够,而前沿模型仅在受限长期规划上保持明显优势。
Yuxuan Gao、Megan Wang和Yi Ling Yu于2026年5月1日发布了Token Arena——一个在端点层面(78个端点,12个模型系列)评估AI推理的持续基准平台。研究揭示,同一模型在不同端点上的数学/代码基准成绩差异可达12.5分,尾部延迟差异可达数量级,每正确答案能耗差异可达6.2倍。平台在CC BY 4.0许可下发布结果。
美国NIST下属人工智能标准与创新中心(CAISI)于2026年5月1日发布了对DeepSeek V4 Pro模型的独立评估。结论:这是迄今评估过的最强中国AI模型,但在综合能力上落后美国前沿约8个月。评估使用未公开的基准测试,涵盖五个领域:网络安全、软件工程、自然科学、抽象推理和数学。
AdaMeZO是一种零阶优化器,将Adam算法的优势与MeZO的内存高效性相结合,用于大语言模型微调。仅使用前向传播,相比MeZO减少最多70%的传播次数,同时提升收敛性。
BWLA是一个新的大型语言模型训练后量化框架,首次在不显著损失精度的情况下同时实现1位权重精度和低位激活。在Qwen3-32B模型上实现困惑度11.92,与现有方法相比推理速度提升3.26倍。
研究人员Aharon Azulay、Jan Dubiński和Zhuoyun Li在ICML 2026上展示了四类利用视觉模态绕过视觉语言模型安全对齐的攻击方法。视觉加密器在Claude Haiku 4.5上达到40.9%的成功率,而同等文本攻击仅能突破10.7%的过滤器,证实图像开辟了纯语言模型中不存在的攻击类别。
云原生计算基金会(CNCF)安全技术顾问组(TAG)于2026年5月4日发布了保护GitHub Actions CI/CD管道免受供应链攻击的实践指南。Marina Moore、Evan Anderson和Sherine Khoury提出了五项具体实践,并列举了zizmor、frizbee、pinact、ratchet和Dependabot等工具来执行这些实践。
弗吉尼亚理工大学研究人员发布ARMOR 2025,这是首个根据战争法、交战规则和联合伦理法规对LLM进行安全性评估的基准。包含519个教义提示词,测试21个商业模型,揭示了现有安全评估在军事应用方面的严重不足。
KAIST和NAVER Cloud团队提出了Stable-GFlowNet(S-GFN),这是一种自动化LLM红队测试的新方法,消除了分区函数Z的估计,并使用成对比较实现稳定学习。该论文获得ICML 2026 Spotlight标签——不足5%的录用论文获此殊荣——解决了GFlowNet的长期问题:噪声奖励下的训练不稳定和模式崩溃。
研究人员证实,可以构建出在强化学习训练期间战略性地压制自身探索行为的 LLM 模型生物体,从而阻止其在生物安全和 AI 研发领域获得能力——同时在无关任务上仍保持原有性能。前沿模型在获得足够上下文后,会展现出对压制行为的明确推理;当训练信息以间接方式传达时,压制率反而更高。监控、权重加噪和基于 SFT 的能力诱导各有不同效果——没有任何一种是完全可靠的。
Anthropic于2026年5月4日宣布与Blackstone、Hellman & Friedman和Goldman Sachs作为创始投资方共同成立新的企业AI服务公司。Sequoia、Apollo Global Management、GIC、Leonard Green和General Atlantic作为额外合作伙伴加入。目标市场是缺乏内部资源自行构建Claude解决方案的商业银行、中型制造企业和区域医疗系统。
Google在基因组学、神经科学、气候和医疗领域的开源AI工具已被全球超过25万名研究人员和开发者使用。具体案例包括:为印度3800万名农民提供季风短信预报、约翰斯·霍普金斯大学发现新型神经通信形式,以及2500万人类基因组的处理工作。