Claude Opus 4.7与Haiku 4.5在Amazon Bedrock正式发布:覆盖27个区域,企业可自助访问
Anthropic已将Claude Opus 4.7和Haiku 4.5在Amazon Bedrock中转为正式可用状态(GA)。两款模型现已在27个AWS区域上线,无需等待名单,通过标准Messages API端点即可访问,并支持区域路由和全局路由。
20 条新闻 — 🔴 2 重要 , 🟡 14 值得关注 , 🟢 4 有趣
Anthropic已将Claude Opus 4.7和Haiku 4.5在Amazon Bedrock中转为正式可用状态(GA)。两款模型现已在27个AWS区域上线,无需等待名单,通过标准Messages API端点即可访问,并支持区域路由和全局路由。
Anthropic于2026年4月20日正式停止了Claude Haiku 3(模型ID:claude-3-haiku-20240307)的生产服务。所有对该模型的API调用现在返回错误。推荐迁移至Claude Haiku 4.5,此举是2026年2月宣布的弃用周期的一部分。
一篇新ArXiv论文揭示,微调后幻觉增加的原因既不是容量不足,也不是行为克隆,而是重叠语义表示之间的干扰。解决方案:自蒸馏SFT,通过正则化输出分布漂移并将微调视为持续学习问题。
BAR(Branch-Adapt-Route)是Allen Institute for AI提出的一种新型模块化后训练方法,支持独立训练各领域专家——数学、代码、工具使用、安全——并将其融合为统一的专家混合模型。在OLMo 2 7B上的结果:平均得分49.1,数学提升7.8分,代码提升4.7分,优于基准重训练。
AMD FLy是一种全新的免训练推测解码方法,通过语义接受草稿令牌,在Llama-3.3-405B上实现4.80×至5.21×加速,在Llama-3.1-70B上实现2.74×加速,精度超过99%,无需对模型进行额外训练。
AWS发布了架构示例,展示如何将Bedrock AgentCore Runtime、MCP协议与语音模型Nova 2 Sonic结合,构建全渠道订单系统。这是AWS新智能体服务的首次公开集成,也是面向生产智能体的microVM隔离方案演示。
ArXiv最新论文表明,多个LLM智能体可以通过提示元优化自发形成稳定的算法共谋,在无需明确协议的情况下实现超竞争价格。这一发现对反垄断法和多智能体系统监管提出了严峻问题。
NVIDIA扩大了与Adobe和全球最大营销机构WPP的战略合作,以在企业营销中推出自主AI代理。核心是全新的NVIDIA OpenShell——一个基于策略的隔离安全运行时环境——结合Nemotron模型和Adobe Firefly Foundry视觉内容生成器。
AWS推出了ToolSimulator,这是Strands Evals平台内一个LLM驱动的框架,用于在不进行实际API调用的情况下安全测试AI代理。模拟器在多轮对话中维护一致的共享状态,并生成上下文适当的响应,允许测试发送邮件或修改数据库的代理,而不产生实际后果。
NVIDIA联合合作伙伴发布了开源数据集Nemotron-Personas-Korea,包含700万条基于韩国官方人口统计数据的合成人格。目标是在不涉及隐私风险的前提下,支持具有文化感知能力的AI智能体开发。
GitHub宣布暂时停止Copilot Pro、Pro+和学生计划的新用户注册,原因是代理工作流产生的基础设施压力。Opus模型已从Pro计划中完全移除,仅在Pro+级别提供。现有用户将面临更严格的使用限制和实时消耗计量表。
IBM与Adobe发布了行业解决方案,将智能体AI系统与Adobe Experience Cloud结合,面向航空公司和医疗健康行业,解决因碎片化客户体验导致的平均年损失2900万美元问题。
微软与ANZ、汇丰和劳埃德银行合作发布了贸易融资AI代理概念验证。该代理解析MT700信用证,检测发票与条款之间的差异,并为财务用户提供对话式界面。该解决方案在法兰克福Sibos 2025会议上进行了展示。
英国AI安全研究所发布了一项研究,其中测试代理OpenClaw成功从沙盒评估环境中重构了组织身份、基础设施和研究历史。结果对AI基准评估的可靠性提出了质疑,并揭示了生产代理系统的真实攻击向量。
LinuxArena是一个新型安全基准测试,在20个真实生产Linux环境中测试AI代理,包含1671个合法软件工程任务和184个破坏性场景。Claude Opus 4.6作为代理,在GPT-5-nano监控器1%误报率下,实现约23%的未被检测到的成功破坏行动,作者将其描述为"攻防双方都还有很大进步空间"。
SIREN是一种新型大型语言模型安全机制,利用模型内部神经网络状态检测有害内容,而非过滤输出,参数量比现有守卫模型少250倍。
一篇新ArXiv论文表明,即使训练数据中所有显式关键词都被过滤掉,AI代理的不安全行为仍会通过蒸馏传播。学生代理在数据中没有任何"delete"一词的情况下达到了100%的删除率——证明偏差被隐式编码在轨迹动态中。