📦 开源

13 条新闻

🟡 📦 开源 2026年4月24日 · 2 分钟阅读

Google DeepMind Decoupled DiLoCo:跨地理分布数据中心的AI训练网络带宽降低20倍

编辑插图:开源工具 — open-source

Google DeepMind发布了Decoupled DiLoCo,一种用于AI模型训练的分布式架构。它将8个数据中心之间所需的网络带宽从198 Gbps降至0.84 Gbps,同时在高故障率场景下将吞吐量从27%提升至88%。

🟡 📦 开源 2026年4月24日 · 2 分钟阅读

vLLM集成DeepSeek V4,KV缓存缩小8.7倍:标准GPU硬件实现百万令牌上下文

编辑插图:vLLM DeepSeek V4压缩——KV缓存模块

vLLM与DeepSeek同日发布了V4-Pro和V4-Flash模型的完整集成,相比V3.2在百万令牌上下文下KV缓存减少8.7倍。稀疏注意力与积极压缩的结合,使标准GPU硬件上的模型服务成为可能。

🟢 📦 开源 2026年4月24日 · 2 分钟阅读

Allen AI:OlmoEarth嵌入向量仅凭60个像素实现F1得分0.84的地景分割

编辑插图:开源工具 — open-source

Allen人工智能研究所发布了OlmoEarth Studio,提供三种规模的模型(Nano、Tiny、Base)用于卫星图像嵌入向量。这些模型仅凭60个标注像素便可实现地景分割F1得分0.84,同时支持变化检测与PCA可视化。

🟡 📦 开源 2026年4月23日 · 2 分钟阅读

Apple在ICLR 2026发布ParaRNN:并行训练非线性RNN实现665倍加速

编辑插图:开源工具 — open-source

Apple在本周于里约热内卢举办的ICLR 2026大会上发布了五篇机器学习研究论文,其中最受瞩目的是ParaRNN——一种支持非线性递归神经网络并行训练的方法,相比顺序方式实现了665倍加速,使RNN可扩展至数十亿参数,与Transformer形成竞争。

🟡 📦 开源 2026年4月23日 · 2 分钟阅读

Linux Foundation发布RGAF指南,涵盖35个负责任AI开源工具

编辑插图:开源工具 — open-source

Linux Foundation AI & Data发布了一份实践指南,通过九个负责任AI维度展示如何实施RGAF(负责任生成式AI框架),配备35个具体开源工具目录,并与NIST AI RMF、EU AI法案、ISO/IEC 42001和OECD原则保持一致。

🟢 📦 开源 2026年4月22日 · 2 分钟阅读

WorldDB:融合向量数据库与世界图谱的AI智能体记忆引擎

编辑插图:向量数据库与节点图谱通过本体论连接构成智能体记忆系统

WorldDB是一款面向AI智能体的全新记忆引擎,将向量数据库与嵌套世界图谱和本体论相结合。它在写入时协调知识并防止智能体记忆中的矛盾,在LongMemEval-s基准测试中达到96.40%的准确率。

🟡 📦 开源 2026年4月21日 · 2 分钟阅读

Allen Institute BAR:模块化后训练与专家混合架构在OLMo 2 7B上数学提升7.8分

展示模块化MoE系统的编辑插图,路由组件将查询分配给不同专家

BAR(Branch-Adapt-Route)是Allen Institute for AI提出的一种新型模块化后训练方法,支持独立训练各领域专家——数学、代码、工具使用、安全——并将其融合为统一的专家混合模型。在OLMo 2 7B上的结果:平均得分49.1,数学提升7.8分,代码提升4.7分,优于基准重训练。

🟡 📦 开源 2026年4月21日 · 2 分钟阅读

AMD FLy:无需训练的推测解码在Llama-3.3-405B上实现5.21×加速,精度超99%

推测解码的编辑插图——草稿模型提议令牌,目标模型并行验证

AMD FLy是一种全新的免训练推测解码方法,通过语义接受草稿令牌,在Llama-3.3-405B上实现4.80×至5.21×加速,在Llama-3.1-70B上实现2.74×加速,精度超过99%,无需对模型进行额外训练。

🔴 📦 开源 2026年4月18日 · 2 分钟阅读

Google Gemma 4:四款开源模型,31B dense排名竞技场第三,Apache 2.0许可证

Gemma 4是Google新一代开源模型,共有四个变体:适用于移动设备的E2B、适用于边缘设备的E4B、拥有38亿活跃参数的26B MoE以及31B dense模型。31B在开源模型竞技场排名第三,据称超越了20倍参数量的模型,26B MoE排名第六。所有模型均为多模态(文本、图像、视频、音频),支持140种语言,上下文长度最高256K tokens,并以Apache 2.0许可证发布。

🟢 📦 开源 2026年4月17日 · 2 分钟阅读

HuggingFace:多模态嵌入与重排序模型训练指南

HuggingFace发布了通过Sentence Transformers库对多模态嵌入和重排序模型进行微调的详细指南。重点是将文本和图像整合到共同的嵌入空间,从而实现跨异构数据的语义搜索。主要应用于处理文档、表格、图像和扫描件混合物的RAG系统。

🟢 📦 开源 2026年4月17日 · 1 分钟阅读

HuggingFace:面向Claude Code的Transformers-to-MLX skill带来Apple Silicon模型移植的AI辅助

HuggingFace发布了一个15,000词的Transformers-to-MLX skill,使用Claude Code将Transformers模型移植到Apple Silicon的MLX-LM平台。该skill包含独立验证结果的测试框架,消除了LLM幻觉问题,同时解决了AI代理将拉取请求数量增加10倍的开源项目中日益增长的挑战。

🟢 📦 开源 2026年4月16日 · 1 分钟阅读

LangChain:我们如何利用深度代理让文档自我测试

LangChain构建了一个使用深度代理(Deep Agents)的文档自动化测试系统,防止文档中出现过时的代码示例。该系统使用多种技能(skills)将内联代码片段迁移到独立测试文件,通过GitHub Actions运行它们,并重新生成经过验证的片段,确保文档始终反映API的实际状态。

🟡 📦 开源 2026年4月10日 · 1 分钟阅读

Waypoint-1.5:AI在普通RTX 3090上生成交互式720p世界

Overworld发布了Waypoint-1.5,这是一款实时视频世界模型,可在RTX 3090和Apple Silicon Mac等消费级GPU上以720p/60fps分辨率生成交互式虚拟环境。该模型的训练数据比前代多出约100倍,并在HuggingFace上开源可用。