📦 オープンソース

13 件

🟡 📦 オープンソース 2026年4月24日 · 3 分で読めます

Google DeepMind Decoupled DiLoCo:地理的に分散したデータセンター間のAI訓練ネットワーク帯域幅を20倍削減

編集イラスト:オープンソースツール — open-source

Google DeepMindがDecoupled DiLoCo、AIモデル訓練のための分散アーキテクチャを発表しました。8つのデータセンター間で必要なネットワーク帯域幅を198 Gbpsから0.84 Gbpsに削減し、高障害率シナリオでのグッドプットを27%から88%に改善しています。

🟡 📦 オープンソース 2026年4月24日 · 3 分で読めます

vLLMがDeepSeek V4を統合:KVキャッシュ8.7倍削減で標準GPUに100万トークンコンテキストを実現

エディトリアルイラスト:vLLM DeepSeek V4圧縮——KVキャッシュモジュール

vLLMはDeepSeekと同日、V4-ProとV4-Flashモデルの完全統合を発表しました。100万トークンコンテキストでV3.2比8.7倍のKVキャッシュ削減を達成。スパースアテンションと積極的な圧縮の組み合わせにより、標準GPUハードウェアでのサービング提供が可能になりました。

🟢 📦 オープンソース 2026年4月24日 · 2 分で読めます

Allen AI:OlmoEarthエンベディングがわずか60ピクセルでF1スコア0.84の地景セグメンテーションを実現

編集イラスト:オープンソースツール — open-source

Allen Institute for AIがOlmoEarth Studioを発表しました。衛星画像エンベディング用に3サイズのモデル(Nano、Tiny、Base)を提供しています。わずか60個のラベル付きピクセルで地景セグメンテーションのF1スコア0.84を達成し、変化検出とPCA可視化もサポートしています。

🟡 📦 オープンソース 2026年4月23日 · 2 分で読めます

AppleがICLR 2026でParaRNNを発表:非線形RNNの並列学習で665倍の高速化を実現

エディトリアルイラスト:オープンソースツール — open-source

Appleは今週リオデジャネイロで開催されているICLR 2026カンファレンスで5本の機械学習研究論文を発表しました。最注目はParaRNN——非線形リカレントニューラルネットワークの並列学習を可能にする手法で、逐次的アプローチと比べて665倍の高速化を達成し、RNNを数十億パラメータ規模に拡張してTransformerと競合できるようにします。

🟡 📦 オープンソース 2026年4月23日 · 2 分で読めます

Linux FoundationがRGAFガイドを公開:35のオープンソースツールで責任あるAIを実現

エディトリアルイラスト:オープンソースツール — open-source

Linux Foundation AI & Dataは、9つの責任あるAIの次元を通じてRGAF(Responsible Generative AI Framework)を実装する方法を示す実践ガイドを公開しました。35の具体的なオープンソースツールのカタログとNIST AI RMF、EU AI法、ISO/IEC 42001、OECD原則への準拠が含まれています。

🟢 📦 オープンソース 2026年4月22日 · 2 分で読めます

WorldDB:ベクターデータベースと世界グラフを融合したAIエージェント向けメモリエンジン

エディトリアルイラスト:オントロジーで結ばれたベクターデータベースとノードグラフがエージェントのメモリを構成する

WorldDBはベクターデータベースとネストされた世界グラフおよびオントロジーを組み合わせたAIエージェント向けの新しいメモリエンジンです。書き込み時に知識を調整し、エージェントメモリの矛盾を防止し、LongMemEval-sベンチマークで96.40%の精度を達成しています。

🟡 📦 オープンソース 2026年4月21日 · 3 分で読めます

Allen Institute BAR:モジュール型後処理トレーニングとMoEがOLMo 2 7Bの数学スコアを7.8ポイント向上

モジュール型MoEシステムを示す編集用イラスト。ルーターコンポーネントが各エキスパートにクエリを振り分けています

BAR(Branch-Adapt-Route)は、Allen Institute for AIが提案した新しいモジュール型後処理トレーニング手法です。数学、コード、ツール使用、安全性といった分野のエキスパートを独立してトレーニングし、統合されたMixture-of-Expertsモデルに結合できます。OLMo 2 7Bでの結果:平均スコア49.1、数学で+7.8ポイント、コードで+4.7ポイントのベースライン比改善を達成しました。

🟡 📦 オープンソース 2026年4月21日 · 3 分で読めます

AMD FLy:トレーニング不要のSpeiculative DecodingでLlama-3.3-405Bを5.21倍高速化、精度99%超

Speculative Decodingの編集用イラスト——ドラフトモデルがトークンを提案し、ターゲットモデルが並列で検証しています

AMD FLyは、ドラフトトークンをセマンティックに受け入れることでLlama-3.3-405Bで4.80〜5.21倍、Llama-3.1-70Bで2.74倍の高速化を実現する新しいトレーニング不要のSpeculative Decoding手法です。99%超の精度を維持しながら、追加のモデルトレーニングは不要です。

🔴 📦 オープンソース 2026年4月18日 · 3 分で読めます

Google Gemma 4:4つのオープンモデル、31B denseがArena 3位、Apache 2.0ライセンス

Gemma 4はGoogleの新世代オープンモデルで、モバイル向けE2B、エッジデバイス向けE4B、38億アクティブパラメータの26B MoE、および31B denseの4バリエーションがあります。31Bはオープンモデルのアリーナランキングで3位につけ、自身の20倍のパラメータを持つモデルを超えると言われています。26B MoEは6位。すべてのモデルはマルチモーダル(テキスト・画像・動画・音声)で、140言語をサポートし、最大256Kトークンのコンテキストを持ち、Apache 2.0ライセンスで公開されています。

🟢 📦 オープンソース 2026年4月17日 · 2 分で読めます

HuggingFace:マルチモーダル埋め込みおよびリランカーモデルのトレーニングガイド

HuggingFaceはSentence Transformersライブラリを使用してマルチモーダル埋め込みとリランカーモデルをファインチューニングするための詳細なガイドを発表しました。焦点はテキストと画像を共通の埋め込み空間に統合し、異種データ全体のセマンティック検索を可能にすることです。主な用途はドキュメント、テーブル、画像、スキャンの混合を処理するRAGシステムです。

🟢 📦 オープンソース 2026年4月17日 · 2 分で読めます

HuggingFace:Claude Code向けTransformers-to-MLX skillがApple SiliconへのAI支援モデル移植を実現

HuggingFaceは、Claude CodeをApple Silicon向けMLX-LMプラットフォームへのTransformersモデル移植に使用する15,000語のTransformers-to-MLX skillを公開しました。skillにはLLM幻覚の問題を排除する結果を独立して検証するテストハーネスが含まれており、AIエージェントがプルリクエスト数を10倍に増やすオープンソースプロジェクトの増大する課題に対応しています。

🟢 📦 オープンソース 2026年4月16日 · 2 分で読めます

LangChain:Deep Agentを使ってドキュメントを自己テストさせた方法

LangChainはDeep Agentを使ったドキュメントの自動テストシステムを構築し、ドキュメント内の古くなったコード例を防止します。システムは複数のスキルを使ってインラインコードスニペットをスタンドアロンのテストファイルに移行し、GitHub Actionsで実行し、検証済みのスニペットを再生成することで、ドキュメントが常にAPIの実際の状態を反映するようにします。

🟡 📦 オープンソース 2026年4月10日 · 2 分で読めます

Waypoint-1.5:AIが一般的なRTX 3090でインタラクティブな720p世界を生成

Overworldが発表したWaypoint-1.5は、RTX 3090やApple Silicon MacなどコンシューマーGPU上で720p/60fpsの解像度でインタラクティブな仮想環境を生成するリアルタイム動画ワールドモデルです。モデルは前バージョンの約100倍のデータで訓練され、HuggingFace上でオープンソースとして利用可能です。