ONNX v1.21.0リリース、Opset 26を導入:新しいCumProdとBitCastオペレーター、2ビット型サポート、Python 3.14フリースレッディング実験
なぜ重要か
Linux Foundation AI & Data Foundationは2026年4月27日、ONNX v1.21.0をリリースしました——CumProdとBitCastオペレーターを含むOpset 26、2ビット型サポート、実験的なPython 3.14フリースレッディング、整数除算の一貫性改善、コンパイラーセキュリティ強化を導入しています。
Linux Foundation AI & Data Foundationは2026年4月27日、ONNX v1.21.0を発表しました——機械学習モデル交換のオープン標準への段階的ながら意義深いアップデートです。最も重要な新機能はOpset 26で、この新しいオペレーター標準バージョンにより、モデルは「より多くの機能を表現し、より広範なツールとランタイムで実行できる」ようになります。
Opset 26の主な追加
標準カタログに2つの新しいオペレーターが追加されました:
- CumProd——テンソルにわたって累積乗算を実行します。機能的には累積合計を実行するよく知られたCumSumオペレーターと似ていますが、合計の代わりに積を使用します。確率モデル、階乗計算、再帰シーケンスに有用です。
- BitCast——コピーなしにデータを再解釈できます。このオペレーターはいくつかのプログラミング言語の
bit_cast関数に類似しています——同じビット列を取り、同じサイズの別の型として扱います。メモリコピーのオーバーヘッドなしに例えばfloat32とint32表現を切り替えるパイプラインのパフォーマンスクリティカルな部分に重要です。
2ビットサポート:エッジとモバイルへのシグナル
最も注目すべきアーキテクチャの変更は2ビットデータ型のサポートです。2ビットの重みや活性化表現を使用するモデルが可能にすること:
- 劇的にモデルサイズを削減——2ビットは8ビットの4分の1、32ビットの16分の1;
- 実行時の小さなメモリフットプリント;
- メモリ帯域幅が制限されたハードウェアでのより良いパフォーマンス。
これはエッジ、モバイル、組み込みシステムに特に関連しており、2ビット量子化は大型モデルの圧縮のためにますます一般的な選択肢となっています。ONNXレベルでの標準化は、フレームワーク(PyTorch、TensorFlow、TVM)とランタイム(ONNX Runtime、Triton)がカスタム変換なしに2ビットモデルで相互運用できることを意味します。
追加の改善点
あまり目立たないが重要な変更:
- 整数除算の一貫性——異なるランタイムは歴史的にエッジケース(例:ゼロ除算、負の整数除算)を異なる方法で処理していました;このバージョンはセマンティクスを統一します;
- バージョン変換ヘルパーの拡張——古いopsetバージョンから新しいバージョンへのレガシーモデルのアップグレードを容易にします;
- Python 3.14フリースレッディングの実験的サポート——Python 3.14はGIL(グローバルインタープリターロック)なしで動作するオプションを導入しており、ONNXはその実行モードとの実験的な互換性を追加しています;
- 強化されたコンパイラーハードニング——ネイティブONNX C++コードでのメモリ破損バグのリスクを減らすべきプロダクションセキュリティの改善。
エコシステムへの意味
ユーザーへの3つの実践的な意味合い:
- 2ビットに量子化されたモデルは、PyTorchでのトレーニングからONNXへの変換、ONNX Runtimeでの実行まで、スタック全体で標準化されたパスを持つようになりました。この変更前は、ユーザーはカスタム拡張を作成する必要がありました。
- フレームワーク間の相互運用性——CumProdとBitCastオペレーターは現代のMLモデルで一般的ですが、以前は基本オペレーターの複雑な組み合わせを通じてよくエミュレートされていました。標準化によりエクスポートとインポートが簡素化されます。
- レガシーモデルの移行ツール——拡張されたバージョン変換ヘルパーは、古いモデルを新しいopsetバージョンにアップグレードするための運用コストを削減します。これは長年稼働している大規模モデルポートフォリオを持つ組織にとって重要です。
LF AIが発表する将来の計画
バージョン発表には将来のバージョンの開発方向もいくつか言及されています:
- 生成AIの拡張オペレーター——RoPE、GQA、専門的なattentionバリアントなどの典型的なパターンには、古いopsetになかったオペレーターが必要です;
- 改善された量子化機能——2ビットに加えて、混合精度の作業も期待されます;
- 確率的プログラミングのための新しいワーキンググループ——ONNXフレームワーク内のベイズ推論とモデルに焦点を当てています。
実践的なアドバイス
すでにONNXを使用しているチームへ:
- ランタイムの互換性を確認する——Opset 26は新しいオペレーターをサポートする更新されたONNX Runtimeや他のエンジンが必要です;
- 候補モデルで2ビット量子化を試験し、メモリと精度の差を測定する;
- 組織にOpset 17以下のレガシーモデルがある場合、バージョン変換ツールを追跡する。
完全なリリースノートはONNXプロジェクトのGitHubリポジトリで入手でき、コミュニティは定期的な公開ミーティングとフィードバック調査を維持しています。プロジェクトはonnx.aiにあります。
この記事はAIにより一次情報源から生成されました。