🟡 🤖 モデル 2026年4月28日火曜日 · 2 分で読めます

NVIDIAとシーメンス・ヘルシニアーズ:NV-Raw2Insights-USが生の超音波信号から直接学習し、リアルタイムで画像を補正

エディトリアル・イラスト:超音波プローブと波状のrawシグナルがGPUに入力され、組織内音速マップが生成されている

なぜ重要か

NV-Raw2Insights-USは、NVIDIAとSiemens Healthineersが共同開発したAIモデルです。従来のビームフォーミング(beamforming)処理の前段階にあたるraw超音波チャンネル信号から直接学習し、1回のAI推論で患者ごとに最適化された組織内音速マップを生成します。このマップはライブ撮影における適応的な画像フォーカシングに使用されます。モデルの重み(weights)とデータセットはHuggingFaceおよびGitHubでオープンに公開されており、NVIDIA HoloscanプラットフォームとBlackwell GPUを通じてデプロイされます。

2026年4月28日、NVIDIAとSiemens Healthineersの研究者たちはNV-Raw2Insights-USを発表しました。これは従来の超音波処理パイプラインを根本から変えるAIモデルです。従来のビームフォーミング(beamforming)は、超音波プローブから取得した数百万のエコーを最終画像に圧縮する際、物理的仮定(例:体内の音速が一定)を前提とします。NV-Raw2Insights-USはこの圧縮処理の、すなわち**rawチャンネルデータ(raw channel data)**から直接学習します。

モデルは具体的に何をするのか?

このRaw2Insightsの最初のアプリケーションでは、NVIDIAとシーメンスが組織内の音速を推定し、適応的な画像フォーカシングに活用します。システムは1回のAI推論で患者固有の音速マップを生成し、それをスキャナーにリアルタイムでフィードバックしてライブ撮影中の画像を補正します。従来は複雑な計算を必要としていた処理が、シングルパス推論(single-pass inference)で実現されます。Siemens HealthineersのAI & Advanced Platformsグループに所属するIsmayil GucarとRickard Loftmanがこの共同研究をリードしました。

どのようにデプロイされるのか?

Raw超音波チャンネルデータは信号の帯域幅が非常に高いため、臨床スキャナーでの取得は容易ではありません。NVIDIAのHoloscan Sensor Bridge(HSB)(オープンソースのFPGA IPコア)がRDMA over Converged Ethernetを介して低遅延でデータをGPUメモリに転送します。デモではAltera Agilex-7 FPGA開発キット、ACUSON Sequoiaスキャナー(シーメンス)、そしてNVIDIAが**「Data over DisplayPort」と呼ぶ技術(スキャナーのDisplayPort出力から生信号をストリーミング)が使用されました。推論はNVIDIA IGX ThorまたはDGX Sparkシステム内のBlackwell-classのGPU**上で、NVIDIA HoloscanエッジAIプラットフォームの下で実行されます。

オープンに公開されたものは何か?

NVIDIAは完全な研究パッケージをオープン公開しています。GitHub(github.com/NVIDIA-Medtech/NV-Raw2insights-US)、モデルの重み(weights)(huggingface.co/nvidia/NV-Raw2Insights-US)、およびデータセット(huggingface.co/datasets/nvidia/NV-Raw2Insights-US)です。今回の発表には詳細なベンチマーク(benchmark)データや臨床検証は含まれておらず、焦点はアーキテクチャとコンセプトにあります。NVIDIAは強調しています。この技術は研究開発段階にあり、臨床承認を受けていないと。より広いメッセージとして:事前処理された画像ではなく各患者の物理的特性から学習する「AIネイティブイメージング」のアプローチが、次世代のAI駆動型診断システムのモジュラー基盤となり得ます。

🤖

この記事はAIにより一次情報源から生成されました。