NVIDIA与西门子医疗:NV-Raw2Insights-US直接从原始超声信号中学习,并实时校正图像
为什么重要
NV-Raw2Insights-US是NVIDIA与西门子医疗(Siemens Healthineers)联合开发的AI模型,直接从原始超声通道信号(raw ultrasound channel data)学习——早于传统波束成形(beamforming)处理阶段——并在单次AI推理中生成针对每位患者个体化的组织声速分布图。该分布图用于实时成像中的自适应聚焦。模型权重(weights)和数据集已在HuggingFace和GitHub上开放发布,通过NVIDIA Holoscan平台和Blackwell GPU进行部署。
2026年4月28日,NVIDIA与西门子医疗(Siemens Healthineers)的研究人员联合发布了NV-Raw2Insights-US——一个颠覆传统超声处理流程的AI模型。传统波束成形(beamforming)将超声探头采集的数百万个回波压缩成最终图像,并假设声学物理参数固定不变(如声音在人体组织中的传播速度为常数)。NV-Raw2Insights-US则在这一压缩步骤之前进行学习,直接处理原始通道数据(raw channel data)。
模型具体做什么?
在这一首个Raw2Insights应用中,NVIDIA与西门子估算声音通过组织的速度,用于自适应图像聚焦。系统在单次AI推理中生成患者个性化的声速分布图,并将其实时回传至扫描仪以校正实时成像图像。以往需要复杂计算才能完成的工作,现在变成了单次推理(single-pass inference)。西门子医疗AI与先进平台团队的Ismayil Guracar和Rickard Loftman主导了这一合作。
如何部署?
原始超声通道数据在临床扫描仪上并不容易获取,因为该信号带宽极高。NVIDIA的Holoscan Sensor Bridge(HSB)(开源FPGA IP核)通过RDMA over Converged Ethernet以低延迟将数据传输至GPU内存。演示使用了Altera Agilex-7 FPGA开发套件、ACUSON Sequoia扫描仪(西门子)以及NVIDIA称为**「Data over DisplayPort」的技术——通过扫描仪的DisplayPort输出流式传输原始信号。推理在NVIDIA IGX Thor或DGX Spark系统内的Blackwell-class GPU上运行,基于NVIDIA Holoscan**边缘AI平台。
开放发布了哪些内容?
NVIDIA已完整开放研究成果:GitHub(github.com/NVIDIA-Medtech/NV-Raw2insights-US)、模型权重(huggingface.co/nvidia/NV-Raw2Insights-US)和数据集(huggingface.co/datasets/nvidia/NV-Raw2Insights-US)。此次发布不包含详细的基准(benchmark)数据或临床验证——重点在于架构与概念层面。NVIDIA强调:该技术处于研究性开发阶段,未获临床批准。更广泛的意义在于:这种「AI原生成像」方法直接从每位患者的物理特性中学习,而非依赖预处理图像,有望成为下一代AI驱动诊断系统的模块化基础。
本文由人工智能基于一手来源生成。