Marvell与NVIDIA围绕NVLink Fusion技术展开深度合作,共同扩展AI数据中心生态系统。NVLink Fusion是NVIDIA推出的新一代高速互连技术,能够在GPU集群中实现超低延迟、高带宽的芯片间通信,大幅提升大规模分布式AI训练和推理的效率。Marvell作为业界领先的数据基础设施芯片设计公司,将其在网络和存储领域的深厚技术积累与NVIDIA的GPU计算平台相结合,为AI数据中心提供更加优化的端到端互连解决方案。
在AI模型规模持续膨胀的背景下,数据传输和通信效率已成为制约大规模集群性能的关键瓶颈。传统数据中心网络中,GPU之间的数据交换往往受限于网络带宽和延迟,导致计算资源闲置等待数据。通过NVLink Fusion技术,Marvell和NVIDIA的联合方案能够在数千GPU的集群中实现接近芯片级的高速互连,使各个GPU之间的数据流转几乎无延迟,显著提升模型训练效率和推理吞吐量。这一合作不仅提升了单个AI数据中心的性能上限,更为构建跨地域的超大规模AI训练集群奠定了基础。Marvell的SerDes(串行器/解串器)技术与NVLink的协议栈深度融合,使得在更长的物理距离上保持高速互连成为可能。随着生成式AI对算力需求的持续激增,这种底层互连技术的创新对构建下一代数万卡甚至数十万卡级别的AI数据中心具有至关重要的战略意义,将有力推动AI基础模型的训练效率实现数量级提升。
