随着人工智能技术的快速发展,以及大模型规模的不断扩大,大规模 GPU 集群对网络的超低时延、超高带宽、无损稳定提出极致要求。
传统网络设备难以承载海量数据的高速交互,而NVIDIA Spectrum SN5610交换机,作为 Spectrum‑4 代旗舰机型、Spectrum‑X AI 网络平台核心,以全硬件架构重塑 AI 网络底座,成为大模型训练集群的核心标配。
SN5610 搭载 NVIDIA 自研Spectrum‑4 ASIC 芯片,专为 800G 高速转发与 RoCE 无损通信深度优化。
交换容量达51.2Tb/s,64 字节标准小包线速转发能力达33.3Bpps,双向无阻塞全线速,从容应对 AI 集群超高并发流量;
2U 紧凑机身集成64 个 OSFP 800GbE 端口,支持灵活拆分400G/200G/100G,单台设备兼顾 Leaf 接入与 Spine 核心双重角色,简化大规模集群网络架构;
配备160MB 全局共享缓存,全端口动态共享,高效抵御 AI 训练瞬时流量突发,从底层规避缓存溢出丢包风险。
区别于其他厂商依赖软件模拟的方案,SN5610 将 RoCEv2 全套无损机制全硬化至 ASIC 芯片,全程不经过主控 CPU,彻底告别软件转发的性能瓶颈。
直通转发(Cut‑Through):收到数据包头部即转发,超低直通转发时延,精准匹配 GPU 多卡同步通信需求;
全硬件拥塞控制:PFC 优先级流控、ECN 显式拥塞标记、DCQCN 拥塞算法均在芯片硬件流水线完成,微秒级响应、逐流精准调速,实现 RoCE 传输零丢包、无雪崩,保障千卡级集群稳定运行;
CPU 低开销:主控 CPU 仅负责配置、监控等管理操作,日常负载低,杜绝大流量下 CPU 过载导致的时延抖动、设备故障等问题。
作为 Spectrum‑X AI 网络平台核心设备,SN5610 深度适配 NVIDIA AI 生态,与 ConnectX‑8 网卡、BlueField DPU、DGX/HGX GPU 服务器预测试验证,即插即用。
核心适配大规模 AI 大模型训练集群、分布式存储 RDMA 加速、高端数据中心核心层互联,完美替代传统 InfiniBand 网络,兼顾以太网兼容性与经济性;
支持 Cumulus Linux、SONiC 等开放操作系统,搭配硬件级遥测功能,实现微秒级故障定位,降低大规模集群运维难度;
高能效设计:典型功耗约 670W,搭配 2+2 热插拔冗余电源、N+1 冗余风扇,满足数据中心 7×24 小时不间断运行需求。
NVIDIA SN5610 交换机,以Spectrum‑4 全硬件 ASIC为核心,融合超低时延直通转发、全硬件 RoCE 无损能力、高密度 800G 端口设计与深度 AI 生态适配,彻底解决传统网络在大规模 AI 集群中的痛点。它既是高性能 800G 交换机,更是专为 AI 训练量身打造的网络核心引擎,为 大规模AI 训练与分布式计算场景,提供稳定、高效、可扩展的网络支撑,成为 AI 时代基础设施的核心选择。
往期回顾