产品中心
Product
首页 > 产品中心 > 服务器
返回

HGX AIX6480


规模化企业 AI 的挑战

每家企业都需要利用人工智能(AI进行转型,不仅要生存,还要在充满挑战的时代中茁壮成长。然而,企业需要一个改进传统方法的人工智能基础架构平台,而传统的方法在历史上涉及到缓慢的计算架构,这些架构被分析、训练和推理工作负载孤零零地放在一起。旧的方法造成了复杂性,推高了成本,制约了规模速度,而且还没有为现代 AI 做好准备。企业、开发者、数据科学家和研究人员需要一个新的平台,统一所有 AI 工作负载,简化基础设施,加速投资回报率。


适用于所有 AI 工作量的通用系统

HGX AIX6480 适用于所有 AI 工作负载的通用系统--从分析到训练到推理。HGX AIX6480 为计算密度设定了新的标准,将 5 petaFLOPS 的 AI 性能封装在 6U 的外形尺寸中,取代了传统的计算能力。


统一的单一系统,实现了对基础架构的精细化分配。此外,HGX AIX6480 还提供了前所未有的精细化计算能力分配能力,利用 NVIDIA A100 Tensor Core GPU 中的多实例 GPU 功能,管理员可以为特定的工作负载分配大小合适的资源。这就确保了在支持最大和最复杂的工作的同时,也支持最简单和最小的工作。


在运行 DGX 软件栈与 NGC 的优化软件的同时,密集的计算能力与完整的工作负载灵活性相结合,使 HGX AIX6480 成为单节点部署以及使用 NVIDIA DwwpOps 部署的大规模 Slurm 和 Kubernetes 集群的理想选择。


最快的解决时间

HGX AIX6480 采用 8 颗 NVIDIA A100 Tensor Core GPU,为用户提供了无与伦比的加速能力,并针对 NVIDIA CUDA-X™,软件和 NVIDIA 端到端的数据中心解决方案栈进行了全面优化。NVIDIA A100 GPU 带来了全新的精度-- TF32,其工作原理与 FP32 一样, 同时为 AI 提供了比上一代更高的 20 倍的 FLOPS,最棒的是,无需修改代码就能获得这样的加速。而且在使用 NVIDIA 的自动混合精度时,A100 还提供了额外的使用 FP16 精度,只需增加一行代码,就能将性能提升 2 倍。A100 GPU 采用了领先于同级别的1.6 兆字节/秒(TB/s的内存带宽,比上一代增加 70% 以上。此外,A100 GPU 的显存大幅增加,其中包括 40 MB 的 Level 2 级缓存,比上一代增加了近 7 倍,最大限度地提高了计算性能。此外,HGX AIX6480,还拥有 NVIDIA 新一代 NVLink™,将 GPU 到 GPU 的直接带宽提高了一倍,达到了 600 GB。芯片组采用了全新的 NVIDIA NVSwitch,速度比上一代产品快了 2 倍。这种前所未有的强大性能提供了最快的解决时间,让用户能够解决以前不可能或不实用的挑战。


世界上最安全的企业级 AI 系统

HGX AIX6480 为您的 AI 企业提供了最强大的安全防护,通过多层次的方法保护所有主要硬件和软件组件的安全。HGX AIX6480 内建的安全防护功能涵盖了底板管理控制器(BMC、CPU 板、GPU 板、自加密驱动器和安全启动,使 IT 人员能够专注于 AI 的运营,而不是将时间花在威胁评估和缓解上。

 

无与伦比的数据中心可扩展性的 Mellanox

HGX AIX6480 拥有极快的 I/O架构,是企业级可打展 AI 基础架构的蓝图。HGX AIX6480 拥有 8 个单端口的 Mellanox ConnectX-6 VPI HDR InfiniBand 适配器,用于集群, 1 个双端口的 ConnectX 6 VPI 以太网适配器用于存储和网络,均能达到 200 Gb/s。海量的 GPU 加速计算与最先进的网络硬件和软件优化相结合,意味着 HGX AIX6480 可以扩展到数百个或更多的服务器。上千个节点,以应对对话式 MI 和大规模图像分类等最大的挑战。

 

HGX AIX6480(图1)

HGX AIX6480(图2)

 






上一篇: