一箱式 AI 数据中心

NVIDIA DGX Station™A100 为数据科学团队带来了 AI 超级计算,无需数据中心或其他 IT 基础设施即可提供数据中心技术。强大的性能、完全优化的软件堆栈和直接访问 NVIDIA DGXperts 可确保更快地实现洞察。

NVIDIA DGX Station™A100概览

>DGX Station A100提供2.5 petaFLOPS的AI算力
您的团队可以无限制使用的数据,用于训练,推理和数据分析
>服务器级别,即插即用,不需要数据中心电源和散热
>世界一流的AI平台,无需复杂的安装和必要的IT帮助
>世界上唯一的工作站式系统,具有四个完整的互连的NVIDIA A100 Tensor Core GPU以及多达320 GB的GPU内存
>利用NVIDIA的专业知识和经验提供AI转型的快速途径

NVIDIA DGX Station A100为数据带来AI超级计算科学团队,提供无数据的数据中心技术中心或其他IT基础架构。专为多个,同时用户,DGX Station A100利用服务器级组件采用办公友好的外形。这是唯一具有四个完全互连和多实例的系统具备GPU(MIG)功能的NVIDIA A100 Tensor Core GPU,具有最多320 GB的GPU显存,可以插入标准电源插座,使您可以使用功能强大的AI设备放在任何地方。

面向数据科学团队的AI超级计算

轻松地为多个同时用户提供集中式AI资源,DGX Station A100可以进行系统训练,MIG并行进行推理和分析工作负载,它可以为单个用户提供多达28个独立的GPU设备,从而可以控制多个任务并且不会影响整个系统的性能。 DGX Station A100具有相同的完全优化的与所有DGX系统一样的软件堆栈(NVIDIA DGXTM),可提供最佳性能和完整功能与基于DGX的基础架构的互操作性,从单个系统到NVIDIADGX POD™和NVIDIA DGX SuperPOD™,使DGX Station A100成为理想的平台,适用于所有组织(无论大小)的团队。

更大的模型,更快的速度

NVIDIA DGX Station A100不是工作站。 这是一个可以放置在桌边的AI工作组服务器,它除了配置64核数据中心级CPU外,它还具有与NVIDIA DGX A100服务器相同的NVIDIA A100 Tensor Core GPU,具有通过高速SXM4连接的每个40或80 GB 的DGX A100 GPU内存。 DGX Station A100是唯一具有四个完全互连的办公友好型系统。利用NVIDIA® NVLink® 并支持MIG的GPU,最多可提供28个独立的GPU设备用于并行任务和多个用户且不会影响系统性能。