新闻动态
News
首页 > 新闻动态 > 产品资讯
返回

接受预定 | NVIDIA DGX STATION A100 为研究人员提供一体式AI数据中心


2020-12-3


    在 SC20(Supercomputing Conference)超级计算大会上,NVIDIA 发布了全球唯一的千万亿级工作组服务器NVIDIA DGX Station™ A100 。安培架构的桌面级超算中心,已强势登场!


    作为开创性的第二代人工智能系统,DGX Station A100 加速满足位于全球各地的公司办公室、研究机构、实验室或家庭办公室中办公的团队对于机器学习和数据科学工作负载的强烈需求。


    DGX Station A100 的 AI 性能可达 2.5 petaflops,是唯一一台配备四个通过 NVIDIA NVLink® 完全互连的全新 NVIDIA® A100 Tensor Core GPU 的工作组服务器,可提供高达 320GB 的 GPU 内存,能够助力企业级数据科学和AI领域以最速度取得突破。


    DGX Station A100 也是唯一支持 NVIDIA 多实例 GPU(MIG)技术的工作组服务器。借助 MIG,单一 DGX Station A100 最多可提供 28 个独立 GPU 实例以运行并行任务,并可在不影响系统性能的前提下支持多用户。


    NVIDIA 副总裁兼 DGX 系统总经理 Charlie Boyle 表示:“DGX Station A100 将 AI 从数据中心引入可以在任何地方接入的服务器级系统。数据科学和 AI 研究团队可以使用与 NVIDIA DGX A100 系统相同的软件堆栈加速他们的工作,使其能够轻松地从开发走向部署。”


DGX Station 驱动 AI 创新



接受预定 | NVIDIA DGX STATION A100 为研究人员提供一体式AI数据中心(图1)


    全球各机构都已采用 DGX Station,赋力教育、金融服务、政府、医疗健康、零售等行业的AI和数据科学应用。这些AI领导者包括:


  • 宝马集团生产部门正在使用 NVIDIA DGX Station 来开发和部署 AI 模型,以完善运营,从而更快速地获得深入的洞察。


  • 德国人工智能研究中心(DFKI)正借助 DGX Station 构建能够应对重大社会和行业挑战的模型,包括能够帮助紧急服务快速响应自然灾害的计算机视觉系统。


  • NTT Docomo 是日本领先的移动运营商,拥有超过 7900 万用户。其借助 DGX Station 开发创新的AI驱动的服务,例如其图像识别解决方案。


  • 太平洋西北国家实验室(PNNL)正在使用 NVIDIA DGX Station 开展研究,该研究获得了联邦资助,旨在助力提升国家安全。PNNL 专注于能源弹性和国家安全方面的技术创新,是美国领先的高性能计算(HPC)中心,致力于科学发现、能源弹性、化学、地球科学和数据分析领域的研究。



一台随处可得的AI超级计算机


接受预定 | NVIDIA DGX STATION A100 为研究人员提供一体式AI数据中心(图2)


    作为服务器级的系统,DGX Station A100 无需配备数据中心级电源或散热系统,却具有与 NVIDIA DGX A100 数据中心系统相同的远程管理功能。当数据科学家和研究人员在家中或实验室办公时,系统管理员可轻松地通过远程连接,执行任何管理任务。


    DGX Station A100 配备四组 80 GB 或 40 GB NVIDIA A100 Tensor Core GPU,让数据科学和 AI 研究团队能够结合自身工作负载和预算来选择系统。


    为支持诸如 BERT Large 推理等复杂的对话式 AI 模型,DGX Station A100 比上一代 DGX Station 提速 4 倍以上。对于 BERT Large AI 训练,其性能提高 3 倍以上。


DGX Station A100 具体参数指标


接受预定 | NVIDIA DGX STATION A100 为研究人员提供一体式AI数据中心(图3)


NVIDIA A100 GPU 80GB


接受预定 | NVIDIA DGX STATION A100 为研究人员提供一体式AI数据中心(图4)


    在 SC20(Supercomputing Conference)超级计算大会上,还同时发布了NVIDIA Ampere 架构 A100 80 GB GPU。


    NVIDIA 应用深度学习研究副总裁 Bryan Catanzaro 表示:“若想获得 HPC 和 AI 的最新研究成果,则需要构建最大的模型,而这需要比以往更大的内存容量和更高的带宽。A100 80GB GPU 所提供的内存是六个月前推出的前代产品的两倍,突破了每秒 2TB 的限制,使研究人员可以应对全球科学及大数据方面最严峻的挑战。”


A100 80GB 的关键特性


    A100 80GB 具备 NVIDIA Ampere 架构突破性特性:



  • 第三代 Tensor Core 核心:通过全新 TF32,将上一代 Volta 的 AI 吞吐量提高多达 20 倍。通过 FP64,将 HPC 提高多达 2.5 倍。通过 INT8,将 AI 推理性能提高多达 倍,并且支持 BF16 数据格式。

     

  • 更大、更快的 HBM2e GPU 内存:使内存容量增加一倍,在业内率先实现 2TB/s 以上的内存带宽。

     

  • MIG 技术:将单个独立实例的内存增加一倍,可最多提供七个 MIG,每个实例具备 10GB 内存。

     

  • 结构化稀疏:将推理稀疏模型的速度提高 2 倍。

     

  • 第三代 NVLink 和 NVSwitch:相较于上一代互连技术,可使 GPU 之间的带宽增加至原来的两倍,将数据密集型工作负载的 GPU 数据传输速度提高至每秒 600 gigabytes。

供货情况


   DIA DGX Station A100 和NVIDIA DGX A100 640GB 系统开始接受预定。NVIDIA DGX A100 320GB 用户可选择升级。


上一篇:暂无