将 NVIDIA AI 引入任何服务器的入门级 GPU
NVIDIA A2 采用 Ampere 架构,单槽半高半长规格,1280 个 CUDA 核心。配备了 16GB 容量的 GDDR6 显存,位宽为 128 位,速率为 12.5 Gbps,带宽为 200 GB/秒。其 TDP 为 40W 至 60W,不需要外接供电,被动散热结构。
NVIDIA A2 的基本频率为 1440 MHz,加速频率为 1770 MHz,可提供 4.5 TFLOPS 的单精度计算能力。
由于没有视频输出接口,若不是通过虚拟机环境使用,不能用于游戏。单槽半高半长的规格,旨在用于看重成本效益且需要高度兼容性的服务器中,针对 AI 推理工作负载进行优化。
多用途的入门级推理
NVIDIA A2 具有低功耗、小尺寸和高性能的特点,可为在边缘部署 NVIDIA AI 的智能视频分析(IVA)提供入门级推理功能。半高 PCIe 4.0 卡的设计, 40-60 瓦的低热设计功耗(TDP)配置功能,能为大规模部署中的不同服务器带来通用的推理加速能力。
推理性能提升高达 20 倍
与 CPU 服务器相比,配备 NVIDIA A2 的边缘和入门级服务器可提供高达 20 倍的推理性能,将服务器升级到能处理现代 AI 的水平,为消费者打造更便利的生活。
在智能边缘,实现更高的 IVA 性能
在智慧城市、制造和零售等智能边缘用例中,装备 NVIDIA A2 的服务器最高可将性能提升 1.3 倍。与前几代 GPU 相比,运行 IVA 工作负载的 NVIDIA A2 最高可将性价比和能效分别提升 1.6 倍和 10%,从而改善部署效率。
针对服务器进行优化
针对 5G 边缘和工业环境这样空间和散热要求受限制的入门级服务器,NVIDIA A2 为其推理工作负载和部署进行了优化。A2 提供了在低功耗范围内运行的半高外形,从 60 瓦到 40 瓦的 TDP,使其成为众多服务器的理想选择。
领先的跨云、数据中心和边缘的 AI 推理性能
AI 推理继续推动跨行业的突破性创新,包括消费互联网、医疗保健和生命科学、金融服务、零售、制造和超级计算。A2 的小巧尺寸和低功耗与 NVIDIA A100 和 A30 相结合,可提供跨云、数据中心和边缘的完整AI推理产品组合。更少的服务器、更少的功率、大幅降低成本、更快的洞察力。
支持 NVIDIA AI ENTERPRISE 和认证系统
NVIDIA AI Enterprise 一套端到端云原生 AI 和数据分析软件,经认证可在基于服务器虚拟化平台的虚拟基础设施(带有 VMware vSphere)中的 A2 上运行。这允许在混合云环境中管理和扩展 AI 和推理工作负载。
搭载 NVIDIA A2 的 NVIDIA 认证系统™ 将计算加速功能与高速、安全的 NVIDIA 网络整合到 NVIDIA 的 OEM 合作伙伴构建和销售的企业数据中心服务器中。利用此计划,客户可以在单个高性能、经济高效且可扩展的基础设施上识别、获取和部署系统,以运行 NVIDIA NGC™ (NVIDIA GPU CLOUD)目录中的传统和多样化的现代 AI 应用程序。
技术规格