体验更大的推理吞吐量
在人工智能和智能机器新时代,深度学习正以与历史上其他计算模型截然不同的方式改变 着世界。采用革命性的 NVIDIA Pascal™ 架构的 GPU 是人工智能新时代的计算引擎,可加快 大规模深度学习应用程序的速度,提供卓越的用户体验。 打造 NVIDIA Tesla P40 的主要目的是为深度学习部署提供更大的吞吐量。每个 GPU 可带来 47 TOPS(万亿次运算/秒)的推理性能和 INT8 运算能力,使得一台配备 8 个 Tesla P40 的 服务器可提供相当于超过 140 台 CPU 服务器的性能。 随着模型的准确性和复杂性越来越高,CPU 已经无法再提供互动用户体验。Tesla P40 可在 极其复杂的模型中实现实时响应,能够降低延迟,将性能提升为 CPU 的 30 倍以上。
NVIDIA TESLA P40 加速器的特性和利益点
打造 Tesla P40 的主要目的是为深度学习工作负载提供更大的吞吐量。
提供 140 倍的吞吐量以应对爆炸性数据的挑战 Tesla P40 配备新的 Pascal 架构,可带来超过 47 TOPS 的深度学习推理性能。在处理深度学习 工作负载方面,一台使用 8 个 Tesla P40 的服务 器最多可替代 140 台只使用 CPU 的服务器,因而 可以大幅提升吞吐量并降低购买成本。 | 实时推理 Tesla P40 具备 INT8 运算能力,可在极其复杂的 深度学习模型中实现实时响应,能将推理性能 速度提升高达 30 倍。 |
通过单一的训练和推理平台简化了操作 目前,深度学习模型在 GPU 服务器上接受训练, 但在 CPU 服务器上部署,以便进行推理。Tesla P40 提供极简工作流程,因此组织可以使用相同 的服务器进行迭代和部署。 | 使用 NVIDIA 深度学习 SDK 加快了部署速度 通过 NVIDIA 深度学习 SDK 中所包含的 TensorRT 以及 Deep Stream SDK,客户可以轻松顺畅地 利用新 INT8 运算能力和视频转码等推理功能。 |