新闻动态
News
首页 > 新闻动态
返回

卓越非凡 引领未来 容天人工智能与大数据 AIX 系列


2017-7-4


    今天,我们正站在由 GPU 深度学习的新计算模式引发的人工智能计算时代的开端。深度学习无处不在,当你打开移动终端的时候,各种 APP 会荐到你喜欢的食物、你喜欢的电影,你关注的新闻热点。在生活中更是改变着我们,今天的智能语音让语言障碍破除,在预测疾病基因大数据领域预测疾病来确定药物治疗方案。在安全领域通过安装在机场和商场的智能视频监控,提高了公共安全性。可以说,深度学习的应用,彻底改变了今天人们的生活。


硬件的发展推动 AI 领域的进步


    2016 年 3 月份,谷歌 DEEPMIND 的计算机在多轮围棋比赛中击败了世界围棋冠军李世石。这一标志事件意味着 AI 领域将会进入一个新的时代。获胜的 AlphaGo 借力于现在为大家所熟知的深度学习---一种人工神经网络,在这种神经网络里有很多计算处理层,可以用来从海量的数据中寻找某一类数据的特征,可以用来自动寻找问题的解决方案。


2-210Q01JFK18.png


    企业追求的主要战术是使用现场可编程门阵列(FPGA),其中有可重配置的优势,可以根据计算需求进行修改。而其中的更常见的方法则是使用图形处理单元(GPU),与 CPU 串行的架构有所不同,这种计算设备可以并行地同时执行大量数学计算,最知名的 GPU 提供商英伟达(NVIDIA)近期来的股价也已每年成倍的速度增长,正是得益于此。


    更多的企业应用 GPU 服务器结合深度学习寻找他们自己适合的算法研究,编写自己的神经网络,例如 Facebook 将神经网络用于自动标注算法、谷歌将它用于图片搜索、亚马逊将它用于商品推荐、Pinterest 将它用于个性化主页推送、Instagram 将它用于搜索架构。


2-210Q01JR1427.jpg

       

AI 未来-深度学习时代


    随着硬件(GPU )不断发展更新,机器学习这一古老的名词变得无比的时髦,甚至可以说是闪耀。其中一种重要的分支-深度学习更是在许多领域中占据着独一无二的位置,基于深度学习的网络和框架更是层出不穷,目前被应用到各个高校,企业,军工,事业单位中。由此可见,在如今这个科技飞速发展,大数据遍地开花的时代,深度学习对我们来说早已不再那么遥远。


    深度学习的概念由 Hinton 等人于 2006 年提出。基于深度置信网络(DBN)提出非监督贪心逐层训练算法,为解决深层结构相关的优化难题带来希望,随后提出多层自动编码器深层结构。此外 Lecun 等人提出的卷积神经网络是第一个真正多层结构学习算法,它利用空间相对关系减少参数数目以提高训练性能。


    深度学习是机器学习研究中的一个新的领域,其动机在于建立、模拟人脑进行分析学习的神经网络,它模仿人脑的机制来解释数据,例如图像,声音和文本


2-210Q01J940A9.png


    同时基于深度学习的框架更是层出不穷,以下是目前相对流行的框架,支持 CNN,RNN 等网络架构:


2-210Q01K000193.jpg


我们能做什么


    作为英伟达的精英级合作伙伴,北京容天汇海科技有限公司成立于 2005 年,多年来,公司致力于高端服务器、图形工作站、高性能计算集群、GPU 并行计算以及存储设备定制的研究,是以为客户提供软硬件一体化解决方案、GPU 并行计算代码培训与移植、代码优化为主要业务的新型高科技企业。


2-210Q01K11J05.jpg


深度学习超级计算服务器 DEVTOP AIX4880-G3


    采用最新的内存技术,为深度学习的业务处理提供更好的性能


    最新的硬盘接口技术,支持 NMME 接口,大幅提升存储性能


    最多支持 10 块GPU,支持 NVIDIA A100、A40 和 RTX A6000,满足高端性能需求


    双路 CPU 处理器,支持高达 270W 的 CPU TDP


    采用 Ubuntu 18.04 LTS 操作系统及以上,内置相应 GPU 驱动程序


    内置当前最新的 CUDA Toolkit 及 CuDNN、CuBLAS、CuSPARSE 等加速库


    内置目前流行深度学习框架 Caffe、Caffe2、Tensorflow、Theano、Pytorch、MxNet、CNTK、Digits 等


    内置容天自主研发深度学习大数据平台 RT-BrainV3.0、支持海量数据的深度学习应用


2-210Q1100155156.png


    (点击了解 DEVTOP AIX4880-G3 更多信息)


强大的端到端 AI 和 HPC 数据中心平台:NVIDIA A100(PCIe)


    NVIDIA A100 GPU 可针对 AI、数据分析和 HPC 应用场景,在不同规模下实现出色的加速,有效助力全球高性能弹性数据中心。


深度学习训练


    2048 个 A100 GPU 可在一分钟内大规模处理 BERT 之类的训练工作负载,这是训练时间的世界纪录。


深度学习推理


    在 BERT 等先进的对话式 AI 模型上,A100 可将推理吞吐量提升到高达 CPU 的 249 倍。


高性能计算


    A100 的双精度 Tensor Core 为 HPC 领域带来了自 GPU 中的双精度计算技术推出以来极其重要的里程碑。借助 HBM2e 每秒超过 2 TB 的带宽和大容量内存,科研人员可以在 A100 上将原本要花费 10 小时的双精度模拟过程缩短到 4 小时之内。HPC 应用程序还可以利用 TF32 将单精度、密集矩阵乘法运算的吞吐量提高高达 10 倍。


高性能数据分析


    数据科学家需要能够分析和可视化庞大的数据集,并将其转化为宝贵见解。但是,由于数据集分散在多台服务器上,横向扩展解决方案往往会陷入困境。


    搭载 A100 的加速服务器可以提供必要的计算能力,并能利用大容量内存以及通过 NVIDIA® NVLink® and NVSwitch™ 实现的超快速内存带宽(超过每秒 2 TB)和可扩展性妥善处理工作负载。通过结合 InfiniBand, NVIDIA Magnum IO™ 和 RAPIDS™ 开源库套件(包括用于执行 GPU 加速的数据分析的 RAPIDS Accelerator for Apache Spark),NVIDIA 数据中心平台能够加速这些大型工作负载,并实现超高的性能和效率水平。


2-210Q110123W24.png


    (点击了解 A100(PCIe) 更多信息)


   

上一篇:革命性架构 Volta 登台 • NVIDIA 推进人工智能