新闻动态
News
首页 > 新闻动态
返回

中科院计算所测试报告


测试目的:


机器翻译,能够实现多种语言之间的自动翻译,方便人类的沟通和交流,具有重要的研究和应用价值。


Transformer 是谷歌在 2017 年推出的 NLP 经典模型,在机器翻译任务上,Transformer 表现超过了 RNN 和 CNN,只需要编/解码器就能达到很好的效果,可以高效地并行化。


本次测试,使用 Transformer-big 模型,对 WMT16 ende 数据集进行处理,分别在 8 卡 3090 服务器和 20 卡 A10 服务器上运行。


测试环境配置:


3-211102205026292.png


测试数据:


3-211102205115492.png


3-211102205206341.png


测试结论及分析:


A10 适合执行多个单卡任务,3090 更适合训练;



上一篇:NVIDIA Omniverse™ 最新问答整理