金山云新一代GPU云服务器上线 基于Tesla T4性能提升350%

2019-06-05 08:32 稿源:用户投稿  0条评论

  近日,金山云基于Tesla T4 的GPU云服务器正式对外商用,这也是继去年国内首家商用Tesla V100 之后,金山云在GPU云服务器领域再一次拔得头筹,代表金山云在新技术应用上始终处于行业领先水平。

  作为全面升级的新一代GPU云服务器,T4 采用了最新的Turing架构,单卡提供8.1 TFLOPS的单精浮点计算能力和65 TFLOPS的混合精度(FP16/FP32)矩阵计算能力。Tesla T4 相比于上一代产品Tesla P4,其整体性能有了较大的提升,在给定场景下,T4 的推理性能提升超过350%。

  震撼的多精度推理性能为AI全面加速

  Tesla T4 基于Turing架构,提供了更加强大的训练和推理能力,在原有对FP32 和FP16 支持的基础上,Turing架构中的Tensor Core新增了对INT8 和INT4 的支持,并探索性地推出了INT1 精度模式。通过对多种精度模式的支持,T4 能够有效缩短在线预测和离线训练时长。根据Nvidia公布的测试数据,在语言推理的场景中(NLP: GNMT Model),T4 相对于P4,其性能提升超过350%。

  Tesla T4 使用TU104 核心,搭载 136 亿个晶体管,共 40 个SM(stream multiprocessor),每个SM单元中有 64 个CUDA Core和 8 个混合精度的矩阵运算单元Tensor Core,共 2560 个CUDA core和 320 个Tensor core,提供8.1 TFLOPS的单精度性能和65 TFLOPS的混合精度(FP16/FP32)性能。此外,T4 中还集成了Turing架构首次引入的RT Core,可实现高效的光线追踪(Ray Tracing)功能,在图形图像渲染方面有着广泛的应用。目前,金山云基于T4 的GPU加速计算服务已全面商用,为诸多客户提供着高性能的计算支撑。

  优异的机器学习能力让技术更智能

  T4 针对深度学习应用场景,进行了全方位的优化。首先,T4 卡配备了 320 个Tensor Core。Tensor Core作为专门用于执行张量/矩阵运算的计算单元,能够为训练和推理场景中的矩阵运算提供极大的加速,被广泛用于各种深度学习的场景中。Turing Tensor Core相对于先前的Volta版,强化了推理的功能,支持了INT8 和INT4 两种精度模式,算力分别高达130TOPS和260TOPS。其次,T4 继承了Volta架构中首次引入的Multi-Process Service(MPS)功能,优化了对batch较小时推理的性能,减少启动延迟,从而能够支持更多的并发请求。

  及时响应是提升用户参与度的关键,随着模型准确性和复杂性的提高,快速交付正确答案所需的计算能力也在呈指数级提升。T4 拥有先进的实时推理性能,在会话式人工智能、推荐系统和可视化搜索等场景的处理上,可提供低延时、高吞吐量的计算能力,进而实时满足更多的处理请求。T4 通过优异的机器学习推理能力让技术应用更为智能。除了深度学习外,T4 在视频转码和虚拟桌面等诸多场景中都能够发挥重要的作用。

  作为中国领先的云计算服务提供商,金山云始终致力于通过最前沿的技术、最高效的产品为客户提供更加安全、稳定、便捷的云服务。目前基于T4 的 GPU云服务器已经开放商用,卓越的深度学习推理性能,让用户能够更加快速、高效地构建AI业务,运行大规模模型推理应用。同时,基于Tesla T4 的实例具备易扩展和高性价比的特性,能够为用户节省大量计算成本,有效提升AI产品迭代的速度,提高企业AI竞争力。

本文由站长之家用户投稿,未经站长之家同意,严禁转载。如广大用户朋友,发现稿件存在不实报道,欢迎读者反馈、纠正、举报问题(反馈入口)。

免责声明:本文为用户投稿的文章,站长之家发布此文仅为传递信息,不代表站长之家赞同其观点,不对对内容真实性负责,仅供用户参考之用,不构成任何投资、使用建议。请读者自行核实真实性,以及可能存在的风险,任何后果均由读者自行承担。

声明:本文转载自第三方媒体,如需转载,请联系版权方授权转载。协助申请

相关文章

相关热点

查看更多