北京中科云达GPU服务器 P40
提供 140 倍的吞吐量以应对性数据的挑战
Tesla P40 配备新的 Pascal 架构,可带来超过47 的深度学习推理性能。在处理深度学习工作负载方面,一台使用 8 个 Tesla P40 的服务器可替代 140 台只使用 CPU 的服务器,因而可以大幅提升吞吐量并降低购买成本。
实时推理
Tesla P40 具备 INT8 运算能力,可在极其复杂的深度学习模型中实现实时响应,能将推理性能速度提升高达 30 倍。
通过单一的训练和推理平台简化了操作
目前,深度学习模型在 GPU 服务器上接受训练, 但在 CPU 服务器上部署,以便进行推理。Tesla P40 提供极简工作流程,因此组织可以使用相同的服务器进行迭代和部署。
使用 NVIDIA 深度学习 SDK 加快了部署速度
通过 NVIDIA 深度学习 SDK 中所包含的 TensorRT以及 Deep Stream SDK,客户可以轻松顺畅地利用新 INT8 运算能力和视频转码等推理功能。