所有文章 > 正文

NVIDIA联合VMware推出虚拟化 GPU,加速AI部署

作者: Jansfer

时间: 2019-08-30 13:47

Nvidia(英伟达)和VMware于8月26日宣布在VMware Cloud on AWS推出GPU加速服务,为AI、机器学习或深度学习等计算密集的工作负载提供了先进的混合云基础架构支持。

190830-9.png

图|企业级混合云平台加速了应用程序的现代化

这项新服务允许客户将基于VMware vSphere的应用程序和容器原封不动地迁移到云端,VMware的云服务在AWS数据中心的裸机基础设施上运行,实现了应用和容器的现代化,从而充分利用由Nvidia加速器支持的高性能计算(HPC)、机器学习、数据分析和视频处理应用。

AWS平台上的VMware Cloud将能够租用Amazon EC2裸机实例,这是AWS的一项提供可调整计算容量的服务,其中Nvidia T4 100 GPU负责加速该服务。

混合平台关键的支持技术是Nvidia的虚拟计算服务器软件(vComputeServer),这是一种虚拟GPU技术,可以在虚拟环境中实现GPU加速的工作负载部署。该技术此前就存在,并不新颖,但直到现在才扩展了对VMware虚拟环境的支持,包括vSphere、vCenter和VMware云。

GPU加速的工作负载(例如人工智能培训)通常是在裸机上运行的,而裸机通常是由独立于公司的其他服务器进行管理的。

Nvidia在一份声明中表示,vComputeServer使IT管理员在能够保持现有工作流程并降低总体运营成本的同时,简化了对GPU加速虚拟化服务器的管理。

“与仅使用CPU的服务器相比,使用有4个Nvidia V100 GPU的vComputeServer可以加快深度学习的速度,提高到50倍,接近于裸机的性能,”该公司在宣布的新闻稿中补充道。

vComputeServer还支持GPU共享,因此多个虚拟机可由一个GPU或GPU聚合来驱动,其允许多个GPU为虚拟机供电,从而最大限度地提高利用率,并进一步降低运营成本。

Nvidia创始人兼首席执行官Jensen Huang 表示,从运营智能到人工智能,企业依靠GPU加速计算做出了直接影响其利润的快速、准确的预测。我们与VMware一起,正在设计最先进的GPU基础设施,以促进整个企业的创新,从虚拟化到混合云,再到VMware新推出的Bitfusion数据中心分解。

参考:https://techerati.com/news-hub/nvidia-and-vmware-aws-hybrid-cloud-machine-learning/

[关于转载]:本文为“AMiner”官网文章。转载本文请联系原作者获取授权,转载仅限全文转载并保留文章标题及内容,不得删改、添加内容绕开原创保护,且文章开头必须注明:转自“AMiner”官网。谢谢您的合作。

二维码 扫码微信阅读
推荐阅读 更多