当前所在地: 主页 > 人像滚动 >NVIDIA将GPU加速资源带到VMware虚拟化应用,大幅 >

NVIDIA将GPU加速资源带到VMware虚拟化应用,大幅


2020-05-21


在此次VMWorld 2019开始前,NVIDIA宣布针对人工智慧、学习训练与资料分析等需求,打造名为vComputeServer的应用服务,并且将NVIDIA GPU Cloud、NGC Containers,甚至可将GPU加速平台RAPIDS在内资源带进VMware与AWS合作的云端服务-VMware Cloud on AWS,让更多科学研究、数据分析、人工智慧技术应用能藉由虚拟化GPU进行加速。

相比过往藉由云端协同运算,多半会因为云端服务採用的CPU运算阵列效能限制,使得运算效能不如预期,甚至无法对应资料量越来越庞大的运算需求。因此,NVIDIA在此次VMWrold 2019与WMware的合作,并将GPU虚拟化应用带进VMware所提供服务,其中包含在VMware提供的vSphere整合名为vComputeServer的应用服务,同时也串接NVIDIA GPU Cloud运算资源。

在此项合作里,将可让原本运用vSphere虚拟化平台的运算模式串接GPU运算资源,让vSphere平台产生的虚拟化机器可额外配置一张或多张虚拟化GPU,同时藉由GPU加速整体运算效率,使得人工智慧学习、研究分析效率可大幅提昇。除此之外,藉由此项合作,使用者将能以更具弹性方式调用GPU加速运算资源,而不一定必须建置自有GPU加速资源。

相比部分企业会在自有数据伺服器整合GPU加速资源,藉此让整体数据运算效率提昇,但难免必须承担建置与维护成本,同时仍可能面临运算规模成长时,必须有更大运算效能支撑的情况。因此,NVIDIA从2017年提出NVIDIA GPU Cloud服务,并且标榜能串接Google Cloud、AWS、阿里云、DGX、Oracle Cloud等云端平台,透过GPU虚拟化方式协助推动更大运算规模,同时缩减运算所需时间。

而在今年的GTC 2019期间,NVIDIA更提出全新CUDA-X AI加速演算平台,透过Turing显示架构、TensorRT运算框架,并且可相容Turing Tensor Cores设计,进而推动各类人工智慧运算模型,NVIDIA强调约可带来50倍以上的加速运算效果,并且带来更大的人工智慧运算应用成长推力。

此次宣布加入支援vSphere、vCenter或vMotion,将可透过NVIDIA GPU Cloud串接使用者从自有伺服器到VMware Cloud on AWS在内GPU加速需求,并且让NVIDIA的GPU虚拟化技术应用到更广泛领域,除了应用在科学研究、数据分析或人工智慧领域,更可针对布署在云端的现代化应用服务运作进行加速。

就NVIDIA说明,过去已经在GPU虚拟化技术投入深度发展,例如早期藉由GRID技术建立的虚拟化PC,以及后来推动的虚拟化工作站,让GPU虚拟化能应用在更进阶的专业绘图应用,甚至支援专业数据分析、机器学习、人工智慧、深度学习,或是超算领域等应用,另外也能对应各类伺服器运算加速,并且确保运算资源能即时无缝串接、整合。

相比单纯以CPU阵列加速模式,藉由GPU加速约可提昇50倍以上的深度学习效率,同时也能确保资料校正,或是降低资料比对错误机率,另外藉由GPU虚拟化也能减少企业必须自行建置硬体设备成本,而NVIDIA更提供可依照运算需求选择使用NVIDIA T4、V100,或是採用Quadro RTX 8000、6000在内Turing显示架构GPU,甚至也能选择以Pascal显示架构打造的P40、P100与P60作为GPU虚拟化应用。

你也许会想看以下内容:荣耀Magic 2内的数位助理服务YOYO可以帮忙开车Nintendo……分享此文:分享到 Twitter(在新视窗中开启)按一下以分享至 Facebook(在新视窗中开启)点这里列印(在新视窗中开启)点这里寄给朋友(在新视窗中开启)请按讚:喜欢 载入中...gpu运算虚拟化nvidia应用cloud资源藉由云端

上一篇:
下一篇: