NVIDIA將GPU加速資源帶到VMware虛擬化應用,大幅

2020-05-21

在此次VMWorld 2019開始前,NVIDIA宣布針對人工智慧、學習訓練與資料分析等需求,打造名為vComputeServer的應用服務,并且將NVIDIA GPU Cloud、NGC Containers,甚至可將GPU加速平臺RAPIDS在內資源帶進VMware與AWS合作的云端服務-VMware Cloud on AWS,讓更多科學研究、數據分析、人工智慧技術應用能藉由虛擬化GPU進行加速。

相比過往藉由云端協同運算,多半會因為云端服務採用的CPU運算陣列效能限制,使得運算效能不如預期,甚至無法對應資料量越來越龐大的運算需求。因此,NVIDIA在此次VMWrold 2019與WMware的合作,并將GPU虛擬化應用帶進VMware所提供服務,其中包含在VMware提供的vSphere整合名為vComputeServer的應用服務,同時也串接NVIDIA GPU Cloud運算資源。

在此項合作里,將可讓原本運用vSphere虛擬化平臺的運算模式串接GPU運算資源,讓vSphere平臺產生的虛擬化機器可額外配置一張或多張虛擬化GPU,同時藉由GPU加速整體運算效率,使得人工智慧學習、研究分析效率可大幅提昇。除此之外,藉由此項合作,使用者將能以更具彈性方式調用GPU加速運算資源,而不一定必須建置自有GPU加速資源。

相比部分企業會在自有數據伺服器整合GPU加速資源,藉此讓整體數據運算效率提昇,但難免必須承擔建置與維護成本,同時仍可能面臨運算規模成長時,必須有更大運算效能支撐的情況。因此,NVIDIA從2017年提出NVIDIA GPU Cloud服務,并且標榜能串接Google Cloud、AWS、阿里云、DGX、Oracle Cloud等云端平臺,透過GPU虛擬化方式協助推動更大運算規模,同時縮減運算所需時間。

而在今年的GTC 2019期間,NVIDIA更提出全新CUDA-X AI加速演算平臺,透過Turing顯示架構、TensorRT運算框架,并且可相容Turing Tensor Cores設計,進而推動各類人工智慧運算模型,NVIDIA強調約可帶來50倍以上的加速運算效果,并且帶來更大的人工智慧運算應用成長推力。

此次宣布加入支援vSphere、vCenter或vMotion,將可透過NVIDIA GPU Cloud串接使用者從自有伺服器到VMware Cloud on AWS在內GPU加速需求,并且讓NVIDIA的GPU虛擬化技術應用到更廣泛領域,除了應用在科學研究、數據分析或人工智慧領域,更可針對布署在云端的現代化應用服務運作進行加速。

就NVIDIA說明,過去已經在GPU虛擬化技術投入深度發展,例如早期藉由GRID技術建立的虛擬化PC,以及后來推動的虛擬化工作站,讓GPU虛擬化能應用在更進階的專業繪圖應用,甚至支援專業數據分析、機器學習、人工智慧、深度學習,或是超算領域等應用,另外也能對應各類伺服器運算加速,并且確保運算資源能即時無縫串接、整合。

相比單純以CPU陣列加速模式,藉由GPU加速約可提昇50倍以上的深度學習效率,同時也能確保資料校正,或是降低資料比對錯誤機率,另外藉由GPU虛擬化也能減少企業必須自行建置硬體設備成本,而NVIDIA更提供可依照運算需求選擇使用NVIDIA T4、V100,或是採用Quadro RTX 8000、6000在內Turing顯示架構GPU,甚至也能選擇以Pascal顯示架構打造的P40、P100與P60作為GPU虛擬化應用。

你也許會想看以下內容:榮耀Magic 2內的數位助理服務YOYO可以幫忙開車Nintendo……分享此文:分享到 Twitter(在新視窗中開啟)按一下以分享至 Facebook(在新視窗中開啟)點這里列印(在新視窗中開啟)點這里寄給朋友(在新視窗中開啟)請按讚:喜歡 載入中...gpu運算虛擬化nvidia應用cloud資源藉由云端

上一篇: 下一篇:

相關新聞

推薦閱讀

今晚好彩1开什么号