NVIDIA發表三項超級運算佈局 深耕高效能與AI產業

NVIDIA於11月18日至21日美國科羅拉多州丹佛舉辦的Supercomputing 2019(SC19)大會中,宣布三項在超級運算領域的進展:與業界生態夥伴打造GPU加速ARM架構伺服器、推出專門處理海量資料的Magnum IO軟體,以及在Microsoft Azure平台推出GPU加速超級電腦。


GPU加速ARM架構伺服器

NVIDIA推出一款參考設計平台,協助超級運算中心、超大規模雲端服務運營商及企業等,可將NVIDIA GPU加速的優點與最新ARM架構伺服器平台結合。此平台是NVIDIA與生態體系合作夥伴如Ampere、Fujitsu及Marvell等共同建構,確保能與ARM架構處理器流暢搭配。

目前全球各大超級運算中心已開始測試GPU加速ARM架構運算系統,包括美國橡樹嶺和桑迪亞國家實驗室、英國布里斯托大學及日本理化學研究所。


Magnum IO套裝軟體

全新NVIDIA Magnum IO軟體可協助資料科學家、AI與高效能運算研究人員在幾分鐘內處理海量資料。經過優化後的Magnum IO能排除儲存及輸入/輸出瓶頸,在執行如財務分析、建立氣侯模型與其他高效能運算作業時,針對多伺服器與多GPU節點提供高達20倍的資料處理效能。

此軟體是NVIDIA與網路及儲存領域業者共同開發出,包括:DataDirect Networks、Excelero、IBM、Mellanox和WekaIO等。

Magnum IO的技術核心是GPUDirect,資料可繞過CPU,在GPU、儲存裝置和網路設備提供的「開放高速公路」上進行傳輸。由點對點及遠端直接記憶體存取(RDMA)組成的GPUDirect與眾多傳輸互連及API相容,包括NVIDIA NVLink、NCCL、OpenMPI及UCX。


在Azure平台推出GPU加速超級電腦

全新Microsoft Azure NDv2執行個體靠單一Mellanox InfiniBand後端網路可串連800個NVIDIA V100 Tensor核心GPU。以往在公司花數個月部署的大規模AI超級電腦,今後可上網依需求租用。

Microsoft與NVIDIA工程師在預先發佈的叢集版本上使用64個NDv2執行個體,只花了約三小時便完成BERT訓練工作,其中有部分利用了NCCL的多GPU優化、NVIDIA CUDA X函式庫與高速Mellanox互連技術。

NDv2目前提供預覽版本,一個執行個體搭配8個NVIDIA V100 GPU可組成叢集並擴大規模,以滿足各類作業負載需求。
2019-11-19 11:22 #1
限制級
您即將進入之討論頁 需滿18歲 方可瀏覽。
提醒:內容可能因過於寫實、驚悚而令人感到不舒服,是否繼續觀看?

根據「電腦網路內容分級處理辦法」修正條文第六條第三款規定,已於該限制級網頁,依台灣網站分級推廣基金會規定作標示。
評分
複製連結