雲達SC24秀3款基於「輝達 AI 全堆疊平台」加速運算解方

經濟日報 記者吳康瑋/台北即時報導

廣達(2382)旗下資料中心解決方案供應「小金雞」雲達(QCT)近日前往美國喬治亞州,參加2024超級計算機大會(SC24),並以「用HPC與AI改變未來」作為主題,展示多項基於輝達(NVIDIA)Blackwell平台的加速運算解決方案。雲達總經理楊麒令則強調,團隊所提供的多款AI加速運算平台,將能確實協助資料中心和企業加速在生成式AI領域的部署。

此次,雲達展出多款搭載NVIDIA Hopper GPU、NVIDIA NVLink-C2C互聯技術,以及NVIDIA Spectrum-X以太網平台、NVIDIA BlueField-3網路,以及提供NVIDIA NIM微服務的NVIDIA AI Enterprise軟體平台等多項尖端技術的成品,而這些伺服器將為資料中心提供前所未有的性能、能源效率和可擴展性,支援生成式AI 應用。本次展出的產品涵蓋了基於不同NVIDIA技術的解決方案,以滿足各種AI和高效能運算(HPC)的需求。

雲達總經理楊麒令表示,生成式AI已成為幾乎所有行業數位轉型的關鍵推動力,這也創造了對AI基礎設施的強大需求,而雲達作為經驗豐富的超大規模基礎設施供應商,已經準備好提供採用NVIDIA技術、兼具高性能和高能效的加速運算平台,協助資料中心和企業加速生成式AI 的部署。

NVIDIA GPU產品管理副總Kaustubh Sanghani則表示,雲達運用NVIDIA全堆疊加速運算平台,滿足全球資料中心對先進AI基礎設施日益增加的需求,幫助企業實現AI驅動的創新,同時達到性能極大化、成本優化,並縮短從部署到實現價值的時間。

據雲達提供資料顯示,這次團隊於SC24上,所展示的「加速運算系統」共計三款,包括:

1.基於NVIDIA MGX 架構的QuantaGrid 伺服器:QuantaGrid D75B-1U和QuantaGrid D75E-4U基於NVIDIA MGX模組化參考設計,具備靈活、快速開發上市,以及相容多個世代等特性。這些系統分別採用最新NVIDIA Blackwell GPU和NVIDIA H200 NVL等NVIDIA PCIe GPU,易於部署和擴展,支援主流AI推理和大語言模型(LLM)工作負載。

2.8-GPU NVIDIA HGX Blackwell或NVIDIA HGX Hopper伺服器:QuantaGrid D75F-9U、QuantaGrid D75H-7U和QuantaGrid D75L-5U是經過精心設計的8 GPU加速伺服器,專為應對最複雜的AI和HPC任務而打造,如LLM、推薦系統和聊天機器人等。它們配備8顆NVIDIA Blackwell或NVIDIAHopper GPU,GPU與GPU之間透過NVIDIA NVLink進行互聯,並擁有靈活的I/O插槽,可支援NVIDIA BlueField-3 SuperNIC和DPU。

3.NVIDIA GB200 NVL72機櫃級解決方案:由18台QCT QuantaGrid D75B-1U伺服器和9台第五代NVIDIA NVLink交換機所組成的水冷式AI工廠,專為實現兆級參數即時推理與訓練而打造。藉由將72顆Blackwell GPU互聯為一體,提供強大性能、卓越能源效率和超低總擁有成本。

對此,雲達也提供許多採用NVIDIA加速技術的硬體產品,包括NVIDIA GB200 NVL72、配備HBM3e記憶體的NVIDIA H200 NVL,以及配備4張和8張GPU 的NVIDIA HGX H200。最新的NVIDIA H200 NVL可加速主流企業用伺服器的AI工作表現。相較於H100 NVL,H200 NVL的LLM推理速度提升高達1.8倍,HPC應用性能也提高1.3 倍。

雲達總經理楊麒令。記者吳康瑋/攝影

並且雲達還在SC24展示自家整合解決方案和AI/HPC應用案例,包括QCT Platform on Demand(QCT POD)。這是一個同時支援雲原生與裸機環境的HPC和AI融合式系統,值得一提的是它同時整合了NVIDIA NGC目錄,也大幅的簡化AI與HPC的工作流程。

NVIDIA AI 伺服器

推薦文章

留言

>