CoreWeave 利用NVIDIA H200 Tensor Core GPU 引領人工智慧基礎設施創新


CoreWeave 於2024 年8 月29 日宣布成為首家提供NVIDIA H200 Tensor Core GPU 的雲端服務商,標誌著AI 基礎設施的新里程碑。 H200 GPU 擁有4.8 TB/s 的記憶體頻寬,使推理效能比H100 提高1.9 倍。該公司還配備了英特爾Xeon CPU 和NVIDIA Quantum-2 InfiniBand 網絡,提升生成式AI 模型訓練效率。 CoreWeave 加速擴展資料中心,目前已有28 個,並計畫在2025 年增加10 個。其任務控制平台簡化AI 部署,降低客戶成本。

Terrill Dicki 2024 年8 月29 日15:10

CoreWeave 成為首家提供NVIDIA H200 Tensor Core GPU 的雲端供應商,提升了AI 基礎設施的效能和效率。

CoreWeave 憑藉NVIDIA H200 Tensor Core GPU 引領AI 基礎設施

根據美通社報道,AI Hyperscaler™ 公司CoreWeave 宣布其開創性舉措,成為首家向市場推出NVIDIA H200 Tensor Core GPU 的雲端供應商。這項發展標誌著AI 基礎設施發展的重要里程碑,並有望提高生成式AI 應用程式的效能和效率。

人工智慧基礎設施的進步

NVIDIA H200 Tensor Core GPU 旨在突破AI 功能的界限,擁有4.8 TB/s 記憶體頻寬和141 GB GPU 記憶體容量。與先前的H100 GPU 相比,這些規格可使推理效能提高1.9 倍。 CoreWeave 透過將H200 GPU 與英特爾第五代Xeon CPU(Emerald Rapids)和3200Gbps 的NVIDIA Quantum-2 InfiniBand 網路整合在一起,充分利用了這些進步。該組合部署在具有多達42,000 個GPU 和加速儲存解決方案的叢集中,大大減少了訓練生成式AI 模型所需的時間和成本。

CoreWeave 的任務控制平台

CoreWeave 的任務控制平台在管理AI 基礎設施方面發揮關鍵作用。它透過軟體自動化提供高可靠性和彈性,從而簡化了AI 部署和維護的複雜性。該平台具有先進的系統驗證流程、主動的機群健康檢查和廣泛的監控功能,可確保客戶最大程度地減少停機時間並降低總擁有成本。

CoreWeave 執行長兼聯合創始人Michael Intrator 表示:「CoreWeave 致力於突破AI 開發的界限。透過與NVIDIA 的合作,我們能夠透過NVIDIA H200 GPU 提供高效能、可擴展且具有彈性的基礎設施,使客戶能夠以前所未有的效率處理複雜的AI 模型。

擴展資料中心運營

為了滿足對其先進基礎設施服務日益增長的需求,CoreWeave 正在迅速擴大其資料中心營運。自2024 年初以來,該公司已完成9 個新資料中心的建設,另有11 個正在建設中。今年底,CoreWeave 預計將在全球擁有28 個資料中心,並計劃在2025 年再增加10 個。

產業影響

CoreWeave 快速部署NVIDIA 技術,確保客戶能夠獲得用於訓練和運行生成式AI 大型語言模型的最新進展。 NVIDIA 超大規模和HPC 副總裁Ian Buck 強調了此次合作的重要性,他表示:「借助NVLink 和NVSwitch 以及其增強的記憶體功能,H200 旨在加速最苛刻的AI 任務。與由Mission Control 提供支援的CoreWeave 平台搭配使用時,H200 可為客戶提供先進的AI 基礎設施,這將成為整個行業創新的支柱。

關於CoreWeave

CoreWeave 是AI Hyperscaler™,提供尖端軟體雲端平台,為下一波AI 提供動力。自2017 年以來,CoreWeave 在美國和歐洲營運的資料中心數量不斷增加。該公司被公認為《時代》雜誌100 強最具影響力的公司之一,並在2024 年《富比士》雲端100 強榜單中名列前茅。如需了解更多信息,請訪問www.coreweave.com。

圖片來源:Shutterstock

資訊來源:由0x資訊編譯自BLOCKCHAINNEWS。版權所有,未經許可,不得轉載

Total
0
Shares
Related Posts