全球首個!“英偉達親兒子”CoreWeave大規模上線GB200服務器
CoreWeave再度搶佔先機,率先部署英偉達GB200系統,AI巨頭爭相入局。
英偉達今日在其博客上宣佈,AI雲計算提供商CoreWeave已成爲首批大規模部署英偉達GB200 NVL72系統的雲服務提供商之一。Cohere、IBM和Mistral AI已成爲首批用戶。
根據最新MLPerf基準測試,這些系統提供了前代H100芯片2-3倍的性能提升,將顯著加速大模型訓練和推理能力。
CoreWeave首席執行官Michael Intrator表示,這一成就既展示了公司的工程實力和執行速度,也體現了其對下一代AI發展的專注:
英偉達超大規模與高性能計算(HPC)副總裁Ian Buck表示:
華爾街見聞此前提及,近年來英偉達和CoreWeave通過投資、供應和反向租賃等方式構建了“親子關係”,成就了後者的迅速崛起。2023年,英偉達承諾在四年內向CoreWeave支付13億美元,租回自己生產的芯片。
近日,CoreWeave還宣佈與OpenAI合作,進一步鞏固了其作爲AI基礎設施提供商的領先地位。
這一系列動作表明,在AI算力資源持續緊缺的背景下,能夠提供最先進芯片組的雲服務提供商將在市場競爭中仍佔據有利位置。
性能突破:新基準刷新行業記錄
去年,CoreWeave就是首批提供英偉達H100和H200 GPU的供應商之一,也是最早演示英偉達GB200 NVL72系統的公司之一。
CoreWeave最近在採用英偉達GB200 Grace Blackwell超級芯片的AI推理測試中創下了新的行業記錄,這一成績已發佈在最新的MLPerf v5.0結果中。
值得注意是,在沒有特定優化Blackwell架構的情況下,相比前代英偉達Hopper GPU,GB200 NVL72服務器能幫助Cohere在1000億參數模型的訓練實現高達3倍的性能提升。
據介紹,通過進一步優化利用GB200 NVL72的大統一內存、FP4精度和72個GPU的NVLink域(每個GPU都連接起來協同運行),Cohere正獲得顯著更高的吞吐量,縮短首個令牌(computation tokens)和後續令牌的生成時間,提供更高性能、更具成本效益的推理。