英偉達的野心:「AI原生」徹底顛覆數據中心

英偉達一騎絕塵?

作者:趙穎

英偉達CEO黃仁勳在周二的發布會上這樣說。昨日,英偉達發布新一代GH200 Grace Hopper超級芯片平台,專為加速計算和生成式AI時代而打造。

黃仁勳指出,為了滿足生成式AI 不斷增長的需求,數據中心需要有針對特殊需求的加速計算平台。新的GH200芯片平台提供了卓越的內存技術和帶寬,提升無損耗連接GPU聚合性能的能力,並且擁有可以在整個數據中心輕鬆部署的服務器設計。

值得一提的是,大模型浪潮來襲,催生各種AI原生應用,帶動算力需求激增,專為應對數據密集型人工智能應用的數據中心市場正迅速崛起。

數據中心迎來新變革

據華爾街日報報導,分析師們指出,隨著老牌雲計算供應商競相為數據中心改裝先進芯片和進行其他升級,以滿足人工智能軟件的需求,一些新興的建設者看到了從零開發新設施的機會。

數據中心類似於一個大型倉庫,配備了多架服務器、網絡和存儲設備,用於存儲和處理數據。與傳統數據中心相比,AI數據中心擁有更多使用高性能芯片的服務器,因此AI數據中心服務器每個機架的平均耗電量可達50千瓦或更多,而傳統數據中心每個機架的耗電量大約為7千瓦。

這意味著AI數據中心需要增建能夠提供更高功率的基礎設施,由於額外的用電量會產生更多的熱量,AI數據中心還需要其他冷卻方法,如液體冷卻系統,以防止設備過熱。

服務和諮詢公司Unisys高級副總裁Manju Naglapur指出:

專門建造的人工智能數據中心可容納利用人工智能芯片(如英偉達的GPU)的服務器,在人工智能應用篩選龐大的數據存儲時,可同時運行多個計算。這些數據中心還配備了光纖網絡和更高效的存儲設備,以支持大規模的人工智能模型。

AI數據中心是高度專業化的建築,需要投入大量的資金和時間。研究公司Data Bridge Market Research數據顯示,到2029年,全球人工智能基礎設施市場的支出預計將達到4225.5 億美元,未來六年的複合年增長率將達到44%。

DataBank首席執行官Raul Martynek表示,人工智能的部署速度很可能會導致數據中心容量在未來12到24個月內出現短缺。

AI算力新秀獲得23億美元融資

目前,各路巨頭都在押注AI數據中心,“地產標杆”黑石賣房轉投AI數據中心。 Meta也曾表示,將建設一個新的人工智能數據中心。

此前文章提到,AI算力新秀CoreWeave,拿英偉達H100抵押貸款,獲得債務融資23億美元(約165億人民幣)。

CoreWeave表示,這筆資金將用於加快建設人工智能數據中心,這是該公司繼今年4月獲得2.21億美元和5月獲得2億美元後的又一次融資。 CoreWeave成立於六年前,目前已有7個人工智能數據中心上線,預計到今年年底將翻一番。

CoreWeave正與英偉達以及Inflection AI合作建一個超大型AI服務器集群,目標是運行2.2萬塊英偉達H100。如果建成,將成為全球最大的AI服務器集群。

值得一提的是,根據CoreWeave官網宣傳,他們的服務比傳統雲計算廠商便宜80%。英偉達最新的HGX H100服務器,內含8張80G顯存的H100和1T內存那種,起步價每小時只要2.23美元(16塊人民幣)。

而相比前代平台,新GH200 Grace Hopper平台的雙芯片配置將內存容量提高3.5倍,帶寬增加三倍,一個服務器就有144個Arm Neoverse高性能內核、8 petaflops 的AI 性能和282GB的最新HBM3e內存技術。

難怪在這個LLM大爆炸的時代,黃仁勳依然大膽放話“買得越多,省得越多”!

展開全文打開碳鏈價值APP 查看更多精彩資訊

Total
0
Shares
Related Posts