十幾天前加州洛杉磯舉辦的“2023年世界電腦圖形會議”(SIGGRAPH 2023)上,“皮衣教主”黃仁勳向全球展示了自己的“核彈工廠”,再次向世人證明英偉達的相關新聞從不冷門。幾乎與SIGGRAPH 2023同時的,來自美國的一家初創雲廠商CoreWeave也搞出了不小的動靜。
本月初CoreWeave宣布融資23億美元,約合168億元人民幣。眾所周知的一點是要謀求融資就需要有質押資產,令人驚訝的是CoreWeave用作質押的是其名下的GPU。 CoreWeave的真實想法未必與英偉達一致,但此時的老黃或許在想,既然能讓雲廠商們乖乖的當小弟,何不更進一步呢?畢竟現在誰有英偉達GPU誰就是最紅的雲廠商,那麼眼下誰有最多的英偉達GPU呢?
一、GPU決定話語權
在大模型浪潮興起的半年多里,GPU儼然成為了一種硬通貨,宛如真金白銀。而CoreWeave能以此為質押,主要在於它曾經的身份:北美地區最大的以太坊礦工。最多時它曾投入超過五萬台GPU用來挖礦,但在面對挖礦的一系列問題,特別是這種行為本就不可持續後,它就把目光轉向AI等對算力有極大需求的領域,並在ChatGPT上線之前就購買,囤積了大量英偉達的GPU。彼時GPU的產能還算充分,遠沒有現在這樣供不應求。同時也正是因為這種囤積居奇,CoreWeave自稱是世界上唯一一家可以大規模提供H100算力的企業,不知不覺間就搖身一變,成了一家“雲廠商”。
按照CoreWeave的說法,它的GPU供給已經超越了市面上所有云服務巨頭,包括谷歌云、亞馬遜雲和微軟Azure等一眾大廠和巨頭,聽起來有些不可思議但這就是事實。按照傳統觀點,要提供雲服務先要構建數據中心,這就需要極大的成本投入,還需要精巧的空間、能源和散熱設計以及完美無缺的軟硬件協同等等配套設施,一般來說,能有財力物力完成這些建設的只能是巨頭,而一家成立僅數年的初創公司是不可能做到的。
前面說過CoreWeave曾經是北美地區最大的以太坊礦工,此外它還有一個身份:英偉達最忠誠的小弟,對英偉達的認可堪稱信仰級的頂禮膜拜,同時它對“數據中心”的理解也與眾不同。過去多少年來數據中心都由CPU構成,側重通用計算能力,賽道先後被英特爾和AMD(超威半導體)的芯片把持。但現在的數據中心則強調並行計算,需要更大的內存與帶寬,以及將所有的加速計算單元密接的能力。黃仁勳對這種變化有個說法叫“數據中心現代化”,他認為這是一個將花費至少十年的工程。這項工程的啟動預示著整個數據中心的一切–包括建構方式,軟硬件協同,甚至電源和散熱結構等等基礎設施–都需要重新設計,直接在一夜之間改變了全球的雲服務規則,供應商也重回同一起跑線,針對CPU設計的前代數據中心方案幾乎全部淪為廢紙。
CoreWeave的這輪押寶非常精準,不僅能提供龐大的H100算力,並且比其它雲服務更快的同時費用還低了不少。很大程度上得益於它是英偉達最忠誠的小弟,很早就實踐了黃仁勳有關數據中心的願景,即數據中心正在發展為加速計算,而緊缺的算力則通過雲供應。
二、英偉達雲實力幾何?
雖然芯片、GPU現在很搶手,但英偉達一定是樂於見到這般光景的。在扶持類初創雲服務企業的同時,英偉達也在不遺餘力的建設自家云服務。親自下場做雲的優勢有很多,最明顯的是英偉達不可能擔心GPU斷供。馬斯克之前曾在公開場合說,現在要買GPU比買毒品還難,而CoreWeave的出手闊綽也和英偉達的信任有關,今年四月CoreWeave的B輪融資中,英偉達也曾積極參與其中。
不過以英偉達的能量來說,僅僅投資一些初創公司收小弟顯然不夠,AIGC和大模型浪潮的興起,最終促使英偉達的親自下場。今年三月時英偉達推出了自己的雲服務DGX Cloud,年中時正式上線。顧名思義的就能看出它直接利用了英偉達DGX超級電腦的能力,雲的每個實例均配備八個H100或A100 GPU以及640GB內存。這項服務目前採用月租形式,費用近四萬美元。當然,相比直接買一台DGX服務器20萬美元的價格來說已經便宜了不少,但也有許多人表示,微軟的Azure雲服務,同樣是八個A100 GPU,價格還不到兩萬美元,差不多只有英偉達的一半,還有什麼理由選擇英偉達呢?
原因倒也不難理解,因為英偉達的雲服務不僅包括算力,還包括一整套AI解決方案。 DGX Cloud裡集成了兩項服務,Base Command Platform(基礎命令平台)和AI Enterprise(初創企業專屬AI服務)。前者是一個管理與監控軟件,不僅可以用來記錄雲端算力的消耗量,整合雲端和本地算力,還能讓用戶直接通過瀏覽器訪問DGX Cloud。後者則是英偉達AI平台中的軟件層,包含幾千款軟件,提供各種預訓練模型、AI框架和配套工具,簡化端到端的開發和部署成本。此外,DGX Cloud上還有AI基金s服務,讓企業級用戶可根據用自家的數據,特別定制自家專屬的行業垂類大模型。
在這套組合拳的助力下,DGX Cloud的訓練效率比傳統的雲服務明顯高了兩到三倍,也成為了DGX Cloud與傳統雲服務最大的差異化優勢。它將英偉達兩方面的強項完美結合:豐富的AI生態和強大算力。對於英偉達來說,“軟件即服務”(SaaS)這個現在人所共知的標籤應該改成“軟硬件一體即服務”,可以說DGX Cloud是中心化展現了一個硬件廠商向上垂直整合的能力天花板。
三、老黃的心思
如果認為僅靠一個DGX Cloud就能讓整個雲服務賽道重新洗牌,未免又有些過於天真。有一個頗為有趣的事實:DGX Cloud首發在甲骨文的雲服務上,微軟和谷歌緊隨其後,而英偉達與這些雲廠商合作的方式,則是先把GPU賣給這些雲合作夥伴,然後再租用這些硬件以便能運行DGX Cloud。一碗飯分兩次賣還收兩次錢,外人還心甘情願的花錢,不愧是你英偉達。對此黃仁勳的解釋是“我們讓客戶使用我們的計算平台並受益,而客戶通過將我們的計算平台置於雲廠商的雲中而受益。”
如果只聽老黃一人說,這的確是個皆大歡喜的雙贏結局,然而這可能只是他一貫的講話風格,僅此而已。最明顯的一點,英偉達與其他企業面對的是同一批客戶,彼此誰不知道誰?十幾天前的SIGGRAPH 2023上,老黃曾官宣與Hugging Face的合作,接著又發布了名為AI Workbench的服務,這些都是在幫助用戶創建和測試預訓大模型,其背後的算力支持自然都少不了DGX Cloud的支持。但是這種行為勢必影響到英偉達和其他雲廠商的關係,比如穀歌、微軟和亞馬遜,它們同時也是英偉達的大客戶,英偉達推廣自有云服務勢必會動它們的蛋糕。同時英偉達還不用擔心芯片與GPU斷供的問題,這麼看來英偉達都不只是在摸老虎屁股了,簡直就是虎口奪食。
這一切別人或許不知道,黃仁勳不可能不知道。他曾公開表示“一個恰當的雲服務組合比例應該是10%的DGX Cloud加上90%的公有云”。換言之,DGX Cloud在黃仁勳的眼裡並非傳統雲廠商的對手或威脅,而是合作夥伴,而這又是因為DGX Cloud可能在很長時間內都只能維持一個較小的市場份額。雖然老黃一說到數據中心業務量就是“訂單多到不可思議”,但要注意的一點是一旦大模型落地部署並實現ChatGPT或類似的商業化模式,其推理成本將隨著用戶規模的提升而迅速指數級升高,由此導致的算力需求也將水漲船高,甚至比訓練大模型的還要大十倍百倍。
此外DGX Cloud如果作為一種純競品上線或許會佔領可觀的市場份額,但勢必加速其他雲廠商擺脫對英偉達的依賴,它們本來就已經很不爽“英偉達稅”了,都在鉚足勁自研芯片。而從英偉達的角度來說,全力投產DGX Cloud就一定能保證英偉達當前利益最大化嗎?也未必,與蘋果類似的,英偉達也是無廠半導體企業,自家團隊負責研究和設計新產品並銷售產品,具體的製造則由台積電等代工廠商完成。這種模式使得英偉達和蘋果控製成本,保持利潤的功夫都非常精到,雖然常被外人諷刺為“擠牙膏”。
還有一點經常被忽視的,前面提到過黃仁勳口中“數據中心現代化”將花費至少十年的時間,而今年才是這個週期的第一年。現在英偉達和其他雲廠商間似乎維持了一種平衡,至少看起來是這樣,但很多時候平衡就是用來被打破的,尤其是英偉達也參與其中的時候。
資訊來源:由0x資訊編譯自8BTC。版權歸作者所有,未經許可,不得轉載