來源:InfoQ
北京時間凌晨4:00,大洋彼岸的美國加州聖荷西的聖荷西會議中心,被稱為英偉達技術盛宴的GTC 2024 大會正如火如荼地進行著。作為英偉達2024 的開年大戲,身著標誌性皮夾克的萬億富豪黃教主站在舞台中央,平靜地甩出繼H100、A100 後的又一系列「核彈」級超級晶片。
今年的GTC 之所以萬眾矚目,是因為過去一年英偉達在AI 領域的財務表現方面取得了巨大成功。從Volta V100 GPU 系列到最新的Ampere A100 和Hopper H100 晶片,該公司一直問鼎AI 晶片之王。
1.GPU 家族再添“新丁”,全新Blackwell 架構晶片炸場
在本屆GTC 大會開始之前,國外媒體就已經開始盛傳:黃仁勳將在GTC 2024 上發布一款GPU 家族的新品,果然,採用Blackwell 架構的B200 和GB200 系列晶片如期而至。
據英偉達稱,Blackwell 架構系列晶片是迄今為止功能最強大的AI 晶片家族。
根據老黃介紹,B200 擁有2,080 億個電晶體(而H100/H200 上有800 億個電晶體),採用台積電4NP 製程,可支援多達10 兆個參數的AI 模型,而OpenAI 的GPT-3 由1750 億個參數組成。它還透過單一GPU 提供20 petaflops 的AI 效能——單一H100 最多可提供4 petaflops 的AI 計算。
但值得注意的是,Blackwell B200 並不是傳統意義上的單一GPU。它由兩個緊密耦合的晶片組成,這兩個晶片透過10 TB/s NV-HBI(Nvidia 高頻寬介面)連接進行連接,以確保它們能夠作為單一完全一致的晶片正常運作。
該GPU 平台以數學家David Harold Blackwell 的名字命名,繼承了英偉達兩年前推出的Hopper 架構,基於該架構一系列產品使英偉達的業務及其股價飆升。
該架構在AI 安全性方面又向前邁進了重要一步。 Blackwell 透過100% 系統內自測試RAS 服務和全效能加密提供安全的AI,也就是說資料不僅在傳輸過程中安全,而且在靜止狀態和計算時也安全。
Blackwell 將整合到英偉達的GB200 Grace Blackwell 超級晶片中,該晶片將兩個B200 Blackwell GPU 連接到一個Grace CPU。英偉達並未透露價格。
新晶片預計將於今年稍後上市。英偉達表示,AWS、戴爾科技、Google、Meta、微軟、OpenAI 和特斯拉計劃使用Blackwell GPU。
「生成式人工智慧是我們這個時代的決定性技術,」老黃在演講時表示。 “Blackwell GPU 是推動這場新工業革命的引擎。與世界上最具活力的公司合作,我們將實現人工智慧對每個行業的承諾。”
英偉達也發布了GB200 NVL72 液冷機架系統,其中包含36 顆GB200 Grace Blackwell 超級晶片,擁有1440 petaflops(又名1.4 exaflops)的推理能力,它內部有近兩英里長的電纜,共有5000 條單獨的電纜。
英偉達表示,與用於推理用途的相同數量的H100 Tensor Core 圖形處理單元相比,GB200 NVL72 效能提升高達30 倍。此外,該系統還可將成本和能耗降低多達25 倍。
GB200 NVL72
例如,訓練一個1.8 兆參數模型之前需要8000 個Hopper GPU 和15 兆瓦的功率。如今,只需要2000 個Blackwell GPU 就可以做到這一點,而功耗僅為4 兆瓦。
在具有1,750 億個參數的GPT-3 基準測試中,英偉達表示GB200 的效能是H100 的7 倍,訓練速度是H100 的4 倍。
此外,英偉達稱還將推出一款名為HGX B200 的伺服器主機板,它基於在單一伺服器節點中使用8 個B200 GPU 和一個x86 CPU(可能是兩台CPU)。每個B200 GPU 可配置高達1000W,且GPU 提供高達18 petaflops 的FP4 吞吐量,因此比GB200 中的GPU 慢10%。
目前,企業客戶可以透過HGX B200 和GB200(將B200 GPU 與英偉達的Grace CPU 結合在一起)存取B200。
2.全面升級軟體服務
市場正在升溫,硬體和軟體方面的競爭都在加劇。在本次GTC 中,英偉達不僅透過新的硬體創新來應對競爭,還展示了其AI 軟體策略如何幫助確定其在該領域的領導地位,以及未來幾年將如何發展。
黃仁勳也著力推銷其AI 軟體訂閱服務包,這顯然是在配合該公司向「以軟體賣硬體」的新策略,也是在與過往的「以硬體賣軟體」的策略徹底告別。
英偉達可以存取所有領域的大量模型,但他們認為對企業來說它們仍然太難使用。他們推出了Nvidia 推理微服務(NIM),將模型和依賴項整合到一個簡潔的套件中,根據使用者的堆疊進行最佳化,並與易於使用的API 連接。
經過打包和優化的預訓練模型,可在NVIDIA 的安裝基礎上運行,包含運行它所需的所有軟體。 CUDA 庫、API 等,基本上是容器化的AI 軟體包,針對NV GPU 進行了最佳化,並附帶一個簡單的API 來存取它們。
老黃指出:「這就是我們未來編寫軟體的方式」——透過組裝一堆人工智慧。
老黃我們介紹了英偉達如何使用英偉達推理微服務(NIM)創建一個內部聊天機器人,旨在解決構建晶片時遇到的常見問題。 「我們需要一個類比引擎,以數位方式為機器人呈現世界,」他說,這就是Omniverse。這些「微服務」將允許開發人員使用專有和自訂模型快速建立和部署「副駕駛」或人工智慧助理。
他表示,機器人技術與人工智慧和Ominverse/Digital Twin 工作一起成為英偉達的關鍵支柱,所有這些都共同努力以充分利用公司的系統。
據悉,Omniverse 是一個專為建構和操作Metaverse 應用程式而設計的平台,本質上是人們可以互動、工作和創建的共享虛擬世界。 Omniverse 平台可以建立數位孿生和進階類比。英偉達對Omniverse 的願景包括成為Metaverse 的基礎平台,創作者和企業可以在共享虛擬空間中進行協作。在Omniverse 中建立的數位孿生可用於Metaverse 中的各種應用,例如虛擬培訓、產品設計和預測性維護。
老黃表示英偉達已經推出了數十種企業級生成式AI 微服務,企業可以使用這些服務在自己的平台上製作應用程序,同時保留對其智慧財產權的完全所有權和控制權。
老黃也宣布將Omniverse Cloud 串流傳輸至Apple Vision Pro 耳機。
他也表示,英偉達表示正認真考慮從根本上重新設計整個底層軟體堆棧,希望藉AI 之力為人類生成更優質的程式碼。
之所以會有這樣的想法,原因非常簡單:幾十年來,整個世界一直受制於圍繞CPU 發展出的傳統計算框架,即由人類編寫應用程式以檢索資料庫中準備好的資訊。
黃仁勳在發布會上指出,“我們今天的計算方式,首先需要確定信息是由誰編寫、由誰創建的,也就是要求信息先要被記錄下來。”
而英偉達的GPU 為加速運算開闢一條通往演算法化運算的新路,可以依托創意推理(而非固有邏輯)來決定相關結果。
此外,英偉達希望透過發布另一個新的API 集合Project GROOT 來推動人形機器人的開發。
Project GROOT 是一個人形機器人模型,英偉達與Jetson Thor 一起生產,Jetson Thor 是一款SoC,也是Nvidia Isaac 的升級版。英偉達表示,GROOT 機器人將理解自然語言並模仿人類動作來學習靈活性。 Jetson Thor 運行基於Blackwell 的GPU,可在8 位元資料處理中提供800 teraflops 的AI 效能。
老黃透露,由該平台驅動的機器人將被設計為能夠理解自然語言並模仿機器人的動作,觀察人類行為。這使GROOT 機器人能夠快速學習協調性、靈活性和其他技能,以導航、適應現實世界並與之互動——並且絕對不會導致機器人叛亂。
「為通用人形機器人建立基本模型是我們當今人工智慧領域能夠解決的最令人興奮的問題之一,」老黃說。 “這些使能技術正在融合在一起,使世界各地領先的機器人專家能夠在人工通用機器人領域取得巨大飛躍。”
3.對開發者的影響
根據專家預測,五年後,文字、圖像、視訊和語音等形式的資訊將全部即時輸入大語言模型(LLM)。屆時電腦將直通所有資訊來源,透過多模態互動不斷實現自我改進。
黃仁勳表示,“未來,我們將步入持續學習的時代。我們可以決定是否部署持續學習的成果,而且與計算機的交互不會再藉助C++。”
這就是AI 技術的意義所在——人類可以在推理之後,要求電腦產生程式碼以實現特定目標。換句話說,未來人們可以用簡單的語言、而非C++ 或Python,與電腦實現順暢溝通。
「在我看來,程式設計本身的價值正在悄悄跨過歷史性的衰退拐點。」黃仁勳還補充稱,AI 已經在彌合人類與技術之間的鴻溝。
「就在當下,約有千萬人憑藉自己的電腦程式設計知識來謀取職位、賺得收益,而餘下的80 億人則被他們遠遠甩在身後。未來的情況將有所改變。”
在黃仁勳看來,英語將成為最強大的程式語言,而個人化互動則是縮小技術鴻溝的關鍵因素。
生成式AI 將成為一種宏觀層面的作業系統,人類可以在其中用簡單的語言指示電腦創建應用程式。黃仁勳表示,大語言模型將幫助人類透過電腦把自己的靈感轉化為現實。
例如,人類已經可以要求大語言為特定領域的應用程式產生Python 程式碼,而全部提示內容均使用簡單英語編寫而成。
“我們要如何讓計算機按自己的想法做事?我們要如何在計算機上實現指令微調?這些問題的答案是提示詞工程,而且更多是種藝術、而非單純的技術。”
也就是說人類將可以專注於領域專業知識,而生成式AI 將補齊程式設計技能這塊短板。黃仁勳認為這將徹底顛覆軟體的開發格局。
黃仁勳先前曾將大語言模型比喻為經過預先訓練且頭腦靈光的大學畢業生。英偉達正圍繞大模型提供醫療保健與金融等領域的專業知識,藉此為企業客戶提供高效支援。