來源:《科創板日報》
編輯宋子喬
生成式AI的爆火使得成立近30年的英偉達再次迎來高光時刻。
3月22日,在英偉達舉辦的年度GTC開發者大會上,其CEO黃仁勳發表了名為《切勿錯過AI的決定性時刻》(Don’t Miss This Defining Moment in AI)的演講,在長達78分鐘的視頻中,他四次用“iPhone時刻”來形容AI當下的發展,並稱“這將是我們迄今為止最重要的一次GTC大會”。
英偉達並沒有讓大家失望,會上不僅發布了可為ChatGPT提速10倍的專用GPU芯片,還向芯片製造業甩出一枚技術“核彈”。
▌ChatGPT專用GPU來了處理速度提升十倍
針對算力需求巨大的ChatGPT,英偉達發布了NVIDIA H100 NVL,這是一種具有94GB內存和加速Transformer引擎的大語言模型(LLM)專用解決方案,配備了雙GPU NVLINK的PCIE H100 GPU。
NVIDIA H100 NVL
黃仁勳表示,當前唯一可以實際處理ChatGPT的GPU是英偉達HGX A100(OpenAI便是使用A100 GPU訓練和運行ChatGPT),而H100 GPU的處理速度比A100 GPU快十倍,可以將大語言模型的處理成本降低一個數量級。
此外,為了加速生成式AI開發及部署,英偉達宣布推出四款全新推理GPU——L4 Tensor Core GPU、L40 GPU、H100 NVL GPU、Grace Hopper超級芯片(見下圖),分別擅長AI視頻、圖像生成、ChatGPT等大型語言模型的推理加速、推薦系統和大型語言模型的AI數據庫。
▌以雲服務打造新商業模式
值得注意的是,英偉達如今力推AI雲服務,曾其比作當今AI系統的“操作系統”。在會上,英偉達宣布與穀歌云、微軟Azure、甲骨文云聯手推出DGX(AI超級計算機)雲服務,加速企業創建大模型和生成式AI的雲服務NVIDIA AI基金s等,並宣布與日本三菱聯合打造了日本第一台用於加速藥研的生成式AI超級計算機。
而使用H100芯片的雲服務已經上線,OpenAI將通過微軟Azure超級計算機用上H100。
簡單來說,英偉達新的商業模式就是通過幾家大的雲來推廣自家的AI產品。黃仁勳稱,這種合作關係將英偉達的生態系統帶到了雲服務商手中,同時擴大了英偉達的市場規模和覆蓋面。企業將能夠每月租用DGX雲集群,確保他們能夠快速輕鬆地擴展大型多節點AI訓練。
已有企業受益於此。
英偉達在周二確認,Getty Images正在使用英偉達的畢加索AIGC模型生成雲服務建立自營圖片和視頻生成AI;另一家圖片版權庫Shutterstock也在使用英偉達的服務創建3D生成模型。另外,Adobe週二發布的“螢火蟲”AI是該公司結合英偉達的應用創建的。
▌以軟件變革芯片製造業計算光刻提速40倍
光刻是芯片製造過程中最複雜、最昂貴、最關鍵的環節。會上,英偉達宣布了一項改變光刻行業的應用——通過光刻計算庫cuLitho,將計算光刻加速40倍以上,大大提高芯片代工廠在這一工序上的效率,為2nm以及更先進製程的到來做好準備。
黃仁勳介紹稱,英偉達H100 GPU需要89塊掩膜板,在CPU上運行時,處理單個掩膜板需要兩週時間,而在GPU上運行cuLitho只需8小時。此外,台積電可通過在500個DGX H100系統上使用cuLitho加速,將功率從35MW降至5MW,替代此前用於計算光刻的40000台CPU服務器。使用cuLitho的晶圓廠,每天可以生產3-5倍多的光掩膜,僅使用當前配置電力的1/9。
台積電、ASML、新思科技等公司均參與合作並引入這項技術。其中台積電將於6月開始對cuLitho進行生產資格認證。
黃仁勳曾在接受CNBC採訪時表示:“我們10年前就發現,這種製作軟件的方式可以改變一切,所以我們從各個角度改變了公司,生產的每個芯片都專注於AI。”
如今,隨著其“迄今為止最重要的GTC大會”拉開序幕,英偉達展示了一個野心勃勃的自己——對AI的參與程度進一步提高,已不再定位於硬件供應商,而是“軟硬兼施”,不斷迭代GPU、DPU等芯片的同時,還將幫助企業加速構建定制生成式AI模型的雲服務。
正如黃仁勳所說,“生成式AI正在推動AI的快速應用,並重塑無數行業……我們將成為全球雲領域最好的AI銷售人員……讓AI模型遍地開花。”
資訊來源:由0x資訊編譯自8BTC。版權歸作者所有,未經許可,不得轉載