NVIDIA的GB200 NVL72提升UC Berkeley Lmarena的AI模型評估效率


加州大學伯克利分校的LMARENA通過與NVIDIA和Nebius的合作,利用NVIDIA的GB200 NVL72系統提升了大語言模型(LLMS)的評估能力。這項合作使得LMARENA能夠優化模型排名,提供有關LLMS在特定任務中的表現見解。 LMARENA的核心是“迅速到達領導者”(P2L)模型,利用用戶投票和Bradley-Terry係數確定最佳AI模型。該項目結合NVIDIA DGX Cloud和Nebius AI Cloud,增強了P2L的部署效率,並支持開源開發,顯著提高了性能和訓練速度。


托尼·金(Tony Kim)2025年6月18日15:16

加州大學伯克利分校的LMARENA利用NVIDIA的GB200 NVL72來增強AI模型評估,這要歸功於與Nvidia和Nebius的合作,從而提高了大語言模型的排名。

NVIDIA的GB200 NVL72在UC Berkeley的Lmarena上提高AI模型評估

LMARENA是加州大學伯克利分校的一項研究計劃,它在NVIDIA報導的借助NVIDIA的GB200 NVL72系統的幫助下,已大大提高了其評估大語模型(LLMS)的能力。這項合作以及內比烏斯(Nebius)使LMARENA能夠完善其模型排名功能,從而提供有關LLMS在特定任務(例如數學,編碼和創意寫作)中脫穎而出的見解。

用P2L增強模型評估

LMARENA進步的核心在於迅速到達領導者(P2L)模型,該模型收集人的投票以確定各個領域中表現最佳的AI。根據LMARENA的聯合創始人和伯克利的博士生Wei-Lin Chiang的說法,該過程涉及將Bradley-Terry係數應用於用戶偏好。這有助於確定特定任務的最有效模型,從而為超出一個整體得分的細微理解提供了細微的理解。

Lmarena與NVIDIA DGX Cloud和Nebius AI Cloud的合作對於大規模部署P2L至關重要。 NVIDIA的GB200 NVL72的使用允許在雲中進行可擴展的,可擴展的生產AI工作負載。這種合作夥伴關係促進了快速反饋和共同學習的周期,從而增強了P2L和DGX雲平台。

技術進步和部署

2月,LMARENA成功地將P2L部署在NVIDIA GB200 NVL72上,由Nebius通過NVIDIA DGX Cloud主持。 NVIDIA和NEBIUS開發的共享沙盒環境促進了這種部署,這使得早期採用者能夠有效地測試NVIDIA Blackwell平台。

GB200 NVL72平台集成了36個GRACE CPU和72個Blackwell GPU,提供了高寬帶,低延遲性能,並配備了高達30 TB的快速,統一的內存。該基礎架構支持要求AI任務並促進有效的資源分配。

開源啟用

DGX雲團隊與Nebius和Lmarena合作,確保了針對GB200 NVL72的開源開發人員的無縫部署流程。這涉及為ARM64和CUDA環境編輯和優化關鍵的AI框架,例如Pytorch和擁抱面型變壓器。

這種全面的支持使開發人員能夠在沒有兼容性問題的情況下利用最先進的工具,專注於建造產品而不是移植庫。該項目顯示出令人印象深刻的性能改進,完成培訓的速度要比以前的配置要快得多。

要詳細了解協作和技術進步,請訪問NVIDIA博客。

圖像來源:Shutterstock

資訊來源:由0x資訊編譯自BLOCKCHAINNEWS。版權歸作者所有,未經許可,不得轉載

Total
0
Shares
Related Posts