更快、更便宜Sam Altman最新訪談透露OpenAI下一步計劃,目前GPU短缺是最大瓶頸


來源:葛佳明

圖片來源:由無界AI工俱生成

GPU、GPU還是GPU,AI掀起的“算力革命”不僅讓幾乎壟斷GPU市場的英偉達成了聚光燈下的焦點,也讓OpenAI CEO在一次又一次的訪談中大談GPU短缺問題。

5月29日,Humanloop,一家從事機器學習和人工智能的初創公司,其CEO Raza Habib邀請了包括OpenAI CEO Sam Altman在內的20位開發人員共通探討人工智能的未來,而整個討論中最重要的主題便是——GPU短缺是最大瓶頸。

Altman表示,目前OpenAI的客戶最不滿的便是API的可靠性和速度,而這個問題主要就是GPU短缺造成的。

這場算力革命,讓英偉達今年以來一度暴漲170%,躋身萬億市值公司行列,在GPU持續短缺的當下,圍繞著英偉達的狂歡還將繼續嗎?

OpenAI嚴重依賴GPU

Altman表示,他們的下一步計劃就是不斷更新GPT-4,讓其更便宜,更快,而在發展過程中遇到的最大瓶頸便是GPU短缺,訪談中指出:

長度為32k的上下文窗口還未到推廣時機,OpenAI還未能克服技術上的障礙,主要是因為算法的高複雜性。雖然很快就會有10萬—100萬新的32K上下文窗口token,但提供更多的訪問token則需要技術和研究上突破。
微調(Fine-Tuning)API目前也受到GPU可用性的限制。他們還沒有使用像Adapters或LoRa這樣的高效微調方法,所以微調運行和管理需要高精度的計算。將來會有更好的微調支持。他們甚至可能主持一個社區貢獻模型的市場。
OpenAI提供的專用容量服務受到GPU的限制。當用戶請求使用專用容量時,OpenAI需要確保有足夠的GPU可供分配給用戶。然而,由於GPU資源有限,供應有限。要使用這項服務,客戶必須願意預付10萬美元的費用。

對於OpenAI未來的發展,Altman表示,在2023年OpenAI的目標是盡可能降低“智能的成本”,繼續降低API的成本:

更便宜、更快的GPT-4 —— 首要任務。
更長的上下文窗口—— 在不久的將來,高達一百萬的上下文窗口token。
微調(Fine-Tuning)API —— 微調API將擴展到最新的模型,但這的確切形式將由開發者表明他們真正想要的東西來塑造。
支持會話狀態的API —— 現在當你調用聊天API時,你必須反復重复歷史對話,並反复支付同樣的tokens。在未來,API將有一個記住對話歷史的版本。

在5月16日舉行的AI國會聽證會上,Altman就已經表達了對算力瓶頸的擔憂:由於計算能力瓶頸,如果使用ChatGPT的人少一些會更好。

英偉達的狂歡還將繼續?

在這場AI大戰中,華爾街高呼,英偉達是唯一“軍火商”,其超預期業績指引讓市場開啟了一場圍繞著英偉達的狂歡,股價再次節節攀升,市值一度突破萬億美元大關。

目前,包括谷歌和微軟在內,許多科技巨頭都使用英偉達芯片來為AI業務提供算力。谷歌計劃將生成式AI技術嵌入六個產品,每一個都手握超過20億用戶。

英偉達週一在COMPUTEX大會上推出了新產品,覆蓋了從機器人到遊戲的多個領域。它還宣布了一個新的超級計算機平台——DGX GH200助力新一代大AI模型。谷歌、微軟和Meta預計是獲得訪問權的首選客戶。會上,英偉達CEO黃仁勳表示,全球4萬家大公司和1.5萬家初創公司正在使用英偉達的技術。

英偉達最近表示,該公司正在擴大供應,以滿足不斷增長的需求。英偉達CEO黃仁勳週日表示,該公司已經提高了用於生成式人工智能的新款旗艦芯片H100的產量。

資訊來源:由0x資訊編譯自8BTC。版權歸作者所有,未經許可,不得轉載

Total
0
Shares
Related Posts