Sam Altman:開源GPT-3、降低GPT-4的成本、翻倍模型規模

6月1日消息,AI 開發平台HumanLoop 創始人Raza Habib 與OpenAI 首席執行官Sam Altman 等20 多位開發者開展了一次閉門討論會,Sam Altman 透露了很多關於OpenAI 的未來規劃與目前遇到的情況。具體有: 1. OpenAI 目前嚴重受限於GPU,導致他們推遲了許多短期計劃,大部分關於ChatGPT 可靠性和速度的問題都是由於GPU 資源短缺造成。 2. 給GPT-4 降本提效是OpenAI 當前的首要任務。 3. 更長的ChatGPT 上下文窗口(最高可達100 萬個tokens)。將來會有一個記住對話歷史記錄的API 版本。 4. GPT-4 的多模態功能要到2024 年才會公開,在獲取更多GPU 資源前不能將GPT-4 的視覺版本擴展到所有人。 5. OpenAI 正在考慮開源GPT-3,他們之所以還沒有開源的部分原因是因為他們覺得沒多少人和公司有能力妥善管理如此大型的大語言模型。 6. 最近很多文章聲稱的“巨型AI 模型的時代已經結束”並不正確,OpenAI 內部數據表明,規模與性能成正比的定律仍成立,OpenAI 的模型規模每年可能會增加一倍或三倍(多方信息表明GPT-4 參數規模10000 億),而不是增加許多數量級。

Total
0
Shares
Related Posts