OpenAI全面推出GPT-4API付費用戶可以即刻訪問


文章來源:元宇宙NEWS

文:周子意

目前,所有OpenAI的API付費用戶(有成功支付歷史的)都可以訪問擁有8K上下文記憶的GPT-4。並且該公司計劃在本月底向新的開發人員開放API訪問權限,然後通過算力可用性來調整可用限制。

OpenAI週四(7月6日)宣布,其最新的大型語言模型GPT-4將通過其API正式開放使用。

目前,所有OpenAI的API付費用戶(有成功支付歷史的)都可以訪問擁有8K上下文記憶的GPT-4。並且該公司計劃在本月底向新的開發人員開放API訪問權限,然後通過算力可用性來調整可用限制。

這也就意味著全球開發者都能使用GPT-4大型語言模型,來增強自己的應用程序或開發全新的生成式AI應用。

OpenAI週四在一篇博客文章中寫道,“自3月份以來,數以百萬計的開發人員要求訪問GPT-4 API,利用GPT-4的創新產品的範圍每天都在增長。”

今年3月,OpenAI正式發布GPT-4,該模型可以接受圖像和文本輸入來生成文本(包括代碼),並在各種專業和學術基准上達到“人類水平”,這是對其前身GPT-3.5的改進,後者只接受文本輸入。與過往GPT模型一樣,GPT-4是使用公開可用的數據進行訓練的,包括來自公共網頁的數據以及OpenAI許可的數據。

GPT-4在上下文窗口方面保持了之前的桂冠,默認為8k個token(token是模型處理文本的基本單位),上限為32k個token。一般來說,上下文窗口更大的模型越能記住最近對話的內容,而窗口較小的模型在對話過程中容易忘記上文內容,導致它們偏離主題。

01 支持任何用例

博客文章還指出,“我們設想未來基於聊天的模型可以支持任何使用案例。”

OpenAI還計劃推出GPT-3.5 Turbo,DALL·E和Whisper的API接口。

GPT-3.5 Turbo是OpenAI的另一個文本生成模型之一,但功能較GPT-4較弱;DALL-E 2是OpenAI的圖像生成模型;而Whisper是該公司的語音轉文本模型。

目前圖像理解功能還沒有提供給所有OpenAI的客戶。據悉,OpenAI正在與一家名為“Be My Eyes”的合作夥伴進行測試,但它還沒有表明何時會向更廣泛的客戶群開放。

OpenAI還表示,在未來,它將允許開發人員用自己的數據微調GPT-4和GPT-3.5 Turbo,這一功能或將在今年晚些時候實現。

02 淘汰和替代

值得注意的是,即使是當今最好的生成式人工智能模型之一,GPT-4也並不完美。它會對事實產生錯誤認知,有時還會“很自信”地犯一些推理錯誤,並在一些複雜問題上失敗了。

對此,OpenAI還宣布將在Completions API中淘汰幾個舊版模型,未來的模型將側重於Chat Completions API,作為該公司優化計算能力的一部分。

下圖是OpenAI宣布淘汰的舊模型,以及替代它們的新模型:

OpenAI將在6個月內淘汰這些Completions API的舊型號。雖然現下這個API仍然可以訪問,但從今天開始,該公司將在開發人員文檔中將其標記為“遺留”。從2024年1月4日開始,舊的Completions API將不再可用。

資訊來源:由0x資訊編譯自8BTC。版權歸作者所有,未經許可,不得轉載

Total
0
Shares
Related Posts