GPT-4變笨引爆輿論文本代碼質量都下跌,OpenAI剛剛回應了降本減料質疑


來源:“量子位”(ID:QbitAI)

大模型天花板GPT-4,它是不是……變笨了?

先是少數用戶提出質疑,隨後大量網友表示自己也注意到了,還貼出不少證據。

有人反饋,把GPT-4的3小時25條對話額度一口氣用完了,都沒解決自己的代碼問題。

無奈切換到GPT-3.5,反倒解決了。

總結下大家的反饋,最主要的幾種表現有:

以前GPT-4能寫對的代碼,現在滿是Bug 回答問題的深度和分析變少了響應速度比以前快了

這就引起不少人懷疑,OpenAI是不是為了節省成本,開始偷工減料?

兩個月前GPT-4是世界上最偉大的寫作助手,幾週前它開始變得平庸。我懷疑他們削減了算力或者把它變得沒那麼智能。

這就不免讓人想起微軟新必應“出道即巔峰”,後來慘遭“前額葉切除手術”能力變差的事情……‍‍‍‍‍‍‍‍‍

網友們相互交易所自己的遭遇後,“幾週之前開始變差”,成了大家的共識。

一場輿論風暴同時在Hacker News、Reddit和Twitter等技術社區形成。

這下官方也坐不住了。

OpenAI開發者推廣大使Logan Kilpatrick,出面回復了一位網友的質疑:

API 不會在沒有我們通知你的情況下更改。那裡的模型處於靜止狀態。

不放心的網友繼續追問確認“就是說GPT-4自從3月14日發布以來都是靜態的對吧?”,也得到了Logan的肯定回答。

“我注意到對於某些提示詞表現不一致,只是由於大模型本身的不穩定性嗎?”,也得到了“Yes”的回复。

但是截至目前,針對網頁版GPT-4是否被降級過的兩條追問都沒有得到回答,並且Logan在這段時間有發布別的內容。

那麼事情究竟如何,不如自己上手測試一波。

對於網友普遍提到GPT-4寫代碼水平變差,我們做了個簡單實驗。

01 實測GPT-4“煉丹”本領下跌了嗎?

3月底,我們曾實驗過讓GPT-4“煉丹”,用Python寫一個多層感知機來實現異或門。

讓GPT-4改用numpy不用框架後,第一次給出的結果不對。

在修改兩次代碼後,運行得到了正確結果。第一次修改隱藏神經元數量,第二次把激活函數從sigmoid修改成tanh。

6月2日,我們再次嘗試讓GPT-4完成這個任務,但換成了中文提示詞。

這回GPT-4第一次就沒有使用框架,但給的代碼仍然不對。

後續只修改一次就得到正確結果,而且換成了力大磚飛的思路,直接增加訓練epoch數和學習率。

回答的文字部分質量也未觀察到明顯下跌,但響應速度感覺確實有變快。

由於時間有限,我們只進行了這一個實驗,且由於AI本身的隨機性,也並不能否定網友的觀察。

02 最早4月19日就有人反饋

我們在OpenAI官方Discord頻道中搜索,發現從4月下旬開始,就不時有零星用戶反饋GPT-4變差了。

但這些反饋並未引發大範圍討論,也沒有得到官方正式回應。

5月31日,Hacker News和Twitter同天開始大量有網友討論這個問題,成為整個事件的關鍵節點。

HackerNews一位網友指出,在GPT-4的頭像還是黑色的時候更強,現在紫色頭像版在修改代碼時會丟掉幾行。

在Twitter上較早提出這個問題的,是HyperWrite(一款基於GPT API開發的寫作工具)的CEO,Matt Shumer。

但這條推文卻引發了許多網友的共鳴,OpenAI員工回复的推文也正是針對這條。

不過這些回應並沒讓大家滿意,反而討論的範圍越來越大。

比如Reddit上一篇帖子提到,原來能回答代碼問題的GPT-4,現在連哪些是代碼哪些是問題都分不出來了。

在其他網友的追問下,帖子作者對問題出現的過程進行了概述,還附上了和GPT的聊天記錄。

對於OpenAI聲稱模型從三月就沒有改動過,公開層面確實沒有相關記錄。

ChatGPT的更新日誌中,分別在1月9日、1月30日、2月13日提到了對模型本身的更新,涉及改進事實準確性和數學能力等。

但自從3月14日GPT-4發布之後就沒提到模型更新了,只有網頁APP功能調整和添加聯網模式、插件模式、蘋果APP等方面的變化。

假設真如OpenAI所說,GPT-4模型本身的能力沒有變化,那麼這麼多人都感覺它表現變差是怎麼回事呢?

很多人也給出了自己的猜想。

第一種可能的原因是心理作用。

Keras創始人François Chollet就表示,不是GPT的表現變差,而是大家渡過了最初的驚喜期,對它的期待變高了。

Hacker News上也有網友持相同觀點,並補充到人們的關注點發生了改變,對GPT失誤的敏感度更高了。

拋開人們心理感受的差異,也有人懷疑API版本和網頁版本不一定一致,但沒什麼實據。

還有一種猜測是在啟用插件的情況下,插件的額外提示詞對要解決的問題來說可能算一種污染。

這位網友就表示,在他看來GPT表現變差正是從插件功能開始公測之後開始的。

也有人向OpenAI員工詢問是否模型本身沒變,但推理參數是否有變化?

量子位也曾偶然“拷問”出ChatGPT在iOS上的系統提示詞與網頁版並不一致。

如果在手機端開啟一個對話,它會知道自己在通過手機與你交互。

會把回答控制在一到兩句話,除非需要長的推理。

不會使用表情包,除非你明確要求他使用。

那麼如果在網頁版繼續一個在iOS版開啟的對話而沒意識到,就可能觀察到GPT-4回答變簡單了。

總之,GPT-4自發布以來到底有沒有變笨,目前還是個未解之謎。

但有一點可以確定:

3月14日起大家上手玩到的GPT-4,從一開始就不如論文裡的。

03 與人類對齊讓AI能力下跌

微軟研究院發表的150多頁刷屏論文《AGI的火花:GPT-4早期實驗》中明確:

他們早在GPT-4開發未完成時就得到了測試資格,並進行了長期測試。

後來針對論文中很多驚艷例子,網友都不能成功用公開版GPT-4復現。

目前學術界有個觀點是,後來的RLHF訓練雖然讓GPT-4更與人類對齊——也就更聽從人類指示和符合人類價值觀——但讓也讓它自身的推理等能力變差。

論文作者之一、微軟科學家張弋在中文播客節目《What’s Next|科技早知道》S7E11期中也提到:

那個版本的模型,比現在外面大家都可以拿得到的GPT-4還要更強,強非常非常多。

舉例來說,微軟團隊在論文中提到,他們每隔相同一段時間就讓GPT-4使用LaTeX中的TikZ畫一個獨角獸來追踪GPT-4能力的變化。

論文中展示的最後一個結果,畫得已經相當完善。

但論文一作Sebastien Bubeck後續在MIT發表演講時透露了更多信息。

後來當OpenAI開始關注安全問題的時候,後續版本在這個任務中變得越來越糟糕了。

與人類對齊但並不降低AI自身能力上限的訓練方法,也成了現在很多團隊的研究方向,但還在起步階段。

除了專業研究團隊之外,關心AI的網友們也在用自己的辦法追踪著AI能力的變化。

有人每天讓GPT-4畫一次獨角獸,並在網站上公開記錄。 ‍‍

從4月12日開始,直到現在也還沒看出來個獨角獸的大致形態。

當然網站作者表示,自己讓GPT-4使用SVG格式畫圖,與論文中的TikZ格式不一樣也有影響。

並且4月畫的與現在畫的似乎只是一樣差,也沒看出來明顯退步。 ‍

最後來問問大家,你是GPT-4用戶麼?最近幾周有感到GPT-4能力下跌麼?歡迎在評論區聊聊。

Bubeck演講:https://www.youtube.com/watch?v=qbIk7-JPB2c張弋訪談:https://xyzfm.link/s/UfTan0每天一個GPT-4獨角獸https://gpt-unicorn.adamkdean.co.uk

參考鏈接:[1]https://news.ycombinator.com/item?id=36134249[2]https://twitter.com/nabeelqu/status/1663915378265800705[3]https://twitter.com/OfficialLoganK/status/1663934947931897857[4]https://discord.com/channels/974519864045756446/1001151820170801244[5]https://twitter.com/mattshumer_/status/1663744527448829954[6]https://www.reddit.com/r/ChatGPT/comments/13xik2o/chat_gpt_4_turned_dumber_today/[7]https://help.openai.com/en/articles/6825453-chatgpt-release-notes[8]https://twitter.com/fchollet/status/1664036777416597505[9]https://news.ycombinator.com/item?id=36155267

資訊來源:由0x資訊編譯自8BTC。版權歸作者所有,未經許可,不得轉載

Total
0
Shares
Related Posts