OpenAI「超級對齊」團隊解散後更多內幕被爆料,有關算力與AGI安全

PANews 5月20日消息,根據金融界報道,此前,美東時間5月14日,OpenAI首席科學家伊利亞·蘇茨克沃(Ilya Sutskever)官宣離職。同日,OpenAI超級對齊團隊負責人之一的簡·雷克(Jan Leike)也宣布離職。本週五,OpenAI也證實,由蘇茨克沃和簡·雷克共同領導的「超級智慧對齊團隊」已經解散。 5月18日凌晨,簡·雷克在社群平台X上連發13則推文,爆料離職的真正原因及更多內幕。總結來看,一是算力資源不夠用,二是OpenAI對安全不夠重視。簡·雷克表示,應該將更多資源和精力投入為新一代AI模型做準備的工作中,但目前的發展路徑無法順利達成目標。他的團隊在過去幾個月面臨巨大挑戰,有時難以取得足夠的運算資源。簡·雷克也強調,創造超越人類智慧的機器充滿風險,OpenAI正在承擔這項責任,但安全文化和流程在追求產品開發過程中被邊緣化。 OpenAI必須轉型為一家將安全放在首位的AGI公司。針對簡·雷克的爆料訊息,5月18日奧爾特曼也緊急發文回應:「我非常感激簡·雷克對OpenAI在AI超級對齊研究和安全文化方面的貢獻,對他離開公司感到非常遺憾。斯拉首席執行官馬斯克針對“超級對齊”團隊解散這一消息評論稱:“這顯示安全並不是OpenAI的首要任務。”

此外,美國TechCrunch科技部落格網站18日稱,OpenAI放棄安全研究,轉而推出像GPT-4o這樣的新產品,最終導致「超級對齊」團隊的兩位負責人辭職。目前尚不清楚科技業何時或是否會實現必要的突破,以創造出能夠完成人類所能完成的任何任務的人工智慧。但「超級對齊」團隊的解散似乎證實了一件事:OpenAI的領導層——尤其是奧特曼——選擇優先考慮產品而不是安全措施。在過去一年裡,OpenAI讓其聊天機器人商店充斥著垃圾郵件,並違反平台的服務條款從YouTube抓取資料…安全似乎在該公司處於次要地位——越來越多的安全研究人員得出這種結論,選擇另謀高就。

5月19日,OpenAI執行長山姆·奧特曼(Sam Altman)在社群平台X上就先前「封嘴」離職條款傳聞進行回應:公司從未追回任何人的既得股權,即使有人沒簽署離職協議(或不同意非貶低協議),也不會採取上述做法。

Total
0
Shares
Related Posts