OpenAI 的安全性已退居二線嗎?


聯合創始人伊利亞·蘇茨克弗(Ilya Sutskever) 本週早些時候離開公司後,著名研究員簡·雷克(Jan Leike) 於週五上午宣布,公司的「安全文化和流程已讓位於閃亮的產品」。

Jan Leike 在社群媒體平台X 上的一系列貼文中表示,他加入這家位於舊金山的新創公司是因為他相信這將是進行人工智慧研究的最佳場所。

Leike 領導了OpenAI 的「Superalignment」團隊,聯合創始人也於本週辭職。

OpenAI 的超級對齊團隊不再完整

Leike 的Superalignment 團隊於去年7 月在OpenAI 成立,旨在解決部署安全措施方面的主要技術挑戰,因為該公司正在推進可以像人類一樣理性化的人工智慧。

Leike 的聲明是在WIRED Chich 的一篇報導聲稱OpenAI 完全解散了Supersligment 團隊之後發表的,該團隊的任務是解決與人工智慧相關的長期風險。

另請閱讀:Openai 首席科學家Ilya Sutskever 告別

Sutskever 和Leike 並不是唯一離開公司的員工。自去年11 月以來,OpenAI 至少有5 名最具安全意識的員工離開了公司或被解僱,當時董事會試圖解僱首席執行官薩姆·奧爾特曼(Sam Altman),結果卻眼睜睜地看著他玩牌以奪回自己的職位。

OpenAI 應成為一家安全第一的AGI 公司

Leike 指出了該技術在多個平台上最具爭議的特徵——機器人的前景圖景,它們要么與人類一樣聰明,要么至少能夠像人類一樣執行許多任務——他寫道,OpenAI 需要轉變為安全第一的機器人AGI公司。

針對雷克的帖子,Open AI 執行長Sam Altman 表達了對雷克為公司所做的服務的感謝,並對他的離開表示悲傷。

奧特曼在X 貼文中表示,雷克是正確的,他將在未來幾天就該主題寫一篇長文。他也表示,

“我們還有很多事情要做; 我們致力於做到這一點。”

Leike 已離開OpenAI 的超級對齊團隊,該公司聯合創始人John Schulman 接任。

但團隊存在空虛感。此外,Schulman 因全職工作保證OpenAI 現有產品的安全而負擔過重。 OpenAI 還能進行多少更重要、面向未來的安全工作?對此似乎沒有令人滿意的答案。

揚·雷克與管理階層存在意識形態分歧

正如該組織的名稱OpenAI 所暗示的那樣,該組織最初打算與公眾自由分享其模型,但該公司現在表示,向任何人提供如此有效的模型可能是有害的,因此這些模型已轉變為專有知識。

Leike 在一篇文章中表示,他不同意OpenAI 領導層關於他們長期以來一直在公司強制執行的優先事項的觀點,直到他們最終達到了一個臨界點。

我加入是因為我認為OpenAI 將是世界上進行這項研究的最佳地點。

然而,相當長一段時間以來,我一直與OpenAI 領導層關於公司核心優先事項的觀點存在分歧,直到我們最終達到了臨界點。

— Jan Leike (@janleike) 2024 年5 月17 日

Leike 在公司的最後一天是周四,之後他辭職了,並且沒有用任何熱情的告別來粉飾自己的辭職,也沒有暗示對OpenAI 領導層的信心。在X 上,他發文稱,“我辭職了。”

雷克的一名追隨者在評論中表示,他很高興雷克不再是他們團隊的成員。覺醒的意識形態不符合人性。它越不一致,就越多地投入到人工智慧中。

另請閱讀:OpennAI 保護Reddit 內容以改進ChatGPT

該追隨者表示,他還需要所有對準者對對準進行定義。他指的是Leike 詢問OpenAI 其他員工的建議,他相信他們可以實現公司所需的文化變革。

這家全球領先的人工智慧公司似乎正在改變專家經常強調的安全措施方面的方針,而該公司頂級安全專家的離職可能證實了這一點。

阿米爾·謝赫(Aamir Sheikh) 的《加密貨幣城》報道

資訊來源:由0x資訊編譯自CRYPTOPOLITAN。版權歸作者Aamir Sheikh所有,未經許可,不得轉載

Total
0
Shares
Related Posts