前OpenAI首席科學家創辦自己的人工智慧公司


OpenAI 前首席科學家Ilya Sutskever 在宣布離開OpenAI 一個月後,正在創辦一家新的人工智慧公司。 “我正在創辦一家新公司”,名為Safe Superintelligence Inc.。 (SSI),他週三晚間宣布。

SSI 總部位於美國,在帕洛阿爾托和特拉維夫設有辦事處。 該新創公司在一篇官方貼文中表示,它有「一個目標和一個產品:安全的超級智慧」。 Sutskever 補充道:

“我們力求一目了然的安全超級智能,一個聚焦、一個目標、一款產品。 我們將通過一個小型、去中心化的團隊實現革命性突破來實現這一目標。”

「我們獨特的專注確保沒有乾擾,」SSI 表示

SSI 目前由Sutskever、Daniel Gross 和另一位前OpenAI 研究員Daniel Levy 領導。 截至撰寫本文時,這家新創公司背後的投資者仍然未知。

然而,該公司在公告中指出,整個「團隊、投資者和商業模式都一致致力於實現「安全的超級智慧」。這項評測可能直接針對OpenAI,後者曾被伊隆馬斯克斥責將利潤置於人類之上,放棄了最初的使命。

“我們的單一關注點意味著我們不會因管理費用或產品週期而分心,而我們的商業模式意味著安全、保障和進步都不受短期商業壓力的影響。”

他與OpenAI 的過去

Sutskever 於5 月15 日宣布,在為領先的人工智慧公司工作近十年後,他將離開OpenAI。 在此之前,去年12 月試圖將執行長Sam Altman 趕出OpenAI 失敗後,他決定進入一段無線電靜默期。

另一位OpenAI 董事Jan Leike 在Sutskever 之後辭職。 兩人共同領導了OpenAI 的Superalignment 團隊,該團隊負責防止超級智慧AI 模型變得惡意。

Sutskever 沒有明確說明他離開OpenAI 的原因。 然而,雷克提到了公司的安全問題,稱「近年來,安全文化和流程已經讓位給閃亮的產品。」他繼續說道:

「我加入是因為我認為OpenAI 將是世界上進行這項研究的最佳場所。 然而,相當長一段時間以來,我一直與OpenAI 在公司核心優先事項上的領導地位存在分歧,直到我們最終達到了臨界點。

資訊來源:由0x資訊編譯自CRYPTOBENELUX。版權歸作者Max Latupeirissa所有,未經許可,不得轉載

Total
0
Shares
Related Posts