人工智能專家簽署文件,比較“人工智能滅絕”與流行病、核戰爭的風險


數十位人工智能(AI) 專家,包括OpenAI、Google DeepMind 和Anthropic 的首席執行官,最近簽署了一份由人工智能安全中心(CAIS) 發布的公開聲明。

我們只是發表聲明:

“減輕人工智能滅絕的風險應該與流行病和核戰爭等其他社會規模的風險一起成為全球優先事項。”

簽名者包括Hinton、Bengio、Altman、Hassabis、Song 等https://t.co/N9f6hs4bpa

(1/6)

– 丹·亨德里克斯(@DanHendrycks) 2023 年5 月30 日

該聲明包含一個句子:

“減輕人工智能滅絕的風險應該與流行病和核戰爭等其他社會規模的風險一起成為全球優先事項。”

該文件的簽署者中有名副其實的AI 名人錄,包括AI 的“教父”Geoffrey Hinton; 加州大學伯克利分校的Stuart Russell; 和麻省理工學院的Lex Fridman。音樂家格萊姆斯也是簽約人,列在“其他著名人物”類別下。

音樂家Grimes 願意與AI 生成的音樂“分享50% 的版稅”

雖然該聲明表面上看起來無傷大雅,但潛在的信息在AI 社區中頗具爭議。

似乎越來越多的專家認為,當前的技術可能或將不可避免地導致能夠對人類物種構成生存威脅的人工智能係統的出現或發展。

然而,他們的觀點遭到一群持有截然相反意見的專家的反駁。例如,Meta 首席人工智能科學家Yann LeCun 曾多次指出,他不一定相信人工智能會變得無法控制。

超人人工智能遠不及存在風險列表的首位。
很大程度上是因為它還不存在。

在我們為狗級別的人工智能(更不用說人類級別)制定基本設計之前,討論如何使其安全還為時過早。 https://t.co/ClkZxfofV9

– Yann LeCun (@ylecun) 2023 年5 月30 日

對於他和其他不同意“滅絕”論調的人,例如穀歌大腦的聯合創始人、百度前首席科學家吳恩達,人工智能不是問題,而是答案。

另一方面,Hinton 和Conjecture 首席執行官Connor Leahy 等專家認為,人類級別的人工智能是不可避免的,因此,現在是採取行動的時候了。

所有主要AI 實驗室的負責人都簽署了這封信,明確承認AGI 滅絕的風險。

這是向前邁出的令人難以置信的一步,祝賀丹將這一切放在一起所做的令人難以置信的工作,並感謝每一位簽署者為更美好的未來儘自己的一份力量https://t.co/KDkqWvdJcH

– Connor Leahy (@NPCollapse) 2023 年5 月30 日

然而,尚不清楚聲明的簽署者要求採取什麼行動。幾乎所有主要AI 公司的CEO 和/或AI 負責人,以及來自學術界的知名科學家都在簽名者之列,這表明他們的意圖並不是要阻止這些具有潛在危險的系統的開發。

本月早些時候,上述聲明的簽署人之一OpenAI 首席執行官山姆·奧特曼(Sam Altman) 在參議院舉行的討論人工智能監管的聽證會上首次亮相國會。在他用大部分時間敦促立法者規範他的行業後,他的證詞成為頭條新聞。

Altman 的Worldcoin 是一個結合了加密貨幣和身份證明的項目,在籌集了1.15 億美元的C 輪融資後,最近也獲得了媒體的關注,使其在三輪融資後的總融資額達到2.4 億美元。

資訊來源:由0x資訊編譯自COINTELEGRAPH。版權歸作者Tristan Greene所有,未經許可,不得轉載

Total
0
Shares
Related Posts