在給AI 貼上「滅絕風險」的標籤前,還請具體澄清擔憂

以“滅絕”為措辭的聲明必然引起恐慌,解決的第一步是命名和描述它們,並且要具體

撰文:巴斯大學人工智能教授Nello Cristianini

來源:The Conversation

本週,一群知名的人工智能研究人員簽署了一份由22 個英文單詞組成的聲明:

減輕人工智能帶來的滅絕風險應該是一個全球優先事項,與其他社會規模的風險如疫情和核戰爭並列。

作為人工智能領域的一名教授,我也贊成減少此類風險,並準備親自為之努力。但是,任何以這種方式措辭的聲明都必然會引起恐慌,因此其作者可能應該更具體,並澄清他們的擔憂。

根據《大英百科全書》的定義,滅絕是“一個物種的消亡或滅絕”。我見過該聲明的許多簽署者,他們都是該領域中最有聲望,最為可靠的科學家– 他們當然是出於好意。然而,他們沒有給我們提供這樣一個極端事件可能發生的具體場景。

這並不是我們第一次處於這種境地。今年3 月22 日,一份由不同企業家和研究人員簽署的請願書要求暫停人工智能部署六個月。在生命未來研究所(Future of Life Institute)網站上的請願書中,他們提出了自己的理由:“對社會和人類的深刻風險,正如廣泛的研究和頂級人工智能實驗室所承認的那樣”– 並在他們的請求中列出了一系列反問:

我們應該讓機器用宣傳和謊言充斥我們的信息渠道嗎?我們應該把所有的工作都自動化嗎,包括那些有意義的工作?我們是否應該開發非人類思維,使其最終超過我們,勝過我們,淘汰我們並取代我們?我們應該冒著失去對我們文明的控制的風險嗎?普遍的警覺

毫無疑問,在帶來諸多好處的同時,這項技術也帶來了風險,對此我們需要認真對待。然而,前面提到的情景似乎都沒有勾勒出滅絕的具體途徑。這意味著我們只有一種普遍的警覺感,而沒有任何可能的行動可以採取。

最新聲明出現在人工智能安全中心(Centre for AI Safety)的網站上,該網站在一個單獨的部分概述了八大風險類別,包括人工智能的“武器化”,被用來操縱新聞系統,人類最終變得無法自我管理的可能,為壓迫性政權提供便利,等等。

OpenAI 首席執行官Sam Altman 於2023 年5 月16 日在美國國會作證。

除了武器化,不清楚其他風險(仍然是可怕的)將如何導致我們這個物種的滅絕,而把它說清楚的重擔落在了這一聲明的作者身上。

當然,武器化是一個真正令人擔憂的問題,但這意味著什麼也應該得到澄清。在其網站上,人工智能安全中心的主要擔憂似乎是使用人工智能係統設計化學武器。我們應該不惜一切代價防止這種情況發生——但化學武器已經是被禁止了的。滅絕是一個非常具體的事件,需要非常具體的解釋。

5 月16 日,在美國參議院的聽證會上,開發了ChatGPT AI 聊天機器人的OpenAI 首席執行官Sam Altman 兩次被要求闡明最壞情況。他最後回答說:

我最擔心的是,我們(這個領域、這項技術、這個行業)對世界造成重大傷害……這就是我們創辦公司的原因 [以避免这种未来]…… 我認為如果這項技術出了問題,它可能會出大問題。

但是,儘管我強烈支持盡可能地謹慎,並且在過去十年中也一直公開強調,但保持分寸很重要——尤其是在討論一個擁有80 億個體的物種的滅絕時。

AI 會造成必須真正避免的社會問題。作為科學家,我們有責任了解它們,然後儘最大努力解決它們。但第一步是命名和描述它們——並且要具體。

展開全文打開碳鏈價值APP 查看更多精彩資訊

Total
0
Shares
Related Posts