暫停巨型人工智能實驗馬斯克、ChatGPT之父、圖靈獎得主等全球大佬都簽了

3月22日,生命未來研究所(Future of Life) 向全社會發布了一封《暫停大型人工智能研究》的公開信,呼籲所有人工智能實驗室立即暫停比GPT-4 更強大的人工智能係統的訓練,暫停時間至少為6個月。

目前該公開信已獲得超過1100個人士支持,其中包括埃隆馬斯克、山姆·奧特曼、約書亞·本吉奧(2018年圖靈獎得主)等知名人士。

公開信正文

大量研究表明,具有人類競爭智能的AI 系統可能對社會和人類構成深遠的風險,這一觀點也得到了頂級AI 實驗室的認可。

正如廣泛認可的阿西洛馬人工智能原則(著名的阿西莫夫的機器人三大法則的擴展版本)中所述,高級AI 可能代表地球生命史上的深刻變化,應以相應的關懷和資源進行規劃和管理。

不幸的是,這種級別的規劃和管理並沒有發生,儘管最近幾個月人工智能實驗室陷入了一場失控的競賽,以開發和部署更強大的數字思維,沒有人——甚至他們的創造者——都無法理解,預測或可靠地控制。

當代人工智能係統現在在一般任務上變得與人類具有競爭力,我們必須捫心自問:

  • 我們是否應該讓機器用宣傳和謊言充斥我們的信息渠道?

  • 我們應該自動化所有的工作,包括令人滿意的工作嗎?

  • 我們是否應該發展最終可能超過我們、超越我們、過時並取代我們的非人類思維?

  • 我們應該冒險失去對我們文明的控制嗎?

此類決定顯然不能委託給未經選舉產生的技術領導者。只有當我們確信它們的影響是積極的並且它們的風險是可控的時候,才應該開發強大的人工智能係統。這種信心必須有充分的理由,並隨著系統潛在影響的大小而增加。

OpenAI最近關於通用人工智能的聲明指出,“在某些時候,在開始訓練未來系統之前進行獨立審查可能很重要,並且對於最先進的努力來說,同意限制用於創建新系統的計算增長率楷模。” 我們同意這一觀點,並且認為現在就要行動起來。

因此,我們呼籲所有人工智能實驗室立即暫停訓練比GPT-4 更強大的人工智能係統(包括目前正在訓練的GPT-5)至少6 個月。這種暫停應該是公開的和可驗證的,並且包括所有關鍵參與者。如果不能迅速實施這種暫停,政府應介入並暫停。

人工智能實驗室和獨立專家應該利用這次暫停,共同開發和實施一套用於高級人工智能設計和開發的共享安全協議,並由獨立的外部專家進行嚴格審計和監督。這些協議應確保遵守它們的系統是安全的,無可置疑。

這並不意味著總體上暫停AI 開發,只是從危險的競賽中倒退到具有緊急功能的更大的不可預測的黑盒模型。

人工智能研究和開發應該重新聚焦於使當今強大的、最先進的系統更加準確、安全、可解釋、透明、穩健、一致、值得信賴和忠誠。

與此同時,AI 開發人員必須與政策制定者合作,以顯著加快開發強大的AI 治理系統。這些至少應包括:

  • 專門負責AI 的新的和有能力的監管機構;

  • 監督和跟踪高性能人工智能係統和大量計算能力;

  • 出處和水印系統,以幫助區分真實與合成並跟踪模型洩漏;

  • 強大的審計和認證生態系統;

  • 人工智能造成的傷害的責任;

  • 為技術人工智能安全研究提供強大的公共資金;

  • 以及資源充足的機構來應對人工智能將造成的巨大的經濟和政治破壞。

人類可以享受人工智能帶來的繁榮未來。成功創建強大的AI 系統後,我們現在可以享受“AI 之夏”,收穫回報,設計這些系統以造福所有人,並為社會提供適應的機會。社會已經暫停其他可能對社會造成災難性影響的技術。

我們可以在這裡這樣做。讓我們享受一個漫長的AI 夏天,而不是毫無準備地陷入秋天。

雲集行業大佬

目前已有超過1000人在該公開信上上簽字,包括馬斯克、山姆·奧特曼、約書亞·本吉奧(2018年圖靈獎得主)、巴勃羅·賈里洛·埃雷羅(石墨烯領域頂級專家)等行業大佬。

以下是部分名單:

Elon Musk,SpaceX、Tesla 和Twitter 的首席執行官

Sam Altman,OpenAI首席執行官

Steve Wozniak,蘋果聯合創始人

Emad Mostaque,Stability AI 首席執行官

Yoshua Bengio,因開發深度學習而獲得圖靈獎,蒙特利爾學習算法研究所所長

Stuart Russell,伯克利計算機科學教授,智能係統中心主任,標準教科書“人工智能:現代方法”的合著者

Pablo Jarillo-Herrero,麻省理工學院物理學教授,美國國家科學院沃爾夫物理學獎

John J Hopfield,普林斯頓大學名譽教授,聯想神經網絡的發明者

Connor Leahy,Conjecture 首席執行官

……

頂級精英的憂慮

業內人士對於AI的擔心有增無減。

OpenAl公司的首席執行官山姆·阿爾特曼(Sam Altman) 近日表示,他對人工智能(AI)技術的潛力感到興奮,但也對一些潛在的濫用行為“有點害怕”。還表示“它有巨大的前景也有巨大的能力,但隨之而來的危險也是巨大的。”

「人工智能教父」Geoffrey Hinton近日在CBS NEWS的採訪表示,人工智能正處於一個「關鍵時刻」,通用人工智能(AGI) 的出現比我們想像的更加迫近。

馬斯克在2023年世界政府峰會上談及ChatGPT,認為短期內人們需要警惕人工智能的安全問題,並呼籲對人工智能進行監管。

“我擔心的是,對於人工智能來說,如果它出了問題,從監管的角度來看,反應可能太慢了。我想說,未來文明面臨的最大風險之一是人工智能。”

但人工智能既有消極的一面,也有積極的一面。

”它前途無量,力量強大,但也伴隨著巨大的危險。看看核物理學的發現,我們可以得到核能發電,但是它也帶來了核彈。”

”總之,我認為我們應該深切關注這個問題,我們應該對從根本上對公眾構成風險的事情進行某種監管。”馬斯克表示。

寫在最後

從ChatGPT3、ChatGPT4,再到文心一言,AI幾乎正在呈指數級速度發展發展,處於人工智能時代的颶風中,未來人類又應該何去何從……

Total
0
Shares
Related Posts