LeCun、吳恩達等370多人簽聯名信:嚴格控制AI是危險的,開放才是解藥


原文來源:機器之心

圖片來源:由無界AI生成

近幾日,關於如何監督AI 的討論越來越熱烈,各位大佬們意見非常不統一。

例如圖靈獎三巨頭Geoffrey Hinton、Yoshua Bengio、Yann LeCun 就出現了兩種觀點。 Hinton、Bengio 為一隊,他們強烈呼籲加強對AI 的監管,否則可能引發「AI 滅絕人類」的風險。 LeCun 與他們的觀點並不相同,他認為AI 強監管必將帶來巨頭壟斷,結果是只有少數公司控制AI 的研發。

為了表達自己的想法,許多人以簽署聯名信的方式來傳達觀點,就拿剛剛過去的幾天來說,Bengio、Hinton 等再發聯名信《在快速發展的時代管理人工智慧風險》,呼籲在在開發AI 系統之前,研究者應該採取緊急治理措施。

與此同時,近日一封名為《人工智慧安全和開放的聯合聲明》的公開信正在社群媒體發酵。

公開信連結:https://open.mozilla.org/letter/

截至目前,深度學習三巨頭之一的LeCun、史丹佛大學電腦科學系教授吳恩達等370 多人已經在這封公開信上簽名。名單還在持續更新中。

LeCun 表示,「開放、透明和廣泛的訪問使軟體平台更安全、更可靠。這封來自Mozilla 基金會的公開信,我也簽了名,它為開放的人工智慧平台和系統提供了理由。」

以下為公開信內容:

我們正處於人工智慧治理的關鍵時刻。為了減輕人工智慧系統當前和未來的危害,我們需要擁抱開放、透明和廣泛的存取。這需要成為全球優先事項。
的確,公開可用的模型存在風險和漏洞—— 人工智慧模型可能被惡意行為者濫用或被裝備不足的開發人員部署。然而,我們一次又一次地看到,各種專有技術都是如此—— 增加公眾訪問和審查使技術更安全,而不是更危險。對基礎人工智慧模型進行嚴格和專有的控制是保護我們免受大規模傷害的唯一途徑,這種想法往好了說是天真,往壞了說就是危險。

此外,人類發展的歷史告訴我們,迅速採取錯誤的監管可能會導致權力中心化,從而損害競爭和創新。開放模型可以為公開辯論提供資訊並改進策略制定。如果我們的目標是安全、保障和問責,那麼開放和透明就是實現這一目標的重要因素。
我們正處於一場關於人工智慧時代「開放」意義的動態討論之中。這場重要的辯論不該放慢腳步。相反,它應該加快速度,鼓勵我們嘗試、學習和開發新的方法,在人工智慧安全競賽中利用開放性。

我們需要為開源與開放建立一系列方法,這些方法可以作為以下方面的基石:
1. 透過獨立研究、協作和知識分享,加速了解人工智慧能力的風險和危害。 2. 透過幫助監管機構採用工具來監控大規模人工智慧系統,加強公眾監督和問責。 3. 降低新玩家的進入門檻,專注於創造負責任的人工智慧。
作為這封公開信的簽署人,我們是一個多元化的群體,包括科學家、策略制定者、工程師、活動家、企業家、教育工作者和記者等等。我們代表關於如何管理和發布開源人工智慧的不同觀點。然而,我們強烈同意一件事:開放、負責任和透明的方法對於確保我們在人工智慧時代的安全至關重要。
在人工智慧安全方面,開放是解藥,而不是毒藥。

簽名者:

Arthur Mensch,法國新創公司MistralAI 聯合創始人兼首席執行官吳恩達,DeepLearning.AI 創始人,Landing AI 創始人兼首席執行官,斯坦福大學計算機科學系教授Yann Lecun,圖靈獎得主,Meta 首席AI 科學家Julien Chaumond,Hugging Face CTO Brian Behlendorf,Apache 創始成員,OpenSSF 技術長Eric Von Hippel,美國經濟學家,MIT 史隆管理學院教授…

目前,這封僅出現數天的公開信在持續發酵,在國外AI 社區已經引起了極大的關注與討論,大家可以持續關註名單更新。

如果你同意這封聯名信的觀點,也可以提交自己的資訊簽名。

對AI 進行強監管,到底是弊大於利,還是利大於弊,還需要時間給出答案。

資訊來源:由0x資訊編譯自8BTC。版權所有,未經許可,不得轉載

Total
0
Shares
Related Posts