AI 研究暫停6 個月,才是真正巨大的傷害。應該受監管的是AI 產品,而不是背後的研究。
作者:夢晨
來源:量子位
原文標題:《GPT-5 不能停!吳恩達LeCun 直播回懟馬斯克:汽車都還沒發明,要什麼安全帶》
大模型研究不能停!
吳恩達和LeCun 為了這事兒,甚至親自搞了場直播。畢竟再不出手,事態眼看著越來越嚴重了:
馬斯克等人叫停GPT-5 研發的事態再次升級,已從千人聯名發展到超過13500 人簽署。
兩人還直言,暫停AI 研究就是反理性:
AI 研究暫停6 個月,才是真正巨大的傷害。
應該受監管的是AI 產品,而不是背後的研究。
此前暫停比GPT-4 強大的AI 試驗的呼籲,已得到深度學習三巨頭中的Yoshua Bengio 簽名支持,Hinton 未簽名但表示“要比6 個月更長才行”。
此次吳恩達與LeCun 兩人,除了直播闡述各自的觀點外,還回應了網友關心的更多問題。
觀看了直播和視頻回放的網友們則表示,視頻出境比推特發言提供了更多的上下文背景和微妙的語氣差異。
AGI 逃出實驗室,需要擔心嗎?
LeCun 認為,現在人們對AI 的擔憂和恐懼應分為兩類:
一、與未來有關的,AI 不受控制、逃離實驗室、甚至統治人類的猜測。
二、與現實有關的,AI 在公平、偏見上的缺陷和對社會經濟的衝擊。
對第一類,他認為未來AI 不太可能還是ChatGPT 式的語言模型,無法對不存在的事物做安全規範。
汽車還沒發明出來,該怎麼去設計安全帶呢?
對第二類擔憂,吳恩達和LeCun 都表示監管有必要,但不能以犧牲研究和創新為代價。
吳恩達表示,AI 在教育、醫療等方面創造巨大價值,幫助了很多人。
暫停AI 研究才會對這些人造成傷害,並減緩價值的創造。
LeCun 認為,“AI 逃跑”或者“AI 統治人類”這種末日論還讓人們對AI 產生了不切實際的期待。
ChatGPT 給人帶來這種想法是因為它語言流利,但語言並不是智能的全部。
語言模型對現實世界的理解非常表面,儘管GPT-4 是多模態的,但仍然沒有任何對現實的“經驗”,這就是為什麼它還是會一本正經地胡說八道。
而且這個問題,4 年前LeCun 已經在《科學美國人》上與冷泉港實驗室神經科學家Anthony Zador 一起撰文回應過了,標題就叫《不必害怕終結者》。
在直播節目中LeCun 再次重申了文章的主要觀點。
統治的動機只出現在社會化物種中,如人類和其他動物,需要在競爭中生存、進化。
而我們完全可以把AI 設計成非社會化物種,設計成非支配性的(non-dominant)、順從的(submissive)、或者遵守特定規則以符合人類整體的利益。
吳恩達則用生物科學史上的里程碑事件“阿希洛馬會議”來比較。
1975 年,DNA 重組技術剛剛興起,其安全性和有效性受到質疑。世界各國生物學家、律師和政府代表等召開會議,經過公開辯論,最終對暫緩或禁止一些試驗、提出科研行動指南等達成共識。
吳恩達認為,當年的情況與今天AI 領域發生的事並不一樣,DNA 病毒逃出實驗室是一個現實的擔憂,而他沒有看到今天的AI 有任何逃出實驗室的風險,至少要幾十年甚至幾百年才有可能。
在回答觀眾提問“什麼情況下你會同意暫停AI 研究?”時,LeCun 也表示應該區分“潛在危害、真實危害”與“想像中的危害”,當真實危害出現時應該採取手段規範產品。
第一輛汽車並不安全,當時沒有安全帶、沒有好的剎車、也沒有紅綠燈,過去的科技都是逐漸變安全的,AI 也沒什麼特殊性。
而對於“如何看待Yoshua Bengio 簽署了聯名?”這個問題,LeCun 表示他和Bengio 一直是朋友,他認為Bengio 擔心的點在於“公司為了盈利掌握科技本質上就是壞的”,但他自己不這麼看待,兩人觀點一致之處在於AI 研究應該公開進行。
Bengio 最近也在個人網站詳細解釋了他為什麼會簽署。
隨著ChatGPT 到來,商業競爭激烈了十多倍,風險在於各公司會急於開發巨大的AI 系統,把過去十幾年間開放的透明的習慣拋在腦後。
直播結束後,吳恩達與LeCun 兩人還在與網友做進一步交流。
對於“你為什麼不相信AI 會逃出實驗室”,LeCun 表示讓AI 在一個特定硬件平台上保持運行都很難了。
對於“AI 達到奇點發生突變、不受控制”的回應則是,在現實世界中每個進程都會有摩擦力,指數增長會迅速變成Sigmoid 函數。
還有網友開玩笑說,語言模型經常被形容為“隨機吐出詞彙的鸚鵡”,但真實的鸚鵡危險多了,有喙、爪子和傷害人的意圖。
LeCun 補充道,澳大利亞鳳頭鸚鵡更凶狠,我呼籲對鳳頭鸚鵡實施6 個月的管制。
One More Thing
對於影響力越來越大的AI 暫停6 個月提案,也有越來越多的人表達自己的觀點。
比爾蓋茨對路透社表示“我不認為讓一個特定的組織暫停就會解決這些問題。在一個全球性的行業中,暫停很難執行”。
據福布斯報導,谷歌前CEO 埃里克施密特認為“監管部門大多數人對科技的理解還不足以正確規範其發展。另外如果在美國暫停6 個月,只會讓別的國家受益。”
與此同時,AI 研究界另一股聲音的影響力也逐漸加大。
由非贏利組織LAION-AI(Stable Diffusion 訓練數據提供者)發起的請願書也有超過1400 人簽署。
這個項目呼籲建設公眾資助的國際化超級AI 基礎設施,配備10 萬最先進的AI 加速芯片,確保創新和安全。
就相當於粒子物理學界的CERN(歐洲核子研究組織)。
支持者包括LSTM 之父Jürgen Schmidhuber,HuggingFace 聯合創始人Thomas Wolf 等知名研究者。
完整視頻回放:
https://www.YouTube.com/watch?v=BY9 KV8 uCtj4&t=33 s
AI 轉寫文本:
https://Gist.GitHub.com/simonw/b3 d48 d6 fcec247596 fa2 cca841 d3 fb7 a
參考鏈接:
[1] https://Twitter.com/AndrewYNg/status/1644418518056861696
[2] https://blogs.scientificamerican.com/observations/dont-fear-the-terminator/
展開全文打開碳鏈價值APP 查看更多精彩資訊