麻省理工科技評論:生存風險如何成為AI 中最大模因

AI 末日論的傳染擴散

撰文:Will Douglas Heaven,來自:麻省理工科技評論

是誰在害怕機器人?似乎很多人都是這樣。目前,公開發表聲明或簽署公開信警告人工智能災難性危險的知名人士的數量多到驚人。

數以百計的科學家、商業領袖和政策制定者已經發聲,包括從深度學習先驅Geoffrey Hinton 和Yoshua Bengio,到頂級人工智能公司的首席執行官,如Sam Altman 和Demis Hassabis,再到加州眾議員Ted Lieu 和愛沙尼亞前總統Kersti Kaljulaid。

由所有這些人士和其他更多人簽署的最嚴酷的斷言是兩週前由舊金山的研究組織人工智能安全中心(CAIS)發布的22 個字的聲明,它宣稱“減輕人工智能帶來的滅絕風險應該是一個全球性的優先事項,與其他社會規模的風險如疫情和核戰爭一樣。”

這種措辭是經過深思熟慮的。 CAIS 主任Dan Hendrycks 說:“如果我們要用羅夏測試式的陳述,我們會說’生存風險’(existential risk),因為這對很多不同的人來說可能意味著很多東西。”但他們希望澄清:這並不是要搞垮經濟。 Hendrycks 說:“這就是為什麼我們提到了’滅絕風險’(risk of extinction),儘管我們很多人也擔心其他各種風險。”

我們以前也經歷過這樣的情況:人工智能的厄運伴隨著人工智能的炒作。但這一次感覺不同。奧弗頓窗口已經轉移了。曾經的極端觀點現在成了主流話題,不僅搶占了頭條,還引起了世界領導人的注意。研究技術社會影響的組織“數據與社會”(Data and Society)的研究主任Jenna Burrell 說:“對人工智能表示擔憂的聲音已經大到無法忽視。”

這是發生了什麼?人工智能真的變得(更)危險了嗎?為什麼當初引進這項技術的人現在卻開始拉響警報?

誠然,這些觀點在該領域存在分歧。上週,Meta 公司的首席科學家、與Hinton 和Bengio 共同獲得2018 年圖靈獎的Yann LeCun 稱末日論“荒謬可笑”。人工智能公司Cohere 的首席執行官Aidan Gomez 表示,這是“對我們時間的荒謬利用”。

同樣,其他人也對此嗤之以鼻。 Signal 總裁Meredith Whittaker 表示:“現在沒有比1950 年有更多的證據表明,人工智能將構成這些生存風險。”Whittaker 是人工智能研究所(AI now Institute)的聯合創始人和前主任,該研究所是一家研究人工智能政策影響的研究實驗室。 “鬼故事是會傳染的——害怕真的很令人興奮和刺激。”

“這也是一種略過當今所發生的一切的方式,”Burrell 說。 “它表明我們還沒有看到真正或嚴重的危害。”

一種古老的恐懼

自阿蘭- 圖靈以來,對失控的、自我改進的機器的擔憂一直存在。 Vernor Vinge 和Ray Kurzweil 等未來學家通過談論所謂的“奇點”(Singularity)來普及這些想法,“奇點”是一個假想的日期,即人工智能超過人類智能並由機器接管。

但這種擔憂的核心是控制的問題:如果(或當)機器變得更聰明時,人類如何保持優勢地位?在2017 年發表的一篇名為“人工智能如何構成生存風險?”的論文中,多倫多大學人工智能哲學家Karina Vold(她也簽署了CAIS 的聲明)闡述了這種擔憂背後的基本論點。

論點有三個關鍵前提。第一,人類有可能造出一台超級智能機器,它可以超越所有其他智能。第二,我們有可能無法控制能夠超越我們的超級智能體。第三,超級智能體有可能會做一些我們不希望它做的事情。

把所有這些結合起來,就有可能製造出一種機器,它會做我們不想讓它做的事情,包括消滅我們,而我們將無法阻止它。

這種場景也有不同的情況。當Hinton在五月份提出他對人工智能的擔憂時,他舉了機器人重新調整電網路線以給自己提供更多電力的例子。但超級智能(或AGI)並不是必需的。愚蠢的機器如果有太多的空間,也可能是災難性的。許多場景涉及到輕率或惡意的部署,而不是自利的機器人。

加州大學伯克利分校的人工智能研究人員Stuart Russell 和Andrew Critch(他們也都簽署了CAIS 的聲明)在上週在線發表的一篇論文中,給出了生存風險的分類法。這些風險的範圍包括:病毒式的提供建議的聊天機器人,告訴數百萬人從大學退學,到追求有害經濟目的的自主產業,再到民族國家建造人工智能驅動的超級武器。

在許多想像中的案例中,一個理論模型實現了其人類賦予的目標,但卻以一種對我們不利的方式來實現。 Hendrycks 研究了深度學習模型在給定訓練數據中未見的輸入時有時會以意想不到的方式表現,對於他來說,人工智能係統可能是災難性的,因為它是破壞性的而不是萬能的。他說:“如果你給它一個目標,而它卻找到了外來的解決方案,那麼它將帶我們踏上一段奇怪的旅程。”

這些可能的未來的問題是,它們依賴於一連串的“如果”,這使它們聽起來像科幻小說。 Vold 自己也承認了這一點。 “由於構成或引發 [生存风险] 的事件是前所未有的,因此關於它們構成這種威脅的論點本質上必須是理論性的,”她寫道。“它們的稀有性也使得任何關於此類事件如何或何時發生的猜測都是主觀的,無法通過經驗驗證。 ”

那麼,為什麼越來越多的人比以往任何時候都更相信這些想法?谷歌的人工智能研究員François Chollet 說:“不同的人出於不同的原因談論風險,他們的意思也可能不同。”但這是一種難以抗拒的敘述:“生存風險一直是一個好故事”。

“這其中有一種不容忽視的神話、近乎宗教的元素,”Whittaker。 “我認為我們需要認識到,鑑於所描述的內容沒有證據基礎,它更接近於一種信仰,一種宗教狂熱,而不是科學話語。”

末日論的傳染擴散

當深度學習研究人員第一次開始取得一系列成功時– 想想Hinton 和他的同事們在2012 年ImageNet 競賽中打破記錄的圖像識別分數,以及DeepMind 在2015 年首次以AlphaGo 戰勝人類冠軍時,炒作很快也變成了末日論。霍金和宇宙學家Martin Rees 等知名科學家,以及埃隆- 馬斯克等知名科技領袖,都發出了生存風險的警報。但這些人物並不是人工智能專家。

八年前,深度學習先驅、時任百度首席科學家吳恩達(Andrew Ng)站在聖何塞的講台上,對這個想法一笑置之。

“在遙遠的未來,可能會出現一場殺手機器人競賽,”吳恩達在2015 年Nvidia GPU 技術大會上告訴觀眾。 “但我今天並不致力於防止人工智能變得邪惡,就像我不擔心火星上人口過剩的問題。”(科技新聞網站The Register當時報導了吳恩達的這番話。)

吳恩達於2011 年共同創立了谷歌人工智能實驗室,現任Landing AI 首席執行官,他在此後在採訪中不斷重複著這句話。但現在的他不那麼樂觀了。 “我保持開放的態度,正在與一些人交談以了解更多信息,”他告訴我。 “快速的發展讓科學家們重新思考風險。”

和許多人一樣,吳恩達對生成式人工智能的快速發展及其被濫用的可能性表示擔憂。他指出,上個月,一個被廣泛傳播的由AI 生成的五角大樓的爆炸圖像嚇壞了人們,連著股票市場也跟著下跌。

“不幸的是,人工智能如此強大,它似乎也可能會導致巨大的問題,”吳恩達說。但他沒有談到殺手機器人:“現在,我仍然很難看到人工智能會如何導致我們的滅絕”。

與之前不同的是人們對人工智能能做什麼的廣泛認識。去年年底,ChatGPT 將這項技術推向了公眾。 “人工智能突然成為主流的熱門話題,”Chollet 說道。 “人們正在認真對待人工智能,因為他們將能力的突然飛躍視為未來更多飛躍的預兆。”

此外,與聊天機器人對話的經歷也會讓人感到不安。對話是一種通常被理解為人們與其他人一起做的事情。 Whittaker 說:“它為人工智能像人類或有感知能力的對話者這一想法增添了一種合理性。”“我認為這讓人們相信,如果人工智能可以模擬人類交流,它也可以做XYZ。”

“這就是我開始覺得關於生存風險的對話有些適合的原因– 在沒有證據的情況下進行推斷,”她說。

展望未來

我們有理由感到憤慨。隨著監管機構對科技行業的追趕,擺在桌面上的問題是什麼樣的活動應該或不應該受到限制。突出長期風險而不是短期危害(如歧視性僱用或錯誤信息),使監管者的注意力重新集中在未來的假想問題上。

Burrell 說:“我懷疑真正的監管限制的威脅已經推動人們採取了一種立場。談論生存風險可能會驗證監管者的擔憂,而不會破壞商業機會。”她說:“背叛人類的超級智能AI 聽起來很可怕,但這顯然也是尚未發生的事情。”

誇大對生存風險的擔憂在其他方面也有利於商業。 Chollet 指出,頂級人工智能公司需要我們認為AGI 即將到來,而他們就是建造AGI 的人。他說:“如果你想讓人們認為你正在研究的東西是強大的,那麼讓他們害怕它是一個好主意。”

Whittaker 也持類似觀點。她說:“把自己塑造成一個可能比人類更強大的實體的創造者是一件重要的事情。”

如果僅僅是營銷或炒作,這些都不重要。但決定什麼是風險,什麼不是風險,會有相應的後果。在一個預算和注意力有限的世界裡,沒有核戰爭那麼極端的傷害可能會被忽視,因為我們認為它們不是優先事項。

“這是一個重要的問題,尤其是在人們越來越關注安全和保障作為政策干預的狹窄框架的情況下,”AI Now 研究所的常務董事Sarah Myers West 說。

當首相Rishi Sunak 在5 月與包括Sam Altman 和Demis Hassabis 在內的人工智能公司負責人會面時,英國政府發表聲明說:“首相和首席執行官們討論了該技術的風險,從虛假信息和國家安全,到生存威脅”。

此前一周,Altman 告訴美國參議院,他最擔心的是人工智能產業會對世界造成重大傷害。 Altman 的證詞引發了人們對建立新型機構來解決這種前所未有的危害的呼聲。

隨著奧弗頓窗口的轉移,危害是否已經造成? “如果我們談論的是遙遠的未來,如果我們談論的是神話般的風險,那麼我們就完全把問題重塑為一個存在於幻想世界的問題,其解決方案也可以存在於幻想世界,”Whittaker 說。

但Whittaker 也指出,圍繞人工智能的政策討論已經持續了多年,比最近這種恐懼要長。 “我不相信必然性,”她說。 “我們將會看到這種炒作遭到反擊。它會消退的。”

展開全文打開碳鏈價值APP 查看更多精彩資訊

Total
0
Shares
Related Posts