專訪“AI 教父”Geoffrey Hinton:為什麼我開始害怕自己所建立的技術


撰文:Will Douglas Heaven

來源:麻省理工科技評測

就在杰弗裡– 辛頓(Geoffrey Hinton)宣布退出谷歌這一重磅消息的四天前,我在倫敦北部一條街道的房子裡見到了他。辛頓是深度學習的先驅,他幫助開發了現代人工智能核心的一些最重要的技術,但在谷歌工作了十年後,他選擇辭職,專注於他目前對人工智能的新關注。

被GPT-4 等新的大型語言模型的能力所震驚,辛頓希望提高公眾對他現在認為可能伴隨其開創技術的嚴重風險的認識。

在我們的談話開始時,我在廚房的桌子旁坐下來,辛頓開始踱步。多年來因慢性背痛的困擾,他幾乎從不坐下。在接下來的一個小時裡,我看著他從房間的一端走到另一端,我注視著他。他有很多話要說。

這位75 歲的計算機科學家因其在深度學習方面的工作,與Yann LeCun 和Yoshua Bengio 共同獲得了2018 年圖靈獎,他說他已經準備好轉變方向。 “我太老了,無法從事需要記住大量細節的技術工作,”他告訴我。 “我還好,但已大不如前,這令人煩惱。”

但這並不是他離開谷歌的唯一原因。辛頓想把時間花在他所說的“更多哲學工作”上,一個微小但對他而言非常真實的危險上,即人工智能將變成一場災難。

離開谷歌可以讓他暢所欲言,而不用像谷歌高管那樣必須進行自我審查。他說:“我想談論人工智能的安全問題,而不必擔心與穀歌業務的關聯。”“只要谷歌付我薪酬,我就不能這麼做。”

當然,這並不意味著辛頓對谷歌有任何不滿意。 “這可能會讓你大吃一驚,”他說。 “我想傳達很多關於Google 的優點,但如果我不在Google 了,它們會更可信。”

辛頓說,新一代的大型語言模型— 特別是OpenAI 在3 月發布的GPT-4– 讓他意識到,機器正朝著比他想像的要聰明得多的方向發展。而他對這一情況可能發生的事情感到害怕。

“這些東西與我們完全不同,”他說。 “有時我覺得這就像外星人登陸了,而人們卻沒有意識到,因為他們的英語說得很好。”

基石

辛頓最出名的是他在1980 年代(與兩位同事)提出的一種叫做反向傳播的技術。簡而言之,這是一種允許機器學習的算法。它支撐著今天幾乎所有的神經網絡,從計算機視覺系統到大型語言模型。

直到2010 年代,通過反向傳播訓練的神經網絡的力量才真正產生了影響。辛頓與幾個研究生合作,表明該技術在讓計算機識別圖像中的物體方面比其他任何技術都好。此外,他們還訓練了一個神經網絡來預測一個句子中的下一個字母,這也是今天大型語言模型的前身。

其中一名研究生是Ilya Sutskever,他後來共同創立了OpenAI 並領導了ChatGPT 的開發。辛頓說:“我們最初意識到,這種東西可能會很神奇。”“但人們花了很長時間才意識到,這需要大規模進行才能取得成功。”早在20 世紀80 年代,神經網絡就是個笑話。當時的主流觀點是符號人工智能,即智能涉及處理符號,如文字或數字。

但辛頓並不相信。他研究了神經網絡,即大腦的軟件抽象,其中的神經元和它們之間的連接由代碼表示。通過改變這些神經元的連接方式— 改變用來表示它們的數字— 神經網絡可以在飛行中重新接線。換句話說,它可以被用來學習。

“我父親是一名生物學家,所以我從生物學的角度思考問題,”辛頓說。 “而符號推理顯然不是生物智能的核心。”

“烏鴉可以解決難題,但它們沒有語言。它們不是通過存儲符號串並操縱它們來完成的。它們是通過改變大腦中神經元之間的連接強度來實現的。因此,通過改變人工神經網絡中的連接強度來學習複雜的東西是可能的。”

一種新的智能

40 年來,辛頓一直將人工神經網絡視為模仿生物神經網絡的拙劣嘗試。現在他認為情況發生了變化:他認為,在試圖模仿生物大腦的過程中,我們已經想出了更好的辦法。他說:“當你看到這一點時是很可怕的。”“這是一個突然的超越。”

辛頓的擔心會讓很多人覺得是科幻小說的內容。但他是這樣思考的。

正如它們的名字所示,大型語言模型是由具有大量連接的大規模神經網絡製成的。但與大腦相比,它們是微小的。 “我們的大腦有100 萬億個連接,”辛頓說。 “大型語言模型最多只有5000 億,最多一萬億。然而,GPT-4 的知識比任何人都多數百倍。所以也許它實際上有比我們更好的學習算法。”

與大腦相比,人們普遍認為神經網絡不善於學習:需要大量的數據和能量來訓練它們。另一方面,大腦可以迅速掌握新的想法和技能,使用的能量只有神經網絡的一小部分。

“人們似乎擁有某種魔力,”辛頓說。 “但只要你把這些大型語言模型中的一個拿出來,並訓練它做一些新的事情,這個論點就會不成立。它可以極快地學習新的任務。”

辛頓指的是“少樣本學習”,在這種情況下,經過預訓練的神經網絡,如大型語言模型,只需給幾個例子就可以訓練它做一些新事情。例如,他指出,其中一些語言模型可以將一系列的邏輯語句串成一個論點,即使它們從未接受過直接這麼做的訓練。

他說,在學習這樣一項任務的速度上,將預先訓練好的大型語言模型與人類進行比較,人類毫無優勢。

大型語言模型製造了這麼多東西,這又是怎麼回事?人工智能研究人員將其稱為“幻覺”(儘管辛頓更喜歡“虛構”一詞,因為它是心理學的正確術語),這些錯誤通常被視為技術的致命缺陷。產生這些錯誤的趨勢使聊天機器人變得不可信,而且,許多人認為,這表明這些模型沒有真正理解他們所說的話。

對此,辛頓的答案是:胡說八道是一個特點,而不是一個錯誤。 “人們總是在虛構,”他說。半真半假和錯誤記憶的細節是人類談話的標誌:“虛構是人類記憶的標誌。這些模型所做的與人一樣”

辛頓說,不同之處在於人類通常或多或少會正確地構思。對他來說,編造東西不是問題。計算機只需要多一點練習。

我們還期望計算機要么對,要么錯,而不是介於兩者之間。 “我們不期望它們像人一樣喋喋不休,”辛頓說。 “當一台計算機這麼做時,我們認為它犯了錯誤。但換成人類,這就是人們工作的方式。問題是大多數人對人類的工作方式有著無可奈何的錯誤看法。”

當然,大腦仍然比計算機做得更好:駕駛汽車、學習走路、想像未來。而且大腦可以靠一杯咖啡和一片吐司上完成這些任務。他說:“當生物智能在進化時,它無法使用核電站。”

但辛頓的觀點是,如果我們願意支付更高的計算成本,有一些關鍵的方法可以讓神經網絡在學習方面擊敗生物。 (值得停下來考慮一下這些成本在能源和碳方面意味著什麼)。

學習只是辛頓論證的第一條線。第二條是交易所。他說:“如果你或我學到了一些東西,並想把這些知識傳授給其他人,我們不能只是給他們發送一份副本。”“但我可以有一萬個神經網絡,每個都有自己的經驗,它們中的任何一個都可以立即分享它們所學到的東西。這是巨大的區別。就好像我們有一萬個人,只要有一個人學到了什麼,我們所有人就都會知道。”

所有這些加起來是什麼?辛頓現在認為世界上有兩種類型的智能:動物大腦和神經網絡。 “這是一種完全不同的智能形式,”他說。 “一種新的、更好的智能形式。”

這是一個巨大的主張。人工智能是一個兩極分化的領域:嘲笑的人大有所在,而同意的人也比比皆是。

對於這種新型智能(如果存在)的後果是有益的還是災難性的,人們也存在分歧。他說:“你認為超級智能是好是壞在很大程度上取決於你是一個Optimism者還是一個悲觀主義者。”“如果你讓人們估計壞事發生的風險,比如你家裡有人得重病或被車撞的機率是多少,Optimism者可能會說5%,悲觀主義者可能會說100%。而輕度抑鬱症患者會說機率可能在40% 左右,而且他們通常是對的”。

辛頓是哪種人? “我有輕微的抑鬱症,”他說。 “這就是為什麼我很害怕的原因。”

為什麼會出錯

辛頓擔心,這些工具能夠找出方法來操縱或殺死那些沒有為新技術做好準備的人。

“我突然改變了對這些東西是否會比我們更智能看法。”他說:“我認為它們現在已經非常接近了,它們在未來會比我們更聰明。”“我們如何在這種情況下生存?”

他特別擔心,人們可以利用他親自註入生命的工具來傾斜一些最重要的人類經歷的天平,特別是選舉和戰爭。

辛頓認為,智能機器的下一步是有能力創建自己的子目標,即執行一項任務所需的臨時步驟。他問道,當這種能力被應用於本質上不道德的東西時會發生什麼?

目前,已經有一些實驗性項目,如BabyAGI 和AutoGPT,將聊天機器人與其他程序(如網絡瀏覽器或文字處理器)連接起來,使它們能夠將簡單的任務串聯起來。當然,這些步驟很微小,但它們預示著一些人想把這項技術帶入的方向。辛頓說,即使壞人沒有奪取機器,子目標也存在其他問題。

“好吧,這裡有一個幾乎總是對生物學有幫助的子目標:獲得更多能量。因此,可能發生的第一件事就是這些機器人會說,’讓我們獲得更多能量吧。讓我們將所有電力重新路由到我的芯片。’另一個重要的子目標是複制更多的自己。聽起來如何?”

Meta 公司的首席人工智能科學家Yann LeCun 同意這個前提,但並不同意Hinton 的擔心。 LeCun 說:“毫無疑問,機器將在未來變得比人類更聰明— 在所有人類智能的領域。”“這是一個關於何時和如何的問題,而不是一個關於是否的問題。”

但他對事情的發展方向有完全不同的看法。 ”我相信,智能機器將為人類帶來新的複興,一個新的啟蒙時代,“LeCun 說。 “我完全不同意機器會僅僅因為更聰明就統治人類的想法,更不用說毀滅人類了。”

“即使在人類中,我們當中最智能人也不是最有統治力的人,”LeCun 說。 “最有統治力的人絕對不是最智能。我們在政界和商界有無數這樣的例子。”

蒙特利爾大學教授、蒙特利爾學習算法研究所科學主任Yoshua Bengio 覺得更不可知。他說:“我聽到有人詆毀這些恐懼,但我沒有看到任何堅實的論據能讓我相信不存在Geoff 認為的那種規模的風險。但是,恐懼只有在促使我們採取行動時才是有用的,”他說:“過度的恐懼可能會使人癱瘓,所以我們應該嘗試將辯論保持在理性的水平上。”

向上看

辛頓的首要任務之一是嘗試與技術行業的領導者合作,看看他們是否能夠走到一起,就有哪些風險以及如何應對這些風險達成一致。他認為化學武器的國際禁令可能是如何著手遏制危險人工智能的開發和使用的一種模式。 “這並非萬無一失,但總的來說人們不使用化學武器,”他說。

Bengio 同意辛頓的觀點,即這些問題需要盡快在社會層面上解決。但他表示,人工智能的發展速度超過了社會能夠跟上的速度。這項技術的能力每隔幾個月就會躍進一次;而立法、監管和國際條約則需要幾年時間。

這讓Bengio 懷疑,我們社會目前的組織方式— 在國家和全球層面— 是否能夠應對挑戰。 “我相信我們應該對我們星球的社會組織採用完全不同的模式的可能性持開放態度,”他說。

辛頓真的認為他能讓足夠多的當權者分享他的關注嗎?他不知道。幾週前,他看了部電影《不要抬頭》(Don’t Look Up),其中一顆小行星向地球撞去,但沒有人能就如何應對達成一致,最後每個人都死了。

他說:“我認為人工智能也是如此,其他難以解決的大問題也是如此。”他說:“美國甚至不能同意將突擊步槍從十幾歲的男孩手中拿走。”

辛頓的論點令人警醒。我贊同他對人們在面臨嚴重威脅時集體無法採取行動的悲觀評估。同樣真實的是,人工智能有可能造成真正的傷害— 破壞就業市場,加劇不平等,使性別歧視和種族主義惡化等等。我們需要關注這些問題。但我仍然無法從大型語言模型跳到機器人霸主。也許我是個Optimism者。

辛頓送我出來時,天已經變得灰暗潮濕。 “好好享受吧,因為你可能沒剩多少時間了,”他說。他笑了笑,關上了門。

資訊來源:由0x資訊編譯自8BTC。版權歸作者所有,未經許可,不得轉載

Total
0
Shares
Related Posts