獨家對話原蘋果首任AI總監:談AI威脅為時尚早,它們還無法感知世界


圖片來源:由無界AI工俱生成

ChatGPT的誕生,讓人們看到基於人工智能的大語言模型所展現出的驚人能力,大概是有史以來的第一次,通過自然語言的交互,人們真切感受到了人與機器之間,產生了微妙的理解關係,新一輪人工智能熱潮隨之而來。

ChatGPT所表現出的驚人的“理解力”,是否是真正意義上的機器意識覺醒?通用人工智能之路上,目前還有哪些障礙?人工智能威脅論是否言過其實?未來的人工智能發展將何去何從?帶著這些問題,騰訊新聞《潛望》近日獨家對話了卡耐基梅隆大學人工智能教授、前蘋果AI總監Ruslan Salakhutdinov。

Salakhutdinov師從圖靈獎得主、“深度學習之父” 杰弗裡·辛頓(Geoffrey Hinton),是剪枝、深度編碼等著名學習方法的提出者。 2016年,Salakhutdinov入職卡耐基梅隆大學,同年獲得英偉達人工智能先驅獎,並加入蘋果公司擔任首任AI研究總監。

作為一名人工智能領域的資深學者,Salakhutdinov在對話中表達了樂觀的態度。他表示,對這一輪AI所展現出的能力感到興奮,且並不認為人工智能目前的發展會對人類生存帶來威脅;他同時表示,大語言模型,雖然不一定是通用人工智能的唯一路徑,但卻是重要的基礎,這方面的進展為學術界探索通用人工智能提供了更多的啟發和信心。作為辛頓曾經的學生,他也對辛頓的擔憂表示了理解,但依然堅持了自己對AI更為樂觀的判斷。

以下為此次對話的文字實錄,內容有部分刪減:

大模型將為教育等領域帶來變革

騰訊新聞《潛望》:Salakhutdinov教授,感謝你今天接受我們的採訪。現在我們正處於一個非常複雜的世界,很多事情正在以每天、每小時的速度在快速發生變化,所以我們感到非常幸運能有機會在這裡真正討論一些我們關心的、非常重要的問題。首先讓我們談一談最近一段時間以來最熱的話題,ChatGPT。去年底ChatGPT在初次發布後,你的第一反應是什麼?

Russ Salakhutdinov:之前其實有GPT-2、GPT-3,我們有期待這些模型會越來越強大,但是當去年11 月份ChatGPT上線時,很多人都非常驚訝地看到它的運作效果非常驚人。

在大量數據上構建這些大型語言模型,不僅僅是可以問、可以回答特定問題,它還可以為你總結事情。我的很多朋友都在使用ChatGPT進行編程。如果在幾年前問我,今天能擁有這項技術嗎?我可能會回答說不會,所以這就是為什麼我認為這是一項了不起的技術,它也在很多不同的領域開闢了全新的機會。

騰訊新聞《潛望》:說到編程,這真的很棒,我之前沒有任何編程經驗,但我用ChatGPT並使用自然語言向它描述一些想要實現的目標,讓它幫助生成相應的代碼,它就真的幫我提供了可以執行的程序代碼。

Russ Salakhutdinov:是的,這是我看到很多人實際使用這些大型語言模型來幫助編程的領域之一,因為這些大模型背後,微軟和OpenAI基本上獲得了整個GitHub 存儲庫上的程序代碼,所以用戶在詢問代碼相關的問題時,語言模型會表現得非常好。未來我認為幾乎每個編程工具都會有一個大型語言模型能幫助你,這是一個會看到很多應用程序的領域。

騰訊新聞《潛望》:雖然我們可以直接感受到ChatGPT所展現出的驚人的能力,但對於許多人來說,他們依然並不完全了解人工智能行業內正在發生的事情,所以ChatGPT或者其他大語言模型,對於普通人來說,究竟意味著什麼?

Russ Salakhutdinov:首先這些模型是基於人們在過去20年裡一直在研究它們的深度學習技術,為ChatGPT或Bard 提供底層的模型來自谷歌,它是Transformer 架構。

但這對普通人意味著什麼,我認為我們將開始看到越來越多的你認識的人,通過自然語言與數據交互。

例如,我認為教育領域將會有很多機會,未來你將使用像ChatGPT或Bard 這樣的模型,它可以幫助你做作業,寫論文也是其中之一,ChatGPT可能可以寫出比你更好的論文,所以我認為我們會看到教育的變革。

例如,你的孩子在九年級、十年級,我們將有人工智能導師,他們將會針對每個人進行個性化輔導,你可以向它提出問題,它可以教你新的事物,向你解釋如何編寫代碼,或向你解釋一些數學術語,我認為該領域將在不久的將來迅速發展。

此外,我們今天與計算機交互的方式是,我們通常使用谷歌或百度來搜索信息,我認為這也會發生變化,因為將來交互將通過這些聊天機器人或語言模型進行,我可以向它提出問題,它會為我找到正確的信息,並給我想要的信息,這樣我就不必去網站上點擊並尋找正確的信息了。

騰訊新聞《潛望》:所以這就是為什麼谷歌現在感到非常焦慮的原因?

Russ Salakhutdinov:是的,但這些大型語言模型像ChatGPT目前並不完美,因為它們會產生“幻覺”,我們將來可以解決這個問題嗎?有些人認為我們無法解決這個問題,也許我們需要更長的時間,但無論如何,我認為我們與計算機的整個交互方式將會改變。

“我不認為我們處於需要擔心AI風險的階段”

騰訊新聞《潛望》:現在,我們也看到有很多圍繞AI發展的辯論,也有很多關於人工智能發展的擔憂,我們非常想知道你現在所處的立場。從人類未來的發展角度來看,你是更Optimism,還是更悲觀?

Russ Salakhutdinov:這是一個很好的問題。我認為現在人工智能研究領域中,基本上被分成兩個陣營,一個陣營認為,人工智能會給我們帶來很多傷害,甚至最終會威脅人類的生存,在未來成為人類的終結者。

另一個陣營認為,人工智能帶來這麼多機會和新東西,例如,醫療系統將會發生轉變,人工智能將幫助你設計新藥物,它還將幫助你獲取新信息,一切與人工智能相關的使用潛力如此之大,這將是一個光明的未來。

我屬於Optimism陣營,我不認為目前我們面臨人工智能所帶來的巨大風險,即使我的前導師杰弗裡·辛頓(Jeffery Hinton)真的相信人工智能的威脅。他是非常非常智能人,我不認為我遇到過任何比他更智能人,但我並不認為我們正處於需要擔心的階段。

我認為目前最大的擔憂之一是錯誤信息的傳播,例如今天我可以創建一個圖像,使用提示,我就可以輕易偽造某人的聲音,在不久的將來,我們能夠大規模生成這樣的視頻,成本極低,這對大多數人來說,分辨信息的真偽將是非常困難的,就像Photoshop 一樣。

以前這需要花很長時間才能完成,但現在有了這項技術,也許有人可以用我的聲音製作我的視頻,你可能以為你在和我說話,但可能只是一個人工智能在對你說話,所以很多人都有點擔心這個領域。現在問題是是否應該有法規,我們可以做什麼來防止這種情況發生。當然還有人對信息偏差提出了一些擔憂,很多模型都是在大量數據上進行訓練的,如果數據本身是非常糟糕的數據,模型將學習這些壞數據,但這些模型一無所知。

騰訊新聞《潛望》:是的,我們注意到你幾天前在個人推特上轉發了一幅《紐約客》的漫畫,這是一幅非常有趣的圖片,描繪的是機器人奴役人類,你評測“這張圖基本上描繪了我們所處的情況”,所以你認為這就是我們所面臨的未來嗎?

Russ Salakhutdinov:這是一個笑話,但如果你看看ChatGPT,這些模型本質上是通過訓練來預測或自動完成句子,從人類反饋中來對這些模型進行一些微調,但歸根結底,這些模型就是所謂的自回歸模型,它們一次預測一個單詞。雖然這些模型在自然語言理解方面表現得很好,但這些模型從未看過視頻,我的意思是,現在我們正在研究圖像和語言,但是它們仍然缺乏一些所謂的世界模型,即世界是如何運作的,物理是如何運作的,你如何知道我們是人類。我們了解世界,而這些模型是缺乏的,因為它們只能正確地看待文本,所以這就是這些模型可能會達到的一個能力上限,當然這並不意味著它們沒有用,它們在很多不同的領域都會非常有用,但至少我認為要比人類更聰明這還很遙遠。

騰訊新聞《潛望》:作為辛頓教授以前的學生,你能理解為什麼他如此擔心嗎?

Russ Salakhutdinov:是的,某種程度上我能理解他的擔憂。因為從人的角度來說,我們要不斷學習,大約需要二十年,然後你才開始在自己的領域變得非常聰明;但對於數字智能,因為這種大規模的分佈式訓練,它可以在幾天之內閱讀完整個互聯網的所有內容。

現在我們有數以萬計的GPU 在不停地獲取數據,所以他說,如果這種情況持續下去,我們擁有超級智力的可能性相當高,如果你有超級智力,那麼就會有與之相關的風險存在,這就是他提出的一個擔憂,這是一個合理的論點。我並不反駁它,但我只是不認為這些模型在文本上找到規律,並且由此形成決策來對抗人類,並且就像之前說的,它們缺乏對物理世界的感知。

真正的智能,需要與世界互動

騰訊新聞《潛望》:你剛剛提出了一個非常有趣的問題,我們現在還沒有完全實現通用人工智能,例如ChatGPT,它無法真正感知我們周圍的世界,只能識別基於文本的內容,所以你認為需要多長時間人工智能真的可以對我們所處的真實物理世界形成感知?

Russ Salakhutdinov:這是一個非常好的問題,我想我不知道這什麼時候會發生,我認為現在在工業研究或所謂的多模態模型方面有很多工作,模型不僅看文本,還看視頻的圖像,看你的圖像,知道語音, 我們周圍的一切, 問題是這些模型(所謂的基礎模型)能否從環境中學習並變得聰明。

目前大語言模型缺乏的是我們稱之為主動學習者,可以主動探索物理世界,就像我們現在基本上沒有可以為我們做飯的機器人,甚至還沒有可以自動駕駛的機器人,什麼時候會出現這種情況?

目前還很遠。要能夠建立真正的智能,你需要與世界互動,不僅僅是被動地觀察文本視頻,是實際上能夠互動。現在有很多這方面的研究正在進行,包括我自己的研究小組。我們建造了可以在你的房子周圍移動的機器人,它可以理解你房子裡的東西,或者與環境互動,但從技術上來說,我們距離目標還很遠,我們稱之為物理人工智能,而不是像ChatGPT這樣的大語言模型。

騰訊新聞《潛望》:在看到大語言模型所表現出的驚人的能力後,現在很多人都認為,目前大語言模型是最終達到通用人工智能(AGI) 的正確途徑,你同意這種觀點嗎?

Russ Salakhutdinov:通用人工智能基本上意味著,它是一個系統,不僅可以解決特定的任務,還可以解決許多不同的任務,我認為語言模型肯定是關鍵,它們將在構建通用人工智能方面發揮關鍵作用,但與此同時,我們達到目標的距離依然很遠。如果我們開始整合圖像視覺其他所有這些,也許我們真的可以開始構建越來越智能的東西。

騰訊新聞《潛望》:是不是例如波士頓動力等一些機器人公司,已經實現了部分功能?

Russ Salakhutdinov:目前我們所看到的波士頓動力的機器人,很大程度上還是基於控制理論,並沒有結合大語言模型。現在在卡耐基梅隆大學的一項研究工作,正在嘗試將ChatGPT 等大語言模型與機器人技術結合起來,ChatGPT可能會給你一個更高級的計劃任務,告訴你需要做什麼指令和機器人系統執行該計劃,來解決此任務。所以我認為,大型語言模型、不同模態、圖像、視頻、機器人技術的結合是該領域將要發展的地方,雖然它目前仍然是非常困難的。

對於波士頓動力公司來說,他們花了20 年的時間來建造這些機器人,但如果你讓機器人握起一杯水,那仍然是困難的,所以還有很多工作要做。我知道很多大型科技公司,比如穀歌、微軟、蘋果等,他們有興趣構建這些具體的代理,比如可以四處移動的機器人,比如一個幫助老年人的系統等。我們正在與很多這樣的公司合作。

騰訊新聞《潛望》:我發現另一個非常有趣的話題是,即使某些大型語言模型顯示出驚人的功能,而真正構建模型的人卻不知道這些功能是如何出現的,似乎有很多未知與已知的事物。所以你認為這種趨勢會持續下去,還是你認為將來相比未知,我們會有更多的已知?

Russ Salakhutdinov:這是一個非常好的問題,我認為現在人們對這些模型能夠完成的任務的效果感到驚訝,正是模型的數據規模使得這些模型工作得越來越好,但模型的能力可能會觸及到天花板,因為數據量有限。

我認為OpenAI 已經抓取了網絡上的所有內容,而谷歌也可能可以訪問網絡上的所有內容,因此我們可能需要開始開發更好的系統。現在這些模型也很難調試,例如它犯了錯誤,我們並不知道它為何會犯錯誤,因為這些是非常複雜的系統,就像當它產生“幻覺”時一樣,很難說為什麼會產生“幻覺”,所以這些模型缺乏一些黑匣子可解釋性,所以我認為這些系統的下一代,你會將某種規則集或某種約束納入這些模型中,以便它們總是產生事實上正確的示例答案。在這個領域確實有人在做工作,但現在大多數時候這些模型都是被我們稱之為一個小黑匣子,很難判斷裡面發生了什麼。

騰訊新聞《潛望》:就像你提到的那樣,如果我們耗盡了互聯網上所有可用的數據,接下來如果我們真的想讓人工智能的能力提升到一個新的水平,下一步重要的是什麼?

Russ Salakhutdinov:我相信人工智能係統的下一個演變,就像我們討論過的那樣,將是可以在物理世界中交互的代理,可以移動的機器人,可能是模擬的虛擬世界或物理世界。在人工智能的研究領域中,有一部分稱為主動學習,就像我們人類與物理世界的相互作用一樣,從中學習,我認為這種主動學習可能會成為人工智能的下一次迭代、下一次演變。

我認為下一個十年將是人工智能的黃金時代,你將開始看到越來越多的功能,也許更智能的模型,這是非常令人興奮的。

所以這就是傑夫·辛頓為什麼有理由產生擔憂。

但我目前還看不到人工智能係統將超越世界的階段,我認為它們目前還處在非常有用的階段,這些模型的下一個演變將是主動採取行動的模型,例如,你只需告訴他,我需要去看醫生,然後你的機器人會打電話給醫生,會找到預約日期,告訴你明天12 點要去看醫生,這就是對我們帶來實際的幫助。

蘋果在研發自己的大模型,且更重視數據隱私

騰訊新聞《潛望》:你之前曾在蘋果工作,在那裡領導人工智能研究,此前蘋果剛剛宣布了他們的Vision Pro,看起來蘋果對未來的願景和其他人不一樣,採取一種不一樣的路徑。你能結合之前在蘋果公司的經歷,談談你的理解嗎?

Russ Salakhutdinov:是的,我認為蘋果是這個領域的領導者,我也曾在蘋果工作過。你也知道Vision Pro,他們在ChatGPT 之前就已經在這方面工作了很長時間,當然蘋果也在研究這些大型語言模型,我確信他們也正在研究他們自己的ChatGPT之類的系統。 (注:在本文發布前一周,有消息稱,蘋果正在研發自己的大語言模型。)

Siri 和個人協助是蘋果產品的一個非常重要的部分,但我認為,巨大的虛擬現實是一個有趣的嘗試,但現在的問題之一仍然是你必須把這個東西戴在頭上,這與Meta的oculus是一樣的,蘋果顯然非常相信可穿戴設備,你的手錶、手機、耳機、平板電腦上的一切都是他們,他們想要集成。

當我在蘋果時,我聽說過這個項目。但我擔心的是,你仍然不喜歡在頭上戴東西,它會在你的額頭上留下痕跡。我的意思是,我確信他們會不斷改進,因為蘋果的一個特點是,他們真的在考慮集成軟件和硬件,這是非常非常強大的。

我知道蘋果肯定正在研究大語言模型,他們也在考慮如何將該技術應用到產品中,基本上我認為蘋果是唯一一家能夠將軟件和硬件方面結合得這麼好的公司,可以真正將產品交付到每一個用戶的面前,每個消費者都可以非常方便順利地使用。

騰訊新聞《潛望》:當蘋果第一次推出Siri 時,我想可能是在10 年前,當時人們對Siri所展現出的自然語言交互的能力感到非常驚訝,但經過這些年,現在看來, Siri卻有些過時了,依然只能完成非常簡單的任務,例如撥打電話、設置鬧鐘等,為什麼蘋果這些年沒有真正更新和增強Siri的功能?

Russ Salakhutdinov:我在2020年離開蘋果,即使在那個時候,我也認為谷歌有更好的語音識別能力,但蘋果的獨特之處在於,他們確實考慮到了隱私和個人數據保護的問題。

例如,當我詢問Siri一些信息時,信息保留在手機上並執行;而在使用谷歌相關的設備和服務時,例如,你問一些問題,谷歌手機就會將這些信息發送到谷歌云,然後返回到你的手機,而云上擁有更多的計算能力,你可以做更多的事情。所以這就像兩個完全不同的觀點,這就是為什麼我認為Siri 落後於谷歌,因為蘋果試圖在你的手機上做所有的事情。

在某種程度上,我認為未來人們會更信任蘋果設備,因為他們知道你的數據不會去某個地方,不會被人用來訓練他們的模型。現在,蘋果在構建這些大型語言模型時,他們也希望能夠在手機上構建它們,我認為是對的,所以他們必須在能夠處理的方面進行創新,因為ChatGPT 的工作方式就像參數模型中的多重性,它有很多參數,因此必須在雲上運行,必須運行許多GPU 來處理數據,你現在還不能在手機上做到這一點,所以這就是為什麼我認為蘋果他們試圖考慮新的硬件、新的芯片、新的設計,以便在個人設備上處理這些信息。

騰訊新聞《潛望》:所以從這個角度來看,蘋果在研發自己的大型語言模型方面,給自己設置了很多限制。

Russ Salakhutdinov:是的,但同時客戶確實信任蘋果,就像他們真正所宣稱的那樣,對隱私數據非常重視,所以我相信未來人們會比其他公司更信任他們。

OpenAI為何決定不開源?

騰訊新聞《潛望》:OpenAI現在是一家最受關注的公司,當Transformer架構在6、7年前提出時,為何OpenAI將大語言模型作為重點攻克的方向,並且現在一鳴驚人?

Russ Salakhutdinov:是的,事實上OpenAI的首席科學家之一是我的實驗室夥伴,他就坐在我旁邊,他是聯合創始人之一。 OpenAI在早期探索很多不同的東西,比如探索玩遊戲,我認為他們正在嘗試構建可以玩遊戲的代理,就像我正在做的那樣,他們嘗試了機器人技術,他們嘗試了很多不同的東西。

在某些時候,他們意識到通過語言應用存在潛力,他們最初使用Transformer,得到了回報。但對於OpenAI來說,要么創造出一些令人驚嘆的產品,要么就破產了。

他們基本上只是專注於這一件事,儘管底層架構是由谷歌開發的,谷歌內部也有一個名為Bard的模型,它本質上與ChatGPT相同,但可能表現沒有那麼好。

騰訊新聞《潛望》:所以現在他們決定不將模型開源,你認為他們正在做正確的事情嗎?

Russ Salakhutdinov:這是一個非常非常棘手的問題,OpenAI最初的使命是成為非營利組織,他們是要做開源的,但在他們開發GPT 3 模型的某個時刻,他們決定不開源它,因為他們認為人們可能會濫用該模型,他們可以生成很多假的文本或假的新聞,所以他們決定不開源。

OpenAI現在主要與微軟合作,所以他們開發的所有技術都會進入微軟的產品,微軟非常支持他們,因為這需要大量的計算、大量的GPU、大量的工程標記,才能完成這件事,微軟顯然不會開源它,因為它將成為產品的一部分,所以在這一點上我認為他們不會開源任何東西,因為他們必須盈利,他們必須生存。

但同時現在有很多項目,這些模型都是開源的,比如Meta 發布了LLama 模型,該模型是開源的技術,現在很多公司正在構建自己的模型,他們自己的語言模型。

騰訊新聞《潛望》:最近OpenAI的CEO Sam Altman進行了環球旅行,他見了很多歐洲的政客,還有到訪印度和韓國,呼籲人工智能安全和監管,很多人都說他現在看起來更像一個政客,你認為他這樣做的意圖是什麼?是為了呼籲國際社會對於人工智能更多的關注嗎?

Russ Salakhutdinov:是的,我認為他是一個非常理性的人,他的獨特之處在於,他在OpenAI沒有任何股權,他在OpenAI的商業成功中不會得到任何利益,我尊重他這一點,因為他並不是為了錢而嘗試做這些事。我認為他們正在做一些公共關係相關的事,為OpenAI建立品牌,希望人們在一切事物中使用它,這是品牌建設的一部分。

人工智能社區現在一次又一次地分裂,我們是否應該要求監管?如果我們不要求對這些發展的監管,有些人會採取極端的方式,他們說我們應該暫停,不要進行任何開發;有些人說不,我們應該繼續開發人工智能,構建技術,然後測試它。所以這是一個非常有趣的時刻,因為沒有人清楚地知道人工智能是否會超越世界並殺死我們,這只是很多不確定性,所以人們提出擔憂。但我認為也許提高一些關注是好的,因為這項技術將被社會普通人使用,所以更多的關注將了解這些系統可以做什麼。就像隱私一樣,例如我分享我的個人數據給ChatGPT, 我不知道這是好事還是壞事,但至少提高了人們對這些系統的認識。

我認為總的來說,這是一件好事,我個人認為我們不應該發布對人工智能發展的嚴格規定。

未來很多公司都有自己的專門模型

騰訊新聞《潛望》:我們可以看到中美的人工智能研發都令人興奮,但從初創公司的角度也有一些非常顯著的差異。在矽谷,我們看到很多人都在應用層做創新創業,而不去進行所謂大模型的研發,但在中國,很多公司說他們正在做自己的大型語言模型。為什麼會存在這樣的差異?

Russ Salakhutdinov:我認為未來許多公司都需要建立自己的大語言模型,原因是對於客戶來說,自己的數據是最重要的,所以需要建立自己數據的大模型,以便消費者可以更簡單的方式與我的數據進行交互。例如,彭博已經建立了基於自己的金融數據的GPT 模型。

我認為美國將成為關鍵參與者,你可能知道微軟、谷歌、亞馬遜將建立自己的模型,因為他們擁有自己的計算資源,或許在微軟或谷歌等的幫助下,也會有很多專門的模型,比如金融模型,製藥模型,每個行業都會建立自己的模型。如果我是一家金融公司,我不會將我的數據發送給OpenAI,它是私有的,是專有數據,這些信息進入OpenAI,然後它會傳給其他人,所以我認為很多大公司都會擁有自己的專門的模型。

當然會有像的微軟、谷歌、亞馬遜這樣的大玩家提供這些用於通用目的,但我覺得將來肯定會有很多專門的模型。

騰訊新聞《潛望》:對於一些像初創公司這樣的小公司來說,他們缺乏大量的計算能力,沒有像大公司那樣的資源,所以他們創業的方向是否應該專注於應用層面?

Russ Salakhutdinov:我認為這些大玩家與其他人的區別在於計算資源,因為它很昂貴。構建這些模型,比如像在5 萬個GPU 上訓練,將花費你5000 萬美元。所以對於一個初創公司,我認為未來可能會出現像LLama by meta 這樣的開源模型,你可以採用這個開源模型,然後你可以採用自己的數據,再進行微調。

我正在與硅谷的很多公司交談,這是很多人現在正在採取的方法,有很多初創公司正在嘗試減少計算量。

構建這些模型,使計算量只有大模型的十分之一,就像你可以在OpenAI中進行很多優化一樣,這樣使得訓練模型更便宜。如果我是一家製藥公司,我真的想要建立非常非常準確的模型,我的模型可以更小,不需要那麼多的計算,我可以採用這些開源的大型模型之一,並將其微調到我的特定領域,這就是未來可能發生的事情。

騰訊新聞《潛望》:現在行業除了關注大語言模型以及與其應用層相關的創新,還有其他值得探索的方向嗎?

Russ Salakhutdinov:大型語言模型是所謂基礎模型的一部分,基礎模型基本上是一個像Transformer一樣的模型,它建立在大量數據的基礎上,人們現在可以為機器人技術建立一個基礎模型,比如我的一個學生正在與英偉達合作,他試圖建立一個像GPT模型一樣的操縱模型,構建一個可以操縱任何類型物體的機器人,這是一個非常有趣的領域。

我們與英偉達合作,因為英偉達具備計算能力,但構建這個機器人仍然很困難,例如抓住我的iPhone,操縱和放置。除了大型語言模型之外,人們現在正在嘗試構建不同領域的基礎模型,比如視頻基礎模型能否也取得巨大成功。如果我想在抖音上創建一些東西,我只需執行提示,它就會為我創建一個視頻。

世界上最智能人都在研究AI

騰訊新聞《潛望》:你是否認為現在是你職業生涯中最激動人心的時刻?

Russ Salakhutdinov:到目前為止,我認為是這樣,同時也有一點太多了,讓人應接不暇。現在人工智能領域的博士生競爭也變得激烈,換做在今天我或許都無法申請到博士,因為我當時並沒有重要的論文發表。但現在就是這樣,甚至有時我會收到高中生的電子郵件,他們已經做了很多很出色的項目。

騰訊新聞《潛望》:這個地球上最智能一群人都來這個領域從事研究。

Russ Salakhutdinov:哦,是的,這真是太神奇了,就像我以前的一個學生楊植麟,他現在是清華大學的一名教授,他是我最智能學生之一,他實際上是建立了GPT 模型前身的人,是與穀歌和我們現在的學生聯合完成的,這真是太棒了。

騰訊新聞《潛望》:所以你認為現在這樣的情況,在未來將如何演變,是會變得越來越激動人心,還是可能會有所冷卻?

Russ Salakhutdinov:我當然希望未來會出現更多令人興奮的事,我總是想起2016 年的自動駕駛,當時我開始為蘋果工作,負責自動駕駛相關工作。 2016 年有很多令人興奮的事情,埃隆·馬斯克在特斯拉說兩年後我們將擁有自動駕駛汽車,我們從無到有很快就到了80%、 90%,然後我們就陷入了困境,91%,91.5%……

我只是擔心,在某些時候,我們是否會遇到天花板。因為自動駕駛汽車的進展非常快,但我們永遠無法達到100%的正確程度。

現在已經有很多人用ChatGPT做許多事情,有一個案例,一位律師用ChatGPT起草起訴書,其中引用的一些案例完全是編造的。這就是一個問題,現在人們還沒有到可以百分百信任的地步,所以我們依然必須小心這項技術,因為它還處於起步階段,但我認為這項技術具有巨大的潛力。

騰訊新聞《潛望》:你認為即使我們採取了非常謹慎的態度和方法,是否有可能有一天人工智能的發展依然變得不可控?

Russ Salakhutdinov:作為一名科學家,你必須始終為這些事件分配概率,你不能說它永遠不會發生,所以一定會有發生的概率,但我不認為現在會發生這種情況。好的方面是,現在已經有很多人工智能的子社區,致力於人工智能安全的研究,他們的工作是讓人工智能研發不要犯愚蠢的錯誤。我不相信人工智能突然某一天情況會變得非常糟糕,但也許我可能是錯的,所以這就是為什麼在我們的社區中發出各種聲音是好事,就像傑夫·辛頓和約書亞一樣,他們確實發出了警報。但我認為大多數人工智能研究人員至少現在不這麼認為,但是同時,也有研究人員在人工智能安全領域做研究是件好事,以防萬一如果發生這種情況,我們會知道該怎麼做。

騰訊新聞《潛望》:當辛頓教授宣布離開谷歌時,你是否對他的舉動感到驚訝?

Russ Salakhutdinov:在過去的幾年裡,他一直在谷歌兼職,所以現在他決定離開,基本上是想說話。他應該是在考慮我所說的內容,將如何影響我所工作的公司。

我認為谷歌是實際上為數不多的正確做事的公司,他們對人工智能採取非常謹慎的態度,沒有做任何瘋狂的事情,他們實際上是非常好的公司,試圖做正確的事。

我想,他並不是因為想說什麼遭到了谷歌的阻止而不得不離開谷歌。傑夫是我的導師,他可能是我擁有的最好的導師,他給了我很多自由和探索,他真的非常聰明。因為他並不是在框架中思考,他的思考超出了之前的框架,這就是你所知道的。

我很幸運,他是讓我進入深度學習領域的人,也是他讓我進入博士項目,我當時沒有想過要攻讀博士學位,而是在考慮其他職業,但他有一天早上抓住我,帶我去他的辦公室,向我展示了這些深度學習類型的算法,然後我說,哇,這非常有趣,好吧,我要去讀博士。

騰訊新聞《潛望》:這是一個有趣的故事,謝謝你與我們分享,通過今天的採訪,我可以感受到你作為AI研究者的興奮。感謝接受我們的採訪

資訊來源:由0x資訊編譯自8BTC。版權歸作者所有,未經許可,不得轉載

Total
0
Shares
Related Posts