75歲Hinton再次警告:AI可能會超越人類


原文來源:新智元

圖片來源:由無界AI生成

10月9日,Hinton面對《60分鐘》的採訪,再次表示了對人工智慧可能超越人類的擔憂。

但早在今年5月,「人工智慧教父」Geoffrey Hinton為了能自由談論人工智慧的風險,宣布了從Google離職。

之後,Hinton在各種公開場合中都表達了對人工智慧風險的擔憂。

在一次訪談中,Hinton甚至表示:「我對自己的畢生工作,感到非常後悔」。

而在如火如荼的人工智慧井噴之年,人們已經難以停下衝鋒的步伐。

雖然在今年3月底,有數千名技術領袖簽署了呼籲暫停開發比GPT-4更強大的人工智慧的聯名書。

但在9月24日的YC校友分享會上,Altman透露了OpenAI的下一代大模型GPT-5和GPT-6的消息。

同時,作為開源社群的領導者Meta,也不斷發展新的大模型。在7月,發布了在各項性能都得到提升,水平接近ChatGPT的Llama 2。

隨著大模型性能的不斷提升,安全隱患和威脅的陰影始終如一達摩克里斯之劍懸掛在人類頭頂。

有人認為擔心人工智慧的風險還為時過早,如Meta的首席科學家、同樣是圖靈獎得主的Hinton的弟子Yann LeCun多次表示,人們誇大了人工智慧的風險。

但也有一些人堅持,「與生存相關的風險,如何重視都是不為過的」。

Hinton便是其中之一。

Hinton:AI超越人類的可能性

在與《連線》的記者對話時,Hinton從以下幾個方面表達了對人工智慧風險的擔憂。

首先是人工智慧的智慧的不斷增長。

Hinton認為,我們正在進入這樣一個時代:人工智慧正變得比人類更聰明,它們能夠根據自身經驗和理解來做出決定。

雖然圖靈獎得主Bengio等用88頁論證了人工智慧目前還不具備意識,但不論是Bengio還是Hinton,都認為未來人工智慧可能發展出自我意識。

未來人工智慧將取代人類,成為地球上智商最高的存在。

決定模型智能的是學習的能力,Hinton解釋了人工智慧的學習過程。

人工智慧能夠進行學習,是因為人類設計了相應演算法,但模型因此產生的神經網路是複雜的,並不完全為人所知。

這個過程被Hinton比喻為設計進化的原理,他承認隨著人工智慧對更複雜任務的處理,其內部運作對於人類而言將會變得越來越神秘、且不可知。

此外,Hinton也表示了對人工智慧系統會自己編寫程式碼來修改自己的擔心,這可能會導致人類對人工智慧失去控制。

除了人工智慧的失控風險,Hinton也討論了人工智慧操縱人類的風險,指出了在自主戰場機器人、假新聞和就業偏見等領域的潛在後果。

但比這些更糟的是,Hinton強調了圍繞人工智慧的不確定性,以及在未知領域航行所面臨的挑戰。

「我們正在進入一個非常不確定的時期,我們正在處理以前從未做過的事情。通常,當你第一次處理一些完全新奇的事情時,你肯定會犯錯。但我們不能在這些事情上犯錯。」

但Hinton也肯定了人工智慧的貢獻。

隨著人工智慧在現實世界中各種落地應用,在辦公室、科學發現、醫療等方面都大大提升了人類的效率。

Hinton特別強調了人工智慧在醫療保健領域的巨大優勢,尤其是醫學影像辨識和藥物設計等,任務谷歌DeepMind推出的Alpha Fold是一個絕佳的例證。

Hinton對人工智慧在這一領域的正面影響表示樂觀。

對於人工智慧的未來,Hinton雖然沒有預言人工智慧一定會超越人類,但他承認了這將是我們可能的未來。

因此,Hinton一直敦促面對人工智慧發展的潛力,人類對自身的安全進行必要的保護措施。

其他對人工智慧風險的擔憂

在此之前,紐約大學教授馬庫斯也表達了相同的擔憂。

「是人類快要滅亡了比較重要,還是編碼更快、跟機器人聊天更重要?」

馬庫斯認為,雖然AGI還太遙遠,但LLM已經很危險了,而最危險的是,現在AI已經在給各種犯罪行為提供便利了。

「在這個時代,我們每天都要自問,我們究竟想要什麼類型的AI,有的時候走慢一點未嘗不好,因為我們的每一小步都會對未來產生深遠的影響。」

ChatGPT之父、OpenAI CEO Sam Altman也曾公開表示,超級智慧AI的風險可能遠遠超出我們的預料。

在技​​術研究員Lex Fridman的播客中,Altman對高階人工智慧的潛在危險發出了預警。

他表示自己最擔心的是,AI造成的假訊息問題,以及經濟上的衝擊,以及其他還沒出現的種種問題,這些危害可能遠遠超過了人類能應付的程度。

他提出了這樣一種可能性:大語言模型可以影響、甚至是主宰社群媒體使用者的體驗和互動。

「打個比方,我們怎麼會知道,大語言模型沒有在推特上指揮大家的思想流動呢?」

Altman說,「我認為,身為OpenAI,我們有責任為我們向世界推出的工具負責。」

「AI工具將為人類帶來巨大的好處,但是,你知道的,工具既有好處也有壞處,」他補充道。 「我們會把壞處降到最低,把好處最大化。」

雖然GPT-4模型很了不起,但認識到人工智慧的局限性並避免將其擬人化也很重要。

同樣地,對於「AI消滅人類」這個問題,比爾蓋茲也已經憂心多年了。

很多年來,蓋茲一直表示,人工智慧技術變得過於強大,甚至可能引發戰爭或被用來製造武器。

他聲稱,不僅現實生活中的「007反派」可能利用它來操縱世界大國,而且人工智慧本身也可能失控,對人類造成極大威脅。

在他看來,當超級智慧被開發出來,它的思考速度會遠遠追趕人類。

它能做到人腦所能做的一切,最可怕的是,它的記憶記憶體大小和運行速度根本不受限。

這些被稱為「超級」AI的實體可能會設定自己的目標,不知道會做什麼。

而大眾也開始發出自己的聲音。

面對大公司之間的大模型「軍備競賽」,Meta因為向公眾開放了Llama 2的模型權重而遭到了公民抗議。

大眾擔心Meta這項釋放模型權重的策略,可以讓任何人都能依照自身利益修改模型。

同時,因為權重的開放,意味著其他人無法召回這些的模型。這對利用大模型來實施網路犯罪幾乎提供了無限制的生長土壤。

現在,對於全人類來說,似乎「to be,or not to be」已成為了迫在眉睫、不得不面對的問題。

參考資料:

‘Godfather of AI’ fears technology could one day take over humanity

資訊來源:由0x資訊編譯自8BTC。版權所有,未經許可,不得轉載

Total
0
Shares
Related Posts