來源:騰訊科技
自2023年初,ChatGPT讓世人陷入AI狂熱之中。隨著GPT4亮相,它湧現出的種種強大能力讓人們覺得,只要再過幾年時間,AI將成為無所不能的存在。
但基於大語言模型Transformer範式的AI上限到底在哪裡?它是否能真的完全取代我們?這些問題曾經有過很多答案。有人認為大語言模型將帶來一個新的時代,它距離能夠完成所有人類工作的人工智能非常接近;但也有人認為它不過是隨機鸚鵡,根本無法理解這個世界。目前,不論哪一方觀點都缺乏足夠的闡釋和成型的體系。
為了讓人們更全面地看清楚這個問題,中科院外籍院士約瑟夫·希發基思寫下了《理解和改變世界》,從認知原理的角度闡述了他長達幾十年對於人工智能通向AGI的潛在道路的思考。約瑟夫·希發基思早於Hinton等人十年就已獲得圖靈獎,這次他非常清晰地從認知原理的角度闡述了他對於“人工智能的能與不能”,“通向AGI的潛在道路和風險”長達幾十年的思考。
丨劃重點
1、人和人工智能是互補的,而非互相替代的關係。人類擁有的常識知識和形成模型的抽象能力,這是當前範式的人工智能無法做到的,因此它們也不可能形成原理性的創新。而人工智能是可以在不掌握原理的情況下,對於可能存在大量變量的複雜事物進行預測。這是人因為認知能力限製而無法達到的,這被希發基思稱為“AI神諭”,它可能帶來一種“新的科學”。 2、AI會帶來的最大威脅是人類對它的依賴可能導致我們無限讓渡自己的判斷,喪失決策權,最終成為“奴隸的奴隸“。為避免這一點,人類必須能夠掌握知識的發展、應用的所有過程,確保不會讓這些機器自身為我們做出關鍵決策。 3、根據能力互補的情況,對於人類來說,最好的未來情景是機器和人類之間達成一種和諧合作,並通過這種合作達成新的繁榮。在這個過程中,社會必須以人類生活的改善為目標發展並應用技術。
01當前的AI離AGI還很遠
騰訊科技:ChatGPT的出現對人工智能意味著什麼?它是一個新的範式,還是更多的是一個已有範式特定的應用?
約瑟夫·希發基思:我認為,ChatGPT和其他語言模型的出現是人工智能發展的重要一步。事實上,我們經歷了一個範式轉變,使得幾乎任何自然語言查詢都可以得到回應,並且通常是和問題非常相關的回答。大語言模型解決了長期懸而未決的自然語言處理問題。這是一個研究者們幾十年來一直未能成功的領域,傳統的方法是像徵學派的方法,這一學派通過分離語言的語法和語義來構建人工智能的規則。
而現在,大語言模型採用了不同的方法,他們認為一個詞的含義是由其所有使用上下文定義的。他們使用機器學習來執行概率分佈的計算。對於單詞,這個概率分佈被用來預測在一個句子中最可能出現的下一個單詞。這是一個非常簡單但有效的方法。它有點天真,但證明它非常適合概括文本。當然,它採用的解決方案的性質也決定了它的局限性。語言模型非常適合創建一些文本的摘要,甚至寫詩。如果你讓它對20世紀中國歷史進行摘要,它可以做得非常好。但另一方面,如果你問一些非常精確的問題或解決一些非常簡單的邏輯問題,它可能會出錯。我們可以理解這一點,因為這類問題無關上下文的模型,因此,我們無法檢查文本的連貫性和它提供的答案。
騰訊科技:現在出現了很多新技術,例如邏輯樹(LOT),它們可以幫助機器自我指導了解邏輯過程。現在,大語言模型正在訓練自己開發更具體或更複雜的邏輯過程。在神經網絡中都有很多層,層級越高,理解越抽象。如果在這些層級較高的神經元可能存在一些像模型或對世界的結構性理解的東西,這是可能的嗎?
約瑟夫·希發基思:在我的書中,我解釋了人類和機器開發和應用不同類型的知識。根據知識的有效程度和普遍性,這些知識使人類和機器能夠解決不同類型的問題。一個重要的區別是“科學和技術知識“與“通過學習獲得的隱式經驗知識“之間的區別。例如,當我說話、走路時,我的大腦實際上解決了非常困難的問題,但我並不理解它們的工作原理,而神經網絡產生了同樣的隱式經驗知識,使我們能夠解決問題,而不必理解它們的工作原理。
這就是我們所說的基於數據或數據驅動的知識。相反,科學和技術知識是基於使用提供物體、構件的物理現象的深入理解的數學模型,這是是非常重要的。例如,當你建造一座橋時,(根據其原理)你可以確信這座橋在未來幾個世紀內不會倒塌。但是,對於神經網絡來說,我們可以得出某種預測,但我們不理解它們的工作原理,構建解釋神經網絡行為的理論是不可能的。這一特性使得大語言模型在沒有人類參與的關鍵應用中存在嚴重的限制。
問題是這些GPT-LM系統是否能達到人類水平的智能。這是問題所在。我認為關於智能是什麼,以及如何實現智能存在很多混淆。因為如果我們對智能沒有明確的概念,就無法發展關於智能如何工作的理論,也無法清楚地界定智能。
而當今存在著很多混亂。最近,我寫了一篇論文討論這個問題。事實上,如果你打開字典,比如牛津詞典,你會看到智能被定義為學習、理解和思考世界的能力,以及實現目標和有目的行動的能力。
機器可以做出令人印象深刻的事情。它們在遊戲中可以超越人類。它們能夠執行各種任務。最近也取得了巨大的成就。它們可以執行感官能力相關的任務,比如視覺識別。然而,當涉及到情境感知、環境變化的適應和創造性思維時,機器無法超越人類。很簡單,GPT非常擅長於翻譯自然語言,但它無法駕駛汽車。你不能用GPT來駕駛汽車。這之間仍然存在很大的差距。我認為我們還有很長的路要走。今天我們只有弱人工智能,我們只有通用智能的一些組件。我們需要更多的東西。
我認為朝著通用智能邁出的重要一步將是自主系統。這個概念現在已經很清楚了,自主系統是由進一步自動化現有組織的需求產生的,通過用自主代理取代人類,這也是物聯網所設想的。事實上,我們談論的是自動駕駛汽車、智能電網、智能工廠、智能農場、更智能的電信網絡。這些系統與弱人工智能存在很大的區別,因為這些系統由代理組成,它們受到實時約束,必須處理許多不同的目標。這些目標涉及許多不同領域的行動和活動的變化,而GPT在這方面並不擅長,它擅長於處理自然語言和文檔的轉換。此外,我們還需要能夠與人類代理和諧合作的系統。所有這些對於其他語言模型來說是不可能的。所以我們離人工通用智能還相當遙遠。當然,一切還是歸結到我們究竟認為什麼是智能的問題上,因為如果智能被定義為僅僅是對話和遊戲,那麼我們已經達到了人工通用智能,但我不同意這個定義。
騰訊科技:智能過往的標準測試是圖靈測試。很明顯在對話方面GPT已經通過了圖靈測試,但它並非是自主的智能。在這種情況下,我們如何判斷AI的智能程度?
約瑟夫·希發基思:我最近寫了一篇論文,論證圖靈測試是不夠的。我提出了另一個測試,我稱之為替代測試。實際上,這個想法是,如果我可以用一台機器替代執行任務的另一個代理,那麼我會說這個代理和執行任務的代理一樣聰明。如果我可以將機器代替人類駕駛汽車、教人類或成為一名優秀的外科醫生,那麼我會說機器和人類一樣聰明。
因此,如果採用這個定義,替代測試,你會認為人類的智能實際上是一種技能的組合。這樣說你明白我們離通用智能有多遠了嗎?在這個替代測試中,有些行為可能必須由機器,比如機器人來完成。當你想做園藝工作時,你需要一台機器人來完成。 GPT只是一個語言模型,它並不包含這些機器人部分。
騰訊科技:根據你的定義,只有當計算和系統可以自動執行大量文本並適應不斷變化的環境時,我們才能看到人工智能和人類智能之間的差距消失。而且現在比如AutoGPT或Baby AGI這種應用可以將任務分成不同的步驟,並試圖通過不同的過程實現任務的目標。它在某種程度上相當自動化。你認為在這個過程中,它是否更接近了AGI?
約瑟夫·希發基思:這裡有很多問題,包括系統工程的問題。僅僅擁有一個超級智能代理是不夠的,因為你還必須保證可以解釋它的行為。這也是我在我的論文中廣泛討論的一個問題,就是大家都在談論的可解釋人工智能或安全人工智能的問題。
人們不理解的是,對於神經網絡來說,我們是無法理解它們的行為的。顯然你無法解釋為什麼它會做出如此輸出,因為你不能有一個數學模型來描述它們的行為。當然,我們完全理解神經網絡的每個節點的數學函數是怎麼計算的。它就是輸入的線性組合,加上一些非線性函數,所以我們可以理解每一個節點的行為。但是當我們試圖理解整個神經網絡的湧現屬性時,我們會感到絕望。但這不是一個特定於人工智能的問題,這是科學中的一個普遍問題。
你不能僅僅從氧Atom和氫Atom的性質來推斷水的性質。即使你完全理解這一點,還有一個尺度和復雜性的問題。這是令人絕望的點。我們無法用技術組合的邏輯或還原論的方法來通過神經網絡中元素的行為去理解它的整體行為。所以我們唯一能應用於神經網絡的方法是測試,因為我們無法驗證它的行為,也沒法通過推理理解它。但是如果只應用測試,這意味著你採用了一種純粹的實驗方法,而非理論理解。所以你實際上能夠測試的內容類型會變的很不同:例如,你無法測試整體性的安全問題,因為你無法分析整體行為。但你可以防禦性的進行安全測試。
我們一直將測試應用於硬件和軟件。但是為了進行測試,你得有測試應該持續的時間的標準。對於硬件和軟件,我們有模型和覆蓋標準。但對於神經網絡來說,我們沒有這種標準。我不是說這是一個非常難解決的問題,對於神經網絡來說,我們有一些備選的可能,比如說是對抗性樣本。但這些操作會破壞它們行為中的某種魯棒性。所以你看,如果我問你一個問題,你會給出一個答案。如果我稍微修改你的問題,如果你是個人類的話,你會給出一些類似的答案。但我們知道,當我們稍微改變神經元的輸入時,響應可能會有很大的不同。所以這也是需要考慮的。
02湧現永遠也無法被理解
騰訊科技:湧現這個概念,即從基本的能力到更高級的能力的轉化,你認為是無法解釋的嗎?
約瑟夫·希發基思:是的。你把一個學科比如物理學拿出來。物理學是一個非常成熟的學科。物理學家試圖在粒子理論、量子理論或廣義相對論之間建立邏輯聯繫,我認為他們在這方面永遠不會成功,因為存在一個尺度問題。我認為在任何類型的系統中都存在類似的問題。
騰訊科技:那麼在你看來,由於這種無法解釋的出現現象,我們實際上無法預測大語言模型到底能做到什麼?
約瑟夫·希發基思:很明顯,我們無法建立模型去預測它能做什麼。我們無法建立模型,我指的是數學模型。在這裡,人工智能社區使用模型這個詞來表示神經網絡,這是一種混淆的來源。
我認為我們應該採取另一種整體的方法。因為我們形不成相關的模型,也許我們可以有一種形成一種基於測試和經驗觀察的理論。它應該是一種關於統計學性質的測試理論。但依照我的理解,我們有些需求在當今的神經網絡中從技術上很難被滿足。
騰訊科技:是的。所以為了理解它們所湧現出的這些能力,我們需要建立類似心理學這樣的學科去理解它?
約瑟夫·希發基思:完全準確。這是個好問題。但如果用GPT本身去建立這樣的理解會有點問題。因為實際上有些人現在說,GPT成功通過了成為律師或醫生的考試,那麼為什麼這樣的GPT不能成為醫生或律師呢?
我認為這是一個非常有趣的論點,但這涉及到我之前提到的魯棒性問題。同樣是通過考試,人類與神經網絡之間的能力是非常不同的。
魯棒性的問題就是如果說如果讓一個神誌正常的人去回答問題,如果你稍微改變一下問題,答案會是相似。而GPT並不能保證答案的統一性。另一個問題是,人類可以依靠邏輯控制他們的行為和應該說的話。但因為神經網絡,比較典型的就像ChatGPT 對於它所做的事情沒有受到語義上的控制,所以它可能會做一些明顯錯誤的事情。有理智的人都不會犯這種錯誤。所以整個論證的結論是,如果GPT 可以有邏輯地控制它所說的事情的一致性,而且它還具有相對應的魯棒性的話,那麼允許GPT 成為律師就很棒。但我們實際上離這種程度的人工智能還很遠。
騰訊科技:ChatGPT為什麼會這麼難以控制?是因為它作為計算機的一種分佈式運算的特性嗎?
約瑟夫·希發基思:GPT 是一種不同類型的計算機。它是一台自然計算機。它不是你編寫程序時執行程序的計算機,你對系統可以做和不能做有絕對控制。當你訓練神經網絡時,你就失去了這種控制。這些系統可以具有某種意義上的創造性,因為它們具有一定的自由度。
現在,如果我們能夠控制這些自由度並理解它們的行為,那就沒問題了。問題是我們無法控制神經網絡的這種巨大的自由度,理論上去控制它幾乎是無望的。你可以對它們的行為做一個粗略的近似,但你不會有準確的結果。如果你有一個傳統計算機程序,即使它是一個很長的程序,你仍然可以提取語義模型並理解裡面發生了什麼。這是一個非常重要的區別。
騰訊科技:能詳細講講自然機器的概念嗎?
約瑟夫·希發基思:自然機器就是利用了自然現象的智能。比如神經網絡就是一種類似於量子計算機或其他計算機的自然機器。在過去,當我還是學生的時候,我們也有很多計算機。在構建這種自然機器的過程中,我們會利用物理現像中的一些原理,因為任何物理現像都包含了一些信息內容。比如當我扔一塊石頭時,石頭就像一台計算機,它計算出一個拋物線,這就形成了一種運算法則。你可以觀察任何現象,並且可以利用自然現象來製造計算機。但是這些計算機不是預先編程的。它們利用了物理學或數學中的某些規律。神經網絡就是這樣的情況。
騰訊科技:讓我們談談你書中的其他一些內容,你曾經討論過一些研究和創新的問題。我們都知道,雖然神經網絡的許多理念來自歐洲或日本,但使用它並產出產品的公司,如OpenAI和Deepmind都是在美國。你認為這是什麼原因呢?
約瑟夫·希發基思:關注度和創新能力之間是存在差異的。因為創新是將研究應用於開發新產品或服務,以實現技術突破的能力。
我認為這是美國的一個非常強大的優勢,他們在創新方面做得很出色。這始於加利福尼亞,在那裡有我所說的創新生態系統。創新生態系統匯集了非常優秀的學術機構、大型科技公司、初創企業以及風險投資和資本。這種一致性可以有效而高效地轉化新的成果和應用。其他國家也採用了這種模式。創新生態系統的理念是一種普遍的思想,像以色列和瑞士這樣的小國家也取得了很大的成功。所以總結一下,我認為要實現創新,你應該將卓越的大學和卓越的產業聯繫在一起。這不僅取決於物質資源,還取決於文化因素、教育以及製度應該認可個體的創造力和創業精神。
03神經網絡神諭:一種無法被理解的新科學
騰訊科技:你剛剛提到神經網絡是模擬生物大腦和物理世界的過程。在我們對生物大腦的理解仍然非常有限的情況下,是如何進行這種模擬的?這種神經網絡與我們的生物大腦之間的差距有多大?
約瑟夫·希發基思:這是個好問題。我剛才說神經網絡是一種自然計算機,採用了與傳統計算機不同的範式。具體來說,神經網絡是受到我們大腦中的神經運作啟發所產生的。它模仿了一些神經運作的自然過程。然而,神經網絡只是模仿了大腦的計算原理,而大腦是更加複雜的,因為它在不同的區域有著不同的結構和功能。而這些不同的功能是建立在更複雜的架構之上的,我們仍在努力去理解它。而且大腦的神經網絡是一種並行計算模式。神經網絡在這方面也與它有很多不同之處。
還應該理解的是,如果只研究生物水平的大腦,我認為我們無法完全捕捉到所有的人類意圖。舉個例子,用你的筆記本電腦運行一個軟件。然後我給你電子儀器來通過測量研究這個硬件怎麼工作。如果你已經編譯了程序,所有的知識都在硬件層面上以電信號的形式呈現了。但只通過分析這個電信號,是不可能找到有問題的軟件源代碼的,因為你有這個尺度問題。我認為這是理解人類智能的關鍵,我們必須研究大腦,但不僅僅是大腦。因此,大腦的計算現像是電信號、物理化學現象和心理現象的結合。
而今天的問題是如何將心理現象與大腦計算相連接。這是我認為的一個重大挑戰。如果我們在這方面不成功,我認為我們將永遠無法理解人類智能。
騰訊科技:你曾提到人工智能正在為發展人類知識開闢一條新的道路,突破人類大腦處理複雜性問題的限制。那你覺得AI可以在哪些點上完全的超越人類?
約瑟夫·希發基思:是的。在我的書中,我解釋了機器可以幫助我們克服一些思維的限制。這一點已經得到了心理學家的確認。這裡的限制包括人的思維受到認知複雜性的限制。我們人類無法理解超過五個獨立參數之間的關係。這也是我們發展的理論都很簡單的原因。我們沒有一個包含1000個獨立參數形成的理論。
我認為現在可以發展出一個擁有數千個參數的理論。我認為今天我們可以藉助超級計算機和人工智能構建我所稱之為”神經網絡神諭”的東西。神經網絡神諭是一個經過訓練的神經網絡,用於理解和分析複雜的現像或複雜的系統。這些複雜現象可能依賴於成千上萬個參數。以物理現象為例,現在有一些有趣的項目,比如訓練神經網絡來預測地震。這些項目的參與者不需要擁有太多的科學知識,只需要用數據庫餵養模型。他們手中都有全球各地的地震數據。他們發表了一篇論文,解釋說用非常簡單的訓練過程,他們可以做出比使用現有復雜理論更好的預測。
所以我認為這是未來非常重要的方向。我們將擁有更多幫助我們預測複雜現像或複雜系統發展的”神諭”。例如,我們將擁有智能數字孿生系統,這些系統將幫助我們進行預測,但並不理解(預測的邏輯)。因此我們將擁有一種新型的科學。我認為能夠使用這種科學是很有趣的,但我們也需要控制所產生的知識的質量。你應該思考這個問題,因為人類將不再獨自享有產生知識的特權。現在人得與機器競爭了。
所以對我們的社會來說,重要的問題是我們是否能夠與機器合作,掌握由機器輔助開發的知識的發展和演進。或者我們將發展出一種由人驅動的科學和機器驅動的科學並存的情況。如果我們擁有這些機器所推動的並行科學,那將是一個有趣的情景。
騰訊科技:你提到人類思維也是一種計算系統。與自動機器相比,這兩種系統在其組成部分上非常相似。所以與強人工智能相比,人類具有哪些獨特的能力?
約瑟夫·希發基思:這是一個非常好的問題。因為我一直在研究自主系統,所以我嘗試了設計自動駕駛汽車。對於自動駕駛汽車,你會有一些功能,比如感知,將感官信息轉化為概念。你會有一個反射功能,基於外部世界建立模型,然後做出決策。做決策意味著管理多個不同的目標。為了實現這些目標,你需要規劃等等。自主系統和人類思維之間確實有很多相似之處。
然而人和自主系統也存在一些重要的差異。一個非常重要的差異是人類擁有我所稱之為常識知識。常識知識是我們從出生以來發展起來的知識網絡。我們擁有一種機制,我們不知道它是如何工作的。但每天通過經驗,你會豐富這個網絡,並獲得理解世界的常識知識。對於人類來說,他進行思考時,會將感官信息與這個常識概念模型連接起來。然後吧分析結果從概念模型反饋到感官信息。這與神經網絡有很大的區別。讓我舉個例子:我向你展示一塊被雪覆蓋了一部分的停車標誌,你毫無疑問會立刻說這是停車標誌。
現在,如果你想訓練一個神經網絡來識別部分被雪覆蓋的停車標誌,這意味著由於神經網絡無法將感官信息與概念模型連接起來,你將不得不訓練神經網絡去了解所有的天氣條件下的情況。這就是為什麼兒童比神經網絡更容易學習的原因。如果你向兒童展示一次汽車,他下次就會說這是一輛汽車。因為他們通過觀察形成了一個抽像模型,知道什麼是一輛汽車。他們可以將感官信息與這個概念模型聯繫起來。這是當今人工智能面臨的最大挑戰之一。這也是自動駕駛汽車所面臨的一個重要問題。自動駕駛汽車應該能夠收集感官信息,並將這些信息與地圖等進行連接。如果它們僅僅根據感官信息進行決策可能會造成危險。我們之前就有過這樣的例子。
我們並不清楚為什人類能夠在缺乏大量分析和計算的情況下理解複雜的情境。我們之所以能夠做到這一點,是因為我們可以將感官信息與某些概念性信息、抽象信息相連接。因此在我們完全不會出錯的地方,神經網絡可能會出現很多問題。我記得有一次我開的特斯拉突然停下來,因為它認為MOON和樹木的組合是是一個黃色的交通燈。這種情況絕對不會發生在人身上,因為人類可以將信息置於背景中進行理解。我立即就能理解到那是MOON,因為交通燈不可能飄在天空中。
因此當有人說這些系統在某些方面可以與人類競爭時,也許它確實能。但是人類智能的特點是你能夠理解世界,可以有目的地提問。人工智能離這個目標還很遠。
騰訊科技:因為你研究了自動駕駛,這已經包含了對環境、認知和感知的理解。 Lecun認為因為我們是視覺動物,我們對世界的理解很大程度上基於視覺。如果大語言模型能夠做做到多模態,也能從環境中學習,他們能夠理解世界本身?
約瑟夫·希發基思:我認為如果AI不能將具體知識與符號知識相連接,僅僅依靠大語言模型的方法是做不到對世界的理解的。只有通過將具體的知識,也就是數據庫裡的知識與符號知識相結合,人工智能才能實現這一點。如果它做不到,那人類智能將優於機器。對此我非常確信。我知道很多人會不同意我的觀點,因為計算智能可以通過數百萬個參數對數據進行分析和提取。人類在這方面做得不好。但是人類擅長處理抽象問題。
人類智能依賴於使用類比和隱喻的能力。即使我們不理解人類創造力是如何工作的,我仍然可以說這非常重要。因為在人類的創造力中應該去區分發現和發明。機器可以通過使用數據分析從更複雜、更龐大的數據中發現一些東西。但是發明是另一回事。發明是說,我發明了某個理論。我認為我們距離理解人類智能的這部分能力還隔得很遠。
但發現的能力也是有用的,因為它可以幫助人類猜測更普遍的規律。這是我們自己的思維無法發現。但我不認為機器將能夠創造新的科學理論或者創造新機器。它們將提供它們擁有的知識的綜合。就像蒸餾過程一樣,它們擁有大量的知識,然後將其提煉並呈現給你。這是了不起的。但這還不夠。要實現更多的可能還是需要人類的能力。
在我寫的一篇論文中,我解釋了實際上存在不同類型的智能。人類智能是非常特殊的,因為人類智能的發展的基礎是我們努力生活在的這個特別的世界。如果我們在另一個世界出生,也許我們會發展出另一種智能。智能是產生知識、解決問題的能力。當然,現在我們看到機器可以解決一些我們無法解決的問題,它們實際上擁有另一種智能。這很棒,我們有著某種互補性。
04科技的發展應該優先考慮改善人類的生活
騰訊科技:我們剛才進行了一些哲學討論,現在會討論一些關於AI對社會的道德影響的問題。第一個問題是,與Optimism認為新技術將創造足夠的新工作崗位不同,你提到人工智能將導致嚴重的失業問題。而且這些問題能否在不改變社會經濟體系的情況下難以得到解決。你能解釋一下為什麼這樣說嗎?因為很多人對此感到擔憂。
約瑟夫·希發基思:AI的發展會增加生產力。在經濟學中有一些非常簡單的規律:如果生產力增加,那麼你就需要越來越少的人來做同樣的工作。這一點非常明確。
現在有些人認為AI會創造一些就業機會,尤其對高素質的人來說會創造某些新的就業機會。但是如果你權衡AI創造的工作和因為它而失去的工作,你會發現AI的影響一定是負面的。
現在每個人都同意AI會導致失業問題。這是顯而易見的。但在人類歷史的整個過程中技術都能夠提高生產力,這最終改善了人們的生活質量。幾個世紀以來,人們的工作時間變少了。我們應該考慮通過適當的經濟社會改革來解決這個問題。包括教育改革,因為你必須教育人們來適應這個新的時代。
騰訊科技:在工業革命中,最初人們的生活並沒有得到很大改善。他們在工廠里工作,一天可能要工作14個小時。你覺得技術革新初期,人的生活情況會不會更糟?
約瑟夫·希發基思:不,我認為工業革命總體上還是提高了人類的生活質量。這是問題的核心。我認為今天社會的問題在於沒有認真對待這個目標,他們認為技術進步是該被優先考慮的。但我認為最優先考慮的是如何改善人類的生活,這應該是首要任務。至少我是一個人道主義者。
騰訊科技:我也是一個人道主義者,明白這個問題有多嚴重。你覺得除了失業,AI還可能帶來嚴重後果嗎?
約瑟夫·希發基思:是有這種可能的。但問題是,有些人說人工智能會對人類產生威脅,乃至於我們可能會成為機器的奴隸。我不喜歡這種說法。我在我的書中說了技術是中立的。你有Atom能,你可以用Atom能來發電,也可以用它來製造炸彈殺人。這是你的決定。如果你真的有思考過這個問題,那所有這些說人工智能對人類構成威脅的人都是完全愚蠢的。因為技術的使用是人類的責任。
我認為這些人之所以這麼說,只是因為他們也想減少人類對此的責任。因為他們希望人們接受人工智能,這太糟糕了。人們應該負起責任應對可能的問題。我不知道中國的情況怎麼樣,但不幸的是,在西方世界人們對此並不太敏感。他們認為技術(的負面影響)是命中註定的,這非常糟糕。我在我的書中也說過,風險不在於人類被機器所統治,而在於人類接受機器做出所有關鍵決策。如果我有一個奴隸,它可以按我的心願做任何事情,就像那些阿拉伯神話裡描繪的那樣,那最終我將成為我的奴隸的奴隸。所以危險來自於人們。我在法國的學校中也看到了這一點,如果一個孩子能接觸到聊天機器人,他會變得寫不出作文,組織不了自己的思維,並最終依賴於機器。這對人類來說是一個並不樂觀的情景。
騰訊科技:前幾天很多知名AI領域的人物,包括Sam Altman都簽署了一個AI滅絕威脅的聲明,你在書中說目前媒體和業內人士都在誇大AI的能力和威脅,這算不算事其中一例?你覺得當下範式的AI有帶來人類文明危機的可能嗎?
約瑟夫·希發基思:AI帶來的危險是明確的,主要可能來自於對它的濫用。但不幸的是,今天我們沒有針對這種危險的相關法規。因為政府不知道這些東西是如何開發的,缺乏透明度也就意味著無法應用法規。這對社會來說太糟糕了。 AI非常可能被濫用,因此我也簽署了請願書,支持對公司做調查。
技術是非常好的,我沒有反對技術。我們擁有聊天機器人是一件很棒的事情,我們應該在這種方向上取得進展。人工智能、包括通用人工智能都是好事,我不反對這些。我所反對的是對這些技術的濫用。各個國家、國際機構應該強制執行法規,雖然因為大語言模型本身缺乏解釋性,這存在著一定困難。但我們依然可以要求開發公司達到某種透明度,例如講明數據集的構建方式,以及這些引擎的訓練方式。
騰訊科技:最近美國國會就人工智能和標准人舉行了聽證會。包括Sam Altman,Marcus都參加了,歐洲也正在通過相關的法案。你認為這是個好的開始嗎?
約瑟夫·希發基思:但問題在於,當人們談論安全的人工智能時,很多時候說的並不是同一件事。作為一名工程師,對我來說安全有著非常明確的定義。而其他人可能認為安全的人工智能意味著能像相信人類一樣相信人工智能。這個想法的底層邏輯是把人工智能視為人類,而不是機器。還有許多其他論文認為,人工智能所做的事情並不重要,重要的是人工智能的意圖,因此你得能把意圖和結果分開等等。所以有很多討論。我希望所有這些討論能夠帶來一些嚴肅的法規,而不只是願望清單。
騰訊科技:所以讓我們聊些更光明的可能性。如果人工智能不被濫用,它在什麼方面可以改變我們的生活?
約瑟夫·希發基思:如果我們不濫用人工智能,那未來相當可期。這是一場巨大的革命。它有巨大的潛力來發展知識,以應對人類今天面臨的一些重大挑戰,如氣候變化、資源管理、人口問題、大流行病等等。
我之前說過,人與機器之間存在著明顯的互補性。對於人類來說,最好的情景是機器和人類之間達成一種和諧合作。而且在這個過程中,人類將能夠掌握知識的發展、應用的所有過程,確保不會讓這些機器自身為我們做出關鍵決策。
未來的挑戰是我們找到正確的平衡,找到人類和機器之間角色分配的正確平衡。我希望我們能夠成功做到這一點。
資訊來源:由0x資訊編譯自8BTC。版權歸作者所有,未經許可,不得轉載