通用人工智能的雙刃劍:駕馭發展,規避危機

GPT-4實際上不僅僅是AIGC,它更像是通用人工智能的雛形。

作者:胡逸

最近,微軟雷蒙德研究院機器學習理論組負責人塞巴斯蒂安·布貝克(Sébastien Bubeck)聯合2023斯隆研究獎得主李遠誌等人,發表了一篇關注度極高的論文。這篇論文名為《通用人工智能的火花:GPT-4早期實驗》,長達154頁。一些好事者從LaTex源碼中發現,原定的標題實際上是《與AGI的第一次接觸》。

這篇論文的發表,標誌著人工智能研究領域的一次重要里程碑。它為我們深入了解通用人工智能(AGI)的發展和應用提供了有價值的見解。同時,論文的原定標題《與AGI的第一次接觸》,也凸顯了對邁向通用人工智能的探索的重要性和前瞻性。

我耐著性子,看完了這篇論文的翻譯版。說句大實話,半懂半不懂,不明覺厲。先給大家介紹一下這篇論文的核心主張:GPT-4呈現出一種通用智能的形式,綻放了通用人工智能的火花。這表現在它的核心心智能力(如推理、創造力和推理),它獲得專業知識的主題範圍(如文學、醫學和編碼),以及它能夠完成的各種任務(如玩遊戲、使用工具、解釋自己等)。

讀完這篇,我又重溫了拙文《未來可期|人工智能繪畫:讓每個人都成為藝術家》。我問了自己一個問題:此前把ChatGPT這類大模型歸類在人工智能生成內容(AIGC),是否有些狹隘?正如微軟研究院論文所說,GPT-4實際上不僅僅是AIGC,它更像是通用人工智能的雛形。

在解釋AGI意味著什麼之前,我先給澎湃科技“未來可期”專欄的讀者朋友說一下ANI、AGI、ASI這三個單詞。

人工智能(Artificial Intelligence, AI)通常分為三個層次:

①弱人工智能(Artificial Narrow Intelligence, ANI);

②通用人工智能(Artificial General Intelligence, AGI);

③超人工智能(Artificial Superintelligence, ASI)。

接下來,再稍微給大家介紹一下這三個層次的區別和發展。

①弱人工智能(ANI):

弱人工智能是目前最常見的人工智能形式。它專注於執行單一任務或解決特定領域的問題。例如,圖像識別、語音識別、機器翻譯等。這類智能係統在特定任務上可能比人類表現得更好,但它們只能在有限的範圍內工作,無法處理它們未被設計解決的問題。當前市場上有許多智能產品和服務,如虛擬助手(Siri、微軟小冰等)、智能音箱(天貓精靈、小愛音箱等)和阿爾法圍棋(AlphaGo)等,都屬於弱人工智能的範疇。弱人工智能的局限性在於,缺乏綜合性的理解和判斷能力,只能在特定任務上表現出色。

隨著大數據、算法和計算能力的不斷發展,弱人工智能正在逐步滲透到我們日常生活的各個領域。在金融、醫療、教育、娛樂等領域,我們已經見證了許多成功的應用案例。

②通用人工智能(AGI):

通用人工智能,也稱為強人工智能,是指具備與人類同等的智能,能表現正常人類所具有的所有智能行為的人工智能。這意味著,AGI能夠像人類一樣,在各種領域中學習、理解、適應和解決問題。和ANI不同,AGI能夠獨立完成多種任務,而不僅僅局限於某個特定領域。目前,普遍認為人工通用智能尚未實現,但許多科技公司和科學家正在努力靠近這一目標。

③超人工智能(ASI):

超人工智能指的是一種人工智能係統,在各個領域遠遠超越人類智慧。它不僅能夠完成人類可以完成的各種任務,還在創造力、決策能力、學習速度等方面遠遠超過人類。 ASI的出現,可能引發許多前所未有的科技突破和社會變革,解決人類無法解決的難題。

然而,ASI也帶來了一系列潛在的風險。例如,它可能導致人類價值和尊嚴的喪失,引發人工智能的濫用和誤用,甚至可能引發人工智能的反叛等問題。

原來,我們一直認為,人工智能技術,從弱人工智能到通用人工智能再到超人工智能,將經歷一個漫長而復雜的發展過程。在這個過程中,我們有足夠的時間來做好各種準備,大到法律法規、小到每個個體的心理準備。可是,最近我有一個強烈的感覺:我們離擁有通用人工智能可能只有幾步之遙,而這可能只需要20年甚至更短的時間。如果有些人說這個過程只需要5-10年,我也不會完全排除這種可能性。

OpenAI公司在其發布的《通向AGI的規劃和展望》中提到:“AGI有可能為每個人帶來令人難以置信的新能力。我們可以想像一個世界,我們所有人都可以獲得幾乎任何認知任務的幫助,為人類的智慧和創造力提供一個巨大的力量倍增器。”

然而,這份規劃強調了一個“逐漸過渡”的過程,而不是過分強調AGI的強大能力。 “讓人們、政策制定者和機構有時間了解正在發生的事情,親自體驗這些系統的好處和壞處,調整我們的經濟,並將監管落實到位。”

在我看來,這段話傳達的潛在信息是:通往AGI的技術其實已經具備。然而,為了讓人類社會有一個適應的過程,OpenAI正在有意放緩技術的進展步伐。他們意圖平衡技術進步和人類社會的準備程度,給予更多時間來進行法律、倫理和社會適應的討論,並採取必要的措施來應對可能帶來的挑戰。

《論語·季氏將伐顓臾》裡面有這麼一句話:“虎兕出於柙”,現在,各種GPT們,如猛虎一般,已經從籠子裡跑出來了。就像《未來簡史》作者尤瓦爾·赫拉利所言:人工智能正在以超過人類平均水平的能力掌握語言。通過掌握語言,人工智能已經具備與數億人大規模產生親密關係的能力,並正在掌握入侵人類文明系統的鑰匙。他更進一步地警示:核武器和人工智能最大的區別是,核武器不能製造更強大的核武器。但人工智能可以產生更強大的人工智能,所以我們需要在人工智能失去控制之前迅速採取行動。

3月22日,生命未來研究所(Future of Life)向全社會發布了一封公開信,題為《暫停巨型人工智能研究:一封公開信》,呼籲所有人工智能實驗室,立即暫停比GPT-4更強大的人工智能係統的訓練,暫停時間至少為6個月。生命未來研究所美國政策主任克雷恩(Landon Klein)表示:“我們認為當前時刻類似於核時代的開始……”這份公開信,已獲得超過超千名人士支持,其中包括埃隆·馬斯克(特斯拉創始人)、山姆·奧特曼(OpenAI首席執行官)、約書亞·本吉奧(2018年圖靈獎得主)等知名人士。

如果許多人都意識到,我們即將進入一個“人工智能核武器擴散”的時代,那麼我們確實需要探討一種可能性。這個可能性是建立一個類似於國際原子能機構的國際組織,其目標是監督所有人工智能公司,根據其使用的GPU數量、能源消耗等指標進行監管。那些超過能力閾值的系統,都需要接受審核。通過這樣的國際組織,我們可以共同努力,確保人工智能技術為人類帶來福祉,而不是潛在的危害。

一些科學家主張,在推進人工智能研究和應用時,一定要避免人工智能係統具有超出人類控制的能力。他們做了很多比喻來描述正在發生的災難,包括“一個10歲的孩子試圖和Stockfish 15下棋”,“11世紀試圖和21世紀作戰”,以及“南方古猿試圖和智人作戰”。這些科學家希望我們,不要把通用人工智能想像成“居住在互聯網中,沒有生命的思考者”。而是要把它們想像成一個完整的外星文明,正在以比人類快百萬倍的速度思考。只不過,它們最初被限制在計算機中。

然而,也有一些科學家持樂觀態度。在他們看來,人工智能的發展和研究應當持續推進,以促進科學進步和技術創新。他們比喻說,如果在汽車誕生的那個年代,如果有馬車夫提議,讓司機暫停開車6個月。現在回過頭來看,這是否是螳臂當車的行為呢?他們認為,通過透明和負責任的研究方法,可以解決潛在問題,並確保人工智能技術的可控性。而且,正是要通過不斷的實驗和實踐,我們才能更好地理解和應對人工智能可能帶來的挑戰。

最近,世界衛生組織(WHO)對於人工智能與公共醫療的結合發出了警告。他們指出,依賴人工智能生成的數據進行決策,可能存在偏見或被錯誤使用的風險。世衛在聲明中表示,評估使用ChatGPT等生成式大型語言模型(LLM)的風險至關重要,以保護及促進人類福祉。他們強調,需要採取措施來確保使用這些技術時的準確性、可靠性和公正性,以保護公眾的利益並推動醫療領域的進步。

許多國家已經開始採取措施,邁出了規範人工智能領域的第一步。 3月31日,意大利個人數據保護局宣布,即日起暫時禁止使用ChatGPT。同時,歐盟官員也正在製定一項名為《人工智能法(AI Act)》的新法律草案,其中包括:禁止特定人工智能服務的使用以及製定相關的法律規範。

美國商務部則發布通知,徵求公眾意見,其中包括:存有危害風險的人工智能新模型是否需要先進行審查才能發布。同時,商務部還承諾,打擊那些違反公民權利和消費者保護法的有害人工智能產品。

5月16日,OpenAI首席執行官兼聯合創始人山姆·奧特曼首次參加美國國會的聽證會,就人工智能技術的潛在危險發表了講話。他坦承,隨著人工智能的進步,人們對於它將如何改變我們的生活方式感到擔憂和焦慮。為此,他認為政府的干預,可以阻止人工智能“狂放的自我複制和自我滲透”。他提議建立一個全新的監管機構,實施必要的保障措施,並頒發人工智能係統許可證,同時具備撤銷許可的權力。

在聽證會上,奧特曼被問及他對人工智能可能出現的最大擔憂是什麼,他沒有詳細說明,只是表示“如果這項科技出了問題,可能會大錯特錯”,並可能會“對世界造成重大傷害”。

在這個聽證會之前,中國在人工智能領域的監管和控制措施也引起了廣泛關注。 4月11日,為促進生成式人工智能技術健康發展和規範應用,根據《中華人民共和國網絡安全法》等法律法規,國家網信辦起草了《生成式人工智能服務管理辦法(徵求意見稿)》。這份辦法明確了對生成式人工智能產業的支持和鼓勵態度,比如,“國家支持人工智能算法、框架等基礎技術的自主創新、推廣應用、國際合作,鼓勵優先採用安全可信的軟件、工具、計算和數據資源。”

該意見稿要求,利用生成式人工智能生成的內容應當體現社會主義核心價值觀,不得含有顛覆國家政權、推翻社會主義制度,煽動分裂國家、破壞國家統一,宣揚恐怖主義、極端主義,宣揚民族仇恨、民族歧視,暴力、淫穢色情信息,虛假信息,以及可能擾亂經濟秩序和社會秩序的內容。意見稿同時要求,供貨商須申報安全評估,採取措施防止歧視,尊重隱私權等。

上述這些國家共同採取的措施提醒我們,當前人工智能的發展帶來了巨大的機遇和挑戰。我們迫切需要製定明確的倫理準則和法規,以確保人工智能技術的正確使用和透明度。我們將面臨著一系列重要問題:如何保障數據隱私和安全?如何應對算法的偏見和不公正?如何確保人工智能的決策透明和可解釋性?這些問題需要通過明確的法規和製度來回應。

寫到這裡,我的思緒莫名地跳轉到了最近大火的國產劇《漫長的季節》中,那首題為《漫長的》的詩歌第一段:

打個響指吧,他說

我們打個共鳴的響指

遙遠的事物將被震碎

面前的人們此時尚不知情

在這裡,我想做一個大膽的預測:當2024年到來,我們來評選2023年度詞彙時,ChatGPT會是十大熱詞之一,甚至可能成為年度詞彙或年度人物。

讓我們來拆解一下“AI”這個單詞吧。如果A代表天使(Angel),那麼I可以代表惡魔(Iblis)。如今,人工智能技術正在迅速發展,展現出令人驚嘆的“天使和惡魔”的共生關係。面對這一現實,我們需要採取行動,為了一個目標——“讓我們享受一個金色的漫長的人工智能的收穫之秋,而不是毫無準備地陷入寒冬。”

(作者胡逸,一個喜歡暢想未來的大數據工作者。)

展開全文打開碳鏈價值APP 查看更多精彩資訊

Total
0
Shares
Related Posts