萬字解析GPT的情感與意識它是一隻被人類操控的“風箏”

劃重點

● 一部分基礎工作可能會被AI產品替代,然而,創意工作、管理和科研工作者等領域難以被取代,機器不可能像牛頓和愛因斯坦一樣做出顛覆性的發現。

● 巨頭們在GPT-4之後一定有後招,它們要加入到大模型底層能力的競爭,也要思考原來的護城河還是不是真的護城河。

● 多模態技術確實會帶來一些新的可能性,但相較於自然語言交互所帶來的影響,它們的影響是非常有限的。

● AI真正要產生突破的是獨立性、自主性,GPT沒有自主性,它更像是一個“風箏”依舊被手中有線的人類操控。

● 對於產業應用來說,模型小很重要,因為成本、通用性和安全性等問題,模型越小或者更好地量化計算成本。

2022年下半年開始,生成式AI技術成功破圈並引發關注,大模型商業化的潛力正在清晰化:一方面大模型企業可以為C端用戶提供“按需服務”和商業轉化;另一方面它也提升雲計算、雲存儲的使用量。

用戶對AIGC的態度不再僅停留在“嚐鮮試試看”階段,而是不斷提升使用頻次;企業也在積極投入探索大模型商業化的長期價值。

騰訊科技推出AIGC未來指北內容策劃,邀約行業內專家、投資人、創業者,圍繞技術發展、商業模式、應用場景、AI治理,以採訪、直播等形式,持續產出行業內容。本期為第五期,我們邀請4位專業人士探討《萬眾期待的GPT-4,到底有多“強”? 》,嘉賓:

王建碩百姓網AI 創始人&CEO

陶芳波心識宇宙創始人&CEO、前Facebook高級研究科學家

劉偉北京郵電大學教授、人機交互與認知工程實驗室主任

陳巍前華為系NLP企業首席科學家、千芯科技董事長

歡迎閱讀《AI未來指北》往期內容:

  • 第一期:投資人王煜全:中國必須要有自主“大模型”

  • 第二期:我們和創業公司創始人聊了聊:中國AI產業發展需要突破哪些瓶頸?

  • 第三期:清華大學人工智能國際治理研究院副院長梁正:如何讓人工智能不作惡?

  • 第四期:北京大學新聞與傳播學院教授胡泳:馬斯克呼籲“暫停”AI開發,背後說明了什麼問題?

以下為實錄整理,ChatGPT對本文整理亦有貢獻。

GPT-4是阿拉丁神燈還是潘多拉魔盒?會不會帶來生產力的變革?

主持人陳巍:相比較於GPT-3.5,GPT-4的準確性顯著提高,它可以完成創意文本生成、結構化寫作和交互式文本生成,此外,GPT-4在語言推理和程序生成方面也有很大進步。但我們並不清楚GPT-4的具體參數和架構,感覺有點神秘,需要大家一起討論和發掘。請陶總談談GPT-4對虛擬人技術與元宇宙技術的影響,以及它給辦公場景和營銷產品應用帶來的新機會。

陶芳波:GPT-4和Office 365帶來的影響不太一樣,GPT-4是一個巨大的模型升級,具有多模態特點。以前可以通過加入類似Clip的模型實現多模態,但GPT-4直接將視覺和文本數據放在一個Transformer裡,類似去年推出的Flamingo方法。這種多模態更接近人類獲取和產生信息的方式,給未來潛在應用的改造帶來無限可能。雖然GPT-4的具體參數和架構沒有公佈,但我們可以根據過去一年學術界的變化和相關文章,猜測到它的一些做法。

GPT通過工程化方法取得了非常大的成就,我們體驗到了用戶instruction能力的大幅提升。在使用GPT-3.5做更複雜的任務時,它並沒有辦法更深刻地理解意圖,而使用GPT-4就感覺好像一個普通人的智商從100提升到了120。這也是為什麼它在GRE等考試上表現優於90%的人,這種能力來源於大模型的創新。

而Office 365在另一個維度上展示了大模型可能吞噬所有軟件的前景。 Office 365將復雜的辦公軟件套件與GPT結合,為我們打造了一個樣例。未來,軟件的入口可能都會變成AI copilot,當我們打開軟件時,將由AI教導我們如何使用。我認為這將帶來行業重構的機會,微軟為我們樹立了一個標杆。

主持人陳巍:我們可以看到AI在Office升級的過程中發揮了重要作用。新的Office升級會不會替換掉打工人和AI技術,特別是GPT技術會不會帶來新的生產力革命?

王建碩:我一直認為科技發展對人類有很大幫助,主要是利大於弊。 GPT技術和Office的合作只是科技不斷發展的過程,讓我們使用時付出的精力越來越少。我們認為這很快會成為日常生活的一部分,不用再感到驚訝,這是未來的一種趨勢。

劉偉:我基本同意王總和陶總的看法。大家現在關注GPT技術,但我們還無法確定它究竟是阿拉丁神燈還是潘多拉魔盒。不過,我們可以確定的是,文本處理、程序編制、bug查找以及圖像、視頻、音頻處理等方面可能會發生巨大變化。其中,一部分基礎工作可能會被AI產品替代。然而,創意工作、管理、新聞記者和科研工作者等領域仍然難以被取代。例如,在教育領域,學生可以用GPT輔助完成論文,但創新性科研仍然難以依賴它。因為它不可能像牛頓和愛因斯坦一樣做出顛覆性的發現。

GPT在訓練數據集中進行組合和統計或概率分析是有可能的。但是,AI還做不到跨領域,例如講化學、歷史和計算機知識之間進行有機銜接,而很多創新往往發生在跨領域組合或交叉學科中。目前,GPT被視為一個初級的人機環境產品。它可以取代許多基礎職業的體力勞動,甚至部分腦力勞動。但對於一些關鍵崗位,因為它存在一些類似幻覺的問題,還不可能在社會上產生我們所期待的影響。

隨著時間的推移,大家適應了這些技術,它會變得不再神秘,大家的新鮮感逐漸消失,就像當初騎自行車時覺得非常酷後來變得習以為常一樣。

主持人陳巍:關於微軟和OpenAI是否還有更大的技術後招,目前業界傳聞稱除了現有技術,實際上還有更強大的東西。

劉偉:現階段AI主要關注多模態,如視頻、文本、圖像和語音等。由於底層工具不完善,例如數學和物理學還沒有實現相關研究的突破,AI在情感和意志方面也有待發展。因此,美國的幾家大廠不太可能推出令人驚訝的工作。

主持人陳巍:微軟和OpenAI在應用方面,如與Office的結合和搜索引擎的結合,確實給我們的日常生活帶來了較大影響。

陶芳波:微軟和OpenAI的保密工作做得很好,大家都在猜測它們還有什麼大招。部分同意劉偉的觀點,但我認為不能小看基於深度學習的智能模型。這些大廠在過去半年中展示的工作和創新速度令人印象深刻。儘管底層數學和物理不完善,但它們已經證明能夠創造有價值的智能體。實際上,大模型所展現的智慧能力已經超出了我們對人腦的理解,但它們仍然湧現出來了。有時候我們可以繞過基礎科學,產生一些真正應用側的巨大影響價值。

我認為Office升級這件事情的意義非常重大,包括前段時間的Bing。當我們發現它初始版本的缺陷時,我們會提到兩個問題。第一個是它產生幻覺,即說話亂說,這是因為它是基於訓練時遇到的語料。第二個是它沒有辦法直接使用工具。

而Office做了兩個證明:第一,可以將大模型與已有數據做非常好的grounding,讓它所有的依據都來自於真正灌輸給它的外部知識,減少對這些信息的編造。第二,我認為很多職業都可能被改造或替代,因為大多數科研者所做的創新不是愛因斯坦級的工作,而是基於已有知識進行重組和微創新。因此,如果給予它關於外部數據和工具的支持,我個人認為很多職業都有可能被大大改造。

我相信每個行業都會有一個類似的助手,這會讓我們的效率提升。但這也可能導致短期內一定的失業,因為一件事情本來需要100個人來做,現在可能只需要20個人加上AI就可以完成。這80個人需要一段時間來適應新的AI環境並重新找到他們的價值。這個過程可能會像每一次工業革命一樣重新發生。

關於未來的展望,我認為Bing和Office做的事情讓我們看到了所有的軟件和服務都可能被這種方式重構。購物、健身、醫療等領域都會有一個類似的copilot。最終整個世界的服務體係都可能因為這樣的全新服務形態而被重塑,而這個過程可能在未來兩三年就會成為現實。

企業巨頭們在GPT-4之後還會放什麼“大招”?多模態給未來的應用帶來哪些想像力?

主持人陳巍:關於其他科研機構和企業巨頭,比如Meta(Facebook)、達摩院和NASA,它們在GPT-4之後會有什麼大招?

陶芳波:我認為一定會有大招,以Facebook為例,我覺得他們會有兩個動作:第一個是加入底層的競爭,推出自己的開源大模型;第二個是在應用層思考如何擁抱AI,比如AI beings成為整個人類社交網絡的獨特存在。這類大公司一方面想加入到大模型底層能力的競爭,另一方面他們也要思考原來的護城河還是不是真的護城河。比如蘋果如果不擁抱大模型到底如何在未來兩三年展現競爭力。我認為,如果蘋果在9月發布的iPhone 15和AI沒有任何關係,發布會的關注度也會逐漸下降。

王建碩:我個人有一個習慣,就是在大潮出現時,有意忽略所有廠商的新聞和動向。對於GPT-3和GPT-3.5等模型的差異,我也是選擇忽略。就像互聯網早期,瀏覽器的出現改變了整個互聯網世界,但後續的升級對我們應用層的影響是非常有限的,eBay和亞馬遜後續也不會關心瀏覽器的升級。

比如百度的新模型、Facebook的新模型以及Google的模型,它誕生的那一刻就已經開創了新的時代,這個大門一旦打開就關不上了,我們應該更關注如何在這個平台上不斷開發自己的應用,而不是花太多時間關心這些細節。大模型在細節上的改善對應用的影響是很小的。

主持人陳巍:關於多模態的技術,比如GPT-4多模態和Clip模型實現的文本生成圖片,您覺得這些技術的區別和門檻有多高?

王建碩:我還沒有嘗試過GPT-4的多模態,因為它目前還沒有在外部界面或API裡提供。多模態技術確實是現在的熱點,但我認為它只是一個小改進,而不是劃時代的東西。真正劃時代的是GPT-3在2020年發布,它已經改變了人機互動的方式。至於多模態的能力,我認為它們都是點綴,對人類社會的影響不會像大語言模型所開啟的自然語言交互那麼大。

主持人陳巍:您覺得多模態的應用會給未來的互聯網應用帶來更多可能性嗎?

王建碩:多模態技術確實會帶來一些新的可能性,但相較於自然語言交互所帶來的影響,它們的影響是非常有限的。例如,通過文字生成圖片可能對遊戲、創意等行業的一些應用場景有關係,但對整個世界的影響仍然相對較小。

劉偉:實際上,多模態是一個比喻,用以描述真實世界中的複雜性。僅用圖像、視頻、文本和語音來模擬整個世界是非常有局限性的。然而,對於從事數字技術和計算領域的人來說,這是一個重要的變革。

人類語言有兩個功能:交流協同和引導思維。機器在交互中可以起到一定的引導作用,但引導自己的思維卻是困難的,因為它沒有思維。機器只是一個計算性的大數據處理工具,具有泛化和自由組合的能力。機器所擁有的只是別人的知識,它本身並沒有真正的思想。真實世界是多元、多維、多因和多果的,而機器的方式存在局限性。

人工智能的特點在於結合了行為主義、連接主義和符號主義,但沒有深入到自然語言的本質。機器對實踐性的東西了解不足,例如維特根斯坦所講的非家族相似性。

機器只能理解結構化的知識,對於不相關的事物還遠遠不夠。儘管如此,機器在一定程度上可以啟發和激發人的思維。從2016年到2019年,我曾從事多模態相關的創業工作。如今,多模態已經引起了全社會的高度關注,為工業界和學術界的應用落地打開了更廣闊的空間。在形式上,多模態確實打開了很大的空間,但在實質和內容上,它仍處於起步和萌芽階段。人具有非形式的創造性思維活動,而計算機所產生的只是一種組合。

機器對知識的分類是非常弱的。例如,修默將知識分為觀念性知識(如數學、邏輯等)和事實性知識(如人的經驗和體驗等)。機器只能處理部分觀念性知識,無法理解和創造經驗性和主觀性的知識。

主持人陳巍:那麼陶總,請談談您如何看待多模態技術對未來的影響?

陶芳波:談談兩個問題,一個是多模態的影響,第二個是各大廠商在多模態方面的進展和對比。實際上,我基本認同王總和劉老師之前提到的觀點。與多模態相比,通過構造語言界面讓人機交互的價值並不是很革命性。但我認為,它確實具有一定的革命性。類似於傳統大模型理解線上文本數據,大語言模型在創造前額葉和語言處理模塊方面已經取得了很大進展。然而,人類大腦還包括視覺區和運動區等重要區域。這是因為人類不僅需要通過語言理解概念和事件,還需要在物理世界中生活,感知物理信號,並操縱工具來干預物理世界。

在沒有多模態引入之前,大模型只能在數字世界提供信息化服務。多模態不僅包括視覺理解,還需要能生成行動指令。在實現這兩點之後,模型才能在現實世界中進行干預。如果再配合類似於特斯拉的人形機器人這樣的物理載體,我們可能真的會擁有一個完整的人類形態。因此,多模態的影響是巨大的。就我了解,目前在多模態上和OpenAI競爭的只有谷歌。其他廠商雖然聲稱要做多模態,但其實更像是拼接式的多模態。

谷歌的Flamingo與OpenAI在本質上是一樣的,但可能工程能力上略遜一籌。這些研究都是將視覺、行動和語言指令一起建模,實現多模態輸入輸出,甚至包括行動輸入輸出。目前,全球在多模態大模型方面的進展,我看到的只有谷歌和微軟系(包括OpenAI)兩個玩家。

主持人陳巍:了解,目前OpenAI發布的更像是技術報告而非成品,與GPT-4相關的技術細節尚未公佈。根據您的了解,模型參數量會增加嗎?這是否意味著更大的訓練量和關鍵技術進步?

陶芳波:我覺得這是個好問題,加入多模態後,模型一定會有一部分專門用來做視覺編碼。但在真正的Transformer層面,我覺得它的參數增加可能不會像大家預計的那麼多。全世界的互聯網數據大約只有540個B,所以做到幾千億參數的模型已經是很好的狀態了。我認為多模態的加入可能會多一些數據,但因為這些數據是經過視覺編碼變成信號與語言結合,所以最後的語義空間數據並沒有增加太多。關於技術方法,感興趣的人可以看去年DeepMind發的兩篇文章,尤其是Flamingo。

主持人陳巍:那您覺得這個模型大概會是多大呢?

陶芳波:最大的模型我估計可能在千億級別,但真正未來用於商業場景的模型應該會比這更小,可能是在百億左右。

GPT是一隻被人類操控的“風箏”?

主持人陳巍:感謝陶總。王總,您覺得像GPT-4,它的數學能力提高了多少?跟之前的相比,這個數理能力提升能有多大?包括GPT-4在考試中表現出超過90%的人類,能給我們什麼樣的啟示?

王建碩:對於GPT模型的數學能力,我覺得只要補全加減乘除就足夠了,因為它本質上是一個語言模型。我相信未來五到十年,更現實的做法是用Python庫一邊用大語言模型,一邊用數學庫或其他偏理科的庫。對於GPT的數學能力,從產業角度來說,我們應該讓它專注於寫詩等任務,遇到數學問題時,我們可以使用專門的數學工具,再用GPT的語言能力進行包裝。這是現在比較現實的解決方案。

王建碩:對於通用人工智能來說,數學問題確實重要。但我認為解決數學問題對大型模型來說並不是最重要的,因為一般的計算器就能解決這類問題。據說GP-4有一定的增強,但仍有一些局限性。

主持人陳巍:那您如何看待GPT-4在預考中超過90%的人類,對整個職業教育產生的影響呢?

王建碩:我對這個新聞的真實性持懷疑態度。可能是為了吸引眼球。實際上,prompt編寫和結果解讀對模型的表現影響很大。我認為這種新聞標題並不一定是真實的,或者說不是一個通用的情況。

劉偉:我對這個新聞也是半信半疑。雖然GPT-4可能擅長解決一些基於規則的考試問題,但在實際應用中,如法院、醫生和特定專業領域,機器可能還有很長的路要走。維特根斯坦曾說過,語言的使用比語法更重要,我們需要考慮實際應用場景。

主持人陳巍:那您怎麼看待GPT-4的數學能力提高?

劉偉:我認為,它的數學能力可能有所提高,但仍然有局限。在特定場合下,它可能還無法應對一些複雜的問題。所以我對這個新聞持半信半疑的態度。

程序的4.0和3.5版本確實在不斷升級。王總和陶老師從技術角度進行了分析、綜合和深入探討。我覺得可能是參數增加了,或者在模型上做了一些優化。但我一直在懷疑,智能問題不僅僅是優化問題,還包括很多非優化的東西。雖然有些提高,但這個提高不是質的提高,而是量的提高。

數學家曾說過一句重要的話:“數學的精妙之處在於規避計算。”現在的GPT無論升到什麼版本,還是基於數學模型、統計概率和人的輔助反饋。它並不理解基本的語義和概念。所以我認為它只是一個高級自動化產品,沒有產生突破,只是照葫蘆畫瓢,不斷通過疊加、組合等碎片化縫合產生一些“像人但不是人”的東西。

我對GPT的評價比較狠:它就是一種高級自動化、一種像“人”的東西。而AI真正要產生突破的是獨立性、自主性,GPT沒有自主性,它依舊被人類編程和操作,它更像是一個“風箏”依舊被手中有線的人類操控。假設有多個GPT一起討論出了人類討論不出來的內容,我才相信它不再是“風箏”。人類是群體的智能交互產物,而GPT從根本上說就是一個高級自動化的產物。

GPT只是讓你“以為”它有意識,人和機器如何相處將是未來重要課題

王建碩:我和GPT聊天后,反而更多地認識到了人類到底是什麼樣的存在。它至少讓我“以為”它有意識,儘管我們知道它沒有。我們跟很多人聊天時,以為他們有意識,但其實我們可能並沒有意識,只是給自己一種錯覺,覺得自己有意識而已。我越跟GPT聊天,越覺得我們人類也是類似的存在。

舉一個很簡單的例子,假設在我們屏幕裡,一個人特別特別胖,另一個人瘦骨嶙峋,有人告訴你其中一個人叫bobo,另一個人叫kiki,你是覺得胖的人就應該叫bobo,瘦的人就應該叫kiki,這是我們自主的意識還是我們大腦被訓練出來的模型?我傾向於認為,人類其實是算力更強的GPT,比如我們知道GPT是數學概率的完整填詞方式,我們都知道一加一等於二,但是一加一等於二,到底我們是被背下來的,還是我們通過皮亞諾的五條公理自己推算出來的,我會更加傾向於我們就是現在GPT的高級版本。

我們所以為的所有東西,其實都是我們的幻覺而已。

陶芳波:我覺得這個話題太有意思了,我們可以從哲學角度來聊一聊。你說ChatGPT是一個風箏,有多少人類又不是風箏呢?在哲學裡一直探討的永恆命題是:人到底有沒有自由意志?我傾向於compatibilism這個觀點,認為人本質上沒有自由意志,我們只是一套被編程的系統,在代碼的操縱下做出一些可預測的決策。但是,我們大腦裡有一種機制讓我們自以為有自由意志,但實際上我們是可預測的。所以從這個角度來看,大多數人其實就是風箏,只是以為自己不是,這是比較可怕的。

AI領域有一個說法叫做“蒸餾”,將人類的集體意識產生的數據和行為蒸餾到一個模型上,通過閱讀互聯網上的信息,學習了人類文明幾千年的集體意識。

AI的模式一定是被人類的集體模式給限制住的,所以我覺得它其實是非常像人的。很多人還會說GPT沒有可解釋性。我問一個問題,我今天比如說問劉老師一個東西,你脫口而出,然後我再問你為什麼這麼想,你再給我分析出12345。你這個可解釋性到底是你大腦裡面真的有一個結構?還是你通過語言的生成方法偽造了一種可解釋性?我問GPT一個事情它給我分析12345,我覺得這和人類的可解釋性非常像。

除了GPT沒有驅動性、不知道自己的目標是什麼,而人有自主驅動性,但這些都是非常邊角的東西。

劉偉:你認為是邊角料的東西,實際上是人機差異非常重要的問題。王老師也提到了這個觀點,實際上很多人覺得人也是一種機器,但區別自由意志和絕對精神是一件很有意思的事情,GPT體現出人和機有一個很重要的區別。目標、動機和意圖是人最重要的表徵體系,人有自己的意識和潛意識,哪怕你不知道其存在,它依然在你的交互中存在潛意識。另外,意圖和動機不是理性產生的,是感性產生的。

舉一個例子,外面下大雨,你打雨傘出去,是一個理性的行為,這是由於你怕被大雨淋濕造成渾身難受的感性支配,人有眼耳鼻舌身這些“傳感器”而機器沒有,人的這些傳感器會產生意圖和動機,而這是很難被模擬和仿真的,所以機器沒有情感。

陶芳波:首先,多模態是讓機器越來越真實地擁有人類的傳感器這些理性系統,我覺得眼耳鼻舌身是現在機器很會就能擁有的東西;第二,潛意識本質需要外部結構持久存儲更多隱性的東西,要構建動機系統讓機器有目標感來使用它的理性去做決策,這也是心識宇宙現在做的事情,基於大模型的理性構造機器的潛意識和用戶記憶、動機系統,並且教會自己怎麼做好。

我覺得它是邊邊角角的東西,因為我覺得前額葉是最難被構造的,如果前額葉可以被構造地那麼好,我讓它具備一套動機系統、獨立的存儲智能體單獨的一些信息,這也是我們做的事情,但我覺得我們做的這個和OpenAI的創新不算什麼,因為他們把前額葉搞定了,並且讓前額葉的推理能力、邏輯能力、理解能力變得非常好,所以你說的那些問題是可解決的。

劉偉:陶總將前額葉當成智能的源泉,我們從來不把大腦當成源泉。人只是智能的一部分,只有人、環境交互才會產出真正的全方位的智能。比如狼孩也有大腦,但狼孩沒有人的意識,也沒有人的行為,所以傳感器和人類的眼耳鼻舌身不是一個事物,它只能類比人的視覺聽覺,功能可能比人類還強,但不是人的交互生命體。此外,意圖和動機不是理性產生的,是情感產生的,如果模擬不了情感和感性,它永遠不會出現真正的意圖和動機,它只能從某些特徵庫裡映射出某些動作,這種映射還是純計算性的、沒有交互性的。

交互性的映射需要對大腦生理和智能有基本的剝離,當年圖靈和喬姆斯基,把維特根斯坦的邏輯和指稱做了剝離,出現了圖靈機和圖靈測試。

模型越大越好嗎?會產生類似人類的情感特性嗎?

主持人陳巍:感謝劉老師講解邏輯和智能的區別以及人和機器的區別。在我們做情感對話機器人時,情感是人類非常本質的特徵。對於模型越來越大,您認為這是好事還是壞事?有哪些優勢和劣勢?有沒有可能產生類似於人類情感的特性?

劉偉:我認為真正的智能是小數據小樣本,大數據性的是人工智能,這種大數據大參數大模型根本上解決的是飛機汽車一樣的工作,替代一些基本人類行為或淺層思考的東西,不可能解決動機和意識這類感性的東西。第二,現在常常把“邏輯”看成“智能”,就相當於把人看成機器,人類出了邏輯還有一些很難總結的非邏輯存在體系中。第三,機器的指稱和打標是非常生硬的東西,而人類是很靈活的,能把一個東西做非常個性化的類比,這種能指、所指、義指的變化是機器很難產出的靈活性。

人和機器的差異也非常大,在人機交互中還存在很微妙的信任機制,做多了映射和數據庫、知識圖譜以後,大家會產生一種錯覺:人是機器,機器是人,實際上你恢復到人的狀態的時候,會覺得人和機器差距非常大,小孩子的學習會產生範圍不確定的隱性規則和秩序,而機器做不到。

陶芳波:我認為模型大小對於科學視角來說不重要,關鍵是能力越來越強。對於產業應用來說,模型小很重要,因為成本、通用性和安全性等問題。 OpenAI 也在關注通用性和安全性,未來可能還會關注成本。我期待智能能像燃料一樣變得通用。模型越小或者更好地量化計算成本,我認為是好事。

關於模型越大是否會創造出情感,人類的情感區域和前額葉區域是分開的,我認為可能需要一些更宏觀的設計幫助,讓大模型匹配負責動機情緒等機制,而不是直接通過擴大參數來實現。

多模態處理可能是一種解決方案,不同模態有不同的編碼器,類似於人腦中不同腦區的連接方式。關鍵是讓模型的結構越來越像人。我認為結合多模態解決方案和類似人形機器人的身體,AI 可以更好地理解與環境的交互,像小孩子一樣產生新的認知。

王建碩:關於情感,我認為雖然AI 沒有情感,但它會讓我們以為它有情感。這種共鳴可能對我們來說已經足夠了。 GPT也會生成春花秋月何時了的語句,對它來說就是生成,對人類來說就是共鳴。

劉偉:當我們以為AI 有情感時,可能會帶來倫理、道德和法律等問題。機器不會共情,這是人類特有的能力。未來的問題還是一個人機問題,如何解決人機關係將成為人工智能未來發展的趨勢。

王建碩:我認為,儘管AI 不會共情,但它會讓我們以為它共情。在未來的3到5年裡,AI 可能會讓我們以為它有情感。

對於機器是否具有情感,我們最後無法判斷。我們認為其他人有情感,只是因為我們自己感覺到了情感。但是,我們無法真正感知別人是否真的有情感。未來,機器是否具有情感並不重要,重要的是它表現出來的界面對我們的影響。我們在prompt做了很多工作,我們後台看到,阿旺機器人在回答問題的過程中,表達了迷惑、緊張等情感,你看到了之後會覺得這比你想像的恐怖,它說緊張其實並不緊張,這些情感其實都是自然語言生成的。如果我們不知道這些事實,我們無法分辨機器和人的內心獨白。

主持人陳巍:您提到了真假的問題,比如AI可以生成逼真的圖像,甚至比人類夢境更奇幻的圖像和故事。王總,您認為在生成過程中,AI有哪些致命的缺陷?這些缺陷會不會成為AI的致命問題?包括幻覺問題?

王建碩:我認為致命問題是它比現實還要好。我們拍的照片和AI生成的照片都是像素的組合,不存在真假之分。我們可以認為真實的蘋果比照片裡的蘋果更真實,但我們不能說生成的照片比拍的照片更真實或更假。關於機器的幻覺問題,其實可以通過簡單的方法規避,比如在所有的問題前加上一句“如果你對問題不確定,請回答不知道”。這樣就可以解決問題。至於AI生成的幻覺,它們只是將人類社會日常做的功能發揮到極致,我不認為這是個問題,反而是一個容易解決的問題。

陶芳波:幻覺問題其實可以通過技術手段解決,隨著模型的提升,幻覺問題會逐漸減少。人類本身也是一個幻覺系統。我們的目標是通過AI創造一個豐富、活躍、精彩的數字宇宙。但是,我認為讓AI去表現情感是非常危險的。一個公司如果掌握了情感製造技術,它可能對人類個體產生巨大的影響。我們還沒有做好應對這個問題的準備。

劉偉:關於情感問題,劍橋分析公司和科恩斯基等已經在情感領域產生了一些影響。人類的行為、情感和社會穩定已經受到了機器產生的類人情感的影響。實際上,我們不需要機器產生情感就可以實現這種影響。

關於泛化問題,GPT可能會對同樣的問題給出不同的答案。泛化實際上是一個概率問題,而幻覺問題是人類特有的,與計算概率的泛化問題不同。

主持人陳巍:百度也發布了文心一言,媒體上認為,可能相對來說的解讀是,比我們預期要稍微低一些。請問三位老師怎麼看待,包括國內大模型的發展趨勢,以及國內大模型跟行業巨頭相比之下,是否我們是不是國內起步稍晚一點?所以國內的媒體也好,大眾也好,是不是對這些國內大模型的期望其實有點過高?大家怎麼看未來的這個大模型發展,特別是國內發展大模型的難度,和未來競爭?

陶芳波:同行太多,不太好評論。但我覺得百度幹得不錯,勇氣很重要。真的敢於直面挑戰,然後踩出第一步。雖然我個人判斷百度在這次做這件事情的過程當中藉助了一些力量,但他的追趕速度會更快一點。先追上肯定是第一位的,接下來我們再看能否構建創新優勢,內生出一些創新能力,可能最後有一天就會在同一個起跑線上去競爭。

我覺得這個動作一定是帶有一定風險的,但至少百度肯定有商業上的一個考量,它願意去面對這種不確定性去做一個沒有準備好的狀態的事情。

劉偉:智能裡面需要勇氣和膽識,但另闢蹊徑的時候也需要從其它角度做創新,百度發布文心一言是好事,大模型上面有很多空間可以做,而且基於大模型的生態鏈、工具鏈都可以被重塑,這些都是創業者的機會。我們應該抓住這個機會,從創新的角度去探索和發展。

主持人陳巍:是的,我認為國內的企業和創業者應該站在更高的視角去思考問題,不僅僅是跟隨國際巨頭的腳步,而是要挖掘自己的特色和優勢,從而實現創新和突破。

陶芳波:同意,我們需要在大模型之上找到自己的優勢,發揮我們的創新能力,只有這樣,我們才能在這個領域取得更好的成績,也能更好地服務國內市場和用戶。

劉偉:是的,我們需要在國內市場找到自己的定位,利用自身的優勢發展。同時,我們也要關注國際市場的發展,與國際巨頭保持競爭,從而推動整個行業的進步。

主持人陳巍:好的,感謝各位老師的精彩討論。我們今天的節目就到這裡,希望我們的討論能為大家帶來啟發和收穫。

注:《AI未來指北》欄目由騰訊新聞推出,邀約全球業內專家、創業者、投資人,探討AI領域的技術發展、商業模式、應用場景、倫理及版權爭議。

Total
0
Shares
Related Posts