作者:胡泳,北京大學新聞與傳播學院教授
圖片來源:由無界AI生成
ChatGPT的主要用途是開放式對話,但人們很快就找到了使用它的創造性方法,比如:
– 回答Stack Overflow(程序員問答平台)問題
– 代替谷歌
– 生成烹飪菜譜
– 解決複雜的編程任務
– 為Dall-e/Stable Diffusion生成圖像提示信息
– 從頭開始構建應用程序和網站
看上去ChatGPT是很有創造力的,然而,重點是ChatGPT並沒有為這些用途進行專門優化,也沒有考慮到它的通用性。即便如此,在某些特定任務上的結果是相當顯著的,這讓許多人看到了可能即將到來的東西。也就是說,這些用例雖然不會使ChatGPT擴展成為一個通用的人工智能,但它們可以非常快地在特定的領域或應用中發揮作用。
毫無疑問,新一代的人工智能工具正在風靡全球,這些工具可以幫助你寫得更好,編碼更快,並大規模地生成獨特的圖像。如此強大的人工智能工具的出現引出了一個問題:在人工智能創意的時代,成為一個創造者意味著什麼?
我傾向於認為,如果類似ChatGPT這樣的軟件實現了它的宏偉承諾,它可以重新定義人類的認知和創造力。
生成式人工智能對創造力的挑戰
人工智能創造力,也可以稱為計算創造力,是一個多學科的研究領域,旨在設計能夠達到人類水平的創造力的程序。
這個領域並不新鮮。早在19世紀,科學家們就在爭論人工創造力是否可能。埃達·洛夫雷斯(Ada Lovelace)提出了可能是對機器智能最著名的反對意見:如果計算機只能做它們被編程的事情,它們的行為怎麼能被定義為有創造性呢?在她看來,獨立學習是創造力的一個基本特徵。
但最近在無監督機器學習方面的進展,確實帶來了這樣一個問題:一些人工智能軟件所表現出的創造力是否仍然是簡單執行人類工程師指令的結果?如果埃達目睹人工智能已經能夠創造的東西,也許很難不懷疑她最初的想法。隨著大型語言模型(LLMs)越來越大,它們開始提供人類水平的、然後是超人的結果。
由此催生了有關人工智能創造力的兩派觀點。第一派認為人工智能是增強人類創造力的一種方式——它是人類的創造性的伙伴,可以激發靈感,提出想法,並克服創造性的障礙。而第二派人夢想著人工智能能夠模仿人類的創造力,成為一個獨立的創造性思維者,能夠完全自我製造和產生新穎的創造性工作。
有些人認為,由於聊天機器人只是學習其訓練中心化的單詞之間的統計關聯,而不是理解它們的含義,所以LLMs(大型語言模型)永遠只能回憶和綜合人們已經做過的事情,而不能表現出科學過程中人類的某些方面,比如創造性和概念性思維。但是不是會永遠如此?未來的人工智能工具是否能夠掌握今天看來遙不可及的科學過程的各個方面?
在1991年的一篇開創性的論文中,研究人員寫道,人和智能技術之間的“智能夥伴關係”可以超越人單獨的智力能力。這些智能夥伴關係可以將創新加速到以前無法想像的水平。問題是,創造性的增強和創造性的生產之間的界限在哪裡?在創造力方面,人工智能可以和應該走多遠?如果人工智能可以產生高質量的創作,那麼是否還需要人類的創造者?
人工智能無法取代人類創造力
儘管令人驚艷,我認為,人工智能不太可能完全取代人類的創造力。首先,創造力是一種獨特的人類特質,深深紮根於我們的生物學和心理學。它是複雜而不為人知的認知過程的結果,如模式識別、聯想和綜合,這些都是機器不容易複製的。雖然人工智能肯定可以在某些方面具有創造性,但它不可能完全匹配人類創造力的深度和廣度。
其次,創造力的核心在於以獨特和個人的方式表達情感和經驗的能力。人工智能算法無法真正理解激發創造力的人類經驗和情感。一個人工智能作家將能夠拼湊出足夠多的人類經歷,以講述一個令人信服的故事,但是讀者在知道作者經歷了他們所描述的痛苦和快樂時,有一種內在於人性的東西即代入地體驗創作者的感受,是機器作家無法帶來的。人類創造者給他們的工作帶來的個人感受,增加了人工智能算法根本無法比擬的真實性。
許多人工智能研究者在爭論是否應該創造出具有情感的機器。在典型的人工智能模型中沒有情感,而一些研究者稱將情感編程到機器中可以讓它們擁有自己的心智。然而,情感可以對人類經驗加以總結,因為它使人類能夠記住這些經驗。耶魯大學計算機科學家戴維·格勒恩特爾(David Gelernter)寫道:“除非能模擬人類情感的所有細微差別,否則任何計算機都不會有創造力。”
再次,創造力往往涉及捕捉人類的敏感度,如環境、觀點和文化的細微差別。雖然人工智能算法可以被訓練成識別模式並根據數據生成內容,但它們無法像人類那樣理解人類的敏感性。這也使得人工智能在處理社會尚未形成普遍共識的主題時會陷入困難,比如政治和宗教問題。如果你試圖就這些主題生成文本,最終可能會得到有偏見的、不准確的或過時的文本。
人工智能不能取代人類創造力的第四個重要原因,是缺乏想像力和直覺。創造力需要超越現有事物的思考能力和對新的可能性的想像力,而人工智能算法缺乏這種能力。他們無法想出真正獨特和原創的概念。正因為人工智能並非真正的創作者,其生成的內容的一大缺點是,它並非完全原創。內容生成器只是在一定的參數範圍內收集已經存在的信息。因此,雖然內容將通過抄襲檢查,但它不會包括原創研究、見解或數據。在實踐中,這意味著它沒有能力分享觀點或創造思想性內容。
最後,創造力的不可預測性是使其有別於人工智能的另一個因素。創造力可以是不可預測和自發的,涉及靈感的突然閃現、實驗和偶然的事件。然而,人工智能算法受到它們所訓練的程序和數據的限制,缺乏對新信息作出實時反應的能力,因此它們不可能完全複製人類創造力的不可預知性。
總而言之,生成式人工智能不能替代人類的智慧和洞察力。為了實現真正的原創,生成式人工智能需要由具有領域專業知識和背景經驗的人類創造者來指導和培養。通過提供正確的提示,人類創造者可以幫助生成式人工智能充分發揮其潛力,產生令人印象深刻的結果。因此,雖然生成式人工智能是一個非常強大的工具,但它仍然只是一個工具,它需要依靠人類的創造力、專業知識和經驗才能真正發揮作用。
人工智能工具的長短板
雖然我們承認人工智能的工具性,問題在於,大多數人都沒有什麼人工智能素養——對何時以及如何有效使用人工智能工具的理解。我們需要的是一個直接的、通用的框架來評估人工智能工具的優點和缺點,每個人都可以使用。只有這樣,公眾才能在將這些工具納入我們的日常生活中做出明智的決定。
為了滿足這一需要,我們不妨使用教育領域的一個古老方法:布魯姆分類法。這個分類法最早發表於1956年,由教育心理學家本傑明·布魯姆(Benjamin Bloom)提出,後來在2001年進行了修訂。它是一個描述思維水平的層次結構,其中更高的水平代表更複雜的思維。它的六個層次是:
1)知識記憶:即承認或記住事實、術語、基本概念或答案,而不必理解其含義。
2)理解:通過解釋、分類、總結、推論、比較和闡明來解釋主要思想和概念並表達意義。
3)應用:使用知識來解決問題、確定事物之間的聯繫以及它們在新情況下的應用方式。
4)分析:檢查信息並將其分解為組成部分,確定各部分之間的關係,確定動機或原因,進行推斷,並找到支持概括的證據。
5)評估:基於一組標準對信息、想法的有效性或工作質量進行判斷來提出和捍衛意見。
6)創造:將元素放在一起以形成一個連貫的或功能完整的整體。這是布魯姆分類法的最高等級。
布魯姆分類法並不與特定的技術相聯繫——它廣泛適用於認知領域。我們可以用它來評估ChatGPT或其它操縱圖像、創造音頻或駕駛無人機的人工智能工具的優勢和局限性。
一般來說,ChatGPT在記憶、理解和應用任務方面做得很好,但在更複雜的分析、評估和創造任務方面卻很困難。比如講,對醫生、律師和顧問的職業未來,用布魯姆分類法加以觀照,我們會發現,人工智能有朝一日可能重塑這些職業,但並不是完全取代。雖然人工智能可能擅長記憶和理解任務,但很少有人向醫生諮詢自己所患疾病的所有可能症狀,或要求律師逐字逐句地講解法律條文,或聘請顧問解釋邁克爾·波特(Michael Porter)的五力理論。
在那些更高層次的認知任務中,我們會求助於專家。我們重視醫生在權衡治療方案的好處和風險時的臨床判斷,重視律師綜合先例並代表我們進行有力辯護的能力,以及顧問找出別人沒有想到的開箱即用的解決方案的能力。這些技能屬於分析、評估和創造的任務,是人工智能技術目前所不及的認知水平。
使用布魯姆分類法,我們可以看到,有效的人與人工智能合作,將在很大程度上意味著委託交辦較低層次的認知任務,以便我們可以將精力中心化在更複雜的認知任務上。因此,與其糾結於人工智能是否能與人類創造者競爭,不如問問人工智能的能力如何被用來幫助培養人類的批判性思維、判斷和創造力。
當然,布魯姆分類法也有自己的局限性。許多複雜的任務涉及分類法的多個層次,使分類的嘗試受挫。而且布魯姆分類法並不直接解決偏見或仇恨問題,這是大規模人工智能應用中的一個主要問題。
但是,儘管不完美,布魯姆分類法仍然有用。它足夠簡單,每個人都能掌握;足夠通用,適用於廣泛的人工智能工具;結構化,足以確保我們對這些工具提出一套一致的、徹底的問題。
就像社交媒體和假新聞的興起要求我們發展更好的媒體素養一樣,ChatGPT等工具要求我們發展我們的人工智能素養。布魯姆分類法提供了一種思考人工智能能夠做什麼以及不能做什麼的方法,因為這種類型的技術已經嵌入到我們生活的更多部分。
我選擇,故我在
有意思的是,生成式人工智能似乎創造了對人類創造力的迫切需求。對於人工智能來說,僅僅隨機地想出一些新奇的東西是很容易的。但要想出一些新穎的、出乎意料的、同時又有用的東西是非常困難的。
然而弔詭之處在於,由於有生成式人工智能可以依賴,人類創造力或許會進入一個低谷。 2019年7月,在法國一場國際象棋比賽中,全世界排第53名的國際特級大師伊戈斯·勞西斯(Igors Rausis)被曝比賽中途使用手機,按規則來說已屬作弊。人類歷史上第一位輸給計算機的棋類世界冠軍加里·卡斯帕羅夫(Garry Kasparov)引申評測說,雖然在現實生活中使用手機並不是作弊,但你可能會因為過度依賴數字拐杖而出現認知上的缺陷。
他強調,如果我們只依靠機器來告訴我們如何成為優秀的模仿者,我們將永遠無法邁出下一步,成為創造性的創新者。與我們的身體類似,我們的大腦也需要鍛煉,並通過執行高要求和具有挑戰性的認知任務來不斷訓練,以便出類拔萃,擦出“Aha”般的洞察力的火花。
不幸的是,一旦我們將認知自主權部分下放給智能機器,再想要把它拿回來將千難萬難。這就是為什麼,當人類在享受認知的旅程中踩下剎車時,算法和人工智能機器卻會以難以置信的速度快速前進,成為創造力的新來源。有些人對我們正以快速增長的速度進入的完全自動化的人工智能未來有一個烏托邦式的願景,而另一些人則對此懷抱一個歇斯底里的願景。在這種情況下,我們每個人都要做出選擇:是擁抱這些新的挑戰,還是遏制它們。我們是要幫助塑造未來,設定我們與算法和智能機器的關係條款,還是讓算法與智能機器強加於我們?
在1976年的精彩著作《計算機能力與人類理性》中,約瑟夫·魏岑鮑姆(Joseph Weizenbaum)認為:“無論機器如何智能,有些思想行為只能由人類來嘗試。”他頌揚了判斷力、智慧和同情心的重要性——即使我們可以,也不能把這些東西外包給機器。在一個深刻的表述中,他寫道,機器可以決定,但它們不會選擇。為什麼機器會做它所做的事?每一個機械化的決定都可以通過算法一步步追溯,直到最後得出一個不可避免的結論:“因為是你告訴我的。”對人類來說,況並非如此,根本的解釋是:“因為我選擇了。”在這個簡單的短語中,包含著人類的能動性、人類的創造力、人類的責任以及人類本身。
我們已經論證過,我們的技術可以使我們更有人性,讓我們自由地發揮更多的創造力,但作為人類,除了創造力,還有更多的東西。我們有機器無法比擬的其他品質。它們有指令,而我們有目的。機器不能做夢,甚至在睡眠模式下也不能。人類可以,而且我們將需要我們的智能機器,以便將我們最偉大的夢想變成現實。正如卡斯帕羅夫所說,如果我們停止做大夢,如果我們停止尋找更大的目標,那麼我們自己也可能是機器。
創造力一直被認為是人類中心論的主要支柱之一。除了語言、價值觀、情感和知覺以外,如果沒有創造力,還有什麼能讓我們成為人類呢?
資訊來源:由0x資訊編譯自8BTC。版權歸作者所有,未經許可,不得轉載