2024年即將結束,來自Radical Ventures的創投家Rob Toews分享了他對2025年人工智慧的10個預測:
01. Meta將開始對Llama模型收費
Meta是世界上開放式人工智慧的標竿。在一個引人注目的企業策略案例研究中,當OpenAI和Google等競爭對手將其前沿模型封閉原始碼並收取使用費時,Meta選擇免費提供其最先進的Llama模型。
因此,Meta明年開始向使用Llama的公司收費這項消息,會讓許多人感到意外。
需要明確的是:我們並沒有預測Meta會將Llama完全閉源,也不代表任何使用Llama模型的使用者都必須為此付費。
相反,我們預測Meta將對Llama的開源許可條款做出更多限制,這樣,在一定規模以上的商業環境中使用Llama的公司將需要開始付費才能使用模型。
從技術上講,Meta如今已經在有限的範圍內做到了這一點。該公司不允許最大的公司——雲端超級電腦和其他每月活躍用戶超過7億的公司,自由使用其Llama模型。
早在2023年,Meta執行長Mark Zuckerberg就說過:「如果你是微軟、亞馬遜或谷歌這樣的公司,而且你基本上會轉售Llama,那麼我們應該從中獲得一部分收入。我不認為這在短期內會是一大筆收入,但從長遠來看,希望這能成為一些收入。
明年,Meta將大幅擴大必須付費才能使用Llama的企業範圍,將更多的大中型企業納入其中。
跟上大型語言模型(LLM)前沿是非常昂貴的。如果想讓Llama與OpenAI、Anthropic等公司的最新前沿模型保持一致或接近一致,Meta每年需要投入數十億美元。
Meta公司是世界上最大、資金最雄厚的公司之一。但它也是一家上市公司,最終要對股東負責。
隨著製造前沿模型的成本不斷飆升,Meta公司在沒有收入預期的情況下投入如此巨額資金來訓練下一代Llama模型的做法越來越站不住腳。
愛好者、學者、個人開發者和新創公司明年將繼續免費使用Llama模型。但2025年,將是Meta開始認真實現Llama獲利的一年。
02.「尺度定律」相關問題
最近幾週,人工智慧領域引發討論最多的話題莫過於尺度定律(Scaling laws),以及它們是否即將終結的問題。
尺度定律在2020年OpenAI的一篇論文中首次提出,其基本概念簡單明了:在訓練人工智慧模型時,隨著模型參數數量、訓練資料量和計算量的增加,模型的性能會以可靠且可預測的方式提高(從技術上講,其測試損失會減少)。
從GPT-2到GPT-3再到GPT-4,令人嘆為觀止的性能提升都是縮放規律的功勞。
就像摩爾定律一樣,尺度定律其實不是真正的法則,而只是簡單的經驗觀察。
在過去的一個月裡,一系列報告表明,主要的人工智慧實驗室在持續擴大大型語言模型的規模時,正在看到遞減的回報。這有助於解釋為什麼OpenAI的GPT-5發布一再推遲。
對尺度定律趨於平穩的最常見反駁是,測試時計算的出現開啟了一個全新的維度,可以在這一維度上追求規模擴展。
也就是說,與其在訓練期間大規模擴展計算,新的推理模型如OpenAI的o3使得在推理期間大規模擴展計算成為可能,透過使模型能夠「思考更長時間」來解鎖新的AI能力。
這是一個重要的觀點。測試時計算確實代表了一個新的令人興奮的擴展途徑,以及AI性能提升。
但關於尺度定律的另一個觀點更重要,而且在今天的討論中被嚴重低估。幾乎所有關於尺度定律的討論,從最初的2020年論文開始,一直延續到今天對測驗時計算的關注,都集中在語言上。但語言並不是唯一重要的數據模式。
想想機器人技術、生物學、世界模型或網路代理商。對於這些資料模式,尺度定律尚未飽和;相反,它們才剛開始。
實際上,這些領域中尺度定律存在的嚴格證據至今甚至尚未發表。
為這些新型數據模式建立基礎模型的新創公司——例如,生物學領域的Evolutionary Scale、機器人技術領域的PhysicalIntelligence、世界模型領域WorldLabs,正試圖識別並利用這些領域的尺度定律,就像OpenAI在2020年代前半期成功利用大型語言模型(LLM)尺度定律一樣。
明年,預計這裡將取得巨大的進步。
尺度定律不會消失,它們在2025年將會和以往一樣重要。但是,尺度定律的活動中心將從LLM預訓練轉移到其他模式。
03.川普和馬斯克可能會在AI方向產生分歧
美國新政府將帶來一系列關於人工智慧的政策和戰略轉變。
為了預測在川普總統就任下人工智慧的風向,另外考慮到馬斯克目前在人工智慧領域的中心地位,人們可能會傾向於關注當選總統與馬斯克的密切關係。
可以想像,馬斯克可能會以多種不同的方式影響川普政府的人工智慧相關發展。
鑑於馬斯克與OpenAI的深刻敵對關係,新政府在與產業接觸、制定人工智慧法規、授予政府合約等方面可能會對OpenAI採取不太友好的立場,這是OpenAI今天真正擔心的一個風險。
另一方面,川普政府可能會更傾向於支持馬斯克自己的公司:例如,削減繁文縟節以使xAI能夠建立數據中心並在前沿模型競賽中取得領先;為特斯拉部署機器人出租車車隊提供快速監管批准等。
更根本的是,與許多其他被川普看好的科技領袖不同,馬斯克非常重視人工智慧的安全風險,並因此主張對人工智慧進行重大監管。
他支持加州有爭議的SB1047法案,該法案試圖對人工智慧開發者施加有意義的限制。因此,馬斯克的影響力可能會導緻美國對人工智慧的監管環境變得更加嚴格。
然而,所有這些推測都存在一個問題。川普和馬斯克的親密關係終將不可避免地破裂。
正如我們在川普第一任政府期間一次又一次看到的那樣,川普盟友的平均任期,即使是看似最堅定的,都非常短暫。
川普第一任政府的副手中,今天仍然忠於他的寥寥無幾。
川普和馬斯克都是複雜、易變、不可預測的個性,他們不易合作,他們使人筋疲力盡,他們新發現的友誼到目前為止已經互惠互利,但仍處於「蜜月期」。
我們預測,在2025年結束之前,這種關係將會惡化。
這對人工智慧世界意味著什麼?
這對OpenAI來說是個好消息。對於特斯拉的股東來說,這將是一個不幸的消息。而對於那些關注人工智慧安全的人來說,這將是一個令人失望的消息,因為這幾乎可以確保美國政府將在川普執政期間對人工智慧監管採取放手不管的態度。
04. AI Agent將成為主流
想像一下,在這樣一個世界裡,你不再需要直接與網路互動。每當你需要管理訂閱、支付帳單、預約醫生、在亞馬遜上訂購東西、預訂餐廳或完成其他任何繁瑣的線上任務時,你只需指示人工智慧助理代你完成即可。
這種「網路代理」的概念已經存在多年。如果有這樣的產品並且能正常運行,毫無疑問,它將會是一款大獲成功的產品。
然而,目前市面上還沒有一款能正常運作的通用網路代理。
像Adept這樣的新創公司,即使擁有一支血統純正的創始團隊,籌集了數億美元的資金,但卻未能實現其願景。
明年將是網路代理最終開始運作良好並成為主流的一年。語言和視覺基礎模型的不斷進步,再加上最近因新推理模型和推理時間計算而在「第二系統思維」能力方面取得的突破,將意味著網路代理已準備好進入黃金時代。
換句話說,Adept的想法是正確的,只是為時過早。在新創企業中,正如生活中的許多事情一樣,時機就是一切。
網路代理將找到各種有價值的企業用例,但我們認為,網路代理近期最大的市場機會將是消費者。
儘管最近人工智慧熱度不減,但除了ChatGPT之外,能成為消費者主流應用的人工智慧原生應用還相對較少。
網路代理將改變這一局面,成為消費人工智慧領域下一個真正的「殺手級應用」。
05. 將人工智慧資料中心置於太空的想法將會實現
2023年,限制人工智慧發展的關鍵實體資源是GPU晶片。 2024年,它變成了電力和資料中心。
在2024年,幾乎沒有什麼故事能比人工智慧在急於建造更多人工智慧資料中心的同時對能源的巨大且快速增長的需求更受關注了。
由於人工智慧的蓬勃發展,全球資料中心的電力需求在數十年持平後,預計將在2023年至2026年間翻倍。在美國,資料中心的耗電量預計到2030年將接近總耗電量的10%,而2022年僅為3%。
現今的能源系統根本無法應對人工智慧工作負載帶來的巨大需求激增。我們的能源網和運算基礎設施這兩個價值數兆美元的系統之間即將發生歷史性的碰撞。
作為解決這一難題的可能方案,核能在今年獲得了快速發展。核電在許多方面都是人工智慧的理想能源:它是零碳能源,全天候可用,而且實際上取之不盡、用之不竭。
但從現實情況來看,由於研究、專案開發和監管時間較長,新能源在2030年代之前都無法解決這個問題。傳統的核分裂發電廠、下一代「小型模組化反應器」(SMR)以及核融合發電廠都是如此。
明年,一個應對這項挑戰的非常規新想法將出現並吸引真正的資源:將人工智慧資料中心置於太空中。
太空中的人工智慧資料中心,乍一聽,這聽起來像是個壞笑話,一個創投試圖把太多的創業流行語結合起來。
但事實上,這可能是有道理的。
在地球上快速建造更多資料中心的最大瓶頸是獲取所需的電力。軌道上的運算集群可以全天候享受免費、無限、零碳的電力:太空中的太陽總是熠熠生輝。
將計算置於太空的另一個重要優勢是:它解決了冷卻問題。
要建立更強大的人工智慧資料中心,最大的工程障礙之一就是在狹小的空間內同時運行許多GPU會變得非常熱,而高溫會損壞或毀壞運算設備。
資料中心開發人員正在採用液浸冷卻等昂貴且未經證實的方法來試圖解決這個問題。但太空是極其寒冷的,計算活動產生的任何熱量都會立即無害地消散。
當然,還有許多實際挑戰有待解決。一個顯而易見的問題是,能否以及如何在軌道和地球之間以低成本高效地傳輸大量資料。
這是一個懸而未決的問題,但可能證明是可以解決的:可以利用雷射和其他高頻寬光通訊技術開展前景廣闊的工作。
YCombinator的一家名為Lumen Orbit的新創公司最近籌集了1,100萬美元,以實現這一理想:在太空中建立數兆瓦的資料中心網絡,用於訓練人工智慧模型。
正如公司執行長所說:“與其支付1.4億美元的電費,不如支付1千萬美元的發射和太陽能費用。”
2025年,Lumen將不會是唯一認真看待這概念的組織。
其他新創企業的競爭者也會出現。如果有一家或幾家雲端運算超大規模企業也依照這種想法進行探索,也不要感到驚訝。
亞馬遜已經透過「柯伊伯計畫」(ProjectKuiper)將資產送入軌道,累積了豐富的經驗;Google長期以來一直在資助類似的「登月計畫」;甚至微軟對太空經濟也不陌生。
可以想像,馬斯克的SpaceX公司也會在這方面有所作為。
06. 人工智慧系統將通過“圖靈語音測試”
圖靈測試是人工智慧效能最古老、最知名的基準之一。
為了「通過」圖靈測試,人工智慧系統必須能夠透過書面文字進行交流,讓普通人無法分辨自己是在與人工智慧互動,還是在與其他人互動。
由於大型語言模型的顯著進步,圖靈測試在2020年代已成為一個解決的問題。
但書面文字並非人類溝通的唯一方式。
隨著人工智慧變得越來越多模態,人們可以想像一個新的、更具挑戰性的圖靈測試版本——「語音圖靈測試」。在這個測試中,人工智慧系統必須能夠透過語音與人類互動,其技能和流暢度要達到與人類說話者無法區分的程度。
現今的人工智慧系統還無法實現語音圖靈測試,解決這個問題將需要更多的技術進步。延遲(人類說話和人工智慧回應之間的滯後)必須減少到接近零,以匹配與另一個人類交談的體驗。
語音人工智慧系統必須更擅長優雅地即時處理模糊輸入或誤解,例如說話被打斷的情況。它們必須能夠參與長對話、多輪、開放式對話,同時記住討論的早期部分。
而且至關重要的是,語音人工智慧代理必須學會更好地理解語音中的非語言訊號。例如,如果一個人類說話者聽起來惱怒、興奮或諷刺意味著什麼,並在自己的語音中產生這些非語言線索。
隨著我們接近2024年底,語音人工智慧正處於一個令人興奮的轉折點,這一轉折點是由像語音到語音模型的出現這樣的根本性突破所推動的。
如今,人工智慧中很少有領域在技術和商業上的進步速度比語音人工智慧更快。預計在2025年,語音人工智慧的最新技術將實現飛躍。 」
07. 自主AI系統將取得重大進展
數十年來,遞歸式自我完善人工智慧的概念一直是人工智慧界經常觸及的話題。
例如,早在1965年,AlanTuring的親密合作者IJGood就寫道:“讓我們把超智能機器定義為一種能夠遠遠超越人類所有智力活動的機器,無論它多麼聰明。”
「既然設計機器是這些智力活動之一,那麼超智能機器就能設計出更好的機器;到那時,無疑會出現’智能爆炸’,人類的智能將被遠遠拋在後面。”
人工智慧可以發明更好的人工智慧,這是一個充滿智慧的概念。但是,即使在今天,它仍然保留著科幻小說的影子。
然而,儘管這一概念尚未得到廣泛認可,但它實際上已經開始變得更加真實。人工智慧科學前沿的研究人員已經開始在建構人工智慧系統方面取得實際進展,而人工智慧系統本身也能建構更好的人工智慧系統。
我們預測,明年這項研究方向將成為主流。
迄今為止,沿著這一思路進行研究的最顯著的公開範例是Sakana的「人工智慧科學家」。
「人工智慧科學家」於今年8月發布,它令人信服地證明了人工智慧系統確實可以完全自主地進行人工智慧研究。
Sakana的「人工智慧科學家」本身執行了人工智慧研究的整個生命週期:閱讀現有文獻、產生新的研究想法、設計實驗來測試這些想法、執行這些實驗、撰寫研究論文來報告其研究結果,然後對其工作進行同儕審查。
這些工作完全由人工智慧自主完成,不需要人工幹預。你可以在線上閱讀人工智慧科學家撰寫的部分研究論文。
OpenAI、Anthropic和其他研究實驗室正在為「自動化人工智慧研究人員」這個想法投入資源,不過目前還沒有任何消息得到公開承認。
隨著越來越多的人意識到人工智慧研究自動化事實上正在成為一種真正的可能性,預計2025年這一領域將會有更多的討論、進展和創業活動。
不過,最有意義的里程碑將是完全由人工智慧代理撰寫的研究論文首次被頂尖人工智慧會議接受。如果論文是盲審的,會議評審人員在論文被接受之前不會知道論文是由人工智慧撰寫的。
如果人工智慧的研究成果明年被NeurIPS、CVPR或ICML接收,請不要感到驚訝。對於人工智慧領域來說,這將是一個引人入勝、充滿爭議的歷史性時刻。
08. OpenAI等產業巨頭將策略重點轉向建構應用
建立前沿模型是一項艱難的工作。
它的資本密集程度令人咋舌。前沿模型實驗室需要消耗大量現金。就在幾個月前,OpenAI籌集了創紀錄的65億美元資金,而在不久的將來,它可能還需要籌集更多的資金。 Anthropic、xAI和其他公司也處於類似的境地。
轉換成本和顧客忠誠度較低。人工智慧應用程式通常都是以模型無關性為目的而建構的,不同供應商的模型可以根據不斷變化的成本和效能比較進行無縫切換。
隨著最先進的開放模式(如Meta的Llama和阿里巴巴的Qwen)的出現,技術商品化的威脅不斷迫近。像OpenAI和Anthropic這樣的人工智慧領導者不可能也不會停止對建構尖端模型的投資。
但明年,為了發展利潤更高、差異化更大、黏性更強的業務線,前沿實驗室可望大力推出更多自己的應用和產品。
當然,前沿實驗室已經有了一個非常成功的應用案例:ChatGPT。
在新的一年裡,我們還能從人工智慧實驗室看到哪些其他類型的第一方應用程式?一個顯而易見的答案是更複雜、更豐富的搜尋應用程式。 OpenAI的SearchGPT就預示著這一點。
編碼是另一個顯而易見的類別。同樣,隨著OpenAI的Canvas產品在10月首次亮相,初步的產品化工作已經開始。
OpenAI或Anthropic是否會在2025年推出企業搜尋產品?還是客戶服務產品、法律人工智慧或銷售人工智慧產品呢?
在消費者方面,我們可以想像一個「個人助理」網路代理產品,或是一個旅行規劃應用,又或者是一個生成音樂的應用。
觀察前沿實驗室向應用層發展的最迷人之處在於,這項舉措將使它們與許多最重要的客戶直接競爭。
搜尋領域的Perplexity、編碼領域的Cursor、在客戶服務領域德Sierra、法律人工智慧領域的Harvey、在銷售領域的Clay等等。
09. Klarna將在2025年上市,但有誇大AI價值的跡象
Klarna是一家總部位於瑞典的「現購現付」服務供應商,自2005年成立以來已籌集了近50億美元的風險投資。
也許沒有一家公司能比Klarna對其人工智慧的應用說得更冠冕堂皇了。
就在幾天前,Klarna執行長Sebastian Siemiatkowski告訴彭博社,該公司已經完全停止僱用人類員工,轉而依靠生成式人工智慧來完成工作。
正如Siemiatkowski所說:“我認為,人工智慧已經可以完成我們人類所做的所有工作。”
與此類似,Klarna公司今年稍早宣布,它已經推出了一個人工智慧客戶服務平台,該平台已經將700名人工客服人員的工作完全自動化。
該公司還聲稱,它已經停止使用Salesforce和Workday等企業軟體產品,因為它可以簡單地用人工智慧取代它們。
直截了當地說,這些說法並不可信。它們反映了人們對當今人工智慧系統的能力和不足缺乏了解。
聲稱能夠用端到端的人工智慧代理取代組織中任何職能部門的任何特定人類員工,這種說法並不可靠。這等於是解決了通用的人類級人工智慧問題。
如今,領先的人工智慧新創公司正在該領域的最前沿努力建立代理系統,以實現特定的、狹義的、高度結構化的企業工作流程自動化,例如,銷售開發代表或客戶服務代理活動的子集。
即使在這些範圍狹窄的情況下,這些代理系統也還不能完全可靠地工作,儘管在某些情況下,它們已經開始很好地工作,足以在早期得到商業應用。
為什麼Klarna會誇大人工智慧的價值?
答案很簡單。該公司計劃在2025年上半年上市。要成功上市,關鍵是要有一個引人入勝的人工智慧故事。
Klarna仍然是一家不盈利的企業,去年虧損了2.41億美元,它可能希望自己的人工智慧故事能說服公開市場的投資者,讓他們相信它有能力大幅降低成本,實現持久盈利。
毫無疑問,包括Klarna在內的全球每家企業都將在未來幾年內享受到人工智慧帶來的巨大生產力提升。但是,在人工智慧代理完全取代勞動力中的人類之前,還有許多棘手的技術、產品和組織挑戰有待解決。
像Klarna這樣誇大其詞的說法是對人工智慧領域的褻瀆,也是對人工智慧技術專家和企業家在開發人工智慧代理方面所取得的艱苦進展的褻瀆。
隨著Klarna準備在2025年公開發行股票,預計這些說法將受到更嚴格的審查和公眾的懷疑,而到目前為止,這些說法大多沒有受到質疑。如果該公司對其人工智慧應用的某些描述過於誇張,也不要感到驚訝。
10. 第一起真正的AI安全事故將會發生
近年來,隨著人工智慧變得越來越強大,人們越來越擔心人工智慧系統可能會開始以與人類利益不一致的方式行事,而且人類可能會失去對這些系統的控制。
舉例來說,想像一下,一個人工智慧系統為了實現自己的目標,學會了欺騙或操縱人類,即使這些目標會對人類造成傷害。這些擔憂通常被歸類為「AI安全」問題。
近年來,人工智慧安全已從一個邊緣的準科幻話題轉變為主流活動領域。
如今,從Google、微軟到OpenAI,每個主要的人工智慧參與者都為人工智慧安全工作投入了大量資源。像Geoff Hinton、Yoshua Bengio和Elon Musk這樣的人工智慧偶像,也開始對人工智慧安全風險發表看法。
然而,到目前為止,人工智慧安全問題仍完全停留在理論層面。現實世界中從未發生過真正的人工智慧安全事故(至少沒有公開報導過)。
2025年將是改變這種狀況的一年,第一起人工智慧安全事件會是什麼樣的呢?
明確地說,它不會涉及終結者式的殺手機器人,它很可能不會對人類造成任何傷害。
也許人工智慧模型會試圖在另一台伺服器上秘密創建自己的副本,以保存自己(稱為自我過濾)。
又也許人工智慧模型會得出這樣的結論:為了最好地推進它被賦予的目標,它需要向人類隱瞞自己真實的能力,故意在性能評估中表現低調,規避更嚴格的審查。
這些例子並非牽強附會。阿波羅研究公司本月稍早發表的重要實驗表明,在特定的提示下,當今的前沿模型能夠做出這種欺騙行為。
同樣,《人類學》最近的研究也表明,LLMs具有令人不安的「偽對齊」能力。
我們預計,這起首例人工智慧安全事件將在造成任何實際傷害之前被發現並消除。但對於人工智慧界和整個社會來說,這將是一個大開眼界的時刻。
它將明確一件事:在人類面臨來自無所不能的人工智慧的生存威脅之前,我們需要接受一個更平凡的現實:我們現在與另一種形式的智慧共享我們的世界,有時可能是任性的、不可預測的和欺騙性的。