來源:深眸財經,作者| 張未
圖片來源:由無界AI工俱生成
AI大模型的戰場正在分化。
Chatgpt作為導火索,打開了AI2.0時代的大門,而AI2.0的特徵便是“產業智能化、數字化”,能夠高效地替代人工,廣泛地運用到各行各業,所以比起還在探索落地、已過了狂奔期的元宇宙,AI大模型的落地來得更實在些。
最典型的表現就是,AI大模型的出圈更廣泛,不止步於B端。比如,即便chatGPT發布半年有餘,筆者在上海CBD樓下的咖啡廳還能聽到打工人談論chatGPT的聲音;據媒體報導,也有部分企業將AIGC作為生產力工具。
正如阿里巴巴集團董事會主席兼CEO、阿里雲智能集團CEO張勇所說:面向AI時代,所有產品都值得用大模型重做一次。
大廠、科研機構和創業者,紛紛下場。
大廠有百度文心一言、華為盤古、360智腦、商湯日日新、阿里通義千問、京東靈犀、崑崙萬維天工等大模型先後登場,後續還有騰訊混元、科大訊飛星火等大模型排隊等著上線。
創業者也不乏名人,搜狗創始人王小川、美團聯合創始人王慧文、創新工場董事長李開復等人高調入場AI大模型。
持續了幾月有餘的AI大模型熱,衍生出了兩條道路。
AI軍備競賽,大模型分化
AI大模型已經進入了競賽階段,並且路徑逐漸分化。
隨著AI大模型逐漸加熱,有媒體統計,2月初, 東方財富上“ChatGPT”板塊還只有29隻股票,如今已經達到61支,數量還在不斷攀升中。據不完全統計,截至目前,我國已有超過40家公司、機構發布了大模型產品或公佈了大模型計劃。
在其中,參與AI大模型這場“軍備競賽”的玩家們也發展出了兩個發展方向。垂直大模型和通用大模型,正成為目前人工智能領域的兩個主要發展方向。
垂直大模型是指針對特定領域或任務進行優化設計的模型,例如語音識別、自然語言處理、圖像分類等。
當前有越來越多的企業加入垂直大模型的賽道。學而思宣布正在進行自研數學大模型的研發,命名為MathGPT,面向全球數學愛好者和科研機構;5月6日,淘雲科技宣布推出兒童認知大模型——阿爾法蛋兒童認知大模型,為孩子在練表達、塑情商、啟創造、助學習等方面帶來全新交互體驗。
通用大模型是指能夠處理多種任務和領域的模型,例如BERT、GPT等。
由於資金、人才等優勢,大廠主要瞄准通用大模型這個賽道。
大廠瞄准通用大模型一方面是能夠將AI的能力與自身產品結合,比較有代表性的就是阿里、華為、百度等互聯網大廠和科技巨頭。
比如,繼微軟把GPT-4整合進Office全家桶後,阿里“通義千問”也開始接入釘釘,用戶可以在文檔生成內容,在視頻會議中能以參會者為單位,生成每個人的觀點和內容。
像是百度的大模型也能結合自身業務,“文心一言”在對搜索引擎的迭代上能夠有質的蛻變,能夠從用戶尋找答案,轉換為回答用戶問題,包括騰訊“混元”、網易“玉言”、京東“ChatJD”均能夠優先應用於自身產業。
另一方面,通用性大模型的適用性較廣,先跑贏者能夠建立起先發優勢,成為AI2.0時代的領路人。畢竟,“跑得快的有肉吃,跑得慢的只能吃剩下的邊角料”,這個道理誰都懂。
垂直應用大模型可謂是一股“清流”,由於垂直應用大模型更符合垂類場景的需求、質量比通用大模型更高,也讓眾多企業看到了其中的機會。比如深蘭、出門問問、有道等聚焦AI具體賽道的企業。
垂直大模型的發展主要體現在各個領域的模型性能持續提升,例如語音識別的錯誤率逐年下跌,自然語言處理的語義理解能力不斷提升等。通用大模型則在多任務學習、遷移學習等方面取得了顯著進展,已經成為自然語言處理領域的重要研究方向。
比如,生物大模型能夠提高AI製藥效率。國外的研究報告顯示,ai可以將新藥研發的成功率提高16.7%,ai輔助藥物研發每年能節約540億美元的研發費用,並在研發主要環節節約40%至60%的時間成本。根據英偉達公開資料,使用ai技術可使藥物早期發現所需時間縮短至三分之一,成本節省至兩百分之一。
在產業角度來看,通用模型就是“百科全書”,能夠有問必答,能夠適用不同的產業土壤,而垂直模型類似於單領域的專家,雖然專業,但受眾注定是少數人。
數據是致命傷
垂直大模型的優勢在於不夠“大”:算力不夠大、算法難度低。
王小川在入局大模型賽道後,就一直強調未來發力的方向並不是像OpenAI 一樣去做AGI(通用人工智能),而是垂直在某些特定的領域去做大模型,並實現落地應用。
廣義上的大模型實際上是形容通用大模型,正如“大”模型之稱,大模型之所以“大”,就是因為參數眾多和數據量龐大,對算法、算力、數據存儲空間都有極大的要求,而這些不只是人才可以彌補的,還需要大量的資金。要知道,Open AI的成功也是微軟當初用數十億美金堆出來的。巨大的資金需求,對大廠的研發決心也是一種考驗。
過去5年,AI大模型的參數量幾乎每年提升一個數量級,例如GPT-4參數量是GPT-3的16倍,達到1.6萬億個;而隨著圖像、音視頻等多模態數據的引入,大模型的數據量也在飛速膨脹。這意味著想要玩轉大模型,必須擁有大算力。
做垂直大模型的企業,對比大廠來說,資金、算力、數據較為匱乏,所以實際上和通用大模型玩家不在同一條起跑線上。
正如新能源車離不開電機、電池、電控這三大件,AI大模型則離不開算力、算法和數據的支持。
在算力、算法和數據中,數據是垂直大模型的難點。
三要素中,算法的研發難度相對較低,當前的公司都有自己實現大模型的路徑算法,且有眾多開源項目可參考。
芯片決定算力,AI大模型整體需要較高性能的芯片完成對整體模型神經網絡的訓練建構,而當前的芯片自研較少,還是以外採為主,像當前最適應ChatGPT的芯片就來自英偉達的旗艦芯片H100和次旗艦芯片A100。
難點在於數據。高質量的數據是助力AI訓練與調優的關鍵,足夠多、足夠豐富的數據,是生成式AI大模型的根基。
據OpenAI此前披露,僅ChatGPT3參數數量已達到1750億,訓練資料達到45TB。
由於中國移動互聯網發展較為成熟,大量中文數據資源被存於各家企業或機構裡,較難共享。
“由於企業的很多業務數據、物流數據、財務數據等都是非常核心的私域數據,很難想像華星光電或者是中石油會把數據拿給人家去訓練。”創新奇智CEO徐輝近日受證券時報採訪時也曾直言。
以AI製藥行業為例,生物大模型就面對被技術“卡脖子”的問題。藥物研發對高精度實驗數據獲取成本較高,且公開數據庫中有大量無標註數據,既要利用好大量無標註數據,又要利用好少量高精度數據,所以對模型建構提出了較高要求。
誰先賺到第一桶金?
無論何種模式,商業化都是核心問題。從目前擁有大模型的AI玩家來看,都在快速推進賦能和商業化。
通用大模型和垂類大模型,雖走的路不同,但本質還是“一家人”,處於同一個賽道中,所以避免不了競爭這個問題。
對於通用大模型而言,垂直大模型先落地,通用大模型的路會更窄。同樣,通用大模型先快速搶占市場後,業務線較窄的垂直大模型,要想賺錢就更為艱難。
在理想階段中,通用大模型無論是經濟模型,還是普世價值,都是要優於垂直大模型的。可是,現實生活不是烏托邦,通用大模型和垂類大模型誰跑得更快,還得看各企業之間的比拼。
從去年大熱的AIGC來看。相比在C端讓用戶以較低的門檻使用AI生成內容,B端被部分市場人士認為將是AIGC更主要的商業模式。
華為也更注重於自己的ToB業務。在發布會上,華為表示,華為盤古大模型主要以AI賦能產業,運用在電力、金融、農業等多個行業,其中CV大模型落地礦山,NLP大模型落地智能文檔檢索。
像是以搜索引擎為所長的百度,推出了類似GPT-3這樣具備搜索屬性的文心一言。
除了ChatGPT,實際上在AI大模型這陣風吹起來之前就已有落地的場景了,這些“大”模型,實際以垂直大模型為主。
語言模型:如GPT、BERT等,主要應用於自然語言處理領域,如機器翻譯、文本生成、情感分析等。
圖像模型:如ResNet、Inception等,主要應用於計算機視覺領域,如圖像分類、目標檢測、圖像分割等。
推薦模型:如DNN、RNN等,主要應用於推薦系統領域,如商品推薦、廣告推薦等。
聊天機器人:如Seq2Seq、Transformer等,主要應用於智能客服、智能助手等場景。
金融風控:如XGBoost、LightGBM等,主要應用於銀行、證券等金融機構的風控場景,如信用評分、反欺詐等。
醫療影像診斷:如DeepLung、DeepLesion等,主要應用於醫療影像診斷領域,如肺癌診斷、病理學分析等。
比起落地,更重要的是賺錢。
據國盛證券報告《ChatGPT 需要多少算力》估算,GPT-3 訓練一次的成本約為140 萬美元,對於一些更大的LLM(大型語言模型),訓練成本介於200 萬美元至1200 萬美元之間。以ChatGPT 在1 月的獨立訪客平均數1300 萬計算,其對應芯片需求為3 萬多片英偉達A100 GPU,初始投入成本約為8 億美元,每日電費在5 萬美元左右。
通用大模型在落地場景更廣泛毋庸置疑,對於有底氣地通用大模型的玩家來說,商業化是其次,垂直類大模型,需要更快的商業化來兜底,所以垂直大模型的落地有更高的可能性和更快地普及速度。
誰能先形成絕對優勢還沒有肯定的答案。 AI大模型的這場“軍備競賽”,正如web1向web2的蝶變,企業爭分奪秒地向前跑,誰先抓住了機會,就抓住了市場。
資訊來源:由0x資訊編譯自8BTC。版權歸作者所有,未經許可,不得轉載