GTC大會後,Web3解AI算力缺問題?


時尚是一個循環,Web3 也是一個循環。許多去中心化算力項目如io.net、Bittensor、Render Network、Akash、GAIMIN、Gensyn 等涉及GPU 運算的異軍突起者,試圖改變雲端算力的現狀。 GPU 算力的競爭逐漸來到中心化平台,而AI 模型的算力需求正從訓練到推理演進。觀察到這些變化的同時,我們也看到英偉達等公司在顯示卡市場的壟斷地位,以及去中心化算力計畫在嘗試建立新的獲利模式。去中心化算力專案的發展為AI、雲端運算和渲染等領域帶來了更多可能性。

作者:佐爺

時尚是一個循環,Web 3 也是。

即將「重新」成為AI 公鏈,創始人Transformer 作者之一讓其身份出席英偉達GTC 大會,和皮衣老黃暢談生成式AI 的未來,Solana 作為io.net、Bittensor、Render Network 的聚居地成功轉型為AI概念鏈,另外還有Akash、GAIMIN、Gensyn等涉及GPU運算的異軍突起者。

如果我們將視線抬高,在幣價上漲之餘,可以發現幾個有趣的事實:

GPU算力之爭來到中心化平台,算力越多,接下來運算效果越強,CPU、儲存與GPU相互搭售;運算典範從雲端化到去中心化場景中,背後是AI到推理的需求轉變,鏈上模型不再是空玄之談; 互聯網架構的基礎軟硬體組成和運行邏輯發生根本性改變,中心化計算力層更多地承擔去激勵組網的作用。

進行概念區分,Web3世界的雲端算力誕生於雲端挖礦時代,指將礦機的算力資源分配,免去用戶去購買先行礦機的巨額支出,但算力廠商經常會「超售」,例如將100台礦機算力混合出售給105個人,以獲取超額收益,最終讓該詞恰好於騙人。

本文中的雲端算力特別指基於GPU的雲端廠商算力資源,這裡的問題是去中心化算力平台到底是雲端廠商的前台傀儡還是下一步的版本更新。

傳統雲端廠商和區塊鏈的結合比我們想像的要深,例如公鏈節點、開發和日常存儲,基本上都會圍繞著AWS、阿里雲和華為雲來展開,免去購買巨大硬體的昂貴投資,但帶來的問題也不容忽視,極端情況拔網線就會造成公鏈宕機,嚴重影響去中心化精神。

另一方面,去中心化算力平台,或直接搭建「機房」以網路可靠性,或直接搭建支撐網絡,例如IO.NET 的空投促進GPU 數量策略,一如Filecoin 的儲存送FIL 代,出發點不是滿足使用需求,而是進行代幣賦能,有證據表明大廠、個人或學術機構很少會真正使用它們來進行機器學習訓練、推理或圖形渲染等工作,造成嚴重的資源浪費。

只是在幣價高漲和FOMO情緒面前,一切對去中心化算力都是雲算力騙局的指控都消失了。

兩種☁️算力,同名同運嗎?

推理和FLOPS,量化GPU運算能力

AI模型的算力需求正從訓練到推理演進。

先以OpenAI 的Sora 為例,雖然也是基於Transformer 技術製造而來,但其參數量最終達到GPT-4 的萬億級,學界推測在千億級以下,楊立昆更說只有30 億,即訓練成本較低,這也非常好理解,參數量小所需的計算資源也等比例的衰減。

但反過來,Sora 可能需要更強的「推理」能力,推理可以理解為根據指令生成視頻特定的能力,視頻長期被視為創意內容,因此需要AI 更強的理解能力,而訓練相對簡單一些,理解可以根據現有的內容總結規律,無腦算堆力,大力出奇蹟。

在以往階段,AI算力主要用於訓練層面,少部分用於推理能力,基本上都被英偉達各類產品包完善,但是在Groq LPU(LanguageProcessingUnit)面世後,事情開始發生變化,更好的推理能力,提高大模型的瘦身和精度提高,有大腦講邏輯,慢慢成為主流。

另外還要補充下GPU的分類,常常能看到的是臭打遊戲的拯救了AI,這話有道理的地方依賴遊戲市場對高性能GPU的強烈需求覆蓋了研發,比如4090顯卡,打遊戲的和AI煉丹的各個用處,但是要注意的是,慢慢的遊戲卡和算力卡會逐漸解耦,這個過程類似於比特幣礦機從個人電腦發展到專用礦機,其所用的晶片也遵循從CPU、GPU、FPGA和ASIC的順序。

在GTC大會上寫完之後,Web3能夠解決AI算力吃緊的問題嗎?LLM專用卡研發中心···

隨著AI技術,尤其是LLM路線的成熟與進步,更多TPU、DPU和LPU的類似嘗試會越來越多,當然,目前主要產品還是英偉達家的GPU,以下所有的闡述也是基於GPU、LPU等更多的是GPU的一種補充,取代完全尚需時日。

去中心化算力競賽不爭搶GPU的拿貨管道,而是嘗試建立新的獲利模式。

行文至此,英偉達快成為主角,根本上是英偉達參與了顯示卡市場的80%貢獻,N卡和A卡之爭只存在理論上,現實中大家都是口嫌體正直。

絕對壟斷的地位,造就了各家爭奪GPU的盛況,從消費級的RTX 4090到企業級的A100/H100都是如此,各家雲廠商更是搶奪貨主力。與OpenAI等涉及AI公司都有自製晶片的行動或計劃,而國內企業已經紛紛轉向華為等國產廠商,GPU仍然存在異常。

對於傳統雲端廠商而言,出售的實際是力算和儲存空間,所以用自己的晶片沒有AI公司那麼緊迫,但對於去中心化算力項目而言,目前來看目前半截,即跟傳統雲廠商搶算力生意,主打便宜又容易得,但未來不會像比特幣挖礦一樣,出現Web3 AI 晶片不太可能。

另外吐槽一句,自從以太坊轉PoS之後,幣圈的專用硬體已經越來越少,Saga手機、ZK硬體加速和DePIN等市場規模太小,希望中心化力去算癱專用AI算力卡探索出一條Web3 特色道路。

去中心化算力是雲的下一步還是補充。

GPU的運算能力,運算速度通常與FLOPS(Floating Point Operations Per Second,每秒浮點運算數)比較,這是最常用的計算的指標,掌握GPU的規格還是應用運算等措施優化,最終都以FLOPS論高低。

從本地運算到上雲,大約進行了半個世紀,而多個概念從電腦誕生之初便出現,在LLM的推動下,去中心化和算力結合,不再像以往那樣虛無縹緲,我會詳細總結現有的去中心化力算項目,展示維度只有兩點:

GPU等硬體數量,即配備其運算速度,根據摩爾定律,越新GPU的運算能力越強,取得規格下數量越多則運算能力越強; 雙層組織方式,這屬於Web3的產業特色,代幣、加治理功能、空投激勵措施等,更簡單明了各專案的長期價值,而不過度關注短期幣價,長期只看能擁有或調度多少GPU。

從這個角度來看,中心化力仍然是基於「現有硬體+ 網路」的DePIN 路線,或者說網路架構仍然是去底層,中心化力運算層是「硬體虛擬化」後的貨幣化,重在無限制的訪問,真正的組網同樣需要硬體的戰鬥。

算力要中心化,GPU要中心化

借助區塊鏈三難困境框架,去中心化算力的安全性不必特別考慮,主要是去中心化和可擴展性,晚上即是GPU組網後的用途,目前一個AI絕騎塵的狀態。

從一個悖論出發,如果去中心化力計算專案最初具備,那麼其網路上的GPU數量反而要需求的多,原因無他,GPT等大模型的參數量爆炸,沒有一定規模的GPU無法具備訓練或推理效果。

當然,相對於雲端廠商的絕對控制,當前階段,去中心化力專案至少可以設定無存取和自由遷移GPU資源等機制,但資本由於效率的提升,未來不會形成類似礦池的產物也說不定。

在可擴展性方面,GPU不僅可用於AI方面,雲端電腦和渲染也是條安裝路徑,例如渲染網路便專注於渲染工作,而Bittensor等專注於提供訓練模型,更直白的角度,可擴展性隨之而來使用場景和用途。

所以可以在GPU和網路之外額外增加兩個參數,分別是中心化和可擴展性,組成四個角度的對比指標,請大家注意,這種方式和技術對比不同,純粹是圖一樂。

專案GPU 數量網去中心化可擴展性Gensyn 未公佈代幣+ 驗證機制上線後評估AI 訓練和推理Render Network1.2 萬GPU+503 CPU 幣代激勵+ 額外激勵基金會+ 提案+ 開源渲染+AI 訓練Akash2 萬CPU+262 GPU 代幣+ 質押系統代幣全流通AI 推理io.net18 萬GPU+2.8 萬CPUGPU 換空投未發幣AI 推理+ 訓練。

在專案中,渲染網絡其實非常特殊,本質上其是全局渲染網絡,和AI的關係並不直接,在AI訓練和推理中,上述各環節環相扣,不一定是SGD(隨機梯度下跌,隨機梯度下跌)還是逆向傳播等演算法都要求對稱一致,但渲染等工作其實不一定非要如此,對影片和圖片等進行切分才能任務分發。

其AI 訓練能力主要和io.net 併網到來,作為io.net 的一種插件而存在,顯然都是GPU 在工作,怎麼幹不是乾,更明亮的是其在Solana 低估時刻的投奔,事後證明Solana更適合渲染等網路的效能要求。

其次是io.net的暴力換GPU的規模發展路線,目前官網已上市足足18萬塊GPU,在去中心化算力項目中第一檔的存在,與其他對手存在數​​量級的差異,並且在可在擴展性上,io.net專注於AI推理,AI訓練屬於順帶手的工作方式。

嚴格來說,AI訓練並不適合部署,即使是輕量級的LLM,絕對參數量也不會少到哪裡去,中心化的支出方式在經濟算上更加划算,Web 3和AI在訓練上的結合點更多的是資料隱私和加密貨幣侵犯等,例如ZK和FHE等技術,而AI推理Web 3有很大的修復,一方面,其對GPU的侵犯性能相對要求不高,可以承受一定程度的磨損,另外,AI推理更接近應用最側方,從使用者角度出發進行激勵可觀。

另外一家挖礦換代幣的Filecoin 也和io.net 達成GPU 使用協議,Filecoin 將自身的1000 個GPU 和io.net 併網使用,也平等交易所之間的相關共進了,祝他們好運。

再次是也未上線的Gensyn,我們也來雲評測一下,因為還處於網絡建設早期,所以尚未公佈GPU 數量,不過其主要使用場景是AI 訓練,個人感覺對GPU 的數量要求不會少,至少要超過渲染網路的水平,相較於AI 推理,AI 訓練和雲廠商是直接的競對關係機制,在具體設計上也很複雜。

具體來說,Gensyn 需要確保模型訓練的有效性,同時為了提升訓練效率因此,大規模使用了鏈下計算範式,所以模型真體驗和防作弊系統需要多方角色博弈:

提交者:任務發起者,最終為訓練成本付費。解算器:訓練模型,並提供有效證明。驗證者:驗證模型有效性。檢舉人:檢查驗證者的工作。

整體來看,運作方式類似PoW挖礦+樂觀證明,架構非常複雜,或許將運算提升至鏈下可以節省機製成本,但架構複雜度會帶來額外的運作成本,目前主要去中心化算力聚焦AI推理的關口,這裡也祝福Gensyn好運。

最後是老騸伏櫪的Akash,基本上和Render Network一起出發,Akash聚焦CPU的去中心化,Render Network首先聚焦於GPU的去中心化,突然到AI爆發後雙方都走到了GPU+AI計算的領域,區別阿卡什更重視推理。

阿卡什煥發新春的關鍵在於看中了以太坊升級後的礦場問題,閒置GPU不僅可以以女大學生自用的名義掛閒魚,現在還可以一起來搞AI,顯然都是為人類文明做貢獻。

Akash 有一個好處是代幣基本上全流通,畢竟是很老的老項目了,也積極採納PoS 常用的質押系統,但是怎麼看都團隊比較佛系,不過io.net 現在高舉猛打的青春感。

除此之外,還有邊緣雲端運算的THETA,提供AI 算力的細分領域解決方案的Phoenix,以及Bittensor 和Ritual 等計算舊貴新貴,恕難版面限制不能一一列舉,主要是有些確實是求小於GPU 數量等參數。

結語

縱觀電腦發展歷史,各類計算範式的都可以建設去中心化版本,唯一的遺憾是他們對主流應用沒有任何影響,目前的Web3計算項目主要還是在行業內自嗨,近創始人去GTC大會也是因為Transformer 的作者身份,而不是近的創辦人身份。

更悲觀的是,目前的雲端運算市場的規模和玩家都過度強大,io.net能夠取代AWS嗎,如果GPU數量夠多倒是真的有可能,畢竟AWS也長期使用開源的Redis當基礎架構。

某種意義上,和中心化的威力一致未能等量齊觀,去中心化的專案過度中心化在DeFi等金融去領域,而AI或許是切入主流市場的一個關鍵路徑。

參考文獻:

https://wow.groq.com/lpu-inference-engine/

https://docs.gensyn.ai/litepaper

https://renderfoundation.com/whitepaper

https://blog.impossible.finance/aethir-research-report-2/

https://coinbase.bynder.com/m/1bc34d14d28d8d4/original/MktIntel_2024-03-06_Ai.pdf

資訊來源:0x資訊編譯自網際網路。版權歸作者佐爺歪脖山所有,未經許可,不得轉載

Total
0
Shares
Related Posts