重塑計算界限:去中心化算力的現況與展望

需求中的算力

自2009年《阿凡達》上映,以無與倫比的真實畫面掀開3D電影第一役,Weta Digital 作為其背後的巨大功臣貢獻了整部電影的視效渲染工作。在它紐西蘭的佔地10,000平方英尺的伺服器農場裡,它的電腦群每天處理高達140萬個任務,每秒處理8GB的數據,即使這樣也接連持續運行了超過1個月,才完成所有的渲染工作。

大規模的機器召喚與成本投入,《阿凡達》成就電影史上的卓著功勳。

同年1月3日,中本聰在芬蘭赫爾辛基的一個小型伺服器上挖出了比特幣的創世區塊,並獲得了50btc的出塊獎勵。自加密貨幣誕生第一天起,算力一直在業界扮演非常重要的角色。

The longest chain not only serves as proof of the sequence of events witnessed, but proof that it came from the largest pool of CPU power.

—— Bitcoin Whitepaper

在PoW共識機制的大背景下,算力的付出為鏈的安全性提供保障。同時,持續走高的Hashrate 也能佐證礦工的算力上的持續投入和正向的收入預期。產業對算力的真實需求,也大大推動了晶片廠商的發展。礦機晶片經歷了CPU、GPU、FPGA、ASIC等發展階段。目前,比特幣礦機通常是基於ASIC(Application Specific Ingrated Circuit)技術的晶片能高效地執行特定的演算法,如SHA-256。比特幣帶來的巨大經濟效益,也拉動相關挖礦的算力需求一併走高,但過於專用化的設備和集群效應,使得本身參與者發生虹吸效應,無論是礦工或礦機製造商,都呈現資本密集的集中發展趨勢。

而隨著以太坊的智能合約問世,隨著它的可編程性、可組合性等特點,形成了廣泛的應用,特別是在DeFi 領域的運用,使得ETH的價格一路看漲,而還處於PoW 共識階段的以太坊其挖礦難度也一路走高。礦工對以太坊礦機的算力需求也與日俱增,但以太坊與比特幣使用ASIC晶片不同,則需要使用圖形處理器(GPU)來進行挖礦計算,如Nvidia RTX系列等。這樣它更適合通用運算硬體來參與,這甚至一度引發了,市場對於GPU的爭搶而導致市面上高階的顯示卡一度斷貨的局面。

重塑計算界限:去中心化算力的現況與展望

而當時間來到2022年11月30日,由OpenAI 研發的ChatGPT 同樣是展示了AI 領域劃時代的意義,用戶驚嘆於ChatGPT 帶來的全新體驗,能如同真人一般,基於上下文完成用戶提出的各種要求。而在今年9月推出的新版本中,加入了語音、影像等多模態特徵的生成式AI又將使用者體驗帶到了更新的階段。

但與之對應的是GPT4有超過兆級的參數參與模型預訓練以及後續微調。這是AI 領域對算力需求最大的兩個部分。在預訓練階段,透過學習大量的文本來掌握語言模式、文法和關聯上下文。使其能夠理解語言規律,從而根據輸入產生連貫且上下文相關的文字。預訓練之後,再對GPT4進行微調,以便於更適應特定類型的內容或風格,提升特定需求情境的效能與專業化。

由於GPT 採用的Transformer 架構,引入自註意力機制(Self-attention),此機制使得模型能在處理輸入的序列時,同時關注序列中不同部分之間的關係,因而對算力需求急劇增長,特別是在處理長序列是需要大量並行計算和儲存大量注意力分數,因而也需要大量的記憶體和高速的資料傳輸能力。目前主流的同架構LLM對於高效能GPU的需求龐大,也顯示AI大模型領域投入成本龐大。根據相關SemiAnalysis 的推測估計GPT4一次模型訓練成本高達6,300萬美金。而為實現良好的互動體驗,GPT4 在日常營運中亦需要投入大量的算力來維持其日常運作。

算力硬體分類

這裡我們要來理解目前主要的算力硬體類型,CPU、GPU、FPGA、ASIC 分別能處理怎麼算力需求場景。

• 從CPU和GPU的架構示意圖上,GPU包含更多核心,它們使得GPU可同時處理多個運算任務,並行運算的處理能力更強,適用於處理大量運算任務,因此在機器學習和深度學習領域得到了廣泛的應用。而CPU的核心數量較少,適合處理更集中地處理單一複雜運算或序列任務,但在處理平行運算任務時不如GPU高效。在渲染任務和神經網路運算任務中,通常需要處理大量重複運算和平行運算,因此GPU比CPU在這個方面會更有效率且適用。

重塑計算界限:去中心化算力的現況與展望

• FPGA(Field Programmable Gate Array)現場可程式邏輯閘陣列,是作為專用積體電路(ASIC)領域中的一種半客製化電路。由大量小型處理單元組成的陣列,FPGA可以理解為可編程的數位邏輯電路整合晶片。目前的運用主要集中在硬體加速,其他任務仍在CPU上完成,讓FPGA和CPU協同工作。

• ASIC(Application Specific Integrated Circuit)專用積體電路,是指應特定使用者要求和特定電子系統的需要而設計的積體電路。 ASIC在大量生產時與通用積體電路相比具有體積更小、功耗更低、可靠性提高、效能提高、保密性增強、成本降低等優點。因而在比特幣挖礦的固有場景下,只需要執行特定的計算任務,ASIC則是最契合的。 Google 也推出了針對機器學習專門設計的TPU(Tensor Processing Unit)作為ASIC的一種,但目前主要透過Google Cloud提供算力租用服務。

• ASIC 和FPGA 相比,ASIC 是專用積體電路,一旦設計完成後積體電路即固定。而FPGA是在陣列內整合大量數位電路基本閘電路和記憶器,開發人員可以透過燒寫FPGA配置來定義電路,而這種燒寫是可更換的。但就當下的AI領域的更新速度,客製化或半客製化的晶片,無法及時透過調整重新配置來執行不同的任務或適應新演算法。因而,GPU 的普遍的適應性和靈活性,使其在AI 領域大放異彩。各大GPU 廠商就AI 領域也對GPU 在AI 領域的適配做了相關最佳化。以Nvidia 為例,推出了專為深度學習設計的Tesla 系列和Ampere 架構GPU,這些硬體包含針對機器學習和深度學習運算優化的硬體單元(Tensor Cores),這使得GPU能夠以更高的效率和更低的能耗執行神經網路的前向和反向傳播。此外也提供了廣泛的工具和函式庫來支援AI開發,如CUDA(Compute Unified Device Architecture)來幫助開發人員利用GPU進行通用平行運算。

去中心化算力

去中心化算力是指透過分散式運算資源提供處理能力的方式。這種去中心化的方法通常結合區塊鏈技術或類似的分散式帳本技術,將閒置的運算資源匯集並分發給需要的用戶,以實現資源共享、交易和管理。

產生背景

• 強勁的算力硬體需求。創作者經濟的繁榮,使得數位媒體處理方向進入全民創作的時代,激增的視效渲染需求,出現專門渲染外包工作室、雲端渲染平台等形式,但這樣方式也需要本身投入大量的資金用於前期算力硬體採購。

• 算力硬體來源單一。 AI 領域發展更加劇了算力硬體的需求,全球以Nvidia 為龍頭的GPU 製造業在這場AI算力競賽中,賺得盆滿缽滿。其供貨能力甚至成為能掣肘某一產業發展的關鍵要素,Nvidia的市值也於今年首度突破一兆美元。

• 算力提供仍主要依賴中心化雲端平台。而目前真正受益於高效能運算需求激增的是以AWS 為代表的中心化雲端廠商,它們推出了GPU 雲端算力服務,以目前AWS p4d.24xlarge 為例,租用一台這樣的專精於ML 方向的HPC 伺服器,包含8塊Nvidia A100 40GB GPUs,每小時花費在32.8 美元,其毛利率估計可達61%。這也使得其他雲端巨頭紛紛競相參與,囤積硬體以其在產業發展初期盡可能佔據有利。

• 政治、人為幹預等因素導致產業發展不平衡。不平衡我們不難看出GPU的所有權和集中度更向資金和技術充裕組織和國家傾斜,且與高效能運算叢集呈現依仗關係。這使得以美國為代表的晶片半導體製造強國,也在對AI晶片出口方面實施更為嚴苛的限制, 以削弱其他國家在通用人工智慧領域的研究能力。

• 算力資源分配過於集中。 AI 領域的發展主動權掌握在少數巨型公司手中,目前以OpenAI 為代表的巨頭,有微軟的加持,背後是微軟Azure 提供的豐富算力資源,這使得OpenAI 每次新產品的發布,都是對當下AI 產業的重塑與整合,讓其餘團隊在大模型領域難以望其項背。

那麼在面對高昂的硬體成本、地理限制、產業發展不平衡的情況,是否有其他解決方案?

去中心化算力平台則應運而生,平台的目的是創造一個開放、透明且自我調節的市場來更有效地利用全球運算資源。

適應性分析

1. 去中心化算力供給側

目前高昂的硬體價格和供給面的人為控制,都給去中心化算力網絡的建設提供了土壤。

• 從去中心化算力的組成方式來看,多樣的算力提供方小到個人PC、小型物聯網設備大到資料中心、IDC等,大量累積的算力可提供更靈活和可擴展的計算解決方案,從而幫助更多的AI開發者和組織更有效地利用有限的資源。都可以透過個人或組織的閒置算力,來實現去中心化算力共享,但這些的算力的可用性、穩定性,受本身用戶的使用限製或分享上限的限制。

• 有可能的潛在優質算力來源,則是以太坊轉PoS 後,直接由相關礦場轉型提供的算力資源。以美國領先的GPU 整合式算力供應商Coreweave 為例,前身是北美以太坊最大的礦場,基於已建置的完整基礎架構。此外,退役的以太坊礦機,其中也包含了大量的閒置GPU,據悉此前以太坊挖礦時代巔峰在網工作的GPU 約2700萬張,盤活這些GPU 也能進一步成為去中心化算力網絡重要的算力來源。

2. 去中心化算力需求面

• 從技術實作來看,去中心化算力資源在圖形渲染類,視訊轉碼類,這種計算複雜程度不高的任務,結合區塊鏈技術和web3的經濟體系能在確保資訊資料安全傳遞情況下,為網路參與者帶來了實際的收益激勵,累積了有效的商業模式和客群。而AI 領域則涉及大量的平行計算,節點間的通訊、同步等環節,對網路環境等方面有非常高的要求,因而目前應用也都集中於微調、推理、AIGC 等更偏應用層。

• 從商業邏輯來看,單純算力買賣的市場是缺乏想像力的,產業只能捲供應鏈、定價策略,但這些又恰好是中心化雲端服務的優勢。因而,市場上限較低也缺乏更多想像空間,所以也能看到原本做單純圖形渲染的網絡在尋求AI 轉型,如Render Network 與2023 Q1 也推出了原生集成Stability AI 工具集,用戶可以的該項功能引入Stable Diffusion作業,業務也不再侷限於渲染作業而延伸至AI 領域。

• 從主要客群來看,很顯然大B端客戶會更傾向於中心化整合式雲端服務,他們通常有充足的預算,他們通常是從事底層大模型的開發,需要更有效率的算力聚合形式;因而,去中心化算力更多的是服務於中小型開發團隊或個人,從事多是模型微調,或應用層開發,對算力的提供形式沒有太高的要求。他們對價格較敏感,去中心化算力的能從根本上減輕初始成本的投入,因而整體的使用成本也更低,以Gensyn 先前測算的成本來看,將算力換算成V100 提供的等值算力,Gensyn 價格僅0.4美元每小時,相比AWS 同類型的算力需要2美元每小時,能下降80%。雖然這部分生意並不在目前產業中佔開銷大頭,但伴隨AI 類應用的使用場景持續延展,未來的市場規模不容小覷。

重塑計算界限:去中心化算力的現況與展望

• 從提供的服務來看,可以發現目前的專案更像是去中心化雲端平台的概念,提供的是一整套從開發、部署、上線、分發、交易全流程的管理,這樣的好處在於吸引開發者,可以利用相關工具組件來簡化開發部署,提升效率;同時能吸引使用者來平台使用這些完整的應用產品,形成基於自身算力網絡的生態護城河。但這同時也對專案營運提出了更高的要求。如何吸引優秀開發者和使用者並實現留存顯得尤為重要。

不同領域的應用

1. 數位媒體處理

Render Network 一個基於區塊鏈的全球渲染平台,其目標是為創作者數位創意提供幫助。它允許創作者按需將GPU 渲染工作擴展到全球GPU 節點,提供了以更為高速且便宜的渲染工作能力,在創作者確認過渲染結果後,再由區塊鏈網路向節點發送代幣獎勵。相較於傳統的視覺效果實作方法,在本地建立渲染基礎設施或在購買的雲端服務中增加對應的GPU開支,這都需要高昂的前期投入。

重塑計算界限:去中心化算力的現況與展望

自2017年創立以來,Render Network 用戶在網路上渲染了超過1600萬幀和近50萬個場景。從Render Network 2023 Q2 發布資料也能表明,渲染幀數作業和活躍節點數都呈現成長的趨勢。此外,Render Network 與2023 Q1 也推出了原生整合Stability AI 工具集,使用者可以的此項功能引入Stable Diffusion作業,業務也不再侷限於渲染作業而延伸至AI領域。

重塑計算界限:去中心化算力的現況與展望

Livepeer 則是透過網路參與者貢獻自己的GPU算力與頻寬,提供創作者即時視訊轉碼服務。廣播者可透過將影片傳送至Livepeer,完成各類視訊轉碼,並向各類端側用戶分發,進而實現視訊內容的傳播。同時,可以方便地透過法幣形式支付,獲得視訊轉碼、傳輸、儲存等服務。

重塑計算界限:去中心化算力的現況與展望

在Livepeer 網路中,任何人都允許貢獻個人電腦資源(CPU、GPU 和頻寬)以進行轉碼和分發影片來賺取費用。原生代幣(LPT)則代表了網路參與者在網路中的權益,透過質押代幣的數量,決定節點在網路中的權重,從而影響其獲得轉碼任務的機會。同時,LPT也起到了引導節點安全、可靠、快速地完成分派的任務。

2. AI領域的擴展

在目前AI領域的生態系中,主要參與者大致可以分成:

重塑計算界限:去中心化算力的現況與展望

從需求方著手,在產業的不同階段,對算力的訴求是有明顯差異的。以底層模型開發為例,在預訓練環節為確保訓練結果的有效對平行運算、儲存、通訊等方面要求都非常高,這就需要透過大型的算力集群來完成相關的任務。當下主要算力供給主要還是依賴自建機房、中心化的雲端服務平台來集中提供。而在後續模型微調、即時推理和應用開發等環節則對平行計算、節點間通訊的要求沒有那麼高,這正是去中心化算力能一展拳腳的部分。

縱觀先前已頗具的聲量的項目, Akash Nework 在去中心化算力方向做了一些嘗試:

Akash Network 結合不同的技術元件,讓使用者在去中心化的雲端環境中有效率、靈活地部署和管理應用程式。使用者可以利用Docker 容器技術打包應用,然後透過Kubernetes 在Akash 提供的雲端資源上透過CloudMOS 進行部署和擴展。 Akash 採用「反向拍賣」的方式,這使得價格比傳統雲端服務更低。

Akash Network 在今年8月也發布將推出了主網第6次升級,將對GPU 的支援納入其雲端服務中,未來向更多AI 團隊提供算力供給。

重塑計算界限:去中心化算力的現況與展望

Gensyn.ai,今年頗受行業矚目的項目由a16z 領投完成了4300萬美元A輪融資,就目前公佈項目公佈的文檔來看, 該項目是一個主網基於波卡網絡的L1 PoS 協議,聚焦於深度學習,它旨在透過創建一個全球性的超級運算叢集網路來推動機器學習的邊界。這個網路連接了從擁有算力富餘的資料中心到潛在可貢獻個人GPU 的PC,客製化的ASIC 和SoC 等多種設備。

為解決的目前去中心化算力中存在的一些問題,Gensyn 借鑒了學術界的一些理論研究新成果:

1. 採用機率學習證明,即使用基於梯度的最佳化過程的元資料來建立相關任務執行的證明,來加快驗證過程;

2. 圖形基準協定(Graph-based Pinpoint Protocol),GPP作為一個橋樑,連接了DNN(Deep Neural Network)的離線執行與區塊鏈上的智慧合約框架,解決了跨硬體設備間容易發生的不一致性,並確保了驗證的一貫性。

3. 與Truebit 類似的激勵方式,透過質押和懲罰結合的方式,建立一個能讓經濟理性參與者能誠實地執行分派的任務。此機制採用了密碼學和博弈論方法。這個驗證系統對於維持大型模型訓練計算的完整性和可靠性。

但值得注意的是以上內容更多的是解決任務完成驗證層面,而非在專案文件中作為主要亮點講述的關於去中心化算力來實現模型訓練方面的功能,特別是關於並行計算和分佈式硬體間通訊、同步等問題的最佳化。目前受網路延遲(Latency)和頻寬(Bandwidth)的影響,頻繁的節點間通訊會使得迭代時間和通訊成本都成長,這不僅不會帶來實際的最佳化,相反會降低訓練效率。 Gensyn 在模型訓練中處理節點通訊和平行計算的方法可能涉及複雜的協調協議,以管理計算的分散性質。然而,如果沒有更詳細的技術資訊或對他們具體方法的更深入了解,Gensyn透過其網路實現大型模型訓練的確切機制需要等項目上線才能真正揭曉。

我們也關注Edge Matrix Computing (EMC) protocol 它透過區塊鏈技術將算力運用至AI、渲染、科研、AI電商接入等類型的場景,透過彈性計算把任務分發到不同的算力節點。這種方法不僅提高了算力的使用效率,還確保了資料傳輸的安全性。同時,它提供了一個算力市場,使用者可以存取和交換計算資源。方便開發者部署,更快觸達用戶。結合Web3 的經濟形式,也能使算力提供方在根據使用者的實際使用情況獲取真實收益和協議方補貼,AI開發者也獲得更低的推理和渲染成本。以下是其主要組成部分和功能的概述:

重塑計算界限:去中心化算力的現況與展望

預期也將推出了基於GPU 的RWA 類產品,此項的關鍵在於將原本在機房固定住的硬體盤活,以RWA 的形式分割流通,獲得額外的資金流動性,高品質GPU 能作為RWA 底層資產的原因在於,算力可以算得上AI 領域的硬通貨,目前有明顯的供需矛盾,且該矛盾並不能在短期內解決,因而GPU 的價格相對比較穩定。

此外,透過部署IDC 機房實現算力群集也是EMC protocol 會重點佈局的部分,這不僅能讓GPU 在統一環境下的運轉,更有效率地處理相關大型算力消耗的任務,如模型的預訓練,由此來匹配專業用戶的需求。同時,IDC 機房也能集中託管和運行大量的GPU,確保同類型高品質硬體的技術規格,方便將其打包作為RWA 產品推向市場,開啟DeFi 新思路。

近年來學界在邊緣運算領域也有新的技術理論發展與應用實務。邊緣運算作為雲端運算的一種補充和最佳化,一部分的人工智慧正在加快速度從雲端走向邊緣,進入到越來越小的物聯網設備。而這些物聯網設備往往體積很小,為此輕量機器學習受到青睞,以滿足功耗、延遲以及精度等問題。

重塑計算界限:去中心化算力的現況與展望

Network3 是透過建立了一個專門的AI Layer2,透過AI 模型演算法優化和壓縮,聯邦學習,邊緣運算和隱私運算,為全球範圍內的AI開發者提供服務,幫助他們快速、便捷、高效地訓練或驗證模型。它透過利用大量智慧物聯網硬體設備,可聚焦小模型,來做相應的算力供給,且透過建構TEE(Trusted Execution Environment)能讓使用者僅透過上傳模型梯度,來完成相關訓練,確保使用者相關數據隱私安全。

綜上

• 伴隨AI 等領域的發展,許多行業會從底層邏輯上實現巨大變革,算力會上升到更重要的地位,與之關聯的各個方面也會引起行業的廣泛探索,去中心化算力網絡有其自身優勢,可答覆降低中心化風險,同時也能作為中心化算力的一種補足。

• 且本身AI 領域的團隊也處於一個分岔口上,是否利用已訓練好的大模型構建自身產品,還是參與到訓練各自地域內的大模型,這樣的選擇也多是辯證的。因而去中心化算力能滿足不同的業務需求,這樣的發展趨勢是喜聞樂見的,且伴隨技術的更新和演算法的迭代,勢必在關鍵領域也會有所突破。

• 至不懼,而徐徐圖之。

Reference

https://www.semianalysis.com/p/gpt-4-architecture-infrastructure

https://medium.com/render-token/render-network-q2-highlights-part-2-network-statistics-ac5aa6bfa4e5

https://know.rendernetwork.com/

https://medium.com/livepeer-blog/an-overview-of-the-livepeer-network-and-lpt-44985f9321ff

https://mirror.xyz/1kx.eth/q0s9RCH43JCDq8Z2w2Zo6S5SYcFt9ZQaRITzR4G7a_k

https://mirror.xyz/gensyn.eth/_K2v2uuFZdNnsHxVL3Bjrs4GORu3COCMJZJi7_MxByo

https://docs.gensyn.ai/litepaper/#solution

https://a16zcrypto.com/posts/announcement/investing-in-gensyn/

https://www.pinecone.io/learn/chunking-strategies/

https://akash.network/blog/the-fast-evolving-ai-landscape/

https://aws.amazon.com/cn/blogs/compute/amazon-ec2-p4d-instances-deep-dive/

https://manual.edgematrix.pro/emc-network/what-is-emc-and-poc

https://arstechnica.com/gaming/2022/09/the-end-of-ethereum-mining-could-be-a-bonanza-for-gpu-shoppers/

Total
0
Shares
Related Posts