群體計算的限制:去中心化計算力的目標與前景


《阿凡達》上映以來,算力需求與工程師的創新,為3D電影帶來了革命性的改變。 Weta Digital的巨大算力貢獻了電影的視效渲染工作。在新西蘭,每天處理140個任務,每秒處理8GB資料。大規模的機器呼叫與成本投入,《阿凡達》取得了電影史上的卓著功勳。而隨著加密貨幣誕生,算力一直在業界扮演重要角色。多元化算力為鏈的安全性提供,持續走高的算力也能佐證礦工的算力上的持續參與和積極的收入預期。亦推動了晶片廠商的發展。不同的算力硬體類型適用於不同的算力需求場景。隨著AI等領域的發展,算力不斷上升到更重要地位。去中心化算力有自身優勢,能降低中心化風險,作為中心化算力的一種補足。 AI領域面臨的困境也意味著在去中心化算力能滿足不同的業務需求。

需求中的算力

自2009年《阿凡達》上映以來,以無與倫比的真實畫面掀開3D電影第一役,Weta Digital作為其背後的巨大功臣貢獻了整部電影的視效渲染工作。在它紐西蘭佔地10,000平方英尺的伺服器場裡,它的電腦群每天處理多達140個任務,每秒處理8GB的數據,這樣即使也接連持續運行超過1個月,才完成所有的渲染工作。

大規模的機器呼叫與成本投入,《阿凡達》取得了電影史上的卓著功勳。

同年1月3日,中本聰在芬蘭赫爾辛基的一個小型伺服器上挖出了比特幣的創世區塊,並獲得了50btc的出塊獎勵。自加密貨幣誕生第一天起,算力一直在業界扮演非常重要的角色。

最長的鏈不僅可以證明所見證的事件序列,還可以證明它來自最大的CPU 算力礦池。

—— 比特幣白皮書

在PoW共識保障機制的大背景下,多元化算力的為鏈的安全性提供。同時,持續走高的算力也能佐證礦工的算力上的持續參與和積極的收入預期。產業對算力的真實需求,也大大推動了晶片廠商的發展。礦機晶片經歷了CPU、GPU、FPGA、ASIC等發展階段。目前,比特幣礦機通常是基於ASIC(專用積體電路)技術的晶片能力地執行的特定演算法,如SHA-256。比特幣帶來巨大經濟效益,也拉動相關挖礦的算力需求並走高,但過度專用化的設備和集群效應,使得本身參與者產生吸吸效應,無論是礦工還是礦機製造商,都呈現資本密集的中心化發展趨勢。

而隨著以太坊的智能合約問世,隨著其快速性、可組合性等特點,形成了廣泛的應用,特別是在DeFi 領域的運用,使得ETH 的價格一路看漲,而成為PoW 潮流階段的以太坊其挖礦難度也一路走高。礦工對以太礦機的算力要求也與日俱增,但以太坊與比特幣使用以太坊晶片不同,則需要使用圖形處理器(GPU)來進行挖礦計算,如Nvidia RTX系列等。這樣它更適合通用運算硬體來參與,這甚至一度引發了,市場對於GPU的競爭而導致最終的顯示卡一度斷貨的局面。

眾人計算界限:去中心計算力的目的地與展望

當時間來到2022年11月30日,由OpenAI研發的ChatGPT同樣是展示了AI領域劃時代的意義,用戶驚嘆於ChatGPT帶來的全新體驗,能夠類似於真人一般,基於上下文完成用戶提出的各種要求。而在今年9月推出的新版本中,加入了語音、影像等多模態特徵的生成式AI,又將使用者體驗帶到了更新的階段。

但對應的是GPT4有超過兆級的參數涉及模型預訓練以及後續參數。這是AI領域對算力需求最大的兩個部分。在預訓練階段,透過學習大量的文字來掌握語言模式訓練預語言之後,再對GPT4進行調整,以便於更好地適應特定類型的內容或風格,啟動特定類型場景的表現和專業化。

由於GPT採用的Transformer架構,引入自註意力機制(Self-attention),這使得模型能夠在處理輸入機制的序列時,同時關注序列中不同部分之間的關係,導致對算力需求日益成長,特別是在處理長序列上需要大量的批量計算和儲存大量的主題份額,從而也需要大量的記憶體和高速的資料傳輸能力。目前主流的同架構LLM對於GPU的高效能需求龐大,這也顯示AI大模型領域投入成本龐大。根據相關半分析的推測估計GPT4模型一次訓練成本高達6300萬。而為了實現良好的互動體驗,GPT4在日常營運中亦需要投入大量的算力來維持其日常運作。

算力硬體分類

這裡我們要來了解目前主要的算力硬體類型,CPU、GPU、FPGA、ASIC分別能處理怎樣的算力需求場景。

• 從CPU和GPU的架構來看,GPU包含了更多的核心,它們使得GPU可以同時處理大量的運算任務,個別運算的處理能力更強,適用於處理大量的運算任務,因此在機器學習和深度學習領域得到了廣泛的應用。而CPU的核心數量很少,適合處理較中心化且有效率地處理單一複雜運算或序列任務,但在處理批次運算任務時優於GPU。在渲染任務和神經網路運算任務中,通常需要處理大量重複運算和資源運算,GPU 因此在這方面比CPU 會更有效率且適用。

眾人計算界限:去中心計算力的目的地與展望

• FPGA(Field Programmable Gate Array)現場可程式邏輯閘陣列,是專用積體電路(ASIC)領域中的半客製化電路。由大量小型處理單元組成的陣列,FPGA可以理解為高效能的數位邏輯電路整合晶片。目前的運用主要中心化在硬體加速上,其他任務仍在CPU上完成,讓FPGA和CPU協調工作。

• ASIC(Application Specific Integrated Circuit)專用積體電路,指應特定使用者需求和特定電子系統的需要而設計的積體電路。 ASIC在大量生產時與通用積體電路相比,具有成交量更小、功耗更高的特性、提高、效能提高、保密性增強、成本降低等優點。因而在比特幣挖礦的特定場景下,只需要執行特定的計算任務,ASIC 就可以寫出最契合的。 Google 也推出了針對機器學習專門設計的TPU(TensorProcessingUnit)作為ASIC的一種,但目前主要透過Google Cloud提供算租力用服務。

• ASIC 和FPGA 相比,ASIC 是專用積體電路,一旦設計完成後積體電路即固定。而FPGA 是在內部整合大量數位電路、基本閘電路和記憶器,開發人員可以透過燒寫FPGA 配置來定義電路,而這種燒寫是可更換的。但就相應的AI領域的更新速度,客製化或半客製化的晶片,無法及時透過調整重新配置來執行不同的任務或適應新的演算法。因此,GPU的普遍各大GPU廠商都對AI領域的GPU做了相關最佳化。以Nvidia為例,推出了專為深度學習設計的Tesla 系列和Ampere 架構GPU,這些硬體包含針對機器學習和深度學習運算優化的硬體單元(Tensor Cores),這使得GPU 能夠以更高的效率和語音的語音執行神經網路的前向和反向傳播。此外還提供了廣泛的工具和函式庫來支援AI開發,例如CUDA(統一運算設備架構)來幫助開發人員利用GPU進行通用毛絨運算。

去中心化算力

去中心化算力是指透過去中心化計算資源提供處理能力的方式。這種去中心化的方法通常結合區塊鏈技術或類似的去中心化帳本技術,將閒置的運算資源收集並分配給所需的用戶,以實現資源共享、交易和管理。

產生背景

• 強大的算力硬體需求。創作者經濟的繁榮,使得數位媒體處理方向進入全民創作的時代,視效渲染需求大幅上漲,出現專門的渲染工作室、雲端渲染平台等形態,但這樣的方式也需要本身投入大量資金用於前期算力硬體採購。

• 算力硬體來源單一。 AI領域發展更加劇了算力硬體的需求,全球以Nvidia為龍頭的GPU製造企業在維護AI算力競賽中,賺得盆滿缽滿。其供貨能力甚至成為能掣肘是產業發展的關鍵要素,Nvidia 的市值也於今年首次突破兆美元。

• 算力提供仍主要依賴中心化雲端平台。而目前真正承受於高效能運算需求大幅上漲的情況以AWS為代表的中心化雲廠商,他們推出了GPU雲算力服務,目前以AWS p4d.24xlarge為例如,租用這樣的專精於ML 方向的HPC 伺服器,包含8 塊Nvidia A100 40GB GPU,開支費用在32.8 美元,其毛利率估計約為61%。這也使得其他雲端伺服器各自競相參與,囤積健康在產業發展議題上有一定的幫助。

• 政治、人為幹預等因素導致產業發展不平衡。不平衡我們看不到GPU的晶片和度數更向資金和技術充裕組織和國家傾斜,且與高效能運算負載依仗關係。這使得美國作為代表的晶片半導體製造強國,也對AI晶片出口方面實施了更嚴格的限制,以擁有其他國家在通用人工智慧領域的研究能力。

AI領域的發展主動權掌握在少數少數公司手中,目前以OpenAI為代表的政黨,有微軟的加持,背後是微軟Azure提供了豐富的算力資源,這使得OpenAI削減了新產品的發布,都是針對目前AI產業的拓展與整合,讓其餘團隊在大模型領域難以望其項背。

現今面臨硬體成本日益高昂、地理限制、產業發展不平衡的情況,是否有其他解決方案?

去中心化算力平台則應運而生,平台的目的是創造一個開放、透明且自我調節的市場,以更有效地利用全球運算資源。

現場分析

1.去中心化算力側融資

目前耗費的硬體價格和募集的人員為控制,都給去中心化力算網絡的建設提供了土壤。

• 從去中心化算力的組成方式來看,多樣化的算力提供方小到個人PC、小型物聯網設備大到資料中心、IDC等,大量增持的算力可提供更靈活、可擴展的計算解決方案,從而幫助更多的AI開發者和組織更有效地利用有限的資源。都可以透過個人或組織的閒置算力,來去實現中心化算力共享,但這些算力的可用性、穩定性性,受本身使用者的使用限製或分享上限的限制。

• 可能有潛在的優質算力來源,以太坊轉PoS 後,直接由相關礦場轉換提供的算力資源。以美國領先的GPU 式整合算力建造Coreweave 為例,前身是北美以太坊最大的礦場,基於已建成的以太坊基礎設施。另外,新建的以太坊礦機,其中也包含大量的閒置GPU,據悉以太坊挖礦時代巔峰在網路工作的GPU約2700萬張,盤活這些GPU也能進一步成為去中心化力算網絡的重要算力來源。

2. 去中心化算力需求面

• 從技術實作來看,去中心化資源運算在圖形渲染類、視訊轉碼類,這種運算複雜程度不高的任務,結合區塊鏈技術和web3的經濟體系能力在確保資訊資料安全傳遞狀況下,為網路參與者帶來了實際的收益激勵,增持了有效的商業模式和客群。而AI領域則涉及大量的權益計算,節點間的通訊、同步化等環節,對網路環境等方面有非常的要求,因而目前應用也都中心化於功耗、推理、AIGC等更偏向的應用層。

• 從商業邏輯來看,簡單算力買賣的市場是缺乏想像力的,產業只能成交量供應鏈、定價策略,但這些又恰恰是中心化雲端服務的優勢。由此,市場比重較低也缺乏更多空間想像,所以也能看到哪個做複雜圖形渲染的網絡在尋求AI轉型,如Render Network與2023 Q1也推出了原生集成穩定AI工具集,用戶可以的一項功能引入Stable Diffusion,作業業務也不再侷限於渲染作業而是延伸至AI領域。

• 從主要客群來看,很明顯大B端客戶會更傾向於中心化整合式雲端服務,他們通常有充足的資源調度,他們通常正在進行基礎大模型的開發,需要更有效率的算力聚合形式;由此,中心化算力更多的是服務中小型開發團隊或個人,從事更多的是模型調整,或應用層開發,對算力的提供形式沒有太高的要求。他們對價格比較敏感,去中心化算力的能力從根本上削弱最終成本的投入,從而整體的使用成本也相當,以Gensyn前期測算的成本來看,將算力換算成V100提供的等值算力,Gensyn價格僅0.4美元的收入,相比AWS同類型的算力需要2美元的收入,能下跌80%。雖然這部分業務目前並不在產業中佔GDP大頭,但伴隨AI類應用的使用情境持續延展,未來的市場規模不容小覷。

眾人計算界限:去中心計算力的目的地與展望

• 從提供的服務來看,可以發現目前的專案屬於去中心化雲端平台的概念,提供的是一整套從開發、部署、上線、分發、交易全流程的管理,這樣的好處是吸引開發者,可以利用相關工具元件來簡化開發部署,提升效率;同時能夠吸引使用者來平台使用這些完整的應用產品,形成基於自身算力網路的生態護城河。同時也對專案營運提出了更高的要求要求。如何吸引優秀開發者和使用者並實現留存極度縮小非常重要。

不同領域的應用

1. 數位媒體處理

Render Network 一個基於區塊鏈的全球渲染平台,其目標是為創作者數位創意提供幫助。它允許創作者將GPU 渲染工作分層全球GPU 節點,以提供更為高速且便宜的渲染工作能力,在創作者確認過渲染結果後,再由區塊鏈網路向節點分配代幣獎勵。相較於傳統的視覺效果實作方法,在本地建立渲染基礎或在購買部署的雲端服務中增加相應GPU的支出,這都需要前期的投入。

眾人計算界限:去中心計算力的目的地與展望

自2017年創立以來,Render Network用戶在網路上渲染了超過1600萬幀和近50萬個場景。從Render Network 2023 Q2發布資料也能表明,渲染幀數作業和活躍節點數都呈現成長的趨勢。此外,Render Network 於2023 年第一季也推出了原生整合穩定AI 工具集,使用者可以獲得引入穩定擴散作業的功能,業務也不再局限於渲染作業而是向AI 領域擴展。

眾人計算界限:去中心計算力的目的地與展望

Livepeer 透過網路參與者貢獻自己的GPU 算力和頻寬,為創作者提供即時視訊轉碼服務。廣播者可以透過將視訊發送至Livepeer,完成大部分視訊轉碼,構成大部分端側用戶分發,首先實現視訊內容的傳播。同時,可以方便地透過法幣形式支付,獲得視訊轉碼、傳輸、儲存等服務。

眾人計算界限:去中心計算力的目的地與展望

在Livepeer網路中,任何人都允許貢獻個人資源(CPU、GPU和頻寬)以進行轉碼和分發影片來彌補電腦費用。原有代幣(LPT)則代表了網路參與者在網路中的權益,透過質押代幣的數量,決定節點在網路中的權重,從而影響其獲得轉碼任務的機會。同時,LPT也引導了節點安全、可靠、快速地完成分派的任務。

2. AI領域的擴展

目前AI領域的生態系中,主要參與者大致可分為:

眾人計算界限:去中心計算力的目的地與展望

從需求方著手,在產業的不同階段,對算力的訴求是有區別的。以基礎模型開發為例,在預訓練階段為確保訓練結果對貨物運算、儲存、通訊等方面的有效要求都非常高,這就需要透過大型的力算來完成相關的任務。接下來主要算力補充主要還是依賴自建機房、中心化的雲端服務平台來提供中心化。而在後續模型、即時推理和應用開發等階段則對數量計算、節點間通訊的要求沒有那麼高,這重點是去中心化算力能一展拳腳的部分。

綜觀彼此專案已頗具的聲量的,Akash Nework在去中心化算力方向做了一些嘗試:

Akash Network 結合不同的技術元件,讓使用者在去中心化的高效雲端環境中、靈活地部署和管理應用程式。使用者可以利用Docker 容器技術備份應用,然後透過Kubernetes 在Akash 上透過CloudMOS 提供的雲端資源上部署和擴充。 Akash採用「反向拍賣」的方式,這使得價格高於傳統雲端服務。

Akash Network 在今年8 月也發布了將推出主網第6 次升級,如果GPU 的支援納入其雲端服務中,未來向更多AI 團隊提供算力融資。

眾人計算界限:去中心計算力的目的地與展望

Gensyn.ai,今年頗受行業領先的項目由a16z領投完成了4300萬美元的A輪融資,就目前公佈的項目公佈的文檔來看,該項目是一個基於波卡網絡的L1 PoS協議的主網,聚焦在深度學習中,它旨在透過創建一個全球性的超級運算資源網路來推動機器學習的邊界。這個網路連結了從擁有算力富餘的資料中心到潛在可貢獻個人GPU的PC,客製化的ASIC和SoC等多種裝置。

為了解決目前去中心算化力中存在的一些問題,Gensyn收集了學術界的一些理論研究新成果:

1.採用機率學習證明,即使用基於梯度的最佳化過程的元資料來建構相關任務執行的證明,來加速驗證過程;

2.圖形基準協議(Graph-based Pinpoint Protocol),GPP作為橋樑,連接了DNN(Deep Neural Network)的離線執行與區塊鏈上的智能合約框架,解決了跨硬體設備間容易發生的不一致性,並保證了有效性的一致性。

3. 與Truebit類似的相激勵方式,透過質押和懲罰結合的方式,建立一個讓經濟理性參與者能誠實地執行分派的任務。此機制採用了密碼學和博弈論方法。這個驗證系統用於維持大型模型訓練計算的限制和可靠性。

但意義在於完成以上內容更多的是解決任務驗證表格,而不是在專案文件中作為主要亮點講述關於去中心化力來實現模型訓練方面的功能,特別是關於數量計算和循環硬體間通信、同步等問題的優化。目前受到網路延遲(Latency)和頻寬(Bandwidth)的影響,間隙的節點間通訊會使得迭代時間和通訊成本都不斷成長,這不僅不會帶來實際的最佳化Gensyn 在模型訓練中處理節點通訊和積分計算的方法可能涉及複雜的協調協議,以管理計算的分佈性質。然而,如果沒有更詳細的技術資訊或對他們的具體方法的更深入地了解,Gensyn透過其網路實現大型模型訓練的意圖機制等需要上線項目才能真正揭曉。

我們也關注邊緣矩陣運算(EMC)協議它透過區塊鏈技術將算力運用到AI、渲染、科研、AI電商接入等類型的場景,透過彈性計算把任務分配到不同的算力節點這種方式不僅提高了算力的使用效率,也確保了資料傳輸的安全性。同時,它提供了一個算力市場,用戶可以存取和交易所計算資源。方便開發者部署,更快觸達用戶。結合Web3的經濟形式,也能使算力提供者根據使用者的實際使用情況獲取真實收益和協議方無力,AI開發者也獲得外部的推理和渲染成本。以下是其主要組成部分和功能概述:

眾人計算界限:去中心計算力的目的地與展望

預期鑄造推出了基於GPU 的RWA 類產品,這樣的關鍵在於將不清楚在機房固定住的硬體盤活,以RWA 的形式分割流通,獲得額外的資金流動性,高品質GPU 能夠作為RWA 基礎資產原因在於,算力算得上AI領域的硬通貨,目前存在明顯的供需矛盾,且該矛盾並不能在短期內解決,從而導致GPU的價格相對比較穩定。

另外,透過部署IDC機房實現力運算資源也是EMC協定會重點佈局的部分,這不僅能夠使GPU在統一環境下的運轉,更有效率地處理相關大型運算力消耗的任務,如模型的預訓練,由這來滿足專業使用者的需求。同時,IDC機房也能中心化託管並運行大量的GPU,確保同類型高品質硬體的技術規格,方便將其資源作為RWA產品推向市場,開啟DeFi新思路。

近年來學界在理論計算領域也有新的技術發展與應用。邊緣運算作為雲端運算的一種補充和最佳化,一部分人工智慧正在加快速度從邊緣走向邊緣,進入到越來越小的物聯網設備而這些物聯網設備往往成交量較小,因此輕量機器學習受到青睞,消除功耗、延遲精度、等問題。

眾人計算界限:去中心計算力的目的地與展望

Network3是透過建構了一個專門的AI Layer2,透過AI模型演算法優化和壓縮、聯邦學習、邊緣運算和隱私運算,為全球範圍內的AI開發者提供服務,幫助他們快速、便捷、訓練或驗證它通過利用大量智慧物聯網硬體設備,可聚焦小模型,做相應的算力供給,並且透過建構TEE(Trusted Execution Environment)讓使用者只需透過加載模型加載,來完成相關訓練,確保用戶相關資料隱私安全。

綜上

•伴隨AI等領域的發展,許多行業會從底層邏輯上實現變革,算力會上漲到更重要的地位,關聯的各個方面也會引發行業的廣泛探索,巨大的算力去中心化網絡有其自身優勢,可答覆降低中心化風險,同時也能作為中心化算力的一種補足。

•且本身AI領域的團隊也有一個訓練分岔口上,是否利用已好的大模型自身構建產品,還是參與到訓練各自地域內的大模型,這樣的選擇也是多是辯證的。從而去中心化算力能夠滿足不同的業務需求,這樣的發展趨勢是喜聞樂見的,而且隨之而來的技術的更新和演算法的迭代,勢必在關鍵領域也能有所突破。

• 至不敬畏,而徐徐圖之。

參考

https://www.semianalysis.com/p/gpt-4-architecture-infrastruct

https://medium.com/render-token/render-network-q2-highlights-part-2-network-statistics-ac5aa6bfa4e5

https://know.rendernetwork.com/

https://medium.com/livepeer-blog/an-overview-of-the-livepeer-network-and-lpt-44985f9321ff

https://mirror.xyz/1kx.eth/q0s9RCH43JCDq8Z2w2Zo6S5SYcFt9ZQaRITzR4G7a_k

https://mirror.xyz/gensyn.eth/_K2v2uuFZdNnsHxVL3Bjrs4GORu3COCMJZJi7_MxByo

https://docs.gensyn.ai/litepaper/#solution

https://a16zcrypto.com/posts/announcement/investing-in-gensyn/

https://www.pinecone.io/learn/chunking-strategies/

https://akash.network/blog/the-fast-evolving-ai-landscape/

https://aws.amazon.com/cn/blogs/compute/amazon-ec2-p4d-instances-deep-dive/

https://manual.edgematrix.pro/emc-network/what-is-emc-and-poc

https://arstechnica.com/gaming/2022/09/the-end-of-ethereum-mining-could-be-a-bonanza-for-gpu-shoppers/

資訊來源:0x資訊編譯自網際網路。版權歸作者Future3 Campus所有,未經許可,不得轉載

Total
0
Shares
Related Posts