引言
在數位時代,人工智慧(AI)已成為推動科技革新和社會進步的關鍵力量。 AI的發展不僅是科技的進步,更是人類智慧的延伸。 AI在過去一段時間創投產業和資本市場最為熱門的話題。
隨著區塊鏈技術的發展,去中心化AI(Decentralized AI)應運而生,本文將為您解讀去中心化AI的定義、架構以及它如何與人工智慧產業協同作用。
去中心化AI的定義與架構
去中心化AI利用去中心化的運算資源和資料存儲,以分散式方式訓練和使用AI模型,增強隱私性和安全性。其四層主要架構包括:
• 模型層:支持去中心化的AI模型開發、分享和交易,促進全球範圍內的協作和創新。這一層面的代表性項目如Bittensor,它利用區塊鏈技術創建了一個全球範圍內的AI模型共享與協作平台。
• 訓練層:利用智慧合約和去中心化技術,降低AI模型訓練的成本並簡化流程,提高訓練效率。這一層面的挑戰在於如何有效利用分散式運算資源進行高效率的模型訓練。
• 數據層:利用區塊鏈技術儲存和管理數據,確保數據的安全性和不可篡改性,同時賦予用戶對數據的完全控制權。這一層面的應用如去中心化的數據市場,它們透過區塊鏈技術實現了數據的透明交易和所有權確認。
• 算力層:透過去中心化GPU算力平台和頻寬支持,提供分散式運算資源,支援AI模型的高效訓練和推理。這一層面的技術進步,如邊緣運算和分散式GPU網絡,為AI模型的訓練和推理提供了新的解決方案。
去中心化AI代表項目
去中心化AI產業梳理:模型層
模型層:大模型參數量指數級成長,模型效能顯著提升,但進一步擴展模型規模帶來的效益逐漸減少。這個趨勢要求我們重新思考AI模型的發展方向,如何在維持效能的同時降低成本和資源消耗。
AI大模型的發展遵循“規模定律”,即模型性能與參數規模、資料集大小和計算量之間存在一定的關係。
當模型擴展到某一規模時,其在特定任務中的表現會突然顯著提升。隨著大模型參數量的增加,模型效能的提升幅度逐漸減少,如何平衡參數規模和模型效能將是未來發展的關鍵。
我們看到,AI大模型的API價格競爭加劇,多家廠商紛紛降價,以提高市場佔有率。然而,隨著大模型效能的同質化,API收入的持續性也面臨質疑。如何保持高用戶黏性並提高收入將是未來的一大挑戰。
端側模型的應用將透過減少資料精度和採用混合專家模型(MoE)架構來實現。模型量化技術可以將32位元浮點資料壓縮為8位,從而顯著減少模型大小和記憶體消耗。透過這種方式,模型可以在端側設備上有效地運行,推動AI技術的進一步普及。
總結:區塊鏈輔助模型層提升AI模型的透明度、協作性和使用者參與度。
中心化AI產業梳理:訓練層
訓練層:大模型訓練要求高頻寬與低延遲的通信,去中心化算力網路進行大模型嘗試存在可能性。這一層面的挑戰在於如何優化通訊和運算資源的分配,以實現更有效率的模型訓練。
去中心化算力網路在大模型訓練中具有一定的潛力。儘管存在通訊開銷過大的挑戰,但透過優化調度演算法和壓縮傳輸資料量,可以顯著提高訓練效率。然而,如何在實際環境中克服網路延遲和資料傳輸瓶頸,仍是去中心化訓練面臨的主要難題。
為了解決去中心化算力網路中大模型訓練的瓶頸,我們可以採用資料壓縮、調度最佳化和局部更新與同步等技術。這些方法能夠減少通訊開銷,提高訓練效率,使去中心化算力網路在大模型訓練中成為可行的選擇。
零知識機器學習(zkML)結合了零知識證明和機器學習技術,允許在不暴露訓練資料和模型細節的情況下進行模型驗證和推理。這項技術特別適用於對資料保密性要求高的產業,如醫療和金融,能夠確保資料隱私的同時驗證AI模型的準確性和可靠性。
去中心化AI產業梳理:資料層
資料的隱私性和安全性成為AI發展的關鍵問題。去中心化資料儲存和處理技術為解決這些問題提供了新的思路。
資料儲存、資料索引和資料應用都是確保去中心化AI系統正常運作的關鍵環節。去中心化儲存平台如Filecoin和Arweave在資料安全和隱私保護方面提供了新的解決方案,並降低了儲存成本。
去中心化儲存案例:
-
自2020年以來,Arweave的資料儲存規模迅速成長,主要受到NFT市場和Web3應用需求的推動。透過Arweave,使用者可以實現去中心化永久資料存儲,解決了長期資料存儲的難題。
-
AO專案則進一步增強了Arweave生態系統,為使用者提供更強大的運算能力和更廣泛的應用情境。
在這頁中,我們比較了Arweave和Filecoin兩個去中心化儲存項目。 Arweave透過一次性支付實現永久存儲,而Filecoin則採用按月支付的模式,專注於提供靈活的存儲服務。兩者在技術架構、業務規模和市場定位上各有優勢,使用者可依具體需求選擇適合的方案。
去中心化AI產業梳理:算力層
算力層:隨著AI模型的複雜度增加,計算資源的需求也不斷增加。去中心化算力網路的出現,為AI模型的訓練和推理提供了新的資源配置方式。
去中心化的計算網路(以及用於訓練和推理的專項計算網路)是目前觀察下來DeAI 賽道上最活躍和發展最快的領域。這與現實世界的基礎設施供應商截取了AI 產業鏈的豐盛果實一致。伴隨著GPU 等算力資源短缺的狀態持續,有著算力資源硬體設備的廠商紛紛進入這個領域。
Aethir案例:
商業模式:算力租賃的雙邊市場
-
去中心化算力市場,本質上是利用Web3 技術將網格運算的概念擴展到了一個具有經濟誘因、無需信任的環境。透過激勵CPU 和GPU 等資源提供者將閒置的算力貢獻到去中心化網路中,從而形成有一定規模的去中心化算力服務市場;並連結算力資源的需求方(如模型提供者) ,以更低的成本、更靈活的方式,為其提供算力服務資源。去中心化算力市場,也是對中心化壟斷的雲端服務供應商的挑戰。
-
去中心化算力市場可依其服務的類型進一步分為:通用型和專用型。通用運算網路像分散的雲端一樣運行,為各種應用程式提供運算資源。專用型計算網絡主要為特定用途的計算網絡,針對特定用例量身定制。例如,Render Network 是一個專注於渲染工作負載的專用運算網路;Gensyn 是一個專注於ML 模型訓練的專用運算網路;而io.net 是通用運算網路的範例。
-
對於DeAI 而言,在去中心化基礎設施上訓練模型面臨的一個重要挑戰是大規模算力、頻寬限制和使用來自全球不同供應商的異質硬體導致的高延遲性。因此,一個專用型的AI 運算網路比通用型的運算網路能提供更適配AI 的功能。目前集中式訓練ML 模型依然是最高效和穩定的項目,但這對項目方的資本實力提出了一個非常高的要求。
結語
去中心化AI作為一種新興的技術趨勢,正逐步展現出其在資料隱私、安全性和成本效益方面的優勢。在下一篇文章中,我們將探討去中心化AI面臨的風險與挑戰,以及未來的發展方向。