解析AI 與加密結合的潛力與現實挑戰

作者:@ed_roman;編譯:白話區塊鏈

最近,人工智慧成為加密市場上最熱門、最有前景的領域之一。 包括:

  • 去中心化的AI訓練

  • GPU去中心化實體基礎設施網絡

  • 無審查的AI模型這些是突破性的進展還是只是炒作?

在@hack_vc,我們正努力撥開迷霧,將承諾與現實區分開來。 本文將深入分析加密與AI的頂尖創意。讓我們一同探討真正的挑戰與機會。

一、Web3與AI結合的挑戰

1.去中心化的AI訓練

在鏈上進行AI訓練的問題在於,訓練需要GPU之間高速的溝通和協調,因為神經網路在訓練時需要進行反向傳播。 Nvidia為此提供了兩種創新技術(NVLink和InfiniBand)。這些技術可以大大加快GPU通訊速度,但它們只能在單一資料中心內的GPU叢集中使用(速度超過50 Gbps)。

如果引入去中心化網絡,由於增加了網路延遲和頻寬,速度會顯著變慢。這與Nvidia在資料中心內提供的高速互聯相比,對於AI訓練用例來說根本不可行。此外,去中心化環境中的網路頻寬和儲存成本相比於本地叢集中的固態硬碟也要高得多。

在鏈上訓練AI模型的另一個問題是,與推理相比,這個市場的吸引力較小。目前,大量GPU運算資源用於AI大語言模型(LLM)的訓練。但從長遠來看,推理將成為GPU的主要應用場景。想想看:為了滿足需求,需要訓練多少個AI大語言模型?相比之下,將有多少客戶使用這些模型?

請注意,這方面已經有一些創新,可能為鏈上AI訓練的未來提供希望:

1)基於InfiniBand的分散式訓練正在大規模開展,NVIDIA本身也透過其集體通訊庫支援非本地分散式訓練。不過,這仍處於初期階段,採用情況仍有待觀察。物理距離帶來的瓶頸依然存在,因此本地InfiniBand訓練仍然顯著更快。

2)已有一些新研究發表,探討了減少溝通同步次數的去中心化訓練,可能在未來使去中心化訓練更為實際。

3)智慧分片和訓練調度可以幫助提升表現。同樣,未來可能會有新模型架構專門為分散式基礎設施設計(Gensyn正在這些領域進行研究)。

4)創新如Neuromesh嘗試透過一種稱為預測編碼網路(PCN)的新方法,以較低成本實現分散式訓練。

2、去中心化的AI資料迭代

訓練的資料資訊部分也是一個難題。任何AI訓練過程都涉及處理大量資料。通常,模型是在集中且安全的資料儲存系統上進行訓練,這些系統具有高可擴展性和高效能。這需要傳輸和處理數TB的數據,而且這不是一次性的循環。資料通常是吵雜且含有錯誤的,所以在訓練模型之前,必須對資料進行清洗和轉換,使其成為可用格式。這個階段涉及標準化、過濾和處理缺失值的重複任務。在去中心化環境中,這些都構成了嚴重挑戰。

訓練的資料資訊部分也是迭代的,這與Web3不太相容。 OpenAI花了成千上萬次迭代才取得他們的成果。訓練過程是迭代的:如果目前模型未達到預期效果,專家會回到資料收集或模型訓練階段以改善結果。現在,想像在去中心化環境中進行這個過程,而現有的最佳框架和工具在Web3中不易獲得。

一種有前景的技術是0g.ai(由Hack VC支援),他們提供鏈上資料儲存和資料可用性基礎設施。他們擁有更快的架構和在鏈上儲存大量資料的能力。

3.利用過度冗餘的AI推理計算達成共識

加密與AI結合的一個挑戰是驗證AI推理的準確性,因為你不能完全信任單一的中心化方來執行推理操作,存在節點行為不端的可能性。在Web2的AI中,這個挑戰不存在,因為沒有去中心化的共識系統。

一種解決方案是冗餘計算,即多個節點重複相同的AI推理操作,以便在無信任的環境中操作,並避免單點故障。

這種方法的問題在於,我們生活在一個高階AI晶片嚴重短缺的世界。高階NVIDIA晶片的等待期長達數年,導致價格上漲。如果你還要求AI推理在多個節點上多次重複執行,這將大幅增加這些昂貴的成本。對於許多項目來說,這是行不通的。

4.Web3特定的AI用例(短期內)

有人建議,Web3應該有其獨特的AI用例,專門針對Web3客戶。

目前,這仍是一個新興市場,用例尚在發現中。一些挑戰包括:

  • Web3原生用例所需的AI交易量較少,因為市場需求還處於起步階段。

  • 客戶較少,因為Web3客戶相比Web2客戶少了好幾個數量級,所以市場不那麼分散。

  • 客戶本身不夠穩定,因為他們是資金較少的新創公司,因此這些新創公司可能會隨著時間的推移而倒閉。針對Web3客戶的AI服務供應商可能需要隨著時間的推移重新取得部分客戶,以取代那些倒閉的客戶,使其業務擴展更加困難。

從長遠來看,我們對Web3原生的AI用例非常看好,特別是隨著AI代理的普及。我們設想未來每個Web3用戶都會有多個AI代理為他們提供協助。這個領域的早期領導者是Theoriq.ai,他們正在建立一個可組合AI代理的平台,能夠服務Web2和Web3客戶(由Hack VC支援)。

5.消費級GPU去中心化實體基礎設施網路(DePIN)

有許多去中心化的AI運算網路依賴消費級GPU,而不是資料中心的GPU。消費級GPU適用於低階AI推理任務或延遲、吞吐量和可靠性要求較為靈活的消費用例。但對於嚴肅的企業用例(即佔據主要市場份額的用例),客戶希望網路比家庭機器更可靠,且複雜推理任務通常需要更高階的GPU。對於這些更有價值的客戶用例,資料中心更為適合。

需要注意的是,我們認為消費級GPU適合於演示用途或那些能容忍較低可靠性的個人和新創公司。但這些客戶的價值基本上較低,因此我們認為,Web2企業的去中心化實體基礎設施網路(DePIN)從長遠來看會更有價值。因此,知名的GPU DePIN專案通常已經從早期主要使用消費級硬體發展到現在具備A100/H100和叢集層級的可用性。

二、加密x AI 的實際且可行的用例

現在,讓我們討論加密x AI 能顯著提升價值的用例。

實際收益1:服務Web2客戶

麥肯錫估計,生成式AI每年可為他們分析的63個用例帶來2.6兆至4.4兆美元的附加價值——相較之下,英國2021年的GDP總量為3.1兆美元。這將使所有人工智慧的影響增加15%到40%。如果我們將生成式AI嵌入目前用於其他任務的軟體中,這項估計的價值將大致增加一倍。

有趣的是:

  • 根據上述估算,這意味著全球AI(不僅僅是生成式AI)的總市場價值可能達到數十兆美元。

  • 相比之下,所有加密貨幣(包括比特幣和所有山寨幣)加起來的總價值今天僅約為2.7兆美元。

所以,讓我們現實一點:短期內需要AI的客戶絕大多數將是Web2客戶,因為實際需要AI的Web3客戶只是這2.7兆市場中的一小部分(考慮到BTC佔據了一半的市場份額,而BTC本身並不需要/使用AI)。

Web3的AI用例才剛起步,目前尚不清楚其市場規模會有多大。但有一點直觀上可以確定──在可預見的未來,它只會是Web2市場的一部分。我們相信Web3 AI仍有光明的前景,但這意味著目前Web3 AI最常見的應用還是服務Web2客戶。

可以從Web3 AI中受益的Web2客戶的範例包括:

  • 從頭開始建立並以AI為核心的垂直行業軟體公司(例如Cedar.ai或Observe.ai)

  • 為自身目的微調模型的大型企業(例如Netflix)

  • 快速成長的AI提供者(例如Anthropic)

  • 在現有產品中加入AI功能的軟體公司(例如Canva)

這是一個相對穩定的客戶群,因為這些客戶通常規模大且價值高。他們不太可能在短期內倒閉,並且代表了AI服務的非常大的潛在客戶群。服務於Web2客戶的Web3 AI服務將受益於此穩定的客戶基礎。

但為什麼Web2客戶會想要使用Web3技術堆疊呢?本文的其餘部分將解釋這個理由。

實際收益2:透過GPU去中心化實體基礎設施網路(GPU DePIN)降低GPU使用成本

GPU DePINs匯集了未充分利用的GPU運算能力(其中最可靠的來自資料中心),並使這些資源可用於AI推理。可以簡單地將其視為「GPU的Airbnb」(即協作消費未充分利用的資產)。

我們對GPU DePINs感到興奮的原因如上所述,主要是因為NVIDIA晶片短缺,目前有許多GPU週期被浪費了,這些資源可以用於AI推理。這些硬體所有者已經承擔了沉沒成本,目前沒有充分利用他們的設備,因此可以以比現狀更低的成本提供這些部分GPU週期,因為對硬體所有者來說,這實際上是“意外之財” 。

具體例子包括:

1)AWS機器:如果你今天從AWS租用一台H100,你需要承諾至少租用一年,因為市場供應緊張。這會導致浪費,因為你不太可能全年365天、每週7天都使用你的GPU。

2)Filecoin挖礦硬體:Filecoin網路有大量的補貼供應,但實際需求不大。不幸的是,Filecoin從未找到真正的產品市場契合點,因此Filecoin礦工面臨破產的危險。這些機器配備了GPU,可以重新用於低階AI推理任務。

3)ETH挖礦硬體:當ETH從工作量證明(PoW)轉向權益證明(PoS)時,大量硬體立即變得可用,這些硬體可以重新用於AI推理。

GPU DePIN市場競爭激烈,有多位參與者提供產品。例如Aethir、Exabits和Akash。 Hack VC選擇支援io.net,後者也透過與其他GPU DePINs的合作來匯集供應,因此他們目前支援市場上最大的GPU供應。

需要注意的是,並非所有GPU硬體都適用於AI推理。一個明顯的原因是較舊的GPU沒有足夠的GPU記憶體來處理大語言模型(LLMs),儘管在這方面已經有一些有趣的創新。例如,Exabits開發了技術,將活躍的神經元載入到GPU記憶體中,而將不活躍的神經元載入到CPU記憶體中。他們預測哪些神經元需要活躍/不活躍。這使得即使在GPU記憶體有限的情況下,也能使用低端GPU處理AI工作負載。這實際上提高了低端GPU在AI推理中的實用性。

此外,Web3 AI DePINs需要隨著時間的推移強化他們的產品,提供企業級服務,例如單一登入(SSO)、SOC 2合規、服務等級協定(SLAs)等。這將與目前Web2客戶享受的雲端服務相媲美。

真正的優勢#3:避免OpenAI自我審查的非審查模型

關於AI審查的問題已經有很多討論。例如,土耳其曾經暫時禁止OpenAI(後來他們在OpenAI改進其合規性後取消了禁令)。我們認為這種國家層級的審查從根本上來說並不值得關注,因為各國需要擁抱AI才能保持競爭力。

更有趣的是,OpenAI會自我審查。例如,OpenAI不會處理NSFW(不適合在工作場合觀看)內容,也不會預測下屆總統選舉的結果。我們認為在OpenAI因政治原因不願涉及的AI應用領域,存在著一個有趣且龐大的市場。

開源是解決這個問題的一個好方法,因為一個Github倉庫不受制於股東或董事會。一個例子是Venice.ai,它承諾保護用戶隱私並以非審查的方式運作。當然,關鍵在於其開源性,這使得這一切成為可能。 Web3 AI可以有效提升這一點,透過在低成本的GPU叢集上運行這些開源軟體(OSS)模型以進行推理。正因為如此,我們相信OSS + Web3是鋪平非審查AI道路的理想組合。

真正的好處#4:避免向OpenAI發送個人可識別訊息

許多大型企業對其內部企業資料有隱私顧慮。對於這些客戶來說,很難信任像OpenAI這樣的集中式第三方來處理這些資料。

對於這些企業來說,使用web3可能會顯得更加可怕,因為他們的內部資料突然出現在一個去中心化網路上。然而,對於AI而言,隱私增強技術方面已經有一些創新:

諸如Super協定之類的可信執行環境(TEE)

諸如Fhenix.io(由Hack VC管理的基金組合公司)或Inco Network(均由Zama.ai提供支援)和Bagel的PPML之類的完全同態加密(FHE)

這些技術仍在不斷發展,透過即將推出的零知識(ZK)和FHE ASICs,性能也在不斷改善。但長期目標是在微調模型時保護企業資料。隨著這些協議的出現,web3可能成為更具吸引力的隱私保護AI計算場所。

真正的好處#5:利用開源模式的最新創新

在過去的幾十年裡,開源軟體(OSS)一直在侵蝕專有軟體的市場份額。我們將LLM視為一種高階專有軟體,正逐漸成為開源軟體的顛覆物件。一些值得注意的挑戰者包括Llama、RWKV和Mistral.ai。隨著時間的推移,這個清單無疑會不斷增長(在Openrouter.ai上提供了更全面的清單)。透過利用由開源模型提供支援的web3 AI,人們可以充分利用這些新創新。

我們相信,隨著時間的推移,一個開源的全球開發工作力量,結合加密激勵,可以推動開源模型以及構建在其之上的代理和框架的快速創新。一個AI代理協議的例子是Theoriq。 Theoriq利用開源模型創建了一個可組合互聯的AI代理網絡,可以組裝在一起創建更高級的AI解決方案。

我們對此深信不疑的原因在於過去的經驗:大多數「開發者軟體」在經過時間的推移後逐漸被開源軟體所超越。微軟過去是一家專有軟體公司,現在成為了貢獻最多的Github公司,這是有原因的。如果你看看Databricks、PostGresSQL、MongoDB等是如何顛覆專有資料庫的,你會發現整個產業就是一個被開源軟體顛覆的例子,所以先例在這裡是相當強大的。

然而,這也有一個小陷阱。 OSS LLMs有一個棘手的問題,就是OpenAI已經開始與組織簽訂付費資料授權協議,例如Reddit和紐約時報。如果這種趨勢持續下去,由於獲取數據的經濟壁壘,OSS LLMs可能會越來越難以競爭。英偉達可能會將保密計算作為安全資料共享的加強工具。時間會告訴我們這將如何發展。

真正的好處#6:透過高成本的隨機抽樣或零知識證明來實現共識

在web3 AI推理中,驗證是一個挑戰。驗證者有可能透過欺騙結果來獲取費用,因此驗證推理是一項重要的措施。需要注意的是,儘管AI推理還處於初級階段,但除非採取措施來削弱這種行為的動機,否則這種欺騙是不可避免的。

標準的web3方法是讓多個驗證者重複相同的操作並進行結果比較。然而,正如前面提到的,由於當前高端Nvidia晶片短缺,AI推理非常昂貴。考慮到web3可以透過未充分利用的GPU DePINs提供更低成本的推理,冗餘計算將嚴重削弱web3的價值主張。

更有希望的解決方案是對離鏈AI推理計算進行零知識證明。在這種情況下,可以驗證簡潔的零知識證明以確定模型是否經過正確訓練,或者推理是否正確運行(稱為zkML)。其中的範例包括Modulus Labs和ZKonduit。由於零知識操作需要相當大的運算資源,這些解決方案的效能仍處於初級階段。然而,隨著零知識硬體ASIC在不久的將來推出,這種情況可能會得到改善。

更有希望的想法是一種「樂觀」抽樣為基礎的AI推理方法。在這個模型中,您只需驗證驗證者產生結果的一小部分,但設定足夠高的經濟成本來懲罰被抓到作弊的驗證者,從而產生強大的經濟禁止效應。這樣一來,您可以節省冗餘計算(例如,請參閱Hyperbolic的”Proof of Sampling”論文)。

另一個有希望的想法是使用浮水印和指紋技術的解決方案,例如Bagel Network提出的解決方案。這類似於亞馬遜Alexa為其數百萬設備上的AI模型品質保證提供的機制。

真正的好處#7:透過可組合的開源軟體堆疊節省費用(OpenAI的利潤)

web3為AI帶來的下一個機會是降低成本的民主化。到目前為止,我們已經討論了透過像io.net這樣的DePINs節省GPU成本的方法。但是,web3也提供了節省中心化web2 AI服務的利潤率(例如OpenAI,根據本文撰寫時的信息,其年收入超過10億美元)的機會。這些成本節約來自於使用開源軟體(OSS)模型而不是專有模型,從而實現了額外的成本節約,因為模型創建者並不試圖獲利。

許多開源軟體模型將始終完全免費,這為客戶提供了最佳的經濟效益。但是,也可能有一些開源軟體模型嘗試這些變現方法。請考慮,Hugging Face上僅有4%的模型由有預算的公司進行訓練以幫助補貼這些模型(請參閱此處)。剩下的96%的模型是由社區進行訓練的。這個96%的Hugging Face模型群體面臨實際的成本(包括計算成本和數據成本)。所以這些模型需要以某種方式實現變現。

有許多關於實現這種開源軟體模型變現的提議。其中最有趣的之一是「初始模型發行」(IMO)的概念,即將模型本身進行Token化,留下一部分Token給團隊,並將模型的一些未來收入流向Token持有人,儘管這其中顯然存在一些法律和監管障礙。

其他開源軟體模型將嘗試基於使用量進行變現。需要注意的是,如果這種情況變成現實,開源軟體模型可能開始越來越像它們的web2利潤生成對應物。但是,從現實角度來看,市場將會二分,其中一些模型將完全免費。

一旦選擇了開源軟體模型,您可以在其上進行可組合的層次操作。例如,您可以使用Ritual.net進行AI推理,以及Theoriq.ai作為可組合和自治的鏈上AI代理的早期領導者(兩者都得到了Hack VC的支持)。

真正的好處#8:去中心化的資料收集

AI面臨的最大挑戰之一是獲得適合訓練模型的正確資料。我們之前提到過,去中心化AI訓練存在一些挑戰。但是利用去中心化網路來獲取資料(然後可以在其他地方,甚至是傳統的web2平台上用於訓練)又如何呢?

這正是像Grass這樣的新創公司正在做的事情(得到了Hack VC的支持)。 Grass是一個去中心化的「資料爬取」網絡,由個人貢獻他們機器的閒置處理能力來獲取數據,以供AI模型的訓練。理論上,在大規模應用中,這種資料收集可能比任何一家公司的內部努力更優越,因為龐大的激勵節點網路具有強大的運算能力。這不僅包括獲取更多的數據,還包括更頻繁地獲取數據,以使數據更具相關性和最新性。由於這些資料爬取節點本質上是分散的,不屬於單一IP位址,因此幾乎不可能阻止這個去中心化的資料爬取軍團。此外,他們還有一個人力網絡,可以清理和規範數據,使其在被爬取後變得有用。

一旦獲取了數據,您還需要一個鏈上的儲存位置,以及使用該數據產生的LLM(大型語言模型)。在這方面,0g.AI是早期的領導者。它是針對AI進行最佳化的高效能web3儲存解決方案,比AWS便宜得多(這對Web3 AI來說是另一個經濟上的成功),同時也可以作為第二層、AI等的資料可用性基礎設施。

需要注意的是,在未來,資料在web3 AI中的作用可能會改變。目前,對於LLM來說,現狀是使用資料對模型進行預先訓練,並隨著時間的推移使用更多的資料進行改進。然而,由於互聯網上的數據即時變化,這些模型始終略微過時,因此LLM推理的反應略有不準確。

未來可能發展的一個新範式是「即時」數據。這個概念是當LLM被要求進行推理時,LLM可以透過向其註入即時從互聯網上收集的數據來使用數據。這樣,LLM將使用最新的數據。 Grass也正在研究這一點。

三、結論

我們希望這篇分析對您在思考web3 AI的承諾與現實時有所幫助。這只是一個討論的起點,而且這個領域正在迅速變化,所以請隨時加入並表達您的觀點,因為我們願意繼續共同學習和建立。

Total
0
Shares
Related Posts