Hack VC合夥人:AI+Crypto的8大真正優勢

作者:Ed Roman,Hack VC 管理合夥人

編譯:1912212.eth,Foresight News

AI+ Crypto 是近期加密貨幣市場備受矚目的前沿領域之一,例如去中心化AI 訓練、GPU DePINs 以及抗審查的AI 模型等。

在這些令人眼花撩亂的進展背後,我們不禁要問:這究竟是真正的科技突破還是只是在蹭熱點?這篇文章將為你撥開迷霧,剖析加密x AI 設想和討論其中真正的挑戰和機遇,並揭示哪些是空洞的承諾,哪些又切實可行?

設想#1:去中心化AI 訓練

鏈上AI 訓練的問題在於需要GPU 間的高速通訊和協調,因為神經網路在訓練時需要反向傳播。 Nvidia 為此有兩項創新(NVLink 和InfiniBand)。這些技術使GPU 通訊變得超快,但它們僅限於本地技術,僅適用於位於單一資料中心內的GPU 叢集(50+ 千兆位元速度)。

如果引入去中心化網絡,由於網路延遲和頻寬增加,速度會突然變慢幾個數量級。與從資料中心內的Nvidia 高速互連獲得的吞吐量相比,這種速度對於AI 訓練用例來說是不可能的。

請注意,以下也有創新可能為未來帶來希望:

  • InfiniBand 上正大規模分散式訓練,因為NVIDIA 本身正在透過NVIDIA Collective Communications Library 支援InfiniBand 上的分散式非本地訓練。然而,它仍處於新生階段,因此採用指標尚待確定。距離上的物理定律瓶頸仍然存在,因此InfiniBand 上的本地訓練仍然要快得多。
  • 已經發表的一些關於去中心化訓練的新研究,這些研究通信同步時間變少,可能會使去中心化訓練在未來更加實用。
  • 模型訓練的智慧分片和調度有助於提高效能。 同樣,新的模型架構可能是為未來的分散式基礎架構專門設計的(Gensyn 正在這些領域進行研究)。

訓練的資料部分也具有挑戰性。任何AI 訓練過程都涉及處理大量資料。通常,模型在具有高可擴展性和效能的中心化安全資料儲存系統上進行訓練。這需要傳輸和處理數TB 的數據,並且這不是一次性週期。資料通常充滿噪音並且包含錯誤,因此在訓練模型之前必須對其進行清理,並轉換為可用的格式。此階段涉及標準化、過濾和處理缺失值的重複任務。這些都在去中心化環境中面臨嚴峻挑戰。

訓練的資料部分也是迭代的,這與Web3 並不相容。 OpenAI 經歷了數千次迭代才取得了其成果。在AI 團隊中,資料科學家最基本的任務場景包括定義目標、準備資料、分析和整理資料以提取重要見解,並使其適合建模。然後,開發機器學習模型來解決定義的問題,並使用測試資料集驗證其效能。這個過程是迭代的:如果目前模型表現不如預期,專家會回到資料收集或模型訓練階段以改善結果。想像一下,這個過程如果在去中心化環境中進行,最先進的現有框架和工具在Web3 中適配就變得不容易了。

另一個在鏈上訓練AI 模型的問題是,相較於推理,這個市場就無聊得多。目前,AI 大型語言模型的訓練需要大量的GPU 運算資源。從長遠來看,推理將成為GPU 的主要應用場景。試想為了滿足全球需求,需要訓練多少個AI 大型語言模型,與使用這些模型的客戶數量相比,哪個又更多?

設想#2:使用過度冗餘的AI 推理計算來達成共識

關於加密與AI 的另一個挑戰是驗證AI 推理的準確性,因為你無法完全信任單一的中心化方來執行推理操作,節點存在可能出現不當行為的潛在風險。這種挑戰在Web2 AI 中不存在,因為沒有去中心化共識系統。

解決方案是冗餘計算,讓多個節點重複相同的AI 推理操作,這樣可以在無需信任的環境中運行,避免單點故障。

然而這種方法的問題在於,高階AI 晶片極度短缺。高階NVIDIA 晶片的等待時間長達數年導致價格上漲。如果你要求AI 推理在多個節點上多次重新執行,那麼就會倍增高昂成本,這對許多專案來說是不可行的。

設想#3:近期特定於Web3 的AI 用例

有人建議Web3 應該有自己獨特的、專門針對Web3 客戶的AI 用例。這可以是(例如)使用AI 對DeFi 池進行風險評分的Web3 協議、根據錢包歷史記錄為用戶建議新協議的Web3 錢包,或者使用AI 控制非玩家角色的Web3 遊戲( NPC)。

目前來看,這是一個新創市場(在短期內),其中使用案例仍在探索階段。一些挑戰包括:

  • 由於市場需求仍處於起步階段,Web3 原生用例所需的潛在AI 交易較少。
  • 客戶較少,與Web2 客戶相比,Web3 客戶少了幾個數量級,因此市場的去中心化程度較低。
  • 客戶本身不太穩定,因為他們是資金較少的新創公司,一些新創公司可能會隨著時間的推移而消亡。而滿足Web3 客戶的Web3 AI 服務供應商可能需要重新獲得部分客戶群,以取代那些已經消失的客戶群,這使得擴展業務變得極具挑戰性。

長遠來看,我們非常看好Web3 原生的AI 用例,特別是隨著AI 代理變得更加普遍。我們想像未來任何特定的Web3 使用者都會有大量的AI 代理,來幫助自己完成任務。

設想#4:消費級GPU DePIN

有許多依賴消費級GPU 而不是資料中心的去中心化AI 計算網路。消費性GPU 非常適合低階AI 推理任務或延遲、吞吐量和可靠性靈活的消費用例。但對於嚴肅的企業用例(這是重要的市場的大多數),與家用機器相比,客戶需要更高可靠性的網絡,並且如果他們有更複雜的推理任務,通常需要更高端的GPU。資料中心更適合這些更有價值的客戶用例。

請注意,我們認為消費級GPU 適用於演示,以及能夠容忍較低可靠性的個人和新創公司。但這些客戶價值較低,因此我們認為專為Web2 企業客製化的DePINs,長期來看將更有價值。因此,GPU DePIN 專案已從早期主要使用消費級硬件,發展為具備A100/H100 和叢集級可用性的情況。

現實——加密貨幣x AI 的實際用例

現在我們討論能提供真正好處的用例。這些才是真正的勝利,加密貨幣x AI 可以增加明顯的價值。

真正好處#1:為Web2 客戶提供服務

麥肯錫估計,在分析的63 個用例中,生成式AI 每年可以增加相當於2.6 兆至4.4 兆美元的收入——相比之下,英國2021 年GDP 總額為3.1 兆美元。這將使AI 的影響力增加15% 至40%。如果我們將生成式AI 嵌入到目前用於用例之外的其他任務軟體中的影響考慮在內,估計影響力大約會增加一倍。

如果你根據上述估計進行計算,這意味著全球AI(超越生成AI)的總市場價值可能達到數十兆美元。相比之下,今天所有加密貨幣(包括比特幣和所有山寨幣)的總價值僅為2.7 兆美元左右。因此,讓我們面對現實:短期內需要AI 的絕大多數客戶將是Web2 客戶,因為真正需要AI 的Web3 客戶將只佔這2.7 兆美元的一小部分(考慮到BTC 是這個市場,比特幣本身不需要/ 使用AI)。

Web3 AI 用例才剛開始,目前還不清楚該市場規模有多大。但有一點是肯定的——可預見的未來,它僅佔Web2 市場的一小部分。我們相信Web3 AI 仍然有光明未來,但這只意味著Web3 AI 目前最強大的應用程式是服務Web2 客戶。

假設可以從Web3 AI 中受益的Web2 客戶範例包括:

  • 從頭開始建立以AI 為中心的垂直特定軟體公司(例如Cedar.ai 或Observe.ai)
  • 為了自己目的而微調模型的大型企業(例如Netflix)
  • 快速成長的AI 提供者(例如Anthropic)
  • 將AI 融入現有產品的軟體公司(例如Canva)

這是相對穩定的客戶角色,因為客戶通常規模龐大且有價值。他們不太可能很快倒閉,而且他們代表了AI 服務的巨大潛在客戶。為Web2 客戶提供服務的Web3 AI 服務將受益於這些穩定的客戶群。

但為什麼Web2 客戶想要使用Web3 堆疊呢?這篇文章的接下來部分闡述了這種情況。

真正好處#2:透過GPU DePIN 降低GPU 使用成本

GPU DePIN 聚合了未充分利用的GPU 運算能力(其中最可靠的來自資料中心),並使其可用於AI 推理。類比該問題的簡單方法是「GPU 中的Airbnb」。

我們對GPU DePIN 感到興奮的原因是,如上所述,NVIDIA 晶片短缺,而且目前有浪費的GPU 週期可用於AI 推理。這些硬體所有者付出沉沒成本,並且目前沒有充分利用設備,因此與現狀相比,可以以低得多的成本提供這些部分GPU ,因為這實際上為硬體所有者「找到了錢」。

範例包括:

  • AWS 機器。如果你今天要向AWS 租用H100,則必須承諾為期1 年的租賃,因為市場供應有限。這會產生浪費,因為你可能不會每年365 天、每週7 天都使用GPU。
  • Filecoin 挖礦硬體。 Filecoin 有大量補貼供應但沒有大量實際需求。 Filecoin 從未找到真正產品市場契合點,因此Filecoin 礦工面臨倒閉的風險。這些機器配備GPU,可以重新用於低階AI 推理任務。
  • ETH 挖礦硬體。當以太坊從PoW 過渡到PoS 時,這就快速釋放了大量硬件,可以重新用於AI 推斷。

注意,並非所有GPU 硬體都適合AI 推理。造成這種情況的一個明顯原因是,較舊的GPU 沒有LLMs 所需的GPU 記憶體量,儘管已經有一些有趣的創新可以在這方面提供幫助。例如,Exabits 的技術可以將活動神經元載入到GPU 記憶體中,將不活動神經元載入到CPU 記憶體中。他們預測哪些神經元需要活躍/ 不活躍。這使得低階GPU 能夠處理AI 工作負載,即使GPU 記憶體有限。這有效地使低端GPU 對於AI 推理更加有用。

Web3 AI DePINs 需隨著時間的推移發展其產品,並提供企業級服務,例如單一登入、SOC 2 合規性、服務等級協定(SLA)等。這類似於目前雲端服務供應商為Web2 客戶提供的服務。

真正好處#3:抗審查的模型以避免OpenAI 自我審查

關於AI 審查制度的討論很多。例如土耳其暫時禁止了OpenAI(後來OpenAI 提高了合規性,他們就改變了做法)。我們認為國家級的審查制度是無趣的,因為各國需要採用AI 來保持競爭力。

OpenAI 也會自我檢視。例如,OpenAI 不會處理NSFW 內容。 OpenAI 也不會預測下一次總統選舉。我們認為AI 用例不僅有趣,而且市場巨大,但OpenAI 出於政治原因不會觸及該市場。

開源是個很好的解決方案,因為Github 儲存庫不受股東或董事會的影響。 Venice.ai 就是一例,它承諾保護隱私並以抗審查的方式運作。 Web3 AI 可以有效地提升其水平,即在成本較低的GPU 叢集上為這些開源軟體(OSS) 模型提供支持,以執行推理。正是由於這些原因,我們相信OSS + Web3 為抗審查的AI 鋪平道路的理想組合。

真正好處#4:避免向OpenAI 發送個人識別訊息

大型企業對其內部資料有隱私擔憂。對於這些客戶來說,信任OpenAI 第三方擁有這些數據可能很難。

Web3 中,對這些企業來說,他們的內部資料突然出現在去中心化網路上,可能看起來更加令人擔憂(表面上)。然而,針對AI 的隱私增強技術中存在著創新:

可信任執行環境(TEE),例如Super Protocol

全同態加密(FHE),例如Fhenix.io(Hack VC 管理的基金的投資組合公司)或Inco Network(均由Zama.ai 提供支援),以及Bagel 的PPML

這些技術仍在不斷發展,並且透過即將推出的零知識(ZK) 和FHE ASIC,性能仍在不斷提高。但長期目標是在微調模型時保護企業資料。隨著這些協議的出現,Web3 可能會成為隱私保護AI 運算更具吸引力的場所。

真正好處#5:利用開源模型的最新創新

過去幾十年來,開源軟體一直在蠶食專有軟體的市場份額。我們將LLM 視為某種專有軟體形式,足以破壞OSS。值得注意的挑戰者例子包括Llama、RWKV 和Mistral.ai。隨著時間的推移,這個清單無疑會不斷增長(更全面的清單可以在Openrouter.ai 上找到)。透過利用Web3 AI(由OSS 模型提供支援),人們可以利用這些新的創新來創新。

我們相信,隨著時間的推移,開源的全球開發團隊與加密貨幣激勵措施相結合,可以推動開源模型以及建立在其之上的代理和框架的快速創新。 AI 代理協議的一個例子是Theoriq。 Theoriq 利用OSS 模型創建一個可組合的AI 代理互連網絡,可以將其組裝起來創建更高級別的AI 解決方案。

我們之所以對此充滿信心,是因為過去,隨著時間的推移,大多數「開發者軟體」的創新慢慢被OSS 超越。微軟曾經是一家專有軟體公司,現在他們是為Github 做出貢獻的排名第一的公司。這是有原因的,如果你看看Databricks、PostGresSQL、MongoDB 和其他公司如何顛覆專有資料庫,那就是OSS 顛覆整個產業的一個例子,所以這裡的先例非常有說服力。

然而,這其中也有一個問題。開源大型語言模式(OSS LLMs)的一個棘手之處在於,OpenAI 已經開始與一些組織(如Reddit 和《紐約時報》)簽訂付費資料授權協議。如果這一趨勢持續下去,開源大型語言模型可能會因為獲取資料的財務障礙而更難以競爭。 Nvidia 可能會進一步加強對保密計算的投入,以作為安全資料共享的助力。時間將揭示這一切的發展。

真正好處#6:透過高削減成本的隨機抽樣或透過ZK 證明達成共識

Web3 AI 推理的挑戰之一是驗證。假設驗證者有機會欺騙他們的結果來賺取費用,因此驗證推論是一項重要措施。請注意,這種作弊行為實際上尚未發生,因為AI 推理還處於起步階段,但除非採取措施抑制這種行為,否則這是不可避免的。

標準的Web3 方法是讓多個驗證器重複相同的操作並比較結果。如前所述,這個問題面臨的突出挑戰是,由於目前高階Nvidia 晶片的短缺,AI 推理的成本非常昂貴。鑑於Web3 可以透過未充分利用的GPU DePIN 提供更低成本的推理,冗餘運算將嚴重削弱Web3 的價值主張。

更有前景的解決方案是為鏈下AI 推理計算執行ZK 證明。在這種情況下,可以驗證簡潔的ZK 證明,以確定模型是否經過正確訓練,或者推理是否正確運行(稱為zkML)。例子包括Modulus Labs 和ZKonduit。由於ZK 操作是計算密集型的,因此這些解決方案的效能仍處於初級階段。不過,我們預計隨著ZK 硬體ASIC 在不久的將來發布,情況會得到改善。

更有希望的是一種,有點「Optimistic」基於取樣的AI 推理方法設想。在這個模型中,只需驗證驗證者產生結果的一小部分即可,但將大幅削減的經濟成本設定得足夠高,這樣如果被發現,就會對驗證者的作弊產生強大的經濟抑製作用。透過這種方式,你可以節省冗餘計算。

另一個有前景的設想是浮水印和指紋解決方案,例如Bagel Network 提出的解決方案。這類似於Amazon Alexa 為其數百萬台設備提供設備內AI 模型品質保證的機制。

真正好處#7:透過OSS 節省費用(OpenAI 的利潤)

Web3 為AI 帶來的下一個機會是成本民主化。到目前為止,我們已經討論了透過DePIN 節省GPU 成本。但Web3 也提供了節省中心化Web2 AI 服務利潤率的機會(例如OpenAI,截至撰寫本文時,其年收入超過10 億美元)。這些成本節省來自於這樣一個事實:使用OSS 模型而不是專有模型來實現額外的節省,因為模型創建者並不試圖獲利。

許多OSS 模型將保持完全免費,為客戶帶來最佳的經濟效益。但可能也有些OSS 模型也在嘗試這些貨幣化方法。考慮一下Hugging Face 上所有模型中只有4% 是由有預算來幫助補貼模型的公司訓練的。其餘96% 的模型由社區訓練。這個群體(96% 的Hugging Face)具有基本的實際成本(包括計算成本和數據成本)。因此,這些模型將需要以某種方式貨幣化。

有一些提議可以實現開源軟體模型的貨幣化。其中最有趣的之一是「初始模型發行」的概念,即將模型本身進行代幣化,保留一部分代幣給團隊,將模型未來的一些收入流向代幣持有者,儘管在這方面肯定存在一些法律和監管障礙。

其他OSS 模型將嘗試透過使用來貨幣化。請注意,如果這成為現實,OSS 模型可能會開始越來越類似於其Web2 獲利模型。但實際上,市場將分為兩部分,有些模型仍然完全免費。

真正好處#8:去中心化的資料來源

AI 面臨的最大挑戰之一是尋找正確的資料來訓練模型。我們之前提到去中心化AI 訓練有其挑戰。但是使用去中心化網路來獲取資料怎麼樣(然後可以將其用於其他地方的訓練,甚至在傳統的Web2 場所)?

這正是像Grass 這樣的新創公司正在做的事情。 Grass 是一個由「資料抓取者」組成的去中心化網絡,這些人將機器的閒置處理能力貢獻給資料來源,為AI 模型的訓練提供資訊。假設,從規模上看,由於大型激勵節點網路的強大力量,這種資料來源可以優於任何一家公司的內部資料來源工作。這不僅包括獲取更多數據,還包括更頻繁地獲取數據,以使數據更加相關和最新。事實上,阻止去中心化的資料抓取大軍也是不可能的,因為它們本質上是去中心化的,並且不駐留在單一IP 位址內。他們還有一個可以清理和標準化資料的網絡,以便資料在被抓取後有用。

取得資料後,你還需要位置將其儲存在鏈上,以及使用該資料產生的LLMs。

請注意,未來資料在Web3 AI 中的作用可能會改變。如今,LLMs 的現狀是使用資料預訓練模型,並隨著時間的推移使用更多資料對其進行改進。 然而,由於網路上的數據是即時變化的,這些模型總是有點過時。 因此,LLM 推斷的反應稍微不準確。

未來的發展方向可能是一種新範式——「即時」數據。這個概念是,當一個大型語言模型(LLM)被問到推理問題時,LLM 可以透過提示傳輸並注入數據,而這些數據是即時從互聯網重收集的。這樣,LLM 可以使用最新的數據。 Grass 就在研究這部分。

特別致謝以下人士對本文的回饋與幫助:Albert Castellana、 Jasper Zhang、Vassilis Tziokas、 Bidhan Roy、Rezo, Vincent Weisser、Shashank Yadav、Ali Husain、Nukri Basharuli、Emad Mostaque、David Minarsch、Tommy Shaughnessy、Michael Heinrich、Keccak Wong、 Marc Weinstein、 Phillip Bonello、Jeff Amico、Ejaaz Ahamadeen、Evan Feng、 JW Wang。

Total
0
Shares
Related Posts