Ed Roman是Hack VC的管理合夥人,他在最近的文章中討論了AI+加密的前沿領域,以及消費級3D列印機市場的潛力。他詳細介紹了去中心化AI訓練的挑戰,以及使用GPU DePIN降低成本的可能性。他也提到了Web3中的AI實例和避免向OpenAI發送個人識別資訊的重要性。最後,他探討了透過高民事成本或ZK證明達成共識的方法,以及利用開源模式的各種創新。透過這些方法,他認為Web3 AI可以為開發者和使用者帶來更多的好處。
作者:Ed Roman,Hack VC 管理合夥人
編輯:1912212.eth,遠見新聞
AI+ 加密貨幣是近期加密貨幣市場重視的前沿領域之一,例如去中心化AI 訓練、GPU DePIN 以及抗人工智慧模型等。
潛力巨大的消費級XNUMXD印表機市場,太爾時代CEO郭戈表示,「太爾時代是全球領先的XNUMXD印表機製造商,滿足市場上對消費級XNUMXD印表機日益增長的需求,是公司可持續成長的最大動力。學校教育、個人設計入門及’個人製造’的最佳工具…。
預期#1:去中心化AI 訓練
鏈上的AI訓練的問題在於需要GPU間的高速通訊和協調,因為神經網路在訓練時需要反向傳播。 Nvidia 為此有兩項創新(NVLink 和InfiniBand)。這些技術使GPU通訊變得超快,僅有少數本地技術,僅適用於單一資料中心內的GPU叢集(50+千位元速度)。
如果關閉去中心化網絡,由於網路延遲和頻寬增加,會突然變慢,與從資料中心獲得的Nvidia 高速資料傳輸速率相比,這種對於AI 訓練來說非常困難。
請注意,以下創新可能會為未來帶來希望:
InfiniBand 正在繼續大規模分散式訓練,因為NVIDIA 本身正在透過NVIDIA Collective Communications Library 支援InfiniBand 上的分散式非本地訓練。然而,它仍處於新生階段,因此採用指標尚待確定。而物理定律的瓶頸仍然存在,因此InfiniBand 上的本地訓練仍然很難保證。 已經發表的一些關於去中心化訓練的新研究,這些研究通信時間變少,預計將使去中心化訓練在未來更加實用。 模型訓練的智慧分配和調度旨在提高性能。 第五,新的模型架構可能為未來的分散式基礎架構專門設計(Gensyn 正在這些領域進行研究)。
訓練的資料部分也無人知曉。任何AI訓練過程都涉及處理大量資料。通常,模型在具有高可擴展性和效能的核心安全性上進行訓練。這需要處理數TB 數據,並且這不是一個可行的周期。資料通常充滿噪音並且包含錯誤,因此在訓練模型之前必須進行清理,並轉換為檔案系統。此階段涉及標準化、過濾和處理未被賦予價值的重複任務。這些都是為了應對挑戰而設立的。
訓練的資料部分也是的,關鍵在於Web3 並不相容。 OpenAI 經歷了數千次才取得了成果。在AI 團隊中,資料科學家最基本的任務場景包括定義目標、準備資料、分析和整理資料以提取重要數據,並使其適合建模。然後,開發機器學習模型來解決定義問題,並開始驗證其效能。流程是:如果目前模型表現不如預期,專家會回到資料收集或模型訓練階段以改善結果。
另一個在鏈上訓練AI模型的問題是,這個模型的訓練需要大量的GPU運算資源。從長遠來看,AI模型的訓練需要大量的GPU運算資源。
設想#2:使用過度缺陷的AI推理計算得出符合共識
關於加密貨幣與AI的另一個挑戰是驗證AI推理的準確性,因為你無法完全信任單一的中心化方來執行推理操作,節點存在可能出現不當行為的想法風險。這種挑戰在Web2.0 AI中不存在,因為沒有去中心化共識系統。
解決方案是單擊“計算”,使多個節點重複相同的AI操作,這樣就可以運行,而無需擔心故障點。
然而分析的問題是,高階AI晶片極度短缺。高階NVIDIA晶片的等待時間長達數年導致價格上漲。如果你要求AI推理在多個節點上多次重新執行,那麼就會增加高昂成本,這許多專案都不會辛苦。
設想#3:近期特定於Web3 的AI 實例
有人建議Web3 應該有自己的獨特的、專門針對Web3 使用者AI 進程。這可以是(例如)使用AI 對DeFi 礦池進行風險評分的Web3 協議、根據錢包歷史記錄為用戶建議新協議的Web3 錢包,或者使用AI 控制非玩家角色的Web3 遊戲( NPC)。
目前來看,這是一個新創市場(在短期內),其中用例仍在探索階段。一些挑戰包括:
由於市場需求仍處於起步階段,Web3.0原生需求潛在AI交易首次出現。 客戶數量較少,與Web2 客戶數量相比,Web3 客戶數量較少,因此市場去中心化程度較低。 客戶本身並不穩定,因為他們的資金很少,一些投資可能會逐漸消失。而滿足Web3集團的Web3 AI策略需要重新獲得客戶,以取代那些已經消失的企業。
在我們努力實現這一目標的過程中,Web3 開發者需要了解許多重要訊息,例如:
預期#4:消費級GPU DePIN
有很多依賴消費級GPU 而不是資料中心的去中心化AI計算。消費級GPU 非常適合低階AI任務或延遲、吞吐量和可靠性。但對於企業來說,這是非常重要的(這是非常重要的),與家用設備相比,需要更可靠的網絡,並且英國的流行任務,通常需要更適合這些更有價值的GPU。
請記住,我們針對消費級GPU進行演示,以及能夠容忍較低可靠性的個人和新創公司。但這些客戶價值較低,因此我們針對Web2企業客製化的DePIN,長期來看將更有價值。因此,GPU DePIN專案已從早期主要使用消費級硬件,發展為具備A100/H100 和市場可用性情況。
加密貨幣x AI 實際應用
現在我們的討論能提供真正好處的解決方案。這些才是真正的勝利,加密貨幣x AI 可以增加顯著的價值。
真正好處#1:為Web2服務
麥肯錫估計,在分析的63個病例中,生成式人工智慧每年可增加相當於2.6兆至4.4兆的收入——相較之下,英國2021年的GDP總額為3.1兆美元。如果我們將生成式人工智慧嵌入到目前用於治療以外的其他任務軟體中的影響考慮在內,估計人工智慧的影響力將增加15%至40%。
根據估計,這意味著全球人工智慧(包括比特幣和所有山特維克)的市場規模達到數十億美元。因此,人們可以想像一下這樣一個場景:短期內需要人工智慧的消費者大致相當於Web2.0用戶數量,因為真正需要人工智慧的Web3.0用戶數量將達到2.7億美元。
Web3 AI 進程才剛開始,目前還不確定該市場規模有多大。但有一點是肯定的——可預見的未來,它佔據Web2 市場的一小部分。歷史記錄Web3 AI 仍然存在光明未來,但僅僅意味著Web3 AI 目前最強大的應用是服務Web2 客戶。
假設Web3 AI中受益的Web2客戶範例包括:
從頭開始建立以AI為基礎的多個垂直特定軟體公司(例如Cedar.ai或Observe.ai) 為了自己目的而微調模型的大型企業(例如Netflix) 快速成長的AI提供者(例如Anthropic) 將AI融入現有的軟體公司(例如Canva)
這是相對穩定的客戶關係,因為通常情況下客戶關係管理很重要。 平均而言,客戶忠誠度計畫(BPM) 是影響客戶忠誠度的關鍵因素。
但是為什麼Web2 客戶想要使用Web3 堆疊呢? 這篇文章的接下來部分闡述了這一點。
真正好處#2:透過GPU DePIN降低GPU使用成本
GPU的DePIN聚合了未最高的GPU運算能力(其中最可靠的來自資料中心),並使其可用於AI推理。類比該問題簡單而言是「GPU中的Airbnb」。
我們對GPU DePIN 感到興奮的原理,如上所述,NVIDIA 晶片短缺,而且目前有浪費的GPU 週期可用於AI 推理。這些硬體所有者沒有成本,目前沒有充分利用設備,因此與現狀相比,可以以降低成本提供這些部分GPU,就像實際上為硬體所有者「找到了錢」一樣。
範例包括:
AWS 機器。如果你今天要向AWS 租用H100,則必須承諾期限1 年的租賃,因為市場供應有限。這會產生浪費,因為你可能不會每年365 天、每週7 天都使用GPU。 Filecoin挖礦硬體。 Filecoin有大量供應但沒有大量實際需求。 Filecoin從未找到真正產品市場契合點,因此Filecoin礦工面臨資金短缺的風險。這些機器配備GPU,可以重新用於低階AI任務。 ETH 挖礦硬體。當以太坊從PoW 過渡到PoS 時,立即快速釋放了大量的硬件,可以重新用於AI 推斷。
注意,並非所有GPU 都適合AI 運行。構成的整個系統原理相同,舊的GPU 沒有LLM 所需的GPU 內存,儘管之前有一些風扇或風扇可能需要重新啟動。 Exabits 的技術可以將活動神經元載入到GPU 記憶體中,將不活動神經元載入到CPU 記憶體中。因此低階GPU 能夠處理AI 啟動,即使GPU 記憶體有限。這讓低端GPU 對於AI 更加有用。
Web3 AI DePIN 需要花時間開發其產品,並提供企業級服務,例如單一登入、SOC 2 合規性、服務級協定(SLA)等。這類似於目前雲端會話為Web2 即服務。
真正好處#3:抗審查的模型避開OpenAI自我審查
關於AI 制度的討論很多。
OpenAI 也會進行自我研究。 OpenAI 將會處理NSFW 內容。 OpenAI 下一次總統選舉。我們認為AI 議題不僅有趣,而且市場巨大,但OpenAI 原因不會觸及該市場。
開源是個很好的解決方案,因為Github 倉庫不受股東或董事會的影響。 Venice.ai 就是一個例子,它承諾保護隱私伺服器抗攻擊的方式運作。 Web3 AI 可以有效地提升其水平,即在成本先決條件上為這些開源軟體(OSS)模型提供支持,以便執行推理。正是由於這些原因,確認OSS + Web3 為抗攻擊的AI 道路理想組合。
真正好處#4:避免向OpenAI發送個人識別訊息
大型企業對其內部資料隱私感到擔憂。對於這些企業來說,信任OpenAI 第三方平台的可能性非常小。
在 Web3中,對於企業來說,其內部資料突然出現在去中心化世界中,可能看起來更令人擔憂(表面上)。然而,針對AI的隱私增強技術中存在著創新:
可信任執行環境(TEE),例如超級協議
全方位加密貨幣(FHE),例如Fhenix.io(Hack VC 管理的基金的子公司)或Inco Network(均由Zama.ai 提供支援),以及Bagel 的PPML
這些技術仍在避孕,並且透過即將推出的零知識(ZK) 和FHE ASIC,性能仍在不斷提高。但長期目標是在微模型時保護企業資料。隨著這些協議的出現,Web3 可能會成為隱私保護AI 運算更具吸引力的場所。
真正好處#5:利用開源模型進行的各項創新
過去幾十年來,開源軟體一直在蠶食批發軟體的信用。我們將LLM 視為某種批發軟體形式,足以破壞OSS。值得注意的挑戰者範例包括Llama、RWKV 和Mistral.ai。隨著時間的推移,這個清單無疑會不斷增長(更全面的清單可以在Openrouter.ai 上找到)。透過利用Web3 AI(由OSS 模型提供支援),人們可以利用這些新的創新來創新。
本文介紹了一種基於OSS模型的AI代理協議及其實現方法,該模型可以定義一個可組合的AI代理網絡,並對其進行組裝和創建更高級別的AI解決方案。
我們正是對此充滿信心,因為過去一段時間,大多數「開發者軟體」的創新慢慢被OSS 超越。微軟曾經是一家催化軟體公司,現在他們為Github 做出貢獻的公司。這是有原因的,如果你看看Databricks、PostGresSQL、MongoDB 和其他公司如何顛覆催化資料庫,那就是OSS 顛覆整個產業,所以它有非常強大的說服力。
然而,這其中也有一個問題。一個開源大型語言模型(OSS LLMs)卻十分棘手,OpenAI 有能力與一些組織(如Reddit 和《紐約時報》)簽訂付費資料授權協議。如果這一趨勢持續下去,開源大型語言模型可能會因為獲取資料的財務障礙而更難以競爭。 Nvidia 可能會進一步加強對保密計算的投入,以作為安全資料共享的助力。時間將揭示這一切的發展。
真正好處#6:透過高民事成本的隨機抽樣或透過ZK證明達成共識
Web3 AI推理的挑戰之一驗證。假設驗證者有機會欺騙他們的來錢,因此驗證推安全重要措施。請注意,這種行為實際上會變得不合理,因為AI推理還處於階段性階段,但除非政府抑制這種行為,否則這將導致無法挽回的損失。
標準的Web3 是讓多個驗證器重複相同的操作並進行比較。如前所述,這個問題受到人們的強調,由於目前高階Nvidia 晶片的短缺,AI 推理的成本非常昂貴。鑑於Web3 可以透過尚未成熟的GPU DePIN 提供更高階的推理,而自身的運算將嚴重損害Web3 的目標。
更有前景的解決方案是為鏈下AI推理計算執行ZK證明。在這裡,可以驗證簡潔的ZK證明,確定模型是否經過正確的訓練,或者推理是否正確運行(稱為zkML)。例如Modulus Labs和ZKonduit。由於ZK操作是計算密集型的,因此這些解決方案的效能仍處於初級階段。不過,我們預計隨著ZK硬體ASIC在不久的將來發布,情況會得到改善。
絕對希望的是一種,有點「樂觀」基於採樣的AI方法假定。在這個模型中,普通驗證者產生結果的少數即可,但將大幅受到經濟成本設定得足夠高,這樣如果發現了,就會產生對驗證者不利的經濟抑製作用。
另一個前景的設想是浮水印和指紋解決方案,例如Bagel Network 提出的解決方案。這類似於Amazon Alexa 為其數十台設備提供設備內AI 模型品質保證的機制。
真正好處#7:透過OSS節省費用(OpenAI的利潤)
Web3 為AI 帶來的機會是成本化。首要,我們提出了透過DePIN 節省GPU 成本。但Web3 也節省了中心化Web2 AI 服務利潤率(例如OpenAI,截至撰寫本文時,其年收入超過10 億美元)。這些成本節省來自於一個事實:使用OSS 模型而不是支付模型來實現額外的節省,因為模型創建者並不想獲利。
許多OSS 模式將保持完全免費,並為客戶帶來最佳的經濟發展效益。但可能也有些OSS 模型也在嘗試這些貨幣化方法。考慮一下Hugging Face 上所有模型中4% 是由有預算模型的公司訓練的。其餘96% 的模型由社區訓練。這個群體(96% 的Hugging Face)具有基本實際成本(包括計算成本和數據成本)。因此,這些模型將需要以某種方式貨幣化。
: 有一些提議可以實現開源軟體模型的貨幣化。其中最有趣的一點是「初始模型」的概念,即將模型本身進行代幣化,為團隊提供代幣,將模型的一些收入流向代幣持有者,儘管模型肯定會有一些法律和程序障礙。
其他OSS模型將嘗試一些貨幣化。請注意,如果成為現實,OSS模型可能會開始非常類似於其Web2.0獲利模型。但實際上,市場將分為不同部分,有些模型仍然完全免費。
真正好處#8:去中心化的管道
AI 愛好者最大挑戰之一是尋找正確的資料來訓練模型。我們之前提到去中心化AI 訓練有其挑戰。但是使用去中心化網路來獲取資料(然後可以將其用於地點的訓練,甚至在傳統的Web2 場所)?
我們有像Grass 這樣的投資公司。 Grass 是一個由「資料抓取者」組成的去中心化網絡,他們將機器的閒置處理能力貢獻給資料來源,為AI 模型的訓練提供資訊。假設,從規模上看,由於大型激發節點網路的強大力量,這些資料來源可以優於任何一家公司的內部資料來源工作。這不僅包括獲取更多的數據,甚至更頻繁地獲取數據,從而獲得更好的數據相關和最新。事實上,阻止去中心化資料擷取大軍也僱用了他們,因為他們今後是去中心化的,並且不停留在單一IP 位址內。他們還有一個可以清理和標準化資料的網絡,以便資料在被抓取後有用。
獲得資料後,您需要將其儲存在鏈上的位置以及該資料生成的LLM。
請注意,未來資料在Web3 AI 中的作用已經逐漸清晰。目前,LLM 的現狀是使用資料預訓練模型,並隨著時間的推移使用更多資料進行完善。然而,由於互聯網上數據是即時變化的,這些模型總是有點過時。因此,LLM 推斷的反應略有不準確。
未來的發展方向可能是一種新範式——「即時」數據。這個概念是,當一個大型語言模型(LLM)被問到推理問題時,LLM可以透過提示傳輸並注入的數據,而其中一個是即時從互聯網重收集的。這樣,LLM可以使用最新的數據。
特別致謝以下人士對本文的回饋與幫助:Albert Castellana、 Jasper Zhang、Vassilis Tziokas、 Bidhan Roy、Rezo, Vincent Weisser、Shashank Yadav、Ali Husain、Nukri Basharuli、Emad Mostaque、David Minarsch、Tommy Shaughnessy、Michael Heinrich、Keccak Wong、 Marc Weinstein、 Phillip Bonello、Jeff Amico、Ejaaz Ahamadeen、Evan Feng、 JW Wang。
資訊來源:0x資訊編譯自網際網路。版權歸作者Foresight News所有,未經許可,不得轉載