AI與Web3技術的結合在資料資源領域展現出新的可能性。傳統資料面臨即時、透明和使用者隱私等挑戰,而Web3則透過去中心化、隱私保護技術(如MPC、零知識證明等)建構資料生態。新興專案如OpenLayer、Grass和Vana為資料取得與處理提供創新方案,賦予使用者掌控資料的權利,並提高了資料的真實性與共享效率。 Web3的去中心化特徵使得資料交易變得更公平,促使用戶從中獲益,並推動資料經濟的轉型與發展。
TL/DR
我們曾討論過AI和Web3能夠如何各取所長,在運算網路、代理平台和消費應用等各個垂直產業上相輔相成。當聚焦在資料資源這個垂直領域時,Web新興代表專案為資料的取得、分享並利用提供了新的可能性。
傳統資料難以滿足人工智慧和其他資料驅動產業對高品質、即時可驗證資料的需求,尤其是在透明度、使用者控制和隱私保護方面存在突發Web3方案正致力增持資料生態。 MPC、零知識證明和TLS Notary等技術確保資料在多個來源之間流通時的真實性和隱私保護,各地儲存和邊緣運算則為資料的即時處理提供了更高的靈活性和效率。 其中去中心化資料網路這個新興基礎設施催生了幾個核心專案OpenLayer(謹慎的真實資料圖層),Grass(利用使用者閒置頻寬和去中心化的爬蟲節點網路)和Vana(使用者資料主權層) 1網路),以不同的技術路線為AI訓練和應用等領域開闢新的前景。 透過眾包的容量、無信任的抽象層和基於代幣的激勵機制,中心化資料基礎設施能夠提供比Web2超大規模服務商更關心、安全、高效且經濟的解決方案,並賦予其用戶資料及其相關資源的控制權,建構更開放、安全、互通的數位生態系統。
1.數據需求浪潮
數據已成為各產業創新和決策的關鍵驅動。瑞銀預測全球數據量預計將在2020年至2030年期間成長超過十倍達到660 ZB,到2025年,全球每人每天將產生463 EB(Exabytes,1EB= 10億GB)的數據。數據即服務(DaaS)市場正在快速拓展,根據Grand View Research的報告,全球DaaS市場在2023年的估值為143.6億美元,預計到2030年將Compound年28.1%其中成長,最終達到768億美元。這些高成長的數字背後是多個產業領域對高品質、即時可信賴數據的需求。
AI模型訓練依賴大量資料輸入,用於識別模式和調整參數。訓練後也需要資料集測試模型的效能和泛化能力。此外,AI代理作為未來可預見的新興智慧應用形態,需要即時可靠的資料來源,以確保準確的決策和任務執行。
(資料來源:Leewayhertz)
商業分析的需求仍然多元化和廣泛,並成為驅動企業創新的核心工具。例如社群媒體平台和市場研究公司需要可靠的使用者行為數據來制定策略和洞察趨勢,整合多個社群平台的多元數據,建構更全面的圖像。
對於Web3生態,鏈上也需要可靠真實的數據來支援一些新型金融產品。隨著越來越多新型資產在被通證化,需要靈活且可靠的數據接口,以支援創新產品的開發和風險管理,讓智慧合約可以基於可驗證的即時數據執行。
除此之外,還有科學研究、物聯網(IoT)等等。新的例子表面各產業對於多樣化、真實、即時的資料需求迅速大幅上漲,而傳統系統可能難以應對資料量的成長和不斷變化的需求。
2.傳統資料生態的限制與問題
典型的資料生態系統包括資料收集、儲存、處理、分析和應用。中心化模式的特點是資料中心化收集並儲存、由核心企業團隊IT管理維運,並實施嚴格的存取控制。
比如說Google的資料生態系統架構主要是從引擎搜尋、Gmail到Android作業系統等多個資料來源,透過這些平台收集使用者數據,儲存在其全球分佈的資料中心,然後採用演算法處理分析,以支撐各種產品和服務的開發與最佳化。
以金融市場為例,LSEG(前Refinitiv)的數據和基礎設施則透過從全球交易所、銀行和其他主要金融機構獲取即時和歷史數據,同時利用自有的路透社新聞網絡收集市場相關新聞,運用母國演算法和模型產生分析數據和風險評估作為附加產品。
(來源:kdnuggets.com)
傳統資料架構在專業服務方面有效,但中心化模式的迫切性明顯。特別是在新興資料來源的覆蓋、頻寬和用戶隱私保護方面,傳統生態資料系統正面臨挑戰。這裡舉例舉了幾個面向:
數據覆蓋不足:傳統數據在快速捕捉和分析,如社交媒體情緒、物聯網設備數據等新興數據來源方面存在挑戰。中心化系統難以有效率地取得和整合來自人群小規模或非主流來源的「長」尾」資料。
例如2021年GameStop事件就揭示了傳統金融數據在分析社群媒體情緒時的限制。 Reddit等平台上的投資者情緒迅速改變了走勢,但像彭博社和路透社這樣的數據未能及時捕捉到這些動態,導致市場預測落後。
資料可訪問性設定:壟斷限制了可訪問性。許多傳統透過API/雲端服務開放部分數據,但增加的存取費用和複雜的授權仍然是數據整合的關鍵流程。
鏈上開發者難以快速可靠地取得鏈下數據,高品質數據被少數壟斷,存取成本很高。
資料完整性與可信度問題:眾多中心化資料源自於資料收集和處理方法缺乏多樣性,且缺乏有效的機制來驗證大規模資料的真實性和多樣性。大規模即時數據的驗證仍然是一個複雜的問題,中心化的本質也增加了數據被篡改或挖礦的風險。 隱私保護和資料主題:大型科技公司大量增持了用戶資料。身為用戶私人資料的創造者,很難獲得應有的價值回報。通常無法了解他們的資料如何被收集、處理和使用,也難以確定資料的使用範圍和方式。過度收集和使用也會導致嚴重的隱私風險。
例如,Facebook的劍橋分析事件就揭露了傳統資料巨頭如何在資料利用漏洞和隱私保護方面存在巨大漏洞。
資料孤島:另外,不同來源、格式的即時資料難以快速整合,影響了全面分析的可能性。許多數據往往被鎖定在組織內部,限制了跨產業和跨組織的數據共享和創新,數據孤島效應被阻斷實現了跨域的數據整合和分析。
例如在消費產業,品牌整合需要電商平台、實體店、社群媒體和市場研究的數據,但這些數據可能因為平台形式不統一或被隔離,難以整合。再例如,像Uber和Lyft這樣的共享出行公司雖然都收集來自大量用戶的,關於交通、乘客需求和不完整的即時數據,但由於競爭關係,這些數據無法提出並共享整合。
除此之外,還有成本效率、彈性等問題。傳統數據商正積極應對這些挑戰,但異軍突起的Web3技術為解決這些問題提供了新的想法和可能性。
3.Web3資料生態
自2014年IPFS(InterPlanetary File System)等中心化儲存方案發表以來,大家紛紛跟進出一系列新興項目,致力於解決資料生態的限制。看到中心化資料解決方案我們已經形成了許多層次、相互連接的生態系統,涵蓋了資料生命週期的各個階段,包括資料產生、儲存、處理與分析、驗證與安全,以及隱私與聊天。
資料儲存:Filecoin和Arweave的快速發展證明了去中心化儲存(DCS)正在成為儲存領域的範式轉移。 DCS方案透過架構最佳化減少了單點故障風險,同時以提高成本效益吸引參與隨著一系列規模化應用案例的框架,DCS的儲存容量爆發式增長(例如Filecoin網路的總儲存容量在2024年已達到22艾字節)。 處理與分析:Fluence等去中心化資料攻擊平台透過邊緣運算(EdgeComputing)技術提高了資料處理的即時性和效率,特別適用於物聯網(IoT)和AI推理等對即時性要求較高的應用Web3專案利用聯邦學習、差分隱私、可信任執行環境、全同態加密貨幣等技術在計算層上提供靈活的隱私保護和權衡。 資料市場/交易所平台:為了促進資料的價值量化和流通,Ocean Protocol透過代幣化和DEX機制,創建了高效開放的資料交易所管道,例如幫助傳統製造公司(賓士母公司戴姆勒)合作開發資料交易所另外,Streamr 則創造了適用於物聯網和即時分析場景的無許可、訂閱式資料流網絡,在交通、物流專案中展現了驚人的潛力(例如與芬蘭智慧城市專案合作)。
隨著資料交易所和利用高頻滅菌,資料的真實性、可信度和隱私保護成為不可忽視的關鍵問題。這促使Web3生態系統將創新延伸到了資料驗證和隱私保護領域,產生了一系列突破性的解決方案。
3.1 資料驗證與隱私權保護的革新
許多web3技術及突破專案都致力於解決資料真實性與私有資料保護問題。除ZK、MPC等技術發展被廣泛應用外,傳輸層安全協定公證(TLS Notary)作為新興的驗證方法尤其值得關注。
TLS 公證人簡介
傳輸層安全協議(TLS)是一種廣泛用於網路通訊的加密貨幣協議,旨在保證客戶端和伺服器之間的資料傳輸的安全性、機密性和保密性。它是現代網路通訊中常見的加密貨幣標準,被用於HTTPS、電子郵件、即時通訊等多個場景。
在十年前誕生之際,TLS Notary 的最初目標是透過在客戶端(Prover)、伺服器以外引入第三方「公證人」來驗證TLS 會話的真實性。
使用交易所分割技術,TLS會話的主交易所被分成兩部分,分別由客戶端和公證人持有。這種設計允許公證人作為可信任第三方參與驗證過程,但無法存取實際的通訊內容。這種公證機制旨在偵測中間人攻擊、防止詐欺性憑證,確保通訊資料在傳輸過程中不會被竄改,並受信任的第三方確認通訊的合法性,同時保護通訊隱私。
由此,TLS Notary提供了安全的資料驗證,並有效平衡了驗證需求和隱私保護。
2022年,TLS公證計畫由以太坊基金會的隱私和擴展探索(PSE)研究實驗室重新建構。新版本的TLS公證協定從頭開始用Rust語言重寫,伊斯坦堡有了更先進的加密貨幣協定(如MPC),新的協定功能允許用戶向第三方證明他們從伺服器接收到的資料的真實性,同時不外洩資料內容。在維持原有TLS Notary核心驗證功能的同時,大幅提升了隱私保護能力,使其更適合當前和未來的資料隱私需求。
3.2 TLS Notary的變體與擴展
近年來TLS公證技術不斷演進,在基礎上發展產生了多個變體,進一步持續增強了隱私和驗證功能:
zkTLS:TLS Notary的隱私增強版本,結合了ZKP技術,允許使用者產生網頁資料的加密貨幣證明,而隱藏暴露的任何敏感資訊。它適用於需要高度隱私保護的通訊場景。 3P-TLS(Three-Party TLS):引進了客戶端、伺服器和稽核者三方,在不洩漏通訊內容的情況下,稽核者驗證通訊的安全性。該協議在需要漏洞的同時要求隱私保護這些場景非常有用,例如合規審查或金融交易的審計。
Web3專案者利用這些加密貨幣技術來增強資料驗證和隱私保護,打破資料壟斷、資料孤島和可信任傳輸問題,讓使用者能夠不洩露隱私地證明如社媒帳號擁有權、從而金融解決網路的購物記錄,銀行信用記錄、職業背景和學歷認證等信息,例如:
回收協定使用zkTLS技術,產生HTTPS流量的零知識證明,允許使用者從外部網站安全匯入活動、載入和身分數據,從而引入敏感資訊。 zkPass結合3P-TLS技術,讓使用者無洩漏地驗證真實世界的數據,廣泛評估KYC、信用服務等場景,並且與HTTPS網路相容。 Opacity Network允許基於zkTLS,使用者安全地證明他們在各個平台(如Uber、Spotify、Netflix等)的活動,而需要直接存取這些平台的API。實現跨平台活動證明。
(致力於TLS Oracle 的項目,來源:Bastian Wetzel)
Web3驗證作為資料生態鏈上的重要環節,應用前景十分危險,其生態的興榮正引導著一個更加開放、動態和以使用者為中心的數位經濟。然而,真實性驗證技術的發展建構新一代資料基礎設施的開始。
4.去中心化資料網絡
有些專案則結合上述的資料驗證技術,在資料生態的上游,也就是資料溯源、資料的大幅上漲和可信任傳輸上做出更深入的探索。以下將重點放在幾個主題項目:OpenLayer,Grass和Vana,他們在建立新一代資料基礎設施方面發揮了獨特的潛力。
4.1 開放層
OpenLayer是a16z 加密貨幣2024春季加密貨幣創業加速器項目,作為首個客製化的真實資料層之一,致力於提供一個創新的客製化解決方案,用於協調資料的收集、驗證和轉換,同時滿足Web2和Web3公司的需求。 OpenLayer 已經吸引了包括Geometry Ventures、LongHash Ventures 的知名基金和天使投資者的支持。
傳統資料層存在的挑戰:缺乏可信任驗證機制,依賴中心化架構導致存取性設定,不同系統間的資料缺乏互通性和流動性,同時也沒有公平的資料價值分配機制。
一個更具象化的問題是,近期AI訓練資料正變得日益稀缺。在公共網路上,許多網站開始透過反爬蟲限制措施來阻止AI公司大規模採集資料。
而在現有的衛星資料方面,情況則更加複雜,許多有價值的資料由於其敏感的性質和以隱私保護的方式存儲,缺乏有效的監管提示。在這種現狀下,使用者無法安全地透過私人提供資料獲得直接收益,因此不會分享這些敏感資料。
為了解決這些問題,OpenLayer結合資料驗證技術建構了一個標準化的真實資料層(Modular Authentic Data Layer),並以去中心化+經濟啟發的方式來協調資料收集、驗證和轉換過程,為Web2和Web3公司提供一個更安全、更有效率、更靈活的基礎資料設施。
4.1.1OpenLayer自訂設計的核心元件
OpenLayer 提供了一個客製化的平台,以簡化資料收集、可信任驗證和轉換流程:
a) 開放節點
OpenNodes是OpenLayer生態系統中負責去中心化數據收集的核心組件,透過用戶的行動應用、瀏覽器擴展等渠道收集數據,不同的運營商/節點可以根據其硬體規格執行最適合的任務而優化返回。
OpenNodes支援清晰的主要資料類型,滿足不同類型任務的需求:
公開可用的互聯網數據(如金融數據、天氣數據、體育數據和社交媒體流) 用戶私人數據(如Netflix觀看歷史、亞馬遜訂單記錄等) 來自安全來源的自報告數據(如由母公司簽名或特定可信硬體驗證的資料)。
開發者可以輕鬆新增的資料類型、指定新的資料來源、需求和資料搜尋方法,使用者可以選擇提供去識別化的資料以換取獎勵。這種設計使得系統可以不斷擴展以適應新的資料需求,多樣化的資料來源使得OpenLayer能夠為各種應用提供全面的資料支持,也降低了資料提供的場景。
b) 開放驗證器
OpenValidators負責收集驗證後的數據,讓數據消費者確認用戶提供的數據與數據來源的完全匹配。所有提供的驗證方法都可以進行加密證明,驗證結果可以在事後驗證。相同類型的證明,如何個不同的工廠提供服務。開發者可以根據自己的需求選擇最適合的驗證工廠。
在最初的案例中,特別是針對來自互聯網API的公共或私有數據,OpenLayer以TLSNotary作為驗證解決方案,從任何Web應用程式導出數據,並且不損害隱私的情況下證明數據的真實性。
不複雜TLSNotary,借鑒其模組化設計,驗證系統可以輕鬆存取其他驗證方法,以適應不同類型的資料和需求驗證包括但不限於:
經過認證的TLS 連線:利用經過認證的TLS 連線建立的可信任執行環境(TEE),確保傳輸過程中資料的缺陷和真實性。 安全飛地:使用硬體層級的安全隔離環境(例如英特爾SGX)來處理和驗證敏感數據,提供更高層級的資料保護。 ZK Proof Generators:整合ZKP,允許在不洩露原始資料的情況下驗證資料的屬性或計算結果。
c) 開放連接
OpenConnect是OpenLayer生態系中負責資料轉換、實現可用性的核心模組,處理來自各種來源的數據,確保資料在不同系統間的互通性,滿足不同應用的需求。例如:
將資料轉換為鏈上機(Oracle)格式,基於智慧合約直接使用。 將非結構化原始數據轉換為結構化數據,為AI訓練等目的進行。
對於來自私人用戶帳戶的數據,OpenConnect提供了資料脫敏功能以保護隱私,還提供了元件來增強資料共享過程中的安全性,減少資料外洩和竊聽。為了滿足AI和區塊鏈等對即時的應用資料需求,OpenConnect 支援高效的即時資料轉換。
接下來,透過和Eigenlayer 的集成,OpenLayer AVS 運營商監聽數據請求任務,負責抓取數據並進行驗證,然後將結果報告回系統,透過EigenLayer 質押或重質押資產,簡單行為提供經濟擔保。被證實,將面臨質押資產被罰款沒有的風險。作為EigenLayer主要網路上首批的AVS(主動驗證服務)之一,OpenLayer已經吸引了超過50個營運商和40億美元的再質押資產。
總的來說,OpenLayer所建構的中心去化資料層在不犧牲實用性和效率的前提下,擴展了可用資料的範圍和多樣性,同時透過加密貨幣技術和經濟刺激,保證了資料的真實性和多樣性其技術對於尋求獲取鏈下資訊的Web3 Dapp、需要用真實輸入來訓練和推斷的AI模型,以及希望根據現有身份和運河來闡釋和定位用戶的公司都有廣泛的實際案例。用戶也可以對他們的資產進行增值。
4.2 草
Grass 是由Wynd Network 開發的旗艦項目,旨在打造一個中心化的網路爬蟲和訓練AI 資料平台。 2023 年末,Grass計畫完成了由Polychain Capital 和Tribe Capital 投資的350 萬美元種子輪融資。緊接著,在2024年9月,計畫迎來了由HackVC領投的A輪融資,Polychain、Delphi、Lattice和Brevan Howard等投資機構也參與其中。
我們提到AI訓練新的資料重構口,而其中需要一個解決方案是利用多IP來突破存取的權限,為AI進行資料餵食。草由此出發,創建了一個旋轉爬蟲節點網絡,專門致力於以去中心化實體基礎設施的方式,利用訓練用戶的閒置頻寬為AI收集並提供可驗證資料集。節點透過使用者的網際網路連線路由網路請求,造訪公開網站並編譯資料集。計算技術進行初步資料清理和清理,提高資料品質。
Grass採用了Solana Layer 2 Data Rollup架構,建立在Solana之上以提高處理效率。 Grass使用驗證器接收、驗證和批次處理來自節點的web交易,產生ZK證明以確保資料真實性。驗證後的資料儲存在資料項本(L2)中,並連結到對應的L1鏈上證明。
4.2.1 草類主要組件
a)草節點
與OpenNodes類似,C端用戶安裝Grass應用或瀏覽器擴展並運行,利用閒置頻寬進行網絡爬蟲操作,透過用戶的互聯網連接路由web請求進行節點訪問,訪問公開網站並編譯數據集,利用邊緣計算技術進行初步資料清理和清理。用戶根據貢獻的頻寬和資料量獲得GRASS代幣獎勵。
b) 路由器(Routers)
連接草節點和驗證器,管理節點網路並頻寬頻寬。路由器受到激勵並獲得獎勵,獎勵比例與通過其中繼的總驗證頻寬成正比。
c) 驗證器(Validators)
接收、驗證和批次來自路由器的網路交易,產生ZK證明,使用獨特的金鑰集來建立TLS連接,為與目標網路伺服器的通訊選擇適當的密碼套件。 Grass目前採用中心化驗證器,未來計畫轉向驗證器委員會。
d) ZK處理器(ZK處理器)
接收來自驗證者的產生每個節點會話資料的證明,批量處理所有web請求的有效性證明並提交到Layer 1(Solana)。
e) 草資料帳本(草L2)
儲存完整的資料集,並連結到相應的L1鏈(Solana)上證明。
f) 邊緣嵌入模型
負責將非結構化網路資料轉換為可用的人工智慧訓練的結構化模型。
來源:草
分析對比Grass和OpenLayer
OpenLayer和Grass都利用網路為公司提供了存取開放網路資料和需要身份驗證的封閉資訊的機會。以機制激勵促進了數據共享和高品質數據生產。兩者都致力於創建去中心化資料層(Decentralized Data Layer)以解決資料獲取存取和驗證的問題,但採用了不同的技術路徑和商業模式。
技術架構的不同
Grass使用Solana上的Layer 2 Data Rollup架構,目前採用中心化的驗證機制,使用單一的驗證器。而Openlayer作為學習AVS,基於EigenLayer構建,利用經濟激勵和懲罰沒機制實現去中心化的驗證機制。並採用分層設計,增強資料驗證服務的可擴展性和靈活性。
產品差異
兩者都提供了類似的To C產品,允許用戶現透過節點進行資料的價值變化。在To B例子上,Grass提供了一個有趣的數據市場模型,並使用L2來驗證完整的數據,來為AI公司提供格式化、高品質、可驗證的訓練集。而OpenLayer並沒有暫時專用的儲存元件,但提供更廣泛的數據即時串流驗證服務(Vaas),除了為AI提供數據,也適用於需要快速回應的場景,例如作為Oracle 為RWA/DeFi/預測市場項目餵價,提供即時社交數據等等。
因此,如今Grass的目標客戶主要針對AI公司和資料科學家,提供大規模、格式化的訓練資料集,也服務於需要大量網路資料集的研究機構和企業;而Openlayer則首先面向需要鏈下資料來源的鏈上開發者,需要即時、可驗證的資料流的AI公司,以及支援創新的用戶獲取策略,如驗證競品使用歷史的Web2公司。
未來的潛在競爭
然而,考慮到產業發展趨勢,兩個的功能確實有可能在未來趨同。草不久後也可能提供專案即時的格式化資料。而OpenLayer作為一個客製化平台,未來也有可能擁有分區資料集管理自己的資料帳本,因此兩者的競爭領域可能會逐漸重疊。
而且,兩個專案都可能會考慮加入資料標籤(資料標籤)關鍵環節。草在這方面可能會更快推進,因為它們擁有龐大的節點網絡– 據報道已超過220萬個活躍節點。一項優勢使Grass 有潛力提供基於人類回饋的強化學習(RLHF) 服務,利用大量的關鍵數據來優化AI 模型。
然而,OpenLayer憑藉其在數據驗證和即時處理方面的專長,其在私人數據方面的關注,可能會在數據品質和可信度方面保持優勢。另外,OpenLayer作為Eigenlayer的AVS之一,可能在去中心化驗證機制上有更深入的發展。
儘管專案可能在某些領域競爭兩個,但它們各自的獨特優勢和技術路線也可能導致它們在資料生態系統中爭奪不同的利基市場。
4.3 瓦瓦
作為一個以使用者為中心的資料礦池網絡,Vana同樣致力於為AI和相關應用提供高品質的資料。相較於OpenLayer和Grass,Vana採用了更不同的技術路徑和商業模式。 Vana於2024年9月完成500萬美元融資,由Coinbase Ventures領投,阿聯酋獲得Paradigm領投的1800萬美元A輪融資,其他投資者包括Polychain、Casey Caruso等。
最初於2018 年作為MIT 的研究項目啟動,Vana 旨在成為專門為用戶數據設計的Layer 1區塊鏈。其在數據循環和價值分配上做出的創新使得用戶能夠基於其數據進行創新Vana的核心訴求是透過消耗信任、損失和可損失的數據流動性礦池(Data Liquidity Pool)和創新的貢獻證明來實現私人資料的流通和價值化:
4.3.1. 資料流動性礦池(Data Liquidity Pool)
Vana引入了一個獨特的數據流動性礦池(DLP)概念作為:Vana網絡的每一個核心,DLP組件都是一個獨立的點對點網絡,用於聚合特定類型的數據資產。使用者可以將自己的私人資料(如購物記錄、瀏覽習慣、社群媒體活動等)上傳至特定的DLP,並靈活地是否將這些資料授權給特定的第三方使用。數據透過這些流動性礦池被整合和管理,這些數據經過識別化處理,確保用戶隱私的同時允許數據參與商業應用,例如用於AI模型或市場研究。
用戶向DLP提交數據並獲得相應的DLP代幣(每個DLP都有特定的代幣)獎勵,這些代幣不僅代表用戶對數據礦池的貢獻,還賦予用戶對DLP的治理權和未來利潤分配權用戶不僅可以分享數據,還可以從數據的後續調用中獲得持續的收益(並提供視覺化追蹤)。與傳統的單次數據售賣不同,Vana允許數據持續參與經濟循環。
4.3.2.貢獻證明機制
Vana的另一個核心創新之一是Proof of Contribution(貢獻證明)機制。這是Vana確保資料品質的關鍵機制,讓每個DLP都可以根據其特性自訂獨特的貢獻證明函數,以驗證資料的真實性和缺陷,並評估資料對AI 模型效能提升的貢獻。這確保用戶的數據貢獻得到量化和記錄,從而為用戶提供機制獎勵。與加密貨幣中的「工作量證明」(Proof of Work)類似,貢獻證明根據用戶貢獻的資料品質、數量以及被使用的頻次來為用戶分配收益。透過智慧合約自動執行,確保貢獻者獲得與貢獻相符的獎勵。
Vana的技術架構
1.資料流動性層(Data Liquidity Layer)
這是Vana的核心層,負責數據的貢獻、驗證和記錄到DLP,將數據作為可轉移的數位資產引入鏈上。 DLP創建者部署DLP智能合約,設定資料貢獻的目的、驗證方法和貢獻參數。資料貢獻者和託管者提交資料進行驗證,貢獻證明(PoC)模組會進行資料驗證和價值評估,根據參數給予治理權和獎勵。
2.資料可移植層(Data Portability Layer)
這是資料貢獻者和開發者的開放資料平台,也是Vana的應用層。資料可攜式層為貢獻者和開發者提供資料協作空間,使用DLP中增持的資料流動性建構應用。為使用者擁有模型多種訓練,AI Dapp開發提供基礎設施。
3.通用連接組(Connectome)
一個去中心化帳本,也是一個貫穿整個Vana生態系統的即時資料流程圖,利用權益論證共識(Proof of Stake)記錄Vana生態系統中的即時資料交易。確保DLP代幣的有效轉移並為應用提供跨領域的支援DLP資料存取允許。與EVM相容,與其他網路、協定和DeFi應用程式互通。
Vana 提供了一條不同的路徑,專注於用戶資料的流動性和價值賦能,這種去中心化的資料交易所模式不僅適用於AI 訓練、資料市場等場景,也適用於Web3 生態系統中使用者資料的跨平台互通與授權提供了一個新的解決方案,最終創建一個開放的互聯網生態系統,讓用戶擁有並管理自己的數據,以及由這些數據創造的智慧產品。
5.去中心化資料網路的價值重構
資料科學家克萊夫·哈姆比(Clive Humby)在2006年曾說過數據是新時代的石油。近20年來,我們見證了「提煉」技術的快速發展。大數據分析、機器學習等技術讓資料賦能根據IDC的預測,到2025年,全球資料圈將成長到163 ZB,其中大部分將來自個人用戶,隨著物聯網、穿戴式裝置、人工智慧與個性化服務等新興科技的普及,未來大量需要的數據也將來自個人。
傳統方案的痛點:Web3的解鎖創新
Web3數據解決方案透過節點節點網絡,突破了傳統設施的猝死,實現了高效的更廣泛、更廣泛的數據採集,同時提升了特定數據的即時獲取效率和驗證可信度。在此過程中,Web3技術確定了資料的真實性和完整性,並能有效保護使用者隱私,從而實現更公平的資料利用模式。這種去中心化的資料架構,推動了資料獲取的民主化。
無論是OpenLayer和Grass的用戶節點模式,或是Vana透過用戶資料的貨幣化,除了提高特定資料收集的效率,也讓一般使用者分享資料經濟的紅利,創造出使用者與開發者雙贏的模式,讓用戶真正掌控和操作他們的數據和相關資源。
代幣經濟,Web3數據方案重新設計了激勵模型,創造了更公平的數據價值分配。機制透過吸引用戶、硬體資源與資本的投入,從而協調並優化了整個數據網路的運作。
聯想傳統資料解決方案,它們也擁有自訂與可擴充性:例如Openlayer的自訂設計,為未來的技術迭代和生態擴展提供了靈活性。得益於技術特性,優化AI模型訓練的資料取得方式,提供更豐富、更多樣化的資料集。
從資料產生、儲存、驗證到交易所與分析,Web3驅動的解決方案透過強調技術優勢解決傳統設施的批評端,同時也賦予使用者對個人資料的變現能力,引發資料經濟模式的根本轉變。著眼於技術進一步發展演進和應用場景的拓展,去中心化數據層收益與其他Web3數據解決方案一起,成為下一代關鍵基礎設施,為廣泛的驅動數據型產業提供支撐。
資訊來源:0x資訊編譯自網際網路。版權歸作者IOSG所有,未經許可,不得轉載