假設您是web3 新手,開始建立web3 分析團隊,或者剛剛對web3 數據感興趣。無論哪種方式,您都應該已經大致熟悉了API、數據庫、轉換和模型在web2 中的工作方式。
對於這本就職指南,我將盡量保持簡潔,並突出我對以下三個重要的想法:
1. 思考:為什麼開放數據管道會重塑數據工作的完成方式
2. 工具:web3 數據堆棧中工具的概述,以及如何利用它們
3. 團隊:在web3 數據團隊中應具備的基本注意事項和技能
關於數據思維
讓我們首先總結一下在web2 中如何構建、查詢和訪問數據(即訪問Twitter 的API)。
對於簡化的數據管道,我們有四個步驟:
-
事件API 觸發(發送了一些推文)
-
攝取到數據庫(連接到現有用戶模型/狀態更改)
-
特定產品/分析用例的數據轉換(隨時間增加回复/參與度指標)
-
模型訓練和部署(用於管理您的Twitter 提要)
數據有時是開源的唯一步驟是在轉換完成之後。 Kaggle(1000 個數據科學/特徵工程競賽)和Hugging Face(26,000 個一流NLP 模型)等社區使用暴露數據的一部分來幫助企業構建更好的模型。有一些特定領域的案例,例如在前三個步驟中打開數據的開放街道地圖,但這些仍然有寫權限的限制。
並不是說web2 根本沒有任何開源。與大多數其他工程角色一樣,web2 數據擁有大量用於構建其管道的開源工具( dbt、apache、TensorFlow)。我們仍然在web3 中使用所有這些工具。總之,他們的工具是開放的,但他們的數據是封閉的。
Web3 也將數據開源——這意味著它不再只是數據科學家在開源中工作,分析工程師和數據工程師也是如此!每個人都參與到一個更連續的工作流程中,而不是一個黑盒數據循環。
工作的形式已經從web2 數據大壩轉變為web3 數據的河流、三角洲和海洋。同樣重要的是要注意,這個新周期會同時影響生態系統中的所有產品/協議。
讓我們看一個web3 分析師如何協同工作的示例。有幾十個DEX使用不同的交換機制和費用,允許你將通證A換成通證B。如果這些是典型的交易所,比如納斯達克,每個交易所都會以10k 或一些API 報告自己的數據,並且然後像capIQ 之類的其他服務會將所有交換數據放在一起,並收取費用讓您訪問他們的API。也許偶爾,他們會舉辦一場創新比賽,這樣他們就可以在未來擁有額外的數據/圖表功能來收費。
使用web3 交換,我們有這個數據流:
dex.trades是Dune 上的一張表(由許多社區分析工程師隨時間整理而成),其中匯總了所有DEX 交換數據- 因此您可以非常輕鬆地搜索所有交易所中單個代幣的交換量之類的東西。
一位數據分析師出現並使用一堆社區開源查詢創建了一個儀表板,現在我們對整個DEX 行業有了一個公開的了解。即使所有的查詢看起來都是一個人寫的,你可以打賭,在某個不和諧的地方有大量的討論可以準確地拼湊起來。
一位DAO 科學家查看儀表板並開始在他們自己的查詢中分割數據,查看特定的配對,例如穩定通證。他們研究用戶行為和商業模式,並開始建立假設。
由於科學家可以看到哪個DEX 佔據了更大的交易量份額,因此他們將提出一個新模型並提出對治理參數的更改,以在鏈上進行投票和執行(s/o Alex Kroeger的提案這裡的例子)。
之後,我們可以隨時查看儀表板,了解該提案如何創造出更具競爭力的產品。
未來,如果有另一個DEX 出來(或升級到新版本),這個過程會提升產品的功能。有人會創建插入查詢來更新此表。這將反過來反映在所有儀表板和模型中(無需任何人返回並手動修復/更改任何內容)。任何其他分析師/科學家都可以在Alex 已經完成的工作的基礎上再接再厲。
由於共享生態系統,討論、協作和學習發生在更緊密的反饋循環中。這有時會變得非常壓倒性,而且我認識的分析師基本上都在輪換數據時表現得倦怠。然而,只要我們中的一個人不斷推動數據前進(即有人創建了插入DEX 查詢),那麼其他所有人都會受益。
它也不一定總是複雜的抽象視圖,有時它只是實用功能,例如可以輕鬆搜索ENS 反向解析器或改進工具,例如使用單個CLI 命令自動生成大部分graphQL 映射!所有這些都可以被每個人重用,並且可以適應某些產品前端或您自己的個人交易模型中的API 使用。
雖然這裡解鎖的可能性是驚人的,但是程序還沒有那麼順利地運行。與數據工程相比,數據分析師/科學方面的生態系統仍然非常不成熟。我認為這有幾個原因:
數據工程多年來一直是web3 的核心焦點,從客戶端RPC API 改進到基本的SQL/graphQL 聚合。在theGraph 和Dune 等產品上的工作確實體現了他們為此付出的努力。
對於分析師來說,理解web3 獨特的跨協議關係表是一個艱難的過程。例如,分析師可以理解如何僅分析Uniswap,但隨後難以將聚合器、其他DEX 和不同的代幣類型添加到組合中。最重要的是,完成所有這些工作的工具直到去年才真正意義上出現。
數據科學家基本上習慣於進入原始數據轉儲並獨自完成所有工作(建立自己的工作風格)。我認為他們不習慣在項目早期與分析師和工程師如此密切和公開地合作。這需要一段時間才能適應這樣的環境。
除了學習合作之外,web3 數據社區還在學習如何在這個新的數據堆棧中工作。您不再需要控制基礎架構或從excel 中慢慢構建到數據湖或數據倉庫- 只要您的產品上線,那麼您的數據就會無處不在。您的團隊基本上進入了數據基礎架構的精華部分。
關於數據工具
這就是你們大多數人來這裡的目的:
這些工具並不全面——它們只是我發現自己或其他人在以太坊生態系統中一直使用和引用的工具(其中一些還涵蓋了其他鏈)。
“去中心化”標籤意味著有一個基礎設施網絡或指導框架來阻止單方面發生的變化。我喜歡將其視為解耦基礎設施與雲基礎設施,但這需要有自己的文章。
讓我們來看看您何時需要使用每個圖層/類別:
交互+數據源:這主要用於前端、錢包和數據攝取到較低層。客戶端:雖然以太坊的底層實現是相同的(使用Geth 作為規範的repo),但每個客戶端都有不同的額外功能。例如,Erigon 針對數據存儲/同步進行了大量優化,Quorum 支持啟動隱私鏈。
節點即服務:您無法選擇它們運行的客戶端,但使用這些服務將為您省去自己維護節點和API 正常運行時間的麻煩。節點有很多複雜性,具體取決於您要捕獲多少數據(輕→完整→存檔)。
查詢+ 數據映射:該層中的數據要么在合約中作為URI 引用,要么來自使用合約ABI將交易數據從字節映射到表模式。合約ABI 告訴我們合約中包含哪些功能和事件,否則我們只能看到已部署的字節碼(如果沒有此ABI,您將無法對合約交易進行逆向工程/解碼)。交易數據:這些是最常用的,主要用於儀表板和報告。 theGraph 和Flipside API 也用於前端。有些表是合約的1:1 映射,有些表允許在模式中進行額外的轉換。
元數據“協議”:這些不是真正的數據產品,但存在用於存儲DID 或文件存儲。大多數NFT 將使用其中的一個或多個,我認為今年我們將開始越來越多地使用這些數據源來增強我們的查詢功能。
專業提供商:其中一些是非常強大的數據流產品,用於內存池數據的Blocknative和用於鏈上交易數據的Parsec。其他人聚合鏈上和鏈下數據,例如DAO 治理或財務數據。
高頻數據提供者:您無法查詢/轉換他們的數據,但他們已經為您完成了所有繁重的工作。 “企業”服務:如果您是VC、調查員或記者,您會經常使用這些服務。您可以使用Nansen 的錢包分析器或Chainanalysis 的KYT深入了解錢包和錢包關係。或者使用Tolken 終端在大量項目/鏈上獲得漂亮的開箱即用圖表。
增強的那些API:這些產品將許多查詢捆綁到一個中,例如ERC20 代幣的所有代幣餘額或為給定地址提取合約ABI。
數據團隊
不言而喻,您希望在這些社區中尋找可以僱用到您團隊的人。讓我們進一步分解重要的web3 數據技能和經驗,以便您真正知道自己在搜索什麼。如果您想被錄用,請將其視為您追求的技能和經驗!
分析師至少應該是使用Etherscan的高手,並且知道如何閱讀Dune 儀表板。這可能需要1 個月的時間才能慢慢升級,如果您真的預訂並狂歡學習,則需要2 週。
您還應該考慮更多背景信息,特別是關於時間分配和技能可轉移性的內容。
在web3 中,數據分析師大約30-40% 的時間將用於跟上整個生態系統中的其他分析師和協議。請確保您沒有窒息他們,否則,它將成為對每個人的長期損害。與更大的數據社區一起學習、貢獻和構建是絕對必要的。
關於可轉移性:技能和領域在這個領域都是高度可轉移的。如果我使用不同的協議,那麼加速時間可能會很短,因為鏈上數據的表模式都是相同的。如果有的話,我可能在加入之前就已經使用過該協議的數據了!
了解如何使用這些工具並不重要——每個分析師都應該或多或少地能夠編寫SQL 或創建儀表板。這一切都是關於知道如何為社區做出貢獻和與社區合作。