參加英偉達大會後成為AI頭部公鏈,NEAR到底有什麼大招?


NEAR創辦人@ilblackdragon即將在英偉達AI大會上亮相,引起了市場的關注。有網友質疑NEAR鍊是否真的朝AI方向轉變,但其創辦人Illia Polosukhin擁有AI背景,曾參與創建Transformer架構,為NEAR在AI領域提供了經驗基礎。 NEAR Tasks推出了人工智慧模型訓練服務,透過手動標註資料來優化AI模型。 NEAR也計畫在生態系中提供AI代理服務,實現用戶鏈上操作的自動執行。 NEAR的強大功能和技術延伸為其在AI領域增添了潛力。關注NEAR在鏈抽象和AI領域的發展將成為未來發展的關鍵因素。 #NEAR【100字】

近日,NEAR創辦人@ilblackdragon將亮相英偉達AI大會的消息,讓NEAR公鏈賺足了眼球,市場價格走勢也喜人。網友疑惑,NEAR鏈不是All in在做鏈抽象麼,怎麼莫名其妙就成了AI頭部公鏈了?接下來,分享下我的觀察,順帶科普下一些AI模型訓練知識:

1)NEAR創辦人Illia Polosukhin擁有過寶貴時間的AI背景,是Transformer架構的共同建構者。而Transformer架構是如今LLM大型語言模型訓練ChatGPT的架構基礎,證明NEAR老闆在成立之前NEAR確實有AI大型模型系統的創建與領導經驗。

2)NRAR 曾在NEARCON 2023 上推出過NEAR Tasks,目標是為了進行人工智慧模型的訓練和改進,簡單來說,模型訓練需求方(Vendor)可以在平台發布任務請求,並基礎上傳資料素材,用戶(Tasker)可以參與進行任務答題,為資料進行文字標記和影像辨識等人工操作。任務完成後,平台會給用戶NEAR代幣獎勵,而這些經過人工標記的數據會被用來訓練對應的AI模型。

例如:AI模型需要提高識別圖片中物體的能力,供應商可以將大量圖片中帶有不同物體的原始圖片上傳到任務平台,然後用戶手動標註圖片上物體位置,就可以產生大量“圖片-物體位置」 」的數據,AI就可以利用這些來自主學習的數據來提高圖片辨識能力。

乍聽,NEAR Tasks不就是想社會化人工工程來為AI模型做基礎服務嘛,真有那麼重要嗎?這裡加一點關於AI模型的科普知識。

通常情況下,一次完整的AI模型訓練,包括資料收集、資料標註和標註、模型設計與訓練、模型調優、調整、模型驗證測試、模型部署、模型監控與更新等過程,其中資料標註與重建為人工部分,而模型與最佳化為機器部分。

顯然,大多數人理解的機器部分要明顯大於人工部分,畢竟視野更高科技一些,但實際情況下,人工標註在整個模型訓練中至關重要。

人工標註可以為圖像中的物件(人、地點、事物)等添加標籤,供電腦視覺提升模型學習;人工標註還可將語音中的內容轉化為文本,並標註特定音節、單字單字等幫助電腦進行語音辨識模型訓練;人工標註還可以為文字添加一些快樂、悲傷、憤怒等情緒標籤,讓人工智慧增強情緒分析技能等等。

不難看出,人工標記是機器進行深度學習模型的基礎,沒有高品質的高效標記數據,模型就無法學習,如果標記數據量不夠大,模型成績會獲得提高。

目前,AI微創領域有許多基於ChatGPT大模型進行二次校準或針對性的垂直方向,本質上都是在OpenAI的資料基礎上,另外增加新的資料來源尤其是人工標註資料來施展模型訓練。

例如,醫療公司想基於醫學影像AI做模型訓練,為醫院提供一套線上AI問診服務,只需要將大量的原始醫學影像資料上傳到任務平台,然後讓使用者去標註並完成任務,就產生了人工標註數據,再將這些數據對ChatGPT大模型進行偏差與最佳化,一定會讓這個通用AI工具變成垂直領域的專家。

,NEAR 簡單依靠任務平台,就想成為AI 公鏈龍頭顯然還不夠,NEAR 其實還在生態系統中進行AI 代理服務,用來自動執行用戶一切鏈上行為和操作不過,用戶只需授權就可以自由在市場中買賣資產。這有點類似以意圖為中心,用AI自動化來提升用戶鏈上體驗互動。除此之外,NEAR強大的DA能力可以增強在AI資料來源的可追溯性上發揮作用,追蹤AI模型訓練資料有效性和真實性。

總之,背靠高性能的連鎖功能,近乎做AI方向的技術延展和敘述引導,似乎單純的鏈抽像要隱形覺厲多了。

半個月我在分析NRAR鏈抽象時,就看到了近鏈性能+團隊超強的web2資源整合能力的優勢,萬萬沒想到,鏈抽象還沒有普及開來摘到果子,這波AI賦能再一次把想像力放大了。

註:長期關注還是得看NEAR在「鏈抽象」上的佈局和產品推進,AI會是個不錯的加分項和牛市催化劑#NEAR

資訊來源:0x資訊編譯自網際網路。版權歸作者鏈上觀所有,未經許可,不得轉載

Total
0
Shares
Related Posts