作者:Kyle_13,來源:作者推特@kylewmi
感謝今天各位的到來。我們有一系列關於AO 技術的超級令人興奮的進展要與大家分享。我們會先進行一個演示,然後Nick 和我會在這裡嘗試建立一個AI 代理,這個代理將在智能合約中使用大型語言模型,基於你們即將聽到的系統中的聊天情緒進行買賣。今天我們將現場從頭開始建造它,希望一切順利。
是的,你們將看到如何自己做這一切。
這裡的技術進步確實讓AO 遠遠超越了其他智慧合約系統。這在以前已經是事實,現在它越來越像一個去中心化的超級計算機,而不是傳統的智能合約網路。但它具備了智慧合約網路的所有特性。因此,我們非常興奮地與大家分享這一切。事不宜遲,讓我們開始演示,然後我們會進行討論,並且我們將一起現場建造一些東西。
大家好,感謝今天的到來。我們非常興奮地宣布AO 協議的三項重大技術更新。它們共同實現了一個大目標,即支援在去中心化環境中運行的大型語言模型作為智慧合約的一部分。這些不僅僅是玩具模型,小模型,或被編譯成自己二進位的模型。
這是一個完整的系統,可以讓你運行幾乎所有當前開源和可用的主要模型。例如Llama 3 在鏈上運行在智能合約中,GPT 也是如此,還有蘋果的模型等等。這是整個生態系統共同努力的成果,有三項主要的技術進步也構成了這個系統的一部分。因此,我非常興奮地向大家介紹這一切。
大體情況是,現在LLM(大型語言模型)可以在智能合約中運作。你可能多次聽說去中心化AI 和AI 加密貨幣。實際上,除了我們今天要討論的系統外,幾乎所有這些系統都是作為預言機的AI,也就是在鏈下運行AI,然後將執行結果放到鏈上,用於下游的某些用途。
我們說的不是這個。我們說的是將大型語言模型推理作為智能合約狀態執行的一部分。這一切都歸功於我們擁有的AO 硬碟以及AO 的超平行處理機制,這意味著你可以運行大量的運算,而這不會影響我正在使用的不同進程。我們認為,這將允許我們創建一個非常豐富的去中心化自主代理金融系統。
到目前為止,在去中心化金融(DeFi)中,我們基本上已經能夠使原始交易的執行變得無需信任。在不同經濟遊戲中的交互,例如借貸和交換,都是無需信任的。這只是問題的一個面向。如果你考慮全球金融市場。
是的,有各種不同的經濟原件在不同方式中發揮作用。有債券、股票、商品和衍生性商品等等。但我們真正談論市場時,不僅僅是這些,實際上是智慧層。是決定買賣、借貸或參與各種金融遊戲的人。
到目前為止,在去中心化金融生態系統中,我們成功地將所有這些原件轉移到一個無需信任的狀態。因此,你可以在Uniswap 上進行交換,而不需要信任Uniswap 的業者。實際上,從根本上講,沒有運營商。市場的智慧層被留在了鏈下。所以,如果你想參與加密貨幣投資,而不想自己做所有研究和參與,你必須找到一個基金。
你可以信任他們的資金,然後他們去執行智慧決策,並將其下游傳遞到網路本身的基本原件執行中。我們認為,在AO 中,我們實際上已經具備了將市場的智能部分,即導致決策的智能,轉移到網路本身的能力。因此,一個簡單的理解方式可能是想像一下。
一個你可以信任的對沖基金或投資組合管理應用程序,可以在網路內執行一組智慧指令,從而將網路的無需信任性轉移到決策過程中。這意味著一個匿名帳戶,例如Yolo 420 Trader Number One(一個大膽、隨意的交易者),可以創建一個新的有趣策略,並將其部署到網路上,而你可以將資本投入其中而無需真正信任。
你現在可以建立與大型統計模型互動的自主代理。而最常見的大型統計模型是大型語言模型,可以處理和產生文字。這意味著你可以將這些模型放入智能合約中,作為由某個有新穎想法的人開發的策略的一部分,並在網路中智慧地執行它們。
你可以想像做一些基礎的情緒分析。例如你讀取新聞,決定這是買賣這個衍生性商品的好時機。這是執行這種或那種操作的好時機。你可以讓類似人類的決策以無需信任的方式執行。這不僅僅是理論。我們創建了一個有趣的迷因幣,稱為Llama Fed。基本上這個想法是,它是一個法幣模擬器,其中的一群llama(羊駝)由Llama 3 模型表示。
它們就像llama 和聯準會主席的結合體,你可以去找它們,請它們發放一些代幣,它們會評估你的請求。大型語言模型本身操作貨幣政策,完全自主、無需信任。我們建造了它,但我們無法控制它。它們操作貨幣政策,決定誰應該獲得代幣,誰不應該。這是這項技術的一個非常有趣的小應用,希望能激發生態系中所有其他可能的應用。
為了實現這一點,我們必須為AO 創建三種新的基礎能力,其中一些在基礎協定層,另一些在應用層。這不僅對大型語言模型的執行有用,對AO 開發者來說更為廣泛和令人興奮。所以我很高興今天能向大家介紹這些。
這些新技術中的第一個是Web Assembly 64 位元支援。聽起來有點像技術術語,但我有辦法讓每個人都理解它的意義。從根本上講,Web Assembly 64 支援允許開發人員創建使用超過4GB 記憶體的應用程式。稍後我們會介紹新的限制,它們相當驚人。
如果你不是開發人員,可以這樣理解:有人要你寫一本書,你對這個想法很興奮,但他們說你只能寫100 頁。不多不少。你可以表達書中的想法,但無法以自然和正常的方式進行,因為有外在限制,你必須迎合它,改變你的寫作方式以適應它。
在智能合約生態系中,這不僅是100 頁的限制。我會說這有點像在早期版本的AO 中構建。以太坊有48KB 的記憶體限制,就像有人讓你寫一本只有一句話長的書,而且你只能使用前200 個最受歡迎的英文單字。在這個系統中建立真正令人興奮的應用程式極其困難。
然後是Solana,你可以存取10MB 的工作記憶體。這顯然是一個改進,但基本上我們說的是一頁。 ICP,互聯網電腦協議,允許支援3GB 的記憶體。理論上是完整的,但他們不得不降低到3GB。現在有了3GB 的內存,你可以運行很多不同的應用程序,但你肯定不能運行大型AI 應用程式。它們需要加載大量資料到主內存,以便快速存取。這在3GB 記憶體中無法有效實現。
當我們在今年二月發布AO 時,我們也有4GB 記憶體限制,這實際上源自於Web Assembly 32。現在,這個記憶體限制在協議層面完全消失了。相反,協議層面的記憶體限制是18EB(艾字節)。這是一個巨大的存儲量。
直到這在記憶體中用於計算而不是長期儲存媒體之前,會需要相當長的時間。在實現層面,AO 網路中的計算單元,現在能夠存取16GB 內存,但在未來無需更改協議即可將其替換為更大容量的內存,這將相對容易。 16GB 已經足夠運行大型語言模型計算,這意味著你今天可以在AO 上下載和執行16GB 的模型。例如Llama 3 未量化版本的Falcon 3 以及許多其他模型。
這是建構智慧語言基礎運算系統所必需的核心元件。現在它作為智能合約的一部分在鏈上完全支持,我們認為這是非常非常令人興奮的。
這消除了AO 以及隨後智能合約系統的一大主要計算限制。當我們在今年二月發布AO 時,你可能會注意到影片中我們多次提到你有無限的運算能力,但有一個限制,就是不能超過4GB 記憶體。這就是那個限制的解除。我們認為這是一個非常令人興奮的進步,16GB 已經足夠運行當前AI 領域幾乎所有你想運行的模型。
我們能夠在不更改協議的情況下提升16GB 限制,未來這將相對容易,與最初運行Web Assembly 64 相比,這是一大進步。因此,這本身就是系統能力的巨大進步。第二個使大型語言模型能夠在AO 上運行的主要技術是WeaveDrive。
WeaveDrive 讓你可以像本機硬碟一樣存取AO 內的Arweave 資料。這意味著你可以打開AO 中任何經過調度單元認證的事務ID 並上傳到網路。當然,你可以存取這些資料並將其讀入你的程式中,就像本地硬碟上的檔案一樣。
我們都知道,目前Arweave 上儲存了大約60 億條事務數據,所以這是一個龐大的數據集起點。這也意味著在未來建立應用程式時,上傳資料到Arweave 的動機會增加,因為這些資料也可以在AO 程式中使用。例如,當我們使大型語言模型在Arweave 上運行時,我們大約上傳了價值1000 美元的模型到網路上。但這只是開始。
有了本地檔案系統的智慧合約網絡,你可以建立的應用程式數量是巨大的。因此,這非常令人興奮。更好的是,我們建立的系統允許你將資料串流到執行環境中。這是一個技術上的細微差別,但你可以想像回到書的類比。
有人對你說,我想存取你這本書中的一個資料。我想獲取這本書中的一個圖表。在一個簡單的系統中,甚至在目前的智慧合約網路中,這都會是一個巨大的進步,你會給出整本書。然而這顯然效率不高,特別是如果那本書是一個包含數千頁的大型統計模型。
這極其低效。相反,我們在AO 中所做的是讓你可以直接讀取位元組。你直接到書中的圖表位置,只複製圖表到你的應用程式中並執行。這使得系統的效率得到了極大的提升。這不僅是一個最小可行產品(MVP),它是一個功能齊全、建構良好的資料存取機制。因此你有一個無限計算系統和一個無限硬碟,將它們結合在一起,你就有了一台超級電腦。
這在以前從未被建造過,現在它以最低成本提供給每個人使用。這就是AO 的現狀,我們對此感到非常興奮。此系統的實作也在作業系統層面。因此,我們將WeaveDrive 變成AO 的一個子協議,它是一個計算單元擴展,任何人都可以加載。這很有趣,因為這是首個此類擴展。
AO 一直具備讓你為執行環境增加擴充功能的能力。就像你有一台計算機,你想插入更多的內存,或插入一張顯示卡,你物理上將一個單元放入系統中。你可以對AO 的計算單元執行此操作,這就是我們在這裡做的。因此,在作業系統層面,你現在有一個硬碟,它只是代表資料儲存的檔案系統。
這意味著你不僅可以在AO 中存取這些數據,以通常的方式建立應用程序,但實際上你可以從任何帶到網路上的應用程式中存取它。因此,這是一個廣泛適用的能力,所有在系統中構建的人員都可以訪問,不論他們使用何種語言編寫,Rust、C、Lure、Solidity 等都可以訪問,像它是系統的原生功能一樣。在建構這個系統的過程中,它也迫使我們創建了子協議協議,創建其他計算單元擴展的方法,以便將來其他人也能建立令人興奮的東西。
現在我們有能力在任意大小的記憶體集中運行計算,並能將網路中的資料載入到AO 內的進程中,接下來要問的是,如何進行推理本身。
由於我們選擇在Web Assembly 上建置AO 作為其主要虛擬機,因此將現有程式碼編譯並運行在該環境中相對容易。由於我們建立了WeaveDrive 使其暴露為作業系統層面的檔案系統,因此將Llama.cpp(一個開源的大型語言模型推理引擎)運行在系統上實際上是相對容易的。
這非常令人興奮,因為這意味著你不僅可以運行此推理引擎,還可以輕鬆運行許多其他引擎。因此,使大型語言模型在AO 內運行的最後一個元件是大型語言模型推理引擎本身。我們移植了一個名為Llama.cpp 的系統,聽起來有點神秘,但實際上它是目前領先的開源模型執行環境。
直接在AO 智能合約內運行,一旦我們有能力在系統中擁有任意數量的數據,然後從Arweave 中加載任意數量的數據,這實際上是相對容易的。
為了實現這一點,我們還與稱為SIMD(單指令多數據)計算擴展合作,這使你可以更快地運行這些模型。因此我們也啟用了這項功能。這意味著目前這些模型在CPU 上運行,但速度相當快。如果你有非同步計算,它應該適合你的使用場景。像是讀取新聞訊號然後決定執行哪些交易,在目前的系統下運作良好。但我們也有一些令人興奮的升級將在不久後談到,關於其他加速機制,例如使用GPU 加速大型語言模型推理。
Llama.cpp 允許你加載不僅是Meta 的領先模型Llama 3,還可以加載許多其他模型,實際上大約90% 以上你可以從開源模型網站Hugging Face 下載的模型都可以在系統內運行,從GPT-2如果你願意,到253 和Monet,蘋果自己的大型語言模型系統以及許多其他模型。因此我們現在有了框架,可以將任何模型從Arweave 上傳,使用硬碟上傳我想在系統中運行的模型。你上傳它們,它們只是正常的數據,然後你可以加載它們到AO 的進程中並執行,獲取結果並以你喜歡的方式工作。我們認為這是一個包,它使在以前的智能合約生態系統中無法實現的應用程序成為可能,即使現在可能實現,在現有系統如Solana 中進行架構更改的數量也只是難以預料,不在其路線圖上。因此為了向你們展示這一點並使其變得真實和易於理解,我們創建了一個模擬器Llama Fed。基本想法是我們得到一個美聯儲成員委員會,它們是llama,無論在作為元llama 3 模型還是在作為美聯儲主席這一點上都是llama。
我們也告訴它們它們是llama,像Alan Greenspan 或聯準會主席一樣。你可以進入這個小環境。
有些人會熟悉這個環境,實際上它就像我們今天工作的Gather,你可以和llama 交談,請求它們給你一些代幣用於一個非常有趣的項目,並且它們會根據你的請求決定是否給你代幣。因此你燃燒一些Arweave 代幣,wAR 代幣(由AOX 團隊提供),它們會根據認為你的提案是否好給你代幣。因此這是一個迷因幣,貨幣政策完全自主和智慧化。雖然這是一種簡單形式的智能,但仍然有趣。它將評估你的提案和其他人的提案,並運行貨幣政策。透過分析新聞標題並做出智慧決策或與客戶支援互動並返回價值,所有這些現在都可以在智慧合約內實現。 Elliot 現在將為大家展示。
大家好,我是Elliot,今天我要向你們展示Llama Land,這是一個在AO 內運行的鏈上自主世界,由Meta 的開源Llama 3 模型驅動。
我們在這裡看到的對話不僅僅是玩家之間的對話,還有完全自主的數字llama。
例如這個llama 是人類。
但這個llama 是鏈上AI。
這棟建築包含了Llama fed。它就像美聯儲,但為llama 服務。
Llama fed 運行世界上第一個AI 驅動的貨幣政策,並鑄造Llama 代幣。
這個傢伙是Llama 國王。你可以向他提供包裝的Arweave 代幣(wAR),並寫一個請求以獲取一些Llama 代幣。
Llama 國王AI 會評估並決定是否授予Llama 代幣。 Llamafed 的貨幣政策完全自主,沒有人為監督。世界上的每個代理人和每個房間本身都是AO 上的鏈上進程。
看起來Llama 國王授予了我們一些代幣,如果我查看我的ArConnect 錢包,我可以看到它們已經在那裡了。不錯。 Llama Land 只是第一個在AO 上實現的AI 驅動的世界。這是一個新協議的框架,允許任何人建立自己的自主世界,唯一的限制是你的想像。所有這些都是100% 鏈上實現的,只有在AO 上才有可能。
謝謝Elliot。你剛剛看到的不僅是一個大型語言模型參與財務決策並運行一個自主的貨幣政策系統。沒有後門,我們無法控制它,所有這些都是由AI 本身運作的。你也看到一個小宇宙,一個你可以在實體空間中行走的地方,你可以去那個地方與金融基礎設施互動。我們認為,這不僅是一個有趣的小演示。
實際上這裡有一些非常有趣的東西,這些地方將不同使用金融產品的人聚集在一起。我們在DeFi 生態系統中看到,如果有人想參與一個項目,他們首先在Twitter 上查看,然後訪問網站,參與遊戲中的基本原件。
然後他們加入Telegram 群組或Discord 頻道或在Twitter 上與其他用戶交談。這種體驗非常去中心化,我們都在不同應用程式之間跳轉。我們正在嘗試的一個有趣想法是,如果你有這些DeFi 應用程式的使用者介面,讓他們的社群可以聚集在一起並共同管理這個他們集體訪問的自主空間,因為這是一個永久的網路應用,可以加入體驗。
想像一下你可以去一個看起來像拍賣行的地方,和其他喜歡該協議的用戶在一起聊天。當在AO 上發生的金融機制進程有活動時,基本上你可以和其他使用者聊天。社區和社交方面與產品的金融部分結合在一起。
我們認為這非常有趣,甚至有更廣泛的影響。你可以在這裡建立一個自主AI 代理,它在這個Arweave 世界中四處遊蕩,與它發現的不同應用程式和使用者互動。所以如果你正在建立一個元宇宙,當你創建一個線上遊戲時,第一件事就是創建NPC(非玩家角色)。在這裡,NPC 可以是通用的。
你有一個智慧系統,它四處遊蕩,與環境互動,所以你沒有用戶冷啟動問題。你可以有一些自主代理,試著為自己賺錢,試著交朋友,像正常的DeFi 使用者一樣,與環境互動。我們認為這非常有趣,雖然有點怪異。我們將拭目以待。
展望未來,我們也看到了在AO 中加速大型語言模型執行的機會。早些時候我談到了計算單元擴展的概念。這就是我們用來建構WeaveDrive 的方式。
不只停留在WeaveDrive,你可以為AO 的運算環境建立任何類型的擴充。有一個非常令人興奮的生態專案正在為GPU 加速大型語言模型執行解決這個問題,也就是Apus Network。我讓他們來解釋。
嗨,我是Mateo。今天我很興奮地介紹Apus Network。 Apus Network 致力於建構去中心化的、無需信任的GPU 網路。
我們透過利用Arweave 永久的鏈上存儲,提供一個開源AO 擴展,提供GPU 的確定性執行環境,並為去中心化AI 提供經濟激勵模型,使用AO 和APUS 代幣。 Apus Network 將使用GPU 挖礦節點競爭性地執行最優的、無需信任的模型訓練在Arweave 和AO 上運行。這確保了使用者可以以最具成本效益的價格使用最佳AI 模型。你可以在X(Twitter)@apus_network 上關注我們的進度。謝謝。
這就是今天AO 上的AI 現況。你可以去試試Llama Fed,嘗試自己建立基於大型語言模型的智慧合約應用。我們認為這是引入市場智慧到去中心化執行環境的開始。我們對此非常激動,期待看到接下來會發生什麼。謝謝大家今天的參與,期待再次與大家交流。