Vitalik:我如何看待加密和AI交叉領域及其前景和挑戰

作者:Vitalik;翻譯:金色財經xiaozou

多年來,有很多人問過我一個類似的問題,那就是我認為加密和人工智慧之間最具成效的交集在哪裡?這個問題很好:加密和人工智慧可以說是上個十年最主要的兩個深度(軟體)技術趨勢,二者之間一定存在著某種關聯。我們很容易發現表面上的協同效應:加密去中心化可以平衡人工智慧的中心化問題,人工智慧是不透明的,加密則帶來了透明度,人工智慧需要數據,而區塊鏈非常適合儲存和跟踪數據。但多年來,當人們要我進行深入研究並聊聊具體的應用程式時,我的回答總是會讓他們失望:「確實,是有一些深度的東西,但不是很多」。

在過去三年裡,隨著現代LLM(機器學習模型)形式的更強大的人工智慧的興起,以及更強大的加密貨幣——不僅是區塊鏈擴展解決方案形式,還有ZKP、FHE、(雙方和n方)MPC形式-的興起,我開始看到了改變。在區塊鏈生態系統中確實存在一些前景光明的人工智慧應用,或是人工智慧與密碼學結合的應用,重要的是要專注於人工智慧的應用方式。其中一個具體的問題是:在密碼學裡,開源是確保某些東西真正安全的唯一途徑,但在人工智慧領域,開源模型(甚至連訓練資料也是開源的)卻大大加劇了它面對對抗性機器學習攻擊的脆弱性。本文將介紹加密與人工智慧之間可能存在的各類交集及其前景與挑戰。

四大類AI

人工智慧是一個非常廣泛的概念:你可以把「人工智慧」想像成一組演算法,而非具體的設定,就像是透過攪拌一大鍋神奇的計算的湯汁,並施加某種優化壓力,來讓這鍋湯提供給你帶有你想要的屬性的演算法。這種描述絕對不該被看輕:它就是我們人類最初誕生的過程!人工智慧演算法確實有一些共同的特性:它們的做事能力非常強大,而同時,我們窺探幕後真相的能力也非常有限。

人工智慧的分類方式有很多。本文主要討論人工智慧和區塊鏈(被描述為創建「遊戲」的平台)之間的交集,所以我將人工智慧在此進行如下分類:

  • 遊戲玩家類AI(最容易存活):AI所參與的機制中,激勵的最終來源出自協議的人類輸入。

  • 遊戲介面類別AI(潛力巨大,但也存在風險):AI幫助用戶理解他們身邊的加密世界,並確保他們的行為(如:簽署訊息和交易)與他們的意圖相符,他們不會被欺騙。

  • 遊戲規則類AI(如履薄冰):區塊鏈、DAO和其他類似機制直接呼叫AI。例如“AI法官”。

  • 遊戲目標類AI(長期但有趣):設計區塊鏈、DAO和其他類似機制,目的是建立和維護一個可用於其他目的的AI,使用加密bits來更好地激勵訓練或防止AI洩露隱私資料或被濫用。

1、遊戲玩家類AI

遊戲玩家類AI實際上是一個已經存在了近十年的類別,尤其是自從鏈上去中心化交易所(DEX)開始被廣泛使用以來。只要涉及到交易,就會有套利賺錢的機會,而機器人在套利方面比人類更具優勢。這個用例已經存在很久了,雖然使用的AI比現在的AI簡單的多,但它最終成為了人工智慧與加密貨一個真正的交叉領域。最近我們常看到MEV套利機器人相互競爭。無論什麼時候,只要區塊鏈應用程式涉及拍賣或交易,都會出現套利機器人。

然而,AI套利機器人只是其所在的更大範疇裡的第一個例子,我預計很快就會包含許多其他應用。

長期以來,預測市場一直是認知技術的聖杯;早在2014年,我就對使用預測市場作為治理輸入非常興奮,上次大選和最近的選舉就廣泛使用了預測市場。但到目前為止,預測市場在實踐中並沒有太大的發展,常見的原因有很多:最大的參與者往往是非理性的,明智的人往往不願花時間下注,除非涉及到大量資金,還有市場的流動性很淺,等等。

對此有一種回應指向了Polymarket或其他新興預測市場正在進行的用戶體驗改進,並希望它們能夠在之前失敗的地方獲得成功。畢竟,故事都是這樣發展的,人們願意在體育賽事上押注數百億美元,那麼為什麼不把足夠的錢押注在美國大選或LK99上,這樣一來,那些大玩家也就會有入場意願了。但這一點必須面對這樣一個事實,那就是既然之前都未能達到這種規模(至少與其支持者的夢想相比),因此似乎需要一些新的東西才能讓使預測市場成功。所以,另一種不同的回應指向了預測市場生態系統的一個具體特徵,也就是我們可以在21世紀20年代看到上個年代看不到的東西:人工智慧無所不在的可能性。

人工智慧願意以每小時不到1美元的價格工作,並且擁有百科全書般的知識——如果這還不夠,它們甚至可以與即時網路搜尋功能相結合。如果你做市,並提供50美元的流動性補貼,人類可能不太在意,不會去競標,但成千上萬的人工智慧會迅速行動,並盡其所能做出最好的預測。在一個問題表現出色的激勵可能很小,但讓人工智慧做出廣泛的正確預測的激勵卻很巨大。請注意,你甚至不需要人類來對大多數問題實行裁決:你可以使用類似於Augur或Kleros的多輪爭議系統,其中人工智慧也將參與較早的輪次。人類只需要在非常少數情況下做出反應,也就是當進行一系列雙方投入都很大的升級的時候。

這是一個強大的原語,因為一旦「預測市場」可以進行如此微觀規模的工作,你就可以在許多其他類問題上重複使用「預測市場」原語:

  • 根據[用户使用条款],這個社群媒體貼文是否可以發布?

  • 股票X的價格會發生什麼變化?

  • 現在正傳訊息給我的這個帳號真的是伊隆馬斯克嗎?

  • 這個在線上任務市場提效的工作合格嗎?

  • 這個網址是https://examplefinance.network的dapp是個騙局嗎?

  • 0x1b54….98c3真的是「Casinu Inu」 ERC20代幣的地址嗎?

你可能會注意到,這些想法很多都是朝著我所說的「資訊防禦」的方向發展的。從廣義上講,問題是:我們如何幫助使用者區分真實和虛假訊息,檢測詐騙,而不是授權一個中心化權威機構來決定孰是孰非,因為中心化權威可能會濫用自己的權利。在微觀層面上,答案可以是「人工智慧」。但在宏觀層面上,要面臨的問題是:誰來建構人工智慧?人工智慧是其創建過程的反映,是無法避免偏見的。所以,我們需要一個更高層次的遊戲去評判各種AI的表現,讓AI能夠作為玩家參與遊戲中。

人工智慧的這種使用,即人工智慧參與某種機制,並最終會被一個匯集人類輸入的鏈上機制(稱之為基於市場的去中心化RLHF如何?)獎勵或懲罰,我認為這是一個真正值得研究的方向。現在是時候更多地研究這樣的用例了,因為區塊鏈擴展終於成功了,讓任何「小」、「微」事物終於在鏈上可行,而這些在之前通常是不可行的。

一個相關的應用類別就是高度自主的使用區塊鏈來實現更優合作的智能體,不管是透過支付還是透過使用智能合約來做出可信賴承諾。

2、遊戲介面類AI

我曾在自己的文章中提出的一個想法是,編寫面向用戶的軟體是有市場機會的,這種軟體可以透過解釋和識別用戶正在瀏覽的線上世界中的危險來保障用戶的利益。一個業已存在的例子就是Metamask的詐欺偵測功能:

94UID0x091MSsMI67znTU6ZMg27D1zDbbsHKLBf9.jpeg另一個例子就是Rabby錢包的模擬功能,它向用戶展示他們即將簽署的交易的預期結果。

RUXtFPPmvxX3gtBvw0EdtW10YlpT14U3tdMlh4MU.jpeg這些工具可能會被人工智慧大大增強。人工智慧可以提供一個更豐富的人類友好的解釋,說明你正在參與什麼樣的dapp,你正在簽署的複雜操作的後果,特定的代幣是否真實(例如,BITCOIN不僅僅是一串字符,它還是一種真正的加密貨幣的名稱,它不是ERC20代幣,其價格遠遠高於0.045美元,LLM會知道這一點),等等。有些專案開始朝著這個方向發展(例如LangChain錢包使用AI作為主介面)。我個人的觀點是,純AI介面目前可能風險太大,因為它會增加其他類型錯誤的風險,但用AI來補足偏向傳統的介面是極為可行的。

值得一提的還有一個特定風險。我將在下面的「遊戲規則類AI」部分內容中詳細討論這個問題,但一般性的問題是對抗性機器學習:如果用戶可以訪問開源錢包中的AI助手,那麼不良人員也可以訪問該AI助手,因此他們將有無限的機會優化他們的騙局,避免觸發錢包防禦。所有現代AI都有bug,這對於訓練過程來說發現bug並不難,即使只有有限的模型存取權。

這就是「人工智慧參與鏈上微市場」更能施展的地方:所有AI能都容易遭受相同的風險,但你有意創造一個開放的生態系統,由數十人不斷進行迭代和改進。此外,每個單獨的AI都是閉環的:系統的安全性來自遊戲規則的開放性,而不是每個玩家的內部操作。

小結:人工智慧可以用簡單的語言幫助使用者理解正在發生的事情,它可以作為即時導師,它可以保護使用者免受錯誤的負面影響,但如果想要直接使用人工智慧來對付惡意散佈虛假訊息者和騙子時,一定要小心。

3.遊戲規則類AI

現在,我們談到了讓很多人都很興奮的應用,但我認為這是最危險的地方,我們需要小心行事:我稱之為「人工智慧成為遊戲規則的一部分」。這與主流政治精英對「AI法官」的興奮相關,在區塊鏈應用程式中也有類似的願望。如果基於區塊鏈的智慧合約或DAO需要做出主觀決策(例如:某個特定的工作產品是否在僱傭合約範圍內?),你是否可以讓人工智慧成為合約或DAO的一部分,以幫助執行這些規則?

這就是為什麼說對抗性機器學習將成為一個極其艱鉅的挑戰。基本的兩句話論證如下:

如果在機制中扮演關鍵角色的AI模型是閉環的,則無法驗證其內部工作原理,所以它並不比中心化應用程式更好。如果AI模型是開源的,那麼攻擊者可以下載並在本地模擬它,並設計大量優化的攻擊來欺騙模型,然後在即時網路上重播。

vIzqkG7Ac97UaAE9874jCnNXg9czmwAQSSPkC7iS.jpeg

現在,有些讀者(或加密原住民)可能已經走在我前面了,並且在想:等等!我們有了不起的零知識證明和其他非常酷的密碼學手段。當然,我們可以施一些加密魔法,隱藏模型的內部工作原理,這樣攻擊者就無法優化攻擊,而與此同時證明模型正在被正確執行,並且是在合理的底層數據集上使用合理的訓練過程構建的!

通常,這正是我在其他文章中所提倡的思考方式。但對AI相關計算而言,還有兩個主要的反對意見:

  • 加密開銷:在SNARK(或MPC…)內部執行某些操作的效率比透明化執行低得多。考慮到人工智慧已經是非常密集的計算,在加密黑盒中進行人工智慧運算可行嗎?

  • 黑盒對抗性機器學習攻擊:即使不了解模型的內部運作原理,也有辦法優化針對AI模型的攻擊。如果你隱藏得太多,你就有可能讓選擇訓練資料的人很容易用有毒攻擊來破壞模型。

二者都是複雜的兔子洞,所以讓我們來依序探查。

(1)加密開銷

加密工具,特別是像ZK-SNARKs和MPC這樣的通用工具,開銷很高。客戶端直接驗證一個以太坊區塊需要幾百毫秒,但產生一個ZK-SNARK來證明這樣一個區塊的正確性可能需要幾個小時。其他加密工具(如MPC)的通常開銷可能更大。人工智慧運算已經相當昂貴:最強大的LLM輸出單字的速度只比人類閱讀單字的速度快一點點,更不用說訓練這些模型常常需要數百萬美元的運算成本。頂級模型和試圖節省更多訓練成本或參量數的模型之間的品質差異很大。乍一看,這是一個很好的質疑理由,懷疑整個計畫試圖透過將AI包裹在密碼學中來強化保障。

幸運的是,人工智慧是一種結構非常具體的計算類型,這使得它能夠適應各種優化,而像ZK-EVM這樣的「非結構化」計算類型卻無法從這些優化中受益。讓我們來看看人工智慧模型的基本結構:

lEhPuyCo3iHyeHtzrE16Smo6Fw9wXXEWh3WNTx3a.jpeg通常,AI模型主要由一系列矩陣乘法組成,其中穿插著各元素的非線性運算,如ReLU函數(y = max(x, 0))。矩陣乘法佔據了工作的大部分:將兩個N*N矩陣相乘需要時間,而非線性運算的數量則少得多。這對密碼學來說非常方便,因為很多形式的密碼學幾乎可以「免費」地進行線性運算(矩陣乘法是線性運算,如果你只加密模型而不加密它的輸入的話)。

如果你是密碼學家,那麼你可能已經聽說過同態加密中的類似現象:在加密的密文上執行加法非常簡單,但執行乘法卻非常困難,直到2009年我們才找到方法來進行無限深度的乘法運算。

對於ZK-SNARKs來說,與此相當的2013年的協議,證明矩陣乘法的開銷不到4倍。遺憾的是,非線性層的開銷最終仍然很大,實踐中最好的實現顯示開銷在200倍左右。但有希望透過進一步的研究,大幅減少這方面的開銷。

但針對許多應用程序,我們不僅想證明人工智慧輸出是計算正確的,我們還想隱藏模型。有一些簡單的方式可以實現這一點:你可以拆分模型,由一組不同的伺服器冗餘儲存各層,希望洩漏某些層資料的某些伺服器不會洩漏太多資料。但還有一些特別有效的多方計算方式。

GftQOrQ6yQQdPEBMZcD2QKaBFCGjKyuaRdz7Oakx.jpeg在這兩種情況下,故事的精神是相同的:AI計算的最重要部分是矩陣乘法,因此可以創建非常高效的ZK-SNARKs或MPC(甚至FHE),所以將AI置入加密盒子的總開銷非常低。一般來說,非線性層是最大的瓶頸,儘管它們的規模較小;也許像Lookup Arguments這樣的新技術會有所幫助。

(2)黑盒對抗性機器學習

現在,讓我們來討論另一個重大問題:如果模型的內容是私有的,而你只有對模型的「API存取」權限,你可以進行哪一類攻擊?這裡讓我來引用2016年的一篇文章:

許多機器學習模型很容易受到對抗性範例的影響:專門設計的輸入會導致機器學習模型產生錯誤輸出。能夠影響一個模型的對抗性範例通常會影響另一個模型,即使兩個模型的架構不同或在不同的訓練集上進行訓練,只要兩個模型都被訓練來執行相同的任務就可能受影響。因此,攻擊者可能會訓練自己的替代模型,打磨針對替代模型的對抗性範例,然後將它們用到受害模型中,幾乎無需了解受害模型資訊。

8xu4jnrhfRHpzfZ1g6joirZlIhkffvo1On5EELW3.jpeg有可能,你甚至可以創建只知道訓練資料的攻擊,就算你對試圖攻擊的模型的存取權限非常有限或沒有任何存取權限也沒關係。截止到2023年,這類攻擊仍然是一個大問題。

為了有效地減少這類黑盒攻擊,我們需要做兩件事:

  • 真正限制誰可以查詢模型以及查詢多少內容。具有不受限制的API存取權限的黑盒子是不安全的;具有非常有限的API存取權限的黑盒子可能是安全的。

  • 隱藏訓練數據,同時確保用於創建訓練數據的過程不會被破壞。

在第一件事上做得最多的項目可能是Worldcoin。 Worldcoin在協議層面廣泛使用人工智慧模型,以將虹膜掃描轉換為易於比較相似性的簡短“虹膜代碼”,以及驗證它所掃描的物件實際上是一個人。 Worldcoin所依賴的主要防禦措施是,它不允許任何人輕易調用人工智慧模型,而是使用可信任硬體來確保模型只接受由orb相機進行數位簽章的輸入。

這種方法不一定奏效:事實證明,你可以對生物辨識人工智慧進行對抗性攻擊,形式是你可以戴在臉上的實體貼片或珠寶:

5lEhdZJcHyXPUA9dVxLX27rffW8zx5abElLnfrdb.jpeg但希望就是,如果你把所有的防禦結合在一起,隱藏人工智慧模型本身,極大地限制查詢量,並要求每個查詢進行某種方式的身份驗證,你就可以讓攻擊變得足夠困難,系統就可以是安全的了。

這就將我們帶到了下一件事:我們如何隱藏訓練資料?這可能就是「民主治理AI DAOs」的用武之地:我們可以創建一個鏈上DAO,治理決定如下過程:允許誰提交訓練資料(需要哪些資料相關證明)、允許誰查詢、查詢多少內容、以及使用像MPC等加密技術加密整個AI創建和運行管道(從每個用戶的訓練輸入到每個查詢的最終輸出)。該DAO還可以同時對提交資料的人進行補償。

hCNZYsPOhQtytGzbMmbnjXXtBVV9IddaN2GTg8yB.jpeg

需要重申的是,這項計畫雄心勃勃,從許多方面來看可能不切實際:

  • 對於這種全黑盒架構來說,加密開銷可能仍然太高,無法與傳統的封閉式的「信任我」的做法競爭。

  • 結果可能是,沒有一種好的方法可以使訓練資料提交過程去中心化並預防有毒攻擊。

  • 由於參與者串通,多方運算工具的安全或隱私保障可能受損:畢竟,加密貨幣跨鏈橋一次又一次地出現過這種情況。

我之所以沒有在這部分一開始就貼上更大的紅色警告標籤,告訴你“不要做AI法官,這是反烏托邦的”,其中一個原因就是,我們的社會已經高度依賴於不負責任的中心化AI法官:例如,決定社交媒體上哪些貼文和政治觀點會浮出水面或被淹沒(甚至被審查)的那些演算法。我確實認為在這個階段進一步擴大這一趨勢是一個非常糟糕的想法,但我不認為區塊鏈社群更多地進行人工智慧實驗會使情況變得更糟。

事實上,加密技術有一些非常低風險的基本方法可以讓這些現有中心化系統變得更好,我對此非常有信心。有一種簡單的技術透過延遲發布來驗證人工智慧:當社群媒體網站基於人工智慧對貼文進行排名時,它可以發布一個ZK-SNARK來證明產生該排名的模型的雜湊。該網站可能會承諾在一年後公佈其人工智慧模型。一旦模型公佈,使用者就可以檢查雜湊值來驗證是否發布了正確模型,社群可以對模型運行測試來驗證其公平性。發布延遲將確保當模型公開時,它已經過時了。

因此,與中心化世界相比,問題不在於我們是否能做得更好,而是能好多少。然而,對於去中心化世界而言,重要的是要小心謹慎:如果有人建構一個使用人工智慧預言機的預測市場或穩定幣,而結果證明這個預言機是可被攻擊的,那麼一筆巨大的資金可能會在瞬間消失。

4、遊戲目標類AI

如果上述技術用於創建可擴展的去中心化私有AI,其內容是任何人都不知道的黑盒子,可用於實際運行,那麼這也可以用於創建具有超越區塊鏈效用的AI。 NEAR協議團隊正將此作為他們正在進行的工作的核心目標。

這樣做有兩點原因:

  • 如果你可以透過運行使用區塊鏈和MPC的訓練和推理過程來創建“值得信賴的黑箱AI”,那麼許多擔心系統有失偏頗或欺騙自己的應用程式都可以從中受益。許多人表達了對我們將依賴的具有系統重要性的AI民主治理的期望;加密和基於區塊鏈的技術可能是實現這一目標的途徑。

  • 從人工智慧安全角度來看,這將是一種創建去中心化人工智慧的技術,它也有一個自然的終止開關,可以限制那些試圖使用人工智慧進行惡意行為的查詢。

同樣值得注意的是,「使用加密激勵措施來激勵創造更好的AI」可以在不使用密碼學進行完全加密的情況下完成:BitTensor等做法就屬於這一類。

結論

區塊鏈和人工智慧都變得越來越強大,在這兩個領域的交叉領域正出現越來越多的用例。然而,其中一些用例相比於其他用例要更有意義,也更強大。通常情況下,當底層機制繼續如以前一樣設計得很粗糙,但個體玩家卻變成了AI,允許機制在更微觀的尺度上有效運行時,用例往往是最有前景的,也是最容易做對的。

嘗試使用區塊鏈和加密技術創建「單一實例」的應用程式將面臨最大的挑戰,即創建某些應用程式將依賴之實現某一目標的單一去中心化的可信AI。這些應用程式在功能和提高人工智慧安全性方面都是前景光明的,避免了與更主流的做法相關的中心化風險。但在很多方面,底層假設也可能失敗;所以,需要謹慎行事,特別是在高價值和高風險環境中部署這些應用程式時。

我期待在所有這些交叉領域看到更多人工智慧建設性用例的嘗試,這樣我們就可以知道哪些用例是真正可行的。

Total
0
Shares
Related Posts