探索AI x Crypto:如何實現自下而上的協調?

作者:LJW and 7,翻譯:白話區塊鏈

AI與加密貨幣/區塊鏈的交匯已成為一個被吹捧的故事情節,但其重要性遠不止於此。本系列將探討區塊鏈技術和哲學如何解決由AI引入的許多問題,特別是關於集中化和獲取權限,旨在為社會創造更積極的總和結果。

在本系列的第一篇文章中,我們探討AI與加密貨幣之間的基本原因。我們將審視技術協調的當前格局,探索加密貨幣如何促進自下而上的協調,並分析這種模式如何能夠在AI價值鏈的各個環節中應用——從數據收集到推斷。

如果您在閱讀本文後產生了更多的問題,並對探索加密貨幣如何解決AI問題的興趣增加了,那麼我們已經達到了我們的目標!未來的文章將聚焦在AI堆疊的不同部分(如資料、訓練、推論等),深入探討具體的使用案例和解決方案。

1.全程協調

協調是指讓人或群體能夠順暢且有效率地共同合作。它是維繫社會、公司和社區的黏合劑。當我們談論協調時,實際上是在探討如何使人們能夠調整他們的努力和決策,以實現共同的目標。

1)協調有兩種主要方式:自上而下和自下而上。

由上而下的協調指的是一種層級結構,頂層的決策影響著整個群體。自上而下的協調類似於金字塔結構。想像一個傳統的公司結構:決策由高階主管決定,逐級傳遞給管理者,最終影響廣大的員工。在這種模式下,只要高層同意,決策就會實施。權力集中在少數人手中。

自下而上的協調指的是一種網絡化結構,個體或群體共同參與決策過程。自下而上的協調更像是網狀結構。想像一個社區,每個人都有發言權:決策由所有參與者的集體輸入而產生。權力分佈給參與者。

這兩種方法各有優點和缺點。由上而下的方式在危機情況下可以快速且有效率。自下而上的方式可能較為緩慢,但通常會帶來更多的參與和創意解決方案。

這些協調模式是有用的模型,幫助我們理解處理像AI這樣能夠影響數十億人的強大技術時所面臨的挑戰和機會。

2)當前情勢:科技領域的自上而下協調

當今科技領域主要採用的協調模式是自上而下的:少數幾家公司及其內部的個人決定資源分配,並設定影響數十億用戶的技術政策。這種模式因其在將團隊協調朝著特定目標推進和創造顯著財務回報方面的效率而持續存在。儘管這與某些理論認為的公司優勢如降低交易成本和改善協調有關,但少數幾家科技公司對權力的極度集中超出了最初的預期或合理性。

這些優勢使得基礎設施和Web2公司成為全球最大和最有影響力的公司之一。然而,這種權力集中對使用者來說是有代價的。例如,大多數社群媒體平台由少數幾家公司主導,他們設定平台政策,影響和規定數十億用戶的體驗和獎勵。你可以在社群媒體上發布你認為正確的事情,只要”你認為正確的事情”是社群媒體平台政策的範圍內。如果超出了這些範圍,你的貼文可能會被刪除,你的帳號可能會被封鎖。同樣,你也可以利用大型科技平台謀生,只要他們能從你賺的錢中收取30%(或更多)。在其他社群媒體平台的情況中,獲取率是“100%”,因為這些平台上的創作者沒有任何收入。

自上而下的協調模式雖然在快速決策和資源分配方面效率高,但會導致零和遊戲甚至負和遊戲。這意味著公司必須不斷努力超越對手以維持其主導地位。例如,如果一個社群媒體平台不利用用戶資料來為他們服務,那麼另一個競爭對手會這樣做。這種壓力被股東的期望和資本投資的回報需要加劇。

集中控制權和獎勵於頂層的中心化權力結構通常以使用者為代價。網路最初設想的開放、平等和點對點系統的願景被一組新的、透過可預測的「吸引然後提取」週期獲得權力的網路原生門戶所取代。

2、人工智慧(AI)領域:重複這一周期?

在人工智慧領域,許多常見的因素都在為這一周期重演鋪路:

  • 少數中央集權的實體由少數幕後決策者控制,他們決定了有潛力影響數十億用戶的技術政策。

  • 激烈的競爭,試圖建立最大、最好的模型,以吸引盡可能多的用戶。

  • 大量資本投入競賽,面臨回本和獲利的壓力,這可能會使用戶利益和公司最初的理想被邊緣化。

我們開始在人工智慧領域看到這種情況正在上演,儘管人工智慧還處於早期階段(並且正在快速發展)。例如,平台已經開始使用使用者產生的資料進行許可以牟利。例如,Reddit與Google達成協議,每年授權Reddit數據達6,000萬美元。其他公司,如Adobe和Slack,因在其政策中聲明可以使用用戶資料來訓練AI模型而引起用戶反對。這在用戶和平台之間創建了一種提取式關係,因為這些平台上的有價值數據(訊息、互動和貼文)是用戶創建的,但用戶並沒有參與這些​​數據帶來的價值創造。

使用者可以使用這些中央巨頭基於使用者資料創建的AI模型,但隱含地必須同意公司的社會(以及可能的政治)偏好,這可能會影響模型的輸出(請參閱Google Gemini的推出)。相關地,我們看到OpenAI從一個致力於為人類利益開發開源AI的非營利組織,轉變為引入外部資本後的封閉和企業化營利結構。這再次創造了一種情況,即存在著優先考慮股東而非用戶的激勵機制。

AI可能朝向這種提取式模型的風險足以讓人質疑是否需要一種不同的協調方法——例如像加密貨幣所提供的自下而上的方法——即使這種方法可能無法解決所有問題,但或許能夠提供更好的解決方案。

3.加密貨幣實現了自下而上的協調

比特幣引入了抗審查的貨幣概念,這種貨幣不受中心化實體控制,而是由密碼學、軟體程式碼和經濟誘因所保障,全部建立在一個去中心化網路上。區塊鏈技術建構在開源的概念之上,提供了一種新的自下而上的協調模式。協調的角色從中心化的當事方轉變為這些分散式網路的機制和激勵設計,所有這些都由開源軟體程式碼驅動,並由點對點系統中的個體和群體共同治理,無需中心化信任。

加密貨幣結合了三大學術領域的創新:密碼學、網路與分散式系統、博弈論。密碼學是數學的一個分支,透過加密和解密資訊來實現跨網路的資訊安全。網路與分散式系統是電腦科學的一個分支,通常被認為是支援點對點基礎設施的架構。博弈論——作為機制設計領域的重要組成部分——來自經濟學,創造了協調不同當事方實現目標的激勵結構,例如係統的連續性和維護。

這些領域的聯合創新使得加密貨幣具備了許多核心原理,從而實現了自下而上的協調:

  • 不可變帳本:區塊鏈最重要的特徵之一是其不可變性。它們是不可更改的真實來源,幾乎不可能被刪除或篡改。在人工智慧驅動的創作時代,區塊鏈提供了唯一的無信任數位產權、所有權和歸屬證明方法。

  • 個體層面的所有權:加密貨幣使用戶能夠在互聯網上擁有資產,無需信任的平台作為中介來驗證所有權,從而在點對點的方式下實現無信任的合約協議。這些資產以Token的形式存在,可編程並且可以代表任意資料或物件。透過基於加密貨幣的資產所有權,使用者不僅完全控制代表財務產品的Token,還控制著代表其身分、資料和偏好的Token。

  • 去中心化:區塊鏈網路是建立在點對點分散式節點網路之上的。在這種背景下,去中心化意味著沒有單一實體或司法管轄區能夠在不遵循協議的情況下改變、損壞或控制網路。在去中心化系統中,政策由參與者和網路使用者共同製定和決定,這些參與者包括使用者、驗證者、投資者以及更廣泛的社群成員,透過開源程式碼中定義的明確定義的共識機制。

加密貨幣創造了一個獨特的設計空間,允許個體或群體透過程式碼進行基層方式的協調和強制執行。加密貨幣並不提倡一種協調形式,而是在哲學上允許用戶根據其偏好選擇加入或退出。如果使用者或一組使用者對網絡/協議的任何部分錶示不同意,他們可以加入另一個網絡,並帶走他們的資產和數據,在某些情況下甚至可以完全啟動一個新網絡。

這些基本原理使得無信任、透明和去中心化的生態系統得以形成。 AI面臨著前面提到的自上而下模式中所描述的中心化風險。我們心中的重要問題是,AI能否從由加密貨幣實現的自下而上的協調模式中受益?

4.人工智慧中的自上而下與自下而上協調方式

為了了解加密的自下而上協調模型如何有助於人工智慧,讓我們來審視人工智慧價值鏈——創造和部署的不同階段,並比較每個階段的自上而下和自下而上的協調方式。

7tJiqxdrN8dJ8yuAsV5T1XcWacCR0weOPtr0uEBC.jpeg

1)數據:人工智慧的基礎

網路上的一切都以某種形式存在資料中。任何形式的內容、智慧財產權、軟體程式碼、圖像、內容、音樂,以及您快速劃過或點擊的方式等都是資料的一種形式,資料是訓練AI模型的核心要素之一。如今用於訓練基礎模型的最受歡迎資料集包括Common Crawl,這是一個擁有1兆個令牌(1個令牌大約代表1個單字)的資料集,以及ImageNet,一個包含1400萬個令牌影像的資料集。

HUKz99V694HasRssvTUcbeuZ5DNojYG0SlyaZiwV.jpeg

資料協調中的關鍵問題是資料的獲取,其核心包括資料所有權。

在自上而下的協調模型中,人工智慧公司通常假定它們可以使用在網路上抓取的數據,並宣稱這是合理使用,而不需要補償那些創建數據的用戶。然而,創建者、使用者和資料所有者對人工智慧公司在沒有明確許可的情況下訓練其資料的合法性和道德性提出了反對意見。有許多訴訟案件(如《紐約時報》訴OpenAI、報紙訴OpenAI、音樂產業訴AI新創公司等),聲稱人工智慧公司不能簡單地使用抓取的資料。甚至像X這樣的集中平台也關閉了它們的API,並使用速率限制來防止機器人抓取它們的網站。

在加密經濟機制促成的自下而上協調模型中,用戶可以在區塊鏈上註冊並將其資料、內容和智慧財產權進行Token化。一旦上鏈,使用者可以設定其他人合法使用其資料的權限,包括決定是否希望因提供資料而獲得補償。這創建了一個系統,使用戶在(人工智慧)公司使用這些數據時能夠獲益,同時也允許(人工智慧)公司在不像今天那樣操作於灰色地帶的情況下合法使用這些數據。

2)訓練:建構AI模型

訓練指的是教導機器學習模型辨識其訓練資料中的模式和關係的過程。這一步的目標是使模型發展出描述其訓練資料中不同資料點之間關係的參數或權重。

訓練下一代AI模型需要大量的運算資源和時間。具有更多參數的模型需要更多的資料和運算能力來訓練(例如更大的GPU叢集)。例如,訓練GPT-4花費了OpenAI約1億美元,而訓練Gemini Ultra則花費了Google約2億美元。

BsELMj5m5HxbKPf7XsVP5jaksMN29wqgUmARYckn.jpeg

在訓練階段的一個關鍵協調問題是如何資助AI模型的開發,考慮到其高昂的成本。

在由上而下的協調模式中,AI的資金主要來自大型科技公司、私人基金和機構投資者。沒有大規模眾籌的概念可以支持下一代AI模型的發展。這種資金模型優化了少數參與者的利益,很可能以使用者為代價。 AI公司必須優先考慮股東的利益積累,儘管使用者和其他利害關係人(例如第三方開發者)對AI模型最終成功的貢獻可能會遠遠超過他們所獲得的回報。

在由加密技術驅動的自下而上協調模型中,任何擁有有用資源的人都可以為AI模型的開發做出貢獻,並從這些AI模型所創造的價值中獲利。使用者可以透過使用加密Token來幫助資助AI模型的創建,並擁有該模型的一部分。除了提供資金外,基於加密的系統還可以用來激勵用戶貢獻其他資源,例如他們的數據和/或多餘的運算能力,這正是中心化公司籌集資金的重要途徑之一。

一些敏銳的懷疑者可能會指出,在AI領域已經存在一個健康的開源運動,它已經在沒有加密技術的情況下有效地進行協調。但是,如果缺乏貢獻的激勵,開源專案將缺乏必要的協調系統,無法實現其長期承諾成為中心化封閉解決方案的真正替代方案。換句話說,如今的開源AI缺乏一個能夠允許其在全球範圍內協調參與者和合作者,並讓他們捕捉到他們所創造的價值的激勵層。

3)推論:將AI投入實際運用

一旦模型訓練完成,使用者可以輸入提示並要求模型基於提示返回一些輸出。模型將根據訓練階段開發的參數來執行此操作。模型生成輸出的這個過程稱為推論。

在自上而下的協調模型中,私有模型是不透明的系統,不提供使用者或社群對模型參數的洞察,它們就像黑盒子一樣運作。在過去幾年中,我們看到模型中出現了偏見,特別是基於創建模型的組織的基本偏好。例如,當Google推出Gemini時,模型未能準確地描繪出歷史人物的種族和性別特徵。許多其他中心化模型也限制了使用者基於其管理團隊設定的政策提出某些類型的問題。

此外,驗證推論是否由正確的模型執行僅僅是信任平台的問題。這種基於信任的系統為潛在操縱敞開了大門,尤其是當AI公司面臨將其投資變現的壓力時。

在由加密技術驅動的自下而上協調模型中,驗證推斷是否正確是透過鏈上驗證和可證明的基於密碼學的技術實現的,從而實現了無需信任的操作。這種方法可以減少模型輸出中的偏見,並增加透明度。

5.協調問題超越AI價值鏈:所有權、歸因與合法性

隨著人工智慧在我們日常生活中的更深度整合和規模化應用,引發了超越數據、訓練和推論技術的深層協調問題。

這些問題圍繞著兩個主要主題:所有權與歸屬,以及合法性與稀缺性。關於所有權與歸屬:

  • 誰擁有由AI模型創建的圖像?

  • 當圖像被重新製作(裁剪、編輯、轉換為影片等)並生成衍生作品時會發生什麼?

  • 如果這些模型的輸出用於商業目的,誰應該得到補償,以及補償的內容是什麼?

  • 訓練AI模型所使用的資料的創建者/所有者是否應該為模型產生的任何輸出獲得補償?

  • 如果AI代理代表您行事,並使用了基於偏見資料訓練的AI模型來建立您要用於獲利的內容,如果這個代理程式出現錯誤或造成損害,責任應由誰承擔?

在合法性和稀缺性議題上:

  • 隨著AI實現了無限豐富和AI生成內容在網路上氾濫,我們如何區分「真實」和「虛假」的內容?

  • 如果人們對AI伴侶產生情感依賴,誰擁有這些伴侶?誰控制它們?創造者/所有者是否可以從影響個人的決策或行為中受益?

  • 隨著AI伴侶變得更加個人化,與它們的互動是否應作為平台自由使用的訓練資料?

這些問題突顯了將傳統的所有權、歸因和稀缺性概念應用於AI生成內容和互動的複雜性。由加密貨幣啟用的自下而上協調模型可能為解決這些問題提供新的框架,潛在地允許更細緻和公平的所有權和補償系統。

6、Coda:中世紀的機構,似神的科技

擁有如此強大的科技如人工智慧,我們本該生活在數位復興時代。然而,我們目睹的是對最聰明人工智慧的軍備競賽,其中數據最大的利害關係人和貢獻者——用戶,往往未被優先考慮。

加密貨幣為自下而上協調提供了一個新的設計空間,對人工智慧尤其重要,因為人工智慧可能導致權力極度集中化的風險。與以往的技術不同,人工智慧集中化帶來的風險可能導致負面和結果,這使得對替代協調模型的需求更加緊迫(和有趣)。

EO 威爾森曾說:「人類真正的問題在於:我們擁有舊石器時代的情感,中世紀的機構和似神的科技。」我們現在手持似神的人工智慧技術,然而我們的協調和治理方法仍然根植於過時的、類似中世紀機構的自上而下模型。這種不匹配可能最終成為社會最重要的協調失敗。

Total
0
Shares
Related Posts