去中心化人工智慧:實現可信賴AI代理的途徑之一


Oasis公司的AI主管Marko Stokic強調去中心化AI的重要性,它能為我們的數位生活提供信任。著名學者史金納的觀點提示我們,信任科技依賴人類的判斷力。隨著AI代理的崛起,社會對其信任感越弱,尤其是在複雜環境下決策時。去中心化的AI技術,如區塊鏈,可以提高透明度和可驗證性,增強對AI的信任。即使面臨挑戰,去中心化的AI將推動經濟成長,建立可靠的AI變得特別重要,我們需要智慧來運用這些工具。

Oasis公司AI主管Marko Stokic表示,去中心化的AI為我們提供了信任,即將支持我們數位生活的AI代理商的一條途徑。

著名的哈佛計算器BF史金納曾指出,「真正的問題不在於機器會思考,而在於人類是否會思考。」這句妙語道出了一個重要的觀點:我們對科技的信任是否取決於人類的判斷力。我們真正需要擔心的不是機器的智能,而是那些掌控它們的人類的智慧和責任感。至少,在過去是這樣的。

隨著像ChatGPT這樣的軟體如今成為許多工作生活中駕駛員的一部分,史金納的看法似乎有些過時了。 AI代理的快速崛起——能夠採集環境並以特定的實際目標的軟體實體採取行動——從根本上改變了原有的範式。這些數位女兒2020年代青少年消費者AI的興起,如今已經滲透到我們的數位生活中,處理從安排會議到做出​​投資決策的各種任務。

什麼是AI代理?

AI代理與像ChatGPT這樣的大型模型(LLM)在自主行動的能力上有顯著的語言差異。 LLM主要用於處理和生成文本,而AI代理則被設計為能夠採集其環境、做出決策並採取行動這些代理結合了多種AI技術,包括自然語言處理、電腦視覺和強化學習,使它們能夠根據自身經驗進行適應和學習。

然而,隨著AI代理的不斷增加和迭代,人們的不安感逐漸增強。我們能否真正信任這些數位實體?這個問題遠非學術層面的討論。 AI代理在複雜的環境中運行,基於龐大的資料集和複雜的演算法做出決策,而其創造者也難以完全理解其工作原理。這種內在的模糊性滋生了不信任感。當人工智慧代理人推薦某種醫療方案或預測市場趨勢時,我們如何確定其選擇背後的邏輯基礎?

對AI代理的信任一旦被錯誤地寄託,後果可能是災難性的。試想一下,一個由AI驅動的金融顧問因誤讀某個數據點而意外引發市場崩盤,或者一個基於人工智能的醫療存在缺陷的訓練數據推薦了錯誤的治療方案。潛在的波動並不局限於某個領域;隨著AI推動了我們特定的日常生活,它們的影響力確實成倍增長。一旦出現失誤,其影響可能會波及整個整個領域社會,涉及從個人隱私到全球經濟的方方面面。

信任的核心存在著一個根本問題:中心化。

人工智慧模型的開發和部署主要由少數科技巨頭主導。這些中心化的人工智慧模型黑箱運作,其決策過程對公眾審查目標是模糊的。這種差異使得在高風險操作中幾乎不可能相信他們的決策。當我們無法理解或驗證人工智慧代理的推理時,我們如何能夠依賴它來做出關鍵選擇?

解決方案:去中心化

然而,這些擔憂的解決方案確實存在:去中心化AI。範式為實現更透明和更可信的AI代理提供了一條路徑。這種方法利用區塊鏈技術和去中心化系統的優勢,創造出不僅強大而且負責任的AI模型。

建立對AI代理信任的工具已經存在。區塊鏈能夠實現可驗證的計算,保證AI的行動可審計且可追溯。每個AI代理所做的決策都可以記錄本上,從而實現在公共的內部的雲端同時,像可信執行環境機器學習(TeeML)這樣的先進加密貨幣技術可以保護敏感和模型的缺陷,實現數據透明性和隱私的雙重保障。

隨著人工智慧代理越來越多地出現在公共區塊鏈上或相關操作上,可驗證性這一概念變得至關重要。傳統的人工智慧模型可能難以證明其操作的缺陷,但基於區域塊鏈的AI代理能夠提供其行為的加密貨幣保證。可驗證性不僅僅是技術上的細節;它是在高風險環境中建立信任的基本要求。

機密運算技術,特別是可信執行環境(TEE),提供了重要的層。 TEE 提供了一個安全的分區,AI 計算可以在其中進行避免潛在的干擾。該技術確保即使是AI 系統的操作員也無法幹擾改變或監視代理的決策過程,從而進一步增強了信任。

像Oasis Network的運行時離鏈邏輯(ROFL)這樣的框架代表了這一方法的前沿,能夠無縫焊接可驗證的AI計算與鏈上可審計性和透明性結合。這些創新的拓展是基於AI應用程式的可能性,同時保持了最高標準的信任和透明度。

邁向可信賴的AI未來

通往可信仰人工智慧代理的道路並非沒有挑戰。技術仍然存在,中心化人工智慧系統的廣泛採用將需要行業實踐和公眾去理解的轉變。然而,潛在的回報是巨大的。想像一個世界,在這個世界世界中,人工智慧代理以完全透明的方式做出關鍵決策,其行為可以被任何人驗證和審計,並且人工智慧的力量是去中心化的,而不是中心化在少數公司手中。

同時,這也釋放了顯著的經濟成長的機會。 2023年一項來自北京的研究發現,AI滲透率提高1%將導致總生產力(TFP)提高14.2%。然而,大多數關於AI生產力的研究中心化在通用大型語言模型(LLMs)上,而不是AI代理。能夠獨立且有效率地執行審計任務的自主AI代理有可能帶來更大的生產力提升。而且可信可審計的AI代理可能會更加。

也許是時候更新史金納的名言了。真正的問題不再是機器是否思考,而是我們是否能信任它們的思考。透過去中心化的人工智慧和區塊鏈技術,擁有建立這種信任的工具。現在的問題是,我們是否具備使用這些工具的智慧。

資訊來源:0x資訊編譯自網際網路。版權歸作者Marko Stokic所有,未經許可,不得轉載

Total
0
Shares
Related Posts