長話短說
Vitalik Buterin 對人工智慧的風險發出警告,並主張採取謹慎的態度。作為一種保護措施,促進在消費硬體上運行的開放模型的發展。對目前提案中人工智慧模型的分類和監管表示擔憂。
在OpenAI 最近的領導層變動中,以太坊聯合創始人Vitalik Buterin 表達了他對超智慧人工智慧(AI) 相關風險的擔憂。
Buterin認為,超級人工智慧的發展風險極大,不宜操之過急。
我目前的看法:
1.超級人工智慧風險很大,我們不應該急於進入,而應該阻止那些嘗試的人。請不要使用7T 美元的伺服器叢集。
2. 在消費者硬體上運作的強大開放模型生態系統是防止未來…的重要對沖。
—vitalik.eth (@VitalikButerin) 2024 年5 月21 日
它呼籲抵制那些尋求快速推動這項技術發展的舉措,特別是那些需要大規模基礎設施的舉措,例如價值7 兆美元的資料中心。
在此背景下,Vitalik Buterin 強調了創建可在消費性硬體上運行的強大開放人工智慧模型生態系統的重要性。
他認為,這些模型是保護我們免受未來人工智慧產生的價值中心化在少數公司的影響的關鍵措施,而大多數人類思想都是由一小群人控制的中央伺服器讀取和調解的。
此外,他認為,與人工智慧受企業或軍事實體控制的情況相比,在消費性硬體上運行的開放模型造成災難的風險要低得多。
Vitalik Buterin 也談到了人工智慧監管問題,認為區分「小型」和「大型」模型原則上可能是合理的。
他建議豁免小型模型並規範大型模型,並指出具有4050 億個參數的模型遠遠超出了消費硬體的處理能力(相比之下,700 億個參數是可管理的;他自己運行過這種規模的模型)。
然而,他表示擔心,目前的許多提案往往最終將所有模型歸類為「大型」模型,這可能會導致過度監管並抑制可訪問和安全技術的發展。
Vitalik Buterin 認為去中心化和平衡監管的重要性
Vitalik Buterin 強調,開放人工智慧模型的開發不僅使該技術的使用更加民主化,而且還顯著降低了與其濫用相關的風險。
透過允許AI 模型在商品硬體上運行,您可以去中心化權力並防止少數實體控制大部分區塊鏈技術和數據。
這種方法可以防止人工智慧被用來大規模監視和控制人類思維的反烏托邦場景。
去中心化人工智慧也是一種減輕當科技被大公司或軍事機構壟斷時可能出現的「末日風險」的策略。
歷史表明,技術力量中心化在少數人手中可能會導致濫用和意想不到的後果。
因此,建立一個開放且可訪問的人工智慧開發社群對於確保該技術的安全和道德使用至關重要。
關於監管,Vitalik Buterin 堅持監管必須具有靈活性和適應性。
將所有模型嚴格歸類為「大」可能會扼殺創新,並使獨立開發者和小型企業難以為人工智慧領域做出貢獻。
平衡的監管應該為規模較小、更具實驗性的項目留有餘地,同時確保真正大型、具有潛在危險的模型受到嚴格監督。
資訊來源:由0x資訊編譯自CRYPTO-ECONOMY。版權歸原作者所有,未經許可,不得轉載