以太坊新聞:Vitalik Buterin 倡導運算「軟暫停」以減輕人工智慧危險


以太坊上的Vitalik Buterin

Vitalik Buterin 建議限制全球運算能力以減緩有風險的人工智慧。 他建議全球機構每週對人工智慧硬體進行授權。

以太坊聯合創始人維塔利克·布特林(Vitalik Buterin) 提出了一種潛在策略來解決與超級智慧人工智慧(AI) 相關的風險。在1 月5 日的一篇部落格文章中,Buterin 提議將全球運算能力限制最多兩年,作為減緩潛在危險人工智慧系統發展的最後手段。

運算能力的“軟暫停”

Buterin 的提議涉及暫時限制工業規模的計算硬件,以減少多達99% 的可用計算資源。這項措施旨在為人類提供更多時間,為可能出現的超級人工智慧系統做好準備,這些系統在各個領域都比最聰明人類先進得多。

Buterin 表示,如果人工智慧風險明顯太大而無法透過傳統監管框架進行管理,這種暫停可以起到保障作用。不過,他強調,只有在其他措施(例如要求人工智慧開發者承擔損害賠償責任的責任規則)證明不足的情況下,才會考慮這種方法。

透過防禦性加速主義來應對人工智慧風險

Buterin 的建議與他更廣泛的「防禦性加速主義」(d/acc)概念相一致,該概念主張謹慎和戰略性的技術進步。這種方法與「有效加速主義」(e/acc)形成鮮明對比,「有效加速主義」支持快速且不受限制的技術進步。

在他的最新貼文中,Buterin 擴展了他2023 年11 月對d/acc 的介紹,為人工智慧帶來重大風險的場景提供了具體的想法。他的建議之一是為工業規模的人工智慧硬體實施監控系統。

一種建議的方法是要求人工智慧晶片在國際機構註冊。 Buterin 還概述了確保合規性的潛在機制,例如為設備配備需要全球組織每週授權的晶片。這個過程可以利用區塊鏈技術來增加透明度和安全性。

關於人工智慧風險的爭論最近愈演愈烈,許多研究人員和行業領導者對該技術可能危害人類表示擔憂。 2023 年3 月,超過2,600 名專家簽署了一封公開信,敦促暫停人工智慧開發,以解決他們所說的「對社會造成的深遠風險」。

Buterin 承認這些擔憂,並指出超級智慧人工智慧結果的不確定性。他認為,包括暫時停止運算能力在內的積極措施可以作為確保人工智慧以造福人類的方式發展的關鍵步驟。

Buterin 的預防措施

儘管Buterin 的提議引發了討論,但他對支持嚴厲措施仍持謹慎態度。他強調,只有當不採取行動的風險超過實施此類限制的負面影響時,才會提倡「軟暫停」。

隨著人工智慧發展的加速,Buterin 的想法有助於就平衡創新與安全進行更廣泛的討論。他的建議強調了為先進人工智慧系統可能構成生存威脅的情況做好準備的重要性。

Buterin 的目標是在不完全扼殺技術進步的情況下,透過促進審慎和協作的方法來應對人工智慧發展挑戰。他的提議是否會獲得關注還有待觀察,但它們凸顯了解決圍繞人工智慧的道德和安全問題的迫切性。

資訊來源:由0x資訊編譯自CRYPTO-NEWS-FLASH。版權歸作者Ibrahim Abdulaziz Adan所有,未經許可,不得轉載

Total
0
Shares
Related Posts