以太坊聯合創始人Vitalik Buterin 警告不要倉促採用超級人工智慧


以太坊創始人維塔利克·布特林(Vitalik Buterin) 反思了人工智慧(AI) 的熱潮,並將其描述為一項非常危險的活動。 這位以太坊開發者敦促人們避免倉促採用超級人工智慧,並警告說,人類的思想很容易受到少數人控制的選定中央伺服器的影響。

Buterin 敦促個人對人工智慧研究採取謹慎態度,稱其風險很大。

該開發商回應了Messari 執行長Ryan Selkis 對ChatGPT 製造商OpenAI 的批評。 排名第二的區塊鏈的創建者透過重申應該指導發展的核心原則,反思了加密貨幣情報公司負責人的觀點。

超級人工智慧帶來巨大風險

Buterin 表示,超級人工智慧存在巨大風險,人們不應該倉促採用。他建議,有必要嚇唬人們不要嘗試人工智慧,因為他們會把自己的想法交給伺服器農場。

超級人工智慧是一種理論上的人工智慧,它實際上在所有領域都超越了人類智慧。雖然大多數人認為通用人工智慧(AGI) 是新技術全部潛力的最終實現,但他們忽略了超級智慧模型是後續的補充。

儘管最先進的人工智慧系統尚未實現這樣的閾值,但機器學習和神經網路正在醞釀中。 人們表達了興奮和擔憂。

梅薩裡認為,通用人工智慧對個人來說太重要了,不能崇拜巧舌如簧的自戀者。 Buterin 斷言,多樣化的人工智慧生態系統至關重要,因此需要避免人工智慧的巨大價值在於由多個人中心化擁有和控制的情況。

Buterin 表示,在消費者硬體上運行的強大開放模型生態系統將為未來人工智慧的過度中心化提供必要的對沖。

人工智慧的過度中心化威脅人類採用超級智慧人工智慧

布特林警告人類思想不要被少數人擁有的中央伺服器所操縱。相反,開放模式的毀滅風險較低,不像企業傲慢和軍營。

以太坊創作者稱讚Llama3 模型是開源的LLM。 他表示,GPT-40 多模式法學碩士據稱已經通過了圖靈測試,並引用了一項研究,該研究證實OpenAI 新模型生成的反應與人類的反應相符。

Buterin 對人工智慧模型的分類進行了反思,敦促將大型模型的監管作為優先事項。 儘管如此,他表示目前的大多數提案將來都可能獲得較高的分類。

布特林對人工智慧的言論與人工智慧領域的激烈爭論不謀而合,因為該行業見證了關鍵人物的辭職。特別是,伊利亞·蘇茨克弗和揚·萊克退出了OpenAI 的研究團隊,他們指責執行長薩姆·奧特曼優先考慮華而不實的產品,而忽略了負責任的人工智慧開發。

鑑於ChatGPT 製造商部署了嚴格的保密協議,阻止員工在離職後討論該實體,OpenAI 執行長的批評令人驚訝。

關於超級人工智慧的高層辯論愈發緊迫,專家們對各種建議表示關切。

前OpenAI 協調執行長Paulo Christiano 現在負責營運協調研究中心,這是一個非營利實體,旨在使人工智慧系統與人類利益責任相協調。 他譴責當系統達到人類水準時,人工智慧有50% 的可能性會釀成災難。

Meta 的首席研究員Yann LeCun 淡化了災難性情景發生的可能性。這位科學家重申了2023 年4 月的聲明,認為硬起飛情境是不可能的。

LeCun表示,短期發展最終將影響人工智慧的演化,塑造長期軌跡。

Buterin 認為超級人工智慧可以把人類當寵物

Buterin 通過批准他的2023 年論文,肯定了他的中間派思想。 他警告不要讓友善的、超級智慧的人工智慧佔據主導地位,從而使人類成為寵物。

布特林表示,N版文明技術帶來的問題,N+1版會解決,除非人類有意識地做出努力,否則不可能解決。

Buterin 表示,人類不能放棄尋找解決超級智慧問題的方法。然而,以太坊創始人的批評與OpenAI 謹慎對齊科學家離開後人們的普遍擔憂一致。

奧特曼領導的人工智慧公司見證的退出可能為轉向危及安全的產品打開了大門。 主要的擔憂是缺乏道德的人工智慧開發,特別是在人工智慧新創公司和Meta、谷歌和微軟等老牌企業中,據報道,這些公司進行了重組,解散了人工智慧安全團隊。

Tokenhell 為5,000 多家加密貨幣公司提供內容曝光,您也可以成為其中之一如果您有任何疑問,請聯絡info@tokenhell.com。加密貨幣波動性很大,在做出任何投資決定之前,請自行研究。本網站上的一些帖子是訪客帖子或付費帖子,並非由代幣hell 作者撰寫(即加密貨幣Cable、贊助文章和新聞稿內容),這些類型的帖子中表達的觀點不反映本網站的觀點。 Tokenhell 對網站上發布的內容、準確性、品質、廣告、產品或任何其他內容或橫幅(廣告空間)概不負責。閱讀完整的條款和條件/免責聲明。

資訊來源:由0x資訊編譯自TOKENHELL。版權歸作者Stephen Causby所有,未經許可,不得轉載

Total
0
Shares
Related Posts