對人工智慧危險的富有遠見的警告


人工智慧領域的傑出人物Ilya Sutskever 最近因其對人工智慧開發的謹慎態度而成為頭條新聞,特別是與OpenAI 首席執行官Sam Altman 的冒險立場形成鮮明對比。

這種觀點的二分法引發了組織領導階層的重大改組。在本文中,我們深入探討了Ilya Sutskever 的背景、職業生涯以及助長他對人工智慧持懷疑態度的因素。

Ilya Sutskever 1986 年出生於蘇聯,從5 歲起在耶路撒冷長大,他的學術旅程將他帶到了多倫多大學。在那裡,他於2005 年獲得了數學理學學士學位,隨後於2007 年獲得了電腦科學碩士學位。

他繼續追求知識,並於2013 年獲得了電腦科學哲學博士學位。 Sutskever 在多倫多大學的早期工作以實驗軟體為標誌,這些軟體產生了類似維基百科的無意義條目。

2012 年,Sutskever 的職業生涯發生了重大轉變,當時他與Alex Krizhevsky 和他的博士生導師Geoffrey Hinton(通常被稱為「人工智慧教父」)共同撰寫了一篇開創性的論文。此次合作催生了AlexNet,這是一種深度學習演算法,展現了前所未有的模式辨識能力。這個名為AlexNet 的專案展示了深度學習在解決模式識別問題方面的巨大潛力。

過渡到Google 和貢獻

谷歌對他們的開創性工作印象深刻,很快就招募了Sutskever 和他的研究同事。在谷歌,Sutskever 繼續突破人工智慧的界限。他將AlexNet 的模式識別能力從圖像擴展到單字和句子,展示了該技術的多功能性。此外,他在先進的機器學習開源平台TensorFlow 的開發中發揮了關鍵作用。

在Google工作不到三年,伊利亞·蘇茨克弗(Ilya Sutskever) 就被特斯拉執行長馬斯克(Elon Musk) 挖走,與人共同創立了非營利人工智慧公司OpenAI 並擔任首席科學家。 OpenAI 聯合創始人馬斯克分享了Sutskever 對人工智慧潛在危險的擔憂。馬斯克以與特斯拉有利益衝突為由,於2018 年離開OpenAI,蘇茨克韋爾成為該組織的掌舵人。

人們對人工智慧安全越來越謹慎

在OpenAI 任職期間,Sutskever 越來越關注人工智慧安全。他主張在公司內部分配更多資源來解決與人工智慧系統相關的風險。值得注意的是,他領導了OpenAI 的Superalignment 團隊,該團隊將20% 的運算能力用於管理人工智慧相關風險。

Sutskever 的謹慎態度與Sam Altman 對人工智慧快速發展的渴望之間的衝突在OpenAI 的領導層中達到了頂峰。蘇茨克弗和志同道合的董事會成員精心策劃了奧特曼的罷免,並由立場更謹慎的埃米特·希爾暫時取代了他。然而,這項決定是短暫的,因為蘇茨克弗後來對自己在這些事件中所扮演的角色表示遺憾,導致奧特曼重新擔任執行長。

Ilya Sutskever 對人工智慧安全性的懷疑深深植根於他對不受控制的人工智慧發展的潛在危險的信念。他對ChatGPT 等強大人工智慧模型的快速部署以及強有力的安全措施的需求表示擔憂。

Sutskever 對確保AI 負責任發展的奉獻精神在他對OpenAI 員工的聲明中顯而易見,他在聲明中強調了感受AGI(通用人工智慧)在日常生活中影響的重要性。

平衡的Optimism和憤世嫉俗

Sutskever 對人工智慧的看法具有Optimism與憤世嫉俗之間的獨特平衡。他設想人工智慧可以解決人類當前的許多問題,包括失業、疾病和貧窮。然而,他承認潛在的不利因素,並對假新聞擴散、極端網路攻擊以及全自動人工智慧武器的開發等問題發出警告。他的擔憂延伸到了AGI 的治理,強調正確編程以防止不良結果的重要性。

與人工智慧界預測災難性場景的一些極端觀點不同,Sutskever 持有更為溫和的觀點。他將人類與通用人工智慧之間的關係比喻為人​​類與動物的互動方式。儘管人類對動物有感情,但在建造高速公路等基礎設施時,他們並沒有徵求動物的許可。同樣,Sutskever 認為,在通用人工智慧方面,人類可能會優先考慮自己的需求。

資訊來源:由0x資訊編譯自CRYPTOPOLITAN。版權所有,作者Benson Mawira所有,未經許可,不得轉載

Total
0
Shares
Related Posts