OpenAI CEO 阿爾特曼最新訪談:越多人參與AI,才能更好的控制AI


原文來源:GenAI新世界

圖片來源:由無界AI生成

根據外媒消息,在人工智慧快速發展的世界裡,關於未來的討論往往中心化在所謂的「人工通用智慧「(artificial general intelligence)上。在這個階段,人工智慧將有能力完成人類能夠完成的任何工作,而且只會做得更好。

近期與OpenAI 的執行長 Sam Altman和技術長米拉·穆拉蒂(Mira Murati)的對話談論了關於「AGI 的潛在收益和風險」的話題。

以下是他們談話的節錄:

AGI 將是人類迄今為止創造出的最佳工具

Q:為什麼AGI是目標?

山姆·阿爾特曼:在未來十年或幾十年裡,對改善人類生存條件最重要的兩樣東西,一是豐富和廉價的智能:越強大、越通用、越智能越好。我認為這就是AG。然後二是豐富而廉價的能源。如果我們能在世界上完成這兩件事,那麼幾乎很難想像我們還能做多少其他事情。我們堅信,只要提供人們更好的工具,他們就會做出讓你驚訝的事。我認為,AGI 將是人類迄今為止創造出的最佳工具。

有了它,我們就能解決各種問題。我們將能以新的、創造性的方式表達自己。我們將為彼此、為自己、為世界、為這個正在展開的人類故事創造出不可思議的東西。這是新的,任何新事物都伴隨著變化,而變化並不總是一帆風順的。

問:它什麼時候會出現,我們怎麼知道它出現了?

米拉穆拉蒂:可能在未來十年,但這有點棘手。我們經常談論智能,談論它有多智能,談論它是否有意識、有知覺等等,但這些說法並不完全正確。因為它們定義了我們自己的智能,而我們正在建立的東西略有不同。

OpenAI技術長米拉·穆拉蒂(Mira Murati)

Q:有些人對你們用來訓練某些模型的一些數據並不滿意。例如:好萊塢,出版商。當你在做之後的模型時,你圍繞數據做了哪些事情?

山姆·阿爾特曼:首先,我們顯然只能使用其他人允許的數據。其中一個挑戰是,不同類型的數據擁有截然不同的所有者。因此,我們正在嘗試很多東西。我們正在建立多樣化的合作關係,我們認為,就像任何一個新領域一樣,我們會找到一些東西,成為新的標準。

此外,隨著這些模型越來越智能,能力越來越強,我們需要的訓練資料也會越來越少。我認為,由於我們正在取得的技術進步,有關數據的對話以及所有這些的形態都將發生轉變。

Q:出版商都想花錢買數據。這場競賽的未來是誰能為最好的數據支付最多的錢嗎?

山姆·阿爾特曼:不,這正是我想說的。人們真正喜歡GPT 模型的地方,從根本上說,並不在於它知道特定的知識。有更好的方法可以找到這些知識。而是它有這種幼年推理能力,而且會越來越好。這才是它的真正意義。

阿爾特曼:我不希望AI跟人類保持親密關係

Q:未來我們是否會與這類機器人建立深厚的關係?

米拉·穆拉蒂:這將是一種重要的關係。因為我們正在建構的系統將無所不在:在你的家中、在你的教育環境中、在你的工作環境中,甚至在你娛樂的時候。

這就是為什麼把它做好實際上非常重要。我們必須小心謹慎地設計這種互動,使其最終能夠提升體驗、帶來樂趣、提高工作效率並增強創造力。

我們也希望確保,在產品方面,我們對這些系統有一種掌控感,即我們可以引導它們做我們希望它們做的事情,而且輸出是可靠的。隨著它掌握更多關於你的喜好、你喜歡的東西、你所做的事情的信息,以及模型能力的提高,它將變得更加個性化。

而且不只是一個系統。你可以擁有許多針對特定領域和任務的個人化系統。

問:責任重大。你將控制人們的朋友,也許還會成為人們的戀人。你如何看待這種控制?

山姆·阿爾特曼:我們不會是這裡唯一的參與者。會有很多人參與。因此,我們可以在科技發展的軌跡上「推波助瀾」。但是:

a)我們真的認為,決定權屬於人類,屬於整個社會;

b) 我們將是在這裡建構複雜系統的眾多參與者之一。會有提供不同服務的競爭產品,會有不同類型的社會擁護者和反對者,還會有監管方面的問題。

我個人對未來的這個願景深表憂慮,因為在未來,每個人都會與人工智慧朋友走得很近,甚至比人類朋友走得更近。我個人不希望如此。我認為其他人會想要那樣,有些人會建造那樣的東西。如果那是世界想要的,而且我們認為有意義,我們就會去做。

在實驗室中不會誕生安全的AI

Q:我們現在已經有簡單的聊天機器人了。我們消除現在到處瀰漫的對人工智慧的恐懼?

山姆·阿爾特曼:不需要太多的想像力,就能想到值得高度警覺的情況。再說一遍,我們之所以這樣做,是因為我們對巨大的發展前景和令人難以置信的積極影響感到非常興奮。如果不為人類追求這些,那將是道德上的失敗。但我們必須正視–這也發生在許多其他技術上–隨之而來的弊端。

這意味著你要考慮風險。你會努力衡量自己的能力,並嘗試以一種能夠降低風險的方式來建立自己的技術。然後,當你說「嘿,這是一種新的安全技術」時,你就會把它提供給其他人。

問:其中有哪些?

米拉·穆拉蒂:這不是一個單一的解決方案。從數據到模型,再到產品中的工具,當然還有政策。然後再考慮整個監管和社會基礎設施,以跟上我們正在建構的這些技術。

因此,當你考慮一路上有哪些具體的安全措施時,首先就是先推出技術,慢慢地與現實接觸;了解它如何影響某些實際的用例和行業,並實際處理其中的影響。不管是監管還是版權,不管是什麼影響,實際上都要吸收這些影響,處理好這些影響,然後繼續發展越來越多的能力。我不認為在實驗室、在真空中建造技術-——不與現實世界接觸、不與現實中的摩擦接觸——是真正安全部署技術的好方法。

山姆·阿爾特曼:米拉提出的觀點非常重要。要在實驗室裡讓一項技術變得「安全「是非常困難的。社會使用事物的方式不同,適應的方式也不同。我認為,我們部署的人工智慧越多,世界上使用的人工智慧越多,人工智慧就越安全,我們就越能共同決定:」嘿,這裡有一件事是不可接受的風險容忍度,而人們擔心的另一件事,則完全沒問題。”

為AI內容加上「浮水印」不是非黑即白的事情

Q:現在,至少從OpenAI 來說,還沒有一種工具可以讓我輸入一張圖片或一些文字,然後問“這是人工智慧生成的嗎?”,對嗎?

米拉·穆拉蒂:就影像而言,我們的技術幾乎99% 可靠。但我們仍在測試,還為時過早。

Q:這是你計劃發布的內容嗎?

米拉·穆拉蒂:是的。

Q:圖片和文字都可以嗎?

米拉·穆拉蒂:對於文字,我們要弄清楚什麼是有意義的。對於圖片來說,這個問題更直接一些。我們常常會做實驗,推出一些東西,然後得到回饋。有時我們會把它收回來,做得更好,然後再次推出。

山姆·阿爾特曼:對於內容「水印「這個概念,並不是每個人都有相同的看法。有很多人真的不希望自己生成的內容有浮水印。另外,它也不是對所有內容都有超強的適應性。例如,也許你可以為圖片加上浮水印,也許可以為較長的文字加上浮水印,也許不能為較短的文字加上浮水印。

這就是我們希望參與對話的原因。在這一點上,我們願意遵循社會的集體意願。我認為這不是一個非黑即白的問題。

AI可能會加劇不平等

問:我們即將改變工作的本質。社會上有很大一部分人甚至沒有參與這場討論。我們怎麼能製定出這樣一些框架,並自願地去做一些事情,從而真正實現一個更美好的世界,而不會把其他人拋在後面?

米拉穆拉蒂:我完全同意你的觀點,這是一項終極技術,它可能真的會加劇不平等,讓我們人類和文明的情況變得更糟。也有可能是驚人的,它可以帶來很多創造力和生產力,提高我們的生活水準。也許很多人不想每週工作8 小時或100 小時。也許他們想每天工作四小時,然後做很多其他事情。

這肯定會對勞動力造成很大的干擾。

山姆·阿爾特曼:這是一個超級重要的問題。每一次科技革命都會影響就業市場。我一點也不怕。事實上,我認為這是好事,我認為這是進步的方式。我們會找到新的、更好的工作。

我認為,作為一個社會,我們確實需要面對的是這種情況發生的速度。我們必須為這一轉變做些什麼。僅僅給人們全民基本收入是不夠的。人們需要有自主權,有能力影響這一切,我們需要共同成為未來的設計師。

正如你所說,並不是每個人都會參與這些討論,但每年都會有更多人參與。把這個工具交到人們手中,讓數十億人使用ChatGPT,不僅讓人們有機會思考即將發生的事情並參與對話,也讓人們利用這個工具推動未來的發展。這對我們來說非常重要。

資訊來源:由0x資訊編譯自8BTC。版權所有,未經許可,不得轉載

Total
0
Shares
Related Posts