撰文:Benj Edwards
來源:Ars Technica
圖片來源:由無界AI工俱生成
AutoGPT 和BabyAGI 運行GPT 人工智能代理,以迭代方式完成複雜任務。
自上個月向測試者推出OpenAI 的GPT-4 API 以來,一群零散的開發者一直在嘗試製作人工智能模型的類似代理實現,試圖在盡可能少的人為乾預下執行多步驟任務。這些自製的腳本可以循環、迭代,並根據需要衍生出人工智能模型的新實例。
特別是兩個實驗性的開源項目,在社交媒體上吸引了大量的關注,尤其是在那些無情炒作人工智能項目的人中:由Toran Bruce Richards 創建的Auto-GPT,以及由Yohei Nakajima 創建的BabyAGI。
它們是乾什麼的?就目前而言,二者的功能還沒有完善。它們需要大量的人類輸入和手把手的指導,還沒有像承諾的那樣自主。但它們代表了邁向更複雜的人工智能模型鏈的早期趨勢,有可能比單獨工作的單個AI 模型更有能力。
“自主實現你設定的任何目標”
Richards 稱他的腳本是“一個實驗性的開源應用程序,展示了GPT-4 語言模型的能力”。該腳本“將LLM 的’思想’串聯起來,自主地實現你設定的任何目標”。
基本上,Auto-GPT 從GPT-4 中獲取輸出,並通過一個即興的外部存儲器將其反饋給自己,這樣它就可以進一步迭代一個任務,糾正錯誤,或提出改進建議。理想情況下,這樣的腳本可以作為一個AI 助手,可以自己執行任何數字任務。
為了測試這些說法,我們在一台Windows 機器上本地運行了Auto-GPT(一個Python 腳本)。啟動時,它要求為你的人工智能代理取一個名字,描述它的作用,並列出它試圖實現的五個目標。在設置時,你需要提供一個OpenAI API 密鑰和一個谷歌搜索API 密鑰。在運行時,Auto-GPT 會在默認情況下請求執行它生成的每一步的權限,不過如果你喜歡冒險的話,它還包括一個全自動模式。
如果任務是“購買一雙復古的Air Jordans”,Auto-GPT 將製定一個多步驟的計劃並嘗試執行。例如,它可能會搜索賣家,然後尋找符合你標準的特定鞋款。但這時它就停止了,因為就目前而言,它實際上還不能購買任何東西。但如果與適當的購物API 相連接,這也是可能的。
如果你想親自體驗一下Auto-GPT 的功能,有人創建了一個基於網絡的版本,叫做AgentGPT,其功能類似。
Richards 對他在Auto-GPT 上的目標一直非常開放:開發一種AGI(人工通用智能)形式。在人工智能領域,“通用智能”通常指的是人工智能係統執行廣泛的任務,解決沒有專門編程或訓練的問題的能力,目前這還是一種假設。
就像一個相當智能人一樣,具有通用智能的系統應該能夠適應新的情況並從經驗中學習,而不是僅僅遵循一套預先定義的規則或模式。這與具有狹義或專業智能的系統(有時稱為“狹義人工智能”)形成對比,後者被設計用來執行特定的任務或在有限的範圍內運作。
同時,BabyAGI(它的名字來自於努力實現人工通用智能的理想目標)以類似於Auto-GPT 的方式運作,但具有不同的任務導向喜好。你可以在一個名為“上帝模式”的網站上嘗試它的一個版本。
BabyAGI 的創造者Nakajima 告訴我們,他在3 月份目睹了“HustleGPT”運動後,受到了創造其腳本的啟發,該運動試圖使用GPT-4 來自動建立企業,可以說是一種AI 聯合創始人。 “這讓我很好奇,我是否可以建立一個完全的AI 創始人,”Nakajima 說。
為什麼Auto-GPT 和BabyAGI 沒有達到AGI 的要求,是因為GPT-4 本身的限制。雖然作為文本的轉化器和分析器令人印象深刻,但GPT-4 仍然感覺被限制在一個狹窄的解釋智能範圍內,儘管有人聲稱微軟已經在該模型中看到了類似AGI 行為的“火花”。事實上,像Auto-GPT 這樣的工具目前的作用有限,這可能是大型語言模型目前局限性的最有力的證據。不過,這並不意味著這些限制最終不會被克服。
此外,幻覺的問題(LLMs 編造信息)可能會被證明是對這些代理類助手的有用性的一個重要限制。例如,在一個Twitter 話題中,有人使用Auto-GPT 通過搜索網絡和查看每個公司產品的評測來生成一份關於生產防水鞋的公司的報告。在這個過程中的任何一步,GPT-4 都有可能對評測、產品、甚至整個公司產生“幻覺”,從而影響其分析。
當被問及BabyAGI 的有用應用時,Nakajima 除了“Do Anything Machine”(Garrett Scott 開發的一個項目,旨在創建一個自動執行的待辦事項列表,目前正在開發中)之外,無法舉出實質性的例子。公平地說,BabyAGI項目只有大約一周的歷史。他說:“這更像是一個框架/方法的介紹,最令人興奮的是人們在這個想法上構建的東西。 ”
自動賺錢
這兩個項目對“賺錢”的關注可能會讓人停下來思考。在過去的一年裡,在Twitter、Instagram、TikTok 和YouTube 等平台上,圍繞生成式人工智能出現了一個由社交媒體影響者組成的小型產業。 Mashable 將這些人稱為“Hustle Bros”,他們通常會兜售誇張的說法,比如使用ChatGPT 自動賺取收入。而隨著Auto-GPT 的出現,這群人很快就想到了讓自主人工智能代理來建立業務或賺錢的想法。
Auto-GPT 似乎也參與了這種炒作。在啟動該工具時,它要求你命名一個人工智能代理並描述其作用。它給出的例子是“一個旨在自主開發和經營業務的人工智能,其唯一目標是增加你的淨資產。”
儘管這裡提到了這些限制,但人們仍在迅速地將Auto-GPT 和BabyAGI 的代碼都改編成不同的語言和平台,盡可能地努力去實現它,因為在許多人眼中這都是美元。
Nakajima 說:“這種利用ChatGPT 技術構建自主代理的新方法似乎在整個社區激發了許多新想法。”“看到人們以不同的方式在此基礎上進行開發,真是令人難以置信。我很高興有機會支持這些建設者和創始人之間的合作並共享學習。”
是否危險
在這個世界上,AI 界的大佬們一直在呼籲“暫停”開發強大的人工智能模型,以保護人類文明,但問題仍然存在:像Auto-GPT 和BabyAGI 這樣的自主AI 代理是否危險?
Richards 和Nakajima 並不是第一個用所謂的“自主”AI 系統進行實驗的人。在GPT-4 的安全測試中,與OpenAI 合作的研究人員檢查了GPT-4 是否可以自主行動,制定和執行目標。他們很可能設計了類似的鍊式設置來實現這一點。而且OpenAI 努力用人類的反饋來調節 GPT-4 模型,目的是不產生有害的結果。
Lesswrong 是一個以關注人工智能末日願景而聞名的互聯網論壇,其成員目前似乎並不特別關心 Auto-GPT,儘管如果你表面上擔心強大的人工智能模型“逃逸”到開放的互聯網上並造成嚴重破壞,那麼自主的人工智能似乎是一種風險。如果GPT-4 真的像人們經常宣傳的那樣強大,他們可能會更擔心。
當被問及是否認為像BabyAGI 這樣的項目可能是危險的,其創建者對這種擔憂一笑置之。 Nakajima 說:“所有的技術都可能是危險的,如果不深思熟慮地實施,不注意潛在的風險”。 “BabyAGI 是一個框架的介紹。它的能力僅限於生成文本,所以它不構成威脅”。
資訊來源:由0x資訊編譯自8BTC。版權歸作者所有,未經許可,不得轉載