OpenAI 以其先進的人工智慧研究和ChatGPT 等模型的創建而聞名,於2023 年10 月25 日推出了一項新舉措,旨在解決與人工智慧技術相關的多種風險。該倡議預示著一個名為「準備」的專業團隊的成立,致力於監測、評估、預測和減輕人工智慧進步帶來的災難性風險。這項積極的措施是在全球日益關注與新興人工智慧能力交織在一起的潛在危險的背景下採取的。
公佈準備計劃
在Aleksander Madry 的領導下,準備團隊將重點放在前沿人工智慧模型(超越當前領先模型的能力)可能帶來的廣泛風險。核心任務圍繞著開發強大的框架來監控、評估、預測和防範這些前沿人工智慧系統的潛在危險功能。該倡議強調了理解和建立必要基礎設施的必要性,以確保高性能人工智慧系統的安全。
具體重點領域包括來自個人化說服、網路安全、化學、生物、放射性和核(CBRN)威脅以及自主複製和適應(ARA)的威脅。此外,該計劃旨在解決有關濫用前沿人工智慧系統以及惡意實體可能利用被盜人工智慧模型權重的關鍵問題。
風險知情的發展政策
準備計劃的一個組成部分是製定風險知情的發展政策(RDP)。 RDP將為前沿模型能力概述嚴格的評估、監控程序和一系列保護措施,建立整個開發過程的問責和監督治理結構。該政策將增強OpenAI 現有的風險緩解工作,有助於新的高效能人工智慧系統在部署前後的安全性和一致性。
參與全球社區
為了挖礦不太明顯的問題並吸引人才,OpenAI 也發起了人工智慧準備挑戰賽。這項挑戰賽旨在防止人工智慧技術的災難性濫用,承諾為最多10 名模範提交者提供25,000 美元的API 積分。這是準備團隊更廣泛招募活動的一部分,旨在尋找來自不同技術領域的傑出人才,為前沿人工智慧模型的安全做出貢獻。
此外,這項措施是OpenAI 與其他人工智慧實驗室在7 月自願做出的承諾,旨在促進人工智慧的安全性和信任,與英國人工智慧安全高峰會的焦點產生共鳴。
日益增長的擔憂和先前的舉措
準備團隊的成立並不是一個孤立的舉動。這可以追溯到OpenAI 先前關於組建專門團隊來應對人工智慧引發的挑戰的確認。這種對潛在風險的承認伴隨著更廣泛的敘述,包括人工智慧安全中心於2023 年5 月發表的一封公開信,敦促社群優先考慮減輕人工智慧滅絕等級的威脅以及其他全球生存風險。
圖片來源:Shutterstock
資訊來源:由0x資訊編譯自BLOCKCHAINNEWS。版權所有,未經許可,不得轉載