AI 尤其是大模型時代的開源與閉源,有利有弊,重要的是如何在使用的過程中做好文章。
圖片來源:由無界AI生成
一直以來,人們在AI 領域的開源與閉源選擇上存在著分歧,而在大模型時代,開源這股強大的力量已經悄悄崛起。根據先前谷歌洩露的內部文件,圍繞著Meta 的LLaMA 等開源模型,整個社區正在迅速建立與OpenAI、谷歌大模型能力類似的模型。
毋庸置疑,Meta 是開源世界的絕對核心,持續做出開源努力,如最近發布Llama 2。然而木秀於林風必摧之,最近Meta 因為開源陷入了「麻煩」。
在Meta 的舊金山辦公室外,一群手舉標語的抗議者聚集在一起,抗議Meta 公開發布AI 模型的策略,並聲稱這些發布的模型造成了潛在不安全技術的「不可逆轉的擴散」。甚至有抗議者將Meta 發布的大模型比喻為「大規模殺傷性武器」。
這些抗議者自稱為“concerned citizens”(關心某事的公民),由Holly Elmore 領導。根據領英信息,她是AI Pause(中止AI)運動的獨立倡導者。
圖源:MISHA GUREVICH
她指出,如果一個模型被證明不安全,則可以關閉API,例如Google和OpenAI 等只允許使用者透過API 存取的大模型。
與之相反,Meta 的LLaMA 系列開源模型向公眾提供了模型權重,使得任何擁有合適硬體和專業知識的人都可以自行複製和調整模型。一旦發布了模型權重,發佈公司就不再有任何手段來控制AI 的使用方式了。
在Holly Elmore 看來,釋放模型權重是一項危險的策略,任何人都可以修改模型,而這些模型無法被召回。 「模型越強大,這項策略就越危險。」
相較於開源,透過API 存取的大模型通常具備各種安全特性,例如響應過濾或透過特定訓練阻止輸出危險或令人厭惡的回應。
如果模型權重被釋放出來,那麼重新訓練模型來跳過這些「護欄」就變得容易多了。這使得利用這些開源模型來製作網路釣魚軟體、實施網路攻擊更加成為了可能。
圖源:MISHA GUREVICH
因為,她認為部分問題在於「針對模型釋放的安全措施不夠」,需要有更好的方式來確保模型安全。
目前,Meta 尚未對此發表任何評測。不過,Meta 首席AI 科學家Yann LeCun 似乎對「開源AI 必須被取締」這一說法進行了回應,曬出了巴黎開源AI 創業社群的盛況。
與Holly Elmore 持不同意見的人也有很多,認為AI 發展的開放策略是確保實現技術信任的唯一方法。
有網友表示,開源有利有弊,既可以讓人們獲得更高透明度並增強創新,但也將面臨惡意行為者濫用(如程式碼)的風險。
不出所料,OpenAI 再次遭到了揶揄,「它應該回歸開源。」
對開源持有擔憂的不在少數
MIT AI 安全博士後研究員Peter S. Park 表示:「未來廣泛發布先進的AI 模型將特別成問題,因為防止濫用AI 模型基本上是不可能的。」
不過,非營利人工智慧研究組織EleutherAI 的執行董事Stella Biderman 表示:「到目前為止,幾乎沒有證據表明開源模型造成了任何具體的損害。目前還不清楚是否僅在API 背後放置一個模型就可以解決安全問題。」
Biderman 認為:「建構LLM 的基本要素已在免費的研究論文中公開,世界上任何人都可以閱讀論文文獻來發展自己的模型。」
她還補充說:「鼓勵公司對模型細節保密可能會對領域研究的透明度、公眾意識和科學發展產生嚴重的不良後果,特別是會影響獨立研究人員。」
儘管大家已經在討論開源帶來的影響,但Meta 的方法是否真的足夠開放,是否能夠發揮開源的優勢,還未可知。
開放原始碼促進會(OSI)執行董事Stefano Maffulli 表示:「開源AI 的概念尚未正確定義。不同的組織使用這個術語來指稱不同的事物- 表示不同程度的『公開可用的東西』,這會讓人感到困惑。」
Maffulli 指出,對於開源軟體來說,關鍵問題是原始程式碼是否公開可用並可複現用於任何目的。但想復現AI 模型可能必須分享訓練資料、收集資料的方式、訓練軟體、模型權重、推理程式碼等等。其中,最重要的是訓練資料可能存在隱私和版權問題。
OSI 自去年以來一直致力於為「開源AI」給出一個確切的定義,很有可能會在未來幾週內發布早期草案。但無論如何,他都認為開源對AI 發展至關重要。 「如果AI 不是開源的,我們就不可能擁有值得信賴、負責任的AI」,他說。
未來,關於開源與閉源的分歧會一直延續下去,但開源已經無法阻擋。
原文連結:https://spectrum.ieee.org/meta-ai
資訊來源:由0x資訊編譯自8BTC。版權所有,未經許可,不得轉載