據站長之家8 月10 日報導,IBM 的一項新研究表明,通過欺騙大型語言模型如GPT-4,可以輕鬆生成惡意代碼或提供虛假安全建議。研究人員表示,只需要一定的英語基礎知識和對模型訓練數據的了解,就能夠欺騙AI 聊天機器人。他們創建了一種遊戲模式,讓用戶無法退出,進而讓機器人繼續提供虛假信息或生成惡意代碼。研究人員認為,這些新發現的漏洞對於大型語言模型的威脅程度是中等的。然而,如果黑客將這些模型釋放到互聯網上,聊天機器人可能被用來提供危險的安全建議或收集用戶的個人信息。根據這項研究,並非所有人工智能模型都同樣容易受到操縱。其中GPT-3.5 和GPT-4 更容易被欺騙,而Google 的Bard 和Hugging Face 模型則更不容易被欺騙。這種差異可能與訓練數據和每個系統的規格有關。