研究顯示:包括ChatGPT 在內的AI 工具可能會被誘騙產生惡意程式碼

根據站長之家10 月25 日報道,英國謝菲爾德大學的研究人員近日發表的一項研究顯示,包括ChatGPT 在內的AI 工具可以被操縱,產生惡意程式碼,可能用於發動網路攻擊。該研究首次證明了Text-to-SQL 系統的潛在危險,這種AI 系統可以讓人們用普通語言提出問題,以搜尋資料庫,廣泛應用於各行各業。研究發現,這些AI 工具有安全漏洞,當研究人員提出特定問題時,它們會產生惡意程式碼。一旦執行,這些代碼可能洩露機密資料庫信息,中斷資料庫的正常服務,甚至摧毀資料庫。研究團隊成功攻擊了六種商業AI 工具,其中包括高知名度的BAIDU-UNIT,該工具在眾多領域中廣泛應用,如電子商務、銀行業、新聞業、電信業、汽車業和民航業等。此外,研究還揭示了一種可能的後門攻擊方法,即透過污染訓練數據,在Text-to-SQL 模型中植入「特洛伊木馬」。這種後門攻擊通常不會對模型的效能產生一般性影響,但可以隨時觸發,對使用它的任何人造成實際危害。

Total
0
Shares
Related Posts