據南方+ 9 月15 日報導,深信服安全業務副總裁訾然表示,大模型的安全分為兩方面。一方面是大模型自身,由於幻覺問題、訓練數據安全問題、推理數據洩密等問題,導致的安全風險。另一方面是將大模型用於網絡安全的攻擊或防守中。由於大模型具有更強的未知威脅檢測能力,同時大模型更強的邏輯推理、上下文學習能力,能讓大模型充當一個虛擬的安全專家,對複雜時延進行研判處置,協助安全人員應對更加複雜的挑戰。訾然表示,大模型“學壞”,很大程度是由於大模型的訓練數據中存在不合理、不正常的數據,導致大模型對於一些問題和事物,存在不符合人類常識、道德觀念的看法。目前來看,能反制大模型的,只有大模型,也就是將大模型應用到網絡安全的防守中,來檢測由攻擊大模型生成的病毒、釣魚郵件、攻擊行為。