據IT 之家6 月14 日消息,有研究團隊對用AI 生成的結果來訓練AI 的“套娃式訓練”進行了觀察記錄,結果顯示,“在訓練中使用模型生成的內容,將導致後續生成的模型出現不可逆轉的缺陷”。論文的主要作者之一Ilia Shumailov 同時表示“隨著時間的推移,生成數據中的錯誤會迫使AI 進一步錯誤地感知現實,我們驚訝地觀察到模型崩潰發生的速度相當快,模型可以迅速忘記他們最初從中學習的大部分原始數據。”此外,如果將AI 生成的結果經過人工潤色後再投入模型訓練,也無法避免模型“退化”。對於任何大模型而言,由於其學習數據過多,它們都將不可避免地接觸到其他AI 生成的數據,因此研究人員表示“應當引入AI 鑑定來挑出可能存在錯誤的學習數據”以提升模型的學習能力與準確性。