根據The Decoder 10 月12 日報道,Meta AI 研究人員提出了一種基於提示的方法Chain-of-Verification (CoVe),可顯著減少ChatGPT 等聊天機器人的幻覺問題。據悉,使用CoVe 時,聊天機器人首先要對提示做出回應,然後根據這些輸出產生問題來驗證語句。然後,這些「驗證問題」會作為獨立於第一個輸入的新提示執行,以防止第一個輸出中的錯誤訊息被採用。最後,語言模型會根據單獨收集的事實來驗證第一個輸入。所有測試均使用Llama 65 B 完成。研究小組的研究表明,單一問題的答案中包含的錯誤明顯減少,這使得CoVe 能夠顯著提高提示語的最終輸出。對於基於列表的問題,CoVe 可以將準確率提高一倍以上,大大降低錯誤率。而對於更複雜的問答場景,方法仍能提高23% 的準確率。不過,對於較長的內容,團隊仍需檢查驗證答案是否前後矛盾。