據站長之家9 月14 日消息,近期,騰訊AI Lab 聯合國內外多家學術機構發布了面向大模型幻覺工作的綜述,對幻覺的評估、溯源、緩解等進行了全面的探討。研究者根據大模型幻覺與用戶輸入、模型生成內容及事實知識的衝突,將其分為三大類。目前研究主要集中在與事實知識衝突的幻覺上,因為這最易對用戶產生誤導。與傳統語言生成任務中幻覺問題不同,大模型幻覺面臨數據規模巨大、模型通用性強以及幻覺不易被察覺等新難題。針對大模型幻覺的評估,已提出多種生成式和判別式的基準,以問答、對話等不同任務形式檢驗模型的幻覺傾向。這些基準各自設計了判定幻覺的指標,但可靠的自動評估仍有待探索。分析認為,海量低質訓練數據以及模型對自身能力的高估是導致幻覺的重要原因。