據站長之家8 月28 日報導,加州大學聖地亞哥分校的研究人員開發了一種視覺語言模型BLIVA,旨在更好地處理包含文本的圖像。視覺語言模型(VLM)通過合併視覺理解功能來擴展大型語言模型(LLM),以回答有關圖像的問題。
巴比特訊