智譜AI 與清華KEG 發布並開源多模態大模型CogVLM-17B

根據DoNews 10 月12 日報道,智譜AI 與清華KEG 近日發布一種新的視覺語言基礎模型CogVLM。 CogVLM 可以在不犧牲任何NLP 任務表現的情況下,實現視覺語言特徵的深度融合。智譜AI 現已開源CogVLM-17B,並提供了單一3090 伺服器即可運作的微調程式碼,以供大家研究和使用。據悉,CogVLM-17B 目前是多模態權威學術榜單上綜合成績第一的模型,在14 個資料集上取得了state-of-the-art 或第二名的成績。

巴比特訊

Total
0
Shares
Related Posts