Meta 開源AI 語言模型MusicGen,可將文本和旋律轉化為完整樂曲

據IT 之家消息,Meta 近日在GitHub 上開源了其AI 語言模型MusicGen,該模型基於谷歌2017 年推出的Transformer 模型。如同模型名稱所示,MusicGen 主要用於音樂生成,它可以將文本和已有的旋律轉化為完整樂曲。除此之外,MusicGen 還支持文本與旋律的組合輸入,例如你可以提出生成“一首輕快的曲目”並同時要求“將它與貝多芬的《歡樂頌》結合起來”。根據研發團隊對MusicGen 的實際表現進行的測試,與穀歌的MusicLM 以及Riffusion、Mousai、Noise2 Music 等其他音樂模型相比,MusicGen 在測試音樂與文本提示的匹配度以及作曲的可信度等指標上表現更好,總體而言略高於谷歌MusicLM 的水平。目前,Meta 已允許該模型的商業使用,並在Huggingface 上發布了一個供演示用的網頁應用。

Total
0
Shares
Related Posts