Runway 推出了第三代人工智慧模型的alpha 版本,用於根據提示和靜態圖像生成影片。
公告稱,神經網路在創造具有各種動作、手勢和情感的富有表現力的人類角色方面表現出色。 Gen-3 Alpha 經過訓練,可以準確識別影片中的關鍵影格並建立過渡。
「Gen-3 Alpha 是即將推出的系列中的第一個模型,將在專為大規模多模式學習而設計的新基礎設施上進行訓練。Runway 表示,與Gen-2 相比,這在準確性、一致性和運動方面有了顯著改進,也是朝著創建「共享世界模型」邁出的一步。
Gen-3 Alpha 可以製作五秒鐘和十秒的高解析度影片。 生成時間分別為45 秒和90 秒。 該公司聯合創始人兼首席技術長Anastasis Germanidis 在接受TechCrunch 採訪時談到了這一點。
Gen-3 的公開發布沒有確切的時間表。 Germanides 指出,Alpha 版本「很快就會在Runway 產品線中推出,支援所有現有模式(文字影片、圖像影片和影片影片)和一些新模式」。
回想一下,二月,OpenAI 推出了Sora 生成式AI 模型,用於將文字轉換為影片。 五月,編劇兼導演Paul Trillo 使用它生成了一個視頻剪輯。
谷歌DeepMind 正在開發人工智慧技術來創建視訊配樂。
資訊來源:由0x資訊編譯自FORKLOG。版權歸作者Алекс Кондратюк所有,未經許可,不得轉載