AI-стартап Runway сообщает, что его новейшая модель для генерации видео, способна создавать последовательные сцены и персонажей в различных кадрах, как указано в их анонсе. Видеоролики, создаваемые при помощи ИИ, часто сталкиваются с трудностями в поддержании целостности повествования. Однако Runway утверждает на X, что новая модель Gen-4 позволит пользователям обеспечить больше «продолжительности и контроля» при создании видеоисторий.
В настоящее время модель Gen-4 уже доступна платным и корпоративным пользователям. Эта модель синтеза видео позволяет генерировать персонажей и объекты в разных кадрах, используя единственное референсное изображение. Пользователи должны описать нужную композицию, после чего модель создаст согласованные результаты из различных ракурсов.
В качестве примера стартап выпустил видео, демонстрирующее, как женщина сохраняет свой образ в разных кадрах и условиях освещения.
Выход Gen-4 произошел менее чем через год после анонса генератора видео Gen-3 Alpha. Эта модель увеличивала продолжительность создаваемых пользователями видеороликов, но вызвала споры, поскольку, как сообщается, она использовала для обучения множество несанкционированных YouTube-видео и пиратских фильмов.
Источник: TheVerge