
ByteDance представила обновленную версию своей ИИ-модели для создания видео под названием Seedance 2.0. Система понимает восемь языков, в том числе русский и английский.
Нейросеть позволяет использовать в качестве исходного материала изображения, видеофрагменты, аудиодорожки или текстовые описания для последующей генерации роликов.
Разработчики отмечают, что пользователи могут задать визуальный стиль через картинку, определить движение героев и траекторию камеры с помощью видео, а также настроить атмосферу, загрузив аудио. Комбинируя эти элементы с текстовыми запросами, можно вести творческий процесс, подобный режиссерскому.
Seedance 2.0 уже интегрирована в китайскую версию платформы Dreamina. Для доступа требуется аккаунт в Douyin, китайском аналоге TikTok. К концу февраля модель станет доступна и в ряде сторонних сервисов, включая CapCut, Higgsfield и Imagine.Art.
Первые пользователи, опробовавшие обновление, высоко оценили режиссерские и монтажные способности нейросети. Они отмечают плавные, почти профессиональные переходы между сценами.
Один из тестировщиков под ником el.cine заявил, что некоторые возможности системы выглядят невероятными: при загрузке сценария ИИ генерирует полноценные сцены с визуальными эффектами, звуком, музыкой и голосами, уже смонтированные в готовый продукт.
Анонс новой модели от ByteDance вызвал рост котировок акций китайских компаний, работающих в сфере медиа и искусственного интеллекта.
Так, акции COL Group выросли на максимально допустимые за день 20%, а бумаги Shanghai Film и Perfect World прибавили по 10%.
Напомним, что в начале февраля другой китайский разработчик, Kuaishou, анонсировал третью версию своей модели для генерации видео — Kling AI.
Популярные новости:
Больше не нужно искать — необходимые
обучающие материалы и подсказки всегда под рукой