OpenAI представила Sora — генератор качественных видео по описанию
Результат действительно впечатляет.
Sora — генеративная модель, которая создаёт видеоролики по текстовому описанию. Первая версия даёт возможность генерировать видео продолжительностью до минуты. Модель разработала компания OpenAI, которая рассказала о ней на своём сайте.
Главное отличие Sora от аналогичных существующих моделей в высоком качестве генерации. В OpenAI опубликовали несколько видео, созданных при помощи нейросети. В них можно увидеть, что Sora генерирует очень детализированные и реалистичные ролики, в том числе с изображением людей, животных и быстро движущихся объектов.
В OpenAI рассказали, что при генерации Sora учитывает то, как различные объекты взаимодействуют друг с другом в реальном мире. Это позволяет создавать наиболее естественные и убедительные ролики.
Нейросеть всё ещё находится на стадии тестирования, поэтому физические свойства некоторых объектов она учитывает неправильно. В OpenAI работают над тем, чтобы повысить качество генерации.
Модель в том числе способна генерировать видео на основе статичных изображений, а также заполнять недостающие кадры в существующих роликах или расширять их.
Пока нейросеть недоступна для общего использования. Её предоставили только некоторым художникам, дизайнерам и режиссёрам, которые смогут поделиться своими отзывами с разработчиками. Даты появления общедоступной версии пока нет.
Примеры видео:
Спизжено отсюда.
приглянись к лапе кота на первом видосе
Я только лишь говорю, что 100% риал лайф качества, добиться максимально сложно и косяки будут пролезать очень долгое время, а мне что: "пиздец, ты против прогресса, сраный ретроград!" Я с нейронкой по работе по несколько раз в неделю взаимодействую, включая тренировки, а тут для большинства аудитории это "ахахах гыгы, художники бомжами станут!"
А как там с генерацией самого главного жанра видео?