Компания Runway представила Act-One. Это фича для генерации анимированных персонажей на основе мимики, движений и голоса в качестве входных данных. Одну запись можно использовать для создания нескольких персонажей в разных стилях.
При этом не нужны ни гринскрин, ни оборудование для захвата движения. Всё делается в пару кликов.
Со звуком можно посмотреть здесь https://runwayml.com/research/introducing-act-one
Только у втюберов оно качественнее, а у тех, кто заморачивается, прям балдёж. А тут жуть какая-то
мне эта пиксарщина нравится
FaceRig выдаёт такой же результат по качеству?
Это же не FaceRig, это что-то из Unreal Engine 5. FaceRig ещё в 2014 году вышел и выдавал анимацию на уровне заправского витуберского аватара, если не терял лицо на распознавании
_
Ругами ты его тоже можешь двигать, но там уже уметь надо
FaceRig - это конкретная программа, которая работает через вебкамеру на компе, а не через айфон
- Нет, я надену VR шлем, а ты будешь секси красной пандой.
Да нет, простая дешевая технология. Дорогие там последние 5% отшлифованности, на которые и уходят 95% бюджета. А если последние 5% не нужны - то достаточно дешевая технология. Так что нейросеть - никакая не альтернатива, она даже до уровня первых 95% дешевого моушен капчура не дотягивает.
Подобные нейросети как альтернатива актуальны разве что в проектах уровня "Дети против волшебников".
Выражения лица выглядят даже как-то слишком реалестично. Будто мультяшная маска надета на реального человека.
у меня в стиме до сих пор висит прога, купленная году так в 18-м. Так и не юзаная ни разу лул, ибо вебку покупать только ради неё ебал
И вот сейчас было бы хорошее время для реализации такого амбициозного проекта как L.A. Noir.
Чёт меня от всего этого наплыва ИИ-генеренных-гифок стало так корёжить, когда я вижу очередную гифку, где лицо разговаривает, но я не слышу звука. Уже даже от реальных записей, где такое происходит, меня прям крутит.
Фу. Ужасно смотрится, прям как ранние дубовые попытки в перенос эмоций живых людей в анимацию.
Отличный комментарий!