SmallKino

+43 682
с 2021

Галерею смотреть тут: https://t.me/Smaragdus11 Или тут: https://twitter.com/smallkino_ А ещё вот тут: https://www.pixiv.net/en/users/63762197

803 подписчика
39 подписок

Есть. LTX (с аудио) или Wan 2.2, например. Могут генерить 720p видео на какой-нибудь 4070.

1

Ерунда всё это. Сейчас любой видео-нейросетке можно скормить изображение первого кадра и сказать "Вот тебе персонаж, анимировай!" Что мультяшные, что реалистичные - одинаково. А скоро будет видео референс - даёшь на вход видеоклип и просишь сделать сцену с другого угла, заменить персонажа или вообще разыграть другой фильм в этих же декорациях.

10
4
2

Интересно, что чем мощнее модель, тем шире её возможности. Для переноса движения есть локальные решения типа Wan Animate или SCAIL, но вот Seedance может просто генерировать по видое-референсу. С картинками та же история была - создавали ControlNet, чтобы точно сказать где что-герить на рисунке, а сейчас Nano Banana, Flux или там Qwen просто могут взять любой набросок и превратить в иллюстрацию.

Думаю, "неотличимость" в скором времени достигнуть, а потом будут делать больший упор на контролируемость генерации - уже сейчас можно сделать другую причёску или дать в руки другое оружие, но пока это всё не идеально. Поживём-увидим

4
2
1

Попробуй в свойствах папки проставить вот такую настройку (оптимизировать под общие элемента, а не под изображения):

1

Не, это не тру. Надо использовать только открытые модели и запускать всё локально.