Галерею смотреть тут: https://t.me/Smaragdus11 Или тут: https://twitter.com/smallkino_ А ещё вот тут: https://www.pixiv.net/en/users/63762197
Есть. LTX (с аудио) или Wan 2.2, например. Могут генерить 720p видео на какой-нибудь 4070.
Ерунда всё это. Сейчас любой видео-нейросетке можно скормить изображение первого кадра и сказать "Вот тебе персонаж, анимировай!" Что мультяшные, что реалистичные - одинаково. А скоро будет видео референс - даёшь на вход видеоклип и просишь сделать сцену с другого угла, заменить персонажа или вообще разыграть другой фильм в этих же декорациях.
Seedance 2.0 - релиз 24 февраля обещают. А пока в полу-закрытой бета-тестировании. А видео из твиттера
Интересно, что чем мощнее модель, тем шире её возможности. Для переноса движения есть локальные решения типа Wan Animate или SCAIL, но вот Seedance может просто генерировать по видое-референсу. С картинками та же история была - создавали ControlNet, чтобы точно сказать где что-герить на рисунке, а сейчас Nano Banana, Flux или там Qwen просто могут взять любой набросок и превратить в иллюстрацию.
Думаю, "неотличимость" в скором времени достигнуть, а потом будут делать больший упор на контролируемость генерации - уже сейчас можно сделать другую причёску или дать в руки другое оружие, но пока это всё не идеально. Поживём-увидим
На локалке тоже можно робота повернуть
Попробуй в свойствах папки проставить вот такую настройку (оптимизировать под общие элемента, а не под изображения):
Брюнетки как бы
Не, это не тру. Надо использовать только открытые модели и запускать всё локально.
Если задаваться вопросом "что проще", то проще ничего не делать. LTX бери