ИИ-видеоредактор дома - Wan MoCha

Я тут вспомнил, что когда-то устанавливал себе Wan MoCha - V2V модель на основе Wan'a (V2V - это "видео в видео"). Судя по официальному сайту, позиционируется это как "замена персонажа на видео", но все мои попытки приводили к "неочень" результату, особенно если на вход подаётся стилизованная анимация. Но вот буквально вчера пришла идея скормить модели отредактированный первый фрейм в качестве референс-изображения и качество сразу подскочило.

Короче, вот видео с гайдом по установке (опять ComfyUI). Когда закончите, просто перетащите вот это видео прямо в UI - здесь уже workflow, которое я использовал. Здесь в два этапа генерится, сразу не разберёшься - внимательно видео-гайд смотрите, короче.

Ещё примеры:

Всё это я сгенерировал на 4070 с 12Gb VRAM, оттого низкое разрешение - тянет не более 0.3 мегапикселей - иначе сразу Out of Memory. Ещё важно качество входного изображения-референса. Я через Qwen-Image-Edit их делал, но лучше что-то посильнее - гугловскую Nano Banana, например.

32
24
5
12 комментариев