Александр Головин

+244
с 2022
0 подписчиков
0 подписок

> Какой-то неправильный способ записи веса Лоры..Похоже на promt editing, я правд не вкурсе работает ли это с лорами, но похоже на попытку применить лору с определённого шага при генерации.

Да почему? Если прям задаться целью скрафтить какой то видосик - почему нет?

Другой вопрос, что пока что это всё очень сырое и кроме сделать анимацию на несколько секунд ничего не получится. Но дальше будет явно интереснее.

1

Генерить в 60 фпс и 4к поди долговастенько) Апскейлить каждый кадр, я имею ввиду.

Эти глазааа напротииив~

Самому то норм такую трешатину выкладывать?

А вы не из тех, кто восхищается квадратом малевича?

Да, рандомная картинка, сгенерена за один заход за полторы минуты, хотите художественную ценность и какую то смысловую нагрузку? Ну да, нужно таки чуть больше, чем кликнуть "generate" c рандомным промтом. Идея скорее в том, что с нейронками можно не уметь рисовать вообще. В SD генерим условную рандомную хуйню, в инпеинте пририсовываем с помощью мэдскилзов(аля палка палка огуречек - получился человечек) то что вашей душеньке угодно, нейросеть это впишет в окружение, притом довольно годно. Повторяем энное количество раз, правим огрехи инпеинтом и вуаля. А это ещё control net есть, всякие adetailer, latent couple, куча лор, эмбедингов, кастомных моделей и всего того, о чем я даже понятия не имею. И да, это всё может освоить любой человек сильно быстрее, чем научиться рисовать хоть сколько нибудь нормально(мазня первокуров из художки у него лучше лол).

Но да, вы можете оставаться в святой уверенности что нейронки - говно и шитпостинг анимешных доек.

Референсы юзать нужно через control net, и вуаля, проблемы нет. Одинаковые лица - от хреновости моделей(найди нормальную) и скудности промтов. Всегда можно помиксовать разных художников, на выходе с одним и тем же промтом - разные лица(и не только лица). Можно сгенерить что то, а в инпеинте одинаковое на всю модель лицо только править, опять же, художниками, деталями, лорами, инверсиями...

И вообще, я не понимаю, а что, в SD обязательно только девушек рисовать? У вас инструмент ахрененный, для рисования чего угодно, но нет, кроме тянок мы рисовать(и даже обсуждать, как видите) ничего не будем.

Тем временем рандомная картинка с civit.ai у понравившейся модели:

Ну хызы, идеи таких видосов вроде как закосить под аниму, а движения остаются как с оригинального говнотиктокерского видосика. Мб фпс понизить? Короч какая то мрачная долина получается.

Ну и юзать потанцульки "как все" - такой себе путь, имхо, мб стоит чтонить более самобытное намутить? Вон возьми условную матрицу и вперёд.

Negative Guidance minimum sigma выставляем значение 3. Сохраняем.Данный твик ускоряет генерацию за счет снижения значения cfg для негативного промта под конец генерации.

Вот это кстати нужно аккуратнее, например на чекпоинтах AOM качество итоговой картинки, яркость, контрастность оооочень сильно зависит от пачки стандартных для модели негативных промтов. На выходе с это настройкой получаем более блёклые цвета и где то то проёбанную контрастность местами. Короче разница видна прям невооруженным глазом. Стоит ли небольшое ускорение этого? Каждый решает сам, я вот не стал включать.

1

Потыкал сий варик - прикольно прикольно, правда отпруненая контрл нет модель на 768мб выдаёт какую то херню, по ссылке у тебя сильно лучше.

Из минусов: привык апскейлить в 2 захода изображение, по этому варику немножко бёрнит картинку, чтоли, результат хуже чем от обычного sd upscale, но деталей прям больше, да. Для себя остановился на первом апскейле таким методом, а дальше уже без контролнет на низком денойзинге, как то приятнее глазу получается чтоли.
А ещё странно что нельзя указать разрешение препроцессора, в консоли видно что оно маленькое. Имхо бы подогнать под размер тайла было бы самое то.

Я бы ещё добавил в видос в раздел о переустановке чистку кеша pip'a

У меня там сожрано почти 20 гигов было, с учетом того что автоматик желательно хранить на ссд, а ссд обычно ограничен по ёмкости - тыкаем pip cache purge и радуемся n гигам освободимшимся из \AppData\Local\pip\cache

А про ускорялку для автоматика, это случаем не Token Merging?

1

Дык я не спорю. Я про волту услышал полгода назад, когда они на реддит вкатились с обещаниями х2 к скорости сделать. Посидел у них в дискордике, и как то всё это у них затихло. Хорошо что не забили.

1

Это всё круто, но чуваки за сколько там месяцев разработки продвинулись только до txt2img в ограниченных моделью разрешениях. Спасибо, пока останемся на автоматике и xformers с огромной кучей фишек, а не голое txt2img, хоть и с повышенной скоростью генерации.

Лица и руки при таком пайплайне (слово-то какое, лол)

Я хз кто додумался назвать просто последовательность действий "пайплайном", но блин... Со словом пайплайн в первую очередь асоциируется автоматизация, конвеер, комбинация автоматически выполняемых простых команд, вывод одной подаётся на вход другой.
А тут "нейрохудожники" всё ручками делают и называют это "пайплайном". Хтьфу.

Руки тоже можно улучшить, если скрафтить референс в каком то 3д редакторе и через контрол нет инпаинтить по карте глубины. Пока просто это всё очень неудобно. Ждём пока чонить допилят нового)

1

Дык это не SD не справился, а ты. В латентном пространстве есть и волк твой, и щит, осталось только добыть)

Миджорни поди сумел, потому что кому то пришла в голову идея подобное запихнуть в обучающий датасет. Вообще выглядит что проще всего такое реализовать - найти например щит подходящий, выдрать из него карту глубин и в скетче схематично дорисовать 3мя кляксами где будет голова волка располагаться.

К слову про блендер и SD, чуваки сняли постановочку на зелё1ном фоне, обмазали SD и блендером и получили аниму)

https://www.youtube.com/watch?v=GVT3WUa-48Y

Вот видос как создавалось, там же кстати про решение проблемы с персистентностью картинки https://www.youtube.com/watch?v=_9LX9HSQkWo

3

Мне понравился момент:
Тааак, тут у нас дефликер, но видос ещё колбасит. Что нужно сделать? ctrl-c ctrl-v-v-v-v-v-v-v-v-v-v
Ноооойс!


Ну а вообще клёво, конечно)

1

Не мне судить, конечно, но я всё не возьму в толк, на кой нужны эти видосы, склеенные из неподогнанных картинок, которые дёргаются и вот это вот всё, смотреть же больно, ну. Это не спасает даже музычка на фоне.

2

И будет доработан в конце концов openhand и руки мы сможем выставлять точно так же в этом же расширении.

Ты не поверишь)

https://github.com/CMU-Perceptual-Computing-Lab/openpose/blob/master/.github/media/pose_face_hands.gif

1

Да, но так или иначе робит это через open pose, тоесть проекция скелета в плоскость, без глубины. На каких то позах нормас, на каких то - полный рандом в сгенеренном арте, когда sd не понимает куда пририсовать конечность, за тушку или перед ней.

2

Только вот беда в том, что openpose генерит плоское изображение с "костями", как и принимает в себя тоже двумерный массив данных. Поэтому 3d редактор будет только через набор костылей. Ну и плюс он в любом случае не поймёт положение точек "скелета" по глубине, только проекция на плоскость, только хардкор. Выглядит как немного тупиковая ветвь развития, если честно. Круто, но функционала не хватает.

Из примеров - ковырял тут нейротянок с контрол нет, рисуешь позу, аля рука на животе. Нейротянка то на живот руку кладёт, то её за спину засовывает.

2

Как по итогу получилось норм(ну почти) зафиксировать одёжку на всех кадрах?