Вторая картинка - это прям стандарт качества - всё время когда генерю девушек от 1к10 до 1к5 именно такие мутанты получаются
Кстати недавно эту версию обновили, скачай с сайта снова - теперь там есть нормальные отрицательные подсказки.
1060 ti, нормально делает, нейросеть Stable Diffusion с моделью Waifu Diffusion 1.2 (модель - это "память" нейросети, разные модели обучены на разных картинках и собственно результаты разные)
Картинку в нормальном качестве от полутора минут и больше делает, в зависимости от того, какое "качество" поставил. Только проблема с глазами и руками у ИИшки из за чего от 40% до 80% изображений идёт в отброс.
То, сколько придётся отбросить зависит от:
1. Сидов для генерации картинки похоже ИИ использует какой то механизм похожий на карту шумов из за чего две совершенно разных картинки с одним сидом будут похоже друг на друга, даже при разных настройках и запросах, хотя бы из за примерно одинакового размещения источников света или заднего плана. И если сид попался хреновый (что редко но бывает, то он тебе выдаст мешанину в любом случае).
2. Точности описания - дело в том, что нейросетке нужно не только говорить - что делать, но и то что делать не нужно. Если в запросе несколько раз упомянуть что "НЕ НАДО РИСОВАТЬ КРИВЫЕ ПАЛЬЦЫ" - то алгоритм и вправду начинает рисовать немного более лучше. Проблема в том, что ИИ делает только то, что ты говоришь, на всё остальное забивается болт - так что точно описав каждую часть картины что хочешь получить и что получить не хочешь - получается реально лучше.
3. Случайность и взаимонепонимание. Бывает так, что алгоритм весьма странно реагирует на некоторые нормальные слова и часто бывает так, что попытавшись что то уточнить - ты наоборот ломаешь машине мозг и она начинает творить отпетую хрень.
У меня к примеру, сейчас ИИ каждую пятую картинку повторяет одну и туже ошибку и почему то рисует из шеи персонажа не голову, а ещё одно дело и я пока не разобрался в чём именно проблема.
Ну и пример лично моей генерации. Всё ещё с глазами проблема, сейчас экспериментирую на тем, как её уговорить нормально их рисовать:
Окей, потихоньку подбираюсь к идеальному результату. С отрицательными подсказками разобрался - тут фишка есть - для ослабления подсказки нужны фигурные скобки, для отрицания - квадратные.
Что немного странно, так как в стандартном вроде бы именно квадратные отвечают за ослабление.
Только как лучше "регенератор" лица использовать не разобрался, пока глаза разъезжаются.
Если честно специально уже который день пытаюсь построить картинку по этой статье - очень помогает разобраться как именно работает нейросеть и чего ей не хватает в каждом из случаев.
У меня вот так выглядит интерфейс. Говорю же что не стандартный sd поставил. Поиграйсь с этим, если не надоест, то скачаю "полноценную" версию.
Скачал WD 1.2 - По запросам рисовал чистою порнушку - а в той версии что использую я есть один большой минус - нет отрицательных подсказок, убрал пару тегов, закрыл их другими - в итоге получилось неплохо, но всё же намного менее качественней, чем ваш результат
Кстати, при использовании модели waifu diffusion выдаёт каких то качков
Хотел немного схитропопить и использовал NMKD Stable Diffusion Gui, заместо того что бы мучится с установкой нормального Stable Diffusion. Ну и собственно результаты получил на то - на сколько наработал.
Есть вопрос: А как делать негативные подсказки тут?
Вообще есть предположение - что такая мутация происходит из за того, что разрешение картинки не 512 на 512 из за чего нейросеть иногда путается, так как видно, что stable diffusion в первую очередь заточен именно под такой масштаб.