Как пользоваться нейросетью Stable Diffusion
Если вы, как и я, не имеете доступа к DALL·E 2, уже потратили свои попытки с Midjourney, а продолжать генерировать изображения хочется.
0. Дисклеймер
Вся информация в этом гайде (и часть картинок) взята с разных постов реддита r/StableDiffusion. Рекомендую отслеживать его, если хотите быть в курсе появляющихся новых возможностей программы, найденных лайфхаках для генерации или если у вас появляется вопрос, с которым не помогает гугл.
В этом гайде я в основном описываю шаги, которых будет достаточно пользователю на Windows с видеокартами Nvidia 10XX с 4-6 гигабайтами видеопамяти и выше для запуска на своем компе. Если у вас мощная карта от красных - возможно, вам поможет вот этот гайд.
Все меняется крайне быстро и я не гарантирую, что все шаги будут актуальны через неделю-другую.
1. Введение. Что еще за Stable Diffusion?
Stable Diffusion - программа с открытым исходным кодом от группы Stability.Ai , выпущенная в публичный доступ 22 августа, состоит из 2х больших частей - собственно, обученной нейросети (сейчас доступна версия 1.4, скоро будет доступна 1.5 - в ней обещают более качественные лица/глаза/руки) и обвязки, ее вызывающей.
Результаты ее работы похожи на DALL·E и Midjourney (мне с друзьями показалось, что в среднем Midjourney рисует чуть выразительнее, а Stable Diffusion более четко следует запросу при настройках по умолчанию), главное преимущество с точки зрения пользователя сейчас - нет ограничений на генерируемые изображения (NSWF фильтр есть в оригинале, но легко снимается) и все бесплатно.
Сообщество растет быстро и уже сейчас есть куча разных вариантов работы с нейросетью:
- Базовый - через консоль. Для тех, кто не боится python и/или чуть-чуть потрогать код. Если готовы - выкачиваете с гитхаба подходящий вам по каким-то соображениям вариант (Исходный вот тут ; вариант для запуска с меньшими затратами видеопамяти и кучей дополнительных опций - тут) и следуете гайду по настройке окружения/запуска (для исходника - вот, для второго варианта - вот). Плюсы - вам проще будет интегрировать новые появляющиеся методы генерации изображений и вы чуть лучше разберетесь в том, как это все работает.
- Через браузер (например, на этом сайте без регистрации и настроек , на этом - с регистрацией и разными настройками ). Плюсы - доступно с любого устройства и ничего не надо устанавливать. Минусы - медленно, меньше возможностей, в любой момент ваш любимый сайт может свернуться из-за наплыва пользователей/желания создателей.
- Через графический интерфейс и установщик. Мне кажется, такой способ должен быть привычнее большинству пользователей Windows, поэтому его и опишу. Минусы - не факт, что в графическом интерфейсе будут все нужные вам настройки. Плюсы - все наглядно и не надо ничего знать про всякие питоны, анаконды, пип-инсталлы, командные консоли...
2. Установка на своём компьютере
Пошагово:
1. Еще раз убедитесь, что у вас Nvidia 10XX с хотя бы 4гб видеопамяти. Быстро проверить можно, зайдя в диспетчер задач (Ctrl+Shift+Esc), вкладку "производительность", раздел "Графический процессор" и посмотрев на строку "Выделенная память графического процессора".
2. Скачиваете программу-установщик от NMKD
Нажимаете на красную кнопку "Download now" и решаете, поддержать ли вам разработчика деньгами или вы хотите скачать просто так. Никаких ограничений на вас не накладывается, если вы решите не платить. На следующей странице просто нажимаете "Download" и сохраняете архив там, где вам удобно. Весит 3 гигабайта.
3. Извлекаете содержимое архива куда вам удобно. Автор программы не рекомендует прятать ее очень глубоко из-за возможных ограничений на максимальную длину пути в файловой системе, но в данном случае это не так важно. Учтите, что программа + нейросети суммарно весят уже 11 гигабайт. У меня стоит на SSD, но не думаю, что это дает какую-либо ощутимую прибавку по скорости работы.
4. В распакованном архиве запускаете StableDiffusionGui.exe, соглашаетесь с возможными багами, и нажимаете на иконку установщика.
5. Последовательно нажимаете на "Download SD model", "Clone Repo", "Install Upscalers" и ждете, пока каждый из них скачается/установится. Прогресс можно наблюдать в левом нижнем углу приложения. Мне еще пришлось после этого делать Re-install, но вам может не пригодиться. Все поля должны быть отмечены галочками, если все прошло успешно.
6. Последний шаг - настраиваем место сохранения результатов и потребление видеопамяти. Заходим в настройки, отмечаем галочкой Low Memory Mode (если у вас меньше 8 гб видеопамяти), выбираем место сохранения результатов и то, надо ли создавать отдельную папку под каждый новый запрос к нейросетке. Я рекомендую создавать под-папки, так проще потом делиться результатами с остальными. Если вдруг ваш запрос к нейросети очень длинный и Windows не создаст папку с таким названием - картинки сохранятся в базовой указанной вами папке.
Поздравляю, вы справились!
3. Генерируем изображения по тексту
Самый базовый вариант:
Вбиваете в поле Promt свой запрос, нажимаете Generate, ждете.
Какие настройки на что влияют (Подробнее - читайте в гайде):
- Сколько изображений нагенерировать. Больше изображений - дольше генерация, все просто.
- Steps - сколько шагов ИИ сделает в попытке выполнить ваш запрос. В теории, чем больше шагов, тем дольше обрабатывается запрос и качественнее результат, но на практике улучшение заметно не всегда. Для разных Sampler (о них ниже) оптимальное число шагов разное. По умолчанию рекомендуют 30-50. Если вас не устраивает какая-то часть изображения (например, глаза), лучше не увеличивать число шагов, а детализировать текстовый запрос к этой корявой части
- Creativeness (Guidance Scale) - насколько ИИ волен к интерпретации вашего запроса и должен ли он учитывать все его части. 2-6 - ИИ творит, что хочет, 7-11 - половину от вашего запроса возьмет, половину додумает, 12-15 - Постарается учесть большую часть вашего запроса, 16+ - Что написали, то и реализует. По умолчанию рекомендуется значение 8. Уверены в своем описании - 12.
- Seed - откуда ИИ будет стартовать свою отрисовку. Разные стартовые точки = разные итоговые результаты. Если вам не важна повторяемость результата - ставьте значение минус 1 . Если вы пытаетесь улучшить свой текстовый запрос - лучше зафиксируйте какое-то конкретное стартовое число и не меняйте его.
- Resolution - исходный разрешение получаемого изображения. Больше разрешение = больше видеопамяти нужно для генерации изображения. Нюансы - По умолчанию Stable Diffusion натренирован на изображениях 512*512, их он отрисовывает лучше всего. 256*256 - получается вырвиглазное нечто. Сделаете больше 512 - скорее всего он будет дублировать части изображения несколько раз в разных местах. Если вам нужно просто изображение большего разрешения, но с +- тем же числом деталей - лучше воспользоваться апскейлером (о них позднее). Не обязательно делать квадратные изображения, . Ходят слухи, что будет выпущена модель, обученная на 1024*1024 изображениях, но пока работаем с чем есть.
- Sampler. Я не знаю, как это работает "под капотом" (желающие объяснить - Welcome!), но с разными вариантами изображения генерируется немного по-разному. Наглядно это представлено на этом скрине:
Как это описывает сообщество:
k_lms: The Old Reliable.Вариант по-умолчанию. Каждый шаг отрабатывается сравнительно быстро, но для хорошего результата нужно 50-80 шагов.
k_ddim: The Speed Demon. Хорош уже на 8 шагах, что позволяет быстро перебирать множество вариантов.
k_euler_a: The Chameleon. Быстр, что-то интересное выдает уже на 8-16 шагах, но с каждым шагом изображение может кардинально поменяться.
k_dpm_2_a: The Starving Artist . Медленный на каждом шаге, нужно больше шагов для генерации приличного качества (50-80), но результат дает чуть более детализированный, по сравнению с тем же k_euler_a.
Для начала я обычно генерю с k_euler_a и 20 шагами. Если корявые глаза-руки, а в остальном норм - ставлю k_dpm_2_a и 75 шагов.
3.5 Особенности текстовых запросов
Если вы уже знакомы с Midjourney и тем, как хорошо генерировать запросы для него - переносите свои навыки на Stable Diffusion, только помните, что здесь нет команд вроде --wallpaper, --beta и нет опции разделять сущности через :: (можно через веса, об этом позже)
Если нет - я бы рекомендовал начать с Midjourney, по нему есть прекрасный гайд на ДТФ. Так как там вы в реальном времени смотрите, как другие люди создают и уточняют свои запросы и что при этом выдает нейросеть в каждой модификации.
Если же сил возиться с еще одной нейросетью нет - Уже существуют сайты, на которых вы можете посмотреть, что выдаст SD при том или ином запросе (https://lexica.art/). Посмотрите на то, как люди формируют запросы по сходной тематике, вдохновитесь и используйте их как основу для своих собственных изображений. Удаляйте части запроса, добавляйте новые и смотрите к какому результату это приводит. Посмотрите на самые популярные работы в сообществе и как к ним был составлен текст.
Можете попробовать использовать генераторы описаний, в которых уже есть какие-то известные элементы описаний, на которые реагирует ИИ. Например, вот этот
Сейчас считается, что чем конкретнее и многословнее будет ваш запрос - тем лучше. Описывайте одно и то же разными словами. Хотите высокой детализации? Пишите "Masterpice, high quality, ultra-detailed, 4k" и что-нибудь еще. Или указывайте автора, рисующего в гипер-реалистичной манере через запрос "by %Фамилия-Имя автора%, из тех ,что есть в датасете LAION. Или даже несколько похожих авторов сразу.Или непохожих, для большей художественности. Что мешает смешать Моне и Ван Гога? Синьяка и Хокусая?
Учтите, что больше 75 слов за раз SD не воспринимает.
Важен также и порядок слов в запросе - чем ближе к началу, тем, по-умолчанию, больший вес этому слову придаст нейросеть. Так что ставьте на первые места те элементы, которые точно должны быть в изображении.
Хорошо сразу вряд-ли получится, не волнуйтесь. Для того, что бы получилось что-то, что уже хочется показать, обычно надо перебрать много разных модификаций одного и того же запроса, да еще и с разными настройками. Именно поэтому и не рекомендую начинать с k_lms и 50 шагами - когда генерируешь 100 разных запросов, имеет значение, сколько отрабатывает каждый из них.
Есть возможность вручную указывать веса для каждого элемента (насколько нейросеть должна учесть каждый). После целой фразы ставите ":xx", где xx - вес этого элемента при генерации.В сумме веса всех элементов должны давать 100. Пример запроса для генерации наполовину мини-дракона, наполовину - хорька под картинкой
4.Модификация готового изображения
Замечательная опция, о которой многие забывают - можно дать изображение, которое выступит основой для генерации.
У вас появится возможность настроить вес вашего исходного изображения и текстового описания, которое послужит основной для модификации. В данной программе чем ближе выставите слайдер Strength к 0, тем больше изображение будет похоже на текстовое описание. Чем ближе к 1 - тем больше на исходное изображение.
Я обычно выставляю около 0.4-0.6, получается сохранить детали и запроса и исходника. Когда ставлю больше 0.6 с фотографиями людей начинается творится хтонический ужас. Меньше - слишком далеко от оригинала.
5. А что дальше?
Начните уже что-то генерировать, получайте от этого удовольствие и дарите его другим. Следите за тем, какие новые возможности и удачные примеры появляются в сообществе на гитхабе/реддите и других площадках. Попробуйте освоить генерацию по образцу, когда вы используете набор изображений в качестве маленькой обучающей выборки, и потом генерируете изображения в этом новом "стиле".
Попробуйте использовать различные улучшатели изображений. В описываемом мной варианте есть два разных, один - для повышения разрешения, второй - для повышения качества лиц (RealESRGAN и GFPGAN)
Удачи! Делитесь не только интересными результатами, но и удачными комбинациями запросов и настроек!
А где инструкция для снятия запрета на NSFW?)
В том дистрибутиве, который я описываю в гайде, он и так снят. В веб-сервисах обычно есть приписка, есть ли цензура результатов. Генерирует получше той специализированной порно-сетки, как мне показалось
Для продвинутых - https://www.reddit.com/r/StableDiffusion/comments/wv2nw0/tutorial_how_to_remove_the_safety_filter_in_5/
ВАУ!!! 🤯 Какая крутая нейронка! Да ещё и на собственном компе можно использовать!
Да ещё и 18+ NSFW можно генерировать!!! 🤯🤯🤯🤯🤯🤯
А можно её дообучать? На пример, на хентай манге? 😋
Надеюсь, поскорее такие нейронки встроят в редакторы изображений, чтобы можно было чётко указать что, где и как именно изменить, перерисовать и дорисовать на картинке.👍👍👍👍👍👍
Комментарий удален модератором
Оно того стоило)
Пёс-самурай в традиционном стиле вышел очень даже ничего.
Этот неловкий момент когда попросили изобразить пользователей, а в интернетах есть только фотки редакции.
Справа вверху - почти что я ;)
Спасибо за гайд. Вопрос, при сиде -1 полученные рандомные сиды где-то сохраняются? Чтобы, например, нагенерить штук 10–20 вариантов рандомно с низкими настройками, а потом просмотреть все, взять сиды для понравившихся и уже дожимать их на более высоких настройках?
Да, в названии каждого файла по умолчанию прописывается конфигурация и сид
В моем примере у каждого файла подпись вида "2022-09-07-22-08-16-04-203464532-scale8.00-k_euler_a-04". 203464532 - сид
Крутая статья, есть шансы на гайд по расширению функционала ? там про какие-то модели пишут на реддите но я пока не шарю где, что и как .
Про textual Inversion (те самые эмбеддинги) / inpainting или про Waifu Diffusion? С первыми сам не игрался еще, хочу на следующей неделе, во втором просто подменяешь саму модель-нейросетку в своей папке на новую (сохрани старую где-то еще, что б не перекачивать) , делаешь то же самое название и радуешься эксклюзивным вайфу :)
Вчера пообещали скоро выпустить метод для изменения отдельных участков через текстовые запросы (https://www.reddit.com/r/StableDiffusion/comments/x98py5/reproducing_the_method_in_prompttoprompt_image/), может есть смысл дождаться его и выпускать вторую часть гайда :)
Сложно 😅
Это я упрашиваю нейросеть сделать огненный боевой молот, но у неё своё понимание, как это должно работать 🙃
зато оригинально - молот с требованиями к фаеррезисту у владельца
Всё-таки проще самому нарисовать, что ты хочешь :)
Пошагово:
1. Еще раз убедитесь, что у вас Nvidia 10XX с хотя бы 4гб видеопамяти.Я со своей 1050 издаю крик лягушки.
Не издавай, попробуй сборку Automatic111, в ней вроде в режиме lowram должно на 2гб пойти
https://alienspace.art/
Тут сайт понимает запросы на русском, и без всяких аккаунтов
А что за сайт?
Черт, как-то непохожа...
Бывает) С таким даже CodeFormer/GFPGAN не помогут
Помогает уменьшать внимание модели на актрису (в NMKD это через {} делается теперь) и указывать в запросе что-то про лицо.Например, тут запрос -
[Scarlett Johansson] wearing a red dress, in a (desert), beautiful symmetric face, symmetric, photo, mad max style
Negative prompt: bad, deformed, lackluster
Steps: 20, Sampler: Euler a, CFG scale: 7, Seed: 3824630837, Size: 512x512, Model hash: 7460a6fa
@Sergey Goryushko посоветуйте хороший upscale
Я пользуюсь тем, что встроены в сборки - RealESRGAN, меня устраивает, но я не нашел опций больше x4.
Максимум можно до x16 увеличить через обычный ESRGAN. Если какой-то специфичный объект улучшаешь, глянь список моделей - https://upscale.wiki/wiki/Model_Database , некоторые заточены под ткани, лица, кожу и пр.
Многим нравится Gigapixel AI, но он, как я понял, платный.
https://replicate.com/nightmareai/latent-sr ещё неплохой и https://replicate.com/jingyunliang/swinir
Апдейт - в сборку Automatic111 включили апскейл LDSR (тот же принцип, что и у самого Stable Diffusion, но спецом натренирован на апскейл, как я понял). Результаты у него красивые , но тоже только x4 пока.
Пример - оригинал https://i.imgur.com/MNdUiPL.png
Разные апскейлы - https://i.redd.it/uh9zod809mq91.jpg
Комментарий недоступен
Не, не совсем. При Load Image, он не по подобию создает, а будет пытаться повторить +- те же формы в новом изображении.При настройке силы в 0.5 , он повторяется основные очертания оригинала, а содержимое уже из запроса идет.
Embedding'ом сам еще не пользовался, но вот он как раз должен сначала научиться "стилю", а потом уже применять его к остальным изображениям. Попробуй вот тут посмотреть https://towardsdatascience.com/how-to-fine-tune-stable-diffusion-using-textual-inversion-b995d7ecc095
Добрый день! Установил по инструкции, но ни одной картинки не генерирует при нажатии на кнопку. Что такое может быть? видео 3060 12 Гб
Preparing to run Stable Diffusion - 5 Iterations, 50 Steps, Scales 8, 8, 512x512, Starting Seed: 1421603925
1 prompt with 5 iterations each and 2 scales each = 10 images total.
Loading...
No images generated. Log was copied to clipboard.
[00000006] [09-08-2022 13:38:40]: Traceback (most recent call last):
[00000007] [09-08-2022 13:38:40]: File "D:\StableDiffusionGui-v1.3.0\Data/repo/scripts/dream.py", line 12, in
[00000008] [09-08-2022 13:38:40]: import ldm.dream.readline
[00000009] [09-08-2022 13:38:40]: ModuleNotFoundError: No module named 'ldm'
Preparing to run Stable Diffusion - 50 Iterations, 50 Steps, Scales 9.5, 512x512, Starting Seed: 794864648
1 prompt with 50 iterations each and 1 scale each = 50 images total.
Loading...
No images generated. Log was copied to clipboard.
[00000014] [09-08-2022 13:42:52]: [UI] Preparing to run Stable Diffusion - 50 Iterations, 50 Steps, Scales 9.5, 512x512, Starting Seed: 794864648
[00000015] [09-08-2022 13:42:52]: [UI] 1 prompt with 50 iterations each and 1 scale each = 50 images total.
[00000016] [09-08-2022 13:42:52]: cmd.exe /C cd /D "D:\StableDiffusionGui-v1.3.0\Data" && call "D:\StableDiffusionGui-v1.3.0\Data\mb\Scripts\activate.bat" ldo && python "D:\StableDiffusionGui-v1.3.0\Data/repo/scripts/dream.py" --model stable-diffusion-1.4 -o "D:\StableDiffusionGui-v1.3.0\Data\sessions\2022-09-08-13-35-18\out" --from_file="D:\StableDiffusionGui-v1.3.0\Data\sessions\2022-09-08-13-35-18\prompts.txt"
[00000017] [09-08-2022 13:42:52]: [UI] Loading...
[00000022] [09-08-2022 13:42:53]: PostProcLoop end.
[00000023] [09-08-2022 13:42:53]: [UI] No images generated. Log was copied to clipboard.
[00000024] [09-08-2022 13:42:53]: SetWorking(False)
У меня было аналогичное, помог Re-Install, который там же, где установка остальных компонентов
Проблема в том, что у тебя почему-то не включилось нужное окружение anaconda. https://www.reddit.com/r/StableDiffusion/comments/wvodvf/modulenotfounderror_no_module_named_ldm/
Сейчас всё больше появляется смысла в тензорных ядрах и прочих ускорителях нейросетевых вычислений. Пора бы Nvidia и прочим компаниям выпускать такие вот отдельные устройства. Чисто нейросетевые процессоры NPU без шейдерных ядер и прочих штук от GPU.
Уже давно есть. Например, intel neural compute stick
1
Это конечно круто получилось, правда одно ухо длиннее другого.
Могло быть хуже...
Это прям очень круто получилось) А уши можно через inpaint попробовать поправить
Добавь тег в конце #StableDiffusion
@Нейро-искусство сделай репост
Большое руководство как работать с нейронкой на своём компе и ссылки на другие ресурсы.
https://mrdeepfakes.com/forums/threads/guide-using-stable-diffusion-to-generate-custom-nsfw-images.10289/
Вот одно из мест, где выкладываются готовые работы.
18+ NSFW контент на мой взгляд ошеломительно хорош🤯👍
https://discord.com/invite/KgyQbMK8bs
Извиняюсь за нубский вопрос. А программа не обращается к интернету за основами картинок? То есть все эти десятки и сотни гигабайт на собственном компьютере нужны именно из-за этого?
P.S. Сам пока пользовался только дискордными ботами и бесплатными онлайн генераторами.
Нет, не обращается после полной установки. Десятки гигабайт нужны из-за того, что сама модель, обученная на миллиардах картинок, весит от 2 до 8ГБ + нужное для работы программное обеспечение весит немало (в основном библиотеки для python тяжеловесные, весь графический интерфейс и код весит всего ничего)
Подскажите по ошибке
Вроде починили. Скачал версию 1.3.1, пять минут назад на сайте у них обновились конфиги и всё заработало.
Хм, там у многих сейчас какая-то ошибка такая вылезла
Пишут, что надо открыть файл (можно блокнотом) , который указан в последней строчке , в нем найдешь несколько лишних запятых . Для кого-то они находятся около "projection_dim": 768 (на строке 87 и 169), перед квадратной скобкой. Удаляешь эти запятые и сохраняешь файл (Ctrl+S), все должно заработать
Автор, на 3050ti (4Гб) даже не стоит пробовать? (ноут)
Попробуй, должно заработать и так в этом дистрибутиве. Не забудь выставить галочку на low memory mode.
Может потребуется разрешение изображения снизить, но должно влезть и 512*512.
Греться будет сильно :)
Друзья, кто ставил версию 1.8.0? У меня одного не апскейлится картинка или у всех так?
Попробовал, апскейлится. По-крайней мере через использование правой кнопки мыши- post-process
на radeon совсем без шансов?
Да не, есть уже и более- менее нормальные варианты, особенно если у тебя RDNA2-3. Глянь, например, сборку SHARK https://github.com/nod-ai/SHARK/blob/main/shark/examples/shark_inference/stable_diffusion/stable_diffusion_amd.md
У меня этих кнопок нигде нет и установщик выглядит так:
Что делать?
Не знаю, актуален ли ещё вопрос. Нужен питон 3.10.х версии и скачай 3 файла(https://nmkd.itch.io/t2i-gui/download/eyJpZCI6MTY4NDk3NCwiZXhwaXJlcyI6MTY4MzE0OTU0MX0%3d.ugcNZqtu3b48GcrKnYhT2sZal2s%3d), ну и распакуй в одну папку.
Сергей, подскажите, пожалуйста, что делать? Выполнял всё по вашей инструкции. Когда жму install, у меня выскакивает окошко с надписью "Do you want to download the Stable Diffusion ONNX/DirectML files? They are only needed if you have an AMD GPU". Жму да, устанавливается, и всё равно галочка не стоит, не могу пользоваться программой, при перезапуске вылазиет окошко с надписью "No complete installation of the Stable Diffusion files was found. The GUI will now open installer. Please press "Install" in the next window to install all required files. Но потом открывается окно, что на скрине и всё по новой. Я уже пролистал комменты тут, скачал отдельно этот Stable Diffusion, вставил в Data/models, но толку нет. Помогите, не знаю что делать =(
Компонент Stable diffusion code не может установиться, пишет "могло установиться не всё". Кто сталкивался?
Хотела бы уточнить, так как в программе вот эти две галочки никак не хотят ставиться, значит их придется качать отдельно от программы?
Я нашла интересный ресурс, наверное, придется качать оттуда. https://cyberes.github.io/stable-diffusion-models/
На всякий случай, нажимаете не на галочки, а на "Redownload SD Model", "Re-Install Upscalers".
Или кладете самостоятельно модель в SD-GUI-1.5.0\Data\models
Можно и вайфу-диффьюжен, которая есть по вашей ссылке)
От ssd скорость не увеличится?
Я думаю, что незначительно, повлиять должно разве что на сохранение/открытие изображений, а это и так быстрый процесс.Дольше всего сама картинка в видеопамяти формируется, ей должно быть все равно на то, где программа стоит.
Что делать. У мена 16 гб оперативки, но работает всё равно только в low memory режиме
https://github.com/AUTOMATIC1111/stable-diffusion-webui вот неплохая альтернатива, больше функций
Странно. А какая карта?
А она на 1060 с 3гб работать будет?
Эта сборка - скорее всего нет, а вариант от Automatic111 - да. Но 1 картинка генериться будет довольно долго.
Судя по числу вопросов, надо новый гайд писать на ту сборку)
А что делать если при апскейле все изображения становсятся темными и бледными? Версия 1.5.0
Прикольный котик) Попробуй вторую сборку (https://dtf.ru/howto/1379961-izuchaem-vozmozhnosti-stable-diffusion-chast-2), там много разных апскейлеров на выбор. Для шерсти LSDR очень хорошо работает
помогите пожалуйста, скачал версию 1.7.1 - когда в настройках ставлю Low Mode исчезает строчка Sampler. Далее, начал генерировать вроде что то было, решил попробовать сделать микс из фото и текста. Загрузил фотку, ввел текст и всё - прогоняет, в итоге зеленый квадрат. Делаю без фотки просто текст - тоже самое.
короче разобрался сам))) тока так и не понял как делать обнаженку - добавляю фотку, пишу запрос а нейросетка ее не раздевает.
Привет!
Не генерируется изображение.
"Done!" не появляется. Сверху крутится бесконечно зеленая хрень.
Нечто похожее бывает, когда не создаешь папку для сохранения изображений(https://www.reddit.com/r/StableDiffusion/comments/x1xdvl/stable_diffusion_gui_not_working/). В пути до изображений нет кириллицы, случаем ?
Не подскажите почему у меня при любых запросах генерирует лишь зеленый цвет? :( Все делал по инструкции.
Комментарий недоступен
Без загруженного изображения тоже?
Сам не сталкивался с таким. Там около настроек есть логи, попробуй их посмотреть, может там на ошибку укажет в доступе к модели/еще чему-то
Друзья, кто ставил версию 1.8.0? У меня одного не апскейлится картинка или у всех так?
Да, у меня тоже никакого эффекта
ТС, а если у меня нет настройки "sampler" ?
как ее вернуть? (сразу после установки)
Не понимаю, почему у тебя такой интерфейс. Мой выглядит даже на 1.6.0 вот так, семлеры на месте
О, 1.6 вышла, прикольно) Сейчас скачаю и посмотрю
Народ, кто-нибудь сталкивался с такой ошибкой? Не понимаю, что за служба имеется ввиду и как её установить. Первая генерация после запуска проходит нормально, при повторной попытке выскакивает эта ошибка. Пробовал переустанавливать - не помогло.
Похоже на вот это - https://github.com/n00mkrad/text2image-gui/issues/46
У тебя, часом, не Win7?
Автор, подскажи пожалуйста, ты сталкивался с такой ошибкой?
При нажатии на кнопку "Generate" вылетает
А в чём разница, что конкретно скачивать?
Качай первое, если не хочешь отдельно скачивать и устанавливать базовую модель для отрисовки. Если решил, что тебе нужна не базовая, а какая-нибудь анимешная (Waifu Diffusion/ NovelAI) - качай второе
Из-за чего может ошибка? уже 3 раза переустанавливал с нуля
Ты какую модель скачал? Если 2.0 - попробуй с 1.5
Ребят, подскажите плиз в чем причина(нажимаю Download SD model)
Пишет слева внизу, что ошибка при загрузке и просит посмотреть логи. Глянь их, они справа от кнопки инсталляции.
Если не понятно в них ничего - кидай сюда
При открытии приложения выдало вот это
А если используешь сборку от AMD radeon, недавнего выпуска, от этого что-то должно поменяться?
Да, с AMD отдельные танцы с бубном для установки нужны :( https://rentry.org/ayymd-stable-diffustion-v1_4-guide . Попробуй по этому гайду, вдруг получится. Увы, нет никакой красной карты под боком для теста(
Удалил сообщение.
.
ВАУ!!! 🤯 Какая крутая нейронка! Да ещё и на собственном компе можно использовать!
Да ещё и 18+ NSFW можно генерировать!!! 🤯🤯🤯🤯🤯🤯
А можно её дообучать? На пример, на хентай манге? 😋
Надеюсь, поскорее такие нейронки встроят в редакторы изображений, чтобы можно было чётко указать что, где и как именно изменить, перерисовать и дорисовать на картинке.👍👍👍👍👍👍
Dall-e 2 уже умеет редактировать изображение. Но доступ к Dall-e 2 сильно ограничено. Поскорее бы люди получили неограниченный доступ к таким нейронкам. Это супер важно. Особенно для NSFW сегмента.
https://habr.com/ru/news/t/659641/
О, это же WPF!
Комментарий недоступен
Доброго дня, такая проблема возникает каждый раз при нажатии Generate/ Подскажите куда копать?
Кажется, что проблема Half/Float - это как раз то, что возникает у владельцев 16XX серии видеокарт. Попробуй повключать/поотключать low memory, full precision в настройках
Кто подскажет, в чём проблема?Уже несколько раз пробовал всё переустанавливать, качать заново архив - не помогло
Попробуй поставить сборку от Automatic111. https://github.com/AUTOMATIC1111/stable-diffusion-webui. Как дойдут руки - сделаю гайд по ней. Сейчас как-то не до того(
У меня сейчас возник вопрос, как обучать данную систему? есть ли такая вообще возможность?
Да, есть. Сейчас популярны 2 метода, Textual Inverison| и Dreambooth https://www.reddit.com/r/StableDiffusion/comments/xqi1t4/textual_inversion_versus_dreambooth/. Последнему нужно много видеопамяти
выскакивает, когда нажимаю generate, что делать?
В интересную папку запихнул) Пишет, что не видит нужные питоновские библиотеки. Во вкладке установки попробуй перекачать репозиторий и переустановить все
Что я делаю не так? И перекачивал и переустанавливал.
Погуглил, ошибка в том, что не может подключится и выкачать что-то. Может, политика безопасности/VPN не позволяет?
А вот например эта версия
( https://colab.research.google.com/drive/1jUwJ0owjigpG-9m6AI_wEStwimisUE17#scrollTo=Ucr5_i21xSjv ), может заменить эту сборку? Так как она все-таки не установилась.
Может, да. Коллабы даже ставить не надо, все у гугла запускается.
ребят, кто-нибудь сталкивался?
16XX серия видеокарты? Если да, попробуй включить Full-precision|low memory mode в настройках
такая вот проблема , вроде о ней тут еще не писали
Re-install SD code и Re-Install обычный во вкладке установщика не помогают? Потому что ругается на отсутствие части нужного когда самого stable diffusion
А как это работает? Всё создаётся исключительно силами ПК, без интернета?
Да
у кого 1050ti советую stable difussion в webui от automatic1111, через него довольно быстро генерится
А если у меня не Nvidia 10XX, a AMD Radeon(TM) Graphics? Будет работать?
Там очень много приседаний потребуется сделать, либо запускать на процессоре. Можно попробовать другую сборку, например https://github.com/azuritecoin/OnnxDiffusersUI. Будет нечто среднее по скорости между запуском на процессоре/ Nvidia аналогичного уровня
Есть вопрос: А как делать негативные подсказки тут?
Начиная с версии 1.5 - помещая слова в []. Запрос будет выглядеть как "Супер красивое чудо-юдо [уродливое, скучное, корявое]"
помогите пожалуста, непонятно что делать.
Перенеси в папку, где нет кириллицы. В корневую папку диска, например
Сэмплов нет в Low Memory Mode, может из за моей карты - 1650?
функwией "load concept" как пользоваться????
Судя по всему, счастливым обладателям интегрированных ГПУ (и для кого код на питоне это китайская грамота) ловить тут нечего... Хотя у меня версия 1.8.0. встала и даже заработала. (Ryzen3 2300 + GPU Vega, 16 GB RAM). Но чтобы генерить, это надо вечером сделать запрос, к утру результат будет... Пока тренируюсь на кошках, если будет генерить NSWF, может быть подумаю о нормальной видяхе. Первый образец вышел не лучше, чем у пресловутой WomboDream (но та нейросеть походу сломалась окончательно).
night bomber motorhead high resolution
(monochrome)
448*640
Прочее по умолчанию, ошибок не выдаёт.
Всё-таки приложение 1.8.0. выпало в ошибки на пятом изображении. После чего запуск генерации стал невозможным, выдаёт сообщение (скрин). Файл находится на месте, в папке models, указать вручную местоположение ни к чему не приводит. Нашёл в настройках выбор процессора AMD, но пока неясно, будет ли работать. И тоже неясно, как включается апскейл.
UPD: Ошибка исчезла после перезапуска с настройками GPU для честных Nvidia. Но если выбрать процессор AMD, строка пути к файлу модели sd-v1-5-fp16.ckpt становится пустой, и выбрать путь невозможно.
Вопрос странный, но всё-таки спросить думаю можно - почему мой антивирусник ругался на wkl.exe? Он находится в Data -> bin
А почему мой антивирусник ругался на wkl.exe? Он вообще необходим для работы SD, но вот немного напряжно. Да и дата изменения у него значится 2018 года, а не 2022 как у других.
Проверил на virustotal, никто не ругается. По описанию - утилита для убивания процессов в винде
Версия на MAc os имеется?
Да. Обычно рекомендуют https://github.com/invoke-ai/InvokeAI
Я никак не могу понять, почему каждый раз когда я что то прошу сделать, нейросеть рисует миллион ног, 4 глаза и вместо нормального тела странное подобие желе. Что делать? Не понимаю, можно ли заставить ее делать не мутантов.
Подозреваемых несколько - 1) Неправильное разрешение изображений. Например, ты 768*768 врубил, а highres.fix - нет. Части изображения могут быть задублированы тогда
2) Неудачная модель или запрос, у которой трейсер была в обучающей выборке, но с очень хреновой разметкой
3) В negative promt что-то вставлял?
P.SТрейсер не очень сложно сгенерить сейчас, есть готовый эмбеддинг https://civitai.com/models/5593/corneos-tracer-overwatch-ti-embedding