{"id":4094,"url":"\/distributions\/4094\/click?bit=1&hash=9d794bcd6120e613dd479f448eb38d23f5bf2998d46cacb8cc7673cfb9db5949","title":"\u0417\u0430\u0447\u0435\u043c \u0410\u043b\u044c\u0444\u0430-\u0411\u0430\u043d\u043a\u0443 \u043c\u0438\u0448\u043a\u0430-\u0431\u0443\u043d\u0442\u0430\u0440\u044c, \u043a\u043e\u0442\u0438\u043a \u0414\u0437\u044b\u043d\u044c \u0438 \u0447\u0451\u0440\u043d\u0430\u044f \u0443\u0442\u043e\u0447\u043a\u0430?","buttonText":"","imageUuid":""}

Как пользоваться нейросетью Stable Diffusion

Если вы, как и я, не имеете доступа к DALL·E 2, уже потратили свои попытки с Midjourney, а продолжать генерировать изображения хочется.

"Grant Theft Democracy" от volksvargas

0. Дисклеймер

Вся информация в этом гайде (и часть картинок) взята с разных постов реддита r/StableDiffusion. Рекомендую отслеживать его, если хотите быть в курсе появляющихся новых возможностей программы, найденных лайфхаках для генерации или если у вас появляется вопрос, с которым не помогает гугл.

В этом гайде я в основном описываю шаги, которых будет достаточно пользователю на Windows с видеокартами Nvidia 10XX с 4-6 гигабайтами видеопамяти и выше для запуска на своем компе. Если у вас мощная карта от красных - возможно, вам поможет вот этот гайд.

Все меняется крайне быстро и я не гарантирую, что все шаги будут актуальны через неделю-другую.

1. Введение. Что еще за Stable Diffusion?

Stable Diffusion - программа с открытым исходным кодом от группы Stability.Ai , выпущенная в публичный доступ 22 августа, состоит из 2х больших частей - собственно, обученной нейросети (сейчас доступна версия 1.4, скоро будет доступна 1.5 - в ней обещают более качественные лица/глаза/руки) и обвязки, ее вызывающей.

Результаты ее работы похожи на DALL·E и Midjourney (мне с друзьями показалось, что в среднем Midjourney рисует чуть выразительнее, а Stable Diffusion более четко следует запросу при настройках по умолчанию), главное преимущество с точки зрения пользователя сейчас - нет ограничений на генерируемые изображения (NSWF фильтр есть в оригинале, но легко снимается) и все бесплатно.

"Бесплатно", запрос от меня -  Ryan Gosling smiling, symmetric highly detailed eyes, trending on artstation, portrait, digital art, masterpice, by Vladimir Kush and Scott Naismith

Сообщество растет быстро и уже сейчас есть куча разных вариантов работы с нейросетью:

  • Базовый - через консоль. Для тех, кто не боится python и/или чуть-чуть потрогать код. Если готовы - выкачиваете с гитхаба подходящий вам по каким-то соображениям вариант (Исходный вот тут ; вариант для запуска с меньшими затратами видеопамяти и кучей дополнительных опций - тут) и следуете гайду по настройке окружения/запуска (для исходника - вот, для второго варианта - вот). Плюсы - вам проще будет интегрировать новые появляющиеся методы генерации изображений и вы чуть лучше разберетесь в том, как это все работает.
  • Через браузер (например, на этом сайте без регистрации и настроек , на этом - с регистрацией и разными настройками ). Плюсы - доступно с любого устройства и ничего не надо устанавливать. Минусы - медленно, меньше возможностей, в любой момент ваш любимый сайт может свернуться из-за наплыва пользователей/желания создателей.
  • Через графический интерфейс и установщик. Мне кажется, такой способ должен быть привычнее большинству пользователей Windows, поэтому его и опишу. Минусы - не факт, что в графическом интерфейсе будут все нужные вам настройки. Плюсы - все наглядно и не надо ничего знать про всякие питоны, анаконды, пип-инсталлы, командные консоли...

2. Установка на своём компьютере

Пошагово:

1. Еще раз убедитесь, что у вас Nvidia 10XX с хотя бы 4гб видеопамяти. Быстро проверить можно, зайдя в диспетчер задач (Ctrl+Shift+Esc), вкладку "производительность", раздел "Графический процессор" и посмотрев на строку "Выделенная память графического процессора".

2. Скачиваете программу-установщик от NMKD

Нажимаете на красную кнопку "Download now" и решаете, поддержать ли вам разработчика деньгами или вы хотите скачать просто так. Никаких ограничений на вас не накладывается, если вы решите не платить. На следующей странице просто нажимаете "Download" и сохраняете архив там, где вам удобно. Весит 3 гигабайта.

3. Извлекаете содержимое архива куда вам удобно. Автор программы не рекомендует прятать ее очень глубоко из-за возможных ограничений на максимальную длину пути в файловой системе, но в данном случае это не так важно. Учтите, что программа + нейросети суммарно весят уже 11 гигабайт. У меня стоит на SSD, но не думаю, что это дает какую-либо ощутимую прибавку по скорости работы.

4. В распакованном архиве запускаете StableDiffusionGui.exe, соглашаетесь с возможными багами, и нажимаете на иконку установщика.

Экран приложения

5. Последовательно нажимаете на "Download SD model", "Clone Repo", "Install Upscalers" и ждете, пока каждый из них скачается/установится. Прогресс можно наблюдать в левом нижнем углу приложения. Мне еще пришлось после этого делать Re-install, но вам может не пригодиться. Все поля должны быть отмечены галочками, если все прошло успешно.

Так установщик выглядит после всех процедур.

6. Последний шаг - настраиваем место сохранения результатов и потребление видеопамяти. Заходим в настройки, отмечаем галочкой Low Memory Mode (если у вас меньше 8 гб видеопамяти), выбираем место сохранения результатов и то, надо ли создавать отдельную папку под каждый новый запрос к нейросетке. Я рекомендую создавать под-папки, так проще потом делиться результатами с остальными. Если вдруг ваш запрос к нейросети очень длинный и Windows не создаст папку с таким названием - картинки сохранятся в базовой указанной вами папке.

У меня настройки выглядят так

Поздравляю, вы справились!

3. Генерируем изображения по тексту

Самый базовый вариант:

Вбиваете в поле Promt свой запрос, нажимаете Generate, ждете.

SD фанатет от Bomberman? Запрос неконкретный, результат - тоже

Какие настройки на что влияют (Подробнее - читайте в гайде):

  • Сколько изображений нагенерировать. Больше изображений - дольше генерация, все просто.
  • Steps - сколько шагов ИИ сделает в попытке выполнить ваш запрос. В теории, чем больше шагов, тем дольше обрабатывается запрос и качественнее результат, но на практике улучшение заметно не всегда. Для разных Sampler (о них ниже) оптимальное число шагов разное. По умолчанию рекомендуют 30-50. Если вас не устраивает какая-то часть изображения (например, глаза), лучше не увеличивать число шагов, а детализировать текстовый запрос к этой корявой части
  • Creativeness (Guidance Scale) - насколько ИИ волен к интерпретации вашего запроса и должен ли он учитывать все его части. 2-6 - ИИ творит, что хочет, 7-11 - половину от вашего запроса возьмет, половину додумает, 12-15 - Постарается учесть большую часть вашего запроса, 16+ - Что написали, то и реализует. По умолчанию рекомендуется значение 8. Уверены в своем описании - 12.
  • Seed - откуда ИИ будет стартовать свою отрисовку. Разные стартовые точки = разные итоговые результаты. Если вам не важна повторяемость результата - ставьте значение минус 1 . Если вы пытаетесь улучшить свой текстовый запрос - лучше зафиксируйте какое-то конкретное стартовое число и не меняйте его.
  • Resolution - исходный разрешение получаемого изображения. Больше разрешение = больше видеопамяти нужно для генерации изображения. Нюансы - По умолчанию Stable Diffusion натренирован на изображениях 512*512, их он отрисовывает лучше всего. 256*256 - получается вырвиглазное нечто. Сделаете больше 512 - скорее всего он будет дублировать части изображения несколько раз в разных местах. Если вам нужно просто изображение большего разрешения, но с +- тем же числом деталей - лучше воспользоваться апскейлером (о них позднее). Не обязательно делать квадратные изображения, . Ходят слухи, что будет выпущена модель, обученная на 1024*1024 изображениях, но пока работаем с чем есть.
  • Sampler. Я не знаю, как это работает "под капотом" (желающие объяснить - Welcome!), но с разными вариантами изображения генерируется немного по-разному. Наглядно это представлено на этом скрине:
Взято здесь .Первая и последняя строчка съехали относительно друг от друга на 1 позицию

Как это описывает сообщество:

k_lms: The Old Reliable.Вариант по-умолчанию. Каждый шаг отрабатывается сравнительно быстро, но для хорошего результата нужно 50-80 шагов.

k_ddim: The Speed Demon. Хорош уже на 8 шагах, что позволяет быстро перебирать множество вариантов.

k_euler_a: The Chameleon. Быстр, что-то интересное выдает уже на 8-16 шагах, но с каждым шагом изображение может кардинально поменяться.

k_dpm_2_a: The Starving Artist . Медленный на каждом шаге, нужно больше шагов для генерации приличного качества (50-80), но результат дает чуть более детализированный, по сравнению с тем же k_euler_a.

Для начала я обычно генерю с k_euler_a и 20 шагами. Если корявые глаза-руки, а в остальном норм - ставлю k_dpm_2_a и 75 шагов.

3.5 Особенности текстовых запросов

Если вы уже знакомы с Midjourney и тем, как хорошо генерировать запросы для него - переносите свои навыки на Stable Diffusion, только помните, что здесь нет команд вроде --wallpaper, --beta и нет опции разделять сущности через :: (можно через веса, об этом позже)

Если нет - я бы рекомендовал начать с Midjourney, по нему есть прекрасный гайд на ДТФ. Так как там вы в реальном времени смотрите, как другие люди создают и уточняют свои запросы и что при этом выдает нейросеть в каждой модификации.

Как пользоваться Midjourney или как не потратить впустую 25 круток (полный гайд)

Все вокруг говорят о волшебном ИИ, который способен создать шедевры из текстовых запросов пользователей интернета. Это первый пост в недавно созданном сообществе Midjourney, который является полной инструкцией к применению.

Если же сил возиться с еще одной нейросетью нет - Уже существуют сайты, на которых вы можете посмотреть, что выдаст SD при том или ином запросе (https://lexica.art/). Посмотрите на то, как люди формируют запросы по сходной тематике, вдохновитесь и используйте их как основу для своих собственных изображений. Удаляйте части запроса, добавляйте новые и смотрите к какому результату это приводит. Посмотрите на самые популярные работы в сообществе и как к ним был составлен текст.

Можете попробовать использовать генераторы описаний, в которых уже есть какие-то известные элементы описаний, на которые реагирует ИИ. Например, вот этот

Сейчас считается, что чем конкретнее и многословнее будет ваш запрос - тем лучше. Описывайте одно и то же разными словами. Хотите высокой детализации? Пишите "Masterpice, high quality, ultra-detailed, 4k" и что-нибудь еще. Или указывайте автора, рисующего в гипер-реалистичной манере через запрос "by %Фамилия-Имя автора%, из тех ,что есть в датасете LAION. Или даже несколько похожих авторов сразу.Или непохожих, для большей художественности. Что мешает смешать Моне и Ван Гога? Синьяка и Хокусая?

Учтите, что больше 75 слов за раз SD не воспринимает.

Важен также и порядок слов в запросе - чем ближе к началу, тем, по-умолчанию, больший вес этому слову придаст нейросеть. Так что ставьте на первые места те элементы, которые точно должны быть в изображении.

Хорошо сразу вряд-ли получится, не волнуйтесь. Для того, что бы получилось что-то, что уже хочется показать, обычно надо перебрать много разных модификаций одного и того же запроса, да еще и с разными настройками. Именно поэтому и не рекомендую начинать с k_lms и 50 шагами - когда генерируешь 100 разных запросов, имеет значение, сколько отрабатывает каждый из них.

Есть возможность вручную указывать веса для каждого элемента (насколько нейросеть должна учесть каждый). После целой фразы ставите ":xx", где xx - вес этого элемента при генерации.В сумме веса всех элементов должны давать 100. Пример запроса для генерации наполовину мини-дракона, наполовину - хорька под картинкой

a small cute blue dragon perched on a footstool, photography, Canon EOS, color, cinematic postprocessing:55 a cute brown ferret perched on a footstool, photography, Canon EOS, color, cinematic postprocessing:45 . От Smashcolor

4.Модификация готового изображения

Замечательная опция, о которой многие забывают - можно дать изображение, которое выступит основой для генерации.

Фотография моего коллеги в стиле Анри Руссо

У вас появится возможность настроить вес вашего исходного изображения и текстового описания, которое послужит основной для модификации. В данной программе чем ближе выставите слайдер Strength к 0, тем больше изображение будет похоже на текстовое описание. Чем ближе к 1 - тем больше на исходное изображение.

Я обычно выставляю около 0.4-0.6, получается сохранить детали и запроса и исходника. Когда ставлю больше 0.6 с фотографиями людей начинается творится хтонический ужас. Меньше - слишком далеко от оригинала.

5. А что дальше?

Начните уже что-то генерировать, получайте от этого удовольствие и дарите его другим. Следите за тем, какие новые возможности и удачные примеры появляются в сообществе на гитхабе/реддите и других площадках. Попробуйте освоить генерацию по образцу, когда вы используете набор изображений в качестве маленькой обучающей выборки, и потом генерируете изображения в этом новом "стиле".

Попробуйте использовать различные улучшатели изображений. В описываемом мной варианте есть два разных, один - для повышения разрешения, второй - для повышения качества лиц (RealESRGAN и GFPGAN)

Вызов апскейлера и корректировщика лиц скрывается под этой кнопкой.

Удачи! Делитесь не только интересными результатами, но и удачными комбинациями запросов и настроек!

0
304 комментария
Написать комментарий...
Vitt St

А где инструкция для снятия запрета на NSFW?)

Ответить
Развернуть ветку
Sergey Goryushko
Автор

В том дистрибутиве, который я описываю в гайде, он и так снят. В веб-сервисах обычно есть приписка, есть ли цензура результатов. Генерирует получше той специализированной порно-сетки, как мне показалось

Для продвинутых - https://www.reddit.com/r/StableDiffusion/comments/wv2nw0/tutorial_how_to_remove_the_safety_filter_in_5/

Ответить
Развернуть ветку
Владимир Семёнов

ВАУ!!! 🤯 Какая крутая нейронка! Да ещё и на собственном компе можно использовать!
Да ещё и 18+ NSFW можно генерировать!!! 🤯🤯🤯🤯🤯🤯

А можно её дообучать? На пример, на хентай манге? 😋

Надеюсь, поскорее такие нейронки встроят в редакторы изображений, чтобы можно было чётко указать что, где и как именно изменить, перерисовать и дорисовать на картинке.👍👍👍👍👍👍

Ответить
Развернуть ветку
3 комментария

Комментарий удален модератором

Развернуть ветку
SimpSlayer

Оно того стоило)

Ответить
Развернуть ветку
Гус Гус
Ответить
Развернуть ветку
Гус Гус

Пёс-самурай в традиционном стиле вышел очень даже ничего.

Ответить
Развернуть ветку
Saratustra
Ответить
Развернуть ветку
Василий Пубкин

Этот неловкий момент когда попросили изобразить пользователей, а в интернетах есть только фотки редакции.

Ответить
Развернуть ветку
Sergey Goryushko
Автор

Справа вверху - почти что я ;)

Ответить
Развернуть ветку
splinefx

Спасибо за гайд. Вопрос, при сиде -1 полученные рандомные сиды где-то сохраняются? Чтобы, например, нагенерить штук 10–20 вариантов рандомно с низкими настройками, а потом просмотреть все, взять сиды для понравившихся и уже дожимать их на более высоких настройках?

Ответить
Развернуть ветку
Sergey Goryushko
Автор

Да, в названии каждого файла по умолчанию прописывается конфигурация и сид

В моем примере у каждого файла подпись вида "2022-09-07-22-08-16-04-203464532-scale8.00-k_euler_a-04". 203464532 - сид

Ответить
Развернуть ветку
BloodForce

Крутая статья, есть шансы на гайд по расширению функционала ? там про какие-то модели пишут на реддите но я пока не шарю где, что и как .

Ответить
Развернуть ветку
Sergey Goryushko
Автор

Про textual Inversion (те самые эмбеддинги) / inpainting или про Waifu Diffusion? С первыми сам не игрался еще, хочу на следующей неделе, во втором просто подменяешь саму модель-нейросетку в своей папке на новую (сохрани старую где-то еще, что б не перекачивать) , делаешь то же самое название и радуешься эксклюзивным вайфу :)

Вчера пообещали скоро выпустить метод для изменения отдельных участков через текстовые запросы (https://www.reddit.com/r/StableDiffusion/comments/x98py5/reproducing_the_method_in_prompttoprompt_image/), может есть смысл дождаться его и выпускать вторую часть гайда :)

Ответить
Развернуть ветку
2 комментария
Igorious

Сложно 😅
Это я упрашиваю нейросеть сделать огненный боевой молот, но у неё своё понимание, как это должно работать 🙃

Ответить
Развернуть ветку
н0унейм

зато оригинально - молот с требованиями к фаеррезисту у владельца

Ответить
Развернуть ветку
Igorious

Всё-таки проще самому нарисовать, что ты хочешь :)

Ответить
Развернуть ветку
3 комментария
Обычный кот
2. Установка на своём компьютере

Пошагово:

1. Еще раз убедитесь, что у вас Nvidia 10XX с хотя бы 4гб видеопамяти.

Я со своей 1050 издаю крик лягушки.

Ответить
Развернуть ветку
Sergey Goryushko
Автор

Не издавай, попробуй сборку Automatic111, в ней вроде в режиме lowram должно на 2гб пойти

Ответить
Развернуть ветку
Гладкий Я
Ответить
Развернуть ветку
Гладкий Я

Тут сайт понимает запросы на русском, и без всяких аккаунтов

Ответить
Развернуть ветку
Максим Сергеевич

А что за сайт?

Ответить
Развернуть ветку
Mich Belskij

Черт, как-то непохожа...

Ответить
Развернуть ветку
Sergey Goryushko
Автор

Бывает) С таким даже CodeFormer/GFPGAN не помогут

Помогает уменьшать внимание модели на актрису (в NMKD это через {} делается теперь) и указывать в запросе что-то про лицо.Например, тут запрос -
[Scarlett Johansson] wearing a red dress, in a (desert), beautiful symmetric face, symmetric, photo, mad max style
Negative prompt: bad, deformed, lackluster
Steps: 20, Sampler: Euler a, CFG scale: 7, Seed: 3824630837, Size: 512x512, Model hash: 7460a6fa

Ответить
Развернуть ветку
4 комментария
old yellow king

@Sergey Goryushko посоветуйте хороший upscale

Ответить
Развернуть ветку
Sergey Goryushko
Автор

Я пользуюсь тем, что встроены в сборки - RealESRGAN, меня устраивает, но я не нашел опций больше x4.

Максимум можно до x16 увеличить через обычный ESRGAN. Если какой-то специфичный объект улучшаешь, глянь список моделей - https://upscale.wiki/wiki/Model_Database , некоторые заточены под ткани, лица, кожу и пр.

Многим нравится Gigapixel AI, но он, как я понял, платный.

Ответить
Развернуть ветку
Blessfall
Ответить
Развернуть ветку
Sergey Goryushko
Автор

Апдейт - в сборку Automatic111 включили апскейл LDSR (тот же принцип, что и у самого Stable Diffusion, но спецом натренирован на апскейл, как я понял). Результаты у него красивые , но тоже только x4 пока.
Пример - оригинал https://i.imgur.com/MNdUiPL.png
Разные апскейлы - https://i.redd.it/uh9zod809mq91.jpg

Ответить
Развернуть ветку
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
Sergey Goryushko
Автор

Не, не совсем. При Load Image, он не по подобию создает, а будет пытаться повторить +- те же формы в новом изображении.При настройке силы в 0.5 , он повторяется основные очертания оригинала, а содержимое уже из запроса идет.
Embedding'ом сам еще не пользовался, но вот он как раз должен сначала научиться "стилю", а потом уже применять его к остальным изображениям. Попробуй вот тут посмотреть https://towardsdatascience.com/how-to-fine-tune-stable-diffusion-using-textual-inversion-b995d7ecc095

Ответить
Развернуть ветку
1 комментарий
konservator

Добрый день! Установил по инструкции, но ни одной картинки не генерирует при нажатии на кнопку. Что такое может быть? видео 3060 12 Гб

Preparing to run Stable Diffusion - 5 Iterations, 50 Steps, Scales 8, 8, 512x512, Starting Seed: 1421603925
1 prompt with 5 iterations each and 2 scales each = 10 images total.
Loading...
No images generated. Log was copied to clipboard.

[00000006] [09-08-2022 13:38:40]: Traceback (most recent call last):
[00000007] [09-08-2022 13:38:40]: File "D:\StableDiffusionGui-v1.3.0\Data/repo/scripts/dream.py", line 12, in
[00000008] [09-08-2022 13:38:40]: import ldm.dream.readline
[00000009] [09-08-2022 13:38:40]: ModuleNotFoundError: No module named 'ldm'
Preparing to run Stable Diffusion - 50 Iterations, 50 Steps, Scales 9.5, 512x512, Starting Seed: 794864648
1 prompt with 50 iterations each and 1 scale each = 50 images total.
Loading...
No images generated. Log was copied to clipboard.
[00000014] [09-08-2022 13:42:52]: [UI] Preparing to run Stable Diffusion - 50 Iterations, 50 Steps, Scales 9.5, 512x512, Starting Seed: 794864648
[00000015] [09-08-2022 13:42:52]: [UI] 1 prompt with 50 iterations each and 1 scale each = 50 images total.
[00000016] [09-08-2022 13:42:52]: cmd.exe /C cd /D "D:\StableDiffusionGui-v1.3.0\Data" && call "D:\StableDiffusionGui-v1.3.0\Data\mb\Scripts\activate.bat" ldo && python "D:\StableDiffusionGui-v1.3.0\Data/repo/scripts/dream.py" --model stable-diffusion-1.4 -o "D:\StableDiffusionGui-v1.3.0\Data\sessions\2022-09-08-13-35-18\out" --from_file="D:\StableDiffusionGui-v1.3.0\Data\sessions\2022-09-08-13-35-18\prompts.txt"
[00000017] [09-08-2022 13:42:52]: [UI] Loading...
[00000022] [09-08-2022 13:42:53]: PostProcLoop end.
[00000023] [09-08-2022 13:42:53]: [UI] No images generated. Log was copied to clipboard.
[00000024] [09-08-2022 13:42:53]: SetWorking(False)

Ответить
Развернуть ветку
Sergey Goryushko
Автор

У меня было аналогичное, помог Re-Install, который там же, где установка остальных компонентов

Проблема в том, что у тебя почему-то не включилось нужное окружение anaconda. https://www.reddit.com/r/StableDiffusion/comments/wvodvf/modulenotfounderror_no_module_named_ldm/

Ответить
Развернуть ветку
15 комментариев
Владимир Семёнов

Сейчас всё больше появляется смысла в тензорных ядрах и прочих ускорителях нейросетевых вычислений. Пора бы Nvidia и прочим компаниям выпускать такие вот отдельные устройства. Чисто нейросетевые процессоры NPU без шейдерных ядер и прочих штук от GPU.

Ответить
Развернуть ветку
Максим Хорошов

Уже давно есть. Например, intel neural compute stick

Ответить
Развернуть ветку
Владимир Семёнов

1

Ответить
Развернуть ветку
Batman

Это конечно круто получилось, правда одно ухо длиннее другого.

Ответить
Развернуть ветку
Kiboune

Могло быть хуже...

Ответить
Развернуть ветку
Sergey Goryushko
Автор

Это прям очень круто получилось) А уши можно через inpaint попробовать поправить

Ответить
Развернуть ветку
1 комментарий
NECROID

Добавь тег в конце #StableDiffusion
@Нейро-искусство сделай репост

Ответить
Развернуть ветку
Владимир Семёнов

Большое руководство как работать с нейронкой на своём компе и ссылки на другие ресурсы.
https://mrdeepfakes.com/forums/threads/guide-using-stable-diffusion-to-generate-custom-nsfw-images.10289/

Ответить
Развернуть ветку
Владимир Семёнов

Вот одно из мест, где выкладываются готовые работы.
18+ NSFW контент на мой взгляд ошеломительно хорош🤯👍
https://discord.com/invite/KgyQbMK8bs

Ответить
Развернуть ветку
Romero Beretta

Извиняюсь за нубский вопрос. А программа не обращается к интернету за основами картинок? То есть все эти десятки и сотни гигабайт на собственном компьютере нужны именно из-за этого?
P.S. Сам пока пользовался только дискордными ботами и бесплатными онлайн генераторами.

Ответить
Развернуть ветку
Sergey Goryushko
Автор

Нет, не обращается после полной установки. Десятки гигабайт нужны из-за того, что сама модель, обученная на миллиардах картинок, весит от 2 до 8ГБ + нужное для работы программное обеспечение весит немало (в основном библиотеки для python тяжеловесные, весь графический интерфейс и код весит всего ничего)

Ответить
Развернуть ветку
6 комментариев
L8OLOOE

Подскажите по ошибке

Ответить
Развернуть ветку
Призрак космического рейнджера

Вроде починили. Скачал версию 1.3.1, пять минут назад на сайте у них обновились конфиги и всё заработало.

Ответить
Развернуть ветку
Sergey Goryushko
Автор

Хм, там у многих сейчас какая-то ошибка такая вылезла

Пишут, что надо открыть файл (можно блокнотом) , который указан в последней строчке , в нем найдешь несколько лишних запятых . Для кого-то они находятся около "projection_dim": 768 (на строке 87 и 169), перед квадратной скобкой. Удаляешь эти запятые и сохраняешь файл (Ctrl+S), все должно заработать

Ответить
Развернуть ветку
2 комментария
Mich Belskij

Автор, на 3050ti (4Гб) даже не стоит пробовать? (ноут)

Ответить
Развернуть ветку
Sergey Goryushko
Автор

Попробуй, должно заработать и так в этом дистрибутиве. Не забудь выставить галочку на low memory mode.
Может потребуется разрешение изображения снизить, но должно влезть и 512*512.
Греться будет сильно :)

Ответить
Развернуть ветку
Юрий

Друзья, кто ставил версию 1.8.0? У меня одного не апскейлится картинка или у всех так?

Ответить
Развернуть ветку
Sergey Goryushko
Автор

Попробовал, апскейлится. По-крайней мере через использование правой кнопки мыши- post-process

Ответить
Развернуть ветку
3 комментария
Wiv Artli

на radeon совсем без шансов?

Ответить
Развернуть ветку
Sergey Goryushko
Автор

Да не, есть уже и более- менее нормальные варианты, особенно если у тебя RDNA2-3. Глянь, например, сборку SHARK https://github.com/nod-ai/SHARK/blob/main/shark/examples/shark_inference/stable_diffusion/stable_diffusion_amd.md

Ответить
Развернуть ветку
6 комментариев
Raymond Barrow
5. Последовательно нажимаете на "Download SD model", "Clone Repo", "Install Upscalers" и ждете, пока каждый из них скачается/установится.

У меня этих кнопок нигде нет и установщик выглядит так:

Ответить
Развернуть ветку
Nikolay Dmitriev

Что делать?

Ответить
Развернуть ветку
Hidan

Не знаю, актуален ли ещё вопрос. Нужен питон 3.10.х версии и скачай 3 файла(https://nmkd.itch.io/t2i-gui/download/eyJpZCI6MTY4NDk3NCwiZXhwaXJlcyI6MTY4MzE0OTU0MX0%3d.ugcNZqtu3b48GcrKnYhT2sZal2s%3d), ну и распакуй в одну папку.

Ответить
Развернуть ветку
Антон Филиппов

Сергей, подскажите, пожалуйста, что делать? Выполнял всё по вашей инструкции. Когда жму install, у меня выскакивает окошко с надписью "Do you want to download the Stable Diffusion ONNX/DirectML files? They are only needed if you have an AMD GPU". Жму да, устанавливается, и всё равно галочка не стоит, не могу пользоваться программой, при перезапуске вылазиет окошко с надписью "No complete installation of the Stable Diffusion files was found. The GUI will now open installer. Please press "Install" in the next window to install all required files. Но потом открывается окно, что на скрине и всё по новой. Я уже пролистал комменты тут, скачал отдельно этот Stable Diffusion, вставил в Data/models, но толку нет. Помогите, не знаю что делать =(

Ответить
Развернуть ветку
Юрий Фролов

Компонент Stable diffusion code не может установиться, пишет "могло установиться не всё". Кто сталкивался?

Ответить
Развернуть ветку
Claire Ashford

Хотела бы уточнить, так как в программе вот эти две галочки никак не хотят ставиться, значит их придется качать отдельно от программы?

Я нашла интересный ресурс, наверное, придется качать оттуда. https://cyberes.github.io/stable-diffusion-models/

Ответить
Развернуть ветку
Sergey Goryushko
Автор

На всякий случай, нажимаете не на галочки, а на "Redownload SD Model", "Re-Install Upscalers".

Или кладете самостоятельно модель в SD-GUI-1.5.0\Data\models
Можно и вайфу-диффьюжен, которая есть по вашей ссылке)

Ответить
Развернуть ветку
3 комментария
chikirao

От ssd скорость не увеличится?

Ответить
Развернуть ветку
Sergey Goryushko
Автор

Я думаю, что незначительно, повлиять должно разве что на сохранение/открытие изображений, а это и так быстрый процесс.Дольше всего сама картинка в видеопамяти формируется, ей должно быть все равно на то, где программа стоит.

Ответить
Развернуть ветку
1 комментарий
chikirao

Что делать. У мена 16 гб оперативки, но работает всё равно только в low memory режиме

Ответить
Развернуть ветку
Blessfall

https://github.com/AUTOMATIC1111/stable-diffusion-webui вот неплохая альтернатива, больше функций

Ответить
Развернуть ветку
1 комментарий
Sergey Goryushko
Автор

Странно. А какая карта?

Ответить
Развернуть ветку
2 комментария
Site Registered

А она на 1060 с 3гб работать будет?

Ответить
Развернуть ветку
Sergey Goryushko
Автор

Эта сборка - скорее всего нет, а вариант от Automatic111 - да. Но 1 картинка генериться будет довольно долго.

Судя по числу вопросов, надо новый гайд писать на ту сборку)

Ответить
Развернуть ветку
depthfabatoe

А что делать если при апскейле все изображения становсятся темными и бледными? Версия 1.5.0

Ответить
Развернуть ветку
Sergey Goryushko
Автор

Прикольный котик) Попробуй вторую сборку (https://dtf.ru/howto/1379961-izuchaem-vozmozhnosti-stable-diffusion-chast-2), там много разных апскейлеров на выбор. Для шерсти LSDR очень хорошо работает

Ответить
Развернуть ветку
Pearce Let sPlay

помогите пожалуйста, скачал версию 1.7.1 - когда в настройках ставлю Low Mode исчезает строчка Sampler. Далее, начал генерировать вроде что то было, решил попробовать сделать микс из фото и текста. Загрузил фотку, ввел текст и всё - прогоняет, в итоге зеленый квадрат. Делаю без фотки просто текст - тоже самое.

Ответить
Развернуть ветку
Pearce Let sPlay

короче разобрался сам))) тока так и не понял как делать обнаженку - добавляю фотку, пишу запрос а нейросетка ее не раздевает.

Ответить
Развернуть ветку
1 комментарий
Rvanduk

Привет!
Не генерируется изображение.
"Done!" не появляется. Сверху крутится бесконечно зеленая хрень.

Ответить
Развернуть ветку
Sergey Goryushko
Автор

Нечто похожее бывает, когда не создаешь папку для сохранения изображений(https://www.reddit.com/r/StableDiffusion/comments/x1xdvl/stable_diffusion_gui_not_working/). В пути до изображений нет кириллицы, случаем ?

Ответить
Развернуть ветку
4 комментария
StanEKB

Не подскажите почему у меня при любых запросах генерирует лишь зеленый цвет? :( Все делал по инструкции.

Ответить
Развернуть ветку
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
17 комментариев
Sergey Goryushko
Автор

Без загруженного изображения тоже?

Сам не сталкивался с таким. Там около настроек есть логи, попробуй их посмотреть, может там на ошибку укажет в доступе к модели/еще чему-то

Ответить
Развернуть ветку
8 комментариев
Юрий

Друзья, кто ставил версию 1.8.0? У меня одного не апскейлится картинка или у всех так?

Ответить
Развернуть ветку
Sofa Warrior

Да, у меня тоже никакого эффекта

Ответить
Развернуть ветку
2 комментария
Mich Belskij

ТС, а если у меня нет настройки "sampler" ?
как ее вернуть? (сразу после установки)

Ответить
Развернуть ветку
Sergey Goryushko
Автор

Не понимаю, почему у тебя такой интерфейс. Мой выглядит даже на 1.6.0 вот так, семлеры на месте

Ответить
Развернуть ветку
1 комментарий
Sergey Goryushko
Автор

О, 1.6 вышла, прикольно) Сейчас скачаю и посмотрю

Ответить
Развернуть ветку
Денис Бесфамильный

Народ, кто-нибудь сталкивался с такой ошибкой? Не понимаю, что за служба имеется ввиду и как её установить. Первая генерация после запуска проходит нормально, при повторной попытке выскакивает эта ошибка. Пробовал переустанавливать - не помогло.

Ответить
Развернуть ветку
Sergey Goryushko
Автор

Похоже на вот это - https://github.com/n00mkrad/text2image-gui/issues/46

У тебя, часом, не Win7?

Ответить
Развернуть ветку
1 комментарий
Gachimen

Автор, подскажи пожалуйста, ты сталкивался с такой ошибкой?

Ответить
Развернуть ветку
Gachimen

При нажатии на кнопку "Generate" вылетает

Ответить
Развернуть ветку
1 комментарий
Dropman

А в чём разница, что конкретно скачивать?

Ответить
Развернуть ветку
Sergey Goryushko
Автор

Качай первое, если не хочешь отдельно скачивать и устанавливать базовую модель для отрисовки. Если решил, что тебе нужна не базовая, а какая-нибудь анимешная (Waifu Diffusion/ NovelAI) - качай второе

Ответить
Развернуть ветку
5 комментариев
Germbird Deiss

Из-за чего может ошибка? уже 3 раза переустанавливал с нуля

Ответить
Развернуть ветку
Sergey Goryushko
Автор

Ты какую модель скачал? Если 2.0 - попробуй с 1.5

Ответить
Развернуть ветку
7 комментариев
Adenix Tokyo

Ребят, подскажите плиз в чем причина(нажимаю Download SD model)

Ответить
Развернуть ветку
Sergey Goryushko
Автор

Пишет слева внизу, что ошибка при загрузке и просит посмотреть логи. Глянь их, они справа от кнопки инсталляции.
Если не понятно в них ничего - кидай сюда

Ответить
Развернуть ветку
18 комментариев
Adenix Tokyo

При открытии приложения выдало вот это

Ответить
Развернуть ветку
Константин Цвигун

А если используешь сборку от AMD radeon, недавнего выпуска, от этого что-то должно поменяться?

Ответить
Развернуть ветку
Sergey Goryushko
Автор

Да, с AMD отдельные танцы с бубном для установки нужны :( https://rentry.org/ayymd-stable-diffustion-v1_4-guide . Попробуй по этому гайду, вдруг получится. Увы, нет никакой красной карты под боком для теста(

Ответить
Развернуть ветку
12 комментариев
StanEKB

Удалил сообщение.

Ответить
Развернуть ветку
Adenix Tokyo

.

Ответить
Развернуть ветку
Владимир Семёнов

ВАУ!!! 🤯 Какая крутая нейронка! Да ещё и на собственном компе можно использовать!
Да ещё и 18+ NSFW можно генерировать!!! 🤯🤯🤯🤯🤯🤯

А можно её дообучать? На пример, на хентай манге? 😋

Надеюсь, поскорее такие нейронки встроят в редакторы изображений, чтобы можно было чётко указать что, где и как именно изменить, перерисовать и дорисовать на картинке.👍👍👍👍👍👍

Ответить
Развернуть ветку
Владимир Семёнов

Dall-e 2 уже умеет редактировать изображение. Но доступ к Dall-e 2 сильно ограничено. Поскорее бы люди получили неограниченный доступ к таким нейронкам. Это супер важно. Особенно для NSFW сегмента.

https://habr.com/ru/news/t/659641/

Ответить
Развернуть ветку
Максим Хорошов

О, это же WPF!

Ответить
Развернуть ветку
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
Антон Малышев

Доброго дня, такая проблема возникает каждый раз при нажатии Generate/ Подскажите куда копать?

Ответить
Развернуть ветку
Sergey Goryushko
Автор

Кажется, что проблема Half/Float - это как раз то, что возникает у владельцев 16XX серии видеокарт. Попробуй повключать/поотключать low memory, full precision в настройках

Ответить
Развернуть ветку
Dobby Bobby

Кто подскажет, в чём проблема?Уже несколько раз пробовал всё переустанавливать, качать заново архив - не помогло

Ответить
Развернуть ветку
Sergey Goryushko
Автор

Попробуй поставить сборку от Automatic111. https://github.com/AUTOMATIC1111/stable-diffusion-webui. Как дойдут руки - сделаю гайд по ней. Сейчас как-то не до того(

Ответить
Развернуть ветку
Антон Малышев

У меня сейчас возник вопрос, как обучать данную систему? есть ли такая вообще возможность?

Ответить
Развернуть ветку
Sergey Goryushko
Автор

Да, есть. Сейчас популярны 2 метода, Textual Inverison| и Dreambooth https://www.reddit.com/r/StableDiffusion/comments/xqi1t4/textual_inversion_versus_dreambooth/. Последнему нужно много видеопамяти

Ответить
Развернуть ветку
Илья Беляков

выскакивает, когда нажимаю generate, что делать?

Ответить
Развернуть ветку
Sergey Goryushko
Автор

В интересную папку запихнул) Пишет, что не видит нужные питоновские библиотеки. Во вкладке установки попробуй перекачать репозиторий и переустановить все

Ответить
Развернуть ветку
1 комментарий
inoy fenikss

Что я делаю не так? И перекачивал и переустанавливал.

Ответить
Развернуть ветку
Sergey Goryushko
Автор

Погуглил, ошибка в том, что не может подключится и выкачать что-то. Может, политика безопасности/VPN не позволяет?

Ответить
Развернуть ветку
Claire Ashford

А вот например эта версия
( https://colab.research.google.com/drive/1jUwJ0owjigpG-9m6AI_wEStwimisUE17#scrollTo=Ucr5_i21xSjv ), может заменить эту сборку? Так как она все-таки не установилась.

Ответить
Развернуть ветку
Sergey Goryushko
Автор

Может, да. Коллабы даже ставить не надо, все у гугла запускается.

Ответить
Развернуть ветку
1 комментарий
Haberx

ребят, кто-нибудь сталкивался?

Ответить
Развернуть ветку
Sergey Goryushko
Автор

16XX серия видеокарты? Если да, попробуй включить Full-precision|low memory mode в настройках

Ответить
Развернуть ветку
полный неадекват

такая вот проблема , вроде о ней тут еще не писали

Ответить
Развернуть ветку
Sergey Goryushko
Автор

Re-install SD code и Re-Install обычный во вкладке установщика не помогают? Потому что ругается на отсутствие части нужного когда самого stable diffusion

Ответить
Развернуть ветку
Илья Ульянов

А как это работает? Всё создаётся исключительно силами ПК, без интернета?

Ответить
Развернуть ветку
Sergey Goryushko
Автор

Да

Ответить
Развернуть ветку
2 комментария
pekatvdmitriypekar

у кого 1050ti советую stable difussion в webui от automatic1111, через него довольно быстро генерится

Ответить
Развернуть ветку
Vicarius Frau

А если у меня не Nvidia 10XX, a AMD Radeon(TM) Graphics? Будет работать?

Ответить
Развернуть ветку
Sergey Goryushko
Автор

Там очень много приседаний потребуется сделать, либо запускать на процессоре. Можно попробовать другую сборку, например https://github.com/azuritecoin/OnnxDiffusersUI. Будет нечто среднее по скорости между запуском на процессоре/ Nvidia аналогичного уровня

Ответить
Развернуть ветку
6 комментариев
Александр Щербинин (Sasharr)

Есть вопрос: А как делать негативные подсказки тут?

Ответить
Развернуть ветку
Sergey Goryushko
Автор

Начиная с версии 1.5 - помещая слова в []. Запрос будет выглядеть как "Супер красивое чудо-юдо [уродливое, скучное, корявое]"

Ответить
Развернуть ветку
SanShrown

помогите пожалуста, непонятно что делать.

Ответить
Развернуть ветку
Sergey Goryushko
Автор

Перенеси в папку, где нет кириллицы. В корневую папку диска, например

Ответить
Развернуть ветку
6 комментариев
Pearce Let sPlay

Сэмплов нет в Low Memory Mode, может из за моей карты - 1650?

Ответить
Развернуть ветку
name1 name2

функwией "load concept" как пользоваться????

Ответить
Развернуть ветку
Даркевиц

Судя по всему, счастливым обладателям интегрированных ГПУ (и для кого код на питоне это китайская грамота) ловить тут нечего... Хотя у меня версия 1.8.0. встала и даже заработала. (Ryzen3 2300 + GPU Vega, 16 GB RAM). Но чтобы генерить, это надо вечером сделать запрос, к утру результат будет... Пока тренируюсь на кошках, если будет генерить NSWF, может быть подумаю о нормальной видяхе. Первый образец вышел не лучше, чем у пресловутой WomboDream (но та нейросеть походу сломалась окончательно).

night bomber motorhead high resolution
(monochrome)
448*640
Прочее по умолчанию, ошибок не выдаёт.

Ответить
Развернуть ветку
Даркевиц

Всё-таки приложение 1.8.0. выпало в ошибки на пятом изображении. После чего запуск генерации стал невозможным, выдаёт сообщение (скрин). Файл находится на месте, в папке models, указать вручную местоположение ни к чему не приводит. Нашёл в настройках выбор процессора AMD, но пока неясно, будет ли работать. И тоже неясно, как включается апскейл.

Ответить
Развернуть ветку
Даркевиц

UPD: Ошибка исчезла после перезапуска с настройками GPU для честных Nvidia. Но если выбрать процессор AMD, строка пути к файлу модели sd-v1-5-fp16.ckpt становится пустой, и выбрать путь невозможно.

Ответить
Развернуть ветку
The Rayan

Вопрос странный, но всё-таки спросить думаю можно - почему мой антивирусник ругался на wkl.exe? Он находится в Data -> bin

Ответить
Развернуть ветку
The Rayan

А почему мой антивирусник ругался на wkl.exe? Он вообще необходим для работы SD, но вот немного напряжно. Да и дата изменения у него значится 2018 года, а не 2022 как у других.

Ответить
Развернуть ветку
Sergey Goryushko
Автор

Проверил на virustotal, никто не ругается. По описанию - утилита для убивания процессов в винде

Ответить
Развернуть ветку
1 комментарий
Elkik,o loco

Версия на MAc os имеется?

Ответить
Развернуть ветку
Sergey Goryushko
Автор

Да. Обычно рекомендуют https://github.com/invoke-ai/InvokeAI

Ответить
Развернуть ветку
SanShrown

Я никак не могу понять, почему каждый раз когда я что то прошу сделать, нейросеть рисует миллион ног, 4 глаза и вместо нормального тела странное подобие желе. Что делать? Не понимаю, можно ли заставить ее делать не мутантов.

Ответить
Развернуть ветку
Sergey Goryushko
Автор

Подозреваемых несколько - 1) Неправильное разрешение изображений. Например, ты 768*768 врубил, а highres.fix - нет. Части изображения могут быть задублированы тогда
2) Неудачная модель или запрос, у которой трейсер была в обучающей выборке, но с очень хреновой разметкой
3) В negative promt что-то вставлял?

P.SТрейсер не очень сложно сгенерить сейчас, есть готовый эмбеддинг https://civitai.com/models/5593/corneos-tracer-overwatch-ti-embedding

Ответить