Результаты поиска по запросу "stable diffusion"

Color cutoff stable diffusion extension

Расширение, устанавливаемое на WebUI от Automatic1111, позволяющее жёстко привязать запрашиваемый цвет к указанному в промпте объекту. Наверняка замечали, что при запросе различных цветов для различных деталей нейросетка часто рисует указанные цвета где попало на изображении. Вот,например [a cute girl, white shirt with green tie, red shoes, blue hair, yellow eyes, pink skirt]
,Stable diffusion,нейронные сети,stable diffusion extensions,длиннопост,geek,Прикольные гаджеты. Научный, инженерный и  айтишный юмор,песочница
Волосы внезапно стали розовыми,несмотря на прямое указание их голубого цвета в промпте. А вот результат после подключения данного модуля (все прочие настройки, включая seed остались без изменения):
,Stable diffusion,нейронные сети,stable diffusion extensions,длиннопост,geek,Прикольные гаджеты. Научный, инженерный и  айтишный юмор,песочница
Нейросеть даже более бережно отнеслась к запросу, вставив таки туфли.
Инструкция для установки и использования по шагам:
1. Запускаем нейросеть, открываем вкладку [Extensions] и подвкладку [Install from URL]. Туда вводим "https://github.com/hnmr293/sd-webui-cutoff" без кавычек. Жмём [Install], перезапускаем нейросеть (закрыть консоль и запустить заново).
2. Во вкладке новых text2image генераций вводим свой промпт, например [a cute girl, white shirt with green tie, red shoes, blue hair, yellow eyes, pink skirt] и прочие настройки, что вам нравятся.
3. Обращаем внимание, что после установки и перезапуска внизу вкладки text2image появилось дополнительное ниспадающее меню. Разворачиваем его, чекаем бокс [Enabled] и вводим цвета объектов, указанных в промпте, разделяя их запятыми. В примере выше это [white, green, red, blue, yellow, pink,]. Не забываем запятую после последнего токена, автор указывает, что она важна и без неё могут быть ошибки. Вес (weight) выкручиваем на максимум (2). Прочие детали пока не трогаем, поиграться с ними можно позднее, сам ещё не до конца разобрался.
4. Жмём волшебную кнопку генерации и наблюдаем результат.
ВАЖНО: дополнение создано преимущественно для анимешных моделей на базе SD 1.5. При попытке работать с ним на весах (моделях, чекпоинтах) на базе SD 2.0 и 2.1 результаты были менее впечатляющими.
Вот ещё пара картинок для сравнения. Слева картинка до включения дополнения, справа - с его использованием. Простите за кривую вёрстку, я рукожоп. Создано на Anything 3.0
,Stable diffusion,нейронные сети,stable diffusion extensions,длиннопост,geek,Прикольные гаджеты. Научный, инженерный и  айтишный юмор,песочница
,Stable diffusion,нейронные сети,stable diffusion extensions,длиннопост,geek,Прикольные гаджеты. Научный, инженерный и  айтишный юмор,песочница
,Stable diffusion,нейронные сети,stable diffusion extensions,длиннопост,geek,Прикольные гаджеты. Научный, инженерный и  айтишный юмор,песочница
,Stable diffusion,нейронные сети,stable diffusion extensions,длиннопост,geek,Прикольные гаджеты. Научный, инженерный и  айтишный юмор,песочница
Tips от автора дополнения с моим вольным переводом:
#0 Give priority to colors, put them first and then everything else, 1girl, masterpiece... but without going overboard, remember tip #3.
Ставьте цвет в приоритете, помещайте его перед всем прочим, но не переборщите, помните про третий совет.
#1 The last Token of Target Token must have "," like this: [white, green, red, blue, yellow, pink,]
ATTENTION: For some people it works to put a comma at the end of the token, for others this gives an error. If you see that it has an error, delete it.После последнего токена в поле Target Token должна стоять запятая, как в примере: [white, green, red, blue, yellow, pink,]ВНИМАНИЕ: у некоторых работает нормально при помещении запятой в конец токена, а у некоторых выдаёт ошибку. Если у вас выскочила ошибка - удалите запятую. 
#2 The color should always come before the clothes. Not knowing much English happened to me that I put the colors after the clothes or the eyes and the changes were not applied to me.
Описание цвета нужно ставить перед объектов в промпте. Не зная английского, я указывал цвет после упоминания одежды/глаз и изменения не применялись.
#3 Do not go over 75 token. It is a problem if they go to 150 or 200 tokens.
Не напихивайте больше 75 токенов (деталей промпта, разделённых запятыми). Большое количество токенов для дополнения сложновато.
#4 If you don't put any negative prompt, it can give an error.
Если не вводить негативный промпт, то может выскочить ошибка.
Ещё автор пишет, что эффективность дополнения 95%, однако, лично у меня результаты менее впечатляющие. Вероятно, это связано с тем, что автор предпочитает какую-то конкретную модель.
Не уверен какие теги ставить.
Тут фотошопа, наверное, больше чем было нагенерено изначально.

Декартунизатор уже работает достаточно неплохо =)

Удивлен в детализации бликов и теней, решил даже поделиться. 
Когда доделаю так, что мне будет все нравится, поделюсь уже деталями. Пытаюсь вревратить мультяшных персонажей в реалистичных, но узнаваемых

Практическое применение нейросетей

Раз уж я вошёл в мир нейросетей благодаря реактору (через слитую модель novelAi и гайду к ней), то хочу вернуть дань благодарности этим небольшим мануалом.
Вы сможете генерировать прикольные арты на основе любого логотипа \ текста буквально в пару шагов.
0) Нужен stable diffusion от automatic1111 свежей версии (как его устанавливать тут не буду описывать);
1) Устанавливаем расширение ControlNet:
a) Копируем ссылку: https://github.com/Mikubill/sd-webui-controlnet
b) Идём во вкладку extensions -> install from URL, в первое поле вставляем ссылку и жмакаем install
c) Во вкладке installed на всякий случай проверяем апдейты: "Check for updates", и нажимаем "Apply and restart UI"
После этих манипуляций у Вас перезагрузится web страница и появится вкладка "ControlNet" в txt2img:
(Если не появилась, то попробуйте Settings, нажать Apply и перезапустить Stable Diffusion полностью)
d) Загружаем модели для ControlNet:
скачиваем все версии моделей (там есть раздел Versions с отдельной кнопкой загрузки);
все скачанные файлы закидываем в <путь до SD>\stable-diffusion-webui\extensions\sd-webui-controlnet\models
2) Генерируем арты:
a) подготавливаем свой логотип \ текст. 
я сделал такую картинку в фш:
,Stable diffusion,нейронные сети,нейромазня,ControlNet,гайд,длиннопост
p.s: походу желательно не использовать прозрачный фон (у меня с ним ничего не вышло).
b) двигаем настройки ControlNet:
c) и наконец генерируем (выставляем размер, пишем promptы, жмакаем generate).
единственное НО: у меня не получилось подружить controlNet с "hiresfix". даже "latent(nearest)" начинает ломать образ. поэтому генерировал сразу в 768х768 (Вам, возможно, надо будет пробовать с 512х512)
любые LORA, HyperNetwork, embeddings прекрасно работают.
модель на которой я генерил: https://civitai.com/models/1274/dreamlike-diffusion-10
ну и примеры того что у меня получилось:
,Stable diffusion,нейронные сети,нейромазня,ControlNet,гайд,длиннопост
,Stable diffusion,нейронные сети,нейромазня,ControlNet,гайд,длиннопост
,Stable diffusion,нейронные сети,нейромазня,ControlNet,гайд,длиннопост
,Stable diffusion,нейронные сети,нейромазня,ControlNet,гайд,длиннопост
,Stable diffusion,нейронные сети,нейромазня,ControlNet,гайд,длиннопост
,Stable diffusion,нейронные сети,нейромазня,ControlNet,гайд,длиннопост
,Stable diffusion,нейронные сети,нейромазня,ControlNet,гайд,длиннопост
,Stable diffusion,нейронные сети,нейромазня,ControlNet,гайд,длиннопост
,Stable diffusion,нейронные сети,нейромазня,ControlNet,гайд,длиннопост
,Stable diffusion,нейронные сети,нейромазня,ControlNet,гайд,длиннопост
,Stable diffusion,нейронные сети,нейромазня,ControlNet,гайд,длиннопост
Идея честно спизженна отсюда:
Ну и напоследок хочу сказать что это расширение умеет гораздо большее. например можно полностью копировать стиль фото \ любые позы \ выражения лиц и ДАЖЕ рисовать идеальные руки и ноги (причём с фокусом на них). Но и запариться там нужно чуть сильнее)

Пидоры помогите

Появилось желание погенерить артиков. В силу мощностей компа(ноута) приходится использовать гугл колабы. И с последним возникли проблемы. Буквально спустя 2-3 минуты после запуска, вне зависимости от моих действий выскакивает ошибка и сетка отрубается. В эти 2-3 минуты  могу генерить то, что успею и генерации работают, по крайней мере столько, сколько успел проверить.

Саму ошибку задетектить не смог, сам колаб говорит "Произошла ошибка". Логов с информацией ошибки искал искал и не нашел. В интернетике глянул гайд по логам, но либо он был кривой, либо я, поэтому он не помог.

Пробовал запускать разные модели, пробовал на своем диске установить и запустить ее. Ситуация повторилась и при смене гугл аккаунтов и с наличием разных впн-ов.

Пробовал в разные дни, результат не поменялся.

Пару месяцев назад пользовался колабой, все было ок. Обычно говорят, что такое случается из-за нехватки ресурсов или их переупотребления. Но и оперативки, и видеопамяти и места на диске всегда по потреблению всегда находятся в пределах нормы и я почти уверен, что дело не в этом тоже.

Ну и очевидный вопрос, имеются ли способы решить данную проблему. Непросроченный купон прилагаю.
Здесь мы собираем самые интересные картинки, арты, комиксы, мемасики по теме stable diffusion (+1000 постов - stable diffusion)