#Anime фэндомы 

Развернуть

нейронные сети нейросетевые барышни арт барышня art нагенерил сам Stable diffusion 

Небольшой эксперимент с воссозданием персонажа

Pure model
LoRA [::0.9]
LoRA [::0.9]
+ ControlNet (reference_only + T2IA)(0.25-0.8)	ControlNet (reference_only + T2IA)(0.25-0.8),нейронные сети,нейросетевые барышни,арт барышня,арт девушка, art барышня,art,арт,нагенерил сам,Stable diffusion
Короче, идея-то какая была? Мы знаем, что есть возможность попытаться перенести стиль любого изображения на генерацию txt2img. Однако, воссоздать изображенного персонажа с рисунка-референса достаточно точно не выйдет. Тут на помощь как бы приходит лора (мини-модель, "натасканная" на конкретного персонажа, стиль, концепт, и т.п.). Вот только лора довольно таки часто ломает тонкие детали и вообще отрывает персонажа от "родного" стиля (я слышал, что правильно натренированный LyCORIS с этим лучше справляется, но пока не проверял). 

Решение, как всегда бывает, получилось костыльным: одновременно задействовать и лору и контролнет переноса стиля, но при этом отложить их запуск (а в случае контролнет ещё и вырубить их на 80% генерации). Для чего так? А дело в том, что контролнет reference довольно часто ломает цвета в самом начале генерации, так что первые 25% шагов надо дать модели поработать "чисто". Лору персонажа же, как не странно, можно отрубать даже на 50% - она не нужна во время полировки деталей, а может и вредна.

Вот оригинальное изображение-референс.

нейронные сети,нейросетевые барышни,арт барышня,арт девушка, art барышня,art,арт,нагенерил сам,Stable diffusion

Параметры генерации (для третьей слева):

[<lora:aa_cykes:0.8>, athena cykes::0.5], 1girl, (concept art, character sheet:1.1), (best quality, masterpiece:1.2) 

Negative prompt: EasyNegative, badhandv5, (worst quality, low quality, normal quality:1.4), (painting of bad artist:1.2) 

Steps: 40, Sampler: Euler a, CFG scale: 6, Seed: 1735015463, Size: 512x768, Model hash: 1bab7a0895, Model: kizukiAnimeHentai_animeHentaiV3, Denoising strength: 0.36, Clip skip: 2, ENSD: 31337,

 ControlNet 0: "preprocessor: reference_only, model: None, weight: 1, starting/ending: (0.25, 0.8), resize mode: Just Resize, pixel perfect: False, control mode: ControlNet is more important, preprocessor params: (64, 0.5, 64)", 

ControlNet 1: "preprocessor: t2ia_style_clipvision, model: controlnetT2IAdapter_t2iAdapterStyle [892c9244], weight: 0.9, starting/ending: (0.25, 0.8), resize mode: Crop and Resize, pixel perfect: False, control mode: ControlNet is more important, preprocessor params: (512, 64, 64)", 

Hires upscale: 2, Hires upscaler: 4x-AnimeSharp, Lora hashes: "aa_cykes: 46197f092432", TI hashes: "EasyNegative: 66a7279a88dd, badhandv5: aa7651be154c", Version: v1.5.1

Ну и ещё один пример:

Без переноса стиля, с переносом стиля

нейронные сети,нейросетевые барышни,арт барышня,арт девушка, art барышня,art,арт,нагенерил сам,Stable diffusion

Развернуть

нейромазня нейронные сети нагенерил сам Athena Cykes Ace Attorney Игры StableDiffusion 

Развернуть

нагенерил сам нейросетевые барышни арт барышня art 

1	fl	Ш-		\v
1				
à		Ш	II ^ e W,	\w/x m •■j.
	Èb
	HR
*тйЬ	i j ¡
’ ',нагенерил сам,нейросетевые барышни,арт барышня,арт девушка, art барышня,art,арт

Развернуть

нейронные сети гайд туториал StableDiffusion песочница 

Как перерисовать/раздеть любого персонажа с помощью Stable Diffusion

нейронные сети,гайд,туториал,StableDiffusion,песочница

Сегодня я расскажу о способе дорисовывать любые рисунки с помощью инструментов Stable Diffusion. Но прежде чем я начну, убедитесь что у вас установлена свежая версия Stable Diffusion webui от Automatic1111 + расширение ControlNet 1.1 со всеми нужными моделями.
Вот видео-инструкции (смотреть по порядку):

Установили? Тогда начинаем.

Часть 1. ControlNet Inpaint

Ни для кого не секрет, что в SD существует фича под названием inpaint - это, по сути, способ сгенерировать что-то поверх существующего изображения. В интерфейсе от Automatic1111 под inpaint'ом обычно подразумевают один из режимов img2img. Это хоть и мощный инструмент, но, всё же, недостаточно точный и контролируемый. Тут на помощь приходит ControlNet Inpaint и исправляет главный недостаток "классического" inpaint'а - игнорирование контекста. Впрочем, достаточно теории переходим к практике.

Итак, возьмём изображение, которое мы хотим отредактировать.

И сразу же уменьшаем/увеличиваем его до нужного разрешения:
В моём случае с 1500x1500 до 640x640. По опыту скажу, что лучший результат получается при размере меньшей стороны от 512 до 768 пикселей, а большая сторона при этом желательно меньше 1024 пикселей.

нейронные сети,гайд,туториал,StableDiffusion,песочница

Теперь открываем вкладку txt2img в web-gui, раскрываем ControlNet и переносим изображение на холст Unit 0, выбираем режим Inpaint и выставляем все нужные настройки (и включить не забудьте):

ControlNet Unit 0
ControlNet Unit 1
ControlNet Unit 2
ControlNet Unit3
Single Image
Set the preprocessor to (invert] If your image has white background and black lines.
D s *	-*
Q Enable	Low VRAM	Pixel Perfect CD Allow Preview	
Control Type			
All	Canny	Depth Normal OpenPose MLSD	Lineart

Теперь замазываем места, которые хотим перерисовать:

нейронные сети,гайд,туториал,StableDiffusion,песочница

В промпт пишем то, что хотим в результате видеть. Ещё раз, пишем не то, что нужно нового добавить, а то, каким хотим видеть финальную картинку:

1girl, naked, completely nude, (best quality, masterpiece:1.2)

Негативный промпт как обычно:
EasyNegative, badhandv5, (worst quality, low quality, normal quality:1.4)

Модель подбираем поближе к стилю рисунка (реалистичный/стилизованный). В моё случае это MeinaMix_v11-inpaint.

Параметры генерации:

Sampling method
DPM++2M SDE Karras
Restore faces	Tiling
Width
Sampling steps
Hires, fix 640
Batch count
n
640
Batch size,нейронные сети,гайд,туториал,StableDiffusion,песочница

Всё, можно нажимать Generate до тех пор пока не появится приемлемая картинка.

Столь хороший результат обеспечивается препроцессором inpaint_only+lama - он пытается дорисовать зону под маской с учётом "наружного контекста". Это же и обеспечивает генерацию правильного цвета.

Простой случай разобрали, переходим к чему-то посложнее:

Часть 2. Style transfer

Возьмём теперь другой рисунок попробуем повторить описанный выше процесс:

6
I
I PATREON.COM/CUTESEXYROBUTTS
PATREON.COM/CUTESEXYROBUTTS,нейронные сети,гайд,туториал,StableDiffusion,песочница

Мда, мало того, что поза поехала, так ещё и стиль оказался потерян. Одного ControlNet Inpaint тут недостаточно. Надо подключать дополнительные юниты.

Нам нужно решить 2 задачи:

Повторить существующий стиль рисункаСохранить силуэт

Для решения первой задачи будем использовать ControlNet reference и ControlNet T2IA - они оба позволяют копировать стиль с изображения-референса и как нельзя лучше работают в связке.

Возвращаемся к интерфейсу ControlNet'a. Копируем исходное изображение в Unit 1 и Unit 2. Настраиваем вот так:

0 Enable
Low VRAM
Pixel Perfect
Allow Preview
Control Type
All	Canny Depth Normal		OpenPose	MLSD
Lineart	SoftEdge Scribble	Seg	Shuffle	Tile
Inpaint	IP2P О Reference	T2IA		
Preprocessor
reference_only	И
Control Weight i	Starting Control о	Ending Control
1

Style Fidelity (only for

0 Enable
Low VRAM
Pixel Perfect
Allow Preview
Control Type
All	Canny	Depth	Normal	OpenPose	MLSD
Lineart	SoftEdge	Scribble
Inpaint	IP2P	Reference
Preprocessor
t2ia_style_clipvision
Control Weight i	Starting Control
Seg	Shuffle	Tile
None
controlnetT2IAdapter_t2iAdapterColor [c58d: /

(Все нужные модели скачать не забыли?)
А в качестве четвёртого ControlNet'a можно использовать любой, что позволяет сохранить форму: canny, depth, softedge, lineart - на ваше усмотрение и под конкретную задачу.

0 Image,нейронные сети,гайд,туториал,StableDiffusion,песочница

(Вот тут softedge)

Интересный факт: никто не запрещает отредактировать выход предпроцессора в фотошопе. Что-то убрать, что-то подрисовать. Вот где могут понадобиться навыки рисования.

Ладно, всё 4 юнита активны. Нажимаем Generate и:

PATREON.COM/CUTESEXYROBUTTS,нейронные сети,гайд,туториал,StableDiffusion,песочница

Это совсем не то, нужно!
Формы сохранены, но промпт будто проигнорирован. Что случилось? Я вам скажу что: сила ControlNet'а оказалась слишком велика. Stable Diffusion попытался во время генерации воссоздать рисунок-референс да ещё и плюс inpaint там подсунул белый цвет с фона!

Как с этим бороться? Нужно уменьшить эффект двух юнитов переноса стиля (reference и T2IA), но при этом нельзя сильно уменьшать их силу, иначе перенос стиля будет ослаблен. В общем, нужно воспользоваться настройкой Starting Control Step. Она отвечает за то, на какую долю шагов генерации придётся действие ControlNet'a.

Starting Control Step 0.5, например, означает, что первую половину шагов генерация будет опираться только на промпт, а со второй половины подключится уже наш ControlNet.

В общем, план такой: слегка понижаем Control Weight (сила) у стилевых юнитов (примерно до 0.9). После этого начинаем постепенно поднимать границу начала действия стилевых юнитов. Также имеет смысл подобным же образом немного ослабить действие Inpaint'a - позволяет в некоторых случаях исправить цвета.

После нескольких попыток (и усиление промпта) получаем вот такую задницу:

нейронные сети,гайд,туториал,StableDiffusion,песочница

Не идеально, но уже шаг в нужном направлении. На самом деле, сейчас можно (и нужно) уже именно это изображение сделать референсом. Другими словами, скопировать его во все 4 юнита и отталкиваться уже от него. И так сколько нужно раз. Пока не получится идеальный результат, либо ваша генерация окончательно не развалится.

Часть 3. img2img

Даже после получения хорошей генерации во вкладке txt2img имеет смысл несколько отшлифовать изображение уже через img2img inpaint. Главное не забудьте подключить 2 ControlNet'a для переноса стиля. Помните да, reference и T2IA.

Некоторые пункты в виде итога:

Ключ ко всему - это ControlNet (inpaint_only+lama) и ControlNet (reference_only, T2IA)
Генерацию лучше проводить поэтапно, чтобы было на что опереться в последующие шаги
Также имеет смысл разделять генерацию объектов нужной формы и затем покраску их в нужные цвета.
Подбирайте подходящие под задачу модели и/или лоры.
Не забудьте про параметры Control Weight, Starting Control Step, Ending Control Step. И про Control Mode в самом низу!

P.S. Хотел бы я чтобы кто-то обстоятельно протестировал этот метод и поделился бы потом результатами. Мне кажется, как-то можно добиться ещё большей близости к стилю оригинала, ведь задача состояла именно в этом.

Туториал закончен, теперь впечатления. Это охиренно мощная штука! Можно как угодно дорисовать любую картину, стиль вообще не важен, тем более что сейчас уже натренированы сотни моделей на все случаи жизни. Хоть скриншоты из мультфильмов/аниме, хоть картины маслом. Фильмы и фотографии вообще пройденный этап. Можно даже без использования inpaint'a просто сгенерировать сколько хочешь изображений с нуля, просто опираясь на единственный рисунок. А ведь ControlNet появился лишь в начале этого года. Короче, уже почти год прошёл, а всё это до сих пор кажется каким-то колдунством. Что грядущий день готовит...

Развернуть

Отличный комментарий!

а говорили что нейросети работу заберут
судя по этому туториалу теперь нужен Senior Stable Diffusion Manager чтобы только на жопу посмотреть )
imhosep imhosep 01.08.202320:32 ссылка
+32.6

нейромазня нейронные сети Lois Lane DC Comics фэндомы DC Erotic нагенерил сам 

Вот отсюда: https://dc.reactor.cc/post/5568481

нейромазня,нейронные сети,Lois Lane,Лоис Лэйн,DC Comics,DC Universe, Вселенная ДиСи,фэндомы,DC Erotic,Эротика,нагенерил сам

Развернуть

нейросетевые барышни арт барышня art нагенерил сам 

нейросетевые барышни,арт барышня,арт девушка, art барышня,art,арт,нагенерил сам

Развернуть

нейронные сети нейромазня StableDiffusion нагенерил сам песочница 

Раздеваем/одеваем

нейронные сети,нейромазня,StableDiffusion,нагенерил сам,песочница

Ответ на очевидный вопрос: Да, можно. Проверял.
Развернуть

нейронные сети нагенерил сам StableDiffusion песочница нейромазня 

Вылечилась

Tatsuk,
Tat su ki
ÎITJ-4SMV),нейронные сети,нагенерил сам,StableDiffusion,песочница,нейромазня

Развернуть

нейронные сети гайд туториал StableDiffusion песочница 

Как перерисовать любой рисунок с помощью StableDiffusion

нейронные сети,гайд,туториал,StableDiffusion,песочница

Нужно:

Установленный и настроенный свежий Automatic1111 web-guiУстановленное расширение ControlNet, и все нужные модели к немуУмение хоть сколько-нибудь с этим работать

Всё происходит во вкладке txt2img

Сначала берём исходное изображение, кладём его в 2 вкладки ControlNet'a и включаем их. Вот как-то так:

ControlNet vi. 1.224 ControlNet Unit О
Single Image
13 Image
ControlNet Unit 1 ControlNet Unit 2 Batch,нейронные сети,гайд,туториал,StableDiffusion,песочница

Первую вкладку (Unit 0) настраиваем следующим образом:

Control Type
All	Canny Depth Normal		OpenPose	MLSD
Lineart	SoftEdge Scribble	Seg	Shuffle	Tile
Inpaint	IP2P O Reference	T2IA		
Preprocessor
reference_only
Control Weight	1
Starting Control
0;3	Ending Control
Step
1

Style Fidelity (only for "Balanced" mode)
0,5
Control Mode
Balanced

А вот так вторую (Unit 1):

Control Type
All	Canny	Depth Normal		OpenPose	MLSD
Lineart	SoftEdge	Scribble	Seg	Shuffle	Tile
O Inpaint	IP2P	Reference	T2IA		
Preprocessor	Model
inpaint_only+lama	controlnetllModelsJnpaint [I ▼
Control Weight
Starting Control Step
Ending Control Step
1
Control Mode
O Balanced	My prompt

Два инстанса нужны, потому что первый отвечает за передачу стиля, а второй обеспечивает генерацию поверх существующего изображения с учётом контекста.

Осталось нарисовать маску:

нейронные сети,гайд,туториал,StableDiffusion,песочница

Параметры генерации, промпты:

Sampling method DPM++2M Karras
Restore faces	Tiling
Hires, fix
Width
Sampling steps
32
600	Batch count 2
~) n 608	• Batch size 2
6
o
<$>	Extra,нейронные сети,гайд,туториал,StableDiffusion,песочница

В промпте, то что хотим сгенерировать в зоне маски 

Позитивный - (white flowers:1.1), (best quality, masterpiece:1.2)

Негативный как обычно - EasyNegative, (worst quality, low quality, normal quality:1.4), (painting of bad artist:1.2)

Нажимаем Generate и получаем:

нейронные сети,гайд,туториал,StableDiffusion,песочница

Пара моментов:

Старайтесь генерировать поближе (насколько возможно) к оригинальному разрешение. Hires. fix лучше не использовать - он ломает тонкие детали.

Нужен подходящий чекпойнт в зависимости от стиля оригинального рисунка. Под реалистичные рисунки реалистичные модели, под стилизованные - стилизованные.

Развернуть