Глоссарий для турбоимбецилов:

Модель – необходимый минимум, то откуда программа берет всю информацию для генерации, без нее работать невозможно чисто технически. Берется с https://civitai.com и других источников. Может быть, например, про аниме, хентай или гиперреализм.
Бывают в двух расширениях .ckpt и . safetensors. В .ckpt по слухам может быть вишня (CKPT - старый формат, может содержать вредоносный код, исполняемый при загрузке модели, а может и не содержать).
Путь: \stable-diffusion-webui\models\Stable-diffusion

Важные замечания

  1. VAE – вае это и не сеть и не расширение.
    Расписывать что это и как оно работает я здесь не буду, просто учти, что это хоть и технически необязательное дополнение, генерируют все без исключения с ним, так как вае объективно улучшает качество картинки.
    Иногда модели идут со своим собственным ВАЕ, разумеется тогда стоит использовать его.
    Вае качаются в основном с https://huggingface.co
    Например: https://huggingface.co/stabilityai/sd-vae-ft-mse
    Его, наверное, весь тред использует.
    Путь: \stable-diffusion-webui\models\VAE
    Далее в настройках во вкладке stable diffusion в графе SD VAE выбрать скачанное.
    Рекомендуется поставить галочку ниже, она оверрайтнет настройку для тех моделей которые имеют в одной папке с ними свое вае.
    Поставил и забыл.
  2. К слову о поставил и забыл – Clip skip
    Clip skip – «как понятно из названия» попускает клип, для тебя это ничего не значит да и не должно.
    Очень по-простому чем выше клип скип, тем глубже сеть будет пытаться заглянуть в каждый токен. Картинка будет получаться все более и более абстрактной.
    На практике стоит зайти в настройки во вкладке stable diffusion в графе Clip skip поставить 2.
    Подавляющее число моделей натренированы на 2 скипе и лучше всего работают именно на нем.
    Важно сказать что мнения насчет скипа разделены, кто-то утверждает что генерации лучше на 2, кто то что 2 это говно и надо ставить 1. Решение простое, сгенерируй 2 картинки с одинаковыми параметрами (включая сид) и поменяй только клип скип и выбери свою палочку твикс самостоятельно.
    Заметил что пошло мыло, а раньше было заебись? Это херовые сиды Поменяй клипскип! Не поможет, но душу успокоит!
  3. Алсо, анон, ради хесуса не ставь 100500 шагов пожалуйста и не жалуйся потом в тред что твоя мегакарточка тормозит.
    Ставить больше 30 шагов часто не имеет смысла. Позже я, наверное, оформлю потом прям пошаговый гайд по генерации.

Доп. Сети.

Чтобы вызвать их меню нажмите на красный значок под копкой «generate».

  1. Textual inversion – самый простой способ заставить модель сделать что тебе нужно. «Приклеивает» персонажа поверх сгенерированного рисунка.
    Позволяет подмешать в генерацию какой-либо концепт - персонажа, позу, авторский стиль и т.п. но куда менее эффективно чем ЛОРА, зато их тренировать легче.
    Вызвать можно написав в окне промта имя файла (без .pt) или просто нажми на иконку в веб интерфейсе. Для превью (иконки в WebUI) использует .png с именем в формате "имяфайла.preview.png"
    Берется с https://civitai.com и других источников.
    Путь: \stable-diffusion-webui\embeddings
    В папке не должно быть никаких посторонних файлов кроме непосредственно .pt и превью к ним, иначе WebUI будет сыпать ошибками в консоль.
  2. LORA – как бы дополнительная модель, которая применяется параллельно основной. Обучается на генерацию персонажей, стилей, поз, концепций, неба, Аллаха и вообще всего чего угодно. Мощная штука.
    Имеет расширение .safetensors либо .ckpt аналогично "большим" моделям, но отличается от них размером - типовая ЛОРА весит от 1 до 144 мегабайт в отличии от например 6 гб которых весит основная модель, хотя встречаются исключения.
    Из промта вызывается через конструкцию вида <lora:имя_файла_без_расширения:Х>, где Х это модификатор веса накладываемого эффекта, например 0.7. Оптимальное значение может сильно отличаться для каждого конкретного случая, поэтому экспериментируй. Выше вес – сильнее эффект, это правило вообще на все действует. Не ставь сразу 100500 повышай или понижай по 0.1-0.2 модели довольно чувствительны.

Несколько контринтуитивно, но многие лоры лучше работают с меньшим чем единица весом. Хорошей идеей будет выставить новой лоре например 0.7 в качестве веса.

Часто просто вызвать лору недостаточно, нужно еще сказать ей что делать:
Некоторые ЛОРА добавляют один или несколько своих внутренних токенов, которые вызываются из промта аналогично обычным (например для https://civitai.com/models/13421/saeko-busujima токеном вызова будет saekob, то есть промт должен содержать <lora:saekoBusujima_v10:1>, saekob, ). Токены указываются на страничке скачивания, в текстовике, либо ещё как-то, поэтому будь внимателен и не проеби их, иначе не будет работать как задумывалось.
Для превью использует .png с тем же именем файла, что и у самой ЛОРА, без каких-либо дополнительных изъёбств.
Берется с https://civitai.com и других источников.
В папке помимо моделей может лежать всё что угодно хоть коллекцию боевых картиночек туда засунь, к примеру туда можно складывать текстовики, локальные копии страничек с Цивита, дополнительные .png с примерами промтов и тому подобное.
Путь: \stable-diffusion-webui\models\Lora

Полезные расширения.

Устанавливаются во вкладке «extensions». Нажми на available, load from и выбирай нужные.
Затем в соседней вкладке installed нажми apply and restart. Некоторым нужно прям полностью перезапускать весь автоматик, прям закрывай и запускай заново.

  1. sd-dynamic-prompts
    Dynamic Prompts дописывает промты за тебя и преобразует в более похожие на те что есть в датабазе. Если занимаешься промтами впервые и хуево с англ, очень удобно.
  2. sd-webui-controlnet
    Controlnet – ебучая магия. Позволяет в частности: скопировать «маску» картинки и заставить сеть рисовать по ней (это можно было делать и в img2img, но контролнет имхо удобнее) и построить позу самому в редакторе.
    Так же ему нужны отдельные модели которые надо скачать например с https://civitai.com.
    https://civitai.com/models/9251/controlnet-pre-trained-models
    Не забудь выбрать нужную canny будет работать только с canny, чекай превью.
    Для самостоятельного построения поз качаешь из вкладки extensions еще openpose-editor в котором и строишь позу, редактор довольно топорный, но ты разберешься. Затем жмешь на send to txt2img и поза сразу попадает в controlnet, не забудь вырубить препроцессор, у тебя и так изображение подходит, выбери модель openpose и генерируй.
    Нажми preview чтобы посмотреть сработало ли и генерируй.
    Для «маски» сразу кидай картинку в контролнет и выбирай понравившейся препроцессор, учти, что в первый раз ему еще загрузиться надо, он довольно тяжелый. Я юзаю canny. Не забудь скачать и выбрать соответствующую модель.
    Не забудь нажать enable только, а то будешь удивляться почему ничего не поменялось.
  3. stable-diffusion-webui-wildcards
    Далее все кавычки добавлены для читабельности, при использовании удалять! Проебал синтаксис – идешь нахуй!
    Вайлдкард, дикие карточки. – сжиматель промта до удобного «ярлыка», который хитроумные аноны используют для контролируемой рандомизации промта.
    Позволяет создать текстовик с названием «fox», в котором написанно «fox girl, kitsune, fox ears, fox tail,». Теги пишутся в одну строчку.
    Далее вместо того чтобы в промте в сотый раз писать всю хуйню ты просто пишешь «__fox__» без кавычек как обычный тег. Учти, что нужно выполнить именно два нижних подчеркивания с каждой стороны, да как крутые ники в каесочке сто лет назад, __УБИВАТОР007__. Проебал синтаксис – идешь нахуй.
    Системой такой тег читается как все содержимое текстовика. Если работаешь с частью промта которую нужно часто отключать/включать очень полезно.
    Пример: сгенерировал вайфу, написал __fox__ получил лисодевку, сенкошиз радуется, написал __big__, получил большие формы, педофилыч гневается. Комбинировать можно без ограничений.
    Учти что все карточки надо предварительно написать, не обязательно самому, можно попросить у анонов или найти на https://civitai.com выставив фильтр «wildcards».
    Путь: \stable-diffusion-webui\extensions\stable-diffusion-webui-wildcards\wildcards
    Контролируемая рандомизация промта:
    Вайлдкарды поддерживают вложенный вызов других вайлдкардов.
    Простыми словами, можно записать карты внутри других карт.
    На практике это выглядит так. Если записать теги в карту в одну строку при вызове вылезет все что в карту вписано:
    «fox» = «fox girl, kitsune, fox ears, fox tail,», при вызове в промт выдаст fox girl, kitsune, fox ears, fox tail,.
    Если же записать теги в карту с преносами строки, то карта выберет рандомную строку и выведет в промт:
    «2ch» =
    «Yoba,
    Pepe,
    Trollface
    Gay_ AfroAmerican,»
    При вызове в промт карты «2ch» выдаст либо Yoba, либо Pepe, либо Trollface, либо Gay_ AfroAmerican,
    Это позволяет создать, например, мощную систему бекграундов
    Создается отдельная папка в \stable-diffusion-webui\extensions\stable-diffusion-webui-wildcards\wildcards
    Назовем ее «backgrounds».
    В ней пишется/воруется набор карточек с названиями типа dark-night и classroom, в которых описывается соответствующая часть промта.
    В «dark-night» будет «night, night sky, dark, cloudy sky, dark night, low color gamma, dark colors, low brightness» итд.
    Далее создается одна карта чтобы править ими всеми. Назовем ее «any». В ней пишутся все карты в этой папке с уже знакомыми нам __двойными нижними подчеркиваниями__ по карте на строку.
    «any» = «__beach__
    __brooklyn__
    __castle__
    __christmas-street__
    __classroom__
    __cyberpunk__
    __cyberpunk-rain__»
    Таким образом при вызове карты any (на абзац ниже) у нас будет вызываться любая карта, например, «__christmas-street__» в которой уже содержится «happy, puffy clothes, outdoors, christmas tree, christmas, japanese city street, winter, snow, snowing,»
    Учти, что так как в начале мы создали папку «backgrounds» ее нужно учитывать при вызове «any». Вызов карты «any» в промте выглядит так: __backgrounds/any__.
    Не забывай окружать карты запятыми в промте, так как это просто такие же теги просто компактные и не скопируй случайно кавычки, которыми я тут насрал.
Edit
Pub: 08 Mar 2023 19:23 UTC
Edit: 22 Apr 2023 21:30 UTC
Views: 5556