Нанонайд по установке и запуску webui с поддержкой новых моделей SD-2.0
⚠️АХТУНГ АХТУНГ АХТУНГ⚠️
Этот гайд предназначен для пользователей, которые могут и любят эксперементировать, а так же понимающих, что и зачем они делают.
Колируем репозиторий в папку stable-diffusion-v2
Если у вас уже есть рабочий stable-diffusion-webui от automatic1111, который, допустим, находится в папке d:\stable-diffusion-webuiто можно не создавать новую копию virtual environment с pytorch и CUDA, а просто сделать символьную ссылку на папку venv из уже рабочего репозитория.
Если же у вас нет установенного webui или вам не жалко время/место на диске, то пункт ниже можно пропустить.
cmd
mklink /D .\venv d:\stable-diffusion-webui\venv
Скачиваем модель 768-v-ema.ckpt отсюда https://huggingface.co/stabilityai/stable-diffusion-2/tree/main и помещаем её в папку \models\Stable-diffusion
В параметры запуска добавляем --xformers --config repositories/stable-diffusion/configs/stable-diffusion/v2-inference-v.yaml
Запускаем webui-user.bat и ждем, пока установятся все зависимости.
При первом запуске webui-user.bat будет относительно долго скачиваться файл размером 3.94Гб — это новая модель CLIP от Laion. Файл будет скачиваться в папку \%USERPROFILE%\.cache
При использвании модели 768-v-ema галочку Use v-prediction нужно установить.
При использвании моделей 512-base-ema и 512-inpainting-ema галочку нужно снять. Модель 512-base-ema работает только с семплерами DPM++SDE и DPM++ SDE Karras.