Не очень понимаю как получился перевод prevgood - "превзошёл все ожидания". Скорее там сокращение с "previous good" - "предыдущее хорошее". В то же время animefull-latest - вроде уже максимально натренированная версия модели на то время когда был взлом. По поводу качества тут сказать и спорить не смогу, ибо не тестил. Было бы хорошо проверить на одинаковых сидах и настройках, как они обе отрабатывают сценарии с отрисовкой пальцев, лиц, и прочего.
У меня такое бывает когда выделенная память видеокарты забивается под потолок. А) По максимуму снять нагрузку с видеопамяти, закрыв лишние процессы которые её жрут. Б) Уменьшить разрешение создаваемого изображения. На моей RTX 3080, я стараюсь не генерить больше чем 1024x1024, так или иначе можно потом поднять апскелерами разрешение если захочется.
Он чуть дальше скидывал полный .png файл, который содержит всю нужную информацию о генерации в метаданных. Можешь ковырнуть эти данные через SD webui в разделе png info просто залив файл. Либо через обычный онлайн сервис по чекингу метаданных с файлов как например https://www.metadata2go.com/
А вот я чёт за последние 5 часиков, чёт слишком лихо наигрался с гиперсетями. Гиперсеть натреняная на мою рожу с помощью SD-v1.4, спокойно встала на NovelAI и прям чёткие результаты выдаёт. Кажись нагенерил себе аватарок на разный стиль на жизни две вперёд.
Ничё, всё нормально. Без затупов - жизнь залупа. Да, под перекачать заного имею в виду полностью снести имеющуюся stable-diffusion-webui (можно забэкапить файлы моделей там, embeddings, стили кастомные и скриптики если есть). И заного через команду git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git поставить всё по новой. Один раз у меня самого поламалось что то и git pull не помогал ни в какую. По этому на всякий на втором диске держу бэкап и раз в недельку перезаписываю.
И уже внутри должны лежать файлы гиперсетей в формате .pt Сам гиперсети я юзаю не часто, если и использую, то только те, что тренирую сам, на свою рожу, на определённого автора или стиль. Те, что идут по умолчанию с NovelAI как по мне довольно скучные.
Так ща разберёмся. Перейди в "stable-diffusion-webui\models" и скажи есть ли у тебя там папка hypernetworks? Ключевой момент это название этой папки. Должно быть "hypernetworks", не "hypernetwork", должно быть именно с "s" в окончании.
По поводу качества тут сказать и спорить не смогу, ибо не тестил. Было бы хорошо проверить на одинаковых сидах и настройках, как они обе отрабатывают сценарии с отрисовкой пальцев, лиц, и прочего.
А) По максимуму снять нагрузку с видеопамяти, закрыв лишние процессы которые её жрут.
Б) Уменьшить разрешение создаваемого изображения.
На моей RTX 3080, я стараюсь не генерить больше чем 1024x1024, так или иначе можно потом поднять апскелерами разрешение если захочется.
Да, под перекачать заного имею в виду полностью снести имеющуюся stable-diffusion-webui (можно забэкапить файлы моделей там, embeddings, стили кастомные и скриптики если есть). И заного через команду git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git поставить всё по новой. Один раз у меня самого поламалось что то и git pull не помогал ни в какую. По этому на всякий на втором диске держу бэкап и раз в недельку перезаписываю.
Сам гиперсети я юзаю не часто, если и использую, то только те, что тренирую сам, на свою рожу, на определённого автора или стиль. Те, что идут по умолчанию с NovelAI как по мне довольно скучные.