Сохранен 598
https://2ch.hk/ai/res/532447.html
24 декабря Архивач восстановлен после серьёзной аварии. К сожалению, значительная часть сохранённых изображений и видео была потеряна. Подробности случившегося. Мы призываем всех неравнодушных помочь нам с восстановлением утраченного контента!

Stable Diffusion технотред #13 /tech/

 Аноним 30/10/23 Пнд 18:07:57 #1 №532447 
image.png
image.png
image.png
image.png
ИТТ делимся советами, лайфхаками, наблюдениями, результатами обучения, обсуждаем внутреннее устройство диффузионных моделей, собираем датасеты, решаем проблемы и экспериментируем
Тред общенаправленныей, тренировка дедов, лупоглазых и фуррей приветствуются

Предыдущий тред: >>478081 (OP)

➤ Софт для обучения

https://github.com/kohya-ss/sd-scripts
Набор скриптов для тренировки, используется под капотом в большей части готовых GUI и прочих скриптах.
Для удобства запуска можно использовать дополнительные скрипты в целях передачи параметров, например: https://rentry.org/simple_kohya_ss

➤ GUI-обёртки для kohya-ss

https://github.com/bmaltais/kohya_ss
https://github.com/derrian-distro/LoRA_Easy_Training_Scripts
https://github.com/anon-1337/LoRA-train-GUI

➤ Обучение SDXL

Если вы используете скрипты https://github.com/kohya-ss/sd-scripts напрямую, то, для обучения SDXL, вам необходимо переключиться на ветку "sdxl" и обновить зависимости. Эта операция может привести к проблемам совместимости, так что, желательно, делать отдельную установку для обучения SDXL и использовать отдельную venv-среду. Скрипты для тренировки SDXL имеют в имени файла префикс sdxl_.

Подробнее про обучение SDXL через kohya-ss можно почитать тут: https://github.com/kohya-ss/sd-scripts/tree/sdxl#about-sdxl-training

Для GUI https://github.com/bmaltais/kohya_ss и https://github.com/derrian-distro/LoRA_Easy_Training_Scripts/tree/SDXL так же вышли обновления, позволяющее делать файнтьюны для SDXL. Кроме полноценного файнтьюна и обучения лор, для bmaltais/kohya_ss так же доступны пресеты для обучения LoRA/LoHa/LoKr, в том числе и для SDXL, требующие больше VRAM.

Всё пока сырое и имеет проблемы с совместимостью, только для самых нетерпеливых. Требования к системе для обучения SDXL выше, чем для обучения SD 1.x.

➤ Гайды по обучению

Существующую модель можно обучить симулировать определенный стиль или рисовать конкретного персонажа.

Текстуальная инверсия (Textual inversion) может подойти, если сеть уже умеет рисовать что-то похожее:
https://rentry.org/textard (англ.)

Гиперсеть (Hypernetwork) может подойти, если она этого делать не умеет; позволяет добавить более существенные изменения в существующую модель, но тренируется медленнее:
https://rentry.org/hypernetwork4dumdums (англ.)

Dreambooth – выбор 24 Гб VRAM-бояр. Выдаёт отличные результаты. Генерирует полноразмерные модели:
https://github.com/nitrosocke/dreambooth-training-guide (англ.)

LoRA – "легковесный Dreambooth" – подойдет для любых задач. Отличается малыми требованиями к VRAM (6 Гб+) и быстрым обучением:
https://rentry.org/2chAI_easy_LORA_guide - гайд по подготовке датасета и обучению LoRA для неофитов
https://rentry.org/2chAI_hard_LoRA_guide - ещё один гайд по использованию и обучению LoRA
https://rentry.org/59xed3 - более углубленный гайд по лорам, содержит много инфы для уже разбирающихся (англ.)

LyCORIS (Lora beYond Conventional methods, Other Rank adaptation Implementations for Stable diffusion) - это проект по созданию алгоритма для более эффективного дообучения SD. Ранее носил название LoCon. В настоящий момент включает в себя алгоритмы LoCon, LoHa, LoKr и DyLoRA:
https://github.com/KohakuBlueleaf/LyCORIS

LoCon (LoRA for Convolution layer) - тренирует дополнительные слои в UNet. Теоретически должен давать лучший результат тренировки по сравнению с LoRA, меньше вероятность перетренировки и большая вариативность при генерации. Тренируется примерно в два раза медленнее чистой LoRA, требует меньший параметр network_dim, поэтому размер выходного файла меньше.

LoHa (LoRA with Hadamard Product representation) - тренировка с использованием алгоритма произведения Адамара. Теоретически должен давать лучший результат при тренировках с датасетом в котором будет и персонаж и стилистика одновременно.

LoKr (LoRA with Kronecker product representation) - тренировка с использованием алгоритма произведения Кронекера. Алгоритм довольно чувствителен к learning_rate, так что требуется его тонкая подгонка. Из плюсов - очень маленький размер выходного файла (auto factor: 900~2500KB), из минусов - слабая переносимость между моделями.

DyLoRA (Dynamic Search-Free LoRA) - по сути та же LoRA, только теперь в выходном файле размер ранга (network_dim) не фиксирован максимальным, а может принимать кратные промежуточные значения. После обучения на выходе будет один многоранговый файл модели, который можно разбить на отдельные одноранговые. Количество рангов указывается параметром --network_args "unit=x", т.е. допустим если network_dim=128, network_args "unit=4", то в выходном файле будут ранги 32,64,96,128. По заявлению разработчиков алгоритма, обучение одного многорангового файла в 4-7 раз быстрее, чем учить их по отдельности.

Text-to-image fine-tuning для Nvidia A100/Tesla V100-бояр:
https://keras.io/examples/generative/finetune_stable_diffusion (англ.)

Не забываем про золотое правило GIGO ("Garbage in, garbage out"): какой датасет, такой и результат.

➤ Тренировка YOLO-моделей для ADetailer
YOLO-модели (You Only Look Once) могут быть обучены для поиска определённых объектов на изображении. В паре с ADetailer они могут быть использованы для автоматического инпеинта по найденной области.

Гайд: https://civitai.com/articles/1224/training-a-custom-adetailer-model
Тулза для датасета: https://github.com/vietanhdev/anylabeling
Больше про параметры: https://docs.ultralytics.com/modes/train

➤ Гугл колабы

﹡Текстуальная инверсия: https://colab.research.google.com/github/huggingface/notebooks/blob/main/diffusers/sd_textual_inversion_training.ipynb
﹡Dreambooth: https://colab.research.google.com/github/TheLastBen/fast-stable-diffusion/blob/main/fast-DreamBooth.ipynb
﹡LoRA [1] https://colab.research.google.com/github/Linaqruf/kohya-trainer/blob/main/kohya-trainer.ipynb
﹡LoRA [2] https://colab.research.google.com/drive/1bFX0pZczeApeFadrz1AdOb5TDdet2U0Z

➤ Полезное

Гайд по фиксу сломанных моделей: https://rentry.org/clipfix (англ.)
Расширение WebUI для проверки "сломаных" тензоров модели: https://github.com/iiiytn1k/sd-webui-check-tensors
Гайд по блок мерджингу: https://rentry.org/BlockMergeExplained (англ.)
Гайд по ControlNet: https://stable-diffusion-art.com/controlnet (англ.)

Гайды по апскейлу от анонов:
https://rentry.org/SD_upscale
https://rentry.org/sd__upscale
https://rentry.org/2ch_nai_guide#апскейл
https://rentry.org/UpscaleByControl

Ручная сборка и установка последней версии xformers и torch в venv автоматика:
Windows: https://rentry.org/sd_performance
Linux: https://rentry.org/SD_torch2_linux_guide

Подборка мокрописек от анона: https://rentry.org/te3oh
Группы тегов для бур: https://danbooru.donmai.us/wiki_pages/tag_groups (англ.)
Коллекция лор от анонов: https://rentry.org/2chAI_LoRA

Гайды, эмбеды, хайпернетворки, лоры с форча:
https://rentry.org/sdgoldmine
https://rentry.org/sdg-link
https://rentry.org/hdgfaq
https://rentry.org/hdglorarepo
https://gitgud.io/gayshit/makesomefuckingporn

Шапка: https://rentry.org/catb8

Прошлые треды:
№1 https://arhivach.top/thread/859827/
№2 https://arhivach.top/thread/860317/
№3 https://arhivach.top/thread/861387/
№4 https://arhivach.top/thread/863252/
№5 https://arhivach.top/thread/863834/
№6 https://arhivach.top/thread/864377/
№7 https://arhivach.top/thread/868143/
№8 https://arhivach.top/thread/873010/
№9 https://arhivach.top/thread/878287/
№10 https://arhivach.top/thread/893334/
№11 https://arhivach.top/thread/908751/
№12 https://arhivach.top/thread/927830/
Аноним 30/10/23 Пнд 18:18:39 #2 №532457 
>>532320 →
Продублирую.
Или как это работает?
Аноним 30/10/23 Пнд 18:23:44 #3 №532462 
>>532439 →
>Ещё удивило, что хвосты тоже никуда не летают в 90% случаев.
Рилли? Теперь можно рисовать кошкодевочек с хвостами, а не продолжениями волос и лишними волосатыми верёвками?
Аноним 30/10/23 Пнд 19:15:06 #4 №532502 
>>532457
Я ответил же тебе уже в прошлом >>532439 →
>>532462
Получается так, кошкодевочку в каждый дом. Я пока немного потестил, но проблем таких как на наи тут явно меньше, на б64 даже с лорой там со скрипом хвосты рисовались, а тут просто тегами.
Аноним 30/10/23 Пнд 19:40:42 #5 №532519 
>>532439 →
> но они более компетентны, чем sai, их чекпоинт просто работает и тренится легче
Сильное заявление, их если и сравнивать то с чистой nai (не честно ибо она тут в основе) с waifu diffusion или анстабилити с их моделью. И то временной разрыв очень большой.
> и не имеет артефактов присущих наи или его производным в этом разрешении
Можешь что-нибудь с детальным сценери пратащить. Например, всех доебавшая киберпанк улица, урбанистический вид с крыши, фентези средневековье с деревушками, полями и замком на фоне горной полосы, пейзаж фуджи, египетские пирамиды, арабский город (улица и вид сверху). Офк с персонажами и чтобы относительно детально а не минималистично. Офк если лень то не делай, как получится сам потестирую, но всеже.
> Что конкретно?
Вообще много их. Но базированное - лежит на кровати обнимая подушку, лежит на животе вид 3/4, стоит широко расставив ноги, наклоняется вперед свешиваясь с парапета, поза лотоса, просто сидит на полу с руками между ног, или коленями вверх чтобы было перекрытие одной ноги другой. Совсем хардмод - вверх ногами, 9 хвостов в сочетании с платьем с короткими руковами и floating hairs в данамичной позе, двух разных персонажей промтом.
> что хвосты тоже никуда не летают в 90% случаев
Ух бля, с козырей, так уж и не летают?
Аноним 30/10/23 Пнд 19:49:33 #6 №532521 
Уже обсуждали https://github.com/hako-mikan/sd-webui-negpip ? Помоему супер мега полезная вещь, делающая негативы ненужными вообще
Аноним 30/10/23 Пнд 20:01:32 #7 №532527 
>>532521
> делающая негативы ненужными вообще
Нет. Оно разве что может править фантазии сетки, но для нормального качества без негативов никуда не деться.
Аноним 30/10/23 Пнд 20:04:45 #8 №532529 
>>532502
О, я и не заметил.
Спасибо, попробую.
Аноним 30/10/23 Пнд 21:45:03 #9 №532636 
>>532527
>Нет
да, я именно поэтому сказал что можно без негативов
Аноним 30/10/23 Пнд 21:55:35 #10 №532650 
>>532447 (OP)
https://rentry.org/2chAI_easy_LORA_guide - 404
Аноним 30/10/23 Пнд 23:47:02 #11 №532739 
1521819383044.jpg
>>532521
>хуйнянейм усиливает влияние негативов
>можно обойтись вообще без негативов!
Аноним 31/10/23 Втр 00:47:34 #12 №532774 
>>532519
> Сильное заявление, их если и сравнивать то с чистой nai (не честно ибо она тут в основе) с waifu diffusion или анстабилити с их моделью. И то временной разрыв очень большой.
И ничего что тут тоже 1024 и фикс одной из основных проблем 1.5, на которую кучу заплаток понавыпускали?
> Можешь что-нибудь с детальным сценери пратащить. Например, всех доебавшая киберпанк улица, урбанистический вид с крыши, фентези средневековье с деревушками, полями и замком на фоне горной полосы, пейзаж фуджи, египетские пирамиды, арабский город (улица и вид сверху). Офк с персонажами и чтобы относительно детально а не минималистично. Офк если лень то не делай, как получится сам потестирую, но всеже.
Попробовал, как то так, я вообще заметил что тут походу надо не хайрез х2 делать, а сразу отправлять в мд или ещё куда, потому что он как то начинает ухудшать изначальную генерацию замыливанием, она на удивление выглядит нормально в лоурезе, если конечно перс не совсем далеко.
> лежит на кровати обнимая подушку, лежит на животе вид 3/4
Ух как лешды то попёрли с этой смеси подушки и кровати, вот с конкретными указаниями позиции бадихоррора добавилось, апсайд даун не нуждается в комментах вообщем, но сука хвост на месте. Ты бы лучше сразу теги скидывал, я понятия не имею как ты собрался даже на наи такое без кнета промптить, если там вообще есть теги на половину того, что ты перечислял, ещё небольшая проблема может быть в том, что я точно не знаю как их правильно комбинить на собачьем, но мб тут уже и есть предел, где надо добавлять контролнет в помощь. На короче, сам погляди на это https://files.catbox.moe/k3ixg5.7z
> Ух бля, с козырей, так уж и не летают?
Ну конкретно у этой кошки, он как то подозрительно правильно почти всегда крепится.
Аноним 31/10/23 Втр 01:50:16 #13 №532804 
>>532739
не усиливает, а фильтрует кал лучше, чем поле негативов, а так как можно все из негативов перенести в позитив с минусом, то поле негативов соснуло
Аноним 31/10/23 Втр 03:22:28 #14 №532829 
>>532502
Что-то как-то по ощущениям хуже стало.
Может, не те модели мерджил? Стянул с цивита первую попавшуюся - а там на них на всех конфиги нужны, а ФлаффиРок так вообще без ЦФГ-рескейла в базе не работает.
И что-то мне подсказывает, что с таким мерджить обычную модель - не слишком правильная идея.
Аноним 31/10/23 Втр 04:01:19 #15 №532833 
>>532829
Ну, теоретически, с единицей на альфе ты получаешь модель со свойствами модели B в основе, так что не должно ебануть. Хуй знает, надо тоже попробовать.
Аноним 31/10/23 Втр 04:59:49 #16 №532844 
>>532829
Я не так много экспериментировал именно с этим способом, тот анон лучше подсказать может, но там надо делать это именно супермерджером и именно с этими версиями моделей. Точно всё сделал правильно? Может действительно буст будет не для всех моделей, я юзал с based67, которая с цивита, у него там какой то свой микс.
На всякий случай:
Супермерджер - https://github.com/hako-mikan/sd-webui-supermerger/tree/main
Изифлафф - https://huggingface.co/zatochu/EasyFluff/blob/main/EasyFluffV10-PreRelease2.safetensors
Флуффирок - спамлист не пропускает https://huggingface.co/lodestones/furryrock-model-safetensors/tree/main/fluffyrock-1088-megares-terminal-snr-vpred вот тут найди 132 эпоху просто
Аноним 31/10/23 Втр 05:48:11 #17 №532848 
>>532439 →
> Вот тут расписан алгоритм, как это сделать >>526434 → не все фичи перенесутся, в основном разрешение и послушность промпту должна добавиться

Интересно было почитать, как анимешники предвзято смотрят на фуррей с высока, при этом не осознавая, что сами не очень то далеко от них ушли
Аноним 31/10/23 Втр 05:49:12 #18 №532849 
image
image
image
image
Эм.
Аноним 31/10/23 Втр 05:54:24 #19 №532850 
>>532849
Ты разницу А и С не забыл прибавить к своей модели В? А то не понятно по пикчам
Аноним 31/10/23 Втр 05:57:34 #20 №532851 
>>532850
Да как на том пике настройки, разница, трэйндиф, альфа 1.
Аноним 31/10/23 Втр 09:08:41 #21 №532887 
Всегда использую для стейбла универсальный лайфхак, это генерировать манямэ картинки вместе с TI или лорой на пиксель арт. С таким весом, чтобы изображение не выглядело как пиксельарт (чтобы невозможно было разглядеть квадраты пикселей). Желательно чтобы эмбеддинг не влиял на стиль. Писать "pixel art" вместо эмбеддинга нежелательно - тогда фон или отдельный предмет будет пиксельным, а остальное обычным.
Для чего это нужно? Чтобы изображение было чистым, с аккуратными формами, будто автор уделил работе тщательное внимание. Сэмплер как будто лучше знает и понимает всё, от деталей до цвета и цветовых градаций, если рассматривает картинку именно как пиксель-арт. Всё приобретает "профессиональный" вид как ассеты охуенного ретро игоря. Из минусов, становятся более вероятными строго-диагональные линии (чтобы понять почему, попробуйте проложить в пейнте под зумом наклонную линию толщиной в один пиксель). Но для меня это скорее плюс, ностальгия по старым игорям из начала девяностых.
Аноним 31/10/23 Втр 09:12:30 #22 №532889 
>>532887
Молодец, а теперь обратно в палату
Аноним 31/10/23 Втр 09:38:47 #23 №532896 
00000-2870305590.png
Обновил пекарню, решил генерить девочек, прохожу Аска-тест и НИХУЯ НЕ ПОХОЖЕ. Если что радеонорожденный. В чем причина, что делать?
Понятия не имею где этот вопрос задавать так что и в аниме-треде вкинул
Аноним 31/10/23 Втр 09:44:20 #24 №532899 
>>532889
>пук
По делу есть что сказать?
Аноним 31/10/23 Втр 09:46:18 #25 №532901 
>>532896
> Аска-тест
Как там в 2022?
Аноним 31/10/23 Втр 09:49:34 #26 №532902 
>>532901
Нормально, птички поют. Я ж только только вкатился, так что если это все устарело - то я и не против собстна. Но я попытался и с цивитаи картинки попробовать повторить - одна сплошная жопа. Единственная модель которая работает нормально это, внезапно, фурриговно
Аноним 31/10/23 Втр 09:52:39 #27 №532903 
>>532902
С реализмом все просто - качаешь epicPhotogasm Z, выставляешь настройки и негативы, которые в описании модели советуют, и все. А с аниме видимо да, надо страдать. Моделей лютый зоопарк, и простого единого критерия качества нет
Аноним 31/10/23 Втр 10:48:55 #28 №532924 
>>532899
Покажи как выглядит, скорее всего достижимо нормальными путями без ущерба.
>>532902
> попытался и с цивитаи картинки попробовать повторить - одна сплошная жопа
Параметры не упустил никакие? Сейчас почти любой из миксов что выкладывают дает красивую картинку из коробки, если сильно не проебываться.
Аноним 31/10/23 Втр 11:06:44 #29 №532933 
>>532521
Скорость падает с ним у меня, при чем если нет негативных весов, а просто Галочка active. С 25.5 сек до 26.3, при генерации батча из 10 пикч. Это конечно пипец. Вроде и мало, но камон, я же негативных весов не добавил, че оно вообще влияет

Так то прикольно было бы иметь альтернативный вариант отрицания. Но я потыкал, обычный негатив работает лучше. Пригодится только для особых случаев как из примеров от автора
Аноним 31/10/23 Втр 12:28:16 #30 №532962 
Накидайте быстрый гайд что мне делать для вката?

Имею 4080/16, умею кодить.
Хочу голых фотореалистичных бап по моим сценариям.
Аноним 31/10/23 Втр 12:32:37 #31 №532967 
image.png
>>532962
Тащемта секрета тут нет, просто берешь и генеришь
Аноним 31/10/23 Втр 12:36:56 #32 №532969 
>>532962
Скачать text-generation-webui, скачать моделей с civitai, генерить, дрочить.
Аноним 31/10/23 Втр 12:40:53 #33 №532972 
>>532969
Ты треды перемешал, иди уже, выспись, двачей и генерации на сегодня достаточно
Аноним 31/10/23 Втр 12:52:47 #34 №532981 
>>532969
Ага, пасис, с text-generation-webui понятно. А кто такие модели с civitai? Это типа девки? Чтоли можно только ограниченный набор девок скачать и их по всякому ставить?
Аноним 31/10/23 Втр 14:45:02 #35 №533041 
Untitled (2).jpg
Всё, приехали - копирастия добралась до стейбла. Встретил на Civitai вот такую свежую XL модель
https://civitai.com/models/183813
По превью выглядит охуенно, но вот что странно: в описании автор говорит, что запрещено постить ее на любых ресурсах, которые хостятся в Китае, и типа "если зальете, против вас будет возбуждено дело по законам КНР". Даже сначала думал что автор япошка, который хейтит чинков, - но текст явно на китайском.
А я как раз пользуюсь одним китайским облаком, и решил попробовать залить туда этот файл с Civitai. Не вышло: выдает ошибку при попытке отправить. Любые другие файлы туда заливаются, как обычно, а этот нет. Видимо, в Винни-пухии есть некая база с хэшами файлов, на которые действуют авторские права физ. и юр.-лиц., а владельцы цифровых платформ с ней постоянно сверяются. Но мне позарез надо именно эту модель и именно на чонговском сервере, так что буду искать способ подредактировать файл, не ломая чекпойнт. Всего-то пару битов надо поменять. Что мне, социальный рейтинг за это снизят?
Аноним 31/10/23 Втр 15:02:23 #36 №533050 
>>532969
Скачал, установил, модель epicphotogasm_z.safetensors. В настройках выбираю модель, загружаю - ошибка. Что делать?


"\text-generation-webui\installer_files\env\Lib\site-packages\transformers\configuration_utils.py", line 708, in _get_config_dict

raise EnvironmentError(

OSError: It looks like the config file at 'models\epicphotogasm_z.safetensors' is not a valid JSON file."
Аноним 31/10/23 Втр 15:23:45 #37 №533059 
>>533050
Перекатываться в Midjourney
Аноним 31/10/23 Втр 15:34:23 #38 №533063 
>>533050
Т.е. ты скачал webui для чат-бота и пытаешься запустить на нём модель от stable diffusion?
Аноним 31/10/23 Втр 15:45:12 #39 №533067 
>>533063
Ебанько, все модели Pytorch плюс-минус одинаковые - на тензорах.
Аноним 31/10/23 Втр 16:13:59 #40 №533081 
>>533059
>"хочу голых фотореастичных бап!"
>"скачай текстовый генератор!"
>"закатывайся в Midjourney!"
Советы из 10 прям. Впрочем, долбоёб сам виноват, нашёл где спросить.
Аноним 31/10/23 Втр 16:24:09 #41 №533086 
>>533050
Гайды в шапке. После установки диффузии скачай модели (в прошлых тредах можешь поискать их названия). И запомни, хороший апскейл исправляет плохой арт.
На этапе установки гита убери пару галочек, забыл каких, чтобы он не добавлял свои пункты в контекстное меню папок. Там написано что-то про folder, new, bash, here. И устанавливай диффузию на большой диск, нужно хотя бы 20 гигов, модели весят мноно, и арты тоже если их много.
Аноним 31/10/23 Втр 16:29:04 #42 №533090 
>>533041
По заветам хача поступи и смени метадату-описание-примеры. Нюансы могут быть только если кто-то обнаружит сходство и решит зарепортить куда следует.
>>532969
> text-generation-webui
Вот ты содомит
>>533050
Тебе нужно вот это https://github.com/AUTOMATIC1111/stable-diffusion-webui что как ищи гайды

Господа хорошие, вот эти самые модели с пушком, втуберы и прочее, они через что делались, будка или уже что-то сложнее?
Собственно в чем подводные капни взять, натащить хороших годных артов в бур, подмешать не совсем 3д но уже с какими-то позами, бэкграудов, кое как отбалансировать и дообучить свою? Алсо реквестирую если вдруг есть где за это почитать, заодно и фичи типа vpred.
Аноним 31/10/23 Втр 16:45:38 #43 №533098 
>>532844
Да, мерджил Супермерджером сразу, как на скрине настройки были. Оно не так чтоб прям совсем сломалось, но результат по ощущениям хуже стал.

>вот тут найди 132 эпоху просто
lion-low-lr-e132-terminal-snr-vpred-e105
Эту?
Аноним 31/10/23 Втр 18:04:21 #44 №533141 
>>532969
Этот совет не работает. Заменяйте вашу бесполезную шапку, с которой вы сами ничего не умеете. Работает следующий:

1. Выполнить инструкции установки https://github.com/AUTOMATIC1111/stable-diffusion-webui

2. Скачать большой файл и положитьв директорию stable-diffusion-webui\webui\models\Stable-diffusion\
https://civitai.com/models/132632?modelVersionId=201259

3. Открыть в броузере http://127.0.0.1:7860/ Выбрать Stable Defusion Checkpoint = файл скачаной модели
Аноним 31/10/23 Втр 18:38:36 #45 №533159 
>>533098
Снизу нажми load more files, потом ctrf+f 132 ищи, качай модели сразу с конфигами .yaml на всякий случай, если захочешь пользоваться именнно ими, а не производными миксами.
>>533141
Потому что он тебя пранканул, посоветовав скачать вебуи для генерёжки текста, а не картинок.
>>533041
Зашифруй в архив просто тогда.
>>533090
> Господа хорошие, вот эти самые модели с пушком, втуберы и прочее, они через что делались, будка или уже что-то сложнее?
С пушком там вообще какие то свои скрипты были на мощностях гугла, нахера они тебе сдались? Рак из А100 завалялся?
Аноним 31/10/23 Втр 18:57:42 #46 №533165 
1566898521068.png
>>532972
>>533050
>>533090
>>533141
> выспись
БЛЯТЬ я чето реально не спал два дня и уебался скопировав не то и не заметив сука
Аноним 31/10/23 Втр 19:00:43 #47 №533167 
>>533141
Он и не должен работать, ведь это рофл или советчик действительно не проспался. Да и тред не про то как запустить в первый раз, за таким в генережку проследуй.
>>533159
> нахера они тебе сдались?
Зачем они, в целом метод и принципы хочется понять, а проблемы решать уже по мере их появления и с учетом рациональности.
Аноним 31/10/23 Втр 19:38:09 #48 №533182 
>>533167
Вот тут был описан основной принцип https://arxiv.org/abs/2305.08891 как тренить не лору с чекпоинта уже натрененного на новые фичи вообще без понятия, всё равно это скорее всего неосуществимо без мощностей, но попробуй, расскажи если что вдруг получится.
Аноним 31/10/23 Втр 19:54:32 #49 №533201 
>>533067
А ты я смотрю сверхразум, который знает как запустить stable diffusion в text-generation-webui
Аноним 31/10/23 Втр 20:46:12 #50 №533241 
>>533159
Нет, итог все-таки ломается.
Не прям полностью ппц, но бракованных картинок заметно больше выдает.
Странные перенасыщенные цвета на части генераций, цветовые пятна какие-то вылазят не к месту, яркость и контрастность довольно сильно могут от картинки к картинке меняться.
А вот улучшения качества по сравнению с исходником мерджа не заметил практически.
Аноним 31/10/23 Втр 20:53:08 #51 №533248 
>>533041
В метаданные напиши че-нибудь, тогда хеш сменится (с помощью checkpoint merger)
Аноним 31/10/23 Втр 20:53:31 #52 №533249 
.jpg
.jpg
.jpg
.jpg
>>532848
> предвзято смотрят на фуррей с высока
Да ладно, это ещё очень весьма толерантное упоминание этого сообщества.

>>532829
> Что-то как-то по ощущениям хуже стало.
Надо обязтельно именно те версии моделей, что на скрине были, как минимиму ФР, он отправная точка:
Ругалась на спамлист - точные имена файлов https://pastebin.com/kfp77fB3
ЕФ может ещё прокачают, думаю, его можно просто последнюю брать.

> Может, не те модели мерджил? Стянул с цивита первую попавшуюся - а там на них на всех конфиги нужны, а ФлаффиРок так вообще без ЦФГ-рескейла в базе не работает.
Конфиги нужны (но они почти все одинаковые) только если ты хочешь на этих моделях генерить. Хотя я не проверял без них мерж, не буду врать. Но результат разницы работает без конфига.

> И что-то мне подсказывает, что с таким мерджить обычную модель - не слишком правильная идея.
Простой суммой - да. С разницей мы же получается из модели с конфигом вычитаем модель с конфигом, оставляя только разницу со своей. И фактически, хоть это и звучит не очень математически, но необходимость конфига тоже "вычлась".

Специально повторил скриншот на рэндомной попавшейся под руку ламетте - нормально. Смеха ради на повторил на простите капусте3 - тоже нормально.

1Ламета, 2 ЛаметаФ, 3 ЭниТрин, 4 ЭниТринФ
Аноним 31/10/23 Втр 20:58:38 #53 №533259 
>>533249
> 1Ламета, 2 ЛаметаФ, 3 ЭниТрин, 4 ЭниТринФ
Блин. Правильно поставило так:
1 ЭниТрин, 2 ЭниТринФ, 3 ЛаметаФ, 4 Ламета
Аноним 31/10/23 Втр 21:00:39 #54 №533262 
>>533241
>но бракованных картинок заметно больше выдает
Это норма. Генери больше картинок, чтобы было больше хороших.

>цветовые пятна какие-то вылазят не к месту
Поставь VAE.
Аноним 31/10/23 Втр 21:10:12 #55 №533268 
Как на глаз определять с чем я сосну, а с чем несосну при 16GB VRAM?

Вот например файл sd_xl_base_1.0.safetensors мне можно пробовать? Посоветуйте еще файлов с голывми бабами, чтоб подходили.
Аноним 31/10/23 Втр 21:10:38 #56 №533270 
>>533262
>Поставь VAE.
Оно не от вае так (тем более все подключено).
Это именно в генерации какой-то косяк.
Типа, ядовито-фиолетовые соски. Или что-то типа краски случайного цвета, разлитой по персонажу. Цветовые акценты на одежде, волосы разного цвета, артефакты на коже, и всё такое.
>Это норма.
Зачем оно мне, если я значительной разницы по сравнению с исходником не наблюдаю?
Аноним 31/10/23 Втр 21:16:02 #57 №533275 
>>532848
Ногой в жопу не ходим, как говорится, но вообще крайне лояльно и себя не превозносят, отдельные личности всегда бывают.
>>533201
Поставить галочку sd_api?
>>533249
В рамках развлечений не пробовал мерджить разницу между тем же изифлаффом и флаффироком, или наоборот, или менять местами в той последовательности их миксы с "базовой моделью"?
>>533270
> ядовито-фиолетовые соски
Как раз похоже на косяки вае, вылезают на мелочах, гранях, стыках. Хотя другое описание похоже на работу диких семплеров типа dpm3m... и нюансы с cfg покажи пример.
Аноним 31/10/23 Втр 21:31:28 #58 №533285 
>>533275
Обычный СДЕ-карась. 8 цфг. 24 шага.
Особенно мощно проявляется, если лора на яркий и насыщенный стиль какого-нибудь художника подключается. Тут вообще караул.
Без лор, на чистом мердже, проявляется больше в очень резком и странном шэйдинге, и тех самых ярких цветовых акцентах на одежде.
Аноним 31/10/23 Втр 21:34:35 #59 №533288 
>>533285
Покажи что там. Если стесняешься то сделай отдельную пикчу по простому промту где это проявится. Лучше сразу на котокоробку заливай чтобы с экзифом.
Аноним 31/10/23 Втр 21:40:08 #60 №533289 
>>533288
Попозже немного, сейчас другая задача.
>Если стесняешься
Да что там стесняться, просто аниме-тянки, как будто кто-то их тут не видел.
Аноним 31/10/23 Втр 22:07:23 #61 №533313 
.jpg
>>533275
> В рамках развлечений не пробовал мерджить разницу между тем же изифлаффом и флаффироком, или наоборот, или менять местами в той последовательности их миксы с "базовой моделью"?
Не оч понял как. Напиши, что в А, В и С поставить. Но вообще к этой схеме я пришёл когда пытался просто вмержить традиционным способом разницу от (ФР - наи) в свою модель. Там я как раз и попал в то странное место, когда в одной модели есть конфиг, в остальных нет, и в итоге получалась хтонь.
Аноним 31/10/23 Втр 22:19:36 #62 №533318 
>>533182
Спасибо, ну стоящее за этим примерно понятно, теперь вопрос в практической реализации. Имплементация фиксов же уже должна быть.
>>533313
> вмержить традиционным способом разницу от (ФР - наи) в свою модель
Здесь, по идее, как раз хтонь и пойдет из-за разнородных весов, плюс диалект и байас появятся.
A - базовая B - изифлаф C - флаффирок, или BC местами махнуть но тогда результат может странным выйти.
Аноним 31/10/23 Втр 22:25:20 #63 №533319 
>>533318
> A - базовая B - изифлаф C - флаффирок, или BC местами махнуть но тогда результат может странным выйти.
Это было второй стадией, когда стало понятно, что ни вычитанием Наи, ни СД1.5 ничего не добиться. Так тоже результирующая модель ломалась, с конфигом и без. Получилось только "вывернув наизнанку" что куда мержить.
Аноним 31/10/23 Втр 22:37:47 #64 №533323 
>>533318
> BC местами махнуть
Изифлафф это мердж на основе флуфирока, грубо говоря можно ИФ считать чем то типо б64, а ФР наи, только в мире фуррей.
> Спасибо, ну стоящее за этим примерно понятно, теперь вопрос в практической реализации. Имплементация фиксов же уже должна быть.
--v_parameterization --zero_terminal_snr --scale_v_pred_loss_like_noise_pred у кохи, там уже можно что то типо полноценных чекпоинтов тренить, а не просто лору+локон, можешь попробовать.
Аноним 31/10/23 Втр 22:48:49 #65 №533328 
Кочяйте дрова, пидоры. Куртка вам костыль запилил.
https://nvidia.custhelp.com/app/answers/detail/a_id/5490
Аноним 31/10/23 Втр 22:50:38 #66 №533330 
>>533323
О, как раз для кохя-дебилов, то что нужно. Ну, в рамках экспериментов почему бы не попробовать, на полноценный чекпоинт врядли офк выйдет, но может что-то новое в тренировке более абстрактных вещей, более общих стилей, групп персонажей или еще какой-нибудь хери. В идеальном раскладе какой-то твик с возможностью подмешивания.
Аноним 31/10/23 Втр 22:57:46 #67 №533334 
>>533330
Можешь даже не пытаться тренить с этой хернёй лору с обычного чекпоинта типа наи, там полный провал будет, я уже пробовал, оно просто шум будет генерить, хотя можешь сам убедиться, если не веришь. Остаётся либо файнтюн, либо лору с уже готового файнтюна.
>>533328
Ну хотя бы не забили полностью и то радует, я уж думал что им похуй стало, когда это из ишьюсов пропало.
Аноним 31/10/23 Втр 23:02:45 #68 №533338 
>>533334
Как раз дообучение модели рассматриваю, если такое на нищежелезе заведется. Если, например, с таким параметром ту же наи брать - не взлетит? Некоторые файнтюны вроде с нее и делались, причем включают нужное, но может там какие особые нюансы.
Аноним 31/10/23 Втр 23:10:48 #69 №533342 
>>533338
Это срабатывает с лорами нормально только с флуфироком, потому что он уже был натренен с впредом, но вымыл все предыдущие знания привычных моделей долгой тренировкой. С наи оно тренится конечно, даже градиентный спуск правильный на графике при годном лр, но генерит на выходе шум, возможно нужно грузить модель при использовании такой лоры с конфигом v_param или как оно там, чего я не пробовал делать.
Аноним 31/10/23 Втр 23:13:01 #70 №533345 
>>533328
То есть теперь оно по-старинке в ООМ падать будет?
Аноним 31/10/23 Втр 23:22:26 #71 №533351 
>>533345
Ну глянь ссылку, добавили возможность настраивать, причем даже индивидуально для приложений с помощью функционала их драйвера.
Аноним 31/10/23 Втр 23:27:10 #72 №533357 
>>533328
Зачем намеренно делать хуже?
Аноним 01/11/23 Срд 00:21:44 #73 №533379 
1.png
2.png
>>533288
https://files.catbox.moe/tbfa7z.png
https://files.catbox.moe/7j1fgc.png
Ну вот, например. На первой совершенно точно какая-то фигня с контрастом.
На второй - неестественные цвета.
При этом на оригинальной модели ничего такого и близко нет. Контраст ровный по всем изображениям, и таких цветовых аберраций тоже не встречается.
Это без лор. Если лоры начинать подключать - в синей и фиолетовый (почему-то в эти два цвета в основном) смещает еще сильней, и довольно часто.
А, еще сильно блюром засирает почему-то. Приходится негатив добавлять.
Аноним 01/11/23 Срд 00:24:28 #74 №533380 
>>533357
Так там ж в новости написано было.
На 6 гигах у юзеров оно туда-сюда часто прыгало. Чтоб это предотвращать - и вернули возможность старый ООМ сделать, который тебе генерацию прерывает, и ты можешь настройки чутка в сторону уменьшения передвинуть.

Мне вот с моей 4080 тоже не всегда непонятно бывает, когда я в память еще укладываюсь, а когда - уже нет.
8 картинок 800х600 одним батчем сгенерить и из памяти не выпасть - оказывается, можно.
Аноним 01/11/23 Срд 02:53:02 #75 №533419 
>>532849
Налету из супамёрджера почему-то некорректный выхлоп.
Если сводить, то результаты другие.
Аноним 01/11/23 Срд 04:00:31 #76 №533425 
>>533323
> --v_parameterization
> --scale_v_pred_loss_like_noise_pred
Модель с этой штукой изначально нужна, шум. В скрипте файнтюна (а нужен он вообще сейчас при наличии будки то?) вообще нах шлет типа иди со своей 1.5 и xl лесом, подавай 2.х.
> --zero_terminal_snr
А вот эта штука с будкой делает круто, бледная пересвеченность наи пропадает почти с самой первой эпохи и местами хтони становится меньше.
Но полноразмерное обучение на нищежелезе, офк, та еще боль, пощупать оптимайзер кроме 8битного - почти гарантировано своп врам и кратное замедление.
Аноним 01/11/23 Срд 05:21:56 #77 №533430 
>>533275
> Поставить галочку sd_api?

И что, у тебя тогда text-generation-webui начнёт поддерживать stable diffusion модели? Клоун
Аноним 01/11/23 Срд 06:05:02 #78 №533434 
1698807901509.png
1698807901512.png
Что за DeepFloyd IF, почему issue с ним самое залайканное у автоматика на гитхабе? Типа так круто? Как я понял, это какой-то заброшенный "убийца" stable diffusion только в пиксельном пространстве

Кстати еще какой-то Parti есть в сравнениях на сайте. Судя по гитхабу, это нейросеть от гугла, чуть менее заброщенная , 3 недели назад
Аноним 01/11/23 Срд 06:42:12 #79 №533437 
>>533434
DF IF неплохая модель, хорошо понимающая промпт, с трансформером на входе, из-за этого упирается в 24ГБ даже при инференсе, плюс лицензия если помню довольно хуёвая, поэтому не взлетело. Можешь в комфи попробовать если железо есть, там есть поддержка.

Parti это мем от гугла, они еще до SD выпустили его и никому не дают толком. Сеть судя по всему сильно недотренирована для своего ебанутого количества параметров, в общем meh.
Аноним 01/11/23 Срд 08:41:57 #80 №533468 
>>533380
>8 картинок 800х600 одним батчем сгенерить и из памяти не выпасть - оказывается, можно.
В 16 гигов спокойно 18 пикч на батч влезает таких.
Аноним 01/11/23 Срд 10:43:29 #81 №533512 
>>533425
> Модель с этой штукой изначально нужна, шум.
А с конфигом впреда если загрузить основную модель? С какого нибудь флуфирока сдёрни попробуй.
> В скрипте файнтюна (а нужен он вообще сейчас при наличии будки то?) вообще нах шлет типа иди со своей 1.5 и xl лесом, подавай 2.х.
Видать очень старый, это не является уникальной фичей 2.х
> А вот эта штука с будкой делает круто, бледная пересвеченность наи пропадает почти с самой первой эпохи и местами хтони становится меньше.
Они вместе вроде должны использоваться, удивлён что срабатывает. Чёрную или белую пикчу полностью может сделать?
> Но полноразмерное обучение на нищежелезе, офк, та еще боль, пощупать оптимайзер кроме 8битного - почти гарантировано своп врам и кратное замедление.
Ну а просто лору если?
Аноним 01/11/23 Срд 12:10:01 #82 №533542 
>>533380
>>533468
Батчедебилы, что вы с ними делаете???
Аноним 01/11/23 Срд 12:18:49 #83 №533545 
>>533430
Это ты клоун, не догоняешь сарказм и то что здесь много людей пишет?
>>533512
> А с конфигом впреда если загрузить основную модель?
А куда его совать, в списке параметров не нашел, подсосет по имени? Врядли что-то выйдет, но потом попробую.
> Видать очень старый
Ага, внимания ему не уделяли, тем не менее что такое xl знает.
> Они вместе вроде должны использоваться, удивлён что срабатывает
Тот же скрипт файнтюна отказывается работать и пишет что тренировка с этим параметром без v параметризации приведет к неадекватным результатам. В будке же работает и эффект есть, но в первых эпохах сильно чернае или сильно белые пикчи не выходили, лучше но еще есть куда. Надо полноценно потестить с норм промтом и показательным сравнением. И затестить использование не чистого наи а тех же фуррей базовой и ее фантюнить, а потом примердживать в несколько этапов.
> Ну а просто лору если?
А с лорой какие проблемы, при случае ту опцию офк попробую, но по идее все должно работать.
>>533542
Можно анимации генерировать, а так для ускорения достаточно и четырех.
Аноним 01/11/23 Срд 12:44:50 #84 №533562 
.png
>>532650
Статья пропала из рентри и саппорт сказал, что у них вообще нет никаких записей о данной статье.

https://rentry.org/2chAI_easy_LORA_guide_re
Перенесли статью сюда, ссылку в шаблоне поправил.
Аноним 01/11/23 Срд 12:47:17 #85 №533564 
>>533545
Клоун, думаешь поменял ник нейм, и теперь это не ты типа
Аноним 01/11/23 Срд 13:43:07 #86 №533598 
>>533542
Роллю хорошие сиды.
Аноним 01/11/23 Срд 15:26:41 #87 №533643 
Кстати у автоматика есть ветка webui с fp8. И вроде как развивается. Sdxl на 2gb чтобы запускать или что хах. По качеству 8bit не существенно хуже 16bit
Аноним 01/11/23 Срд 15:48:53 #88 №533652 
>>533643
Разве у кумерских видях есть аппаратная поддержка FP8? Медленно же наверно пиздец.
Аноним 01/11/23 Срд 15:52:40 #89 №533655 
Rentry.co - Markdown Pastebin.png
>>533562
Лiл
Аноним 01/11/23 Срд 16:06:48 #90 №533663 
>>533652
так вроде же наоборот, чем выше флоат тем медленнее и ресурсоотсоснее разве нет?
Аноним 01/11/23 Срд 16:10:32 #91 №533667 
>>533643
>Кстати у автоматика есть ветка webui с fp8
ссылку
Аноним 01/11/23 Срд 18:13:20 #92 №533711 
>>533663
если FP8 не поддерживается аппаратно (консумерские не умеют кроме 4 серии вроде), или если блоков на него мало (все консумерские), его надо эмулировать софтверно на FP16 или что там поддерживается
Аноним 01/11/23 Срд 19:19:17 #93 №533750 
>>533643
Качество там сосёт, это тебе не текстовые модели, для графики такое только для совсем нищуков. Вот недавняя мокрописька для понижения количества шагов семплинга уже сдохла, как и всё до неё.
Аноним 01/11/23 Срд 19:25:08 #94 №533755 
>>533643
Однако, ставил кто? При апскейлах и больших тайлах может пригодиться, другое дело какой импакт от такого.
> По качеству 8bit не существенно хуже 16bit
Сравнений бы.
Аноним 01/11/23 Срд 19:57:51 #95 №533767 
>>533652
У языковых моделей как-то сделали. Там вообще квантование 8, 7, 6, 5, 4, 3, 2 бита для cpu/cuda (gguf), или 8, 4 бит только на видеокарте (gptq). Но думаю оно точно медленней нативного 16 бит, но проверить не могу
Аноним 01/11/23 Срд 20:05:06 #96 №533772 
1698858305694.jpg
>>533667
Просто открываешь репозиторий автоматика, и выбираешь ветку test-fp8. Установить - консоле делаешь git checkout test-fp8. Но там тесты поломаны, может понадобиться откатиться. Активности кстати побольше чем в dev

>>533750
Кстати гуглил stable diffusion 1 gb vram, там форк вообще с квантовантем 2 бита. Но не тестировал, а примеров в редми нет
https://github.com/ThisisBillhe/tiny-stable-diffusion
Аноним 01/11/23 Срд 20:08:04 #97 №533776 
>>533772
Название коммита
> Add sdxl only arg

Видимо реально для 2 гб запускать xl собрались
Аноним 01/11/23 Срд 20:30:23 #98 №533790 
>>533750
Не фантазируй, нихуя там не сдохло, сейчас туда привинчивают контролнеты (которые надо заново обучать) и остальные необходимые причиндалы, плюс делают SDXL вариант. Способ вполне солидный и давно известный, автор лишь нашёл как это делать не за 60 дней на A100, а за 35 часов, просто этот довен умудрился запёчь семплинг с CFG 1 в свою изначальную модель. Как только релизнет скрипты для тренировки, можно будет экспериментировать с перегонкой моделей на нормальных настройках и с разными приёмами для улучшения.
Аноним 01/11/23 Срд 20:38:32 #99 №533796 
>>533790
У lcm же есть параметр guidance scale, разве это не cfg scale? Или немного другое, поэтому и название другое дали?
Аноним 01/11/23 Срд 20:41:42 #100 №533800 
>>533790
> умудрился запёчь семплинг с CFG 1
Естественно, классический CFG с негативом не будет там работать.
> Способ вполне солидный
Пока что результаты полное говно.
Аноним 01/11/23 Срд 20:55:58 #101 №533813 
1698861357537.png
>>533800
> Пока что результаты полное говно.

Ну я в dall-e тред кидал картинки из lcm, причем 512х512, и никто мне даже слова не сказал
Аноним 01/11/23 Срд 21:40:47 #102 №533850 
>>533800
Эта хуйня всего лишь запекает траектории семплера в отдельную фиксированную нейронку, включая все настройки, и CFG в том числе. Т.е. выставить-то изначально можно, просто оно останется фиксированным. Чтобы негативы и т.п. работали, надо пилить (и обучать) отдельные адаптеры. Либо юзать основу + зерошот для этой запечённой нейронки.
Аноним 01/11/23 Срд 22:08:34 #103 №533865 
>>533850
Фактически делают GAN-генератор из диффузии. Звучит как кал. GAN тоже умеет с ограниченным датасетом быстро обучаться и выдавать хорошую картинку, но у него проблема в универсальности. А тут теперь наоборот делают шаг назад. У нас и так на каждый пук отдельные модели и пачка лор, а с этим вообще пиздец.
Аноним 01/11/23 Срд 22:13:05 #104 №533869 
>>533545
> подсосет по имени?
Да, просто с названием модели его сделай.
> А с лорой какие проблемы, при случае ту опцию офк попробую, но по идее все должно работать.
В том то и дело что никаких, требования ведь к ресурсам куда меньше.
Аноним 01/11/23 Срд 22:19:40 #105 №533874 
>>533865
Не знаю откуда ты там взял именно GAN. Дополнительная сетка ускоряет решение обычного или стохастического дифура, заменяя собой стандартный солвер (эйлеровский и т.п.) при семплировании. А U-Net и прочие компоненты диффузионной модели остаются абсолютно те же.
Аноним 01/11/23 Срд 22:32:55 #106 №533884 
>>533869
> просто с названием модели его сделай
Хм, попробую. Но там же что-то внутри помимо него должно быть, не? Ресурсов жаль по этому всему нет, или они от хлебушков прячутся. Наверняка же есть скрипты чтобы нужную часть поправить, или там юзают что-то простое уровня добавление разницы тюненой модели со стоковой sd1.5.
> В том то и дело что никаких
Тут думать и заниматься надо, а там натащил, совсем говняк процедурно отсеял, поставил-забыл на несколько (десятков) часов, и довольно урчишь что оно час только латенты обрабатывает если в первый раз или без кэша на диска.
Но вообще как оно будет просто со здоровенной лорой хз, может окажется более эффективно чем что-то так натренивать и потом пытаться примердживать разницу.
Аноним 01/11/23 Срд 23:15:56 #107 №533912 
>>533884
> Хм, попробую. Но там же что-то внутри помимо него должно быть, не? Ресурсов жаль по этому всему нет, или они от хлебушков прячутся. Наверняка же есть скрипты чтобы нужную часть поправить, или там юзают что-то простое уровня добавление разницы тюненой модели со стоковой sd1.5.
Просто автоматик автоматом не распознаёт впред модели и не подгружает их соответствующим образом, никакой особой магии тут нету, достаточно просто parameterization: "v" в params: дефолтного v1-inference.yaml конфига добавить. Впрочем я уже попробовал, пиздец примерно как у этого анона получается с обычной моделью >>532849 видимо он тоже неправильный конфиг подсовывал этому бусту, там дефолтный нужен.
Аноним 01/11/23 Срд 23:25:32 #108 №533921 
>>533912
А, стопэ, ты про то что кохя делает все правильно а это автоматик неверно загружает модель и причина шума в нем? Эх уже те тестовые удалил, спасибо, попробую.
Аноним 01/11/23 Срд 23:35:09 #109 №533932 
1544662009104.png
1681461338043.png
>>533921
Нет, я имел ввиду что нету смысла тренить впред лору/использовать конфиг впреда с дефолтными моделями, вот что у меня генерит с конфигом впреда обычной моделью, пик1. Тренить с впред модели впред лору/использовать такую лору в дальнейшем с обычными моделями приемлемо, хоть и херня полная по сравнению с наи, если бы у нас был подобный аниму файнтюн, а не фурри, было бы куда лучше вообщем то.
Аноним 01/11/23 Срд 23:47:02 #110 №533946 
>>533932
Таак, ну значит что-то там быстро настренил одну эпоху, подкинул рандомный конфиг и оно действительно начинает вместо шума выдавать что-то похожее на картинку, разница значительная. Будет ли конечный результат что адекватным - хз, надо будет сейчас побольше закинуть и потом сравнить результаты тренировки с в-параметризацией и без нее.
Аноним 02/11/23 Чтв 00:47:33 #111 №533973 
>>533946
> Таак, ну значит что-то там быстро настренил одну эпоху, подкинул рандомный конфиг и оно действительно начинает вместо шума выдавать что-то похожее на картинку, разница значительная.
Просто с терминал снр с наи имеешь ввиду с дефолтным конфигом?
> Будет ли конечный результат что адекватным - хз, надо будет сейчас побольше закинуть и потом сравнить результаты тренировки с в-параметризацией и без нее.
Нечестное сравнение будет так то, с впредом получится ведь только с фуррей тренить, а с терминал снр можно и без, судя по тому что ты писал ранее.
Аноним 02/11/23 Чтв 01:27:16 #112 №533994 
>>533973
> Просто с терминал снр с наи
Оно и без конфига работает, эффект есть, но черные/белые фоны всеравно не рисует. А вот натрененноое на будке с полным списком параметров
> --v_parameterization --zero_terminal_snr --scale_v_pred_loss_like_noise_pred
без конфига выдает шум, с конфигом пикчи. Лосс при этом правда в начале сильно больше, но вроде как на спад идет, тренится в 1.5 раза дольше чем без этих параметров. Хз получится ли там что-то вразумительное, и надо поискать не может ли сам скрипт правильный конфиг соответствующий модели формировать, и насколько это в принципе может работать или полная херь.
> с впредом получится ведь только с фуррей тренить
Он же там как-то появился и не только в фуррях встречается. Врядли yolo с простым выставлением параметра в дримбусе сработает, но пусть помолотит.
Аноним 02/11/23 Чтв 06:23:12 #113 №534021 
>>533994
> --v_parameterization

Для чего это вообще нужно? Нагуглиит ничего не могу кроме того что какой-то фурри создал issue что его модель не работает с invoke ai. (После того как тот скинул ссылку на фурри модель, как пример модели с этим v, коллабаратор вышел в игнор, лол)

Это типа оптимизация, чтобы обучение на больших картинках не заняло дофига времени?
Аноним 02/11/23 Чтв 06:44:33 #114 №534024 
>>533994
> Он же там как-то появился и не только в фуррях встречается.
Вот так и появилось скорее всего
> А вот натрененноое на будке с полным списком параметров
А вообще хз насколько долго это нужно тренить, но зачем тебе специальная плевалка конфигов не пойму, там же литералли надо один параметр добавить, как я выше писал. Лучше автоматику пр кинь, чтобы впред модели как нибудь распознавал и подгружал с соответствующим конфигом, а не вот это вот всё.
Аноним 02/11/23 Чтв 09:43:11 #115 №534059 
>>534021
> Для чего это вообще нужно?
Чтобы улучшить качество генераций >>533182 и чтобы уйти от привязки к средней яркости. Есть и другие модели с этим, как вариант https://huggingface.co/vivym/bk-sdm-tiny-vpred
>>534024
> Вот так и появилось скорее всего
Ай лол, ну не, должна же быть адекватная схема.
> хз насколько долго это нужно тренить
Вопрос хороший, за 10 часов там лосс с 0.27 упал до 0.10, хз насколько может быть метрикой здесь.
> там же литералли надо один параметр добавить
Оке, честно внутрь даже внимательно не смотрел, натащили всякого и хз что из этого важно.
Аноним 02/11/23 Чтв 11:21:37 #116 №534082 
>>534059
> Ай лол, ну не, должна же быть адекватная схема.
Чем эта неадекватна? Ну тренят просто нормальные модели на больших датасетах куда дольше да и всё.
> Вопрос хороший, за 10 часов там лосс с 0.27 упал до 0.10, хз насколько может быть метрикой здесь.
Здесь он хотя бы по учебнику тебе может показать, если что делаешь не так, я пробовал ради прикола, он действительно будет стоять на месте из-за маленького лр, или дёргаться вверх-вниз сильно из-за большого.
> --scale_v_pred_loss_like_noise_pred
Вот этой штукой к "привычным" значениям кстати скейлится.
Аноним 02/11/23 Чтв 14:27:13 #117 №534156 
1645370498087.png
>>534082
> Чем эта неадекватна?
Значит просто не так понял суть этой херни.
> Здесь он хотя бы по учебнику тебе может показать
Что-то показывает. Без этих параметров с идентичными остальными вокруг 0.09 вьется, возможно там уже лр надо поднимать, ну пусть уж дотренится чтобы было понятно. Алсо остановка обучения текстового энкодера насколько здесь полезна?
Аноним 02/11/23 Чтв 15:03:02 #118 №534183 
>>534156
Я не знаю, такие долгие тренировки не запускал, что хоть тренишь?
Аноним 02/11/23 Чтв 15:28:05 #119 №534193 
Вопросы по фурримёржу. Смотрится ооочень перспективно - но, как обычно, надо изучать.

1. Есть ли способ повторить фурримёрж без локальной видеокарты? Хватит ли проца и 16 гб оперативки? Если нет - то в каком облаке реально это провернуть, учитывая, что для этого нужен автоматик (или есть консольная версия??) ? Колаб отпадает, так? Тогда остаётся кегля... и/или что?

2. Нельзя ли провернуть эту процедуру с классическими базовыми моделями типа NAI и AnythingV3 и залить их куда-нибудь? Будут ли такие можели обучаемы? Можно ли юудет с ними мёржить другие модели?
Аноним 02/11/23 Чтв 15:34:19 #120 №534197 
3. Наконец, не мог бы ты, анон, выложить результаты удачных соитий? Те самые, картинками с которых ты хвастаешься. Даже если метод не универсален, даже если он подходит лишь к нескольким процентам моделей - это всё равно очень значимое достижение. Анимэшная полторашка с рабочим разрешением 1024х1024 - это ж не фиг собачий, это прорыв!
Аноним 02/11/23 Чтв 16:09:07 #121 №534216 
>>534197
Не возбуждайся так сильно. Отдрочись, успокойся.
Аноним 02/11/23 Чтв 17:08:27 #122 №534250 
>>532447 (OP)
Как натренировать лору удачно? Что там с переобучением и нормализующими картинками?
Аноним 02/11/23 Чтв 17:53:16 #123 №534267 
1596313305155.jpg
1601440397734.jpg
1542808398984.jpg
>>534183
Пока просто эксперимент, голую наи на немного сортированной подборке пикч с интересующими элементами с гелбуры. Получилось не много но и не мало, около 46к, в случае если будет какой-то намек на положительный тренд, стоит попробовать их разбавить различными сценери и поиграться с теггингом чтобы разнообразить еще фоны и как-то отбалансить, а то от одних чаров как бы не лоботомировались беки. В тренировке батчсайз 3 градиент аккумулейшн 10.
Ну совсем предварительные результаты если смотреть - вроде работает, в промте рандом, первая с затемнением, вторая с белым фоном.
Если смотреть гриды по эпохам (пик3, на первом месте наи) - в первой кровь-кишки-распидарасило, хотя лосс с 0.25 упал до 0.13, далее постепенно оживает, в гридах пик1-2 четвертая, к ночи 6я будет. В гридах кстати иногда багует и может сгенерировать с шумом, при генерации отдельно все ок.
Алсо если ее продолжить ее дообучать там у кохи никаких подводных камней нет, или нужно специально что-то для продолжения готовить?

По тренировке без впреда смешанный результат, оно вроде получше и детальнее становится засчет разрешения и вроде чинит, но иногда наоборот распидорашивает, хз, ожидалось больше. Возможно нужно лр поднимать, там лосс почти с самого начала стоит на месте.
Аноним 02/11/23 Чтв 18:12:21 #124 №534270 
>>534216
Но зачем мне успокаиваться, анон? Нейронки - это же так прекрасно! Они вносят в мою жизнь радость и яркие эмоции :з
Аноним 02/11/23 Чтв 18:19:59 #125 №534272 
>>534267
> В тренировке батчсайз 3 градиент аккумулейшн 10
Как влезло?
> Ну совсем предварительные результаты если смотреть - вроде работает, в промте рандом, первая с затемнением, вторая с белым фоном.
Выглядит интересно, уже как будто болезнь рейнджа пропадать начинает, что по "a black background/a white background" онли без негативов в родном разрешение, в котором тюнилось?
> в первой кровь-кишки-распидарасило, хотя лосс с 0.25 упал до 0.13, далее постепенно оживает, в гридах пик1-2 четвертая, к ночи 6я будет
Тут сильно всё вымывается вначале, потом уже идёт вменяемое обучение, как будто переиначиваешь веса модели работать сильно по другому, вот в этом и проблема с фаст тренингом лор, оно просто дальше вот таких первых эпох обычно не заходит.
> Алсо если ее продолжить ее дообучать там у кохи никаких подводных камней нет, или нужно специально что-то для продолжения готовить?
Ну вроде не должно быть, я просто опять же такой долгий файнтюн не делал, были какие то аргументы специально под это, но я их уже не помню.
> засчет разрешения
Какое кстати, 1024?

Тоже чтоли попробовать, если с этим можно уложиться в пару дней, выглядит многообещающе. Датасет только надо очень сильно отполировывать для такого, благо у меня много скопилось уже впринципе их. Скинешь командлайн с параметрами, которыми ты тренил?
Кстати, я забыл тебе сказать, ещё же вот эта хуйня нужна будет потом https://github.com/Seshelle/CFG_Rescale_webui с ней должно быть лучше с цветами, если пережигает, ставишь 0.5-0.7 или типо того
Аноним 02/11/23 Чтв 18:40:43 #126 №534279 
1571971278950.png
1592383383509.png
1547369920353.png
1593519926913.png
>>534272
> Как влезло?
Подношения правильному пантеону.
А вообще что удивительного, тренировка в 768, без градиент аккумулейшна влезает батч сайз 4, с ним 3. К 1024 скептически отношусь и если и делать то постепенный подъем почти наверняка выйдет лучше. Надо вообще до 640 наверно пока спуститься чтобы оно без сильного стресса в-параметризацию переварило а потом уже разработкой очка разрешения заниматься.
> что по "a black background/a white background"
> 1girl, white background, simple background
> 1girl, black background, simple background
Вторая пачка с лоу-ворст квалити, это какбы наи, там тот еще шизопромт нужен.
> вот в этом и проблема с фаст тренингом лор
Не уверен что здесь подобная аналогия подходит, ведь здесь просто радикальные отличия в некоторых участках да и для персонажей пока ничего лучше быстрой нет и все равно датасет первичен.
> были какие то аргументы специально под это
Ууу бля, ладно придется изучать.
> Датасет только надо очень сильно отполировывать для такого
Это да, и по-хорошему нужно балансировать. С регуляризацией не страдал, но находил что для будки ее использовали, по эффектам хз.
> Скинешь командлайн с параметрами, которыми ты тренил?
Так буквально дефолтный дефолт что выдало гуи только с добавлением тех опций на впред. Лр имеет порядок e-6, по оптимальному значению хз. В высоком разрешении потрогать что-то кроме адам8 или других восьмибитных оптимайзеров не выйдет. Ну если не разберешься пиши, скину полный.
Аноним 02/11/23 Чтв 18:44:52 #127 №534284 
>>534279
А чем сейчас *буру грабить нормально можно? Раньше помню какой-то скрипт к ГрисМанки был, всё легко тянул и быстро. Сейчас скрипты те, что есть тянут только превью. Нашёл какой-то дремучий стэндэлон, но он ему приходится впн заводить, а это очень медленно.
Аноним 02/11/23 Чтв 18:47:28 #128 №534286 
>>534284
https://github.com/Bionus/imgbrd-grabber
База же. Если из этой страны то без впн всеравно не обойтись.
Аноним 02/11/23 Чтв 18:49:35 #129 №534288 
>>534279
> постепенный подъем почти наверняка выйдет лучше
Всё так, фурри тренили с 576+128 каждую n-ную эпоху повышая разрешение.
> > 1girl, white background, simple background
Да нет, 1гёрл всё портит и нихера не понятно, так и обычная модель может рисовать, нужно именно просто a black background и white тоже.
> Так буквально дефолтный дефолт что выдало гуи только с добавлением тех опций на впред. Лр имеет порядок e-6, по оптимальному значению хз. В высоком разрешении потрогать что-то кроме адам8 или других восьмибитных оптимайзеров не выйдет. Ну если не разберешься пиши, скину полный.
Ну скинь всё таки команду просто, если не впадлу, не хочется в гуе копаться, просто в венв и в бой.
Аноним 02/11/23 Чтв 18:52:36 #130 №534292 
>>534286
Понятно, я на него и вышел. Спасибо.
Аноним 02/11/23 Чтв 19:07:58 #131 №534298 
1666110849151.png
1619814208887.png
1667792380625.png
1597789045287.png
>>534288
Ага, ну значит надо сворачивать и новую запускать, хотя лучше пока датасет чуть разнообразить.
> 1гёрл всё портит и нихера не понятно
Очень даже понятно, средняя яркость пикчи не нулевая. И обычные модели не нарисуют, там будет или лютый клозап, или много лишних ярких элементов. В случае же белого фона там или персонаж станет негром, или его будет много и обязательно с темными волосами. Без вангерла там или темно-серые квадраты или странные объекты. Оно если в редакторе открыть видно, для сравнения пик4 - с обычной модели.

accelerate launch --num_cpu_threads_per_process=2 "./train_db.py" --enable_bucket --min_bucket_reso=256 --max_bucket_reso=2048 --pretrained_model_name_or_path="модель" --train_data_dir="датасет" --resolution="768,768" --output_dir="выход" --logging_dir="логи" --stop_text_encoder_training=3096 --save_model_as=safetensors --output_name="имя" --lr_scheduler_num_cycles="6" --max_token_length=225 --max_data_loader_n_workers="2" --gradient_accumulation_steps=10 --learning_rate="2.2e-06" --lr_scheduler="constant_with_warmup" --lr_warmup_steps="774" --train_batch_size="3" --max_train_steps="7738" --save_every_n_epochs="1" --mixed_precision="fp16" --save_precision="fp16" --caption_extension=".txt" --cache_latents --cache_latents_to_disk --optimizer_type="AdamW8bit" --max_data_loader_n_workers="2" --max_token_length=225 --clip_skip=2 --bucket_reso_steps=64 --mem_eff_attn --shuffle_caption --xformers --persistent_data_loader_workers --bucket_no_upscale --v_parameterization --zero_terminal_snr --scale_v_pred_loss_like_noise_pred --output_config
Аноним 02/11/23 Чтв 19:10:16 #132 №534300 
>>533655
Хрен знает, на что именно рентри агрится, в саппорте сказали, что ничего не знают >>532799 →

Автор статьи принял одну попытку запаблишить статью повторно >>533551 → я же опубликовал её ещё три раза >>534010 → >>534289 → Во всех случаях статью из rentry выпиливают в течении нескольких часов.
Аноним 02/11/23 Чтв 19:14:03 #133 №534302 
>>534298
> --clip_skip=2
> --v_parameterization
Пиздец шизоид.
Аноним 02/11/23 Чтв 19:15:58 #134 №534306 
>>534302
Ну раз ты недоволен, все, сворачиваемся.
Аноним 02/11/23 Чтв 19:17:05 #135 №534310 
>>534306
Ты уж определись, у тебя полторашка или 2.0/XL.
Аноним 02/11/23 Чтв 19:20:05 #136 №534312 
>>534298
Да не сворачивай, лучше продолжи, вот теперь реально понятно что всё идёт по плану, прошлые примеры мне и обычная модель рисовала просто, такие только с хлл мерджами были.
Спасибо, потом тоже попердолюсь.
Аноним 02/11/23 Чтв 19:25:18 #137 №534316 
>>534310
Окно контекста вмещает только 3 поста вверх? Это ваниальная наи где херь вместо весов в том слое.
>>534312
Не, там вон уже пятая эпоха вылезла, 6ю ждать смысла не вижу. Будет в качестве референса, надо пустить в 512 или 576 (может другой оптимайзер даже влезет), пусть впред сначала аккуратно пробьет а потом уже разрешение поднимать. С другой стороны из-за малого датасета при долгом обучении на нем как бы проблем не полезло.
Аноним 02/11/23 Чтв 19:33:15 #138 №534321 
>>534316
v parameterization не используется в полторашке. То что ты тренируешь неиспользуемые параметры - явно полнейшая хуйня. У тебя должен быть чекпоинт с v-ema, это SD 2.1 768, например.
Аноним 02/11/23 Чтв 19:41:08 #139 №534329 
>>534321
> эксперимент по тренировке изначально отсутствующих параметров по успешному примеру
> это параметры не используются в 1.5, нужна другая модель!
Бля пчел, проспись
Аноним 02/11/23 Чтв 19:48:36 #140 №534332 
>>534329
Я и говорю шиз. Если тебе надо куда-то сливать нежелательные градиенты, то и делай помойку для них. Тебе коха дал возможность по слоям/блокам контролировать это, а ты занимаешься шизой.
Аноним 02/11/23 Чтв 19:59:42 #141 №534340 
>>534332
В каких слоях/блоках сосредоточена эта часть?
Аноним 02/11/23 Чтв 20:12:53 #142 №534345 
>>534316
> может другой оптимайзер даже влезет
Умел бы он ещё работать с этим нормально, я не видел файнтюнов на адаптивных, только лион и адам.
>>534321
Твой наброс явно не вяжется вот с этим челом https://huggingface.co/lodestones успешно натренившим полторашку.
Аноним 02/11/23 Чтв 20:18:16 #143 №534352 
>>534345
> успешно
В каком месте? Там жуткое мыло без детализации, фоны проёбаны, всё как будто маслом нарисовано и 2.5D лезет где не надо. Чтобы аниме нормально слушалась промпта достаточно взять модель под clip skip 1 или SDXL.
Аноним 02/11/23 Чтв 20:21:51 #144 №534353 
>>534352
В успех фуридрочера верится больше чем в
> аниме
> под clip skip 1 или SDXL
переигрываешь
По делу то есть что сказать, или как обычно наброс ради наброса?
Аноним 02/11/23 Чтв 20:24:34 #145 №534354 
Анон, у тебя ванильная NAI с повышенным разрешением? Выложи плиз куда-нибудь, интересно же посчупать! А в диффузионные веса оно перегонится, чтобы с diffusers использовать?
Аноним 02/11/23 Чтв 20:24:43 #146 №534355 
>>534353
Тебя на циве забанили? Куча моделей под clip skip 1 там есть.
Аноним 02/11/23 Чтв 20:27:22 #147 №534356 
>>534352
> В каком месте?
Да в таком, что это наи на стероидах для клуба тех, кто не прочь и собаку.
> взять модель под clip skip 1 или SDXL
То есть натренить наконец хоть какую то замену наи, как у них, вариант ты даже не рассматриваешь?
Ты небось тот самый академик, у которого fp16 хватит всем и нулевые веса в порядке вещей.
Аноним 02/11/23 Чтв 20:31:57 #148 №534361 
>>534355
Дело не в этом, хотя и на саму эту тему по поводу клипскипа 1 можно дискутировать, прочитай что изначально рассматривалось и для чего. Речь о дообучении и поиску оптимальных параметров с целью добавить нужные концепты/элементы/персонажей/улучшить что-то/... (уже делалось, примеров вагон) чтобы потом полученную разницу мерджить к другим моделям. Параллельно с этим возник вопрос о том можно ли и как прикрутить эту херь чтобы получать пикчи любой яркости и улучшить общую генерацию.
Каким хером здесь xl или тренировка с клипскипом 1 на ванильной наи модели? Себе же противоречишь после утверждений про
> сливать нежелательные градиенты
Аноним 02/11/23 Чтв 20:32:56 #149 №534363 
>>534356
> натренить наконец хоть какую то замену наи
Чел, половина миксов уже давно ушли от clip skip 2. Ты хоть попробовал бы.
> нулевые веса
Это ты с блокнотиком тут нули в тензорах лор искал, лол? NaN - это не ноль. Ты вообще в курсе что ноль в весах лоры - это веса которые лора не будет изменять, естественно они в порядке вещей.
Аноним 02/11/23 Чтв 20:36:08 #150 №534366 
>>534356
> натренить наконец хоть какую то замену наи
Вообще момент довольно интересный, но начать можно с чего-то чуть проще. Насколько вообще нормально тренятся чекпоинты на собачьей модели с точки зрения переносимости их на файнтюны/мерджи?
>>534363
Лучше бы вместо выебонов как ты дохуя знаешь, насколько всех умнее и какую радикальную позицию имеешь конкретику по делу изложил. Уход от клипскипа 2 решит все проблемы, поднимет настроение и укрепит эрекцию, а все потому что в миксах подмешивали реалистичные модели и в слоях теперь не совсем мусор? Ну рили.
Аноним 02/11/23 Чтв 20:39:14 #151 №534369 
>>534363
> Чел, половина миксов уже давно ушли от clip skip 2. Ты хоть попробовал бы.
А я вообще то и не заявлял что нужно тренить со 2, но в случае с наи скорее соглашусь с другим аноном, что он прав.
> NaN - это не ноль. Ты вообще в курсе что ноль в весах лоры - это веса которые лора не будет изменять, естественно они в порядке вещей.
Это видимо ты забыл отчего он там появляется.
Аноним 02/11/23 Чтв 20:40:40 #152 №534371 
>>534366
> Уход от клипскипа 2 решит все проблемы, поднимет настроение и укрепит эрекцию

И ещё стабилизирует курс рубля!
Аноним 02/11/23 Чтв 20:42:59 #153 №534375 
>>534361
> получать пикчи любой яркости
О какой яркости ты говоришь? Почти любая модель же может в яркое/тёмное освещение.
Аноним 02/11/23 Чтв 20:45:42 #154 №534379 
>>534375
Повтори тесты выше на полторашке и получи пикчу с оче низкой или оче высокой средней яркость без применения обработчиков, костылей и контролнетов. Почитай статью на которую линк сбрасывали.
Аноним 02/11/23 Чтв 20:47:04 #155 №534381 
>>534366
> Вообще момент довольно интересный, но начать можно с чего-то чуть проще. Насколько вообще нормально тренятся чекпоинты на собачьей модели с точки зрения переносимости их на файнтюны/мерджи?
Хз, лоры вон переносятся же, хоть и криво.
Аноним 02/11/23 Чтв 20:56:40 #156 №534392 
Так, на правах идеи. Анон, а почему за повышение разрешения отвечает не гипернетворк? Ну это же логично же! Ну, теоретически. В принципе, все детали нейронка делать умеет, а вот их согласование по краям нужно куда-то упихать. Никто не пробовал?

Ведь только гипернетворки - это истинное приращение знания и усложнение структуры. Всё остальное - это одно лечим, другое калечим.

Ну, теоретически.
Аноним 02/11/23 Чтв 21:20:37 #157 №534422 
Лол. Шизоид со скип1 уже и сюда добрался. Уже хочется автобан за такое. Только написал: "клип скип 1" или "ХЛ" и сразу в РО. Вот жизнь настала бы...
Аноним 02/11/23 Чтв 21:21:58 #158 №534425 
1589746479640.png
1634877341879.png
1692842813583.png
1596724054872.png
>>534379
> получи пикчу с оче низкой или оче высокой средней яркость
Не очень понял что не так с этим на полторашке, буквально 10/10 верных пиков по промпту. С негативом можно вообще почти полностью запретить свет или темноту. Чуть сложнее если надо светлое не тёмном нарисовать или наоборот, но оно тоже точечными негативами фиксится.
Аноним 02/11/23 Чтв 21:23:35 #159 №534428 
>>534422
> Не очень понял что не так с этим на полторашке
> Прикидывается идиотом
Аноним 02/11/23 Чтв 21:31:28 #160 №534439 
>>534425
Царская модель, пример пусть не 100% но вполне достаточной реализации. Нужно оценить что там замешано, какой именно компонент дал такой эффект, по аналогии с мерджами втуберов, мохнатых и прочего.
Аноним 02/11/23 Чтв 21:35:19 #161 №534443 
Никто не курсе, можно как-то контролнет заставить сохранять цвета при проходе через и2и?
Тайловый как-то фигово с этим справляется.
>>534439
>Царская модель
Что за модель?
Аноним 02/11/23 Чтв 21:55:36 #162 №534464 
1575152527149.png
>>534422
> Уже хочется автобан
Можешь в /d/ попросить, выдадут тебе.
> Вот жизнь настала бы...
Тебе может ещё показать как в 2023 году полторашки могут генерировать в разрешении выше 1024 без всяких хайрез фиксов и не ломаться, как год назад?
Аноним 02/11/23 Чтв 22:00:15 #163 №534472 
>>534464
Мне! Мне показать!!!
Аноним 02/11/23 Чтв 22:44:37 #164 №534507 
>>534443
> можно как-то контролнет заставить сохранять цвета при проходе через и2и? Тайловый как-то фигово с этим справляется.
наложи отдельно color t2i adapter, управляемый исходником
Аноним 03/11/23 Птн 00:13:20 #165 №534540 
>>532447 (OP)

Вопрос простой. Есть эффект inpaint. На статической картинке. А если нужно на видео его сделать? Вот максимум простая сцена, эротическая конечно, Актриса танцует на статическом фоне, но он тоже движется, типа камера плавает. Хочу ей 1) увеличить сиськи 2) уменьшить жопу и ноги 3) вообще вырезать эту актрису нахуй и поместить на ее место нарисованную в 3D по точкам, даваемым, скажем, нейросетью Mediapipe, но с модификацией фигуры. Как это делать?
Аноним 03/11/23 Птн 01:38:30 #166 №534552 
>>534507
Спасибо.
Помогает, но не очень.
Мелкие детали убивает по цвету, плюс цветовая утечка на соседние области начинается из-за него.
Аноним 03/11/23 Птн 02:18:07 #167 №534564 
>>534552
Ну теоретически эта хуйня отличается от фотошопа как раз тем что берет в расчёт семантику, для твоей ситуации это может оказаться и протеканием. Может её можно немного покрутить, хотя бы по силе, или по конечному шагу например. Не знаю, не пробовал, просто посоветовал, т.к. это вроде её ниша.

Запости картинку до и после порчи цвета, что ты под этим подразумеваешь. Может там вообще фотошопом проще пройтись, лол.
Аноним 03/11/23 Птн 07:42:24 #168 №534603 
1622986662808.jpg
1579943989576.jpg
>>534425
Можно как угодно пытаться изъёбываться с промптами или мерджами, как впред оно всё равно не сможет нарисовать, по крайне мере без костылей, фундаментальная проблема никуда не исчезнет.
Аноним 03/11/23 Птн 08:42:55 #169 №534618 
>>534540
Изучай After Effects
Аноним 03/11/23 Птн 09:33:43 #170 №534645 
>>534603
Шиза
Аноним 03/11/23 Птн 10:04:51 #171 №534657 
>>534603
> проблема
По твоим пикам больше похоже что фурри модель сломана, просто рисует скетчи без фонов вместо нормальных пиков. Я же её трогал, в фоны она очень плохо умеет, надо прям в негативы пихать "simple background" и изъёбываться чтоб получить что-то лучше мазни/скетчей на фоне.
На мердже посередине вообще цвета поплыли.
Лучше покажи как твоя фуррятина умеет в контроль яркости освещения сцены, а не то как она умеет делать пики без нихуя.
Аноним 03/11/23 Птн 12:52:26 #172 №534725 
1665161679730.png
1606659386152.png
1690001383641.png
1620238740098.png
1619651870874.png
>>534657
> По твоим пикам больше похоже что фурри модель сломана, просто рисует скетчи без фонов вместо нормальных пиков.
Да я и сам вижу что тут до сих пор проблемы, особенно с белым.
> Я же её трогал, в фоны она очень плохо умеет, надо прям в негативы пихать "simple background" и изъёбываться чтоб получить что-то лучше мазни/скетчей на фоне.
Сам не ебу как ей правильно управлять, классическое worst|low quality тут даёт куда меньший эффект, видел промпты вообще без негатива с лорами.
> На мердже посередине вообще цвета поплыли.
Парадокс в том, что именно этот говёный мердж выдаёт подобные пик1-2, с очень плавной картинкой и не забывает про бекграунд, но с цветами нужно шаманить. И вообще хлл во всех планах лучше фуррей, в том числе и в впреде.
> Лучше покажи как твоя фуррятина умеет в контроль яркости освещения сцены, а не то как она умеет делать пики без нихуя.
Да умеет, не ебу как скетчевость лучше придушить.
Аноним 03/11/23 Птн 13:16:15 #173 №534741 
>>534657
Суть в том что ограничения по средней яркости искажает результат, склоняя модель рисовать всякую херь и плодить лишние сущности, что на простых примерах наглядно показано, и в исследовании описано.
Модель с собаками специфична, но и оригинальная наи если ее пощупать сейчас крайне всратая, конечной целью должна быть интеграция этой фичи в современные миксы, которые все все умеют и так станут еще лучше. Это офк в идеале, но даже если будет что-то косячное с ограниченным применением - при возможности даже в автоматике выстраивать обработку на двух моделях, это найдет свое применение.
> в фоны она очень плохо умеет
Там много чего лоботомировано и поломано, потому мерджи с ней под вопросом.

Вообще по мерджу модели с впредом не совсем понятно, эфортлесс добавление к рандомному миксу или дает не полный результат, или ломает, от чего та начинает делать шум как без конфига, но с ним уже генерит будто к обычной сд впред конфиг подкинули. Не понятно.
Зато добавление разницы с обучения без впреда, которое показалось недостаточно хорошим, ряд задуманных улучшений дало.
Аноним 03/11/23 Птн 13:48:47 #174 №534783 
>>534725
> Сам не ебу как ей правильно управлять
Если тренировали на мусоре с бур, то наверное никак. На твоих пиках литералли как говно с бур - простейшие скетчи с заливкой объектов одним цветом. Это никуда не годится. И то что он весь пик заливает одним цветом - это такое себе.
Аноним 03/11/23 Птн 14:58:22 #175 №534822 
изображение.png
изображение.png
>>534564
После -- до.
Видно, что над головой протечка пошла. С тела еще на ночное небо вокруг тоже потекло, но там чуть меньше видно.
Плюс совсем мелкие детали типа пуговиц и запонок убились - но тут может быть и обычный глюк, что ИИ их не разобрал именно как детали. Правда, 9 из 9 подряд - это все-таки многовато для такого.
Аноним 03/11/23 Птн 18:07:54 #176 №534914 
Планируют ли выпускать sdxl 1.1, 1.2 и т.д.? Вроде 1.0 вышла давно, но ведь нумерация не просто так, видимо что-то планируют?
Аноним 03/11/23 Птн 18:20:01 #177 №534925 
>>534914
Было опубликовано по две версии
SD 1.4, 1.5
SD 2.0, 2.1
XL 0.9, 1
Жди сжатую с дистилляцией версию Pixart
Аноним 03/11/23 Птн 18:28:25 #178 №534929 
Когда запилят наконец t2i генератор для CPU?

У меня видяха встроенная AMD shared memory. Пора пилить наконец норм вариант который умещается в 2GB. Или для проца. Лучше всего, чтоб работал на смартфоне.
Аноним 03/11/23 Птн 20:23:43 #179 №535031 
>>534822
Какая задача то стоит? Алсо проверь что будет с околонулевым денойзом, может это вообще vae гадит.
>>534929
> t2i генератор для CPU
Он уже есть, базовый функционал диффузии работает на torch-cpu, производительность в сделку не входила. Для двухгиговых выше смотри fp8, для амд-встройки правда оно врядли будет решением. Для смартфонов тоже есть, в прошлом треде.

Если кто активно тренирует на кохе под шиндой и еще не поставил wsl - самое время это сделать. Буст перфоманса на четверть с ничего (либы куды одинаковые), крохотное снижение потребление памяти, параллельная обработка штатно работает.
Аноним 03/11/23 Птн 20:58:44 #180 №535051 
>>535031
>Какая задача то стоит?
Дальнейшее улучшение и детализация картинки под контролнетом.
Понятно, что через ФШ можно пофиксить, но хотелось бы побольше автоматизации.
С цветами вообще проблема постоянно.
>может это вообще vae гадит.
Если б оно гадило - оно бы и просто так проявлялось, без этого модуля контролнета. Картинка справа - это после первого шага улучшения, но чисто с тайлом.
Аноним 03/11/23 Птн 21:08:10 #181 №535061 
>>535051
У тебя тут наоборот произошло буквально, деталей убавилось, зато контраст бустанулся, каким образом делаешь то самое улучшение?
Инпеинт only masked с повышенным х1.5-х3 разрешением относительно обрабатываемой области, и с контролнетом inpaint попробуй.
Аноним 03/11/23 Птн 21:10:07 #182 №535063 
>>534925
> Было опубликовано по две версии
> SD 1.4, 1.5

Нет, ещё есть SD 1.1, 1.2, 1.3. Я их кстати тестио недавно по приколу
Аноним 03/11/23 Птн 21:17:15 #183 №535074 
>>535061
Так о чем и речь. Цвета текут, контрастность в результате уменьшается. Еще и зерно какое-то появилось.

Оригинал - второй пик, не первый.

>Инпеинт only masked с повышенным х1.5-х3 разрешением
Ну это еще больше редачить в итоге придется, соединяя то, что инпеинт по краям маски закосячит.
Аноним 03/11/23 Птн 21:18:48 #184 №535077 
>>534925
> Было опубликовано по две версии
> SD 2.0, 2.1

А это забросили, так как говно редкостное. У меня случайно иногда она включается - это просто пиздец, она ничего не может делать совсем. Надо ж было умудриться такую создать
Аноним 03/11/23 Птн 21:23:02 #185 №535082 
>>535074
Хм, если оригинал наоборот второй а первый буст - да, деталей действительно добавилось, а по цветам - похоже что вае и сама модель в i2i может себя иначе вести. Без контролнета говоришь иначе будет? Покажи что выходит.
А по контрасту - обычно наоборот его больше, иногда чрезмерно давит.
> еще больше редачить в итоге придется
Что редачить? Особенно с контролнетом оно не косячит и базового размытия маски хватает. По какой методе вообще делаешь?
Аноним 04/11/23 Суб 00:38:15 #186 №535236 
https://civitai.com/articles/2345/aloeveras-instant-lora-no-training-15-read-new-info мненье?
Аноним 04/11/23 Суб 00:59:50 #187 №535243 
>>535236
С разморозкой. Это zero-shot методы, таких куча - IP-Adapter, reference controlnet, t2i style transfer и т.п. Суть - отдельный визуальный трансформер (обычно CLIP-ViT/H) или другая модель выдёргивает фичи из твоей картинки, потом они подставляются в процесс генерации.

У них несколько проблем:
> нет фильтрации фич, оно выдёргивает все концепты что есть (хотя с объектами можно попробовать маскировать ненужный контекст шашечками или другим очень далёким от сути объекта паттерном, но с текстурой или цветом так не прокатит). Выбрать по промпту выдёргиваемый концепт, например "веснушки", "прямые углы", "игуану", или "цвет асфальта" нельзя.
> жрёт дополнительные ресурсы, модели-распознавалки могут быть немаленькими
> модели распознавания примитивные, и входное разрешение у них маленькое (CLIP-ViT/H в IP-Adapter принимает 224х224,

Так что пока что c нормальной тренировкой с хорошим датасетом и тегами это не сравнить. Но за ними скорее всего будущее - берёшь усреднённую базовую модель и подсовываешь ей референсы какие хочешь.
Аноним 04/11/23 Суб 01:01:14 #188 №535245 
>>535243
>CLIP-ViT/H в IP-Adapter принимает 224х224, есть версия на 336х336, под которую надо дописывать ноду комфи
фикс
Аноним 04/11/23 Суб 01:12:07 #189 №535250 
>>535243
>>535245
И да, я не хочу сказать что это не работает - работает и очень часто, несмотря на ограничения. Но иногда работает хуёво. Надо сначала пробовать зерошот рефы, потом уже думать про тренировку лоры, если их недостаточно.
Аноним 04/11/23 Суб 01:56:53 #190 №535278 
>>535082
>Без контролнета говоришь иначе будет?
Без т2и-адаптера, на чистом тайле, цвет не так течет. Но и не полностью сохраняется при этом, нейронка норовит своих цветов намешать.
Вторая (оригинальная) пикча как раз на нем сделана, из простого (не-латентного) апскейла.
>Что редачить?
Цвет редачить, восстанавливая то, что было, в оригинале, перед проходом через и2и. Вытекания эти убирать, если с т2и модулем запускать.
>По какой методе вообще делаешь?
-- Делаю базовую пикчу. Выбираю удачную.
-- Апскейлю х2 каким-нибудь Валаром, или чем похожим.
-- Обрабатываю ее на этом шаге в ФШ, правлю что-то, пальцы нормальные делаю, пропорции исправляю, фон могу заменить, если не очень получился.
-- Загоняю в и2и, ставлю тайловый контролнет, канни (на начало), и лайнарт (на остаток). Запускаю обработку с очень высоким денойзом. Получаю версию с улучшенными деталями, но с сохранением контуров и композиции (это вот вторая картинка из примера выше). Цвета начинают убиваться уже тут, но при денойзе в 0.8-0.9 это и неудивительно.
-- Правлю ее еще раз, снова загоняю в и2и, для дальнейшего улучшения деталей и добавления эффектов, с меньшим денойзом в районе 0.6. Цвета убиваются еще раз, приходится снова править потом, перед финальным шагов.
-- В конце через вкладку Extra апскейлю еще разок, на х2-х3. Тайловый апскейл скриптом - как альтернатива, но в последнее время его редко делаю. Экстрой выходит то же самое практически (если в тайловый денойз ставить 0.3 или около того), но гораздо быстрее.
Аноним 04/11/23 Суб 02:10:10 #191 №535281 
>>535278
> канни (на начало)
Дикая пикселизация или артефакты если размер выдачи препроцессора не совпадает с разрешением пикчи. Но, если в начале расшатает а потом будет восстанавливать то действительно может что-то новое-интересное нарисовать.
> Получаю версию с улучшенными деталями, но с сохранением контуров и композиции
Если после ган апскейла лоуреза то должно прилично бустануть, жирный лайн может от канни приходить или лайнарта если разрешение референса низкое, но для средних разрешений пикчи это нормально.
> снова загоняю в и2и, для дальнейшего улучшения деталей и добавления эффектов, с меньшим денойзом в районе 0.6
Вот это с апскейлом совместить, достаточно небольшого хотябы 1.2, офк ресайз с помощью гана. Если это что-то в районе 2-3 мегапикселей то можно одним тайлом, или уже скриптом/мультидифуззией.
> ерез вкладку Extra апскейлю еще разок, на х2-х3
Хтонь в большинстве случаев.
> Цвета убиваются еще раз, приходится снова править потом
Как насчет просто сделать цветокоррецию финальной картинки?

Ну в целом как действуешь понятно. Кроме как "приспособиться" и добавить незначительный апскейл на финальном этапе (от цветов это не спасет, просто добавит больше деталей) нечего предложить, увы.
Аноним 04/11/23 Суб 02:27:21 #192 №535290 
>>535281
>если размер выдачи препроцессора не совпадает с разрешением пикчи
>если разрешение референса низкое
База в районе 800х600 (по ситуации), после гана уже, соответственно, 1200х1600. И с такой картинкой в и2и я уже работаю. Линии то нормально получаются. Четко, ровно. Пальцы на мелких планах все равно ломаются, но не в кашу. Легко потом починить обратно.
Главная претензия - цвета.
>Хтонь в большинстве случаев.
Хз. Когда картинка 1200х1600 после нескольких итераций и2и выходит - в ней всё уже нормально, надо только поднять разрешение и четкость. Дорисовывать ничего не требуется.
>Как насчет просто сделать цветокоррецию финальной картинки?
Не получится там простой цветокоррекцией обойтись.
Этот искусственный идиот норовит постоянно что-то перекрасить.
Зеленый купальник? Сделает серо-синий. Ярко-пурпурные ремни? Заменит на бледно-фиолетовые. Золотые элементы в броне? Закрасит под окружающий цвет. Или наоборот, всю броню сделает под золото, если что-то типа "golden trim" в промпте прописано.
Я, если честно, затрахался уже. Постоянно по слоям с наложением в ФШ коррекции этих косяков делать.
Аноним 04/11/23 Суб 02:36:49 #193 №535292 
>>535290
> Зеленый купальник? Сделает серо-синий. Ярко-пурпурные ремни? Заменит на бледно-фиолетовые.
Хм, очень сильно оно меняет, сам контролнет и модель точно последней версии?
> Золотые элементы в броне? Закрасит под окружающий цвет.
Раз уж правишь пикчи - отдели их тонким лайном или обозначь принадлежность к персонажу чтобы не путало с чем-то другим, очень помогает.
Аноним 04/11/23 Суб 02:48:22 #194 №535296 
>>535290
>Или наоборот, всю броню сделает под золото, если что-то типа "golden trim" в промпте прописано.
Используй любой метод изоляции токенов, чтобы golden влиял только на trim, а не на armor.
Аноним 04/11/23 Суб 02:55:44 #195 №535300 
>>535292
>сам контролнет и модель точно последней версии?
Последний раз 7 месяцев назад у них на хаггингфейсе обновления залиты, оттуда качал. Плагин регулярно обновляю.
Может новее где есть?
>очень помогает
Лайн остается. Цвета - нет.
Еще, кстати, заметил, что из-за тайла есть очень упорная тенденция к пересвечиванию картинки.

>>535296
>Используй любой метод изоляции токенов, чтобы golden влиял только на trim, а не на armor.
И как ты себе это представляешь, есть "trim" - это часть "armor"? Броня с золотой отделкой в совокупности.
Аноним 04/11/23 Суб 03:17:50 #196 №535307 
a1.png
a2.png
a3.png
a4.png
Во, короче, пример:
База - ГАН - тайловый контролнет c окончанием на 25% - тот же контролнет, но уже с окончанием на 100%
Вообще все по тому самому месту пошло.
Если прерывать рано - цвет брони поменялся и gold trim проигнорился.
Если держать до конца - деталями перенасрало.
И картинка высветлилась во всех случаях.
Как с этими бороться - ума не приложу.

После ГАНа разве что оставлять как есть, и не ебать себе мозги дальше. Но хочется то подетальнее!
Аноним 04/11/23 Суб 03:20:27 #197 №535308 
a5.png
a6.jpg
Хотя можно, конечно, не упарываться, и вместо денойза в 0.8-0.9 ставить базовые 0.6.
Тогда и с деталями нормально будет, и цвета плюс-минус сохранятся. Но тоже ведь не всегда, зараза такая!
Последний - апскейл в экстре через 4x_fatal_Anime_500000_G (пережатый в жипег разве что)
И где там хтонь?..
Аноним 04/11/23 Суб 03:40:21 #198 №535316 
>>535307
> но уже с окончанием на 100%
Воу воу, а чего ее там переэкспонировало на 3й, это какой-то пиздец и точно не нормальная работа. Или хз, с денойзами 0.9 даже не пробовал ставить.
> деталями перенасрало
Это ты про пик? Фиксится лорами, эйлером на семплере (вот он кстати как раз осветляет), инверсией шума в мультидифуззии, графическим редакторов. Это с лорами генерация? Случаем нет в них какого нойз оффсета или чего подобного, что к изменению гаммы с яркости приводит?
Сгенерируй какой-нибудь вангерл на популярной модели, проведи те же манипуляции и скинь с метадатой. Возможно дело в каких-то настройках.
>>535308
> и вместо денойза в 0.8-0.9 ставить базовые 0.6
Кмк 0.6 его хватает для всего что касается апскейла, больше уже только при инпеинте нужно.
> И где там хтонь?..
Под зерном приемлемо, но на глаза-пальцы-волосы посмотреть и грустновато. Ну тут правило 20-80, хули.
Аноним 04/11/23 Суб 04:07:30 #199 №535324 
a4b.png
a4c.png
>>535316
>Воу воу, а чего ее там переэкспонировало на 3й, это какой-то пиздец и точно не нормальная работа.
Вот я и сам в шоке. Бывает, что нормально обрабатывает, а бывает вот такой пипей.
>Это ты про пик?
Да, про 4-й. Теоретически можно попробовать лору на детали с отрицательным весом подключить. Разница как-то не очень заметна. Мелкие детали оно подзатерло, а вот крупняк - остался.
>эйлером на семплере (вот он кстати как раз осветляет)
2М СДЕ-карась стоял.
>Это с лорами генерация?
С одной, как сгенерилось - так я настройки не менял, только в промпт про цвет глаз добавил в и2и уже. Сам тренил, никакого оффсета в тренировку не ставил, базовые параметры практически. Я нуб, все эти новые фичи с тренировочными параметрами мимо меня прошли. Шумы, автоматический ЛР, и всё такое.
Второй пик в после вообще без лор вот сейчас сделал, на чистом контролнете. Не в ней дело, как видишь.
>Под зерном приемлемо, но на глаза-пальцы-волосы посмотреть и грустновато.
Так оно не правлено вручную нигде, без инпэинта лица и волос, чистый ИИ, только с прогоном в и2и с контролнетом.
И волосы то чем не угодили?
Аноним 04/11/23 Суб 04:14:30 #200 №535329 
>>535300
>И как ты себе это представляешь, есть "trim" - это часть "armor"? Броня с золотой отделкой в совокупности.
В ватоматике, если не ошибаюсь, full plate armor AND golden trim. (или хз какой там в наши дни синтаксис). Это сделает два прохода с семплером с двумя независимыми друг от друга кластерами.
В комфи есть еботный token cutoff, но вообще тоже надо в два прохода делать, т.е. ставишь два семплера. И можно ещё по-всякому извращаться, например столько-то итераций делать одно, столько-то другое, или каждый шаг переключаться.

Все подобные проблемы из-за попытки всё засунуть в одну генерацию
Аноним 04/11/23 Суб 04:19:17 #201 №535331 
>>535329
Вот, катофф есть для обоих уёв.
https://github.com/hnmr293/sd-webui-cutoff
https://github.com/BlenderNeko/ComfyUI_Cutoff
Посмотри на примеры, там раскраска одежды, но в целом можно резать токены как хочешь, чтобы одно влияло на другое, а на вон то не влияло. (например golden влияет только на trim, но не armor)
Аноним 04/11/23 Суб 05:01:47 #202 №535339 
a9.jpg
>>535316
Вообщем, хз как эту фигню с высоким денойзом побеждать стабильно. С низким оно плюс-минус пашет, хоть и не идеально. Хотелось бы побольше вариативности в детализации с сохранением общей цветовой палитры, что вроде как должно быть на высоких денойзах, но там тайл почему-то очень вольно относится к цветам, иногда выжигает картинку, и вдобавок срет овердетализацией куда не надо - в зависимости от настроек контролнета.
Причем ведь не постоянно, я в прошлом треде челу с 3д-карточки из койкацу генерил с денойзом в 0.9 вариант - и оно нормально получалось ведь. От разрешения чтоль зависит?..

>>535331
А, я его ставил.
Потом оно на каком-то коммите вебуя сломалось, ошибками в лог спамило при загрузке, я его и удалил.
Как-то не очень удачно оно у меня работало. Может починили с тех пор, еще раз попробую.
Аноним 04/11/23 Суб 05:10:42 #203 №535340 
>>535329
>>535331
Ещё один альтернативный способ для комфи, наверно и для автоматика есть где-нибудь.
https://github.com/andersxa/comfyui-PromptAttention
Аноним 04/11/23 Суб 06:41:07 #204 №535357 
Анон который дошел до дистиляции фурри моделек гений, спасибо ему. Почти любая модель становится более послушнкой к промпту и рарешение растет.
Аноним 04/11/23 Суб 07:48:22 #205 №535369 
>>535236
> мненье?
Комфи-дауны как обычно на пол года отстают. Ну и ип-адаптер - это фактически генерация эмбендинга, это даже не близко лора.
Аноним 04/11/23 Суб 07:55:01 #206 №535372 
00003-2832509655.png
00011-660248435.png
00012-660248435.png
00013-660248435.png
фурри дрочер копает в нужном направлении, но он не понимает как работает вычитание, поэтому копает немного не в ту сторону. Но спасибо за идею, проапгрейдил свою фурри модель в маняме. Надо теперь допилить лобзиком.
Аноним 04/11/23 Суб 07:58:35 #207 №535373 
fig1.png
>>535369
Это конкретно этот даун только сейчас услышал, остальные используют уже хуй знает сколько.
>ип-адаптер - это фактически генерация эмбендинга
Посмотри на диаграмму на пике и покажи в каком месте ты там увидел эмбеддинги и вообще кондишонинг. Нет, в отличие от контролнета он меняет веса самого U-Net, как и лора и будка. Собственно сам "адаптер" здесь это и есть отдельно натренированный переходник между сторонним zero-shot экстрактором фич (визуальный трансформер CLIP-ViT) и U-Net. Соответственно, возможности ограничены возможностями внешнего экстрактора, который должен ухватить фичи по лишь одной пикче. Ещё хуево то, что нет возможности выбирать отдельным промптом какие фичи дёргать. В отличие от лоры/будки, которым можно давать пары с тегами.

А так в целом фича охуенная и лору может заменить во многих случаях, даже с ограничениями. При этом оставаясь точно так же совместимым с контролнетами и прочим подобным, т.к. модифицирует U-Net.
Аноним 04/11/23 Суб 07:58:52 #208 №535374 
00016-660248435.png
00017-660248435.png
00018-660248435.png
00019-660248435.png
>>535372
Аноним 04/11/23 Суб 08:03:44 #209 №535375 
>>535373
>Это конкретно этот даун только сейчас услышал, остальные используют уже хуй знает сколько.
+, возможно он нюфаня. Я как только вкатился, так сразу все варианты мерджа перепробовал, после чего вычитанием с тех пор и пользуюсь. По факту, фурри модели не обязательны даже. Но мы ему об этом не скажем.
Аноним 04/11/23 Суб 08:04:47 #210 №535376 
>>535373
>по лишь одной пикче
Да, кстати, пикч может быть несколько, их можно перегнать во внутренние эмбеды визуального трансформера. (в комфи можно). Правда перегонка это компрессия с потерями, поэтому больше нескольких сильно различных пикч будет каша. Но в случае одного и того же концепта можно уточнить его, как и при обучении.

>>535375
Мы про IP-Adapter, не про мёржи с vpred моделями.
Аноним 04/11/23 Суб 08:31:11 #211 №535383 
>>535031
> Если кто активно тренирует на кохе под шиндой и еще не поставил wsl
У меня на нём тф стоит. Торч тоже на него поставить?
Аноним 04/11/23 Суб 08:32:09 #212 №535384 
>>535031
>Если кто активно тренирует на кохе под шиндой и еще не поставил wsl - самое время это сделать. Буст перфоманса на четверть с ничего (либы куды одинаковые), крохотное снижение потребление памяти, параллельная обработка штатно работает.
А на инференс это распространяется?
Аноним 04/11/23 Суб 08:33:05 #213 №535386 
>>535372
Ну и чо там по рецепту?
Аноним 04/11/23 Суб 08:34:50 #214 №535387 
Мнение эксперта по стейблу.
Залог дальнейшего развития технологии - не в GPU-часах для модели, не в гигабайтах и слоях, параметрах, а в тщательной подготовке данных для трейнинга. И это не спекуляции, это ключевой закон мл "данные решают всё". Говно на входе, говно на выходе. Для SDXL уже были какие-то подвижки, хотя бы эстетическая оценка данных.
Возможно, t2i выйдет на новый уровень, если captions в данных будут представлены не как текстовая строка, а в формате типа XML со структурой, иерархичностью объектов (мелкие предметы в описании - компоненты более крупных). Даже инфа о пространственном расположении объектов. (То, что слева на сэмпле, описано в начале, то что справа - после, как привычный нам порядок чтения текста). Потребуется модель, которая переводит короткий ввод простым английским языком в этот заковыристый формат, для сэмплинга.
Вот попробуйте в стейбле без костылей сделать изображение двух разных персонажей, каждый со своим описанием. Ничего не выйдет, токены будут одни и те же на обоих и признаки перемешаются. Потому что для основной модели использовались простые описания разной длины. Так что, есть куда расти.
Аноним 04/11/23 Суб 08:37:49 #215 №535388 
>>535387
А дядя у тебя в ФСБ случайно не работает?
Аноним 04/11/23 Суб 08:42:22 #216 №535390 
>>535387
>а в тщательной подготовке данных
Отрыл Армению, зарывай обратно. Все уже давным-давно тренят на многомодовых синтетических датасетах, см. тот же пиксарт. И качество их будет только улучшаться.

>изображение двух разных персонажей, каждый со своим описанием. Ничего не выйдет, токены будут одни и те же на обоих
Литералли выше описано как этого избежать, изолировав токены друг от друга, и предоставив модели явную модель отношений. В ней изначально есть такой механизм, causal attention mask. Механизмов много.
Я тебе даже больше скажу, в одной пикче можно мешать сразу несколько моделей и даже SD с SDXL. Эксперты кислых щей, которые знают только про текстовый промпт, сосут бибу.
Аноним 04/11/23 Суб 08:48:40 #217 №535393 
>>535390
>в одной пикче можно мешать сразу несколько моделей и даже SD с SDXL
Несколькими шагами можно, внутри сэмплинга только мерджем (1.5+XL не прокатит).
Аноним 04/11/23 Суб 08:56:51 #218 №535395 
>>535393
Да, конечно. Одна генерация/один сэмплер это в любом случае тупик, даже банальный хайрез фикс использует два. Правильно состыковав элементы модели и сторонние модели/обработчики, можно получить куда лучший результат чем одной генерацией.
Аноним 04/11/23 Суб 09:06:37 #219 №535399 
>>535387
Структурированные кэпшены - в 90% случаев хуита без задач, как и перевод датасета в хитровыебанные перцептуальные цветовые пространства вроде CIECAM16, и подобные инициативы. Большие модели на том и основаны, что тупое одноранговое пространство само задрачивает всё это в виде эмерджентного поведения в процессе тренировки, если оно достаточно большое и унифицированное.
Аноним 04/11/23 Суб 09:22:18 #220 №535405 
>>535387
>Для SDXL уже были какие-то подвижки, хотя бы эстетическая оценка данных.
Она и в SD была, внезапно. Из Laion-5B было отсеяно 2 млрд пикч.
В общем-то любые здоровенные модели так всегда и делаются - бутстраппингом из самых мелких ручных, которые тегят то что есть, потом эти модели служат основой для других, туда подмешиваются всякие ручные данные типа RLHF, и т.п. Теперь пошёл второй виток, большие визуальные трансформеры и диффузионные модели подготавливают чисто синтетические пары/мультимоды, получается совсем пиздатый датасет. И т.п., в конце концов закончат тем что нейронки будут писать учебники для роботов, как люди пишут для людей. Ты же не учишься считать, сравнивая груды спичек и числа.
Аноним 04/11/23 Суб 09:33:36 #221 №535416 
Когда начнется третья мировая и уничтожат заводы на Тайване, будущее будет за fp8 destilazed lcm генерацией
Аноним 04/11/23 Суб 11:22:08 #222 №535493 
Почему на civitai все inpaint одели выкладывают только в fp32 версии? Если я сконвертирую в fp16, ведь качество сильно не ухудшится. Для обычных моделей выкладывают как раз в основном fp16
Аноним 04/11/23 Суб 12:40:49 #223 №535534 
>>535357
> до дистиляции фурри моделек
Вут? Ты про подмешивание обратной разницы?
>>535372
Поясни
>>535387
Описал базу, только дофантазировал лишнего и неуместные примеры выдаешь.
Аноним 04/11/23 Суб 12:42:56 #224 №535536 
>>535534
На сколько я понимаю, дестиляция - это уменьшение числа параметров. Sd tiny
Аноним 04/11/23 Суб 12:46:48 #225 №535542 
>>535383
> тф стоит
Вут? Тензофлоу, тимфортрест, техническая физика?
>>535384
Какой интерфейс? Речь про скорость обучения (на 15-30% быстрее при всех прочих равных включая тдп) и нормально работающий на мультигпу аккселерейт, под шиндой он не полноценный.
Аноним 04/11/23 Суб 12:51:31 #226 №535546 
>>535031
> Если кто активно тренирует на кохе под шиндой и еще не поставил wsl - самое время это сделать.
Давно ещё тестил, на линуксе просто сд впринципе быстрее работает по какой то причине, вот и тут так же, походу похер где, инференс или тренинг, хотя конкретно тренинг я не тестил.
Аноним 04/11/23 Суб 13:51:20 #227 №535576 
>>535399
>Структурированные кэпшены - в 90% случаев хуита без задач
Поясни, почему SD 1.5 не может в детали? Если задача сгенерировать "столы с предметами" или что-то подобное - то там правдоподобны только столы, а на них лежит буквально мусор со свалки - несуществующие виды фруктов и тому подобное. Потому что, слишком сложные детали после сета с поверхностными описаниями пикч. Или, когда делаешь "в стиле Hearthstone", то будет лепить рандомные бесформенные детали из золота, бронзы, каменные и деревянные рамки, не понимая что они означают.
Аноним 04/11/23 Суб 14:17:28 #228 №535582 
>>535576
Потому что LAION - мусорный датасет. Там ехало говно через дерьмо, и часто просто нет тегов, ни нормальных ни вообще никаких. Открой CLIP браузер этого датасета и охуей. Там нужны были не структурированные кэпшены, а просто точные и детальные, тогда будет за что цепляться при тренинге. Вот в пиксарте было нечто подобное - они добились качества SDXL при смешных 25млн пикч вместо 3 млрд, и 600млн весов в U-Net вместо 2.6 млрд. (в SD 860M), за счет во многом синтетического датасета. В далле тоже нечто подобное, тренировка на развернутых кэпшенах.

Вторая причина - мало весов в VAE и U-Net. Но качество датасета и многомодовость всегда идут первыми с большим отрывом, так что даже в малое можно запихнуть много, если поебаться.
Аноним 04/11/23 Суб 14:24:30 #229 №535586 
>>535576
Потому что нейронка не понимает что генерирует, нейрогенерация работает по принципу состыковывания кусков данных отмеченных как родственные. См:
https://www.youtube.com/watch?v=f3rUp0cuxY8
Аноним 04/11/23 Суб 14:29:26 #230 №535591 
>>535582
Лайон тем и хорош что дерьмо, такие хай-тек пятна роршаха. То есть развернутые теги и тщательный подбор изображений конечно дают несопоставимое качество t2i, но только все в итоге по введеному промту результат сводится в одну схожую картинку. Как фильтр для фотошопа оно хорошо, а как генератор чего-то оригинального хуево.
Аноним 04/11/23 Суб 14:52:28 #231 №535599 
>>535591
Хуйня, подбор репрезентации фич работает лучше чем статистическая усредниловка во всех случаях, даже файнтюнеры это осознают.
Аноним 04/11/23 Суб 14:52:35 #232 №535600 
>>535546
> на линуксе просто сд впринципе быстрее работает по какой то причине
Ты про сравнения в 512-однопотоке? В диффузии не нашел разницы особо, хорошо работает и там и там, особенно при нескольких потоках или большом тайле. А тут уже заметный буст, хз, может тритон на которого ругается в шинде помогает, но вроде писали что оно юзлесс.
>>535576
Причин множества, основная - размер модели в сочетании с методиками ее тренировки. Посмотри насколько далеко продвинулись файнтюны относительно исходных моделей, там рили пропасть, хотя всеравно некоторым вещам не уделялось достаточно внимания. Плюс, >>535586 дело говорит, если делать конструктор с применением ллм, да еще с мультимодалками то и на базе 1.5 можно делать космические вещи.
>>535591
Использовать две модели на разных этапах.
Аноним 04/11/23 Суб 15:00:46 #233 №535604 
>>535586
>нейронка не понимает что генерирует
Сомнительная заява, эмерджентное поведение и состоит в извлечении абстракций из навоза, а вот это
>состыковывания кусков данных отмеченных как родственные
и есть ключевой элемент интеллекта. Собствено автоэнкодер (VAE) и весь концепт латентного пространства работают на факте, открытом еще лет 10 назад NLPшниками, что "куски данных помеченные как родственные" выцепляет семантику имеющуюся в датасете, т.е. он именно понимает что генерит. Латентное пространство это семантическое представление с зашитыми в него абстракциями, просто непонятными конкретно тебе, т.к. у вас архитектуры и обучающий материал разные. Диффузионная модель даже язык свой способна составить (как и любая большая модель).
>>535600
>Плюс, >>535586 дело говорит, если делать конструктор с применением ллм, да еще с мультимодалками то и на базе 1.5 можно делать космические вещи.
Он не про то, у него избитый СТОХАСТИЧЕСКИЙ ПОПУГАЙ.
Аноним 04/11/23 Суб 15:29:54 #234 №535615 
>>535604
> у него избитый СТОХАСТИЧЕСКИЙ ПОПУГАЙ
Лол, тогда не дело. Там если что имел ввиду недостаточное понимание сеткой некоторых концептов и их взаимосвязи. Для этого нужно или оче хитровыебанное обучение (и тогда может проебаться все остальное), или внешняя сетка что это понимает и может понятно интерпретировать и указать, причем желательно хотябы с минимальной обратной связью. Какбы та же сд примерно соображает привыкла что если указан купальник то по дефолту там должна быть рядом вода, или что еда - значит она на тарелках, которые где-то стоят, если не указано иное, но для более сложных и сочетаний у нее не хватает как мозгов так и обучения.
Аноним 04/11/23 Суб 15:45:06 #235 №535618 
>>535600
> Ты про сравнения в 512-однопотоке? В диффузии не нашел разницы особо, хорошо работает и там и там
Именно про однопоток, у меня разница процентов в 25 между этими системами, хз может тоже из за тритона, он же не собирается для 2 торча на шинде.
Аноним 04/11/23 Суб 16:00:09 #236 №535625 
>>535542
Очевидно тензорфлоу ёпта. Что я ещё в комплекте с торчем буду упоминать, ты что, торч?
Аноним 04/11/23 Суб 16:01:33 #237 №535629 
>>535625
Объясни смысл предложения
> Торч тоже на него поставить?
торч, лол
Аноним 04/11/23 Суб 16:10:28 #238 №535633 
Стабильная диффузия и чатгпт это тупо lossy алгоритмы сжатия данных, с побочным эффектом в виде возможности генерировать новые результаты путем рекомбинирования элементов. Про эмерджентность слышно еще с 60х, когда в MIT ботаны беливили что если запустить Conway's Game of Life на достаточно большом поле оно там само собой эволюционирует в разумную цифровую цивилизацию. Воз и ныне там.

Поясните мне лучше, когда в СД вместо бессмысленных новых моделей добавят возможность img2img генерации с использованием предыдущего сгенерированного кадра в качестве опорного, чтобы можно было делать полноценно vid2vid
Аноним 04/11/23 Суб 16:17:00 #239 №535638 
>>535633
>когда в СД вместо бессмысленных новых моделей добавят возможность img2img генерации с использованием предыдущего сгенерированного кадра в качестве опорного, чтобы можно было делать полноценно vid2vid
Так оно есть сто тысяч лет. В автоматике изначально, в в комфи loopchain аддон
Аноним 04/11/23 Суб 16:17:33 #240 №535639 
>>535633
> это тупо lossy алгоритмы сжатия данных
Нет, это принципиально новый подход и понятия lossy/lossless здесь не применимы. Но та же нейрокомпрессия текстурок и прочего может быть выполнена, хуанг демонстрировал зашакаливание видеосвязи до битрейтов в десятки килобит/с.
> чтобы можно было делать полноценно vid2vid
С подключением
Аноним 04/11/23 Суб 16:19:32 #241 №535642 
>>535638
>В автоматике изначально
Как называется кнопочка?
Аноним 04/11/23 Суб 16:19:44 #242 №535643 
>>535633
>>535639
Сжатие, предсказание и интеллект это одно и то же, разница лишь в назначении. /thread
Аноним 04/11/23 Суб 16:28:43 #243 №535652 
>>535643
Ну просто пока у нейросетки человеческая голова стоящая прямо и голова повернутая на 90 градусов это разные категории объектов, а так она понимает абстракции, да.
Аноним 04/11/23 Суб 19:09:12 #244 №535721 
>>535534
Суть в том, что можно ограничиться обычными маниме моделями, замешивая их между собой, просто вычитая novelai, что бы убрать грязный трейн, оставив только свежие данные промпта. Соответственно вычитание v1-5-pruned-emaonly удалит тридешность из модели, а вычитание yiffy-e18 удалит фурри. Но если продолжать вычитать выше 100% одну из перечисленных моделей, дальше сетка начинает страдать деменцией, что приводит к ебле с CFG и семплерами, либо к её утилизации. Поэтому имеет смысл снижать коррапт мерджем через суммирование с чем-то ещё.
Но. Есть один нюанс. Если вычесть хотя бы раз yiffy-e18 или v1-5-pruned-emaonly возможно йиффи тренилась на дефолтной модели SD, то выше 960х540 уже ничего не сгенеришь, на 1920х1080 получается каша. На 1080х1080 тоже. Другие фурри модели я не пробовал, хз, что там получится, зависит от того, на чем их тренили Если на novelai, то возможно взлетит. Если тебя устраивает ограничение в qHD, но с нажористой детальностью, которую ты потом проапскейлишь, то можно их использовать.
А что касается рецепта, то удачи плясок с бубнами, потому что мерджить между собой модели с неизвестным содержанием может привести как к получению годноты, так и получению лютого говнища. Связанно это с тем, что искомый мердж уже мог пару раз пройти через вычитание той же novelai, в сумме более чем на 100%, и дальнейшее вычитание просто угробит модель. Большинство итоговых мерджей через вычитание нормально генерируют на 2-7 CFG, все что выше, это уже цветная каша будет. То же и семплерами, некоторые из них такие модели обрабатывают неадекватно. Поэтому советую использовать в качестве основы модель, которая тренилась, а не мерджилась, а уже потом в неё домешивать что-то годное.

>>535386
Ты не заслужил, на колени, анимераб!
То, что на пиках было:
Coconut2.0_classic+(манямемодель1-yiffy-e18)20%=111
111+(манямемодель2-yiffy-e18)20%=222
222+(манямемодель3- yiffy-e18)20%=333

Не спрашивай, что за маняме модели, я на рандоме мерджил, в качестве теста. И да, там говно выходит, если yiffy-e18 больше 40% вычесть, там задники деменцией страдать начинают. Но если, после -40%, вычесть v1-5-pruned-emaonly то можно безопасно для графена ещё 20% вычесть. А там отшлифовывать вычитая novelai, но не факт, я не тестил.
Но да, такой метод не генерит в Full HD изпадкоробки, но можно заапскейлить обычный qHD(960х540). Возможно стоит заменить yiffy-e18 на что-то другое, из фурри моделей, что хайрез не корраптит, но я хз, это надо перебирать модели.
Аноним 04/11/23 Суб 19:35:58 #245 №535746 
>>535721
> Соответственно вычитание v1-5-pruned-emaonly удалит тридешность из модели

Ты совсем ёбнутый, в обучении базовой модели миллиарды изображений. На ней держится вообще всё - всё понимание нейронкой слов, их сочетаний, глаголы и всё всё всё. Базовая модель - это ядро для понимания мира

Плюс стиль идёт в отрыве от понятия. Если нейронку обучили на 3д мячиках для тенниса, то она сможет и 2д их нарисовать

Вообще все фанатские модели - это файнтюн. Он подразумевает то, что нейронка будет считать некоторые заложенные понятия само собой разумеющееся

Да камон, в базовой моделе миллиарды картинок при обучении, в файноюнах - пара тысяч! Это даже не порядок разница, это даже не порядок порядков разница
Аноним 04/11/23 Суб 20:04:08 #246 №535765 
Тоже офигел с предложения о вычитании НАИ и СД из моделей.
Аноним 04/11/23 Суб 20:10:49 #247 №535770 
1664827946433.png
>>535721
> просто вычитая novelai, что бы убрать грязный трейн
Так, погоди, это как в кукбуках некоторых миксов и кастомных дотренов через полноценный чекпоинт, где модель - наи нужно подмешивать к жалемой уже приличной, оно?
Эксперименты с подобной методой добавляет в выбранный микс твики что тренились, но конкретные значения да и саму тренировку нужно тюнить. Ты будкой обмазывался?

Пользуясь случаем, поясни за выбор методов мерджа из вариантов (косинусы, смус адд, трейн дифференс, ...) и что за 20%, альфа=0.2 в супермерджере? Алсо почему именно такое значение?
> нормально генерируют на 2-7 CFG, все что выше, это уже цветная каша будет
Подобный эффект наблюдался если примердживать колхозно дотрененный впред к обычной модели. Получается что на обычных кфг пережарка, при снижении отпускает, но пикча более мыльная чем на дефолтной модели. При этом работает по дефолту без конфигов, достигая нужный эффект. Попердолить тренировку, смешивать послойно и может уже что-то выйдет.

Метода микса с последовательным вычитанием в несколько проходов интересна, вот рили почему бы и нет, спасибо.

>>535746
> в обучении базовой модели миллиарды изображений. На ней держится вообще всё
Ты не догнал что в операции участвуют 3 модели и к исходной уже работающей добавляется вычитание одной из другой?
Аноним 04/11/23 Суб 20:34:13 #248 №535786 
>>535746
>Ты совсем ёбнутый
Да, поэтому я получаю прикольные модели, которые работают зачастую через жопу, а ты чет рассуждаешь, теории строишь. А так, мое мнение абсолютно субъективно и не претендует на истинность, че ты докопался.
>в обучении базовой модели миллиарды изображений. На ней держится вообще всё - всё понимание нейронкой слов, их сочетаний, глаголы и всё всё всё. Базовая модель - это ядро для понимания мира
Тогда вычитание любых моделей из любых моделей должно привести к полной деградации при 100% вычитания - в них всех же базовая модель заложена, это как основание идет. Но я этого не вижу. Возможно база модели не участвует в мердже, хз.
>Плюс стиль идёт в отрыве от понятия. Если нейронку обучили на 3д мячиках для тенниса, то она сможет и 2д их нарисовать
Тут главный вопрос в том, как она их нарисует.
>Да камон, в базовой моделе миллиарды картинок при обучении, в файноюнах - пара тысяч!
ну, это объясняет почему маняме модели такая параша, там же пара тысяч, не то что православные фурри модели по 800к-1,5к артов. Щас глянул, фаффифьюжн на 2.305 миллионах артах тренился.
Аноним 04/11/23 Суб 20:43:14 #249 №535798 
image.png
>>535770
>Так, погоди, это как в кукбуках некоторых миксов и кастомных дотренов через полноценный чекпоинт, где модель - наи нужно подмешивать к жалемой уже приличной, оно?
нет, её вычитать, как раз таки.
>Ты будкой обмазывался?
Будкой не обмазывался, не в курсе что это.
>Пользуясь случаем, поясни за выбор методов мерджа из вариантов (косинусы, смус адд, трейн дифференс, ...) и что за 20%, альфа=0.2 в супермерджере? Алсо почему именно такое значение?
Кхъ, я классическим чекпоинт мерджером пользовался, с супермерджером надо суперебаться, мне лень. Смотри картинку, что бы понять каким говном я мерджу.
Аноним 04/11/23 Суб 20:52:54 #250 №535814 
>>535786
> Тогда вычитание любых моделей из любых моделей должно привести к полной деградации при 100% вычитания
Это если делать просто вычитание одной модели из другой, там будут одни нули. А здесь тут полученная разница, по сути измененные веса при файнтюне, добавляются к модели в которой уже все есть, меняя ее.
Вот когда добавляется разница разнородных моделей тут интереснее и уже может получиться потеря иходника, что и может выражаться как
> если yiffy-e18 больше 40% вычесть, там задники деменцией страдать начинают
это офк если сильно упрощать, таки многие операции там нелинейны.
> это объясняет почему маняме модели такая параша, там же пара тысяч
Рофлишь или серьезно?
>>535798
> нет, её вычитать, как раз таки.
Так это то что и имел ввиду, дефис там как минус идет. Модель с которой хочешь вытащить (B), из нее вычитается ванильная наи (C) и полученная разница добавляется к той, куда хочешь добавить (A).
В случае тех операций как описано с вычитанием из аниме модели фурревской можно (?) раскрыть скобки, и привести это как вычитание из фурри-фурри с добавлением анимы. Но, поскольку множитель не единица, то большая часть фурей сохраняется. Повторные применения ее сильно вымывают, что и приводит к описанным эффектам.
В рамках рассуждений без претензий на истину.
> Будкой не обмазывался, не в курсе что это.
Dreambooth, файнтюн чекпоинта.
Аноним 04/11/23 Суб 23:16:49 #251 №535891 
>Рофлишь или серьезно?
Я не мог не порофлить.
>Но, поскольку множитель не единица, то большая часть фурей сохраняется.
>Повторные применения ее сильно вымывают, что и приводит к описанным эффектам.
Если учитывать, что там тэги как аниме, так и фурри остаются на месте, то это можно проигнорировать, добавив в качестве расы в позитив (human), а в негатив (furry, kemono, feral, beast, etc). А так, модель будет вполне справляться как с кошкодевками, так с фуррями, так и с кемоно.
Аноним 04/11/23 Суб 23:24:07 #252 №535901 
>>535891
> так и фурри остаются на месте, то это можно проигнорировать
Да, там много общего и потом полученная на выходе смесь может вполне прилично работать.
Модель интересная безусловно, но не все в ней нравится и лоры на нее отдельные тренить надо. К ней всегда обратиться можно, а так лучше попердолиться.
Аноним 05/11/23 Вск 01:08:30 #253 №535943 
Вот кстати, все по поводу этих фурри-мерджей и прочего такого.

А лору сделать из разницы никто не пытался? В разных комбинациях.

Туда же всякое можно записать, и через Additional Networks еще и UNet/Text Encoder отдельно друг от друга применять, если вдруг приспичит.
Аноним 05/11/23 Вск 14:11:02 #254 №536292 
>>534929
Пфф. Автоматик во время оно вполне себе запускался на обниморде на фришном спейсе на ЦПУ. 30 минут на картинку, но почему бы и нет? Алсо, есть diffusers. Да, не автоматик, но при умелом использовании на той же обниморде даёт картинку за 15 минут. Господа гигопудобояре просто чутка зажрались, а мы, смиренные безвидяшники, и тому рады))
Аноним 05/11/23 Вск 17:16:29 #255 №536372 
>>535943
>А лору сделать из разницы никто не пытался?
лору можно из любого кала сделать, но дело в том что лоры наоборот вписывают в модели и потом добавляют различия в модель без лоры, так меньше артефактов и больше консистенции

насчет флафихуяфи мерджа кстати, если взять базовый сд и сунуть его в B модель, то получается более лутшая базовая сд, которой можно через TD присунуть любую модель, тем самым ее улучшив, еще полирнуть сверху пинойзами или детайл лорами и будет вообще по одному ключу выдавать топ результы
Аноним 05/11/23 Вск 22:06:47 #256 №536520 
>>536292
В автоматике нет OpenVINO, который задрочен под ЦПУ и ускоряет инференс в дохуя раз по сравнению с торчами-хуёрчами, в которых ЦПУ это вспомогательная опция для запуска вспомогательных мелкомоделей.

Помню был уй под опенвино специально, не помню какой. (никогда не работал с ЦПУ генерацией)
Аноним 06/11/23 Пнд 00:46:43 #257 №536693 
1699220801079.png
1699220801083.png
Пипец, я тут за один вечер наклепал расширение по автоматическуму раздеванию. Просто решил программно автоматизировать segment anything и inpaint; вынести все в отдельную вкладку, чтобы буквально оставалось две кнопки нажать. Идея на поверхности, но бегло ничего не нагуглил. Ну решил что лучше сделаю сам, зато и по практикуюсь, впервые делаю что-то подобное на питоне

Результатом на самом деле приятно шокирован немного. Я думал будет намного хуже ручного инпейнта, а вот нет. И эффект скорости впечатляет от того, что залил картинку, нажал кнопку, 6 секунд - и готово. И не надо несколько минут пердолиться с выделением, или нажатием кнопок в segment anything

Из планов: доделать batch обработку, кэшировать результат создания маски, сделать настройку важных inpaint параметров типа семплер, количество шагов, expand и т.п. И мб сделать скрипт для txt2img, чтобы после генирации получать nude версию, так как на генирациях меньше заметен inpaint

А куда можно залить? Знаю есть форум какой-то популярный по дипфейкам, он индексируется поисковиками хорошо. И видел сайт gitgub, куда заливают репозитории с порно тематикой. Наверное так выложу
Аноним 06/11/23 Пнд 01:10:01 #258 №536716 
1699222198899.jpg
1699222198928.jpg
1699222198962.jpg
>>536693
В него можно тупо всякий хлам из галереи кидать, что ты бы руками никогда не решился бы делать, так как долго. Прикольная игрушка вышла
Аноним 06/11/23 Пнд 01:23:56 #259 №536724 
>>536693
Такая хуйня безо всякого погромирования за 5 сек автоматизируется в комфи.
Аноним 06/11/23 Пнд 01:28:55 #260 №536726 
>>536693
Огонь, ведь можно найти много применений. На гитхаб лей, только описание замени на "автоматическую замену одежды".
Аноним 06/11/23 Пнд 01:34:51 #261 №536728 
>>536726
Думаю можно было вынести все экзэмплы в настройки, чтобы пользователь их сам туда вводил, и чтобы не было плохих слов на гитхабе, и выложить как быстрая замена объектов. Но тогда и readme не сделаешь хорошим, и название придется сменить. Auto Nudify мне сильно зашло. Так что лучше куда-нибудь на форум и gitgub

>>536724
Да, но чтобы потом эту схему в Комфи обернуть в красивую гуишку на gradio, нужно ебаться еще больше, так как надо отдельно поднимать Комфи с апи, отдельно свое мини-приложение. А тут - просто вкладка в готовом многофункциональном гуи
Аноним 06/11/23 Пнд 04:20:06 #262 №536783 
>>536693
Лей на гитхуб, только обзови его "Auto Inpainter"
Аноним 06/11/23 Пнд 05:02:48 #263 №536809 
>>536728
>Да, но чтобы потом эту схему в Комфи обернуть в красивую гуишку на gradio, нужно ебаться еще больше, так как надо отдельно поднимать Комфи с апи, отдельно свое мини-приложение.
Зачем оборачивать, почему прямо так не юзать? У тебя же там полторы кнопки. Но вообще есть InvokeAI, это как раз такая гуишка, со своим нод-редактором. Ещё сами стабилити начали делать гуй-надстройку над комфи, https://github.com/Stability-AI/StableSwarmUI (пока сырой). Ну а мне как 3Д макаке больше интересна интеграция в блендерные ноды, там тебе и интерфейс, и возможности, и собственно ноды https://github.com/AIGODLIKE/ComfyUI-BlenderAI-node. Есть также хуйня под криту
Аноним 06/11/23 Пнд 13:41:06 #264 №537002 
1699267265876.jpg
Залил на гитхаб, так уж и быть. Подумал хрен с ним, пускай будет. В принципе много для чего может пригодится такой легковесный интерфейс. Назвал по другому, в настройки вынес редактирование экзэмплов, и через переменную окружения можно изменить название. В общем за пару действий можно перевести к изначальному виду.

Можете проверять. Если ок, то можно будет добавить в индекс автоматика

https://github.com/light-and-ray/sd-webui-replacer
Аноним 06/11/23 Пнд 14:10:16 #265 №537011 
>>537002
И зачем оно нужно, без всего функционала автоматика, когда можно просто использовать Segment Anything напрямую? Выглядит как говно.
Аноним 06/11/23 Пнд 14:17:25 #266 №537012 
>>537011
Потому что с segment anything долго морочиться для каждой картинки по отдельности, сравнимо по времени с inpaint-ом. А так можно все подряд кидать
Аноним 06/11/23 Пнд 14:43:31 #267 №537021 
>>537002
Найс. По поводу функционала - действительно можно добавить больше параметров с автоматика, плюс возможность брать настройки из текстового файла при батчах.
Аноним 06/11/23 Пнд 15:03:36 #268 №537030 
>>537021
> текстового файла при батчах.

О, об этом не подумал. Мб было бы интересно

Основные настройки я добавлю обязательно. И еще upscaler for img2img, почему-то его по умолчанию в интерфейс не вынесли, а штука то полезная. Лица gan апскейлеры портят, но вот с туловищем - норм. Всяко лучше мыла

Еще хочу контролнет добавить. Особенно openpose, так как поза портится на некоторых фотках нереально. Надеюсь оно не сложно будет
Аноним 06/11/23 Пнд 15:07:55 #269 №537031 
1000062563.jpg
1000062574.jpeg
>>537012
Вот смотри, увидел я фотку в телеграме. Захотелось нюдтса. Тык тык, и готово. 2 кнопки: upload и run.

Бесит возиться с промптами - тут долисать до segment anything, выставить галочку на промпт, ввести промпт, сгенерировать маску. Выбрать маску вручную, потом еще нажать 2 кнопки чтобы расширить маску. Потом еще не дай бог у тебя криво оно скопировалось в inpaint upload. Возни куча. Тем более если с телефона - это того не стоит
Аноним 06/11/23 Пнд 15:08:44 #270 №537032 
>>537011

Промазал >>537031
Аноним 06/11/23 Пнд 15:12:40 #271 №537034 
>>537031
Надо хоть немного качества, а не это мыло даже мыльнее оригинальных шакалов.
> 2 кнопки
Действительно, 2 кнопки сильно проще 5.
Аноним 06/11/23 Пнд 16:36:34 #272 №537086 
>>537002
>>537031
В целом норм. Но надо бы ещё прикрутить регулировку разрешения, чтобы на больших фотках не шакалило.
Аноним 06/11/23 Пнд 17:21:09 #273 №537131 
>>537086
С денойзом 1 не получится слишком большое разрешение делать. Сделаю регулировку конечно, вместе со всеми настройками

Еще с этой же целью добавлю выбор апскейлера. Пока что сделал кэширование создания маски, теперь повторная генерация занимает в 2 раза меньше времени. И устал что-то
Аноним 06/11/23 Пнд 17:23:08 #274 №537136 
face27ummaybebyajd262d87z6f3.png
face25welcomingbedbyajd262d6k0igt.png
diffused2023-11-06---11-18-04.png
diffused2023-11-06---03-53-40.png
Дрёмобудка-кун репортинг ин!

lametta оказалась вполне обучаема! Только "3D" в негатив писать не надо. Или с осторожностью. Пик1, пик2 - 2 из примерно 30 референсов, пик 3 и пик 4 - лучшие результаты на данный момент (напомню, что генерю на CPU).

Обучение в два этапа. Первый этап: 160 регов girl, 5e-7, cosine. Оттуда взято промежуточное на 7к из 10к запланированных.

Второй этап: на базе оной промежуточной модели на 7к шагов - 2.5e-7, взято 2400 шагов из 4000 запланированных (отфигачило колаб).

Да, в один проход получается... не то. Почему - не знаю.

Колаб от Шивама, старенький.
Аноним 06/11/23 Пнд 17:27:33 #275 №537141 
diffused2023-11-06---01-30-06982080912937057.png
diffused2023-11-05---19-54-26-196578576060449.png
diffused2023-11-05---01-28-00-1110775970960978.png
>>537136
Это пока без beastboost, я сейчас не при безлимитке. Полные 10к шагов (однопроходное) выдают вот такое. Тоже неплохо, но двухпроходка мне больше нравится. Спасибо анонимусу, сделавшему обзор на ламетту!

Напоминаю, что flat2d-animerge я тоже пытался тренить, но то ли он плохо обучаема, то ли я с промптом не угадал...
Аноним 06/11/23 Пнд 17:29:10 #276 №537142 
>>537031
Какой моделью и каким семплером сделан сей нюдес?..

У меня друг спрашивает, он художник
Аноним 06/11/23 Пнд 17:30:44 #277 №537144 
>>537136
Зачем будка, для такого же хватит простой лоры.
Аноним 06/11/23 Пнд 17:43:02 #278 №537152 
>>537142
epicphotogasm-z inpainting. И негатив который автор на странице с моделью советует

Скмплер обычный dpm++ 2m sde karras, вроде он по умолчанию включен
Аноним 06/11/23 Пнд 17:43:26 #279 №537153 
>>537144
Ну я пробовал. Будка у меня получается, а лора - нет. Может, плохо пробовал, не знаю. Но мне гораздо интереснее прокачивать то, что получается, чем то, что не получается...
Аноним 06/11/23 Пнд 17:43:27 #280 №537154 
>>537136
Как долго на ЦПУ генерит?
Аноним 06/11/23 Пнд 17:45:57 #281 №537160 
>>537154
Около 20 минут. 20 шагов EulerAncestral, 640x960. Когда-то больше, когда-то меньше.

Фришный спейс на обниморде.
Аноним 06/11/23 Пнд 17:48:12 #282 №537162 
>>537153
Я вот думаю, а если вместо 160 регов взять 1600 - лучше будет или хуже? Надо ли подстраивать лр и количество шагов?..
Аноним 06/11/23 Пнд 18:14:33 #283 №537177 
Screenshot 2023-11-06 at 18-09-53 Stable Diffusion.png
>>537131
Впрочем, я сам уже прикрутил, лол
Аноним 06/11/23 Пнд 20:27:48 #284 №537306 
1000062780.png
>>537141
Бля, какая ж хуйня 😂
Аноним 06/11/23 Пнд 20:45:09 #285 №537326 
>>537306
это завязки от купальника!
Аноним 06/11/23 Пнд 20:47:56 #286 №537330 
>>537162
Тензорбордом посмотри что там происходит. Для такого монотонного стиля действительно лучше подойдет лора без каких-либо регуляризаций, на коллабе должна натрениться минут за 20 максимум.
Однако, опыт сравнения с разной регуляризацией и прочее скидывай, интересно.
Аноним 06/11/23 Пнд 21:03:54 #287 №537346 
Чел с квадрой на 48 гигов в этом треде сидит? Как она по производительности, и что за возможности открывает количество памяти?
Аноним 06/11/23 Пнд 21:09:48 #288 №537358 
>>537136
Оно чето выглядит как сгенерированное в 256х512 и дальше простеньким апскейлом растянуто
Аноним 06/11/23 Пнд 23:32:45 #289 №537572 
https://github.com/openai/consistencydecoder

Улучшенный декодер VAEшек для SD 1.5 от ClosedAI. Уменьшает боди хоррор, правит прямые линии, увеличивает член, делает волосы мягкими и шелковистыми.
Аноним 06/11/23 Пнд 23:45:53 #290 №537584 
>>537358
А посоветуй апскейлер, чтобы из 256х512 генерить 640х960 ?
Аноним 07/11/23 Втр 00:23:46 #291 №537607 
>>537572
> Улучшенный
В 3 раза жирнее слои. Готовь 4090 для декодинга 1024х1024.
Аноним 07/11/23 Втр 00:51:33 #292 №537628 
>>537607
Какие слои, это же код онли? Интересно, оно для SDXLных ваешек работает или нет
>Готовь 4090 для декодинга 1024х1024
тай лы
Аноним 07/11/23 Втр 00:59:11 #293 №537639 
>>537584
Латент?
Аноним 07/11/23 Втр 01:01:15 #294 №537643 
>>537628
>>537607
Посмотрел внутрь, да. Эта хуйня всю память сожрёт и ещё попросит, плюс декодить будет три миллиарда лет. Хайрез фикс и контролнетная акробатика внезапно выглядят гораздо лучше. Даже удивительно, что с такой еботой далле-3 всё равно умудряется рисовать кривые лица и пальцы.
Аноним 07/11/23 Втр 01:08:58 #295 №537645 
>>537584
Генери сразу в 640х960, большинство современных моделей потянет.
>>537607
Можно оставить только для лоурезов, да и не насктолько печально все, кодинг/декодинг шакалов будет влезать батчем не 32+ и 10, не смертельно.
Аноним 07/11/23 Втр 01:32:50 #296 №537663 
> новое вае для SD 1.5

Насколько же живуча всё-таки полторашка!

Вспомнил Джумлу @ прослезился

Видимо, не по той дорожке пошли стейблы. Не надо было пытаться переделать полторашку правильно. Надо думать, чем бы эдаким её обвесить. Например, дополнительный гипернетворк со своим текстэнкодером, навешиваемый на любое полторашное "ядро".

Я изобрёл контролнет, да?

Полторашка произвела революцию, и свалить её революцией, а не эволюцией - будет очень трудно.
Аноним 07/11/23 Втр 01:57:18 #297 №537689 
Какие вообще существуют способы оценки качества моделей? Я пока могу предложить только два, и очень частных.

Для реалистичных моделей, натрененных на конкретную ЕОТ, можно оценивать качество каждой фотки очень просто: берём фотку, закидываем на search4faces, смотрим количество совпадений, сравниваем с количеством совпадений, получаемых от реальной фотки.

Могу похвастаться (но пруфов, конечно, не будет), что есть у меня модель на базе chilloutmix, ещё в мае натрененная, около сотни фоток ЕОТ в датасете, chas-conceptrate, 512x512 - отдельные мастерписи выбивают по 2-3 совпадения с реальными фотками (не считая "похожих").

Для всех моделей - предлагаю следующий критерий. Будем говорить, что модель Х обладает коэффициентом качества N, если из 16 генераций в разрешении 16Nx24N по дженерик-промпту (для анимэшных - 1girl, masterpiece) не более двух имеют потерю уникальности объекта (две тянки) или бодихоррор (не считая пальцев). Критерий видится относительно объективным, не правда ли? Особенно если в тесте зафиксировать сид и увеличить количество пробных генераций...

А ещё этот критерий хорош тем, что может быть улучшаем постепенно, шаг за шагом, аккуратно теряя десятки часов в слоевом режиме супермёрждера...

Далее - послушность. Есть набор относительно стандартных тэгов, которые модель должна понимать. Например, 1girl, white_bikini, outdoors. Или 1girl, black_dress, cowboy_shot, indoors. Соответственно, фиксируем набор тестов, смотрим, какой процент выполнения пожеланий.


Но ведь я наверняка изобретаю велосипед, правда?
Аноним 07/11/23 Втр 02:11:51 #298 №537702 
>>537663
Посмотри на ллм, там сейчас идет не столько количественное развитие, считай переход на sd2.x а потом xl, сколько качественное, с радикальным ростом производительности при сохранения мелкого размера и трендом на ужатие и оптимизацию.
Суть в том что на основе полторашки происходит нечто подобное, ее файнтюны, технологии, огромное число костылей, варианты применения с длинным воркфлоу и т.д.
Революцию стоит ждать на основе новой архитектуры типа петли обратной связи с помощью мультимодалки или группы сеток, но чсх даже это в некотором колхозном виде может быть реализовано с применением 1.5.
Тут бы зашла условная SDXS в +- том же размере но с учетом новых метод тренировок. А если будет примерно совместима с 1.5 то вообще идеал, с руками оторвут. Но на xl много сил потрачено и внутренний каннибализм плодить они не будут.
>>537689
> Для всех моделей
Ты же про лоры?
Управляемость промтом в очень широком смысле, способность делать четкие когерентные бекграунды, отсутствие проблем с перспективой и восприятием концептов, не триггерится и перерисовывает что-то если в промте нет релейтед тегов, порядок с анатомией, воспроизведение деталей исходника но при этом возможность поменять часть костюма/параметры тела и т.д.
> не более двух
Делай грид на исходной модели а потом с добавлением лоры, и сравнивай процент фейлов.
Аноним 07/11/23 Втр 02:23:53 #299 №537710 
>>537689
Добавь управляемость контролнетом.
Всё это непонятно как оценивать, под любой объективный тест можно заточиться, а любой субъективный субъективен. Хотя некоторые пользуются субъективными, например https://www.youtube.com/watch?v=X1XfmXsbVFY&t=125s
Аноним 07/11/23 Втр 02:26:23 #300 №537714 
>>537710
>Добавь управляемость контролнетом.
Особенно нелюдей. Допустим хвост приделать опенпоз ригу, или шесть лап для паука, или хотя бы коленки не в ту сторону для сотоны, и посмотреть какую поебистику он выдаст. Главное CN-openpose юзать, а на T2IA-openpose, последний заставляет абсолютно всё мутировать в людей.
Всё это писями на воде виляно, в общем.
Аноним 07/11/23 Втр 02:29:18 #301 №537716 
>>537714
> Допустим хвост приделать опенпоз ригу, или шесть лап для паука, или хотя бы коленки не в ту сторону для сотоны, и посмотреть какую поебистику он выдаст.
Хуясе, звучит космос, где такое можно взять? инб4 напиши сам
Если там еще для неодушевленных объектов (например, автомобиль) есть то даже слишком круто.
Аноним 07/11/23 Втр 02:32:32 #302 №537719 
>>537702
>Ты же про лоры?
Нет. Я, конечно, дурак и идеалист - но не настолько, чтобы не понимать, что каждая лора слишком уникальна, чтобы можно было формулировать чёткие критерии.

Поэтому я именно про чекпоинты - как трененые, так и мёрженные.

>>537710
Ты так говоришь про заточку под объективный тест, как будто это что-то плохое! Нужно же иметь какие-то ориентиры.


У Сдохли есть шансы занять свою нишу. Если никто не придумает способов, нарастив полторашку примерно на тот же объём, получить схожие результаты.
Аноним 07/11/23 Втр 02:38:31 #303 №537722 
>>537716
>где такое можно взять?
Блять, нарисовать скелет опенпоза с лишними лапами. Ну или готовый риг под блендер возьми, там уже готовые лишние конечности для присобачивания есть. https://toyxyz.gumroad.com/l/ciojz

Контролировать надо не только опенпозом, чтобы не получить мутанта, а ещё и через глубину, кэнни и т.п. А чтобы получить глубину, надо ещё и модельку иметь, в том риге только хуман есть.
Аноним 07/11/23 Втр 02:42:03 #304 №537725 
>>537719
>Ты так говоришь про заточку под объективный тест, как будто это что-то плохое!
Ну вот есть такие смешные ребята https://github.com/imoneoi/openchat
бьют себя пяткой в грудь что их крошечная 7B модель перегоняет чат-гопоту 3.5 по всем тестам. Можешь сам представить что там на самом деле.
Аноним 07/11/23 Втр 02:48:47 #305 №537731 
>>537725
Так это они с нуля (?). А я веду речь о том, как сравнивать между собой мёржи и файнтюны.
Аноним 07/11/23 Втр 02:53:37 #306 №537733 
>>537719
> чекпоинты
> натрененная, около сотни фоток ЕОТ в датасете
Оу щи.
Чекпоинт сам по себе уже обязан удовлетворять всем этим фичам и при мерджах уже как раз стоит обращать внимание на детали типа пальцев, мелкие нюансы стилизации и т.д., чтобы оно косячило по крупному - это нужно сильно сфелить при мердже. А делать полноценный файнтюн под еот/персонажа с микродатасетом это не оптимально читай пиздец.
>>537722
> нарисовать скелет опенпоза с лишними лапами
Его формат же имеет некоторый стандарт, оно и воспримет как многорукое индийское божество а не что изначально задумано, не?
Аноним 07/11/23 Втр 02:57:32 #307 №537734 
>>537733
А та же ситуация. Лору попробовал - вышла фигня. А чекпоинты я тренил под неё с декабря. Какая мне на фиг разница, 10 минут выставлять настройки и ждать 4 часа или 10 минут выставлять настройки и ждать 15 минут? Всё равно я ограничиваю время, затрачиваемое на нейронки (а то башка вразнос пойдёт), а вкладка с гугл-колабом... ну, не то чтобы совсем не жрёт памяти... Но у меня 16 ГБ оперативки, терпимо.

Но датасет там вот оч так себе по современным меркам, да.

Разверни плиз мысль про базовые требования.
Аноним 07/11/23 Втр 03:02:18 #308 №537736 
>>537734
Суть в возможностях-удобстве дальнейшего применения и эффективности обучения.
> Разверни плиз мысль про базовые требования.
?
Аноним 07/11/23 Втр 03:04:13 #309 №537738 
image (1).png
image.png
>>537733
>Его формат же имеет некоторый стандарт, оно и воспримет как многорукое индийское божество а не что изначально задумано, не?
Я пробовал, конкретно та модель что в openpose controlnet более-менее умеет контролировать всяких ящериц, собачек, роботов и прочую нечеловеческую нечисть, если SD чекпоинт (+ лора + IP adapter или что там у тебя) хотя бы примерно представляет что это такое и как их ставить в данную позу.

Но вообще если добавить и depth и canny в форме твоего пиздокрылого семихуя, и ещё и подсунуть ему референс через IP-Adapter какой-нибудь (или вообще натренить лору на генерациях), то его наверно можно забороть, по крайней мере в определённых пределах. Людям он точно конечности пришивает нормально, превращая в Шиву. Насчет пауков и хвостатых не знаю.
Аноним 07/11/23 Втр 03:07:59 #310 №537740 
>>537736
Ты хочешь сказать, что любой приличный (не очень инцестный) микс должен быть дообучаем с помощью файнтюна?? Что это не какое-то особенное свойство чекпоинта?

Странно, мои опыты с SunshineMix и DreamLike PhotoReal V2 показывали, что далеко не каждого зайца можно научить курить... Получались какие-то брежнебровые мужеподобища вместо няши-косплеерши.
Аноним 07/11/23 Втр 03:12:43 #311 №537742 
>>537738
Те пикчи и в примерах есть, они просто добавляют дополнительные конечности того же вида-цвета и на выходе если с промтом норм может получиться типа роборуки и т.д.
А какой цвет ставить для хвоста? Для лап паукану или ящерице (хотя с ней проще, там ведь 4)? Колени можно обыграть изгибом-позицией, кузнечиков делает.
> если добавить и depth и canny
Где их взять если речь об исходной генерации?
> превращая в Шиву
О том и речь
> Насчет пауков и хвостатых не знаю.
Эх, а так забайтил, жаль.
>>537740
Нет, то что подобное обучение нужно делать с помощью лоры, обученной на голой сд или легким хорошим ее файнтюне в качестве базовой модели (для реалистика) или наи для анимца. После этого нормальная лора/локон будет прекрасно применяться на любом нормальном чекпоинте, в том числе в сочетании с другими.
А в остальном - любой нормальный чекпоинг не делает бадихоррор, слушается и проблемы проявляться начинают в мелочах прежде всего.
> далеко не каждого зайца можно научить курить
Это верно, если твои пикчи слишком отличаются от дефолтного то оно просто начнет все ломать без результата.
Аноним 07/11/23 Втр 03:47:49 #312 №537752 
>>537742
> Нет, то что подобное обучение нужно делать с помощью лоры, обученной на голой сд или легким хорошим её файнтюне в качестве базовой модели (для реалистика) или наи для анимца. После этого нормальная лора/локон будет прекрасно применяться на любом нормальном чекпоинте, в том числе в сочетании с другими.

Анон, я слышал это много раз, и я пробовал тренить лору на SD. Получилась фигня. Я не могу показать датасет, поскольку девушка реальна и легко находима. Возможно, я рукожоп. Это со всеми бывает. Но я начинал это в декабре 2022, когда лору ещё не изобрели, не говоря уже о её поддержке в diffusers. И теперь у меня есть плюс-минус работающий рецепт, который я хочу улучшить. Не изобрести принципиально новый, а потихоньку улучшать существующий. Замена базовой модели - один из самых простых способов.

Возможно, я хочу странного. А хочу я, чтобы модель знала не только лицо, но и тип её фигуры, а также форму и расположение пупка. И если тип фигуры плюс-минус можно и тэгами, то вот с управлением рисовкой пупков я не сталкивался никогда.

Но я не хочу тэгами, анон. Я хочу, чтобы модель впитала максимум знаний об этой конкретной косплеерше. И выдавала по ним генерации.

Я знаю, я чокнутый. Но камон, 2023 на дворе, где вы нормальных людей-то видели?
Аноним 07/11/23 Втр 04:00:36 #313 №537758 
>>537742
>Где их взять если речь об исходной генерации?
Блендерный риг что я линканул, рендерит по разным слоям mediapipe face, руки, скелет, depth, canny, mediapipe face и всё на свете, можешь брать и ставить кучу контролнетов, каждый на свой слой. Но из мешей в комплекте там есть только человек, паукана самому надо делать. (быстрее сгенерить из карты глубины взятой от фотки и конвертнуть в кривой меш, думаю)
>О том и речь
Это людей. Ящерицу я крутил чистым скелетом, без depth и прочего, получалось куда ни шло - пока не наткнёшься на ограничения самой модели, которая плохо себе представляет ящерицу танцующую брейк-дэнс. Думаю если к этому скелету иметь модель и рендерить ещё и depth и canny по ней, будет намного лучше.
Аноним 07/11/23 Втр 04:07:04 #314 №537760 
>>537742
>любой нормальный чекпоинг не делает бадихоррор
... до определённого разрешения. См. рассуждения о количественной характеристике выше.

А генерить в небольшом разрешении - значит всрать лицо. Хайрезфикс? Ну, я не умею его готовить :( Пупок всирается, опять же. Адетаилер? (есть ли в этом слове Й или тут как с Таиландом и биткоином?) Нууу... Я вроде как даже видел где-то пайплайн под diffusers с ним, но всё ещё не уверен, поможет или нет.
Аноним 07/11/23 Втр 04:13:00 #315 №537761 
>>537346
Тут такие есть? Было бы интересно услышать.
>>537752
> я слышал это много раз
Неспроста.
> Возможно, я хочу странного. А хочу я, чтобы модель знала не только лицо, но и тип её фигуры, а также форму и расположение пупка.
Лоры (локоны и производные с экстра слоями) и более сложное ухватывают.

Ну твой подход и условия понятны, хозяин-барин, делай как тебе удобно. Просто когда делаешь утверждения в общем виде учитывай это и делай уточнения, а то чисто вводишь в заблуждение остальных. А еще лучше - выдели по своему опыту обучения как лучше делать, что на что влияет и т.д., может с файнтюнами пригодиться.
>>537758
> Блендерный риг
Оче заморочно, но в качестве реализации, да. Проще ммд/койкацу/подобное заточенное взять или из готовых либ сборников, для 95% случаев хватит.
> паукана самому надо делать
Ну вот для чего-то необычного, пердолиться с 3д моделированием довольно непростого объекта. Ну похуй, плата за необычность, но от исходного "быстро накрутил скелет и получил результат" уже слишком далеко.
>>537760
> до определённого разрешения
До 768 и выше все сейчас могут, методик апскейла на любой вкус и цвет, причем в них лоры применяются и лица/детали как надо делать. Дроч на разрешение первой генерации непонятен, других параметров более важных полно.
Аноним 07/11/23 Втр 04:14:47 #316 №537762 
>>537760
>Адетаилер? (есть ли в этом слове Й или тут как с Таиландом и биткоином?) Нууу... Я вроде как даже видел где-то пайплайн под diffusers с ним, но всё ещё не уверен, поможет или нет.
Деталер-хуялер.
> замазываешь галюн
> вбиваешь промпт к тому что замазал (пупок)
> инпеинтишь замазанное на более высоком разрешении чем у основной пикчи
Вот тебе и деталер. Именно так оно и работает, просто фейс-деталеры автоматом детектят фейсы, чтоб удобней.
Аналогично с любой картинкой. Заметил говно, замазал, инпеинт. Удобней это делать во всяких критах-фотошопах с SD плагинами. Подобная потайловая детализация вручную способна поправить большую часть говна.
Аноним 07/11/23 Втр 04:34:25 #317 №537766 
>>537761
>Оче заморочно
>пердолиться с 3д моделированием довольно непростого объекта
Беда всех местных в том, что они ожидают от ИИ кнопку "сделать пиздато". Рисоваки, VFXеры и 3D макаки вроде меня ебутся, надрачивают вкус, надрачивают скиллы, надрачивают хуй, чтобы сделать пиздато. На каждую работу уходят бесчисленные часы. Да, конечно, автоматизация, вся хуйня, это всё где-то в светлом будущем. Но пока что SD не в состоянии выдать желаемое по кнопке сделать пиздато, оно может автоматизировать только часть работы, остальное придётся делать самому. Его надо направить, и тем более оно не умеет придумать за тебя высокохудожественный месседж. А тем более нейронки побольше так не могут, которые кроме ебучего промпта вообще никак не контролятся толком, и сделать там нихуя нельзя.

На самом деле можно в блендере вообще всю сцену из примитивных пропов собрать (болванки с ригом это люди, коробки для домов и машин, и т.п.), отрендерить это в разные слои для каждого объекта / смысловой единицы, потом запилить схему для комфи, поглощающую эти слои, и заставить SD рендерить это всё по кускам. Получается своего рода "нейронный рендер", ящитаю это прекрасный компромисс на текущее состояние дел. А светлое будущее будет в светлом будущем. Когда-нибудь.

Аналогично для рисовак, вместо ебли с сингл-геном ты просто рисуешь скелет и очертания, и потом по тайлам детализируешь ручками каждую смысловую единицу пикчи. Можно пилить целые детализированные полотна с рубящимися энтами и рептилоидами. Как раз для крит с фотожабами есть плагины.

>пердолиться с 3д моделированием довольно непростого объекта
Лайфхак: можно сгенерить корректного паукана в SD, или взять ИРЛ фотку с нужной стороны. Сгенерить ему карту глубины. В блендере вмять этой картой плоскость, чтобы получилась псевдомодель. Чуть подчистить, разделить конечности. И прямо в таком хуёвом виде натянуть на риг. Меш будет люто колхозный и смотреться только с одной стороны, управляться будет плохо, но тебе ведь это не в финишный рендер голливудского кина совать, тебе всего лишь нужен примитивный проп, с которого ты возьмёшь лишь грубую карту глубины для последующего нейронного рендера.
Аноним 07/11/23 Втр 09:26:48 #318 №537824 
>>537607
Даже 4090 не хватает. На 1024х1024 оно жрёт 28 гигов VRAM. На 512х512 всего около 11 гигов и декодит 15 секунд на 4090. Какого-то супер-качества я не увидел, как обычно всё у КлозедАИ - говно.
Аноним 07/11/23 Втр 09:42:48 #319 №537833 
>>537824
Просто не оптимизировано нихуя, надо квантовать и изгаляться. Но вопрос надо ли. Всё что я пока увидел ценного - оно делает прямые линии почти прямыми, и кое-как может в текст на неровных поверхностях. Это из того что сложно исправить хайрез фиксом, сегментацией+инпеинтом, и контролнетами, которые жрут намного меньше чем эта хуйня.

А вот лица и руки всё равно идеальными не выходят, приходится всё равно полировать инпеинтом.
Аноним 07/11/23 Втр 10:14:22 #320 №537861 
>>537833
> квантовать
Конволюшен очень плохо квантуется, будет слишком сильное падение качества. Там вообще реализация обоссаная - он в полном разрешении в пиксельном пространстве декодирует, используя латент только как референс, и ещё там декодирование может быть в несколько шагов, хотя уже один шаг раз в 20 медленнее обычного вае.
> вопрос надо ли
В хайрезах разницу можно только под лупой найти.
> оно делает прямые линии почти прямыми, и кое-как может в текст на неровных поверхностях
От модели зависит. Если модель умеет в прямые линии, то и с обычным вае они будут. В текст оно всё так же не может.
Аноним 07/11/23 Втр 11:05:01 #321 №537883 
Сижу то так то сяк экспериментирую с обучением и вся эта тряска с текстовым энкодером это шиза просто. Недообучат и ((((начинается)))), ставишь лры по гайдам — юнет уже распидорасило, а на промпт ещё даже малейшей реакции нет. Жарьте текст как суку, в общем, пацаны, не слушайте шизов.
Аноним 07/11/23 Втр 13:16:46 #322 №537986 
>>537766
> что они ожидают от ИИ кнопку "сделать пиздато"
Сам придумал? И ради этого столько пердолинга и вот такие треды в принципе?
Суть в эффективных методах достижения цели и использования новых инструментов, а не то что кто-то потратил часы-дни-годы на обучение и поэтому всем остальным стоит это делать.
Юзать блендер целесообразно если в нем уже хорошо работаешь и можешь быстро делать то что хочешь. Иначе можно буквально по кривому эскизу в пеинте и с минимальными правками там же в комбинации с инпеинтом получить результат быстрее и проще. Необходимость освоения 3д моделирования только ради такого под вопросом.
> светлое будущее будет в светлом будущем. Когда-нибудь.
Да по сути опенпоуз цнет и есть будущее, наиболее точное и информативное представление. Осталось добавить генерацию самих скелетов по промту, чтобы можно было выбрать из вариантов или быстро поправить до нужной кондиции, и повысить качество работы, добавив опций привязки позиционирования в кадре или рандомайзер и т.д..
> или взять ИРЛ фотку с нужной стороны
Фотобаш, депсы и прочее можно и в самой диффузии юзать, вполне.
> В блендере вмять этой картой плоскость, чтобы получилась псевдомодель.
Опять упирается в навыки в блендере, но если уметь вариант перспективный, спасибо.
>>537824
> Какого-то супер-качества я не увидел
Примеры из репы даже не вопроизводятся, или нет такого эффекта как на их черрипиках?
>>537861
> в полном разрешении в пиксельном пространстве декодирует, используя латент только как референс
Ну не, с таким подходом будет уже совсем другой жор памяти и скорость если правильно понял
Аноним 07/11/23 Втр 13:42:32 #323 №538004 
>>537986
>Суть в эффективных методах достижения цели
Сборка сцены из грубых примитивов (или скетч, если нужно лишь одну пикчу) это и есть эффективный способ для произвольных композиций которые нужны именно тебе. Сделай, тогда поймёшь, вот серьёзно. А 3D моделирование или рисование это чисто техническая хуйня, не сложнее чем ноды в комфи ковырять. Глаз, вкус и осмысленность для создания чего-то интересного развить намного сложнее.

>промпту
Сразу нет. Максимум возможностей промпта - простенькая подсказка, как именно интерпретировать твои основные не текстовые гайды. Мультимодалка всегда лучше и быстрее. Сунуть скелет мышкой в нужное место, поставить камеру боком-раком, дать визуальный референс или лору - всегда проще чем набирать магические заклинания и ошибиться на пиксель, не получив желаемого эффекта, или получив что-то другое. Аналогично со всем остальным.
Аноним 07/11/23 Втр 13:58:42 #324 №538020 
>>537986
>Да по сути опенпоуз цнет и есть будущее, наиболее точное и информативное представление.
Опенпоуз в чистом виде это тупо скелет, примитив. Не может даже в пальцы (хотя реальная модель обучена им, но вообще-то это не каноничная часть опенпоз вроде как). Не может в лица, направление взгляда. Не может в объёмы (densepose может). В перспективу (требует явного указания фона через контролнет, иначе сетка придумает его рандомно и персонаж может начать парить в воздухе или повернуться криво, ибо скелет двумерный). В причёску, макияж, шрамы, татухи и т.п.

Дохуя во что не может, в общем. Поэтому его надо обмазывать полноценным мешем на риге и дополнительными контролнетами (кэнни/lineart для рук и ступней, depth для перспективы, mediapipe/landmark для лица и т.п.), референсами - чтобы выходило гарантированно то что надо, а не то что сеть напридумывала. Как минимум чтобы другая генерация не отличалась в деталях.
Аноним 07/11/23 Втр 14:03:43 #325 №538023 
>>537986
> Примеры из репы
Там 256х256. И там не генерации, а энкодинг-декодинг пикчи низкого разрешения. Из того что я тестил - литералли нет разницы, где было кривое - там оно и осталось таким же кривым, может только на реалистике очень мелкие детали чуть почетче становятся. А в аниме только хуже делает - появляются артефакты на лайне вместо чистых линий.
> с таким подходом будет уже совсем другой жор памяти и скорость
А так и есть. Оно в 10-15 раз медленнее обычного вае, жрёт тоже на порядок больше памяти. Хайрезфикс даже до 1024х1024 не влезает в 24 гига. Тайлинг работает через жопу, лучше от него не становится.
Аноним 07/11/23 Втр 14:31:37 #326 №538033 
>>538004
> Сделай, тогда поймёшь
Бля пчел...
Сам когда методы работы понимать будешь, поймешь насколько все проще и какие горизонты открываются.
>>538020
> Не может даже в пальцы
Есть руки под него, но хорошая работа в т.ч. с пальцами это и есть нужное развитие.
> иначе сетка придумает его рандомно
Да, она и должна придумывать по запросу/референсам/любому другому способу управления. Задача лишь подкрутить так чтобы оно более стабильно подгонялось под позу персонажа.
> Дохуя во что не может
Дружок-пирожок, оно может в создание изображения с нужной позой, в создание сотен изображений за несколько минут из которых можешь выбрать нужное, или взглянуть на них и "поменять чтобы было как задумано" и далее уже править или улучшать. В 99.8% случаев никому нахуй не сдалась попиксельная выдрочка и гиперточность а нужно просто "чтобы персонаж вот так сидел-позировал и короче вон там фон прикольный был, ну еще сделай чтобы руку вверх типа машет и сюда мелочей добавь".
То что ты описываешь - просто 3д моделирование, взял готовые ассеты, расставил кости как хочешь, шейдерами рендер обмазать и никакая диффузия уже не нужна.
>>538023
> а энкодинг-декодинг пикчи низкого разрешения
> Из того что я тестил - литералли нет разницы
Ну вот и революции не случилось, может если модель в комбинации с этим вае изначально тренить чуточку лучше будет, но при таком росте сложности - нахуй не нужно.
Аноним 07/11/23 Втр 14:38:38 #327 №538045 
>>538033
> модель в комбинации с этим вае изначально тренить чуточку лучше будет
Проще сгенерить что-то вроде 1536х1536 и потом даунскейлить до 512х512 - будет по скорости и жору памяти одинаково, зато качество сильно лучше чем предлагает КлозедАИ. Даже хороший GAN-апскейл с обратным даунскейлом может быть лучше.
Аноним 07/11/23 Втр 15:18:39 #328 №538082 
>>538033
Вот анон, ведь я же всё это глубоко пробовал и пиздец сколько конкретно с опенпозом/кейпозом/бодипозом/денспозом экспериментировал и разницу знаю, и свои скрипты писал потому что возможностей не хватало, и лоры обучал, потому что модель срёт под себя без этого. Я же вижу что ты кукаретик, который объясняет не попробовав. Зачем так делать?

Когда-нибудь может быть будет многое из того что ты хочешь, но прямо сейчас имеем то что имеем.

>Да, она и должна придумывать по запросу/референсам/любому другому способу управления.
Нет, нужно точно указать какая у тебя перспектива на пикче, какая желаемая композиация, и где плоскости проходят. На один лишь скелет опираться сетка не может, потому что он двумерный и интерпретировать его можно кучей способов как оптическую иллюзию, и она обязательно сделает неправильно. Без опорных деталей об окружении она тебе подвесит перса в воздухе или развернет навыворот, просто потому что так тоже можно. Я уж не говорю если у тебя куча персов в кадре, там ебля та ещё. И это с людьми, про животных/монстров это отдельная тема, там без дополнительных КН и монструозных схем никуда.

>В 99.8% случаев никому нахуй не сдалась попиксельная выдрочка и гиперточность
Это нужно всегда, если ты хочешь больше одной пикчи, иначе будет персонаж каждый раз с разными мелкими несовпадающими деталями и выглядеть это будет всрато. Такая же тема как в видеомонтаже с согласованием цветокора/выдержки на клипах. Ну зачем ты говоришь то чего не понимаешь?
Это нужно всегда, если ты хочешь получить нужный эффект от пикчи, никакая нейронка и никакие дали666 не понимают этого, по крайней мере пока.
Это нужно всегда, если твоя задача что-то большее чем ван гёрл биг буб.

>То что ты описываешь - просто 3д моделирование, взял готовые ассеты, расставил кости как хочешь, шейдерами рендер обмазать и никакая диффузия уже не нужна.
А ты хоть представляешь сколько надо ебаться с моделингом/риггингом/текстурингом/залупингом одного нормального чара и детального окружения в полной сцене? Так-то одной сценой занимаются сразу дохуя людей, один ты там хуй что сделаешь в срок. И никогда ты не получишь такого лука, какой можно получить в SD, когда он работает как надо. В случае с SD ты просто делаешь раскладку сцены из кубиков и дженерик ригов, это тривиальная задача по сравнению с фулл процессом. Когда сетку удаётся развернуть в нужную сторону и пофиксить все галюны, это экономия 95% времени. Сейчас пока чаще не удаётся, поэтому я только тыркаюсь и экспериментирую.
Аноним 07/11/23 Втр 16:16:53 #329 №538123 
>>538045
Ну да, обработка диффузией при апскейле всяко больше нового привнесет чем эти пляски с vae, особенно учитывая разнообразие возможных пикч и невозможность сделать его абсолютно универсальным.
>>538082
> Я все все знаю, а ты кукаретик
Ай лол. Не выпендривался бы своими познаниями блендера - не пришлось бы потом так трястись, позиционируя как единственно возможный способ что-то делать. При этом не показал ничего нового/уникального а только байтил.
Глубинный подтекст понятен, как отпустит сам все поймешь.
Аноним 07/11/23 Втр 16:33:30 #330 №538142 
Анончики, а я правильно понимаю, что если на одной генерации применить несколько VAE (не последовательно, конечно, а закэшировав латенты), то получится несколько разных пикч, отличающихся деталями, цветами и т.д., но затраты времени как таковые будут незначительны (мы не рассматриваем новомоднее даллевское)?

Отсюда два вопроса.

1. Какие существуют основные VAE, стоящие внимания? Чем они отличаются? Какие лучше подходят для фотореалистичного, а какие - для анимца?

2. Откуда берутся VAE? Как-то же их тренят! Более того, из сути VAE кажется логичным, что его имеет смысл тренить под конкретных художников (при датасете, навскидку, от 128 пикч) и под конкретных ЕОТ/актрис (при примерно тех же размерах датасета).

Далее, учитывая, что VAE работает jpeg-плитками 8х8, при наличии исходников датасета в нефурье-формате - например, PNG или ещё каком-нибудь RAW / NEF (неведомая еная фигня) каждая картинка лёгким сдвигом на пару пикселей превращается в новую для VAE. Выглядит вкусно, не правда ли?
Аноним 07/11/23 Втр 16:39:55 #331 №538145 
>>538142
> Откуда берутся VAE?
На деревьях растут.
> из сути VAE кажется логичным
Нет.
> каждая картинка лёгким сдвигом на пару пикселей превращается в новую для VAE
Таблетки, срочно.
Аноним 07/11/23 Втр 16:56:31 #332 №538156 
>>538123
Да ты как будто показал, лишь сказал как КН всё на свете умеет. Попробуй сам сделать то что пишешь.
Аноним 07/11/23 Втр 17:15:50 #333 №538177 
>>538142
>если на одной генерации применить несколько VAE
>Какие существуют основные VAE, стоящие внимания? Чем они отличаются? Какие лучше подходят для фотореалистичного, а какие - для анимца?
Это хуйня всё. Для SD 1.5 существуют ровно три модели:
- оригинальный VAE, вшитый в саму модель
- тенсентовский, побольше https://github.com/tencent-ailab/Frequency_Aug_VAE_MoESR
- от ClosedAI, линк выше, он совсем жирный.
Разница между ними - грубо говоря "степень сжатия" и жручесть, не более.

Кастомные VAE что ты видишь на цивите - поделки инфоцыган. Никто их не точит под конкретный контент (хотя в целом могли бы), они получаются тупо автоматическим перелопачиванием груды пикч и измерением статистической близости одних кусков данных к другим. Поэтому он и автоэнкодер. Таким образом выцепляется смысл из неструктурированного потока данных, ну во всяком случае если верить дистрибутивной гипотезе.

Всякие вариации стандартной VAE для "фикса выцветшей картинки" сделали дебилы, не понимающие откуда это берётся. А дело в том, что ранние скрипты для мёржа моделей портили VAE каким-то неведомым образом, и те выдавали блеклую картинку. Багованные миксы пошли по миру, на их основе делали другие багованные. А инфоцыгане вместо того чтобы использовать стандартный вшитый в оригинальную SD, творили какую-то хуйню.

>каждая картинка лёгким сдвигом на пару пикселей превращается в новую для VAE
Зачем? И зачем тебе для этого исходники датасета? Что ты хочешь получить?
Аноним 07/11/23 Втр 17:19:19 #334 №538179 
>>538177
Алсо, есть ещё проблема у SD 1.5, в недостатке "динамического диапазона", тоже своего рода блеклость. Она не связана с этими битыми VAE, она связана с планировщиком шума, который начинал не от 100% а от 99.99% при обучении. zstd/v_pred модели это пытаются фиксить.
Аноним 07/11/23 Втр 17:35:33 #335 №538191 
>>538177
>Никто их не точит под конкретный контент
Не, ну почему. Есть варианты под "аниме-контент", который дает усиление лайнарта. Есть всякие варианты, которые шакалят (или наоборот улучшают) лица, в зависимости от того, на какой модели используются.
Аноним 07/11/23 Втр 17:36:54 #336 №538192 
>>538191
>Не, ну почему. Есть варианты под "аниме-контент", который дает усиление лайнарта.
Линк? Кто-то файнтюнил стандартную ваешку? Я отстал от жизни по ходу
Аноним 07/11/23 Втр 17:57:34 #337 №538201 
any-4.0.png
kl-f8-anime.png
z-vae.png
840000-ema-pruned.png
>>538192
Их на цивите целая куча лежит, самых разных.
https://civitai.com/models
И делаешь сортировку по вае.

Отличие, конечно, довольно слабые (если цветокоррекцию не брать), но бывают.

Как пример, на пикрилах:
any-4.0 == kl-f8-anime == z-vae == 840000-ema-pruned

Помимо цветокоррекции немного отличается лайн, и глаза.
На разных моделях по-разному проявляется.
Аноним 07/11/23 Втр 19:24:34 #338 №538294 
>>538142
> то получится несколько разных пикч, отличающихся деталями, цветами и т.д.
Отличия будут минимальны, не стоит того. Если хочешься для чего-то конкретного, например тонкого лайна в средних разрешениях, то можно изначально другое использовать.
>>538156
> лишь сказал как КН всё на свете умеет
Нет, это ты из-за ангажированности так воспринял. Там речь была о том что опенпоуз контролнет сохраняет высокий уровень абстракции но позволяет в сочетании с промтом получить достаточно контроля. Наиболее оптимальный баланс между "пишу@кручу рулетку" и "часами дрочусь чтобы понять что поза говно".
>>538201
Тут еще стоит добавить что все они еще по-разному артефачат, у первых двух фиолетовые засветы (не путать с полным пиздецом от старых вае, они оче мелкие), у вторых желто-зеленые. Проявляется достаточно редко, но можно встретить на резких границах света-тени.
Аноним 08/11/23 Срд 00:55:05 #339 №538558 
>>538201
>Их на цивите целая куча лежит, самых разных.
>https://civitai.com/models
>И делаешь сортировку по вае.
Это всё не файнтюны, это всякие дураки ковыряются в весах ручками. Там мусор один. Единственно что я не помню, делали ли NAI свой VAE, вот у них могло отличаться.
Аноним 08/11/23 Срд 01:02:21 #340 №538559 
>>538294
>баланс между "пишу@кручу рулетку" и "часами дрочусь чтобы понять что поза говно".
Нет такого баланса. Рулетки в процессе должно быть 0%, если результат тебе нужен не в папочку себе положить. Ну и часами дрочиться это конечно лихо сказано про процесс позирования и раскладки сцены.
Аноним 08/11/23 Срд 01:05:28 #341 №538560 
>>538294
>опенпоуз контролнет сохраняет высокий уровень абстракции но позволяет в сочетании с промтом получить достаточно контроля
Не позволяет он в одиночку получить достаточно контроля над объектами вне понимания модели. Часть приходится принуждать другими контролнетами (особенно положение кистей рук), частично приходится обрисовывать сцену чтобы модель могла себе представить как это вписать, а иногда вообще без лоры не обойтись.
Аноним 08/11/23 Срд 03:03:39 #342 №538614 
>>538559
Рили хочешь 100 детерминированный - правильный результат от нейросети получить? Поехавший.
>>538560
Степень достаточности - спекулятивна. Про "вне понимания модели" - там же речь про их развитие и перспективы в будущем, посты не читал отвечая? Это самое понимание как раз должно улучшаться сводя необходимость лишнего пердолинга, описанного тобой к минимуму, но сохраняя возможность различного дополнительного контроля офк, чтобы не ограничивать область применения.
Сюда же развитие в сторону относительного управления типа реализации в стайл-ганах, давая возможность указать какие правки внести к полученному результату (прообраз - инпеинт в сд, как сам по себе так и с добавлением контролнетов). Это позволит точно и эффективно доводить исходный результат генеративных моделей до целевого без лишних пердуль.
Аноним 08/11/23 Срд 06:18:20 #343 №538654 
>>538558
Судя по моей папке с моделями - да, делали.
И он полностью идентичен Any4.
По крайней мере по эффекту на картинку.
Разницы с СД, кстати, не особо много. Ну, кроме насыщенности цвета.
Аноним 08/11/23 Срд 07:29:42 #344 №538670 
>>538558
>делали ли NAI свой VAE
Знаменитый всратый animefull-final-pruned.vae.pt
Аноним 08/11/23 Срд 10:24:58 #345 №538722 
>>538177
>Для SD 1.5 существуют ровно три модели:
>Разница между ними - грубо говоря "степень сжатия" и жручесть, не более.
Ещё TAESD https://github.com/madebyollin/taesd , она используется для превьюх. Теоретически можно использовать и для полноценного декодинга, но она сильно шакальная.
Есть ещё Latent2RGB ещё более шакального качества (и максимальной скорости), но это вообще не VAE.
Аноним 08/11/23 Срд 22:47:08 #346 №539395 
9d3c29175440307.64b3f808b87c0.jpg
Объясните нубу, как вообще работают нейросети?
Общий принцип?

Я сколько читал, ничего не понял, везде сразу начинают со сложного в ещё более сложное, как это реализовано, а мне нужно понять вообще как оно работает?

Вот я скачал модель для СД весом 2гб, она знает всё, я могу написать туда голые сиськи, пёзды, подсолнухи, речка, море, гора, листья дуба, байден, трамп, пыня, жуки, пауки, машины, города, облака, луна - она всё мне сгенерит. Она всё это знает в этих 2 гб. Как это уместилось в 2гб? Как оно хранится там? Как туда это затолкали? КАК? ЭТО ЖЕ ЧУДО НАХУЙ.
Как оно понимает трёхмерность? Какой объект ближе, дальше? Как оно понимает свет? И как оно генерится?
Модель весит 2гб, мне надо сгенерить картинку 100кб, оно развёртывает в 6 гб видеопамяти и рожает картинку в 100кб. Как? При этом гпу вообще не нагружен, только памяти нужно много.
Аноним 08/11/23 Срд 23:59:30 #347 №539470 
>>539395
Вот это почитай, полезно:
https://stable-diffusion-art.com/how-stable-diffusion-work/

Если коротко то по сути в модели есть полное представление о языке в виде токенов, в которые конвертируется промпт. А маленькие размеры обусловлены тем, что генерация идет в латентном пространстве, которое в 8 раз меньше пиксельного. А качество сохраняется идеальное потому, что в нашем мире очень много закономерностей, и благодаря ним информации на самом деле не так много как кажется

Ну а в целом по нейронным сетям: это алгоритм градиентного спуска. Это грубо говоря типа метод касательных и секущих, только в многомерном пространстве. Благодаря нему можно сделать приближение функций, которые никаким образом не формализовать. Собственно в данном случае этими скрытыми неизвестными функциями являются скрытые закономерности в нашем языке и визуальной информации. Они аппроксимируются в процессе обучения
Аноним 09/11/23 Чтв 02:56:25 #348 №539549 
>>539395
>Как туда это затолкали? КАК?
В дохуямерное пространство можно запихать и не такое.
Аноним 09/11/23 Чтв 03:35:57 #349 №539560 
image.png
>>539395
если прям упрощать, то давным давно олдовые ботаны сели и описали вручную датасет, расставив нужные зависимости и веса для каждого значения, создав по сути матричную структуру, которая послойно в зависимости от количества шагов заданных идет по этой матрице и выискивает подходящие зависимости, описанные ранее

современные же ботаны сделали мокропиську, которая сама может определять структуру датасета и генерировать описание и зависимости по тому же принципу перебора, потом только ручками подкорректировать и в продакшен, и потом кароче обучение нейросеток взлетело

ну и это все происходит в так называемом латентспейсе, по сути модель в два гига это огромный шум на миллиард параметров, а матричный алгоритм сетки как бы такой челик с апофенией головного мозга, который в пикрелейтед бугре с марса видит лицо

достаточно ясно описал?
Аноним 09/11/23 Чтв 04:22:17 #350 №539565 
>>539470
>>539560
Я так это понимаю.
1) Нейросеть это тип данных, единица информации внутри которого это некий графический фрагмент
2) Каждая единица информации подписана набором текстовых токенов.
3) Каждая единица информации хранит в себе ссылку на миллион других единиц информации что и образует как бы "СЕТЬ". Ссылки эти тоже имеют какой-то свой вес, возможно текстовые токены, не важно сейчас.

Используя нейросеть мы на вход даем промпт который на основании текстовых токенов проходит через миллионы ссылок между этими единицами графической информации и из наслаивающегося шума собирается изображение.

В чем я не прав?

быдло продаван-консультант
Аноним 09/11/23 Чтв 05:09:24 #351 №539572 
>>539565
>Нейросеть это тип данных, единица информации внутри которого это некий графический фрагмент
не совсем так, графики как таковой в модели нет, сбор изображения это фильтрация шума, то есть не зря я сказал про апофению, это буквально видеть в шуме то, чего там нет, придумывать на ходу, а фильтрация шума это как если бы у человека еще и зрение улучшалось от глубого минуса до идеального
>Каждая единица информации подписана набором текстовых токенов
не совсем так, условный токен loli это как будто водитель, а сид 666 это путь, по которому этот водитель едет и собирает в черный мешок для алгоритма ендкодера-декодера все шумовое гавно которое похоже на loli, сеточный алго в момент прожатия тобой кнопочки УЖЕ "знает" что получится, loli уже прошла по пути 666
>Каждая единица информации хранит в себе ссылку на миллион других единиц информации что и образует как бы "СЕТЬ". Ссылки эти тоже имеют какой-то свой вес, возможно текстовые токены, не важно сейчас.
ну фактически да, там тесная связь, но опять же там не сеть, не нейроны рандомно растыканы и взаимодействуют, там строгая иерархия и слой за слоем алгоритм ебашит по нойзу и его производным
>Используя нейросеть мы на вход даем промпт который на основании текстовых токенов проходит через миллионы ссылок между этими единицами графической информации и из наслаивающегося шума собирается изображение.
ну в целом да, именно так, за исключением графической информации, сборка изображения сетью это не акт творения посредством копипастинга и микширования "графической информации", это фильтрация всех возможных связанных комбинаций loli по пути 666 на основе вводных значений фильтрации
Аноним 09/11/23 Чтв 05:23:43 #352 №539573 
>>539565
>>539395
Блять, здесь всё же SD технотред, а не базовых понятий тред. Возьми и изучи архитектуру диффузионных моделей самостоятельно, бессмысленно описывать это в посте на дваче. Только придется углубиться в более базовые вещи, потому что латентная диффузионная модель в частности это набор из кучи нейросеток.
Аноним 09/11/23 Чтв 10:02:16 #353 №539672 
>>539572
Интересно. А верно ли утверждение, что нейросеть это просто такой тип данных, вроде словаря или списка в питоне? Просто такая вот статичная запись некой информации в определенной иерархии и структуре, как список "1 Иванов, 2 Петров, 3 Сидоров", только сложнее.
Аноним 09/11/23 Чтв 10:16:29 #354 №539678 
>>539672
Нет, нейросеть - это тупо матрица чисел, то есть просто большой массив из float
Аноним 09/11/23 Чтв 10:18:19 #355 №539680 
>>539678
>Нет
>это тупо матрица чисел
Так получается что как раз ДА. Матрица это же тоже статичный тип данных - двухмерный список просто.
Аноним 09/11/23 Чтв 10:44:46 #356 №539694 
>>539680
Боже, ты достал раковать, ты столько ошибок допускаешь, что лучше молчи
> как раз ДА
Петров, Иванов, Пидоров - это не foat

> матрица
> список
🤦🏻♀️

> статичный тип данных
> список
🤦🏻♀️🤦🏻♀️

> двухмерный
Какой нахрен двухмерный. Ты неправильно прочитал слово "дохуямкрный"


Короче просто учи то, как работает компьютер
Аноним 09/11/23 Чтв 11:44:14 #357 №539738 
>>539694
>Петров, Иванов, Пидоров - это не foat
Я и не писал что это float, я привел пример одномерного массива и явно указал на то что это ПРИМЕР типа данных в том смысле, в которой я спрашиваю про нейросеть. Ты даже этого не понял.

>Какой нахрен двухмерный.
По умолчанию в погромировании матрица это 2д массив дурачок, EMS на своем сайте описывает матрицу как "rectangular array". Если ты имеешь в виду другую матрицу то явно указывай на это. Впрочем, это не важно. Я вижу что ты какой-то агрессивный визжащий рачина, который как псина на анонов кидается, даже не поняв вопрос. Ценность твоих постов нулевая.

Остальные пуки гринтекстом и спецсимволами оставь для одноклассников. Даже не вникал, скорее всего ты там точно так же нихуя не понял и просто визжишь.
Аноним 09/11/23 Чтв 12:29:41 #358 №539761 
>>539738
Ты даже не знаешь что такое список, че ты там про программирование затираешь, малыш. Если бы модели были бы списками - то это ахуеть можно было бы
Аноним 09/11/23 Чтв 20:55:52 #359 №540216 
>>539565
Каждый раз горю, когда модель называют нейросетью. Пиздос.
Аноним 09/11/23 Чтв 23:15:42 #360 №540355 
>>540216
Ты бы ещё подрывался с того что интернет сетью называют, шизоид.
Аноним 10/11/23 Птн 01:51:28 #361 №540427 
image.png
image.png
Новые бенчмарки
Не в самых практичных условиях, а просто чтобы выжать максимум на графике, но тем не менее
https://www.tomshardware.com/pc-components/gpus/stable-diffusion-benchmarks
Аноним 10/11/23 Птн 02:48:11 #362 №540454 
>>540216
"Модель" это сокращение словосочетания.
Как например слова "вариант" или "версия". Такие слова используются отдельно, только когда понятен контекст, просто ради сокращения речевой конструкции.
"В этой версии мы добавили поиск". Будет понятно о чем речь только из контекста говорящего, например это лог разработчика и тогда понятно что тут речь про "версию программы" или "версию сайта".
"Эта модель разгоняется на 5 секунд быстрее". Тут будет понятно что речь идет о модели авто, например, если она в контексте.

А теперь подумай, дегенератина тупая, о какой "модели" идет речь и какое словосочетание сокращают в контексте SD.
Аноним 10/11/23 Птн 03:00:39 #363 №540460 
1649310704831.jpg
>>540427
Даже лицо человека, который
> Upscaling via SwinIR_4x from 768x768 to 1920x1080
сгенерировали.
А вообще тесты не тесты, батчами бы лучше перформанс показали и в хайрезе какие карточки по врам уже не тянут.
Аноним 10/11/23 Птн 03:10:31 #364 №540465 
>>540355
В какой-то мере интернет сеть и есть, так что похуй. А вот модель это абсолютно не нейросеть. Это что-то уровня называть бензин машиной.

>>540454
Да не, просто даже на /ai слишком много даунов, которые не знают, что такое нейросеть, некоторые даже начинают какие-то нелепые оправдания своему невежеству лепить.
Аноним 10/11/23 Птн 03:36:19 #365 №540479 
>>540427
>нет серверных гпу
хуйня
Аноним 10/11/23 Птн 03:41:19 #366 №540484 
>>540465
Так разрабы СД и их СЕО сами писали что СД это "генеративный АИ на нейросетях". Они то побольше знают чем пуетшок с двача.
Аноним 10/11/23 Птн 04:11:33 #367 №540490 
>>540484
Так СД это нейросеть. А модель для него - нет. Не думай, что твоя скачанная с обниморды v1-5-pruned-emaonly.safetensors
это и есть stable diffusion.
Аноним 10/11/23 Птн 06:05:16 #368 №540501 
>>540490
>Так СД это нейросеть.
У тебя серьезные проблемы с логикой, дебс. Файлы "моделей" содержат в себе всю дату из оригинального SD и работают точно так же как и оригинальный SD, но с модифицированными свойствами. Эти файлы во всех лексических и абстрактных смыслах являются "моделью нейросети", "моделью SD", "моделью генеративного АИ", как угодно - для простоты сокращение "модель".
Ты понимаешь что ты клоун, который обосрался в попытках выебнуться несуществующими знаниями.
Аноним 10/11/23 Птн 07:43:03 #369 №540508 
>>540501
> клоун, который обосрался в попытках выебнуться несуществующими знаниями
Зачем же ты так про себя? Модель - это алгоритм. Это не файл с весами.
Аноним 10/11/23 Птн 08:38:50 #370 №540516 
>>540501
Как я и говорил, слишком много тупых с их тупыми попытками оправдать свою глупость. Это я про тебя. То, что у тупых принято называть моделью на самом деле к модели не очень-то и относится. Это чекпоинт. Наверное, это главная причина, почему чекпоинт путают с нейросетью, просто приучились называть его моделью и пошло-поехало. Так что что если кто и обосрался, то исключительно тебе на лицо.
Аноним 10/11/23 Птн 10:01:30 #371 №540537 
>>540508
А файл с весами - это не нейронная сеть?
Аноним 10/11/23 Птн 10:11:44 #372 №540542 
>>540516
Действительно.
Аноним 10/11/23 Птн 10:19:02 #373 №540546 
>>540427
Пиздец, между 3060 и 4060 разница всего около 10%. Я думал это только в играх так, а в других задачах будет x2. Но даже так 4060 - говно, с уменьшенной памятью

Между 3060ti и 4060ti вообще нет разницы. Хваленные 16 гб в отдельной версии идут, не по умолчанию

Лол, 2060super на одном уровне с 3060. Интересно было бы сравнить еще 2060 12gb, которая на базе super, но ее тут нет

Карты типа 1080ti нет. Ну видимо они реально сосут

Ну и хотелось бы реально топы среди работчих карт увидеть: A6000, A100, H100
Аноним 10/11/23 Птн 10:20:45 #374 №540548 
>>540516
>Pre-trained Stable Diffusion weights, also known as checkpoint files
Ты можешь хоть в одном посте не обосраться, клоун?
Аноним 10/11/23 Птн 11:33:53 #375 №540582 
>>540548
В твой же цитате как раз написано, что это веса для нейросети. Не сама нейросеть. Доходит до твоего мозжечка ссохшегося?
Аноним 10/11/23 Птн 11:59:33 #376 №540592 
>>540546
Ещё хотелось бы сравнение 3060 12 gb против 2070s.
Для игорь самая выгодная сейчас в соотношения цена/фпс 2060с и 2070с. А для СД что-то на 12гб надо.
Аноним 10/11/23 Птн 12:01:26 #377 №540594 
>>533790
Автор релизнул магическую лору.
https://huggingface.co/latent-consistency/lcm-lora-sdv1-5
https://huggingface.co/latent-consistency/lcm-lora-sdxl
https://huggingface.co/latent-consistency/lcm-lora-ssd-1b
Это на самом деле LCM адаптер, поддержка которого должна быть в коде (в comfyui уже есть). Его достаточно подключить и можно будет делать инференс за 2-8 шагов.

Отчёт как оно работает здесь https://arxiv.org/abs/2311.05556
насчёт качества и ограничений пока нихуя не знаю, не пробовал
Аноним 10/11/23 Птн 12:13:52 #378 №540603 
12321323.PNG
01018-1502702555-a house.jpg
01019-1668836199-a house.jpg
01020-3005468437-a house.jpg
так у меня обстоят дела

a house
Steps: 20, Sampler: Euler, CFG scale: 4.5, Seed: 3005468437, Size: 512x512, Model hash: 84d76a0328, Version: 1.6.1

epicrealism_naturalSinRC1VAE.safetensors [84d76a0328]

1660 super
gpu 1890Mhz
memory 6690Mhz
Аноним 10/11/23 Птн 12:23:35 #379 №540608 
А вам не кажется, что по мере использования стейбла оче легко оказаться "разбалованным"? Типа прогресс вроде как идет и в text-to-image, и в ML, и в связанных индустриях - а все равно его мало. Твои хотелки начинают опережать имеющийся прогресс.

Когда-то я задрачивал Clip+vqgan, дифьюжн на Nightcafe. До релиза стейбла ронял слюни на Dall-e 2, проклинал разрабов за их антирусский шовинизм (и ведь я не ватник ни разу) и в целом за скотское отношение корпорации к юзерам. Ковырял Dall-e mini, прикручивал к ней свой кустарный метод latent апскейла. После релиза SD радовался когда мог генерировать 512x512 онлайн, потому что у меня встройка shared memory в компе. После участия в тесте заводил десятки аккаунтов на Dreamstudio чтобы пользоваться триалом, особенно когда там не было NSFW фильтра. Возможность апскейла аж до 1024x1024 воспринималсь мной как неебический хайрез и хайтек. Когда утекла NAI, то не вылезал с колаба и каггла.

Ну а теперь, генерация с контролнетом до 2048x2048 на бесплатном онлайн сайте воспринимается как наебка, будто от меня прячут некий "нормальный способ генерации" с по-настоящему тонкой детализацией. NSFW генерации уже давно не поражают воображение, модели с Civitai кажутся говном что с пачками "допиливающих" лор, что без них. Реакцией на SDXL было "meh", ведь без Tile контролнета ее фактическое максимальное разрешение 1024p - в два раза меньше чем умеет SD 1.5 с Tile. После выхода Dall-E 3 поковырял и бросил, не из-за цензуры, а потому что meh. При работе с анимэ-моделями в них разочаровывает все: однообразие, токеновый метод кодирования, смешивание токенов, строгая привязка данных к системе booru-тегов. И биасы, тысячи их. Тег "cowboy shot" будет добавлять шляпу, dutch angle делать блондинку в голландском платье, shelf bra - обычный лифчик и книжные полки, meganekko - добавлять синий цвет (до меня не сразу доперло что это из-за megaman). Gen-2 text-to-video - meh.
Аноним 10/11/23 Птн 12:51:14 #380 №540616 
>>540594
> насчёт качества
Как и в обычном LCM - говно с мутантами.
Аноним 10/11/23 Птн 12:54:23 #381 №540618 
>>540608
> Твои хотелки начинают опережать имеющийся прогресс.
Скорее криворукость не поспевает за фантазиями, если судить по тому что ты пишешь ниже. Всё на что ты жалуешься фиксится, но естественно не само.
Аноним 10/11/23 Птн 12:56:30 #382 №540620 
>>540465
>Это что-то уровня называть бензин машиной.
У меня другая аналогия: музыка находится в наушниках, или в mp3 файле? Суть явления то в весах, а они в файле чекпоинта.
Аноним 10/11/23 Птн 13:11:50 #383 №540625 
>>540608
чувак, я не читал твою хуйню, моя цель запилить нейронный рендер для 3Д софта, потенциально реалтайм
Аноним 10/11/23 Птн 13:44:48 #384 №540647 
ComfyUItempfsgdb00001.png
>>540616
>>540594
Пробую разные модели с этой штукой, и по-моему всё норм пока. Не вижу мутантов или того распидорашивания что у них была в дримшейпере том.

Единственное отличие пока - рабочий диапазон CFG нужен сильно ниже, 0-2 (хотя вроде промпту следует).

Вот эта пикча например 4 итерации, ебануться и не встать.
Аноним 10/11/23 Птн 13:56:29 #385 №540654 
>>540647
Попробуй что-то кроме клоузапов. Да и это уменьшение итераций нахуй не нужно, нужно повышение качества. На 30 шагах сделай сравнение.
Аноним 10/11/23 Птн 14:19:55 #386 №540676 
ComfyUItempfsgdb00002.png
ComfyUItempfsgdb00009.png
ComfyUItempfsgdb00010.png
ComfyUItempfsgdb00011.png
>>540654
Потестил с одной генерацией с хайрезфиксом, без какого-либо черрипика. Ну в общем это обычный выхлоп SD 1.5, ничем не лучше и не хуже, только в 4 раза быстрей.

С контролнетами всякими и ип-адаптерами совместим (пик1 дефолтный скелет), выдаёт то же самое что и сама модель. Не знаю есть ли подвох, я не вижу. SDXL пока не пробовал, но судя по тому что я вижу в дискордах - там всё аналогично. Пока что я вижу тупо ускорение за счёт... нихуя.

>Да и это уменьшение итераций нахуй не нужно, нужно повышение качества. На 30 шагах сделай сравнение.
Хуясе - ускорение в 4 раза не нужно, может тебе разве что. Это шаг к реалтайму, плюс видеолюди будут ссать кипятком, плюс аноны с тостерами, или гигантскими схемами.
Качество не увеличивает, на 30 и 100 шагах разницы нет.
Аноним 10/11/23 Птн 14:40:34 #387 №540694 
>>540603
Ого, получается разница между rtx и gtx в 10 раз. Если судить по бенчмаркам выше, то 2060super генерила бы такую же картинку за 3 сек
Аноним 10/11/23 Птн 14:47:40 #388 №540709 
>>540694
Это не разница, просто у него в лоу мемори режиме загружается по ходу. У меня прошлая древнекарта (GTX 970) выдавала 1.2 итерации/сек на invokeai аттеншене (в invokeai или автоматике). На комфи она была сильно медленней, 1.8 сек/итерацию, т.к. у него все оптимизоны только для нормальных карт.
Аноним 10/11/23 Птн 14:55:59 #389 №540726 
1699617358666.jpg
>>540594
Ура, хейтеры LCM - сосать!
https://huggingface.co/blog/lcm_lora

Интересно, для файнтюнов видимо нужно будет отдельные лоры тренить

Про негативные промпты пишут, что с ними чуть медленней будет работать, так как надо поднять guidance_scale

Ждем поддержку в автоматике
Аноним 10/11/23 Птн 14:56:25 #390 №540728 
>>539738
Истеричка, привет.
>>540592
Мне 12Гб пиздец как мало, привык в 4-8к генерить, хотелось бы быстрее.
Аноним 10/11/23 Птн 14:57:11 #391 №540729 
Снимок экрана 2023-11-10 185642.png
>>540603
>сделайте такой же тест
3050 8G VRAM, чуть выше нищука, для ориентировки
Аноним 10/11/23 Птн 15:03:44 #392 №540733 
>>540709
У 1660super ведь вроде 6гб vram - этого должно хватить на medvram. А medvram жрет не так много, около 10% времени
Аноним 10/11/23 Птн 15:10:22 #393 №540742 
>>540733
Так и у 970 хватало на мед. А в комфи загружалось в лоу
Аноним 10/11/23 Птн 16:10:23 #394 №540807 
>>540709
Я вроде нигде не пропиписывал лоу режи, вот параметры батника

@echo off
if not exist python (echo Unpacking Git and Python... & mkdir tmp & start /wait git_python.part01.exe & del git_python.part01.exe & del git_python.part.rar)
set pypath=home = %~dp0python
if exist venv (powershell -command "$text = (gc venv\pyvenv.cfg) -replace 'home = .
', $env:pypath; $Utf8NoBomEncoding = New-Object System.Text.UTF8Encoding($False);[System.IO.File]::WriteAllLines('venv\pyvenv.cfg', $text, $Utf8NoBomEncoding);")

set APPDATA=tmp
set USERPROFILE=tmp
set TEMP=tmp
set PYTHON=python\python.exe
set GIT=git\cmd\git.exe
set PATH=git\cmd
set VENV_DIR=venv
set COMMANDLINE_ARGS=--xformers --autolaunch
git pull origin master
call webui.bat

чому я такой медленный тогда? помогите
Аноним 10/11/23 Птн 16:49:47 #395 №540828 
scale2400.png
Мне кажется вы путаете что-то, моё значение 1,55 ( 0,645 ), как раз сходится с тестом. И если я перейду на 2060, то прирост будет в 10 раз.
Аноним 10/11/23 Птн 17:00:21 #396 №540833 
1609378914550.png
>>540647
Воркфлоу с апскейлом и лорой скинешь? А то это как то не смахивает на хороший результат, мб я что не так там макаронами выставил
Аноним 10/11/23 Птн 17:59:34 #397 №540858 
ComfyUItempmnczi00012.png
>>540833
У тебя выглядит словно cfg высокий, этой штуке надо что-то вроде 1-2, больше пережигает на большинстве моделей.
https://files.catbox.moe/tsj76z.png
Что заметил - на модели под фотки оно делает результат сильно контрастным и темнит. Может и на других, не знаю. Думаю это как-то с шаманством с cfg связано.
Аноним 10/11/23 Птн 18:13:53 #398 №540876 
1594562094841.png
1587156899237.png
>>540858
> У тебя выглядит словно cfg высокий, этой штуке надо что-то вроде 1-2, больше пережигает на большинстве моделей.
У меня 1.8 стоял.
> Что заметил - на модели под фотки оно делает результат сильно контрастным и темнит. Может и на других, не знаю. Думаю это как-то с шаманством с cfg связано.
Ну вот просто на аниме модели based64 пробую, как то выходит плохо с твоим воркфлоу, NNLatentUpscale кстати это откуда?
Аноним 10/11/23 Птн 18:19:37 #399 №540878 
>>540876
>NNLatentUpscale кстати это откуда?
В менеджере поставь "доставить недостающие ноды", это из https://github.com/Ttl/ComfyUi_NNLatentUpscale
Аноним 10/11/23 Птн 18:23:21 #400 №540880 
>>540858
>>540876
>>540676
Да, всё же оказался подвох, что-то не так с этой лорой. Выжигает пикчи она сильно, словно при высоком кфг, и блурит иногда. На тёмных пикчах не видно, но на ярких заметно. Может как-то и можно это побороть, может и нет, хз. Пока останусь на старом.
Аноним 10/11/23 Птн 18:26:59 #401 №540882 
>>540880
>>540858
Хотя стопэ, как раз NNLatentUpscale с ней не дружит и получает блур по ходу, с этим выяснилось. Но с выжиганием непонятно.
Аноним 10/11/23 Птн 19:48:37 #402 №540937 
Как установить cuDNN? Скачал с сайта нвидии просто зип архив, куда его пхать?
Аноним 10/11/23 Птн 20:00:07 #403 №540950 
>>540937
> куда его пхать?
В очко, ритмичными движениями.
Из пипа блять поставь его.
Аноним 10/11/23 Птн 20:09:44 #404 №540964 
image.png
image.png
А поставим ка мы в официальный гайд гитхаба по инпейнту хуиту которая из картинки целый кусок нахуй вырезает вместо нормальной частичной перегенерации. Ахуенно будет, хыыы
Аноним 10/11/23 Птн 20:34:35 #405 №540973 
СУКА, ну чувствовал же жопой, что нельзя обновляться.
Решил поменять родной драйвер 4хх какой-то там на самый новый.
Нвидиа насрала на 5гб по разным каталогам установщиками, которые не подтёрла за собой.
Охуенно, если я буду каждый месяц драйвер обновлять, это каждый месясц по минус 5гб, никакого ССД не хватит.
Шёл 2023, ёбаные установщики нвидии до сих пор не в состоянии удалить за собой мусор.
С новым драйвером отвалилась прозрачность в винде.
Охуительные багфиксы.
Обновил пайторч, куду.

вместо 1,54s/it стало 1,9s/it

итого - 5гб святого М2 ССД, замедление генерации на пол секунды, неработающая прозрачность в винде
охуенно пацаны, обновляйтесь ишо
Аноним 10/11/23 Птн 20:38:34 #406 №540975 
>>540973
>Нвидиа насрала на 5гб по разным каталогам
Нормальные люди это давным-давно просекли и юзают NVCleanstall
Аноним 10/11/23 Птн 20:50:10 #407 №540979 
image.png
Какого хуя в интернете нет уроков как обучить модель по типу Realistic Vision и подобным ей масштабным моделям с пакетом изображений в несколько тысяч.
Сегодня на ночь я поставил обучаться 1900 портретных изображений размером 512х512 на контрольной точке "v1-5-pruned-emaonly" на 380000 шагов (Learning Rate поставил на 0,000001), в результате получилась какая-то кривая хуетень как будто это каличный брат близнец уёбищной базовой модели v1-5-pruned-emaonly.
Кто знает как обучить реалистичную модель как Realistic Vision?
Аноним 11/11/23 Суб 00:33:01 #408 №541092 
52353535.PNG
было >>540603
стало (пик)

Я победил копьютер.
Аноним 11/11/23 Суб 00:44:52 #409 №541100 
>>540973
> драйвер 4хх какой-то там
Такие же году так в 21-начале 22 были, не? Это же пиздец некрота, при переустановке подобного нужно делать чистую установку, лучше вообще ddu юзать. Что за видеокарта то?
> Нвидиа насрала на 5гб по разным каталогам
Воу воу, ну это серьезно
> прозрачность в винде
Васяноулучшайзеры или стоковые элементы? В любом случае похоже что шинде очень плохо, в ней обновы тоже годами не делал?
> вместо 1,54s/it стало 1,9s/it
xformers установил, параметры выставил?
Теперь понимаю кто пишет про замедление производительности с выходом новых карт
>>540979
Потому что это довольно узкая тема, интересная пердоликам, это тебе не на еот тренить. В первую очередь нужен хороший датасет с хорошими разнообразными пикчами и четким описанием для них. От его качества, балансировки, уклона в что-то конкретное или отсутствие такого будет зависеть результат. Тренят сейчас в разрешении повыше, лр стоит брать ниже.
Плюс многие модели это не чистый файнтюны, а мерджи нескольких или с использованием других моделей.
Аноним 11/11/23 Суб 02:13:01 #410 №541152 
>>541100
> Это же пиздец некрота,
До, до, некрота. За 23 года пользования компуктером я уяснил одну вещь - лучший драйвер это тот, который вышел с устройством, максимум плюс один год. Всё что новее - лучше не будет, и этот случай это лишний раз показал.

>Васяноулучшайзеры или стоковые элементы?
Ты настолько опытный пользователь, что не знаешь, что в винде есть прозрачность?

>шинде очень плохо
Шинде очень плохо от обновлений, потом что обновления - это каловые массы, бессмысленные.

> в ней обновы тоже годами
И не нужно их делать.

>xformers
Он у меня и был установлен. С xformes 1,55s/it без 1,65s/it.
Установка обновлений только ухудшает ситуацию.

Но зато я прочитал много интернета и добился 1,8 - 2,08it/s без всякого обновления драйверов.

Обновления бывают полезные в исключительных случаях, когда они либо исправляют конкретную проблему, которая действительно имеет место быть, либо привносят функционал, который действительно улучшает результат, во всех остальных случаях обновления - шлак, который не нужно устанавливать. Не стоит делать из обновлений религию и жрать их за обе щеки.
Аноним 11/11/23 Суб 02:24:15 #411 №541157 
>>540582
Мозжечок - это не то же самое, что мозг. Проследуйте в википедию.
Аноним 11/11/23 Суб 02:30:46 #412 №541162 
>>540979
Многоват learning rate для такого. 1е-7, 1е-8

мимо будколюб
Аноним 11/11/23 Суб 03:25:22 #413 №541173 
>>541152
> я уяснил одну вещь
Главные вещи, которую нужно уяснить - не страдать радикализмом и стремиться к осознанию и пониманию того что ты делаешь. Тогда все сразу работает наиболее стабильно и надежно, жопа не полыхает от заложенных функций, легко открываться чему-то новому и в целом жить проще. Даже не нужно оправдываться почему ты такой варебух что в 2д23м году что сидишь на устаревшем на годы драйвере для видеокарты(!) и древней поломанной шинде, которая уже пропадает из листа совместимости.
> Шинде очень плохо от обновлений
> обновления - это каловые массы, бессмысленные
> И не нужно их делать
> Установка обновлений только ухудшает ситуацию
> Обновления бывают полезные в исключительных случаях
> обновления - шлак, который не нужно устанавливать
> Не стоит делать из обновлений религию
Слушай, а в целом что ты думаешь насчет обновлений? Давно обновлялся? Обновиться не пробовал? Говорит обновления чинят многие баги. Поставь на ночь обновы ставиться качать.
Аноним 11/11/23 Суб 03:43:37 #414 №541175 
>>541173
>что сидишь на устаревшем на годы драйвере для видеокарты(!)
Потому что на нём быстрее работает СД.
Ты ебобо?

>и древней поломанной шинде, которая уже пропадает из листа совместимости.
Биты и байты протухают, ебоболик?
Аноним 11/11/23 Суб 03:50:18 #415 №541176 
>>541175
Не быстрее на старом а медленнее на новом, и именно у тебя а не у всех. Новые технологии, космические скорости на рт ядрах и прочее, а ты ретроградишь, неудивительно что такой агрессивный.
> Биты и байты протухают
Ага, ни один современный тайтл нормально не запустишь, как и некоторый софт.
Аноним 11/11/23 Суб 03:54:06 #416 №541177 
>>541176
Долбаёб, ты хоть запятую выучи перед а, прежде чем раскрывать свой тупущий пиздак. В тебя логика не входит, бетонная стена, можно кирпичи колоть об твой лобешник. Нахуй мне твои обновления, если они замедлили работу. Обновления замедляют, ты видел результат, нахуй ты его отрицаешь? Манямир порвался? Не забудь проверить обновления перед сном, вдруг что-то очень важное написали за сегодняшний день.
Аноним 11/11/23 Суб 03:56:31 #417 №541178 
>>541177
Ты обновись, отпустит.
Аноним 11/11/23 Суб 05:38:29 #418 №541192 
16248358119960.jpg
>>540880
>>540882
Короче я выяснил что этот излишний контраст проявляется только на низких частотах, но не в мелких деталях, словно картинку пропустили через эквалайзер. Пообщался с автором LCM лоры. И оказалось что это он СОЗНАТЕЛЬНО выставил такие параметры при обучении, потому что ему так "больше нравится". Пиздец я хуею с этого васяна. Он универсальный механизм делает, или где? Блядский цирк.
Аноним 11/11/23 Суб 07:45:16 #419 №541211 
bandicam 2023-11-11 07-18-55-867.mp4
>>541100
>В первую очередь нужен хороший датасет с хорошими разнообразными пикчами и четким описанием для них
У меня только портретные снимки с описаниями в текстовом файле, описание в виде ключевых слов (или не так нужно?). Модель нужна для переосмысления и реставрации портретов в img2img, поэтому кроме портретов там ничего и не нужно лично мне, а Realistic Vision и ей подобные модели явно были обучены на фото модельной внешности людей (чедов) и по большей части это мерджи и результаты у них схожие, а мне нужны славянские (омежные) лица простых людей без острых углов челюсти и хищного взгляда.
Я уже из датасета даже вынул фотографии всех женщин, детей и стариков и оставил только мужчин, чтобы полегче нейросети было это все понимать, но ничего, тут явно я как то не так настраиваю.
>Тренят сейчас в разрешении повыше
Я слышал только, что 1.5 нужно тренировать на 512 так как она обучалась на таком разрешении, поэтому и сделал такой датасет, в видеоуроках на ютубе на 512 учат делать.
>лр стоит брать ниже.
Как понять ниже? 1e-6 (0,000001) вроде классический стандарт для обучения. Например 0,0001 это ниже или выше 0,000001 ? Там ещё вроде советуют менять это значение походу обучения хз.
Аноним 11/11/23 Суб 08:27:42 #420 №541219 
bandicam 2023-11-11 08-13-48-922.mp4
>>541162
выставил 1е-8.
Как понять этот ебучий график? Настройки какие ставить?
Там ещё какие то Instance Token, Class Token, Instance Prompt, Class Prompt, Classification Image Negative Prompt нихуя не понятно, у меня же один хуй есть к каждой картинке тексовый файл, так что оставляю пустым. Почитал гайд, но так нихуя и не понял, что это всё означает.
Classification Dataset Directory - вот это прикол конечно, закидываю папку с пикчами, но это дерьмо всё равно начинает генерировать свои пикчи вместо людей с нормальным кадрирование какие то куски, маски глиняные, статуи, хуйню всякую.. пиздец.
Аноним 11/11/23 Суб 08:45:16 #421 №541226 
>>541211
> У меня только портретные снимки с описаниями в текстовом файле, описание в виде ключевых слов (или не так нужно?). Модель нужна для переосмысления и реставрации портретов в img2img
Почему тогда ты просто не попробуешь для начала в лору, вместо будки, это один из самых простых способов "проверить" датасет. В случае с твоим же я сомневаюсь что тебе вообще нужна будка, конкретно про фотореалистик не подскажу, но скорее всего просто достаточно будет натренить с обычного 1.5 на твоем датасете и юзать с реалистик вижоном или чем ты там генеришь.
> Я слышал только, что 1.5 нужно тренировать на 512 так как она обучалась на таком разрешении, поэтому и сделал такой датасет, в видеоуроках на ютубе на 512 учат делать.
Не обязательно, с сд-скриптс, например, можешь просто bucketing включать, результаты тренировок с бОльшими разрешениями показывают более высокое качество.
> Как понять ниже? 1e-6 (0,000001) вроде классический стандарт для обучения. Например 0,0001 это ниже или выше 0,000001 ? Там ещё вроде советуют менять это значение походу обучения хз.
Так и понять, число 0.000001 меньше числа 0.0001, значит лернинг рейт с ним будет ниже. А для тех же лор лернинг рейты в среднем по палате выше, чем для будки.
>>541219
Лернинг рейт текстового энкодера на несколько порядков выше лра юнета, не надо так делать, он должен быть как минимум ниже.
Аноним 11/11/23 Суб 09:07:15 #422 №541231 
image.png
image.png
image.png
>>541226
Мне ответил создатель Realistic Vision, он вообще не использует Dreambooth, он через какую-то kohya-ss тренит..
Создатель epiCRealism делиться не хочет, даёт ссылку https://followfoxai.substack.com/p/full-fine-tuning-guide-for-sd15-general
Тем временем я не могу понять чем fp16 отличается от bf16 и какой Optimizer выставить: 8bit AdamW или Torch AdamW или что блядь
Аноним 11/11/23 Суб 09:28:43 #423 №541234 
>>541231
Можешь просто гайды по лорам из шапки глянуть, там было про параметры. Если железо позволяет юзай bf16, обычный adamw8bit тоже врятли подведёт.
Аноним 11/11/23 Суб 09:47:38 #424 №541238 
image.png
image.png
>>541234
>Если железо позволяет юзай bf16
у меня нищая 4060ti на 16gb
Сейчас смотрю гайд по файнтюну https://keras.io/examples/generative/finetune_stable_diffusion/
и тут показано как подписи выглядят, а я вместо таких коротких описаний промпты через запятую нахуярил по 20-30 штук, не могу понять это норм или нужно переделывать.
а ещё там написано
Для выполнения кода настоятельно рекомендуется использовать графический процессор с объемом памяти не менее 30 ГБ.
Аноним 11/11/23 Суб 09:52:44 #425 №541239 
>>541238
> у меня нищая 4060ti на 16gb
Нормальная, в самый раз с таким объёмом врама, точность эту она поддерживает.
> а я вместо таких коротких описаний промпты через запятую нахуярил по 20-30 штук, не могу понять это норм или нужно переделывать
Если такое и нахуяривать, то только для тренировки с НАИ чекпоинта, тебе скорее всего лучше что нибудь юзать, чтобы на естественном языке описать, раз уж ты хочешь прямо файнтюн, но лучше всё таки начни всё таки с лор, с ними всё куда проще, потом уже как разберёшься получше можно лезть во всякие долгие сложные тренировки кмк.
Аноним 11/11/23 Суб 10:24:37 #426 №541246 
>>541231
> чем fp16 отличается от bf16
Количеством бит на мантиссу/экспоненту. На практике, если железо позволяет, то bf16 на полшишечки быстрее тренируется. По качеству — разница на уровне погрешности.
>>541239
> Если такое и нахуяривать, то только для тренировки с НАИ чекпоинта
Такие теги хорошо работают и с базовой sd1.5 моделью. Если там одни портреты мужиков, то я бы вообще тренировал без текстовых подсказок, просто по Class prompt.
Аноним 11/11/23 Суб 10:35:52 #427 №541255 
СЛОЖНА.mp4
>>541239
>лучше всё таки начни всё таки с лор
Я помню год назад делал лоры с портретами еот через колаб, а мне же сейчас нужно чтобы модель из более 700 разных мужских портретов могла черты лиц с прическами как-то совмещать и переосмыслять, для этого лора наверное не подходит, она же вроде как должна учиться на конкретном лице или объекте, по идее лора это вещь довольно закостенелая.
>скорее всего лучше что нибудь юзать, чтобы на естественном языке описать
Вообще я могу такую рутинную работу выполнить сам если уж других инструментов нет, уйдёт много времени, но мне плевать. Т.е собрать большой качественный датасет и всё подписать это я могу, а вот как это всё тренировать я не ебу, куча ползунков, какая-то шинима хуйня, Use EMA, Cache Latents, Train UNET, constant_with_warmup, bf16, Gradient Accumulation Steps, Instance Token-хуёкен
Аноним 11/11/23 Суб 10:52:21 #428 №541260 
>>541246
> Такие теги хорошо работают и с базовой sd1.5 моделью. Если там одни портреты мужиков, то я бы вообще тренировал без текстовых подсказок, просто по Class prompt.
Ну или так.
>>541255
> а мне же сейчас нужно чтобы модель из более 700 разных мужских портретов могла черты лиц с прическами как-то совмещать и переосмыслять, для этого лора наверное не подходит
Смотри на это абстрактнее, она сделает из всего что ты ей подсунешь что то среднее, если подсунешь в среднем какую то внешность, она и будет результатом тренировки, если все пикчи датасета состоят из одной тёлки, она и есть среднее.
> она же вроде как должна учиться на конкретном лице или объекте, по идее лора это вещь довольно закостенелая
Нет, она может учиться всему что ты ей подсунешь, от будки отличается просто лоурангом и всякими плюшками в сд-скриптсах, в них кстати и будку или файнтюн тоже можно делать.
> Вообще я могу такую рутинную работу выполнить сам если уж других инструментов нет, уйдёт много времени, но мне плевать.
Да возьми просто теггер, который будет описывать твои фотки на натуральном языке, а не анимешный, во владоматике вроде были из коробки даже.
> какая-то шинима хуйня, Use EMA, Cache Latents, Train UNET, constant_with_warmup, bf16, Gradient Accumulation Steps, Instance Token-хуёкен
Большинство параметров актуальны и для лор, можешь на них узнать как они все работают, а специфичные уже потом разобрать.
Аноним 11/11/23 Суб 10:52:58 #429 №541261 
image.png
>>541246
>Если там одни портреты мужиков, то я бы вообще тренировал без текстовых подсказок, просто по Class prompt.
Так там очень разные мужики:
у одного легкая щетина на лице и он лысый на белом фоне - я пишу light stubble, bald head, white background,
у другого борода и длинные волосы - я пишу beard, long hair,
третий пухлый в очках и в темноте - я пишу chubby, glasses, on a black background, in the dark и т.д по такой логике
Ну и что я делаю не так?
Кстати раз уж ты сказал "Class prompt" можешь объяснить, что это все обозначает, а то мне сложна-непанятна, зачем нужны классификационные картинки тоже хз
Аноним 11/11/23 Суб 11:05:14 #430 №541267 
image.png
>>541260
>на сделает из всего что ты ей подсунешь что то среднее
У меня лица разных мужиков: лысые, длинноволосые, бородатые, бритые, худые, толстые, кудрявые, с короткой стрижкой, прической на пробор, в очках, черноволосые и седые, совсем молодые и зрелые.. Я не могу понять зачем мне из всего этого получать нечто среднее по итогу.. Мне нужно наоборот дать понять модели, что не все мужики козлы, а все разные со своими особенностями.
>Да возьми просто теггер, который будет описывать твои фотки на натуральном языке
Я пользовался этим теггером, он выдает слова через запятую как промпты.
Аноним 11/11/23 Суб 11:31:47 #431 №541278 
>>541267
> Я не могу понять зачем мне из всего этого получать нечто среднее по итогу..
>>541211
> а мне нужны славянские (омежные) лица простых людей без острых углов челюсти и хищного взгляда
Потому что твой концепт это омежки, это и есть среднее, которое ты должен собрать в датасете.
> Мне нужно наоборот дать понять модели, что не все мужики козлы, а все разные со своими особенностями.
Дай, протегай соответствующе.
> Я пользовался этим теггером, он выдает слова через запятую как промпты.
Это анимешный теггер, я забыл как называются те, которые выдают естественный язык, впрочем и с 1.5 обычного я тоже не любитель потренить, можешь и с бору-стайл тегами попробовать, я не знаю насколько этого плохо для тренировки с этого чекпоинта, но анон выше вон писал что норм.
Аноним 11/11/23 Суб 11:46:16 #432 №541290 
Что-то говно ваша LCM-лора по итогу. Да, простые генерации делает терпимо, хоть качество и падает, может нищукам для XL будет актуально чтоб не ждать по минуте. Но для всего остального кал.
В апскейл не умеет, даже на обычном хайрезфиксе всё по пизде идёт. При том что на генерации негатив вроде терпимо работает, но на апскейле оно начинает выглядеть как будто без негатива, если совсем убрать негатив - распидорашивает. Контролнет не работает для апскейла - какие-то артефакты лезут от него. Всякие FreeU и прочее тоже только хуже делают.
Затестил Рестарт в комфи он в принципе работает сильно хуже автоматика, я даже два разные реализации нод с ним попробовал - обе говно, даже близко нет такого качества генераций, почти нет разницы с DPM++ 2M.
Хвалёное AIT - наикривейшее говно. В issues там уже неделю висит баг, люди жалуются что не работает, у меня тоже полторашка не завелась. XL завёлся, но пришлось пердолиться и по итогу получил ускорение процентов на 20, такое себе, лучше с TRT попердолиться и получить двухкратное ускорение. С AIT так же как и с TRT нихуя нормально не работает.
Аноним 11/11/23 Суб 12:06:15 #433 №541306 
Стоит ли покупать карту с LHR для SD? Влияет ли это как-то на производительность?
Аноним 11/11/23 Суб 12:18:30 #434 №541318 
>>541290
>стена текста, 0 пикч для демонстрации предъяв
Нет пикч - не о чем сраться. Толку с высеров без наглядного сравнения того что ты имеешь в виду - ноль
Аноним 11/11/23 Суб 12:31:02 #435 №541327 
За что отвечате captioning в обучении лоры? Треню тёлку с букетом, хочу, чтобы перенеслась тётка и платье, а букет который она держит нахуй не нужен. Вписываю букет в captioning (т.к. в гайдах говорят, что sd не будет это учитывать при обучении, что это не относится к моему предмета). Тогда почему после обучения генерируется и этот букет?
Аноним 11/11/23 Суб 12:46:29 #436 №541330 
>>541306
Никак не влияет
Аноним 11/11/23 Суб 12:59:47 #437 №541334 
1699696784340.png
1699696784343.png
Оказывается LCM Лоры и так работают в stable-diffusion-webui без установки дополнительных расширений! Вернее 1.5 работает точно, а вот sdxl у меня не получилось, какие-то радужные артефакты, пробовал разные веса и cfg

Настраивается просто: подключаете лору как обычную, ставите cfg на 1.0, количество шагов на 4, семплер Euler a, и все. Работает с любыми файнтюнами. Можно поставить cfg на 1.5, тогда будут негативы видеться, но качество заметно хуже, и не очень чтобы негативы влияют

Но я нашел применение помимо оживления генерации на мёртвых картах типа gt 1030. Это быстрый hires fix. На пикник пик 1 - lcm, пик 2 - стандарт. Можно то что на lcm детали заметно лучше - это мне так рольнуло, но как минимум результат не хуже стандарта

rtx 3060:
Пик 1: 9.7 сек
Пик 2: 19.1 сек

Я считаю это победа
Аноним 11/11/23 Суб 13:07:34 #438 №541335 
1699697252984.png
1699697252986.png
1699697252987.png
>>541334
Приложу еще скрин настроек хайрез фикса, и пик выше без хайрез фикса (3.2 сек генерация)

Кстати, с TensorRT эта Лора не работает
Аноним 11/11/23 Суб 13:13:08 #439 №541337 
>>541334
хз что ты запускаешь, но это никак не может быть lcm lora

она фундаментально отличается от euler_a, это не численный солвер ODE, это отдельная нейросетка которая его заменяет, т.е. требуется код для загрузки и инференса на этой сетке
Аноним 11/11/23 Суб 13:30:50 #440 №541344 
>>541337
Ты конечно поумничал, молодец. Но для lcm лоры надо выбирать Euler a, так как ты как-нибудь убрать семплер не сможешь. Это лора, а не lcm модель
Аноним 11/11/23 Суб 13:31:57 #441 №541346 
image.png
>>541334
сделал присадку лцм лоры в свою модельку через same to strengh - результ на пике, заняло 13.2 секунды, что примерно в 2.5 раза быстрее, чем на модели без присадки

да, мыльцо полезло все дела, но попробую какнибудь решить, мб оверврайт нужен
Аноним 11/11/23 Суб 13:34:33 #442 №541347 
>>541337
Даже для comfy делают семплер Euler a, так что не умничай в том, что не знаешь
Аноним 11/11/23 Суб 13:36:28 #443 №541349 
>>541346
Cfg на 1.0 установи. У меня даже 1.5 плохо генерит по сравнению с 1.0. Негативы тестил, на 1.5 они дают эффект, но не сказал бы что этот эффект именно тот, что ожидался. Негатив trees на cfg 1.5 не убрал деревья, а будто чуть сид изменил, хрень короче. Негативов тут считай нет
Аноним 11/11/23 Суб 13:42:13 #444 №541351 
00010-1.png
image.png
>>541349
>Cfg на 1.0 установи.
Такое же мыльцо выходит, скорее от карася зависит. Повысил шаги до 10 на эйлере и норм стало.
>Негатив trees на cfg 1.5 не убрал деревья, а будто чуть сид изменил, хрень короче. Негативов тут считай нет
Пик 2, попоробуй экстеншен с рабочими негативами в позитив промпте.
Аноним 11/11/23 Суб 13:44:10 #445 №541353 
image.png
>>541351
>попоробуй экстеншен с рабочими негативами в позитив промпте.
+ CADS
Аноним 11/11/23 Суб 13:47:10 #446 №541359 
image.png
image.png
>>541353
ну и кадс не на дефолтных настройках
кароче лорка вин ящитаю, правильно подмешать с правильными плогенсами и кайфануть от скорости можно
Аноним 11/11/23 Суб 13:47:59 #447 №541360 
>>541353
Погуглил, это типа повышение разнообразия пикч. Надо бы затестить и без лоры
Аноним 11/11/23 Суб 13:48:32 #448 №541362 
>>541351
О, а можешь дженерик 1герл на аниме модели затестить заодно с (worst quality, low quality:-1.4)?
Аноним 11/11/23 Суб 13:49:03 #449 №541364 
>>541360
да, годная фича, можно как полностью перепердоливание концептов устраивать каждый ролл, так и небольшие измненения
Аноним 11/11/23 Суб 13:50:36 #450 №541367 
>>541362
щас к хассаку присадку сделаю и затещу
Аноним 11/11/23 Суб 13:53:50 #451 №541369 
>>541367
Что ты присадкой называешь, обычное примердживание этой лоры к чекпоинту? И что кстати за CADS?
Аноним 11/11/23 Суб 13:55:56 #452 №541371 
>>541369
>Что ты присадкой называешь, обычное примердживание этой лоры к чекпоинту?
да
>И что кстати за CADS?
https://github.com/v0xie/sd-webui-cads
Аноним 11/11/23 Суб 13:58:24 #453 №541374 
хуево что вебуй надо релоадить после каждого мерджа лцм с моделью, а то у него там ошибки хуярить начинают при сейве по второму кругу и при смене модели мб пора обновиться на последний коммит
Аноним 11/11/23 Суб 14:02:29 #454 №541376 
>>541374
Так на последнем коммите всё равно же сейчас нету официальной поддержки этого. Каким именно экстеншеном кстати мерджишь?
Аноним 11/11/23 Суб 14:02:42 #455 №541377 
Кстати, благодаря тому что сделали в формате лоры, теперь ее можно использовать в text-generation-webui
Аноним 11/11/23 Суб 14:04:15 #456 №541380 
>>541374
А зачем вообще мержить лору. Для быстрого подключения можно ее в стиль оформить, чтобы во вкладке с лорами не искать каждый раз
Аноним 11/11/23 Суб 14:05:40 #457 №541382 
image.png
image.png
>>541362
Не ну в принципе оно работает, но мыльцо и оверхит на эйлере появились, на карасе там вообще пиздец. Но явно для анимекала надо с другими настройками мерджить, надо попробовать не 1 значение, а пониже и вручную дименшен выставить.
Аноним 11/11/23 Суб 14:08:05 #458 №541384 
image.png
>>541380
>А зачем вообще мержить лору.
Мерджат с лорой чтобы потом с оригинальной модели добавить отличия от модели с лорой и таким образом повысить консистенцию финального изображения.
Аноним 11/11/23 Суб 14:09:21 #459 №541385 
>>541382
А если это (worst quality, low quality:-1.4) в позитив, вместо негатива? У тебя же экстеншен на то чтобы он в позитиве отрабатывал. Результаты кстати примерно как и у меня было тут >>540876
Аноним 11/11/23 Суб 14:10:04 #460 №541386 
>>541376
> Каким именно экстеншеном кстати мерджишь?
супермерджер
Аноним 11/11/23 Суб 14:10:22 #461 №541387 
>>540807
Чё за херня у тебя в батнике с автообновлением ещё каждый раз на старте? Должно хватить
@echo off

set PYTHON=
set GIT=
set VENV_DIR=
set COMMANDLINE_ARGS= --xformers --medvram
call webui.bat

И оптимизации в Settings автоматика выставить не забудь.
Аноним 11/11/23 Суб 14:10:46 #462 №541389 
>>541384
Ничего не понял, но по пикче выглядит будто лора применяется качественней
Аноним 11/11/23 Суб 14:20:24 #463 №541391 
image.png
image.png
>>541385
>(worst quality, low quality:-1.4) в позитив, вместо негатива?
чуть получше потому что оверхит ушел, мыльцо на месте, с включенным кадсом тоже, но ниже -1 в позитиве не рекомендуется юзать
в общем тут конкретно негативы на анимехуйне оверхит создают, попробую немного по другому смерджить
Аноним 11/11/23 Суб 14:20:59 #464 №541392 
>>541389
да, так и есть
Аноним 11/11/23 Суб 14:23:52 #465 №541393 
image.png
image.png
>>541391
а ебать, у меня 496 стояло, вот с 512 по ширине в принципе работать можно
Аноним 11/11/23 Суб 14:26:32 #466 №541396 
>>541393
Хм, а с хайрезом х2 как будет?
>>541391
> в общем тут конкретно негативы на анимехуйне оверхит создают
Ну вот в том то и прикол что почти вся анимехуйня от вот этих ворст кволити на 1.4 зависит сильно.
Аноним 11/11/23 Суб 14:29:01 #467 №541399 
>>541392
И в каком порядке что куда надо мержить? Вот допустим я вмержил в желаемую модель лору супермержем, а дальше что делать? Можно гайды какие есть, я не нахожу
Аноним 11/11/23 Суб 14:40:36 #468 №541406 
00036-1.png
image.png
>>541396
>Ну вот в том то и прикол что почти вся анимехуйня от вот этих ворст кволити на 1.4 зависит сильно.
ну хз, я анимешные модельки тож использую, но либо без особых негативов, либо со стандартным нулевым усилением
>Хм, а с хайрезом х2 как будет?
у меня карта не вытянет х2, вот тебе х1.4 с валаром я ультимейтапскейл юзаю обычно, справа х2 0.3 денойз
Аноним 11/11/23 Суб 14:48:30 #469 №541410 
image.png
>>541399
1. в мерджере лор ориг модель + лора
2. в мерджере моделей в А - оригинальная модель, в B модель с лорой вроде можно и саму лору выбирать, но я ни разу пробовал, в C оригинальная модель или базовая модель, метод адд дифренс - трейн дифренс, значение альфы на твой вкус, можно в принципе и 1.6 хуярить
Аноним 11/11/23 Суб 15:01:44 #470 №541420 
>>541399
>Можно гайды какие есть, я не нахожу
все что есть тут описано https://github.com/hako-mikan/sd-webui-supermerger/blob/main/calcmode_en.md
Аноним 11/11/23 Суб 15:02:15 #471 №541422 
1692031563089.png
>>541406
> ну хз, я анимешные модельки тож использую, но либо без особых негативов, либо со стандартным нулевым усилением
Ну от модели ещё зависеть будет, видимо твоя не такое дерьмо из коробки с пустым промптом.
> у меня карта не вытянет х2, вот тебе х1.4 с валаром я ультимейтапскейл юзаю обычно, справа х2 0.3 денойз
Апскейлер конечно поправил что смог, но всё равно изначальная генерка оставляет желать лучшего, потом ещё мб сам попробую, но трт поинтересней конечно работал, а ещё все как то забыли про ToMe, а ведь он тоже умеет ускорять.
Аноним 11/11/23 Суб 15:27:08 #472 №541441 
1699705626394.png
1699705626397.png
>>541410
Пипец. Это EpicPhotogasm Z просто с лорой, и по твоему гайду. Качество разительно повысилось. Промпт photo of car

Сделал same to straight, alpha 1, в моделей C базовая. С другим ничем не экспериментировал

Сгенерено на ноуте с mx150 (aka gt1030), 2gb vram, по 23 секунды на картинку. Действительно спасение для potato gpu
Аноним 11/11/23 Суб 15:37:49 #473 №541445 
>>541410
Пипец, благодаря этому мега мержу еще и с TensorRT работает. Щас сконвертирую на batch size 40, и буду бить рекорды по скорости на пикчу
Аноним 11/11/23 Суб 15:45:05 #474 №541448 
image.png
image.png
>>541346

А я тут немножко обошел досадное недоразумение под названием оверхит и мыльцо

Есть у меня базовая модель - трейнмикс из изифлафф+базовая 1.5+флафирок эпоха 206, ебнул поверх лцм модель (это ликорис кстати неожиданно, хоть гдето ликорис пригодился лол), сейм ту стренгт не работает в данном случае изза отличия позиций тензоров у изифлаффа, а потом затрейнил к получившемуся (EF-15-FRe206-LCM) фотогазм. Как итог карась заработал, скорость генерации осталась такой же как с лцм, оверхит и блюр ушли. Аниме скорее всего также фиксится, но с 1.5 оно будет хуевато работать, а мне пока анимекал миксить лень.
Аноним 11/11/23 Суб 15:49:17 #475 №541450 
>>541441
>>541448
Смотрю на эти пикчи, и не верится, что это lcm. Лицо lcm хейтеров представили?
Аноним 11/11/23 Суб 15:49:35 #476 №541451 
>>541445
>TensorRT
а че на 1030 тенсоррт работает? как заставить работать?
Аноним 11/11/23 Суб 15:56:30 #477 №541455 
16995220404963.jpg
Мучаюсь с выбором, нужна карта в игры играть, и для нейросетей.

Выбираю между
2070 super 8gb, 3060 12gb, 4060 8gb

2070s - лучшее соттношение цена производительность, но мало паяти
на лохито 25к

3060 12gb могу взять новую с озона за 38к
она худшая по производительности, но в ней 12гб

4060 8гб
могу взять новую за 36к
а как бы нахуя? она чуть мощнее 2070с
Аноним 11/11/23 Суб 16:00:51 #478 №541460 
>>541455
если пердоля энтузиаст, то смотри CMP 40hx, по производительности уровень 2070/3060 с небольшой просадкой, стейбл точно работает, с играми придется попердолиться, ну и нужен интел с графическим ускорителем внутри насколько я помню
Аноним 11/11/23 Суб 16:03:15 #479 №541463 
image.png
image.png
>>541448
8 шагов тоже заработали кстати
Аноним 11/11/23 Суб 16:06:15 #480 №541470 
image.png
image.png
>>541463
хаха, ебануться, можно и не с цфг 2 юзать теперь
оба примера цфг 5, 8 шагов
Аноним 11/11/23 Суб 16:06:52 #481 №541471 
>>541455
>
>3060 12gb могу взять новую с озона за 38к
28к фикс
Аноним 11/11/23 Суб 16:07:00 #482 №541472 
>>541451
Нет, я про другую карту
Аноним 11/11/23 Суб 16:18:30 #483 №541490 
image.png
image.png
>>541470
кароче ето локальная победа итт чята, могу на цивит выложить мою базовую говнину для последующего ретрейна любых моделей где база 1.5 если надо кому
Аноним 11/11/23 Суб 16:21:47 #484 №541497 
>>541450
С аниме всё очень плохо, анимехейтерки всё так же будут хейтить. Либо надо мержить самую писечку, чтоб не распидорашивало всё.
>>541470
>>541490
Сделай хайрезы. В лоурезах чистые генерации и с простой лорой норм. А вот хайрезы - пизда.
Аноним 11/11/23 Суб 16:23:17 #485 №541500 
>>541448
Слушай, а выглядит реально заебись, про рецепт бы по подробнее, сначала как понимаю фурри буст, потом к нему лцм через оверврайт мод, а дальше не совсем понятно.
>>541490
Заливай, интересно будет пощупать, если ещё и поэтапно в ридми для хлебушков распишешь как повторять то вообще огонь будет.
Аноним 11/11/23 Суб 16:24:41 #486 №541507 
image.png
>>541497
>В лоурезах чистые генерации и с простой лорой норм
не, ты не понил, цфг 7 тут, можно и выше если цфг рескейл юзать или динамический трешолд
>Сделай хайрезы
мой максимум это х1.4, держи
Аноним 11/11/23 Суб 16:34:06 #487 №541524 
image.png
>>541500
спамлист не пускает
Аноним 11/11/23 Суб 16:39:04 #488 №541535 
image.png
image.png
image.png
image.png
>>540603
1660s
3.6 Ghz
память 2666 Ghz
Аноним 11/11/23 Суб 16:57:16 #489 №541559 
>>541535
Ппц медленно, я ещё думал это у меня медленно, как тут пиздели некоторые шизы.

>3.6 Ghz
>память 2666 Ghz
Ты уверен, что ты написал частоту гпу и видеопамяти, а не цпу и рам?

Какая у тебя ОС, драйвер? Параметры запуска?
Аноним 11/11/23 Суб 17:04:09 #490 №541569 
1572356141784.jpg
>>541524
После второго этапа мерджа lcm лоры аниме модель с фуррибустом таким образом ломается у меня.
А третий этап как то странно выглядит, одинаковые модели в A и C? Я попробовал так намерджить, на 8+4 шагах ничем почти не отличается от обычной этой же модели до мерджей, не исключаю что что то мог сделать не так.
Аноним 11/11/23 Суб 17:09:56 #491 №541572 
Screenshot (423).png
>>541344
>Но для lcm лоры надо выбирать Euler a, так как ты как-нибудь убрать семплер не сможешь
Что ты несёшь?
Ты не используешь LCM никак. Понимаешь? Ты считаешь на эйлере а.

>>541347
Ещё один кловен. А хотя я кажется понял... это не ты случайно срал хуйнёй выше? >>541290
Аноним 11/11/23 Суб 17:11:27 #492 №541574 
>>541569
То что наверху есть позитивные результаты на реалистике - это скорее потому что лора примержилась слабее, чем просто на применении. Можешь ёбнуть 0.2 и уже будет результат, но ещё не сломает тебе модель при обычном семплинге.
Аноним 11/11/23 Суб 17:13:39 #493 №541576 
>>541569
>После второго этапа мерджа lcm лоры аниме модель с фуррибустом таким образом ломается у меня.
какая база у твоей модели? сомневаюсь что в аниме там 1.5 базой идет, для аниме очевидно нужен другой базовый мердж с лцм и наи какойнибудь
>А третий этап как то странно выглядит, одинаковые модели в A и C?
Да, эффект замены всех отличающихся весов в модели А на веса модели B, таким образом мы получает IN-OUT слои модели B.
Аноним 11/11/23 Суб 17:19:10 #494 №541580 
1681627248244.png
>>541572
Клован это ты. LCM-семплер - это DPM с другим CFG. Он отличается только тем как негатив применяется. Алсо, lcm-семплер из комфи пидорасит ничуть не меньше обычных семплеров, с ним аниме всё так же неюзабельно.
Аноним 11/11/23 Суб 17:23:39 #495 №541585 
-bYEKDGFYrM.jpg
>>541580
>LCM-семплер - это DPM с другим CFG
Господи, и это у вас технотред?
Аноним 11/11/23 Суб 17:24:29 #496 №541587 
>>541585
Т.е. ты споришь с документацией авторов LCM? Ясно.
Аноним 11/11/23 Суб 17:24:39 #497 №541588 
00111-1.png
00112-1.png
>>541574
>То что наверху есть позитивные результаты на реалистике - это скорее потому что лора примержилась слабее, чем просто на применении.
слева без LCM cfg 2 8 шагов база с ретрейном фотогазма
справа с LCM
надо попробовать еще или LCM выше 1 мерджануть, или трейндифренс больше сделать, в какомто из случаев эффект будет мощнее
Аноним 11/11/23 Суб 17:24:43 #498 №541589 
1601802830822.png
>>541576
> какая база у твоей модели?
Вот эту можешь взять например https://civitai.com/models/149664/based67 как раз с наи подойдёт
>>541574
Вообще ноль отличий, вот такое генерит с любой силой примердживания
Аноним 11/11/23 Суб 17:25:52 #499 №541590 
>>541587
Я не спорю ни с кем, я охуеваю со здешнего неумения читать. Да что там читать, мыслить блять. Возьми уже GPT-4V, она лучше справится чем ты.
Аноним 11/11/23 Суб 17:26:39 #500 №541591 
>>541589
> Вообще ноль отличий, вот такое генерит с любой силой примердживания
Ты что-то не то делаешь. У меня аниме на 0.2 перестаёт пидорасить. На 0.3-0.4 уже начинает на хайрезфиксе. На 1.0 уже пиздец начинается, да.
Аноним 11/11/23 Суб 17:30:13 #501 №541592 
>>541590
Так получается ты сейчас и расписываешься в неумении читать, ведь там написано что стандартный алгоритм DPM расширен специальным CFG non-Markovian guidance вместо обычного classifier-free guidance. Какие же дауны тут сидят.
Аноним 11/11/23 Суб 17:34:52 #502 №541597 
>>541585
Я очень рад за тебя, что ты где-то прочитал, что lcm запекает семплер в отдельную нейронку. Но это не отменяет того, что в итоге эту нейронку надо чем-то семплить. И ldm + lcm lora сeмплятся так же, как обычные ldm
Аноним 11/11/23 Суб 17:36:28 #503 №541599 
1654859720134.png
1672167750700.png
>>541591
Да, всё так, я не то значение менял для лоры, но опять же это не похоже на хороший результат для аниме

Хорош сраться бля, лучше сэмплер скажите какой с этим юзать, DPM? С карасем полное говно, с эйлером мыло
Аноним 11/11/23 Суб 17:37:03 #504 №541601 
>>541162
> мимо будколюб
Что тренишь?
>>541211
> только портретные снимки с описаниями в текстовом файле
> только портретные
Предположу что это очень неочень в целом, но если задача чисто одни портреты с простыми фонами но наверно и норм. Дисбаланс точно скажется на работе во всем остальном.
> и оставил только мужчин, чтобы полегче нейросети было это все понимать
Наоборот ей будет легче понять если там пикчи разные. Сможет выделить общие закономерности и отсеять то что меняется, а не ловить отупение, придавая атрибуты чедов всему и вся. Офк сильно утрирую.
> 1.5 нужно тренировать на 512
Базовая тренирована в таком разрешении. Если хочешь повысить качество - следует использовать повышенное разрешение, большинство файнтюнов тренились так.
> Как понять ниже? 1e-6 (0,000001) вроде классический стандарт для обучения
Где такое указано? По практике с таким значением сильно пердолит, нужно снижать, начни с 5e-7.
> Например 0,0001 это ниже или выше 0,000001
Рофлишь или серьезно?
>>541219
> text encoder learning rate
Оу...
>>541231
Файнтюн на 20 пикчах, ахуеть.
Аноним 11/11/23 Суб 17:39:53 #505 №541605 
Пацаны, видел ли кто какие-нибудь идеи и реализации использованию SD для смены пола лица?
Аноним 11/11/23 Суб 17:42:46 #506 №541607 
>>541605
Берёшь ип-адаптер на ебасосины и генеришь man с лицом Яровой, понижаешь силу контроля если всё ещё слишком похоже на бабу, ничего сложного.
Аноним 11/11/23 Суб 17:43:45 #507 №541608 
1615074749639.png
Да, именно DPM2 лучше всего 8+4.
Аноним 11/11/23 Суб 17:47:28 #508 №541610 
>>541327
> За что отвечате captioning в обучении лоры?
За то чтобы модель понимала что там находится, и в итоге немножко осознавала что букет - это букет, а не часть еот и ее обязательный аттрибут.
> Тогда почему после обучения генерируется и этот букет?
Если там одни пикчи с букетом, и еще большим лр сильно прожарил - ничего не поможет.
>>541382
>>541391
>>541393
>>541406
> мыльцо и оверхит
Похоже это проблема совместимости анимушных и реалистичных моделей, такое и в других случаях лезет при мердже и применении неподходящих. Послойно надо поиграться, велика вероятность что сработает.
>>541455
4060@16смотри
>>541524
Как это вообще работает интересно, перестраивает структуру? На выходе финального этапа же должна получаться копия исходника, прошу объяснений кто понимает что здесь происходит.
Аноним 11/11/23 Суб 17:48:26 #509 №541611 
>>541608
DPM2 медленный (
Аноним 11/11/23 Суб 17:53:21 #510 №541614 
>>541611
>>541608
О, может LMS или LMS Karras попробуй. Он быстрей. DPM2 раза в 1.5 медленней их всех
Аноним 11/11/23 Суб 17:56:38 #511 №541617 
>>541614
Просто LMS лучший. Из всех что я попробовал

Но я не пробовал на аниме, попробуй ты на нем
Аноним 11/11/23 Суб 18:04:21 #512 №541627 
1608758883483.jpg
>>541611
И вообще похуй что шагов в 3 раза меньше?
>>541614
LMS карась что то может, обычный сливается полностью, как и другие многие популярные. В топе DPM2 и некоторые ему подобные. Адаптив вообще не в счёт, он запросто мог 150 шагов ебануть.
Аноним 11/11/23 Суб 18:15:32 #513 №541640 
>>541627
> И вообще похуй что шагов в 3 раза меньше?
Я на 4 шагах все тестировал. Для хайреза кстати lms говно

Получается да, либо Euler a, либо чуть медленней и качественней - DPM2
Аноним 11/11/23 Суб 18:34:30 #514 №541655 
>>541559
>цпу и рам
Кек, их и написал
ну gpu у нас одинаковое должно быть, а частоту памяти я не знаю где посмотреть
>ОС, драйвер
win 10, дрова версия 563.40
set COMMANDLINE_ARGS=--xformers --no-half --disable-nan-check --medvram
Аноним 11/11/23 Суб 18:39:41 #515 №541658 
>>541640
Ниже 8 уже пиздец начинается бтв, не доденойзивает.
Аноним 11/11/23 Суб 18:46:39 #516 №541662 
>>541655
Убери --disable-nan-check --medvram
Добавь --precision full

и попробуй ещё раз
Аноним 11/11/23 Суб 18:51:43 #517 №541665 
>>541658
А ты этот мерж не делал? >>541441

У меня на 4 шагах стилистически не отличимо от не lcm
sage[mailto:sage] Аноним 11/11/23 Суб 19:22:18 #518 №541684 
IMG20231111192149402.jpg
фап)
Аноним 11/11/23 Суб 19:22:38 #519 №541685 
1667935135004.png
>>541665
Попробовал, ну 6 ещё может прокатит, 4 нет, это без хайреза.
Аноним 11/11/23 Суб 19:30:40 #520 №541692 
1619911386752.jpg
>>541685
С хайрезом по 4 шага кстати не доденойзивает, наверное надо 6-6 или 8-6 ставить тогда
Аноним 11/11/23 Суб 19:37:38 #521 №541697 
image.png
image.png
>>541662
Я хуйни какой то нагородил похоже
1пик с моими настройками
2 как ты сказал
Аноним 11/11/23 Суб 19:56:13 #522 №541708 
>>541685
Пипец. У меня даже близко не так. Я потестил одну аниме модель, там и без мержа на 4 шагах все прекрасно. Может ты напутал где-то? Холя если на 8 шагах работает, значит lcm работает

Может не сочетается с твоим файнтюном, может там фурри какие-то, или базовая модель другая. Nai - это же что-то отдельное, не основанное на sd?
Аноним 11/11/23 Суб 20:13:52 #523 №541720 
>>541708
Может и не сочетается, что у тебя за модель?
Вроде всё как расписано было делал, только на 1.0 весе её невозможно юзать с этой моделью, приходится снижать.
Аноним 11/11/23 Суб 20:14:53 #524 №541722 
>>541720

EpicPhotogasm Z - для реализма
Kaywaii - для милых картинок
Аноним 11/11/23 Суб 20:29:39 #525 №541741 
>>541722
> Kaywaii - для милых картинок
Просто смерджил с 1.0 получается? Same to strength ставил?
Аноним 11/11/23 Суб 20:48:12 #526 №541773 
>>541722
На низких CFG вообщем то работает с 4 шагами на KayWaii и остальных моделях, но на высоких никак не хочет заводиться при большом весе лоры.
Аноним 11/11/23 Суб 20:51:02 #527 №541780 
>>541773
Что это значит? Вес доры типа после :? Хз, я на 1 ставил и не менял, зачем его менять вообще

>>541741
Оно и просто с лорой хорошо работает. Но мержил да, с этим флагом. Вот таким образом >>541441
> Сделал same to straight, alpha 1, в моделей C базовая. С другим ничем не экспериментировал
Аноним 11/11/23 Суб 21:24:54 #528 №541812 
>>541780
> Что это значит? Вес доры типа после :? Хз, я на 1 ставил и не менял, зачем его менять вообще
Чтобы на других семплерах не пережаривало, ещё и от модели зависит сильно походу, ну и нормальный кфг тоже не вернёшь без этого на какой то определённой модельке, если её жарит. Некоторые даже просто на 1.0 кфг, эйлере а и 1.0 весе прожаривает.
> Оно и просто с лорой хорошо работает.
Покажи кстати как аниме получается у тебя.
Аноним 11/11/23 Суб 21:51:20 #529 №541829 
Суп нейросенсеи.
Допустим я взял 10 фото, и 10 отраженных копий фото (взгляд налево, взгляд направо) на самом деле 200, и 200 отраженных - итого 400
Допустим я обучил лору на этих фото.
Насколько вариативным будет результат? Нейросеть строит карту лица, или что? А если в более чем половине случаев выражение лица как у дебила - это повышает вариативность и улучшает результат, или наоборот ухудшает и на выходе сгенерируется олигофрении-пак?
Аноним 11/11/23 Суб 23:17:36 #530 №541880 
01150-1675653248r.jpg
>>541697
А где благодарочка?
Ты исцелён, брат, мой, генерируй с миром.
Когда нужна будет память - можешь вернуть medvram.
Аноним 11/11/23 Суб 23:51:02 #531 №541911 
male (108).png
male (93).png
male (66).png
passfacemod (1).png
>>541601
>Файнтюн на 20 пикчах, ахуеть.
это он для примера сказал для понимания скорости тренировки, свою модель он обучал на более 1000 фото.
>Наоборот ей будет легче понять если там пикчи разные. Сможет выделить общие закономерности и отсеять то что меняется, а не ловить отупение, придавая атрибуты чедов всему и вся. Офк сильно утрирую.
что значит придавая атрибуты чедов всему и вся? предполагается, что модель будет заточена для переосмысления/реставрации мужских изображений через img2img, для обработки женских изображений будет своя модель, хотя может поэкспериментирую и объединю хз. Меня просто заебало, что все эти реалистичные модели обучались на западных/европейских/восточных чедовских/стейсти лицах, что отражается на результатах генерации. У нас, славян, черты лица более мягкие, округлые, без резких углов нижней челюсти и "взгляда охотника" (примеры из моего пробного датасета 512x512)
Аноним 12/11/23 Вск 00:37:45 #532 №541952 
i.webp
i.webp
>>541911
>У нас, славян, черты лица более мягкие, округлые, без резких углов нижней челюсти и "взгляда охотника" (примеры из моего пробного датасета 512x512)
Я не смог удержаться, простите за политоту
Аноним 12/11/23 Вск 02:27:45 #533 №542019 
>>541911
Базу про принцип обучения сетей и градиентный спуск, который уже успел стать мемом, можешь нагуглить прочитать.
Тут если совсем упростить - ты сетке показываешь наборы этих клозапов и говоришь что это "портрет мужчины с карими глазами, короткая прическа и т.д.", показываешь сотни тысячи раз, заставляя запоминать это. Она подгоняет внутренние веса таким образом, чтобы пикчи, выдаваемые по запросу, соответствовали этому тексту. Если датасет разнообразный то исходя из различий и общего она усвоит это именно "лицо славянина", если там одно и то же то ошизеет и будет думать что "карие глаза" значат "вот такие широкие щечки и вогнутый подбородок" а что-то другое вообще будет делать поломанным ужасным, всюду пихая лица. Офк это упрощение и многое еще зависит от параметров тренировки.
> У нас, славян, черты лица более мягкие, округлые, без резких углов нижней челюсти и "взгляда охотника"
dies from cringe
Аноним 12/11/23 Вск 07:55:11 #534 №542062 
image.png
image.png
>>542019
>dies from cringe
this is reality
>Если датасет разнообразный то исходя из различий и общего она усвоит это именно "лицо славянина", если там одно и то же то ошизеет и будет думать что "карие глаза" значат "вот такие широкие щечки и вогнутый подбородок" а что-то другое вообще будет делать поломанным ужасным, всюду пихая лица
Мы вас поняли, какие будут конкретные предложения? что засунуть и как настроить датасет для предотвращения ошизения? Может засунуть пейзажи всякие, негров, морщинистых стариков?
make slavs great again
Аноним 12/11/23 Вск 09:39:28 #535 №542075 
Абстрактно - чтобы натренить сетку на определённый концепт, тебе нужны
- куча пикч, этот концепт находится в как можно более разнообразном контексте/окружении
- хорошие описания этих пикч, в которых фигурирует всё что есть на пикче.
От качества статистического разделения их комбинаций будет зависеть качество твоей тренировки.

То есть вот тебе надо натренить на определённый тип ебальника. Берёшь только такие картинки, чтобы на них этот тип фигурировал - разных пропорций, возраста, в разных позах, разного пола, в разной одежде, под разным углом, с разным освещением, фокусным расстоянием/дистанцией, на природе, в помещении, на велосипеде, на парашюте, под водой, в космосе блять даже. И чтобы в парных описаниях было описано всё что происходит на пикче. Тогда сетка при обучении статистически вычленит, что этот тип ебальника = это слово, т.к. оно фигурирует везде, а остальные слова не везде.

Если ты подмешаешь негров или финнов, которые будут описаны другими словами - всё в порядке, оно их разделит. Если ты подмешаешь негров и финнов, которые будут описаны тем же самым словом - оно их смешает и будет сборная солянка.

Изолировать один концепт очень сложно, т.к. любые фотки имеют кучу общего, и он неизбежно выучит не только еблище которое ты хочешь, а ещё и кучу связанных вещей. Но если датасет хороший, можно сделать достаточно хорошо.

Чтобы протегить датасет, используй например LLaVa или CogVLM, для последнего придётся арендовать GPU. Или вообще GPT-4, дорого. Или можешь ручками сидеть тегить три тысячи человеко лет - главное чтобы описания были корректные.

>>541911
Вообще-то ванильный SD сам по себе неплохо понимает внешний вид разных этносов, и многие другие вещи. Хотя разнообразия в пределах этноса ему может недоставать.
Аноним 12/11/23 Вск 10:22:09 #536 №542086 
>>542075
>вот тебе надо натренить на определённый тип ебальника
>И чтобы в парных описаниях было описано всё что происходит на пикче
А нахуя? Если мне нужен определенный ебальник, я беру тысячу фото этого ебальника и тегаю его как "ебальник". Ну может еще по ракурсу, типа "вправо" или "влево". Нахуя тегать все подряд, кроме того что ебальнику вообще можно кроп сделать, чтобы только он в кадре и был.
Аноним 12/11/23 Вск 11:17:36 #537 №542103 
>>542086
>Если мне нужен определенный ебальник
ебальники разные (люди же разные), тип ебальника один - славянский.
Аноним 12/11/23 Вск 11:55:27 #538 №542110 
>>541692
Так будет адекватный рецепт как это все смиксовать и завести нормально?
Аноним 12/11/23 Вск 12:13:24 #539 №542116 
Ну и кстати, любопытная штука.
https://arxiv.org/abs/2310.20092

Своего рода развитие идей LCM - архитектура юнета на основе нейронного солвера вместо численного, только это обобщено до всей модели, они полностью заменяют весь диффузионный процесс одной нейронкой. Выходит в 3-4 раза быстрее и меньше по параметрам для аналогичного результата, плюс она не дискретная и изначально включает в себя понятие времени.

Т.е. у этой штуки нет фиксированных разрешений, принципиально отсутствуют итерации и пошаговая проявка, можно обучить на видео в качестве дополнительной моды и иметь темпоральную стабильность. Я так понимаю кроме времени туда любые кастомные измерения можно запихать, например сделать её трехмерной.
Аноним 12/11/23 Вск 12:29:51 #540 №542121 
>>541911
>предполагается, что модель будет заточена для переосмысления/реставрации мужских изображений через img2img
https://civitai.com/models/98755/humans
Там дохуя тегов, включая этнические, можешь рашен прописать и никаких чадов/стейси не будет.
Аноним 12/11/23 Вск 13:20:49 #541 №542152 
.png
>>541597
>>541592
Забавно. Пик - прямая цитата автора LCM лоры.
Аноним 12/11/23 Вск 13:24:41 #542 №542155 
>>542116
Пиздец ты шизоид. Там все такая же обычная диффузия с шагами.
> нет фиксированных разрешений
У конволюшенов вообще нет разрешения, чел.
> принципиально отсутствуют итерации и пошаговая проявка
Таблетки выпей, это все то же самый ODE. У них просто параметров меньше.
> включает в себя понятие времени
Пиздос. Timestep - это не шаг во времени, лол. Увидел знаковые слова в тексте и начал фантазировать? Время в контексте диффузии - это про дифференциацию, когда лимит не к нулю стремится, а к какому-то значению. В самой первой SD всё тоже самое.
Аноним 12/11/23 Вск 13:31:00 #543 №542157 
>>542155
Чёт я не понял, а time embeddings тогда зачем?
Аноним 12/11/23 Вск 13:34:14 #544 №542159 
>>541880
Так второй пик где генерации дольше это без --disable-nan-check --medvram
Аноним 12/11/23 Вск 13:53:04 #545 №542165 
>>542157
Это когда используется тензор со значениями шага денойза и к нему обращаются по индексу, там обычно 1000 значений, они могут быть нелинейно распределены, верхние и нижние границы сдвигаться могут. Сделано для того чтобы потом шедулер шума выдавал просто набор индексов, а не самих значений. Это для простоты, чтоб шедулер работал с абстрактными timesteps вне зависимости от того какое там распределение реальных значений. Ещё в оригинальной латентной диффузии придумали, а в k-diffusion вместо них используют сами значения денойза, в diffusers их обратно адаптировали под timesteps. У трансформеров, например, тоже есть positional embeddings, каждый индекс обозначает положение токена в контексте, но по факту там совсем другие значения и варьируются у моделей.
Аноним 12/11/23 Вск 16:46:10 #546 №542291 
.png
Ответ автора на "почему в LCM лоре не работают негативы". Походу при cfg 1.0 семплер их тупо отрубает, шоб было быстрее. Непонятное поведение
Аноним 12/11/23 Вск 16:47:41 #547 №542292 
>>542291
А собственно в блоге написано. https://huggingface.co/blog/lcm_lora#guidance-scale-and-negative-prompts
>Note that in the previous examples we used a guidance_scale of 1, which effectively disables it. This works well for most prompts, and it’s fastest, but ignores negative prompts. You can also explore using negative prompts by providing a guidance scale between 1 and 2 – we found that larger values don’t work.
Аноним 12/11/23 Вск 17:25:06 #548 №542305 
16439989109773.jpg
Чет я не понял, как это вообще работает??? https://civitai.com/models/110071/hd-helper

И прочие лоры-слайдеры автора тоже. Как такую обучить под мой концепт?
Аноним 12/11/23 Вск 18:36:51 #549 №542372 
1583262843218.png
Ну хуй знает. Намного лучше примержить 0.3-0.4 лоры и уже можно ниже 10 шагов опускаться, но при этом оно хорошо апскейлится, CFG до 3-4 можно поднимать и нет говняка. С частичным LCM можно делать хайрезфикс с 8/6 шагами и оно выглядит сильно лучше чем точно такая же генерация на полном LCM.
Аноним 12/11/23 Вск 19:00:25 #550 №542390 
image.png
image.png
image.png
>>542121
>я создавал этот набор данных около десяти лет. Он содержит около 100 тысяч (и их количество растет) тщательно подобранных, сбалансированных и маркированных изображений с целью устранить предвзятость в генеративных моделях искусственного интеллекта.
Я сейчас читаю описание и блядь в ахуе как интригует. Я думал, что лучшая модель это Realistic Vision, а тут более 100 тысяч фото в датасете с описаниями, вау.
Короче, я её сейчас проверил, это кривое фуфло, Realistic Vision намного лучше по качеству картинки, хоть и выдает не особо похожих людей через img2img. Humans расщепляет глаза, зубы гнилые кривые, ломает волосы, и в целом очень размытое изображение выдаёт, но оно может видеть округлое лицо и как будто понимает, что нужно сделать легкую равномерную щетину и в половине случаев клонит в эспаньолку, а Realistic Vision в большинстве случаев пытается сделать эспаньолку вместо равномерной легкой щетины и прищуренные чедовские глаза, черты лица получаются четкими, ясными, резкими без проблем с радужками и всем остальным как в Humans. Так что Realistic Vision явно выигрывает у этого говна. Я не удивлён почему эта модель не пользуется популярностью.
Получается этот шизик собирал дерьмовый пак в 100 тысяч фото 10 лет и в итоге сделал хуевую модель, которую обходит модель обученная на пакете до 2 тысяч фото.
Я вам так скажу, я с большим трудом насобирал пак в 1900 фото (и этот только портретные фото) не самого лучшего, но хорошего качества, а вчера начал собирать новый пак с более высоким разрешением (кадрируя и ретушируя каждую фото в фотошопе, так как прыщи и бородавки нахуй не нужны), за вчерашний день с большим трудом насобирал таким макаром 280 фото. Ну невозможно насобирать пак в 100 тысяч фото разных людей (или с минимальным количеством повторений) хорошего качества, ну нету просто столько в интернете, а там где есть - на ебальнике обязательно будет вотермарка фотостока, либо нужно ковырять соц. сети выискивая людей со студийными профессиональными фото, а это очень долго.
Аноним 12/11/23 Вск 19:23:18 #551 №542401 
>>542116
Во напридумывал то
>>542390
> создавал этот набор данных около десяти лет
> Он содержит около 100 тысяч
> тщательно подобранных, сбалансированных и маркированных изображений
Реально ведь шиз, но тут скорее просто цену себе набивает и выебывается. Это все до высокой степени автоматизируется.
собрал 50к отборнейших анимублядских тематических за несколько вечеров
Аноним 12/11/23 Вск 19:25:50 #552 №542403 
>>542390
Про качество модели хз, но
>512x512
Ну вот серьёзно?
Аноним 12/11/23 Вск 19:28:06 #553 №542404 
>>542401
у меня всего 2 вопроса:
>собрал 50к за несколько вечеров
как?
>анимублядских
нахуя?
Аноним 12/11/23 Вск 19:31:41 #554 №542407 
>>542404
>как?
>>анимублядских
Ответ на поверхности же.
Аноним 12/11/23 Вск 19:32:24 #555 №542408 
>>542403
>Ну вот серьёзно?
да, эти пикчи сгенерированы 512x512 через модель Humans. ещё вопросы?
Аноним 12/11/23 Вск 19:32:54 #556 №542409 
>>542404
> как?
Nanomashines, son!
Грабберов, аналайзеров, теггеров, интеррогейтеров и даже мультимодалок хватает, используй и получай нужное. Офк не говоря о предварительном отсеивании мусора по параметрам, разрешению, шакалистости, прозрачности и т.д.
> нахуя?
Когда вижу лоры на еот и какие-то генерации всратых 3д шаболд - задаюсь тем же вопросом помирая от кринжа.
Аноним 12/11/23 Вск 19:36:43 #557 №542412 
image.png
>>542407
>Ответ на поверхности же.
Аноним 12/11/23 Вск 19:38:40 #558 №542413 
images.jpg
Какие есть аргументы для kohya-ss и куда их прописывать - в activate.bat или в webui.bat как для обычного SD? У меня пиздец мало видеопамяти, хоть на цпу тренируй лол. Или там все настройками крутится? Гайд для бомжей есть?
Олсо kohya-ss говноед проклятый (ну или serpotapov который сделал это портабельным, энивей дай боженька им здоровья за их труды) захардкодил пути и теперь у меня Error no kernel image is available for execution on the device at line 167 in file D:\ai\tool\bitsandbytes\csrc\ops.cu хотя все эти потроха у меня вообще на A:\ лежат лол. Где чинить?
Аноним OP 12/11/23 Вск 19:52:55 #559 №542428 
1584682374195.png
1570254830439.gif
Есть предложение вынести часть инфы из шапки по отдельным документам, чтобы она была менее раздутая.

И ещё более радикальная идея - можем вынести всю шапку целиком на гит-репу в виде множества md файлов и настроить автодеплой в виде статичного сайта. Туда же можно вынести какие-либо из важных статей на rentry, и, по необходимости, коллективно править их через систему Pull Requests. Вероятно, я дам активным контрибьютерам возможность вносить правки напрямую, но с блокировкой форс-пушей для master-ветки, чтобы нельзя было провести деструктивные действия. Некое подобие вики, но основанное на примитивной системе хранения md-файлов в гите, так что резервные копии будут делаться легчайше через git clone.

https://2ch-ai.gitgud.site/wiki/tech/tech-shapka/
https://gitgud.io/2ch-ai/wiki/-/blob/master/docs/tech/tech-shapka.md
Попробовал запилить репу на gitgud и настроить автодеплой статики на предоставляемый ими же хостинг. Выбрал гитгуд, а не гитхаб, т.к. в gitgud не банят за nsfw в репе.

Из дополнительных плюсов то, что при открытии любой страницы на фронте подгружаются текстовые файлы для всех статей. Благодаря этому, поиск работает сразу по всем статьям (пик 1), несмотря на отсутствие какого-либо бекенда.

Для редактирования конкретного документа кликаете кнопку сверху-справа от статьи (пик 2). Ну а там либо предложит сделать форк репы, либо либо предложит внести правки напрямую, в зависимости от уровня доступа.

Однако, на гитгуд есть проблема с сертификатом на файрфокс, в нём сама вики не открывается. Напряг их кодера, говорит, фиксит сейчас...

Всё это дело можно форкнуть и запустить локально, либо на стороннем сервере. Могу позднее батники докинуть, которые будут ставить зависимости в venv, запускать сервер в watch-режиме, и билдить проект. Так, чтобы это однокнопочной системой стало, при наличии у вас установленных питона+гита.

Ложкой говна является то, что гитгуд не предоставляет свой билд-сервер (вернее, он просто сдох и лежит уже два года), так что я настроил билд-сервер на одной из своих старых машин, которую мог бы держать включённой 24/7 (либо копеечный VPS под это арендовать), но это какой-то фейл, что мы не можем не зависеть от дополнительной инфраструктуры.

Пробовал вкинуть идею в nai, но там она не особо зашла. Интересно услышать мнение остальных анонов.
Аноним 12/11/23 Вск 19:53:05 #560 №542430 
>>542372
Сам напердолил сэмплер чтоли? У автоматика нету пока даже в dev.
Аноним 12/11/23 Вск 20:10:31 #561 №542445 
>>542428
Идея хуйня, лучше шапку переписать в более удобоваримой форме, хотя и сейчас вроде норм. Как говорит Сергей Симонов похуй-нахуй
Аноним 12/11/23 Вск 20:11:35 #562 №542447 
>>542408
Только один, нахуя генерить 512х512-то? Генерь хотя бы 1024х1024 для демонстрации
Аноним 12/11/23 Вск 20:20:55 #563 №542457 
>>542390
Реалистик вижен даёт прилизанных персонажей с обложки с идеальными пропорциями, таких полон цивит. Совсем другой направленности модель.
>Ну невозможно насобирать пак в 100 тысяч фото разных людей (или с минимальным количеством повторений) хорошего качества, ну нету просто столько в интернете, а там где есть - на ебальнике обязательно будет вотермарка фотостока, либо нужно ковырять соц. сети выискивая людей со студийными профессиональными фото
Ну так вроде заявленная цель этой модели не профессиональные фотосессии, и не фентези гераклы с амазонками, а обычные люди с морщинами, прыщами и бородавками, каковых овердохуя. Насчёт качества я хз, не пробовал.
Аноним 12/11/23 Вск 20:28:27 #564 №542463 
>>542413
> D:\ai\tool\bitsandbytes\csrc\ops.cu хотя все эти потроха у меня вообще на A:\
Это я так и не решил, но завелось с optimizer AdamW. Олсо в каком-то гайде было написано что при запуске можно идти курить, потому что система оче загружена и даже интернет не посерфить. Ну хуй знает, моя 1063 хоть и загружена на 92% и RAM занято 20Гб суммарно, но чет тормозов не замечаю, параллельно даже артой на респе стою с другими подпивасными Михалычами лол. Но судя по прогрессу шагов, это пиздец как надолго.
Аноним 12/11/23 Вск 20:31:47 #565 №542467 
>>542463
> Есть предложение вынести часть инфы из шапки по отдельным документам, чтобы она была менее раздутая.
Если ты запускал 8битный adamw, то ему нужна библиотека bitsandbytes, без неё будет еррором срать.
Аноним 12/11/23 Вск 20:41:11 #566 №542472 
>>542457
>бычные люди с морщинами, прыщами и бородавками, каковых овердохуя.
Это замечательно конечно, но качество картинки полное говно.
>Реалистик вижен даёт прилизанных персонажей с обложки с идеальными пропорциями
Я про это и говорю, поэтому и хочу создать свою более качественную и равномерную модель.
Аноним 12/11/23 Вск 20:45:06 #567 №542475 
>>542467
Я еще пробовал adafactor, вроде бы с тем же результатом.
Но суть не в этом. Допустим либу я нашел, но где поправить путь, который очевидно захардкодили - хуй знает. Вроде бы portable-версия предполагает распаковку, деплой и запуск в один клик, а значит все пути должны быть либо относительны, либо генерироваться при деплое, но хуй там - у меня срало ошибкой в пути на D:\ какого-то хуя, хотя у меня его в системе нет (можно было бы предположить что я распаковал и задеплоил там, а потом перенес, но нет).
>>542428
Вот это, кстати, было бы оче круто. Либо так, либо вики мастерить с перекрестными ссылками, примерами конфигов и всей такой хуйни, а то хранить инфу на гите это технически удобно канеш, но конечная реализация полное говно с точки зрения UI - это как омлет строительным миксером взбивать.
Аноним 12/11/23 Вск 21:08:12 #568 №542494 
>>542475
>>542413
> D:\ai\tool\bitsandbytes\csrc\ops.cu
Хз что ты там поставил, но жалуется у тебя на bitsandbytes точно. Если бы вручную ставил с venv'ом, то после переноса в другую локацию надо было бы поправить пару путей в бинарниках питона и пипа.
Аноним 12/11/23 Вск 21:32:26 #569 №542513 
>>542494
Не вручную, я чет ротебал все это руками ставить, я использовал портейбл https://github.com/serpotapov/Kohya_ss-GUI-LoRA-Portable который деплоится и запускается в один клик не сря в систему.
Понятно что это какая-то сборочка уровня васяна, но это не отменяет того факта что где-то путь жестко прописан, его можно найти и починить, но мне одному слишком долго искать, поэтому я и спросил где проблема. И прежде чем меня с этой сборочкой нахуй посылать - нужно его указать. Ну то есть типа "братишка, тебе надо поменять путь в /path/to/file но вообще ты мудила и используешь хуй знает что, сам себе злобный буратино и иди нахуй" - вот тогда это будет вполне заслуженно, мне даже сказать против будет нечего.
Аноним 12/11/23 Вск 22:00:03 #570 №542533 
>>542513
Да я просто понятия не имею что там этот друг хачатура насобирал за твикер очередной и не могу тебе с ним помочь, была бы у тебя ручная сборка, можно было бы что то подсказать, а так сам понимаешь, тут только его и спрашивать, да и я хз как в его сборку пакеты нормально добавлять, что он хоть там распаковывает? Если в папке есть venv то просто открой её в консоли а дальше venv\scripts\activate.bat и pip install bitsandbytes
Аноним 12/11/23 Вск 22:11:27 #571 №542543 
>>542533
>что он хоть там распаковывает
Да все потроха он там распаковывает, с пердоном, гитом и всей обвязкой. И соответственно для того чтобы добавить пакеты нужно пердон по полному пути запускать, так как в PATH оно ничего не пишет (ну только устанавливает на время сессии через set) - я так в SD от него же добавлял всякую хуйню, норм работало.
venv есть, да, но в activate.bat похожих путей нет, там вообще строк на 20 файл с переменными.
>pip install bitsandbytes
Вряд ли это поможет. Нет, bitsandbytes оно канеш поставит, но скорее всего искать его будет все равно по пути, который в моей системе отсутствует. Хотя мб я и ошибаюсь.
Аноним 13/11/23 Пнд 02:54:21 #572 №542757 
1699833258873.jpg
1699833258897.png
1699833258899.png
Там это, у расширения на быстрый inpaint, которое неделю назад кидал, обновление вышло

Теперь есть hiresfix на одну кнопку, на случай если мыло в глаза бросается. Можете сравнить пики, одна с хайрезом, другая без. Хотя это не самый показательный вариант. Кстати, в настройках по-умолчанию сделал использование lcm. Кажется для хайрез фиксов он идеально подходит

Так же полностью работает пакетная обработка, и сохранение файлов по пути outputs/replacer/дата

В общем осталось реализовать всевозможные параметры, сделать покачественней readme, и можно в индекс автоматика добавлять
Аноним 13/11/23 Пнд 03:39:25 #573 №542765 
>>542390
>>542447
Нормальные люди генерят в 960х540, а потом апскейлят в 4к, ну или хотя бы в Full HD, всё что ниже, это вообще не показатель качества модели, большинство моделей выглядят одинаково в 512х512, только апскейл выводит разницу на поверхность.
Аноним 13/11/23 Пнд 04:56:10 #574 №542778 
1581189090714.png
1552890538307.png
>>542757
С аниме моделью, так понимаю, тестов не было? На дедовском дебилорейте работает бтв.
Аноним 13/11/23 Пнд 07:53:56 #575 №542802 
>>542778
Используй инпейнт модель, либо сделай её сам из нужной аниме модели.
Аноним 13/11/23 Пнд 07:58:12 #576 №542805 
>>542305
Со слайдерами нашёл. https://github.com/ostris/ai-toolkit#lora-slider-trainer
Аноним 13/11/23 Пнд 08:13:14 #577 №542809 
1615797155780.png
>>542802
Да, так получше, но область инпеинта почему то слишком большая отхватывается в этом примере, хотя я ввёл просто волосы поменять.
Аноним 13/11/23 Пнд 08:36:02 #578 №542815 
>>542802
Вейт, их можно конвертировать? Чем конкретно отличается заточка под инпеинт?
Аноним 13/11/23 Пнд 09:21:20 #579 №542823 
inpaintconvert.png
>>542815
Inpaint модель имеет 5 дополнительных слоёв в UNet — 4 слоя для контекста изображения (так как в латентном пространстве изображение представлено в виде 4-х мерного тензора) и один слой непосредственно маска.
Инструкция по конвертации здесь https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/How-to-make-your-own-Inpainting-model
Аноним 13/11/23 Пнд 10:53:22 #580 №542865 
>>542823
А, это мёрж с официальной инпеинт моделью. Я думал как-то тренить надо.
Аноним 13/11/23 Пнд 11:58:23 #581 №542897 
>>542778
Были тесты, все работает. Только у одежды желательно цвет указать, так как на ней часто тупит. Еще можно разные типы одежды писать типа swimsuit, trousers, t-shirt, даже если строго говоря на арте одежда другая

По поводу lcm на аниме, то моя любимая kaywaii работает с ним замечательно на 4 шагах. Но в хайрезе думаю с любой моделью проблем не будет, так как в этом режиме даже cfg 5.5 картинку не выжигает
Аноним 13/11/23 Пнд 11:59:44 #582 №542899 
>>542815
На релизе я в readme гайд по конвертации напишу. Как раз знаю что у многих людей затупы по этому поводу
Аноним 13/11/23 Пнд 12:01:58 #583 №542901 
>>542865
Можно и тренить, можно мерж не с официальной, а с обученной. Типа

EpicPhotogasm Z Inpaint + (твоя - EpicPhotogasm Z) * 1
Аноним 13/11/23 Пнд 13:03:22 #584 №542913 
>>542757
>hf_upscaler = gr.Dropdown(
>value="ESRGAN_4x",
>hf_sampler = gr.Dropdown(
>value="Euler a"
Зря захардкодил имена апскейлеров и семплеров, это потенциальный путь к проблемам.
Лучше сохрани их в список, а потом обращайся к нулевому элементу.
Аноним 13/11/23 Пнд 13:18:27 #585 №542914 
>>542913
Это не хардкор, это же дефолтное значение для ui. Кто угодно может изменить значение по-умолчанию

Апскейлер стандартный, а не какой-нибудь 4x-Ultrasharp. Семплер тем более никуда не денется. Так что проблемы не виду
Аноним 13/11/23 Пнд 13:26:23 #586 №542917 
>>542913
> Лучше сохрани их в список, а потом обращайся к нулевому элементу.

Ты не понимаешь, что говоришь. Список всех вариантов и так есть от самого автоматика на строчке ниже в choices. Даже если кто-то скроет этот семплер или апскейлер, ошибки не будет, так как gradio добавляет в список дефолтные элемент, если не находит в списке

В редми тоже добавлю гайд, как пользоваться секцией defaults в настройках
Аноним 13/11/23 Пнд 17:33:41 #587 №543117 
Бабы осваивают Автоматика...
https://github.com/AUTOMATIC1111/stable-diffusion-webui/issues/13965
Аноним 13/11/23 Пнд 18:57:16 #588 №543179 
>>543117
Надо написать ей, чтобы установила Линукс ))
Аноним 13/11/23 Пнд 19:00:00 #589 №543185 
Oshiete, sempai!.jpg
>>541497
А чё не так с аниме? Я правда мержефигнёй не занимаюсь, тупо лору пихаю в промпт.
Аноним 13/11/23 Пнд 19:01:36 #590 №543188 
>>543185
У некоторых с аниме не работает. Ну либо они тупят люто где-то, у меня на все моделях работает
Аноним 13/11/23 Пнд 20:16:15 #591 №543287 
tiztkmshn2b51.webp
>>541334
Пацаны, объясните что такое ЛЦМ ЛОРА для НУЛЕВОГО?
Что кочать и куда жать, чтобы стало заебись?
Аноним 13/11/23 Пнд 20:29:07 #592 №543310 
1699896546105.png
>>543287
> Пацаны, объясните для НУЛЕВОГО?

Тебе уже не помочь. Нулевой не поймет что она делает, раз не знаешь какие обычно шаги, cfg и т.п.
Аноним 14/11/23 Втр 00:21:04 #593 №543527 
>>543117
Ну пиздос, ща вместо искривления пространства от слишком большой жёппы пойдут фоточки с 6 пальцами на третьей ноге, с пиздой под коленкой и сосками на затылке, ох лол.
Аноним 14/11/23 Втр 00:24:06 #594 №543534 
Почему всякие гайды по обучению лоры на определенный ебальник рекомендуют использовать 10-30 фото? Разве закинуть 100-200 фото не лучше для обучения?
Аноним OP 14/11/23 Втр 03:22:05 #595 №543637 
>>543635 (OP)
>>543635 (OP)
>>543635 (OP)
Аноним 14/11/23 Втр 12:06:44 #596 №543798 
male (104).png
>>543534
10-30 размером 512, я сам не ебу. Уроки для нищих обывателей делают каких-то, хотя в треде я выяснил, что нужно собирать пак не на 512 явно, а на больших разрешениях. Это хуйня пошла от туда где сказали, что базовая модель обучалась на 512, поэтому нужно собирать 512, а иначе будет хуйня. Короче тут нужно на своём опыте проверять всё, stable diffusion это непаханое поле экспериментов, инструмент новый и никто нихуя не знает, но уже советуют с апломбом будто они stable diffusion сами и создали.
я думаю, что если фото разнокалиберные (из разных условий съёмки и освещения) и не заебёшься подписывать каждое, то можно и 200 всунуть.
Аноним 17/11/23 Птн 06:05:51 #597 №546130 
Так чего там с этой лцм-лорой и мерджем?
На аниме работает? Чувствительность к негативам и цфг какая?
Контролнет, хайрезфикс, и всё такое?
Хочу понять, стоит заморачиваться или нет. 4080 в компе - это, конечно, хорошо, но если можно урезать количество шагов в 4 раза - это ж еще лучше.

P.s. кохай свой хайрезфикс запилил, кстати
https://github.com/wcde/sd-webui-kohya-hiresfix
Аноним 17/11/23 Птн 06:06:31 #598 №546131 
А, бля. Тут перекатили. Ну ладно.
comments powered by Disqus

Отзывы и предложения