24 декабря Архивач восстановлен после серьёзной аварии. К сожалению, значительная часть сохранённых изображений и видео была потеряна. Подробности случившегося. Мы призываем всех неравнодушных помочь нам с восстановлением утраченного контента!

Stable Diffusion технотред #11 /tech/

 Аноним 13/07/23 Чтв 21:08:59 #1 №399707 
.png
.png
.png
.png
ИТТ делимся советами, лайфхаками, наблюдениями, результатами обучения, обсуждаем внутреннее устройство диффузионных моделей, собираем датасеты, решаем проблемы и экспериментируем
Тред общенаправленныей, тренировка дедов, лупоглазых и фуррей приветствуются

Предыдущий тред: >>314956 (OP)

➤ Софт для обучения

https://github.com/kohya-ss/sd-scripts
Набор скриптов для тренировки, используется под капотом в большей части готовых GUI и прочих скриптах.
Для удобства запуска можно использовать дополнительные скрипты в целях передачи параметров, например: https://rentry.org/simple_kohya_ss

➤ GUI-обёртки для kohya-ss

https://github.com/bmaltais/kohya_ss
https://github.com/derrian-distro/LoRA_Easy_Training_Scripts
https://github.com/anon-1337/LoRA-train-GUI

➤ Обучение SDXL

Если вы используете скрипты https://github.com/kohya-ss/sd-scripts напрямую, то, для обучения SDXL, вам необходимо переключиться на ветку "sdxl" и обновить зависимости. Эта операция может привести к проблемам совместимости, так что, желательно, делать отдельную установку для обучения SDXL и используовать отдельную venv-среду. Скрипты для тренировки SDXL имеют в имени файла префикс sdxl_.

Подробнее про обучение SDXL через kohya-ss можно почитать тут: https://github.com/kohya-ss/sd-scripts/tree/sdxl#about-sdxl-training

Для GUI https://github.com/bmaltais/kohya_ss и https://github.com/derrian-distro/LoRA_Easy_Training_Scripts/tree/SDXL так же вышли обновления, позволяющее делать файнтьюны для SDXL. Кроме полноценного файнтьюна и обучения лор, для bmaltais/kohya_ss так же доступны пресеты для обучения LoRA/LoHa/LoKr, в том числе и для SDXL, требующие больше VRAM.

Всё пока сырое и имеет проблемы с совместимостью, только для самых нетерпеливых. Требования к системе для обучения SDXL выше, чем для обучения SD 1.x.

➤ Гайды по обучению

Существующую модель можно обучить симулировать определенный стиль или рисовать конкретного персонажа.

Текстуальная инверсия (Textual inversion) может подойти, если сеть уже умеет рисовать что-то похожее:
https://rentry.org/textard (англ.)

Гиперсеть (Hypernetwork) может подойти, если она этого делать не умеет; позволяет добавить более существенные изменения в существующую модель, но тренируется медленнее:
https://rentry.org/hypernetwork4dumdums (англ.)

Dreambooth – выбор 24 Гб VRAM-бояр. Выдаёт отличные результаты. Генерирует полноразмерные модели:
https://github.com/nitrosocke/dreambooth-training-guide (англ.)

LoRA – "легковесный Dreambooth" – подойдет для любых задач. Отличается малыми требованиями к VRAM (6 Гб+) и быстрым обучением:
https://rentry.org/2chAI_easy_LORA_guide - гайд по подготовке датасета и обучению LoRA для неофитов
https://rentry.org/2chAI_LoRA_Dreambooth_guide - ещё один гайд по использованию и обучению LoRA
https://rentry.org/59xed3 - более углубленный гайд по лорам, содержит много инфы для уже разбирающихся (англ.)

LyCORIS (Lora beYond Conventional methods, Other Rank adaptation Implementations for Stable diffusion) - это проект по созданию алгоритма для более эффективного дообучения SD. Ранее носил название LoCon. В настоящий момент включает в себя алгоритмы LoCon, LoHa, LoKr и DyLoRA:
https://github.com/KohakuBlueleaf/LyCORIS

LoCon (LoRA for Convolution layer) - тренирует дополнительные слои в UNet. Теоретически должен давать лучший результат тренировки по сравнению с LoRA, меньше вероятность перетренировки и большая вариативность при генерации. Тренируется примерно в два раза медленнее чистой LoRA, требует меньший параметр network_dim, поэтому размер выходного файла меньше.

LoHa (LoRA with Hadamard Product representation) - тренировка с использованием алгоритма произведения Адамара. Теоретически должен давать лучший результат при тренировках с датасетом в котором будет и персонаж и стилистика одновременно.

LoKr (LoRA with Kronecker product representation) - тренировка с использованием алгоритма произведения Кронекера. Алгоритм довольно чувствителен к learning_rate, так что требуется его тонкая подгонка. Из плюсов - очень маленький размер выходного файла (auto factor: 900~2500KB), из минусов - слабая переносимость между моделями.

DyLoRA (Dynamic Search-Free LoRA) - по сути та же LoRA, только теперь в выходном файле размер ранга (network_dim) не фиксирован максимальным, а может принимать кратные промежуточные значения. После обучения на выходе будет один многоранговый файл модели, который можно разбить на отдельные одноранговые. Количество рангов указывается параметром --network_args "unit=x", т.е. допустим если network_dim=128, network_args "unit=4", то в выходном файле будут ранги 32,64,96,128. По заявлению разработчиков алгоритма, обучение одного многорангового файла в 4-7 раз быстрее, чем учить их по отдельности.

Text-to-image fine-tuning для Nvidia A100/Tesla V100-бояр:
https://keras.io/examples/generative/finetune_stable_diffusion (англ.)

Не забываем про золотое правило GIGO ("Garbage in, garbage out"): какой датасет, такой и результат.

➤ Гугл колабы

﹡Текстуальная инверсия: https://colab.research.google.com/github/huggingface/notebooks/blob/main/diffusers/sd_textual_inversion_training.ipynb
﹡Dreambooth: https://colab.research.google.com/github/TheLastBen/fast-stable-diffusion/blob/main/fast-DreamBooth.ipynb
﹡LoRA [1] https://colab.research.google.com/github/Linaqruf/kohya-trainer/blob/main/kohya-trainer.ipynb
﹡LoRA [2] https://colab.research.google.com/drive/1bFX0pZczeApeFadrz1AdOb5TDdet2U0Z

➤ Полезное

Гайд по фиксу сломанных моделей: https://rentry.org/clipfix (англ.)
Расширение WebUI для проверки "сломаных" тензоров модели: https://github.com/iiiytn1k/sd-webui-check-tensors
Гайд по блок мерджингу: https://rentry.org/BlockMergeExplained (англ.)
Гайд по ControlNet: https://stable-diffusion-art.com/controlnet (англ.)

Гайды по апскейлу от анонов:
https://rentry.org/SD_upscale
https://rentry.org/sd__upscale
https://rentry.org/2ch_nai_guide#апскейл
https://rentry.org/UpscaleByControl

Ручная сборка и установка последней версии xformers и torch в venv автоматика:
Windows: https://rentry.org/sd_performance
Linux: https://rentry.org/SD_torch2_linux_guide

Подборка мокрописек от анона: https://rentry.org/te3oh
Группы тегов для бур: https://danbooru.donmai.us/wiki_pages/tag_groups (англ.)
Коллекция лор от анонов: https://rentry.org/2chAI_LoRA

Гайды, эмбеды, хайпернетворки, лоры с форча:
https://rentry.org/sdgoldmine
https://rentry.org/sdg-link
https://rentry.org/hdgfaq
https://rentry.org/hdglorarepo
https://gitgud.io/gayshit/makesomefuckingporn

Шапка: https://rentry.org/catb8

Прошлые треды:
№1 https://arhivach.top/thread/859827/
№2 https://arhivach.top/thread/860317/
№3 https://arhivach.top/thread/861387/
№4 https://arhivach.top/thread/863252/
№5 https://arhivach.top/thread/863834/
№6 https://arhivach.top/thread/864377/
№7 https://arhivach.top/thread/868143/
№8 https://arhivach.top/thread/873010/
№9 https://arhivach.top/thread/878287/
№10 https://arhivach.top/thread/893334/
Аноним 14/07/23 Птн 01:47:02 #2 №400281 
Купил 3090 ти чтобы генерировать фурри хуи в 4к. Я у мамы молодец
Аноним 14/07/23 Птн 02:10:52 #3 №400307 
>>400281
Увожаемо.
Аноним 14/07/23 Птн 07:51:36 #4 №400457 
Есть способ добавить в автоматик автовыключение компа после завершения генерации? А то хочу поставить конвеер на генерацию, чтоб он по завершении вырубил комп и не простаивал.
Аноним 14/07/23 Птн 11:25:30 #5 №400548 
nullstyle-JYMRH.png
nullstyle-UX9-T0.png
Синолог в треде. Заметил такую закономерность, что все уникальные и цепляющие чем-то чекпойнты SD - сделаны кектайцами. Честно тренированные, со своими фичами и так далее. Если вы видите ридми иероглифами - это марка качества. Вот несколько из недавних
https://civitai.com/models/44605?modelVersionId=112251 - пик релейтед, мне зашло на ура
https://civitai.com/models/59719/2357-200 (старая версия даже пизже, хотя это дело вкуса)
https://civitai.com/models/98018/hello25dvintageanime
Anything тоже китайская модель. Попадались даже шикарные чекпойнты, которые не известны за пределами китайской блогосферы. Копипастные мерджи, которыми завален Civitai, сделаны западными пользователями (французы и прочие), они пережевывают одно и то же по много раз. Anything v4 это неофициальный bullshit мердж сделанный троллем.

Быть может, всё это потому, что в стране с миллиардным населением больше всего юзеров с баблом и энтузиазмом, + техническая подкованность и деловая дисциплина азиатов + визуальное богатство культуры, которая получила дальнейшее развитие в ИИ-арте. Зная предприимчивость чонгов, можно догадываться что они давно внедряют ИИ в геймдев, в десигн и всё остальное, а также пилят свои аналоговнеты.
Аноним 14/07/23 Птн 11:28:47 #6 №400555 
Что характерно, Индия не совершает такого же вклада, хотя в ней тоже миллиард населения. Ведь в китайских компаниях не поощряется головотяпство и втирание очков, а индусы, они до сих пор какают на улицах, не говоря уж о состоянии науки и инноваций.
Что касается Америки, то она = соя и повесточка (при всем уважении к достижениям американских спецов, которые зачастую те же китайцы).
Аноним 14/07/23 Птн 14:01:26 #7 №400738 
Да все они примерно одинаковые. Вообще этот SD ерунда.
Аноним 14/07/23 Птн 19:11:02 #8 №401113 
>>400548
>>400555
Имаджинировали сколько вклада сделал этот ваня в клозет с дырой типа "очко на улице"?
Аноним 14/07/23 Птн 20:30:39 #9 №401249 
Google обвинили в краже вообще всего в интернете — на прокормку ИИ

Против Google подали коллективный иск, в котором компанию обвинили в «тайном сборе всего опубликованного или созданного в интернете». Авторы иска считают, что данные используются для обучения генеративного искусственного интеллекта Google и подобных продуктов. Юридическая фирма, оформившая иск, ранее подала аналогичный, но уже против компании OpenAI, известной по ChatGPT.

В документах отмечается, что сбор информации американцев ведется компанией Alphabet без уведомления пользователей, которые даже и не подозревают о происходящем с их данными.

«Google прибирает к рукам всю нашу личную и профессиональную информацию, предметы творчества и авторские работы, наши фотографии и даже письма в электронной почте — буквально весь наш цифровой „отпечаток“», — утверждают авторы иска. По их словам, все это происходит годами и бесконтрольно.

В качестве доказательства приводятся изменения в пользовательское соглашение от 1 июля, в котором появилась отметка о том, что Google может собирать всю публично доступную информацию о пользователе для тренировки ИИ и совершенствования Google Translate, Bard и Cloud AI.

«Google должна понять раз и навсегда: она не владеет интернетом», — говорится в иске и отмечается, что публично доступное не означает бесплатное.
Аноним 15/07/23 Суб 18:39:48 #10 №403277 
image.png
пук
Аноним 15/07/23 Суб 20:28:21 #11 №403532 
>>401249
>«Google прибирает к рукам всю нашу личную и профессиональную информацию, предметы творчества и авторские работы, наши фотографии и даже письма в электронной почте — буквально весь наш цифровой „отпечаток“», — утверждают авторы иска. По их словам, все это происходит годами и бесконтрольно.
>
Пиздеж, уже давно обоссан, информация не персоанализована. Обычный пиар-иск.

>«Google должна понять раз и навсегда: она не владеет интернетом», — говорится в иске и отмечается, что публично доступное не означает бесплатное.
Как там Австралия гугол забанила уже или нет? А тут вообще ноунейм попук.
Аноним 15/07/23 Суб 20:36:52 #12 №403561 
>>401249
Веб-архив уже сколько лет существует и почему-то никто не пиздит на него. А ведь там есть такое, что не просто осталось после удаления, а даже то что вычищалось как нелегальный контент.
Аноним 15/07/23 Суб 20:59:01 #13 №403650 
Ребзя, уже тестировали sdxl? Она сильно медленнее чем 1.5? Просто думаю потянет ли моя 3060/12gb, или нужно идти апгрейдиться.
Аноним 15/07/23 Суб 21:05:23 #14 №403687 
>>403650
Потянет
Аноним 15/07/23 Суб 21:11:10 #15 №403728 
>>403687
Ну я и предпологал, что "потянет" в смысле запустится. Там кажется достаточно и 8gb vram.
Просто думал что живые пользователи ответсят что то вроде: "работает раз в 10 медленне" или "скорость генерации почти не упала".
Аноним 15/07/23 Суб 21:11:29 #16 №403731 
>>403650
Квадаты потянет. Хайрезы или рефайн - нет.
Аноним 15/07/23 Суб 21:26:12 #17 №403781 
sdxl.png
>>403728
Тянет и хайрез фикс и рефайн на 8Гб. Скорость генерации на 2060Super 1536х1024, DPM++ 2M Karras, 30 шагов — 40 сек.
Генерация с хайрез фиксом latent с 1024х768 до 1536х1152 при тех же параметрах — 1 минута.
Аноним 15/07/23 Суб 22:04:02 #18 №403888 
>>403781
Спасибо! Это обнадёживает. А то не очень хочется связываться с этими новыми видеокартами, которые размером и мощностью сравнялись со стиральными машинами.
Аноним 15/07/23 Суб 22:21:02 #19 №403934 
>>403561
>а даже то что вычищалось как нелегальный контент.
Например?
>>403781
>40 сек
>100% врама
Драйвера слишком новые, лол.
Аноним 16/07/23 Вск 00:53:42 #20 №404375 
Здравствуйте ананасы, такая проблема - когда включаю openpose, падает качество и на генерации и на апскейле, как фиксить?
Аноним 16/07/23 Вск 02:06:40 #21 №404521 
>>403934
> Драйвера слишком новые, лол.
Скоро™ пофиксить обещали https://github.com/vladmandic/automatic/discussions/1285#discussioncomment-6328116
Аноним 16/07/23 Вск 02:34:52 #22 №404548 
>>404521
>>403934
Я пробовал различные версии драйверов, торчей, куды, куднн, хформерсов и сравнивал их производительность.
В итоге максимальная производительность у меня получилась на связке драйвер 528.49, torch2.1.0+cu118, CUDA11.8, cuDNN8.8, xformers 0.0.21+cu118.
Что касаемо показателя Sys VRAM, то при использовании SDP cross-attention оптимизатора у меня он практически всегда показывает 8192/8192 вне зависимости от размера картинки. Хоть 512х512, хоть 2048х1024.
Аноним 17/07/23 Пнд 15:24:33 #23 №409396 
Не пойму что за хрень, что не тренирую на выходе всё косоёбит. Сначала думал датасет говно, сделал всё отлично - то же самое. Дошёл до того, что скачал чужой датасет, с параметрами( там и джейсон прилагался) оттренил у себя - говно, а у чела всё нормально. Тот же эпох, те же повторения, всё то же.3060,3600 и 16 гб оперативы.
ЧЯДНТ?
Аноним 17/07/23 Пнд 17:53:46 #24 №410070 
2023-07-1717-43-02.png
2023-07-1717-44-56.png
2023-07-1717-46-40.png
2023-07-1717-47-57.png
аноны, не уверен в тот ли тред с таким вопросом, но слезно умоляю помогите зеленому долбаебу. пару месяцев назад вполне успешно сделал модель аниме тянучки, сейчас решил попробовать сделать модель с неоновым стилем, но не нихуя получается. не вдупляю в чем собсна проблема, когда делал модель с тянучкой там уже с тысячи был неплохой результат, а тут какой-то лисий кал выходит, или при тренировки стиля так и должно быть?
Аноним 17/07/23 Пнд 20:58:28 #25 №410628 
>>409396
>ЧЯДНТ?
Ищи проблему в железе или софте. Проверь стабильность оперативы под нагрузками, проверь версии ПО, торча, хформерс и прочего говна.
Аноним 18/07/23 Втр 01:21:32 #26 №411563 
image.png
image.png
Давно не тыкался, сегодня обновился и вылезла проблема.
Инпеинтит почему-то слишком долго. Даже маленькое закрашенное пятнышко на условной пикче 1000х1500 гоняет 5 минут. Раньше это делалось точно намного быстрее, железо все то же.
Сталкивался кто-нибудь, есть идеи? Настройки пикрил.
Аноним 18/07/23 Втр 10:06:13 #27 №412352 
>>410628
Спасибо, по ходу нашёл - дело в файле подкачки - он должен быть на одном диске.
Аноним 18/07/23 Втр 17:01:11 #28 №413186 
>>400738
Ща релизнут SD XL, может он будет лучше.

Ящитаю, анклип как в миджорни - топчик.
Аноним 18/07/23 Втр 20:44:56 #29 №413635 
Аноны, помогите!
Удалил несколько программ через прогу Reg Organizer с "чисткой следов". После этого при запуске webui user.bat появилась ошибка: py torch can not connect with GPU и Stable Diffusion не запускалась. Сделал восстановление системы, точка восстановления каким то чудом была только одна на 16:50 сегодня, откуда она взялась я в душе не ебу, кроме неё не было ничего. Восстановился - вроде все норм, работает. Но теперь заметил следующее в консоли:

A matching Triton is not available, some optimizations will not be enabled.
Error caught was: No module named 'triton'
D:\ai\stable-diffusion-webui\venv\lib\site-packages\pytorch_lightning\utilities\distributed.py:258: LightningDeprecationWarning: `pytorch_lightning.utilities.distributed.rank_zero_only` has been deprecated in v1.8.1 and will be removed in v2.0.0. You can import it from `pytorch_lightning.utilities` instead.
rank_zero_deprecation(
Model loaded in 5.4s (load weights from disk: 0.5s, create model: 0.6s, apply weights to model: 2.5s, apply half(): 0.5s, move model to device: 1.0s, calculate empty prompt: 0.1s).
D:\ai\stable-diffusion-webui\venv\lib\site-packages\torchvision\transforms\functional_tensor.py:5: UserWarning: The torchvision.transforms.functional_tensor module is deprecated in 0.15 and will be removed in 0.17. Please don't rely on it. You probably just need to use APIs in torchvision.transforms.functional or in torchvision.transforms.v2.functional.
warnings.warn(

Что это за хуйня разъясните пожалуйста.Что за Тритон? Что за ошибки с Pytorch? Что это все блядь? Я знаю тут есть знатоки, а я на уровне хлебушка в этих вопросах.
Аноним 18/07/23 Втр 21:15:42 #30 №413704 
1625938458058.png
>>413635
тритон в винде не работает, остальное поебать если работает. если трясешься то можешь папку venv удалить, вебуй при след запуске все перекачает.
вроде бы 23 год на дворе, а люди до сих пор сиклинерами пользуются
Аноним 18/07/23 Втр 21:52:38 #31 №413805 
>>413704
Ну спасибо блядь, снес venv он перекачал, теперь extensions не загружается и вся консоль в ошибках
Аноним 18/07/23 Втр 22:02:14 #32 №413847 
>>413805
пости ошибки, хули
Аноним 18/07/23 Втр 22:42:50 #33 №413996 
>>413847
Да иди ты нахуй, я чистую снова наверну чем теперь из-за тебя долбоеба с тысячей ошибок ебаться
Аноним 18/07/23 Втр 23:00:02 #34 №414060 
>>413996
Здесь долбоеб-неосилятор только ты
Аноним 18/07/23 Втр 23:39:27 #35 №414179 
>>413996
>мокрописькой поломал пути в копровинде
>поломал автоматик делолом венв
>виноваты все вокруг
Мегамозг наху
Аноним 19/07/23 Срд 00:34:56 #36 №414325 
Clip2net230719003322.jpg
Я видел когда-то в разделе мокропиську для соревновательной сортировки пикч. Ну то есть если нагенерили 100 штук, чтобы сравнить их и оставить парочку.
Я ее не смог найти, поэтому написал свой велосипед:
https://pastebin.com/5bKfqgyw
Из зависимостей только pip install PyQt5 и pip install Pillow
Кто не умеет в питон, я скомпилил 7 килобайт кода в 57 мегабайт экзешника, наслаждайтесь (должно работать вообще без питона): https://pixeldrain.com/u/rBbu6EET

Вызов либо через командную строку, python batch_sorter.py f:\iloveass
Либо если без пути запустите, то оно спросит
По пути создаст папку discarded
В окне нажимете (на клавиатуре) левую стрелку, чтобы скинуть в discarded левую пикчу.
Правую стрелку наоборот соответственно.
Вверх - скипаются и остаются обе
Вниз - скидываются в discarded обе
Вместо стрелок можно использовать класскический WASD
Кнопки в интерфейсе не стал пилить, ну их нахуй.

Оно закончит, когда останется две пикчи. Либо когда вы окно закроете. Файлы перемещаются сразу по нажатию кнокпи на клаве. Не в конце процесса.

В консоли будет дудосить ошибками
QWindowsWindow::setGeometry: Unable to set geometry
Не обращайте внимания, мне просто лень чинить.
Аноним 19/07/23 Срд 00:37:08 #37 №414327 
>>414325
А, еще посмотрел вашу шапку и увидел мокрописьки для ресайза
Но они все проигрывают в удобстве этой, как мне кажется:
https://www.birme.net/

Может ее стоит тоже туда хуйнуть, датасеты кропать самое оно.
Аноним 19/07/23 Срд 02:01:12 #38 №414426 
>>413805
А нахуя полностью удалял? Я переименовываю всегда, можно было бы откатится.
Аноним 19/07/23 Срд 15:31:54 #39 №415274 
Лороделы, можно вам реквест? Несложная наверно лора, чтобы рисовала море/океан крови/LCL. Анимушные модели, что пробовал, по промпту упорно рисуют обычную воду с несколькими лужами крови, либо перса заливают кровищей. Каноничную сцену из EoE не воссоздать, на циве не нашел ничего подходящего.
Аноним 20/07/23 Чтв 02:44:22 #40 №417389 
16-bitanimegirlstandingbluehairblackdress.png
Не знаю где именно спросить, спрошу тут.

Генерирую пиксель арты, если смотреть издалека и один глаз закрыть, то результат вроде бы ничего, похоже на правду.

Но на самом деле много грязи в изображении, квадраты (якобы пиксели) разных размеров, аутлайны плохие. Фиксить каждый пиксель руками - заебешься насмерть, мне быстрее с нуля нарисовать самому.

Возможна ли модель которая получив на вход пикрелейтед, преобразует его в близкое к pixel perfect?

Фильтр ближайший сосед не предлагать!
Аноним 20/07/23 Чтв 03:03:57 #41 №417415 
1572029907621.png
>>417389
> Фильтр ближайший сосед не предлагать!
Чего так? Если совместить одно с другим то как раз починит, тут скорее не нейронка а просто численных алгоритм нужен, скрипты фотожопа есть. Изначально генерацию делай с аутлайном но без стремления получить идеальную пикселизацию, а ее организовывай уже потом.
Аноним 20/07/23 Чтв 04:12:12 #42 №417491 
>>417415
>Чего так?

Когда я даунскейлю картинку до четкой пиксельной сетки 1 "квардратик" генерации = 1 реальный пиксель то хорошо получается только там где квадраты большие и четкие, и там где они выровнены по сетке.

А выровнять по сетке всю картинку не получается, потому что в разных местах квадраты разного размера и формы. И поэтому картинка превращается в кашу.

При этом глазами-то я вижу где какой пиксель должен быть, вот думаю значит и нейрон очка тоже сможет.
Аноним 20/07/23 Чтв 04:22:38 #43 №417502 
ezgif.com-gif-maker.gif
>>417491
Вот так получается, не слишком уж хорошо.
Аноним 20/07/23 Чтв 08:07:48 #44 №417592 
Кто-нибудь в курсе, как это чинить после обновления?

raise RuntimeError("Cannot add middleware after an application has started")
RuntimeError: Cannot add middleware after an application has started
Аноним 20/07/23 Чтв 10:23:44 #45 №417733 
срань.PNG
Это что за срань? начало вылезать просто нисхуя, в гугле ноль упоминаний
Аноним 20/07/23 Чтв 10:28:59 #46 №417741 
>>417733
само прошло, так же нисхуя
Аноним 20/07/23 Чтв 10:40:44 #47 №417764 
>>417733
>wsl
Нахуя?
Аноним 20/07/23 Чтв 10:50:48 #48 №417776 
Подскажите модель для рисования пейзажей разных психоделических, хочу себе наклепать для обоев на рабочий стол.
Аноним 20/07/23 Чтв 12:43:04 #49 №417997 
Есть аноны с амд карточками с линуксом? Насколько там сильно разница в скорости генерации по сравнению с виндой? На винде, на моей 6700xt на одну картинку уходит в среднем 20-40 секунд.
Аноним 20/07/23 Чтв 13:54:42 #50 №418181 
>>417997
> На винде, на моей 6700xt на одну картинку уходит в среднем 20-40 секунд.
Не указывая размер картинки, семплер и количество шагов твоя информация абсолютно бесполезна.
Аноним 20/07/23 Чтв 16:12:52 #51 №418621 
>>417491
Посмотри внимательно, исходная пикча не должна быть столь сильно пикселизованной если эта пикселизация поломана, тогда по ближайшим сработает уже нормально. Также палитру скорректировать в любом случае придется или заставить нейросеть изначально сделает плоские цвета. У тебя в той пикче не смотря на закос под пиксельарт есть полутона между пикселями, потому ресайз туда-собратно и ломает аутлайн, попадая не серые участки вместо черных, и сам аутлайн тонкий из-за чего при уменьшении он может потеряться.
Та пикча изначально обычная но с жирным лайном и "пиксельарт" сделан в фотожопе.
Аноним 20/07/23 Чтв 16:19:17 #52 №418632 
>>417491
Попробуй вместо VAE использовать ApproxVAE, будет в 8 раз меньше разрешение, без попыток автоэнкодера убрать пиксели.
Аноним 20/07/23 Чтв 19:17:30 #53 №419199 
>>415274
У тебя карта не тянет? Ну хочешь- кидай датасет с описаниями. Я у себя создам лору. Параметры тоже лучше скинь/спроси у кого-то
Аноним 20/07/23 Чтв 21:13:53 #54 №419549 
image.png
Бля да че оно такой хеловворд сгенерить не может-то?
Аноним 20/07/23 Чтв 21:20:38 #55 №419574 
image.png
image.png
Хачмодель 4/10, дримшейпер 9/10
Везде насрало фиолетовым, где не надо, хотя через запятую
Аноним 20/07/23 Чтв 21:38:43 #56 №419641 
>>419549
>>419574
Чел... Вроде обмазался плагинами (сборочку поставил что ли?), но базы понимания работы нейросетей это не прибавило.
Аноним 20/07/23 Чтв 22:07:14 #57 №419767 
>>419549
>>419574
Инпейнт, даунидзе.
Аноним 20/07/23 Чтв 22:19:56 #58 №419817 
>>419641
Нет, отдельно ставил. Нету.
>>419767
Ебаться с инпейнтом для такого хеловворда? Пиздец просто
Аноним 20/07/23 Чтв 22:31:18 #59 №419859 
изображение.png
>>419817
>Пиздец просто
А хули ты хотел? Это не ИИ нихрена.
В принципе, можно чуть потвикать и нароллить, но лучше инпейнт, ибо сетке сложно понять, что к чему, особенно по такому короткому промту.
Аноним 20/07/23 Чтв 23:36:03 #60 №420199 
поебался с invoke ai (sd без фильтров) а потом подчитал в середине гайда, что он не встает на амд карты на шиновсе

ппц так обидно

есть обходные пути этой херни, или идти в магазин за видимокартой, чтоб ии прон посмотреть?

спасибо, аноны, заранее

сам полный хуй и лох, хочется посмотреть голых девок, показать другим
Аноним 21/07/23 Птн 00:48:57 #61 №420478 
>>420199
>sd без фильтров
Чаво? Юзай автоматика, как и все тут. Он вроде кое-как дружит с радевонью.
>>420199
>или идти в магазин за видимокартой
Да, самый беспроблемный вариант. Минимум 12ГБ врама, лучше сразу 24, и будешь перед всеми козырять классными картинками.
Аноним 21/07/23 Птн 01:14:50 #62 №420579 
>>418181
512x512, Euler a, 20 шагов
Аноним 21/07/23 Птн 02:09:54 #63 №420725 
>>420579
Совсем лажа, смотри мой пик выше >>419859
3080Ti-боярин.
Аноним 21/07/23 Птн 08:52:48 #64 №421148 
>>419574
> Хачмодель
Еблан.
>>420199
> показать другим
Другие ведь никогда голых девок не видели, а тут такой ты с двух ног со своими шедеврами.
Аноним 21/07/23 Птн 10:58:15 #65 №421355 
Аноны, решил потренировать Лору, скачал гуи, всё тренеруется, работает, но татуировку персонажа понять не может, хоть она и просто ромб. Рисует всё под ряд, и в линии меняет, и даже квадрат сделать не может.
Аноним 21/07/23 Птн 11:03:44 #66 №421372 
>>421355
Дохуя хочешь, геометрические татухи без дополнительных костылей работать не будут.
Аноним 21/07/23 Птн 11:50:50 #67 №421481 
>>421372
А какие костыли нужны? Я так то натренировал, и даже работает, но оверфитит модель, или зажаривает, попробовал конвертнуть в дим 8 но лучше не стало особо. Или этих костылей ещё не придумали?
Аноним 21/07/23 Птн 11:52:59 #68 №421488 
>>421481
Тренируй лайкорисы, они лучше для этих целей подходят
Аноним 21/07/23 Птн 12:04:17 #69 №421522 
1615406081458.jpg
>>421488
>1488
Спасибо, буду пробовать.
Аноним 21/07/23 Птн 13:44:20 #70 №421738 
.jpg
>>419549
{{white | black}} cat with purple eyes
Аноним 21/07/23 Птн 14:34:24 #71 №421856 
2 карты кто-то пробовал задействовать?
Аноним 21/07/23 Птн 15:03:52 #72 №421944 
>>419817
>Ебаться с инпейнтом для такого хеловворда? Пиздец просто
Ну а нахуй ты в фотожопе со слоями ебешься? Или в 3дмоделерах с полигонами? Ебать говно ниудобна! Это блядь азы работы с программой, прости, ебаный кусок говна, что она устроена не так, как ты хотел. Сделай блядь лучше или забей пасть.

>>421738
Хуйня. Кот у тебя не белый. Этот дрочь в принципе не нужен, когда сенд ту инпейт и сменить цвет глаз это 3 секунды.
Аноним 21/07/23 Птн 15:40:17 #73 №422024 
>>421944
да не трясись ты так
Аноним 21/07/23 Птн 17:01:08 #74 №422148 
>>422024
Я сказал хуйня. Зачем ты споришь, блядь? Обязательно надо последнее слово сказать? Как бабе? Ты баба?
Аноним 21/07/23 Птн 17:07:08 #75 №422160 
База треда: СД котика сгенерить не может.
Аноним 21/07/23 Птн 17:40:46 #76 №422210 
Что вы тряску на ровном месте развели, какой-нибудь white cat with purple eyes должно сразу все сделать, если будет мешаться то использовать негативы.
Аноним 21/07/23 Птн 18:32:31 #77 №422357 
image.png
>>422160
Соси. Негатива нет. Миллиарда присетов как у Мочи Жоры тоже нет.

>>422148
Ты прав.
Аноним 21/07/23 Птн 20:30:13 #78 №422722 
>>422357
Что и требовалось доказать...
Тряска - есть, нормального котика - нету.
Аноним 21/07/23 Птн 21:05:16 #79 №422807 
>>422722
Чем тебя этот не устраивает, мразь? Ты скаал не может - я показал что может.
Аноним 21/07/23 Птн 22:59:48 #80 №422991 
image.png
>>422807
>может
Ебало дифузировали?
Аноним 21/07/23 Птн 23:51:47 #81 №423127 
> Технотред №1
> Крутим веса моделей, срёмся за тензоры, пишем гайды, организуем помойки для моделей

> Технотред №11
> Пытаемся сгенерировать кота

Технотред. Итоги.
Аноним 22/07/23 Суб 02:16:27 #82 №423401 
Аноны с АМД на линуксе как у вас работает hires fix? На моей 6700xt на 512x1024, модель Rev animated, сэмплер DPM++ 2M Karras, 30 шагов, upscale by: 2 генерация занимает минуты 3-4, при этом в конце генерации на 100% прогресса система начинает лагать сильно. Я так понял что это происходит из-за нехватки видеопамяти? Думал на линуксе с этим будет получше, чем на винде.
Аноним 22/07/23 Суб 11:58:48 #83 №423818 
>>423401
> upscale by: 2
> генерация занимает минуты 3-4
Зачем так унижаешься перед Хуангом? У нормальных людей это 5 секунд.
Аноним 22/07/23 Суб 12:03:29 #84 №423821 
>>422160
> База треда: СД котика сгенерить не может.
Хуйню несёшь. Ещё полгода назад генерил охуенных мэйнкунов.
Аноним 22/07/23 Суб 12:14:46 #85 №423837 
1690017285321.png
1690017285336.jpg
>>423401
> На моей 6700xt на 512x1024, модель Rev animated, сэмплер DPM++ 2M Karras, 30 шагов, upscale by: 2 генерация занимает минуты 3-4

Не верю. Покажи скрин.
Аноним 22/07/23 Суб 12:47:26 #86 №423874 
.png
>>423401
> На моей 6700xt на 512x1024, модель Rev animated, сэмплер DPM++ 2M Karras, 30 шагов, upscale by: 2 генерация занимает минуты 3-4
Ха-ха, амудебляди соснули
Аноним 22/07/23 Суб 14:38:43 #87 №424038 
3133.png
>>423837
C hires steps 15 генерация заняла почти 2 минуты.
Аноним 22/07/23 Суб 15:25:53 #88 №424119 
>>424038
512х512, Euler A, 150 шагов, без хайрезфикса, сколько it/s?
Аноним 22/07/23 Суб 15:39:19 #89 №424142 
3135.png
>>424119
5.66 c включенным --medvram
Аноним 22/07/23 Суб 15:40:25 #90 №424144 
>>424142
А без medvram?
Аноним 22/07/23 Суб 15:52:43 #91 №424171 
>>424144
6.32
Аноним 22/07/23 Суб 18:25:54 #92 №424506 
давайте соберем перечень слов, с которыми возможно делать пикчи более "восточными" (проще говоря, убрать клише и образы западной культуры). Я пользуюсь вот этими, в произвольных сочетаниях в конце каждого промпта:

oriental
eastern
therawada
mahayana
arabic
arabesque
ottoman
hindu
mughal
tantra
spicy
persian
achaemenid
babylonian
tao
sanscrit
islamic
sunnah
ramadan
wuxia
tang
ming
qing
thai
burmese
Аноним 22/07/23 Суб 19:09:22 #93 №424615 
>>421522
Короче пока особой разницы не заметил, я правда Дадаптэйшном фигачил, хз какой крутой лёрн рейт для ликоризов.
Аноним 23/07/23 Вск 00:45:27 #94 №425216 
На авито отдают карты б/у 3090 24гига по 50-60к

Стоит брать? В чем камни?

https://www.avito.ru/sankt-peterburg/tovary_dlya_kompyutera/inno3d_geforce_rtx_3090_ichill_x4_24gb_3153691486

https://www.avito.ru/sankt-peterburg/tovary_dlya_kompyutera/asus_tuf_geforce_rtx3090_gaming_oc_tuf-rtx3090-o24_2530308393
Аноним 23/07/23 Вск 00:47:16 #95 №425219 
>>425216
Майнеры распродают, вот тут ответы к посту смотри, все пояснено >>404177 →
Аноним 23/07/23 Вск 00:50:05 #96 №425223 
>>425219
Понял, спасибо. Ну, майнеры и майнеры, похуй, лишь бы работала
Аноним 23/07/23 Вск 01:25:22 #97 №425266 
>>425223
> Ну, майнеры и майнеры, похуй, лишь бы работала
Это как машину после таксиста брать.
Аноним 23/07/23 Вск 21:36:06 #98 №426468 
>>425266
Лучше из таксу но нормальную иномарку, чем сосквич 3 из салуна.
Аноним 24/07/23 Пнд 01:13:33 #99 №426756 
CxLzdWWnGoU.jpg
fOdVZCfXCZA.jpg
Как из пика 1 сделать пик 2? Получается только простой апскейл без доработанных частиц
Аноним 24/07/23 Пнд 01:24:14 #100 №426768 
M6tXBjLCTQ.jpg
>>426756
Максимум такое выходило
Аноним 24/07/23 Пнд 04:14:33 #101 №426850 
>>399707 (OP)

Почему какой-то кореец написал прогу для генерации картинок на своем компе для ламеров (kohya_ss), но не нашлось другого корейца, который бы написал такую же программу генерации картинок для ламеров, но через Google Colab? Ну, если слово "программа" понимть максимально широко. То есть почему никто до сих пор не сделал нотбук на колабе, где нужно было поправить руками пару параметров и запустить одну ячечку, чтобы прога генерила изображение, используя мощности Гугла? Можно настроить Колаб так, чтобы он регулярно, после каждой эпохи например, сохранял на гугл.диск обученную модель. Ну да, боярам, у которых видюхи на ПК лучше тех, что дают бесплатно в колабе, использовать колаб тупо не удобно. Но кому в кайф сидеть без компа Х часов? Не понимаю
Аноним 24/07/23 Пнд 05:08:17 #102 №426860 
>>426850
А, лол. Только сейчас дочитал шапку до того момента, где есть ссылки на колабы
Аноним 24/07/23 Пнд 15:21:07 #103 №427279 
image.png
>>426756
Берёшь и делаешь, без задней мысли. Контролнет. Тайл.
Аноним 24/07/23 Пнд 16:49:20 #104 №427374 
>>399707 (OP)
Как бесплатно улучшить картинку? есть немноо блюеренный скрин с ютуба, хочу обдагородить дял обои
Аноним 24/07/23 Пнд 19:49:03 #105 №427560 
>>399707 (OP)
После запуска скрипта из этого гайда
https://rentry.org/2chAI_LoRA_Dreambooth_guide
начинает бешено сжираться ssd, изначально свободно 30 гб, в консоли доходит до .. epoch 1/10, далее съедает все до конца
OSError: [WinError 1455] Файл подкачки слишком мал для завершения операции. Error loading "C:\Users\user\git\sd-scripts\venv\lib\site-packages\torch\lib\shm.dll" or one of its dependencies.
Чзх, почему скрипт так сильно использует SSD, сколько должно быть свободного места?
Аноним 24/07/23 Пнд 20:09:31 #106 №427572 
>>427560
30 оказалось впритык, надо было чуть больше, и заработало.
Аноним 25/07/23 Втр 06:36:22 #107 №428228 
На сивите вижу некоторых модели в двух вариантах - обычый и inpainting.

В чем там технические отличия, почему обычная модель не может делать инпейнт?
Аноним 25/07/23 Втр 06:43:09 #108 №428230 
Еще объясните пожалуйста софтварные термины, а то стек софтварный просто огромен и тяжело ориентироваться.


Что такое пайторч? Чем оно отличается от либторч? Что такое tensorflow и keras? diffusers, transformers итд.

Везде написано что это "библиотеки/фреймворки для машинного обучения", но не понимаю чем они отличаются.
Аноним 25/07/23 Втр 06:45:37 #109 №428232 
И если сможете, просяните весь процесс от "пишу промт" до "смотрю картинку"
Аноним 25/07/23 Втр 08:42:34 #110 №428270 
>>428232
Пишешь промпт, нажимаешь Generate, смотришь картинку.
В интернетах уже есть десятки статей, в которых по винтику разбирают внутреннее устройство stable diffusion.
Аноним 27/07/23 Чтв 14:15:10 #111 №431122 
Аноны, помогите, https://github.com/kohya-ss/sd-scripts/pull/271
Как передать через скрипт анона несколько параметров --lr_scheduler_args?
если один то всё нормально
$run_parameters += " --lr_scheduler_type=$scheduler --lr_scheduler_args=T_max=$T_max"
А если передаю хотя бы 2, то ошибки выдаёт.
Аноним 27/07/23 Чтв 14:19:06 #112 №431131 
>>431122
Какие ошибки выдаёт?
Аноним 27/07/23 Чтв 14:20:12 #113 №431132 
1650866226860.png
>>431122
Я пикрилейтед делаю. Вообще оно кривущее говно без документации.
Аноним 27/07/23 Чтв 14:36:49 #114 №431152 
Тренил кто LoHA/LoKR, есть к ним какие нибудь удачные основные параметры? Лоха вообще какая то не понятная, полная чушь на рангах ниже 30, локр подаёт больше надежд, несмотря на свои размеры файла в 2.5 мб, но и стиль и персонажа не до конца запоминает, в отличии от локона.

>>431122
--lr_scheduler_args "T_0=400" "gamma_min_lr=0.99945" "decay=1" "down_factor=0.5" "warmup_steps=80" "cycle_warmup=40" "init_lr_ground=True"
Примерно так, просто равно убери
Аноним 27/07/23 Чтв 15:09:05 #115 №431181 
image.png
Как ускорить время генерации в коллабе? Генерю без лор, картинку 512x704 генерирует 40 секунд нахуй, пиздец. А раньше вроде быстро было.
Вот еще данные, не знаю что они значат A: 3.93 GB, R: 5.90 GB, Sys: 6.1/14.748 GB (41.1%)
Аноним 27/07/23 Чтв 15:10:33 #116 №431183 
А сейчас вот 16 секунд генерило... От чего это зависит?
Аноним 27/07/23 Чтв 15:11:44 #117 №431184 
>>431152
Чел, это сделано для шизов, экономящих 50 мб места на диске. Они всегда будут хуже обычной лоры. Более того, и локон не обязательно лучше выдаст результат чем лора, с ним надо больше тонкой настройки. Все они дают лучше результат при одинаковых размерах файла или на низком ранге, но если тебе похуй на размер файла, то ванильная лора с 32/64/128 рангом выебет их. А ещё локоны очень плохо работают в паре с другими локонами, лору так никогда не запидорасит.
Если не знаешь что делаешь, есть всегда топовый вариант - DyLora. Шизы будут кричать РЯЯЯ ТЫ НЕ МОЖЕШЬ ВЗЯТЬ ДИЛОРУ РАЗМЕРОМ В 300 МБ И ПРОСТО НАТРЕНИРОВАТЬ ЕЁ, но по факту она будет ебать все эти локоны и при этом шанс получить кашу минимальный, а бонусом она просто работает у всех из коробки.
Аноним 27/07/23 Чтв 15:15:02 #118 №431186 
>>431183
От нагрузки на сервера коллаба
Аноним 27/07/23 Чтв 15:43:58 #119 №431208 
>>431184
> А ещё локоны очень плохо работают в паре с другими локонами, лору так никогда не запидорасит.
Примеры таких локонов есть? Сколько не подрубал по несколько, обычно всё нормально получалось, на больших весах чем с обычными лорами, которые как раз очень просто пидорасит, если подключать несколько.
> Шизы будут кричать РЯЯЯ ТЫ НЕ МОЖЕШЬ ВЗЯТЬ ДИЛОРУ РАЗМЕРОМ В 300 МБ И ПРОСТО НАТРЕНИРОВАТЬ ЕЁ, но по факту она будет ебать все эти локоны и при этом шанс получить кашу минимальный, а бонусом она просто работает у всех из коробки.
Ты хочешь сказать что 256 ранг обычной дилоры будет лучше например дилоры с 128+128 ранг слоёв локона? Ведь только так получится 300мб файл. Да и к чему ты вообще про ёбку локонов, это же просто дополнительные слои для любого из методов, дающие нихуёвый буст к тренировкам стилей, да и пережарить с ними сложнее. Мне как концепт то дилора нравится, сразу несколько рангов в одной модели, вот только её тренить заебёшься по времени да и лр там нужен куда больше.
Аноним 27/07/23 Чтв 16:02:04 #120 №431238 
>>431208
> Ведь только так получится 300мб файл.
У дилоры на ранге 128 файл 300 мб. Вообще тренировка лоры на больших датасетах совсем не то что тренировать персонажа на 50 пикчах. Персонажа или стиль действительно хоть на чём можно на похуе сделать.
> просто дополнительные слои
Которые очень легко ломаются оверфитом и ты не можешь это контролировать вообще никак в отрыве от тренировки остального. В лоре не просто так их выкинули. Файнтюн - это не тоже самое что тренировка с нуля.
> по времени
Всего раза в два.
Аноним 27/07/23 Чтв 16:24:15 #121 №431277 
image.png
>>431152
Спасибо, действительно всё дело было в = сразу после lr_scheduler_args. Причём я его добавил потому что изначально без него не работало. Короче весь день копался даже в коде, а в итоге ларчик-то просто открывался.
Если кому интересно, вот что нужно написать для кривой как на пикриле:
$run_parameters += " --lr_scheduler_type=$scheduler --lr_scheduler_args T_0=$T_0 T_mult=$T_mult eta_min=$eta_min "
Аноним 27/07/23 Чтв 16:25:58 #122 №431281 
>>431277
Где $scheduler = CosineAnnealingWarmRestarts, естесна
https://www.kaggle.com/code/isbhargav/guide-to-pytorch-learning-rate-scheduling тут крч больше инфы
Аноним 27/07/23 Чтв 16:29:43 #123 №431291 
>>431122
> через скрипт анона несколько параметров --lr_scheduler_args?
Это какой?
Вообще все также как и с аргументами оптимайзера, вечером могу пример скинуть, только ты укажи полные параметры что пускаешь чтобы проверить как работает.
>>431152
> несмотря на свои размеры файла в 2.5 мб, но и стиль и персонажа не до конца запоминает, в отличии от локона.
Концепты не пробовал тренить?
>>431184
> для шизов, экономящих 50 мб места на диске
Поддвачну, хотя есть нюансы, обучение идет по-разному
> А ещё локоны очень плохо работают в паре с другими локонами, лору так никогда не запидорасит
Индвидуально что там что там
> есть всегда топовый вариант - DyLora
Показывай примеры
Аноним 27/07/23 Чтв 16:47:23 #124 №431329 
>>431238
> У дилоры на ранге 128 файл 300 мб.
У меня точно такой же размер получился с добавлением 128 ранга локона.
> Вообще тренировка лоры на больших датасетах совсем не то что тренировать персонажа на 50 пикчах. Персонажа или стиль действительно хоть на чём можно на похуе сделать.
Да я понимаю, что с большими датасетами уже и грамотная сегментация нужна с отфильтровкой и тегать придётся более тщательно. Вот только лора как раз и существует для чего то более простого, чтобы на похуях сделать не нагруженную кучей концептов модель.
> Которые очень легко ломаются оверфитом и ты не можешь это контролировать вообще никак в отрыве от тренировки остального
Опять же сколько не пытался перетренировать до жути, с локоном намного сложнее это сделать.
> В лоре не просто так их выкинули. Файнтюн - это не тоже самое что тренировка с нуля.
А зря как по мне, с ними лучше получается. Вот только лора вообще из трансформеров насколько я помню пришла, и видимо лучшей практики использования здесь и не было. А с нуля тренить это вообще не про лоры, тут уже и реги понадобятся ведь.
> Всего раза в два.
В два раза тут, в два раза там, в 3-4 раза от XL и вот уже аниме девочка запекается полтора часа на 4090.

>>431277
>>431281
Кстати где то вот тут есть чуть более интересная версия этого шедулера >>342124 →

>>431291
> Концепты не пробовал тренить?
Тебе опять хвосты важнее? Я поинтереснее вещь нашёл для концептов, вот думаю попробовать на чём нибудь https://github.com/p1atdev/LECO
Аноним 27/07/23 Чтв 16:53:23 #125 №431335 
>>431329
> https://github.com/p1atdev/LECO
> erasing
Забавно, ну и реализация с весом -1 показательная. Интересно как оно будет работать если чего-то изначально не было?
> опять
Always has been, но другого интереса не отменяет.
Там кстати некоторые результаты есть, думаю еще поиграюсь с параметрами и отпишу.
Аноним 27/07/23 Чтв 16:56:15 #126 №431339 
>>431329
> лора как раз и существует для чего то более простого, чтобы на похуях сделать не нагруженную кучей концептов модель
С лорой можно датасет разбить на категории, а потом каждую тонко примержить по слоям. Литералли с одного захода делается если автотегер нормальный, в отличи от полноценного файнтюна, когда хуяк и всё запорото.
Аноним 27/07/23 Чтв 17:00:47 #127 №431343 
>>431238
> У дилоры на ранге 128 файл 300 мб
>>431329
> точно такой же размер получился с добавлением 128 ранга локона
Очевидно что удвоенная величина будет почти равна сумме ее с рядом младших степеней двойки
>>431238
> тренировка лоры на больших датасетах
Для чего это делаешь и что хочешь получить?
Аноним 28/07/23 Птн 21:30:06 #128 №432853 
>>431343
> Очевидно что удвоенная величина будет почти равна сумме ее с рядом младших степеней двойки
Ты про 128+64+32...? Энивей это
> > У дилоры на ранге 128 файл 300 мб
Пиздёжь, я проверил без конв слоёв, чисто ради теста одну эпохе с одним параметром unit кохьевской реализации, она весит как и обычная с 128 рангом.

>>431339
> С лорой можно датасет разбить на категории, а потом каждую тонко примержить по слоям.
Слои искать затронутые ведь тоже долгое занятие.
Аноним 29/07/23 Суб 02:13:51 #129 №433215 
Кто-нибудь может помочь по этому вопросу? Как сами чинили? >>433206 →
Аноним 29/07/23 Суб 15:02:39 #130 №433869 
Обучил лору для SDXLчерез Kohya-ss gui, на 128 dim получил файл ~800Мб против ~140Мб для SD 1.5 при тренировке скриптами онли.

Я что-то сделал не так? Для gui нужны дополнительные шаг чтобы уменьшить вес или это SDXL виноват?
Аноним 29/07/23 Суб 23:01:29 #131 №434570 
>>433869
Для SDXL это норма.
Можешь уменьшить там же в гуе, или через консоль. Сделай несколько штук 64/32/16/8 и выбери какая устроит. На цивитае вообще лоры на SDXL выкладывают в Dim 256 по 1.7 гига.
Аноним 29/07/23 Суб 23:10:00 #132 №434582 
>>434570
Да я то уменьшил.. Хотя надо попробовать еще сжать. Просто думал что-то упускаю.
А лоры в гигабайтах это пиздец
Аноним 30/07/23 Вск 22:47:32 #133 №436125 
Кто успешно для XL лоры тренил скажите свои настройки.
У меня хрень странная, если выбираю размер 768 то результат весьма неплох, если с точно такими же настройками обучаю уже на 1024 то какая-то говнина полная выходит.

>>433869
У ХЛ же параметров больше раза в 3, соответственно и лора будет тяжелее. Но и слоев ей надо меньше для схожих результатов. На 1.5 у меня локон на 64\32 а на хл уже хватает 16\8.
Аноним 30/07/23 Вск 23:12:07 #134 №436167 
>>436125
> слоев
Ранг лоры - это не количество слоёв. У лоры всегда фиксированное количество слоёв. Если специально не отключал тренировку конкретных.
> хватает
Потому что 1.5 и XL должны с разными lr тренироваться. Ты отсюда можешь сделать вывод лишь о том что на 1.5 у тебя проёб по lr.
Аноним 30/07/23 Вск 23:24:14 #135 №436185 
>>436167
>Ранг лоры - это не количество слоёв
А что тогда этот dim означает?

>на 1.5 у тебя проёб по lr.
Получается у меня и 96% гайдов. Как фиксить?
Аноним 30/07/23 Вск 23:39:53 #136 №436211 
>>436185
> 96% гайдов
Все эти гайды писались шизами, тренирующих персонажей на 30 пиках с диким lr до оверфита и потом ставящих вес 0.4 для лоры. Естественно таких слушать не стоит. Если они получили хоть какой-то результат это ещё ничего не значит, обезьяна тоже может палкой постучать и что-то получится.
Аноним 30/07/23 Вск 23:53:43 #137 №436233 
>>436211
>Как фиксить?
Аноним 31/07/23 Пнд 00:32:59 #138 №436280 
>>436125
Запустил обучение лоры для SDXL на тех же настройках и датасете что и для SD1.5, все завелось нормально.
Получил лору 128dim в 800Mb, там же в кохе ужал по 128dim на дефолтных настройках и получил 180Mb
Аноним 31/07/23 Пнд 01:04:16 #139 №436311 
>>436167
> Если специально не отключал тренировку конкретных.
Оно же просто тогда зануляться будет, не? И как отключить обучение конкретных (кроме клипа офк), про послойное применение только слышал.
>>436185
> что тогда этот dim означает
Когда тренишь модель у тебя подбираются значения огромной матрицы, которая описывает веса взаимодействий между нейронами, если упрощенно описывать. Эта веса - основной объем модели. Лора - тренировка нескольких матриц с размером dim x исходная размерность, которые при перемножении друг на друга дадут полную матрицу. Офк это сжатие с потерями, но для типичных задач с учетом особенностей работы нейронки работает хорошо, в ней хранится не сами веса а смещения к ним для получения нужного.
>>436211
Поведай как надо
Аноним 31/07/23 Пнд 10:57:11 #140 №436578 
на 12G vram можно лоры для SDXL обучать? или не хватит?
Аноним 31/07/23 Пнд 12:16:26 #141 №436660 
>>436578
Я на 8 обучаю
Аноним 31/07/23 Пнд 13:05:03 #142 №436706 
>>436660
ну и как, нравиться то что получается? ты тестил свои датасеты 1.5 vs XL ?
Аноним 31/07/23 Пнд 13:19:34 #143 №436730 
03170-2687414663-small city street , arcane,loraarcan120.7.jpg
>>436706
Я ток 2 дня назад это обнаружил, пока что тестирую. На 768 результаты довольно неплохи, на 1024 хуже и явно видно что надо настройки крутить.
Пока что тестирую тот же датасет который использовал для 1.5, для 1024 его пропустил через самый удачный апскейлер.
Аноним 31/07/23 Пнд 21:32:47 #144 №437934 
Как можно заставить SD запомнить информацию из одной картинки при генерации второй? Допустим на пикче есть лицо, я хочу сгенерировать вторую пикчу но контролнетом изменить позу персонажа при этом сохранив лицо в целом, или сгенерировать ему такие же ботинки, это можно как-то сделать? Вроде txt2vid умеет что-то подобное.
Аноним 31/07/23 Пнд 22:10:19 #145 №438031 
Тот момент, когда тренируешь лору и в датасете есть голый персонаж, но стоит написать в промте Топлесс или no bra и вероятность увидеть грудь становится 1 к 10 :(
Опять переделывать датасет..
Аноним 31/07/23 Пнд 22:17:15 #146 №438056 
>>438031
Так тегай нормально, а не всяким говном типа файнтюнов BLIP. В описании должно быть нормально прописано что происходит, а не просто бессвязная гора кривых тегов.
Аноним 31/07/23 Пнд 22:20:18 #147 №438064 
>>438056
Я таггером тэгаю, все нормально. Надо добавить артов
Аноним 31/07/23 Пнд 22:20:44 #148 №438065 
SD можно запустить на видюхе без актуальной куды, или в таком случае только проц?
Аноним 31/07/23 Пнд 22:30:50 #149 №438082 
>>437934
- Roop
- img2img inpainting / sketch

>>438065
не актуальная это какая? люди на 1070 генерят нормально, у самого дрова 528
Аноним 31/07/23 Пнд 23:17:26 #150 №438189 
>>438064
> таггером
Так ты бы хоть нормальную мультимодалку взял, а не непонятный кал от васянов-анимешников.
Аноним 31/07/23 Пнд 23:32:10 #151 №438212 
>>438189
Например?
Аноним 01/08/23 Втр 12:06:39 #152 №438795 
>>438212
LLaVA, Llama-Adapter.
Аноним 01/08/23 Втр 12:37:26 #153 №438837 
image.png
А в чём проблема взять парочку Квадр прошлых поколений и запилить на них кластер для вайф? Их специально делали под вычисления, они дешевле, у них много памяти при относительно низкой цене.
На них софт что-ли не пишут?
Аноним 01/08/23 Втр 12:42:46 #154 №438839 
>>438795
Окей, но его надо тренировать. Есть ли готовые модели?
Аноним 01/08/23 Втр 12:43:45 #155 №438840 
>>438837
У них много памяти, но чип говно. Плюс пока с поддержкой нескольких карт все довольно плохо
Аноним 01/08/23 Втр 12:55:20 #156 №438851 
>>438837
Чел вроде пробовал паскали - работает, но перфоманс слабоват. Что-то новее дороже условной 3090, если найдешь хороший вариант то вполне тема.
Аноним 01/08/23 Втр 20:32:56 #157 №439629 
Приветствую, возможно не в тот тред пишу, перенаправьте если не прав.

Пишу нейронку, LTSM, ее цель - смотреть на текущую свечу и определять, пойдет ли цена вверх или вниз. Столкнулся со следующими проблемами: при трех - пяти слоях (по 10-100 нейронов в каждом) и 70.000 строк для обучения, выходит 51%-55% accuracy, при таком же количестве слоев и нейронов, но с примерно 300 строчками, получается 65%. Пробовал делать датасет еще больше: 500.000 строк и 14 параметров (против 70.000 и 5), accuracy падает до 53%, но более стабильна в процессе обучения. При большей дате пробовал делать больше слоев и нейронов (максимум - 5 слоев по 1024 нейрона), но чем больше становилась сетка, тем хуже результаты.
Скажите пожалуйста, что я делаю не так? Неужели надо тренировать нейронку на очень малом датасете? Может просто ебануть 100500 нейронов и слоев и молиться пока оно три дня обучается?
Аноним 01/08/23 Втр 20:44:10 #158 №439642 
>>439629
>LTSM
Вот это. Сетки для трейдинга смотрят на прошлое, как и индикаторы теханала.
И асло это тред про картиночки
Аноним 01/08/23 Втр 20:48:16 #159 №439648 
>>439642
Можешь пояснить подробнее в чем проблема? LTSM вроде для этого используют + я скармливал для тренировки достаточно много данных, 4 года вроде как.

И если есть специальный тред для того что я пишу - перешли пожалуйста, я не нашел
Аноним 01/08/23 Втр 20:53:11 #160 №439653 
>>439629
Здесь с чем-то подобным ебались >>385611 (OP)
Аноним 01/08/23 Втр 20:54:48 #161 №439654 
>>439648
Дело в том, LSTM учится по прошлым данным прогнозировать следующие данные. Для рынка это все равно что индикатор, типа EMA. Она не будет давать большой точности потому что рынок постоянно меняется, а данные 4 года назад уже не актуальны.
Аноним 01/08/23 Втр 20:55:57 #162 №439655 
>>439629
Чел, очевидно же что данные говно. Чем больше наваливаешь этого говна, тем хуже. Оно учится предсказывать по статистике, но статистика полностью неверна. А на минимальном датасете получаешь что-то чуть лучше рандомного результата. Ты так никогда вменяемого результата не получишь, если у тебя нет каких-то внешних данных кроме свеч.
Аноним 01/08/23 Втр 21:00:23 #163 №439660 
>>439629
какой таймфрейм у свеч? может не надо на 5 секундных её обучать?)
Аноним 01/08/23 Втр 21:12:08 #164 №439687 
>>439653
Да, только там тред умер

>>439654
Да, рынок нехорошо таким образом пытаться предсказать, но был же случай когда нейронки определяли расу человека по рентгену, может и на рынке есть какие-то, недоступные людям, закономерности.

>>439655
А чем они говно, не очень понимаю. В датасете где 500.000 строк, используются 3 индикатора, причем на 15, 60, 240 -минутном таймфрейме. Пробовал еще просто количеством раньше (10 индикаторов на 70.000 строк, результат 50%-53%)

>>439660
15 минут, можно и на 5 секундах попробовать, не понимаю как это поможет правда
Аноним 01/08/23 Втр 21:19:20 #165 №439702 
>>439687
> чем они говно
Тем что статистика не работает, чел. Ты учишь сетку предсказывать по прошлым данным, но эти данные не верны. Дроч с индикаторами - это уровень похода в казино, лучше сходи на ставки. Ты реально думаешь что один такой умный и можно просто взять и предсказывать по истории как оно будет изменяться?
Аноним 01/08/23 Втр 21:24:19 #166 №439715 
>>439687
Если бы раса менялась так же как данные рынка, то у нас бы были эльфы, кошкодевочки и рептилоиды. Даже при налиции циклов и закономерностей, данные больше пары месяцев уже не актуальны
Аноним 01/08/23 Втр 21:27:15 #167 №439720 
>>439702
что значит "не работает"? Статистика не нужна же для закручивания гаек, она не может работать или нет. Что ты имеешь ввиду?
Почему данные не верны? API бинанса как то их искажает или в формате .cvs есть систематические проблемы какие то? Опять же поясни пожалуйста, я не понимаю тебя.
Да, я понимаю что не один такой умный, понимаю что наверняка пальцем в небо было бы примерно так же, но должен же наверняка быть способ сделать хотя бы 60% правильности предсказаний, этого уже будет достаточно

>>439715
Почему именно пары месяцев? Почему они перестают быть актуальными?
Аноним 01/08/23 Втр 21:31:27 #168 №439726 
>>439720
Потому что у условной компании выходит квартальный отчет, все ждали что будет хорошо и тарили, а там плохо. Или хорошо, но все просто начали разгружаться на факте.
Потому что изменили ставку ЦБ и для банков изменилась прибыльность
Потому что в Америке/Европе холодно/жарко и газ подорожал, поставщики получили прибыль..

Слишком много факторов, чтобы делать предсказания на основании одного только графика
Аноним 01/08/23 Втр 21:31:59 #169 №439727 
>>439720
> она не может работать или нет
У тебя статистическая модель, а ты пытаешься предсказывать погоду в Химках по количеству говна в лотке у кота.
Аноним 01/08/23 Втр 21:35:24 #170 №439731 
>>439726
да, поэтому я поставил еще индикаторов на разных таймфреймах, но твою мысль понял, попробую сделать более подробный датасет на меньшем временном интервале.

>>439727
Ну нет, все таки говно в лотке и погода вообще не связаны, а данные рынка с рынком связаны, да и даже если нет, то как объяснить тот случай с определением расы?
И все таки почему данные не верны или что ты имел ввиду под этим?
Аноним 01/08/23 Втр 21:36:38 #171 №439732 
Протестил 2070с - 1.45. У 3070ти всего 2. Пиздец, думал намного лучше будет
Аноним 01/08/23 Втр 21:37:01 #172 №439733 
>>439731
Индикаторы не добавляют полезной информации, они строятся по тем же данным свечей. Грубо говоря сетка сама должна понять закономерности, если они есть.
Аноним 01/08/23 Втр 21:38:45 #173 №439738 
>>439733
Понял тебя, что кроме индикаторов можно добавить?
Аноним 01/08/23 Втр 21:39:58 #174 №439740 
>>439731
> данные рынка с рынком связаны
Это как ещё? Изменения рынка никак не связаны с историей этих изменений.
Аноним 01/08/23 Втр 21:42:22 #175 №439742 
>>439740
Ну история происходит от изменений, а корреляцию в обратную сторону придумает нейронка
Аноним 01/08/23 Втр 21:42:51 #176 №439744 
>>439738
А ничего больше и нет. Только отчеты, новости и другие котировки (индексы, цены товаров, фьючерсы, опционы..)
Аноним 01/08/23 Втр 21:44:18 #177 №439747 
>>439744
печально, все равно спасибо
Аноним 01/08/23 Втр 21:44:32 #178 №439748 
xyzgrid-0075-2509634738.png
Больше всего в тренировке лор мне не нравится выбор конечного варианта.

Алсо ныжно ваше мнение. Сам выбираю между V2 и V2C
Аноним 01/08/23 Втр 21:51:32 #179 №439762 
>>439748
V2C однозначно лучший вариант
Аноним 01/08/23 Втр 22:04:13 #180 №439782 
xyzgrid-0083-1810993992.png
xyzgrid-0077-2825016281.png
>>439762
Все не так одназначно:(
Аноним 01/08/23 Втр 22:47:28 #181 №439852 
>>439731
>то как объяснить тот случай с определением расы?
Негры делали снимки в бомж районах на старом оборудовании, а белые люди на современном, и снимки сильно отличались по качеству. Мыло? Негр.
Я слегка адаптировал похожий случай, когда нейросетка определяла болезнь по тому, что в больнице снимки делал другой аппарат, лол.
Аноним 01/08/23 Втр 23:22:08 #182 №439905 
>>439748
В графике с разным весом ноль смысла, оставляй 0.9 или 1 и увеличь число батчей чтобы сравнивать по нескольким пикчам а не одной. Также попробуй разный фон, разные ракурсы, разную одежду.
Аноним 01/08/23 Втр 23:35:49 #183 №439931 
>>439905
Да, я так и делаю.
Сначала смотрю какой вес лучше, чтобы не было корявых картинок на ~1.
Аноним 02/08/23 Срд 00:33:17 #184 №439990 
>>439852
Интересно вышло, спасибо за ответ
Аноним 02/08/23 Срд 02:46:21 #185 №440110 
А чем концептуально отличается принцип работы миджорней от stabe diffusion?

В sd я наблюдаю что изображение постепенно проявляется из рандомной каши пикселей, в мж проявляется из черного фона. Это я верно заметил?
Аноним 03/08/23 Чтв 14:10:46 #186 №442437 
Аисачеры, есть разница между 7 повторами и 10 эпохами VS 25 повторов и 3 эпохи? Результат при 1500 шагах и там и там одинаковый должен получиться?
Аноним 03/08/23 Чтв 16:30:15 #187 №442601 
>>442437
710=70, 253=75, во втором случае будет дольше обучение.
Есть факторы что повлияют, но обычно их проявление на уровне рандома сида. В 10 эпохах легче вытащить вариант до запекания, а в трех последняя может оказаться пережаренная а предпоследняя - полусырая. Больше 10 смысла нету, но есть любители делать десятки-сотни, может они расскажут зачем и чего так можно достичь.
Аноним 03/08/23 Чтв 18:52:35 #188 №442759 
>>442601
ну я тестил и в принципе меня устраивает 25x3, но хотелось бы 7x10 и чтобы он последние три сохранил, а не создавал кучу файлов
Аноним 03/08/23 Чтв 19:09:02 #189 №442783 
>>442759
> чтобы он последние три сохранил
--save_last_n_epochs
Аноним 03/08/23 Чтв 19:33:22 #190 №442818 
00039-1217016519.png
>>442783
спасиб!
Аноним 04/08/23 Птн 01:20:52 #191 №443340 
а как делать лору с тригерр словом? это тупо в тегах только одно слово использовать?
Аноним 04/08/23 Птн 01:25:37 #192 №443345 
>>443340
Я в промте датасете первый токен использую
Аноним 04/08/23 Птн 02:13:31 #193 №443390 
>>443345
да я походу разобрался, все у питонистов через жопу сделано, вроде как название папки "15_model trigger_word" делается

вот видосик в тему кстати https://www.youtube.com/watch?v=kimxha0wTbY, как промтовые и триггер слова по разному работают, в теории тригер слово надо чтобы избежать перекрытия токенов в самой модели, но я слабо понимаю почему бы уникальное слово не использовать в датасете
Аноним 04/08/23 Птн 02:39:41 #194 №443419 
>>443340
Просто добавляешь этот тег с текстовое описание пикч, можно на первое место поставить. Например, имя персонажа, если его модель не знала то будет запомнено, если было - будет трактовать по-новому.
>>443390
> вроде как название папки "15_model trigger_word" делается
В тренере кохи название папки будет браться в качестве единственного тега только если к пикчам отсутствует текстовые описания, иначе игнорируется.
> но я слабо понимаю почему бы уникальное слово не использовать в датасете
Его и нужно использовать, и в экспериментах на видео наиболее адекватное поведение у 3й версии где триггер-слово было плавно встроено в общее описание к пикче. С одним тегом еще будет обучение страдать, что видно по результатам соответствующих лор в видео, хотя оно не самое показательное, непонятно что в датасете и насколько оптимальны параметры обучения.
Аноним 05/08/23 Суб 10:12:46 #195 №444502 
Вчера был установлен Roop, для SDWebui, отработал несколько генераций в txt2img, и все было благополучно.

Сегодня при генерации любого изображения, вне зависимости от модели, использования/неиспользования Roop и режима (txt/img2img), возникает ошибка:

Traceback (most recent call last):
File "F:\SDwebui\stable-diffusion-webui-master\venv\lib\site-packages\gradio\routes.py", line 337, in run_predict
output = await app.get_blocks().process_api(
File "F:\SDwebui\stable-diffusion-webui-master\venv\lib\site-packages\gradio\blocks.py", line 1013, in process_api
inputs = self.preprocess_data(fn_index, inputs, state)
File "F:\SDwebui\stable-diffusion-webui-master\venv\lib\site-packages\gradio\blocks.py", line 911, in preprocess_data
processed_input.append(block.preprocess(inputs))
File "F:\SDwebui\stable-diffusion-webui-master\venv\lib\site-packages\gradio\components.py", line 1492, in preprocess
im = processing_utils.decode_base64_to_image(x)
File "F:\SDwebui\stable-diffusion-webui-master\venv\lib\site-packages\gradio\processing_utils.py", line 53, in decode_base64_to_image
content = encoding.split(";")[1]
IndexError: list index out of range

Сталкивался ли кто, есть ли идеи как исправить эту ошибку?
Аноним 05/08/23 Суб 10:26:42 #196 №444505 
>>444502
Усиленный гуглинг помог решить проблему.

Нужно создать папку с именем gradio в C:\Users\%юзернейм%\AppData\Local\Temp\

Вдруг будет кому полезно
Аноним 05/08/23 Суб 14:29:47 #197 №444662 
Собираюсь стать боярином с 4080 (пересаживаюсь с 2070).

Какие подводные?
С полгода назад (или больше уже?) была какая-то ебля со сборкой компонентов из исходников ради значительного повышения производительности - это решили?
Аноним 05/08/23 Суб 15:07:32 #198 №444727 
Двач, помоги.
Работаю с СД через runpod, раньше все было прекрасно и я был доволен как слон, но в последнее время заебала ошибка CUDA out of memory. На карте в 24 гб не вывозит больше 1200 px, один раз даже 500х500 отказывался, на карте в 48гб картинку в 800х1500 еле генерирует и тормозит. Пробовал по советам с реддита удалять процессы python launcher и webui через терминал, но это то помогает, то нет. Что делоть? Я не айтишник, вот совсем.
Аноним 05/08/23 Суб 15:30:09 #199 №444748 
>>444662
> Какие подводные?
16гб врам вместо возможных 24х. В остальном все ок, быстро работает из коробки даже в кохе, второй торч с кудой 118 сейчас уже везде.
>>444727
Подробнее распиши что и как запускаешь, обычный sd-webui автоматика или что-то еще? Как там вообще организовано, тебе дается виртуалка с линуксом или что?
Аноним 05/08/23 Суб 15:44:19 #200 №444758 
>>444748
Да, обычный, облако с линуксом, Jupyter Notebook, запускаю готовый шаблон SD.
Аноним 05/08/23 Суб 15:52:04 #201 №444762 
>>444758
> запускаю готовый шаблон SD
Похоже в этом проблема, реально для 48 гигов (если речь о чем-то типа а6000 ада без преимуществ в мощности чипа) нет задач, 6 мегапикселей помещается в 24 гига, если нужно больше - хватает tiled vae.
Проверь чтобы устанавливалась нормальная версия, запускалась с xformers и вся врам действительно была доступна изначально ( https://stackoverflow.com/questions/58216000/get-total-amount-of-free-gpu-memory-and-available-using-pytorch )
Аноним 05/08/23 Суб 16:03:00 #202 №444772 
>>444762
Ладно, спасибо, буду пытаться думать
Аноним 05/08/23 Суб 16:44:10 #203 №444819 
tmpiek4b3f3.png
> LoHa Теоретически должен давать лучший результат при тренировках с датасетом в котором будет и персонаж и стилистика одновременно.

ммм чет залупа какая то
14k шагов, вверху LoCon, внизу LoHa
Аноним 05/08/23 Суб 17:18:35 #204 №444851 
>>444748
>16гб врам вместо возможных 24х
4090 просто для моих повседневных задач шибко оверкилл.

Думал вообще 4060ti новую взять и не париться, но комп чота старый уже, плюс продать его есть кому... Решил обновиться в итоге.

>второй торч с кудой 118 сейчас уже везде.
Эт хорошо. Значит, на новую систему ставлю гит, ставлю питон, копирую текущую папку вебуя - и оно работает, так? Или для уверенности венв убить, и пусть перекачает?
Аноним 05/08/23 Суб 17:23:45 #205 №444856 
>>444851
4080 вполне солидный вариант, с ним посоперничать может 3090(ти) но особенно в обычной встречаются проблемы с температурой памяти плюс это не новье со всеми вытекающими. Но аппетит приходит во время еды, и если увлечешься - потом будешь ныть что не доплатил.
> Значит, на новую систему
На новой системе - гит клон, лоры-модели-эмбединги копируешь, если лень настройки выставлять - еще config.json. Ультимативный вариант, делается быстро, если что старую папку не убивай - будет бекапом.
Аноним 05/08/23 Суб 17:40:46 #206 №444870 
>>444819
Чел, LoHa будет всегда хуже даже обычной лоры. Сопоставимые результаты можно получить только на ультрамелком датасете и низком ранге.
Аноним 05/08/23 Суб 17:43:01 #207 №444872 
>>444856
>Но аппетит приходит во время еды, и если увлечешься - потом будешь ныть что не доплатил.
Он уже пришел =)
Запарило в 8 гигов моей 2070 упираться, а тут сразу двойной прирост, красота будет.
Тренить свои чекпоинты не планирую все равно, на остальное 16 гигов должно хватить.
Сколько вообще мегапикселов в 16 гигов лезет? на 8 лимит ~1.3, и это если без лор и контролнета.
Аноним 05/08/23 Суб 17:48:08 #208 №444875 
>>444872
В 24 лезет около 6, тут будет 3.5-4, с костылями больше. Зависимость чуть не пропорциональна потому что в любом случае у тебя сколько-то отожрут веса и прочие компоненты. Вообще с учетом tiled vae должно хватить на все, но на горизонте sdxl а у нее требования больше и там уже 12-гиговые начали волноваться.
Если это верхний порог бюджета и уже все резервы выбраны - бери, вариант хороший.
Аноним 05/08/23 Суб 17:59:31 #209 №444880 
>>444875
>но на горизонте sdxl
Так и не понял особо ее преимуществ, если честно.
Пальцы хоть нормально рисовать будет?
Аноним 05/08/23 Суб 19:49:54 #210 №444950 
изображение.png
>>444880
Ахаха.
Поставил эту штуку, и тупо на загрузке автоматика со включенной модель - пикрил.
Это что вообще?
Аноним 05/08/23 Суб 19:56:24 #211 №444957 
00009-3269961917.png
Почему Lora на SDXL так медленно тренится? 2000 шагов 11 часов, на SD 1.5 с таким же количеством занимает 20 минут ЧЯДНТ?
Аноним 05/08/23 Суб 20:14:00 #212 №444974 
>>444880
> Пальцы хоть нормально рисовать будет?
Да (нет)
>>444950
> Это что вообще?
> там уже 12-гиговые начали волноваться
Голая прунед модель овер 6 гигов весит если что.
Аноним 05/08/23 Суб 20:24:31 #213 №444985 
>>444950
Поставь ComfyUI, Автоматик пока сосет по памяти
Аноним 05/08/23 Суб 20:29:11 #214 №444995 
>>444985
Ради одной этой модели? Лень.

>>444974
Ну зашибись теперь.
Не зря комп апгрейдить собрался.
Аноним 05/08/23 Суб 20:57:04 #215 №445045 
>>444995
>Не зря комп апгрейдить собрался.
Заранее заготовь ответ консультанту, который будет охуевать от железа, мол, беру аниме тянучек создавать да на тексты дрочить.
Аноним 05/08/23 Суб 21:48:14 #216 №445114 
>>445045
Да я уже оплатил. Он ничего не спросил.

Наверное, по моему внешнему около-хикканскому виду и так всё понял.
Аноним 05/08/23 Суб 22:20:11 #217 №445146 
А что дает clipskip?
Аноним 05/08/23 Суб 22:24:48 #218 №445155 
>>445146
Скипает клипы вестимо.
Аноним 05/08/23 Суб 22:25:24 #219 №445156 
>>445155
Зачем?
Аноним 05/08/23 Суб 23:02:26 #220 №445209 
>>445156
Для некоторых моделей есть пара лишних, которые лучше скипать. В основном аниме модели и скипают 1 слой (настройка на 2).
Аноним 05/08/23 Суб 23:05:28 #221 №445210 
Есть один художник, у него 400 артов.
Я хочу скопировать его стиль. Я закинул его арты в папку, раздал им веса, выставил тег
artist_name_style
Получил лору. Так вот, лора превосходно копирует его стиль рисования и цвета, но есть одно но: лора почему-то иногда рисует body horror — то две попы на теле, друг над другом, то фистинг по локоть то 2 пары рук, как у Горо.
Вопрос: можно ли мне нагенерить лорой очень много артов, затем вытащить из них арты с боди-хоррором, сложить в папку с первичными рисунками и выставить боди-хоррор теги на сгенерированных артах — чтобы потом через негативный промпт "лишние конечности" и прочее удалять такие арты из выдачи (а не фильтровать самому)?
Аноним 05/08/23 Суб 23:06:21 #222 №445212 
>>445210
переформулирую: можно ли удачную/неудачную выдачу добавлять к первичному дата-сету и обучать заново?
Или SD-лоры/модели нельзя обучать на выдаче SD,
Аноним 05/08/23 Суб 23:15:40 #223 №445226 
>>445212
Экспериментируй, хули там. Можешь ещё в регуляционные картинки залезть.
Аноним 05/08/23 Суб 23:21:56 #224 №445231 
>>445210
> лора почему-то иногда рисует body horror — то две попы на теле, друг над другом, то фистинг по локоть то 2 пары рук, как у Горо.
Даже до хайрезфикса?
Аноним 05/08/23 Суб 23:30:56 #225 №445240 
>>445210
Просто потренируй с другими параметрами, такое обычно происходит при пережарке некоторых слоев. 400 пикч врядли будут однообразны, для начала поиграйся с параметрами тренировки, посмотри что на разных эпохах и т.д.
Также можешь попробовать в послойное применение лоры вычисляя экспериментально, но это попытка снять симптом а не причину.
> выставил тег
Тег один или к полноценным тегам добавил имя художника?
Аноним 05/08/23 Суб 23:37:04 #226 №445244 
>>445240
>послойное применение лоры
Для этого же есть расширение название которого я забыл
Аноним 05/08/23 Суб 23:52:37 #227 №445263 
>>399707 (OP)
я не понял, прошла неделя а контролнета для С-Д-ИКС-ЭЛЬ так и нет. кто за вас это делать будет, хули вы тут волов пинаете?
Аноним 05/08/23 Суб 23:53:39 #228 №445265 
>>445263
Нахуй нужен, рисобака?
Аноним 06/08/23 Вск 00:14:36 #229 №445290 
>>445210
Бодихоррор обычно возникает, когда ты пытаешься заставить нейронку генерить картинку в слишком большом разрешении.
В результате нейронка генерит часть картинки, потом переходит на другую часть - и генерит ее заново, а потом пытается всё "сшить".
Отсюда всякие кентавры лезут.
Уменьшай базовое разрешение генерации, 800х600 - это почти предел стабильности сейчас (ну, за пределами SDXL). Всё, что выше - либо хайрезфиксом, либо апскейлом через и2и.

Другой вариант - на артах в обучении были картинки с несколькими персонажами (особенно в сложных взаимодействиях), и ты это соответствующим образом не протэгал. В итоге и получается 1girl с четырьмя руками и двумя головами.
Аноним 06/08/23 Вск 00:39:17 #230 №445327 
00001-506175418.png
>>444502
Появилась новая проблема: при генерации с использованием Roop (который сейчас переименовался в ReActor), генерируется со всеми моделями что-то в духе пикрила. При этом, та же самая картина при генерации уже без Roop, будто весь SD сломался. Используется Automatic1111. Обновление плагина не помогло.

В командной строке, сначала заполняется ползунок генерации до 100%, потом перед ним появляются две строчки:

00:17:16 - ReActor - STATUS - Working: source face index [0], target face index [0]████| 16/16 [01:03<00:00, 4.23s/it]
00:17:29 - ReActor - STATUS - No target face found for 0

Будто бы на картинке, откуда надо взять лицо, лица нет, но оно есть.
Кто сталкивался, как фиксить, кто знает?
Аноним 06/08/23 Вск 03:25:57 #231 №445490 
Пока я занимался раздеванием одноклассниц, у меня сформировался некий очень короткий алгоритм, дающий хороший (для меня) результат:
1. Берем фото, прогоняем через TopazPhotoAI, со всеми включенными пресетами. Если лицо одноклассницы достаточно крупно изображено на фото - все равно увеличение в 2 раза, это положительно влияет на конечный результат. Нет, через img2img результат похуёвее, мне не нравится.
2. Получившийся результат прогоняем через img2img на уровне Denoising strength 0,3-0,5 и выбираем самое годное.
3. Получившийся результат начинаем гонять через inpaint. Тут все стандартно: маску на лицо, Mask mode "not masked", Denoising strength "1", можно еще попробовать Masked content поменять.

Но чего я не решил - это дорисовка изображения таким образом, чтобы оно дорисовывалось только снизу например, или только слева, нувыпонели. Если тян мне нужна в полный рост а на фото только по грудь - приходится прогонять несколько интераций между Resize and fill и уменьшением фото & обрезкой ненужных сторон. Как сделать так, чтобы Resize and fill работал только вниз, например?
Аноним 06/08/23 Вск 09:28:02 #232 №445588 
>>445327
>Кто сталкивался, как фиксить, кто знает?
SD сломался. Ты сам ответил.
Аноним 06/08/23 Вск 09:30:04 #233 №445589 
>>445490
детайлером мама пользоваться не научила? Какие то лишние ненужные телодвижения.
Аноним 06/08/23 Вск 09:41:33 #234 №445596 
>>445589
Не учила, я методом тыка дохожу.
Аноним 06/08/23 Вск 11:09:49 #235 №445659 
>>445240
> Тег один или к полноценным тегам добавил имя художника?
боюсь, что тег один. так как руками 400 артов разметить анриал. художник не с данбурятника, а с фанбокса.
>>445231
> Даже до хайрезфикса?
я ещё не разу не видел, чтобы хайрезфикс делал что-то такое. да, без него.
>>445290
> в слишком большом разрешении
512x512 / 768x512 / 512x768
> на артах в обучении были картинки с несколькими персонажами (особенно в сложных взаимодействиях)
балин... да, так и было. мне поделить картинки на персонажей, где это можно, а на остальных — протегать?
Аноним 06/08/23 Вск 11:18:53 #236 №445667 
>>444957
Оптимизировал настройки, вместо 13 часов обучение заняло 5
Аноним 06/08/23 Вск 11:46:05 #237 №445696 
У кого то были ошибки при обучении лоры когда loss улетает в Nan или наоборот в 1? Я уже задолбался настройки крутить, оно то работает то нет.

>>445667
Что за видяха? 5ч на 2к шагов довольно медленно, у меня 2ч на 4к на 3070. Ну правда с проблемой выше.
Аноним 06/08/23 Вск 12:13:51 #238 №445726 
00028-1981665873.png
00030-3999058203.png
>>445696
У меня было 4000 шагов, видеокарта 3060. На редите многие жалуются что очень медленно обучение идет. В итоге получилось замыленное говно.
Аноним 06/08/23 Вск 12:43:03 #239 №445754 
>>445659
>так как руками 400 артов разметить анриал
Авто-таггеры используй. В автоматике расширение есть.

Качество порой сомнительное, иногда откровенно шизит, но все-таки лучше, чем в один-единственный тэг всё пихать.
Аноним 06/08/23 Вск 13:57:22 #240 №445824 
>>445659
> так как руками 400 артов разметить анриал
Автотегеры. Один тег для некоторых случаев может работать и в очень редких даже полезен, но с ним обучение всирается до ужаса, от того и весь бадихоррор.
>>445696
Что тренреруешь и с какими параметрами? Такое при дикой пережарке или битых пикчах в датасете происходит.
Аноним 06/08/23 Вск 15:03:31 #241 №445877 
>>445824
Locon, lr 0.0002-0,0004, alpha = dim. 50 картинок которые я пропустил через сетку чтоб придать стиль, на этот же стиль уже треню лору для хл.
Заметил что при повышении лр возникает чаще но вот вообще не стабильно, то на 0.0002 дохнет на 500 шаге то проходит весь процесс в 3к шагов без проблем.
Аноним 06/08/23 Вск 15:30:28 #242 №445890 
1. У меня датасет 768x768, если указать при обучении 512x512, картинки будут резайзиться или кропаться? kohya gui

2. Картинка была допустим 300x300 и при увеличении имеет заметную лесенку, есть ли смысл прогонять картинки через апскейлер и потом ужимать чтобы были ровные линии, или все равно при обучении?
Аноним 06/08/23 Вск 15:51:06 #243 №445908 
>>445890
множественный кроп. все части изображения попадут в обучение
Аноним 06/08/23 Вск 16:13:22 #244 №445934 
>>445908
Что-то мне всегда казалось, что там таки ресайз под определенное соотношение сторон, а не кроп.

Ибо я на абсурдресах тренил до 4к-6к разрешения - и получалось вполне себе. В случае кропа - что-то сомнительно, чтоб оно нормально натренилось.
Аноним 06/08/23 Вск 16:27:51 #245 №445957 
>>445908
это bucket надо включить?
хотя он вроде тупо резайзит под указанное разрешение https://github.com/kohya-ss/sd-scripts/blob/main/library/train_util.py#L936

а еще есть галка `Random crop instead of center crop`

чет намеков на множественный кроп я не нашел
Аноним 06/08/23 Вск 20:36:29 #246 №446267 
>>445877
Нейрота в датасете ухудшит результат. Сколько дим и батчсайз? Альфу убавь или снизь лр, многовато, у текстового энкодера поставь половину от юнета. Планировщик и оптимизатор какие?
Аноним 06/08/23 Вск 20:37:25 #247 №446270 
>>445890
Ресайзиться, если соотношение сторон странное то еще кропнется до ближайшего что стоит в настройках.
>>445908
Врунишка
Аноним 06/08/23 Вск 20:56:29 #248 №446300 
>>445957
> чет намеков на множественный кроп я не нашел
>>446270
> Врунишка

Епить. Неужели я всё это время понимал алгоритм неправильно? Ясно, понятно. Буду делать 1:1
Аноним 06/08/23 Вск 21:37:50 #249 №446365 
>>446267
Это для SDXL лора так что там нету ни батчей, ни обучения энкодера, планировщик естественно констант, другие жрут до жопы.
24 дим, 12 конво, адам обычный. На адафакторе та же дичь. Даже если альфу 1 поставить и немного лр задрать для компенсации.
Сейчас внезапно выяснил что продиджи довольно неплохо работает. В гайде был weight_decay=0.01 но у меня он тоже на 400 шаге ебнул, поставил weight_decay=0.1 и вроде самое то
Аноним 07/08/23 Пнд 05:34:56 #250 №446848 
Сделали ли какие-нибудь новые модели интеррогаторов за последние полгода?
Аноним 07/08/23 Пнд 09:38:37 #251 №446949 
>>446848
Зачем? Это говно изначально мертво было, все мультимодалки используют.
Аноним 07/08/23 Пнд 10:26:11 #252 №446965 
>>446949
Что?
Аноним 07/08/23 Пнд 10:28:16 #253 №446967 
1684967806110.png
>>446949
> все мультимодалки используют.
Раз это все используют, то должны быть уже готовые решения с пакетной обработкой и готовый чекпоинт, которых я вот не нашел. Линкани если есть. Демка с сайта ожидаемо обосралась инбифо: проблема навыка

мимо
Аноним 07/08/23 Пнд 11:23:25 #254 №446988 
>>446967
> booru tags
Буквально худший способ тегать пики. Хотя бы потому что текстовый энкодер SD лучше работает с осмысленными предложениями, а не набором бессвязных слов. В итоге получается что все пики протеганы говном типа "1girl, sitting", а базовые промпты типа позы или положения персонажа относительно окружения и камеры - почти нихуя не работают.
Аноним 07/08/23 Пнд 11:49:44 #255 №447015 
>>446988
>Хотя бы потому что текстовый энкодер SD лучше работает с осмысленными предложениями
И поэтому сосёт на персонажах, которые нужно указывать как два тега, а не как один через _, как это сделано на бурах.
Аноним 07/08/23 Пнд 11:57:12 #256 №447021 
>>446988
Лол. Ну опиши все детали в осмысленном предложении и чтобы оно тебя поняло. А учитывая что аниме модели тренировались на тегах данбоору, то это еще больший лол
Аноним 07/08/23 Пнд 12:06:02 #257 №447037 
>>446988
Тогда штоделоть?
>>447015
Брат, тоже генрируешь ковбоев по cowboy shot'у?
Аноним 07/08/23 Пнд 12:11:58 #258 №447047 
>>447021
>А учитывая что аниме модели тренировались на тегах данбоору, то это еще больший лол
А ещё мержи даже реалистик моделей содержат в прадедушках (или прабабушках?) какую-нибудь новел аи...
>>447037
>Брат, тоже генрируешь ковбоев по cowboy shot'у?
Не всё так плохо конечно, но определённое влияние есть.
Нужны мультимодалки, а не вот это всё с автоматом созданными тегами по частоте встречаемости.
Аноним 07/08/23 Пнд 12:25:30 #259 №447062 
>>446988
>а базовые промпты типа позы или положения персонажа относительно окружения и камеры - почти нихуя не работают.
Так они в принципе не работают даже на чистой SD, лол.
Аноним 07/08/23 Пнд 12:51:38 #260 №447082 
1655067916857.png
>>447015
> через _
Потому что это разделительный символ, энкодеру в целом похуй какой символ будет стоять между словами, они всё равно на этапе токенизации будут разделены и оно не будет восприниматься как цельное слово. Если в описании пикчи нормально написано что эту тян зовут так-то, то оно и будет нормально воспринимать её имя в любом формате.
>>447021
> Ну опиши все детали в осмысленном предложении и чтобы оно тебя поняло.
В чём проблема? Даже NAI понимает связь между словами в предложении, с миксах так вообще можно писать как при обычных генерациях. А вот когда гора тегов, то цвета и объекты всегда рандомно по пику раскиданы.
Аноним 07/08/23 Пнд 13:19:16 #261 №447122 
>>447082
>Потому что это разделительный символ
Но ведь нет...
>>447082
>то цвета и объекты всегда рандомно по пику раскиданы
А теперь угадай, почему у тебя боксы на картинке покрашены в blue.
Аноним 07/08/23 Пнд 13:35:38 #262 №447140 
1555658764173.png
>>447122
> нет
Пидора ответ.
Аноним 07/08/23 Пнд 13:37:22 #263 №447143 
1591240522526.png
1621419853710.png
1548976170007.png
1622063487263.png
>>447082
Пример красивый, но в нем все элементы окрасились в оттенки зеленого, боксы не очень то калоред, и главное то же самое достигается буру-стайл тегами с чуть более развернутым описанием.
ginger girl, blue eyes, sitting on the box, yellow boxes stacked, pink pyramid on top of head, full body
Negative prompt: (worst quality, low quality:1.3)
Важно указание понятного контекста а не просто спам в навал тем что может быть двусмысленно истрактовано.
Более того, с ними можно закладывать описанием больше деталей не делая странные предложения, что только спутают сеть, а взаимопроникновение может быть даже меньше чем натуральным текстом.
Если что не топлю за обязательное задание буру тегами, просто разбавляю твою радикальную позицию.

Еще важный момент что раз наи после столь интенсивной тренировки сохранила навык восприятия натурального промта, то почему тренинг лор буру тегами должен их испортить? Интересно сравнить с разным стилем теггинга на одинаковых параметрах
Аноним 07/08/23 Пнд 13:45:32 #264 №447157 
>>447143
> буру-стайл тегами
Но ведь у тебя не они, ты просто предложение разбил запятыми вместо грамматических связок...
У тебя буквально два тега в booru-стиле - blue eyes и full body.
Аноним 07/08/23 Пнд 14:01:39 #265 №447183 
>>447157
Подобное разбиение помогает модели, а "не они" потому что подобных для ситуации их просто нет. Как и описал, важно простое и понятное описание без двусмысленностей,
> pink pyramid on top of head
достаточно, потому что понятно что относительно чего, и использование чего-то типа
> pink, pyramid, object over head
сожрет не меньше токенов и будет иметь много трактовок. В то же время пилить натуртекст ради натуртекста - занятие того же уровня и не даст преимуществ в типичных ситуациях. Модель распознает структуру далеко не так хорошо как может показаться.

Возвращаясь к обучению - бурутеги (если нормально проставлены офк) вполне неплохо описывают главные атрибуты пикчи, что как раз важно для тренировки. Но если у тебя есть другие данные и с плейнтекстом все стабильно тренится лучше - покажи, будем делать так и благодарить.
Аноним 07/08/23 Пнд 14:52:43 #266 №447286 
E479AE2B-4001-4AED-BE6A-4BEC4D008E44.jpeg
C85E465F-A8D3-4375-97A0-40D60B622D52.jpeg
Аноним 07/08/23 Пнд 14:57:58 #267 №447292 
>>447140
Ну что ты копротивляешься? Видно же, что у тебя разные результаты, хотя это как бы разделители, которые должны как бы игнорироваться.
И да, я не хочу, чтобы _ было разделителем, и было бы лучше, если бы ото воспринималось как одно_слово.
Аноним 07/08/23 Пнд 15:03:44 #268 №447293 
>>447292
> разные результаты
В первый раз видишь смещение результата при изменении символов и порядка тегов?
Кмк идентичность восприятия при разных разделителях и поломка при написании слитно очевидно. А вообще еще с прошлого года известно что _ - пожиратель токенов и заменяем пробелом.
>>447286
Можно подробнее что за t2ia и что вообще на пикчах?
Аноним 07/08/23 Пнд 15:04:08 #269 №447295 
1690892767917.png
1625717479770.png
1610911545388.png
>>447183
> вполне неплохо описывают главные атрибуты пикчи
Но они не описывают их взаимосвязь.
> pink pyramid on top of head
Ты ведь такое только руками можешь написать, booru-таггеры в такое не смогут.
> покажи
Я все пики вот такими простынями тегаю, намного лучше чем написать 5-10 коротких тегов. Если надо на аниме треноровать, то можно с бур теги вкинуть в промпте, оно вычленит имена и самое важное, остальное выкинет.

Вообще есть очень простой способ протестить качество тегов - вкинуть их в SD. Вот если ты свои пики с ящиками протегаешь каким-нибудь DeepBooru и попробуешь сгенерировать из этого - получишь совсем не то, генерация будет фактически как при "1girl, sitting, boxes, pink". А вот с простынёй уже будет сильно ближе к тому что было. Условно, тебе не надо учить модель по промпту "1girl, sitting, boxes" догадываться что тянка сидит на коробках, она и так умеет это генерировать если попросить правильно. Если это тренировка на персонажа, то и генерации с описания этой пикчи должны отличиться только внешним видом тянки, любые отклонения в композиции будут тренироваться вместе с ней.
Аноним 07/08/23 Пнд 15:06:13 #270 №447297 
>>447292
> разные результаты
Дефис и подчеркивание - литералли одинаковое. Так же как и пробел если убрать ничего не меняется. По смыслу они все одинаково воспринимаются.
Аноним 07/08/23 Пнд 15:12:45 #271 №447310 
>>447295
> Но они не описывают их взаимосвязь.
Вопрос в том нужна ли она при тренировке анимелор. Даже не спорю ибо для этого нужно хотябы знать, но есть ощущение что влияние будет слабое, надо сравнивать. Что для подобных тегов используешь?
> протегаешь каким-нибудь DeepBooru
Ага, тут вообще без шансов, оно пригодно только заапскейлить чужую пикчу когда база уже есть.
> любые отклонения в композиции будут тренироваться вместе с ней
На следующей неделе попробую если с теггером подскажешь. Если это еще улучшит лоры персонажа с мелким датасетом то будет замечательно.
Аноним 07/08/23 Пнд 15:26:47 #272 №447329 
>>447297
>Дефис и подчеркивание - литералли одинаковое
Я даже в фотошопах накладывать не буду, на глаз же видно, что немного разные.
>По смыслу они все одинаково воспринимаются.
Не спорю, в данном случае да. Но вообще нет, не всегда это работает адекватно. Впрочем если будут делать мультимодалку, то будет похуй на такие мелочи, полноценная языковая модель в составе рисовалки вытянет любое говно в любом стиле (в теории).
Аноним 07/08/23 Пнд 15:31:45 #273 №447341 
>>447329
> немного разные
С включенными оптимизациями они и будут немного разные всегда.
Аноним 07/08/23 Пнд 15:33:59 #274 №447346 
Кто генерит локально, мне нужно чтобы вы проверили размер папки лежащей по этому пути C:\Users\User\AppData\Local\pip\cache\http.
У меня он уже раздулся до 30ГБ, и я не думаю что это нормально. Полное удаление этой папки влияет только на скорость генерации (становится в 3 раза медленней).
Как исправить или сменить на другой диск путь кэша пипа? У меня системный ссд не резиновый.
Аноним 07/08/23 Пнд 15:41:23 #275 №447357 
>>447346
Пардон, это я жестко ступил, можете чистить этот мусор у себя, никак не влияет на скорость генерации.
Аноним 07/08/23 Пнд 16:11:12 #276 №447399 
Я тут запулил кахаю новые правки, пип инстал сделал, туда сюда и оказалось, что лора генериться не 14 часов, а 2 и память жрет не все 12 гигов а всего 6
вот это мне прокнуло говна при первой установке, а и я не думал

>>447346
pip cache purge
Аноним 07/08/23 Пнд 17:20:49 #277 №447437 
1E6C4C5D-D84E-4C84-81C9-EA2F546EEC0B.jpeg
FB3BA917-902F-4304-A477-DBB926CBF59A.png
>>447293
Модель T2I-Adapter для контролнета. Дополняют controlnet reference
https://civitai.com/models/17220?modelVersionId=20331

Можно использовать для более точного переноса стиля.
Аноним 07/08/23 Пнд 21:34:06 #278 №447670 
>>447399
>pip cache purge
Что там вообще лежит?
Тоже 20 гигов весит.
Аноним 07/08/23 Пнд 21:50:43 #279 №447691 
>>447670
кеш, чтобы не качать одно и тоже из интернета, он пакеты кеширует у тебя в системе
Аноним 08/08/23 Втр 04:58:16 #280 №448061 
Собираюсь трейнить SD на голых preteen + процессоры и на манга лоликоне, около 1000 образцов. Как лучше это делать, finetune или lora? Фотки вместе с рисунками или лучше раздельные модели?
Аноним 08/08/23 Втр 07:41:46 #281 №448089 
>>399707 (OP)
бумп
Аноним 08/08/23 Втр 20:09:09 #282 №448719 
>>448061
> lora
я так понимаю, что это до сих пор bleeding edge

> Фотки вместе с рисунками
Отдельные, конечно.
У тебя базовые модели будут разные. У тебя базовая модель для фоток это SD 1.4/1.5, а для аниме -- NovelAI/AnythingElse
Аноним 08/08/23 Втр 21:58:22 #283 №448805 
00005-4289542040.png
Как же хороша сдхл
Аноним 08/08/23 Втр 22:05:17 #284 №448808 
>>448805
Блять. Не тот тред. Энивей дайте оценку
Аноним 08/08/23 Втр 22:12:10 #285 №448813 
Есть ли какой-то способ редактировать/тереть метаданные в уже созданных чекпойнтах/лора?
Аноним 08/08/23 Втр 23:10:25 #286 №448887 
>>448061
Можешь попробовать оба варианта, в целом с лоры начни.
> Фотки вместе с рисунками или лучше раздельные модели?
Разные офк, и разные базовые базовые модели использовать.
>>448805
Для базовой модели - весьма неплохо.
Аноним 08/08/23 Втр 23:39:44 #287 №448922 
>>448813
В расширении кохи
Аноним 08/08/23 Втр 23:43:32 #288 №448931 
sadness.png
RuntimeError: Given groups=1, weight of size [320, 8, 3, 3], expected input[1, 9, 112, 88] to have 8 channels, but got 9 channels instead
Time taken: 0.6 sec.
Что за ошибка? В колабе появляется. Только начал изучать, а тут такое. Пару дней назад тестово запускал, все генерилось. Помоги, анончик.
Аноним 09/08/23 Срд 00:07:23 #289 №448956 
>>448922
Kohya_ss только знаю, я нуб немножко. Что за расширение и куда там лезть?
Аноним 09/08/23 Срд 00:34:02 #290 №448971 
456747.PNG
>>448956
Это от него
https://github.com/kohya-ss/sd-webui-additional-networks

Прожимаешь editing enabled и правишь
Аноним 09/08/23 Срд 00:42:41 #291 №448981 
>>448971
Спасибо, бро, очень полезная для меня инфа, добра тебе.
Аноним 09/08/23 Срд 11:53:10 #292 №449210 
>>448971
Это снова я-нуб, в общем, я попробовал этот способ, и добавить новое я могу, а вот вычистить старое, чтобы красиво описать и структурировать заново после - нет. Или я чего-то не понимаю, или в этом расширении можно только добавить то, что в окошки ввести можно (name, author, и тд).

Может, есть какой-то способ именно очистить метаданные?
Аноним 09/08/23 Срд 17:12:13 #293 №449589 
image.png
Что она хочет от меня?
Аноним 09/08/23 Срд 17:13:31 #294 №449590 
>>449589
Говнокодеры постарались.
Что-то сломали в апдейте, у всех сейчас так.
Временное решение есть тут:
https://www.reddit.com/r/StableDiffusion/comments/15mdxok/following_a_tutorial_to_get_into_stable_diffusion/
Аноним 09/08/23 Срд 17:15:08 #295 №449593 
>>449590
Не с моей удачей всё закончить сразу, блин.
Обновил комп, приступил к переносу вебуя, и тут такое.
Ну ладно, займусь другим, авочь починят через пару часиков.
Аноним 09/08/23 Срд 17:15:09 #296 №449594 
>>449590
Понял, спасибо. Пиздос
Аноним 09/08/23 Срд 20:25:21 #297 №449799 
Как наладить преемственность между кадрами? Мне нужно сделать img2img на серию картинок где объект крутится, как сделать чтобы СД отрисовывал этот объект максимально схожим образом.
Аноним 09/08/23 Срд 20:48:55 #298 №449825 
изображение.png
Двач, какова хуя генерится пикрил на инппейнт-модели? Началось все одним днем, буквально позавчера все было норм, а вчера запустил и полез пиздос какой-то.
Я уже и настройки, и промпты, и вообще заебался бороться с этим, как фиксить?
Они там сломали штоле что-то?
Аноним 09/08/23 Срд 20:50:19 #299 №449830 
>>449825
Добавь негатив-промпт human centipede
Аноним 09/08/23 Срд 20:51:17 #300 №449831 
>>449799
Контролнет
>>449825
Не генерируй на инпеинт модели, для нее хтонь выдавать нормально. Если раньше все было ок а потом поломалось - чекай настройки.
Аноним 09/08/23 Срд 20:51:23 #301 №449832 
>>449830
А это точно поможет лол?
Аноним 09/08/23 Срд 20:52:47 #302 №449834 
>>449831
> Не генерируй на инпеинт модели
Я генерирую вокруг одного объекта, так что инпейнт без вариантов.
>Если раньше все было ок а потом поломалось - чекай настройки.
Не менялись, только на странице генерации дергал, размеры изображения и все такое.
Аноним 09/08/23 Срд 22:56:42 #303 №450009 
ПК бояре с больгим врамом, какое разрешение вы для картинок на хайрезфиксе используете?
А то заимел себе 4080, и на параметрах типа
>resize: from 600x800 to 2400x3200
генерация такую хтонь выдает... Что на латенте, что на других апскейлерах.
Даже тайловый контролнет не шибко помогает (хотя с ним лучше, конечно)

Может, надо не сразу такой апскейл бахать, а по шагам?
Аноним 09/08/23 Срд 23:58:31 #304 №450092 
>>449834
Тогда ничего непонятно, это ты инпеинтишь вокруг тела снизу? Подробнее опиши что и как. Алсо галочку Tiling чекай, если стоит то убери.
>>450009
Больше 2 мегапикселей стандартными способами, как правило, будет ерунда. Здесь влияет работа модели на больших тайлах и кратность апскейла.
> а по шагам
Именно
Аноним 10/08/23 Чтв 01:00:53 #305 №450176 
>>450092
>это ты инпеинтишь вокруг тела
Вокруг лица вестимо. Чекбокс на тайлинг снят.
Аноним 10/08/23 Чтв 01:56:48 #306 №450208 
>>450092
>Больше 2 мегапикселей стандартными способами, как правило, будет ерунда.
Эх, а я думал как ща замучу себе овердетализацию...
Придется опять извращаться.
Но хотя бы после 2070 картинки быстро генерятся. Реально быстро, прям уф. Столько времени экономится.

Интересно, а если я в инпэинте сделаю маску на область, и в режиме маски Full Picture, но с повышенным разрешением, генерацию запущу. Оно как будет?
Аноним 10/08/23 Чтв 03:40:42 #307 №450265 
Есть ли способ заставить контролнет апскейлить сразу пачку артов? Т.е. есть арты на 8K, их миниатюры для контролнета, настройки для последнего рендера у всех одинаковые. Как мне их поставить на конвеер на ночь? А то подрываться каждые 2 часа, что бы поставить новый арт рендериться, это слишком стресс.
Аноним 10/08/23 Чтв 05:16:11 #308 №450278 
>>450265
в теории написать скрипт чтобы через апишку автоматика запускать задачи с нужными параметрами
Аноним 10/08/23 Чтв 08:46:05 #309 №450342 
>>450265
Как вариант поставить дополнение на очередь задач.
Или комфи\владаматик в котором оно вроде бы встроено.
Аноним 10/08/23 Чтв 11:13:50 #310 №450403 
>>450176
А где на пикче тогда лицо?
>>450208
Хайрезфикс это базовый однотайловый апскейл, который галочкой можно встроить в процесс t2i. Овердетализация делается после него, не то чтобы требует извращений. Кастом хайрез попробуй накатить, он лучше работает на больших кратностях.
> Оно как будет?
Область будет обрабатываться в указанном разрешении. Так лица и глаза инпеинтятся, только слишком много нет смысла ставить, примерно в пару раз выше чем выделено. Поэкспериментируй и станет понятно.
>>450265
> заставить контролнет апскейлить
Вут? Если хочешь просто апскейлить с применением контролнета - в i2i есть раздел batch, где можно натравить автоматика на папку. В i2i исходная пикча автоматом подсовывается на вход контролнета.
Аноним 10/08/23 Чтв 15:20:46 #311 №450600 
>>450403
>в i2i есть раздел batch, где можно натравить автоматика на папку. В i2i исходная пикча автоматом подсовывается на вход контролнета.

Это не совсем то. Как бы это удобно, сразу кучу апскелить, но когда ты уже проапскейлил 10 артов с 960х540 в 4к, каждую с разными настройками и тебе надо просто их доапскейлить до 16к но уже с одинаковыми релизными настройками, это не катит. Я не могу засунуть ему одну папку с изначальными артами 960х540 и засунуть ему вторую папку уже с почти готовыми хайрезами, которые надо всего лишь дошлифовать на низком денойзе, чтоб он просто сверил файлы в папках по именам и апскелил нужные арты с нужными артами в контроле.
Аноним 10/08/23 Чтв 15:25:02 #312 №450607 
>>450600
Если хочешь автоматизировать апскейл в несколько проходов с идентичными параметрами - пробуй скрипт loopback
Аноним 10/08/23 Чтв 19:50:30 #313 №450853 
>>450607
Я не уверен, что он будет для каждого арта нужную картинку в контрол подставлять.
Аноним 10/08/23 Чтв 23:28:18 #314 №451163 
>>450853
А ты попробуй и проверь, тут (если не проявятся сюрпризы быдлокода) возможны только 2 варианта: или оно будет каждый раз обновлять пикчу в контролнете, или же оставит ту что была исходной.
Аноним 13/08/23 Вск 12:23:42 #315 №454205 
Ку, ребзя. Подскажите плиз какие есть варианты если я хочу дообучить существующую модель, большой датабазой определенного стиля, чтоб модель была хороша именно в конкретном направлении? Самый простой вариант просто сделать Лору и примержить, какие есть альтернативны? Я так понимаю дримбоз мне с 6гб врам не подходит?
Аноним 13/08/23 Вск 16:11:45 #316 №454476 
>>454205
>Я так понимаю дримбоз мне с 6гб врам не подходит?
Дримбуз начинается с 16, насколько я помню.
Лучше - 24.
Аноним 13/08/23 Вск 17:02:59 #317 №454536 
>>454476
Тоесть остаётся делать большую Лору или ликорис и мержить с моделью? Ок, есть ли какие-то способы упростить создание большой датабазы (кроме мокрописьки, мож какие скрипты)?
Аноним 13/08/23 Вск 17:16:59 #318 №454554 
>>454536
Можно просто сделать лору, нахуя её мержить?
Аноним 13/08/23 Вск 18:18:15 #319 №454607 
>>454536
>ликорис и мержить с моделью
Ликорисы с моделями не мержатся.
Ну, по моей информации месячной давности.
Может, уже доработали за это время.

>какие-то способы упростить создание большой датабазы
Понятия не имею. Я больше чем с 300-400 файлами не работал. Обычная ручная сортировка по папкам на этапе формирования, и прогон автотаггером поверх.
Аноним 13/08/23 Вск 19:14:30 #320 №454661 
>>454476
> Дримбуз начинается с 16, насколько я помню.
На 11 работает.
Аноним 14/08/23 Пнд 18:46:21 #321 №455684 
Долго ебался пытаясь сделать более удачную версию старой лоры, Нифига не выходило.
Потом задумался, откатил версию кохи на несколько коммитов назад, попробовал запустить с теми же параметрами - результат резко стал намного лучше.
В случае с локон еще и врам меньше жрет. И лоры на старой качественнее.
Пробовал локон и лору, оптимайзер адам и продиджи, все лучше в старой.

У меня одного такая херь? Кто-то может проверить,
Аноним 14/08/23 Пнд 19:30:10 #322 №455763 
>>455684
>В случае с локон еще и врам меньше жрет. И лоры на старой качественнее.
Проебланил кажесят. Лоры в старой и новой примерно одинаково норм. А про локон все верно.
Аноним 15/08/23 Втр 07:06:37 #323 №456350 
>>455763
pip show lycoris-lora какой версии?
Аноним 15/08/23 Втр 10:21:00 #324 №456438 
>>456350
Через консоль и там и там показывает 1.8.3 но если искать по имени то в старом 1.8.0.dev6
Аноним 15/08/23 Втр 11:01:12 #325 №456461 
Здравствуйте увожаемые, не подскажите как изи деплойнуть стейбл дифужн с контролнетом без ссаного вебуи?
Аноним 15/08/23 Втр 23:44:34 #326 №457484 
>>456461
--nowebui ?
Аноним 16/08/23 Срд 01:00:26 #327 №457645 
>>456438
Я уж думал ты новую дев версию с тренировкой дополнительных normalization слоёв пробуешь https://github.com/KohakuBlueleaf/LyCORIS/commit/48f0836f1e46650419faf7cd37744f10a48292a9 , что оно стало жрать больше врам, а так хз, сам не обновлялся до сих пор с 1.7.2, кохак постоянно что то срёт своими коммитами, может что и поломал.
Аноним 16/08/23 Срд 10:04:02 #328 №457998 
361837190183544804360700426258580688796407023n.jpg
361849523183544804270700421951822874437264392n.jpg
361921243183544749880700422194515233197605002n.jpg
кто то может её раздеть? Или подскажите в каком треде это можно сделать пожалуйста
Аноним 17/08/23 Чтв 01:53:46 #329 №458896 
>>457998
> Или подскажите в каком треде это можно сделать пожалуйста
Сейчас это выкинули в /nf
Аноним 17/08/23 Чтв 11:55:24 #330 №459198 
00024-4216093971.png
00037-3592384847.png
00041-1317296418.png
00025-1519665104.png
>>457998
Я хотел пораздевать тянок для анонов, и тоже тред не нашел. А самому создавать лень. Видно не судьба...
Аноним 17/08/23 Чтв 11:59:28 #331 №459205 
>>399707 (OP)
Есть какие-нить расширения, что б в Inpaint upload размеры генерируемой картинки ставились как у сорса автоматически?
Аноним 17/08/23 Чтв 12:39:31 #332 №459272 
изображение.png
>>458896
Вся доска нф не нужна, лол.
>>459205
>размеры генерируемой картинки ставились как у сорса автоматически?
Такой кнопочки нету что ли?
Аноним 17/08/23 Чтв 12:49:31 #333 №459280 
>>459272
От спасиб тебе мил человек. Дай тебе бох два чаю.

Может еще подскажешь. Есть какойнить промт который делит генерируемую картинку на 2 равные части? Чот я не смог ничего толком подобрать. Либо три части получается, либо 2 но не равные. Редко когда 50 на 50 делит.
Аноним 17/08/23 Чтв 12:57:40 #334 №459294 
>>459280
regional-prompter?
Аноним 17/08/23 Чтв 13:21:38 #335 №459313 
00027-4275460906.png
>>459294
не, смысле не область генерируемую разбить. А шоб готовый результат был разбит на две части. Типа шоб генерируемая картинка была разбита на две фотки, типа как на пикрилейтеде, но тока шоб на равные части делилась.
Аноним 17/08/23 Чтв 13:41:04 #336 №459325 
>>459313
Нахуя? Делай две картинки.
Аноним 17/08/23 Чтв 13:48:15 #337 №459332 
>>459325
Не, надо шоб за раз генерировал 2 равных по размерам. Таков путь...
Аноним 17/08/23 Чтв 15:28:20 #338 №459415 
>>459313
Свазанная по смыслу пикча из двух половин - региональный промт, просто 2 пикчи - закажи батчсайз или прсото батч 2, в начале грид так склеит.
Аноним 18/08/23 Птн 04:35:35 #339 №459947 
image.png
Кароч, недели две не запускал сд, запустил, ничего не менял вообще, видяху стало вообще не использовать, в чем проблема может быть?
Аноним 18/08/23 Птн 04:39:43 #340 №459950 
image.png
>>459947
Хотя куда ядра работают, но скорость пиздец упала в десять+ раз.
Аноним 18/08/23 Птн 05:18:22 #341 №459957 
>>459947
Все ясно, это пидорская кожанка перданула своим обновлением и добавила shared vram, что замедляло генерацию, пиздец просто
Аноним 18/08/23 Птн 22:15:03 #342 №460555 
>>459272
> Вся доска нф не нужна
Согласен, это идиотская затея. Я просто сказал, где это теперь искать.
Аноним 19/08/23 Суб 15:46:50 #343 №461078 
Апгрейдил комп, начал экспериментировать с максимально возможными разрешениями картинок.
И случайно придумал, как контролировать чрезмерное засирание картинки деталями от латент-апскейлера.

1) Сначала генерим лоу-рес пикчу, как обычно.
2) Ебашим лютейший однотайловый апскейл каким-нибудь валаром, сколько памяти влезет. Желательно побольше, этак на х3.
Тут у нас будет четкая большая картинка, не перезасраная деталями. Но проблема в том, что мелкие детали такой апскейл рисует очень плохо, в отличии от латента.
3) И вот уже эту картинку кормим тайловому контролнету на вход апскейла в режиме latent.
Так как картика уже четкая и в большом разрешении (в отличии от базовой, с первого шага), она очень жестко контролирует основное направление латентного апскейлера, не позволяя ему сильно увлекаться и распидорашивать всё излишними деталями.

Если это было известно - звиняйте, но вроде нигде не видел.
Аноним 19/08/23 Суб 16:02:00 #344 №461090 
>>461078
> лютейший однотайловый апскейл каким-нибудь валаром
GAN-апскелы говно потому что тренировались на фото, а не сгенерированных лоурезах, они всегда выдают ещё большую кашу, хоть и чёткую.
> как контролировать чрезмерное засирание картинки деталями от латент-апскейлера
Вместо этой шизы можно просто сразу проапскейлить двумя апскейлерами (латент и любой другой пиксельный) и просто совместить их с какими надо весами. Есть и тонкий контроль, и возможность сидеть на низком деноизе. По скорости бесплатно, в отличии от шизоидных контролнетов.
Аноним 19/08/23 Суб 17:50:14 #345 №461137 
>>461090
>они всегда выдают ещё большую кашу, хоть и чёткую.
У меня вот как раз наоборот почему-то.
Никакой каши и излишних деталей, обычная "плоская" картинка с улучшениями. Тогда как хочется как раз детализации.
>Вместо этой шизы можно просто сразу проапскейлить двумя апскейлерами
И как? В кастомном хайрезе латент не присутствует, а больше скриптов на апскейл я и не видел.
Аноним 19/08/23 Суб 18:23:32 #346 №461145 
>>461078
Вообще на втором этапе можно использовать просто ган, а то и вообще лоурез подать на вход латента, последнее емнип настраивается для работы в один клик в img2img.
>>461090
> можно просто сразу проапскейлить двумя апскейлерами (латент и любой другой пиксельный) и просто совместить их с какими надо весами
Подкажи как это сделать.
Аноним 19/08/23 Суб 18:29:01 #347 №461150 
>>461145
>а то и вообще лоурез подать на вход латента
И в результате получить очень лютую дичь, вплоть до полнейшей каши, мутантов и заселение картинки призраками.
Особенно если апскейлить на высокую кратность и без контролнета, который хоть как-то латент будет сдерживать.

Меня просто дичайше бесит невозможность контролировать латент-апскейлер по уровню добавляемых деталей.
С описанным подходом вроде бы хоть как-то его обуздать получается.
Аноним 19/08/23 Суб 18:31:55 #348 №461152 
1651218564794.png
>>461137
> В кастомном хайрезе латент не присутствует
А это что?
Аноним 19/08/23 Суб 18:56:14 #349 №461165 
>>461152
Хм.
Надо будет попробовать покрутить эту фигню.
Но пока меня результаты кастомного хайреза не впечатляли.
Скорее портит картинку, чем улучшает.
Аноним 19/08/23 Суб 19:42:27 #350 №461193 
>>461152
Еще бы автор хоть какой-то тултип сделал к нему.
Ничерта ж непонятно, какой слайдер за что отвечает.
Аноним 19/08/23 Суб 21:02:24 #351 №461265 
>>461150
> И в результате получить очень лютую дичь, вплоть до полнейшей каши, мутантов и заселение картинки призраками.
Схуяли? В обычном апскейле из шакала (при хайрезфиксе) этого не происходит а тут внезапно окажется. Ну и там очепятка на вход контролнета.
> невозможность контролировать латент-апскейлер по уровню добавляемых деталей
Криво/косвенно но есть, несколько костылей и лоры твикеры также действуют. А так используй tiled diffusion для апскейла, вот где раздолье настроек и контроля, никто не запрещает ему лоурезы скармливать.
Аноним 19/08/23 Суб 22:04:08 #352 №461317 
>>461265
>Ну и там очепятка на вход контролнета.
Вот без опечатки оно лучше звучит.
Но лоурез на входе контролнета слабо справляется. Я очень долго именно так и пробовал, на больших апскейлах всё равно дичь лезет. Меньше, чем совсем без контролнета, но всё равно лезет.
А вот хайрез-картинка справляется гораздо лучше. Причем именно картинка из ГАН-апскейла. Если сделать сначала латент, а потом догнать ГАНом - опять получается овердетализация.
>Криво/косвенно но есть, несколько костылей и лоры твикеры также действуют.
И где это всё?
>А так используй tiled diffusion для апскейла, вот где раздолье настроек и контроля
Результат чуть лучше, чем чистый латент, но без контролнета.
Потеря композиции, анатомии, излишняя детализация там, где ее быть не должно. Так я этой штуке применения и не нашел нормального.
Аноним 19/08/23 Суб 22:07:35 #353 №461321 
>>461317
> на больших апскейлах
На больших это на каких? Просто больше разрешение или большая кратность после лоуреза? Ну и какая пикча апскейлится.
> Если сделать сначала латент, а потом догнать ГАНом - опять получается овердетализация.
Не понял, расшифруй
> Потеря композиции, анатомии, излишняя детализация там, где ее быть не должно.
Это оно так на лоурезах работает или в принципе?
Аноним 19/08/23 Суб 23:30:16 #354 №461418 
>>461317
>Потеря композиции, анатомии
Контролнет точно у тебя работает, лол? Ибо такого никогда не наблюдал.
Аноним 20/08/23 Вск 00:22:28 #355 №461470 
>>461321
>На больших это на каких?
Когда, например, 800х600 апскейлить на х2-х2.5
На какой-нибудь х1.6 все нормально работает, ясное дело.
И если потом этот апскейл дальше подымать, на следующий шаг, тоже фигня выходит.

>Не понял, расшифруй
В первом варианте я беру пикчу из генерации, лоурес. Прогоняю через валар на х3 кратность. Получаю хайрез, но с низкими деталями. Получается нормально.
Во втором варианте эту пикчу сначала прогоняю в хайрезфиксе на х1.6, получаю детальную картинку, и потом уже добиваю тем же валаром до размера пикчи с первого варианта. И тут получается хуже. Латент с высокой кратностью под контролнетом рисует детали поверх деталей.

>Это оно так на лоурезах работает или в принципе?
Тайлед то? При использовании в связке с латентом и хайрезфиксом на х2.5 кратности с лоуреза.
Но я тут не говорю о серьезных потерях, типа руки там лишние могут вырасти, нет. Мелкие детали ломает очень сильно. Мышечную структуру, пальцы, одежду, всё такое. Задники колбасит вообще дичайше порою.
Сейчас вот попробовал его вторым этапом подключать, не с лоуреса, в комбинации с тайловым контролнетом без входной картинки - вроде интересные результаты выдает.

Вообще хотелось бы актуальные мануалы по апскейлу со всеми этими приблудами почитать. А не устарвшие, полугодовой давности.
Аноним 20/08/23 Вск 00:44:49 #356 №461482 
>>461470
> например, 800х600 апскейлить на х2-х2.5
Это уже более 2 мегапикселей, просто так подобное разрешение для 1.5 уже за гранью, а со стандартным латент апскейлером тем более будет дичь.
> если потом этот апскейл дальше подымать, на следующий шаг, тоже фигня выходит
Офк, если делать в лоб то оно не будет чинить а наоборот подчеркнет косяки.
> лоурес. Прогоняю через валар на х3 кратность
Сам по себе ган из лоуреза исходной генерации с такой кратностью - лютейший вырвиглаз будет.
> И тут получается хуже
Вот это странно, ведь должно быть наоборот, покажи примеры.
> Латент с высокой кратностью
Больше х2 не нужно, или пользуйся другими средствами.
> Тайлед то? При использовании в связке с латентом и хайрезфиксом на х2.5 кратности с лоуреза.
Ты про что? Про тайлед вае или тайлед дефьюжн? Первый это костыль чтобы помещалось в врам, а второе это такой метод апскейла или i2i в латентном пространстве. Чтобы не ломал - используй контроллнет.

Вообще или тебя не понимаю, или ты делаешь что-то не то, ибо оче многое из описанного идет вразрез с практикой. Давай примеры с наиболее подробным описанием что делаешь.
> хотелось бы актуальные мануалы по апскейлу со всеми этими приблудами почитать. А не устарвшие, полугодовой давности.
Напиши сам, или придумай мотивацию чтобы их написали.
Для тайлового апскейла можно просто включить контролнет для улучшения результата, мультидифуззия работает из коробки с контролнетом, буквально ползунки крутануть, галочку поставить и запускай. Нюансов офк много, изи ту лерн хард ту мастер, но начать и получить приличный результат оче легко.
Аноним 20/08/23 Вск 15:22:30 #357 №461835 
>>461482
>Это уже более 2 мегапикселей
При этом под контролнетом эти 2 мегапикселя получаются. Надо просто контролировать уровень добавления детализации.
>Офк, если делать в лоб то оно не будет чинить а наоборот подчеркнет косяки.
Так в том то и фишка, что х1.6 апскейл получается без косяков. Косяки идут выше, когда ты на этот х1.6 следующий х1.6 делаешь без надстроек.
>Сам по себе ган из лоуреза исходной генерации с такой кратностью - лютейший вырвиглаз будет.
Для законченной картинки - да. А вот как инпут для контролнета - работает. Нет размазанности и нечеткости лоуреса, что дает более точное руководство контролнету.
>Больше х2 не нужно, или пользуйся другими средствами.
Это скучно и неинтересно. Основной целью у меня было как раз научиться делать разорви-экран картинки (4080 жы!), чтоб не терять при этом композицию и основной уровень детализации, при этом умеренно добавляя второй уровень более мелких деталей. С "умеренно" вот только проблема.
>Вообще или тебя не понимаю
Вот и я не понимаю, как именно тайлед использовать, и какие результаты он вообще должен давать. Пока ерунда выходит.
>Напиши сам
Гайдописатель из меня так себе.
Аноним 20/08/23 Вск 17:00:58 #358 №461901 
1595823525126.png
1652401708197.png
1602699642149.png
1676718573777.png
1663503160018.png
1668088036437.png
1641234849579.png
>>461835
> под контролнетом эти 2 мегапикселя получаются
Офк, с ним и больше выйдет без типичных поломок, только на совсем больших уже другие пойдут.
> Косяки идут выше, когда ты на этот х1.6 следующий х1.6 делаешь без надстроек.
Получается что есть какие-то граничное разрешение, или проблема именно в повторном апскейле? Что если дважды 1.3 сделать, например?
> Нет размазанности и нечеткости лоуреса, что дает более точное руководство контролнету.
Вот это полезное наблюдение, кстати при апскейле в img2img с контролнетом на его вход как раз апнутая ганом пикча подается.
> Основной целью у меня было как раз научиться делать разорви-экран картинки
Не, суть не в том что не нужно делать хайрезы, а что не нужно пытаться их делать сразу в хайрезфиксе.
> как именно тайлед использовать
Если самое простое в качестве отправной точки - после харезфикса, который получился хорошо, отправь в i2i и выстави настройки пикрелейтед. Апскейлер по вкусу, денойз в районе 0.4 и тайловый контролнет, если не хватит памяти то включи tiled vae. Играясь с денойзом (в широких пределах), семплерами, весом контролнета, можно получать разный уровень наброса мелких деталей с сохранением исходника. Размер латентов также влияет, плюс промт, доп лоры, сменить саму модель здесь также справедливо. Можно и наоборот сгладить используя эти приемы, в т.ч. включив noise inversion. Хочешь больше разрешение - отправляй результат на вход и повторять до полного удовлетворения, но полезут свои нюансы.
Исходные генерации и примеры пикрел, без претензии на качество но иллюстрирует возможность регулировки наброса с сохранением исходника.
> Гайдописатель из меня так себе.
Как раз поймешь - освоишь - напишешь понятно.
Аноним 20/08/23 Вск 17:53:45 #359 №461935 
>>461901
>Что если дважды 1.3 сделать, например?
Пока не пробовал. Хотя 1.3 апскейл вообще слабо по деталям отработает, разрешения картинки банально не хватит.
>на его вход как раз апнутая ганом пикча подается.
Там не ган (который все-таки с дорисовкой), там обычный ресайз по алгоритму. Как итог - заблюренная фигня и плохие данные на вход тайлов.
>Исходные генерации и примеры пикрел
Вот первый апскейл - это хорошо (хотя и с небольшим перебором), а второй как раз то, что я и говорил - детали поверх деталей, сплошной нейрошум.
>Как раз поймешь - освоишь - напишешь понятно.
Это надо понять и освоить сначала.
Аноним 21/08/23 Пнд 00:10:21 #360 №462204 
>>461935
> Хотя 1.3 апскейл вообще слабо по деталям отработает, разрешения картинки банально не хватит.
Если дважды то может и сработать, по крайней мере можно попробовать.
> Там не ган (который все-таки с дорисовкой), там обычный ресайз по алгоритму
При использовании контролнера в аутпуте также и его исходники выдает, специально сравнил - там тот самый ган что выбран. Если что про i2i говорю, контролнет в t2i при хайрезфиксе референс просто ресайзит.
> а второй как раз то, что я и говорил - детали поверх деталей
Ага, специально для иллюстрации.
> понять и освоить сначала
Если освоишь - найдешь ответы на свои вопросы, которыми гайдописцы скорее всего не задаются, потому такое изложение может быть очень полезным.
Аноним 21/08/23 Пнд 16:13:01 #361 №462561 
блять, хелпаните, я где-то что-то проебываю и не могу нихуя понять.
лора в коллабе натренена, (ебучка тянская), по тестовым сэмплам в коллабе то, что надо.
качаю лору в пекарню, запускаю на той же модели, с теми же настройками промта/рендеринга, что и в колабе, все блять 1 в 1, цфг,семплы,ю, разрешения, выставляю и мне выдает какую-то залупу, не имеющую к лоре никакого отношения. то есть ебальник рендерится, видно что один и тот же, типа лора работает, но совершенно другое лицо.

тренится чисто на сд1.5, без всяких дополнительных пидерсий, вае и прочего кала.
Аноним 21/08/23 Пнд 16:45:25 #362 №462575 
>>462561
Клип-скип проверь.
Ну и вообще, качни тестовый семпл из коллаба, и через ПНГ-инфо в свой генератор на пекарне его закинь, там все настройки принудительно проставятся как в оригинале.
Аноним 21/08/23 Пнд 16:50:52 #363 №462578 
>>462575
метадаты нету в семплах, клип скип дрочил, и 2 и 0, и нихуя. чутка попiзже закину сюда лору с семплами,
Аноним 21/08/23 Пнд 16:54:02 #364 №462582 
>>462578
>метадаты нету в семплах
Так сделай чтоб была. Коллаб ж вроде настройки поддерживает.
Аноним 21/08/23 Пнд 17:57:54 #365 №462627 
image.png
image.png
>>462582

буду ща курить.
там миллиард пунктов, я обосрался пока пока запустил треню

короче, сколабыпидорнуло и назад не пускает, вот что успел скопировать

промт семпла с коллабы
prompt: masterpiece, best quality, 1girl, aqua eyes, baseball cap, blonde hair, closed mouth, earrings, green background, hat, hoop earrings, jewelry, looking at viewer, shirt, short hair, simple background, solo, upper body, yellow shirt


negative_prompt: lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark,
sampler=euler
username, blurry
height: 768
width: 512
sample_steps: 28
scale: 7.0



лора https://dropmefiles.com/7AoLO


Project Name: suzzz
Model Version: Stable Diffusion V1.x
Pretrained Model Path: /content/pretrained_model/Stable-Diffusion-v1-5.safetensors
No VAE path specified.

[sample_prompt_arguments]
sample_every_n_steps = 100
sample_sampler = "euler"

пик1 семплы с колабы/ебало орига, с которого тренил, 146% тащемта результат

пик2 - то что мне высирает мне гуи с настройками 1 в 1

чекните у себя, и скажите, че как, у меня пукан горит блять уже
Аноним 21/08/23 Пнд 18:05:37 #366 №462632 
>>462204
>Если дважды то может и сработать, по крайней мере можно попробовать.
Попробовал. Не очень.
>Если что про i2i говорю
Ну а я первые шаги в т2и делаю.
Хотя, если честно, и в и2и тоже обычный ресайз постоянно видел. Может надо было и2и апскейлер поставить в настройках?
Аноним 23/08/23 Срд 12:19:16 #367 №464073 
>>462627
але, макаки ебаные, чо вам сложно чекнуть штоле
Аноним 23/08/23 Срд 14:34:44 #368 №464169 
Тестил кто скрипт Ultimate SD Upscale? Годная тема?
Аноним 23/08/23 Срд 15:04:09 #369 №464207 
Как уменьшить использование оперативной памяти в стейбл диффужене? Есть куда гайдов по VRAM, но по оперативке ничего не нашёл. 16 гигов, 7+ гигов занимает винда и браузер. Хочу загрузить SDXL, у меня винда вылетает когда я это делаю.
Аноним 23/08/23 Срд 15:54:49 #370 №464255 
>>464169
С пробуждением
Аноним 23/08/23 Срд 16:02:03 #371 №464265 
>>464255
Действительно, в одном из гайдов о нём говорится.
Аноним 23/08/23 Срд 18:13:13 #372 №464379 
Подскажите плз что делать, допустим собрал датабазу примерно на 1к пикч чтоб дотренить модель.
1. Какой метод обучения лучше выбрать?
2. Можно ли это сделать в облачном сервере с мощным гпу, если да то как?
Ибо локально это будет вечно, а подобными сервисами никогда не пользовался. Плз скиньте какую информацию минимально я должен знать для работы с облачными серверами.
Аноним 23/08/23 Срд 19:11:36 #373 №464421 
Сколько it/s при тренировке самой обычной лоры на 4080 должно быть?
А то у меня что-то в районе 1-1.25, это нормально вообще?
Батч 2, разрешение 768, bf16.

Может там файлы докачать надо какие?
Аноним 23/08/23 Срд 19:12:41 #374 №464423 
>>464421
Кохай еще и про неустановленный triton что-то выводит.
Насколько он критичен?
Аноним 23/08/23 Срд 20:16:00 #375 №464453 
>>464421
Чел, тут нет ванг чтоб догадаться какой у тебя конфиг тренировки. От разных оптимизаторов/моделей/лор/параметров может быть разница в разы.
Аноним 23/08/23 Срд 21:13:45 #376 №464528 
>>464073
Макака у тебя в голове в тарелочки бьет, а тут сидят благородные доны.
Аноним 23/08/23 Срд 21:19:32 #377 №464538 
>>464453
Вот и я думаю, где я облажался. Чистый кохай, безо всего, дефолт-настройки, только на 768 разрешение переставил.
А тренит так же медленно, как бесплатный гугловский коллаб.
Аноним 23/08/23 Срд 21:29:51 #378 №464557 
>>464538
https://files.catbox.moe/f4n76k.json
Жсон с конфигом тренировки.
Аноним 23/08/23 Срд 21:56:46 #379 №464600 
>>464423
Не нужен
Аноним 23/08/23 Срд 22:23:32 #380 №464624 
photo2023-04-2814-25-53.jpg
photo2023-04-2814-25-55.jpg
photo2023-04-2814-25-56.jpg
photo2023-04-2814-26-26.jpg
photo2023-04-2814-26-34.jpg
photo2023-04-2814-26-38.jpg
photo2023-04-2814-26-58.jpg
photo2023-04-2814-28-40.jpg
Объясните ньюфагу, как делать такие пикчи. Спасибо.
Аноним 24/08/23 Чтв 17:22:49 #381 №465237 
>>423401
>DPM++ 2M Karras
А в чем прикол карася и вообще какой семплер самый лучший? Я немного поигрался и кажется, что лучше Эйлера ничего нет, а остальное все какую-то шумящую мазню генерит
Аноним 24/08/23 Чтв 17:29:03 #382 №465247 
>>465237
> какой семплер самый лучший?
Очевидный Рестарт. Euler - это худший семплер по качеству пиков.
Аноним 24/08/23 Чтв 17:30:52 #383 №465250 
>>465247
Можно пруфы, картиночку там сравнительную? Пока картинки из шапки только подтверждают мои наблюдения
Аноним 24/08/23 Чтв 17:34:47 #384 №465255 
1580156591924.png
1586737889038.png
1670045491165.png
>>465250
Euler лучший только по мыльности и уродствам, в этом ему нет равных, да.
Аноним 24/08/23 Чтв 18:17:37 #385 №465297 
image
>>465255
охуенный, ничего не скажешь
Аноним 24/08/23 Чтв 19:01:49 #386 №465322 
есть тут живые мальчики и девочки? Может мне кто-нибудь помочь сгенерить картинку, я сам не смог подобрать нужный промт. У меня на юмани остался доллар, скину за помощь
Аноним 24/08/23 Чтв 19:06:11 #387 №465324 
>>465322
> доллар
Зарепортил валютного провокатора.
Аноним 24/08/23 Чтв 19:07:33 #388 №465325 
>>465324
ну 108 рублей, чо душнишь?
Аноним 24/08/23 Чтв 19:37:12 #389 №465346 
>>465325
Короч, ёпта. Мне нужен картинка в реалистичном стиле. Тощий мужик в обычной одежде (пиждак, брюки, рубашка). Одежда грязна я и в пятнах крови. Голые участки кожи (руки, шея) в царапинах и кровоподтёках, но не прям в мясо. В руках держит горящий факел (просто палка с тряпкой. Не такой, который на стенах в замках). И самое главное. Голова его полностью перемотана бинтами, на 100 процентов покрыта. Бинты тоже немного в грязи и со следами крови. На месте рта красной краской нарисована несколькими линиями широкая зубастая улыбка от уха до уха, как у чеширского кота. Фон или лес или кирпичная стена, или вид на город с крыши.

Я могу больше ста рублей скинуть. Скока вам там нада за помощь?
Аноним 24/08/23 Чтв 19:40:42 #390 №465350 
image.png
image.png
image.png
>>399707 (OP)
Почему во время тренировки генерируются розовые пикчи? Пробовал разные датасеты даже убирал розовые пикчи - всё ровно получается розовая херня.
Аноним 24/08/23 Чтв 19:45:21 #391 №465360 
>>465350
Протегай нормально, чтоб в описании пикчи было написано про цвет. Протести на генерации чтоб твоё описание выдавало такие же розовые пики, блять.
Аноним 24/08/23 Чтв 19:52:17 #392 №465369 
В колабе koha мне нужно делать BLIP Captioning, если я уже прописал описание всех картинок?
Аноним 24/08/23 Чтв 20:19:30 #393 №465400 
Блять я час заполнял хуйню в kohya lora и там крашнулось из-за недостатка памяти потому что я чет ен то ввел и гайдов нет нормальных, пиздец как же хуево ну почему никто не может помочь и сказать что выставлять там блять
Аноним 24/08/23 Чтв 20:23:47 #394 №465405 
train settings1.png
train settings2.png
>>465360
Я без описаний генерирую (т.е. в дата сете нет txt файлов) просто стиль (style.txt).
Но почему именно розовый цвет?
Аноним 24/08/23 Чтв 21:07:11 #395 №465463 
>>465405
Зачем ты эмбеддинг тренишь?
мимо
Аноним 24/08/23 Чтв 21:10:00 #396 №465468 
>>465247
Где взять?
Аноним 24/08/23 Чтв 22:27:26 #397 №465587 
image.png
image.png
>>465463
Причины. Хочу посмотреть как можно вернуть художников в кастомные модели\миксы. Хочу просто научить какие тянки\одежда мне нравятся чтобы не писать длинные промпты. Интересно как современный эмбединг будет интерпретироваться старыми художниками (т.к как видел очень интересные результаты используя старых художников + ембединг на портретные фото(рил)). Не хочу просто ограничиваться промптами.
Аноним 24/08/23 Чтв 22:51:21 #398 №465625 
>>465587
Не проще ли сделать лору на художника?
Аноним 25/08/23 Птн 00:10:18 #399 №465752 
>>447310
Анон ты пробовал тренить анимешную модельку с подробным описанием? Мне интересно хорошо ли получиться, возможно описание тегами и его последствия стали бедствием для анимешных моделей, а пока xl не разогналась возможно ещё всё можно исправить, видел 1 модельку которую тренели таким методом но не тестировал https://civitai.com/models/128351/anime-natural-language-xl
Аноним 25/08/23 Птн 00:43:15 #400 №465791 
изображение.png
>>465247
>Очевидный Рестарт.
У мну такого нету.
Аноним 25/08/23 Птн 00:47:02 #401 №465797 
Anthony van Dyck00009.png
>>465625
Меня не интересует один конкретный художник, мне нужно несколько. К тому же можно выбрать какие картины мне нужны у некоторых артистов рисует автопортреты (женщины получаются с усами), а можно обучить на женских портретах и будет рисовать женщин скорректировать баланс белого, перед обучением%% к примеру в фотошопе и т.д.
Ну и к тому же лора влияет на скорость и память, а люблю добавлять по 5-6 художников на промт.
Аноним 25/08/23 Птн 11:59:07 #402 №465992 
>>464624
Контролнет, тайл и с параметрами поиграться
>>465587
> вернуть художников в кастомные модели\миксы
Врядли эмбеды здесь будут хорошим выбором, тринарт аккуратно подмешивай, а еще лучше через будку дотрень.
>>465752
Все упирается в качественный теггер, результаты беглого осмотра популярных вариантов не понравились. Если тем более готовый датасет есть - скидывай, можно попробовать.
Аноним 25/08/23 Птн 14:00:56 #403 №466074 
francois boucher00007.png
>>465350
Бамп
>>465992
Мне очень хочется поэкспериментировать с эмбеддингами и самому убедится.
>тринарт
А что это?
>а еще лучше через будку дотрень
Типо под каждого художника отдельную SD модель тренировать?
Аноним 25/08/23 Птн 17:39:51 #404 №466230 
>>466074
> А что это?
Файнтюн sd 1.5 который как раз натренен на художниках
> Типо под каждого художника отдельную SD модель тренировать?
Под всех вместе сразу, если сделать все правильно то будет модель что воспроизводит стили художников на которых тренировалась. Аккуратный теггинг датасета обязателен.
Аноним 25/08/23 Птн 20:44:28 #405 №466356 
>>465992
> Все упирается в качественный теггер
Мимо https://rentry.org/ckmlai#ensemblefederated-wd-taggers пробовал это? Вроде неплохо тегает, только не разбирался пока как туда добавить ещё чтобы персонажей протегивало, там где то это походу выключено. Но это бору теги конечно же.
>>466230
> Файнтюн sd 1.5 который как раз натренен на художниках
Спрашивал у того исследователя стилей каких уникальных художников он находил в тринарте и позже пробовал их же промптить на обычной 1.5, и они себя проявляли и там тоже, это походу мем с художниками в тринарте.
Аноним 25/08/23 Птн 21:08:22 #406 №466385 
weghwe.png
Аноны, а тут кто-нибудь уже пробовал на основе своей 3д модели обучать Лору или что-то еще?

Короче, ебался я с img2img рендеров моего 3д персонажа и понял что это хуйня полная. Картинку слишком пидорасит при низком нойзе, а при высоком получается уже не мой персонаж. Хочу следующее:
1) Наделать кучу рендеров 3д модели и обучить Лору на них.
2) Поставить персонажа в нужную позу, сделать рендер Depth Map в 3д максе или Блендере.
3) Использовать свою Лору, скормить Depth карту в ControlNet, генерировать.

Правильно я понимаю, что такой алгоритм самый совершенный для 3д моделей на данный момент? Из всех Control Net моделей именно Depth даст лучший вариант, а всякие OpenPose или Canny хуже?
Аноним 25/08/23 Птн 21:20:02 #407 №466403 
>>466385
Ты сделаешь литерали тоже самое, как обучают на артах. Только ты можешь сразу сделать рендеры с разных углов, в разных позах и одежде.

И для контролнета можно не только карту глубины, но и openpose использовать
Аноним 25/08/23 Птн 21:29:13 #408 №466412 
>>466403
> в разных позах и одежде.
Позы будут разные, но вот одежда всегда одна. У меня цель в том чтобы максимально "постоянного" персонажа получить. Обычно фейлы все же с разной одеждой на каждой генерации.
Аноним 25/08/23 Птн 21:33:32 #409 №466419 
>>466412
Ну если у тебя перс всегда в одинаковой одежде, тогда норм. Но если ты планируешь ее менять, то лучше дать примеры, как он выглядит в другой одежде. И протегать все соответствующе
Аноним 25/08/23 Птн 21:34:00 #410 №466421 
>>466385
>Картинку слишком пидорасит при низком нойзе, а при высоком получается уже не мой персонаж.
Я с денойзом в 90 и контролом на тайлы юзаю, мне норм.
Аноним 25/08/23 Птн 21:37:37 #411 №466425 
>>466385
> Из всех Control Net моделей именно Depth даст лучший вариант, а всякие OpenPose или Canny хуже?
Для позы лучший результат будет с Openpose, на бекграунд он слабо влияет и можно исправлять скелет вручную. Можешь и несколько разных контролнетов подрубить для пущего эффекта с разными весами и эндинг поинтами.
> Наделать кучу рендеров 3д модели и обучить Лору на них.
Есть немалый шанс что у тебя заодно подхватится и 3дшность.
Аноним 25/08/23 Птн 21:50:00 #412 №466454 
12239-3553209072-masterpiece, highest quality, cowboy shot, best quality, 1girl, solo, looking at viewer,.png
>>466385
Зачем тебе ебаться с генерацией, когда можно просто красиво зарендерить?
Ну а вообще пайплайн красивый, если с обучением лоры не проебёшься - должно получится хорошо.
Аноним 25/08/23 Птн 21:51:00 #413 №466456 
>>466425
>Для позы лучший результат будет с Openpose
Да, но только вот напрямую из своего 3д-пакета я не получу OpenPose, надо будет отрендерить персонажа и использовать препроцессор который может и ошибиться.
>Можешь и несколько разных контролнетов подрубить
Какие кроме Depth и OpenPose стоят внимания?

>Есть немалый шанс что у тебя заодно подхватится и 3дшность.
Ну, это можно попробовать обойти тун-шейдерами, редактированием нормалей и самой сетки под нужный ракурс.
Аноним 25/08/23 Птн 22:14:27 #414 №466482 
>>466456
> Да, но только вот напрямую из своего 3д-пакета я не получу OpenPose
Получишь https://toyxyz.gumroad.com/l/ciojz?layout=profile
> препроцессор который может и ошибиться
А для этого чтобы не ебаться с блендером можно использовать костыль самого вебуи https://github.com/huchenlei/sd-webui-openpose-editor
> Какие кроме Depth и OpenPose стоят внимания?
Другие там для других целей просто нужны, конкретно для поз вообщем то только эти и стоят, ну может что-то для линий ещё, типо кенни и лайнарт, скриббл. В идеале конечно чтобы был тег на твою позу, или что то похожее, чтобы не сильно пришлось после инпеинтить. Комбинация двух вещей, промпта и контролнета всё таки себя лучше показывает, чем просто мучать контролнет с усилением.
> Ну, это можно попробовать обойти тун-шейдерами, редактированием нормалей и самой сетки под нужный ракурс.
Есть способ покруче, но сам не пробовал, лишь манятеория https://rentry.org/bp87n решить вопрос подхватывания стиля как настоящий командир жифорса.
Аноним 25/08/23 Птн 22:16:16 #415 №466483 
>>466456
>напрямую из своего 3д-пакета я не получу OpenPose
Получишь, если сделаешь скелет и материалы к нему. Для блендера есть риг OpenPoseBones, где так и сделано.

>стоят внимания?
Canny

>попробовать обойти тун-шейдерами
Да, шейдеры под аниме. Только там могут быть проблемы и необходимость менять геометрию модели для нормальных теней


>>466482
Ты написал на секунду раньше меня;(
Аноним 26/08/23 Суб 02:28:07 #416 №466662 
Аноны, на каких моделях вы тренируете лоры? NAIfull еще норм или пора перекатиться на что-то поновее?
Аноним 26/08/23 Суб 03:02:45 #417 №466677 
>>466662
Если концепт или если хочу что то отделить от стиля то на най, если хочу сохранить стиль, например персонаж со оригинальным стилем или просто стиль какой то то на чём то что близко к юзаемой модели, мимо нихуя не разбираюсь
Аноним 26/08/23 Суб 05:48:29 #418 №466724 
>>399707 (OP)
>Гайды по апскейлу от анонов
>https://rentry.org/UpscaleByControl

Cоветую в начало добавить, какие экстеншоны надо установить, я несколько раз гуй перезапускал, напряжно по новой одни и те же настройки ставить.

В самом гайде:
>Ниже приводятся настройки на максимальное «сплющивание» картинки в 2D-анимешность.

А можно настройки не сплющенности, а уже для реализма добавить? А то гайд слишком узконаправленный.

>Промт менять смысла уже почти не имеет. Denoise 0.75, Steps 50. Включаем Tiled Diffusion: Mixture Diffusers, Enable Noise Inversion, апскейлер порезче (напр. Anime6B), Inversion Steps 50, Renoise 0.

Автору стоит обратить внимание на консоль:
>warn: noise inversion only supports the Euler sampler, switch to it sliently...

Так что апскейлер будет использоваться дефолтный.
Аноним 26/08/23 Суб 06:08:21 #419 №466729 
>>466724
Тьфу, сэмплер, потому что я по привычке карася впихнуть пытался, наверно это стоит уточнить, чтоб знали.

А ещё куда сосноль выдала ошибку:
torch.cuda.OutOfMemoryError: CUDA out of memory. Tried to allocate 31.29 GiB (GPU 0; 12.00 GiB total capacity; 14.18 GiB already allocated; 0 bytes free; 14.40 GiB reserved in total by PyTorch) If reserved memory is >> allocated memory try setting max_split_size_mb to avoid fragmentation. See documentation for Memory Management and PYTORCH_CUDA_ALLOC_CONF

Поэтому 4 пункт у меня требует сосать бебру, наверно придется сидеть на ультимате сиди апскейле. Хотя хотелось бы узнать, что делать, что бы это работало.
Аноним 26/08/23 Суб 06:13:49 #420 №466731 
>>466724
>>466729
А ещё хотелось бы услышать, почему в пунктах 1-3 апскейлер используется латент, а не тот же DPM++ SDE Karras и иже с ними.
Аноним 26/08/23 Суб 06:18:38 #421 №466733 
>>466729
Ты тайтелед вае врубил?
>>466731
Ты не путаешь апскейлер и семплер?
Аноним 26/08/23 Суб 06:26:46 #422 №466735 
>>466733
>Ты тайтелед вае врубил?
В гайде ничего не сказано.

>Ты не путаешь апскейлер и семплер?
Да, я опять путаюсь в показаниях. Почему используется латент, а не те же ерсганы и валары и т.д.

И да, попробовал тайлед диффужн 1 ко 1 сделать, пиздец он медленно работает:
MixtureOfDiffusers Sampling: 57%|| 57/100 [09:17<27:01, 37.72s/it]
Аноним 26/08/23 Суб 06:36:32 #423 №466736 
>>466735
Латенты дают больше всего деталей и быстрее (вроде как), ну а то что апскейлиться так долго это из за того что ты уже большую картинку апскейлишь, или у тебя видюха старая, хотя вижу что вроде 12 гб, 3060? В любом случае ты платишь такую цену за то что у тебя не будет швов и если с нойз инвершеном то избавившийся от лишней детализации, вроде как он тоже увеличевает время апскейла
Аноним 26/08/23 Суб 06:42:44 #424 №466738 
image.png
image.png
>>466736
Лучше, 2060. А ещё есть шанс, что у меня опять слетели дрова, что бывает, когда пытаешься заапскейлить больше чем 1920х1080, попробую перезапустить.
И да, опять же в гайде не сказано, какой экстеншн откуда качать, в частности меня интересует только последний DEPTH, вот где его брать, мне 5 штук предлагают, я чет не понимат. Заранее благодарю за помощь.
Аноним 26/08/23 Суб 06:46:24 #425 №466740 
>>466738
Этот
https://github.com/thygate/stable-diffusion-webui-depthmap-script.git
Аноним 26/08/23 Суб 06:52:59 #426 №466742 
>>466736
Ну, у меня все в мыле от латента, поэтому я им не пользуюсь, деталей не наблюдаю как-то.
Аноним 26/08/23 Суб 06:57:40 #427 №466744 
>>466742
Так денойз побольше ставь, при хайрезфиксе 0.65-0.7, в гайде написано больше потому что с контролнетом
Аноним 26/08/23 Суб 07:20:59 #428 №466749 
>>466744
>>466740
Понял-принял, благодарю.
Аноним 26/08/23 Суб 11:07:53 #429 №466832 
20230826110636.jpg
Нет сейчас доступа к пк, раскрасьте кто-нибудь это нейронкой плиз.
Аноним 26/08/23 Суб 12:12:06 #430 №466884 
>>466482
>>466483
Спасибо за советы, аноны. В таком случае может в самом деле OpenPose интереснее будет. Вообще одежда в 3д выглядит неестественно, если только ручками не добавлять полигонов и не править геометрию код каждый кадр.
Может быть в самом деле стоит OpenPose болванчиков для позинга использовать, а информацию об одежде нейронка будет брать из моей Лоры. Только не знаю несколько точно она одежду повторять будет, и не будет ли отсебятины. Тут только тестировать на практике.
Аноним 26/08/23 Суб 12:39:30 #431 №466900 DELETED
>>466832
в /pa свой уйди, тут адекваты сидят, а не ленивые рисобаки
Аноним 26/08/23 Суб 14:50:23 #432 №467006 
18981-149701936-anime girl.png
>>466832
Без ТЗ результат ХЗ.
Аноним 26/08/23 Суб 15:29:49 #433 №467030 
image.png
Технаны, подскажите в чем прикол. Это овертюн же, если артефачит на всем кроме карася? Как пофиксить постфактум? Клип заменял - не сильно помогает.
Аноним 26/08/23 Суб 15:42:16 #434 №467041 
>>467030
>241х235
>базовое разрешение модели 512х512
>в чем причина
Аноним 26/08/23 Суб 17:03:08 #435 №467100 
image.png
image.png
>>465350
Бамп
>>466230
>Файнтюн sd 1.5 который как раз натренен на художниках
Откуда эта инфа? В описании написано что это просто анимешная sd1.5. Или ты имеешь ввиду туда натринеровали аниме художников?

1)Кастомный микс MilkyChicken + R34
2)Тринарт 2 (Characters)
3)SD 1.5
Аноним 26/08/23 Суб 18:42:01 #436 №467175 
>>467041
это кроп с артефактом, разрешение там стандарт 512x768
Аноним 26/08/23 Суб 19:34:06 #437 №467211 
>>467175
Тогда сори;(

Попробуй на разной силе, если это лора.
Аноним 26/08/23 Суб 19:38:25 #438 №467216 
>>467211
на любой силе артефачит ебальник и чтото еще, но в основном ебальник, это не лора
Аноним 27/08/23 Вск 17:25:25 #439 №467980 
Аноны, кто нибудь генерит тут с амд? У меня RX6700 XT, и я не могу сделать апскейл даже до 1024, мульти дифужн и тайлед вае использую. Постоянно выбивает недостаточно памяти, хули ему 12 гигов то мало? Щас листаю гитхаб директ мл, пробую разные настройки оптимизации, но все равно не получается. Может кто нибудь уже подобрал оптимальные, посоветуйте плиз.
Аноним 27/08/23 Вск 18:58:08 #440 №468063 
Такой вопрос - можно ли как-то в вебуи от автоматик1111 генерировать сразу в нескольких семплерах без ручного переключения? Может какое расширение есть?
Аноним 27/08/23 Вск 19:02:18 #441 №468072 
изображение.png
>>468063
Есть по дефолту скрипт
Аноним 27/08/23 Вск 19:20:33 #442 №468093 
Аноны, чё делать, если на колабе генерация практически сразу же прерывается и он пишет, что в тензоре NaN?
Аноним 27/08/23 Вск 19:22:28 #443 №468098 
>>468093
Не использовать коллаб. Купи себе хотя бы 3060.
Аноним 27/08/23 Вск 19:25:05 #444 №468103 
>>468072
Спасибо анончик.
Аноним 27/08/23 Вск 19:36:51 #445 №468115 
>>468098
Да у меня ноутбук блять амудешный. Ага, купи, я миллионер блять, конечно
Аноним 27/08/23 Вск 19:55:00 #446 №468140 
>>468115
Ты часто меняешь место жительства? Нет? Ну так что мешает собрать себе ПК на 3060 за 50к (без монитора)?
Аноним 27/08/23 Вск 19:59:02 #447 №468143 
>>468140
пока что для меня 50к это большие деньги, я предпочту их потратить на что-то более важное и материальное, а картиночку руками не потрогаешь
Аноним 27/08/23 Вск 20:02:13 #448 №468150 
>>468098
И генерить квадратики? Нахуй надо, уж если покупать под это дрочево видюху, то так чтобы пикчи 4-8к запекались, и вместе со всеми контрол нетами и прочими актуальными ебами.
Аноним 27/08/23 Вск 20:09:14 #449 №468163 
>>468150
На коллабе вообще дохлые T100, о чем ты?
Аноним 27/08/23 Вск 20:17:00 #450 №468179 
>>468163
У меня там получалось запечь охуенную 8к картинку за 15-20 минут, пару месяцев назад. Чё щас не знаю.
Аноним 27/08/23 Вск 20:26:01 #451 №468199 
Подскажите где позы для контролнета брать. Желательно с поддержкой тегов. Как я понимаю лучше всего он работает с реальными людьми.
Может буры с картинками с реальными людьми?
Аноним 27/08/23 Вск 21:02:48 #452 №468284 
>>468163
А что тогда не дохлое? Алсо интересно, они реально отдают мне целую настоящую карточку или используют какой-то механизм выделения?
Аноним 28/08/23 Пнд 00:09:56 #453 №468586 
>>468284
>или используют какой-то механизм выделения?
Само собой это.
Аноним 29/08/23 Втр 12:56:01 #454 №469990 
pedro.mp4
>>399707 (OP)
А обучение ЛОРы требует меньше vram чем обучение эмбединга?
А то я заебался что на gtx 1660, как ни кручу, никак не влезает 2 мб.
Аноним 29/08/23 Втр 15:18:07 #455 №470078 DELETED
>>465350
ты просто аниму-дебил
Аноним 30/08/23 Срд 00:47:28 #456 №470717 
>>469990
>А обучение ЛОРы требует меньше vram чем обучение эмбединга?
Больше, ибо лора это более глубокое обучение, чем эмбедингю.
Аноним 30/08/23 Срд 01:25:49 #457 №470782 
>>467216
Отключай Restore Faces. Он лица только ломает (обычно).

Делай апскейл хайрезфиксом. Такая фигня может случаться от того, что в сетах были мешанина из реалистик картинок, аниме, и чего-то очень сильно стилизированного.
Аноним 30/08/23 Срд 01:27:03 #458 №470786 
>>469990
Позакрывай разные приложения. Они тоже бывают по чуть-чуть отжирают. Браузерные вкладки, стим, дискорд...
Аноним 30/08/23 Срд 03:29:22 #459 №470860 
>>470782
рестор выключен по дефолту всегда
лица ломаются перманентно, частично ломаются фоны и так далее зависит от сида
я так понимаю модель по пизде идет и там по слоям что-то сдвигается, мне бы какой фикс найти под это дело, замена клипа не работает, подмена юнет тоже, трейн дифренс с дополнительными полностью рабочими моделями ухудшает артефакты еще больше
Аноним 30/08/23 Срд 19:46:32 #460 №471512 
>>470717
Ясно, спасибо.
>>470786
2 мегабайта стабильно не хватает и 448х448 и 320х320 и с открытыми приложениями жрущими vram и закрытыми все ровно 2 мб. Пробовал Kohya_ss, webUI, Onetrainer, vladmandic. Остается только sd-scripts.

Хотя генерировать могу по 5 пикч (448х640)одновременно, не уходя в lowram mode, но только на комфиЮИ.

А у тебя тоже 1660?
Аноним 30/08/23 Срд 19:54:53 #461 №471522 
>>471512
gradient accumulation ебани, оно будет меньше врам кушать, но и тренировать медленнее.
Аноним 30/08/23 Срд 21:13:14 #462 №471606 
image.png
>>471522
Вообще никак не повлияло. Мне интересно это SDXL все разъебал или у меня просто старя версия шин10.
Аноним 30/08/23 Срд 21:31:01 #463 №471629 
>>471606
Оно блоками память выделяет, увеличивай градиент, уменьшай батч сайз, кешируй латенты на диск
Аноним 30/08/23 Срд 21:33:12 #464 №471632 
>>471629
Хотя тренировать SDXL на 6 гигах у тебя вряд ли получится в принципе.
Аноним 30/08/23 Срд 22:02:09 #465 №471690 
>>471629
>увеличивай градиент
и 2 и 128 пробовал
>уменьшай батч сайз
всегда 1
>кешируй латенты на диск
теперь требует 16 мб
>>471632
Нет, я имел ввиду что поддержка SDXL сломала тренировку в SD1.5. Вот у Kohya gui просят отдельный бранч для SD1.5 сделать, т.к. скорость\качество стало хуже. Может и требования для тренировки SD1.5 тоже увеличилась. Я, конечно же, тренирую SD1.5.
Аноним 30/08/23 Срд 22:07:05 #466 №471700 
>>471690
> скорость\качество стало хуже
Пиздят. Я на SDXL-ветке тренирую и 1.5, никакой разницы. За гуй не знаю, это уже не к кохе вопросы, а кто говно-гуй пилил.
Аноним 31/08/23 Чтв 00:53:29 #467 №471866 
>>471512
>А у тебя тоже 1660?
Нет, у меня была 2070, но я на ней постоянно в 8 гигов упирался, приходилось иногда для включения контролнета убирать часть программ из памяти.
Аноним 31/08/23 Чтв 03:12:27 #468 №471945 
>>469990
Тебе стоит попробовать gradient_checkpointing, а не аккумулейшион который для имитации батча, и да cache_latents_to_disk тоже. В сд-скриптсах соответствующие ключи, в гуях к нему тоже должны быть.
Аноним 31/08/23 Чтв 19:11:21 #469 №472521 
00164,.png
>>467006
Четкости не хватает, но мне лениво было с линиями париться.
Так что получилось как получилось.
Аноним 31/08/23 Чтв 19:12:03 #470 №472524 
>>466832
>>467006
>>472521
Тьфу, не на тот пост ответил.
Аноним 31/08/23 Чтв 19:40:36 #471 №472597 
image.png
image.png
>>471866
Понятно.
>>471945
А я не понял, в сд-скриптсах нужно самому создать лаунчер, да? В нашем гайде на 6гб нече про это не написано. После установки "редактирование скрипта", хотя "скрипта" в папке с программой нет.
Аноним 31/08/23 Чтв 19:43:30 #472 №472605 
image.png
>>399707 (OP)
>demonic girl suited to highly detailed dress, 8k, beautiful
Мде
Аноним 31/08/23 Чтв 20:32:18 #473 №472681 
>>472597
Там же скрипт от анона какой-то в гайде, скорее всего про него речь.
Аноним 31/08/23 Чтв 20:53:10 #474 №472710 
>>472605
>шизопромпт
>512x512
Лiл
Аноним 31/08/23 Чтв 21:43:51 #475 №472763 
>>472681
А, точно. Но судя по всему этот скрипт для лор.
Аноним 31/08/23 Чтв 21:56:58 #476 №472784 
>>472763
Ну так а тебе что надо? В любом случае, скрипт тупо переменные проставляет дефолтные (Ну и пару вычислений на количество шагов делает необязательных), после чего 90% всего этого идет просто в параметры запуска train_network.py, так что кури хелпу к train_network.py и запускай как тебе надо, благо в хелпе кроме японского английский тоже есть.
Аноним 01/09/23 Птн 00:03:50 #477 №472912 
>>472784
Что нужно сделать чтобы скрипт эмбединги тренил?
Аноним 01/09/23 Птн 00:42:45 #478 №473000 
>>472912
Там есть скрипт train_textual_inversion.py
Аноним 01/09/23 Птн 03:50:53 #479 №473277 
00011-665607121.png
00027-665607121.png
Новое обновление автоматика сэмплеры поломало что ли? DPM++2M SDE Karras, с теми же настройками.
Было и стало. Пиздец мыло. Иногда выдает совершенно другие арты.
Аноним 01/09/23 Птн 22:00:34 #480 №473843 
15614504606380.jpg
>>473000
>>469990
Спасибо, всем кто помогал. Я достиг предела своей компьютерной компетентности. sd-scripts оказался сильнее. Следующий раз попробую эмбединги если\когда установлю обновления на десятку и новые драйвера (531).
Аноним 01/09/23 Птн 23:07:43 #481 №473929 
>>472597
> А я не понял, в сд-скриптсах нужно самому создать лаунчер, да? В нашем гайде на 6гб нече про это не написано.
Гайд староват и был написан когда и половины того, что сейчас есть, не было, давно пора бы переделать. Если совсем плохо понимаешь, лучше в гуе дерриана поставь вот так градиент чекпоинтинг, а остальные настройки свои. Я бы мог тебе скинуть конфиг для самого непопулярного гуя местного анона, ведь я пользуюсь именно им, но мне кажется ты ещё больше запутаешься, так как там нужен готовый венв с сд-скриптсами.
>>473843
> Следующий раз попробую эмбединги
Зачем? Он же для совершенно иного предназначен.
Аноним 01/09/23 Птн 23:08:38 #482 №473932 
1680947278566.png
>>473929
Пик забыл
Аноним 01/09/23 Птн 23:56:44 #483 №473968 
image.png
>>469990
>>473843
Оно stable diffusion portable, каким-то хуем, заработало!
>>473929
> Следующий раз попробую эмбединги
>Зачем? Он же для совершенно иного предназначен.
Это я и пытался сделать, но наверно плохо это скоммуницировал.
Аноним 02/09/23 Суб 02:06:09 #484 №474026 
Снимок.JPG
Что этой параше не нравится. В папке есть картинки.
Аноним 02/09/23 Суб 02:08:08 #485 №474028 
>>474026
Буквально то что она написала, отсутствует необходимая структура папок в датасете.
Аноним 02/09/23 Суб 02:14:39 #486 №474031 
>>474028
Какая нахуй структура?
Структура иерархии каталогов другой и не может быть. папка внутри папки внутри картинки.
Они называть должны как-то конкретно? Так там в примере они называются dog и cat.
Мне их что так же надо назвать? Это чё прикол такой?
Аноним 02/09/23 Суб 02:18:03 #487 №474033 
>>474031
Внутри папки датасета должна быть одна или несколько папок, с именем N_xx где N - число повторений при обучении, xx - имя концепта (можно любую букву поставить если каждая пикча протегана). Внутри уже этой(тих) папок должны быть пикчи.
> Мне их что так же надо назвать?
В начале число повторений, потом имя, например 4_cat 14_dog.
Аноним 02/09/23 Суб 03:26:55 #488 №474056 
>>474033
Ну я поставил 40_woman.
Оно там начало что-то крутить, и создало файл .safetensors.
Я закинул его в папку лоры. Добавил в промт. И нихуя. Ну типа нет ни намека, что баба фото которой лежали в папке 40_woman, как-то влияют, на то, что выдается.
Оно как генерило дженерик баб, так и продолжает генерить.
Аноним 02/09/23 Суб 04:47:20 #489 №474076 
sdxl is useful.png
nai-loss.PNG
sdxl-loss-wft.PNG
nai-batch.jpg
sdxl-batch.jpg
sdxl-test.png
У кого-нибудь вышло подобрать базовую модель и параметры для треньки SDXL-лор на аниме-тяночек? Насколько я понимаю, оригинальная SDXL модель хорошо обучается на реалистик, а вот как правильно обучать аниме - непонятно, и лор на персов очень мало в публичном доступе. Судя по описанию лор на цивите, для обучения пытаются использовать либо оригинальный SDXL, либо CounterfeitXL.

Тестирую разные параметры обучения, оптимальные значения пока не ясны. Для теста взял датасет из ~200 картинок с 5 повторами на эпоху (т.е. суммарно ~1000 шагов на эпоху, без учёта батчей) и пытаюсь подобрать параметры обучения, пока выходит не очень. Хотя для того же NAI всё прекрасно тренится. На всех пиках (кроме первого) промпты идентичны, эмбеддинги не используются. Для теста 1.5 на пиках CounterfeitV3 (ген 512x512 и апскейл x2), для теста SDXL - CounterfeitXL (просто ген 1024x1024).

Есть идеи, в какую сторону копать? Или может пока не выйдет достойного базового чекпоинта под аниме не имеет смысла даже пытаться?
Аноним 02/09/23 Суб 12:19:32 #490 №474193 
Скажите лоры подобные этой https://civitai.com/models/58390/detail-tweaker-lora-lora, всякие твикеры тренеруються через Weighted captions? Я так понял таким образом можно научить различать модель "полярные" особенности
Аноним 02/09/23 Суб 13:21:21 #491 №474226 
16018342409450.jpg
Еще раз спасибо всем кто мне ( >>469990 ) помогал.
Аноним 02/09/23 Суб 13:23:19 #492 №474228 
>>474056
Какие были параметры тренировки, в инфо генераций было указано что лора подгрузилась и приведен ее хэш?
>>474076
> пока не выйдет достойного базового чекпоинта под аниме не имеет смысла даже пытаться
Скорее всего this, плохой результат может быть не только/столько из-за лоры а таков общий перфоманс модели. На всякий уточню - разрешение пикч датасета 1024+? Ты просто лору делаешь или локон/ликорис/... с дополнительными матрицами?
Что насчет скопировать параметры тренировки из лоры на реализм? С размерностью и альфой игрался?
В wd результат улучшала тема с добавлением в теги их триггеров анимца (tone mapped, anime, ...), но последняя подделка xl по дефолту их не использует, так что может и толку не будет.
> эмбеддинги не используются
Рекомендованный негатив cfxl подкидывать не пробовал?
Для начала дефолтный грид с разным лр надо пощупать, сколько там тренировка одной лоры занимает?
Аноним 03/09/23 Вск 02:08:04 #493 №474860 
>>474228
>Какие были параметры тренировки
Да я там вообще не менял никакие параметры.
Я понял что это тупо зависит от названия папки. 40_woman.
Поставил 260_woman и что-то начало появляться.
Но всё равно похожее ебало только мелькает на предпросмотре в процессе генерации, когда картинка мыльная. А финальный результат всё равно нихера не похож на тренировку.
Аноним 03/09/23 Вск 09:00:36 #494 №474919 
>>473277
у тебя второй пик на euler a
Аноним 03/09/23 Вск 09:55:20 #495 №474932 
xyzgrid-0102-665607121.png
>>474919
Ну я же не настолько дебил, что бы не заметить, что я мог не тот сэмплер влепить, когда я всегда на одном и том же делаю. После обновы так вся линейка DPM++2M SDE и DPM++3M SDE начало выдавать ебейшее мыло с проебом деталей.

Вот тебе euler a и DPM++2M SDE Karras в качестве пруфа. Еулер даже лучше работает, та что ты ошибся.
Аноним 03/09/23 Вск 09:57:02 #496 №474936 
>>474932
Поправлю себя: все сэмплеры, которые включают в себя SDE после обновления стали выдавать ебейшее мыло. Так будет точнее.
Аноним 03/09/23 Вск 12:18:22 #497 №475008 
>>474860
У тебя одна фотка чтоли? Число в имени это количество повторений пикч что внутри. Обычно их десятки или сотни, 260 даст безумное число шагов. Ну проблема у тебя явно в параметрах и/или датасете.
>>474932
Забекапь жсон с параметрами, удали, после запуска выстави базовые необходимые настройки и попробуть опять сгенерировать.
Аноним 03/09/23 Вск 15:05:18 #498 №475166 
>>474932
кинь промпт и настройки своей антилопы ебаной сюда, а еще для прикола попробуй все экстеншены обновить мож чо поправит
Аноним 04/09/23 Пнд 05:03:43 #499 №475825 
NAI негатив.png
CounterfeitXL негатив.png
сколько рук.png
>>474076
https://www.youtube.com/watch?v=N_zhQSx2Q3c
Попробовал ещё раз по параметрам с этого видоса, он там реализм тренит. Вроде немного получше, хотя может просто сиды удачные выпали, или у меня уже глаз замылился после нескольких дней разглядываниях этого добра на SDXL. Думаю, надо эпох побольше, или лр ещё выше сделать.

Не могу понять только, почему он почти всегда пытается какой-то "side-view from behind" сделать, если я его ни о чём таком не прошу. Только в 19 сиде поза почти на всех версиях лоры выглядит так, как я ожидал бы от такого запроса.

---

Базовая модель: https://huggingface.co/stabilityai/stable-diffusion-xl-base-1.0/resolve/main/sd_xl_base_1.0.safetensors
Batch size выставил в 4 чтобы пекой можно было пользоваться пока лоры тренятся, а так вроде 6 максимум влезает в 24GB VRAM.

Попробовал варианты с/без треньки текстового энкодера и вариант с SD-style промптами (сгенерил через blip captioning) вместо booru-like, раз у нас базовый чекпоинт не аниме.

В видосе упомянули эти параметры, пробовал с ними тестить:
--network_alpha="16"
--network_dim=32

--learning_rate="0.0003"
--text_encoder_lr=0.0003
--unet_lr=0.0003

--optimizer_type="Adafactor"
--lr_scheduler="constant"

--no_half_vae
--mixed_precision="bf16"
--save_precision="bf16"
--cache_latents
--cache_latents_to_disk
--gradient_checkpointing

И ещё в видосе такую настройку через UI вбили в LR scheduler extra arguments, не понял, как она в кохя-скрипт передаётся:
scale_parameter=False relative_step=False warmup_init=False

>>474228
> На всякий уточню - разрешение пикч датасета 1024+?
Чекнул - и вправду, некоторые арты не дотягивают до 1024x1024 по какой-то из сторон. Так что стоит датасет перебрать.

> Ты просто лору делаешь или локон/ликорис/... с дополнительными матрицами?
Пока просто лору пробую.

> Рекомендованный негатив cfxl подкидывать не пробовал?
На пиках слева какой-то обычный негатив от nai, а справа копипастнул негатив с примера на цивите для CounterfeitXL. Эмбеддинг negativeXL_D скачал. Из того, что явно заметно - с рекомендованным негативом сильно отличаются цвета в зависимости от того, тренили ли мы на тегах в стилях бур или в стилях SD.

> Для начала дефолтный грид с разным лр надо пощупать, сколько там тренировка одной лоры занимает?
Одна эпоха при ~1000 повторах (батч сайз 4) и параметрами выше у меня тренится 10 минут.
Аноним OP 04/09/23 Пнд 05:29:02 #500 №475827 
.png
.png
Есть соображения, что поменять в шапке перед катом?

Поскольку SDXL релизнулся, предлагаю добавить в шапку схему его работы. Для этого можно объединить эти две картинки в одну. Вторую можно перевести перед этим, при желании; хотя я не вижу особого смысла в этом.

Всё написанное в секции про обучение SDXL вроде как ещё актуально. Разве что не уверен насчёт актуальности этой фразы:
> Всё пока сырое и имеет проблемы с совместимостью, только для самых нетерпеливых.
Аноним 04/09/23 Пнд 06:26:06 #501 №475835 
>>475008
>Забекапь жсон с параметрами, удали, после запуска выстави базовые необходимые настройки и попробуть опять сгенерировать.
Так, абажди, а какой и где? config.json или ui-config.json в корневой папке, или вообще что-то конкретное в папке configs?
>>475166
Обновил, не поправилось. Все так же мыло выдает.
https://files.catbox.moe/609c0j.png
Аноним 04/09/23 Пнд 06:32:58 #502 №475837 
>>475008
>Забекапь жсон с параметрами, удали, после запуска выстави базовые необходимые настройки и попробуть опять сгенерировать.

Да, это помогло. Удалил оба конфига, теперь мыла нет. Может что лишнее удалил, хз. Пасеба, теперь специальная олимпиада по выставлению всего обратно.
Аноним 04/09/23 Пнд 16:24:43 #503 №476136 
>>475827
Тренировка Yolo детект моделей для адитейлера может будет полезна?
Гайд https://civitai.com/articles/1224/training-a-custom-adetailer-model
Тулза для датасета https://github.com/vietanhdev/anylabeling
Больше про параметры https://docs.ultralytics.com/modes/train/
Аноним OP 05/09/23 Втр 08:05:12 #504 №476899 
.png
.png
>>475827
> Всё пока сырое и имеет проблемы с совместимостью, только для самых нетерпеливых.
Уберу эту строку из шаблона перед катом, если нет возражений.

> Поскольку SDXL релизнулся, предлагаю добавить в шапку схему его работы. Для этого можно объединить эти две картинки в одну.
SDXL схему на коленке перевёл в вертикальную ориентацию, чтобы она нормально смотрелась в паре со схемой для SD 1.5. Она у меня в векторном представлении есть, можно поменять что-нибудь, если есть пожелания.

>>476136
> Тренировка Yolo детект моделей для адитейлера может будет полезна?
Давай добавим, лишним не будет.

➤ Тренировка YOLO-моделей для ADetailer
YOLO-модели (You Only Look Once) могут быть обучены для поиска определённых объектов на изображении. В паре с ADetailer они могут быть использованы для автоматического инпеинта по найденной области.

Гайд: https://civitai.com/articles/1224/training-a-custom-adetailer-model
Тулза для датасета: https://github.com/vietanhdev/anylabeling
Больше про параметры: https://docs.ultralytics.com/modes/train

---

Катну сегодня вечером, если больше нет предложений.
Аноним 05/09/23 Втр 15:21:25 #505 №477184 
image.png
image.png
Мужики, тред не читал, не генерил чуть меньше месяца и пропустил некоторые вещи. Подскажите пожалуйста что это:

1. Что за XL модели? Краем уха читал что это полная дроч и поставить их тяжело, а так же не увидел список их недостатков и преимуществ в сравнении с обычными моделями.
2. Второй пик. Что это такое? Как я понял связано с XL дифуженом и как я понял это еще один способ апскейла и добавления деталей или што?
3. Уже все по отключал, так и не понял куда у меня кнопочки со стилями пропали. Пытался найти информацию об этом, но не нашел

Умоляю на коленях помогите
Аноним 05/09/23 Втр 19:20:34 #506 №477505 
>>477184
три раза тебе ответ писал, но какие-то ебучие стоп-слова не дают отправить
Проебанные стили - это обноление автоматика
СДХЛ тут не при чем
Рефайнер - это улучшалка для СДХЛ и не только, просто забей, ни на что не слияет
Аноним 05/09/23 Втр 19:35:27 #507 №477533 
>>477184
> Что за XL модели?
Новая версия от стабилити, аниме пока генерит посредственно, дедов может.
> Что это такое?
Рефайнер, буквально постом выше, индусы изобрели хайрезфикс, должен дорисовывать до выхода из латента картинку примерно на 0.8 как раз, но работает как то так себе.
> Уже все по отключал, так и не понял куда у меня кнопочки со стилями пропали.
Не пользовался ими. Вот эта кнопка с кистью у тебя на пик2 разве не то что тебе нужно?
>>476899
> Уберу эту строку из шаблона перед катом, если нет возражений.
Ну хз, сырость никуда не пропала, кохья до сих пор не добавил в мейн сдхл ветку, как и дерриан, чекпоинта для аниме тоже нету.
Ну кати, раз нету других предложений.
Аноним OP 06/09/23 Срд 00:19:36 #508 №478083 
>>478081 (OP)
>>478081 (OP)
>>478081 (OP)

> Ну хз, сырость никуда не пропала, кохья до сих пор не добавил в мейн сдхл ветку, как и дерриан, чекпоинта для аниме тоже нету.
Ок, оставил.
comments powered by Disqus

Отзывы и предложения