Сохранен 802
https://2ch.hk/ai/res/130722.html
24 декабря Архивач восстановлен после серьёзной аварии. К сожалению, значительная часть сохранённых изображений и видео была потеряна. Подробности случившегося. Мы призываем всех неравнодушных помочь нам с восстановлением утраченного контента!

Stable Diffusion технотред #7 /tech/

 Аноним 24/02/23 Птн 23:43:55 #1 №130722 
.png
.png
.png
.jpg
ИТТ делимся советами, лайфхаками, наблюдениями, результатами обучения, обсуждаем внутреннее устройство диффузионных моделей, собираем датасеты, решаем проблемы и экспериментируем
Тред общенаправленныей, тренировка дедов, лупоглазых и фуррей приветствуются

Предыдущий тред: >>108863 (OP)

➤ Гайды по обучению

Существующую модель можно обучить симулировать определенный стиль или рисовать конкретного персонажа.
Текстуальная инверсия (Textual inversion) может подойти, если сеть уже умеет рисовать что-то похожее:
https://rentry.org/textard (англ.)
Гиперсеть (Hypernetwork) может подойти, если она этого делать не умеет; позволяет добавить более существенные изменения в существующую модель, но тренируется медленнее:
https://rentry.org/hypernetwork4dumdums (англ.)
Dreambooth – выбор 24 Гб VRAM-бояр. Выдаёт отличные результаты. Генерирует полноразмерные модели:
https://github.com/nitrosocke/dreambooth-training-guide (англ.)
LoRA – "легковесный Dreambooth" – подойдет для любых задач. Отличается малыми требованиями к VRAM (6 Гб+) и быстрым обучением:
https://rentry.org/2chAI_LoRA_Dreambooth_guide
Text-to-image fine-tuning для Nvidia A100/Tesla V100-бояр:
https://keras.io/examples/generative/finetune_stable_diffusion (англ.)
Бонус. ✱ Text-to-image fine-tuning для 24 Гб VRAM:
https://rentry.org/informal-training-guide (англ.)
Не забываем про золотое правило GIGO ("Garbage in, garbage out"): какой датасет, такой и результат.

➤ Гугл колабы

﹡Текстуальная инверсия: https://colab.research.google.com/github/huggingface/notebooks/blob/main/diffusers/sd_textual_inversion_training.ipynb
﹡Dreambooth: https://colab.research.google.com/github/TheLastBen/fast-stable-diffusion/blob/main/fast-DreamBooth.ipynb
﹡LoRA [1] https://colab.research.google.com/github/Linaqruf/kohya-trainer/blob/main/kohya-trainer.ipynb
﹡LoRA [2] https://colab.research.google.com/drive/1bFX0pZczeApeFadrz1AdOb5TDdet2U0Z

➤ Полезное

Гайд по фиксу сломанных моделей: https://rentry.co/clipfix (англ.)
Расширение WebUI для проверки "сломаных" тензоров модели: https://github.com/iiiytn1k/sd-webui-check-tensors
Гайд по блок мерджингу: https://rentry.org/BlockMergeExplained (англ.)
Гайды по апскейлу от анонов:
https://rentry.org/SD_upscale
https://rentry.org/sd__upscale
Подборка мокрописек от анона: https://rentry.org/te3oh
Группы тегов для бур: https://danbooru.donmai.us/wiki_pages/tag_groups (англ.)
Коллекция лор от анонов: https://rentry.org/2chAI_LoRA (заливать лоры можно сюда https://technothread.space/ пароль 2ch)
Гайды, эмбеды, хайпернетворки, лоры с форча:
https://rentry.org/sdgoldmine
https://rentry.org/sdg-link
https://rentry.org/hdgfaq
https://rentry.org/hdglorarepo
https://gitgud.io/gayshit/makesomefuckingporn
Сервер анона с моделями: https://static.nas1.gl.arkprojects.space/stable-diff/

Шапка: https://rentry.org/ex947
Прошлые треды:
№1 https://arhivach.top/thread/859827/
№2 https://arhivach.top/thread/860317/
№3 https://arhivach.top/thread/861387/
№4 https://arhivach.top/thread/863252/
№5 https://arhivach.top/thread/863834/
№6 https://arhivach.top/thread/864377/
Аноним 24/02/23 Птн 23:49:46 #2 №130735 
Чем смотреть логи лосса лоры?
Аноним 24/02/23 Птн 23:53:53 #3 №130747 
>>130735
https://github.com/tensorflow/tensorboard
Аноним 24/02/23 Птн 23:56:30 #4 №130751 
Exception training model: 'Accelerator.unwrap_model() got an unexpected keyword argument 'keep_fp32_wrapper''.

после обучения лоре вылезла ошибка, чяднт?
Аноним 24/02/23 Птн 23:57:27 #5 №130757 
>>130735
https://arhivach.top/thread/860317/#73756
Аноним 24/02/23 Птн 23:58:58 #6 №130759 
>>130747
Спасибо, то что нужно.
>>130757
Честно искал по слову loss, не нашел. Это надо вообще в шапку добавить.
Аноним 25/02/23 Суб 00:09:16 #7 №130777 
Кто-то уже --use_lion_optimizer тестил?
Аноним 25/02/23 Суб 01:06:05 #8 №130854 
Как правильно мержджить лоры с моделью?
Аноним 25/02/23 Суб 01:13:09 #9 №130862 
>>130348 →
> 6+ часов десятки тысяч повторов ставил
У тебя там 250 пикч? За чем тогда на +6 часов ставил? Поставь минут на 20-40.
У меня вот в 768 разрешении 250 пикч вертелись часов 15, но это только лишь потому, что 250 пикч в 768 на rtx2060. Ставил примерно 8 повторов на 10 эпох, и в итоге выбрал 6-ю, хотя и 4-я была уже хорошей.
Аноним 25/02/23 Суб 01:25:54 #10 №130872 
>>130348 →
> 6+ часов десятки тысяч повторов
> не получается нормального
Хммм, действительно в чем же дело?
Больше 2-3к шагов, 4к накрайняк делать смысла нет если что, только с твоих потуг если они направлены не туда?
Аноним 25/02/23 Суб 01:37:02 #11 №130878 
1677278221587.png
>>130757
Охуеть. Оказываться все это время эта хрень уже была у меня установлена в составе скрипта. Но и охуеть в двойне с того, что логи я не вел, ибо стояло $logging_dir = "" # (optional)
Аноним 25/02/23 Суб 01:41:52 #12 №130884 
>>130348 →
В зависимости от разнообразия датасета уже на 400 шагов может начать нормально получаться.
Выше 2000-2500 целиться смысла практически нет - начинается перетренировка.
Ну и не забывай, что можно задавать силу применения к ЛОРАм. Некоторые работают только в диапазоне от 0.4 до 0.7, а некоторые можно крутить аж до 2.0 без распидорашивания картинки. Почему так - я и сам не знаю.

>>130862
Что-то прям долго. Сегодня только вот в коллабе тренировал 8 эпох на 768, 600 картинок без повторов, батчем 2.
2.5 часа всего крутилось. И то последние 2 эпохи были лишними, картинка уже не менялась на них.
Аноним 25/02/23 Суб 01:49:44 #13 №130890 
>>130722 (OP)
нормально перекати, твой высер в прошлом треде не видно
Аноним 25/02/23 Суб 01:51:43 #14 №130894 
>>130884
Ну у тебя было без повторов с банчем 1. А у была цель обучить 10 концептов одновременно.
Аноним 25/02/23 Суб 05:13:06 #15 №130929 
>>130884
>>130872

Спустя 3 недели ебания с этой проблемой все же нашел причину - в ебучем теге realistic в датасетах. Ну, хуйдожник рисует в околореализме, потому и проставоено там везде.

Убрал и всех, и лора взлетела на 4х80 пикчах датасета как по маслу и как доктор прописал, с свитспотом и плавным переходом от норм к разорви ебало.
Аноним 25/02/23 Суб 05:15:49 #16 №130931 
>>130884
про 768 странная хуйня, у меня на 3090 512 на 4х80 тренится минут 40 с батчем 5...8.
а 768 в 5+ часов, свопит постоянно.
Аноним 25/02/23 Суб 05:28:28 #17 №130936 
>>130872
На 0.3.1 менее 7к шагов на стиль ставить бессмысленно. На 0.4.0 вообще не тренируется, хз, зачем эта версия нужна
Аноним 25/02/23 Суб 05:32:15 #18 №130939 
>>130884
В каком колабе? Ссылку на блокнот
Аноним 25/02/23 Суб 05:32:53 #19 №130940 
>>130872
Там в прошлом треде я все рассказывал, не было зависимости от числа шагов. Сразу разрыв ебала скачком, хоть 1к хоть 10к хоть 5к, с разными лр, моделями и т.д., от их соотношений только менялась эпоха, на которой происходил разрыв ебала.

При этом highres fix вытягивал все таки картинку на уровень трененой лоры, но очевидно было что-то не так.
Аноним 25/02/23 Суб 06:07:44 #20 №130963 
https://github.com/stochasticai/x-stable-diffusion
Что это?
Аноним 25/02/23 Суб 06:21:57 #21 №130966 
Быстрее tensorrt
https://github.com/facebookincubator/AITemplate#installation
https://facebookincubator.github.io/AITemplate/tutorial/how_to_infer_pt.html
И, это можно использовать для сд через - >>130963
?
Аноним 25/02/23 Суб 06:51:40 #22 №130972 
Как вытащить лора из дримбут модели в колабе? Все варианты крашатся из-за недостатка РАМа.
Аноним 25/02/23 Суб 08:49:16 #23 №131005 
>>130966
> Быстрее tensorrt
Чел, оно даже медленнее xformers, у tensorrt сосёт с проглотом.
Аноним 25/02/23 Суб 09:23:26 #24 №131013 
Есть ли какой то магический способ если мне нужно замутить лору на персонажа, а из того что есть это 4-7 картинок из койкатсу?
Аноним 25/02/23 Суб 09:33:41 #25 №131017 
Что вообще за tensorrt? Слышал, что ускоряет. Тогда почему еще нет в передовом колабе ластбена? Самому легко поставить и нужно ли?
Аноним 25/02/23 Суб 09:39:07 #26 №131018 
Нарисуйте, пожалуйста, как пьяного крысопса ебут в жопу бомжи и водят вялым ему по губам.
Аноним 25/02/23 Суб 10:50:59 #27 №131046 
>>131013
Найди эту 3d модель, надедай скриншоты с ней. Сделай лору, после чего прогони свои рендоры через img2img с ней же и опять в лору.
Аноним 25/02/23 Суб 10:55:53 #28 №131048 
>>131013
Может с первого же раза выйти. Если и со второго не выйдет, можешь попробовать скриншоты в фотошопе немного замылить, чтобы картинки получились менее резкие по граням.
Аноним 25/02/23 Суб 11:41:16 #29 №131069 
СУКИ ПОЧЕМУ НЕЛЬЗЯ СДЕЛАТЬ ДЛЯ ТУПЫХ ПЛАГИН, ЧТОБЫ БЫЛО ДВЕ КНОПКИ ЗАГРУЗИТЬ ИЗОБРАЖЕНИЯ И ОБУЧИТЬ
Аноним 25/02/23 Суб 12:07:03 #30 №131085 
>>131069
https://colab.research.google.com/github/Linaqruf/kohya-trainer/blob/main/fast-kohya-trainer.ipynb тут же выкатили версию для тупых в одноклик
Аноним 25/02/23 Суб 12:16:47 #31 №131090 
image.png
>>131085
ДА Д А ДА
Аноним 25/02/23 Суб 12:34:06 #32 №131099 
2023-02-25-103318998x769scrot.png
>>131090
Опечатка, зайди в код и добавь двоиточие

def install_dependencies():
!pip -q install --upgrade gdown
!apt -q install liblz4-tool aria2
!pip -q install --upgrade -r requirements.txt
Аноним 25/02/23 Суб 12:55:51 #33 №131110 
>>131099
НУ ОХУЕТЬ ВОТ ЭТО РЕАЛЬНО ДЛЯ ТУПЫХ СДЕЛАНО, А ДЛЯ УМНЫХ НАВЕРНОЕ НАДО ЕЩЕ И КОД ПИСАТЬ САМОМУ?
Аноним 25/02/23 Суб 13:03:02 #34 №131115 
image.png
>>131110
НАХУЙ И В ПИЗДУ
Аноним 25/02/23 Суб 13:03:57 #35 №131116 
Генерить 24/7 это примерно так же плохо для видюхи как и майнинг?
Аноним 25/02/23 Суб 13:06:56 #36 №131117 
>>131110
>А ДЛЯ УМНЫХ НАВЕРНОЕ НАДО ЕЩЕ И КОД ПИСАТЬ САМОМУ?
да, а ты как думал? Хоть какой-то фильтр, а то совсем бы у мясных художников все стили перекопировали!
ну опечатался автор че бубнить, скоро пофиксят, разработка активно идет
Аноним 25/02/23 Суб 13:19:34 #37 №131126 
2023-02-25-111826940x414scrot.png
>>131115
Лол.
debug_params = ["mode",
"use_dreambooth_method",
"lowram"
Запятую после lowram добавить надо
Аноним 25/02/23 Суб 13:22:49 #38 №131129 
>>131126
МОЖЕТ ПРОСТО НЕ НАДО НЕРАБОТАЮЩИЙ КАЛ РЕКОМЕНДОВАТЬ?
Аноним 25/02/23 Суб 13:24:41 #39 №131130 
>>131129
Не знал что там настолько все плохо что фиксить и фиксить. Не-fast (но они позиционируются не как однокнопочные) колабы другие аноны норм использовали и хвалили..
Аноним 25/02/23 Суб 14:01:18 #40 №131174 
>>130931
Я только на колабе это тестировал, моя 2070 в 768 не может. Прилично дольше, чем на 512, но удивительно, что вообще работает.
>>130939
Вторая в шапке.
Аноним 25/02/23 Суб 14:04:02 #41 №131178 
>>131116
Я так думаю, что даже хуже.
Нагрузка высокая, но неравномерная, скачками, когда генерация перезапускается.
Но это так, чисто мнение дилетанта.
Аноним 25/02/23 Суб 14:08:42 #42 №131185 
>>131085
Вторая в шапке довольно понятная.
Пропускаешь третий шаг, на остальное кликаешь по-очереди.
Настройки один раз поправить, указав правильные ссылки на папки в твоем гуглдрайве (подключается первым шагом),и название выходной лоры. И оно заработает.
А дальше уже можно играться с параметрами.
Аноним 25/02/23 Суб 14:26:36 #43 №131203 
>>131178
Всё так.
Аноним 25/02/23 Суб 15:57:18 #44 №131305 
>>130929
Вот оно как, ошибки в одних тегах не влияют, а другие если проскочат - сразу все ломается.
>>130936
А какой именно стиль ты тренил? В смысле в чем он заключается, какие-то особенности у персонажей, или сам стиль изображения типа той же пастели?
> На 0.4.0 вообще не тренируется
Лр куда больше нужен, ну или альфу равную диму для того же поведения
Аноним 25/02/23 Суб 16:36:14 #45 №131341 
>>131305
Стиль изображения
Аноним 25/02/23 Суб 21:13:36 #46 №131616 
>>131046
Проблема в том что модели нет, но ха идею спасибо
Аноним 25/02/23 Суб 22:29:53 #47 №131677 
Хм...

Попробовал натренить лору с клип скипом 2 на наи модельке но на фотках бывшей ...

Вышло в разы лучше чем на сд, т.е. реализм во все поля но еще и вдобавок научилось раздевать одевать ебать рисовать волосню и разную комплекцию и эмоции, хоть в лольку хоть в старуху с вислыми сиськами и т.д. Причем оно именно на фото натренелось, вся анимешност исчезла вовсе.

Чудеса...
Аноним 25/02/23 Суб 22:40:07 #48 №131687 
>>131178
>>131203
тут ен столько в нагрузке проблема, сколько в скачках температуры и перегревах, по этому тюним режим охлада на оптимальные температуры, чтобы минимизировать скачки... - ну и плюсом лучше кулер дует - лучше охлаждение памяти... вообще лучше серверный корпус с хорошей продувкой, но эт для датацентро-бояр, в квартире ИМХО слишком громко будет
Аноним 25/02/23 Суб 23:50:02 #49 №131752 
Вопрос к участникам, никто часом на бусти Хачатура aka XpucT не подписан? https://boosty.to/xpuct
по спойлерам материалы неплохие должны быть по лайфхакам с SD, но, не зная за что, 7$ отдавать не хочется И жаба давит, по этому может кто-то кратко поделится интересной информацией, или хотябы отзывами?
Аноним 26/02/23 Вск 00:07:28 #50 №131763 
>>131677
Ну так пили гайд пошаговый, чего просто так чудесами хвастаться
Аноним 26/02/23 Вск 00:07:32 #51 №131764 
>>130854
Через плагин https://github.com/hako-mikan/sd-webui-supermerger
Аноним 26/02/23 Вск 00:10:03 #52 №131766 
>>131085
>>131090
Линакруф с ошибками да, я второй из шапки юзаю все ок.
Аноним 26/02/23 Вск 00:12:12 #53 №131768 
>>131764
Пробовал, но я без понятия как этим пользоваться, пробовал разные комбинации alpha и beta, но я без понятия как это работает, и соответственно во всех случаях получилась хуйня, при вызове лоры результат гораздо лучше
Аноним 26/02/23 Вск 00:21:48 #54 №131776 
>>131768
Когда ты мерджишь с моделью ты как бы меняешь веса целевой модели чтобы она юзала веса лоры.
Пользоваться примерно так: в чекпойнт А ставишь целевую модель, ставишь альфубету на 0, дименшон на авто или под размер дименшона лоры, внизу чекбоксишь лору, пишешь имя выходной модели и мерджишь.
Аноним 26/02/23 Вск 00:26:10 #55 №131782 
>>131776
А если я хочу с определёной силой смерджить, то условную бетту ставить в те же что и веса?
Аноним 26/02/23 Вск 00:30:12 #56 №131786 
image.png
014373283778700.png
>>131782
С определенной силой это ratio с блоками надо крутить вроде, альфабета справа сверху с списками под A и B это для чисто моделей тебе надо ток модель-рецепиент в А грузить и юзать от нее альфу в позиции 0.

Вот пример: беру лору карины и URPM, настройки мерджа + тестовый прогон.
Аноним 26/02/23 Вск 00:32:52 #57 №131791 
>>131786
>С определенной силой это ratio надо крутить
фикс
Аноним 26/02/23 Вск 00:39:46 #58 №131801 
>>131763
Так а какой гайд, просто закинул фотки в датасет, назначил ей теги как обычно с бур, и зарядил обучение лоры на nai, все строго по гайду.

Я просто прихуел с того факта что манямешная модель сработала лучше в обучении лоры на ебало конкретного человека, чем сд 1.3 1.4 1.5 и ф222 и прочие реалистичные обычные сд-базед модели.
Аноним 26/02/23 Вск 00:42:01 #59 №131803 
>>131801
>просто закинул фотки в датасет
скок штук? какие настройки обучения?
Аноним 26/02/23 Вск 00:48:51 #60 №131808 
>>131786
Сработало, спасибо
Аноним 26/02/23 Вск 01:12:18 #61 №131827 
Слышал, что можно как-то исправить вае. Можно ссылку на гайд?
Аноним 26/02/23 Вск 01:25:03 #62 №131834 
>>131803
19 довольно шакальных пикч x 10 повторов
последний такой, но думаю, пережарил, скину лр еще сильнее раза в 3, мордаха и комплекция уже на 5 эпохе начала сходиться, на больших от 10 можно уже скручивать вес лоры и получать морду на любой туше которую захочешь сгенерить, шишак колом
пробовал и на наи, последний раз на ACertainty, в принципе, тоже самое все выходит. генерю на Any 4.5 (пробовал 3.0 и наи , тоже все получается)

--network_module=networks.lora `
--pretrained_model_name_or_path=".\..\models\ACertainty.ckpt" `
--vae=".\..\models\ACertainty.vae.pt" `
--train_data_dir=".\..\vika\train_img" `
--output_dir=".\..\vika\outnai1" `
--output_name="vika_nai1" `
--log_prefix="edd_" `
--save_every_n_epochs=1 `
--save_last_n_epochs=2000 `
--train_batch_size=6 `
--lr_scheduler=linear `
--resolution="512,512" `
--network_dim=128 `
--keep_tokens=1 `
--gradient_accumulation_steps=1 `
--max_data_loader_n_workers=1 `
--save_precision=fp16 `
--mixed_precision=fp16 `
--learning_rate=3e-5 `
--unet_lr=3e-5 `
--text_encoder_lr=1.5e-5 `
--max_train_epochs=50 `
--lr_warmup_steps=50 `
--clip_skip=2 `
--network_alpha=32 `
--shuffle_caption `
--max_token_length=225 `
--seed=2281488 `
--logging_dir=".\..\vika\logs_dir" `
--caption_extension=".txt" `
--prior_loss_weight=1 `
--enable_bucket `
--min_bucket_reso=256 `
--max_bucket_reso=1280 `
--save_model_as=safetensors `
--mem_eff_attn `
--cache_latents `
--use_8bit_adam `
--xformers
Аноним 26/02/23 Вск 12:22:20 #63 №132048 
1677403337705.png
1677403337715.png
1677403337724.png
1677403337729.png
>>131834
Решил проверить. Пак одной знакомой валялся на харде. Да, сработало. Шакальность пака зашкаливала, полно было пикч 241x432 пикч или вроде того.
Снизил unet_lr до 2e-5, а text_encoder_lr до 1e-5
Только наоборот при 29 пикчах и 8 эпохах x10 повторов вышло слабо и я ставлю силу Лоры на 1-1.2
Но, все же, гипер огромные глаза остались на Any 4.5
Аноним 26/02/23 Вск 12:23:04 #64 №132049 
>>131834
>>132048
А, ну и еще так может быть из-за того, что я поставил dim32, alpha 1
Аноним 26/02/23 Вск 13:27:11 #65 №132101 
Столкнулся с такой проблемой, что на некоторых версиях xformers сломано обучение модели. Из за этого при обучении loss может очень быстро уходить в nan или наоборот почти не изменяеться во время обучения, а на выходе получается не работающая модель. Проблема решается установкой другой версии xformers

https://github.com/kohya-ss/sd-scripts/issues/85
Аноним 26/02/23 Вск 16:31:37 #66 №132380 
op.png
Почему не определяет позу? Остальные препроцессоры работают.
Аноним 26/02/23 Вск 16:44:49 #67 №132402 
>>132380
Дело именно в этом изображении, прогнал через img2img, начало работать.
Аноним 26/02/23 Вск 21:45:28 #68 №132892 
Кто-нибудь в курсе, можно ли прунить лорки?
Аноним 26/02/23 Вск 23:12:28 #69 №133014 
>>132892
можно
Аноним 26/02/23 Вск 23:14:31 #70 №133017 
>>132892
Разрешаю.
Аноним 27/02/23 Пнд 00:01:43 #71 №133099 
Прочитал несколько гайдов по лорам, но так и не разобрался. Плиз хэлп.

У меня в датасете все картинки вертикальные или горизонтальные. Если их кропать в 512х512, получается малоэстетичная фигня.

В гайдах написано, что можно и не кропать, как я понял. Но нигде не нашел объяснения, что дальше произойдет. То ли как-то автоматом покропаются по дороге, то ли что.

Можно как-то натренировать на 768х512, чтобы от этого была польза, и потом натренированный концепт хорошо генерировался в этом разрешении?
Аноним 27/02/23 Пнд 00:03:32 #72 №133103 
>>133099
Не кропай, всё само кропниться как надо
Аноним 27/02/23 Пнд 00:26:44 #73 №133132 
>>132049
Важный вопрос: тип фигкры схватило? Размер груди? Пупок? Длину ног?
Аноним 27/02/23 Пнд 00:39:29 #74 №133147 
Напомните, где можно почитать про отличия тренировки файнтюна, дримбудки, лоры, ти, гиперсетки. Вроде у автоматика в вики было? Найти нигде не могу
Аноним 27/02/23 Пнд 00:42:00 #75 №133149 
>>133014
webui-model-toolkit мне говорит что там нечего прунить. Что я делаю не так?
sage[mailto:sage] Аноним 27/02/23 Пнд 01:12:52 #76 №133194 
>>133132
Размер груди точно. Про остальное мне сказать сложно.
Аноним 27/02/23 Пнд 02:11:17 #77 №133231 
>>133099
А вопрос-то не праздный, не праздный! DreamLike-PhotoReal V2 пишет в своей документации, что тренили его на 768х768. Это вообще как? Получается, 512х512 - это не фундаментальное ошраничение модели SD1.5, это просто так натренили? Соответственно, раз они смогли, то и мы... можем?

Субъективно - у DLPRv2 и впрямь меньше проблем с рассиамливанием на 1024х1024, чем у других моделей.
Аноним 27/02/23 Пнд 02:11:56 #78 №133233 
>>133231
>Соответственно, раз они смогли, то и мы... можем?
Можем, но тренировать сетку с нуля это месяц+ даже на 4090.
Аноним 27/02/23 Пнд 02:45:01 #79 №133246 
kagerou.jpg
phos.jpg
>>133231
Точно, так же можно как раз протестить попробовать тренировку на 768.
Попробовал проверить две сетки, пик 1 тренился на 512х512 и пик 2 на 768х768 пикчах. Выборка, как обычно, маленькая, теги указаны только уточняющие, у пик 1 тегов получилось больше, всё так же рисует нескольких персонажей в кадре 1024х1024 на эни3.0 фп16, естественно без хф
Аноним 27/02/23 Пнд 10:30:40 #80 №133396 
47523-1457397720-masterpice ,best quality, 8K, 4k, super zaebis, (official art1.2), ( oshino shinobu1.4), (very long hair1.5), (hair flaps1.4.png
47526-1457397720-masterpice ,best quality, 8K, 4k, super zaebis, (official art1.2), ( oshino shinobu1.4), (very long hair1.5), (hair flaps1.4.png
изображение.png
изображение.png
Нашёл 2 лорки на Шинобу, в 1 ахуено получаються волосы, в другой глаза, пытался их смерджить как на 3 пике, но так и не смог получить лучших деталей из обеих, и хотел бы узнать про (":blocks" is option, not necessary), на сколько я понял лорки можно мерджить по блокам, но как? У меня мало в этом опыта, окно снизу имеет к этому отношение? Или нужно просто вместо 1 веса использовать другой синтаксис для вызова мерджа по блокам?
Аноним 27/02/23 Пнд 12:52:26 #81 №133477 
Как мне в dataset editor переместить нужные мне теги вперёд?
Аноним 27/02/23 Пнд 13:10:21 #82 №133494 
1677492620100.png
>>133477
Аноним 27/02/23 Пнд 13:12:41 #83 №133497 
>>133477
А, переместить? Проще удалить и записать так их заново.
Аноним 27/02/23 Пнд 16:51:54 #84 №133642 
image
image
image
image
Есть полноценное объяснение для дегенератов, что значат все эти настройки в обучении лорок? Особенно интересуют эпохи. А то вот я как бы натренил по гайду для теста Зину, а вышло пусть норм для первого раза (с третьего захода), но хочется получше.
В идеале, есть желание натренить на условный "Стиль фильмов 80-х", чтобы и зерно было стабильно, и цвета - начать, например, с Безумного Макса и его клонов.
Аноним 28/02/23 Втр 01:46:10 #85 №134348 
Чёт дохренищи у этого колаба настроек, да:
https://colab.research.google.com/github/Linaqruf/kohya-trainer/blob/main/kohya-trainer.ipynb#scrollTo=j1jJ4z3AXRO9
Попробуем, но чуется мне, что получится фигня. Или использовать нужно не его?
Аноним 28/02/23 Втр 02:24:13 #86 №134394 
>>134348
Почему-то у меня в начале каждой эпохи loss меньше (около 0.105), а к концу эпохи ползёт до 0.121...
Аноним 28/02/23 Втр 03:21:23 #87 №134432 
image.png
image.png
image.png
>>133246
Ага. Значит, при положительной тренировке значимых отличий нет. Вот теперь вопрос: а при отрицательной? У меня есть нагенерённые сиамцы а-ля пикрил. Не то чтобы прям вот возьми и выложи, их ещё отсортировать надо, но там реально много. Сотни. Они в 512х1024. Можем ли мы натренировать (вероятно, на ванильной SD) лорку, которой объясним, например, что за концепт такой - "две головы одна над другой", а потом вставить это в негатив или каким-то другим образом попросить лорку НЕ делать этого? "Мы" - потому что я, во-первых, не имею видеокарты (но это ладно, кегли/гугли поделятся), во-вторых, не имею вообще никакого опыта успешного лоропечения. А начинать своё знакомство с лорами с эксперимента, который запросто может и провалиться, как-то не хочется. Ну и резать датасет в пустоту, не будучи хоть сколь-либо уверенным, то он кому-то нужен, тоже не хочется от слова "совсем".

Тут, на самом деле, возможно два эксперимента.

а) Учим лорку на 512х1024 (так же можно, да?)
б) Вырезаем из наших картинок тайлы 512х512, на которых ясно видна мутация (пикрил 2) или такие прямоугольники, что любой квадрат 512х512 содержит искомую мутацию (пикрил 3) и далее https://gitlab.com/Nickkolok/chas-conceptrate/ (но это по вкусу)

Анончики, кто-нибудь возьмётся?..

Ведь если получится, то мы заборем очень серьёзную проблему!
Аноним 28/02/23 Втр 03:32:39 #88 №134437 
>>134432
Берешь второй лоро-коллаб из шапки.
Им тренируешь.
Только ознакомься с мануалами сначала. Там всей разницы только в том, что папки и модели вместо твоего диска будут в гугле лежать.
Кропать ничего не надо, скрипт сам всё отресайзит.

>начинать своё знакомство с лорами с эксперимента, который запросто может и провалиться
Первый эксперимент у тебя в любом случае провалится, так что можешь и с этого начать, почему нет.
Полезность, правда, сомнительная, и вдобавок результат фиксировать трудно будет.
Лора же в любом случае влияет на генерацию, одним своим фактом подключения, и нет никакой гарантии, что нормальная генерация без "склейки" получится именно из-за тренировки концепта, а не из-за факта подключения лоры как таковой.

Опять же, штука это редкая, бороться с ней легко - обычным имг2имг или хайрез-фиксом. Ради такого лорку затевать, которая на стиль генерации еще влиять будет... Ну, не знаю.
Аноним 28/02/23 Втр 03:38:06 #89 №134442 
Мерджил лоры через веб-гуй версию kohya_ss, и заметил, что силу применения соединенной лоры надо раза в 3 подымать по сравнению с обычными, чтоб концепт хотя бы приблизительно на том же уровне включаться начал.
То же самое касается и экстракции лоры из модели.
Можно это как-то забороть, никто не в курсе?
Аноним 28/02/23 Втр 03:54:29 #90 №134451 
anypastel1024.jpg
cocoa1024.jpg
cocoa768.jpg
>>134432
С лишними конечностями и персонажами вообще не угадаешь, вот добавил просто тегов на задник на пик1, таже модель, лишнего стало меньше даже с 512 лорой. Другая аниме модель на пик2 это полный провал c 1024 на том же промпте, 768 же на пик3 нормально.
Ты бы хоть показал с какими настройками у тебя такое генерится. Ну натренится лора как ты задумал на 512х1024, даже пускай она получится, перестанет рисовать две головы, а с ногами и руками что делать, отдельным концептом засунуть? А с двойниками? Да и актуальна она будет лишь для одной модели тогда? А как быть с другими разрешениями, не все ведь генерят 512х1024? Проще действительно хайрезфикс просто юзать
Аноним 28/02/23 Втр 03:57:42 #91 №134456 
image.png
>>134451
Настройки вот. На вебуи аналогично получается. С хайрезфиксом не разобрался. То глазки на трусиках, то три пупка в рядок, то долбаное мыло.
Аноним 28/02/23 Втр 04:02:32 #92 №134458 
>>134442
Теоретически можно попробовать перенормировать веса лоры. Грубо говоря, смёржить лору с собой же, выставив суммарный вес 3. Но это теоретически, я не пробовал.

А есть ли проблема? Если решается просто увеличением веса, то какая разница?..

Возможно, при мёрже стояли веса 0.5 и 0.5. Тогда более-менее понятно, что каждый концепт по отдельности может потребоваться увеличить.
Аноним 28/02/23 Втр 04:15:54 #93 №134465 
image.png
image.png
image.png
>>134437
> Лора же в любом случае влияет на генерацию, одним своим фактом подключения, и нет никакой гарантии, что нормальная генерация без "склейки" получится именно из-за тренировки концепта, а не из-за факта подключения лоры как таковой.

Сотня картинок с лорой, сотня без. Если это реально работоспособных фикс - то разница уже на сотне будет видна.

>>134451
> Ну натренится лора как ты задумал на 512х1024, даже пускай она получится, перестанет рисовать две головы, а с ногами и руками что делать, отдельным концептом засунуть? А с двойниками? Да и актуальна она будет лишь для одной модели тогда?

Если она натренится на 512х1024, то и на другие разрешения влиять же будет, разве нет? А вообще типовых мутаций немного. Две головы, два лифа (пикрил 1), двое плавок (пикрил 2), почти полное удвоение (пикрил 3). Да, наверняка повылезут ещё мутации, но эти самые частотные.
Аноним 28/02/23 Втр 04:18:53 #94 №134468 
>>134456
Ты либо трусы сними, либо крестик надень уж определись тебе:
> closeup, portrait, perfect detailed face, focus on face
или
> outie navel, thin waist, slim flat belly, very slim girl in bikini
Хз где ты там генеришь, но может тебя с твоим
> adorable 12yo girl standing in bikini
просто отсеивает цензурой?
Хайрез просто поставь вот по этому калькулятору https://preyx.github.io/sd-scale-calc/ латент и от 0.6 до 0.7 денойза, чтобы мыла не было, или не латентный апскейлер, если есть
Аноним 28/02/23 Втр 04:19:24 #95 №134469 
>>134451
> Проще действительно хайрезфикс просто юзать

Ну это может стать не заменой хайрезфиксу, а дополнение к нему. Грубо говоря, сейчас можно хайрезфиксить с 256х512, а будет можно с 512х1024. Как бы множитель.
Аноним 28/02/23 Втр 04:23:21 #96 №134471 
image.png
>>134468
Цензура там есть, часть картинок отсеивает, однако попадается и вот такое.
Да, ей 12 с т.з. StableDiffusion. Возраст - эффективный способ избежать коров с племенными выменами, да и только.
Аноним 28/02/23 Втр 07:49:47 #97 №134510 
>>134465
>>134432

нахер дрочить переобучение на ошибки шума и генерить в 1024 по стороне, если можно генерить в безопасном разрешении и апскейлить на безопасном денойзе?

в крайнем случае есть Latent Couple, где ты жестко можешь задать положение для концепта на картинке и ошибок шума быть не должно
Аноним 28/02/23 Втр 09:01:54 #98 №134534 
Есть нормальный гайд по тренеровке сетки на еот?
Пробовал гайд от XpucT через гипернетворк, похоже но не то.
Аноним 28/02/23 Втр 09:26:27 #99 №134546 
>>134534
> гайд от XpucT
У тебя рот в хачевском говне.
Аноним 28/02/23 Втр 09:44:41 #100 №134549 
Я тоже обсираюсь с тем чтобы сделать свою лору.... Уже неделю чекаю каждый день надеясь что кто-то ее сделает за меня, но нихуя подобного. Хотя gogalking популярный художник.

Вот бы настоящего мужчину который бы сделал ее..............
Аноним 28/02/23 Втр 10:13:36 #101 №134562 
>>125540 →
Ну так что, "попозже" еще не наступило, или всё таки сгрузишь куда нибудь?
Хотя бы на мегу залью, да восстановлю ссылки на лоры, если не хочешь больше сервер держать
Аноним 28/02/23 Втр 14:12:26 #102 №134718 
>>134458
Там концепт плюс-минус один. На одних и тех же кейвордах тренировано, по крайней мере. Надо просто усреднение по стилю получить, но на силе 1 оно практически не работает. Приходится сильно выкручивать, но тогда начинают всякие артефакты вылезать - того, что в тренировку случайно попало и тоже протэгано было, но в промпте не проставлено.
Саму с собой сливать не пробовал пока еще. Врядли сработает, конечно.
Аноним 28/02/23 Втр 14:26:35 #103 №134735 DELETED
Привет всем, есть тут те кто может раздевать? Разденьте её пж если не сложно
Аноним 28/02/23 Втр 14:42:02 #104 №134751 
>>134718
>>134458
Ну вообщем как я и думал. Результата нет. От простого слияния одной и той же лоры между собой ничего не меняется.
Надо что-то другое придумывать, и тут я хз вообще, куда копать.
Аноним 28/02/23 Втр 16:06:12 #105 №134804 
.png
.jpg
>>134442
Попробуй мёрджить через экстеншн для автоматика SuperMerger - там можно вес базовых лорок при мёрдже крутить. Я так смог добиться того, что смёрдженная лорка, которая только на весе 2.4 работала, стала на 0.8 нормально работать, просто увеличив веса у базовых лорок при мёрдже. Через гуй версию kohya_ss у меня тоже приходилось какие-то нереальные веса задавать.
Аноним 28/02/23 Втр 16:07:31 #106 №134806 
.png
Что-то вдруг сломалось, я ничего не трогал. Были сеймы у кого?
Аноним 28/02/23 Втр 16:12:10 #107 №134815 
>>134806
Попробуй %каломатик%\extensions\sd-webui-additional-networks убрать и глянуть, стартанёт ли без экстеншена. Если выйдет, то мб поновой его поставить надо.
Аноним 28/02/23 Втр 16:17:10 #108 №134823 
>>134815

Спасибо, дело и правда в нем было!
Аноним 28/02/23 Втр 16:24:35 #109 №134833 
изображение.png
>>134804
Только вот оно что-то у меня не работает.
Градио чтоль обновить?.. Но как?
Аноним 28/02/23 Втр 16:28:10 #110 №134838 
>>134806
>>134833

Я посмотрел получше, у меня эта ошибка была из-за того, что в папке с лорами случайно оказался сефйтенсор обычной модели. Обновление хеша спотыкалось на нем.
Аноним 28/02/23 Втр 16:29:24 #111 №134840 
https://preyx.github.io/sd-scale-calc/
А в чем профит ставить всё по рекомендуемым здесь размерам?
Аноним 28/02/23 Втр 16:30:02 #112 №134841 
>>134840
Ты к нам прямиком из ноября 2022-го?
Аноним 28/02/23 Втр 16:31:19 #113 №134842 
>>134833
Увы, не знаю, не сталкивался с такой ошибкой. Может и вправду надо автоматик обновить.
Аноним 28/02/23 Втр 16:31:23 #114 №134843 
>>134841

Я просто всегда ставлю на 0 все и он сам определяет как будет увеличивать полотно в зависимости от множителя апскейла.
Аноним 28/02/23 Втр 16:33:38 #115 №134844 
.png
>>134833
У меня на коммите 3715ece0 работает, если что. Тоже уже, наверное, обновиться стоило бы.

>>134842
Аноним 28/02/23 Втр 16:35:34 #116 №134846 
>>134843
Этот калькулятор использовался для старого хайрезфикса, новый работает совершенно по-другому. Всё, эта ссылка нахуй не нужна, если только ты не сидишь на сборке тех времён.
Аноним 28/02/23 Втр 16:37:41 #117 №134848 
>>134846

А, ясно, а то я увидел его в сообщениях сверху, решил что что-то актуальное.
Аноним 28/02/23 Втр 16:49:46 #118 №134853 
>>134838
Обновление норм проходит.
На создании вкладки для супер-мерджера спотыкается.
>>134842>>134844
Проверил - автоматик полностью обновлен.
Может, он градио как-то отдельно обновляет? Командой какой-нибудь?
Аноним 28/02/23 Втр 17:02:01 #119 №134865 
.png
>>134853
И вправду, gradio отдельным пакетом ставится. Попробуй его снести в %каломатик%\venv\Lib\site-packages

Если ты автоапдейт пакетов не отключал, то потом просто перезапусти гуй. Если автообновление отключено, то введи в корне автоматика:
.\venv\Scripts\activate
pip install -r requirements.txt

Если обосрётся с апдейтом, то, наверное, придётся все пакеты сносить и по новой ставить. Может лучше бекап всего %каломатик%\venv\Lib\site-packages сделать сперва.
Аноним 28/02/23 Втр 17:52:11 #120 №134915 
>>134865
Убил обе папки градио, обновился командой - одна фигня, та же ошибка.
Аноним 28/02/23 Втр 17:57:51 #121 №134919 
>>134915
Тогда у меня нет идей, может кто-то ещё из анонов подскажет. Разве что попробовать целиком venv снести и по новой все пакеты поставить. Если и это не поможет, то тут только новый инстанс автоматика разве что пробовать установить - может с какими-то другими плагинами конфликтует или ещё что.
Аноним 28/02/23 Втр 19:31:34 #122 №135056 
>>134915
1. Сноси весь venv и он будет качать по новой
2. Если не поможет, то удалить еще и все пакеты в директории самого питона с помощью:
pip freeze > 1.txt
pip uninstall -y -r 1.txt
Аноним 28/02/23 Втр 22:25:21 #123 №135276 
Вдохновился чудесами воспроизведения ЕОТ на анимэ-моделях. Своей видяхи нет. Как загрузить NAI или хотя бы AnythingV3 в ckpt на коллаб/кеглю??
Аноним 01/03/23 Срд 00:42:36 #124 №135488 
Вопрос про второй коллаб. Как делать/где брать реги????
Аноним 01/03/23 Срд 01:27:37 #125 №135521 
>>131786
О, нихуя. Тоже на шмарине обучал модель. А чего нет на циве? Кинь линк или залей сюда хоть, не слежу за бордой.
Аноним 01/03/23 Срд 02:10:06 #126 №135573 
>>135276
Линкаешь гугл-диск, грузишь и ставишь всё туда.
Выходные тоже туда будут грузиться.
Аноним 01/03/23 Срд 04:19:56 #127 №135694 
>>134442
А ты уверен, что размерность суммы лор равна максимальной размерности слагаемых, а не сумме их размерностей? Или даже произведению...
Аноним 01/03/23 Срд 04:43:01 #128 №135707 
Как правильнее замиксовать три модели в одну? Знаю только хэш от нужной модели и из каких она состоит.
Аноним 01/03/23 Срд 07:52:35 #129 №135768 
>>134919
Вручную зашел в папку с экстеншном и сделал гит-пулл.
Заработало.
Какую он там версию из автоматика по ссылке тянул, почему не обновлял - хз вообще.
Хотя может, конечно, и сам автор подсуетился и что-то обновил как раз в этот срок.
Аноним 01/03/23 Срд 11:18:25 #130 №135828 
Новый способ тренить лоры https://github.com/KohakuBlueleaf/LoCon

экстеншон https://github.com/KohakuBlueleaf/a1111-sd-webui-locon
Аноним 01/03/23 Срд 11:51:22 #131 №135844 
Господа, имеется rtx 2080S. Имеет ли смысл менять на 3090?
Прямо лоры тренировать вроде не собираюсь, но вот генерирую/img2img/инпейнтингом занимаюсь много (в т.ч. с контролнетом).
4090 стоит прямо уже слишком дорого пока, а вот 3090 прихватить с авито тысяч за 50-60 - вполне реально.
Аноним 01/03/23 Срд 12:35:45 #132 №135863 
>>135828
Зачем? Чем он лучше?
Аноним 01/03/23 Срд 12:36:21 #133 №135864 
16776041582071.png
>>135844
Аноним 01/03/23 Срд 12:36:53 #134 №135865 
16776041582070.png
>>135844
А, этого >>135864 тебе недостаточно. Вот еще.
Аноним 01/03/23 Срд 13:02:15 #135 №135873 
>>135864
>>135865
Угум, графики изучал.
Рановато я вопрос высрал, не доформулировал.
Вообще, я даже больше думаю между 3080ti и 3090. По графику они вообще практически одинаковые (да и по характеристикам кроме объёма памяти) + 3080ti за эти же деньги можно купить новее/в более хорошем исполнении.
Генерировать свыше 1024x768 (а в идеале 768x512) смысла особого нет, я пробовал, получается какая-то каша, лучше проапскейлить потом. Хотя, наверное, с йоба-памятью можно будет апскейлить без деления на тайлы очень много, тут, вот, не в курсе пока.
В общем, хрен его знает, может и потом пообучать тоже захочется. Да и вообще, 3090 с 24Гб, наверное, всё же больше подходит для нейроувеселний - кто знает что там ещё придумают.
Аноним 01/03/23 Срд 13:03:44 #136 №135875 
>>135873
>Да и вообще, 3090 с 24Гб, наверное, всё же больше подходит для нейроувеселний - кто знает что там ещё придумают.
Да.
Аноним 01/03/23 Срд 15:24:48 #137 №135983 
>>135863
Полноценная лора, а не половинчатая как щас
Аноним 01/03/23 Срд 15:35:00 #138 №135986 
>>135844
Все зависит от твоих финансов и насколько серьезно хочешь заниматься нейрохудожествами и играть в игорь. Если изредка делать шакалов с хайрезфиксом до 1.5к и катать соревновалки на фуллхд - апгрейда не заметишь. Если апскейлить побольше - размер тайла там важен а значит нужно хотябы 12 гигов врам, 24 лучше. Если переделывать куски, инпеинтить и т.д. - тут важна производительность, с 3090 куда комфортнее будет.
>>135873
> между 3080ti и 3090
Переезд с 12 на 24 гига был дохуя приятным, если готов потратиться на такую игрушку - бери где больше памяти не задумываясь. Как компромиссный вариант - 4080 если занидорого найдешь.
>>135983
Пробовали работает ли оно вообще?
Аноним 01/03/23 Срд 15:36:29 #139 №135987 
>>135986
>
> Пробовали работает ли оно вообще?

Работает
Аноним 01/03/23 Срд 15:39:47 #140 №135990 
>>135987
Сравнение не делал?
может вечером попробую
Аноним 01/03/23 Срд 15:58:02 #141 №135997 
>>135986
Спасибо, анон!
Да, уже договорился и с покупателем моей 2080s, и с продавцом 3090 - сегодня, похоже, уже всё будет.
>и катать соревновалки на фуллхд
Ну, кстати, я сижу за 4к телеком, и не сказал бы что мне 2080s где-то прямо не хватало естественно, в совсем йобы играю в 2к разрешении, на телеке оно от 4к практически не отличается. Если б не увлечение нейронками (а так же Блендером), то я б и не думал ещё пару лет апгрейдиться.

>делать шакалов с хайрезфиксом до 1.5к
Вот, кстати, ещё особо не пробовал этот хайрезфикс. Насколько понял, это немного отличается от того, что если б я просто сгенерил обычный 512x768, а потом SD апскейлом увеличил на нужный размер. Да и это сильно дольше на моей 2080s происходит, проще нагенерить 10 картинок, выбрать из них лучшую, и уже её в img2img апскейлить каким-нибудь валаром/ремакри. Но вот с 3090 уже попробую этот фикс полноценно.

>Если апскейлить побольше
Да, очень хотелось бы. Тут иногда выкладывают генерации в бешеном разрешении, выглядит очень хорошо. А тайлами по 768 это и долго, и слишком много артефактов, надо с промптом что-то придумывать постоянно.

>Если переделывать куски, инпеинтить и т.д.
Вот этим больше всего занимаюсь, да. Не думал что тут прямо особенно нужна производительность, но если так - я только рад что будет ещё комфортнее.
Аноним 01/03/23 Срд 16:51:14 #142 №136020 
>>135997
Если про обычный без каштомов и прочего - считай то же самое что прогнать пикчу через img2img с латентом или однотайловым sd, здесь не происходит дробление пикчи на куски а все делается одним.
> проще нагенерить 10 картинок, выбрать из них лучшую, и уже её в img2img апскейлить
Теперь будет то же самое, но делать будешь сразу в разрешении хотябы 1к, а уже их будешь апскейлить.
> иногда выкладывают генерации в бешеном разрешении, выглядит очень хорошо
обычно они выглядят хуево лол, но тема интересная
> Не думал что тут прямо особенно нужна производительность
Ну это твой комфорт считай, перерисовал что-то, закинул кусок в инпеинт, поставил батчей, делаешь другую часть, потом ставишь уже ее а из сгенерированных выбираешь подходящий вариант. Если приноровиться то почти нет ожиданий обработки и процесс не прерывается на разглядывание прогрессбара и лайв превью.
Аноним 01/03/23 Срд 17:16:42 #143 №136032 
Кто здесь спец по миксам моделей?
Замутите микс вот этих двух, плиз
https://huggingface.co/waifu-diffusion/wd-1-5-beta2/tree/main/checkpoints
https://civitai.com/models/3850/kenshi

Будет пиздато, отвечаю. Первая модель - это новая версия Waifu diffusion, с новизной и эстетическими ступенями. Вторая - Kenshi, ничем особо не выделяется, но отточена до блеска - даже пизже чем Anything v4 и Counterfeit. Уточню, что нужный чекпойнт называется wd-1-5-beta2-aesthetic-fp32.safetensors. Замиксуйте, это будет пиздато.
Аноним 01/03/23 Срд 17:21:26 #144 №136040 
Ах да, и еще совет: смиксуй результат снова, но уже с моделью для пиксель-арта. Дело в том, что самые лучшие пикчи получаются если добавить чуть-чуть токена пиксель-арта. Выходит как бы HD пиксельарт, оче гладкий и детализированный, с охуенной палитрой. (Но если переборщить, то выйдет зернистая хуйня)
Аноним 01/03/23 Срд 17:23:12 #145 №136041 
>>136032
>fp32
нахуй
Аноним 01/03/23 Срд 17:25:22 #146 №136043 
>>136041
Я не в курсе что это значит. Aesthetic очевидно пизже
Аноним 01/03/23 Срд 18:31:59 #147 №136112 
Если смиксовать кенши с вд 1.5.2 - получится топовое манямэ, с такими-то формами и деталями как у самых ебейших топовых крутанов на pixiv и арстейщоне.
Аноним 01/03/23 Срд 18:39:21 #148 №136137 
>>136112
примеры плез
Аноним 01/03/23 Срд 18:59:26 #149 №136158 
>>136112
> смиксовать кенши с вд 1.5.2
> WD 1.5 Beta is fine-tuned directly from stable-diffusion-2-1 (768)
> Base Model SD 1.5
Щас кааааак намешаем, никуда не уходи.
Аноним 01/03/23 Срд 19:07:07 #150 №136164 
>>135828
Ну и как их тренить? Установил расширение в webui, ничего в интерфейсе не появилось нового
Аноним 01/03/23 Срд 20:37:15 #151 №136221 
Google Colab даёт бесплатный доступ к видяхе Т4, 16 ГБ VRAM.
Kaggle даёт бесплатный доступ либо к двум T4, по 16 ГБ VRAM каждая, либо к P100.

Возникает закономерный вопрос: есть ли способ извлечь из этого какую-то выгоду при обучении? Есть ли смысл обучать на гугле, а не на кегле - и как?
Аноним 01/03/23 Срд 22:09:48 #152 №136336 
https://rentry.org/2chAI_LoRA
Ссылки на скачивание не работают.
Аноним 01/03/23 Срд 22:11:07 #153 №136338 
>>136336
Да, я обосрался.
У меня сдох сервак.

Щас я вам залью лоры, но без названий, к сожалению.
Если сопоставите - будет заебись...
Аноним 01/03/23 Срд 22:27:22 #154 №136355 
>>136338
>>136336
https://gofile.io/d/RjmVFN
Аноним 02/03/23 Чтв 00:37:18 #155 №136502 
Анончики, объясните нюфане:
Нужно ли подгонять картинки под конкретный размер?
Желательно ли удалять фон?
Аноним 02/03/23 Чтв 00:57:49 #156 №136509 
Нет если будешь описывать бекграунд, если убираешь то указывай на что поменял, если хуёво редачишь, например дохуя шума, то тоже указывай, просто будь честен с нейронкой, кропать тоже не обязательно
Аноним 02/03/23 Чтв 00:59:07 #157 №136512 
>>136502
>Нужно ли подгонять картинки под конкретный размер?
Нет. Можно (и нужно) обрезать ненужное. Еще можно соотношение сторон подгонять, чтоб скрипт сильно при ресайзе картинку не растянул. Я обычно (если кропаю) ставлю соотношения 2:1, 2:1.25, 2:5, 2:1.75, 2:2.
>Желательно ли удалять фон?
Если там какая-то вакханалия творится или лишние персонажи - то да. Обычно - нет.
Аноним 02/03/23 Чтв 01:29:17 #158 №136523 
>>136509
>>136512
Спасибо!

Колабожрецы, проясните подробнее про: https://colab.research.google.com/drive/1bFX0pZczeApeFadrz1AdOb5TDdet2U0Z#scrollTo=12GnGId_PdMo

1. Нужно в 7z или просто папку залить на диск?
2. Куда прописывать путь до архива с картинками?
3. Там уже есть определённая модель или нужно желаемую загружать?

Простите за даунские вопросы, просто я не понимаю, а пердолиться самому времени колаба не хватит...
Аноним 02/03/23 Чтв 01:53:41 #159 №136544 
>>136137
Как я их сделаю? Ты сначала микс выложи
Аноним 02/03/23 Чтв 01:55:37 #160 №136546 
>>136158
Весы и эмбеддинги кенши лягут на то что знает wd, чтоб уточнить небольшие детали.
Аноним 02/03/23 Чтв 02:22:13 #161 №136571 
>>136523
Подключаешь гугл-диск. Это самый первый пункт.
Создаешь там нужные папки, туда всё и грузишь. Модель, картинки для тренировки, и т.д. Только смотри не переборщи, гугл это дело контролирует, и может за плохой контент забанить.

Когда диск подключен - в левом столбце жмешь на значок с папкой, он тебе диск откроет. А там уже можно жать "копировать путь" на то, что тебе надо, и вставлять в скрипт.
Аноним 02/03/23 Чтв 10:19:54 #162 №136665 
>>136020
Приобрёл таки.
Дааа, анон, SD на 3090 это просто что-то за гранью. Я вроде и смотрел графики, но на деле всё НАСТОООЛЬКО быстрее это я ещё без xformers сижу, так за полгода и не дошли руки/голова пощупать и узнать что это такое. Теперь можно генерировать 8 изображений 768x512 одновременно за 30 с небольшим секунд - чисто для бенчмарка пробовал, даже не думал что заработает. А всякие инпейнты и т.д. - вообще практически мгновенны.
Это же, получается, SD yf 2080s ни разу не хобби было, а настоящее мучение. Вроде и всё более-менее устраивало, но сейчас даже смешно вспоминать.
В общем, спасибо за советы!
осталось только разобраться с андервольтом, а то и по температурам, и по громкости, конечно, получше 2080s, но совсем на чуть-чуть
Аноним 02/03/23 Чтв 11:22:10 #163 №136694 
>>136665
Я юзаю Орду без всяких карт, даже цп генерирую
Аноним 02/03/23 Чтв 15:55:19 #164 №136892 
image.png
image.png
как починить? картинки в грид не склеивает
Аноним 02/03/23 Чтв 16:55:39 #165 №136980 
.png
.png
Обучил лорку на wd1.5, при попытке генерации ловлю пикрелейтед и лора не применяется. Поменял только эти две настройки, остальные взял со старой рабочей лоры. Есть идеи, что я делаю не так?
Аноним 02/03/23 Чтв 16:57:43 #166 №136983 
>>136980
> остальные взял со старой рабочей лоры
До этого только под SD 1.x делал.
Аноним 02/03/23 Чтв 17:02:59 #167 №136985 
>>136980
пик2 - твоя ошибка
Аноним 02/03/23 Чтв 17:38:29 #168 №137017 
>>136980
На пик2 поменял правильно, также нужно поставить $resolution = 768 указать верный путь до модели, положить yaml идущий с моделью в ее папку, прописать путь до их рекомендованного vae. С такой конфигурацией все работает, обучается довольно таки неплохо, только оче медленно и большой батч сайз не поставить
Аноним 02/03/23 Чтв 17:51:35 #169 №137030 
Подскажите плиз расширение для редактирования тегов размеченного датасета. Теги в .txt файлах
Аноним 02/03/23 Чтв 19:09:47 #170 №137119 
>>137030
Dataset Tag Editor
Аноним 02/03/23 Чтв 19:28:16 #171 №137144 
>>137030
https://github.com/starik222/BooruDatasetTagManager
Аноним 02/03/23 Чтв 19:37:25 #172 №137157 
xyzgrid-0022-2288446703.jpg
>>137119
>>137144
Спасибо

А то wd tagger иногда глючит и он прописывает теги, указанные в игноре..

Алсо новая лора;)
Аноним 02/03/23 Чтв 20:02:33 #173 №137188 
Ребят, тут есть добряки которые лору сделают из датасета?
Аноним 02/03/23 Чтв 20:07:32 #174 №137197 
>>137188
Могу и без датасета нахуй послать.
Аноним 02/03/23 Чтв 20:08:44 #175 №137200 
>>137188
Да, могу. Кидай.
Аноним 02/03/23 Чтв 20:20:18 #176 №137219 
>>137188
А что там у тебя за лора и датасет? Ты покажи а мы подумаем
Аноним 02/03/23 Чтв 20:30:06 #177 №137240 
image.png
>>137219
>>137200
Датасет будет завтра скорее всего. Я тот малютка из треда анимешного.

Хочу лору чтобы крутой была и в стиле Library of Ruina рисовала персонажей. Если будет нормик то я бы и для фонов датасет сделал бы.....
Аноним 02/03/23 Чтв 21:42:33 #178 №137331 
Кто-нибудь фотошоповские плагины пробовал? Как они вообще работают? Удобно пользоваться или нет?
Аноним 02/03/23 Чтв 22:05:48 #179 №137379 
xyzgrid-0033-1185253042.jpg
Попробовал натренировать лору с вае. Получилось даже хуже.
Аноним 02/03/23 Чтв 22:27:19 #180 №137451 
>>137379
Ну, цвета вроде починились и поведение походе на то что выходит без лоры, задай промт чтобы она ближе была.
Аноним 02/03/23 Чтв 22:36:19 #181 №137475 
кцккцк.png
https://drive.google.com/file/d/1rlgVmW-ek6Bc_9Ke4_coQO-1bbHa2dw6/view?usp=sharing
Ребят, я все правильно делаю?
Аноним 02/03/23 Чтв 22:37:34 #182 №137485 
>>137475
Что у тебя там?
Аноним 02/03/23 Чтв 22:37:45 #183 №137486 
>>137475
Нечаянно отправил. Там начало моего (>>137240) датасета просто, хочу узнать не зря ли я это сейчас делаю
Аноним 02/03/23 Чтв 22:38:58 #184 №137491 
image
>>137486

Думай сам
>>137378 →
Аноним 02/03/23 Чтв 22:46:29 #185 №137509 
>>137491
Так я просто хотел узнать корректный ли формат. Я делаю через мокрописечку sd tagging helper, достаточно удобно но вдруг через жопу как то.

Но вот тут классно и более менее похоже. А >>137378 → не так клева.

Если я протегаю больше картинок будет пиздатее?
Аноним 02/03/23 Чтв 22:46:33 #186 №137510 
>>137475
Ты же не вручную всё пишешь?
Аноним 02/03/23 Чтв 22:49:04 #187 №137518 
>>137475
Хуй знает, че-то сложное, в такое не умеем.
Аноним 02/03/23 Чтв 22:50:01 #188 №137522 
image
>>137509
Без понятия правильно у тебя или нет, теги в .тхт кидаю
Аноним 02/03/23 Чтв 22:50:39 #189 №137526 
1561422909914.jpg
>>137475
>json
Каво? Оно их вообще жрет? Датасеты обычно выглядят как пикрил
Аноним 02/03/23 Чтв 22:51:33 #190 №137529 
>>137526
>>137522
>>137518
Вот по этому и написал. Я хуй знает почему он так сохраняет их. Сейчас буду думать
Аноним 02/03/23 Чтв 23:16:43 #191 №137593 
image
image
>>137529
https://civitai.com/models/15006/library-of-ruina-style-lora
Аноним 02/03/23 Чтв 23:21:21 #192 №137601 
U1MvswXaPgw.jpg
>>137593
Круто, спасибо! Мне есть смысл тэгать картинки дальше чтобы лора стала более пиздатой/похожей или нет?

>>137529
Я разобрался, там тупо сделано. Инструкцию жопой читал
Аноним 02/03/23 Чтв 23:22:34 #193 №137602 
>>137601
>Круто, спасибо! Мне есть смысл тэгать картинки дальше чтобы лора стала более пиздатой/похожей или нет?
Не знаю.
Аноним 02/03/23 Чтв 23:43:27 #194 №137637 
>>137593
Мимо
А можешь датасет и настройки тренировки тоже выложить? Глянуть хочется
Аноним 03/03/23 Птн 00:54:10 #195 №137739 
image.png
>>137593
А эту можешь залорить?
https://drive.google.com/file/d/1ODNx3vD_ySq8efZHpEiHwir8VDfhPsV3/view?usp=sharing
Аноним 03/03/23 Птн 03:01:15 #196 №137825 
image.png
DreamBooth, lr=5e-7
Что посоветуешь, анон, с каким количеством шагов лучше получилось?..
Аноним 03/03/23 Птн 17:50:15 #197 №138146 
Когда сделают нормальный тренинг лор для webui без дроча миллиона параметров и прочего говна?
Аноним 03/03/23 Птн 17:54:06 #198 №138154 
>>138146
>>118449 →
Аноним 03/03/23 Птн 18:27:45 #199 №138183 
>>138154
Господа, а вы не охренели, не зажрались? Это опенсорос, здесь никто ничего никому не должен, только своей совести (при наличии). Человек сделал охрененную вещь (объективно, ибо все пользуются; diffusers, при всём уважении, по многим параметрам недотягивают) - так что теперь, ему отдохнуть нельзя? Погамать? В отпуск съездить? Поспать, поесть, в сортир сходить, сексом потрахаться?
Аноним 03/03/23 Птн 20:23:41 #200 №138276 
>>138146
> тренинг лор для webui
Не сделают, ты посмотри сколько рам и врам ватоматик сжирает в простое и сколько требует лора. Если этот мусор оставить то входным порогом будет видюха от 12 гигов, а выгружать все - такого функционала аддонами не добиться.
Аноним 03/03/23 Птн 20:41:25 #201 №138305 
>>137825
Ну что-то такое себе, сила стиля слишком высока, глаза проебанны совершенно.
Почему не лора?
Аноним 04/03/23 Суб 02:00:08 #202 №138850 
Есть ли возможность в автоматике генерить картинки из текстовиков? У меня условно есть папка, там 30 текстовых файлов и я хочу получить 30 картинок. Как это сделать?
Аноним 04/03/23 Суб 06:10:09 #203 №139048 
image.png
Как натренировать стиль с помощью kohya lora???
Аноним 04/03/23 Суб 06:49:14 #204 №139066 
image.png
Как сделать разные теги для картинок в Linaqruf коллабе?
Аноним 04/03/23 Суб 07:03:59 #205 №139080 
>>139066
Свой тег для каждой загруженной картинки*
Аноним 04/03/23 Суб 11:29:02 #206 №139221 
image.png
Нужно ли кропать датасет до 512х512 перед тренингом лоры или нейросетке пох на это?
Аноним 04/03/23 Суб 11:50:48 #207 №139247 
>>138305
Потому что у меня есть моделька на DreamBooth, которая меня прям сильно-сильно цепляет. Ну вот нравится мне эта конкретная рисовка. Но там сильно деградировала базовая модель, мутноваты глаза, перехреначены руки. Сейчас я пытаюсь восстановить рецепт этой модельки. Логи-то есть, так что фактически вопрос в воспроизведении эксперимента.

Есть у меня предположение, что моя любимая моделька потрёпана потому, что я (по незнанию) тренировал её в два подхода. Сначала 3200 шагов, потом 4000. Со вторым подходом генерации регов, ага. Деградация базового концепта, все дела.

Собственно, на том гриде - попытка сделать всё за один проход. Сравнительный грид старое/новое ещё не делал, поскольку не могу уделять нейронкам всё свое время (удалёнщик).

Датасет около 30 картинок.

Не лора - потому что я не знаю формулы, по которой относительно работающий рецепт модели можно перевести в работающий рецепт лоры. Хочу воспроизвести обучение модели (подозреваю, что если в 1 проход, то там может быть не 7200 шагов), потом поиграться с содержимым датасета (не все картинки этого художника мне нравятся одинаково). И только потом пробовать другие технологии обучения.

За советы буду благодарен. Особенно за быстрый способ сделать в автоматике сравнительный грид по чекпоинтам.
Аноним 04/03/23 Суб 13:02:29 #208 №139314 
image.png
>>138305
>>139247
Пикрил - пример генерации, которая прям цепляет. Одна из десятков, да. А что поделать?..
Аноним 04/03/23 Суб 13:52:49 #209 №139372 
firefox 04032023 bjdhA.png
На huggingface.co часто вижу модели, в которых VAE в виде пикрила. куда это говно пихать? кидал как есть в папку ваэ - не видит. переименовывал расширение в .pt - видит, но при попытке подгрузки в UI - консоль сыпет ошибками. чяднт?
Аноним 04/03/23 Суб 14:17:12 #210 №139406 
>>139372
Этоо диффузорные веса, каломатик их не поддерживает. Тебе нужно перегнать их в .ckpt. Как это сделать чисто для vae в отрыве от остального - не знаю.
Аноним 04/03/23 Суб 16:12:16 #211 №139573 
controlnet не работает без ошибок
Не влияет на генерацию и генерирует черные квадраты вместо аннотатора на любой модели.
Шиндоус 11, ноувидео 4090, свежий каломатик и свежий контролнет поставил с нуля для экспериментов - не работает.
Есть идеи?
Аноним 04/03/23 Суб 16:18:47 #212 №139579 
>>139573
Есть, откатись на старую версию контролнета.
Аноним 04/03/23 Суб 16:34:30 #213 №139598 
>>139048
1e-3
128 dim 128 alpha
С этими настройками шанс получить просто не говно намного выше. А по уму - уже думать надо исходя из экспериментов с дата-сетом.
Я стили только на старой версии делал.
>>139221
Похуй. Сама кропнет и квадраты, и прямоугольники.
Не советую прямоугольную картинку разбивать на квадраты вручную, есть шанс того, что на некоторых моделей в будущем вместо персонажа с глазами и прической будут тупо ноги.
Аноним 04/03/23 Суб 17:05:02 #214 №139649 
image.png
>>139598
А как если не вручную? Плюс почему в датасетах форчанеров есть прямоугольные пикчи уже хорошо протеганные?
Аноним 04/03/23 Суб 17:16:10 #215 №139663 
1677939368908.png
1677939368917.png
1677939368924.png
1677939368926.png
>>139649
То есть, я хочу сказать, что бы у тебя дата-сет не состоял лишь из вот таких пикч как 1 и 2. Лучше оставить как 3.
Потому что она разбивает прямоугольники на маленькие прямоугольники, например пик 4.
Аноним 04/03/23 Суб 17:24:36 #216 №139683 
Технач объясните мне преимущество locon перед обычной lora https://github.com/KohakuBlueleaf/a1111-sd-webui-locon
Аноним 04/03/23 Суб 17:25:47 #217 №139684 
>>139683
Не то https://github.com/KohakuBlueleaf/LoCon
Аноним 04/03/23 Суб 22:51:51 #218 №140102 
>>139598
> 1e-3
> 128 dim 128 alpha
Хуясе ебать, это же жесткий перетрен с распидориванием будет, особенно если у него не 16+ гигов врам
>>139663
> что бы у тебя дата-сет не состоял лишь из вот таких пикч как 1 и 2
Хуясе ебать, тема здравая, но бля, это кому такое в голову должно придти? В датасете должно быть то с чего ты хочешь что-то скопировать а не рандомные куски, это вроде очевидно.
>>139683
Двачую вопрос, кто-нибудь уже пробовал?
Аноним 04/03/23 Суб 22:55:58 #219 №140104 
А как обучить модель чьему-то стилю рисовки?
Аноним 04/03/23 Суб 22:59:10 #220 №140107 
Меня одного из колаба выкидывает за неактивность теперь?
Аноним 04/03/23 Суб 23:11:33 #221 №140119 
>>140102
> 16+ гигов врам
Нет никакой разницы, между соотношении скорости, дима и альфы к соотношению vram. С чего ты это вообще взял? Некоторые люди делают dim больше 256 и им нормально. По сути это лишь параметры сохранения выходного файла, кроме скорости.
>>140102
> кому такое в голову должно придти?
Тем, кто пользовался обучением эмбеддинга и гиперсети в автоматике. Там нужно было использовать квадраты 512x512 и подругому никак. Поэтому использовали автоматическую обрезку, которая резала хрен пойми как, в основном - ноги отдельно, руки отдельно.
Я уже забыл, но вроде в дримбухе до сих пор так, что нужны строго 512x512 пикчи, иначе ошибки валит.
>>140104
Кидаешь дата сет из пикч с этой рисовкой в дримбух. Обучай на стандартных параметрах. Показывай здесь результат, дадим советы куда настройки крутить.
Аноним 04/03/23 Суб 23:21:02 #222 №140128 
>>140119
> С чего ты это вообще взял?
С того что есть еще батч сайз, который на врам как раз завязан.
> dim больше 256 и им нормально
Ваще похуй не влияет, суть в том что при альфе = дим 1e-3 - дохуя высокий лр, особенно при батчсайзе 1-2 и 100% приведет к поломке модели. Она может поломаться удачно и выдавать что-то новое что будет воспринято за стиль, но хотябы упоминай об этом когда советы раздаешь.
> Тем, кто пользовался обучением эмбеддинга и гиперсети в автоматике. Там нужно было использовать квадраты 512x512 и подругому никак.
Так оно требует просто квадраты в качестве пикч а не нарезку пикчи на куски.
> Поэтому использовали автоматическую обрезку, которая резала хрен пойми как
Она может не идеально смещать кроп и делать фокус не на лице, но отдельно на куски не нарезает. Одна пикча на входе - одна кропнутая на выходе. Впринципе совсем ужасной ее не назвать, совсем проебывала не более 10% пикч, их руками можно было поправить или перезапустить с другими настройками.
Аноним 04/03/23 Суб 23:24:02 #223 №140135 
>>140119
>Кидаешь дата сет из пикч с этой рисовкой в дримбух. Обучай на стандартных параметрах. Показывай здесь результат, дадим советы куда настройки крутить.
Я вот как раз пытаюсь найти нормальный не запутанный гайд
Аноним 04/03/23 Суб 23:29:02 #224 №140142 
>>140135
Если осилишь двощегайд то все сможешь, разве что придется подобрать параметры и оптимизировать датасет. Да, это действительно пиздец для неофита, но зато когда понял - все становится просто и понятно. Задавай вопросы по ходу здесь.
Аноним 04/03/23 Суб 23:33:42 #225 №140148 
>>140142
Я открыл двощегайд и там тупо три видео, я что-то не то открыл, да?
Аноним 04/03/23 Суб 23:35:59 #226 №140150 
>>140148
https://rentry.org/2chAI_LoRA_Dreambooth_guide
Аноним 04/03/23 Суб 23:37:28 #227 №140153 
>>140150
>дримбух
>гайд по лоре
Я явно чего-то не выкупаю
Аноним 04/03/23 Суб 23:40:35 #228 №140157 
1677962433786.png
>>140128
Ну так банч 1 по умолчанию, а я не говорил крутить его на 10.
До 0.4.0 версии 99% людей сидел на таких настройках - lr=1e-3, 128 dim, 128 alpha, batch_size=1. И даже не думая что-либо крутить и было всем все нормально. Сейчас это подходит больше для стилей, ибо требования по качеству у все выросли и персонажи на таких настройках уже совсем не очень.

Раньше и кроп был максимально простой, сейчас получше. Да и зеркалили пикчи почти всегда. Вот мой дата сет тех времен, например, конца октября.
Аноним 04/03/23 Суб 23:40:55 #229 №140158 
>>140153
Да, гайд написан крайне ахуительно, фейл даже в заголовке. Смотри оглавление, находи там дримбус и бугурти с пахомовской структуры где все перемешано. Один хуй лучше на великом-могучем врядли найдешь.
Аноним 04/03/23 Суб 23:43:40 #230 №140160 
>>140158
Сколько обычно места на харде нужно?
Аноним 05/03/23 Вск 00:50:17 #231 №140209 
>>139579
Проблема была в браузере.
Напредолил защиту от фингерпринтинга, включая канвас. Вот он-то и срал в штаны контролнету.
Аноним 05/03/23 Вск 00:52:06 #232 №140211 
>>140153
Обучение dreambooth от обучение lora отличается одной галочкой (или параметром командной строки). Все остальные параметры у них одинаковые. Разве что у dreambooth нет network_dim и alpha. Но оно и к лучшему.
Аноним 05/03/23 Вск 00:52:41 #233 №140213 
>>140160
На каждую эпоху столько же места, сколько занимала та модель, на которой ты обучаешь dreambooth. 10 эпох - 10 раз по 4 гб, например.
Аноним 05/03/23 Вск 00:54:11 #234 №140214 
>>140153
Советую тебе поставить под это дело нормальную вебморду
https://github.com/bmaltais/kohya_ss

А потом просто раскурить, что значит каждая настройка.
Для референса можешь использовать настройки лоры из гайда. Как я уже написал выше, >>140211
>Все остальные параметры у них одинаковые.
Аноним 05/03/23 Вск 01:02:15 #235 №140220 
>>140157
> а я не говорил крутить его на 10
Как раз если крутануть то будет более толерантно к высоким лр, в том и суть. Правда на сколько не понятно, кроме слов что вроде как так должно быть инфы нет, а тестировать дохуя долго.
> До 0.4.0 версии 99% людей сидел на таких настройках - lr=1e-3
Да ладно, 2e-5 .. 5e-4 сидели, многие и с альфой=1 такие числа используют, в прошлых тредах было. 1e-3 для высокой альфы действительно дохуя, в 2 раза снизить и от той точки уже щупать окрестности.
> Да и зеркалили пикчи почти всегда
Норм тема же, в случае если датасет скудный
> мой дата сет тех времен
Ахуеть вот это реально треш, а еще наверно удивлялись что неоче получается
>>140214
> нормальную вебморду
Оно новый функционал вносит или игрушка для тех кто не может без gui?
Аноним 05/03/23 Вск 01:21:33 #236 №140236 
>>140220
>игрушка для тех кто не может без gui
Аноним 05/03/23 Вск 03:28:27 #237 №140362 
image.png
>>140142
Ну, ждёмс
Аноним 05/03/23 Вск 03:33:03 #238 №140369 
>>139663
Ок, допустим, а если я на коллабе буду заливать анкроп имагес? Например в линакриф, он так же будет разбивать сам на множество квадратов или просто кропнет на один?
Аноним 05/03/23 Вск 03:36:40 #239 №140371 
>>137593
Как фанат рисовки naiga12 (художника для руины) заявляю, хуита, выпей яду
Стиль слишком слабоват и недотянута крупность мазков, да и всё слишком плавно
Аноним 05/03/23 Вск 04:40:03 #240 №140411 
image.png
image.png
>>140362
Спустя час я вижу, что зря я не проставил тэги, но выглядит интересно
Аноним 05/03/23 Вск 04:52:38 #241 №140417 
image.png
image.png
image.png
image.png
>>140411
Остановил, завтра попробую снова
Учил на SD1.5, в итоге говно, но забавно получилось
Аноним 05/03/23 Вск 04:54:04 #242 №140419 
image.png
image.png
image.png
image.png
>>140417
Аноним 05/03/23 Вск 06:04:45 #243 №140433 
image.png
Подскажите ради лолей как пользоваться вторым коллабом по тренировке лор из шапки или запишите тутор плз, я не понимаю куда там загружать теги в txt файлах
Аноним 05/03/23 Вск 07:10:53 #244 №140462 
>>140433
Туда же, куда и картинки. Текстовый файл с тэгами должен быть с тем же именем, что и файл с картинкой.
Аноним 05/03/23 Вск 08:06:29 #245 №140478 
image.png
image.png
Что за херь? Запустил, выключилась через 17 сек и никакого файла не появилось
Аноним 05/03/23 Вск 08:14:43 #246 №140482 
>>140462
>>140478
Аноним 05/03/23 Вск 08:14:47 #247 №140483 
>>140478
Тренировка не запустилась, прогони преднастройку инстанса тренировки с самого начала по шагам заново
Аноним 05/03/23 Вск 08:15:34 #248 №140484 
>>140483
Если продолжит не запускаться, то проблема в том что ты сделал что-то не так
Аноним 05/03/23 Вск 08:28:25 #249 №140487 
image.png
image.png
image.png
>>140484
>>140483
Как это? Везде галки стоят, ошибок не заметил
Аноним 05/03/23 Вск 08:37:30 #250 №140492 
>>140487
>>140478
Скорее всего ошибка в адресах до датасетов, у тебя они одинаковые, дл рег файлов должна быть отдельная папка, пустая если нет рег файлов. Помимо этого сам датасет должен быть в папке с названием итерации_название, т.е. 1_penis например
Аноним 05/03/23 Вск 08:41:46 #251 №140493 
>>140487
Алсо из прошлого треда посмотри как устроен конфиг >>128565 → и под себя измени.
Аноним 05/03/23 Вск 10:48:11 #252 №140525 
>>140492
>>140493
>Скорее всего ошибка в адресах до датасетов, у тебя они одинаковые, дл рег файлов должна быть отдельная папка
Я пробовал указывать разные, все равно не работает

Алсо, что такое рег файлы? Это файлы txt с промтом внутри? Если так то я пробовал в другую папку их кидать

Не совсем понял про итерацию, в прошлом треде название так же без _ прописано
Аноним 05/03/23 Вск 10:51:54 #253 №140529 
>>140493
>>140492
А еще датасет должен быть заархивирован или прямо так картинки закинуть в папку?
Аноним 05/03/23 Вск 11:01:03 #254 №140532 
image.png
image.png
>>140493
>>140492
А это точно моя проблема?
Аноним 05/03/23 Вск 11:13:28 #255 №140536 
image.png
image.png
как вы этой залупой пользуетесь?
Аноним 05/03/23 Вск 11:19:05 #256 №140537 
>>140525
>Алсо, что такое рег файлы?
Это датасет сделанный по главным ключам которые испоьузешь в своем датасете. Допустим 100 изображений по ключу woman сделанных в NAI.
> Это файлы txt с промтом внутри?
Ниет, это такой же датасет но для точности.
>Не совсем понял про итерацию, в прошлом треде название так же без _ прописано
Вот у тя датасет из говна в папке, там есть файл 1.png, к нему идет файл 1.txt. Тебе нужно обозвать папку этого датасета по принципе "количествоитерацийиспользования_любоеимя", в примере с лорой карины юзалась одна итерация. Итерации нужны преимущественно чтобы несколько датасетов вместе совмещать, указывая плагину в каком количестве брать информацию от каждого датасета, допустим есть два датасета 2_anus и 1_penis, значит плагин будет брать в два раза больше данных из 2_anus, и количество информации в конечной лоре будет 2/3 (2 к 1) от всей лоры - то есть 66.6% лоры будет занимать трен на анус.
>>140529
Должен быть просто в папке без всяких архивов.
>>140532
Тритон не юзается на колабе, не обращай внимания на эту ошибку.
Аноним 05/03/23 Вск 11:28:28 #257 №140540 
>>140537
А это норм что у меня нет папки которая прописана для выхода лоры? И где выбрать как ее назвать?
Аноним 05/03/23 Вск 11:29:35 #258 №140541 
>>140540
Выход лоры сохраняется в --output_dir=
Аноним 05/03/23 Вск 11:34:33 #259 №140543 
image.png
>>140541
так я знаю, 5 шагом он чето делает с лорой, то ли ее переписывает толи хрен знает, причем в той папке которой у меня нет либо я ее не вижу
Аноним 05/03/23 Вск 11:38:24 #260 №140546 
image.png
Алсо, такая же шляпа, хоть и подпишу цифру в название папки
Аноним 05/03/23 Вск 11:46:35 #261 №140553 
>>140546
Думаю, что это сломанная штука, анон. Я тоже пыхтел и пытался, ничего не получилось
Аноним 05/03/23 Вск 12:07:07 #262 №140565 
>>140546
чел, ты можешь просто скопировать конфиг отсюда >>128565 → положить по пути /content/drive/MyDrive/sd/dataset/sincos/1_имятвоегодатасета свой датасет, поменять путь к модели своей и запустить или нет?
Аноним 05/03/23 Вск 12:07:30 #263 №140566 
>>140553
все работает, это просто у кого-то ручки из попки
Аноним 05/03/23 Вск 12:27:11 #264 №140574 
image.png
>>140566
>>140565
Ты просто тупой еблан или кто то еще?
Аноним 05/03/23 Вск 12:31:42 #265 №140576 
>>140566
Запили тогда подробный гайд для попоручек. Один говорит - пропускай третий шаг, другой - нажимай всё о порядку, а тот недогайд в колабе - калич.
Аноним 05/03/23 Вск 12:41:26 #266 №140581 
>>140574
ты зачем прям в пути прописал папку с датасетом?
ток что проверил у меня все работает
Аноним 05/03/23 Вск 12:47:14 #267 №140589 
>>140576
так всмысле, гайд рабочий и так, максимально для тупых сделано, третий шаг пропускать или не пропускать зависит от того надо тебе наи скачивать в инстанс колаба или нет
Аноним 05/03/23 Вск 13:01:56 #268 №140603 
>>140581
>ты зачем прям в пути прописал папку с датасетом?
А как иначе и в чем разница? Кидай скрин как ты делаешь
Аноним 05/03/23 Вск 13:10:25 #269 №140607 
>>140574
>>140543
>>140546
Отбой, скрипт пошел по пизде скорее всего из-за обнов на гите. Ищите рабочий теперь или фиксите этот.
Аноним 05/03/23 Вск 14:18:49 #270 №140643 
>>140607
https://github.com/Linaqruf/kohya-trainer/blob/main/fast-kohya-trainer.ipynb вот это говно работает вроде
Аноним 05/03/23 Вск 14:18:54 #271 №140644 
Блджад, прекратите дрочить скрипт.
Поставьте просто вебморду, там все работает
https://github.com/bmaltais/kohya_ss
Аноним 05/03/23 Вск 14:19:54 #272 №140647 
image.png
>>140643
ну да, пока вроде без ошибок
Аноним 05/03/23 Вск 14:23:52 #273 №140652 
>>140644
как
Аноним 05/03/23 Вск 14:37:01 #274 №140666 
image.png
>>140647
норм
Аноним 05/03/23 Вск 14:43:06 #275 №140674 
>>140644
>Поставьте просто вебморду, там все работает
Не у всех локально тренить можно по мощности.
У меня вот тренировку в батч 2/768 не тянет на моей 2070, а коллаб - тянет.
Аноним 05/03/23 Вск 14:43:20 #276 №140675 
>>140666
>>140647
Запилите туторчик плиз я пробовал у меня какую то ошибку все равно выдавало
Аноним 05/03/23 Вск 14:43:40 #277 №140677 
>>140674
Да, я жопой посмотрел, что вы в коллабе возитесь.
Аноним 05/03/23 Вск 14:59:01 #278 №140696 
image.png
Как я понимаю, всё плохо?
Аноним 05/03/23 Вск 15:03:26 #279 №140701 
sample42782-0.png
sample42782-1.png
sample42782-2.png
sample42782-3.png
>>140696
Крайние сэмплы
Но как я знаю, сэмплы всегда хуже генерации
Аноним 05/03/23 Вск 15:18:16 #280 №140729 
image.png
>>140666
И как этой хуетой пользоваться?
Аноним 05/03/23 Вск 15:35:14 #281 №140762 
>>140729
>>140675
челы, блять, там же все расписано, ну вы че блять
Аноним 05/03/23 Вск 15:38:08 #282 №140775 
image.png
>>140762
Ок че то запустилось, у них плохо работает анзип, я вручную залил просто в папку и нашло файлы.
Так же, там сказано что если с фотками будут txt файлы то теги будут браться оттуда, но пункты с автоматической растановкой тегов обязательны???? зачем то???? в итоге зачем то эти дерьмовые теги проставленные машиной а не мной обьеденили в один мета файл и использовали их??? зачем??? как это дерьмо убрать????
Аноним 05/03/23 Вск 15:38:27 #283 №140776 
>>140696
Кто-нибудь пояснит?
Аноним 05/03/23 Вск 15:40:06 #284 №140783 
>>140776
>>140696
меньше 0.2 и больше NaN - хорошо
вапроси?
Аноним 05/03/23 Вск 15:42:35 #285 №140791 
>>140783
И то что есть призрачный тренд на снижение - тоже?
А что с лицами делать? Или это последствия того, что я за базу взял 1.5?
Аноним 05/03/23 Вск 15:44:17 #286 №140793 
>>140791
>И то что есть призрачный тренд на снижение - тоже?
да, чем меньше лосс тем меньше пиздошит веса по итогу, т.н. гниение
>А что с лицами делать?
а что с ними?
>Или это последствия того, что я за базу взял 1.5?
нет
Аноним 05/03/23 Вск 15:49:38 #287 №140806 
sample35422-1.png
sample42782-2.png
sample17022-3.png
sample35422-0.png
>>140793
Ну вот какие лица есть, они явно текут (это из сэмплов)
Аноним 05/03/23 Вск 15:52:59 #288 №140816 
>>140806
ну вопервых это 512, попробуй апскейлни или хайрезфиксни и посмотри результат
ну а так тренинг скорее всего не опатимален, да еще и аниме на реалистичной сд1.5
Аноним 05/03/23 Вск 15:54:00 #289 №140819 
>>140816
Ибо я шо, ебан брать Anything)0))
Аноним 05/03/23 Вск 15:54:27 #290 №140821 
>>140819
бери NAI))000
Аноним 05/03/23 Вск 15:58:10 #291 №140827 
sample46462-2.png
sample46462-3.png
0484.jpg
>>140701
Я начинаю чувствовать овертрейн, ибо пик 2 слишком по структуре похож на пик 3 из датасета
Аноним 05/03/23 Вск 16:02:43 #292 №140837 
>>140819
>>140821
Просто ок, тут я учу дримбуф, но если я решу обучать Лору и на чём-то кроме 1.5, она же будет не совместима с чем-то кроме того, на чём учил, я же верно понимаю?
Аноним 05/03/23 Вск 16:06:42 #293 №140844 
>>140837
>она же будет не совместима с чем-то кроме того, на чём учил, я же верно понимаю?
По умолчанию лоры совместимы.
Дальше уже зависит от датасета.
Вот например https://civitai.com/models/8723/pov-doggystyle-lora-1-mb совместима со всем, что я пробовал.

Кстати, аноны. Я помню, что у моделей можно веса перелопачивать. И там есть условное разделение на фоны, позы, и прочее.
У лоры есть такое? Можно натренировать лору на фоны, а потом выпилить из нее лишние веса? Или на позу, и выпилить стиль, чтобы оно не меняло стиль, только позу?
Аноним 05/03/23 Вск 16:55:15 #294 №140925 
>>140783
А в случае с sd2.1 0.25 и особо не меняется, это плохо или хорошо?
Аноним 05/03/23 Вск 17:08:09 #295 №140947 
78761230o.jpg
aslan 23.jpg
gourdonalain9pinuperovvheel.jpg
gourdonalain29pinuperovvheel.jpg
Привет создаю лолу по таким вот исходникам не очень выходит. Надо использовать аниме модель или обычную.
Аноним 05/03/23 Вск 17:09:41 #296 №140951 
gourdonalain96pinuperovvheel.jpg
PlancheA104427.jpg
gourdonalain64drawingerovvheel.jpg
gourdonalain32drawingerovvheel.jpg
Еще пару примеров
Аноним 05/03/23 Вск 17:38:23 #297 №140976 
image.png
image.png
Подскажите пж норм настройки для этой шляпы а то персонаж сам на себя не похожим получился
Аноним 05/03/23 Вск 17:38:49 #298 №140978 
>>140976
Ps это норм что у меня лора тренилась 1 час 30 мин?
Аноним 05/03/23 Вск 18:00:53 #299 №141005 
>>140417
На SD 1.5 никто аниме не учит. На civitai ставят только потому, что нет выбора NAI.
Бери NAI, ACertainty, Anything 4.5

Обучаю онли на ACertainty. Совместимо со всем, что умеет в рисовку аниме, даже всякие дико ягодно-оражевые-капустные миксы с графикой уровня 3d рендера в блендере. То есть со всем, кроме базовых SD, ProtoGen, Deliberate.
Аноним 05/03/23 Вск 18:03:12 #300 №141008 
>>140947
Попробуй Deliberate
Аноним 05/03/23 Вск 18:06:06 #301 №141012 
>>141008
Не знал о такой модели... Спасибо!
Аноним 05/03/23 Вск 18:06:35 #302 №141013 
>>140976
Для банча 1 слишком низкая скорость. Попробуй хотя бы 5e-4.
Аноним 05/03/23 Вск 18:07:53 #303 №141015 
можно не в тему вопрос - тут есть канал по поиску авторов картинок? гн смог найти в гугле источник и автор.
Аноним 05/03/23 Вск 18:09:21 #304 №141017 
>>141015
iqdb.org
Это база
Аноним 05/03/23 Вск 18:11:23 #305 №141021 
image.png
image.png
image.png
Попробовал запустить Anything и прогнать датасет через deepbooru
Аноним 05/03/23 Вск 18:12:06 #306 №141023 
>>141017
>iqdb.org
Это не из аниме изображение
Аноним 05/03/23 Вск 18:12:58 #307 №141025 
>>141013
что это вообще за хрени? эти 5e-4 или 2е-6
алсо, а на кал лабах можно ставить банч 2?
Аноним 05/03/23 Вск 18:17:33 #308 №141028 
111482 (1).jpg
Хотел делать ЛОРУ не нашел автора
Аноним 05/03/23 Вск 18:18:43 #309 №141033 
1678029523727.png
>>141021
Надо через Anything 4.5, 3.0 какая-то хуевая для обучения.
Не знаю как сейчас deepbooru, но месяца два назад перешел на WD. Разница по качеству определения на 5 голов выше.
>>141025
Скорость записанная в виде формулы. 1e-4 это 0.0001, а 2е-6 это 0.000002. То есть вторая цифра это количество нулей, а первая - число после них.
Короче, в гугле вбивай и по первой же ссылке калькулятор.
В колабах никогда не сидел, но слышал, что 2 уж точно можно.
Аноним 05/03/23 Вск 18:19:58 #310 №141036 
>>141033
>WD
?
Аноним 05/03/23 Вск 18:21:43 #311 №141037 
>>141036
https://github.com/toriato/stable-diffusion-webui-wd14-tagger
Вроде как SwinV2 самая качественная модель от туда
Аноним 05/03/23 Вск 18:22:52 #312 №141039 
Ладно, пока (или вообще) забью, ибо тратит много времени, а результат ужасный получается
Но как я уже писал, результат, что был выше в виде "Library of Ruina style" - говно
Аноним 05/03/23 Вск 18:24:51 #313 №141041 
>>141039
Можешь дата сет скинуть, попробую у себя прогнать. Если выйдет, скину сюда же с настройками.
Аноним 05/03/23 Вск 18:28:58 #314 №141046 
>>141041
https://dropmefiles.com/8ycCc

Папка output - это я кропал
Папка output-deepbooru - это после прогона в webui автоматика в ddepbooru
Нумерация не сквозная, ибо я удалил около 25%, что совсем не подходили на мой взгляд или были не очень качества

Тут именно арты автора без примесей артов из библиотеки, ибо там было много художников, файлы тупо стащил с артстейшна
Аноним 05/03/23 Вск 18:36:13 #315 №141053 
Barry Blair во вроде нашел автора
Стоит ли по нему делать ЛОРУ?
Аноним 05/03/23 Вск 18:51:57 #316 №141075 
>>140978
нет
Аноним 05/03/23 Вск 19:03:44 #317 №141087 
>>141075
Ну, от датасета зависит, от настроек, от батча.
У меня на 500+ картинок лора на гипер-футанари тренилась как раз столько на коллабе. Батч 2, 768px.
Получилось очень хорошо.
Аноним 05/03/23 Вск 19:07:05 #318 №141091 
https://github.com/wcde/custom-hires-fix
Только у меня этот хайрез-фикс к хренам ломает имг2имг?
Невозможно нормально выбрать разрешение картинки слайдерами, после запуска генерации в консоли всякая хрень появляется, и всё такое.
Аноним 05/03/23 Вск 19:18:29 #319 №141108 
>>141091
> Только у меня
Да. Каломатик с прошлого года не обновлял?
Аноним 05/03/23 Вск 19:41:34 #320 №141133 
>>141108
Да вчера вроде только.
Аноним 05/03/23 Вск 19:48:47 #321 №141147 
312.png
Это нормально тренить 5000 степов на колабе? Где снизить их колличество?
Аноним 05/03/23 Вск 20:14:45 #322 №141197 
Есть ли какой-то способ быстрой обработки скриншотов для даты? А то скрины не лучшего качества, и на выходе ИИшка рисует персов +- так же в не очень качестве. Или мб что-нибудь в настройках тренировки поменять, чтобы при обучении всратость скринов не учитывлась?
Аноним 05/03/23 Вск 20:29:40 #323 №141212 
1678037379282.png
1678037379294.png
1678037379301.png
>>141046
Всяких гуманоидов, роботов, рыцарей, инопланетян - нахуй.
Не, возможно сделать лору и на таких сущностей, но это сложнее раз в 50. Анон тут ебался с тем, чтобы просто суставы кукл были. Я сам пытался робо-кошку и куклу сделать, но с 10 попыток на каждую так ничего нормального и не вышло.
>>141147
max_train_steps, не?
Нормально
>>141197
Ну я бы ставил альфу 1. При генерации в негатив anime screencap и anime key visual color, семплер не Эулер a, а какой-нибудь DPM++ 2M.
Сам сталкивался. Было скринов всего лишь процентов 5-10, но выходила рисовка пик1, когда сократил совсем минимально, то вышел пик2 и пик3.
Аноним 05/03/23 Вск 20:42:09 #324 №141251 
image.png
Аноним 05/03/23 Вск 20:45:27 #325 №141257 
>>140976
Анонче, расскажи про датасет.
Что за npz?
В txt нужно теги конкретной картинки прописывать?
Аноним 05/03/23 Вск 21:17:00 #326 №141320 
Какой утилитой можно найти/убрать из датасета дубликаты одних и тех же картинок?
Аноним 05/03/23 Вск 21:22:15 #327 №141328 
Анон, поясни в кратце за LoCon, пробовал вчера с ним тренить через КохуйСС-гуй - СД ругается на лору, но что-то генерит, вроде не отличается от того, что было без LoCon. Настройки были дефолтные 1/1, AdditionalNetwork стоит.
И ещё вопрос в догонку, для тренировки стиля художника какие начальные настройки взять? Я понимаю что всё строго индивидуально и обсасывалось не однократно, но всё же. И я правильно понял, что тег для стиля нужно выбрать из того самого списка тегов с гитхаба?
Аноним 05/03/23 Вск 21:37:03 #328 №141358 
>>141212
А нетворк ранк какой ставить? И что по скорости, она вообще никак не влияет на хуевость обучения на скринах? И все таки повторю первый вопрос: мб есть что-нибудь через можно прогнать скрины, чтобы получились заебись арты на выходе?
Аноним 05/03/23 Вск 21:49:39 #329 №141384 
12.png
>>141212
Здрасьте
Мимо лора криповой куклы Мику на фото из твиттера
Аноним 05/03/23 Вск 21:52:32 #330 №141388 
>>141212
Я не хочу учить на людей, я хочу учить только на стиль
Аноним 05/03/23 Вск 22:12:41 #331 №141408 
1678043559259.png
>>141358
Попробуй dim 32, unet_lr 1e-5, text_encoder_lr 5e-5. Да, оно влияет.
Я пытался через img2img прогнать 3d модели, но выходило такое себе. Либо слабо, либо слишком много лишних деталей.
>>141384
Вышло-то вышло, но ебались долго. Это я хотел сказать.
>>141388
Все равно ты даешь нейронке месиво вот такого уровня и ожидаешь получить не месиво.
У тебя еще там токена нет. Может по этому это все.
Аноним 05/03/23 Вск 22:28:13 #332 №141427 
изображение.png
Это нормально?
Аноним 05/03/23 Вск 22:37:24 #333 №141443 
>>141427
Слишком много эпох поставил. Штуки 4 на такое количество шагов хватит.
Аноним 05/03/23 Вск 22:41:54 #334 №141457 
изображение.png
>>141443
Где это? Я не пони...
Аноним 05/03/23 Вск 22:49:14 #335 №141469 
>>141457
max train type value на 4
save n epoch type value на 1
Аноним 05/03/23 Вск 23:04:10 #336 №141486 
>>141469
Спасибо!
Аноним 05/03/23 Вск 23:06:43 #337 №141490 
Такой еще вопрос, купил я 4090 и стала иногда выскакивать эта ошибка. modules.devices.NansException: A tensor with all NaNs was produced in VAE. This could be because there's not enough precision to represent the picture. Try adding --no-half-vae commandline argument to fix this. Use --disable-nan-check commandline argument to disable this check.
Сталкивался кто, и как фиксить?
Аноним 05/03/23 Вск 23:11:14 #338 №141501 
>>141490
>Сталкивался кто, и как фиксить?
Сделай как написано
>Try adding --no-half-vae commandline argument to fix this
Аноним 05/03/23 Вск 23:17:29 #339 №141523 
1678047448307.jpg
1678047448329.jpg
1678047448338.png
>>141046
Попробую еще раз
Аноним 05/03/23 Вск 23:32:12 #340 №141552 
.png
.png
>>141046
Не, с таким тегингом вероятность успеха невелика. Можно дим=альфа поставить чтобы оно совсем сломалось, будет генерировать дохуя концептуально с мазней и свечением
Аноним 05/03/23 Вск 23:46:49 #341 №141569 
Как лору в колабную модель загрузить/подключить?
Аноним 05/03/23 Вск 23:49:13 #342 №141575 
>>141552
Ну, это проставил deepbooru, я же писал
Аноним 06/03/23 Пнд 00:24:07 #343 №141606 
>>141501
А куда её вставлять? Другой анон.
Аноним 06/03/23 Пнд 00:25:12 #344 №141608 
134.jpg
133.png
58.jpg
152.jpg
Несколько вопросов по поводу ЛОР в колабе

1) Например я сделал лору из датасета в 20 картинок, а есть еще 60. Мне нужно вновь обработать датасет из 80 картинок или есть возможность как то добавить старые к новым без повторной прогонки? В интерфейсе коллабы которая kohya-trainer
2) Я верно понимаю что если у художника разные стили, и сделать из них лору, то рандомно будет получатся не всегда то что хочешь? Вроде очевидно, но мало ли. Например на пикрилах картинки одного художника, но они вроде отличаются а вроде и нет. Испортит ли несколько таких пикч весь датасет? Простите за тупой вопрос.
Аноним 06/03/23 Пнд 00:28:05 #345 №141613 
Тред не читай и сращу спрашивай - я переставил с нуля Автоматик1111 и sd_dreambooth_extension для него, но эта хуйня все равно сыпет для меня ошибками при обычном локальном dreambooth-тренинге.
Я знаю, что отдельно от автоматика существует kohya веб-морда. Вопрос такой, в кохйе результаты будут такими же как и в основном дримбус плагине для автоматика? Или это вообще другая тема сугубо для тренинга Лоры? Короче, какие тулзы для локального тренинга дримбуса сейчас наиболее актуальны
Аноним 06/03/23 Пнд 01:03:14 #346 №141652 
image.png
Что я делаю не так?
Учу лицо, с ростом шагов сходство медленно появляется, но также появляется всё больше каши из артефактов. Стоит попробовать другую модель или проблема в датасете? Увеличить rank лоры (сейчас 16)?
Аноним 06/03/23 Пнд 01:15:58 #347 №141666 
>>141652
В чем профить 16 ранка кроме размера?
Аноним 06/03/23 Пнд 01:18:04 #348 №141670 
Снимок экрана 2023-03-05 223022.png
>>130722 (OP)
Гайс, чё за хуйня у меня произошла? Как исправить?
Аноним 06/03/23 Пнд 01:20:46 #349 №141672 
>>141666
Только размер. Еще возможно меньше времени расходуется на степ при обучении, но это не точно.
Аноним 06/03/23 Пнд 01:42:45 #350 №141698 
>>141569
Разобрался
Аноним 06/03/23 Пнд 01:56:52 #351 №141711 
00034-1045059303-before-face-restoration.png
00026-1045059300.png
00020-1045059298.png
>>141008
Я сделал вышло такое
Аноним 06/03/23 Пнд 01:57:26 #352 №141712 
>>140947
От этого есть отличие сильное...
Аноним 06/03/23 Пнд 02:19:21 #353 №141740 
>>141711
Блин. Попробой еще в промте теги поставить вроде highly detailed portrait, photo 90s, illustration, 1990s magazine
Сложно с моделью из-за дата сета определиться, под что больше подходит. Слишком уж реалистично. На аниме моделях пальцы разъебанные будут, а реалистичнее не особо умеют в легкое накидывании стиля рисовки.
Ну, теперь пробуй аниме. Только и протегай как аниме, то есть "1girl, solo, blond hair..."
Аноним 06/03/23 Пнд 02:22:04 #354 №141743 
leonardo.osnova.png
>>141740
Что если я скажу тебе, что аниме модели нормально впитывают реальные фотографии?
Аноним 06/03/23 Пнд 02:29:03 #355 №141754 
>>141743
Пару раз видел заебись, но в целом сложно их этим запитать. Пробовал с 3-мя дата сетами, вышло один раз, но совсем анимешно.
Аноним 06/03/23 Пнд 02:35:27 #356 №141762 
90-=90-=.png
>>141754
Все нормально. Тренировал на наи, делал на оранджмиксе
Аноним 06/03/23 Пнд 03:09:16 #357 №141800 
1678061354750.jpg
1678061354778.jpg
>>141046
Аноним 06/03/23 Пнд 05:32:27 #358 №141864 
image.png
>>141457
Эту поменяй еще на вот так чтобы по эпохам сохраняло.
Аноним 06/03/23 Пнд 05:58:26 #359 №141876 
>>141864
Хорошо.

Вроде, обучил лору, попробовал на: https://colab.research.google.com/drive/1Qhpzb2s6vzn2QS55OzFUZr5gl536FKBA#scrollTo=sBbcB4vwj_jm
всё работает. Открыл модель в колабе с подключённым диском, прописал путь до лоры и ничего не работает, просто дефолт генерации модели.
Чяднт?
Аноним 06/03/23 Пнд 07:01:23 #360 №141899 
>>141876
Такой вопрос, аноны. Прочитал намедни, что можно сделать лору и таким способом - наваять модель и извлечь из нее лору, мол результаты качественнее получаются, по крайней мере для реальных персонажей. Ну допустим сваять модель я могу в колабе, а где извлекать то? Какими средствами автоматика это делается?
Аноним 06/03/23 Пнд 08:40:32 #361 №141934 
>>141899
Supermerger https://github.com/hako-mikan/sd-webui-supermerger
Аноним 06/03/23 Пнд 09:03:34 #362 №141950 
>>141613
> sd_dreambooth_extension
Чекни гит его ебнутого автора. Он вообще собирается делать стандалон версию, потому что его расширение на регулярной основе гробит автоматика, но ему похуй, он для этого бренного мира слишком хорош. У меня эта гнида вчера наебнула кастомный торч и хформерс, потому что обновилась с собственными requirements.txt и молча перезаписала установленные в venv, причем автору писали о такой проблеме ещё три недели назад, но он на своей волне и идите нахуй и в пизду.
Либо отдельную сборку чисто под будку заведи, причем какие-то прошлые версии, либо накатывай в колаб.
Алсо, благодаря этой ситуации выяснил, что в гайде по повышению производительности лежат кривые готовые торч, торчвижен и хформерс от местного шиза, раньше были от другого автора и работали, эти же между собой не дружат, авто идет в отвал. К счастью, гайд по ручной сборке и конпеляции рабочий, хоть и муторный, за него спасибо. Было душно, но всё поднялось. 3060, win10.
Аноним 06/03/23 Пнд 09:11:01 #363 №141959 
image.png
Куда сохраняются промежуточные лоры? И как это настроить? И как настроить количество эпох если там на выбор либо степсы либо эпохи
Аноним 06/03/23 Пнд 09:17:59 #364 №141965 
913425746194974.png
041393362712858.png
image.png
>>141959

>Куда сохраняются промежуточные лоры? И как это настроить?
Пик1 - говорим сохранять каждую вторую эпоху, меняем 2 на 1 - будет сохранять каждую эпоху.
в папку /content/drive/MyDrive/training_dir/output
при вклченном пике 2
>как настроить количество эпох если там на выбор либо степсы либо эпохи
пик 3 количество эпох
Аноним 06/03/23 Пнд 09:25:05 #365 №141969 
>>141934
Нашел там о генерации Лоры из разницы двух моделей. Похоже это не совсем то о чем упоминали в тех комментариях. Почитай сам, анон, может я что-то не так понял?
https://civitai.com/models/10792/marty-mcfly-back-to-the-future-1985?commentId=30703&modal=commentThread
Аноним 06/03/23 Пнд 09:34:32 #366 №141974 
>>141969
тебе нужно выжать лору из модели, так? принцип вычитания из модели лоры такой
1. тренишь на условной NAI
2. получаешь свою модель
3. из своей модели вычитаешь оригинальную NAI
4. получаешь лору
супермерджер как раз позволяет все че угодно делать с лорами и моделями
Аноним 06/03/23 Пнд 09:41:40 #367 №141981 
>>141965
спасибо няш, а как дотренировать лору если персонаж не похожий получился?
Аноним 06/03/23 Пнд 09:47:25 #368 №141986 
>>141974
Спасибо, буду экспериментировать
Аноним 06/03/23 Пнд 10:03:18 #369 №141990 
image.png
>>141965
Чет все равно нихрена не сохраняется хоть я и поставил галку
Аноним 06/03/23 Пнд 10:05:45 #370 №141991 
>>141990
ясно я походу куку, я не прожал кнопку включения скрипта после того как поставил галку
Аноним 06/03/23 Пнд 11:21:26 #371 №142023 
>>141991
>>141990
А нет, все равно не сохраняет каждый эпок
Так как дотренировать лору?
Аноним 06/03/23 Пнд 11:33:24 #372 №142027 
>>141965
Так как дотренировать лору?
Аноним 06/03/23 Пнд 12:34:25 #373 №142092 
Нейрохудожники, уже известно почему глаза получаются такими плохими? Как фиксить?

На сколько нормальная идея для конкретного стиля взять и в датасет добавить чисто глаза персонажей в большом разрешении?
Аноним 06/03/23 Пнд 12:45:54 #374 №142098 
>>139684
Вопрос все еще актуален, в чем прикол locon
Аноним 06/03/23 Пнд 12:46:37 #375 №142099 
>>141876
Бамп вопросу
Аноним 06/03/23 Пнд 12:54:00 #376 №142104 
image.png
image.png
>>141990
у тя чет не так стоит чет
Аноним 06/03/23 Пнд 13:19:07 #377 №142124 
image.png
image.png
image.png
Это норм?
Алсо, почему промежуточные лоры не сохраняются??????!!!!!!??????? Если я все проставил как надо
Аноним 06/03/23 Пнд 13:20:33 #378 №142130 
>>142104
Как ты смотришь так настройки в одной таблице?
Мне кажется у меня не так потому что у меня лернинг рейт меньше стоит
Аноним 06/03/23 Пнд 13:21:18 #379 №142132 
>>141950
> Алсо, благодаря этой ситуации выяснил, что в гайде по повышению производительности лежат кривые готовые торч, торчвижен и хформерс от местного шиза, раньше были от другого автора и работали, эти же между собой не дружат, авто идет в отвал. К счастью, гайд по ручной сборке и конпеляции рабочий, хоть и муторный, за него спасибо. Было душно, но всё поднялось. 3060, win10.
Надо будет мне тогда старую версию тоже в гайд добавить на всякий. У меня просто на более новой версии (которая в гайде) прирост на несколько процентов выше был и никаких жалоб я раньше не видел, поэтому я с чистой совестью старую версию убрал из гайда.

Возможно, какие-то расширения с этими версиями конфликтуют в твоём случае, или что-то ещё влияет - я с этими версиями до сих пор сижу, пару дней назад автоматик со всеми расширениями обновил, и всё до сих пор работает.

Алсо, можешь плиз написать, как производительность поменялась после того, как новые либы напердолил?
Аноним 06/03/23 Пнд 13:24:10 #380 №142137 
>>142130
>Как ты смотришь так настройки в одной таблице?
В окне выполнения скрипта прямо пишется
Аноним 06/03/23 Пнд 13:28:26 #381 №142147 
Не понимаю как скачивать картинки граббером и чтобы он сохранял тэги. Все сделал по гайду
Аноним 06/03/23 Пнд 13:31:56 #382 №142156 
image.png
>>142137
Ну штош, на
Аноним 06/03/23 Пнд 13:37:01 #383 №142170 
.png
>>142147
Пару раз уже было, что "text file content" криво переписывали с этого скрина. Может быть, что та же самая проблема и в твоём случае - там просто со всеми этими спецсимволами очень легко опечатку сделать. Должно быть так: %all:unsafe,separator=^,^ %
Аноним 06/03/23 Пнд 13:41:15 #384 №142179 
>>142170
оо, помню пол дня ебался с этими скобками ебаными. а оказалость, что пробел лишний не поставил.
Аноним 06/03/23 Пнд 13:45:25 #385 №142189 
.png
>>142179
Я поэтому попросил автора гайда эту строку сразу в гайд вставить, поскольку такая же проблема с этим пробелом у нескольких анонов была.
Аноним 06/03/23 Пнд 13:50:54 #386 №142197 
>>141800
На силе 0.9 вроде уже больше похоже на правду
Аноним 06/03/23 Пнд 13:52:06 #387 №142198 
42.png
>>142170
Так и было. Спасибо!
Аноним 06/03/23 Пнд 13:59:55 #388 №142203 
>>142132
Ну возможно да, будка где-то ещё насрала при тихом обновлении, я по гайду удалял только три компонента. Ему б ебало говном измазать за такую подставу, конечно. Будку, впрочем, снес и не жалею, всё равно говно без задач, не запускал с декабря.
Производительность не сравнивал, у меня вообще довольно хаотичный подход к генерациям, я не дрочу 512×512 с секундомером и просмотром логов. Раз в пару дней запускаю, кидаю в пнг инфо из прошлых генераций, меланхолично подкручиваю какие-то детальки, генерю с новыми эмбедингами и лорами, это в любом случае небыстро, только я и не тороплюсь никуда. Порой даже забываю что что-то там генерируется, пока занимаюсь другими делами. Хуже не стало, по крайней мере.
Аноним 06/03/23 Пнд 14:05:16 #389 №142208 
image.png
Почему чекпойнт сохраняется только непонятно на какой эпок? я указал каждый третий а по итогу хрен знает
Аноним 06/03/23 Пнд 14:07:50 #390 №142209 
>>130722 (OP)
РебяТушки из технотреда, он у вас уже седьмой наверняка вы очень умные.

Подскажите как ЛОРУ сделать не на 144 мегабайта а на 10 скажем? Ну короче в РАЗЫ меньше? Я её делал на коллабе kohya. Может там надо что-то нажать/указать?
Аноним 06/03/23 Пнд 14:09:05 #391 №142210 
>>142209
>Подскажите как ЛОРУ сделать не на 144 мегабайта а на 10 скажем?
Уменьшить network dim
Аноним 06/03/23 Пнд 14:14:10 #392 №142211 
image
>>142210
Ага, спасибо, нашёл такое. А можно ещё вопрос оно же наверняка не только на вес влияет? Иначе зачем все по 144 делают? Нужно какой-то конкретный параметр вместо 128 выставлять кратный чему-либо?
Аноним 06/03/23 Пнд 14:20:18 #393 №142214 
>>142211
>Иначе зачем все по 144 делают?
Детский максимализм "больше - лучше".
Нет доказанной связи между размером и качеством лоры.
Лучшая из лор, что я качал, на позу ебли сзади, весит 1 мегабайт.
Аноним 06/03/23 Пнд 14:20:36 #394 №142215 
>>142211
>Нужно какой-то конкретный параметр вместо 128 выставлять кратный чему-либо?
Ну как обычно, 1 2 4 8 16...
Аноним 06/03/23 Пнд 14:29:12 #395 №142219 
>>142215
>>142214
Спасибо, попробую!
Аноним 06/03/23 Пнд 14:40:43 #396 №142223 
>>141876
Бамп вопросу

Анончики, генерировать хочеца...
Аноним 06/03/23 Пнд 15:09:59 #397 №142240 
>>142223
реально хочу тебе помочь, но колабом не пользуюсь и хз что там надо нажимать.
Аноним 06/03/23 Пнд 15:19:42 #398 №142251 
Вопрос такой — что будет если дата-сет на 1400 картинок использовать для создания ЛОРЫ? Все нормально будет?
Аноним 06/03/23 Пнд 15:20:48 #399 №142255 
>>142251
Ну тут вопрос в том, насколько качественно он протеган. Больше пикч - больше проебов - хуже качество.
Аноним 06/03/23 Пнд 15:21:03 #400 №142257 
>>142251
Да, сам так делал.
Аноним 06/03/23 Пнд 15:22:42 #401 №142261 
>>141740
>highly detailed portrait, photo 90s, illustration, 1990s magazine
Спасибо попробую.
Аноним 06/03/23 Пнд 15:25:18 #402 №142265 
000d390903bc1ecb9313f1cb8e187340.jpg
>>142257
>>142255
Тогда вопрос к хуевости тегов. Вот я например граббером скачал с буры теги артиста

2girls, biting, black shirt, black shorts, blouse, breasts, camisole, cleavage, dolphin shorts, ear biting, ear licking, closed eyes, from above, frown, gogalking, grey shorts, highres, holding, holding pillow, licking, long hair, lying, medium breasts, medium hair, multiple girls, on side, open mouth, original, pillow, pointy ears, shirt, shorts, siblings, sisters, sleeping, sweatdrop, vampire's sister (gogalking), vampire (gogalking), white camisole, white hair, yuri

Проебы зафиксируете? Или проблема в том что не хватает тегов например который указал что это кровать и т.п.?
Аноним 06/03/23 Пнд 15:26:28 #403 №142266 
00068-2621111412.png
00051-2621111407-before-highres-fix.png
С пальцами и руками/норами плохо...
Аноним 06/03/23 Пнд 15:39:19 #404 №142282 
>>141743
Реалистик-модели тоже могут впитать лоры, тренированные и тэганные под аниме модели. Лица только на лоуресе будет пидарасить, но с апскейлом норм.
Аноним 06/03/23 Пнд 15:40:54 #405 №142286 
нз0г89-.png
Если я учу на стиль художника, то может лучше брать с 5 по 7 версии?
Аноним 06/03/23 Пнд 15:41:27 #406 №142289 
>>141950
>Алсо, благодаря этой ситуации выяснил, что в гайде по повышению производительности лежат кривые готовые торч, торчвижен и хформерс от местного шиза, раньше были от другого автора и работали, эти же между собой не дружат, авто идет в отвал. К счастью, гайд по ручной сборке и конпеляции рабочий, хоть и муторный, за него спасибо. Было душно, но всё поднялось. 3060, win10.
Ха, значит это не у меня одного весь автоматик к херам обвалился после того, как я этот гайд попробовал.
Надо было мне раньше об этом написать, но я что-то тогда заленился.
Аноним 06/03/23 Пнд 15:43:46 #407 №142294 
>>141969
Через кохая-сс вебуи можно разницу извлекать.
Когда я сам пробовал - там с весами какая-то дичь была, лора концепт воспроизводила, но где-то в два раза слабее, чем базовая модель, приходилось силу применения задирать.
В супермерджере такого вроде нет, там только обратное - лору в модель запечь.
Аноним 06/03/23 Пнд 15:45:44 #408 №142296 
>>142092
Генерить в высоком разрешении.
Писать квалити-тэги.
Использовать хорошие модели.

Глаза скорее всего не помогут, лорка в результате будет тебе выдавать иногда картинки чисто с глазами.
Но можешь попробовать, конечно.
Аноним 06/03/23 Пнд 15:49:23 #409 №142306 
>>142124
Вторую ссылку попробуй.
Там лишнего нет (ну, может только третий шаг).
Аноним 06/03/23 Пнд 16:00:49 #410 №142323 
>>142251
Если все 1400 отборные качественные понятные сети и хорошо протеганы - будет заебись. Каракули, шмурдяк, комиксы, эскизы - будет отборная хуйта.
>>142265
> теги артиста
> 2girls
А на что у тебя лора? Если стиль или взаимодействие то норм, если на персонажа то стоит такого избегать. Теги норм.
> в том что не хватает тегов например который указал что это кровать
было бы неплохо но если фоны разнообразные то не обязательно здесь.
>>142092
Если после лоры где автор странно рисует глаза - добавь в датасет клозапы чтобы оно в малом разрешении могло различить их, офк немного и аккуратно протегать что там клозап, ай фокус, фейс фокус и т.д. Если просто при генерации - увы
Аноним 06/03/23 Пнд 16:02:38 #411 №142327 
>>142251
Как раз тестирую лору на 30 картинках против лоры на 1300 картинках правда 70% итераций приходится только на 200 из них. Пока в глаза бросается только то, что фоны в целом больше похоже на оригинальные стали, которые без лорки. Но я пока не так много тестов успел сделать, чтобы к каким-то выводам прийти.
Аноним 06/03/23 Пнд 16:03:43 #412 №142329 
Microsoft Windows [Version 10.0.19045.2604]
(c) Корпорация Майкрософт (Microsoft Corporation). Все права защищены.

D:\SD\stable-diffusion-webui>.\venv\Scripts\activate

(venv) D:\SD\stable-diffusion-webui>pip install mmdet
Collecting mmdet
Using cached mmdet-2.28.2-py3-none-any.whl (1.5 MB)
Requirement already satisfied: scipy in d:\sd\stable-diffusion-webui\venv\lib\site-packages (from mmdet) (1.10.0)
Collecting terminaltables
Using cached terminaltables-3.1.10-py2.py3-none-any.whl (15 kB)
Requirement already satisfied: matplotlib in d:\sd\stable-diffusion-webui\venv\lib\site-packages (from mmdet) (3.6.3)
Requirement already satisfied: six in d:\sd\stable-diffusion-webui\venv\lib\site-packages (from mmdet) (1.16.0)
Collecting pycocotools
Using cached pycocotools-2.0.6.tar.gz (24 kB)
Installing build dependencies ... done
Getting requirements to build wheel ... done
Preparing metadata (pyproject.toml) ... done
Requirement already satisfied: numpy in d:\sd\stable-diffusion-webui\venv\lib\site-packages (from mmdet) (1.23.3)
Requirement already satisfied: fonttools>=4.22.0 in d:\sd\stable-diffusion-webui\venv\lib\site-packages (from matplotlib->mmdet) (4.38.0)
Requirement already satisfied: pillow>=6.2.0 in d:\sd\stable-diffusion-webui\venv\lib\site-packages (from matplotlib->mmdet) (9.4.0)
Requirement already satisfied: contourpy>=1.0.1 in d:\sd\stable-diffusion-webui\venv\lib\site-packages (from matplotlib->mmdet) (1.0.7)
Requirement already satisfied: pyparsing>=2.2.1 in d:\sd\stable-diffusion-webui\venv\lib\site-packages (from matplotlib->mmdet) (3.0.9)
Requirement already satisfied: packaging>=20.0 in d:\sd\stable-diffusion-webui\venv\lib\site-packages (from matplotlib->mmdet) (23.0)
Requirement already satisfied: cycler>=0.10 in d:\sd\stable-diffusion-webui\venv\lib\site-packages (from matplotlib->mmdet) (0.11.0)
Requirement already satisfied: kiwisolver>=1.0.1 in d:\sd\stable-diffusion-webui\venv\lib\site-packages (from matplotlib->mmdet) (1.4.4)
Requirement already satisfied: python-dateutil>=2.7 in d:\sd\stable-diffusion-webui\venv\lib\site-packages (from matplotlib->mmdet) (2.8.2)
Building wheels for collected packages: pycocotools
Building wheel for pycocotools (pyproject.toml) ... error
error: subprocess-exited-with-error

× Building wheel for pycocotools (pyproject.toml) did not run successfully.
│ exit code: 1
╰─> [16 lines of output]
running bdist_wheel
running build
running build_py
creating build
creating build\lib.win-amd64-cpython-310
creating build\lib.win-amd64-cpython-310\pycocotools
copying pycocotools\coco.py -> build\lib.win-amd64-cpython-310\pycocotools
copying pycocotools\cocoeval.py -> build\lib.win-amd64-cpython-310\pycocotools
copying pycocotools\mask.py -> build\lib.win-amd64-cpython-310\pycocotools
copying pycocotools\__init__.py -> build\lib.win-amd64-cpython-310\pycocotools
running build_ext
cythoning pycocotools/_mask.pyx to pycocotools\_mask.c
C:\Users\tavol\AppData\Local\Temp\pip-build-env-e9uzfzi7\overlay\Lib\site-packages\Cython\Compiler\Main.py:369: FutureWarning: Cython directive 'language_level' not set, using 2 for now (Py2). This will change in a later release! File: C:\Users\tavol\AppData\Local\Temp\pip-install-x935m1qd\pycocotools_dcd62e38f0f04caeb600e928305bf433\pycocotools\_mask.pyx
tree = Parsing.p_module(s, pxd, full_module_name)
building 'pycocotools._mask' extension
error: Microsoft Visual C++ 14.0 or greater is required. Get it with "Microsoft C++ Build Tools": https://visualstudio.microsoft.com/visual-cpp-build-tools/
[end of output]

note: This error originates from a subprocess, and is likely not a problem with pip.
ERROR: Failed building wheel for pycocotools
Failed to build pycocotools
ERROR: Could not build wheels for pycocotools, which is required to install pyproject.toml-based projects
Аноним 06/03/23 Пнд 16:05:05 #413 №142334 
>>142329
Там все написано в конце, даже ссылка есть
Аноним 06/03/23 Пнд 16:05:14 #414 №142335 
Вот не пойму откуда эта ошибка взялась? Визуал С стоит
Аноним 06/03/23 Пнд 16:14:28 #415 №142345 
>>142306
говорили же он сломался из за обновы. какой та
или его уже починили?
Аноним 06/03/23 Пнд 16:17:29 #416 №142348 
>>142345
чел не в курсе что вторая лора с шапки всё
Аноним 06/03/23 Пнд 16:19:32 #417 №142353 
>>141950
У меня всё работает, алсо в новых версиях должны наконец генерацию нормального лора файла запилить (вроде уже запилили, но пока нет версии с этой функцией)
Аноним 06/03/23 Пнд 16:21:16 #418 №142355 
>>142345
>>142348
Хм. А если я себе на диск копию этого блокнота сделал?
Тоже "всё"?
Аноним 06/03/23 Пнд 17:08:57 #419 №142433 
>>142355
git checkout в помощь. И, возможно, повозиться с версиями бибилотек.
Аноним 06/03/23 Пнд 17:51:36 #420 №142492 
image.png
Помогите, что делать, я сделал лору по персонажу с такими настройками
lr 1e-4 или же 0.0001
epoch 20 или же 5200 шагов
разрешение 768 на 768
И в итоге персонаж получился нифига не похож на себя, ни длина волос, ни цвет глаз, нифига не повторяет
Аноним 06/03/23 Пнд 18:27:21 #421 №142580 
>>142433
Я имел в виду, что сделал на гугл диск копию второго колаба из шапки, который, типа, "не работает", пока он еще работал.
Т.е. код там, по идее, еще в рабочей версии должен быть записан.
Или как вообще этот колаб работает?
Аноним 06/03/23 Пнд 18:29:36 #422 №142587 
>>142492
5200 шагов - это перебор.
Выше 2500 целиться смысла нет, и даже это уже много.
Если у тебя в сете были протеганы фичи персонажа - цвет волос, глаз, прическа, одежда - всё такое - тебе в промте их тоже вызывать надо каждый раз.
Аноним 06/03/23 Пнд 18:37:49 #423 №142598 
(makeup), (milf), (porn), (glamour), (instagram),(monochrome), (orgy), (homo), (multiple girls), (multiple boys), (duplicate), (sfw), (censorship), extra fingers, mutated hands, (bad eyes) (poorly drawn hands), (mutation), (deformed), (bad anatomy), (bad proportions), (extra limbs), cloned face, (disfigured), extra limbs, (malformed limbs), (missing arms), (missing legs), (extra arms), (extra legs), mutated hands, (fused fingers), (too many fingers), (long neck), text, logo, blood, animal, pig, long neck, deformed ears, (futa), lowres, (bad anatomy), (bad hands), text, error, (missing fingers), extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark, username, blurry, (child), (loli), (old), (ugly), lowers, jpeg artifacts, low quality, lowers, jpeg artifacts, low quality - у меня такой негатив а вы какой исспользуете.
Аноним 06/03/23 Пнд 18:48:37 #424 №142631 
2023-03-06-164401938x127scrot.png
Видел kohya ругают, есть альтернативный колаб для тренировки?
Если по фоткам персонажа тренировать, на 1.5 модели или на каком-то deliberate?
Аноним 06/03/23 Пнд 19:01:16 #425 №142659 
image.png
ребят...
Аноним 06/03/23 Пнд 19:02:26 #426 №142660 
>>142659
Нахуй ты 66100 шагов взял? Ебанутый?
Аноним 06/03/23 Пнд 19:03:22 #427 №142662 
>>142660
норм, у него датасет из 6600 пикч.
Аноним 06/03/23 Пнд 19:03:27 #428 №142663 
Clip2Net DropZone2023-03-06190315.jpg
>>142659
База
Аноним 06/03/23 Пнд 19:05:04 #429 №142665 
>>142660
А как его понизить?

>>142662
Из 800 же

Мне кажется колаба сдохнет пока 7 часов пройдет же, да?
Аноним 06/03/23 Пнд 19:14:45 #430 №142673 
image.png
Поставил max_train_type_value:10

Теперь говно выйдет?
Аноним 06/03/23 Пнд 19:34:51 #431 №142704 
https://postimg.cc/gallery/190cyYZ - вот датсет на чем бы вы обучали его? я уже 2 день бьюсь не выходит.
Аноним 06/03/23 Пнд 19:41:31 #432 №142714 
Народ, контролнет через openpose нормально у вас работает?
Вчера поставил posex, генерю через него картинку с позой, закидываю в контролнет, запускаю генерацию, и начинается пиздец.
Нет, начинается ПИЗДЕЦ.
>Загрузка харда с диффужном - 100%.
>Выжирается 95% оперативки (31 гиг из 32, Карл!).
>Комп виснет практически намертво.
>Причем в диспетчере не написано, какой процесс и куда столько отжирает. Браузер 3 с копейками, и всё - а загрузка памяти 95-96%
>ЦП и видюха при этом практически не нагружены.
>cmd от автоматика пишет про распаковку контролнетовской модели, бла-бла, но сама генерация не стартует.

Чтоб это все обычным порядком закрыть, не ребутом - надо минуты четыре ждать.
Что за ересь?
Аноним 06/03/23 Пнд 19:48:11 #433 №142723 
Где прописывать теги, чтобы потом вызывать лору в модели? И вообще, нужно ли там прописывать негативные теги тоже? Я ничего не понимаю уже.

https://colab.research.google.com/github/Linaqruf/kohya-trainer/blob/main/fast-kohya-trainer.ipynb
Аноним 06/03/23 Пнд 19:49:48 #434 №142724 
Как не допустить того чтобы коллаба наебнулась?
Аноним 06/03/23 Пнд 19:59:30 #435 №142740 
>>142723
>где
в тхт твоих во всех должен быть одинаковый тег, на первом месте например
а внутри скрипта есть менюха Custom Tag
Аноним 06/03/23 Пнд 20:00:10 #436 №142743 
>>142724
купить пидписку колабную у гугла
Аноним 06/03/23 Пнд 20:10:48 #437 №142770 
>>142740
Разрешите доебаться, пожалуйста:
1. тхт - это которые в датасете, к каждой картинке?
2. Кастом тег влияет на вывод лоры на модель или в обобщает все остальные теги?
Аноним 06/03/23 Пнд 20:32:36 #438 №142820 
>>142770
>1. тхт - это которые в датасете, к каждой картинке?
да, хочешь тег вызова - придумай уникальный и пихни в каждый тхт файл
>Кастом тег влияет на вывод лоры на модель или в обобщает все остальные теги?
там есть чекбокс который говорит типа ебани кастом тег в конце всех строк тхт файла, то есть по идее должен добавить просто любой тег внутри готовых последовательностей в конце
кип токенс хз за че отвечает в данном случае
Аноним 06/03/23 Пнд 20:39:18 #439 №142836 
>>142714
Всё обновил, попробовал еще раз - та же хрень.
Вырубил poseex - работает.

Зашел на гитхаб экстеншна - и я не один там такой, ха.
Ну хоть где косяк нашел.
Ладно, вернусь пока на openpose.
Аноним 06/03/23 Пнд 21:13:42 #440 №142881 
image.png
А вы знали что автоматик добавил новую фичу которую раньше заполнением запятыми до 75 чанков можно было вызывать?
Аноним 06/03/23 Пнд 22:47:37 #441 №143101 
1678132055639.jpg
1678132055655.jpg
1678132055667.png
Это нормально? Фон херит сильно, иногда особо сильно, пытаясь orange hair на всю картинку зараспространить.
>>142197
Так тебе скинуть?
Аноним 07/03/23 Втр 00:34:08 #442 №143408 
Бесплатный лимит на коллабе утрачивается и большен не появляется?
Аноним 07/03/23 Втр 00:34:59 #443 №143410 
xyzgrid-0007-3761785263-masterpiece, best quality, 1girl, beach, blue eyes, blue hair, dress, ikamusume, long hair, tentacle hair, loramyLoRAikam.png
превращение человека самки в кальмара
Аноним 07/03/23 Втр 00:35:48 #444 №143411 
>>143408
Лимит один на сутки для одного акка, зависит от нагрузки на гугл - от 1 до 6 часов.
Аноним 07/03/23 Втр 00:45:46 #445 №143429 
авава.png
>>143411
Спасибо!
Аноним 07/03/23 Втр 00:47:49 #446 №143433 
Есть способы уменьшить время апскейла?
Аноним 07/03/23 Втр 00:53:36 #447 №143442 
>>143433
Не одним огромным тайлом скейлить, а кучей мелких, юзни Ultimate Upscale.
Аноним 07/03/23 Втр 01:48:22 #448 №143514 
>>142132
Мимо другой анон, репортинг ин изменение производительности по твоему гайду на 4090 после нескольких комманд, без пердолинга.

Torch 1.13.1:
150/150 [00:13<00:00, 11.36it/s]

Torch 2:
150/150 [00:05<00:00, 25.52it/s]

Nuff said, спасибо за гайд. +100% и походу боттлнек в цпу уже.
Не понял только почему если переименовать папку с автоматиком, заходя потом в ней в venv через cmd, он хоть и активируется, но либы отсаются обычные системные через pip list, если не переименовывать, то всё норм.
Аноним 07/03/23 Втр 01:59:52 #449 №143519 
Как правильно прописывать теги в тхт? Например:
1girl, short_hair или 1 girl, short hair? Есть какая разница или влияние?
Аноним 07/03/23 Втр 02:21:22 #450 №143532 
>>143514
Нихуя не понял, но очень интересно. Поделитесь гайдом для альтернативно одарённых.
Аноним 07/03/23 Втр 02:25:45 #451 №143533 
>>143442
Вот кстати фигня.
Сколько я его не дрочил - всегда мне плитку выдавал на простых фонах. Типа звездного неба.
Обычный SD-апскейл без склеек всё делает, а этот я так победить и не смог.
Аноним 07/03/23 Втр 02:43:27 #452 №143536 
>>143532
https://rentry.co/sd_performance
У тебя гпу 40 серии есть? Просто там не без проблем, будка другие версии требует и в каких то конкретных случаях производительность может даже упасть
Аноним 07/03/23 Втр 02:51:03 #453 №143538 
Как поставить кастомный хайрез фикс? Закинул файлы в scripts, но автоматик не видит его
Аноним 07/03/23 Втр 02:58:26 #454 №143543 
>>143519
Даже если и есть, то нейросеть одно с другим сопоставляет и разницы минимальна. Короче, пиши как все - 1girl, short hair, orange hair, fox ears, red eyes...
1girl, 2girls, 6+girls - общепризнанная вещь и пишется слитно
Аноним 07/03/23 Втр 03:01:46 #455 №143545 
>>143536
Не, у меня 3ХХХ огрызок. Но спасибо, поковыряю.
Аноним 07/03/23 Втр 03:28:32 #456 №143572 
>>143533
Размер тайла побольше поставь а не 512, при необходимости настрой починку мест склейки (работает 50-50). Но вообще если с денойзом не ультить можно с ним вполне приличные вещи делать, это тот же сд апскейл только с большим числом параметров. Одно огорчает - форма тайлов только квадраты.
> Типа звездного неба.
Без хитростей тут 2 стула - или склейки на малых тайлах, или проеб деталей на больших.
Аноним 07/03/23 Втр 03:29:12 #457 №143574 
Я не смог успокоится скачал wd-v1-3-full.ckpt - думаю вдруг на ней лучше обучать. Ещё раз перебрал рисунки, удалил фон. Собрал новый - https://postimg.cc/gallery/Mf7rkTH. Проверил чтобы не были обрезаны головы и не было странных поз. Но вот что в итоге будет?
Аноним 07/03/23 Втр 03:31:12 #458 №143576 
27.png
40.png
54.png
70.png
Аноним 07/03/23 Втр 04:23:48 #459 №143594 
>>142587
я специально не тегал внешку персонажа, только его одежду, а еще,
так я пробовал недоделанную лору (как раз 1600 шагов примерно) и все равно вообще не похоже на персонажа ни капли
Аноним 07/03/23 Втр 04:50:21 #460 №143600 
image.png
У меня норм настройки?
Аноним 07/03/23 Втр 05:35:58 #461 №143607 
>>143101
Конечно лей
Аноним 07/03/23 Втр 05:41:10 #462 №143611 
>>143600
> learning_rate 0.001
Как-то многова-то. Если выйдет явно не очень, попробуй снизить до 0.0001.
Сколько пикч в дата сете?
>>143607
https://mega.nz/folder/W8B1SLoK#RS0HzAuOqI0XzAL9JdmZzA
Аноним 07/03/23 Втр 06:07:33 #463 №143628 
>>143611
55 пикч
Аноним 07/03/23 Втр 06:12:24 #464 №143633 
>>143572
Да я всяко ставил. Вплоть до максимального по ВРАМ. Один фиг заметно.
>>143594
Ну, не повезло, значит.
Либо в датасете косяки, либо нейронка твои тэги не увидела, либо со скоростью обучения налажал. А может датасет просто слишком маленький был.
Аноним 07/03/23 Втр 06:20:29 #465 №143634 
>>143533
>всегда мне плитку выдавал на простых фонах.
почитай фак скрипта, там все сказано для начала работы че делать https://github.com/Coyote-A/ultimate-upscale-for-automatic1111/wiki/FAQ
алсо скинь пример фона с которым проблемы я поиграюсь на своих настройках, потому что у меня со скриптом и фонами проблем нету

>>143572
>форма тайлов только квадраты.
можно прямоугольники делать же
Аноним 07/03/23 Втр 06:38:02 #466 №143639 
изображение.png
Попа горит ПИЗДЕЦ КАК НАХУЙ
Сначала пишет, что все изображения найдены
А потом пикрил

Ну ещё вчера всё работало, доколе можно пердолиться?!
Аноним 07/03/23 Втр 07:04:13 #467 №143648 
Технари, подскажите, в колабе Кои там где параметр альфа написано ставите такой же как и дим. Так оно, а то я видел что альфу советуют уже 1 ставить, что?


>>140102
> > 1e-3
> > 128 dim 128 alpha
> Хуясе ебать, это же жесткий перетрен с распидориванием будет, особенно если у него не 16+ гигов врам

Подскажи тогда, я вот треню ЛОРУ на колабе Кои, и там советуют альфу ставить равную диму, как раз 128х128. Неправильно советуют?
Аноним 07/03/23 Втр 07:07:38 #468 №143649 
И да, насколько стоит зеркалить датасет, стоит того вообще? Или если пик 30-50± то е имеет смысла? Или всегда имеет?
Аноним 07/03/23 Втр 07:28:07 #469 №143656 
>>143648
Я ставлю 1
Аноним 07/03/23 Втр 07:29:37 #470 №143657 
>>143639
Попробуй убрать японский из имён файлов/папок, у меня из-за этого один раз тоже не работало
Аноним 07/03/23 Втр 07:58:35 #471 №143673 
>>143649
> если пик 30-50
Зачастую не имеет смысла. Хватает и без зеркаливания.
Аноним 07/03/23 Втр 08:29:07 #472 №143678 
>>143656
Во, блин, придется переделывать и сравнивать...
Аноним 07/03/23 Втр 08:29:51 #473 №143679 
>>143673
Понял, спасибо.
Аноним 07/03/23 Втр 11:25:15 #474 №143784 
>>142881
лора через брейк заебись ложится на генерацию кстати
Аноним 07/03/23 Втр 12:13:55 #475 №143821 
>>143633
> Один фиг заметно.
Промт скорректируй, меняй перекрытие, денойз. Заметно будет но можно значительно снизить что будет легко обработкой пофиксить
>>143634
> можно прямоугольники делать же
Как, там новая версия чтоли? Может оно с батч сайзом и каунтом работать научилось?
>>143648
> и там советуют альфу ставить равную диму
Каждый тред несколько раз это поднимается, перечитай хотябы этот. Вообще надо бы в faq какой добавить
Аноним 07/03/23 Втр 13:15:32 #476 №143889 
im20230307095723000182758826.png
im20230307092938003678971564.png
2023-03-07-1030131131x343scrot.png
2023-03-07-1030041130x377scrot.png
>>143673
>Зачастую не имеет смысла. Хватает и без зеркаливания.
А если 4-10?
Впервые лору-стиль тренил в колабе кохи (дримбуз). Как читать лог, насколько хуево? Слышал что если меньше 0.25 loss то заебись.
Аноним 07/03/23 Втр 13:24:05 #477 №143901 
>>143889
Значение loss - это не метрика. А вот на что тебе надо обратить внимание, так это на пиздец со скоростью обучения и ебучую пилу на графике.
Аноним 07/03/23 Втр 13:25:54 #478 №143902 
>>143657
В том и дело, что у меня нет таких названий, это по дефолту прописано в коде. Но это не мешало вчера тренировать.
Аноним 07/03/23 Втр 13:54:49 #479 №143938 
>>143901
>пиздец со скоростью обучения

Из чужого конфига взял значения, отсюда https://huggingface.co/khanon/lora-training/blob/main/junko/lora_chara_junko_v1c_131i9r-9i6r.json
> "learning_rate": "1e-5",
"lr_scheduler": "constant_with_warmup",
"lr_warmup": "5",
Плохие?

>ебучую пилу на графике
Где читать чтобы исправить пилу?
Аноним 07/03/23 Втр 14:12:19 #480 №143952 
04276-2150310822-masterpiece, best quality, 1girl, solo, white shirt, necktie, upper body, black hair, portrait,.png
Поясните пожалуйста — как использовать prompt matrix вместе с LORA если LORA запускается через Additional Networks?

Additional Networks — Поставил потому что когда указываешь в промте оно просто не работает по ощущениям. Если можно запускать LORA и без него то как??? Может я делаю что-то не так?

До Additional Networks я просто кидал папки в D:\stable-diffusion-webui\models\Lora но где-то видел что оно теперь так не работает и нужно юзать AN
Аноним 07/03/23 Втр 14:16:21 #481 №143955 
image.png
Подскажите пж тутор и как пользоваться и как найти эту полезную програмку, увидел у какого то анона, скрин сохранил, а как пользоваться не спросил
Аноним 07/03/23 Втр 14:19:40 #482 №143962 
>>143955
https://github.com/Bionus/imgbrd-grabber
Про тутор хз.
Аноним 07/03/23 Втр 14:20:41 #483 №143964 
04211-929809184-masterpiece, best quality, ((fantasy)), elf, 1girl, solo, tattoo body, ponytail, (((mouth mask))), ashen hair, elegant, dancer c.png
>>143955 Сразу скажу, если у тебя нет прокси то оно не будет работать (если ты собираешься качать картинки с бур/рулл34).

Скачать отсюда
https://github.com/Bionus/imgbrd-grabber/releases
Типа тутор
https://www.bionus.org/imgbrd-grabber/docs/


В остальном просто делаешь настройки как на скрине и не теряешь папку для картинок и текстовиков.
Аноним 07/03/23 Втр 14:23:58 #484 №143970 
>>143964
>Сразу скажу, если у тебя нет прокси то оно не будет работать (если ты собираешься качать картинки с бур/рулл34).
Типа впна на пк? (не браузерного)
Аноним 07/03/23 Втр 14:25:21 #485 №143973 
>>143970
Да
Аноним 07/03/23 Втр 14:25:59 #486 №143975 
>>143970
Там http/socks5 proxy можно в настройках настроить.

другой анон
Аноним 07/03/23 Втр 14:59:18 #487 №144053 
изображение.png
Какие-то теги не видит, хотя в датасете есть тхт.
Аноним 07/03/23 Втр 15:59:47 #488 №144142 
Я вот не пойму, зачем в колабе каждый раз все заново устанавливается, почему нельзя на гуглодиск поставить один раз и с него запускать?
Аноним 07/03/23 Втр 16:23:03 #489 №144163 
>>143964
>>143975
спасибо, но как получить теги в отдельных файлах или как вообще теги от туда выкачивать?
Аноним 07/03/23 Втр 16:31:56 #490 №144166 
image.png
Лору на тыкву ещё не сделали?
Аноним 07/03/23 Втр 16:33:26 #491 №144168 
>>144163
Написать в настройках то что на срине написано же
Аноним 07/03/23 Втр 16:40:56 #492 №144178 
>>144166
Нет
Аноним 07/03/23 Втр 16:42:57 #493 №144181 
04349-3232750643-beautiful, masterpiece, best quality, cirno, t-shirt, solo, by Jeremy Lipking, by William Bouguereau, (by Alphonse Mucha0.5),.png
>>144178
да блять, почему
Аноним 07/03/23 Втр 17:03:35 #494 №144212 
.png
>>143514
Рад слышать, анон.

> Не понял только почему если переименовать папку с автоматиком, заходя потом в ней в venv через cmd, он хоть и активируется, но либы отсаются обычные системные через pip list, если не переименовывать, то всё норм.
У меня тоже подобная проблема была, как-то починил и сам не понял, тоже в этих нюансах питона не шарю.

Думаю в ближайшие дни создать отдельный rentry для хранения команд установки разных версий скомпилинных xformers и обновлять его периодически, раз с версией из гайда есть проблемы у кого-то из анонов. Ещё бы инструкцию по сборке обновить, чтобы whl-файл пригодный к дистрибьюции сперва генерировать - мне кидали команды для такого где-то в прошлых тредах.

И надо бы опросник для сбора статистики собрать... Есть какие-то сервисы, где можно сделать опросник по двум пунктам? Т.е. отдельно указать свою видеокарту и как поменялась производительность после обновления торча на второй.
Аноним 07/03/23 Втр 18:15:19 #495 №144334 
>>143634
Почитаю, потом.
Пикчи уже нет, запарился и удалил, надо заново делать. Лень =)
Сам потом разберусь, погоняю в разных режимах.
Аноним 07/03/23 Втр 18:19:47 #496 №144338 
>>144212
3070ti-огрызок.
Не получилось, не взлетело. Первый способ установилось как положено, но СД отказался генерить картинки. Второй способ - на моменте кумпиляции xformers, где должно минут 5 компилиться, секунд через 5 всё прекращается. Было уже поздно, я накатил всю папку venv из бэкапа и решил вернуться к этому в другой раз, может по другому гайду.
Аноним 07/03/23 Втр 18:27:24 #497 №144353 
>>144338
> Второй способ - на моменте кумпиляции xformers, где должно минут 5 компилиться, секунд через 5 всё прекращается
Ты что-то недоустановил, инфа сотка. У меня тоже xformers именно так не компилились раньше, когда я пробовал в первый раз несколько недель назад, но с установкой нужных библиотек от майков и куртки пошло как надо.
3060
Аноним 07/03/23 Втр 18:39:58 #498 №144374 
>>144142
колаб это среда выполнения, а диск это хранилище
Аноним 07/03/23 Втр 19:16:43 #499 №144416 
milimnavatenseishitaraslimedattakendrawnbyoosumihiro508dd6e[...].png
>>144374
Понятно. Правда у меня тут другие проблемы уже, гугл похоже понял, что я не собираюсь заносить шекели и выкидывает меня через полчаса с любого аккаунта.
Аноним 07/03/23 Втр 20:10:40 #500 №144513 
>>144212
> У меня тоже подобная проблема была, как-то починил и сам не понял, тоже в этих нюансах питона не шарю.
Пойти в pr у питонистов может спросить насчёт этого?
> Ещё бы инструкцию по сборке обновить, чтобы whl-файл пригодный к дистрибьюции сперва генерировать - мне кидали команды для такого где-то в прошлых тредах
Да, это было бы полезно, скомпилить разные версии иксформеров из репы https://github.com/facebookresearch/xformers, где verified тег есть, и переносить на по нужде на другие машины, без пердолинга с компиляторами.
> Думаю в ближайшие дни создать отдельный rentry для хранения команд установки разных версий скомпилинных xformers и обновлять его периодически
А вот это еще полезнее, для тех кто не хочет вообще пердолиться и что-то там собирать.
> Есть какие-то сервисы, где можно сделать опросник по двум пунктам?
Я видел у форчановцев такой опросник https://usem.liberaforms.org/sdperformance и соответствующую таблицу https://docs.getgrist.com/3mjouqRSdkBY/sdperformance , которую походу вручную обновляют, может чем поможет, хотя вроде не самое простое решение для всего двух пунктов.

>>144338
А какие у тебя версии стоят, которые внизу вебуи отображаются? На ампере оптимальнее всего у меня работали торч 1.13.1+ку117, иксформерс 0.0.16. Короче, те которые параметрами из батника --reinstall-xformers --reinstall-torch (их еще пишет когда со старыми версиями запускаешь свежий вебуи), в данный момент ставятся.
Аноним 07/03/23 Втр 20:27:06 #501 №144562 
>>144212
> разных версий скомпилинных xformers и обновлять его периодически
Как же я ору с местных пердоликов. Пердолятся, а сами не знают зачем.
Аноним 07/03/23 Втр 20:38:01 #502 №144580 
>>144416
ты нипричом, просто нагрузка на жпу гугла высокое, все карты занимают подписчеки и тебя нищука дропает
Аноним 07/03/23 Втр 20:51:56 #503 №144609 
>>144353
>>144513
Всё завелось, поставил абсолютно чистую СД. Прирост на ощупь до 10%, не больше. Возможно я не правильно замерял, если есть какой способ (я просто смотрел на it/s при генерации картинки) готов сделать правильный замер, стоит параллельно версия со старым xformers

torch: 2.1.0.dev20230306+cu118 • xformers: 0.0.17+b89a493.d20230307

Можно ли теперь это применить для kohya_ss для тренинга или у него своя атмосфера и зависимости? 3070огрызок.
Аноним 07/03/23 Втр 21:40:50 #504 №144707 
>>142580
Блокнот содержит, грубо говоря, текст и рисунки. В числе текста - команды, в числе команд - требование загрузить библиотеки откуда-то извне. Гуглоблокнот (в отличие от кегли) сам никаких библиотек не хранит и на гуглодиск не скачивает, и даже версии не запоминает. Поэтому если там, вовне, что-то обновилось или изменилось и поэтому сломалось - то добро пожаловать в увлекательнейший квест по поиску номеров версий библиотек и хэшей коммитов. Я такой квест, кстати, разок успешно проходил. Но отвлекает, отвлекает...

А если причина в поломке самого текста блокнота - то да, копия спасёт. И лучше бы ты не стирал логи старого запуска, а каждый раз создавал у себя на диске копию блокнота.
Аноним 07/03/23 Втр 21:43:01 #505 №144708 
изображение.png
Ну блджажд, ну позавчера ж еще все нормально было, чего оно сломалось?
(имг2имг, каждую генерацию такую хрень выдает, хотя генерация проходит).
Аноним 07/03/23 Втр 22:15:46 #506 №144747 
Аноны, вопрос от новичка. Можно ли сделать фотореалистичную тню, и генерировать огромное количество фото с ней, в разных одеждах, разных местах, позах, и так далее? Вот прямо сотни с одной и той же, но чтобы сильно в глаза не бросалось одинаковое выражение лица
Аноним 07/03/23 Втр 22:32:53 #507 №144764 
>>144609
> Всё завелось, поставил абсолютно чистую СД. Прирост на ощупь до 10%, не больше. Возможно я не правильно замерял, если есть какой способ (я просто смотрел на it/s при генерации картинки) готов сделать правильный замер, стоит параллельно версия со старым xformers
Не уверен что это прямо каноничный тест, но я делал так: запускаешь вебуи с новыми версиями ставишь какой нибудь эйлер а и 150 шагов, генеришь первый 512х512 раз просто чтобы разогреть генерацию, он всегда медленнее, генеришь вторую пикчу и результат записываешь куда нибудь. Ставишь хайрез х2, например, записываешь его результат. Если батч большой ставить можешь, стоит и его потестить и записать результат, можно еще апскейлера, через и2и сд_апскейл, какого нибудь быстрого, время замерить, одним тайлом или 2х2 и тоже записать.
Потом, собрав данные, закрываешь это дело и проделываешь тоже самое со старыми версиями библиотек. Какие кстати у тебя старые стоят версии?
> Можно ли теперь это применить для kohya_ss для тренинга или у него своя атмосфера и зависимости?
А вот хз, надо бы посмотреть на скорость тренировки при одинаковых настройках будет, думаю там будет явное отличие выражаться, если буст 100% при генерации

>>144212
Сколько у тебя кстати it/s на эйлере а 512х512 150? У тебя же вроде тоже 4090. И каковы цпу, частота рам?
Аноним 07/03/23 Втр 22:58:28 #508 №144819 
>>144580
Так раньше то было заебись, а тут вдруг джва дня нагрузка. Подозрительно
Аноним 07/03/23 Втр 23:03:42 #509 №144829 
16703333232260.png
В пизду короче, выставил амуде на авито. И ведь думал что топкража когда покупал, но подвох все таки проявился.
Аноним 08/03/23 Срд 01:22:25 #510 №145054 
>>144053
Бамп, всё эта же проблема.
Аноним 08/03/23 Срд 02:09:24 #511 №145126 
>>144142
Если тебе это нужно, то твой выбор - kaggle. Со включённым Persistence (но и там иногда всё пропадает). Ну либо хорошенько подолбаться с ln -s, чтобы не тягать тяжёлые модели. Но это вот хорошенько-хорошенько!
Аноним 08/03/23 Срд 03:19:13 #512 №145163 
image.png
Анон, это недооб или переоб?
Аноним 08/03/23 Срд 04:11:14 #513 №145197 
.png
>>144513
> Я видел у форчановцев такой опросник https://usem.liberaforms.org/sdperformance и соответствующую таблицу https://docs.getgrist.com/3mjouqRSdkBY/sdperformance , которую походу вручную обновляют, может чем поможет, хотя вроде не самое простое решение для всего двух пунктов.
Полезная инфа оказалась, спасибо. В Google Forms (опрос можно проходить в инкогнито режиме) можно настроить автоэкспорт в Google Sheets, в котором можно настроить фильтры по колонкам (типичный случай - меня интересует статистика только для моей видеокарты, так что я хочу отфильтровать по GPU сразу) и добавить кастомные колонки, которые могут что-то высчитывать. Скажем, можно просить у юзеров не просто процент изменения производительности, а вставить их it/s до и после обновления либ и высчитывать изменение автоматически. В целом, можно действительно тогда собирать любую дополнительную инфу (цп/частота памяти и т.п.), чтобы сразу оценить, насколько другие параметры, кроме GPU, влияют на производительность до и после обновления либ.

Так что можно подробный опросник составить, только время надо найти настроить всё...
Аноним 08/03/23 Срд 04:22:32 #514 №145204 
.png
>>144764
> Сколько у тебя кстати it/s на эйлере а 512х512 150? У тебя же вроде тоже 4090. И каковы цпу, частота рам?
~22.4 it/s

torch: 2.0.0.dev20230218+cu118
xformers: 0.0.17+cc36858.d20230219
RTX 4090, i9-9900K, 2400MHz; оверклокинг/даунвольт никакой не делал.
Аноним 08/03/23 Срд 04:28:30 #515 №145207 
>>145204
Ахуенно, чо...
Аноним 08/03/23 Срд 04:49:03 #516 №145211 
>>145197
> Так что можно подробный опросник составить, только время надо найти настроить всё...
Ты же уже его вроде составил, по нужде просто добавлять новые колонки можно, цпу там или рам, или что еще может влиять сильно

>>145204
> 2400MHz
Это какой то старой ревизии шестилетней давности память или почему не гонишь её? Она же всё портит на такой частоте, хотя хз насколько это актуально конкретно для сд, по идее должно быть, было бы неплохо проверить
У меня 25.5 на 5900х получилось, но он сам задушен до 4400/4300 ccd0/1, чтобы не подавал 1.5 вольта на ядра ради 500мгц, память врятли смогу поднять выше 3600, учитывая что занимает она все гнезда. Стоило бы наверное потестить проц в стоке, все таки там однопоток куда быстрее, но сомневаюсь что там выжмется что-то больше 1it/s взамен на постоянные скачки с 40 до 80 градусов на ядрах
Аноним 08/03/23 Срд 05:11:58 #517 №145220 
>>145211
Надо будет проверить. Не заморачивался с оверклоком, потому что повода не было, да и лень просто во всё это вникать. По спецификации вижу, что мою оперативку можно на 3200 включить (xmp), а материнка поддерживает частоту до 4200.
Аноним 08/03/23 Срд 05:30:38 #518 №145238 
Тут писали, что вторая ссылка на тренировку лоры в шапке поломана.
Как именно поломана? Затренил лору со старой копии этого колаба - и тренировка прошла. Стиль схватился.
Сейчас вот вторую тренирую, уже по актуальной.
Что там не так?
Аноним 08/03/23 Срд 05:33:20 #519 №145242 
>>145220
> включить (xmp)
Вот это и сделай, буквально одну кнопку нажать, чтобы долго не вникать, если прирост какой-то значительный и будет, заметно будет сразу
Аноним 08/03/23 Срд 05:52:50 #520 №145251 
>>145242
Спасибо за совет. Попробую завтра.
Аноним 08/03/23 Срд 07:17:56 #521 №145265 
image.png
Что значат эти токены?
Аноним 08/03/23 Срд 07:41:25 #522 №145286 
image.png
Подскажите что за дерьмо, я указал папку с файлами но оно отказывается увидеть их
алсо, это второй кал лаб
Аноним 08/03/23 Срд 08:02:48 #523 №145291 
>>145238
>Что там не так?
Ошибка Input must be callable
Аноним 08/03/23 Срд 08:03:59 #524 №145292 
image.png
>>145286
Аноним 08/03/23 Срд 08:05:38 #525 №145294 
>>145265
https://rentry.org/2chAI_LoRA_Dreambooth_guide
Аноним 08/03/23 Срд 08:09:40 #526 №145295 
>>145265
Это из дримбуфа:

Instance Token The unique identifier for your subject. (sks, xyz). Leave blank for fine-tuning.

Class Token What your subject is. If a xyz is a person, this could be person/man/woman.
Аноним 08/03/23 Срд 08:29:02 #527 №145305 
image.png
>>145292
Вопросы есть?
Аноним 08/03/23 Срд 11:34:51 #528 №145427 
изображение2023-03-08133441021.png
Как использовать несколько лор одновременно, чому у меня такого нет, хелп
Аноним 08/03/23 Срд 11:41:22 #529 №145438 
>>145305
у меня-то вопросов нету, они есть у тебя
Аноним 08/03/23 Срд 11:45:06 #530 №145441 
1667238773044.png
>>145427
Аноним 08/03/23 Срд 11:45:14 #531 №145442 
1577192001480.png
1545677420779.png
>>144829
> выставил амуде на авито
Правильно сделал
> И ведь думал что топкража когда покупал
Все так думают, пока не встречают лес хуёв лизки на пути
А какое амуде? С 6700хт например мне было бы обидно.

>>145427

> Как использовать несколько лор одновременно
Так вроде нативно в промте можно несколько юзать, но удобнее пользоваться костылем адишнл нетворкс, с ним гриды удобнее строить. пик 2
Аноним 08/03/23 Срд 11:48:47 #532 №145446 
>>145441
>>145442
нашёл, пасиба ;*
Аноним 08/03/23 Срд 12:05:10 #533 №145459 
>>144513
>А какие у тебя версии стоят, которые внизу вебуи отображаются?
Дефолтные:
torch: 1.13.1+cu117 xformers: 0.0.16rc425 = 11.44it/s
Самосбор:
torch: 2.1.0.dev20230306+cu118 xformers: 0.0.17+b89a493.d20230308 = 11.45it/s

Штош, ждём тогда когда подвезут генерацию на RTX ядрах или ещё какой прорыв.
3070ти огрызок да нахуй я его купил??, i10900 не К
Аноним 08/03/23 Срд 14:12:08 #534 №145539 
>>145291
Хз.
Всё натренил, ошибок вроде не заметил.

Правда, какие-то косяки в картинках полезли.
Похоже на ошметки интерфейса браузера - боковая панель со скроллом, и иконки каких-то программ, или просто кнопки навигации иногда проступают.
ЧСХ ничего подобного и близко в материалах не было. Токен-активатор (который имя художника) влияет, чтоль?.. Неудачно подобрал, в нейронке на это имя что-то уже было?..

Сейчас вот локально на том же материале сделал версию, погляжу на нее.
Аноним 08/03/23 Срд 14:39:24 #535 №145567 
>>145204
У тебя случаем нет какого-то треша в параметрах запуска типа no-half и подобного? Оставь только -xformers. Должно быть хотябы 26+. Если батч сайз 4 выставить с теми же параметрами то сколько выдает? Ну и тестируй на нормальной прунед модели и с небольшим количеством тегов без всяких допов и лор, последние ощутимо просаживают.
>>145211
Оно конечно может просаживать но не настолько, ддр5-3600 из интереса ставил, там конские задержки и все равно много итераций.
>>145539
> Неудачно подобрал, в нейронке на это имя что-то уже было?
Выключи лору и проверь, но врядли. Скорее всего что-то из датасета, чудес не бывает.
Аноним 08/03/23 Срд 14:41:55 #536 №145571 
.png
>>145242
На одну итерацию в секунду быстрее стало, как xmp-профиль включил для оперативки (2400 -> 3200), т.е. с моими цифрами это около +5% грубо. Так что частота оперативки определённо влияет на SD.
Аноним 08/03/23 Срд 14:49:47 #537 №145588 
>>145567
> У тебя случаем нет какого-то треша в параметрах запуска типа no-half и подобного? Оставь только -xformers. Должно быть хотябы 26+.
set COMMANDLINE_ARGS=--xformers --skip-version-check

> Если батч сайз 4 выставить с теми же параметрами то сколько выдает?
У меня батч-сайз перестал работать после последней обновы от автоматика, всегда только одну картинку генерирует. Или я что-то странное настроил/установил, надо разбираться.

> Ну и тестируй на нормальной прунед модели и с небольшим количеством тегов без всяких допов и лор, последние ощутимо просаживают.
Потестирую ещё вечером, сейчас без лор на не прунед модели тестировал.
Аноним 08/03/23 Срд 14:57:36 #538 №145597 
>>145442
>А какое амуде? С 6700хт например мне было бы обидно.
Да не, попроще, 6600. Не знаю что купить потом правда, как я понимаю из вариантов новая 3060 или б/у 3080 у меня.
Аноним 08/03/23 Срд 14:59:42 #539 №145599 
изображение.png
Ну какого Хрулёва, блядь?!
Каких тегов не имеет изображение? КАКИХ?
В датасете есть тхт файлы, что ещё нужно-то?
Аноним 08/03/23 Срд 15:33:08 #540 №145620 
>>145597
> 6600
Тоже хотел своровать такую по приколу у китайцев когда цены дропнулись, только рефаб с мобильным чипом за 13к. Но посидел, подумол что чета давно я на новидео не сидел и не стал брать кактус.
> новая 3060 или б/у 3080 у меня.
Если ты из дсов, есть бабосы и достаточно шаришь, то бери сразу бу 3090, сможешь абсурдресы генерить с любым обмазом из лор и контролнетов, не говоря уже про скорость и батч сайзы при тренировке.

>>145599
Ты же лору пытаешься тренить? Если скинешь датасет, то могу у себя трайнуть запустить поглянути пока не отвалился спать, что б методом исключения проверить что с датасетом все норм например.
Аноним 08/03/23 Срд 15:34:51 #541 №145623 
>>145588
> У меня батч-сайз перестал работать после последней обновы от автоматика
Раз такое дело то там явно что-то левое наверчено или поломано. Для начала нужно нормальную работу обеспечить, а потом производительность тестить.
Аноним 08/03/23 Срд 16:13:45 #542 №145665 
>>145567
>Выключи лору и проверь, но врядли. Скорее всего что-то из датасета, чудес не бывает.
Оно сильно нестабильно пролазит, раз в 30 генераций, иногда реже. На локальной версии вроде не проявилось, но я ее тренил под другими настройками (768 локально не тянет, только 512).
Такое ощущение, что АИ начинает понимать, что сидит в компе, и пытается что-то сказать =)

Еще была версия, что скрипт каким-то образом прочитал метаданные из картинок, которые я перед загрузкой в инпэинте обрабатывал, для удаления мозаичной цензуры, чтоб оно в лору не пролезло.
Но это мимо - я потом в жипег всё пересохранил.
Аноним 08/03/23 Срд 16:53:51 #543 №145727 
>>145620
>Если ты из дсов, есть бабосы и достаточно шаришь, то бери сразу бу 3090, сможешь абсурдресы генерить с любым обмазом из лор и контролнетов, не говоря уже про скорость и батч сайзы при тренировке.
24 гига жирно конечно, но придется еще и бп менять. Как часто больше 12 используется при генерации?
Аноним 08/03/23 Срд 16:57:45 #544 №145734 
>>145727
Если без батчей, естественно
Аноним 08/03/23 Срд 17:23:57 #545 №145768 
>>145727
> Как часто больше 12 используется при генерации?
Если разрешение выше 1024х1024, то всегда.
Аноним 08/03/23 Срд 17:55:14 #546 №145833 
А у 2080ти есть какие-то подводные? Вроде стоит дешевле 3060, но чуть ли не в два раза производительнее в тестах сд.
Аноним 08/03/23 Срд 18:03:41 #547 №145847 
>>145567
> Оно конечно может просаживать но не настолько, ддр5-3600 из интереса ставил, там конские задержки и все равно много итераций.
А какой у тебя цпу и до скольки тайминги удалось при такой частоте ддр5 снизить?
По хорошему бы провести тест ipc (instructions per clock) на одинаковых частотах проца, памяти и остальных основных узлов по возможности, но наверное он будет не совсем правильным между разными поколениями памяти. Какие кстати сейчас бенчи актуальные есть чтобы попугаев набирать?

>>145571
Я все таки тоже попробовал вернуть ядра в сток, +0.7 it/s на частотах 4700-4900, сд все таки долбится в одно ядро, возможно если поставить аффинити процессу на лучшее ядро в кристалле, удастся выжать еще малость производительности.

Что там кстати с линуксом, там все также по производительности, или получше?
Аноним 08/03/23 Срд 19:27:01 #548 №146008 
>>145665
Ну раз в 30 генераций это ерунда, да и сама по себе тренировка sd1.x на 768 может какие-нибудь баги породить.
>>145847
13900к, у меня 128 гигов четыремя плашками, я рад что оно вообще работает на 5200 с 36-38-что-то там, незначительные отличия от дефолтного xmp но прямо на нем с 4мя заводиться не хочет в5й ддр больше двух плашек это вообще сложно, а на прошлых процах вроде как невозможно судя по форумам
> По хорошему бы провести тест ipc (instructions per clock)
Это не амудэ-вс-штеуд в синбенче/премьере/игорях, здесь на производительность влияют лишь небольшие операции в промежутках когда в ожидании их видеокарта может простаивать, ну и их доля мала что не создаст заметности. Это может сыграть во время склейки грида, сохранения больших пикч, загрузки моделей и подобного, но не при самой генерации. Тут скорее надо смотреть не лезут ли прерывания, нормально ли работает драйвер, что с коррекцией ошибок врам, не лезут ли лишние задержки по шине и какой режим ее адресации и т.д. А по процам - вангую что 2-3 итерации при сравнении исправных йоба цп и старичка уровня сандаля - все что можно будет отследить, и то только в режиме который никто не юзает. Разное разрешение мониторов и наличие свистоперделок типа 3д обоев больше может сыграть.

Ну кстати, финальный подсчет же идет с учетом загрузки модели и сохранения пикчи, тут ссд даже больше даст лол.
Аноним 08/03/23 Срд 21:12:53 #549 №146150 
изображение.png
Проблема с тегами решилась, но появилась другая.
Аноним 08/03/23 Срд 21:26:25 #550 №146173 
2.png
Сделал лору с Ульяной.
https://civitai.com/models/17249/ulyanalora

Алсо, если есть годные арты - скиньте плиз. Буду медленно пилить вторую версию.
Аноним 08/03/23 Срд 21:55:13 #551 №146240 
1640730367659.png
>>146173
а де параметры к примерам
Аноним 08/03/23 Срд 22:01:03 #552 №146261 
>>146240
Цивитай на две картинки зажевал. Я перезалил, но не помогло..
Аноним 08/03/23 Срд 23:40:33 #553 №146546 
>>145567
> Ну и тестируй на нормальной прунед модели и с небольшим количеством тегов без всяких допов и лор, последние ощутимо просаживают.
Переключил на NAI (animefull-final-pruned) и отключил VAE; разницы 0 по сравнению с полновесным aom2 и активным VAE.

> Если батч сайз 4 выставить с теми же параметрами то сколько выдает?
150/150 [00:13<00:00, 11.30it/s]
Аноним 08/03/23 Срд 23:56:44 #554 №146595 
.png
>>146008
> 13900k
Ебать, это шутка чтоли на пик1 или они наконец правдивый тдп стали писать, а не мамой клянусь 95ватт в стоке, в среднем, в идле?

> 13900к, у меня 128 гигов четыремя плашками, я рад что оно вообще работает на 5200 с 36-38-что-то там, незначительные отличия от дефолтного xmp но прямо на нем с 4мя заводиться не хочет в5й ддр больше двух плашек это вообще сложно, а на прошлых процах вроде как невозможно судя по форумам
Мда, я так понимаю, все печально пока с новым стандартом. В прошлых это 12900к?
Интересно даже, зачем тебе столько. До того как сд включил вообще не ощущал проблем с 32 рам, запуская несколько вм и браузеров на винде

> Тут скорее надо смотреть не лезут ли прерывания, нормально ли работает драйвер, что с коррекцией ошибок врам, не лезут ли лишние задержки по шине и какой режим ее адресации и т.д
Интересно как же ты подразумеваешь проводить все эти микрооптимизации?
Алсо
> что с коррекцией ошибок врам
What?

> А по процам - вангую что 2-3 итерации при сравнении исправных йоба цп и старичка уровня сандаля - все что можно будет отследить, и то только в режиме который никто не юзает
А вот на такое сравнение я бы посмотрел, лол. Распердоленный до усрачки сэндик против какого нибудь 9900к в сд с 4090, думаю что разница всё таки будет побольше, учитывая ддр3 и пси2 всё может пиздец как упереться в стену если вообще запустится. Вообще было бы неплохо, конечно же, реальную стату с конфигами компов иметь

> Ну кстати, финальный подсчет же идет с учетом загрузки модели и сохранения пикчи, тут ссд даже больше даст лол.
Да, так и есть, во время самой генерации 150 шагов пишет чуть больше итераций. Кстати сколько у тебя на 13900 их?
Аноним 09/03/23 Чтв 00:07:41 #555 №146621 
изображение.png
изображение.png
изображение.png
>>146150
Решил, но опять...

Надеюсь, я вас не заебал.
Теперь доходит до тренировки и пикрил 2, 3.
Пик 1 - настройки.
Аноним 09/03/23 Чтв 00:18:42 #556 №146631 
>>146595
Да, на 12м поколении и на 7к амд оче грустно. Офк с новыми биосами и на них ситуация улучшилась, да и оче похоже что там еще дело в некоторых таймингах которые при большем числе плашек должны быть другие. Но это надо заниматься, пердолиться, один хуй усилия не окупятся.
> зачем тебе столько
Работа же ну, а 4090 чисто по рофлу купил за место ампера чтобы пикчи крафтить быстрее. 128 это не много, масштабные расчеты не подымаются, на рабочих станциях 512+. Ну и когда привык к много рам то 32 - уже не грани комфорта даже без виртуалок
> Интересно как же ты подразумеваешь проводить все эти микрооптимизации?
Не оптимизации, посмотреть что срет в журнале шинды и латенси моном не лезет ли dpc/irq, если нет то положить и смириться или искать другую причину.
> What?
Да, на видюхах есть ecc, раньше в хуанговской пане ее можно было даже включать-выключать. Если что-то готовится подыхать то этому предшествует всплеск числа ошибок и снижение производительности, только хуй знает как их сейчас можно посмотреть.

~30-31 итераций, если отключить лишние мониторы, ускорение в браузере и лайв превью будет 32-33, если гнать карту то можно еще больше. Один хуй батч из 4х дает 12-12.5 итераций в секунду, что 48+ в пересчете на одну пикчу. И
>>146546
> 150/150 [00:13<00:00, 11.30it/s]
не сильно то от них отличается, не смотря на разницу в железе. Вангую что больше всего роляет быстрый ссд, ибо при запуске со всратого пока полоса идет итерации такие же, а в момент окончания число заметно снижается.
Аноним 09/03/23 Чтв 01:45:45 #557 №146753 
>>146631
> Не оптимизации, посмотреть что срет в журнале шинды и латенси моном не лезет ли dpc/irq, если нет то положить и смириться или искать другую причину.
А, понял. Даже видел объяснение как это делать для прямо хлебушков. У меня были что то типо 70 нс обсеры от tcp/ip драйвера, сетевуха что-то там косячила, я это даже фиксил по приколу отрубанием сети, лол, всё равно никаких изменений, статтеров не было до, и после тоже. Видимо ядер слишком много и нагрузка нормально распределяется энивей, хотя что то мне подсказывает что это даже не существенная задержка для интеррапта впринципе.
Насчет ворнингов в логах винды как то не парился даже, не ерроры же.

> Да, на видюхах есть ecc, раньше в хуанговской пане ее можно было даже включать-выключать. Если что-то готовится подыхать то этому предшествует всплеск числа ошибок и снижение производительности, только хуй знает как их сейчас можно посмотреть.
О как, не знал. А с какой версии и по какую эта фича хоть была? хотя какая уже разница, на 4090 их не поставить ведь

> не сильно то от них отличается, не смотря на разницу в железе. Вангую что больше всего роляет быстрый ссд, ибо при запуске со всратого пока полоса идет итерации такие же, а в момент окончания число заметно снижается
Действительно, параллелизация рулит. Получается впринципе достаточно иметь больше 20 итераций и просто пользоваться батчем, благо врам позволяет

> Вангую что больше всего роляет быстрый ссд, ибо при запуске со всратого пока полоса идет итерации такие же, а в момент окончания число заметно снижается
Ну так да, всяко лучше писать пикчу на йобу, подключенную напрямую к процу по псие, чем на сата хард или даже ссд
Аноним 09/03/23 Чтв 03:14:52 #558 №146919 
>>146261
Впиши вручную. Тоже было.
Аноним 09/03/23 Чтв 03:18:22 #559 №146923 
>>146919
Окей, поковыряюсь. Завтра может еще Слявяну залью
Аноним 09/03/23 Чтв 05:55:30 #560 №147038 
>>146621
память утекла
Аноним 09/03/23 Чтв 06:24:02 #561 №147052 
>>147038
Как фиксить?
Аноним 09/03/23 Чтв 06:38:28 #562 №147055 
>>147052
изменить настройки чтобы не было аут оф мемори
Аноним 09/03/23 Чтв 06:48:34 #563 №147060 
>>145727
> бп менять
А у тебя какой?
> Как часто больше 12 используется при генерации?
Да хз, но сможешь генерить и процессить в qhd без медврамов при надобности. Можешь доебаться до владельцев в наи, что б узнать у них подробнее про граничные разрешения с обмазом из лор дефолтного размера и мультиконтролнетов, а то тут 3.5 анона сидят.Ну и 3080 12 стоит 45-50, а 3090 50-60 можно найти, только надо тщательно выбирать и смотреть не запекается ли там память. Для аи херни переплата небольшая за х2 врам.

>>145768
> Если разрешение выше 1024х1024, то всегда.
Это ты про сд 2.1 с но халф без иксформерсов?

>>145833
> А у 2080ти есть какие-то подводные?
Тьюринг уже древноват, да и bf16 например не поддерживает, хотя хз насколько он нужен или будет нужен. Сейчас можно лоры в нем тренить например, видел еще что модели в bf16 конвертировать можно.
Аноним 09/03/23 Чтв 06:50:45 #564 №147061 
>>146173
>CCP
Chinese Communist Party гордится тобой, получи миска риса и кошкожена! Удар!
Аноним 09/03/23 Чтв 07:53:16 #565 №147073 
>>147060
> Это ты про сд 2.1 с но халф без иксформерсов?
Про 1.5 с xformers и лорами. Без xformers будет меньше.
Аноним 09/03/23 Чтв 09:03:00 #566 №147097 
image.png
На какой модельке лучше делать лору?
Аноним 09/03/23 Чтв 09:27:25 #567 №147110 
>>147073
Хуясе, а сколько лор подключено и какого они размера? Я думал на 12 гигах еще остается пространство для маневра.
Аноним 09/03/23 Чтв 09:39:26 #568 №147120 
>>147110
Ты можешь выключить xformers и лезть в кэш торча, out of memory не будет, но скорость пиздец. Для быстрых 1920х1200 без забивания кэша надо 24 гига. Выше разрешения только уже тайлами генерить, без разбивки на тайлы там скорость очень сильно падает из-за просера кэша, даже на 4090 печально становится. Например 1920х1200 за 20 секунд генерятся, а 2048х2048 уже почти 40. Голый SD будет сильно меньше жрать, в сентябре прошлого года на 8 гигах генерили 1280х1280, сейчас уже посос.
Аноним 09/03/23 Чтв 09:51:48 #569 №147132 
Какой метод обучения лучше использовать если датасет 20к изображений? Lora обучиться?
Аноним 09/03/23 Чтв 10:07:22 #570 №147144 
Тут кто-нибудь ебётся с обучением не-SD моделей? Например super-resolution? В /pr/ сидят хлебушки-студенты, какой-то практической инфы не имеют от слова совсем.
Вот я обучал Real-ESRGAN и ванильный SwinIR по оригинальным пайплайнам - первый кал, второй получше. Теперь начал полностью сам переписывать всё с нуля на Transformers, с PSNR и VGG освоился как обучать, результат есть. Но вот с GAN никак не получается обучить. Дискриминатор ебёт мозги и запарывает всё обучение - пики ломаются меняют цветокоррекцию, мои проблемы нихуя не гуглятся, в основном пишут скорость обучения высокая, но она как в KAIR. Возможно надо дискриминатору вес при комбинирования лоссов меньше ставить, но не понятно сколько минимально можно, он же для регуляризации нужен, будет ли смысл от 1%. Нагуглить как правильно распределять веса лоссов не получается, везде учёные в говне мочёные "подбирают" hyperparameters. Даже есть фреймворки автоподбора hyperparameters, но я ебанусь таким говном на 4090 подбирать - там фактически огромное количество тренировок идёт с перебором параметров. Неужели все просто на глаз подбирают настройки обучения GAN без какой-то методики и пониманию куда что делать?
Аноним 09/03/23 Чтв 10:35:39 #571 №147160 
>>147097
Бери NAI. Если не понравиться, то ACertainty
>>147132
Скорее DreamBooth. Но 20k это пиздец как много. Неделя уйдет на обучение.
Аноним 09/03/23 Чтв 11:10:32 #572 №147194 
>>147132
я тренил на 1000 изображений, а тут всего в 20 раз больше, то есть скорость просто в 20 раз выше ставить нужно да и все, количество картинок в сете покроет все неточности
Аноним 09/03/23 Чтв 12:42:03 #573 №147255 
>>147194
В 20 раз больше или меньше? Датасет больше значит скорость обучения меньше. Скорость обучения должна быть порядка 1e-6 или даже 1e-7
Аноним 09/03/23 Чтв 13:15:30 #574 №147278 
>>147060
>А у тебя какой?
650
>Ну и 3080 12 стоит 45-50, а 3090 50-60 можно найти, только надо тщательно выбирать и смотреть не запекается ли там память. Для аи херни переплата небольшая за х2 врам.
Да у меня тут в регионе нет 3090 по нормальным ценам, ехать в питер надо, а это тоже деньги и время. Я думаю потом обновлюсь, если мне так уж зайдет эта тема.
Аноним 09/03/23 Чтв 13:21:05 #575 №147284 
>>147132
Что ты обучаешь там хочешь вообще? Выбери из них самые лучшие оставив не более 500 и тренируй на них. Для лоры в принципе столько шагов не нужно, а если у тебя там что-то дохуя сложное то уже дримбус
Аноним 09/03/23 Чтв 13:54:08 #576 №147308 
>>147284
> Что ты обучаешь там хочешь вообще?
Скриншоты из аниме 80х и 90х
Аноним 09/03/23 Чтв 13:54:55 #577 №147309 
>>145847
>Что там кстати с линуксом, там все также по производительности, или получше?
Получше, там accelerate есть.
Можно попробовать завести на WSL.

>>146631
>Да, на видюхах есть ecc, раньше в хуанговской пане ее можно было даже включать-выключать.
На 4ХХХ и сейчас можно. Ну на 4090 точно.
Из минусов - режет немного обьем VRAM.
Аноним 09/03/23 Чтв 14:14:26 #578 №147328 
>>147278
>650
Хз, у меня 3090 и 10600k питаются 600-ваттным голдовым биквайтом, никаких проблем ни при генерации, ни при рендере, ни в играх не наблюдал, всё работает как часы. И это без андервольта даже.

мимопроходил
Аноним 09/03/23 Чтв 14:23:13 #579 №147336 
>>147255
>В 20 раз больше или меньше?
больше конечно, уменьшение тебе месяц тренинга нарисует
>Скорость обучения должна быть порядка 1e-6 или даже 1e-7
хуита, может быть любая которая эффективная
Аноним 09/03/23 Чтв 14:27:00 #580 №147339 
>>147255
> обучения должна быть порядка 1e-6 или даже 1e-7
Если для лорки то оно вообще ничему не обучится, да и при файнтюне емнип побольше ставят
Аноним 09/03/23 Чтв 14:43:16 #581 №147357 
>>147308
Нахуя, если и так каждая первая модель в это может, не говоря уже о Лоре, которой для этого достаточно пикч 50-100?
Аноним 09/03/23 Чтв 17:03:09 #582 №147534 
Господа, такой вопрос: тренирую лицо на СД 1.5 - при генерации на этой же модели получается довольно похоже, но если потом эту лору использовать на других моделях то оно берёт форму лица из модели, а не лоры и получается совсем другой человек. Если тренировать на всяких модных делиберейтах - получается изначально не очень похоже. И нужно ли в описание добавлять (young) woman, т.к. возраст не всегда угадывает, я не против старушек, но хотелось бы большей похожести. Может есть какой гайд именно по лицам, ткните, пожалуйста.
Аноним 09/03/23 Чтв 17:23:29 #583 №147559 
Разбирался кто-нить с этой штукой? https://github.com/KohakuBlueleaf/LyCORIS/tree/locon-archive
Будущее Лор
На сколько вообще это профитно по времени тренировки и результату?
Аноним 09/03/23 Чтв 17:32:11 #584 №147580 
>>147559
Пару раз натыкался и скипал, что это хоть такое в двух словах?
Аноним 09/03/23 Чтв 17:39:59 #585 №147599 
>>147559
Ща потестирую
Аноним 09/03/23 Чтв 18:07:14 #586 №147645 
>>147308
Штук 200-500 отбери, которые качественные, и хватит.
20к это прям лютый оверкилл.
500 вообщем-то тоже оверкилл, но с такого набора я сам тренировал, и получалось хорошо.

На сете в 20к можно выборочно по каким-то конкретным аниме тренить. По 200 на каждое, со своим токеном-вызовом, получится сотня разных аниме-стилей.
Но и это тоже будет оверкилл. Где ты в те годы сотню прям реально различных аниме найдешь?
Лучше отобрать максимум десяток.
Аноним 09/03/23 Чтв 19:07:15 #587 №147754 
xyzgrid-0043-1-renamon, digimon, 1girl, solo, breasts, looking at viewer, blush, open mouth, blue eyes, large breasts, simple background, anima copy.jpg
3f2b6482eb2f77081218fdcd7c798712 copy.jpg
>>147559
>>147599
В целом, разница в результатах на уровне погрешности, а то и вовсе сида при обучении.
Скорость тоже. 23 минуты на классическую лору, 26 на новую.
Не могу сказать, что новая чем-то лучше.
Пик 2 - пикча из датасета, с которой списан промпт для генерации.
Аноним 09/03/23 Чтв 19:15:01 #588 №147771 
>>147559
> Будущее Лор
Никакого будущего нет, потому что convolution не генерирует высокочастотные детали. Даже хуже станет, если их преобучишь слишком сильно. Будет уже не композицию/стиль пидорасить, а и детализацию.
Аноним 09/03/23 Чтв 19:23:15 #589 №147788 
>>147645
Лоры на отдельных персонажей я делал и они работают, я думал может можно обучить модель сразу на несколько десятков концептов, что бы получить более универсальную модель.
Ну видимо придется делать лоры.
Аноним 09/03/23 Чтв 19:24:09 #590 №147789 
>>147788
>я думал может можно обучить модель сразу на несколько десятков концептов, что бы получить более универсальную модель.
Да, только это уже не лора, а dreambooth
Аноним 09/03/23 Чтв 19:32:49 #591 №147811 
>>147788
> что бы получить более универсальную модель
Лора этого не может, для такого файнтюнь большие модели. "многоконцептуальная" лора возможна, вот только работает весьма условно и хуже чем отдельные.
>>147754
Нихуя не понятно, где лучше то в итоге? Там эта штука просто интегрируется в кохаевский скрипт и все настраивается запускается также?
Аноним 09/03/23 Чтв 19:34:41 #592 №147815 
>>147811
>Нихуя не понятно, где лучше то в итоге?
>>147754
>В целом, разница в результатах на уровне погрешности, а то и вовсе сида при обучении.
>Не могу сказать, что новая чем-то лучше.


>Там эта штука просто интегрируется в кохаевский скрипт и все настраивается запускается также?
Вроде да. Я не смотрел, как вызов командной строки меняется, правда. Параметры все те же.
Аноним 09/03/23 Чтв 20:55:31 #593 №147963 
Господа, сейчас будет АБСОЛЮТНО ТУПОЙ вопрос, но есть ли способ обучения лорок без использования колаба, хотя бы на CPU, так как всё, что есть - картошка вместо видеокарты (1650 Ti 4GB) без возможности замены?
Колаб не собираюсь использовать из принципа, по не которым причинам (как минимум, потому что Гугл собирает данные, чтобы использовать в своих целях).
Аноним 09/03/23 Чтв 20:56:28 #594 №147966 
>>147963
>по некоторым причинам
самофикс
Аноним 09/03/23 Чтв 21:08:12 #595 №147991 
>>147963
На CPU нельзя. Можешь использовать Kaggle, но они тоже "собирают данные, чтобы использовать в своих целях" лол
Аноним 09/03/23 Чтв 21:17:14 #596 №148001 
>>147963
наверно есть - но это сразу x100 к времени. в теории можешь брать любой питоновский код для коллаба и поправить инициализацию торча чтобы он софтверный фолбек юзал

Но CPU для обучения ООЧЧЧЕНЬ МЕДЛЕННЫЙ. просто буквально час vs неделя
Аноним 09/03/23 Чтв 21:20:00 #597 №148004 
>>147991
>>148001
Понял, благодарю за пояснение.

Ненавижу регистрации и учёт данных...
Аноним 09/03/23 Чтв 21:21:12 #598 №148007 
>>147963
Ого, у нас тут очередной нищий чмохенс-нитакусик, восставший против злобных корпораций. Пердеж Столлмана с утра уже занюхал?
Аноним 09/03/23 Чтв 21:23:09 #599 №148008 
>>148007
Ну, бывает, хоть и не настолько жёстко, как описывается.
Аноним 09/03/23 Чтв 22:07:29 #600 №148091 
>>148007
К тому же, мне было бы просто неприятно, если бы какая-то информация о том, что я делаю, утекла куда-то или использовалась для всяких не совсем желаемых дел.
Это как, к примеру, если бы не просто лепишь какую-то фигню, о которой не сказал бы порой никому, а вдобавок растрезвониваешь об этом всем родным/знакомым/начальству/государству (которые этим ещё будут попрекать при каждом случае), добавляя реальные ФИО, номер телефона и подобное, и какая после этого будет репутация, и предвзятость окружающих.
Когда этого раздела не было, кое-кто неудачно воспользовался колабом, да был сдеанонен и травим. Как, нормально было?
Как говорится, "знают двое - знает и свинья".
Так что Столлман и корпорации вряд ли тут при чём-то, тут, скорее, более личные мотивы.

Извиняюсь за оффтопик, просто накипело от такого поста.
Аноним 09/03/23 Чтв 22:09:01 #601 №148093 
>>148091
Спок, бро, выдыхай.
Аноним 09/03/23 Чтв 22:15:02 #602 №148107 
>>147309
> Получше, там accelerate есть
Что это такое? Надо будет попробовать как нибудь с линукса запустить всё это дело, надеюсь мое ядро не слишком старое для всего этого

> Можно попробовать завести на WSL
Мне его еще реанимировать, перестал запускаться после апдейта на вторую версию для докера

> На 4ХХХ и сейчас можно. Ну на 4090 точно.
> Из минусов - режет немного обьем VRAM.
Сейчас поглядел, да в панели включить можно, только не понятно, о всплеске каких ошибок говорил тот >>146631 анон. Ошибки, если что то не так, будут появляться в евент вьювере с включенным ECC?
Аноним 09/03/23 Чтв 22:17:30 #603 №148109 
>>148107
>Ошибки, если что то не так, будут появляться в евент вьювере с включенным ECC?
Нет, это для внутреннего потребления видеокартой информация.
Аноним 09/03/23 Чтв 22:36:17 #604 №148124 
А вот теперь и у меня тренировка лоры по второй ссылке сломалось.
Чё там крутят вообще? На днях ж всё работало.
Аноним 09/03/23 Чтв 22:47:31 #605 №148137 
>>148124
Копирнул блокнот еще раз, запустил уже на этой копии - и всё работает. Ух, погромизды. Лишь бы чего-нибудь намутить. Кому сказано: "Работает - не ломай!"
Аноним 09/03/23 Чтв 23:33:40 #606 №148192 
>>148091
Могу на своей видяхе натренить лору, если дату дашь с тегами
Аноним 09/03/23 Чтв 23:35:11 #607 №148193 
>>148192
Благодарю, конечно, но лучше не стоит.
Не зря же интересовался всё-таки.
Аноним 09/03/23 Чтв 23:39:06 #608 №148198 
>>147534
50 регов
Класс woman
Analog Diffusion
24 лица, 8 по плечи, 10 в полеый рост
4000 шагов с сохранением каждые 500
lr 5e-7 или 1е-6
Аноним 09/03/23 Чтв 23:47:23 #609 №148218 
>>148193
Как знаешь, мне ничего не стоит поставить комп на ночь тренить.
Аноним 09/03/23 Чтв 23:59:56 #610 №148237 
изображение.png
изображение.png
изображение.png
Аноним 10/03/23 Птн 00:05:57 #611 №148239 
>>148237
Ты не проебал тот момент, что train_data_dir - это путь к папке С ПАПКАМИ?
Аноним 10/03/23 Птн 00:09:04 #612 №148242 
>>148239
Начальник, не стукай! Как было по дефолту, так и оставил, только ещё папку с имаге дописал!
Аноним 10/03/23 Птн 00:09:45 #613 №148245 
>>148242
>Как было по дефолту, так и оставил
????????
Аноним 10/03/23 Птн 00:11:31 #614 №148250 
изображение.png
>>148245
Дефолт...
Я нихуя не понимаю
Аноним 10/03/23 Птн 00:12:44 #615 №148253 
>>148250
Про структуру папок прочитай
https://rentry.org/2chAI_LoRA_Dreambooth_guide#%D0%B4%D0%BB%D1%8F-%D1%81%D0%BA%D1%80%D0%B8%D0%BF%D1%82%D0%B0
Аноним 10/03/23 Птн 00:30:10 #616 №148269 
>>148253
Ахуеть! Спасибо, анон, всё работает!
Аноним 10/03/23 Птн 00:31:15 #617 №148271 
>>148269
Приятного!
Аноним 10/03/23 Птн 01:04:24 #618 №148316 
Аноны нейроны, только вкатываюсь в лору, подскажите -- есть какие-то общие правила по подбору эпох-шагов/lr/ранка в зависимости от объема датасета? Хуй пойму от чего отталкиваться
Аноним 10/03/23 Птн 01:07:43 #619 №148326 
>>148316
>эпох
10, и собираешь из них грид, выбираешь, какая больше нравится.
>шагов
20-40 повторов на картинку
>lr
Стандартный, 1e-4, с batch size 1.
>ранка
32
Вне зависимости от объема датасета, если у тебя один концепт.
Ну, как база. Дальше уже можешь по вкусу крутить и сравнивать.
Аноним 10/03/23 Птн 01:08:47 #620 №148328 
Восстановил ссылки на лорки с дампа дохлого репозитория: https://rentry.org/2chAI_LoRA
1060, ты бы знал насколько проще восстанавливать твои тренировки просто из-за того что они на 576px, лол
Аноним 10/03/23 Птн 01:11:30 #621 №148332 
>>148328
Спасибо!
Аноним 10/03/23 Птн 01:18:26 #622 №148343 
>>148326
> >эпох
> 10, и собираешь из них грид, выбираешь, какая больше нравится.
> >шагов
> 20-40 повторов на картинку
Бля, а как это в случае расширения дримбудки в вебхуе работает?
Аноним 10/03/23 Птн 01:21:56 #623 №148351 
>>148343
>Бля, а как это в случае расширения дримбудки в вебхуе работает?
Забей на него, если тебе нужны гуи, то качай эту хуйню
https://github.com/bmaltais/kohya_ss

Расширение безнадежно. Это я тебе говорю как автор части гайда по нему.
Аноним 10/03/23 Птн 01:23:37 #624 №148355 
>>148351
Вчера весь вечер жопу рвал чтобы скрипты kohya завести под виндой. Буду снова пытаться.
Аноним 10/03/23 Птн 01:24:13 #625 №148356 
>>148355
Это они и есть, просто в гуях. На название посмотри.
Аноним 10/03/23 Птн 01:28:37 #626 №148361 
>>148356
Та вижу, у меня в принципе какая то шиза происходит с акселератором и диффузерс и кудой происходила и при всех попытках завести и скрипты как по гайду, и варианты с примеров diffusers. Кал какой-то, буду ща по второму кругу уже с гуём
Аноним 10/03/23 Птн 01:52:07 #627 №148391 
>>148361
>>148351
Ура, завелось, спасибо. Терь только треды изучать ибо инфы и рекомендаций по лора хуй да нихуя
Аноним 10/03/23 Птн 01:52:41 #628 №148393 
>>148391
>Терь только треды изучать ибо инфы и рекомендаций по лора хуй да нихуя
Начни просто с дефолтных настроек
Аноним 10/03/23 Птн 02:49:26 #629 №148464 
1573610418016.png
1661597308110.png
1631018680953.png
>>148351
Чёт после быстрого тестового прогона при юзе в вебхуе
> Failed to match keys when loading Lora
Я еблан или шо
Аноним 10/03/23 Птн 02:51:23 #630 №148468 
>>148464
Это норма, не обращай внимания
Процесс главное идет же?
Аноним 10/03/23 Птн 02:55:19 #631 №148477 
>>148468
Ну раз работает и норма, то хуй с ним.
Аноним 10/03/23 Птн 13:27:50 #632 №148885 
>>148091
Раз такой анонимвас то может просто купишь себе видеокарту?
>>148107
> о всплеске каких ошибок говорил тот
Оно будет только если у тебя карта подыхает.
Все просто, когда у тебя гпу кластер на нем что-то постоянно отъебывает. Один из вариантов отъеба - превышение порога коррекций по врам, это видно по сообщениям дров в кернел логах доебана. При этом производительность сразу падает, что особенно весело при распараллеливании по нескольким машинам, а вскоре теслочке приходит пиздец и она сразу отваливается при запуске чего-то или вообще не стартует. На ресурсах пишут о том что поведение десктопных карточек такое же а прошаренные майнеры писали скрипты для отслеживания ошибок для статистики. Как это смотреть на шинде - хз, возможно в системном журнале.
>>148326
> 20-40 повторов на картинку
> Вне зависимости от объема датасета
Ну нахер
Аноним 10/03/23 Птн 16:14:31 #633 №149155 
>>148885
>Раз такой анонимвас то может просто купишь себе видеокарту?
кожанка тоже собирает инфу на что дрочит этот шизофреник >>148091
Аноним 10/03/23 Птн 16:15:43 #634 №149156 
>>148885
> Ну нахер
Реквестирую альтернативное мнение

вкатывающийся
Аноним 10/03/23 Птн 16:35:24 #635 №149182 
>>148198
Спасибо!
Аноним 10/03/23 Птн 16:54:17 #636 №149216 
Это опять я со своими видеокартопроблемами. Появился чел, отдающий 3090 за 58к рядом со мной. Ее вообще реально проверить только стресс-тестами без разбора или все равно может отвальной быть?
Аноним 10/03/23 Птн 17:23:07 #637 №149255 
>>149216
Термопрокладки еще можно чекнуть, потекли или нет(это если что фиксится заменой и чисткой спиртом)
Аноним 10/03/23 Птн 17:27:51 #638 №149261 
>>149216
650-ватт, ты? Ну во первых что за исполнение? Глянь обзоры на нее, че там и как должно быть +-, температуры при X оборотах при T амбиент при Z ватт например, температуры памяти, потом сравнишь с прикидом на текущие условия, если где-то значительные отклонения, то уже можно доебаться с вопросами к продавану. Дельта хотспота в районе 20 градусов норм емнип, если больше, то вопросы к охладу и/или термопасте возникают. Стресс тесты тебе покроют в принципе все основные области, фурмарк, суперпозишн, обязательно какую-нибудь тяжелую игру с гейтрейсингом в 4к или более высоком разрешении через dsr например, все с мониторингом афтербернера. Для стресса врам - осст, по другому хуй знает как 24 гига забить, на младших это в играх можно сделать. Полноценное есс у консумерских 3к емнип только у 3090ти.

На разбор мало кто соглашается, попробуй доеби продавана. С разбором можешь уже примерно оценить не ремонтировалась ли, но тут желательно иметь опыт в пайке и знать что и как выглядит, ребольнутый чип или меняные дрмосы хуй отличишь по пайке, если делали не конченные долбоебы. Некоторые еще любят смотреть на цвет чипа, не ужарен ли он, но с хорошим охладом там нихуя не будет. Можешь на ютубе какого-нибудь викона глянуть, у него вроде были видосы по этой теме. Разбор мало что дает, но позволяет успокоить душу перед покупкой. Ну будут там потекшие или сухие термопрокладки, это по температуре памяти будет видно или сбоку без разбора при удаче можно заглянуть. Ну и предполагай что вообще вся 3к серия майнила, но с хорошим охладом не страшно.
Аноним 10/03/23 Птн 18:52:41 #639 №149395 
Посоны, что делать в такой ситуации, когда у тебя на руках нужная модель + 2 Лоры. К примеру Лора с нужным персонажем и Лора с нужным стилем. Я юзаю автоматик и следую негласному правилу, что превышать единицу в двух тегах Лоры нельзя, ибо ты "пережжешь" генерацию. Условно я делаю, чтоб было <lora: $name1$ :0.5> и <lora: $name2$ :0.5>. Или <lora: $name1$ :0.3> и <lora: $name2$ :0.7>.
Короче таким образом я теряю или влияние перса в генерации или теряю влияние стиля. Можно ли как-нибудь решить эту хуету? Я гайды конкретно тут не читал, пришел со своим опытом с реддита и ютуба
Аноним 10/03/23 Птн 18:55:41 #640 №149398 
>>149395
X/Y грид по весу лор построй и в нём посмотри, мб будет какое-то удачное соотношение весов.
Аноним 10/03/23 Птн 18:57:57 #641 №149404 
>>149395
Лол какие то правила придумал и упёрся в них, просто юзай столько сколько нужно и смотри как будет, некоторые лоры нормально работают с весом выше 1
Аноним 10/03/23 Птн 19:05:22 #642 №149408 
1625058246619.png
>>149395
> следую негласному правилу, что превышать единицу в двух тегах Лоры нельзя, ибо ты "пережжешь" генерацию
Это правило довольно условное и под твои конкретные лоры надо подбирать опытным путем и исключительно на глаз. Пикрил, например, две лоры - 1.0 на персону и 0.8 на стиль, именно то что мне было нужно. В других генерациях с другим стилем значения другие, но тоже больше единицы.
Ну или лоры хуевые и ничего не получится, это тоже будет сразу понятно.
Аноним 10/03/23 Птн 19:05:39 #643 №149409 
>>149404
Я это правило то ли в каком-то посте, то ли в видосе увидел и подумал что это логично. Пару раз попробовал сделать сумму двух лор 1.8 потому что мне не хватало, стиля из второй лоры, ну и генерация в кашу говна превратилась. Хорошо, я буду пробовать рандомные значения на разных промптах, может норм все будет. Я думал, что можно одну из лор вшить в основную модель, но это не всегда удобно делать и вообще это полумера
Аноним 10/03/23 Птн 19:12:19 #644 №149414 
>>149408
Окей, буду пробовать. Всем за ответы спасибо
Еще один вопрос, иногда на civitai рекомендуют помимо тега вызова лоры еще дописывать trigger words под эту лору. Оно вообще сильно влияет на результат, мб добавляет силу в генерацию? Я немного потестил, у меня просто немного другая генерация получается да и все.
Мне надо это понять, чтобы еще свои обученные лоры лучше контролировать
Аноним 10/03/23 Птн 19:30:10 #645 №149442 
>>149261
>650-ватт, ты?
Йеп, он самый.
>Ну во первых что за исполнение?
Zotac Trinity, сейчас гляну обзоры. Вроде как стояла в игровом пк, он скидывает фотки пекарни с лгбт подсветочкой и всеми делами. При этом он продает кучу всякого железа постоянно, что для геймера весьма странно. В отзывах есть видяхи, из архива проданного - удалены.
Спасибо за подробный ответ, приму к сведению.
>>149255
Сказал, что недавно обслужена в сц с заменой прокладок, но никаких доков он не сохранил естественно оттуда.
Аноним 10/03/23 Птн 19:43:01 #646 №149454 
>>149414
Ладно, раз круглосуточные обучальщики не отписываются, мой скромный опыт.
Если лора обучена с применением токена-триггера, то надо дописывать, если нет - не надо. Скорее всего, паразитное влияние где-то может вылезти, но это неточно, опять же зависит от того, насколько хорошо проведен тюнинг. Когда в концепте есть персона, предмет или, например, поза, то триггер необходимо использовать при обучении, иначе смысл теряется. Когда обучаешь стилю, на мой вкус, триггер нахуй не нужен, тут куда важнее описать в датасете максимально широкий спектр предметов-объектов-сущностей, ни в каком art by hudozhnik name надобности нет, это просто лишний мусор - ты потом либо подключаешь лору/эмбединг/гиперсеть, либо нет.
Исключительно субъективное мнение, если чо.
Аноним 10/03/23 Птн 22:37:23 #647 №149624 
>>149156
Ну, свитспот обычно в диапазоне 1.5к - 3к шагов, обычно в районе 2-2.5к. Считаешь число пикч, выбираешь чтобы свитспот приходился на эпоху ближе к концу или даже на последнюю если уверен в себе и соответствующим образом выбираешь число повторений, одно на другое разделить думаю осилишь.
Треню с высоким лр и большим батч сайзом, попытки обучения с низким лр и огромным числом шагов, как советовали люди что свои результаты не показывают а только рассуждают, приводили лишь к тому что модель не подхватывала полноценно ключевых деталей и стилистики, но при этом начинала всирать фоны и плохо управлялась. Офк это для nai-based моделей, для sd2.x возможно будет иначе, для низких батчсайзов тоже, хотя единичные эксперименты приводили к тем же выводам.
>>149216
Гпу мемтест скачай, научись его запускать и вперед. 3к серия при текущем возрасте не склонна к отвалу чипа, да и свежепрогретые ты всеравно не диагностируешь, основные проблемы по врам
>>149395
Нет такого правила, все зависит от конкретного случая. Некоторые лоры отлично работают совместно, некоторые всирают друг друга, протестируй и посмотри что получается. Можешь поставить аддон и немного поджать веса текст энкодера оставив юнет, иногда от конфликтов спасает. Если всеже не получается то генерируешь с лорой персонажа а апскейлишь с лорой стиля или наоборот, можно просто img2img с умеренным денойзом использовать.
Аноним 10/03/23 Птн 23:11:12 #648 №149677 
изображение.png
Подскажите настройки "по мощнее", а то персонаж не очень похожим получается
Аноним 11/03/23 Суб 00:00:33 #649 №149768 
>>149677
> accelerate на домашней паке
> 8-bit оптимизатор
Кринж. Особенно если второе действительно работает, то прощайся с нормальными градиентами и ровным обучением.
Аноним 11/03/23 Суб 00:04:13 #650 №149783 
>>149768
Я нюфаня и не понимаю в этих ваших настройках от слова совсем. Прошу совета у олдов.
Аноним 11/03/23 Суб 00:06:40 #651 №149791 
>>149768
> вы напугали питониста-ждуна
Хех, а по существу что-нибудь может скажешь? Разумеется нужен развернутый ответ, вбрасывателей уже дохуя накопилось и все друг другу противоречат
Аноним 11/03/23 Суб 00:44:51 #652 №149887 
>>149624
>Можешь поставить аддон и немного поджать веса текст энкодера оставив юнет
О каком аддоне идет речь? Я в первый раз вчера скачал одну из novelai моделей и оказалось, что для них люди юзают некий clip skip, аддон делает примерно, тот же самый клипскип?
Аноним 11/03/23 Суб 00:58:03 #653 №149920 
>>148198
Что значит 50 регов?
Аноним 11/03/23 Суб 00:59:09 #654 №149926 
>>149920
А, понял regularization images
Аноним 11/03/23 Суб 01:44:11 #655 №149961 
16784813243380.mp4
16784813244261.mp4
Посоветуйте как обрабатывать видео чтобы не ломало картинку и нормально распознавались пальцы.

Использовал canny, openpose и depthконтролнеты.
Аноним 11/03/23 Суб 02:19:15 #656 №149986 
>>149961
дефликер в давинчирезолв юзай
Аноним 11/03/23 Суб 02:22:47 #657 №149993 
>>149961
Никак, у тебя нет связности кадров.
Аноним 11/03/23 Суб 02:28:33 #658 №150003 
>>149993
Nope. С этим скриптом возможно есть
https://xanthius.itch.io/multi-frame-rendering-for-stablediffusion
Аноним 11/03/23 Суб 02:35:12 #659 №150005 
>>150003
Со скриптом может и есть, а из кадров на видео ничего не получится.
Ты видишь, чтобы в примерах нос менялся? Или прическа?
Аноним 11/03/23 Суб 02:42:16 #660 №150009 
>>150003
Как это юзать? Разбить видео на фреймы, первый прогнать через контролнет, отослать его в и2и, выбрать скрипт не выключая контролнет, а дальше?
Аноним 11/03/23 Суб 03:04:12 #661 №150030 
>>150009
Я использовал с включенным контролнетом. Выставляешь в скрипте настройки, выбираешь фреймы из исходного видео и тыкаешь генерировать. Он сделает грид, который потом можно нарезать на фреймы и собрать видео сделано через жопу
Аноним 11/03/23 Суб 03:06:14 #662 №150031 
>>150005
В примерах просто обмазывают сеткой то, что уже есть на видео, что не интересно. Тут сеть перерисовывает прическу и лицо почти с нуля.
Аноним 11/03/23 Суб 03:08:00 #663 №150034 
Есть какие-то тулзы, чтобы батчем прозрачный фон у картинок поменять на белый?
Аноним 11/03/23 Суб 03:09:34 #664 №150035 
>>150034
В фотошопе запиши действие. Вставь слой с белым фоном
Аноним 11/03/23 Суб 03:12:51 #665 №150037 
>>150030
У меня херово работает, один и тот же кадр перерисовывает, можешь подробнее про процесс?
Как я понял, надо взять, разбить видео на фреймы, первый перерисовать контролнетом, отправить назад в и2и, дальше выбрать все фреймы с этого видео в скрипте через upload guide frames, а настройки какие выставить не понятно, можешь скинуть скрин своего и2и окна вместе с контролнетом и этим скриптом?
Аноним 11/03/23 Суб 03:13:42 #666 №150039 
>>150034
На, попробуй, chatgpt написал:
https://pastebin.com/TPg5yA1k
Аноним 11/03/23 Суб 03:18:49 #667 №150046 
>>150039
Работает, лол.
Аноним 11/03/23 Суб 03:18:59 #668 №150047 
>>150037
Я поставил в имг2имг фрейм из видео, деноиз на 0.55
В скрипте выбрал деноиз 0,7
В первом списке - First gen, во втором - Input frame

Настройки не сохранились, так что это неточно. В png не сохраняет настройки контролнета ;(
Аноним 11/03/23 Суб 03:23:26 #669 №150049 
>>150037
>>150047
Там в комментах на сайте есть скрины настроек
Аноним 11/03/23 Суб 03:27:17 #670 №150053 
>>150049
Вот как раз они нихера и не работают, не понятно даже нужно ли оставлять контролнет с первым фреймом или нет, видимо всё таки нужно

>>150047
Сейчас попробую
Аноним 11/03/23 Суб 03:30:09 #671 №150054 
15719421168300.jpg
>>150046
Аноним 11/03/23 Суб 03:58:36 #672 №150067 
out3.mp4
>>150047
Работает с твоими настройками, надо вообщем крутить параметры, вроде стало чуть лучше, чем то как прогоняли раньше, хз, оцени сам
Аноним 11/03/23 Суб 05:36:46 #673 №150097 
>>149791
> все друг другу противоречат
Вся суть треда. У всех есть какие-то любимые настройки, с которыми у них все прекрасно, а как кто-то другой начинает использовать их для себя, так сразу хуита.
Я вот посоветую использовать dim 32, alpha 16. train_batch_size = 1, scheduler = "linear"
Аноним 11/03/23 Суб 09:15:15 #674 №150151 
>>150097
То про сами алгоритмы обучения, планировщики, оптимайзеры и код. А настройки могут меняться в зависимости от задачи, кроме того есть несколько способов достигнуть желаемого.
> dim 32, alpha 16
Нулевые тензоры не вылезают?
> train_batch_size = 1, scheduler = "linear"
А lr, размер датасета, число повторений пикч?
И что получается с такими настройками, можешь примеры показать? Исключительно пользы для, в идеале гриды или что-то подобное
Аноним 11/03/23 Суб 09:50:40 #675 №150167 
1678517438914.jpg
1678517438937.jpg
1678517438956.png
1678517438981.jpg
>>150151
> Нулевые тензоры не вылезают?
Не чекал. На глаз смотрю.
> А lr, размер датасета, число повторений пикч?
Такие же, как и на твоем скрине выше, я как бы их исправил под свои
> можешь примеры показать
Не знаю, на что тут смотреть. По идеи все должно быть так, будто основная модель уже знает твой концепт на уровне какой-нибдуь популярной Сырни или легендарной Аски, при этом не херить фон, а персонаж должен уметь принимать позы промтом.
Аноним 11/03/23 Суб 10:05:27 #676 №150173 
>>149791
Какой тебе развёрнутый ответ, шиз? Не можешь загуглить зачем accelerate? Или тебе надо объяснить почему градиенты идут по пизде при низкой точности?
Аноним 11/03/23 Суб 11:57:10 #677 №150201 
>>143101
Блин, анонче, я забыл спросить, а какой токен-то её триггерит?
Аноним 11/03/23 Суб 12:38:47 #678 №150216 
>>150173
Кыш.
Аноним 11/03/23 Суб 13:10:39 #679 №150239 
>>150173
Объясни мне. Загуглил акселерейт, там написано:
🤗 Accelerate is a library that enables the same PyTorch code to be run across any distributed configuration by adding just four lines of code! In short, training and inference at scale made simple, efficient and adaptable.

Загуглил 8 бит адам, там написано:
Stateful optimizers maintain gradient statistics over time, e.g., the exponentially smoothed sum (SGD with momentum) or squared sum (Adam) of past gradient values. This state can be used to accelerate optimization compared to plain stochastic gradient descent but uses memory that might otherwise be allocated to model parameters, thereby limiting the maximum size of models trained in practice. In this paper, we develop the first optimizers that use 8-bit statistics while maintaining the performance levels of using 32-bit optimizer states. To overcome the resulting computational, quantization, and stability challenges, we develop block-wise dynamic quantization.
Т.е. это не тупа конверт.

Че не так с ними? Лорки тренятся нормально.

мимо паскаледебил 10 лет не погромировал
Аноним 11/03/23 Суб 14:13:27 #680 №150349 
>>150239
Забей, дебил просто баззворды кидает, не разбираясь в вопросе.
Кому ты больше веришь, челу, который это говно написал и выставил дефолты, или васяну с анонимной имиджборды?
Аноним 11/03/23 Суб 14:44:35 #681 №150394 
>>150349
Первое конечно же, все работает и работает нормас. Но вдруг это непризнанный гений и знает как сделать лучше, щас все разъяснит, создаст ПР в репе кои и мы сразу же переместимся в утопическое будущее, можно будет тренить на 2 гигах и амд картах, на улице бесплатно смуззи будут наливать.
Аноним 11/03/23 Суб 14:45:32 #682 №150397 
>>150394
>создаст ПР в репе кои
Ага, как же.
Там-то ему сразу на голову насрут.
Аноним 11/03/23 Суб 15:01:15 #683 №150426 
>>150167
Залейте лору с Юлей на civitai плиз. Там есть теги на бесконечное лето everlasting summer
Мне лень делать свою.
Аноним 11/03/23 Суб 15:02:33 #684 №150429 
>>150067
Ну типо того что у меня вышло
Аноним 11/03/23 Суб 15:22:53 #685 №150479 
>>150239
> distributed configuration
Чел...
> Загуглил 8 бит адам
А чего дальше не почитал и не разобрался что он для текстовых моделей transformers?
Аноним 11/03/23 Суб 15:53:25 #686 №150587 
>>150479
>Чел...
Чел, accelerate прекрасно работает без distributed configuration...
Аноним 11/03/23 Суб 16:39:02 #687 №150710 
Это правильные параметры?
ss_clip_skip: "2" - для аниме/nai
ss_clip_skip: "1" - для реал/sd1.5
Аноним 11/03/23 Суб 16:54:44 #688 №150728 
out32.mp4
>>150429
Хз как видео сделать более плавным, пробовал еще денойз базовый повыше, и два контролнета, все равно персонажа даже теряет
Аноним 11/03/23 Суб 17:09:50 #689 №150744 
>>150710
Правильные.
Аноним 11/03/23 Суб 18:14:53 #690 №150797 
Аноны, а есть какие-нибудь базовые рекомендации по LORA с параметрами сетки/обучения/разметки датасета чтобы уменьшить запоминание и перенос стиля при обучении на персонажа/объект? Имеет смысл добавлять теги авторов артов чтобы можно было при инференсе исключать их? Дроч с регуляризационными может помочь?
Аноним 11/03/23 Суб 18:48:41 #691 №150853 
>>149961
Если еще не пробовал, попробуй экстеншен ebsynth_utility, с пальцами он скорей всего не поможет, но с дерганностью видео может помочь. Там тоже контрол нет используется для имк2имг (но вдроде мало настроек для котролнета)
Аноним 11/03/23 Суб 19:18:20 #692 №150900 
>>150479
> Чел...
Что мешает скукожить дистрибьютед конфигурейшон до сигл гпу? Там еще какие-то speed optimizations.

> А чего дальше не почитал и не разобрался что он для текстовых моделей transformers?
Что мешает его применить к другим моделям?

Ты так и не объяснил нихуя. Думаешь я до тебя просто так доебался?
Аноним 11/03/23 Суб 19:44:26 #693 №150959 
>>130777
бампусик.
Аноним 11/03/23 Суб 19:49:47 #694 №150968 
>>150853
>ebsynth_utility
Попробую. Если нужно будет обрабатывать только кейфреймы, то будет меньше возбни с контролнетом и img2img
Аноним 11/03/23 Суб 20:06:07 #695 №151002 
>>150426
Ок. Много тестировал, чтоб фоны интегрировать, да вот все никак.
Аноним 11/03/23 Суб 20:37:22 #696 №151063 
xxxx.jpg
Замутите микс вот этих трех моделей, примерно 34/33/33:

https://civitai.com/models/10028
Neverending Dream: хорошо понимает лолек и 3д формы, но никакой стиль

https://civitai.com/models/4099/laolei-new-berry-protogen-mix
Laolei newberry protogen mix: отличные цвета, тонкие детали, но однообразно, блекло и не знает лолек

https://huggingface.co/SweetLuna/Kenshi

Kenshi: сильный стиль, высокая детализация, но дженерик и плоская графика, слишком много черной туши

Самый топчик будет Neverending dream с шейдингом laolei и детализацией kenshi.
Аноним 11/03/23 Суб 20:47:30 #697 №151073 
20230311-204005withsnd.mp4
>>150853
Тестовый с img2img на шару. Надо будет получше подобрать настройки контролнетов, чтобы не так сильно ломало. Может бы ть просто скормлю первое видео >>149961
Выглядит лучше в плане плавности пальцев и рук.

Почему-то обработало только мелкий отрезок видео, хотя аудио взяло полностью..
Аноним 11/03/23 Суб 20:59:52 #698 №151082 
>>151063
А это вообще просто делается? Если да, я то могу на своей видяхе, только гайдик скинь
Аноним 11/03/23 Суб 21:01:38 #699 №151084 
Дополнил гайд https://rentry.co/sd_performance

https://rentry.co/xformers_builds
1. Для варианта с использованием предварительно-скомилированного торча вынес несколько версий (две старых и ещё сегодняшнюю) в отдельный rentry, т.к. прошлый билд не работал у некоторых анонов. Возможно, имеет смысл скомпилировать ещё несколько старых версий, но я пока не знаю, есть ли такая потребность.

2. Для гайда с ручной сборкой немного поменял финальные шаги сборки, чтобы в конце высирался собранный пакет в whl формате, который можно позднее запаблишить или сохранить на всякий.

3. Добавил секцию по сборке xformers без привязки к автоматику, чтобы можно было получить скомпилированный whl-файл не шатая пакеты в самом автоматике.

Ещё пункт про бекапы /venv добавил, чтобы можно было безболезненно откатиться, если апдейт вам поломал всё.
Аноним 11/03/23 Суб 21:02:58 #700 №151089 
>>151084
> предварительно-скомилированного торча
*xformers, конечно же
Аноним 11/03/23 Суб 21:17:37 #701 №151103 
>>151082
Там больше к оперативной памяти вопрос, а так прям в дефолтном СД или с каким-то модулем есть миксер (я другой анон, просто мимо проходил).
Аноним 11/03/23 Суб 21:27:08 #702 №151114 
>Почему-то обработало только мелкий отрезок видео, хотя аудио взяло полностью

В ebsynch закидывал все .ebs файлы? Скрипт может сгенерить больше одного файла, тогда нужно обработать ебсинком их все (закидывать вроде можно только по одному за раз)

Хз, что еще может быть, у меня не было такой проблемы.
Аноним 11/03/23 Суб 21:27:48 #703 №151117 
>>151073
>>151114
Аноним 11/03/23 Суб 21:33:09 #704 №151126 
>>151114
Да, он сделал несколько и я все закинул. Наверное баг или я ошибся. Из 400 фреймов только 100 получил, хотя фреймы видео и кейфреймы сделаны нормально
Аноним 11/03/23 Суб 21:48:16 #705 №151141 
>>151103
Оперативы у меня только 16гб, еще и ддр4... Надо бы докупить еще 16
Аноним 11/03/23 Суб 21:55:50 #706 №151151 
>>151141
Тогда лучше не берись, там и 32 мало бывает. Надо мне докупить ещё 32.
Аноним 12/03/23 Вск 00:58:56 #707 №151490 
>>151063
> примерно 34/33/33:
Это как? Объясни формулу.

>>151141
>>151151
Мержу модели на 16 гигах нормально, только свопа дохуя отжирает, 40-60 гигов. Ну и скорость так се, при составлении гридов по слоям в супермержере прям посос.
Аноним 12/03/23 Вск 02:03:56 #708 №151556 
>>151490
>Ну и скорость так се
Собственно поэтому и рекомендую мержить тем, у кого вагон оперы, а не заниматься онанизмом и протиранием SSD до дыр.
Аноним 12/03/23 Вск 02:13:17 #709 №151559 
Ахтунг, пора катить, тонем же! Здесь бамплимит 500, а 1000 только для двух тредов!

Ахтунг (2), на гуглоколабе обновился пихон с 3.8 на 3.9, у меня сегодня не завелись иксформерсы, заработало после пнресборки оных из сорцов (команда на всякий случай там прилигалась), как поделиться - не знаю.
Аноним 12/03/23 Вск 02:36:22 #710 №151574 
>>151556
> протиранием SSD до дыр.
Да похуй, я его именно для этого и брал.
Аноним 12/03/23 Вск 05:46:59 #711 №151678 
https://twitter.com/BlockadeLabs/status/1634578058287132674
Рисуем комнату в ВР.
Делаем из этого cribble для контролнета.
Пишем промпт.
Скармливаем ИИ.
Вуаля, у нас внутренний скайбокс для ВР-комнаты.
Так ведь и до полноценных ВР-миров, сделанных через АИ недалеко уже.
Аноним 12/03/23 Вск 07:30:48 #712 №151709 
>>151084
Первый вариант у меня ломает автоматик.
Вебуй грузится (в начале правда варнинг выдает о том, что torchvision.transforms.functional_tensor module типа устарело), генерация не стартует.

Второй вариант выдает то же самое.
Куча ошибок, в конце
>RuntimeError: CUDA error: no kernel image is available for execution on the device
CUDA kernel errors might be asynchronously reported at some other API call, so the stacktrace below might be incorrect.
For debugging consider passing CUDA_LAUNCH_BLOCKING=1.
Compile with `TORCH_USE_CUDA_DSA` to enable device-side assertions.

Послений вариант вообще не ставится.
>ERROR: Could not find a version that satisfies the requirement torch==2.0.0
И потом еще много всякой ерунды.
Походу, по ссылке нифига уже нет.
Аноним 12/03/23 Вск 09:04:49 #713 №151743 
Кароче, там есть два плогенса для перфект мерджа через аэстетик скор

Первый плагин https://github.com/Xerxemi/sdweb-auto-MBW просто перебирает все значения всех блоков рендеря по настройкам и выбирая лучший скор, потом собирает готовую модель, пишут что на 4090 при около 50 степах 768 пикселей работает больше часа, так что нищуки страдать. Результивную модель тестовую между энифингом и оранжем от автора можно скачать отсюда https://huggingface.co/Xynon/SD-Silicon/tree/main (качать Silicon29), почитать про всю хуйню с примерами и различиями тут https://medium.com/@media_97267/the-automated-stable-diffusion-checkpoint-merger-autombw-44f8dfd38871
Модель очень клевая получилась, можно юзать в качестве обучалки изи.

Второй плоген уже исполует баесиан апроуч для вероятностного просчета чтобы уменьшить количество тупых переборов брутфорсом https://github.com/s1dlx/sd-webui-bayesian-merger но нужно дольше настривать
Аноним 12/03/23 Вск 09:40:52 #714 №151754 
>>151743
Смысла особого нет, потому что скор говно. На выходе будут мастерпися-арты без мастерписи в промпте, а когда захочешь без мастерписи нарисовать конкретный объект - пойдёшь нахуй.
Аноним 12/03/23 Вск 09:54:40 #715 №151757 
изображение.png
Аргх.
Как же меня это всё достало.
Каждый день что-то новое то ломается, то чинится.
Сколько можно уже?
Аноним 12/03/23 Вск 10:10:48 #716 №151762 
>>151754
>ря нинужно
Ну попробуй, модель то есть.
Аноним 12/03/23 Вск 10:13:57 #717 №151764 
>>151754
>потому что скор говно
>The generated checkpoint is then used to create images that are fed into an aesthetic classifier, such as cafe-aesthetic or laion-V2, which outputs an aesthetic value that ranks the changes made by tweaking that specific value in the merge.
Почему кстати говно-то? Там не маняскор с бур всяких кстати, а модели заточенные под скоринг.
Аноним 12/03/23 Вск 10:31:59 #718 №151770 
>>151762
> модель то есть
Так ты сам-то пробовал? На них упор на мастерпися-фоны. Попробуй сам на этой модели лору прицепить и сгенерить персонажа без лишнего говна.
>>151764
Так ты почитай что он там скорит. Он определяет насколько разнообразная композиция на пике, так называемое "качество арта". В той модели именно это и видим - фоны с нейрошумом. Абсолютно то же самое делается например с "art by peter mohrbacher, ruan jia, reza afshar, marc simonetti, alphonse mucha" - получишь такую же мастерписю.
Аноним 12/03/23 Вск 11:45:39 #719 №151783 
>>151770
>Так ты сам-то пробовал?
Да, заебись моделька.
>На них упор на мастерпися-фоны.
Не согласен.
>Попробуй сам на этой модели лору прицепить и сгенерить персонажа без лишнего говна.
Я персонажных лор не имею, у меня только стилистические и всякие позы да улучшайзеры, с ними работает прекрасно.

>Абсолютно то же самое делается например с "art by peter mohrbacher, ruan jia, reza afshar, marc simonetti, alphonse mucha" - получишь такую же мастерписю.
Ну так себе аргумент, он непрвоеряем.
Давай лучше начнем с того, что изначально сд тренируют и потом тюнят как раз скорерами, в том числе лайоном, который можно юзать в скрипте.
Аноним 12/03/23 Вск 12:08:10 #720 №151793 
>>151783
> изначально сд тренируют и потом тюнят как раз скорерами
Не пори хуйни, aesthetic score нигде при обучении SD не используют, только CLIP score. Он не может определить что конкретно на пике и бесполезен для обучения text2img моделей. Разве что как метрику для визуализации качества деноиза можно использовать, но в оригинальном SD его нет даже для такого.
Аноним 12/03/23 Вск 12:13:28 #721 №151795 
>>151793
>Не пори хуйни, aesthetic score нигде при обучении SD не используют
Чел, лайоном сд2.0+ вычистили все нсфв...
Аноним 12/03/23 Вск 12:17:03 #722 №151796 
>>151795
Чел, ты вообще в курсе что там был CLIP, а не aesthetic? Нахуй ты лезешь, если не знаешь?
https://github.com/LAION-AI/CLIP-based-NSFW-Detector
Аноним 12/03/23 Вск 12:20:07 #723 №151799 
>>151796
Ну так для это же фильтр для клипа, а нам фильтровать не надо, а надо слияние сделать оптимальное. Так что все фул легит, лайон может в оценку и аестетиком.
Аноним 12/03/23 Вск 12:33:10 #724 №151809 
>>151799
Он никакого отношения к обучению SD не имеет и оценивает только сложность композиции, не её содержание. Ты этим сможешь только нейрошум отскорить. Ну в общем разговор не о чём. Как принесёшь примеры повышенного качества миксования на реальных генерациях, так и будем продолжать. А нейрошум можно абсолютно на любой модели забустить.
Аноним 12/03/23 Вск 12:42:40 #725 №151827 
>>151809
>Как принесёшь примеры повышенного качества миксования на реальных генерациях, так и будем продолжать.
Как будто мне нечем заняться, вон у автора на страничке гриды есть - лакомись, мне лично результат работы нравится. И вообще условный оранж точно также тюнили отбирая лучшие положения процентных соотношений блоков, ток вручную, так что ты споришь просто с рабочим методом.
Аноним 12/03/23 Вск 15:22:56 #726 №152059 
>>151678
Супер!
Аноним 12/03/23 Вск 16:15:49 #727 №152187 
>>151559
>Ахтунг, пора катить
Аноним 12/03/23 Вск 17:32:41 #728 №152367 
1678631560736.png
https://civitai.com/gallery/232919?reviewId=38082&infinite=false&returnUrl=%2Fmodels%2F12590%2Fnekopara-or-7-neko-girl
Кто из нас долбаеб?
Да, у меня лора от одного токена не работает, нужно минимальное описание тянки, вроде цвета волос, цвета глаз и вида одежды. Дал это понять по превью.
Но типа у кого-то лоры на персонажей работают лишь от токена?
Аноним 12/03/23 Вск 18:29:05 #729 №152463 
Как переключение vae вывести на главный экран, чтобы в настройки не лазить?
Аноним 12/03/23 Вск 19:10:39 #730 №152535 
image
>>152463
Аноним 12/03/23 Вск 19:35:42 #731 №152616 
>>152535
Благодарю
Аноним 12/03/23 Вск 20:31:01 #732 №152727 
Можно ли лору тренеровать на разных разрешениях, или если выстовил 1024 то только на ней возможно?
Аноним 12/03/23 Вск 21:37:25 #733 №152839 
>>152727
Можно. А вот что и как ты собрался в 1024 тренировать - это уже интересно.
Аноним 12/03/23 Вск 21:43:36 #734 №152850 
>>152839
На Шинобу на разных стилях, мне не нравиться как выходят некоторые элементы и подумал что можно юзать более мелкие пикчи для таких концептов, и ещё если я собираюсь дообучать на подправленом датасете, то нужно ли снижать lr? Если да то во сколько? А если я добавлю новый концепт типа художника на 1/6 датасета?
Аноним 12/03/23 Вск 23:04:44 #735 №152980 
.png
.png
.png
Попробовал ещё раз провести эксперимент с проверкой того, как выпиливание бекграундов для датасета влияет на качество фонов при генерации, на этот раз для лор.

Сделал две версии своего датасета - в одном оставил оригинальные бекграунды, а в другом, при помощи этой либы https://github.com/SkyTNT/anime-segmentation выпилил бекграунды. Эта либа делает бекграунд прозрачным, что не сочитается с лорами (насколько мне известно). Так что через этот скрипт >>150039 (спасибо анону и ChatGPT) поменял у всего датасета фон с прозрачного на белый (+ ещё тег white background добавил ко всем картинкам). Затем обучил две лорки с одинаковыми настройками по этим двум датасетам. В примерах использую последнюю эпоху, чтобы по максимуму увидеть последствия переобучения.

Колонка 1 - без лоры
Колонка 2 - лора, обученная на белых фонах
Колонка 3 - лора, обученная на стандартных фонах

По итогу, различие в качестве фонов между лорами надо под лупой выискывать, так что всё же склоняюсь к мнению, что смысла тратить время на удаление фонов в датасете не имеет смысла при обучении лор на персонажей. Либо это всё же особенность моего датасета, так как на значительной части картинок, на которые приходится много повторов, фоны и так одноцветные (хотя много иероглифов, как правило).

В либе, кстати, неправильно указаны аргументы в примере вызова (там --data-dir, а нужно просто --data), у меня такой вариант заработал, если кому-нибудь нужно:
python inference.py --net isnet_is --ckpt ./models/isnetis.ckpt --data ./input --out ./out --img-size 1024 --only-matted
Аноним 12/03/23 Вск 23:22:17 #736 №153015 
>>152367
> Но типа у кого-то лоры на персонажей работают лишь от токена?
Работают, если из тегов датасета убирать к хуям описание персонажа, внешку шмотки etc.
Аноним 12/03/23 Вск 23:31:20 #737 №153039 
>>152980
Дримбудка и лора в частности довольно толерантны к качеству датасета на самом деле. Заебываться настолько смысла особо нет. Параметры модели и обучения больше разницы дадут. Главное чтобы теги не совсем говно были.
Вообще сложилось ощущение, что до приемлимого качества натренить лору зачастую не проблема даже не запариваясь с чисткой тегов и на дефолтных параметрах. А дальше уже начинается полурандомная магия и анальная зависимость сочетаний качества и балансировки датасета с параметрами модели и обучением, и с каждым процентом улучшения модели задроченность тонкой настройки растет x^2
Аноним 13/03/23 Пнд 01:00:07 #738 №153190 
image.png
Ну и как с этим со всем теперь разобраться? Сначала добавили LoСon, тут пару постов проскочило, потом появился Kohya LoСon, мы молчали, теперь они решили доебать окончательно.
Аноним 13/03/23 Пнд 01:14:50 #739 №153209 
>>152980
Если фон одинаковый на всех пикчах, то лучше удалять/менять. Сужу по опыту обучения гиперсети на фото. У меня фон "запекался" в сеть вместе с объектом. Не знаю, может с лорами всё не так
Аноним 13/03/23 Пнд 01:19:22 #740 №153216 
>>153190
Самое главное - непонятно в чем разница.
Аноним 13/03/23 Пнд 01:20:24 #741 №153217 
>>153209
Если он везде был протэган - то не должен запекаться.
Другое дело, что рандомно может и без тэга выскакивать, но негативом у меня такое очень просто лечилось.
Аноним 13/03/23 Пнд 01:32:20 #742 №153232 
>>153216
Вот и я об этом. На гитхабе с умным видом выложили картинки, я с умным видом посмотрел и решил забить до лучших времён.
Пока хач обзор не сделает.
Аноним 13/03/23 Пнд 02:05:20 #743 №153257 
>>153190
Ну пиздец. Они еще там смешивают по формулам уровня "ACM+LoHA+DAdapt", вычитают и прибавляют дримбухи. Вангую тотальную еблю с результатом уровня погрешности, ибо фикситься одно, а ломается другое от доп.данных.
Сколько раз сталкивался с тем, что больше=значительно лучше и каждый раз это не так. Будто нельзя сделать заебись не живя всем этим.
Аноним 13/03/23 Пнд 02:09:26 #744 №153264 
>>148885
>Раз такой анонимвас то может просто купишь себе видеокарту?
Во-первых, с финансами, как обычно, не всё стабильно.
Во-вторых, в таком случае нужно будет вообще системный блок собирать, а зачем он мне, если и так ноут есть? Я вроде на мажора не похож.
>>149155
"Дрочерство" тут ни при чём, просто мне не совсем хотелось бы отчитываться за каждую крупицу данных, которые кто-либо может использовать против меня, да даже просто докапывать в стиле "ну, вот оно тебе надо, почему ты не как нормальные люди?" особенно, в случае деанона.
Аноним 13/03/23 Пнд 06:27:07 #745 №153416 
Как тегировать датасет для lora на базе реалистичной модели (sd 1.5)? Booru теги не будут работать? Clip выдает длинные описания не понятно как будет работать опция перемешивания токенов.
Аноним 13/03/23 Пнд 13:26:43 #746 №153708 
>>153416
Тэги работать будут, но тут как повезет.
Лучше clip используй и отключай перемешивание. Зачем оно тебе, когда у тебя и так сложные и не повторяющиеся предложения?
Аноним 13/03/23 Пнд 14:33:03 #747 №153763 
>>153708
Как использовать клип для датасета? Знаю только про кнопку в автоматике для одного изображения
Аноним 13/03/23 Пнд 15:36:56 #748 №153842 
image.png
Сюда тоже насру. Помогите разобраться с этим говном! Я не хочу новый тормозной аноноколаб, я ходу реанимировать старый! Можно ли это исправить, и если можно, то как?!
Аноним 13/03/23 Пнд 15:45:07 #749 №153848 
>>150167
Укатывания лендскейпов в уберреалистичность - один из признаков поломки, но в этом также могут быть виноваты теги. Главное что результат получается
> Такие же, как и на твоем скрине выше
Хз о чем ты, на пикче в посте выше только параметры обучения, число повторений и количество пикч там не показывается, это параметры датасета. Поделись если не жадина
>>152980
По первой складывается впечатление что с оригинальными фонами отработало лучше с точки зрения детальности бекграунда. На третьей чуть больше похоже на оригинал но не сказать что колонка 2 сильно хуже в этих сидах.
А это с каким числом шагов? Более ранние или поздние эпохи не смотрел?
>>153264
Подобная анонимность - привелегия тех кто может себе позволить железо и/или свой софт. Парадигма мира, увы, такая, или попадаешь в бигдату, или тратишь сотни нефти и ресурсов не попытки этого избежать. А тут еще такой пряник в виде крутых расчетных мощностей нахаляву.
>>153416
wd 1.4 tagger, deepdanbooru

Что-то совсем потанули, нужен перекот
Аноним 13/03/23 Пнд 15:51:41 #750 №153853 
Мне >>153842 поможет кто или это нереально?
Я уже почти неделю не генерил картинки
Аноним 13/03/23 Пнд 15:56:26 #751 №153861 
>>153853
Входных данных мало, тебе только надеяться что такую ошибку уже кто-то встречал и решил что маловероятно. После чего это случилось хоть?
Аноним 13/03/23 Пнд 15:56:31 #752 №153862 
>>153848
> Что-то совсем потанули, нужен перекот
Было бы неплохо, куда оп пропал, который шаблон шапки еще может отредачить? Там бы удалить мертвые ссылки на репозитории моделей и лор

>>153853
Я понятия не имею что там с колабом, но на локальной установке тоже было такое, там какой-то пакет неправильной версии, надо было просто старую поставить
Аноним 13/03/23 Пнд 15:59:02 #753 №153865 
>>153853
У ватоматика уже пофикшено, че делать на кал лабе - хз.
https://github.com/AUTOMATIC1111/stable-diffusion-webui/pull/7717
Аноним 13/03/23 Пнд 16:06:03 #754 №153876 
>>153862
Стоит обсудить что в новую шапку можно добавить для начала
Как вариант предлагаю: локоны, параметры тренировки анонов что в этом треде писали, выводы по бекграунду, мердж лор, контролнет, могу complete idiot guide с примером по обучению лоры скриптом локально запилить.
Аноним 13/03/23 Пнд 16:10:59 #755 №153885 
>>153861
Просто в один прекрасный день колаб отказался запускаться
>>153862
>>153865
Я нашёл что там проблема с fastapi
добавил строку
>!pip install --upgrade fastapi==0.90.1
по советам с фейса и реддита
Посмотрим что получится
Аноним 13/03/23 Пнд 16:12:13 #756 №153889 
>>153763
У него вроде пре-процесс картинок на вкладке с тренировкой где-то был, насколько я помню. Целую папку туда можно запихнуть. Файлы с текстом создает, картинки ресайзит, всё такое.
Аноним 13/03/23 Пнд 16:14:51 #757 №153895 
>>153885
Iбать я погромист:3
Аноним 13/03/23 Пнд 16:21:34 #758 №153899 
03765-e164edddcb-2530916377.png
03766-e164edddcb-2530916377.png
03767-e164edddcb-2530916377.png
>>153876
Хо Ши Мин, ты? Ну форкай тогда шапку и переписывай хотя бы понемногу, раз оп уже забил и не появляется тут
> локоны
А про них есть какая полезная инфа у тебя? Я вообще хз зачем это появилось, до сих пор нету поддержки в автоматике или аддишионал нетворкс, без отдельного экстеншена.
> параметры тренировки анонов что в этом треде писали
> мердж лор
Да, годно было бы.
> контролнет
Это отдельный гайд вообще писать придется, там же столько применений, неужели займешься?
> могу complete idiot guide с примером по обучению лоры скриптом локально запилить
Да уже давно местный аскотест напрашивается с готовым датасетом, для проверки корректности работы тренировки. Вот сейчас как раз решил проверить можно ли сделать две абсолютно одинаковые лоры с одинаковыми хешами, у меня не получается, параметры теже, шафл выключен, сид залочен. Генерации похожи, но чуть чуть отличаются, можно ли это считать правильным аскотестом, ну хз, наверное да. Пик1, пик2 - просто одинаковые настройки, пик3 - +шафл с теми же настройками.

Кстати до сих пор в шапке нету мокрописьки гуя для тренинга лор от одного из местных без вести пропавших, лично мне удобно именно ей пользоваться https://github.com/anon-1337/LoRA-train-GUI
Аноним 13/03/23 Пнд 16:26:20 #759 №153907 
1678713978553.png
1678713978563.png
1678713978569.png
>>153848
Я специально генерил на миксах оранж-миксов с тегами реализма, чтобы проверить, как оно будет. Мне наоборот не хотелось бы, чтобы с персонажем копировался и стиль.
Пикчи с инфой соответствуют пикчам из моего предыдущего поста. 4пик не кидаю, так как она как 1пик, но в этой версии больше аниме скриншотов, что дает копирование стиля для одного из концептов, что мне и не надо было.
Аноним 13/03/23 Пнд 16:38:18 #760 №153920 
>>153899
> Хо Ши Мин, ты?
Едва ли, хотя есть точки пересечения
> Ну форкай тогда шапку и переписывай хотя бы понемногу
Нууу если никто не возьмется то можно, конечно, денек на сбор мнений. Лучше Хо Ши Мину это поручить а мы отдельные моменты выдвигать будем
> А про них есть какая полезная инфа у тебя?
Не, все никак не попробую. Раз из примеров на весь тред только специфичное фурри где разницы и нет то пока в шапку рано значит
> Да, годно было бы.
Ну параметры могу собрать, про мерж к Сенкофагу
> неужели займешься
Едвали, может потом
> Да уже давно местный аскотест напрашивается с готовым датасетом, для проверки корректности работы тренировки.
Выбирайте персонажа или готовый датасет если есть. Или сам выберу заодно из старых что уже есть может что добавлю
Аноним 13/03/23 Пнд 16:42:17 #761 №153928 
>>153907
> Я специально генерил на миксах оранж-миксов с тегами реализма
Ну тогда все ок, Ювао разве что не совсем похожа на оранжи
> 768
У тебя случаем нет сравнения с 512 тренингом?
Аноним 13/03/23 Пнд 17:04:59 #762 №153949 
>>153920
> Не, все никак не попробую. Раз из примеров на весь тред только специфичное фурри где разницы и нет то пока в шапку рано значит
Мне вообще кажется что оно не сработало, ну или это просто не стоит вообще того, чтобы заморачиваться. А есть же еще какое то loha, название как бы намекает.

> Ну параметры могу собрать, про мерж к Сенкофагу
А по вайт бекграунду в итоге что, тоже трата кучи времени на 1% улучшения? Ну вроде выглядит здорово для овертрейна и добавления потом в негатив этих симпл беков, персонаж же будет прямо повторен, только наверное откажется переодеваться.

> Едвали, может потом
Тогда можно в туду записать, как это было в шаблоне раньше.

> Выбирайте персонажа или готовый датасет если есть. Или сам выберу заодно из старых что уже есть может что добавлю
У меня много этих датасетов, на персонажей и стили, причем я хз на стиль точно нужны большие альфа и дим при батч сайзе в один, стоит ли это как то разделять в тесте?
А вот что точно стоит делать, это указывать версию сд-скриптс, там какие то опять обновы у кохуи, которые он сам описывает, как не стабильно работающие, мельком глянул

>>153928
> У тебя случаем нет сравнения с 512 тренингом?
Я не он, но раз уж сейчас занимаюсь аутизмом то попробую заодно и так сравнить, только хз как это правильней проверить, пальцами чтоли, как мелкими деталями, зависящими от разрешения?
Аноним 13/03/23 Пнд 17:11:02 #763 №153956 
>>148198
Короче извини, но хуйня оказался твой способ, сразу старух и жирное ебало делает с таким LR. А от модели достаются олдскульные причёски. Остановился на дефолтном cosine и тренить, внезапно, на delibearte/analog madness.
Аноним 13/03/23 Пнд 17:21:34 #764 №153960 
>>153928
Может я использовал еще anything-v4.5, который тоже является миксом.
> 512
Если даже и есть, то не найду. Постоянно что-то прибавляю из дата-сета, что-то убираю, меняю параметры методом тыка каждый раз и поэтому найти точное сравнение - легче сделать еще раз.
В целом, иногда 768 помогает значительно, но иногда нихрена.
Аноним 13/03/23 Пнд 17:24:05 #765 №153963 
>>153949
> А по вайт бекграунду в итоге что, тоже трата кучи времени на 1% улучшения
Кмк на ухудшение, субъективно офк, но отрицательный результат тоже результат. Или может не туда смотрю, тут надо больше примеров и указаний как интерпретировать. Алсо здесь важнее будет пример где остались не чищенные иероглифы, надписи и прочее, будет лезть нещадно если такого в датасете много.
> Тогда можно в туду записать
Дело говоришь
> причем я хз на стиль точно нужны большие альфа и дим при батч сайзе в один, стоит ли это как то разделять в тесте?
Можно добавить по мере так сказать, для начала персонаж и батч сайз что влезет в 8 гигов, например.
> только хз как это правильней проверить, пальцами чтоли, как мелкими деталями, зависящими от разрешения
В первую очередь качество передачи персонажа, работает ли также хорошо как 512. Далее уже мелкие детали и глаза при тренировке стилей некоторых авторов, их всирает в первую очередь
Аноним 13/03/23 Пнд 17:36:30 #766 №153975 
1678718188079.png
1678718188087.jpg
1678718188101.jpg
>>153928
>>153960
Тут вот не особо помогло. Вроде стали лучше рукава и значок на шее. Да, скорости разные и сеты немного тоже, но в целом не сильно разница видна. А вот когда делал по Некопраре и me!me!me!- там очень сильно глаза ломались.
Аноним 13/03/23 Пнд 19:55:02 #767 №154198 
.jpg
Так ну пример есть, осталось сделать с настройками под 8гиговых и альтернативными, на днях что-нибудь будет, может даже раньше.
Какая на рентрай политика по легкому нсфв?
Аноним 13/03/23 Пнд 19:56:16 #768 №154204 
chromeT0RABV305O.png
xyzgrid-0003-e164edddcb-76767.jpg
Вообщем сделал две лоры с одинаковыми параметрами тренировки, единственное отличие между ними разрешение, в6 - 768, в7 - 512. Грид делал 768 квадратом, лосс, не уровня погрешности, ниже именно у лоры 768 во время тренировки. Но лучше основной объект тренировки, то есть персонажа и её платье объективно запомнила именно 512, лол. В то время субъективное имхо, в среднем по палате пальцы получаются лучше с 768. Платье это просто позор на 768, походу 768 намного более придирчив к датасету, там есть пара картинок с не просто белым платьем, а градиентом на вот этот синеватый цвет.
Алсо как доебали эти спайки между концом и началом эпохи, вот как с ним батчем тренить, это же пиздец наступает на первые пару шагов, было у кого такое?
Аноним 13/03/23 Пнд 20:00:08 #769 №154218 
>>154204
В6 чуточку лучше глаза, в7 более живая чтоли, по передаче костюма очевидно. Тут просто суть в том что sd1 модель неоче хорошо работает за пределами когерентности, и при обучении это может быть критичным, перебивая преимущества более высокого разрешения
Аноним 13/03/23 Пнд 20:09:41 #770 №154226 
>>154218
> sd1 модель неоче хорошо работает за пределами когерентности
Разве этот предел не заканчивается как раз на 768х768, ну или же 0.5 мегапикселя?
Аноним 13/03/23 Пнд 20:17:40 #771 №154237 
>>154226
Емнип там уже на 0.35 начинаются траблы, много факторов
Аноним 13/03/23 Пнд 20:52:07 #772 №154311 
>>154237
А почему генерится тогда квадрат 768 нормально? Модель для тренировки с наи сменить на новомодный микс тогда?

>>154198
Не эксперт, но вроде всем похуй. Это большой батч сайз и альфа 1?
Аноним 13/03/23 Пнд 21:25:51 #773 №154383 
>>153956
Да чего "извини", всё норм, спасибо за фидбэк!
Какие у тебя параметры датасета и тренировки? Я делиберейт и аналог маднесс ещё не пробовал...
Аноним 13/03/23 Пнд 21:28:58 #774 №154399 
>>154311
> нормально
Ну как нормально, простое сделает, в сложных позах будет больше пиздеца и меньше вероятность нормальных пальцев чем при 512х512. Оно оче редко может и 1кх1к сгенерировать хорошо.
> вроде всем похуй
Так этож для гайда, или не нужон?
> большой батч сайз и альфа 1
Да, но есть и альтернативные примеры с разным бс, лр, альфой, фп/бф и т.д. Таки самому интересно подтвердить или опровергнуть
Аноним 13/03/23 Пнд 21:32:16 #775 №154404 
Я всё ещё треню DreamBooth. Искренне считаю, что для моих задач норм. Например, если я хочу двух тянок в рисовке конкретного художника. Или если я хочу фотореалистичную ЕОТ-модель по мотивам фоток конкретной косплеерши.

Вопрос: а больше регов - это всегда лучше? В DreamBooth каждый рег имеет одинаковый тегинг (class prompt), так что нашлёпать регов - вопрос только времени. Но большого.
Аноним 13/03/23 Пнд 21:51:04 #776 №154429 
Господа, подскажите, пожалуйста.
Созрел, наконец, до клепания своих Лор - гайд в шапке ведь актуален?
>✱ LoRA – "легковесный Dreambooth" – подойдет для любых задач. Отличается малыми требованиями к VRAM (6 Гб+) и быстрым обучением:
https://rentry.org/2chAI_LoRA_Dreambooth_guide

Интересу
Аноним 13/03/23 Пнд 21:55:54 #777 №154437 
Что бы дообучить лору в скрипте нужно просто указать название лоры в output_name и где она находиться?
Аноним 13/03/23 Пнд 21:58:37 #778 №154443 
>>154383
25 фото, все теги прописаны, но одежда/волосы запекаются насмерть, всё же нужно красить/переодевать для нормального результата. Параметры оставил дефолтные - cosine, warmup 0, но надо ещё потестить с ним. 50 проходов. Сейчас играюсь с начальным LR, чёт слышал что при cosine не имеет значения, но внезапно нет.
Аноним 13/03/23 Пнд 22:08:39 #779 №154459 
>>154437
Output - это выходной файл.
В зависимости от того, где обучаешь, возможность до-обучения будет в разных местах записана.
Аноним 13/03/23 Пнд 22:14:02 #780 №154464 
>>154459
Ну допустим у меня есть лора а в папке б, мне нужно писать $output_name= a, $output_dir = б ? Мне тут говорили что это так делается, или я не правильно делаю?
Аноним 13/03/23 Пнд 22:16:54 #781 №154472 
01341-2374020285-best quality, masterpiece, 1girl, mireska dark willow, dota 2, dark willow, school uniform, white shirt, shirt, pleated skirt, n.png
01748-3457888260-masterpiece, naked girl.png
мимокрок, нужен совет
Если просто генерю в малом разрешении(пик1), будь то лора или нет, все нормально выглядит, просто лоурез, если что-то делаю с контролNET(пик2), пикчу пиздец шакалит, зашарпливает и все что можно делает с ней, лишь бы это выглядело несмотрибельно.
Делать выше разрешение? - анатомия выходит из чата
Делать с хайрезfix? - изначальная маска выходит из чата
Суккакфиксить
Аноним 13/03/23 Пнд 22:19:17 #782 №154482 
>>154429
Он изначально рассчитан на версию 0.4.0, в теории все должно работать и до 0.4.4, возможно и на 5й версии заведется. Надо посмотреть как получится что там с версиями, в общем помимо добавления новых параметров там все то же.
Аноним 13/03/23 Пнд 22:21:39 #783 №154484 
>>154464
Я имел в виду, в зависимости от того, каким скриптом и на каком коллабе обучаешь - может быть по-разному это прописано.
Output в любом случае это то, куда ты свою лору писать будешь, и под каким именем. Это не то.
Аноним 13/03/23 Пнд 22:28:24 #784 №154496 
>>154484
Я юзаю скрипт из гайда местного, и если то как я делал неправильно, что очень вероятно, то единственный вариант это $ckpt, правда я думал что основная модель всё таки нужна для дообучения, но видимо она нужна была только как отправная точка, а дальше лора работает как самостоятельная в плане обучения
Аноним 13/03/23 Пнд 23:16:54 #785 №154574 
>>154198
>.jpg
Хуя Шимакадзе подросла. Она ж плоскодонка.
Аноним 14/03/23 Втр 00:46:44 #786 №154825 
>>154482
Принял, спасибо!
Аноним 14/03/23 Втр 01:25:14 #787 №154886 
Нашёл гит с скриптом на тренировку лоры, а ещё там есть возможность натренить locon, сейчас затещу, а ещё там установка для отсталых есть, в теории можно в шапку добавить https://github.com/derrian-distro/LoRA_Easy_Training_Scripts
Аноним 14/03/23 Втр 01:53:38 #788 №154911 
1564856.jpg
Анон, как мне правильно подготовить датасет для лоры моей еотовны?
У меня отобрано около 50 хайрезов с зеркалки, без левых людей и объектов, среди них селфи с разными прическами, цветами волос, в очках и без; фотки в полный рост в разной обстановке, и немного нюдесов в полный рост с разных ракурсов. Всё это добро я уже прогнал через BLIP Captioning в Кохье.
1. Как это всё правильно протегать? С оглядкой на то, что лору я хочу использовать не только на фотореалистик, но и на около-мяняме моделях. Остановиться ли на СД промте вида "photo of a girl with short brown hair, weading white t-shirt, standing in park"? Или лучше использовать данбуру-теги? Или замиксовать?
2. Насколько детально вообще надо тегать исходники? Вот есть у меня фотка с композицией как на пикрилейтеде - надо ли мне подробно расписывать, что это "Full lengh portrait of EOT_name with green short hair, wearing glasses and necklace, in white t-shirt, in green pants, in lime sneakers, standing in park". Из того что я понял тегать надлежит всё, что не должно быть частью тренируемого концепта. То есть если у Еотовны на большинстве фоток разные причесоны и одежда, то их лучше бы протегать чем подробнее тем лучше?
3. Какую модель брать для обучения, с оглядкой на пункт 1? Ванильный СД-1.5, тот же URPM, что-то миксовое, типа Оранжа?
4. Имеет ли смысл заебываться и тюнить каждое из описаний, прогоняя их через генерацию на выбранной для обучения модели? Я попробовал щас это провернуть с первыми десятью фотками из сета на СД1.5, и у меня жопа сгорела - на то чтобы добиться плюс-минус схожей с оригиналом композиции и получить на выходе хотя бы пикилейтед же, у меня ушло минут сорок перебирания промта. Оно вообще стоит того?
5. Как грамотно совместить в датасете нюдесы и портреты, чтобы иметь возможность генерить и отдельно лицо, и Еотовну во всей красе? Я правильно понимаю, что достаточно будет просто проставить где надо теги "Nude" и "NSFW"?
Аноним 14/03/23 Втр 02:22:11 #789 №154935 
00113-437556842.png
Какие параметры обучения поменять, чтобы лора лучше отрисовывала шарниры и не ломала руки в этих местах?
Сейчас стоит альфа=дим=128 и лр=1e-4
Аноним 14/03/23 Втр 03:11:55 #790 №154968 
>>154886
Можешь скрином потом показать, как этим управлять? То есть куда параметры вписываются и как. Не хочу часов 10 ставить, а потом понять, что без самостоятельного прописывания всех параметров вручную ничего не запустить, как с оригинальным скриптом, где без гайдового .ps1 ничего не сделать, не зная от и до сам весь скрипт.
Аноним 14/03/23 Втр 03:19:39 #791 №154971 
.png
Ну, могу форкнуть шапку и заняться ей на неделе, если не будет других желающих. Тред уже неделю как в бамп-лимит ушёл - ОПчик, похоже, совсем пропал.

Из дохлых ссылок вижу https://technothread.space и https://static.nas1.gl.arkprojects.space/stable-diff

В шаблон добавить https://github.com/anon-1337/LoRA-train-GUI

ОП-пики в шаблоне отличаются от тех, что в треде - полагаю, вместо графиков надо использовать картинку из шаблона, которая про кручение весов моделей. Но у меня есть сомнения, имеет ли эта схема хоть какое-то отношение к реальности. Эксперты по CLIP-слоям есть в треде?
Аноним 14/03/23 Втр 03:29:52 #792 №154980 
>>154911
Из личного опыта.
1. Без разницы как тегать, если одна и та же одежда присутствует на нескольких фото - всё, оно будет преследовать тебя и вылезать в самый не подходящий момент, даже если ты распишешь вплоть до каждой пуговицы, полоски и цвета каждой нитки. Но главное тегать, если не тегать - всё ещё хуже.
2. Разная причёска, макияж, цвет волос, маникюр, бритость лобка и потность подмышек будет усреднена. Если фото +/- одного периода времени - можно не тегать, если разного - получишь медианное значение. Длина волос не влезла полностью в кадр а ты не указал длину? Штош, однажды получишь волосы по пояс. Фото лица в похожем ракурсе и размере будут усреднены, т.е. если была дрищём, но отожралась как кабанчик - получишь середину. Нужны разные ракурсы, но не за 10 летний период, максимально близко друг у другу. Улыбка с зубами? Пиши зубы - иначе запекутся и будут вылезать зубы поверх губ, причём довольно рандомно. Собираешь небольшой сет, тренируешь, проверяешь, исправляешь и т.д. Сначала лучше просто небольшой только на лицо.
3. Тренируй на той модели, где будешь использовать, собрать сет самое сложное.
4. Чем длиннее промпт, тем меньше будет похоже на оригинал, либо надо повышать вес лоры, а это дополнительные искажения, нужно искать баланс. Тренировка на 1.5 даёт неплохой результат только на 1.5, на свежих моделях будет что угодно с кривыми глазами, либо если там кривые веса с детальностью кожи - у тебя вылезут все поры и морщинки. Если не нужно прямо 100%% попадание - тренируй где больше нравится и убавляй вес.
5. Просто пиши nude, breast или что там у тебя, но это скользкая дорожка. Лора запомнит кривые сиськи и брухлю. И моли Омниссию, чтоб фоток было достаточно, иначе потом модель составленная по трём фоткам будет тебя преследовать.
Аноним 14/03/23 Втр 03:44:45 #793 №154987 
Подскажите плз можно ли мержить лоры друг с другом, и если да то как?
Аноним 14/03/23 Втр 03:49:42 #794 №154993 
image.png
>>154987
Kohya_ss
Аноним 14/03/23 Втр 05:39:13 #795 №155030 
>>154993
Спасибо, не видел, что там такое есть
Аноним 14/03/23 Втр 06:01:16 #796 №155035 
Последний раз тренил лору больше месяца назад. Делал по гайду Aitrepreneur, и пользовался его конфиг файлом. Сегодня собрал датасет, обновил kohyas gui... А всё по базовому конфигу не тренит, вроде жалуется на недостаток памяти, хотя раньше было норм. Теперь как черепаха на low vram. Вопрос. Где я мог напортачить и как фиксить?
Аноним 14/03/23 Втр 07:55:37 #797 №155050 
>>154399
> Так этож для гайда, или не нужон?
Да я про твой вопрос с рентри, там от прона никто в обморок не падает

>>154971
Это ж унет слои. Все на них после второго еще треда забили, лично я тоже, просто решил зачем каждый из них выдрачивать до идеала, когда можно просто лору сделать. Актуальна инфа или нет хз, надо смотреть соответствующие гайды или спрашивать прошаренных миксеров.
Вариант как создавали силикон29 через аестетик скор кажется куда более интересным в этом плане, хоть какая то автоматизация, выше в треде видел обсужление.
Аноним 14/03/23 Втр 08:15:14 #798 №155052 
Не был месяц, крыша едет от всего нового, актуальные гайды уже есть? Как сейчас лору делать на 8 гб картах?
Аноним 14/03/23 Втр 08:44:26 #799 №155059 
>>155052
сначала гайд по апскейлу прочитай
Аноним 14/03/23 Втр 12:28:04 #800 №155190 
>>155035
Проверь ещё раз что пишет в консольке. Проверь батч сайз. Попробуй на дефолтных настройках самого гуя.
ПЕРЕКАТ Аноним 14/03/23 Втр 15:27:21 #801 №155390 
>>155386 (OP)
>>155386 (OP)
>>155386 (OP)
Аноним 15/03/23 Срд 11:49:46 #802 №156798 
>>154472
Попробуй снизить силу влияния контролнета, снизить cfg, убавить (((скобочек))), включить vae, если оно не включено в модель
comments powered by Disqus

Отзывы и предложения