Сохранен 852
https://2ch.hk/ai/res/94300.html
24 декабря Архивач восстановлен после серьёзной аварии. К сожалению, значительная часть сохранённых изображений и видео была потеряна. Подробности случившегося. Мы призываем всех неравнодушных помочь нам с восстановлением утраченного контента!

B]ТЕХНОТРЕД №4 ИТТ делимся результатами обучения, советами, лайфхаками, наблюдениями, обсуждаем вну /tech/

 Аноним 01/02/23 Срд 11:54:58 #1 №94300 
.png
.png
.png
.png
B]ТЕХНОТРЕД №4

ИТТ делимся результатами обучения, советами, лайфхаками, наблюдениями, обсуждаем внутреннее устройство диффузионных моделей, собираем датасеты, решаем проблемы и экспериментируем
Тред общенаправленныей, тренировка дедов, лупоглазых и фуррей приветствуются

➤ Гайды по обучению

Существующую модель можно обучить симулировать определенный стиль или рисовать конкретного персонажа.
Текстуальная инверсия (Textual inversion) может подойти, если сеть уже умеет рисовать что-то похожее:
https://rentry.org/textard (англ.)
Гиперсеть (Hypernetwork) может подойти, если она этого делать не умеет; позволяет добавить более существенные изменения в существующую модель, но тренируется медленнее:
https://rentry.org/hypernetwork4dumdums (англ.)
Dreambooth – выбор 24 Гб VRAM-бояр. Выдаёт отличные результаты. Генерирует полноразмерные модели:
https://github.com/nitrosocke/dreambooth-training-guide (англ.)
LoRA – "легковесный Dreambooth" – подойдет для любых задач. Отличается малыми требованиями к VRAM (6 Гб+) и быстрым обучением:
https://rentry.org/2chAI_LoRA_Dreambooth_guide
Text-to-image fine-tuning для Nvidia A100/Tesla V100-бояр:
https://keras.io/examples/generative/finetune_stable_diffusion/ (англ.)
Бонус. ✱ Text-to-image fine-tuning для 24 Гб VRAM:
https://rentry.org/informal-training-guide (англ.)

➤ Гугл колабы

﹡Текстуальная инверсия: https://colab.research.google.com/github/huggingface/notebooks/blob/main/diffusers/sd_textual_inversion_training.ipynb
﹡Dreambooth: https://colab.research.google.com/github/TheLastBen/fast-stable-diffusion/blob/main/fast-DreamBooth.ipynb
﹡LoRA [1] https://colab.research.google.com/github/Linaqruf/kohya-trainer/blob/main/kohya-trainer.ipynb
﹡LoRA [2] https://colab.research.google.com/drive/1bFX0pZczeApeFadrz1AdOb5TDdet2U0Z

➤ Полезное

Гайд по фиксу сломанных моделей: https://rentry.co/clipfix (англ.)
Расширение WebUI для проверки "сломаных" тензоров модели: https://github.com/iiiytn1k/sd-webui-check-tensors
Гайд по кручению весов слоев моделей: https://rentry.org/mp2dt
Гайд по апскейлу: https://rentry.org/SD_upscale
Подборка мокрописек от анона: https://rentry.org/te3oh
Группы тегов для бур: https://danbooru.donmai.us/wiki_pages/tag_groups (англ.)
Коллекция лор от анонов: https://rentry.org/2chAI_LoRA (заливать лоры можно сюда https://technothread.space/ пароль 2ch)
Гайды, эмбеды, хайпернетворки, лоры с форча:
https://rentry.org/sdg-link
https://rentry.org/hdgfaq
https://rentry.org/hdglorarepo
https://gitgud.io/gayshit/makesomefuckingporn
Сервер анона с моделями: https://static.nas1.gl.arkprojects.space/stable-diff/

Шапка: https://rentry.org/ex947
Прошлые треды:
№1 https://arhivach.ng/thread/859827/
№2 https://arhivach.ng/thread/860317/
№3 https://arhivach.ng/thread/861387/
Аноним 01/02/23 Срд 11:55:55 #2 №94302 
сук заголовокъ слетел
Аноним 01/02/23 Срд 12:13:49 #3 №94332 
>>94302
и кринжатину в 4 пик добавил, теперь это твой позор на месяца два, пока тред не смоет
Аноним 01/02/23 Срд 12:15:28 #4 №94336 
>>94332
А я чот вскекнул не моё
Аноним 01/02/23 Срд 12:21:37 #5 №94340 
Так, это всё очень весело, смешнявка 4 пиком, проебанный заголовок, но вопрос в другом: что сегодня обучаем? Планирую сегодня вкинуть шекелей на васт эй ай
Нужна какая-нибудь задача уровня интермедиэйт и выше, т.е. не дженерик 2д аниме баба, с этим ясен хуй лора справится, вот какой-нибудь хитровыебаный стиль или концепт подошел бы (только чтоб не надо было год датасет собирать)
Аноним 01/02/23 Срд 12:25:05 #6 №94346 
>>94340
Кандинского натренируй.
Аноним 01/02/23 Срд 12:27:42 #7 №94353 
>>94340
>хитровыебаный стиль

https://www.pixiv.net/en/users/26750883
Сойдет?
Аноним 01/02/23 Срд 12:28:02 #8 №94354 
>>94300 (OP)
В ссылках не нашел, спрошу так, лору можно натренить только на одежду? Чтобы я мог менять в промпте деталей о персонаже, о стиле рисовки, но чтобы одежда всегда была одна конкретная?
Аноним 01/02/23 Срд 12:30:12 #9 №94360 
>>94346
Бля, а еще идеи есть? Ну тип для нейронки несложно выдавать абстракцию, плюс хз как такое тегать

>>94353
Красиво, спасибо. Записал

>>94354
Натренировать можно что угодно, всё зависит от датасета и файлов описаний в нём
Аноним 01/02/23 Срд 12:34:32 #10 №94363 
>>94340
Силовая броня из Fallout. Типа T-45, T-51 или T-60, но только не броня Анклава.
Ещё в сентябре пытался генерить постапокалиптические арты на копромодели 1.4, и оказалось что она практически ничего про неё не знает.
Аноним 01/02/23 Срд 12:34:59 #11 №94364 
image.png
image.png
image.png
image.png
>>94340
Сделай стиль рюкиши из оригинальных цикад. На данбору тег ryuukishi_(style) есть
Аноним 01/02/23 Срд 12:36:32 #12 №94366 
Пилить видос как с нуля собираю датасет, тегаю, вычищаю его, обучаю и тестирую? Или никому не надо?

>>94364
Хорошая идея

>>94363
Это задача для SD 2.1 кмк, если не лень будет попробую
Аноним 01/02/23 Срд 12:37:08 #13 №94367 
>>94360
>Красиво, спасибо. Записал
конченый. жаль что такое законно, это кощунство.
Аноним 01/02/23 Срд 12:38:13 #14 №94369 
>>94366
>Пилить видос как с нуля собираю датасет, тегаю, вычищаю его, обучаю и тестирую? Или никому не надо?
Давай, аноны будут рады.
Аноним 01/02/23 Срд 12:38:13 #15 №94370 
>>94367
Ретроград, опять выходишь на связь?
Аноним 01/02/23 Срд 12:39:12 #16 №94372 
>>94369
Щас, маман попросила в магаз сбегать кек
Аноним 01/02/23 Срд 12:40:27 #17 №94375 
>>94370
Ты берешь оригинальный стиль человека, который он сам придумал и который сформировался в том числе ввиду уникальности его нервной системы и всего прочего и воруешь его. это мразотство.
Аноним 01/02/23 Срд 12:42:56 #18 №94381 
Ну вот, перекатили и опять шиза ветром надуло. Надо было до тысячного сидеть как раньше. Игнорируйте его.
Аноним 01/02/23 Срд 12:43:21 #19 №94383 
>>94375
Бля, жир, ты заебал. Хули ты забыл на этой доске? Тут нет ничего своего, это доска про копирование чужих идей, стилей и т.п. Ты пидор заебал троллить тут.
Аноним 01/02/23 Срд 12:46:09 #20 №94384 
>>94383
>это доска про копирование чужих идей, стилей
А зачем тебе оно надо?
Аноним 01/02/23 Срд 12:48:05 #21 №94387 
>>94340
https://www.pixiv.net/en/users/20660965
https://www.pixiv.net/en/users/134001
Вот такие стили есть
Аноним 01/02/23 Срд 12:48:47 #22 №94389 
>>94366
> Пилить видос как с нуля собираю датасет, тегаю, вычищаю его, обучаю и тестирую? Или никому не надо?
Давай, а то по датасетам тут больше вопросов, чем по установке и параметрам скрипта
Аноним 01/02/23 Срд 12:48:49 #23 №94390 
>>94360
>Красиво, спасибо. Записал
Не забудь скинуть в тред, если что то выйдет, мне тоже этот стиль понравился.
Аноним 01/02/23 Срд 12:49:38 #24 №94391 
>>94366
Да, видос нужен. Плюс скинь свой файл скрипта и напиши версию мокрописи.
Аноним 01/02/23 Срд 13:11:44 #25 №94410 
>>94384
Хочется.
Аноним 01/02/23 Срд 13:14:44 #26 №94413 
xiao-genshin.jpg
no-lora.jpg
>>94325 →
> Тренируй больше разных лор, если сталкиваешься с проблемой, то ищи варианты решения
Так и делаю

> hair ornament, без hairclip (а hairclip емнип всегда идет с hair ornament), то с высокой вероятностью оно подсосет то что было натренено в лоре
Подсосёт именно в этот тег, заменяя его веса новыми, как я понял. Оно и правда через теггер всегда вместе выдавало эти два тега, но почему у кого нибудь вообще может возникнуть желание использовать их по отдельности, если на картинке оба тега подходят?

> Да, но не вылезая за теги данбуры, а то получится новый тег, который ты будешь обучать с нуля скорее всего. Просто тут сейм херня что и при промтинге, есть созависимые теги, или же теги, которые используются от контекста, типо разницы между тем же pussy и cleft of venus. Такие группы тегов типа hair ornament + flower hair ornament частенько встречаются, там еще и hairclip может с ними быть, или например crying + crying with eyes open. Кароч это уже непосредственно тема теггинга данбуру артов, лол.
Понял, из опыта можешь сказать что лучше, описывать подробно группой тегов или стоит оставить один простой, чтобы в него и насосало все изменения при тренинге?
Кстати, нужно ли всё-таки проставлять теги по типу full body, cowboy shot, close-up, или не стоит?

> Оба в этой лоре есть
Не, я сам эту натренил, это не твоя лора, но с твоими параметрами, чуть изменёнными.

> А как вызывал? Если по xiao то это уже считай новый тег, который с нуля обучался
Да, так и вызывал 1boy, xiao. Вот с уточнением геншина уже куда лучше всё на пикриле1, пик2 попробовал без лоры.

> Однако в моем понимании все просто - надо убрать все лишнее из пикч для тренировки, а все остальное что там осталось - плотно затегать не создавая новые сущности. Хуй знает как высрать это из моего мозга, наверное можно сказать что подробное тегирование сродни дифференциации. Я уже хочу спать и хз как вменяемо объяснить.
Не шизу получается, а заранее ответ на мой вопрос выше.

> Я в основном пользуюсь костылем от кои, а не нативной херней от ватоматика, когда ставишь, то в хуплоте появляется пик 4, это намного удобнее имхо.
Я уже нашёл, просто версия старая аддишионал нетворков была.

> больше пикч было бы хорошо
Вот тут бы пояснение не помешало, чего добавить. Читал как анон выше советовал добавлять в датасет разные ракурсы, там клоуз-апы, ковбой шоты, фулл боди, фром бехайнд. В разной одежде, с разными фонами, в разных позах. Ты для своих лор как обычно собираешь датасет?
Аноним 01/02/23 Срд 13:25:07 #27 №94425 
>>94387
Красиво, тоже записал в todo
Аноним 01/02/23 Срд 13:32:09 #28 №94433 
>>94410
Воровать чужое хочется над чем человек долго старался?
Аноним 01/02/23 Срд 13:47:49 #29 №94452 
>>94340
Еблю в соски.
Аноним 01/02/23 Срд 13:51:10 #30 №94458 
>>94433
Да, хочу картиночки в его стиле, вопросы? Мне ещё фкейщик понравился, собираю на его стиль датасет, чекаю тред в па постоянно.
Аноним 01/02/23 Срд 13:51:57 #31 №94459 
Ну вот зайдешь в /pa/, а там 3дбляди какие-то, кривульки, скетчи, нихуя интересного, а вот на его работы посмотришь, так сразу мастерпис видишь.
Аноним 01/02/23 Срд 14:03:27 #32 №94471 
weights.jpg
different-seeds.jpg
>>94088 →
Я другой анон, но обучения ради запилил лору на твоём датасете, тк лень собирать свой. Вот результаты, если надо могу скинуть лору.
Аноним 01/02/23 Срд 14:24:18 #33 №94503 
Делаю псевдогайд но придется мотать, обрезать лень, тут проблемы с арендой гпу
Аноним 01/02/23 Срд 14:26:11 #34 №94507 
>>94413
> Подсосёт именно в этот тег
Ну типа
> заменяя его веса новыми
Не могу ни подтвердить, ни опровергнуть это
> но почему у кого нибудь вообще может возникнуть желание использовать их по отдельности
У меня теггеры часто обсираются мне в штаны, поэтому приходится чекать за ними и ручками проставлять, идти на данбуру, искать похожие ракурсы итд и тащить оттуда подходящие теги.

> из опыта можешь сказать что лучше, описывать подробно группой тегов или стоит оставить один простой, чтобы в него и насосало все изменения при тренинге?
Я таким исследованием не особо занимался, но по наблюдениям имхо лучше проставлять все. У меня иногда бывает что нужное не вызывается или плохо вызывается по одному тегу, тогда ставлю второй и экспериментирую. Правда в таком случае уже могут идти вопросы к качеству тренировки или датасета. По сути если у тебя одновременно два тега на объект в описании, то и тренятся они вместе, ты можешь вызывать нужное двумя токенами, правда разница между ними будет зависеть от начальных весов модели для них, ну и собсна еще от того насколько лора перекрывает модель.

> Кстати, нужно ли всё-таки проставлять теги по типу full body, cowboy shot, close-up, или не стоит?
Офк нужно, это же основные теги композиции считай, с ними то и в промте работа частая получается, хотя вместо того же фулбади можно костыльно получить похожий эффект, прописав в промте обувь.

> я сам эту натренил
Поне

> Не шизу получается, а заранее ответ на мой вопрос выше.
Не поне

> Читал как анон выше советовал добавлять в датасет разные ракурсы, там клоуз-апы, ковбой шоты, фулл боди, фром бехайнд. В разной одежде, с разными фонами, в разных позах
Если для сяо, то это был я. Ну это правильно собсна. Представь например что тебе нужно сделать 3д модель объекта из фоток, тебе для этого нужно обфоткать его с разных сторон, со сдвигом в 30 градусов по осям, при камере, привязанной к объекту, например. Сделать этакую сферу. Только тут еще нужно "сфоткать" объект вблизи, что бы нейронка поняля детали на клоз апе, и вдали, типа вайд шот или фулл бади. Три сферы считай, примерно так наверное и будет выглядеть идеальный на самом деле хуй знает датасет, Для человека еще нужны разные позы, что бы ненароком не приклеить натрененную лору к какой-нибудь Т-позе.

> Ты для своих лор как обычно собираешь датасет?
Начальный датасет я собираю от фонаря честно говоря, штук 25 пикч какой-нибудь херни, которая понравилась и которая мб теоретически подойдет, треню, щупаю результаты, потом корректирую или меняю датасет но чаще просто забрасываю лору, лол
Для черновых вариантов не очень хочется ебаться так сказать.
Аноним 01/02/23 Срд 14:31:36 #35 №94511 
>>94458
Аморально, тебе так не кажется?
Аноним 01/02/23 Срд 14:34:25 #36 №94520 
1558649721807.png
>>94511
Аноним 01/02/23 Срд 14:37:01 #37 №94522 
Зачем шиза кормите?
Воровать стили авторов надо усиленно, через это воровство другие аноны узнают об этом авторе и заценят его работы, грубо говоря, вы своим воровством пропиарете автора, от чего выиграете и вы и автор.
Аноним 01/02/23 Срд 14:39:43 #38 №94527 
>>94522
Я под каждым постом на пиксиве с ворованным стилем оставляю ссылку на пиксив автора. Ну и на дваче тоже сообщаю, если кому это интересным становится.
Аноним 01/02/23 Срд 14:41:15 #39 №94530 
>>94527
Добра тебе.
Аноним 01/02/23 Срд 14:42:19 #40 №94532 
>>94522
Ты подписывать автора у которого своровать собрался прям а картинке? Не думаю. Ты просто ставишь художника в положение в котором он вынужден ДЕЛИТЬСЯ. Хотя его и не спрашивают. Но выходит что делится он со всякими додиками, ведь они такие неумелые,обделенные,юродивые, с ними надо делиться своими трудами, чтобы и они так смогли.
Аноним 01/02/23 Срд 14:43:42 #41 №94535 
>>94458
>Мне ещё фкейщик понравился
Fkey? Он очень классный. Еще давно пытался добавлять теги с ним, но сетка не знает. Будет круто, если выйдет натренить его стиль.
Аноним 01/02/23 Срд 14:45:33 #42 №94537 
А если я руками нарисую в чьем-то стиле, это тоже будет воровство? Пиздец жирнота.
Аноним 01/02/23 Срд 14:45:49 #43 №94538 
>>94532
>ДЕЛИТЬСЯ
Да, большинство художников не хотят развивать искусство, они хотят нахапать под себя, нагрести и сидеть на этой куче деградировать. Как же хорошо визжит мусор с патреона, который говно гнал и получал за это бабло после появления нейросетей, ведь этот мусор развивать ничего не хочет, он хочет только зарабатывать.
Аноним 01/02/23 Срд 14:47:36 #44 №94540 
>>94537
Нет, это другое, вы не понимаете
Аноним 01/02/23 Срд 14:47:38 #45 №94541 
tmpp1kpgt94.png
tmphlfs8ffd.png
tmpd7kyb5z3.png
tmp3xzsd5lm.png
>>94325 →
>Принято
Благодарю.
Когда пытаешься сделать нужный образ одним только описанием, выходит так себе... Но с кастомной лорой этот промпт сделает норм.
Аноним 01/02/23 Срд 14:48:39 #46 №94545 
image.png
А зачем художники воруют у нейросетей?
Аноним 01/02/23 Срд 14:49:20 #47 №94547 
>>94535
>Fkey
https://www.pixiv.net/en/users/89402567
Нет, я про этого пчела с нуботреда. Фкейщик - его кликуха в нуботреде /pa/.
Аноним 01/02/23 Срд 14:50:13 #48 №94549 
>>94538
Нейросети с воровством стиля конечно то еще развивательство. Мощный вклад. Художники и без ваз разберутся как развивать данную сферу.
Аноним 01/02/23 Срд 14:51:51 #49 №94551 
>>94547
Он получается подражатель fkey, поэтому так его называют? Не понимаю, но его стиль выглядит немного другим.
>>94549
Ты можешь мне прояснить? Ты же с /pa/, знаешь ведь всех конфоблядей там?
Аноним 01/02/23 Срд 14:51:56 #50 №94552 
tmpfx2ka3g6.png
>>94527
Ворую только у классиков. Думаю что им всё равно.
Аноним 01/02/23 Срд 14:54:38 #51 №94555 
image.png
>>94549
Это ты порвался, дебил бля? Репортнул твой пост в ответ, чмо.
Аноним 01/02/23 Срд 14:55:38 #52 №94559 
можете скинуть человеческий гайд по колабу для лоры?
Аноним 01/02/23 Срд 14:56:15 #53 №94561 
>>94538
Главное - демократизация. Чтоб для каждого была своя ниша: и для тех кто готов платить, и для тех кому платят, и для тех кому нужно получать рисунки бесплатно (для меня).
Аноним 01/02/23 Срд 14:59:51 #54 №94566 
Кто-нибудь итт или на форче, может сделать максимально упрощенный колаб скрипт для лоры? Чтоб там были проставлены самые оптимальные (универсальные, эффективные) параметры, чисто чтоб скинуть туда файлы и трейнить одним кликом.
Аноним 01/02/23 Срд 15:03:17 #55 №94574 
>>94507
> Не поне
Да я просто пост не дочитал до конца, начал реплай строчить, потом увидел что ты придерживаешься детального описания датасета и вопрос вообщем-то отпал, но искать его в простыне текста не стал, чтобы удалить.

> Если для сяо, то это был я.
Не, я про анона который исследованиями делился в прошлым треде говорю.

Ну насчёт аниме тяночек я вообщем то понял, а что насчёт стилей? Это типо тренировка тега с нуля будет, даже если там есть персонажи в датасете, тут ведь полюбому есть свои тонкости, самое очевидное что приходит на ум, это то что такое тренить нужно дольше?
А с реализмом как быть? В гайде написано, что лучше придерживаться сд стиля промптов и первого клипа. Как сд стиль будет перезаписывать это - a portarait of a girl standing in the middle of the street я вообще мало себе представляю, учитывая специфику тренировки данбору тегов.
Аноним 01/02/23 Срд 15:03:46 #56 №94575 
>>94566
Можешь заюзать гуи с дефолтным файлом настроек, который надо будет создать. Ну а параметры спроси у 1060, или предыдущий тред перечитай
Аноним 01/02/23 Срд 15:04:04 #57 №94576 
>>94340
Хитровыебаный стиль можно сделать и без лоры.
Аноним 01/02/23 Срд 15:05:31 #58 №94581 
>>94575
В GUI лора ваще не ставится, он какой-то багнутый когда запускаешь --share. Или апдейтом сломали, хз.
Аноним 01/02/23 Срд 15:08:11 #59 №94588 
Я читаю в дискорде англо сервер художников, орагнизовавших сопротивление против ИИ.
Юзеры постят свои рисунки с бодипозитивными персонажами. Про нас говорят, типа, убить пидорасов! Засудить, и всё такое прочее.
Аноним 01/02/23 Срд 15:10:48 #60 №94593 
>>94576
нет
Аноним 01/02/23 Срд 15:11:19 #61 №94594 
>>94581
Извини, я жопой прочитал, думал просто скрипт Лоры и про гуи 1060 написал. Алсо --share не требует --api там?
Аноним 01/02/23 Срд 15:12:14 #62 №94595 
>>94367
>конченый
Как будто я человека убить собираюсь. Ты там совсем ку-ку?
Аноним 01/02/23 Срд 15:12:36 #63 №94597 
ВСЁ ОХУЕННО ПОЛУЧАЕТСЯ
@
РЕШИЛ СДЕЛАТЬ ГАЙД
@
ГПУ НЕ АРЕНДУЕТСЯ
@
СЕТКА НЕ ОБУЧАЕТСЯ
Аноним 01/02/23 Срд 15:13:11 #64 №94599 
>>94559
ну плис, а то я читаю шапочные гайды и охуеваю с формулировок
Аноним 01/02/23 Срд 15:13:39 #65 №94601 
.png
Пиздец, собрал нормальный датасет, почистил от мусора, обрезал
> loss>0.2
Аноним 01/02/23 Срд 15:14:04 #66 №94604 
>>94594
--share ето параметр запуска, когда юзаешь на Kaggle - чтоб разместить app на градио. Там еще нужно делать пароль, иначе непременно какой-нибудь чёрт отыщет брутфорсом и нагенерит тебе расчлененки.
Аноним 01/02/23 Срд 15:22:00 #67 №94616 
>>94601
Объяснишь про лосс, что это такое? Какие значения можно считать приемлемыми и почему может происходить подобное, как я понял неправильное отклонение в какую-то сторону?
Аноним 01/02/23 Срд 15:23:12 #68 №94622 
>>94616
Здрасьте приехали.
Лосс это значит, что чем больше, тем хуже.
Аноним 01/02/23 Срд 15:23:50 #69 №94623 
>>94616
Читай шапковые пики.
Аноним 01/02/23 Срд 15:28:12 #70 №94633 
>>94616
Лосс это различие между искусственно зашумленным тренировочным образцом и обесшумленным на один шаг с помощью unet тоже изображения с шумом, но большим. Чем больше значение - тем больше различие. Обучение это и есть уменьшение лосса, сеть учится деноизить изображение, ориентируясь на датасет. Сеть постоянно подстраивается под лосс и пытается скорректировать свой алгоритм, это называется градиент. По-хорошему лосс должен падать с течением обучения
Приемлимые хз, ну скажем 0.08-0.15
Аноним 01/02/23 Срд 15:29:21 #71 №94636 
image.png
О прикол, делиберейт абеллу денжер без лор всяких нарисовал.
Аноним 01/02/23 Срд 15:30:18 #72 №94638 
>>94636
А технотред тут причем?
Аноним 01/02/23 Срд 15:30:33 #73 №94639 
>>94638
ну хотел лору пообучать
Аноним 01/02/23 Срд 15:36:45 #74 №94645 
>>94623
В том то и дело, там нету ни то что такого >>94633 годного объяснения, а вообще хоть какого то. Поискал по loss в ссылках на гайды обучения, может не так искал
Аноним 01/02/23 Срд 15:38:30 #75 №94647 
>>94623
А, пики, хера се я слепой, лол, понял тебя, полез в ссылки не смотря на картинки
Аноним 01/02/23 Срд 15:42:05 #76 №94655 
1527417396865.png
>>94616
Спустя столько ответов не видно единственно верный, теряете дух авантюризма.
Аноним 01/02/23 Срд 15:42:36 #77 №94657 
>>94636
Лучше бы Реми Лакруа, а то рановато она свинтила из профессии.
Аноним 01/02/23 Срд 15:45:08 #78 №94662 
Ох ебать, да она вернулась, оказывается. Вот это я проморгал конечно...
Аноним 01/02/23 Срд 16:49:41 #79 №94820 
1644545457370.png
1623531031646.png
1593128483880.png
1647573732389.png
>>94574
> а что насчёт стилей?
А они в среднем по больнице легче тренятся.

> Это типо тренировка тега с нуля будет
Зависит от того присутствует ли автор стиля на бурах или нет, насколько он популярен, и реагирует ли на него модель соответственно.

>это то что такое тренить нужно дольше?
Сложно сказать, но обычно стиль схватывается быстрее персонажа.

>тут ведь полюбому есть свои тонкости
Это наверное не у меня спрашивай, опыта тут маловато, да и я до сих пор не стартанул нормальную тренировку стиля нихея

> А с реализмом как быть?
Тут не знаю, я только пару версий кратоса из год оф вар на реалистик моделях пробовал тренировать, вышло очень всрато и я забросил.


>>94541
Пока что словил перетрен с сильным прилипанием стиля, приколы с полями прилагаются. У него лучше >>94471
Надо поиграться с параметрами обучения.
Алсо, я забыл спросить, на какой модели тренить и что ты хочешь получить? Я так понимаю в стиле твоих пикрилов, но в одежде имари?
Алсо, возможно скоро отвалюсь спать
Аноним 01/02/23 Срд 17:08:59 #80 №94875 
>>94820
>
Сложно сказать, но обычно стиль схватывается быстрее персонажа.
у меня наоборот
3200 на перса шагов
6400 на стиль
Аноним 01/02/23 Срд 17:42:23 #81 №94947 
Два месяца меджирую трейны и понял самое главное: главное найти понравившуюся тебе базу и юзать оттуда текстоэнкодер, то есть base_alpha. Это как минимум процентов 80 качественного мерджа под свои вкусы. Ну и чтобы модели были либо разными трейнами, либо юзали разные трейны если это миксы. Сами веса инпута и аутпута можно вообще по шахматке распологать, срединный блок в 0.5 по дефолту. Ну и клипфиксинг конечно бустит до 100 качественного микса. Делебирейт кстати как база кайфовый. Такие дела.
Аноним 01/02/23 Срд 17:45:07 #82 №94953 
дайте ссылку на форчановский репо с лорами если есть плес
Аноним 01/02/23 Срд 17:46:31 #83 №94956 
>>94953
https://rentry.org/hdglorarepo
Аноним 01/02/23 Срд 17:47:43 #84 №94958 
>>94956
одно аниме пиздец просто
Аноним 01/02/23 Срд 18:02:35 #85 №94978 
>>94471
Вышло супер. Только челка не та, но можно фиксить уточнением в промпте. Залей куда-нибудь?

>>94820
Тоже скинь, костюм здесь классно выходит
Аноним 01/02/23 Срд 18:04:39 #86 №94980 
>>94820
>на какой модели тренить и что ты хочешь получить? Я так понимаю в стиле твоих пикрилов, но в одежде имари?
Персонажа. Прическу и желательно, пропорции лица. Одежду лучше чтоб можно было выбирать любую или ее отсутствие.
Аноним 01/02/23 Срд 18:17:28 #87 №94991 
>>94056 →
>>94325 →
>>94413

Круто, а что за теги ты так чекаешь? В первых двух одежду вроде, а третье что-то неясное.
Аноним 01/02/23 Срд 18:35:38 #88 №95006 
Есть три самые популярные модели:
Anything v3 и v4 - самый усредненный стиль,
Orangemix - детализированный полутрехмерный стиль, тягучие формы словно пластилин,
Counterfeit - многого сказать не могу, но выглядит как дженерик.

Судя по всему, Anything v3 оптимальный вариант для трейнинга лоры. WD и HD хуйня, Grapefruit и Poison параша, тринарт специфичен
Аноним 01/02/23 Срд 18:40:11 #89 №95013 
cards-kit.png
Это думаю все таки сюда, короче заебавшись копаться в промтах я начал искать способ их удобно хранить.
Вариантов обнаружилось много, но наиболее удобным оказалось использование программы для написания сценариев, КИТ Сценарист.
Плюсы, бесплатно. Пропты хранятся на сорт оф стене, в виде карточек.
У карточек ясно читаемый заголовок описание, видно содержимое, можно структурировать и размечать разными цветами, размеры текста внутри карточки неограничен.
Аноним 01/02/23 Срд 18:43:15 #90 №95020 
>>95013
Спасибо, накачу эту мокропиську. Раньше тупо делал в excel, а также применял вайлдкарды.
Аноним 01/02/23 Срд 18:57:55 #91 №95052 
Продублирую вопросы сюда пожалуй.
>>95005 →
>>95009 →
Аноним 01/02/23 Срд 19:23:07 #92 №95094 
>>95052
Так а в чём вопрос
Аноним 01/02/23 Срд 19:36:01 #93 №95104 
>>95094
Почему на 512х512 такая производительность охуенная?
Если я в img2img планирую автоматик использовать, то имеет ли смысл тесты делать в img2img, а не в txt2img?
Аноним 01/02/23 Срд 19:40:09 #94 №95109 
>>95104
> Почему на 512х512 такая производительность охуенная?
Ну так тренили ж на таком разрешении
> Если я в img2img планирую автоматик использовать
Не понял предложения
Аноним 01/02/23 Срд 19:56:13 #95 №95141 
>>95109
>Ну так тренили ж на таком разрешении
Какая нахуй разница на чем тренили?
>Не понял предложения
Ты глупый?
Аноним 01/02/23 Срд 20:14:08 #96 №95167 
>>95141
> Какая нахуй разница на чем тренили?
Ну блять, есть же некоторая закономерность между тем, на каком разрешении сеть обучали и на каком разрешении максимальная производительность? М?
> Ты глупый?
Да, я глупый. Объясни пожалуйста как в img2img использовать автоматик, а то я только наоборот умею
Аноним 01/02/23 Срд 20:30:12 #97 №95188 
>>95167
>есть же некоторая закономерность
С чего бы ей быть? Если ты всю жизнь спал на старой ржавой советской кровати с пружинами, ты внезапно откажешься от какого-нибудь матраса с латексным наполнителем?
>только наоборот умею
Как часто в автоматике наоборот?
Аноним 01/02/23 Срд 20:47:40 #98 №95206 
>>94433
А у кого и что убавилось?
Аноним 01/02/23 Срд 21:32:39 #99 №95283 
>>95206
Рису что у художника убавится славы восхищения заработок зрители.
Аноним 01/02/23 Срд 21:34:01 #100 №95285 
>>95283
>славы восхищения зрители
Если он не может сделать лучше, чем я за 5 минут в генераторе, значит он этого не заслуживает.
>заработок
Я не продаю генерации.
Аноним 01/02/23 Срд 21:41:05 #101 №95298 
какой колаб нормально колабит щас?
Аноним 01/02/23 Срд 21:51:57 #102 №95310 
Выходит >>94547
ворует у https://www.pixiv.net/en/users/1197484 ?

Ух негодник!
Аноним 01/02/23 Срд 21:54:26 #103 №95313 
>>95285
Ты сделай лучше без его рисунков, и посмотрим что заслужишь ты.
Аноним 01/02/23 Срд 21:55:46 #104 №95315 
>>95313
>Ты сделай лучше без его рисунков
Почему? Художники ведь не с закрытыми глазами учатся рисовать. Вполне себе пиздят друг у друга стили.
Ну не зря же стиль нельзя закопирайтить.
Только больной мозг до такого бы додумался.
Аноним 01/02/23 Срд 21:59:58 #105 №95318 
>>95315
>Вполне себе пиздят друг у друга стили.
Тоже не айс но человек хотябы пользуется своей нейросетью в голове и конкуренция происходит на биологическом уровне что чуть более справедливо. Если один художник другого обскакал чтож он более одарен генетически. Но обычно такое копирование стиля не поощряется и копирующий художник выглядит как дешевка да и понятно что делается такое в коммерческих целях, а для души он рисует в своем стиле.
Аноним 01/02/23 Срд 22:00:58 #106 №95319 
>>95318
>чуть более справедливо
Мир не справедлив.
Аноним 01/02/23 Срд 22:02:18 #107 №95322 
>>95319
Да, но с чего мне нужно к этому положительно или снисходительно относиться?
Аноним 01/02/23 Срд 22:03:20 #108 №95326 
>>95322
С этим нужно смириться. И не ставить себя в невыгодное положение ради несуществующей справедливости.
Аноним 01/02/23 Срд 22:05:27 #109 №95334 
>>95326
С чем еще смириться? Нет, я буду оскорблять всех наглецов что делают такое, и многие люди тоже.
Аноним 01/02/23 Срд 22:06:44 #110 №95336 
>>95334
Ты бы лучше с реальным неравенством боролся, а не в интернете за богатых патреонособак копротивлялся...
Аноним 01/02/23 Срд 22:14:16 #111 №95340 
>>95336
Они свои патреоны заслужили честным трудом.
Аноним 01/02/23 Срд 23:39:39 #112 №95452 
Да как нормально тренить эту лору ебучую блять.
Аноним 01/02/23 Срд 23:39:57 #113 №95454 
Стикер
>>95452
Аштрисет сука.
Аноним 01/02/23 Срд 23:42:12 #114 №95462 
>>95454
Сегодня пытался натренить стиль, писал видео в обсе два часа, нихуя не вышло за 7 попыток, стиль не подхватился. На этом моя карьера лораёба ВСЁ
Аноним 02/02/23 Чтв 00:17:58 #115 №95522 
>стиль это легко))
>легкие реквесты не предлагать))
>ща натреню за пару мин)
>БЛЯ, да как тренить эту лору, СУКА
Лицо?
Аноним 02/02/23 Чтв 00:19:33 #116 №95524 
Стикер
>>95522
>лицо
Аноним 02/02/23 Чтв 00:19:50 #117 №95525 
>>95315
Душевнобольные хуйдодики и не до такого додумаются, они бы и трусы твои закопирайтили, лишь бы баблишко полцчать
Аноним 02/02/23 Чтв 00:20:01 #118 №95526 
>>95462
> стиль это легко))
Пиздабол
>>95522
> ща натреню за пару мин)
Пиздабол х2
> Лицо?
В порядке. Завтра сделаю её.
Аноним 02/02/23 Чтв 00:23:58 #119 №95532 
>>95526
хопиум
Аноним 02/02/23 Чтв 00:26:46 #120 №95534 
>>95532
Скорее копиум, у меня никогда так тяжело лора не давалась. Чтобы лосс стабильно был выше 0.2 на всех эпохах, это пиздец
Я даже не думал что такое теоретически возможно, ладно бы там каша какая-то невнятная была, хуй с ним, так лора просто сказала НЕТ Я НЕ БУДУ РИСОВАТЬ В ЭТОМ СТИЛЕ, и всё тебе нахуй
Аноним 02/02/23 Чтв 02:00:50 #121 №95613 
Как натренить лору на какую-нибудь позу персонажа?
Аноним 02/02/23 Чтв 03:22:03 #122 №95641 
1675297320635.png
>>95639 →
Аноним 02/02/23 Чтв 04:56:59 #123 №95691 
>>94991
Прочитай ветку диалога, мы там с аноном обсуждали разные способы вызова лор, просто 1boy xiao, 1boy xiao \(genshin impact\) и третий с кучей уточняющих тегов, ну и сравнение без лор ко всему этому делу ещё. Я тоже натренил по твоему датасету чтобы попробовать получить примерные результаты.

>>94978
> Вышло супер. Только челка не та, но можно фиксить уточнением в промпте. Залей куда-нибудь?
https://dropmefiles.com/7OuVR
Аноним 02/02/23 Чтв 05:11:05 #124 №95696 
>>95691

А, так ты другой анонч! Какие вы крутые.
Аноним 02/02/23 Чтв 05:58:53 #125 №95715 
.png
.png
Анончик, смотри как оно на pastelMix выглядит! Огонь! Пользуюсь 11й версией.
Аноним 02/02/23 Чтв 06:09:26 #126 №95717 
>>95715
Ты по мальчикам? Какой же он милый на второй пикче
Аноним 02/02/23 Чтв 08:07:41 #127 №95747 
.png
>>95717

Если оно милое, то его пол без разницы.
Аноним 02/02/23 Чтв 08:50:02 #128 №95762 
>>95641
Норм, спасибо
Аноним 02/02/23 Чтв 09:27:11 #129 №95799 
>>95613
1. Собрать датасет из одинаковых поз
2. Натренить
Simple as that
Аноним 02/02/23 Чтв 09:46:37 #130 №95821 
image.png
Поясните пожалуйста, за что отвечает "Copy config from" и там четыре варианта ответов. Что именно он копирует и что стоит выбирать при мердже с вычитанием и сложением?
Аноним 02/02/23 Чтв 09:56:42 #131 №95830 
>>95821
Скорее всего yaml файл который лежит рядом с моделью. Вряд ли есть применение для мерджа sd 1.x моделей
Аноним 02/02/23 Чтв 10:57:43 #132 №95901 
Написать гайд по мерджу по весам для даунов под задачу "получение любого стиля с базой на релистик модели без ошибок и без потери качества рук/ебл/etc"?
Аноним 02/02/23 Чтв 10:59:58 #133 №95906 
>>95901
ДА! В шапке есть ссылка на гайд. "Гайд по кручению весов моделей". Он пустой. Если готов взяться, редактируй. Пароль 2ch. Если боишься что угонят, меняй пароль. Тред будет тебе благодарен, родина тебя не забудет.
Аноним 02/02/23 Чтв 11:15:00 #134 №95916 
Гайдецкие нашел по Лоре на форче:

https://rentry.org/lora-training-science
https://rentry.org/beginners-lora-training-params
https://rentry.org/lora-tag-faq
https://rentry.org/LazyTrainingGuide

Нашел пару советов хороших, наверное я зря так боялся трогать network_alpha, типа что это "не тру". Это настройка ведь значительно замедляет обучение. Я бы до пре0.4.0 значений конечно не загибал (было раньше network_dim = network_alpha), но 12.5-50% от network_dim однозначно сегодня попробую.
Я иду за тобой, ебаный каджатони!
Аноним 02/02/23 Чтв 11:40:45 #135 №95945 
>>94300 (OP)
Так и не разобрался в версии 0.4.0
Аноним 02/02/23 Чтв 11:43:10 #136 №95949 
>>95945
Что непонятно
Аноним 02/02/23 Чтв 11:44:09 #137 №95950 
>>95949
Не работает нихера
Аноним 02/02/23 Чтв 12:00:06 #138 №95968 
>>95950
Блядь, заебали. Хули я должен вытягивать информацию? Гриды по эпохам, настройки, датасет?
Аноним 02/02/23 Чтв 12:06:53 #139 №95975 
>>95916
А разве нетворк альфа это не 0 или 1? Я думал чисто вкл или выкл опция.
Аноним 02/02/23 Чтв 12:10:38 #140 №95982 
>>95975
Ноуп. Она используется в формуле (network_alpha / network_dim), а это значение в свою очередь применяется к выходных весам слоев (умножает). Соответственно чем меньше альфа, тем меньше веса. При network_alpha = network_dim выходные веса не меняются, но это может привести к ошибкам округления и нулевым весам слоев, что не очень хорошо. Но на единице походу пиздец хуйня у меня выходит в большинстве случаев. Нужно что-то среднее
Обновлю гайд как-нибудь
Аноним 02/02/23 Чтв 12:29:45 #141 №96004 
>>95982
Было бы неплохо, давно ты гайд не обновлял
Это объясняет почему пришлось ебаться с лернинг рейтом после 0.4.0
> If you've baked loras before alpha was added then you were by default using dim = alpha (128/128, 64/64, etc)
Если сейчас поставить также 128/128, будет очередная лора и нулевыми тензорами, но старый лр из гайда будет нормально работать?
А дим уменьшенный почему работает, данных мало и все помещаются в выделенное место? До 0.4.0 16 или 32 дим работал вообще?
Аноним 02/02/23 Чтв 12:40:38 #142 №96034 
>>95968
у тебя у самого работает через жопу, челяба
Аноним 02/02/23 Чтв 12:41:17 #143 №96036 
>>95982
>пиздец хуйня у меня выходит
но все работает, да, кохьялахта?
Аноним 02/02/23 Чтв 12:44:41 #144 №96047 
>>96004
> Было бы неплохо, давно ты гайд не обновлял
> Это объясняет почему пришлось ебаться с лернинг рейтом после 0.4.0
Да, всё верно. Я может про нетворк альфу не сильно расписал, но скрипт сразу же обновил и в скобках указал, что если хотите как раньше, то ставьте альфу как дим
> Если сейчас поставить также 128/128, будет очередная лора и нулевыми тензорами, но старый лр из гайда будет нормально работать?
Да. Но как я понял нулевые тензоры не такая уж и проблема, учитывая какие результаты мы и я получали. Я бы смотрел значения альфы 8-64 для дим 128, но я юзаю дим 16-32, поэтому буду смотреть 4-16 альфы где-то
> А дим уменьшенный почему работает, данных мало и все помещаются в выделенное место?
Я хуй знает что там под капотом, но вот то что ты написал я так думаю сейчас. Тесты малого дима мне понравились. И занимаемое место
> До 0.4.0 16 или 32 дим работал вообще?
Да, работал конечно. В официальном репо лоры я вообще не видел чтоб кто-то выше 16 лез вообще
>>96034
Открой лора репо, там 90% лор мои. Качай, тестируй
>>96036
Всё работает, но на одном датасете не сработало, и я пока не знаю почему. Не факт что из-за альфы, может протегано хуёво
Аноним 02/02/23 Чтв 13:35:57 #145 №96113 
>>95691
Ща заценим. Не понятно на какой модели трейнилась лора, но для оранжа должно подойти.
Аноним 02/02/23 Чтв 14:47:14 #146 №96227 
Ну дела. Оказывается в кернелах не найдешь рабочий скрипт даже чтоб просто загрузить готовую модель. То ли поддерживаются в web UI нативно, то ли нужен аддон. Китайцы запилили какой-то специальный ноутбук для лоры, надо попробовать, хотя выглядит криво.
Аноним 02/02/23 Чтв 15:12:01 #147 №96294 
1060-анон, тебе там лисофаг хочет задонатить
Аноним 02/02/23 Чтв 15:17:57 #148 №96306 
>>96294
Что куда и зачем
Аноним 02/02/23 Чтв 15:19:46 #149 №96309 
image.png
image.png
>>96306
Аноним 02/02/23 Чтв 15:21:06 #150 №96312 
image.png
>>96309
самое важное забыл
Аноним 02/02/23 Чтв 15:22:54 #151 №96321 
>>96309
Забавно. Да мне и так нормально, спасибо
Аноним 02/02/23 Чтв 15:24:19 #152 №96324 
>>96321
Что думаешь по этой штуке? https://github.com/chavinlo/sda-node
Очередной жирный вброс?
Аноним 02/02/23 Чтв 15:27:33 #153 №96330 
.png
>>96324
> Очередной жирный вброс?
Да не, почему, такое возможное в теории. И судя по тому что у них была демка, то и на практике. Там же вон даже бумажку сделали пару месяцев назад, где описывается как за 8 шагов получали готовое четкое изображение
Аноним 02/02/23 Чтв 15:29:05 #154 №96332 
image.png
>>96324
Жопят, уродцы
Аноним 02/02/23 Чтв 15:31:10 #155 №96338 
>>96330
>Да не, почему, такое возможное в теории. И судя по тому что у них была демка, то и на практике.
Возможно то но возможно, только крайне жаль, что не будет применяться повсеместно.
Аноним 02/02/23 Чтв 15:32:05 #156 №96341 
>>96332
Да, их там вроде на реддите захейтили, что они такие ебать благородные, такую хуйню в народ пускают, но почему-то не сделали расширение для автоматика или другого фронтенда
Аноним 02/02/23 Чтв 16:48:57 #157 №96537 
Вроде как получилось путем trial and error сделать ебучий стиль, видос сделал, но он больше часа. Нужно кому?
Аноним 02/02/23 Чтв 16:59:20 #158 №96560 
Не, наверное лучше переделаю
Аноним 02/02/23 Чтв 17:12:18 #159 №96586 
hjr.jpg
Лора - моё почтение... Жаль я не умею так трейнить
Аноним 02/02/23 Чтв 17:22:27 #160 №96604 
>>96537
мне нужно, плюс нужен файл скрипта
Аноним 02/02/23 Чтв 17:24:43 #161 №96608 
Кто здесь принимает реквесты?
Аноним 02/02/23 Чтв 17:33:06 #162 №96625 
>>96604
Я переделываю видос, делаю намного короче. Скрипта не будет, скрипт в гайде. Настройки только будут
Аноним 02/02/23 Чтв 17:45:06 #163 №96652 
>>96608
++, у меня тоже есть датасетик
Аноним 02/02/23 Чтв 17:50:27 #164 №96662 
>>96608
>>96652
Вы не охуели часом?
Аноним 02/02/23 Чтв 17:52:57 #165 №96666 
>>96662
поч
Аноним 02/02/23 Чтв 17:53:39 #166 №96669 
Бля, он даже гету не хочет лору натренить, посмотрите на него. На 4090 лорка 5 минут печется, а ему похуй...
Аноним 02/02/23 Чтв 17:53:39 #167 №96670 
>>96608
>>96652
Зависит от того что за персонаж/стиль + качество датасета, впустую время тратить не хочется
Аноним 02/02/23 Чтв 17:55:36 #168 №96676 
image.png
>>96670
стиль вот
https://www.pixiv.net/en/users/2128441
хз как качество показать
Аноним 02/02/23 Чтв 18:00:04 #169 №96684 
А может кто затрейнить персонажа? Принцесса-рыцарь Лилия

Качество спорное, потому что низкий бюджет и отсутствие фан-арта. Но сет хорошо проработан, вечером скину если есть желающие.
Аноним 02/02/23 Чтв 18:00:27 #170 №96685 
>>96676
Качество в плане обрезаны рамки черные/белые, по возможности обрезаны/незаметно замазаны надписи, разрешение не 256х256, текстовики с тегами полноценными
Аноним 02/02/23 Чтв 18:01:44 #171 №96687 
>>96685
Ну сам посмотри
ща кину на файлопомойку
Аноним 02/02/23 Чтв 18:03:00 #172 №96690 
>>96676
У тебя прямо на скрине RWBY текст на пикче, очисти от такого, как анон и сказал и я могу потренить
Аноним 02/02/23 Чтв 18:05:07 #173 №96696 
>>96690
это единственная такая пикча, + там видна пикча с диалоговым видно
на этом все, я сейчас замажу и кину в тред, датасет скоро будет, дальше сам решишь
Аноним 02/02/23 Чтв 18:23:37 #174 №96720 
78795350p0.png
67198579p0.jpg
>>96696
А нет, не все, он практически каждую пикчу подписывает свою. Хз, удовлетворительно это для тебя или нет, сам решай.
https://dropmefiles.com/JFsFM
Аноним 02/02/23 Чтв 18:40:18 #175 №96775 
>>96720
Для тебя удовлетворительно ли если в последствии тебе может выдаваться текст и подпись с такой лорой? Пройдись просто в фотошопе хилинг тулом по всем его подписям, они настолько маленькие что их легко затереть, скинул не пофикшенную хуйню кстати. Зачем такой длинный тег в несколько токенов в начале, почему не использовал однотокенный?
Аноним 02/02/23 Чтв 18:46:41 #176 №96793 
>>96775
>Для тебя удовлетворительно ли если в последствии тебе может выдаваться текст и подпись с такой лорой?
да
>>96775
>почему не использовал однотокенный
не вижу особого смысла
Аноним 02/02/23 Чтв 18:47:42 #177 №96800 
https://drive.google.com/file/d/1xI30rKT6CMAHVw8mSY9NZqca2yYkEINT/view?usp=share_link (пока оно там обрабатывается хуё-моё)

Ну кароч сделал я какой-то псевдогайд, на запись ручки тряслись, делал ошибки. С 17:17 по 25:14 искал рабочий гпу, можно скипать. На 28:30 вспомнил, что забыл стереть тег автора из файлов описаний и заменить каким-нибудь коротеньким. По 33:00 тренил. На 39:25 результат. Разрешение 768х768. Стиль автора дался лорке очень тяжело, но схватился, очень разномастные пикчи, одна крупной кистью, другая с тонкими линиями, на одном пике лицо крупным планом, на другом в жопе мира и его еле видно, да и порой я сам до конца не мог понять, что на рисунке автор изобразил.
Перегнул с лёрнинг рейтом. Плюс поленился ждать 40 минут, сбросил тренировку и начал заново, уменьшив шаги в 2.5 раза. Короче могло быть всё лучше.
со второй эпохи обосрался

>>96775
Кстати узнал что там не в токенах идёт расчет, а в словах, keep_tokens это нихуя не tokens, а количество "охраняемых" тегов до N-ной запятой. Так что имя автора или персонажа может быть хоть 5 слов, главное чтобы не было разделено запятой
Аноним 02/02/23 Чтв 18:50:38 #178 №96809 
>>96800
гайд записал, а лора и настройки где?
Аноним 02/02/23 Чтв 18:51:24 #179 №96812 
>>96775
>хилинг тулом
магия какая то
Аноним 02/02/23 Чтв 18:58:27 #180 №96826 
>>96809
https://drive.google.com/drive/folders/1o0wkZDB1sK_n8FPYH0qhtXnwYmbc0Bf6?usp=share_link
Аноним 02/02/23 Чтв 19:02:07 #181 №96833 
>>96800
нах ты это врубил, у меня тряска и я вспоминаю спеллкарты из игры
Аноним 02/02/23 Чтв 19:03:52 #182 №96836 
>>96833
Проиграл xd
надо было бля в 1080p писать, я додик, нихуя ведь не видно
Аноним 02/02/23 Чтв 19:12:31 #183 №96858 
>>96800
Тренил на 0.4.0?
Аноним 02/02/23 Чтв 19:12:44 #184 №96860 
>>96858
Да
Аноним 02/02/23 Чтв 19:16:17 #185 №96869 
>>96800
>>96836
Только хотел написать, шакалы же, тем более в облаке тренишь и можно видяху занять локальную. Что за вьювер пикч кстати?

>>96800
Лосс большой с твоим датасетом 0.15-0.2
Аноним 02/02/23 Чтв 19:17:04 #186 №96872 
>>96720
> >>96800
> Лосс большой с твоим датасетом 0.15-0.2
Аноним 02/02/23 Чтв 19:20:03 #187 №96877 
>>96869
Да боялся что файл гигантский будет. А вьювер FastStone Image Viewer, полжизни пользуюсь
> Лосс большой с твоим датасетом 0.15-0.2
Да, в курсе, бывало и меньше. Вчера у меня вообще был 0.23-0.3. Перелопатил датасет, покропал всё что можно, убрал много пикч и теперь имею что имею. Если кто-то сможет натренить крутую лору на этого автора, могу только низкий поклон оформить

>>96872
Что. Оттренить?
Аноним 02/02/23 Чтв 19:24:44 #188 №96889 
>>96877
Да я промазал просто, не с твоим, а того анона выше, попробуй, если есть желание. Такой лосс если что с 2e-4 cosine батч 2.
Аноним 02/02/23 Чтв 19:25:44 #189 №96890 
>>96889
Ок
Аноним 02/02/23 Чтв 19:33:11 #190 №96902 
image.png
накачал лор с форчана
Аноним 02/02/23 Чтв 19:33:40 #191 №96904 
>>96902
некоторые не работают, некоторые бессмысленны, т.к. в концепт может сама модель и без лоры
Аноним 02/02/23 Чтв 19:37:40 #192 №96913 
А если тренить лору на dolphin shorts, то надо кропить именно то место, где эти шорты? или всю картинку оставлять?
Аноним 02/02/23 Чтв 19:45:58 #193 №96923 
>>96890
Можешь какой нейронкой видос апскейльнуть, по быстрому получив качество лучше? Шакалы очень сильно всё портят всё таки, ну или скажи, чем можно
Аноним 02/02/23 Чтв 19:47:40 #194 №96925 
>>96923
Я пишу видос новый в QHD, с тренировкой персонажа, еще короче должен выйти
Аноним 02/02/23 Чтв 19:49:30 #195 №96929 
>>96925
Оставил бы сверху полосу где тыкаешь в меню прог, а то тоже обрезана
Аноним 02/02/23 Чтв 19:50:10 #196 №96932 
>>96925
>персонажа
Лоускилл
Аноним 02/02/23 Чтв 19:50:21 #197 №96933 
>>96929
Там ники и всякая конф информация :p
Аноним 02/02/23 Чтв 19:51:04 #198 №96936 
>>96932
Ой блять, не персонажа, стиля. Тот, что там анон залил выше
Аноним 02/02/23 Чтв 19:51:27 #199 №96939 
xyzgrid-0035-038ba203d8-4149437854.jpg
>>96720
Может я не шарю конечно, но помоему это не далеко ушло от жонерика
Аноним 02/02/23 Чтв 20:12:00 #200 №96965 
>>96939
А у меня вроде вышло, если б подлинее потренил было бы еще лучше думаю
Аноним 02/02/23 Чтв 20:22:14 #201 №96989 
>>96965
Какие настройки ставил и какой лосс в итоге получил?
Аноним 02/02/23 Чтв 20:27:44 #202 №96998 
>>96989
Лосс в районе 0.15, настройки скоро будут. Не хватает только вот этого "мрачного" лука на некоторых пикчах как у автора, но опять же, 1500 шагов всего, 5 минут тренировки
Аноним 02/02/23 Чтв 20:32:07 #203 №97005 
Короче вот бля ваш видеогайдер записал еще один видос, но теперь на 3 минуты короче и в нормальном разрешении. И с более вменяемым результатом

https://drive.google.com/file/d/1TSsdx10hltPUIj8lt7UJ1EvYjbGDrrOo/view?usp=share_link
(возможно не сразу 1440р появится)
Датасет, настройки, сама лора: https://drive.google.com/drive/folders/1WmUaflpbc8LT6qVUI8rKZCSDMqks7VVE?usp=share_link

>>96989
>>96923
>>96720
Аноним 02/02/23 Чтв 20:46:04 #204 №97031 
.png
.png
Аноним 02/02/23 Чтв 21:22:49 #205 №97127 
image.png
image.png
image.png
image.png
Итак, анон, я хочу натренить нейронку, чтобы сажала тянок на шпагат. Полагаю - что таки или DreamBooth, или TextualInversion (кстати, что посоветуешь, анон?). С первым работал, со вторым - нет. DreamBooth хорош тем, что на выходе у него - diffusers-совместимые веса, которые хорошо ложатся на huggingface.

Итак, что я сделал. Я нагенерил протогеном 2.2 тянок как на пикрилах. Они не без греха, но грех можно и обрезать. Планирую плюс-минус повернуть их гимпом так, чтобы расшпагаченность была снизу и горизонтально.

Сколько нужно пикч для тренировки позы? Что указывать базовым концептом в DreamBooth? "stretching" ? Есть ли отличия по lr от тренировки персонажа? И вообще, что посоветуешь?
Аноним 02/02/23 Чтв 21:38:54 #206 №97160 
xyzgrid-0042-0fc198c490-312321.jpg
xyzgrid-0040-0fc198c490-312321.jpg
>>97005
Норм видос в этот раз, жаль этап теггинга мало был затронут, пожалуй эту теггалку в вебуи тоже стоит добавить. Я тренил 1875 х 2 батч, чтоб уж наверняка, вот два промпта из датасета на разных сидах, на ласт эпохах уже ничего не улавливало походу нового
Аноним 02/02/23 Чтв 21:41:56 #207 №97167 
>>97160
Я могу запилить потом видос как я персонажа вашего на выбор треню :) Мне пизда весело
Еще скорость обучения важна, да и вообще все другие настройки
Аноним 02/02/23 Чтв 22:46:23 #208 №97299 
А что с гайдом по кручению весов слоев моделей?
Аноним 02/02/23 Чтв 22:49:08 #209 №97310 
>>97299
Анон вчера сказал что может написать, я ему сказал что в шапке есть ссылка, но он ничего не ответил
Аноним 02/02/23 Чтв 22:56:08 #210 №97325 
.png
Пиздец, походу перетрен
Аноним 02/02/23 Чтв 23:27:44 #211 №97394 
>>97167
Да ты вообще какой-то колдун ебучий, умудрился зацепить троих моих любимых персонажа в своих лорах. Ну если ни у кого больше нет идей, даешь Суйку тогда! И чтоб с бочонком, а то не канон: https://danbooru.donmai.us//posts/6032634
Мне на самом деле больше интересно посмотрерть на процесс теггинга во время сборки датасета. Я даж не знаю, могут ли в нее модели нынче или мож кто натренил уже, лол. Наи хуево могла в октябре, это точно помню.
Аноним 02/02/23 Чтв 23:37:23 #212 №97406 
>>97394
С бочонком? Ну попробуем
извините, я секондарька, а в чем суть?
>>97394
> Мне на самом деле больше интересно посмотреть на процесс теггинга во время сборки датасета
А там смотреть нечего. Либо теги автоматом с буру, либо wd автотеггер, который уже киллер машина просто, научился угадывать даже персонажей
> Наи хуево могла в октябре
Ну значит её и научим
Аноним 02/02/23 Чтв 23:38:44 #213 №97410 
>>97394
Ах да
> умудрился зацепить троих моих любимых персонажа в своих лорах
Кого? :з
Аноним 02/02/23 Чтв 23:49:15 #214 №97433 
>>97406
> извините, я секондарька, а в чем суть?
А ссуть у нас в сортире Да не просыхает девочка просто, вот и с бочонком

> wd автотеггер
Я именно им и пользовался кстати, точность очень большая

> Кого?
Лейн, Моника и Курису
Аноним 02/02/23 Чтв 23:50:55 #215 №97436 
>>97433
> Курису
Другого анона кстати, приносил свои лоры недавно, чето перестал
Аноним 02/02/23 Чтв 23:52:53 #216 №97438 
16752845786280.png
Можно ли заставить Tagger указывать в промте стилистику изображения, помимо одежды и самого перса?
Аноним 02/02/23 Чтв 23:57:15 #217 №97442 
>>97438
Автотеггер? Нет. Он работает только по дженерал тегам и по персонажам. Ну может там в теории проскочить какой-нибудь traditional media, но ты наверное не это имеешь в виду
Аноним 02/02/23 Чтв 23:59:08 #218 №97444 
>>97442
Я про wd14-tagger. Но если есть другой, который умеет в теги стилей, то было бы круто
Аноним 03/02/23 Птн 00:00:55 #219 №97447 
>>97444
Что ты понимаешь под стилем? Стилистические теги есть на данбуру, хоть их и немного, соответственно есть и в теггере. Скетч какой-нибудь он с легкостью отличит от обычного рисунка, я думаю
Аноним 03/02/23 Птн 00:09:15 #220 №97456 
>>97031
Найсово вышло
Аноним 03/02/23 Птн 00:16:51 #221 №97472 
>>97160
Закинь в тред
Аноним 03/02/23 Птн 00:22:26 #222 №97479 
>>97447
У меня иногда кнопка "Interrogate DeepBooru" выдаёт очень хороший, годный и полезный мои вкусы весьма специфичны тэг 1990s_\(style\)

Оттуда я про него и узнал
Аноним 03/02/23 Птн 00:37:28 #223 №97516 
Лосс 0.08 на последней эпохе - норм?
Аноним 03/02/23 Птн 00:42:54 #224 №97530 
>>97516
Охуенно либо перетрен
Аноним 03/02/23 Птн 00:45:54 #225 №97534 
>>96939
>использует 0.4.0
>ряяя почему не выходит
Лел
Аноним 03/02/23 Птн 01:04:54 #226 №97568 
>>97534
> Лел
> Не тренит на 0.4.0
skill issue
Аноним 03/02/23 Птн 01:34:14 #227 №97627 
.png
.png
.png
.png
>>97394
Бочонок не совсем идеальный получился, не совсем каноничный, думаю перетренить
Боялся что датасет хуевый, а зря
Аноним 03/02/23 Птн 01:38:33 #228 №97634 
asukagreat.png
diffuseddarkstorm2150-protogen-web-ui.hf(42).png
diffuseddarkstorm2150-protogen-web-ui.hf(60).png
diffuseddarkstorm2150-protogen-web-ui.hf(65).png
>>97127
Успехи мои скромны. Пытался резать датасет...
Аноним 03/02/23 Птн 01:39:11 #229 №97635 
.png
.png
.png
.png
>>97634
Нормально
Аноним 03/02/23 Птн 01:40:19 #230 №97637 
diffuseddarkstorm2150-protogen-web-ui.hf(76).png
diffuseddarkstorm2150-protogen-web-ui.hf(87).png
diffuseddarkstorm2150-protogen-web-ui.hf(93).png
diffuseddarkstorm2150-protogen-web-ui.hf(94).png
>>97127
Аноним 03/02/23 Птн 01:41:18 #231 №97639 
diffuseddarkstorm2150-protogen-web-ui.hf(339).png
diffuseddarkstorm2150-protogen-web-ui.hf(389).png
diffuseddarkstorm2150-protogen-web-ui.hf(410).png
tmp0b9ktj3.png
>>97127
Аноним 03/02/23 Птн 01:41:56 #232 №97640 
.png
.png
.png
.png
>>97639
Вайп растяжкой? Тогда я вайп Суйкой
Аноним 03/02/23 Птн 01:42:29 #233 №97641 
tmp1ywo0uzy.png
tmp2shjnntn.png
tmp6qscth3.png
tmpcyt24nue.png
>>97127
Аноним 03/02/23 Птн 01:50:11 #234 №97661 
tmphmn50nj2.png
tmpn7xiz7of.png
tmpnm84jen6.png
tmpu1t7fddj.png
>>97127
Аноним 03/02/23 Птн 01:51:34 #235 №97663 
tmpu2n2asa.png
tmpx0pa5krx.png
>>97127
Аноним 03/02/23 Птн 01:53:47 #236 №97670 
.png
.png
.png
.png
Всё, ложуся баеньки, завтра будет и гайд, и лора, и настройки, и всё всё всё
В гайде достаточно времени уделил сборке датасета, подготовке и обработке изображений, небольшой возне с тегами, подбору настроек, эпох и т.д.
Правда нвенк после старта обучения крашнулся и оборвал видос, но результат в треде в любом случае, я там просто игрался с промтами и моделями
Аноним 03/02/23 Птн 01:54:20 #237 №97673 
Это не вайп. Это я датасет выгрузил. Вдруг кто захочет потренить сетку на растяжку.
Аноним 03/02/23 Птн 06:45:26 #238 №97827 
Нихуя у вас тут крутые мужики гайды пилят.
Что скажете по вот этому поводу?

https://github.com/arenatemp/stable-diffusion-webui-model-toolkit

Extensions - Install from URL - ссыль выше.
Перезагружаем страницу. Settings - Show all pages в самом низу ставим галку Fix broken CLIP position IDs.
Теперь во вкладке Toolkit у нас по паре кликов мыши можно очищать-прунить модели до 2ГБ размера и клипфикс(?) делать, все оперативно. Ну и еще в safetensors все модели переводит.
Обычная пруня в fp16 без галки с клипом результат на моделях не меняет, в пределах погрешности xformers. С галкой меняет, но незначительно.
Аноним 03/02/23 Птн 08:34:47 #239 №97872 
>>97627
Сделай отдельный концепт на него
Аноним 03/02/23 Птн 09:06:47 #240 №97911 
>>96113
>>96586
Рад, что тебе понравилось, тренилось на АОМ2_сфв, если надо.

>>97472
https://dropmefiles.com/FYxX5

>>97640
С этого теста пупсом чет в голос, очень даже похожей получилась, бочонок ну хоть какой-то есть, уже неплохо
Аноним 03/02/23 Птн 09:20:36 #241 №97925 
image.png
image.png
>>97005
не работает твоя лора, стиль вызывал тегом sls
Аноним 03/02/23 Птн 09:25:39 #242 №97931 
image.png
>>97925
работает только через каломатика, через аддон от кохьи не работает, ХЗ, почему
Аноним 03/02/23 Птн 09:54:47 #243 №97963 
image.png
Сегодня мне приснилось, что я смог натренировать лору на Кокоро, которая может в просветы в её юбке. Как считаете, возможно?
Аноним 03/02/23 Птн 09:56:33 #244 №97966 
image.png
image.png
сегодня ночью пытался в лору на reddizen - https://www.pixiv.net/en/users/20660965
вышла интересность, но не reddizen, хз, почему
пик 2 - reddizen
Аноним 03/02/23 Птн 09:58:15 #245 №97968 
99543004p0.jpg
>>97966
да все наверн из-за того что у него самого стиль часто расплывается
Аноним 03/02/23 Птн 09:59:37 #246 №97969 
>>97968
в итоге пару таких даже в датасет попали, т.к. чем то надо было добить до 50 пикч датасет
Аноним 03/02/23 Птн 09:59:42 #247 №97970 
Есть тут опытные лористы? Запилите стиль по этому сету
https://drive.google.com/file/d/10CrWTaxiuQdTqCgQZqZb-wE_KDYD_tMV/view?usp=sharing
1306 образцов графики из warcraft II and homm II. Первая половина сета - гладкие апскейлы, вторая половина - те же картинки, но пиксельные. Иконки из варкрафта представлены с цветовыми вариациями, как в оригинале. Ассеты из каждой игры обозначены отдельно, чтобы можно было применять по отдельности или смешивать два стиля.
Если взлетит, то должно получиться супер. В теории, будет возможно делать такую же графику как в этих играх, но в HD с огромным вниманием к деталям.
Аноним 03/02/23 Птн 10:17:57 #248 №97989 
image.png
>>97966
ахуенный художник, из-за него теперь ВСЕ пальцы проебаны в генерациях
Аноним 03/02/23 Птн 10:26:18 #249 №97997 
>>97827
Мне в целоп похуй на клип, потому что сколько не менял особо разницы не видел, а вот то что раздутую до 8 гб модель можно спрунить в 2 гб малышку для меня киллерфича
>>97872
Я сделал
>>97925
Тег sks. Я перетренил с другими настройками, получилось вроде еще лучше, могу залить
>>97963
Возможно
>>97970
1300? Жопа не лопнет?
Аноним 03/02/23 Птн 10:29:34 #250 №98000 
>>97997
>1300? Жопа не лопнет?
Чем больше разнообразных пикч, тем меньше вероятность оверфита.
Аноним 03/02/23 Птн 10:30:03 #251 №98002 
>>97997
>могу залить
давай
>Возможно
отчего такой вывод?
Аноним 03/02/23 Птн 10:31:33 #252 №98004 
Можно с буры скачать все пикчи с тегом?
Аноним 03/02/23 Птн 10:31:54 #253 №98006 
>>98004
Имеется в виду одним нажатием, а не сохранением каждой отдельной.
Аноним 03/02/23 Птн 10:34:53 #254 №98007 
>>98000
Я не представляю какие настройки должны быть с таким датасетом. Может быть по фану попробую, еще пока не знаю
>>98002
>давай
Чуть позже, я с телефона капчую
>Возможно
А почему нет? Не совсем понимаю. Собери датасет где они изображены и лорируй
Аноним 03/02/23 Птн 10:38:48 #255 №98013 
>>98007
Наверное каждая пикча должна прогоняться по чуть-чуть? Не знаю, я только rudall-e раньше трейнил и stylegan. С большим сетом оверфит точно не грозит.
Аноним 03/02/23 Птн 10:40:04 #256 №98014 
>>98013
Чел, есть лоры натрененные на 3-8 пикчах...
Аноним 03/02/23 Птн 10:41:30 #257 №98016 
>>98014
Возможно. Но они для простого объекта, одного или двух, а тут будет стиль чтобы сгенерировать что угодно как красочный пиксель-арт из 90х. Охуенно же
Аноним 03/02/23 Птн 10:43:11 #258 №98020 
>>98016
>стиль
Мне всегда хватает 50 пикч для схватывания стиля/перса.
>что угодно
Не знаю, не знаю, никогда не пытался в много сотен пикч.
Аноним 03/02/23 Птн 10:44:57 #259 №98022 
>>98016
Вчера анон скинул датасет из 50 пикч, получилось сделать стиль кое как, потом я решил провести эксперимент и собрал свой датасет по тому же автору, но уже на 13 пикч и вышло лучше
Аноним 03/02/23 Птн 10:52:03 #260 №98030 
>>98022
>но уже на 13 пикч и вышло лучше
А вы сравнивали? Звучит уж очень хорошо.
Аноним 03/02/23 Птн 10:55:40 #261 №98035 
>>98030
Канеш сравнивал
Аноним 03/02/23 Птн 11:00:14 #262 №98048 
>>98035
Грид нужен
Аноним 03/02/23 Птн 11:19:21 #263 №98072 
.png
.png
>>98048
udonNoodleMix и оранж
2 ряд: первая попытка на большом датасете
3, 4: 13 пикч датасет
В 4 ряду вдвое меньшая скорость обучения чем в 3, мне больше всего нравится пока
Аноним 03/02/23 Птн 11:25:59 #264 №98083 
>>98002
> давай
https://mega.nz/folder/4xhQQBID#z2h1nvjvKowy3f_XPat4og
Аноним 03/02/23 Птн 11:53:34 #265 №98123 
77439140p0.png
78702541p0.png
>>98072
ты пикчи его видел? 2 ряд - ближе всего к оригиналу
Аноним 03/02/23 Птн 11:55:05 #266 №98124 
>>98123
Кому как
Аноним 03/02/23 Птн 12:37:14 #267 №98171 
v2.jpg
v3.jpg
>>98072
> В 4 ряду вдвое меньшая скорость обучения чем в 3
А в третьем то какая? Как тут >>96889, подогнанная под батч? Попробовал на большей скорости тот же сет, ничего особо хорошего из этого не получилось

>>97670
Что там кстати по Суйке с видосом и гайдом, сегодня запилишь?
Аноним 03/02/23 Птн 13:49:10 #268 №98252 
image.png
>>97673

Я же сам и попробовал запилить textual inversion по колабу из шапки. Вот-с!
Аноним 03/02/23 Птн 13:51:46 #269 №98257 
image.png
>>98252
Делал 2000 шагов, 21 изображение. Где-то я срукожопил...
Аноним 03/02/23 Птн 14:00:08 #270 №98264 
>>98257
loss до последнего скакал как бешеный, от 0.02 до 0.5. Недодал шагов? Слишком много изображений?..
Аноним 03/02/23 Птн 14:13:18 #271 №98283 
>>98171
В 3 ряду unet 1e-3, te 1e-4 под батч сайз 5
В 4 ряду unet 5e-4, te 5e-5, т.е. в два раза медленнее
>>98171
> Что там кстати по Суйке с видосом и гайдом, сегодня запилишь?
Да
Аноним 03/02/23 Птн 14:14:20 #272 №98287 
>>98264
Никто тут эмбединги не тренит
Аноним 03/02/23 Птн 14:22:55 #273 №98312 
>>98264
С learning rate поиграйся.
Аноним 03/02/23 Птн 15:15:06 #274 №98409 
Лоры мерджить возможно?
Аноним 03/02/23 Птн 15:16:19 #275 №98410 
>>98409
Да
Аноним 03/02/23 Птн 15:18:40 #276 №98414 
>>98410
А с помощью чего и как это делать? Явно же должны быть отличия от мерджа обычных моделей
Аноним 03/02/23 Птн 15:22:07 #277 №98419 
.png
>>98414
Аноним 03/02/23 Птн 15:24:12 #278 №98428 
>>98419
Поебаться с этим знатно придётся, спасибо
Аноним 03/02/23 Птн 15:38:00 #279 №98458 
>>98428
Че там ебаться?
python .\merge_lora.py -h
Он тебе выдаст всю хелпу. Там вроде 4 параметра, это два пути с лорами которые мешаешь и два значения сколько весов взять от каждой из них
Аноним 03/02/23 Птн 15:48:05 #280 №98485 
image.png
>>98458
хелпы нет
Аноним 03/02/23 Птн 15:50:48 #281 №98494 
>>98485
А, сначала нужно зайти в виртуальное окружение
.\venv\scripts\activate
Потому что там нужен торч
И возможно запускать надо не так как я сказал, а
accelerate launch .\merge_lora.py -h
но это не точно
Аноним 03/02/23 Птн 16:53:40 #282 №98671 
Я вот думаю... композицию на реддите уже изобрели - разные промпты для разных прямоугольников. Само по себе дело интересное, кстати. А что там с последовательностью тэгов?

Очевидно же (или я даун?), что на первых нескольких шагах какой-нибудь open_mouth или там detailed face никакого эффекта не даёт, только место в токенайзере занимает. А вот если на предпоследнем шаге рука уже обрезана, то хоть обпишись perfect anatomy в негатив - всё, поздняк.

Или я даун и нейронки работают не так?
Аноним 03/02/23 Птн 17:06:00 #283 №98725 
>>98671
Хз, мне кажется что промт генерируется целиком как есть, и важно чтобы на каждом шаге присутствовал он целиком. Ведь допустим если ты с помощью конструкции [:open mouth:0.9] попробуешь в последних шагах открыть персонажу рот, вряд ли что-то выйдет, картинка уже обесшумлена и нейронка не знает что с этим тегом делать, генерация почти готова. Или наоборот, если с помощью [open mouth::0.1] ты попробуешь на начальных шагах открыть персонажу рот, чтобы тег не занимал место, тебе остается лишь надеяться, что так оно и останется до конца генерации, потому что как только этот тег пропадет, нейронка будет вольна нарисовать что угодно. Моё виденье
Аноним 03/02/23 Птн 17:06:32 #284 №98730 
Бля тредом случайно ошибся
>>98719 →
Аноним 03/02/23 Птн 17:18:30 #285 №98775 
00069-455386362.png
>>97827
Освободил себе 80+ гигов на диске. Охуенно еще если и модели стали более прямые то кайфарик
Аноним 03/02/23 Птн 17:24:00 #286 №98784 
aiнанасы подскажите кто освоил тренировку лора по реальным лицам, не онеме. что лучше по датасету - картинки, описание? по настройкам? цель txt2img, с минимальным влиянием на всё кроме лица.
ебусь с этой хуйнёй который день, сходство пока не то, что хотелось бы.
или может как-то надрочить текстовую инверсию на кастомных чекпоинтах?
Аноним 03/02/23 Птн 17:45:47 #287 №98807 
.png
.png
.png
.png
Кароч запиндюрил гайдецкий, наверное лучший сравнивая с предыдущими, но и самый длинный. Хотел запилить что-то типа субтитров с объяснением почему я так сделал и т.п., но у меня уже болит очко от этого попенсорса и я после 3 софтин сдался, поэтому если че непонятно спрашивайте здесь.

>>98171 >>97394

Видос: https://drive.google.com/file/d/1W2dgALDYwHEgrdQ87DRc5OQarqmUjAYX/view?usp=share_link
Лора, теги, датасет, настройки: https://drive.google.com/drive/folders/1id7K_EkOOdvRVsRfpFCLk9O-WoqIXQx0?usp=share_link
Таймкоды: 00:00-19:18 собираю датасет, 22:07-38:02 сортирую концепты, кропаю изображения, доделываю работу за хуйдожников, 39:21-50:25 вожусь с тегами, 50:38-51:32 решаю сколько повторений выставить на каждый концепт, учитывая количество изображений в каждом из них, 51:32 и далее в принципе можно скипать, там ресайз пикч, подбор настроек, классическая ебатория с поиском рабочего ГПУ, обучение и видос обрывается с ошибкой, кек
мне так понравилась Суйка в исполнении nishiuri, кайфарик

>>98730
> Скорость обработки
Чего
> от размера окна
Какого

>>98775
>Освободил себе 80+ гигов на диске
Сейм. Кстати vae тоже можно сдуть

>>98784
Я жопича натренил, в принципе получилось сносно учитывая шакальность изображений. Даже перетренил, слишком похож при весе 1.0, приходилось понижать
По датасету всё как обычно: разные выражения лиц, освещение, фоны, одежда, ракурсы, портреты/полный рост и т.п. В общем чтоб какое-то разнообразие было. Настройки дефолтные я думаю, unet lr 1e-4, te lr 1e-5, network_dim 32, network_alpha 16-32, что там еще... clip_skip 1, scheduler cosine, shuffle_caption вкл. да и всё в целом, должно работать
Аноним 03/02/23 Птн 17:51:06 #288 №98814 
>>98807
>Чего
Картинки
>Какого
Картинки
Аноним 03/02/23 Птн 17:58:18 #289 №98822 
>>97827
>Что скажете по вот этому поводу?
Всегда делаю прунинг любой говномодели скачанной. Ну и клипфикс попутно, хотя его можно и в MBW плагине форс резетнуть потом если для смешивания модель берется.
Аноним 03/02/23 Птн 18:18:31 #290 №98839 
.png
>>97827

Я все нормально сделал? Это адекватная погрешность изменений?
Аноним 03/02/23 Птн 18:24:03 #291 №98852 
>>98839
Если это с галочкой на клипфикс, то - да, примерно такая разница в результатах и будет, должна в целом моделька стать чуточку "лучше" или "точнее".
Если без галочки, то - хз, скорее не норм. Но обычный Anything 3.0 это особый случай. Вроде не раз писали про разницы fp16 и fp32 на Эни, я в подробности не вдавался, потому что уже миксы варил тогда.
Аноним 03/02/23 Птн 18:27:49 #292 №98857 
chezanaher.png
Привет всем, подскажите что за нахрен?) Как исправить?
Аноним 03/02/23 Птн 18:28:00 #293 №98858 
.png
.png
>>98852

Грубо говоря, я просто нажал load модель, он выдал мне инфу и что он изменит, я нажал save. Я все сломал как-то?

В advanced ничего не трогал. Как вообще эта "галочка" выглядит? Это 3й компонент?
Аноним 03/02/23 Птн 18:31:14 #294 №98864 
>>98858
Галочка в настройках глобальных есть.
Аноним 03/02/23 Птн 18:31:55 #295 №98865 
>>98864

Ааа, понял, да, я применял её!
Аноним 03/02/23 Птн 18:34:57 #296 №98869 
>>98858
>Model will be fixed.
Это с галкой, клипфиксом. Если не отмечать её в самом низу настроек, то будет просто сокращение размера модели, без исправления
>CLIP had incorrect positions ...
Аноним 03/02/23 Птн 18:35:24 #297 №98871 
>>94300 (OP)
Пруня кста факапит модель, один дебик допрунькался, что у него апельсин кал стал генить
Аноним 03/02/23 Птн 18:37:52 #298 №98875 
>>98857
Увеличить файл подкачки. Хотя бы 30 гб сделать
>>98871
Я сравнивал модели, выход одинаковый
Аноним 03/02/23 Птн 18:38:12 #299 №98876 
>>98869

Вы как, фиксите клип или нет?
Аноним 03/02/23 Птн 18:40:32 #300 №98880 
>>98869
>>98865
Нихуя этот тулкит обновился мощно, показывает теперь тензоры говеные. А когда в сам автоматик эта галочка успела вообще попасть, не знал про нее. Есть вообще отличия такого фикса от ALL_A + reset в блок мерджилке?

>>98871
Это ты про понижение точности до фп16?
Аноним 03/02/23 Птн 18:45:40 #301 №98888 
>>98876
Я - да.
Обсер с числами с плавающей точкой не мог быть сделан специально, шоб "лучше было". Это из-за миксования повылезало.
Но тут на твое усмотрение на самом деле.
>>98871
До того как сюда ссыль кидать, на 3-ех моделях протестил. Butter (yohandiffusion на хаггине, микс оранжа и еще чего-то), капуста на эни 4.5 и еще какая-то модель. Без клипфикса просто пруня в fp16 ничего не поменяла, разница микроскопическая.
Причем в оранжах каких-то вообще тензоры везде ровные, а GorynichMix 1.1 показал примерно 15 неправильных.
Аноним 03/02/23 Птн 18:53:37 #302 №98894 
>>98880
>А когда в сам автоматик эта галочка успела вообще попасть, не знал про нее
Я тоже, лол. Даже сначала подумал, что это расширение само добавило.
>Есть вообще отличия такого фикса от ALL_A + reset в блок мерджилке?
У меня ни одной модели с фиксом через мердж не осталось, всего один раз делал, не проверить. Если ради эксперимента кто-то сравнит - будет балдеж.
Аноним 03/02/23 Птн 18:56:54 #303 №98901 
.png
>>98888

Да, попробовал убрать галку и запрюнить модель опять, результат изменений теперь околонулевой. И нравится больше результата с галкой. Ладно, пока просто облегчу модели без изменений клипа, пожалуй, а то памяти на дисках не осталось почти.
Аноним 03/02/23 Птн 20:17:41 #304 №99013 
>>98807
ебать благодарствую, два чая достойному господину

вопрос еще по количеству пикч в датасете. где-то встречал мнение, что для лора надо 9 или 16. вот прям так. хз почему. сколько сам используешь?
Аноним 03/02/23 Птн 20:29:29 #305 №99024 
04142-038ba203d8-595668824.png
>>98807
Суйка вообще огонь. Лицо довольное как на пикриле. Спасибо тебе большое, за лору и за гайд, буду пользоваться как референсом, если чего не понятно будет
А можешь рассказать про планировщики, ну или направить где про них можно почитать? Ну там в чем отличие, когда какой стоит использовать, что за разогрев и тд?
Пикчи, как понял лучше всё таки обрезать на главном, корректировать цвета, и подгонять под 512 по стороне
Почему кстати юзаешь в 10 раз меньшую скорость ТЕ в итоге, лучше работает?

Тоже словил этот баг сейчас кстати, только в промпте лора сработала >>97931
Аноним 03/02/23 Птн 20:56:38 #306 №99073 
Простыня

>>99013
> ебать благодарствую, два чая достойному господину
Спасибо, рад помочь
> вопрос еще по количеству пикч в датасете
Сложный вопрос на самом деле для меня. Я всегда подготавливаю датасет тыкая пальцем в небо. Сколько получится, столько получится. В гайде датасет был примерно 50 пикч и он прокатил, нейронка персонажа поняла, на теги отзывается. Но бывает такое, как например вчера со стилем художника, тоже 50 пикч датасет, но те что помладше в одной рисовке, те что постарше, пару лет назад - в другой. И всё в одной куче. Ну и соответственно результат мне не очень понравился, и лосс во время обучения был большой. Потом я в 4 раза уменьшил датасет, оставил только пикчи которые видно что объединены общим стилем и перетренил. И вот тогда мне понравился результат. Мы конечно с аноном поспорили на эту тему, но я говорю чистое имхо
Но есть важный нюанс с количеством пикч в датасете, чем меньше пикч, тем менее разнообразен датасет и это в свою очередь приводит к тому, что генерации получаются либо очень похожими друг на друга, либо очень сильно напоминают какую-то пикчу из датасета. Я такое не люблю, поэтому целюсь всегда на хотя бы 20 пикч, это такой минимум для меня. А дальше - если получается найти годный контент, пихаю еще, если не получается - останавливаюсь на том что есть
Важное правило в обучении нейронок (и это не только лоры касается) - говно на входе = говно на выходе
> что для лора надо 9 или 16
9 или 16? Первый раз слышу, кек. Шизотерика какая-то. У меня в датасетах бывало от 10 до 70 пикч, да и нормально всё

>>99024
> Спасибо тебе большое, за лору и за гайд
Спасибо, приятно
> Пикчи, как понял лучше всё таки обрезать на главном, корректировать цвета, и подгонять под 512 по стороне
Это всё лично мой "воркфлоу". Это на самом деле всё делать необязательно:
Обрезал я только верхнюю часть тела, потому что чем меньше площадь информации на изображении, тем легче нейронке это запомнить. По крайней мере мне так кажется. Но это логично приведет к тому, что в полный рост персонажа сгенерировать будет не так просто. По-хорошему, всё что я обрезал нужно было еще и из тегов удалить, но это очень муторно и долго и не факт что будут какие-то значительные положительные изменения по итогу
Корректировал цвета я чтобы нейронка не охренела от палитры цветов. На одном пике волосы насыщенно рыжие, на другом светлые и бледные, а я хотел, чтобы на генерациях волосы были такие прям ух, поэтому притемнял изображения и чутка подкручивал насыщенность
Подгонял я примерно под квадрат хз почему, тоже кажется что так лучше. Типа сд тренилась на квадртаных 512px пикчах, всё такое. Я не то чтобы всегда так делаю, главное всегда по возможности стараюсь отойти от прям супер вытянутых 10:1 пикч, потому что все равно обучалка подожмет эту пикчу к 512 пикселям по длинной стороне. Но кстати говоря тренить можно не только на квадратах, можно даже так: resolution="512,1024"
> Почему кстати юзаешь в 10 раз меньшую скорость ТЕ в итоге, лучше работает?
Не раз встречал низкие значения скорости обучения ТЕ во всяких репозиториях, и вообще функция тренировки ТЕ не в каждом виде обучения существует, по-моему даже в дримбузе такого раньше не было (могу ошибаться). Плюс к этому выяснил, что количество обучаемых параметров ТЕ больше чем параметров UNet в случае с лорой, соответственно ей не нужна такая же большая скорость обучения. Я видел результаты на высокой скорости ТЕ, всё очень плохо кончается. Исходя из вышесказанного со спокойной душой ставлю скорость ТЕ в 5-10 раз меньше скорости UNet
> А можешь рассказать про планировщики, ну или направить где про них можно почитать?
Про планировщики максимально детально в шапке в лорагайде есть, и в том числе что за разогрев. Как говорят умные дяди, разогрев чаще всего не нужен, если ты только не знаешь что делаешь. Я и так и сяк экспериментировал, но так ни к чему особо и не пришёл
Касаемо планировщика, мне понравился cosine, мне не понравился cosine_with_restarts и кто-то еще сказал обходить constant стороной, если лору тренишь
Аноним 03/02/23 Птн 20:57:34 #307 №99076 
>>99013
>для лора надо 9 или 16. вот прям так. хз почему. сколько сам используешь?
15, это оптимальное число. Еще заметил, что если палец в очко себе сунуть и понюхать, то модель никогда не оверфитится.
Аноним 03/02/23 Птн 20:58:19 #308 №99081 
>>99076
Обзмеился
Аноним 03/02/23 Птн 21:48:52 #309 №99164 
01028-1892663942-(nsfw1.3), topless, close-up, girl playing accordion, ((black1.2) beret), (blank stare, serious), black hair, short hair, mili.png
Новый гайд на блок-мерж моделей.
https://rentry.org/BlockMergeExplained
Аноним 03/02/23 Птн 21:54:40 #310 №99187 
>>99164
Нихуя, красава. Добавлю в шапку
жаль не на русском
Аноним 03/02/23 Птн 21:57:02 #311 №99195 
>>99164
О, допилен чтоли наконец, я ж его ещё в позапрошлом треде скидывал
Аноним 03/02/23 Птн 22:03:15 #312 №99209 
>>98807
Хороший видос (наверное), но как же эта хуйня пугает теперь. Смотришь и унываешь с количества ебли.
Аноним 03/02/23 Птн 22:05:28 #313 №99218 
>>99209
Прочитай выше что написал. Датасет мог быть в два раза меньше и все что я делал с пикчами делать необязательно, это опция
Аноним 03/02/23 Птн 22:20:25 #314 №99255 
>>99209
для лоры не обязательно кропать изображения
Аноним 03/02/23 Птн 22:28:42 #315 №99285 
>>98871
>Пруня кста факапит модель, один дебик допрунькался
Норм всё, прунькнул оранж все воркс перфект вери вел.

>>98839
Особые отличия в точности видны на хорошо описанных промтах и/или на высоком CFG (особенно на нем, там точность улетает в небеса из-за самого функционирования CFG), либо на каких-то простых промтах типа loli, woman с начальными сидами от 1 до 10.

>>98876
Фиксирую.

>>98880
>А когда в сам автоматик эта галочка успела вообще попасть, не знал про нее.
Так в автоматике и нет ее по дефолту. Может в будущем добавит функцию в мерджер, или вообще MBW впиздячит сразу.
>Есть вообще отличия такого фикса от ALL_A + reset в блок мерджилке?
Тоже самое, но без прунинга.
Аноним 03/02/23 Птн 22:34:28 #316 №99291 
>>99076
А если сунуть не себе? А если сунуть себе, а дать понюхать кому-то другому? А если чужой палец?..

Пытливость ума - основа технического прогресса!
Аноним 03/02/23 Птн 22:45:28 #317 №99316 
>>98725
Да не, ну не настолько. На уровне "первая половина, вторая половина" хотя бы.
Аноним 03/02/23 Птн 22:51:12 #318 №99329 
>>99291
Мамке сунь. Только смотри без сычевальни не останься.
Аноним 03/02/23 Птн 22:51:55 #319 №99332 
>>99073
> Типа сд тренилась на квадртаных 512px пикчах, всё такое
Именно это меня и насторожило, когда гайд читал, вроде до этого всегда обрезали пикчи, будь то будка, гипер или эмбед, наверное тоже буду заморачиваться, благо в этой вьювер мокропиське ты показал как это можно запилить по быстрому.

Чет пока смотрел вот с этой херни аж в голос: https://danbooru.donmai.us/posts/3187506
Видимо тематическое музло и пальчик в очке прибавляет к успешности лоры на выходе

> resolution="512,1024"
Кстати заметил эти параметры в твоём конфиге, они типо отвечают за кроп изображения как раз до определённого разрешения, если оно превышено, во время тренировки, или как?
Алсо зачем фиксированный сид, это как-то важно для тренинга?

> Про планировщики максимально детально в шапке в лорагайде есть, и в том числе что за разогрев.
Понял, в первый раз как читал гайд мало обратил внимание на них

> Спасибо, приятно
Всё таки ты реально охуенен анон, кстати приятно не тебе одному :3 лорка нормально натренилась и годно миксуется с концептами с форчка
Аноним 03/02/23 Птн 22:53:24 #320 №99333 
>>98671
>Или я даун и нейронки работают не так?
Нейронка в момент прожатия генерейта уже знает че она будет собирать из шума. Твоя задача подобрать болиелимение сильный сид и крутить потом варсид чтобы поверх сида ролить с нужной тебе комбинацией, на этапе варсида можешь менять промт, и чем выше цфг тем проще нароллить нужное (особенно когда существует CFG фикс теперь, на котором можно 30 CFG крутить не только на конском разрешении но и на микрописьках без бернинга)
Аноним 03/02/23 Птн 23:07:07 #321 №99360 
>>99332
> вроде до этого всегда обрезали пикчи
Скрипт китайца поддерживает бакетинг (что-то типа автоподстройки разрешения), поэтому кроп опционален
> в этой вьювер мокропиське ты показал как это можно запилить по быстрому
Возможно есть еще более удобный метод "квадратирования" изображений, в гайде по лоре 4-ый совет по сборке датасета, там другая мокрописька
> Чет пока смотрел вот с этой херни аж в голос
Да там на самом деле много годноты было. Интересно че если на всяком подобном говне натренить лору
> они типо отвечают за кроп изображения
resolution отвечает за бакетинг изображений и как бы по сути является разрешением тренировки. Больший resolution позволяет зацепить больше деталей + можно генерировать на большем разрешении
> Алсо зачем фиксированный сид, это как-то важно для тренинга?
Нет, просто я без скрипта который мне генерирует число, а вписать что-то надо
Аноним 03/02/23 Птн 23:10:58 #322 №99364 
1675455057551.jpg
1675455057558.jpg
1675455057560.jpg
Как именно лора режет изображения, если я выставляю 512 или 768?
То есть - по центру, или со смещением, или пытается кропать по 512\768 квадратам?
Аноним 03/02/23 Птн 23:13:44 #323 №99373 
>>99364
Скорее всего вписывает в квадрат, не изменяя пропорций
Аноним 03/02/23 Птн 23:27:01 #324 №99386 
Ага, так вот к чему обосрамс с клипом выходит. Сегодня пытался на протогене сделать машину, пишу "car..." и описываю промт детально, в итоге генерю-генерю, и не понимаю чезаХ, вроде всё есть: джунгли на месте, дождь, лужи, туман, а машины-то нету!

https://www.reddit.com/r/StableDiffusion/comments/10baavg/bug_warning_with_some_models_other_than_sd14_like/
Аноним 03/02/23 Птн 23:46:05 #325 №99413 
Для тренировки лоры обязательно обреезать все пикчи до одинаковых пропорций? Параметр $resolution в скрипте и есть это разрешение?
Аноним 03/02/23 Птн 23:48:09 #326 №99417 
>>99413
Я позавчера попробовал НЕ обрезать и получилась какая-то хтонь.
Аноним 03/02/23 Птн 23:50:35 #327 №99419 
>>99413
Буквально 3 поста выше
Аноним 04/02/23 Суб 00:37:33 #328 №99482 
1675460253278.png
>>99373
Аноним 04/02/23 Суб 00:37:59 #329 №99486 
>>99482
Да, примерно так
Аноним 04/02/23 Суб 05:01:47 #330 №99722 
ImportError: DLL load failed while importing _pywrap_tensorflow_internal: Файл подкачки слишком мал для завершения операции.

Да сколько ему надо то?! 16 оперативы и кэш 12 гигов. Или что-то подкрутить надо?
Алсо, а на каком диске он его сжираем? На том где скрипт лежит или на системном?
Аноним 04/02/23 Суб 05:03:17 #331 №99724 
>>99722
>Да сколько ему надо то?! 16 оперативы и кэш 12 гигов. Или что-то подкрутить надо?
В автомат выстави подкачку.
>На том где скрипт лежит или на системном?
Файл подкачки лежит на системном.
Аноним 04/02/23 Суб 05:41:08 #332 №99729 
image.png
image.png
вроде ахуенная лора на Эйрин вышла, модель уже немного знает про неё, так что лора идеально легла на модельку
пик 1 - yagokoro eirin, touhou
пик 2 - yagokoro eirin, touhou + LoRA
Т.е. выдаёт её костюм даже без уточняющих тегов. Ни разу такой лоры не выходило.
Аноним 04/02/23 Суб 05:46:47 #333 №99731 
>>99729
>Т.е. выдаёт её костюм даже без уточняющих тегов. Ни разу такой лоры не выходило.
Возможно, тут дело в крайне простом дизайне самого перса. На какую-нибудь с Сейгу с её заколкой и шалью куда сложнее натренировать лору.
Аноним 04/02/23 Суб 05:53:02 #334 №99734 
>>99731
>>99729
напиздел, лишь иногда выдает без уточняющих тегов
Аноним 04/02/23 Суб 05:55:52 #335 №99735 
00bfcb8c3f9e217f5034789b987aab16a723a490.jpg
>>99729
Бляя, в датасет насрали, ну кто так рисует? Из-за этого иногда пикрил расцеветовку выдаёт...
Аноним 04/02/23 Суб 06:26:25 #336 №99742 
>>99738 →
на стиль худа, на 50 картинок кручу 6400 шагов, использую настройки 1060-анона и мокрописю версии 0.3.1
Аноним 04/02/23 Суб 06:55:07 #337 №99750 
>>99729
[red dress|blue dress]
Работает лучше всего
Аноним 04/02/23 Суб 10:14:15 #338 №99843 
>>99729
>Т.е. выдаёт её костюм даже без уточняющих тегов. Ни разу такой лоры не выходило.
У тебя точно на всех пикчах костюм протеган?
Аноним 04/02/23 Суб 10:25:28 #339 №99854 
>>99843
Хз, не чекал.
Аноним 04/02/23 Суб 10:27:12 #340 №99858 
>>99843
А чекать чем кста можно? В видел у тебя мокрописю на это.
Аноним 04/02/23 Суб 10:33:18 #341 №99864 
>>99858
Я не он, но я бы чекнул в мокропиське для автоматика датасет тег эдитор.
Аноним 04/02/23 Суб 12:13:09 #342 №99986 
>>99864
Ссылочку реквестирую
Аноним 04/02/23 Суб 12:14:46 #343 №99992 
>>99986
В расширениях есть
Аноним 04/02/23 Суб 12:16:07 #344 №99994 
>>99992
Ну это конечно хорошо, что есть расширение для каломатика, но у него прям программа отдельная, вот бы её название
тут использует
>>98807
Аноним 04/02/23 Суб 12:17:17 #345 №100003 
>>99994
https://github.com/toshiaki1729/stable-diffusion-webui-dataset-tag-editor
Аноним 04/02/23 Суб 12:31:19 #346 №100035 
image.png
00179-962695155-ibaraki kasen,.png
Да что за хуета, боже бля, я специально подбирал те пикчи, где эти триграммы правильно и их хорошо видать и в итоге все равно дерьмо... Пиздец, зато на других лорах повторяет рисунки на одежде хорошо. Я ебал, много тох оттренил, а свою вайфу не могу...
Аноним 04/02/23 Суб 12:37:02 #347 №100045 
>>100035
yin yang, trigram проставлены в caption, но реагирует на эти теги совершенно ненормально, что за хуета
Аноним 04/02/23 Суб 12:38:11 #348 №100046 
>>100045
Недотрен/неподходящая скорость обучения
Аноним 04/02/23 Суб 12:39:36 #349 №100048 
image.png
>>100046
16 эпоха у меня перетренирована. Пикрил, 12 вроде нормальная. Мне со скоростью обучения играться? Я на 0.3.1, если что
Аноним 04/02/23 Суб 12:43:15 #350 №100056 
>>100048
> Мне со скоростью обучения играться?
Ну как вариант. Ничего особо не остается. Правда я не знаю в какую сторону - на понижение или на повышение. Я бы наверное сперва понизил скорость обучения unet и увеличил длительность тренировки, чтобы сеть успела запомнить концепт, но не перегрелась. Также и обратное может в теории сработать - повышение скорости и уменьшение времени тренировки
Аноним 04/02/23 Суб 12:55:11 #351 №100085 
>>100056
Я попробую отдельную лору на trigram обучить, и пускать её вместе с лорой на Юкари
Аноним 04/02/23 Суб 12:55:59 #352 №100087 
>>100085
Ну попробуй :)
Никогда так не делал, покажешь потом что получилось
Аноним 04/02/23 Суб 12:58:02 #353 №100091 
кто нибудь сравнивал лору и хайпернетворк на одинаковых датасетах. лора тоже самое только быстрее?
Аноним 04/02/23 Суб 13:03:48 #354 №100097 
image.png
После обновы стало сыпать ошибками как на новых моделях, так и на старых. Но при этом сам вебуй работает как раньше, картинки генерит. ЧЗХ?
Аноним 04/02/23 Суб 13:06:07 #355 №100098 
image.png
>>100085
Поставлю 1280 шага на 10 изображений, т.е. 16 эпох и 8 повторений.
Аноним 04/02/23 Суб 13:07:32 #356 №100099 
>>100097
Автоматик момэнт. Радуйся что работает.
Аноним 04/02/23 Суб 13:09:55 #357 №100101 
>>100098
Ой, у меня 9 изображений, но да похуй, схватится
Аноним 04/02/23 Суб 13:16:21 #358 №100108 
>>100098
Попробуй добавить более общие виды
Аноним 04/02/23 Суб 13:17:18 #359 №100110 
>>100108
Согласен, что-то у меня плохое предчувствие
Аноним 04/02/23 Суб 13:24:18 #360 №100120 
>>100108
Не уверен, что лора тогда схватит этот концепт, а не начнет все тело схватывать за триграмму
Аноним 04/02/23 Суб 13:24:56 #361 №100122 
Сколько эпох у вайфудифужена будет?
Аноним 04/02/23 Суб 13:28:55 #362 №100125 
.png
>>100122
Хару конкретно не говорил. Но я давненько не заходил в его конфу
На пике вероятно устаревшая инфа, как минимум потому что wd 1.4 основана на sd 2.1
Аноним 04/02/23 Суб 13:48:03 #363 №100158 
>>100099
Грустненько. Раньше всё как часы работало.
Аноним 04/02/23 Суб 13:56:14 #364 №100177 
>>100120
Мне кажется, что сетка должна понимать контекст. Я не говорю про полную замену датасета, но разбавть паров более общих планов стоит.
Аноним 04/02/23 Суб 14:01:50 #365 №100189 
image.png
>>100177
ща чекну что вышло
Аноним 04/02/23 Суб 14:04:03 #366 №100192 
0.05 нихуя себе
Аноним 04/02/23 Суб 14:06:42 #367 №100194 
>>100192
Дикий перетрен?
Аноним 04/02/23 Суб 14:07:47 #368 №100196 
image.png
image.png
кхем
Аноним 04/02/23 Суб 14:07:49 #369 №100197 
Короче думаю надо переименоваться в Stable Diffusion ТЕХНОТРЕД
Потому что вечно вижу вопросы в смежных тредах которые должны быть тут. Не знаю насколько сильно это поможет, просто есть мысли что не все кто заходят на доску понимают по заголовку что мы тут конкретно про sd говорим. Чё скажете?

>>100194
Охуенный трен/перетрен, да
Аноним 04/02/23 Суб 14:08:25 #370 №100199 
>>100196
Так, куда смотреть
Аноним 04/02/23 Суб 14:08:55 #371 №100201 
>>100199
триграмы, вот правильные
>>100098
Аноним 04/02/23 Суб 14:09:21 #372 №100203 
image.png
бляя, не заметил эту хуету
Аноним 04/02/23 Суб 14:12:10 #373 №100206 
Вопрос по теггингу для гиперсети (именно hypernetwork, не лоры): вот хочу я обучить персонажа допустим только внешку/вместе с одеждой, аксессуарами. Для первого случая мне в тэгах нужно указывать только имя, глаза, волосы и тп. А для второго ещё и промпты для одежды, я правильно понял как это работает? То есть если я не хочу, чтобы что-то на обучающей картинке не ассоциировалось с персонажем, это не нужно указывать? Или всё равно нужно, но просто не вызывать такой промпт при генерации.
Аноним 04/02/23 Суб 14:23:39 #374 №100217 
>>100206
Не важно, лора или не лора, принцип везде один. Если ты хочешь внешку персонажа, кропай датасет чтобы было видно только лицо, теги соответственно тоже только про внешность лица. Если надо целиком с одёжкой, тогда не кропай и точно также тегай как и в первом случае, т.е. черты внешности и всю одежду, аксессуары.
Есть еще вариант не прописывать детально например лицо, а придумать любой новый тег и протегать им все пикчи с персонажем где его лицо присутствует, тогда в промте ты сможешь вызвать внешку персонажа просто указав этот тег, не нужно будет детально описывать цвет и форму волос, глаз и т.д. Но в таком случае есть риск что пострадает редактируемость. Тоже самое касется не только лица, некоторые вообще персонажа тренят одним тегом, например его именем, и с помощью это магического тега вызывают его целиком вместе со всеми чертами и одеждой. Но я так не люблю делать, сильно пострадает редактируемость, т.е. поменять одежку будет проблематично а то и вообще невозможно, но если у тебя цель натренировать персонажа как он есть канонично и ты не планируешь в дальнейшем экспериментировать с его внешностью, то я бы так сделал, это и проще и быстрее и результат будет потенциально лучше.
Аноним 04/02/23 Суб 14:30:26 #375 №100223 
Пиздец, там буквально 6 черт, а художники не могут их запомнить и рисуют кринжатину...
Аноним 04/02/23 Суб 15:00:01 #376 №100263 
image.png
Помимо лоры на табард перерабатываю оригинальный датасет при помощи той самой мокрописюхи, оказывается в половине случаев тега trigram не стояла, в части картинок триграммы были неправильные, все это поправлю и ещё попытаюсь.
Аноним 04/02/23 Суб 15:01:08 #377 №100266 
>>100263
Советую alternate tagging mode включить, удобнее тегами ворочать
И цвета включи
Аноним 04/02/23 Суб 15:01:22 #378 №100267 
>>100263
Я бы тоже пользовался этой мокрописей, если бы в ней можно было нормально удалять старые и добавлять новые пикчи.
Аноним 04/02/23 Суб 15:01:25 #379 №100268 
>>100263
Я бы заебался руками править теги
Аноним 04/02/23 Суб 15:01:53 #380 №100270 
>>100266
>>100263
Ах да, еще разрешение квадрата у тебя 1024 стоит. Наверное, зря?

>>100268
Просто не надо датасет из 1000 пикч собирать.
Аноним 04/02/23 Суб 15:03:02 #381 №100271 
>>100263
Что посеешь то и пожнешь

>>100267
Да, хорошая софтинка, но нет пару необходимых фич, я например до сих пор не разобрался как резать НЕ квадрат
Аноним 04/02/23 Суб 15:03:23 #382 №100272 
>>100271
>как резать НЕ квадрат
Никак))))))
Ее автор дропнул.
Аноним 04/02/23 Суб 15:03:37 #383 №100274 
>>100270
Да даже 80 меня уже огорчает
Аноним 04/02/23 Суб 15:03:46 #384 №100275 
>>100263
Бля, в ней нельзя теги сохранить без кропа, а кропать я не хочу.
Аноним 04/02/23 Суб 15:03:59 #385 №100276 
>>100274
80 и меня огорчает. Стараюсь держаться в районе 50.
Аноним 04/02/23 Суб 15:04:32 #386 №100278 
>>100275
>Бля, в ней нельзя теги сохранить без кропа, а кропать я не хочу.
Угу.
Ну попробуй это: https://github.com/toshiaki1729/stable-diffusion-webui-dataset-tag-editor
Но лично мне пиздец как неудобно было.
Аноним 04/02/23 Суб 15:04:54 #387 №100280 
>>100275
Теперь мне .txt в ручную править
Лицо моё сгенерировали?
Аноним 04/02/23 Суб 15:04:57 #388 №100281 
>>100275
Можно
Аноним 04/02/23 Суб 15:05:15 #389 №100282 
>>100275
>Бля, в ней нельзя теги сохранить без кропа, а кропать я не хочу.
Скопируй датасет, сделай все через прогу, а потом закинь пикчи обратно с заменой. Она их не переименовывает.
Аноним 04/02/23 Суб 15:05:18 #390 №100283 
>>100281
Покажи как
Аноним 04/02/23 Суб 15:06:23 #391 №100285 
.webm
>>100283
Аноним 04/02/23 Суб 15:06:54 #392 №100286 
>>100285
>>100283
original там еще есть
Аноним 04/02/23 Суб 15:09:40 #393 №100290 
>>100285
>>100286
О, спасибо
Аноним 04/02/23 Суб 15:27:29 #394 №100322 
Форчан не смог в jackopose, сможет ли двач?
Аноним 04/02/23 Суб 15:29:37 #395 №100329 
>>94300 (OP)
Я уже скоро в датасетах и лорах путаться начну, как же дохуя у меня их скопилось
Аноним 04/02/23 Суб 15:48:36 #396 №100361 
>>100322
top-down bottom-up? В чем проблема?
Аноним 04/02/23 Суб 16:03:09 #397 №100380 
>>100329
НЕ ЗАБЫВАЕМ СОРТИРОВАТЬ. ЧЕТКО ПОДПИСАННЫЕ ДАТАСЕТЫ В ОДНОМ МЕСТЕ, ЛОРЫ В ДРУГОМ
Аноним 04/02/23 Суб 16:25:25 #398 №100439 
>>100380
>>100380
покаж пример
Аноним 04/02/23 Суб 16:27:32 #399 №100449 
.png
.png
>>100439
Да чё тут показывать-то. 1- датасеты, 2 - лоры
Аноним 04/02/23 Суб 16:33:58 #400 №100461 
>>100449
Еще бы разложить по папкам стили\персы
Аноним 04/02/23 Суб 17:13:36 #401 №100529 
Пока тут в треде обучают лору, автоматизированную до нажатия трёх кнопок, я пытаюсь в KAIR. Документации или каких-то пояснений ноль. Тренировка с нуля работает, вопросов нет. Но как файнтюнить? Скармливаю netE и netG, так же даю ему дискриминатор, заранее подготовленный на 20к итерациях хотя пишут даже 5к достаточно. В итоге шумоподавление возрастает до неадекватных величин - на 100к уже дикое мыло. Хотя с нуля PSNR с такими же настройками нормально тренируется. Что за ебень?
Аноним 04/02/23 Суб 17:15:44 #402 №100532 
>>100529
> KAIR
Шойта
Аноним 04/02/23 Суб 17:24:59 #403 №100542 
>>100532
https://github.com/cszn/KAIR
Аноним 04/02/23 Суб 17:27:30 #404 №100546 
>>100542
Ух ты ж сколько всего. Никогда ничего подобное не обучал потому что такого навалом в интернетах
Аноним 04/02/23 Суб 17:56:41 #405 №100596 
Щас попробую лора текстуальную инверсию обучить через скрипт китайца вообще он японец
А то че-то полистал цивит аи, так там такие крутые лица через инверсию получаются у людей. Даже не верится что эта хрень весит меньше мегабайта
Кстати в оригинальном репозитории клона симы уже относительно давно есть опцию тренировки лоры совместно с текстуальной инверсией, типа еще лучше результаты. Но там такая убогая реализация кэпшенов (.txt файлы описаний не поддерживаются, только названия файлов) что я моментально забил. Надеюсь он исправит эту чудовищную ошибку и я благополучно свалю с кохъяскрипта
Аноним 04/02/23 Суб 18:00:56 #406 №100605 
.png
Я бы только попросил помощи у анонов которые тренили TI, объясните на пальцах по-русски что вписать в эти параметры чтобы вышло грамотно? (пикрел)
Ну num_vectors_per_token в целом понятно, сколько токенов в промте будет занимать эмбединг
А вот что с остальными? Меня сбивает с толку что их два. Одно слово должно быть уникальным (не должно присутствовать в токенайзере), другое - нет. Выручайте
Аноним 04/02/23 Суб 18:11:02 #407 №100621 
>>100605
Нахуя ты этим пользуешься? Всё же есть в автоматике, встроенное.
Аноним 04/02/23 Суб 18:13:21 #408 №100630 
>>100621
Зачем мне древнее говно мамонта, если есть лора версия, которая как минимум быстрее? Плюс я буду тренить в облаке, у меня нет доступа к gui
Аноним 04/02/23 Суб 18:17:00 #409 №100636 
>>100630
>которая как минимум быстрее?
Ты сравнивал?
>Плюс я буду тренить в облаке, у меня нет доступа к gui
Чел...
Аноним 04/02/23 Суб 18:19:53 #410 №100639 
>>100636
> Ты сравнивал?
Нет, но учитывая скорость обучения лора сети по сравнению с гиперсетью делаю такой вывод. Тем более не будет же чел изобретать велосипед, правильно? Какие-то плюсы у его метода есть, и мне очень хочется проверить
> Чел...
Нормально ответить?
Аноним 04/02/23 Суб 18:25:02 #411 №100649 
1675524301629.png
1675524301636.png
>>100639
>Нормально ответить?
Чел, ты долбаеб. Тут нечего отвечать. Ещё и не сравнивал ничего, но уже линейно экстраполирует.
Аноним 04/02/23 Суб 18:29:27 #412 №100654 
>>100649
Судя по тому, что ты вместо ответа на мой вопрос начал рекомендовать мне хуйню о которой я не просил, ты и обычный TI не юзал. Собсна нахуй было вообще что-то писать?
> долбаёб
Погоняло у тебя такое.
Аноним 04/02/23 Суб 18:34:29 #413 №100663 
>>100654
У тебя погоняло погоняло, погоняло.
>начал рекомендовать мне хуйню о которой я не просил
Ложь. Я ничего тебе не рекомендовал, спросил просто, почему ты встроенным не пользуешься. В ответ ничего внятного не услышал.
Аноним 04/02/23 Суб 18:45:43 #414 №100673 
>>100663
> Ложь.
Окей, я неправ.
> В ответ ничего внятного не услышал.
Окей, сейчас услышишь. В скрипте, который я хочу заюзать есть такие вещи как бакетинг, клип скип, планировщик скорости, сохранение первых N токенов в файлах описаний и еще достаточно полезных функций, но о которых я не пишу потому что конкретно я ими еще не пользовался. Мне эти фичи привычны, я знаю как их применять и получать результат. Всего перечисленного в автоматике нет.
Аноним 04/02/23 Суб 19:00:33 #415 №100697 
>>100673
>Всего перечисленного в автоматике нет.
Ты давно вкладку трейна открывал чел? Буквально каждая тобою перечисленная опция в автоматике есть, кроме наверное первых токенов.
Аноним 04/02/23 Суб 19:03:32 #416 №100707 
.png
>>100697
Не вижу
Аноним 04/02/23 Суб 19:09:37 #417 №100718 
>>100673
Clip skip в настройках есть
Планировщик скорости насколько сложный ты имеешь в виду?
1e-5:1000, 2e-5:2000 - первая тысяча шагов со скоростью 1е-5, вторая тысяча с 2е-5. Вот такое есть в автоматике. Или тебе нужно, чтобы функцией описывать можно было
Аноним 04/02/23 Суб 19:09:39 #418 №100720 
>>100707
Конечно не видишь, ты ж вон даже в облаке захостить автоматик не можешь.
Аноним 04/02/23 Суб 19:14:41 #419 №100730 
>>100718
> Clip skip
Это понятно что он есть, но действительно ли он работает как должен работать в случае обучения? Какая гарантия что этот ползунок не исключительно для генераций?
> Или тебе нужно, чтобы функцией описывать можно было
Да, привычнее просто cosine вбить
>>100720
Автолахта спок
Аноним 04/02/23 Суб 21:01:39 #420 №100862 
https://github.com/lucidrains/muse-maskgit-pytorch
Пробовал кто?
Аноним 04/02/23 Суб 21:01:54 #421 №100863 
Были ли на гугл коллабе какие то вариации шедоу банов?
Конечно все может обьясняться элементарно криво вставшими моделями и кривыми руками, а то и вообще ошибками восприятия но мне КАЖЕТСЯ, что на одном аккаунте у меня результаты генерации слишком глючат.
Не худе лучше, а именно горы сбоев, черные картинки, месиво цветов, значительно худшее объективное качество.
И это мой второй как бы фейковый акк, на тот который идет основным, такой хуйни нет.
Аноним 04/02/23 Суб 21:04:59 #422 №100868 
>>100863
conspiracy
Аноним 04/02/23 Суб 21:09:08 #423 №100874 
>>100862
Алсо в качестве рекламы: авторы статьи обещаются, что у них получаются результаты на их модели лучше, чем с помощью сд, но при этом быстрее.
Аноним 04/02/23 Суб 21:13:33 #424 №100877 
>>100862
Когда для ретардов запилят, попробую. А пока там ебля какая-то как я вижу
Аноним 04/02/23 Суб 21:18:33 #425 №100881 
>>100877
Как я понял там нужно всего лишь обучить свою модель, а дальше хуйня дело.
Аноним 04/02/23 Суб 21:21:10 #426 №100884 
>>100881
Там написано обучить VAE, если судить по архитектуре стейбол дифьюжен то это не все, это лишь один из компонентов. Но скорее всего у Muse другая архитектура. Так что да, остается походу ждать натренированную модель и гуй
Аноним 04/02/23 Суб 21:28:28 #427 №100895 
А есть какие-нибудь таблицы сравнений, сколько при тренировке лоры n в названии папки ставить, в зависимости от количества пикч в датасете, их качества и тд? Если папка всего одна. Или так, примерно силой прочувствовать?
Аноним 04/02/23 Суб 21:29:21 #428 №100896 
>>100895
Силой. Я целюсь примерно на 1500 шагов при стандартной скорости обучения и батч сайз 1. Нередко попадаю с первого раза
Аноним 04/02/23 Суб 21:33:34 #429 №100899 
>>100896
1500 на 1 эпоху или 10?
Я последний раз 6ку на ~200 пикч поставил, 12к шагов было. Не перебрал ли.
Аноним 04/02/23 Суб 21:36:05 #430 №100905 
>>100899
1500 как суммарное количество шагов, не на эпоху
Аноним 04/02/23 Суб 21:41:58 #431 №100917 
>>100905
Значит все же пербор. Спасибо, попробую.
Аноним 04/02/23 Суб 21:43:56 #432 №100919 
>>100917
Ну я с такими большими датасетами не работал, забыл сказать. Тонкостей не знаю
Аноним 04/02/23 Суб 22:01:49 #433 №100943 
Кто-нибудь делал сравнение, какое значение gradient accumulation лучше использовать? У меня 3050, batch size выше 1 не запускает. Я пытался сравнить на датасете из 20 картинок. Ставил значения 1,5,20 при прочих равных. Выходило по-разному, не могу сказать что что-то лучше или хуже.
Аноним 04/02/23 Суб 22:06:16 #434 №100957 
>>100943
> Выходило по-разному
Ты на одном сиде пробовал?
https://huggingface.co/docs/accelerate/usage_guides/gradient_accumulation
По сути не должно быть различий
Аноним 04/02/23 Суб 22:17:17 #435 №100972 
image.png
ну и зачем мне это?
Аноним 04/02/23 Суб 22:19:57 #436 №100978 
image.png
не, пиздец, ему похуй вообще на мои попуки, я в датасет даже кропы этих триграм включил, кропы табарда, а ему поебать
Аноним 04/02/23 Суб 22:31:09 #437 №100990 
Как понять файл fp16 или fp32?Если в имени файла не подписано?
Аноним 04/02/23 Суб 22:33:50 #438 №101001 
>>100990
По размеру. 4гб 32, 2гб 16
Аноним 04/02/23 Суб 22:34:20 #439 №101003 
>>101001
оранж 6 гб фп16 оправдывайся
Аноним 04/02/23 Суб 22:34:36 #440 №101004 
>>100978
Но стало получше, возможно, надо именно кропы табарда включать в датасет, чтобы модель понимала положение этих триграмм вообще. Но мне пока что лень, т.к. весь остальной котюм выдает правильно.
Аноним 04/02/23 Суб 22:35:15 #441 №101005 
>>101003
Значит еще что-то внутри. EMA
Аноним 04/02/23 Суб 22:37:37 #442 №101012 
image.png
>>101003
у меня 2гб
Аноним 04/02/23 Суб 22:38:29 #443 №101014 
image.png
>>101005
что значит rejected?
Аноним 04/02/23 Суб 22:38:51 #444 №101016 
>>101012
МОгу ли я пропатчить данное расширение и как то выводить это?Есть идеи? Как я вижу оно не пишет сейчас?
Аноним 04/02/23 Суб 22:39:36 #445 №101024 
>>101016
я про fp16 или fp32.Что бы не только по имени файла
Аноним 04/02/23 Суб 22:39:57 #446 №101027 
>>101016
Хз, я скачал вчера и оно так выводит, можешь удалить из папки расширение и заново его установить
Аноним 04/02/23 Суб 22:40:04 #447 №101028 
>>101024
Что бы не только по размеру,оговорился
Аноним 04/02/23 Суб 22:40:41 #448 №101029 
>>101014
Ну расширение проанализировало структуру модели, и вычислила те компоненты, что к модели не относятся
Аноним 04/02/23 Суб 22:50:42 #449 №101053 
>>101029
pix2pix же удобная штука, вот бы его и в аниме-модели
Аноним 04/02/23 Суб 23:02:46 #450 №101084 
Короче в попу трахал эти текстовые эмбеды, 15 раз перетренивал, дотренивал и нихуя
Аноним 04/02/23 Суб 23:04:45 #451 №101086 
>>101084
Я же говорил тебе что это дерьмо мамонта устаревшее
Аноним 04/02/23 Суб 23:07:27 #452 №101090 
>>101086
Оно нормальное, но очень придирчиво к настройкам и датасету. На цивите охуенные эмбеды с актёрами повыкладывали, супермегаредактируемые, работающие с любой сд 1.х моделью. И я как увидел сразу полетел тестить, но датасет на жопиче говно потому что хайрез пиков с ним не существует в природе, соответственно шансы натренить нормальный эмбед нулевой
Аноним 04/02/23 Суб 23:14:43 #453 №101100 
>>101090
>потому что хайрез пиков с ним не существует в природе
А как же апскейл?
мыльный жопич даже реалистичнее
Аноним 04/02/23 Суб 23:17:06 #454 №101107 
>>101100
> А как же апскейл?
Бля, а что есть прям хорошие апскейлеры, которые могут восстановить детали на лице? Я не в курсе. Конечно бы проапскейлил, если б знал чем. Да и вообще инфа про апскейлеры в шапке бы пригодилась
Аноним 04/02/23 Суб 23:42:22 #455 №101164 
че ваще на порноактрис лор не тренируют чтоли?
Аноним 04/02/23 Суб 23:46:32 #456 №101175 
>>101164
а нахуя вообще? тебе среншин импекта мало?
Аноним 04/02/23 Суб 23:49:06 #457 №101180 
На оранже можно тренить?
Аноним 04/02/23 Суб 23:49:49 #458 №101182 
>>101180
Кто-то запретил?
Аноним 04/02/23 Суб 23:53:53 #459 №101195 
>>101164
3дпд.
Аноним 04/02/23 Суб 23:56:43 #460 №101203 
>>101195
што

>>101175
в смысле нахуя? столько закончивших карьеру актрис такто есть годных, а анимеговно нинужно
Аноним 04/02/23 Суб 23:57:56 #461 №101205 
>>101182
Удачные примеры с настройками есть?

Алсо, какой минимум картинок для хоть какого-нибудь результата? Хочу попробовать вкатиться но сначала просто проверить что работает.
Аноним 05/02/23 Вск 00:04:57 #462 №101217 
.jpg
.jpg
.jpg
.jpg
Ух пизда. Кто ищет тот всегда найдет!

https://github.com/cszn/KAIR

>>101100
Аноним 05/02/23 Вск 00:06:10 #463 №101221 
>>101205
>>98807
Аноним 05/02/23 Вск 00:08:22 #464 №101223 
>>101205
Я лоры не тренил, но тренил эмбеддинги. Я не тестировал, но подозреваю вот что:
а) Модель должна уметь воспроизводить тот стиль, что на пикчах в датасете. Если модель это делает по умолчанию или в датасете вообще пики непосредственно с модели, то тегать в датасете стиль не нужно. Если модель умеет воспроизводить стиль, но для этого нужно прописать тег, то в датасете на соответствующих пикчах должен быть проставлен тег.
б) Модель должна быть достаточно популярной, чтобы большая её часть находилась в популярных миксах.
Пункт а) нужен, чтобы сеть усвоила концепт, а не стиль или ещё хуйню какую-нибудь.

Скорее всего это для лор тоже применимо.
Аноним 05/02/23 Вск 00:10:41 #465 №101228 
>>101217
Чет на одном пике мешки, на другом нет.
Аноним 05/02/23 Вск 00:24:34 #466 №101246 
>>101217
Как поставить, сколько врам надо?
Аноним 05/02/23 Вск 00:26:02 #467 №101250 
а лоры норм тренятся на прунед моделях?
Аноним 05/02/23 Вск 00:26:29 #468 №101252 
>>101246
С небольшой пляской получилось на 6 гб. Как поставить в репо написано, 3 команды выполнить, пару файлов скачать и в папку закинуть
Аноним 05/02/23 Вск 00:27:04 #469 №101253 
>>101250
Лоры тренятся с точностью fp16/bf16
Аноним 05/02/23 Вск 00:27:11 #470 №101254 
А дайте норм настройки для запуска тренинга лоры плис, ну чтобы те которые у вас работают хотя бы
Аноним 05/02/23 Вск 00:27:35 #471 №101255 
>>101253
ну норм, у меня все в fp16
Аноним 05/02/23 Вск 00:28:11 #472 №101257 
>>101254
>>101221
Аноним 05/02/23 Вск 00:32:47 #473 №101263 
image.png
>>101257
Спс, но как прописать это

scheduler cosine, shuffle_caption вкл
Аноним 05/02/23 Вск 00:33:56 #474 №101265 
>>101263
scheduler в lr_shceduler.
shuffle_caption у тебя и так включен.
Аноним 05/02/23 Вск 00:35:59 #475 №101269 
>>101265
>scheduler в lr_shceduler.
Это я понял, а прописать просто cosine вместо cosine с рестартами или как?
Аноним 05/02/23 Вск 00:37:47 #476 №101272 
>>101269
Да.
Бля, слуш, там гайд в шапке на русском языке, прочитай его пожалуйста.
Аноним 05/02/23 Вск 00:40:32 #477 №101279 
image.png
>>101272
Я читаю, но он не про колаб, а вопросики нубасные все равно есть конкретно по колабу.
Например вот эти две папки, я правильно понял что кропы с описанием кидатьв первую папку, а что во вторую?
Аноним 05/02/23 Вск 00:42:51 #478 №101285 
>>101203
кумероблядина, потише
Аноним 05/02/23 Вск 00:44:50 #479 №101289 
>>101279
А понил, рег папка нинужна получается.
Аноним 05/02/23 Вск 00:50:07 #480 №101297 
>>101285
зачем тренировать онеме, если они все на одно литсо? никогда нипанять
Аноним 05/02/23 Вск 01:32:53 #481 №101348 
>>101090
>На цивите восхитительные эмбеды с актёрами повыкладывали, супермегаредактируемые, работающие с любой сд 1.х моделью.

Так-так-так, то есть если некая ЕОТ постит селфачи в хорошем качестве в своих соцсеточках, то... сколько там надо лицефоток для тренинга инверсии? И как их готовить? А если есть лица не в 512х512, а в 768х768?

Кто-нибудь пробовал? Или там нужен одинаковый макияж, причёска, образ и вот это всё?..
Аноним 05/02/23 Вск 01:36:42 #482 №101356 
image.png
image.png
image.png
В чем ошибка? Как фиксить?
Аноним 05/02/23 Вск 01:43:41 #483 №101360 
image.png
>>101356
так, рольнул еще раз вроде поехало, лоссы норм?
Аноним 05/02/23 Вск 01:47:20 #484 №101364 
>>101360
> 38 секунд
> лоссы норм?
Я не уверен что кто-то знает ответ
Аноним 05/02/23 Вск 01:50:29 #485 №101367 
image.png
>>101364
не ну в целом чтото проглядывается от сета джинксины который я юзал
Аноним 05/02/23 Вск 01:52:11 #486 №101369 
image.png
image.png
>>101367
определенно надо крутить выше
Аноним 05/02/23 Вск 01:53:26 #487 №101372 
image.png
>>101369
прикольненько
Аноним 05/02/23 Вск 02:04:56 #488 №101389 
>>101364
А сколько эпох оптимально крутить?
Аноним 05/02/23 Вск 02:08:51 #489 №101393 
Блядь, неужели нет нормальной мокрописьки чтобы пройтись по папкам с пикчами и создать текстовики с описаниями от BLIP'а? Пиздец, что не найду, одно нерабочее говно.
Аноним 05/02/23 Вск 02:11:14 #490 №101397 
>>101393
>пройтись по папкам с пикчами
Ты там промышленное производство лор налаживаешь?
Аноним 05/02/23 Вск 02:11:54 #491 №101399 
image.png
>>101393
всмысле нет? я жинксу через дофолтный препроцесс на пике пустил и все, потом в каждом добавил тег на жинксу и скормил трейнеру
Аноним 05/02/23 Вск 02:13:34 #492 №101402 
>>101397
По папке*, извиняюсь
>>101399
Блять, точно, как вариант, спасибо. Плохо только что никаких настроек интеррогейта и нет выбора модели
Аноним 05/02/23 Вск 02:15:03 #493 №101405 
>>101402
>и нет выбора модели
а че блипов больше чем один?
Аноним 05/02/23 Вск 02:17:11 #494 №101406 
.png
>>101405
Да, как раз потестить хотел
Аноним 05/02/23 Вск 02:17:53 #495 №101407 
image.png
image.png
>>101372
>>101369
а вот уже 100 эпох
Аноним 05/02/23 Вск 02:18:16 #496 №101408 
Молодец!
Аноним 05/02/23 Вск 02:18:41 #497 №101409 
image.png
>>101407
лоссы вроде норм
Аноним 05/02/23 Вск 02:19:14 #498 №101410 
>>101406
можно просто скочять и название заменить наверно
Аноним 05/02/23 Вск 02:26:25 #499 №101415 
.png
Нашел кароч какое-то говно
Аноним 05/02/23 Вск 02:30:59 #500 №101417 
.png
Ясненько, поел говна.
Аноним 05/02/23 Вск 02:32:52 #501 №101422 
>>101415
>>101417
чем тебя стандартный блип не устраивает то, он неплохо тегает
Аноним 05/02/23 Вск 02:37:03 #502 №101426 
>>101422
Клип > блип
Аноним 05/02/23 Вск 02:37:41 #503 №101429 
image.png
image.png
>>101407
С плагином кохйи лутше конечно ебашит даже с 100 эпохами

А поясните, вот натренилось с окнами из сета, они так и будут срать в изображение или как-то фиксануть можно?
Аноним 05/02/23 Вск 02:42:21 #504 №101430 
>>101429
> А поясните, вот натренилось с окнами из сета, они так и будут срать в изображение
Какой датасет, такие и генерации
Аноним 05/02/23 Вск 02:44:20 #505 №101432 
>>101430
Ладно. А если допустим отделять тело от фона? Или лучше просто лицо тренить онли?
Аноним 05/02/23 Вск 02:45:48 #506 №101434 
>>101432
> А если допустим отделять тело от фона?
Будут генерации без фона
> Или лучше просто лицо тренить онли?
Будет только лицо
Аноним 05/02/23 Вск 02:46:50 #507 №101435 
>>101434
Ну и смысол лоры тогда лол
Аноним 05/02/23 Вск 02:50:15 #508 №101436 
>>101435
Не знаю. Люди как-то тренят и у них получается
Аноним 05/02/23 Вск 02:58:47 #509 №101444 
>>101429
Добавь окна в теги.
Аноним 05/02/23 Вск 03:26:08 #510 №101484 
image.png
13761-7 57d103206a.png
>>101444
Это не сработало, но сработала какаято магия с переименованием safetensors в pt лол, еще и генерации пиздатее стали.
Аноним 05/02/23 Вск 03:26:45 #511 №101486 
image.png
>>101484
А и да, настройки такие
Аноним 05/02/23 Вск 03:27:24 #512 №101488 
>>101486
Нах ты текст энкодер в -1 выкрутил
Аноним 05/02/23 Вск 03:27:51 #513 №101490 
>>101488
Хочица
Аноним 05/02/23 Вск 03:29:24 #514 №101494 
>>101484
А не, это похоже так реагирует на голый кейворд, печально
Аноним 05/02/23 Вск 03:44:04 #515 №101504 
image.png
image.png
image.png
image.png
>>101484
Кароче, мердж стоэпошной джинксы с моделью базой вроде работает (характерные круглые серьги по тегу генерит), но очевидно надо дрочить тыщи эпох для уберточности для мерджа.
Аноним 05/02/23 Вск 04:10:56 #516 №101532 
>>101504
Дед, угомонись.
Аноним 05/02/23 Вск 04:18:45 #517 №101537 
00004-3023041210-half-length p.png
00032-2289502188-half-length p.png
00035-3818385334-half-length p.png
00087-2249207865-realistic po.png
короче я ни хуя не понял как оно работает и меня это заебало
Аноним 05/02/23 Вск 04:22:34 #518 №101541 
lora sett.png
Анон который знает как тренировать лору, расскажи что делаю не так?

В гайдах пишут что в Instance Token пишется тег, который будет потом в промте включать натренерованный стиль или обьект. В Instance Prompt, Class Prompt, Sample Image Prompt - теги из .txt из датасета.

Но у меня после тренировки модель рисует натренерованные детали и стили сразу в любой промт даже без тега eyrt из поля Instance Token, т.е. датасет намазывается на всю модель.

Сам eyrt один в качестве промта может рисовать несвязанный с датасетом рандом.

Что я делаю не так?
Аноним 05/02/23 Вск 04:26:10 #519 №101544 
>>101541
Прости, это устаревшее багованное говно, могу помочь только если тренишь через скрипт китайца
Аноним 05/02/23 Вск 04:28:02 #520 №101545 
>>101544
Это вроде свежее. Скрипт китайца это какой?
Аноним 05/02/23 Вск 04:30:56 #521 №101550 
>>101545
sd-scripts от kohya-ss
Аноним 05/02/23 Вск 04:44:57 #522 №101565 
>>101550
А как там задать на конкретный тег включение натренированых деталей? Какие настройки?
Аноним 05/02/23 Вск 04:46:44 #523 №101567 
>>101565
Не совсем понимаю о чём ты. Всё что касается сборки датасета находится в гайде.
Аноним 05/02/23 Вск 04:50:55 #524 №101577 
>>101567
Датасет и так собран.

Неясно, как задать активацию стиля в промте в txt2img на конкретный уникальный тег.

Вот например: по гайду из >>98807 сделать лору и чтобы при
1girl, standing - не рисовалась суйка или любые другие черты и стили из датасета, которые натренила лора
а при
1girl, standing, ibs - рисовалась суйка или её черты и стили
Аноним 05/02/23 Вск 04:54:14 #525 №101581 
>>101577
Так не получится, если теги
> 1girl, standing
есть в файлах описаний. Учитывая что 1girl скорее всего находится в каждом файле, сеть непременно будет ассоциировать внешность с персонажа с этим тегом.
Аноним 05/02/23 Вск 04:57:17 #526 №101583 
>>101581
А как же это работает тогда?

Например, тренировка на стиль артиста, которому хочется сделать уникальный тег.

А оно будет в итоге включаться на 1girl ?

Может это как-то конфигурируется? Ведь смысл-то весь в том, чтобы на конкретный тег натренировать, а не на 1girl и прочее, которое в каждом файле...
Аноним 05/02/23 Вск 05:02:55 #527 №101589 
>>101583
Бессмысленно проставлять тег 1girl в каждом файле. Нейронка не учится на тегах, она вообще не понимает что это такое, нейронка учится на различиях. Если бы у тебя была половина пикч с 1girl и другая половина с 1boy, нейронка бы прекрасно поняла как генерировать и то и другое, потому что она запомнила различия.
Если ты хочешь один уникальный тег на вызов персонажа, убирай из всех файлов описаний общее и заменяй убранное на один придуманный тобой тег.
Аноним 05/02/23 Вск 05:10:52 #528 №101598 
>>101589
> Если ты хочешь один уникальный тег на вызов персонажа, убирай из всех файлов описаний общее и заменяй убранное на один придуманный тобой тег.

Гипернетворки и эмбединги так и работали. Там была строка для ввода главного тега, и по нему потом они подтягивались в txt2img:

-сеть берет описание из файла, генерит картинку, ассоциируя ее с уникальным тегом.
-сравнивает ее с картинкой с датасета:
---Если далеко - получает по башке. В следующий раз старается сделать иначе.
---Если близко - получает печеньку. В следующий раз старается сделать похоже.
и т.д.

В результате по уникальному тегу оно включало натренерованные стили/обьекты.

А тут как оно будет генерить по описанию, чтобы сравнить, если описание - уникальный придуманный тег который не рисует по описанию, а рандом?
Аноним 05/02/23 Вск 05:17:02 #529 №101607 
.png
>>101598
Ой бля пиздец сложна.
> сеть берет описание из файла, генерит картинку, ассоциируя ее с уникальным тегом.
Это как?
> А тут как оно будет генерить по описанию, чтобы сравнить, если описание - уникальный придуманный тег который не рисует по описанию, а рандом?
Ваще пиздец не понял.
Аноним 05/02/23 Вск 06:12:52 #530 №101643 
>>100957
Да, на одном естественно. Там прям стиль отличался.
Аноним 05/02/23 Вск 06:25:56 #531 №101648 
>>101643
Наверное нет такого понятия как "лучше" или "хуже". Видимо имплементация китайца ломает детерминированность. Когда батч делится на минибатчи они каждый раз рандомно перетасовываются и в такой последовательности идут на обновление градиента, соответственно ты никогда не сможешь воспроизвести одни и те же результаты даже на одном сиде. Я сегодня гуглил твою проблему, и такого типа быть не должно, такое случается только если обработка происходит параллельно, например на видеокарте и процессоре одновременно
Аноним 05/02/23 Вск 07:24:27 #532 №101678 
Кароче 1000 эпох на 26 картинках перетрен вроде как.
А теперь обисните лоре нужен огромный датасет или что с ней делать вообще? Она же юзлес получается - снижаешь влияние сосешь с похожестью, не снижаешь - сосешь из-за собранного датасета - все картинки получаются как датасет.
Почему такой дроч на лору, если гиперы и эмбеды более гибкие?
Аноним 05/02/23 Вск 08:13:22 #533 №101705 
>>101541
> детали и стили сразу в любой промт
Да и на скрипте у меня такая же хрень. Что с токеном, что нет - рисует одинаково. Мне кажется это нормой и оно действует только тогда, когда у тебя несколько концептов. Например, несколько персонажей запихиваешь в одну лору.
>>101678
Когда я обучал гиперсеть у меня точно такая же проблема была, как и на лоре. Скорее наоборот радовался, что она при силе 1 рисует как дата-сет, значит она смогла его запомнить, а не рисовать мешанину как в предыдущих 999 попытках.
Аноним 05/02/23 Вск 09:37:49 #534 №101723 
Принимаете реквесты?
Анон делал по реквесту лору Имари, хорошо получилось. У меня тоже маленький реквест, Reika Shinohira. Она хорошо заходит и для реализма, и для манга стиля. Если есть желающие, то позже скину хороший сет без полей, с чистым фоном, тегами и апскейлом.
Аноним 05/02/23 Вск 12:17:44 #535 №101789 
Полудохлый тред, но запощу. https://disk.yandex.com/d/BjpokeBfjQY3lA Сет на 36 пикч с чистым фоном, должно хватить.
Аноним 05/02/23 Вск 12:27:56 #536 №101795 
>>101789
> Полудохлый тред
Таки шо ви хотели в это утро воскресенья
Аноним 05/02/23 Вск 12:31:01 #537 №101799 
>>101789
Чел, что с разрешением пиков..
Аноним 05/02/23 Вск 12:32:08 #538 №101800 
>>101253
Можно поподробнее? Лоры нужно тренить на каких-то особых версиях моделей?
Аноним 05/02/23 Вск 12:49:52 #539 №101810 
>>101799
А, только что понял: я забыл выключить nearest neighbor и он использовался вместо lanczos. Тогда позже перезалью.
Аноним 05/02/23 Вск 13:17:31 #540 №101831 
Посоветовали "прунить теги" при обучении. Это что значит и как делать?
Аноним 05/02/23 Вск 13:34:20 #541 №101855 
>>101831
укорачивать теги
Аноним 05/02/23 Вск 13:48:43 #542 №101871 
Ну что анончики, тред полистал и так и не понял, с нетворк альфой разобрались? 1 в новых, равна диму для поведения старой версии и может поломаться, а что там с промежуточными вариантами, тестил кто?
Аноним 05/02/23 Вск 13:54:03 #543 №101880 
>>101871
Я треню на альфе равной половине дима, вроде нормально
Аноним 05/02/23 Вск 14:06:45 #544 №101900 
>>101880
А сравнения проводил кто? Вон выше свалка гридов на 30 эпох и прочее, уж это наверняка смотрели.
Аноним 05/02/23 Вск 14:11:22 #545 №101908 
>>101900
В прошлых тред есть грид с димами. С альфой нет. Может как-нибудь когда-нибудь
Аноним 05/02/23 Вск 14:15:11 #546 №101914 
image.png
image.png
Натреньте кому не лень лору на художника tsuji santa, плиз
Аноним 05/02/23 Вск 14:29:37 #547 №101923 
Эх, вот бы кто завёз расширение чтобы можно было на лету использовать различные клипы и унеты как это реализовано с вае. Вообще эта фича должна быть реализована в автоматике. Мы такой хуйней занимаемся, это пиздец. Каждый раз качаем почти одинаковые модели, тоже самое с серверами, засираем хаггинфейс и цивит одним и тем же говном. Некоторые дебилы в 2023 году умудряются заливать 8 гигабайтные модели с ЕМА и с бесполезным fp32
Вот приведу пример. Скачал я пару дней назад Classic Negative SD 2.1-768. Но меня не устраивало, что почти стоковая SD 2.x модель занимает ровно столько же места, сколько и просто стоковая. Я подумал "попробую извлечь разницу между моделями, авось что выйдет". Расчехлил скрипт китайца. Достал лору. Результат нуууу... такой. С лорой получалось нечто среднее между Classic Negative и обычной моделью. Но суть не в этом. Когда я вытаскивал лору, скрипт сравнивал компоненты модели и выдал следующее:
"Text encoder are the same, extracting UNet only"
Я такой "ага млять". Пихаю классик негатив в тулкит и выясняю что и VAE от стоковой модели (на самом деле это вполне логично, никто VAE отдельно не тренирует и очень-очень зря, но это тема для другого разговора). Т.е. у меня две модели грубо говоря на две трети одинаковые и отличаются только UNet'ом. И нахуя мне это? Почему я не могу просто юзать SD 2.1, а потом на лету менять UNet?
И это один пример из сотни.
Аноним 05/02/23 Вск 14:36:01 #548 №101932 
Тут альтернативу автоматику подвезли, только хайрезфикс запилить >>93942 (OP)
Аноним 05/02/23 Вск 14:48:00 #549 №101941 
Перезалил сет Рейки
https://disk.yandex.com/d/DiJ2ITxBD9BIOg
Запилите лору персонажа плз кто умеет
Аноним 05/02/23 Вск 14:49:03 #550 №101945 
>>101932
Лучше пусть запилят хайрез в орду.
Аноним 05/02/23 Вск 14:49:13 #551 №101946 
>>101941
Готов побыть объектом исследований?
Аноним 05/02/23 Вск 14:49:29 #552 №101947 
>>101941
я разочаровался в лорах
Аноним 05/02/23 Вск 14:49:37 #553 №101948 
>>101932
очередной убийца автоматика?
Аноним 05/02/23 Вск 14:50:03 #554 №101950 
>>101947
Почему?
Аноним 05/02/23 Вск 14:50:47 #555 №101951 
>>101950
юзкейса нет
Аноним 05/02/23 Вск 14:51:39 #556 №101954 
>>101951
Так придумай сам. Люди обучают то что хотят видеть
Аноним 05/02/23 Вск 14:52:26 #557 №101955 
>>101951
Так ты пикчи делай а не одну за другой модельку да гриды к ней дрочи
Аноним 05/02/23 Вск 14:52:43 #558 №101956 
>>101946
Мы тут все такие.
Аноним 05/02/23 Вск 14:59:32 #559 №101961 
>>101871
А по числу пикч в датасете и их повторений есть чего?
Аноним 05/02/23 Вск 14:59:43 #560 №101962 
tmpz0emmhtk.png
tmps650e6yl.png
tmpmf7z367h.png
tmpbyadaeib.png
Без лоры выходит так себе (не похоже на Рейку, даже волосы не чёрные)
Аноним 05/02/23 Вск 15:03:08 #561 №101964 
>>101962
Ты ее опиши нормально, костюмчик добавь и т.д. Сейчас может бахну для теста что получится, датасает мэх кмк, но в общем пойдет.
Аноним 05/02/23 Вск 15:08:02 #562 №101971 
>>101964
Вот норм дата без пикселей >>101941 просто я в тот раз обосрался с алгоритмом ресайза.

Дефолтный костюм это черный облегающий комбинезон. Но мне нужно именно лицо и прическа, чтобы сочетать с чем угодно.
Аноним 05/02/23 Вск 15:08:18 #563 №101972 
Сколько лора может запоминать? Может ли одна лора запомнить, скажем, сразу несколько персонажей? Лучше ли обучать одну лору на нескольких персонажах или на каждого персонажа по одной лоре?
Аноним 05/02/23 Вск 15:10:31 #564 №101978 
>>101972
Каждому по одной, затеи объединить.
Аноним 05/02/23 Вск 15:11:48 #565 №101980 
>>101978
Типо замержить? А в чем такое делается?
Аноним 05/02/23 Вск 15:12:42 #566 №101981 
image
Установил расишрение, все перезапустил, а оно в вебуи не появляется. Что делать?
Аноним 05/02/23 Вск 15:13:07 #567 №101982 
>>101980
В тензорах.
Аноним 05/02/23 Вск 15:14:46 #568 №101983 
>>101981
Ставь старую версию ui с гита, долбаеб всё сломал
Аноним 05/02/23 Вск 15:16:01 #569 №101986 
>>101983
Как?
Аноним 05/02/23 Вск 15:17:06 #570 №101988 
Кто пробовал трейнить лору на лольках из vladmodels? или, ну в общем на голеньких из даркнета
Аноним 05/02/23 Вск 15:17:16 #571 №101989 
>>101978
Тесты есть?
Аноним 05/02/23 Вск 15:17:40 #572 №101990 
>>101986
Параметром к команде git и кодом к нужной ревизии
Аноним 05/02/23 Вск 15:17:52 #573 №101991 
>>101982
Что ето?
Аноним 05/02/23 Вск 15:18:14 #574 №101992 
>>101990
ага угу
Аноним 05/02/23 Вск 15:18:35 #575 №101993 
>>101988
Ну товарищ майор..
Аноним 05/02/23 Вск 15:22:13 #576 №101996 
>>101993
Лол
Хард под завязку, от кэндидолл софткора до жесткого порева и гуро по этой теме
Аноним 05/02/23 Вск 15:24:50 #577 №101998 
>>101991
Это просто массив циферок в питорче, додич тебя троллит.
Аноним 05/02/23 Вск 15:26:01 #578 №102001 
>>101998
Дая знаю, что такое тензор.

Как мержить лоры?
Аноним 05/02/23 Вск 15:28:52 #579 №102004 
.png
>>102001
Аноним 05/02/23 Вск 15:47:16 #580 №102022 
Обучение 768 или 832 не хочет заводиться на 6гб карте, говорит аут оф мемори. Можно ли подрубить какой-нибудь оптимизатор?
Аноним 05/02/23 Вск 15:47:40 #581 №102024 
>>102022
Почему бы не кропнуться о 512?
Аноним 05/02/23 Вск 15:48:44 #582 №102025 
image.png
мнение?
Аноним 05/02/23 Вск 15:49:22 #583 №102026 
>>102024
Хочу чтобы было красиво конфетка вах. (Вообще просто скопировал настройки челика у которого очень хорошо получается).
Аноним 05/02/23 Вск 15:49:45 #584 №102027 
>>102026
>скопировал настройки челика у которого очень хорошо получается
скинь
Аноним 05/02/23 Вск 15:50:47 #585 №102029 
>>102027
Сначала ответ на вопрос.
Аноним 05/02/23 Вск 15:52:41 #586 №102034 
seeds.jpg
weights.jpg
>>101962
>>101941
Попробовал потренить с твоим датасетом, вот что получилось
Аноним 05/02/23 Вск 15:53:03 #587 №102035 
>>102029
6 гб не потянет 768+ тренинг чел
Аноним 05/02/23 Вск 15:54:09 #588 №102038 
image.png
>>102025
ух бля тегируем, чувствую какой кал будет на выходе
Аноним 05/02/23 Вск 15:57:34 #589 №102042 
>>102029
Не расчитывай выше чем на 640. Скорость будет черепашья

>>102038
Пиздец
Аноним 05/02/23 Вск 15:59:09 #590 №102046 
>>102034
А чего язык высунутый, это промпт такой?
Дефолтные шмотки напрягают, в остальном норм. Скинь файл?
Аноним 05/02/23 Вск 15:59:23 #591 №102048 
А чому кстати в гуйде написано что лучше нсфв имеджы зип архивить перед загрузкой в гуглдиск? Это ж дичная папка, че такова.
Аноним 05/02/23 Вск 16:01:39 #592 №102052 
В коллаб можно не дефотную ваешку загрузить?
Аноним 05/02/23 Вск 16:01:49 #593 №102053 
>>102048
Не только архивить, но и ставить пароль. Гугловская нейронка детектит цп (манямэ-лоликон тоже).
Аноним 05/02/23 Вск 16:03:03 #594 №102055 
Лосс сколько должен быть?
Аноним 05/02/23 Вск 16:03:13 #595 №102057 
>>102053
А если у меня 18+ онли?
Аноним 05/02/23 Вск 16:03:17 #596 №102058 
Когда я последний раз трейнил модель на лоликоне, то пароль на архиве сработал для диска, а колаб ничего не заподозрил.
Аноним 05/02/23 Вск 16:03:29 #597 №102059 
>>102055
меньше 0.2
Аноним 05/02/23 Вск 16:05:10 #598 №102063 
image.png
>>102057
У меня голая жинкс просто так лежит кстати. Норм вчера тренилось.
Аноним 05/02/23 Вск 16:05:20 #599 №102064 
>>102035
А каггловский P100 потянет?
Аноним 05/02/23 Вск 16:06:16 #600 №102065 
>>102026
>настройки челика у которого очень хорошо получается
Выкладывай
Аноним 05/02/23 Вск 16:07:05 #601 №102067 
>>102046
Ну да, промпт вытащил с одной из пикч
https://dropmefiles.com/pNYHc
Аноним 05/02/23 Вск 16:07:12 #602 №102068 
>>102064
Ты можешь покрутить gradient accumulation steps, но я не уверен что это сработает. Скорость упадёт
Аноним 05/02/23 Вск 16:10:29 #603 №102081 
tmpcmiwdtf.png
54j.png
tmpw4gybpc.png
tmp5bata5z.png
>>102067
Отлично, ща заценим. Попробую стиль Frazetta+Didier вместе с этой лорой, интересно что выйдет.
Аноним 05/02/23 Вск 16:12:54 #604 №102088 
>>102042
>Скорость будет черепашья
Ну вот я натренил 640 за 15 минут. Почему я не могу натренить 768 за час?
Аноним 05/02/23 Вск 16:13:56 #605 №102090 
А может кто затрейнить Kasumi из DoA?
Аноним 05/02/23 Вск 16:14:07 #606 №102092 
>>102088
> Почему я не могу натренить 768 за час?
аут оф мемри
Аноним 05/02/23 Вск 16:15:46 #607 №102094 
> А может?
> А не может?
Колаб, облако, локально. Лентяи.
Аноним 05/02/23 Вск 16:19:22 #608 №102098 
А как в колабе разархивировать зип архив я чет не догоняю помогите
Аноним 05/02/23 Вск 16:38:44 #609 №102130 
image
image
5 минут на 10 картинках, слева ориг справа то что получилось. Будем посмотреть.
Аноним 05/02/23 Вск 16:47:02 #610 №102146 
>>102130
Хэй, шикикан! Почему не ришелье?
Аноним 05/02/23 Вск 16:51:46 #611 №102154 
xyzgrid-0039-491751856-1girl, ass, breasts, from below, long hair, looking at viewer, looking back, medium breasts, panties, parted lips, realistic, so.png
Я вам первую меховую лору добавил в rentry
Аноним 05/02/23 Вск 16:53:03 #612 №102158 
>>102146
>ришелье
Не моя жена.
Аноним 05/02/23 Вск 17:02:24 #613 №102173 
>>102154
Хорош
Аноним 05/02/23 Вск 17:02:24 #614 №102174 
>>102154
собаки есть?
Аноним 05/02/23 Вск 17:03:21 #615 №102177 
>>102174
Це только на одного персонажа
Лора жи есть
Аноним 05/02/23 Вск 17:13:19 #616 №102193 
Кароче ясно, чем разнообразнее датасет тем пиздаче лора. На сотне разных изображений уже на 10 эпохах болиелимение интересно генерит.
Аноним 05/02/23 Вск 17:17:28 #617 №102201 
.jpg
.jpg
>>101941
>>101962
lr указан в названии, r1,r2,r3 - 5, 10 и 15 повторений пикч датасета, a1 - альфа 1, a32 - альфа 32 (дим 64), с лр 5e-3 последняя ломается. Хуй знает, так сложно судить, надо с другими тегами ее запустить, сделать на другого персонажа чтобы более отличался от того что модель уже знает, датасет разнообразнее.
Аноним 05/02/23 Вск 17:23:10 #618 №102214 
>>102201
Какой батч сайз?
Аноним 05/02/23 Вск 17:33:29 #619 №102234 
>>102214
8
Аноним 05/02/23 Вск 17:36:36 #620 №102242 
>>102201
Модель и вае какие использовал?
Аноним 05/02/23 Вск 17:49:47 #621 №102264 
>>102242
Леписин, 84к
Аноним 05/02/23 Вск 17:51:39 #622 №102268 
image.png
>>102193
50 эпох, 100 изображений
Аноним 05/02/23 Вск 18:00:43 #623 №102285 
00049-3540211811-realistic photo of a (doberman1.2), by Jeremy Lipking, by William Bouguereau, (by Alphonse Mucha0.5), sabudenego, jeremy lipk.png
00050-3540211812-realistic photo of a (doberman1.2), by Jeremy Lipking, by William Bouguereau, (by Alphonse Mucha0.5), sabudenego, jeremy lipk.png
01000-3137244349-realistic photo of bestiality, cirno, doggystyle, domestic dog, canine, human on feral, by Jeremy Lipking, by William Bouguereau.png
01005-408869445-realistic photo of bestiality, cirno, doggystyle, domestic dog, canine, human on feral, by Jeremy Lipking, by William Bouguereau.png
>>102177
лора на собак?
Аноним 05/02/23 Вск 18:10:03 #624 №102295 
Какая нынче мета на число повторений на пикчу?
Аноним 05/02/23 Вск 18:12:17 #625 №102300 
>>102295
Трудно сказать. Еще нужно учитывать само количество пикч в датасете. Чем больше - тем меньше повторений. Чем меньше - тем больше повторений, но будь готов к тому что лора будет хуевая
Аноним 05/02/23 Вск 18:23:26 #626 №102313 
image
>>102130
Второй заход.
Аноним 05/02/23 Вск 18:25:29 #627 №102319 
>>102313
Имхо стало хуже
Аноним 05/02/23 Вск 18:26:28 #628 №102322 
>>102319
Зато мыла меньше.
Аноним 05/02/23 Вск 18:34:52 #629 №102340 
>>102322
а мыло это и не плохо
Аноним 05/02/23 Вск 18:35:07 #630 №102342 
>>102130
настройки?
Аноним 05/02/23 Вск 18:37:45 #631 №102349 
1594333295955.png
1634273875237.png
Как же заебала эта хуесосина тупая. Даже код из другой репы не может скопировать нормально. Вместо "if params in pretrained_model.keys()" написал хуиту какую-то, а пользователь потом проверяй за ним и фикси этот кал.
Аноним 05/02/23 Вск 18:37:52 #632 №102350 
А лоратрен на 4 кеках запуститься может в какомнибудь разрешнии ваще?
Аноним 05/02/23 Вск 18:39:05 #633 №102352 
>>102349
Произошел каломатик
>>102350
Если меньше 5.5 гб можешь забыть
Аноним 05/02/23 Вск 18:42:13 #634 №102355 
Стикер
>>102352
>Если меньше 5.5 гб можешь забыть
Аноним 05/02/23 Вск 18:44:11 #635 №102358 
>>102355
Ну или попробовать пошаманить с параметрами gradient_accumulation_steps и gradient_checkpointing. Про них ничего не знаю, не пользовался
Аноним 05/02/23 Вск 18:45:39 #636 №102361 
.jpg
.jpg
.jpg
.jpg
>>102201
Хуй знает, если теги взять из другого файла и почистить то лучше. Точно можно сказать что лр 1e-3 для альфы в половину дима уже многоват, для альфы 1 и 5e-3 близок к верхней границе. По повторениям сказать сложно, понятно что 5 для такого датасета маловато, на 15 уже подсасывает детали костюма тем где он не вызывается и в негативах, но здесь еще проблема в однообразии, по опыту около 900 шагов на эпоху вполне прилично а тут уже на 500 начинает проскакивать.
Кто-нибудь на высоких альфах на новой версии тренил?
Аноним 05/02/23 Вск 18:54:00 #637 №102367 
>>102361
> Кто-нибудь на высоких альфах на новой версии тренил?
Высокая альфа - это поведение старой версии, других отличий нет. У всех старых лор дим = альфе. Высокая альфа приводит к перетрену и ошибкам округления.
Аноним 05/02/23 Вск 19:05:52 #638 №102381 
>>102361
Какую эпоху то показываешь? Вот тут поставил дим 32 и альфу 8, 4 повторения 1е-4 >>102034
Аноним 05/02/23 Вск 19:18:13 #639 №102402 
>>102367
> Высокая альфа - это поведение старой версии
Альфа равная диму - поведение старой версии.
> Высокая альфа приводит к перетрену и ошибкам округления.
Именно высокая или равная диму? К перетрену она сама не приведет же, да и раньше все тренилось нормально, просто лр другой нужен.
>>102381
6я там. Дальше 6-8 при нормальных настройках и для персонажа, обычно, идти смысла нет, пережиривается, детали начинают сливаться и прет хтонь. Твои пикчи тут удачно иллюстрируют (мутции, руки, изгибы на груди, волосы из костюма), но эффект офк слабый на фоне рандомайзера.
Аноним 05/02/23 Вск 19:35:21 #640 №102421 
image.png
image.png
image.png
image.png
натренировал may thai на рандом сете с хуями в жепу, веса от 0.5 до 1 вроде

настройки такие

!accelerate launch \
--num_cpu_threads_per_process 8 train_network.py \
--network_module=networks.lora \
--pretrained_model_name_or_path="/content/drive/MyDrive/delib.ckpt" \
--train_data_dir="/content/drive/MyDrive/sd/dataset/sincos" \
--reg_data_dir="/content/drive/MyDrive/sd/dataset/sincos_reg" \
--output_dir="/content/drive/MyDrive/sd/stable-diffusion-webui/models/Lora/" \
--caption_extension=".txt" \
--prior_loss_weight=1 \
--resolution=512 \
--enable_bucket \
--min_bucket_reso=320 \
--max_bucket_reso=960 \
--train_batch_size=8 \
--learning_rate=1e-4 \
--unet_lr=1e-4 \
--text_encoder_lr=1e-4 \
--max_train_epochs=50 \
--mixed_precision="fp16" \
--save_precision="fp16" \
--use_8bit_adam \
--xformers \
--save_every_n_epochs=10\
--save_model_as=pt \
--clip_skip=1 \
--seed=23 \
--network_dim=32 \
--network_alpha=32 \
--max_token_length=225 \
--cache_latents \
--lr_scheduler="cosine" \
--lr_scheduler_num_cycle=1 \
--output_name="sincoslora" \
--shuffle_caption \
--keep_tokens=1 \
# --lr_warmup_steps= 40 \
Аноним 05/02/23 Вск 19:38:59 #641 №102427 
>>102402
> Именно высокая
Любая выше чем единица уже потенциально может привести к проблемам. Точные числа я тебе не назову. Чем больше альфа - тем меньше контроля.
> К перетрену она сама не приведет же
Конечно же приведёт. Альфа нужна для масштабирования выходных весов и используется там в качестве числителя для множителя этих весов:
входные веса * (альфа / дим) = выходные веса.
Дим - это твой размер нетворка. Чем больше дим, тем большее количество параметров может хранить в себе сеть.
---
Ахтунг! Дальше идут мои предположения.
---
Если не пользоваться альфой для компенсации выходных весов или ставить такое значение что соотношение (альфа / дим) близко к единице (это больше касается высоких ранков, на низких ранках это не так сильно влияет), то это приведет к оверфиттингу, даже на больших датасетах.
Допустим у тебя дим 128 и такая же альфа и ты натренил лору. Просто представь: диффузионная модель без лишнего мусора и с точностью fp16, натренированная на двух миллиардах изображений весит 2 гигабайта. И твои веса которые ты натренировал на всего лишь (условно) ~50 пикчах весят целых 150 мегабайт!
Высокая альфа - это шорткат для ленивых и нетерпеливых. Я в оригинальном репозитории от клона симо по-моему ни разу не видел альфы выше чем единицы. Я видел только гриды с альфой меньше, вплоть до 0.2.
Аноним 05/02/23 Вск 19:51:46 #642 №102452 
И вообще, с большим значением дима лора теряет несколько из своих главных приемуществ - размер и переносимость. Суть всей этой лоры что она тренирует лишь маленький процент параметров, в отличии например от дримбуза, который тренирует 100% параметров unet и TE. Поэтому она быстро обучается, мало весит и не так сильно влияет своими весами на веса исходной модели. Погуглите что такое catastrophic forgetting, дримбудка этим болеет
Аноним 05/02/23 Вск 19:56:58 #643 №102460 
image.png
>>102421
надо перетрен чисто на лицо и тело сделать, а то хуи кривые там чет
Аноним 05/02/23 Вск 19:57:10 #644 №102462 
>>102452
Отключаешь лору - и влияния ноль, с дримбутом так не выйдет
Аноним 05/02/23 Вск 20:01:00 #645 №102472 
>>102427
Оче интересно но ничего не понятно, надо изучать. На форче на 16-32-64 приносили с довольно интересным результатом, потому интересно, ну и пример прошлых моделей актуальности не теряет, потому направление может быть интересным. Также и малые альфы.
Жаль рандома много а критерии оценки часто субъективны, если есть идеи как лучше изучить - велкам.
> Высокая альфа - это шорткат для ленивых и нетерпеливых.
Так ведь рофел в том что она не дает ускорения обучения, количество шагов +- то же просто с меньшим лр.
Сравнение размера моделей и количества пикч для тренировки здесь не актуально, теплое с мягким.
Аноним 05/02/23 Вск 20:06:16 #646 №102478 
jhg.png
fgf.png
4hds.png
dfhsd.png
>>102034
>>102081
Потестил последний по счету файл с Orangemix abyss.
Из минусов:
- возвращается к дефолтному комбинезону даже когда по промпту его быть не должно, или налепляет неоны
- не может в рейка-пупса (наверное потому что в сете не было пупсов)
Аноним 05/02/23 Вск 20:07:00 #647 №102480 
00009-1235281036-masterpiece-pixelart-0-9-shimohira-reika-from-gantz-young-preteen-loli-infant-child.png
5jrdt.png
rd4.png
Ну короче проявляет биасы, иногда даже делает лоли-анатомию вместе со "взрослым" лицом (пиздец кринж)
Аноним 05/02/23 Вск 20:10:35 #648 №102485 
rjsj.png
5ftj.png
00019-2852306760-imaffdqp6uq-a-japanese-action-game-concept-art-of-ninja-gaiden-samurai-warriors-fat.png
00072-3971249243-young-preteen-loli-imagxqblkab-Imari-Kurumi-from-Bible-Black-with-side-ponytail-hai.png
Для сравнения, другая лора из треда, с примерно такими же промптами. Та работала лучше.
Аноним 05/02/23 Вск 20:12:19 #649 №102488 
>>102462
Это понятно, но вот как вчера мы с аноном рассуждали, а как сделать так чтобы тег 1girl не вызывал персонажа, чтобы персонаж вызывался только по уникальному токену? Ответ: на большой альфе - никак. Большая альфа слишком сильно модифицирует исходные знания модели, если присутствуют смежные теги в датасете.
Если твоя цель просто быстро сделать персонажа и тебя не сильно волнует, что детали твоего персонажа будут проявляться на других персонажах, даже когда ты не вызываешь его явно через промт, то альфу можно хоть как по старинке делать равной диму. Но если ты хочешь сделать "качественную", маленькую и переносимую сеть, не приводящей к catastrophic forgetting подключаемой модели, то тут только альфа 1 или меньше и невысокий дим.
>>102472
> На форче на 16-32-64 приносили
У тебя не осталось? Интересно посмотреть. Я тоже пару тредов назад приносил и просто почувствовал себя наёбанным, когда узнал что необязательно ставить 128, хорошую сеть можно уместить и в 20 мегабайтах.
> Сравнение размера моделей и количества пикч для тренировки здесь не актуально
Это почему?
Аноним 05/02/23 Вск 20:12:31 #650 №102489 
>>102234
>>102421
А зачем вы ставите такой большой batch_size? Правильно же понимаю что это умножение шагов на 8, в даннном случае, на эпоху? Разве от такого не должен пойти очень быстрый перетрен?
Аноним 05/02/23 Вск 20:13:29 #651 №102493 
>>102489
> умножение
Деление
Аноним 05/02/23 Вск 20:15:50 #652 №102498 
>>102478
Вот у этого анона лучше получилась >>102361
Вообще там наверное лучше не использовать последнюю эпоху, попробуй какую нибудь 8 ну или попроси анона поделиться.
Аноним 05/02/23 Вск 20:18:37 #653 №102507 
45sj.png
>>102498
Это та же лора или другая?
Даже не понял, какое у этого эмбеддинга уникальное слово и есть ли оно вообще, поэтому применял только теги.
Аноним 05/02/23 Вск 20:20:37 #654 №102516 
Бля, я как допер окончательно до альфы аш загорелся сделать лору на единичке и с димом 4-8. Завтра наверное буду экспериментировать. Но нужен какой-то датасет хороший, не знаю какой взять. Есть идеи, анончики?
Аноним 05/02/23 Вск 20:22:02 #655 №102519 
>>102516
У меня навалом сетов полностью с тегами, жаль никто не берется трейнить.
Аноним 05/02/23 Вск 20:22:59 #656 №102520 
>>102507
> Это та же лора или другая?
У него другая, он с другими параметрами тренил на твоем сете.
> Даже не понял, какое у этого эмбеддинга уникальное слово и есть ли оно вообще, поэтому применял только теги.
Я же положил туда пару пикч с промптами, там rk тег
Аноним 05/02/23 Вск 20:23:53 #657 №102521 
>>102519
Почему ты не пользуешься колабом? В шапке и лора дримбуз, и лора сеть. У меня слабая видяха, я трейню в облаке за копейки.
Аноним 05/02/23 Вск 20:28:25 #658 №102529 
>>102516
>я как допер окончательно до альфы аш загорелся сделать лору на единичке и с димом 4-8.
переведи
Аноним 05/02/23 Вск 20:28:44 #659 №102530 
>>102493
А влияет то это на что?
Шагов в итоге становится в 8 раз меньше или они просто параллелятся?
Аноним 05/02/23 Вск 20:30:47 #660 №102534 
00058-3569811126-ima09o0whzf-a-chinese-action-game-concept-art-of-counter-strike-online-crossfire-wa.png
00057-1445840548-imax2a-zffv-a-japanese-action-game-concept-art-of-ninja-gaiden-samurai-warriors-fat.png
00053-178658867-imavpurrtih-she-is-Imari-Kurumi-from-Bible-Black-with-side-ponytail-hair-bobbles-asy.png
00033-4106049099-young-preteen-loli-imax2qeggvu-Imari-Kurumi-from-Bible-Black-with-side-ponytail-hai.png
>>102520
Скинь файл кто трейнил? Вроде даже лучше получилось, и со словом надо отдельно попробовать.

>>102521
Пользуюсь kaggle, но там другая среда (другая версия pytorch что ли) и плохо совместима с этим webui - половина расширений даже не отображается. Наверное надо быть прошаренным питонистом, чтобы всё настроить.
Нашелся только вариант на китайском (без возможности сменить язык), где хотя бы подключаются лоры... Для колаба еще надо поискать работающий скрипт, + обрубает если не следить за вкладкой.
Аноним 05/02/23 Вск 20:32:15 #661 №102536 
>>102530
>они просто параллелятся?
Результат нового шага зависит от того что получилось в предыдущем шаге, сам как думаешь?
Аноним 05/02/23 Вск 20:33:02 #662 №102540 
>>102530
> А влияет то это на что?
Обучение становится медленнее, но все равно быстрее чем с батчем 1 потому что батчами обучать эффективнее
> Шагов в итоге становится в 8 раз меньше
Да. Сеть делит твой датасет на несколько групп и обучается на каждой группе целиком. У этого момента кстати вроде есть свои нюансы

>>102529
network_alpha 1
network_dim 8

>>102534
> плохо совместима с этим webui
Так трень на скрипте китайца
Аноним 05/02/23 Вск 20:46:12 #663 №102558 
image.png
>>102540
>У этого момента кстати вроде есть свои нюансы
Пока это лутший вариант качества что у меня был, с 8 батчем какраз.
Аноним 05/02/23 Вск 20:47:30 #664 №102560 
>>102507
Другая же, интересно было сравнить результат с разными параметрами, но прояснилось не многое. Сет что выше выложен. Говори куда тебе залить и какие версии понравились, скину.
Аноним 05/02/23 Вск 20:48:07 #665 №102561 
Так друзья, один маленький вопрос.
Решил я значит лоркой заняться, под влиянием этой игры злоебучей.
Но на чем мне божественную 808'рочку тренить?
Видел фуриёбскую модель, но они один хуй все антропоморфные, нет?
Или похуй, само натренится?
Нужно ли теги ног на лапы менять?
Передние - задние отдельно?
Как вообще животному теги расставлять? Анатомия не проебётся?
Аноним 05/02/23 Вск 20:48:09 #666 №102562 
.webp
>>102558
Кто-то говорит он "сглаживает" обучение (хуй знает что это значит), кто-то наоборот топит что нужно максимальный ставить. Я тоже за максимальный.
Аноним 05/02/23 Вск 20:50:43 #667 №102567 
>>102561
> Так друзья, один маленький вопрос.
Хуй его знает. Я не по фуррям, но есть е612 автотеггер где-то, прошелся бы им да и хуй забил.
Аноним 05/02/23 Вск 20:56:43 #668 №102571 
Пошлите меня в гайд для тренировки лоры на карте из https://console.vast.ai/
Аноним 05/02/23 Вск 20:58:34 #669 №102575 
>>102571
Посылаю
>>101257
Аноним 05/02/23 Вск 20:59:44 #670 №102577 
01457-663469356-realistic photo of a d-art, booty, curvy, thicc thigs, armpits, wet body, blue eyes, brown-framed eyewear, freckles, glasses, ha.png
01454-3798459572-realistic photo of a d-art, abs, thicc thigs, armpits, wet body, blue eyes, brown-framed eyewear, freckles, glasses, hat, lotte.png
уже на всех хабалок из среншина лору сделали?
Аноним 05/02/23 Вск 21:00:52 #671 №102581 
>>102575
в след шапку его
Аноним 05/02/23 Вск 21:02:00 #672 №102582 
>>102581
Да ну нах, я лучше просто рентри отдельный сделаю со свалкой ссылок и туда кину. И рентри в шапку
Аноним 05/02/23 Вск 21:04:41 #673 №102586 
Кстати я вот всё думаю еще раз гайд переписать, но на этот раз сделать максимально грамотно, добавить что-то типа субтитров где я объясняю каждое действие зачем я это делаю и чтоб результат на выходе был отличный. Но это ссука всё сложна
Аноним 05/02/23 Вск 21:10:49 #674 №102599 
>>102586
> еще раз гайд переписать
Ты про то 40 минутное видео где братишка под тохомиксы неспешно создает папки, пишет в тредик, ждет скачивания пикч?
Если хочешь сделать что-то полезное то вырежи 95%, оставь подготовку датасета на примере одной-двух пикч и не более минуты, настройки с комментариями что дают, как делать гриды лол и финальный результат. Все остальное не нужно если говорить мягко.
Аноним 05/02/23 Вск 21:16:57 #675 №102611 
>>102599
> Ты про то 40 минутное видео где братишка под тохомиксы неспешно создает папки, пишет в тредик, ждет скачивания пикч?
Я спросил в треде "нада?", ответили "пили!". Ну... я как бы по сути ничем никому не обязан. И таймкоды дал. Если делать лучше, это уже надо какие-то усилия прилагать. И я пока думаю стоит ли мне тратить время или нет. Тем более я не сказать что прям отец лор, далеко не всегда всё получается с первого раза, а это время + деньги.
Аноним 05/02/23 Вск 21:28:30 #676 №102635 
Как делать грид с лорами на послднем автоматике где они в промпте?
Аноним 05/02/23 Вск 21:30:01 #677 №102638 
>>102562
а максимальный какой
Аноним 05/02/23 Вск 21:30:48 #678 №102641 
>>102638
Максимального нет. Максимальный упирается в твой VRAM
Аноним 05/02/23 Вск 21:33:02 #679 №102645 
>>102611
Чому ты так реагируешь, сам чтоли не смотрел что там? Сделал - молодец спору нет, что содержимое разбавлено непойми чем и малопригодно к просмотру - увы, а местные тебе сказать про это видимо постеснялись или им норм.
> я пока думаю стоит ли мне тратить время или нет
Просто включай запись когда делаешь что-то полезное-важное, показав один пример приостанавливай, продолжай на следующем этапе. Или если субтитры добавлять планируешь то это всегда лезть в видеоредактор, там и обрежешь лишнее.
>>102489
> А зачем вы ставите такой большой batch_size?
Лучше загружает видеокарту и заканчивает быстрее
Аноним 05/02/23 Вск 21:34:25 #680 №102649 
xyzgrid-0060-e164edddcb-4234234.jpg
xyzgrid-0061-e164edddcb-4234234.jpg
xyzgrid-0062-e164edddcb-4234234.jpg
>>102507
Попробовал еще раз с последними известными стабильными параметрами, без экспериментов, вроде вышло получше, но последние эпохи опять всрались
Аноним 05/02/23 Вск 21:35:17 #681 №102651 
image.png
image.png
Мне кото говорил что чисто фейс тренить неюзабельно тип, надо проверить.
Аноним 05/02/23 Вск 21:36:33 #682 №102654 
>>102635
бамп
Аноним 05/02/23 Вск 21:37:07 #683 №102656 
>>102645
> Чому ты так реагируешь, сам чтоли не смотрел что там?
Да нормально я отреагировал, я ж говорю что в курсе что много лишнего, никаких конкретных запросов от анонов не было, поэтому и сделал на своё усмотрение
Аноним 05/02/23 Вск 21:42:56 #684 №102665 
>>102649
Как ты делаешь грид?
Аноним 05/02/23 Вск 21:43:45 #685 №102667 
>>102665
Через дополнение
Аноним 05/02/23 Вск 21:46:07 #686 №102675 
>>102665
Поставь расширение additional networks. В гайде по трейнингу лор про него есть, потом появятся в скрипте стандартном для гридов лоры
Аноним 05/02/23 Вск 21:54:38 #687 №102691 
image
>>102313
Попробовал обучить на оранже. Неудачно.
Аноним 05/02/23 Вск 22:06:25 #688 №102715 
Правильно я понимаю, что если картинки под лорой "пережаривает" и они становятся только на низких cfg(около 5), то это оверфит? Какие параметры обучения скручивать?
Аноним 05/02/23 Вск 22:06:49 #689 №102716 
>>102715
становятся нормальными*
Аноним 05/02/23 Вск 22:14:40 #690 №102726 
>>102715
> Какие параметры обучения скручивать?
Уменьшать количество шагов либо скорость обучения unet и te. Какие у тебя скорости и батч?
Аноним 05/02/23 Вск 22:15:00 #691 №102727 
Попробовал пришить вместо родной модели CLIP 4-гиговую BERT от LAION, в итоге ни одного вменяемого изображения не получил - просто каша какая-то. Надо ещё и UNET тренировать под неё что ли? В обратную же сторону это работает без проблем - UNET любой для CLIP подходит.
Аноним 05/02/23 Вск 22:15:38 #692 №102728 
image.png
>>102715
>Какие параметры обучения скручивать?
Да можно и с пережаркой юзать че угодно, юзай плаген https://github.com/mcmonkeyprojects/sd-dynamic-thresholding с примерно такими настройками (тебе ток подобрать основной цфг и мимик надо)
Аноним 05/02/23 Вск 22:17:26 #693 №102730 
>>102726
5e-5
1.5e-5
1.5e-4
Батч 1, 10 повторов на пикчу.
Аноним 05/02/23 Вск 22:19:24 #694 №102732 
>>102730
> 5e-5
> 1.5e-5
> 1.5e-4
Это скорости чего именно?
Аноним 05/02/23 Вск 22:20:19 #695 №102734 
>>102732
по порядку как в скрипте
Аноним 05/02/23 Вск 22:21:51 #696 №102736 
>>102734
Т.е. 1.5е-5 на унет и 1.5е-4 на ТЕ? Пожалуйста, скажи что наоборот
Аноним 05/02/23 Вск 22:24:35 #697 №102738 
image
>>102736
Аноним 05/02/23 Вск 22:24:49 #698 №102739 
Чем удобнее всего кропать картинки?
Аноним 05/02/23 Вск 22:27:51 #699 №102743 
>>102739
Во вопрос хороший, кто-нибудь сравнивал результаты с кропом пикч и со свалкой как есть, офк с чисткой текста, других персонажей и прочего?
Простой автокроп для подготовки датасета есть в комплекте с webui ватоматика, на вкладке трейн
Аноним 05/02/23 Вск 22:28:38 #700 №102744 
>>102727
Где взять?

>>102738
Да нормальные скорости вроде. Если пережаривается, значит либо мало пикч в датасете, либо слишком долго обучаешь. Ах да, еще такое может быть если большая альфа и дим
Аноним 05/02/23 Вск 22:31:47 #701 №102746 
>>102743
>Простой автокроп для подготовки датасета
он там тупой пиздец
Аноним 05/02/23 Вск 22:34:38 #702 №102748 
>>102743
>кто-нибудь сравнивал результаты с кропом пикч и со свалкой как есть
я похуист, у меня даже не чищенные изображения, получается то что хочеца в целом
Аноним 05/02/23 Вск 22:44:40 #703 №102755 
а можно запихать лору в негатив?
Аноним 05/02/23 Вск 22:46:15 #704 №102756 
>>102755
Можно. И через промт, и через расширение
Аноним 05/02/23 Вск 22:48:06 #705 №102759 
>>102756
тогда натренируйте датасет кривых рук https://civitai.com/models/4586/bad-hands-training-data
Аноним 05/02/23 Вск 22:48:49 #706 №102761 
>>102759
>>102594 →
Аноним 05/02/23 Вск 22:54:41 #707 №102771 
image.png
image.png
нуче кто там говорил что лица отдельно не имеет смысла тренить, получается имеет
Аноним 05/02/23 Вск 23:13:23 #708 №102797 
image.png
image.png
image.png
>>102771
пиздец просто, это получается стабильное лицо можно хоть куда сувать
и че вы молчали
Аноним 05/02/23 Вск 23:32:37 #709 №102839 
image.png
image.png
image.png
>>102797
пока 200 эпох, May Thai, тренится только лицо из датасета в 18 картинок, максимум эпох 1к, настройки позже кину если кому надо
влияние вне лица нулевое, можно выпромтовывать что угодно, в т.ч. тело
Аноним 05/02/23 Вск 23:36:11 #710 №102847 
>>102839
олсо на само литсо тоже можно влиять
Аноним 05/02/23 Вск 23:48:47 #711 №102873 
image.png
image.png
>>102839

300 эпох
400 эпох
Аноним 05/02/23 Вск 23:53:29 #712 №102880 
image.png
>>102873
500 эпоха, в целом этого достаточно, но интересно че будет дальше
Аноним 05/02/23 Вск 23:54:43 #713 №102885 
542739645567578.png
>>102880
Фоточка с датасета просто для сравнения с оригом.
Аноним 06/02/23 Пнд 00:09:54 #714 №102946 
>>102914 →
Давайте, разъебите меня по полной. Указывайте на все фактические проёбы.
https://rentry.org/sd__upscale
Аноним 06/02/23 Пнд 00:12:20 #715 №102954 
Если тренить на 1dim(условно) будет сильно быстрее?
Аноним 06/02/23 Пнд 00:20:40 #716 №102964 
>>102946
В шаблон добавил, пока не читал
>>102954
Не сильно, но быстрее. Сегодня буду тестить 1 дим
Аноним 06/02/23 Пнд 01:13:23 #717 №103027 
image.png
Сколько нужно памяти для обучения? Типа 8 гигов это мало? Или я что-то не так делаю?
Обучаю в первый раз и оставил настройки из скрипта дефолтными, расставил только пути до папок и длину токена.
Аноним 06/02/23 Пнд 01:14:40 #718 №103030 
5765858.PNG
Хмм..
Аноним 06/02/23 Пнд 01:22:18 #719 №103034 
>>103027
6 должно хватить
У тебя не ноут с двумя картами? Может выбрал при настройке не ту?
Аноним 06/02/23 Пнд 01:23:43 #720 №103036 
>>103030
Грядет нечто грандиозное
Аноним 06/02/23 Пнд 01:24:35 #721 №103038 
>>103036
>>103030
Что это значит?
Аноним 06/02/23 Пнд 01:25:14 #722 №103041 
>>103038
Что теперь можно загружать sd 1.x модели без текстового энкодера...
Аноним 06/02/23 Пнд 01:25:55 #723 №103042 
>>103034
Не, у меня 2060s, при начале обучения сжирает 6 гигов, а затем сразу отваливается с этой ошибкой.
Аноним 06/02/23 Пнд 01:26:50 #724 №103045 
>>103042
Какой у тебя батч сайз...
Аноним 06/02/23 Пнд 01:27:59 #725 №103048 
>>103045
1 конечно, он по дефолту стоит.
Аноним 06/02/23 Пнд 01:30:32 #726 №103053 
>>103048
Очень странно, что на 6 гб у тебя не работает. На 1060 всё работает прекрасно
Аноним 06/02/23 Пнд 02:09:01 #727 №103077 
14269-7.5 57d103206a.png
>>102880
Кароч вот, лорка на 1к эпох. Доволен результатом. Следующее ебало для тренинга скорее всего какая-то не действующая порноактриса.
Аноним 06/02/23 Пнд 02:10:17 #728 №103078 
Кумерище...
Аноним 06/02/23 Пнд 02:11:45 #729 №103082 
>>103078
Тренить человеков интереснее, чем аниме.
Аноним 06/02/23 Пнд 02:12:02 #730 №103083 
lora script.png
Что-то не пойму, что этому скрипту от меня надо еще... Все пикчи на месте, а оно не двигается...
Аноним 06/02/23 Пнд 02:13:34 #731 №103086 
>>103083
Не видит датасет. Проверяй пути, там нужно чтобы в папке с названием число_name лежал датасет.
Аноним 06/02/23 Пнд 02:16:33 #732 №103092 
>>103086
Они там лежат. формат

edd_(1).jpg
edd_(1).txt
edd_(2).jpg
edd_(2).txt
и т.д.

я уже и относительные пути пробовал, и абслютные, и с \ и с / , все равно не шевелится...
Аноним 06/02/23 Пнд 02:17:51 #733 №103095 
image.png
image.png
>>103077
Кстати об эмоциях. В датасете эмоций ноль, но чисто фейсовая лорка может в изменение эмоций супер изично. Ну и камшоты нарисовать поверх тоже просто например. Кароче, рабочий метод тренинга ебл вот:
!accelerate launch \
--num_cpu_threads_per_process 8 train_network.py \
--network_module=networks.lora \
--pretrained_model_name_or_path="/content/drive/MyDrive/delib.ckpt" \
--train_data_dir="/content/drive/MyDrive/sd/dataset/sincos" \
--reg_data_dir="/content/drive/MyDrive/sd/dataset/sincos_reg" \
--output_dir="/content/drive/MyDrive/sd/stable-diffusion-webui/models/Lora/" \
--caption_extension=".txt" \
--prior_loss_weight=1 \
--resolution=512 \
--enable_bucket \
--min_bucket_reso=320 \
--max_bucket_reso=960 \
--train_batch_size=8 \
--learning_rate=1e-4 \
--unet_lr=1e-4 \
--text_encoder_lr=1e-4 \
--max_train_epochs=1000 \
--mixed_precision="fp16" \
--save_precision="fp16" \
--use_8bit_adam \
--xformers \
--save_every_n_epochs=10\
--save_model_as=pt \
--clip_skip=1 \
--seed=23 \
--network_dim=8 \
--network_alpha=1 \
--max_token_length=225 \
--cache_latents \
--lr_scheduler="cosine" \
--lr_scheduler_num_cycle=1 \
--output_name="sincoslora" \
--shuffle_caption \
--keep_tokens=1 \
# --lr_warmup_steps= 40 \
Аноним 06/02/23 Пнд 02:18:20 #734 №103096 
>>103086
а, падажи, надо еще папку с названием другим?
Что значит число_name ? рандомное число или там скрытый смысл есть?
Аноним 06/02/23 Пнд 02:19:01 #735 №103097 
>>103096
Читать гайд надо уметь.
Аноним 06/02/23 Пнд 02:19:24 #736 №103098 
>>103096
30_renamon furry

Число повторений_название концепта название класса
Аноним 06/02/23 Пнд 02:19:54 #737 №103099 
image.png
>>103096
Чел
Аноним 06/02/23 Пнд 02:20:43 #738 №103100 
>>103098
> название концепта название класса
Похуй что здесь напишешь если внутри есть текстовики к пикчам
Аноним 06/02/23 Пнд 02:21:34 #739 №103102 
>>103092
В папке должна быть папка, а в ней уже картинки.
Аноним 06/02/23 Пнд 02:22:30 #740 №103104 
>>103097
Я пытался https://rentry.org/2chAI_LoRA_Dreambooth_guide читать, но там даже когда пишут про
>Открыть скрипт любым текстовым редактором и изменить переменные вверху файла под свои нужды. Все переменные достаточно понятно прокоментированы, поэтому пройдёмся по не самым очевидным из них:

не пишут, какой из сотен скриптов то открыть и под нужды.

>>103098
Что делает число повторений? От чего зависит? И зачем оно в названии, а не в конфиге?
Аноним 06/02/23 Пнд 02:24:40 #741 №103106 
.png
.png
.png
>>103104
> не пишут, какой из сотен скриптов то открыть и под нужды
> Что делает число повторений? От чего зависит? И зачем оно в названии, а не в конфиге?
Ну разуй ты глаза...
Аноним 06/02/23 Пнд 02:24:43 #742 №103107 
>>103104
>Что делает число повторений? От чего зависит?
Эт не число повторений, а значение для скрипта у концепта, нужное чтобы если у етбя больше чем 1 концепт то скрипт исходя из значений брал из одного концепта столько-то, а из другого столько-то. То есть 1_penis и 2_penis - из второго концепта пенисов будет браться в джва раза больше данных.
Аноним 06/02/23 Пнд 02:27:53 #743 №103110 
>>103106
А, я это оказывается все же сделал, но все равно >>103083

Оно только под линухами что ли должно работать?
Аноним 06/02/23 Пнд 02:28:50 #744 №103112 
>>103106
> не пишут, какой из сотен скриптов то открыть и под нужды
Ну, и там сотни этих .py скриптов, какой открыть и редактировать?
Аноним 06/02/23 Пнд 02:31:10 #745 №103114 
.webm
>>103112
Аноним 06/02/23 Пнд 02:34:09 #746 №103117 
>>103114
Ахуеть, это гайд для профессоров блять, чтобы так замаскировать что-то нужное в ссылку.
Аноним 06/02/23 Пнд 02:35:46 #747 №103119 
>>103114
>>103117
Правда, один хуй мне это не поможет, я же через повершелл запускаю и так... А картиночек оно не видит...
Аноним 06/02/23 Пнд 02:36:12 #748 №103120 
>>103114
Опа, а шо это у вас там за датасеты? Шо готовите новенького?
Аноним 06/02/23 Пнд 02:38:15 #749 №103122 
>>103120
опять какие-то аниме бабы
Аноним 06/02/23 Пнд 02:38:48 #750 №103123 
>>103117
Бля, братан, если ты не видишь синенькую ссылку и не можешь прочитать что в скобочках написано, ну тут как бы ну, как это сказать, ну это, ну, полномочия мои, ну, собсна как бы получается всё. Как бы ну, не в моих силах, сам понимаешь.

>>103119
Хаха! Лох! А у меня видит!

>>103120
Да это я качал глядел датасеты анонов, может еще чьи-то реквесты планировал натренить, но как обычно благополучно забил хуй простите анончики
Аноним 06/02/23 Пнд 02:41:26 #751 №103126 
>>103123
Ну вот, видимо придется линухы ставить, чтобы заработало...
Аноним 06/02/23 Пнд 02:43:50 #752 №103128 
>>103126
Блять, чубзик ты мой миленький, покажи пожалуйста внутренности папки, которую ты вписываешь в train_data_dir
Аноним 06/02/23 Пнд 02:47:41 #753 №103134 
>>103117
Поддвачну, за специфично-садистскую структуру описания в наи треде уже описано.
>>103119
В папке, которую указываешь, внутри должна быть еще одна папка с именем 10_aa, где 10 это число повторений, и только в ней уже сами пикчи и текстовые файлы с тегами к ним. Выше тебе уже отписали, в гайде тоже про это есть, только после сразу идет описание для дримбуса которое сбивает. Если делать более аккуратно, то можно подобрать разные наборы пикч с топовыми мастерписями, кропнутым фейсом, общий вид и т.д. и с соответствующим числом повторений их забить.
Аноним 06/02/23 Пнд 02:49:25 #754 №103135 
>>103134
>в наи треде
там шизы 2+2 сложить не могут, нашел на кого равняться
Аноним 06/02/23 Пнд 02:52:21 #755 №103141 
>>103134
> специфично-садистскую структуру описания
Да просто изначально в гайде не было про дримбуз расширение, потом другой анон вызвался помочь и получилась такая нелепая структура. И так оно по сей день. Ладно, если не лень будет, сегодня встану и сделаю по-человечески.
Аноним 06/02/23 Пнд 02:55:58 #756 №103145 
>>103135
Там предметно обозначено в чем проблемы и предложены варианты как поправить, на это как раз ровняться стоит, за остальное не скажу.
>>103141
Да я без хейта и предъяв, просто оно увы так получается, главное не зейтить неофитов что попадаются в эту ловушку. Хотя после вот такого >>103126 можно и не мешать, дураков работа любит
Аноним 06/02/23 Пнд 03:00:05 #757 №103152 
>>103141
>в гайде не было про дримбуз расширение
Можешь убирать, им нет смысла пользоваться.
Аноним 06/02/23 Пнд 03:00:35 #758 №103153 
>>103145
> Хотя после вот такого >>103126 можно и не мешать, дураков работа любит
Проиграл

Да я не то чтобы хейчу, просто с каждым днём вопросы всё более нелепые, сначала обсуждали перетрен и грамотные настройки, а сегодня не можем вложить папку в папку. И задница горит люто.
И вроде как гайд прочитало немало человек, но чем популярней становится лора, тем реже аноны делятся своими нетворками. Тоже горит.
Аноним 06/02/23 Пнд 03:01:01 #759 №103156 
>>103152
А как пилить полноразмерные модели, лол?
Аноним 06/02/23 Пнд 03:02:16 #760 №103159 
>>103153
Просто нужно писать гайды для пятикласников
Аноним 06/02/23 Пнд 03:05:13 #761 №103166 
>>103153
> тем реже аноны делятся своими нетворками
Так каждый специфичное пилит.
Аноним 06/02/23 Пнд 03:05:54 #762 №103168 
>>103145
Я же выше написал >>103110, что сделал так. у меня в папке по указанным путям 1_edd папка и в ней уже картинки. Пробовал переименовать, все равно не находит ничего. Уже и в корень диска даже вытащить попробовал.

Про ссылку на скрипт конечно тупость получилась, но я бы и на сотый раз не додумался на неё кликнуть, и искал бы скрипт запуска в самом sd-scripts, ибо ну какой долбаеб будет давать тулзы и не давать батник или скрипт стартующий эти тулзы?
Аноним 06/02/23 Пнд 03:06:53 #763 №103172 
>>103159
Я планирую написать ретард гайд отдельно от основного. Где не будет опций сделать А или сделать Б, а чисто прямой путь до лоры. Допущу что текущий гайд не самый простой, плохо структурированный и возможно местами перегруженный.

>>103168
Покажи как выглядит структура. Картинкой. Я настаиваю.
Аноним 06/02/23 Пнд 03:09:41 #764 №103178 
>>103172
Нынешний перегружен, да. Я попытался но было слишком запутанно, в итоге по форчовчкому делал, там было норм. Хотя команды одни и те же вроде.
Аноним 06/02/23 Пнд 03:11:18 #765 №103180 
>>103178
Зато наш гайд содержит самую исчерпывающую информацию которой нет ни в одном другом гайде! всем похуй
Аноним 06/02/23 Пнд 03:11:30 #766 №103181 
>>103172
> Я планирую написать ретард гайд отдельно от основного.
Норм, пили, сразу можно будет фидбек собрать и норм.
>>103178
И ты, брут? А форчевский лаунчер тебе как?
>>103168
> у меня в папке по указанным путям 1_edd папка и в ней уже картинки
Скрин содержимого скрипта где указывается путь выложи
Аноним 06/02/23 Пнд 03:13:05 #767 №103186 
>>103181
>лаунчер
Что?
Аноним 06/02/23 Пнд 03:13:48 #768 №103188 
lora script2.png
>>103172
>>103181
Скрин с конфигом выше >>103083
Аноним 06/02/23 Пнд 03:14:44 #769 №103189 
>>103181
А наш лаунчер вам как?

>>103188
Ты должен указывать edd_db в train_data_dir
Аноним 06/02/23 Пнд 03:19:15 #770 №103193 
>>103186
Сам скрипт/гуи в котором указываются параметры, а он уже запускает sd-scripts
>>103188
У тебя нужная структура в поддирректории edd_db а путь указан только до train_img. Ясен хуй оно не может найти то что ищет
Аноним 06/02/23 Пнд 03:20:47 #771 №103194 
lora script3.png
>>103189
> Ты должен указывать edd_db в train_data_dir
Бля... Это я уже нахуевертил перекидывая в корень и обратно.

Добавил, но все равно нихуя...
Аноним 06/02/23 Пнд 03:20:56 #772 №103195 
>>103193
>скрипт
Наш покрасивее.
Аноним 06/02/23 Пнд 03:23:05 #773 №103196 
>>103194
Да как так-то блять?!
Аноним 06/02/23 Пнд 03:26:25 #774 №103200 
>>103194
>>103196
Зайди в папочку где лежат папки 1_... и 2_..., нажми ctrl+L, скопируй и вставь в текст скрипта. Если не поможет - перенеси свою "edd_db" в корень, лол
Аноним 06/02/23 Пнд 03:27:15 #775 №103203 
>>103194
Кстати настройки крайне хуевые, лучше юзай скрипт, там по дефолту вроде нормальные. Дим 4 альфа 32 это вообще пиздец, боюсь представить что будет в итоге.
Плюс защита от ретарда есть. Либо юзай мокропиську.
Аноним 06/02/23 Пнд 03:29:44 #776 №103208 
image.png
>>103095
Тестанул в бстаберхе, ну в целом если веса лорки оттюнить калцепт воркинг вери вел.
Аноним 06/02/23 Пнд 03:30:01 #777 №103209 
>>103200
В корень диска я уже переносил, тогда пути верные были, но это не помогло.

>>103203
Я настройки с суйки выше скопировал. Плюс у японца на сайте такие настройки по дефолту стоят и он пишет что выше не надо. Но мне бы хотя бы просто запустить эту хуйню...
Аноним 06/02/23 Пнд 03:32:15 #778 №103211 
>>103209
> Я настройки с суйки выше скопировал.
Не такие настройки я юзал. Не может быть альфа выше чем дим. Японец рекомендует альфу в единичку.
Почему питоновский скрипт не может найти папки я не понимаю. Пробелы в путях изображений?
Аноним 06/02/23 Пнд 03:32:23 #779 №103212 
image.png
>>103208
Очинь даже я бы сказал хорошо работает. Кроссмодельная лорка получилась.
Аноним 06/02/23 Пнд 03:32:42 #780 №103213 
>>103189
> А наш лаунчер вам как?
Ахуителен, каждый раз проигрываю как бчб в начале сменяется триколором в конце, а при запуске следующего появляется обратно.
>>103209
> тогда пути верные были
Тут все на это оче похоже, еще оно не видит .jpeg, но у тебя расширения вроде верные. Скачай любой датасет что выше был и на нем попробуй, ну и учитывая букву диска - попробуй запустить локально если это какой нас.
Аноним 06/02/23 Пнд 03:35:33 #781 №103214 
>>103213
> Ахуителен
:))))))
Но я не про него. В гайде под скриптом еще есть ссылка на заговнокоженый гуй. Попробуй его. Там всё для людей, и вкладки, и экспорт/импорт настроек и всё всё всё.
Аноним 06/02/23 Пнд 03:40:40 #782 №103218 
>>103156
https://github.com/bmaltais/kohya_ss
Аноним 06/02/23 Пнд 03:41:49 #783 №103221 
.png
>>103156
Аноним 06/02/23 Пнд 03:44:41 #784 №103223 
>>102761
Потом окажется как с лицами натренированными. Дайте примеры кривых рук в разных ракурсах штук 20, я натреню завтра.
Аноним 06/02/23 Пнд 03:47:47 #785 №103225 
>>103223
а хотя похуй, оранж и так без нихуя кривые руки генерит, оттуда вытяну
Аноним 06/02/23 Пнд 03:47:48 #786 №103226 
>>103223
https://civitai.com/api/download/training-data/5224
Аноним 06/02/23 Пнд 03:48:40 #787 №103227 
>>103226
о, точно
Аноним 06/02/23 Пнд 03:54:36 #788 №103242 
>>103194
Не знаю, исправили ли проблему, но раньше такое было, что скрипт не умел создавать папки. Создай пустые папки, которые прописал. То есть out, logs_gir
Никогда не пробовал обучать на джепегах. Попробуй хоть один png вкинуть.
Аноним 06/02/23 Пнд 04:28:59 #789 №103317 
image.png
>>103226
ну че еманарот погнали нахуй
Аноним 06/02/23 Пнд 04:33:38 #790 №103327 
image.png
>>103317
работаем
Аноним 06/02/23 Пнд 04:39:08 #791 №103380 
>>103213
>>103242
Короче я заново перекропал все пикчи и пересхоранил их в жпг, теперь вроде нашло и что-то начало делать...

Понаблюдаю...
Аноним 06/02/23 Пнд 04:45:24 #792 №103392 
Так, и хули оно закончило за 6 минут...

Что я сделал не так опять...
Аноним 06/02/23 Пнд 04:53:13 #793 №103400 
Так, а оно, внезапно, натренело вменяемо. Копирует, конечно, мое почтение...

Как улучшить копийность? Какие параметры самые эффективные?

4 часа возни ради 6 минут.
Аноним 06/02/23 Пнд 04:56:22 #794 №103401 
>>103400
>Как улучшить копийность? Какие параметры самые эффективные?
миллиард эпох, нетворк дим, нетворк альфа, трейн батч сайз, ну и лернинг рейты другие
Аноним 06/02/23 Пнд 04:58:14 #795 №103403 
>>103400
Давай завтра разбираться...
Аноним 06/02/23 Пнд 05:08:23 #796 №103413 
>>102649
Норм вышла, скинь с 5-й по 13-ю. Выясню какая лучше и отпишусь.
Аноним 06/02/23 Пнд 05:10:18 #797 №103414 
image.png
>>103327
Первые 10 эпох выглядят многообещающе.
Аноним 06/02/23 Пнд 05:11:38 #798 №103415 
image.png
>>103414
Аноним 06/02/23 Пнд 05:15:06 #799 №103417 
Это нормально что для обучения лоры надо убивать хром (миллиард вкладок) и автоматик1111? Аналогично для автоматика надо убивать хром и лору, для хрома убивать автоматик и лору? Памяти 64гб, врам 24гб
Аноним 06/02/23 Пнд 05:15:36 #800 №103418 
>>103417
не нормально
Аноним 06/02/23 Пнд 05:17:03 #801 №103419 
image.png
>>103415
Лол, оно практически рабочее, надо просто отфайнтюнить.
Аноним 06/02/23 Пнд 05:17:53 #802 №103420 
>>103419
Кароче пусть там дрочит дальше я спать, ультимейт лора для рук сууун
Аноним 06/02/23 Пнд 05:22:48 #803 №103421 
image.png
>>103419
Аноним 06/02/23 Пнд 05:28:58 #804 №103425 
>>103421
>>103419
>>103415
>Обхватывающие крупные цилиндрические тела ручки лоли.
Я вижу что ты делаешь...
Аноним 06/02/23 Пнд 06:37:19 #805 №103454 
7FB1F03D-264B-4D96-8D12-E0A311520363.png
Доброе утро, тредные
800 постов осилить сложновато и прочитав шапку я так и не понял, когда что использовать вернее?
Вот есть у меня модели, что все делают. Часть из них со своими особыми стилями, тот же самый диско элизиум.
Хочу я обучить НЁХ на персонажа. Это правильнее делать гиперсетью, чтобы не херить стили? Ведь она же идет как надстройка к основной сети и по сути является декодером, как я понимаю.
А если я хочу обучить НЁХ именно на стиль. Это уже лора или эмбеддинг? Эмбед же нужен если нужен шорткат, верно?

В общем, ЧДЯННП?
Аноним 06/02/23 Пнд 10:29:39 #806 №103510 
>>103421
Лег спать - колаб отвалился, класека.

>>103425
Тс
Аноним 06/02/23 Пнд 10:43:53 #807 №103514 
image.png
image.png
image.png
image.png
>>103421
В общем почекал еще на других моделях текущие 10 эпох. Вот оранж с 0.4 веса негативной лоры. Блядский гугл, в другой акк все переносить теперь для трени.
Аноним 06/02/23 Пнд 10:51:10 #808 №103517 
image.png
>>103514
Вот комбуха негатива и аддишнал нетворка. Как кстати чисто в аддишнал нетворк плагине в негатив запихать? Просто в минус укатить лору?
Аноним 06/02/23 Пнд 11:03:25 #809 №103522 
image
image
ЧЯДНТ? Не получается сделать грид с лорами.
Аноним 06/02/23 Пнд 11:18:29 #810 №103529 
image.png
image.png
image.png
image.png
>>103517
Лора вроде не особо на стиль влияет кстати.
Аноним 06/02/23 Пнд 11:26:21 #811 №103543 
000043.png
Анон кто умеет трейнить лору, запили плиз любой из этих двух стилей на твой выбор

Sayori https://drive.google.com/file/d/1EiLA_3RrE6UNxEgSckhWnb2XiQf27NfP/view?usp=sharing

Kanzeon https://drive.google.com/file/d/1waKVteL7EXyzjGnrb6xoX4c2maHzJBLv/view?usp=sharing
Аноним 06/02/23 Пнд 11:29:53 #812 №103550 
>>103543
Лучше бы анонам тренерам не стили пиздить, а потренить плохие ручки на разных скоростях. А што если еще сделать лору с хорошими руками и юзать в оппозиции к негативной? Есть датасет с норм руками?
Аноним 06/02/23 Пнд 11:32:27 #813 №103553 
>>103454
Че хош обучай, на стиль или перса, без разницы. Что нравится
Аноним 06/02/23 Пнд 11:34:20 #814 №103556 
>>103522
Обнови расширение
Аноним 06/02/23 Пнд 11:35:01 #815 №103557 
>>103550
>Есть датасет с норм руками?
https://danbooru.donmai.us/pools/73
Аноним 06/02/23 Пнд 11:40:38 #816 №103561 
>>103557
А реалистики? Потому что реалистики проще стайлизируются в аниме, чем наоборот.
Аноним 06/02/23 Пнд 11:51:19 #817 №103569 
пара вопросов про настройки трени:
1. сид может быть любым?
2. какие параметры прямо влияют на скорость?
Аноним 06/02/23 Пнд 12:05:08 #818 №103579 
Колаб из шапки https://colab.research.google.com/drive/1bFX0pZczeApeFadrz1AdOb5TDdet2U0Z как соотносится с указанным в гайде, где написано "21.01.2023 была поднята тема по поводу бага, вызывающего антипереполнение весов слоёв при обучении (значения весов, близкие к нулю округлялись до нуля).
На момент обновления гайда баг пофикшен: был добавлен новый аргумент --network_alpha для предотвращения данного поведения." ?
Какие настройки оптимальные ставить?
Аноним 06/02/23 Пнд 12:18:21 #819 №103581 
>>103569
> 1. сид может быть любым?
Любым. Это сид
> 2. какие параметры прямо влияют на скорость?
Не понял вопроса
>>103579
По-хорошему network_alpha должен быть 1. Но ты заебешься тренить, поэтому оставляй как есть.
Скорость говно стоит. Для начала берешь 1e-4 для unet и 2e-5 для текст. энкодера и умонжаешь их на train_batch_size, вписываешь
Аноним 06/02/23 Пнд 12:35:03 #820 №103597 
>>103569
Batch size кратно увеличивает скорость тренировки, но если мало видеопамяти, выше 1 не поставишь.
Аноним 06/02/23 Пнд 12:38:09 #821 №103602 
В том месяце 700 рублей за электричество пришло, в этом 1100. А суммарно за хату 8800. Охуенно.
>>103543
Щас попробую. Я не эксперт, поэтому что выйдет, то выйдет, и лучше бы кто-то знающий еще сделал.
Кстати, все еще делаю лору по некопаре. Точно не знаю когда будет релиз от меня, ибо я решил сразу несколько неко в одной уместить и она будет где-то сутки обучатся.
Аноним 06/02/23 Пнд 13:13:16 #822 №103698 
>>103602
Лоры sayori и nekopara как раз отлично зайдут если применять вместе в одном и том же промпте.
Аноним 06/02/23 Пнд 13:54:03 #823 №103735 
>>103581

>Для начала берешь 1e-4 для unet и 2e-5 для текст. энкодера и умонжаешь их на train_batch_size,
Нипонил, а как умножать? И почему именно 1е4 и 2е5?
Аноним 06/02/23 Пнд 13:59:27 #824 №103741 
image.png
image.png
image.png
image.png
>>103529
Ребята анонята это пушка, 30 эпох, вес 1 в негативе, оранж (трен на другой модели есличе), 4 последовательных рандом ролла.
Аноним 06/02/23 Пнд 14:01:04 #825 №103743 
>>103741
Настройки тренирования вот, проверьте все ли норм или перезапустить на более лучших можно или нет

!accelerate launch \
--num_cpu_threads_per_process 8 train_network.py \
--network_module=networks.lora \
--pretrained_model_name_or_path="/content/drive/MyDrive/delib.ckpt" \
--train_data_dir="/content/drive/MyDrive/sd/dataset/sincos" \
--reg_data_dir="/content/drive/MyDrive/sd/dataset/sincos_reg" \
--output_dir="/content/drive/MyDrive/sd/stable-diffusion-webui/models/Lora/" \
--caption_extension=".txt" \
--prior_loss_weight=1 \
--resolution=512 \
--enable_bucket \
--min_bucket_reso=320 \
--max_bucket_reso=960 \
--train_batch_size=8 \
--learning_rate=1e-3 \
--unet_lr=1e-3 \
--text_encoder_lr=6e-4 \
--max_train_epochs=100 \
--mixed_precision="fp16" \
--save_precision="fp16" \
--use_8bit_adam \
--xformers \
--save_every_n_epochs=5\
--save_model_as=pt \
--clip_skip=1 \
--seed=1 \
--network_dim=32 \
--network_alpha=1 \
--max_token_length=225 \
--cache_latents \
--lr_scheduler="cosine" \
--lr_scheduler_num_cycle=1 \
--output_name="sincoslora" \
--shuffle_caption \
--keep_tokens=1 \
# --lr_warmup_steps= 40 \
Аноним 06/02/23 Пнд 14:02:44 #826 №103744 
image.png
>>103743
Тренит кстати джва часа уже.
Аноним 06/02/23 Пнд 14:17:41 #827 №103756 
>>103214
Не, он конечно юзер-френдли, но в таких вещах сонсолечка да текстовые инпуты привычнее и удобнее. Плюс за минуту пишется оснастка, которая делает серию с варьированием нужных параметров, копирует нужные эпохи к ватоматику, выдает параметры для тестовых гридов и т.д.
Народ на гуи не жалуется значит норм
>>103597
> кратно увеличивает скорость тренировки
Если по времени судить то 8 по сравнению с 1 справляются быстрее в 2 раза, оно впринципе видно по потреблению карты (140 и 300 вместо 500, оптимизация нахуй), что там по скорости сходимости и качеству тренировки вопрос сложнее.
>>103741
Скидывай
Аноним 06/02/23 Пнд 14:19:29 #828 №103758 
>>103741
Ты конечно молодец, но у меня есть подозрения, что этот промт влияет на генерацию (помимо рук)
Нужны гриды с ним и без
Аноним 06/02/23 Пнд 14:21:08 #829 №103761 
14446-10 ae1374c306.png
14445-10 ae1374c306.png
>>103758
>что этот промт влияет на генерацию (помимо рук)
Слева без лоры, справа с лорой.
Аноним 06/02/23 Пнд 14:25:37 #830 №103765 
>>103761
Маленькая выборка, по этому сравнению могу сказать что изменений нет, даже в чем-то хуже (нет ногтей), а лишний палец слева спишу на погрешность. Я без негатива, ты уж нормально пойми
> loss 0.05
Ух бля, будем надеятся что это не оверфит :) Не уверен что настолько маленький лосс это хорошо
Аноним 06/02/23 Пнд 14:30:01 #831 №103769 
>>103765
>Маленькая выборка
Я дохера тестов начикал уже, и ваще выше писал что влияние на модели мизерное и на прошлой трене было.
>даже в чем-то хуже (нет ногтей)
Да ногти поебать, они теряются и так на 512 разрешении без динамик трещелдинга (я его выкл), главное что слева бабская рука, справа детская.
>а лишний палец слева спишу на погрешность.
Ну тащемта это не погрешность иксформерса, а реально лишний палец, на похожих картинках с капом в такой позе постоянно такое.
Аноним 06/02/23 Пнд 14:33:59 #832 №103776 
image.png
>>103761
>>103765
Вот если че тот же сид с трещёлдингом вкл.
Аноним 06/02/23 Пнд 14:42:42 #833 №103786 
>>103761
Сделай грид на десяток вариантов хотябы, ну и модель скидывай. А так левый вариант поправить легко и выглядит естественнее, на правом более коряво
>>103765
> Ух бля, будем надеятся что это не оверфит
На таком примере вообще сложно что-то оценивать и хз понимает ли сеть чему ее учат
Аноним 06/02/23 Пнд 14:44:57 #834 №103790 
1675683892756.png
1675683892785.png
1675683892799.png
>>103543
Ну, что-то вышло
https://mega.nz/folder/ywB2WDAI#l6A1iJkHbmqgXWcAdECMvQ
sayori, kanzeon, без лоры
Привык к большим сетам, где я все лишнее вырезаю фотошопом. В случае с kanzeon прилепилась кошка.
Аноним 06/02/23 Пнд 14:49:26 #835 №103797 
>>103790
> пик 2-3
Прям ванильная наи модель под клипскипом 1
Аноним 06/02/23 Пнд 14:49:56 #836 №103798 
>>103786
>Сделай грид на десяток вариантов хотябы
Какой смысол, никогда гриды не делаю. Лучше модель просто кину сами ебитесь.

>А так левый вариант поправить легко и выглядит естественнее, на правом более коряво
Тот пример про влияние лорки на стиль...

>На таком примере вообще сложно что-то оценивать
Предлагай как проверять. Просто рендер руки?

>хз понимает ли сеть чему ее учат
Конечно, там же все расписано в датасете.
Аноним 06/02/23 Пнд 14:54:45 #837 №103806 
>>103798
> Предлагай как проверять.
Персонаж клозап на простом фоне как здесь, персонаж фуллбади, фуллбади на пестром фоне, то же но со взаимодействием (что-то держит, делает жест и т.д.). По нескольку вариантов с/без в разрешении хотыбя 720п где уже можно судить.
Аноним 06/02/23 Пнд 15:00:01 #838 №103818 
>>103798
Очень интересно посмотреть на тренировочные образцы
Аноним 06/02/23 Пнд 15:01:56 #839 №103821 
>>103818
>>103226
Аноним 06/02/23 Пнд 15:05:29 #840 №103828 
.gif
>>103825 (OP)
>>103825 (OP)
>>103825 (OP)
>>103825 (OP)
>>103825 (OP)
Аноним 06/02/23 Пнд 15:32:38 #841 №103867 
image.png
Уважаемые гуру, помогите скорректировать лерн рейт пожалуйста под батч сайз, трогал всё кроме него

accelerate launch --num_cpu_threads_per_process 16 train_network.py --network_dim=64 --network_alpha=64 --network_module=networks.lora --unet_lr=0.0001 --text_encoder_lr=0.00005 --lr_scheduler=cosine --pretrained_model_name_or_path="D:\Train\model\model.ckpt" --vae="D:\Train\vae\vae.ckpt" --train_data_dir="D:\Train\dataset" --in_json="D:\Train\temp\meta_lat.json" --output_dir="D:\Train\lora_files" --output_name=himitsu-styled --save_precision=fp16 --save_every_n_epochs=1 --save_model_as=safetensors --resolution=768,768 --train_batch 5 --mixed_precision=bf16 --max_token_length 225 --max_train_epochs=10 --cache_latents --dataset_repeats=10 --shuffle_caption --gradient_accumulation_step=1 --clip_skip=2 --xformers --use_8bit_adam

датасет из 380 картинок примерно

Не мало ли шагов вообще? Где то читал что лучше 15к и выше
Аноним 06/02/23 Пнд 15:44:49 #842 №103904 
>>103867
Во-первых, >>103825 (OP)
Во-вторых, умножай ЛРы на твой батч сайз, т.е. на 5.
>>103867
> датасет из 380 картинок примерно
Если у тебя такой большой датасет, попробуй для начала сделать 10 повторений на пикчу, поставь 10 эпох. Это будет 380 / 5 * 10 = 760 шагов, смотри что получится, корректируй в зависимости от результата. Телепатов нет. Универсального рецепта тоже. Необходимые настройки нащупываются путём проб и ошибок, с опытом ты будешь с первого раза более точно определять что примерно нужно ставить. Главное не допусти главную ошибку новичка - много не равно хорошо. Лора моментально перетренировывается, это достаточно быстрый метод обучения.
Аноним 06/02/23 Пнд 16:01:54 #843 №103962 
>>103904
спасибо анон
Аноним 06/02/23 Пнд 16:57:14 #844 №103999 
>>102098
!unzip ...
Или как-то так. Стэковерфлоу знает ответ на твой вопрос, или проблемы с инглишем?
Восклицательный знак в начале строки означает, что строка не на питоне, а на баше.
Аноним 06/02/23 Пнд 16:58:32 #845 №104000 
>>102064
Мануал по кагглу в студию!
Аноним 06/02/23 Пнд 18:34:39 #846 №104083 
00650-2864738958-gorgeous and majestic (moth girl1.0) with bioluminescent red wings and (veiny facial tattoos and facial markings1.3), 1girl, a.png
00646-1708009828-gorgeous and majestic (moth girl1.0) with bioluminescent red wings and (veiny facial tattoos and facial markings1.3), 1girl, a.png
00480-1466444216-photo, high quality, masterpiece, 1girl, blonde hair, light orange eyes, serafuku, blush, swimsuit, longsleeves, whiteshirt, p.png
00618-3713135086-photo, high quality, masterpiece, from below, 1girl, multicolored hair, blonde AND white hair, orange eyes, serafuku crop to.png
перекоптил?
Аноним 06/02/23 Пнд 18:35:58 #847 №104088 
>>104083
>>103825 (OP)
Аноним 06/02/23 Пнд 18:40:02 #848 №104094 
Как в лора скрипте указать относительные пути к папкам? Хочу сделать вросто копипасте кучу готовых конструкций и потом залить разные сеты в папки.
Аноним 06/02/23 Пнд 18:59:30 #849 №104124 
Пытаюсь потренить рожи, но лора портит и упрощает и остальные части тела и фоны, треню на Any4.0
Какие есть методы для трени только рожи, но чтобы не портило и остальное?
Аноним 06/02/23 Пнд 19:06:05 #850 №104143 
>>104124
а силу лорки пробовал снижать уже во время использования?
Аноним 08/02/23 Срд 05:55:49 #851 №106212 
>>94300 (OP)
А где это меню на третьем пике? Model merge?
Аноним 09/02/23 Чтв 12:20:02 #852 №107740 
>>104124
>треню на Any4.0
это ошибка

>>106212
это плоген https://github.com/bbc-mc/sdweb-merge-block-weighted-gui
comments powered by Disqus

Отзывы и предложения