24 декабря Архивач восстановлен после серьёзной аварии. К сожалению, значительная часть сохранённых изображений и видео была потеряна. Подробности случившегося. Мы призываем всех неравнодушных помочь нам с восстановлением утраченного контента!
Существующую модель можно обучить симулировать определенный стиль или рисовать конкретного персонажа. ✱ Текстуальная инверсия (Textual inversion) может подойти, если сеть уже умеет рисовать что-то похожее: https://rentry.org/textard (англ.) ✱ Гиперсеть (Hypernetwork) может подойти, если она этого делать не умеет; позволяет добавить более существенные изменения в существующую модель, но тренируется медленнее: https://rentry.org/hypernetwork4dumdums (англ.) ✱ Dreambooth – выбор 24 Гб VRAM-бояр. Выдаёт отличные результаты. Генерирует полноразмерные модели: https://github.com/nitrosocke/dreambooth-training-guide (англ.) ✱ LoRA – "легковесный Dreambooth" – подойдет для любых задач. Отличается малыми требованиями к VRAM (6 Гб+) и быстрым обучением: https://rentry.org/2chAI_LoRA_Dreambooth_guide ✱ Text-to-image fine-tuning для Nvidia A100/Tesla V100-бояр: https://keras.io/examples/generative/finetune_stable_diffusion (англ.) Бонус. ✱ Text-to-image fine-tuning для 24 Гб VRAM: https://rentry.org/informal-training-guide (англ.) Не забываем про золотое правило GIGO ("Garbage in, garbage out"): какой датасет, такой и результат.
>>130348 → > 6+ часов десятки тысяч повторов ставил У тебя там 250 пикч? За чем тогда на +6 часов ставил? Поставь минут на 20-40. У меня вот в 768 разрешении 250 пикч вертелись часов 15, но это только лишь потому, что 250 пикч в 768 на rtx2060. Ставил примерно 8 повторов на 10 эпох, и в итоге выбрал 6-ю, хотя и 4-я была уже хорошей.
>>130348 → > 6+ часов десятки тысяч повторов > не получается нормального Хммм, действительно в чем же дело? Больше 2-3к шагов, 4к накрайняк делать смысла нет если что, только с твоих потуг если они направлены не туда?
>>130757 Охуеть. Оказываться все это время эта хрень уже была у меня установлена в составе скрипта. Но и охуеть в двойне с того, что логи я не вел, ибо стояло $logging_dir = "" # (optional)
>>130348 → В зависимости от разнообразия датасета уже на 400 шагов может начать нормально получаться. Выше 2000-2500 целиться смысла практически нет - начинается перетренировка. Ну и не забывай, что можно задавать силу применения к ЛОРАм. Некоторые работают только в диапазоне от 0.4 до 0.7, а некоторые можно крутить аж до 2.0 без распидорашивания картинки. Почему так - я и сам не знаю.
>>130862 Что-то прям долго. Сегодня только вот в коллабе тренировал 8 эпох на 768, 600 картинок без повторов, батчем 2. 2.5 часа всего крутилось. И то последние 2 эпохи были лишними, картинка уже не менялась на них.
Спустя 3 недели ебания с этой проблемой все же нашел причину - в ебучем теге realistic в датасетах. Ну, хуйдожник рисует в околореализме, потому и проставоено там везде.
Убрал и всех, и лора взлетела на 4х80 пикчах датасета как по маслу и как доктор прописал, с свитспотом и плавным переходом от норм к разорви ебало.
>>130872 Там в прошлом треде я все рассказывал, не было зависимости от числа шагов. Сразу разрыв ебала скачком, хоть 1к хоть 10к хоть 5к, с разными лр, моделями и т.д., от их соотношений только менялась эпоха, на которой происходил разрыв ебала.
При этом highres fix вытягивал все таки картинку на уровень трененой лоры, но очевидно было что-то не так.
>>131013 Может с первого же раза выйти. Если и со второго не выйдет, можешь попробовать скриншоты в фотошопе немного замылить, чтобы картинки получились менее резкие по граням.
>>131110 >А ДЛЯ УМНЫХ НАВЕРНОЕ НАДО ЕЩЕ И КОД ПИСАТЬ САМОМУ? да, а ты как думал? Хоть какой-то фильтр, а то совсем бы у мясных художников все стили перекопировали! ну опечатался автор че бубнить, скоро пофиксят, разработка активно идет
>>131129 Не знал что там настолько все плохо что фиксить и фиксить. Не-fast (но они позиционируются не как однокнопочные) колабы другие аноны норм использовали и хвалили..
>>130931 Я только на колабе это тестировал, моя 2070 в 768 не может. Прилично дольше, чем на 512, но удивительно, что вообще работает. >>130939 Вторая в шапке.
>>131116 Я так думаю, что даже хуже. Нагрузка высокая, но неравномерная, скачками, когда генерация перезапускается. Но это так, чисто мнение дилетанта.
>>131085 Вторая в шапке довольно понятная. Пропускаешь третий шаг, на остальное кликаешь по-очереди. Настройки один раз поправить, указав правильные ссылки на папки в твоем гуглдрайве (подключается первым шагом),и название выходной лоры. И оно заработает. А дальше уже можно играться с параметрами.
>>130929 Вот оно как, ошибки в одних тегах не влияют, а другие если проскочат - сразу все ломается. >>130936 А какой именно стиль ты тренил? В смысле в чем он заключается, какие-то особенности у персонажей, или сам стиль изображения типа той же пастели? > На 0.4.0 вообще не тренируется Лр куда больше нужен, ну или альфу равную диму для того же поведения
Попробовал натренить лору с клип скипом 2 на наи модельке но на фотках бывшей ...
Вышло в разы лучше чем на сд, т.е. реализм во все поля но еще и вдобавок научилось раздевать одевать ебать рисовать волосню и разную комплекцию и эмоции, хоть в лольку хоть в старуху с вислыми сиськами и т.д. Причем оно именно на фото натренелось, вся анимешност исчезла вовсе.
>>131178 >>131203 тут ен столько в нагрузке проблема, сколько в скачках температуры и перегревах, по этому тюним режим охлада на оптимальные температуры, чтобы минимизировать скачки... - ну и плюсом лучше кулер дует - лучше охлаждение памяти... вообще лучше серверный корпус с хорошей продувкой, но эт для датацентро-бояр, в квартире ИМХО слишком громко будет
Вопрос к участникам, никто часом на бусти Хачатура aka XpucT не подписан? https://boosty.to/xpuct по спойлерам материалы неплохие должны быть по лайфхакам с SD, но, не зная за что, 7$ отдавать не хочется И жаба давит, по этому может кто-то кратко поделится интересной информацией, или хотябы отзывами?
>>131764 Пробовал, но я без понятия как этим пользоваться, пробовал разные комбинации alpha и beta, но я без понятия как это работает, и соответственно во всех случаях получилась хуйня, при вызове лоры результат гораздо лучше
>>131768 Когда ты мерджишь с моделью ты как бы меняешь веса целевой модели чтобы она юзала веса лоры. Пользоваться примерно так: в чекпойнт А ставишь целевую модель, ставишь альфубету на 0, дименшон на авто или под размер дименшона лоры, внизу чекбоксишь лору, пишешь имя выходной модели и мерджишь.
>>131782 С определенной силой это ratio с блоками надо крутить вроде, альфабета справа сверху с списками под A и B это для чисто моделей тебе надо ток модель-рецепиент в А грузить и юзать от нее альфу в позиции 0.
Вот пример: беру лору карины и URPM, настройки мерджа + тестовый прогон.
>>131763 Так а какой гайд, просто закинул фотки в датасет, назначил ей теги как обычно с бур, и зарядил обучение лоры на nai, все строго по гайду.
Я просто прихуел с того факта что манямешная модель сработала лучше в обучении лоры на ебало конкретного человека, чем сд 1.3 1.4 1.5 и ф222 и прочие реалистичные обычные сд-базед модели.
>>131803 19 довольно шакальных пикч x 10 повторов последний такой, но думаю, пережарил, скину лр еще сильнее раза в 3, мордаха и комплекция уже на 5 эпохе начала сходиться, на больших от 10 можно уже скручивать вес лоры и получать морду на любой туше которую захочешь сгенерить, шишак колом пробовал и на наи, последний раз на ACertainty, в принципе, тоже самое все выходит. генерю на Any 4.5 (пробовал 3.0 и наи , тоже все получается)
>>131834 Решил проверить. Пак одной знакомой валялся на харде. Да, сработало. Шакальность пака зашкаливала, полно было пикч 241x432 пикч или вроде того. Снизил unet_lr до 2e-5, а text_encoder_lr до 1e-5 Только наоборот при 29 пикчах и 8 эпохах x10 повторов вышло слабо и я ставлю силу Лоры на 1-1.2 Но, все же, гипер огромные глаза остались на Any 4.5
Столкнулся с такой проблемой, что на некоторых версиях xformers сломано обучение модели. Из за этого при обучении loss может очень быстро уходить в nan или наоборот почти не изменяеться во время обучения, а на выходе получается не работающая модель. Проблема решается установкой другой версии xformers
Прочитал несколько гайдов по лорам, но так и не разобрался. Плиз хэлп.
У меня в датасете все картинки вертикальные или горизонтальные. Если их кропать в 512х512, получается малоэстетичная фигня.
В гайдах написано, что можно и не кропать, как я понял. Но нигде не нашел объяснения, что дальше произойдет. То ли как-то автоматом покропаются по дороге, то ли что.
Можно как-то натренировать на 768х512, чтобы от этого была польза, и потом натренированный концепт хорошо генерировался в этом разрешении?
>>133099 А вопрос-то не праздный, не праздный! DreamLike-PhotoReal V2 пишет в своей документации, что тренили его на 768х768. Это вообще как? Получается, 512х512 - это не фундаментальное ошраничение модели SD1.5, это просто так натренили? Соответственно, раз они смогли, то и мы... можем?
Субъективно - у DLPRv2 и впрямь меньше проблем с рассиамливанием на 1024х1024, чем у других моделей.
>>133231 Точно, так же можно как раз протестить попробовать тренировку на 768. Попробовал проверить две сетки, пик 1 тренился на 512х512 и пик 2 на 768х768 пикчах. Выборка, как обычно, маленькая, теги указаны только уточняющие, у пик 1 тегов получилось больше, всё так же рисует нескольких персонажей в кадре 1024х1024 на эни3.0 фп16, естественно без хф
Нашёл 2 лорки на Шинобу, в 1 ахуено получаються волосы, в другой глаза, пытался их смерджить как на 3 пике, но так и не смог получить лучших деталей из обеих, и хотел бы узнать про (":blocks" is option, not necessary), на сколько я понял лорки можно мерджить по блокам, но как? У меня мало в этом опыта, окно снизу имеет к этому отношение? Или нужно просто вместо 1 веса использовать другой синтаксис для вызова мерджа по блокам?
Есть полноценное объяснение для дегенератов, что значат все эти настройки в обучении лорок? Особенно интересуют эпохи. А то вот я как бы натренил по гайду для теста Зину, а вышло пусть норм для первого раза (с третьего захода), но хочется получше. В идеале, есть желание натренить на условный "Стиль фильмов 80-х", чтобы и зерно было стабильно, и цвета - начать, например, с Безумного Макса и его клонов.
>>133246 Ага. Значит, при положительной тренировке значимых отличий нет. Вот теперь вопрос: а при отрицательной? У меня есть нагенерённые сиамцы а-ля пикрил. Не то чтобы прям вот возьми и выложи, их ещё отсортировать надо, но там реально много. Сотни. Они в 512х1024. Можем ли мы натренировать (вероятно, на ванильной SD) лорку, которой объясним, например, что за концепт такой - "две головы одна над другой", а потом вставить это в негатив или каким-то другим образом попросить лорку НЕ делать этого? "Мы" - потому что я, во-первых, не имею видеокарты (но это ладно, кегли/гугли поделятся), во-вторых, не имею вообще никакого опыта успешного лоропечения. А начинать своё знакомство с лорами с эксперимента, который запросто может и провалиться, как-то не хочется. Ну и резать датасет в пустоту, не будучи хоть сколь-либо уверенным, то он кому-то нужен, тоже не хочется от слова "совсем".
Тут, на самом деле, возможно два эксперимента.
а) Учим лорку на 512х1024 (так же можно, да?) б) Вырезаем из наших картинок тайлы 512х512, на которых ясно видна мутация (пикрил 2) или такие прямоугольники, что любой квадрат 512х512 содержит искомую мутацию (пикрил 3) и далее https://gitlab.com/Nickkolok/chas-conceptrate/ (но это по вкусу)
Анончики, кто-нибудь возьмётся?..
Ведь если получится, то мы заборем очень серьёзную проблему!
>>134432 Берешь второй лоро-коллаб из шапки. Им тренируешь. Только ознакомься с мануалами сначала. Там всей разницы только в том, что папки и модели вместо твоего диска будут в гугле лежать. Кропать ничего не надо, скрипт сам всё отресайзит.
>начинать своё знакомство с лорами с эксперимента, который запросто может и провалиться Первый эксперимент у тебя в любом случае провалится, так что можешь и с этого начать, почему нет. Полезность, правда, сомнительная, и вдобавок результат фиксировать трудно будет. Лора же в любом случае влияет на генерацию, одним своим фактом подключения, и нет никакой гарантии, что нормальная генерация без "склейки" получится именно из-за тренировки концепта, а не из-за факта подключения лоры как таковой.
Опять же, штука это редкая, бороться с ней легко - обычным имг2имг или хайрез-фиксом. Ради такого лорку затевать, которая на стиль генерации еще влиять будет... Ну, не знаю.
Мерджил лоры через веб-гуй версию kohya_ss, и заметил, что силу применения соединенной лоры надо раза в 3 подымать по сравнению с обычными, чтоб концепт хотя бы приблизительно на том же уровне включаться начал. То же самое касается и экстракции лоры из модели. Можно это как-то забороть, никто не в курсе?
>>134432 С лишними конечностями и персонажами вообще не угадаешь, вот добавил просто тегов на задник на пик1, таже модель, лишнего стало меньше даже с 512 лорой. Другая аниме модель на пик2 это полный провал c 1024 на том же промпте, 768 же на пик3 нормально. Ты бы хоть показал с какими настройками у тебя такое генерится. Ну натренится лора как ты задумал на 512х1024, даже пускай она получится, перестанет рисовать две головы, а с ногами и руками что делать, отдельным концептом засунуть? А с двойниками? Да и актуальна она будет лишь для одной модели тогда? А как быть с другими разрешениями, не все ведь генерят 512х1024? Проще действительно хайрезфикс просто юзать
>>134442 Теоретически можно попробовать перенормировать веса лоры. Грубо говоря, смёржить лору с собой же, выставив суммарный вес 3. Но это теоретически, я не пробовал.
А есть ли проблема? Если решается просто увеличением веса, то какая разница?..
Возможно, при мёрже стояли веса 0.5 и 0.5. Тогда более-менее понятно, что каждый концепт по отдельности может потребоваться увеличить.
>>134437 > Лора же в любом случае влияет на генерацию, одним своим фактом подключения, и нет никакой гарантии, что нормальная генерация без "склейки" получится именно из-за тренировки концепта, а не из-за факта подключения лоры как таковой.
Сотня картинок с лорой, сотня без. Если это реально работоспособных фикс - то разница уже на сотне будет видна.
>>134451 > Ну натренится лора как ты задумал на 512х1024, даже пускай она получится, перестанет рисовать две головы, а с ногами и руками что делать, отдельным концептом засунуть? А с двойниками? Да и актуальна она будет лишь для одной модели тогда?
Если она натренится на 512х1024, то и на другие разрешения влиять же будет, разве нет? А вообще типовых мутаций немного. Две головы, два лифа (пикрил 1), двое плавок (пикрил 2), почти полное удвоение (пикрил 3). Да, наверняка повылезут ещё мутации, но эти самые частотные.
>>134456 Ты либо трусы сними, либо крестик надень уж определись тебе: > closeup, portrait, perfect detailed face, focus on face или > outie navel, thin waist, slim flat belly, very slim girl in bikini Хз где ты там генеришь, но может тебя с твоим > adorable 12yo girl standing in bikini просто отсеивает цензурой? Хайрез просто поставь вот по этому калькулятору https://preyx.github.io/sd-scale-calc/ латент и от 0.6 до 0.7 денойза, чтобы мыла не было, или не латентный апскейлер, если есть
>>134451 > Проще действительно хайрезфикс просто юзать
Ну это может стать не заменой хайрезфиксу, а дополнение к нему. Грубо говоря, сейчас можно хайрезфиксить с 256х512, а будет можно с 512х1024. Как бы множитель.
>>134468 Цензура там есть, часть картинок отсеивает, однако попадается и вот такое. Да, ей 12 с т.з. StableDiffusion. Возраст - эффективный способ избежать коров с племенными выменами, да и только.
нахер дрочить переобучение на ошибки шума и генерить в 1024 по стороне, если можно генерить в безопасном разрешении и апскейлить на безопасном денойзе?
в крайнем случае есть Latent Couple, где ты жестко можешь задать положение для концепта на картинке и ошибок шума быть не должно
Я тоже обсираюсь с тем чтобы сделать свою лору.... Уже неделю чекаю каждый день надеясь что кто-то ее сделает за меня, но нихуя подобного. Хотя gogalking популярный художник.
Вот бы настоящего мужчину который бы сделал ее..............
>>125540 → Ну так что, "попозже" еще не наступило, или всё таки сгрузишь куда нибудь? Хотя бы на мегу залью, да восстановлю ссылки на лоры, если не хочешь больше сервер держать
>>134458 Там концепт плюс-минус один. На одних и тех же кейвордах тренировано, по крайней мере. Надо просто усреднение по стилю получить, но на силе 1 оно практически не работает. Приходится сильно выкручивать, но тогда начинают всякие артефакты вылезать - того, что в тренировку случайно попало и тоже протэгано было, но в промпте не проставлено. Саму с собой сливать не пробовал пока еще. Врядли сработает, конечно.
>>134718 >>134458 Ну вообщем как я и думал. Результата нет. От простого слияния одной и той же лоры между собой ничего не меняется. Надо что-то другое придумывать, и тут я хз вообще, куда копать.
>>134442 Попробуй мёрджить через экстеншн для автоматика SuperMerger - там можно вес базовых лорок при мёрдже крутить. Я так смог добиться того, что смёрдженная лорка, которая только на весе 2.4 работала, стала на 0.8 нормально работать, просто увеличив веса у базовых лорок при мёрдже. Через гуй версию kohya_ss у меня тоже приходилось какие-то нереальные веса задавать.
>>134806 Попробуй %каломатик%\extensions\sd-webui-additional-networks убрать и глянуть, стартанёт ли без экстеншена. Если выйдет, то мб поновой его поставить надо.
Я посмотрел получше, у меня эта ошибка была из-за того, что в папке с лорами случайно оказался сефйтенсор обычной модели. Обновление хеша спотыкалось на нем.
>>134843 Этот калькулятор использовался для старого хайрезфикса, новый работает совершенно по-другому. Всё, эта ссылка нахуй не нужна, если только ты не сидишь на сборке тех времён.
>>134838 Обновление норм проходит. На создании вкладки для супер-мерджера спотыкается. >>134842>>134844 Проверил - автоматик полностью обновлен. Может, он градио как-то отдельно обновляет? Командой какой-нибудь?
>>134853 И вправду, gradio отдельным пакетом ставится. Попробуй его снести в %каломатик%\venv\Lib\site-packages
Если ты автоапдейт пакетов не отключал, то потом просто перезапусти гуй. Если автообновление отключено, то введи в корне автоматика: .\venv\Scripts\activate pip install -r requirements.txt
Если обосрётся с апдейтом, то, наверное, придётся все пакеты сносить и по новой ставить. Может лучше бекап всего %каломатик%\venv\Lib\site-packages сделать сперва.
>>134915 Тогда у меня нет идей, может кто-то ещё из анонов подскажет. Разве что попробовать целиком venv снести и по новой все пакеты поставить. Если и это не поможет, то тут только новый инстанс автоматика разве что пробовать установить - может с какими-то другими плагинами конфликтует или ещё что.
>>134915 1. Сноси весь venv и он будет качать по новой 2. Если не поможет, то удалить еще и все пакеты в директории самого питона с помощью: pip freeze > 1.txt pip uninstall -y -r 1.txt
>>134919 Вручную зашел в папку с экстеншном и сделал гит-пулл. Заработало. Какую он там версию из автоматика по ссылке тянул, почему не обновлял - хз вообще. Хотя может, конечно, и сам автор подсуетился и что-то обновил как раз в этот срок.
Господа, имеется rtx 2080S. Имеет ли смысл менять на 3090? Прямо лоры тренировать вроде не собираюсь, но вот генерирую/img2img/инпейнтингом занимаюсь много (в т.ч. с контролнетом). 4090 стоит прямо уже слишком дорого пока, а вот 3090 прихватить с авито тысяч за 50-60 - вполне реально.
>>135864 >>135865 Угум, графики изучал. Рановато я вопрос высрал, не доформулировал. Вообще, я даже больше думаю между 3080ti и 3090. По графику они вообще практически одинаковые (да и по характеристикам кроме объёма памяти) + 3080ti за эти же деньги можно купить новее/в более хорошем исполнении. Генерировать свыше 1024x768 (а в идеале 768x512) смысла особого нет, я пробовал, получается какая-то каша, лучше проапскейлить потом. Хотя, наверное, с йоба-памятью можно будет апскейлить без деления на тайлы очень много, тут, вот, не в курсе пока. В общем, хрен его знает, может и потом пообучать тоже захочется. Да и вообще, 3090 с 24Гб, наверное, всё же больше подходит для нейроувеселний - кто знает что там ещё придумают.
>>135844 Все зависит от твоих финансов и насколько серьезно хочешь заниматься нейрохудожествами и играть в игорь. Если изредка делать шакалов с хайрезфиксом до 1.5к и катать соревновалки на фуллхд - апгрейда не заметишь. Если апскейлить побольше - размер тайла там важен а значит нужно хотябы 12 гигов врам, 24 лучше. Если переделывать куски, инпеинтить и т.д. - тут важна производительность, с 3090 куда комфортнее будет. >>135873 > между 3080ti и 3090 Переезд с 12 на 24 гига был дохуя приятным, если готов потратиться на такую игрушку - бери где больше памяти не задумываясь. Как компромиссный вариант - 4080 если занидорого найдешь. >>135983 Пробовали работает ли оно вообще?
>>135986 Спасибо, анон! Да, уже договорился и с покупателем моей 2080s, и с продавцом 3090 - сегодня, похоже, уже всё будет. >и катать соревновалки на фуллхд Ну, кстати, я сижу за 4к телеком, и не сказал бы что мне 2080s где-то прямо не хватало естественно, в совсем йобы играю в 2к разрешении, на телеке оно от 4к практически не отличается. Если б не увлечение нейронками (а так же Блендером), то я б и не думал ещё пару лет апгрейдиться.
>делать шакалов с хайрезфиксом до 1.5к Вот, кстати, ещё особо не пробовал этот хайрезфикс. Насколько понял, это немного отличается от того, что если б я просто сгенерил обычный 512x768, а потом SD апскейлом увеличил на нужный размер. Да и это сильно дольше на моей 2080s происходит, проще нагенерить 10 картинок, выбрать из них лучшую, и уже её в img2img апскейлить каким-нибудь валаром/ремакри. Но вот с 3090 уже попробую этот фикс полноценно.
>Если апскейлить побольше Да, очень хотелось бы. Тут иногда выкладывают генерации в бешеном разрешении, выглядит очень хорошо. А тайлами по 768 это и долго, и слишком много артефактов, надо с промптом что-то придумывать постоянно.
>Если переделывать куски, инпеинтить и т.д. Вот этим больше всего занимаюсь, да. Не думал что тут прямо особенно нужна производительность, но если так - я только рад что будет ещё комфортнее.
>>135997 Если про обычный без каштомов и прочего - считай то же самое что прогнать пикчу через img2img с латентом или однотайловым sd, здесь не происходит дробление пикчи на куски а все делается одним. > проще нагенерить 10 картинок, выбрать из них лучшую, и уже её в img2img апскейлить Теперь будет то же самое, но делать будешь сразу в разрешении хотябы 1к, а уже их будешь апскейлить. > иногда выкладывают генерации в бешеном разрешении, выглядит очень хорошо обычно они выглядят хуево лол, но тема интересная > Не думал что тут прямо особенно нужна производительность Ну это твой комфорт считай, перерисовал что-то, закинул кусок в инпеинт, поставил батчей, делаешь другую часть, потом ставишь уже ее а из сгенерированных выбираешь подходящий вариант. Если приноровиться то почти нет ожиданий обработки и процесс не прерывается на разглядывание прогрессбара и лайв превью.
Будет пиздато, отвечаю. Первая модель - это новая версия Waifu diffusion, с новизной и эстетическими ступенями. Вторая - Kenshi, ничем особо не выделяется, но отточена до блеска - даже пизже чем Anything v4 и Counterfeit. Уточню, что нужный чекпойнт называется wd-1-5-beta2-aesthetic-fp32.safetensors. Замиксуйте, это будет пиздато.
Ах да, и еще совет: смиксуй результат снова, но уже с моделью для пиксель-арта. Дело в том, что самые лучшие пикчи получаются если добавить чуть-чуть токена пиксель-арта. Выходит как бы HD пиксельарт, оче гладкий и детализированный, с охуенной палитрой. (Но если переборщить, то выйдет зернистая хуйня)
Если смиксовать кенши с вд 1.5.2 - получится топовое манямэ, с такими-то формами и деталями как у самых ебейших топовых крутанов на pixiv и арстейщоне.
>>136112 > смиксовать кенши с вд 1.5.2 > WD 1.5 Beta is fine-tuned directly from stable-diffusion-2-1 (768) > Base Model SD 1.5 Щас кааааак намешаем, никуда не уходи.
Нет если будешь описывать бекграунд, если убираешь то указывай на что поменял, если хуёво редачишь, например дохуя шума, то тоже указывай, просто будь честен с нейронкой, кропать тоже не обязательно
>>136502 >Нужно ли подгонять картинки под конкретный размер? Нет. Можно (и нужно) обрезать ненужное. Еще можно соотношение сторон подгонять, чтоб скрипт сильно при ресайзе картинку не растянул. Я обычно (если кропаю) ставлю соотношения 2:1, 2:1.25, 2:5, 2:1.75, 2:2. >Желательно ли удалять фон? Если там какая-то вакханалия творится или лишние персонажи - то да. Обычно - нет.
1. Нужно в 7z или просто папку залить на диск? 2. Куда прописывать путь до архива с картинками? 3. Там уже есть определённая модель или нужно желаемую загружать?
Простите за даунские вопросы, просто я не понимаю, а пердолиться самому времени колаба не хватит...
>>136523 Подключаешь гугл-диск. Это самый первый пункт. Создаешь там нужные папки, туда всё и грузишь. Модель, картинки для тренировки, и т.д. Только смотри не переборщи, гугл это дело контролирует, и может за плохой контент забанить.
Когда диск подключен - в левом столбце жмешь на значок с папкой, он тебе диск откроет. А там уже можно жать "копировать путь" на то, что тебе надо, и вставлять в скрипт.
>>136020 Приобрёл таки. Дааа, анон, SD на 3090 это просто что-то за гранью. Я вроде и смотрел графики, но на деле всё НАСТОООЛЬКО быстрее это я ещё без xformers сижу, так за полгода и не дошли руки/голова пощупать и узнать что это такое. Теперь можно генерировать 8 изображений 768x512 одновременно за 30 с небольшим секунд - чисто для бенчмарка пробовал, даже не думал что заработает. А всякие инпейнты и т.д. - вообще практически мгновенны. Это же, получается, SD yf 2080s ни разу не хобби было, а настоящее мучение. Вроде и всё более-менее устраивало, но сейчас даже смешно вспоминать. В общем, спасибо за советы! осталось только разобраться с андервольтом, а то и по температурам, и по громкости, конечно, получше 2080s, но совсем на чуть-чуть
Обучил лорку на wd1.5, при попытке генерации ловлю пикрелейтед и лора не применяется. Поменял только эти две настройки, остальные взял со старой рабочей лоры. Есть идеи, что я делаю не так?
>>136980 На пик2 поменял правильно, также нужно поставить $resolution = 768 указать верный путь до модели, положить yaml идущий с моделью в ее папку, прописать путь до их рекомендованного vae. С такой конфигурацией все работает, обучается довольно таки неплохо, только оче медленно и большой батч сайз не поставить
>>138154 Господа, а вы не охренели, не зажрались? Это опенсорос, здесь никто ничего никому не должен, только своей совести (при наличии). Человек сделал охрененную вещь (объективно, ибо все пользуются; diffusers, при всём уважении, по многим параметрам недотягивают) - так что теперь, ему отдохнуть нельзя? Погамать? В отпуск съездить? Поспать, поесть, в сортир сходить, сексом потрахаться?
>>138146 > тренинг лор для webui Не сделают, ты посмотри сколько рам и врам ватоматик сжирает в простое и сколько требует лора. Если этот мусор оставить то входным порогом будет видюха от 12 гигов, а выгружать все - такого функционала аддонами не добиться.
Есть ли возможность в автоматике генерить картинки из текстовиков? У меня условно есть папка, там 30 текстовых файлов и я хочу получить 30 картинок. Как это сделать?
>>138305 Потому что у меня есть моделька на DreamBooth, которая меня прям сильно-сильно цепляет. Ну вот нравится мне эта конкретная рисовка. Но там сильно деградировала базовая модель, мутноваты глаза, перехреначены руки. Сейчас я пытаюсь восстановить рецепт этой модельки. Логи-то есть, так что фактически вопрос в воспроизведении эксперимента.
Есть у меня предположение, что моя любимая моделька потрёпана потому, что я (по незнанию) тренировал её в два подхода. Сначала 3200 шагов, потом 4000. Со вторым подходом генерации регов, ага. Деградация базового концепта, все дела.
Собственно, на том гриде - попытка сделать всё за один проход. Сравнительный грид старое/новое ещё не делал, поскольку не могу уделять нейронкам всё свое время (удалёнщик).
Датасет около 30 картинок.
Не лора - потому что я не знаю формулы, по которой относительно работающий рецепт модели можно перевести в работающий рецепт лоры. Хочу воспроизвести обучение модели (подозреваю, что если в 1 проход, то там может быть не 7200 шагов), потом поиграться с содержимым датасета (не все картинки этого художника мне нравятся одинаково). И только потом пробовать другие технологии обучения.
За советы буду благодарен. Особенно за быстрый способ сделать в автоматике сравнительный грид по чекпоинтам.
На huggingface.co часто вижу модели, в которых VAE в виде пикрила. куда это говно пихать? кидал как есть в папку ваэ - не видит. переименовывал расширение в .pt - видит, но при попытке подгрузки в UI - консоль сыпет ошибками. чяднт?
>>139372 Этоо диффузорные веса, каломатик их не поддерживает. Тебе нужно перегнать их в .ckpt. Как это сделать чисто для vae в отрыве от остального - не знаю.
controlnet не работает без ошибок Не влияет на генерацию и генерирует черные квадраты вместо аннотатора на любой модели. Шиндоус 11, ноувидео 4090, свежий каломатик и свежий контролнет поставил с нуля для экспериментов - не работает. Есть идеи?
>>139048 1e-3 128 dim 128 alpha С этими настройками шанс получить просто не говно намного выше. А по уму - уже думать надо исходя из экспериментов с дата-сетом. Я стили только на старой версии делал. >>139221 Похуй. Сама кропнет и квадраты, и прямоугольники. Не советую прямоугольную картинку разбивать на квадраты вручную, есть шанс того, что на некоторых моделей в будущем вместо персонажа с глазами и прической будут тупо ноги.
>>139649 То есть, я хочу сказать, что бы у тебя дата-сет не состоял лишь из вот таких пикч как 1 и 2. Лучше оставить как 3. Потому что она разбивает прямоугольники на маленькие прямоугольники, например пик 4.
>>139598 > 1e-3 > 128 dim 128 alpha Хуясе ебать, это же жесткий перетрен с распидориванием будет, особенно если у него не 16+ гигов врам >>139663 > что бы у тебя дата-сет не состоял лишь из вот таких пикч как 1 и 2 Хуясе ебать, тема здравая, но бля, это кому такое в голову должно придти? В датасете должно быть то с чего ты хочешь что-то скопировать а не рандомные куски, это вроде очевидно. >>139683 Двачую вопрос, кто-нибудь уже пробовал?
>>140102 > 16+ гигов врам Нет никакой разницы, между соотношении скорости, дима и альфы к соотношению vram. С чего ты это вообще взял? Некоторые люди делают dim больше 256 и им нормально. По сути это лишь параметры сохранения выходного файла, кроме скорости. >>140102 > кому такое в голову должно придти? Тем, кто пользовался обучением эмбеддинга и гиперсети в автоматике. Там нужно было использовать квадраты 512x512 и подругому никак. Поэтому использовали автоматическую обрезку, которая резала хрен пойми как, в основном - ноги отдельно, руки отдельно. Я уже забыл, но вроде в дримбухе до сих пор так, что нужны строго 512x512 пикчи, иначе ошибки валит. >>140104 Кидаешь дата сет из пикч с этой рисовкой в дримбух. Обучай на стандартных параметрах. Показывай здесь результат, дадим советы куда настройки крутить.
>>140119 > С чего ты это вообще взял? С того что есть еще батч сайз, который на врам как раз завязан. > dim больше 256 и им нормально Ваще похуй не влияет, суть в том что при альфе = дим 1e-3 - дохуя высокий лр, особенно при батчсайзе 1-2 и 100% приведет к поломке модели. Она может поломаться удачно и выдавать что-то новое что будет воспринято за стиль, но хотябы упоминай об этом когда советы раздаешь. > Тем, кто пользовался обучением эмбеддинга и гиперсети в автоматике. Там нужно было использовать квадраты 512x512 и подругому никак. Так оно требует просто квадраты в качестве пикч а не нарезку пикчи на куски. > Поэтому использовали автоматическую обрезку, которая резала хрен пойми как Она может не идеально смещать кроп и делать фокус не на лице, но отдельно на куски не нарезает. Одна пикча на входе - одна кропнутая на выходе. Впринципе совсем ужасной ее не назвать, совсем проебывала не более 10% пикч, их руками можно было поправить или перезапустить с другими настройками.
>>140119 >Кидаешь дата сет из пикч с этой рисовкой в дримбух. Обучай на стандартных параметрах. Показывай здесь результат, дадим советы куда настройки крутить. Я вот как раз пытаюсь найти нормальный не запутанный гайд
>>140135 Если осилишь двощегайд то все сможешь, разве что придется подобрать параметры и оптимизировать датасет. Да, это действительно пиздец для неофита, но зато когда понял - все становится просто и понятно. Задавай вопросы по ходу здесь.
>>140128 Ну так банч 1 по умолчанию, а я не говорил крутить его на 10. До 0.4.0 версии 99% людей сидел на таких настройках - lr=1e-3, 128 dim, 128 alpha, batch_size=1. И даже не думая что-либо крутить и было всем все нормально. Сейчас это подходит больше для стилей, ибо требования по качеству у все выросли и персонажи на таких настройках уже совсем не очень.
Раньше и кроп был максимально простой, сейчас получше. Да и зеркалили пикчи почти всегда. Вот мой дата сет тех времен, например, конца октября.
>>140153 Да, гайд написан крайне ахуительно, фейл даже в заголовке. Смотри оглавление, находи там дримбус и бугурти с пахомовской структуры где все перемешано. Один хуй лучше на великом-могучем врядли найдешь.
>>140153 Обучение dreambooth от обучение lora отличается одной галочкой (или параметром командной строки). Все остальные параметры у них одинаковые. Разве что у dreambooth нет network_dim и alpha. Но оно и к лучшему.
А потом просто раскурить, что значит каждая настройка. Для референса можешь использовать настройки лоры из гайда. Как я уже написал выше, >>140211 >Все остальные параметры у них одинаковые.
>>140157 > а я не говорил крутить его на 10 Как раз если крутануть то будет более толерантно к высоким лр, в том и суть. Правда на сколько не понятно, кроме слов что вроде как так должно быть инфы нет, а тестировать дохуя долго. > До 0.4.0 версии 99% людей сидел на таких настройках - lr=1e-3 Да ладно, 2e-5 .. 5e-4 сидели, многие и с альфой=1 такие числа используют, в прошлых тредах было. 1e-3 для высокой альфы действительно дохуя, в 2 раза снизить и от той точки уже щупать окрестности. > Да и зеркалили пикчи почти всегда Норм тема же, в случае если датасет скудный > мой дата сет тех времен Ахуеть вот это реально треш, а еще наверно удивлялись что неоче получается >>140214 > нормальную вебморду Оно новый функционал вносит или игрушка для тех кто не может без gui?
>>139663 Ок, допустим, а если я на коллабе буду заливать анкроп имагес? Например в линакриф, он так же будет разбивать сам на множество квадратов или просто кропнет на один?
>>137593 Как фанат рисовки naiga12 (художника для руины) заявляю, хуита, выпей яду Стиль слишком слабоват и недотянута крупность мазков, да и всё слишком плавно
Подскажите ради лолей как пользоваться вторым коллабом по тренировке лор из шапки или запишите тутор плз, я не понимаю куда там загружать теги в txt файлах
>>140487 >>140478 Скорее всего ошибка в адресах до датасетов, у тебя они одинаковые, дл рег файлов должна быть отдельная папка, пустая если нет рег файлов. Помимо этого сам датасет должен быть в папке с названием итерации_название, т.е. 1_penis например
>>140492 >>140493 >Скорее всего ошибка в адресах до датасетов, у тебя они одинаковые, дл рег файлов должна быть отдельная папка Я пробовал указывать разные, все равно не работает
Алсо, что такое рег файлы? Это файлы txt с промтом внутри? Если так то я пробовал в другую папку их кидать
Не совсем понял про итерацию, в прошлом треде название так же без _ прописано
>>140525 >Алсо, что такое рег файлы? Это датасет сделанный по главным ключам которые испоьузешь в своем датасете. Допустим 100 изображений по ключу woman сделанных в NAI. > Это файлы txt с промтом внутри? Ниет, это такой же датасет но для точности. >Не совсем понял про итерацию, в прошлом треде название так же без _ прописано Вот у тя датасет из говна в папке, там есть файл 1.png, к нему идет файл 1.txt. Тебе нужно обозвать папку этого датасета по принципе "количествоитерацийиспользования_любоеимя", в примере с лорой карины юзалась одна итерация. Итерации нужны преимущественно чтобы несколько датасетов вместе совмещать, указывая плагину в каком количестве брать информацию от каждого датасета, допустим есть два датасета 2_anus и 1_penis, значит плагин будет брать в два раза больше данных из 2_anus, и количество информации в конечной лоре будет 2/3 (2 к 1) от всей лоры - то есть 66.6% лоры будет занимать трен на анус. >>140529 Должен быть просто в папке без всяких архивов. >>140532 Тритон не юзается на колабе, не обращай внимания на эту ошибку.
>>140546 чел, ты можешь просто скопировать конфиг отсюда >>128565 → положить по пути /content/drive/MyDrive/sd/dataset/sincos/1_имятвоегодатасета свой датасет, поменять путь к модели своей и запустить или нет?
>>140566 Запили тогда подробный гайд для попоручек. Один говорит - пропускай третий шаг, другой - нажимай всё о порядку, а тот недогайд в колабе - калич.
>>140576 так всмысле, гайд рабочий и так, максимально для тупых сделано, третий шаг пропускать или не пропускать зависит от того надо тебе наи скачивать в инстанс колаба или нет
>>140644 >Поставьте просто вебморду, там все работает Не у всех локально тренить можно по мощности. У меня вот тренировку в батч 2/768 не тянет на моей 2070, а коллаб - тянет.
>>140762 Ок че то запустилось, у них плохо работает анзип, я вручную залил просто в папку и нашло файлы. Так же, там сказано что если с фотками будут txt файлы то теги будут браться оттуда, но пункты с автоматической растановкой тегов обязательны???? зачем то???? в итоге зачем то эти дерьмовые теги проставленные машиной а не мной обьеденили в один мета файл и использовали их??? зачем??? как это дерьмо убрать????
>>140791 >И то что есть призрачный тренд на снижение - тоже? да, чем меньше лосс тем меньше пиздошит веса по итогу, т.н. гниение >А что с лицами делать? а что с ними? >Или это последствия того, что я за базу взял 1.5? нет
>>140806 ну вопервых это 512, попробуй апскейлни или хайрезфиксни и посмотри результат ну а так тренинг скорее всего не опатимален, да еще и аниме на реалистичной сд1.5
>>140819 >>140821 Просто ок, тут я учу дримбуф, но если я решу обучать Лору и на чём-то кроме 1.5, она же будет не совместима с чем-то кроме того, на чём учил, я же верно понимаю?
>>140837 >она же будет не совместима с чем-то кроме того, на чём учил, я же верно понимаю? По умолчанию лоры совместимы. Дальше уже зависит от датасета. Вот например https://civitai.com/models/8723/pov-doggystyle-lora-1-mb совместима со всем, что я пробовал.
Кстати, аноны. Я помню, что у моделей можно веса перелопачивать. И там есть условное разделение на фоны, позы, и прочее. У лоры есть такое? Можно натренировать лору на фоны, а потом выпилить из нее лишние веса? Или на позу, и выпилить стиль, чтобы оно не меняло стиль, только позу?
>>140417 На SD 1.5 никто аниме не учит. На civitai ставят только потому, что нет выбора NAI. Бери NAI, ACertainty, Anything 4.5
Обучаю онли на ACertainty. Совместимо со всем, что умеет в рисовку аниме, даже всякие дико ягодно-оражевые-капустные миксы с графикой уровня 3d рендера в блендере. То есть со всем, кроме базовых SD, ProtoGen, Deliberate.
>>141021 Надо через Anything 4.5, 3.0 какая-то хуевая для обучения. Не знаю как сейчас deepbooru, но месяца два назад перешел на WD. Разница по качеству определения на 5 голов выше. >>141025 Скорость записанная в виде формулы. 1e-4 это 0.0001, а 2е-6 это 0.000002. То есть вторая цифра это количество нулей, а первая - число после них. Короче, в гугле вбивай и по первой же ссылке калькулятор. В колабах никогда не сидел, но слышал, что 2 уж точно можно.
Ладно, пока (или вообще) забью, ибо тратит много времени, а результат ужасный получается Но как я уже писал, результат, что был выше в виде "Library of Ruina style" - говно
Папка output - это я кропал Папка output-deepbooru - это после прогона в webui автоматика в ddepbooru Нумерация не сквозная, ибо я удалил около 25%, что совсем не подходили на мой взгляд или были не очень качества
Тут именно арты автора без примесей артов из библиотеки, ибо там было много художников, файлы тупо стащил с артстейшна
>>141075 Ну, от датасета зависит, от настроек, от батча. У меня на 500+ картинок лора на гипер-футанари тренилась как раз столько на коллабе. Батч 2, 768px. Получилось очень хорошо.
https://github.com/wcde/custom-hires-fix Только у меня этот хайрез-фикс к хренам ломает имг2имг? Невозможно нормально выбрать разрешение картинки слайдерами, после запуска генерации в консоли всякая хрень появляется, и всё такое.
Есть ли какой-то способ быстрой обработки скриншотов для даты? А то скрины не лучшего качества, и на выходе ИИшка рисует персов +- так же в не очень качестве. Или мб что-нибудь в настройках тренировки поменять, чтобы при обучении всратость скринов не учитывлась?
>>141046 Всяких гуманоидов, роботов, рыцарей, инопланетян - нахуй. Не, возможно сделать лору и на таких сущностей, но это сложнее раз в 50. Анон тут ебался с тем, чтобы просто суставы кукл были. Я сам пытался робо-кошку и куклу сделать, но с 10 попыток на каждую так ничего нормального и не вышло. >>141147 max_train_steps, не? Нормально >>141197 Ну я бы ставил альфу 1. При генерации в негатив anime screencap и anime key visual color, семплер не Эулер a, а какой-нибудь DPM++ 2M. Сам сталкивался. Было скринов всего лишь процентов 5-10, но выходила рисовка пик1, когда сократил совсем минимально, то вышел пик2 и пик3.
Анон, поясни в кратце за LoCon, пробовал вчера с ним тренить через КохуйСС-гуй - СД ругается на лору, но что-то генерит, вроде не отличается от того, что было без LoCon. Настройки были дефолтные 1/1, AdditionalNetwork стоит. И ещё вопрос в догонку, для тренировки стиля художника какие начальные настройки взять? Я понимаю что всё строго индивидуально и обсасывалось не однократно, но всё же. И я правильно понял, что тег для стиля нужно выбрать из того самого списка тегов с гитхаба?
>>141212 А нетворк ранк какой ставить? И что по скорости, она вообще никак не влияет на хуевость обучения на скринах? И все таки повторю первый вопрос: мб есть что-нибудь через можно прогнать скрины, чтобы получились заебись арты на выходе?
>>141358 Попробуй dim 32, unet_lr 1e-5, text_encoder_lr 5e-5. Да, оно влияет. Я пытался через img2img прогнать 3d модели, но выходило такое себе. Либо слабо, либо слишком много лишних деталей. >>141384 Вышло-то вышло, но ебались долго. Это я хотел сказать. >>141388 Все равно ты даешь нейронке месиво вот такого уровня и ожидаешь получить не месиво. У тебя еще там токена нет. Может по этому это все.
Такой еще вопрос, купил я 4090 и стала иногда выскакивать эта ошибка. modules.devices.NansException: A tensor with all NaNs was produced in VAE. This could be because there's not enough precision to represent the picture. Try adding --no-half-vae commandline argument to fix this. Use --disable-nan-check commandline argument to disable this check. Сталкивался кто, и как фиксить?
>>141046 Не, с таким тегингом вероятность успеха невелика. Можно дим=альфа поставить чтобы оно совсем сломалось, будет генерировать дохуя концептуально с мазней и свечением
1) Например я сделал лору из датасета в 20 картинок, а есть еще 60. Мне нужно вновь обработать датасет из 80 картинок или есть возможность как то добавить старые к новым без повторной прогонки? В интерфейсе коллабы которая kohya-trainer 2) Я верно понимаю что если у художника разные стили, и сделать из них лору, то рандомно будет получатся не всегда то что хочешь? Вроде очевидно, но мало ли. Например на пикрилах картинки одного художника, но они вроде отличаются а вроде и нет. Испортит ли несколько таких пикч весь датасет? Простите за тупой вопрос.
Тред не читай и сращу спрашивай - я переставил с нуля Автоматик1111 и sd_dreambooth_extension для него, но эта хуйня все равно сыпет для меня ошибками при обычном локальном dreambooth-тренинге. Я знаю, что отдельно от автоматика существует kohya веб-морда. Вопрос такой, в кохйе результаты будут такими же как и в основном дримбус плагине для автоматика? Или это вообще другая тема сугубо для тренинга Лоры? Короче, какие тулзы для локального тренинга дримбуса сейчас наиболее актуальны
Что я делаю не так? Учу лицо, с ростом шагов сходство медленно появляется, но также появляется всё больше каши из артефактов. Стоит попробовать другую модель или проблема в датасете? Увеличить rank лоры (сейчас 16)?
>>141711 Блин. Попробой еще в промте теги поставить вроде highly detailed portrait, photo 90s, illustration, 1990s magazine Сложно с моделью из-за дата сета определиться, под что больше подходит. Слишком уж реалистично. На аниме моделях пальцы разъебанные будут, а реалистичнее не особо умеют в легкое накидывании стиля рисовки. Ну, теперь пробуй аниме. Только и протегай как аниме, то есть "1girl, solo, blond hair..."
>>141876 Такой вопрос, аноны. Прочитал намедни, что можно сделать лору и таким способом - наваять модель и извлечь из нее лору, мол результаты качественнее получаются, по крайней мере для реальных персонажей. Ну допустим сваять модель я могу в колабе, а где извлекать то? Какими средствами автоматика это делается?
>>141613 > sd_dreambooth_extension Чекни гит его ебнутого автора. Он вообще собирается делать стандалон версию, потому что его расширение на регулярной основе гробит автоматика, но ему похуй, он для этого бренного мира слишком хорош. У меня эта гнида вчера наебнула кастомный торч и хформерс, потому что обновилась с собственными requirements.txt и молча перезаписала установленные в venv, причем автору писали о такой проблеме ещё три недели назад, но он на своей волне и идите нахуй и в пизду. Либо отдельную сборку чисто под будку заведи, причем какие-то прошлые версии, либо накатывай в колаб. Алсо, благодаря этой ситуации выяснил, что в гайде по повышению производительности лежат кривые готовые торч, торчвижен и хформерс от местного шиза, раньше были от другого автора и работали, эти же между собой не дружат, авто идет в отвал. К счастью, гайд по ручной сборке и конпеляции рабочий, хоть и муторный, за него спасибо. Было душно, но всё поднялось. 3060, win10.
>Куда сохраняются промежуточные лоры? И как это настроить? Пик1 - говорим сохранять каждую вторую эпоху, меняем 2 на 1 - будет сохранять каждую эпоху. в папку /content/drive/MyDrive/training_dir/output при вклченном пике 2 >как настроить количество эпох если там на выбор либо степсы либо эпохи пик 3 количество эпох
>>141969 тебе нужно выжать лору из модели, так? принцип вычитания из модели лоры такой 1. тренишь на условной NAI 2. получаешь свою модель 3. из своей модели вычитаешь оригинальную NAI 4. получаешь лору супермерджер как раз позволяет все че угодно делать с лорами и моделями
>>141950 > Алсо, благодаря этой ситуации выяснил, что в гайде по повышению производительности лежат кривые готовые торч, торчвижен и хформерс от местного шиза, раньше были от другого автора и работали, эти же между собой не дружат, авто идет в отвал. К счастью, гайд по ручной сборке и конпеляции рабочий, хоть и муторный, за него спасибо. Было душно, но всё поднялось. 3060, win10. Надо будет мне тогда старую версию тоже в гайд добавить на всякий. У меня просто на более новой версии (которая в гайде) прирост на несколько процентов выше был и никаких жалоб я раньше не видел, поэтому я с чистой совестью старую версию убрал из гайда.
Возможно, какие-то расширения с этими версиями конфликтуют в твоём случае, или что-то ещё влияет - я с этими версиями до сих пор сижу, пару дней назад автоматик со всеми расширениями обновил, и всё до сих пор работает.
Алсо, можешь плиз написать, как производительность поменялась после того, как новые либы напердолил?
>>142147 Пару раз уже было, что "text file content" криво переписывали с этого скрина. Может быть, что та же самая проблема и в твоём случае - там просто со всеми этими спецсимволами очень легко опечатку сделать. Должно быть так: %all:unsafe,separator=^,^ %
>>142132 Ну возможно да, будка где-то ещё насрала при тихом обновлении, я по гайду удалял только три компонента. Ему б ебало говном измазать за такую подставу, конечно. Будку, впрочем, снес и не жалею, всё равно говно без задач, не запускал с декабря. Производительность не сравнивал, у меня вообще довольно хаотичный подход к генерациям, я не дрочу 512×512 с секундомером и просмотром логов. Раз в пару дней запускаю, кидаю в пнг инфо из прошлых генераций, меланхолично подкручиваю какие-то детальки, генерю с новыми эмбедингами и лорами, это в любом случае небыстро, только я и не тороплюсь никуда. Порой даже забываю что что-то там генерируется, пока занимаюсь другими делами. Хуже не стало, по крайней мере.
>>130722 (OP) РебяТушки из технотреда, он у вас уже седьмой наверняка вы очень умные.
Подскажите как ЛОРУ сделать не на 144 мегабайта а на 10 скажем? Ну короче в РАЗЫ меньше? Я её делал на коллабе kohya. Может там надо что-то нажать/указать?
>>142210 Ага, спасибо, нашёл такое. А можно ещё вопрос оно же наверняка не только на вес влияет? Иначе зачем все по 144 делают? Нужно какой-то конкретный параметр вместо 128 выставлять кратный чему-либо?
>>142211 >Иначе зачем все по 144 делают? Детский максимализм "больше - лучше". Нет доказанной связи между размером и качеством лоры. Лучшая из лор, что я качал, на позу ебли сзади, весит 1 мегабайт.
>>141743 Реалистик-модели тоже могут впитать лоры, тренированные и тэганные под аниме модели. Лица только на лоуресе будет пидарасить, но с апскейлом норм.
>>141950 >Алсо, благодаря этой ситуации выяснил, что в гайде по повышению производительности лежат кривые готовые торч, торчвижен и хформерс от местного шиза, раньше были от другого автора и работали, эти же между собой не дружат, авто идет в отвал. К счастью, гайд по ручной сборке и конпеляции рабочий, хоть и муторный, за него спасибо. Было душно, но всё поднялось. 3060, win10. Ха, значит это не у меня одного весь автоматик к херам обвалился после того, как я этот гайд попробовал. Надо было мне раньше об этом написать, но я что-то тогда заленился.
>>141969 Через кохая-сс вебуи можно разницу извлекать. Когда я сам пробовал - там с весами какая-то дичь была, лора концепт воспроизводила, но где-то в два раза слабее, чем базовая модель, приходилось силу применения задирать. В супермерджере такого вроде нет, там только обратное - лору в модель запечь.
>>142251 Если все 1400 отборные качественные понятные сети и хорошо протеганы - будет заебись. Каракули, шмурдяк, комиксы, эскизы - будет отборная хуйта. >>142265 > теги артиста > 2girls А на что у тебя лора? Если стиль или взаимодействие то норм, если на персонажа то стоит такого избегать. Теги норм. > в том что не хватает тегов например который указал что это кровать было бы неплохо но если фоны разнообразные то не обязательно здесь. >>142092 Если после лоры где автор странно рисует глаза - добавь в датасет клозапы чтобы оно в малом разрешении могло различить их, офк немного и аккуратно протегать что там клозап, ай фокус, фейс фокус и т.д. Если просто при генерации - увы
>>142251 Как раз тестирую лору на 30 картинках против лоры на 1300 картинках правда 70% итераций приходится только на 200 из них. Пока в глаза бросается только то, что фоны в целом больше похоже на оригинальные стали, которые без лорки. Но я пока не так много тестов успел сделать, чтобы к каким-то выводам прийти.
(venv) D:\SD\stable-diffusion-webui>pip install mmdet Collecting mmdet Using cached mmdet-2.28.2-py3-none-any.whl (1.5 MB) Requirement already satisfied: scipy in d:\sd\stable-diffusion-webui\venv\lib\site-packages (from mmdet) (1.10.0) Collecting terminaltables Using cached terminaltables-3.1.10-py2.py3-none-any.whl (15 kB) Requirement already satisfied: matplotlib in d:\sd\stable-diffusion-webui\venv\lib\site-packages (from mmdet) (3.6.3) Requirement already satisfied: six in d:\sd\stable-diffusion-webui\venv\lib\site-packages (from mmdet) (1.16.0) Collecting pycocotools Using cached pycocotools-2.0.6.tar.gz (24 kB) Installing build dependencies ... done Getting requirements to build wheel ... done Preparing metadata (pyproject.toml) ... done Requirement already satisfied: numpy in d:\sd\stable-diffusion-webui\venv\lib\site-packages (from mmdet) (1.23.3) Requirement already satisfied: fonttools>=4.22.0 in d:\sd\stable-diffusion-webui\venv\lib\site-packages (from matplotlib->mmdet) (4.38.0) Requirement already satisfied: pillow>=6.2.0 in d:\sd\stable-diffusion-webui\venv\lib\site-packages (from matplotlib->mmdet) (9.4.0) Requirement already satisfied: contourpy>=1.0.1 in d:\sd\stable-diffusion-webui\venv\lib\site-packages (from matplotlib->mmdet) (1.0.7) Requirement already satisfied: pyparsing>=2.2.1 in d:\sd\stable-diffusion-webui\venv\lib\site-packages (from matplotlib->mmdet) (3.0.9) Requirement already satisfied: packaging>=20.0 in d:\sd\stable-diffusion-webui\venv\lib\site-packages (from matplotlib->mmdet) (23.0) Requirement already satisfied: cycler>=0.10 in d:\sd\stable-diffusion-webui\venv\lib\site-packages (from matplotlib->mmdet) (0.11.0) Requirement already satisfied: kiwisolver>=1.0.1 in d:\sd\stable-diffusion-webui\venv\lib\site-packages (from matplotlib->mmdet) (1.4.4) Requirement already satisfied: python-dateutil>=2.7 in d:\sd\stable-diffusion-webui\venv\lib\site-packages (from matplotlib->mmdet) (2.8.2) Building wheels for collected packages: pycocotools Building wheel for pycocotools (pyproject.toml) ... error error: subprocess-exited-with-error
× Building wheel for pycocotools (pyproject.toml) did not run successfully. │ exit code: 1 ╰─> [16 lines of output] running bdist_wheel running build running build_py creating build creating build\lib.win-amd64-cpython-310 creating build\lib.win-amd64-cpython-310\pycocotools copying pycocotools\coco.py -> build\lib.win-amd64-cpython-310\pycocotools copying pycocotools\cocoeval.py -> build\lib.win-amd64-cpython-310\pycocotools copying pycocotools\mask.py -> build\lib.win-amd64-cpython-310\pycocotools copying pycocotools\__init__.py -> build\lib.win-amd64-cpython-310\pycocotools running build_ext cythoning pycocotools/_mask.pyx to pycocotools\_mask.c C:\Users\tavol\AppData\Local\Temp\pip-build-env-e9uzfzi7\overlay\Lib\site-packages\Cython\Compiler\Main.py:369: FutureWarning: Cython directive 'language_level' not set, using 2 for now (Py2). This will change in a later release! File: C:\Users\tavol\AppData\Local\Temp\pip-install-x935m1qd\pycocotools_dcd62e38f0f04caeb600e928305bf433\pycocotools\_mask.pyx tree = Parsing.p_module(s, pxd, full_module_name) building 'pycocotools._mask' extension error: Microsoft Visual C++ 14.0 or greater is required. Get it with "Microsoft C++ Build Tools": https://visualstudio.microsoft.com/visual-cpp-build-tools/ [end of output]
note: This error originates from a subprocess, and is likely not a problem with pip. ERROR: Failed building wheel for pycocotools Failed to build pycocotools ERROR: Could not build wheels for pycocotools, which is required to install pyproject.toml-based projects
>>141950 У меня всё работает, алсо в новых версиях должны наконец генерацию нормального лора файла запилить (вроде уже запилили, но пока нет версии с этой функцией)
Помогите, что делать, я сделал лору по персонажу с такими настройками lr 1e-4 или же 0.0001 epoch 20 или же 5200 шагов разрешение 768 на 768 И в итоге персонаж получился нифига не похож на себя, ни длина волос, ни цвет глаз, нифига не повторяет
>>142433 Я имел в виду, что сделал на гугл диск копию второго колаба из шапки, который, типа, "не работает", пока он еще работал. Т.е. код там, по идее, еще в рабочей версии должен быть записан. Или как вообще этот колаб работает?
>>142492 5200 шагов - это перебор. Выше 2500 целиться смысла нет, и даже это уже много. Если у тебя в сете были протеганы фичи персонажа - цвет волос, глаз, прическа, одежда - всё такое - тебе в промте их тоже вызывать надо каждый раз.
Народ, контролнет через openpose нормально у вас работает? Вчера поставил posex, генерю через него картинку с позой, закидываю в контролнет, запускаю генерацию, и начинается пиздец. Нет, начинается ПИЗДЕЦ. >Загрузка харда с диффужном - 100%. >Выжирается 95% оперативки (31 гиг из 32, Карл!). >Комп виснет практически намертво. >Причем в диспетчере не написано, какой процесс и куда столько отжирает. Браузер 3 с копейками, и всё - а загрузка памяти 95-96% >ЦП и видюха при этом практически не нагружены. >cmd от автоматика пишет про распаковку контролнетовской модели, бла-бла, но сама генерация не стартует.
Чтоб это все обычным порядком закрыть, не ребутом - надо минуты четыре ждать. Что за ересь?
>>142740 Разрешите доебаться, пожалуйста: 1. тхт - это которые в датасете, к каждой картинке? 2. Кастом тег влияет на вывод лоры на модель или в обобщает все остальные теги?
>>142770 >1. тхт - это которые в датасете, к каждой картинке? да, хочешь тег вызова - придумай уникальный и пихни в каждый тхт файл >Кастом тег влияет на вывод лоры на модель или в обобщает все остальные теги? там есть чекбокс который говорит типа ебани кастом тег в конце всех строк тхт файла, то есть по идее должен добавить просто любой тег внутри готовых последовательностей в конце кип токенс хз за че отвечает в данном случае
>>142132 Мимо другой анон, репортинг ин изменение производительности по твоему гайду на 4090 после нескольких комманд, без пердолинга.
Torch 1.13.1: 150/150 [00:13<00:00, 11.36it/s]
Torch 2: 150/150 [00:05<00:00, 25.52it/s]
Nuff said, спасибо за гайд. +100% и походу боттлнек в цпу уже. Не понял только почему если переименовать папку с автоматиком, заходя потом в ней в venv через cmd, он хоть и активируется, но либы отсаются обычные системные через pip list, если не переименовывать, то всё норм.
>>143442 Вот кстати фигня. Сколько я его не дрочил - всегда мне плитку выдавал на простых фонах. Типа звездного неба. Обычный SD-апскейл без склеек всё делает, а этот я так победить и не смог.
>>143532 https://rentry.co/sd_performance У тебя гпу 40 серии есть? Просто там не без проблем, будка другие версии требует и в каких то конкретных случаях производительность может даже упасть
>>143519 Даже если и есть, то нейросеть одно с другим сопоставляет и разницы минимальна. Короче, пиши как все - 1girl, short hair, orange hair, fox ears, red eyes... 1girl, 2girls, 6+girls - общепризнанная вещь и пишется слитно
>>143533 Размер тайла побольше поставь а не 512, при необходимости настрой починку мест склейки (работает 50-50). Но вообще если с денойзом не ультить можно с ним вполне приличные вещи делать, это тот же сд апскейл только с большим числом параметров. Одно огорчает - форма тайлов только квадраты. > Типа звездного неба. Без хитростей тут 2 стула - или склейки на малых тайлах, или проеб деталей на больших.
Я не смог успокоится скачал wd-v1-3-full.ckpt - думаю вдруг на ней лучше обучать. Ещё раз перебрал рисунки, удалил фон. Собрал новый - https://postimg.cc/gallery/Mf7rkTH. Проверил чтобы не были обрезаны головы и не было странных поз. Но вот что в итоге будет?
>>142587 я специально не тегал внешку персонажа, только его одежду, а еще, так я пробовал недоделанную лору (как раз 1600 шагов примерно) и все равно вообще не похоже на персонажа ни капли
>>143572 Да я всяко ставил. Вплоть до максимального по ВРАМ. Один фиг заметно. >>143594 Ну, не повезло, значит. Либо в датасете косяки, либо нейронка твои тэги не увидела, либо со скоростью обучения налажал. А может датасет просто слишком маленький был.
>>143533 >всегда мне плитку выдавал на простых фонах. почитай фак скрипта, там все сказано для начала работы че делать https://github.com/Coyote-A/ultimate-upscale-for-automatic1111/wiki/FAQ алсо скинь пример фона с которым проблемы я поиграюсь на своих настройках, потому что у меня со скриптом и фонами проблем нету
>>143572 >форма тайлов только квадраты. можно прямоугольники делать же
Технари, подскажите, в колабе Кои там где параметр альфа написано ставите такой же как и дим. Так оно, а то я видел что альфу советуют уже 1 ставить, что?
>>140102 > > 1e-3 > > 128 dim 128 alpha > Хуясе ебать, это же жесткий перетрен с распидориванием будет, особенно если у него не 16+ гигов врам
Подскажи тогда, я вот треню ЛОРУ на колабе Кои, и там советуют альфу ставить равную диму, как раз 128х128. Неправильно советуют?
>>143633 > Один фиг заметно. Промт скорректируй, меняй перекрытие, денойз. Заметно будет но можно значительно снизить что будет легко обработкой пофиксить >>143634 > можно прямоугольники делать же Как, там новая версия чтоли? Может оно с батч сайзом и каунтом работать научилось? >>143648 > и там советуют альфу ставить равную диму Каждый тред несколько раз это поднимается, перечитай хотябы этот. Вообще надо бы в faq какой добавить
>>143673 >Зачастую не имеет смысла. Хватает и без зеркаливания. А если 4-10? Впервые лору-стиль тренил в колабе кохи (дримбуз). Как читать лог, насколько хуево? Слышал что если меньше 0.25 loss то заебись.
Поясните пожалуйста — как использовать prompt matrix вместе с LORA если LORA запускается через Additional Networks?
Additional Networks — Поставил потому что когда указываешь в промте оно просто не работает по ощущениям. Если можно запускать LORA и без него то как??? Может я делаю что-то не так?
До Additional Networks я просто кидал папки в D:\stable-diffusion-webui\models\Lora но где-то видел что оно теперь так не работает и нужно юзать AN
>>143964 >Сразу скажу, если у тебя нет прокси то оно не будет работать (если ты собираешься качать картинки с бур/рулл34). Типа впна на пк? (не браузерного)
> Не понял только почему если переименовать папку с автоматиком, заходя потом в ней в venv через cmd, он хоть и активируется, но либы отсаются обычные системные через pip list, если не переименовывать, то всё норм. У меня тоже подобная проблема была, как-то починил и сам не понял, тоже в этих нюансах питона не шарю.
Думаю в ближайшие дни создать отдельный rentry для хранения команд установки разных версий скомпилинных xformers и обновлять его периодически, раз с версией из гайда есть проблемы у кого-то из анонов. Ещё бы инструкцию по сборке обновить, чтобы whl-файл пригодный к дистрибьюции сперва генерировать - мне кидали команды для такого где-то в прошлых тредах.
И надо бы опросник для сбора статистики собрать... Есть какие-то сервисы, где можно сделать опросник по двум пунктам? Т.е. отдельно указать свою видеокарту и как поменялась производительность после обновления торча на второй.
>>144212 3070ti-огрызок. Не получилось, не взлетело. Первый способ установилось как положено, но СД отказался генерить картинки. Второй способ - на моменте кумпиляции xformers, где должно минут 5 компилиться, секунд через 5 всё прекращается. Было уже поздно, я накатил всю папку venv из бэкапа и решил вернуться к этому в другой раз, может по другому гайду.
>>144338 > Второй способ - на моменте кумпиляции xformers, где должно минут 5 компилиться, секунд через 5 всё прекращается Ты что-то недоустановил, инфа сотка. У меня тоже xformers именно так не компилились раньше, когда я пробовал в первый раз несколько недель назад, но с установкой нужных библиотек от майков и куртки пошло как надо. 3060
>>144374 Понятно. Правда у меня тут другие проблемы уже, гугл похоже понял, что я не собираюсь заносить шекели и выкидывает меня через полчаса с любого аккаунта.
>>144212 > У меня тоже подобная проблема была, как-то починил и сам не понял, тоже в этих нюансах питона не шарю. Пойти в pr у питонистов может спросить насчёт этого? > Ещё бы инструкцию по сборке обновить, чтобы whl-файл пригодный к дистрибьюции сперва генерировать - мне кидали команды для такого где-то в прошлых тредах Да, это было бы полезно, скомпилить разные версии иксформеров из репы https://github.com/facebookresearch/xformers, где verified тег есть, и переносить на по нужде на другие машины, без пердолинга с компиляторами. > Думаю в ближайшие дни создать отдельный rentry для хранения команд установки разных версий скомпилинных xformers и обновлять его периодически А вот это еще полезнее, для тех кто не хочет вообще пердолиться и что-то там собирать. > Есть какие-то сервисы, где можно сделать опросник по двум пунктам? Я видел у форчановцев такой опросник https://usem.liberaforms.org/sdperformance и соответствующую таблицу https://docs.getgrist.com/3mjouqRSdkBY/sdperformance , которую походу вручную обновляют, может чем поможет, хотя вроде не самое простое решение для всего двух пунктов.
>>144338 А какие у тебя версии стоят, которые внизу вебуи отображаются? На ампере оптимальнее всего у меня работали торч 1.13.1+ку117, иксформерс 0.0.16. Короче, те которые параметрами из батника --reinstall-xformers --reinstall-torch (их еще пишет когда со старыми версиями запускаешь свежий вебуи), в данный момент ставятся.
>>144353 >>144513 Всё завелось, поставил абсолютно чистую СД. Прирост на ощупь до 10%, не больше. Возможно я не правильно замерял, если есть какой способ (я просто смотрел на it/s при генерации картинки) готов сделать правильный замер, стоит параллельно версия со старым xformers
>>142580 Блокнот содержит, грубо говоря, текст и рисунки. В числе текста - команды, в числе команд - требование загрузить библиотеки откуда-то извне. Гуглоблокнот (в отличие от кегли) сам никаких библиотек не хранит и на гуглодиск не скачивает, и даже версии не запоминает. Поэтому если там, вовне, что-то обновилось или изменилось и поэтому сломалось - то добро пожаловать в увлекательнейший квест по поиску номеров версий библиотек и хэшей коммитов. Я такой квест, кстати, разок успешно проходил. Но отвлекает, отвлекает...
А если причина в поломке самого текста блокнота - то да, копия спасёт. И лучше бы ты не стирал логи старого запуска, а каждый раз создавал у себя на диске копию блокнота.
Аноны, вопрос от новичка. Можно ли сделать фотореалистичную тню, и генерировать огромное количество фото с ней, в разных одеждах, разных местах, позах, и так далее? Вот прямо сотни с одной и той же, но чтобы сильно в глаза не бросалось одинаковое выражение лица
>>144609 > Всё завелось, поставил абсолютно чистую СД. Прирост на ощупь до 10%, не больше. Возможно я не правильно замерял, если есть какой способ (я просто смотрел на it/s при генерации картинки) готов сделать правильный замер, стоит параллельно версия со старым xformers Не уверен что это прямо каноничный тест, но я делал так: запускаешь вебуи с новыми версиями ставишь какой нибудь эйлер а и 150 шагов, генеришь первый 512х512 раз просто чтобы разогреть генерацию, он всегда медленнее, генеришь вторую пикчу и результат записываешь куда нибудь. Ставишь хайрез х2, например, записываешь его результат. Если батч большой ставить можешь, стоит и его потестить и записать результат, можно еще апскейлера, через и2и сд_апскейл, какого нибудь быстрого, время замерить, одним тайлом или 2х2 и тоже записать. Потом, собрав данные, закрываешь это дело и проделываешь тоже самое со старыми версиями библиотек. Какие кстати у тебя старые стоят версии? > Можно ли теперь это применить для kohya_ss для тренинга или у него своя атмосфера и зависимости? А вот хз, надо бы посмотреть на скорость тренировки при одинаковых настройках будет, думаю там будет явное отличие выражаться, если буст 100% при генерации
>>144212 Сколько у тебя кстати it/s на эйлере а 512х512 150? У тебя же вроде тоже 4090. И каковы цпу, частота рам?
>>144142 Если тебе это нужно, то твой выбор - kaggle. Со включённым Persistence (но и там иногда всё пропадает). Ну либо хорошенько подолбаться с ln -s, чтобы не тягать тяжёлые модели. Но это вот хорошенько-хорошенько!
>>144513 > Я видел у форчановцев такой опросник https://usem.liberaforms.org/sdperformance и соответствующую таблицу https://docs.getgrist.com/3mjouqRSdkBY/sdperformance , которую походу вручную обновляют, может чем поможет, хотя вроде не самое простое решение для всего двух пунктов. Полезная инфа оказалась, спасибо. В Google Forms (опрос можно проходить в инкогнито режиме) можно настроить автоэкспорт в Google Sheets, в котором можно настроить фильтры по колонкам (типичный случай - меня интересует статистика только для моей видеокарты, так что я хочу отфильтровать по GPU сразу) и добавить кастомные колонки, которые могут что-то высчитывать. Скажем, можно просить у юзеров не просто процент изменения производительности, а вставить их it/s до и после обновления либ и высчитывать изменение автоматически. В целом, можно действительно тогда собирать любую дополнительную инфу (цп/частота памяти и т.п.), чтобы сразу оценить, насколько другие параметры, кроме GPU, влияют на производительность до и после обновления либ.
Так что можно подробный опросник составить, только время надо найти настроить всё...
>>145197 > Так что можно подробный опросник составить, только время надо найти настроить всё... Ты же уже его вроде составил, по нужде просто добавлять новые колонки можно, цпу там или рам, или что еще может влиять сильно
>>145204 > 2400MHz Это какой то старой ревизии шестилетней давности память или почему не гонишь её? Она же всё портит на такой частоте, хотя хз насколько это актуально конкретно для сд, по идее должно быть, было бы неплохо проверить У меня 25.5 на 5900х получилось, но он сам задушен до 4400/4300 ccd0/1, чтобы не подавал 1.5 вольта на ядра ради 500мгц, память врятли смогу поднять выше 3600, учитывая что занимает она все гнезда. Стоило бы наверное потестить проц в стоке, все таки там однопоток куда быстрее, но сомневаюсь что там выжмется что-то больше 1it/s взамен на постоянные скачки с 40 до 80 градусов на ядрах
>>145211 Надо будет проверить. Не заморачивался с оверклоком, потому что повода не было, да и лень просто во всё это вникать. По спецификации вижу, что мою оперативку можно на 3200 включить (xmp), а материнка поддерживает частоту до 4200.
Тут писали, что вторая ссылка на тренировку лоры в шапке поломана. Как именно поломана? Затренил лору со старой копии этого колаба - и тренировка прошла. Стиль схватился. Сейчас вот вторую тренирую, уже по актуальной. Что там не так?
>>145220 > включить (xmp) Вот это и сделай, буквально одну кнопку нажать, чтобы долго не вникать, если прирост какой-то значительный и будет, заметно будет сразу
>>144829 > выставил амуде на авито Правильно сделал > И ведь думал что топкража когда покупал Все так думают, пока не встречают лес хуёв лизки на пути А какое амуде? С 6700хт например мне было бы обидно.
> Как использовать несколько лор одновременно Так вроде нативно в промте можно несколько юзать, но удобнее пользоваться костылем адишнл нетворкс, с ним гриды удобнее строить. пик 2
>>145291 Хз. Всё натренил, ошибок вроде не заметил.
Правда, какие-то косяки в картинках полезли. Похоже на ошметки интерфейса браузера - боковая панель со скроллом, и иконки каких-то программ, или просто кнопки навигации иногда проступают. ЧСХ ничего подобного и близко в материалах не было. Токен-активатор (который имя художника) влияет, чтоль?.. Неудачно подобрал, в нейронке на это имя что-то уже было?..
Сейчас вот локально на том же материале сделал версию, погляжу на нее.
>>145204 У тебя случаем нет какого-то треша в параметрах запуска типа no-half и подобного? Оставь только -xformers. Должно быть хотябы 26+. Если батч сайз 4 выставить с теми же параметрами то сколько выдает? Ну и тестируй на нормальной прунед модели и с небольшим количеством тегов без всяких допов и лор, последние ощутимо просаживают. >>145211 Оно конечно может просаживать но не настолько, ддр5-3600 из интереса ставил, там конские задержки и все равно много итераций. >>145539 > Неудачно подобрал, в нейронке на это имя что-то уже было? Выключи лору и проверь, но врядли. Скорее всего что-то из датасета, чудес не бывает.
>>145242 На одну итерацию в секунду быстрее стало, как xmp-профиль включил для оперативки (2400 -> 3200), т.е. с моими цифрами это около +5% грубо. Так что частота оперативки определённо влияет на SD.
>>145567 > У тебя случаем нет какого-то треша в параметрах запуска типа no-half и подобного? Оставь только -xformers. Должно быть хотябы 26+. set COMMANDLINE_ARGS=--xformers --skip-version-check
> Если батч сайз 4 выставить с теми же параметрами то сколько выдает? У меня батч-сайз перестал работать после последней обновы от автоматика, всегда только одну картинку генерирует. Или я что-то странное настроил/установил, надо разбираться.
> Ну и тестируй на нормальной прунед модели и с небольшим количеством тегов без всяких допов и лор, последние ощутимо просаживают. Потестирую ещё вечером, сейчас без лор на не прунед модели тестировал.
>>145442 >А какое амуде? С 6700хт например мне было бы обидно. Да не, попроще, 6600. Не знаю что купить потом правда, как я понимаю из вариантов новая 3060 или б/у 3080 у меня.
>>145597 > 6600 Тоже хотел своровать такую по приколу у китайцев когда цены дропнулись, только рефаб с мобильным чипом за 13к. Но посидел, подумол что чета давно я на новидео не сидел и не стал брать кактус. > новая 3060 или б/у 3080 у меня. Если ты из дсов, есть бабосы и достаточно шаришь, то бери сразу бу 3090, сможешь абсурдресы генерить с любым обмазом из лор и контролнетов, не говоря уже про скорость и батч сайзы при тренировке.
>>145599 Ты же лору пытаешься тренить? Если скинешь датасет, то могу у себя трайнуть запустить поглянути пока не отвалился спать, что б методом исключения проверить что с датасетом все норм например.
>>145588 > У меня батч-сайз перестал работать после последней обновы от автоматика Раз такое дело то там явно что-то левое наверчено или поломано. Для начала нужно нормальную работу обеспечить, а потом производительность тестить.
>>145567 >Выключи лору и проверь, но врядли. Скорее всего что-то из датасета, чудес не бывает. Оно сильно нестабильно пролазит, раз в 30 генераций, иногда реже. На локальной версии вроде не проявилось, но я ее тренил под другими настройками (768 локально не тянет, только 512). Такое ощущение, что АИ начинает понимать, что сидит в компе, и пытается что-то сказать =)
Еще была версия, что скрипт каким-то образом прочитал метаданные из картинок, которые я перед загрузкой в инпэинте обрабатывал, для удаления мозаичной цензуры, чтоб оно в лору не пролезло. Но это мимо - я потом в жипег всё пересохранил.
>>145620 >Если ты из дсов, есть бабосы и достаточно шаришь, то бери сразу бу 3090, сможешь абсурдресы генерить с любым обмазом из лор и контролнетов, не говоря уже про скорость и батч сайзы при тренировке. 24 гига жирно конечно, но придется еще и бп менять. Как часто больше 12 используется при генерации?
>>145567 > Оно конечно может просаживать но не настолько, ддр5-3600 из интереса ставил, там конские задержки и все равно много итераций. А какой у тебя цпу и до скольки тайминги удалось при такой частоте ддр5 снизить? По хорошему бы провести тест ipc (instructions per clock) на одинаковых частотах проца, памяти и остальных основных узлов по возможности, но наверное он будет не совсем правильным между разными поколениями памяти. Какие кстати сейчас бенчи актуальные есть чтобы попугаев набирать?
>>145571 Я все таки тоже попробовал вернуть ядра в сток, +0.7 it/s на частотах 4700-4900, сд все таки долбится в одно ядро, возможно если поставить аффинити процессу на лучшее ядро в кристалле, удастся выжать еще малость производительности.
Что там кстати с линуксом, там все также по производительности, или получше?
>>145665 Ну раз в 30 генераций это ерунда, да и сама по себе тренировка sd1.x на 768 может какие-нибудь баги породить. >>145847 13900к, у меня 128 гигов четыремя плашками, я рад что оно вообще работает на 5200 с 36-38-что-то там, незначительные отличия от дефолтного xmp но прямо на нем с 4мя заводиться не хочет в5й ддр больше двух плашек это вообще сложно, а на прошлых процах вроде как невозможно судя по форумам > По хорошему бы провести тест ipc (instructions per clock) Это не амудэ-вс-штеуд в синбенче/премьере/игорях, здесь на производительность влияют лишь небольшие операции в промежутках когда в ожидании их видеокарта может простаивать, ну и их доля мала что не создаст заметности. Это может сыграть во время склейки грида, сохранения больших пикч, загрузки моделей и подобного, но не при самой генерации. Тут скорее надо смотреть не лезут ли прерывания, нормально ли работает драйвер, что с коррекцией ошибок врам, не лезут ли лишние задержки по шине и какой режим ее адресации и т.д. А по процам - вангую что 2-3 итерации при сравнении исправных йоба цп и старичка уровня сандаля - все что можно будет отследить, и то только в режиме который никто не юзает. Разное разрешение мониторов и наличие свистоперделок типа 3д обоев больше может сыграть.
Ну кстати, финальный подсчет же идет с учетом загрузки модели и сохранения пикчи, тут ссд даже больше даст лол.
>>145567 > Ну и тестируй на нормальной прунед модели и с небольшим количеством тегов без всяких допов и лор, последние ощутимо просаживают. Переключил на NAI (animefull-final-pruned) и отключил VAE; разницы 0 по сравнению с полновесным aom2 и активным VAE.
> Если батч сайз 4 выставить с теми же параметрами то сколько выдает? 150/150 [00:13<00:00, 11.30it/s]
>>146008 > 13900k Ебать, это шутка чтоли на пик1 или они наконец правдивый тдп стали писать, а не мамой клянусь 95ватт в стоке, в среднем, в идле?
> 13900к, у меня 128 гигов четыремя плашками, я рад что оно вообще работает на 5200 с 36-38-что-то там, незначительные отличия от дефолтного xmp но прямо на нем с 4мя заводиться не хочет в5й ддр больше двух плашек это вообще сложно, а на прошлых процах вроде как невозможно судя по форумам Мда, я так понимаю, все печально пока с новым стандартом. В прошлых это 12900к? Интересно даже, зачем тебе столько. До того как сд включил вообще не ощущал проблем с 32 рам, запуская несколько вм и браузеров на винде
> Тут скорее надо смотреть не лезут ли прерывания, нормально ли работает драйвер, что с коррекцией ошибок врам, не лезут ли лишние задержки по шине и какой режим ее адресации и т.д Интересно как же ты подразумеваешь проводить все эти микрооптимизации? Алсо > что с коррекцией ошибок врам What?
> А по процам - вангую что 2-3 итерации при сравнении исправных йоба цп и старичка уровня сандаля - все что можно будет отследить, и то только в режиме который никто не юзает А вот на такое сравнение я бы посмотрел, лол. Распердоленный до усрачки сэндик против какого нибудь 9900к в сд с 4090, думаю что разница всё таки будет побольше, учитывая ддр3 и пси2 всё может пиздец как упереться в стену если вообще запустится. Вообще было бы неплохо, конечно же, реальную стату с конфигами компов иметь
> Ну кстати, финальный подсчет же идет с учетом загрузки модели и сохранения пикчи, тут ссд даже больше даст лол. Да, так и есть, во время самой генерации 150 шагов пишет чуть больше итераций. Кстати сколько у тебя на 13900 их?
>>146595 Да, на 12м поколении и на 7к амд оче грустно. Офк с новыми биосами и на них ситуация улучшилась, да и оче похоже что там еще дело в некоторых таймингах которые при большем числе плашек должны быть другие. Но это надо заниматься, пердолиться, один хуй усилия не окупятся. > зачем тебе столько Работа же ну, а 4090 чисто по рофлу купил за место ампера чтобы пикчи крафтить быстрее. 128 это не много, масштабные расчеты не подымаются, на рабочих станциях 512+. Ну и когда привык к много рам то 32 - уже не грани комфорта даже без виртуалок > Интересно как же ты подразумеваешь проводить все эти микрооптимизации? Не оптимизации, посмотреть что срет в журнале шинды и латенси моном не лезет ли dpc/irq, если нет то положить и смириться или искать другую причину. > What? Да, на видюхах есть ecc, раньше в хуанговской пане ее можно было даже включать-выключать. Если что-то готовится подыхать то этому предшествует всплеск числа ошибок и снижение производительности, только хуй знает как их сейчас можно посмотреть.
~30-31 итераций, если отключить лишние мониторы, ускорение в браузере и лайв превью будет 32-33, если гнать карту то можно еще больше. Один хуй батч из 4х дает 12-12.5 итераций в секунду, что 48+ в пересчете на одну пикчу. И >>146546 > 150/150 [00:13<00:00, 11.30it/s] не сильно то от них отличается, не смотря на разницу в железе. Вангую что больше всего роляет быстрый ссд, ибо при запуске со всратого пока полоса идет итерации такие же, а в момент окончания число заметно снижается.
>>146631 > Не оптимизации, посмотреть что срет в журнале шинды и латенси моном не лезет ли dpc/irq, если нет то положить и смириться или искать другую причину. А, понял. Даже видел объяснение как это делать для прямо хлебушков. У меня были что то типо 70 нс обсеры от tcp/ip драйвера, сетевуха что-то там косячила, я это даже фиксил по приколу отрубанием сети, лол, всё равно никаких изменений, статтеров не было до, и после тоже. Видимо ядер слишком много и нагрузка нормально распределяется энивей, хотя что то мне подсказывает что это даже не существенная задержка для интеррапта впринципе. Насчет ворнингов в логах винды как то не парился даже, не ерроры же.
> Да, на видюхах есть ecc, раньше в хуанговской пане ее можно было даже включать-выключать. Если что-то готовится подыхать то этому предшествует всплеск числа ошибок и снижение производительности, только хуй знает как их сейчас можно посмотреть. О как, не знал. А с какой версии и по какую эта фича хоть была? хотя какая уже разница, на 4090 их не поставить ведь
> не сильно то от них отличается, не смотря на разницу в железе. Вангую что больше всего роляет быстрый ссд, ибо при запуске со всратого пока полоса идет итерации такие же, а в момент окончания число заметно снижается Действительно, параллелизация рулит. Получается впринципе достаточно иметь больше 20 итераций и просто пользоваться батчем, благо врам позволяет
> Вангую что больше всего роляет быстрый ссд, ибо при запуске со всратого пока полоса идет итерации такие же, а в момент окончания число заметно снижается Ну так да, всяко лучше писать пикчу на йобу, подключенную напрямую к процу по псие, чем на сата хард или даже ссд
>>145727 > бп менять А у тебя какой? > Как часто больше 12 используется при генерации? Да хз, но сможешь генерить и процессить в qhd без медврамов при надобности. Можешь доебаться до владельцев в наи, что б узнать у них подробнее про граничные разрешения с обмазом из лор дефолтного размера и мультиконтролнетов, а то тут 3.5 анона сидят.Ну и 3080 12 стоит 45-50, а 3090 50-60 можно найти, только надо тщательно выбирать и смотреть не запекается ли там память. Для аи херни переплата небольшая за х2 врам.
>>145768 > Если разрешение выше 1024х1024, то всегда. Это ты про сд 2.1 с но халф без иксформерсов?
>>145833 > А у 2080ти есть какие-то подводные? Тьюринг уже древноват, да и bf16 например не поддерживает, хотя хз насколько он нужен или будет нужен. Сейчас можно лоры в нем тренить например, видел еще что модели в bf16 конвертировать можно.
>>147110 Ты можешь выключить xformers и лезть в кэш торча, out of memory не будет, но скорость пиздец. Для быстрых 1920х1200 без забивания кэша надо 24 гига. Выше разрешения только уже тайлами генерить, без разбивки на тайлы там скорость очень сильно падает из-за просера кэша, даже на 4090 печально становится. Например 1920х1200 за 20 секунд генерятся, а 2048х2048 уже почти 40. Голый SD будет сильно меньше жрать, в сентябре прошлого года на 8 гигах генерили 1280х1280, сейчас уже посос.
Тут кто-нибудь ебётся с обучением не-SD моделей? Например super-resolution? В /pr/ сидят хлебушки-студенты, какой-то практической инфы не имеют от слова совсем. Вот я обучал Real-ESRGAN и ванильный SwinIR по оригинальным пайплайнам - первый кал, второй получше. Теперь начал полностью сам переписывать всё с нуля на Transformers, с PSNR и VGG освоился как обучать, результат есть. Но вот с GAN никак не получается обучить. Дискриминатор ебёт мозги и запарывает всё обучение - пики ломаются меняют цветокоррекцию, мои проблемы нихуя не гуглятся, в основном пишут скорость обучения высокая, но она как в KAIR. Возможно надо дискриминатору вес при комбинирования лоссов меньше ставить, но не понятно сколько минимально можно, он же для регуляризации нужен, будет ли смысл от 1%. Нагуглить как правильно распределять веса лоссов не получается, везде учёные в говне мочёные "подбирают" hyperparameters. Даже есть фреймворки автоподбора hyperparameters, но я ебанусь таким говном на 4090 подбирать - там фактически огромное количество тренировок идёт с перебором параметров. Неужели все просто на глаз подбирают настройки обучения GAN без какой-то методики и пониманию куда что делать?
>>147132 я тренил на 1000 изображений, а тут всего в 20 раз больше, то есть скорость просто в 20 раз выше ставить нужно да и все, количество картинок в сете покроет все неточности
>>147060 >А у тебя какой? 650 >Ну и 3080 12 стоит 45-50, а 3090 50-60 можно найти, только надо тщательно выбирать и смотреть не запекается ли там память. Для аи херни переплата небольшая за х2 врам. Да у меня тут в регионе нет 3090 по нормальным ценам, ехать в питер надо, а это тоже деньги и время. Я думаю потом обновлюсь, если мне так уж зайдет эта тема.
>>147132 Что ты обучаешь там хочешь вообще? Выбери из них самые лучшие оставив не более 500 и тренируй на них. Для лоры в принципе столько шагов не нужно, а если у тебя там что-то дохуя сложное то уже дримбус
>>145847 >Что там кстати с линуксом, там все также по производительности, или получше? Получше, там accelerate есть. Можно попробовать завести на WSL.
>>146631 >Да, на видюхах есть ecc, раньше в хуанговской пане ее можно было даже включать-выключать. На 4ХХХ и сейчас можно. Ну на 4090 точно. Из минусов - режет немного обьем VRAM.
>>147278 >650 Хз, у меня 3090 и 10600k питаются 600-ваттным голдовым биквайтом, никаких проблем ни при генерации, ни при рендере, ни в играх не наблюдал, всё работает как часы. И это без андервольта даже.
>>147255 >В 20 раз больше или меньше? больше конечно, уменьшение тебе месяц тренинга нарисует >Скорость обучения должна быть порядка 1e-6 или даже 1e-7 хуита, может быть любая которая эффективная
Господа, такой вопрос: тренирую лицо на СД 1.5 - при генерации на этой же модели получается довольно похоже, но если потом эту лору использовать на других моделях то оно берёт форму лица из модели, а не лоры и получается совсем другой человек. Если тренировать на всяких модных делиберейтах - получается изначально не очень похоже. И нужно ли в описание добавлять (young) woman, т.к. возраст не всегда угадывает, я не против старушек, но хотелось бы большей похожести. Может есть какой гайд именно по лицам, ткните, пожалуйста.
>>147308 Штук 200-500 отбери, которые качественные, и хватит. 20к это прям лютый оверкилл. 500 вообщем-то тоже оверкилл, но с такого набора я сам тренировал, и получалось хорошо.
На сете в 20к можно выборочно по каким-то конкретным аниме тренить. По 200 на каждое, со своим токеном-вызовом, получится сотня разных аниме-стилей. Но и это тоже будет оверкилл. Где ты в те годы сотню прям реально различных аниме найдешь? Лучше отобрать максимум десяток.
>>147559 >>147599 В целом, разница в результатах на уровне погрешности, а то и вовсе сида при обучении. Скорость тоже. 23 минуты на классическую лору, 26 на новую. Не могу сказать, что новая чем-то лучше. Пик 2 - пикча из датасета, с которой списан промпт для генерации.
>>147559 > Будущее Лор Никакого будущего нет, потому что convolution не генерирует высокочастотные детали. Даже хуже станет, если их преобучишь слишком сильно. Будет уже не композицию/стиль пидорасить, а и детализацию.
>>147645 Лоры на отдельных персонажей я делал и они работают, я думал может можно обучить модель сразу на несколько десятков концептов, что бы получить более универсальную модель. Ну видимо придется делать лоры.
>>147788 >я думал может можно обучить модель сразу на несколько десятков концептов, что бы получить более универсальную модель. Да, только это уже не лора, а dreambooth
>>147788 > что бы получить более универсальную модель Лора этого не может, для такого файнтюнь большие модели. "многоконцептуальная" лора возможна, вот только работает весьма условно и хуже чем отдельные. >>147754 Нихуя не понятно, где лучше то в итоге? Там эта штука просто интегрируется в кохаевский скрипт и все настраивается запускается также?
>>147811 >Нихуя не понятно, где лучше то в итоге? >>147754 >В целом, разница в результатах на уровне погрешности, а то и вовсе сида при обучении. >Не могу сказать, что новая чем-то лучше.
>Там эта штука просто интегрируется в кохаевский скрипт и все настраивается запускается также? Вроде да. Я не смотрел, как вызов командной строки меняется, правда. Параметры все те же.
Господа, сейчас будет АБСОЛЮТНО ТУПОЙ вопрос, но есть ли способ обучения лорок без использования колаба, хотя бы на CPU, так как всё, что есть - картошка вместо видеокарты (1650 Ti 4GB) без возможности замены? Колаб не собираюсь использовать из принципа, по не которым причинам (как минимум, потому что Гугл собирает данные, чтобы использовать в своих целях).
>>147963 наверно есть - но это сразу x100 к времени. в теории можешь брать любой питоновский код для коллаба и поправить инициализацию торча чтобы он софтверный фолбек юзал
Но CPU для обучения ООЧЧЧЕНЬ МЕДЛЕННЫЙ. просто буквально час vs неделя
>>148007 К тому же, мне было бы просто неприятно, если бы какая-то информация о том, что я делаю, утекла куда-то или использовалась для всяких не совсем желаемых дел. Это как, к примеру, если бы не просто лепишь какую-то фигню, о которой не сказал бы порой никому, а вдобавок растрезвониваешь об этом всем родным/знакомым/начальству/государству (которые этим ещё будут попрекать при каждом случае), добавляя реальные ФИО, номер телефона и подобное, и какая после этого будет репутация, и предвзятость окружающих. Когда этого раздела не было, кое-кто неудачно воспользовался колабом, да был сдеанонен и травим. Как, нормально было? Как говорится, "знают двое - знает и свинья". Так что Столлман и корпорации вряд ли тут при чём-то, тут, скорее, более личные мотивы.
Извиняюсь за оффтопик, просто накипело от такого поста.
>>147309 > Получше, там accelerate есть Что это такое? Надо будет попробовать как нибудь с линукса запустить всё это дело, надеюсь мое ядро не слишком старое для всего этого
> Можно попробовать завести на WSL Мне его еще реанимировать, перестал запускаться после апдейта на вторую версию для докера
> На 4ХХХ и сейчас можно. Ну на 4090 точно. > Из минусов - режет немного обьем VRAM. Сейчас поглядел, да в панели включить можно, только не понятно, о всплеске каких ошибок говорил тот >>146631 анон. Ошибки, если что то не так, будут появляться в евент вьювере с включенным ECC?
>>148124 Копирнул блокнот еще раз, запустил уже на этой копии - и всё работает. Ух, погромизды. Лишь бы чего-нибудь намутить. Кому сказано: "Работает - не ломай!"
Аноны нейроны, только вкатываюсь в лору, подскажите -- есть какие-то общие правила по подбору эпох-шагов/lr/ранка в зависимости от объема датасета? Хуй пойму от чего отталкиваться
>>148316 >эпох 10, и собираешь из них грид, выбираешь, какая больше нравится. >шагов 20-40 повторов на картинку >lr Стандартный, 1e-4, с batch size 1. >ранка 32 Вне зависимости от объема датасета, если у тебя один концепт. Ну, как база. Дальше уже можешь по вкусу крутить и сравнивать.
Восстановил ссылки на лорки с дампа дохлого репозитория: https://rentry.org/2chAI_LoRA 1060, ты бы знал насколько проще восстанавливать твои тренировки просто из-за того что они на 576px, лол
>>148326 > >эпох > 10, и собираешь из них грид, выбираешь, какая больше нравится. > >шагов > 20-40 повторов на картинку Бля, а как это в случае расширения дримбудки в вебхуе работает?
>>148356 Та вижу, у меня в принципе какая то шиза происходит с акселератором и диффузерс и кудой происходила и при всех попытках завести и скрипты как по гайду, и варианты с примеров diffusers. Кал какой-то, буду ща по второму кругу уже с гуём
>>148091 Раз такой анонимвас то может просто купишь себе видеокарту? >>148107 > о всплеске каких ошибок говорил тот Оно будет только если у тебя карта подыхает. Все просто, когда у тебя гпу кластер на нем что-то постоянно отъебывает. Один из вариантов отъеба - превышение порога коррекций по врам, это видно по сообщениям дров в кернел логах доебана. При этом производительность сразу падает, что особенно весело при распараллеливании по нескольким машинам, а вскоре теслочке приходит пиздец и она сразу отваливается при запуске чего-то или вообще не стартует. На ресурсах пишут о том что поведение десктопных карточек такое же а прошаренные майнеры писали скрипты для отслеживания ошибок для статистики. Как это смотреть на шинде - хз, возможно в системном журнале. >>148326 > 20-40 повторов на картинку > Вне зависимости от объема датасета Ну нахер
Это опять я со своими видеокартопроблемами. Появился чел, отдающий 3090 за 58к рядом со мной. Ее вообще реально проверить только стресс-тестами без разбора или все равно может отвальной быть?
>>149216 650-ватт, ты? Ну во первых что за исполнение? Глянь обзоры на нее, че там и как должно быть +-, температуры при X оборотах при T амбиент при Z ватт например, температуры памяти, потом сравнишь с прикидом на текущие условия, если где-то значительные отклонения, то уже можно доебаться с вопросами к продавану. Дельта хотспота в районе 20 градусов норм емнип, если больше, то вопросы к охладу и/или термопасте возникают. Стресс тесты тебе покроют в принципе все основные области, фурмарк, суперпозишн, обязательно какую-нибудь тяжелую игру с гейтрейсингом в 4к или более высоком разрешении через dsr например, все с мониторингом афтербернера. Для стресса врам - осст, по другому хуй знает как 24 гига забить, на младших это в играх можно сделать. Полноценное есс у консумерских 3к емнип только у 3090ти.
На разбор мало кто соглашается, попробуй доеби продавана. С разбором можешь уже примерно оценить не ремонтировалась ли, но тут желательно иметь опыт в пайке и знать что и как выглядит, ребольнутый чип или меняные дрмосы хуй отличишь по пайке, если делали не конченные долбоебы. Некоторые еще любят смотреть на цвет чипа, не ужарен ли он, но с хорошим охладом там нихуя не будет. Можешь на ютубе какого-нибудь викона глянуть, у него вроде были видосы по этой теме. Разбор мало что дает, но позволяет успокоить душу перед покупкой. Ну будут там потекшие или сухие термопрокладки, это по температуре памяти будет видно или сбоку без разбора при удаче можно заглянуть. Ну и предполагай что вообще вся 3к серия майнила, но с хорошим охладом не страшно.
Посоны, что делать в такой ситуации, когда у тебя на руках нужная модель + 2 Лоры. К примеру Лора с нужным персонажем и Лора с нужным стилем. Я юзаю автоматик и следую негласному правилу, что превышать единицу в двух тегах Лоры нельзя, ибо ты "пережжешь" генерацию. Условно я делаю, чтоб было <lora: $name1$ :0.5> и <lora: $name2$ :0.5>. Или <lora: $name1$ :0.3> и <lora: $name2$ :0.7>. Короче таким образом я теряю или влияние перса в генерации или теряю влияние стиля. Можно ли как-нибудь решить эту хуету? Я гайды конкретно тут не читал, пришел со своим опытом с реддита и ютуба
>>149395 Лол какие то правила придумал и упёрся в них, просто юзай столько сколько нужно и смотри как будет, некоторые лоры нормально работают с весом выше 1
>>149395 > следую негласному правилу, что превышать единицу в двух тегах Лоры нельзя, ибо ты "пережжешь" генерацию Это правило довольно условное и под твои конкретные лоры надо подбирать опытным путем и исключительно на глаз. Пикрил, например, две лоры - 1.0 на персону и 0.8 на стиль, именно то что мне было нужно. В других генерациях с другим стилем значения другие, но тоже больше единицы. Ну или лоры хуевые и ничего не получится, это тоже будет сразу понятно.
>>149404 Я это правило то ли в каком-то посте, то ли в видосе увидел и подумал что это логично. Пару раз попробовал сделать сумму двух лор 1.8 потому что мне не хватало, стиля из второй лоры, ну и генерация в кашу говна превратилась. Хорошо, я буду пробовать рандомные значения на разных промптах, может норм все будет. Я думал, что можно одну из лор вшить в основную модель, но это не всегда удобно делать и вообще это полумера
>>149408 Окей, буду пробовать. Всем за ответы спасибо Еще один вопрос, иногда на civitai рекомендуют помимо тега вызова лоры еще дописывать trigger words под эту лору. Оно вообще сильно влияет на результат, мб добавляет силу в генерацию? Я немного потестил, у меня просто немного другая генерация получается да и все. Мне надо это понять, чтобы еще свои обученные лоры лучше контролировать
>>149261 >650-ватт, ты? Йеп, он самый. >Ну во первых что за исполнение? Zotac Trinity, сейчас гляну обзоры. Вроде как стояла в игровом пк, он скидывает фотки пекарни с лгбт подсветочкой и всеми делами. При этом он продает кучу всякого железа постоянно, что для геймера весьма странно. В отзывах есть видяхи, из архива проданного - удалены. Спасибо за подробный ответ, приму к сведению. >>149255 Сказал, что недавно обслужена в сц с заменой прокладок, но никаких доков он не сохранил естественно оттуда.
>>149414 Ладно, раз круглосуточные обучальщики не отписываются, мой скромный опыт. Если лора обучена с применением токена-триггера, то надо дописывать, если нет - не надо. Скорее всего, паразитное влияние где-то может вылезти, но это неточно, опять же зависит от того, насколько хорошо проведен тюнинг. Когда в концепте есть персона, предмет или, например, поза, то триггер необходимо использовать при обучении, иначе смысл теряется. Когда обучаешь стилю, на мой вкус, триггер нахуй не нужен, тут куда важнее описать в датасете максимально широкий спектр предметов-объектов-сущностей, ни в каком art by hudozhnik name надобности нет, это просто лишний мусор - ты потом либо подключаешь лору/эмбединг/гиперсеть, либо нет. Исключительно субъективное мнение, если чо.
>>149156 Ну, свитспот обычно в диапазоне 1.5к - 3к шагов, обычно в районе 2-2.5к. Считаешь число пикч, выбираешь чтобы свитспот приходился на эпоху ближе к концу или даже на последнюю если уверен в себе и соответствующим образом выбираешь число повторений, одно на другое разделить думаю осилишь. Треню с высоким лр и большим батч сайзом, попытки обучения с низким лр и огромным числом шагов, как советовали люди что свои результаты не показывают а только рассуждают, приводили лишь к тому что модель не подхватывала полноценно ключевых деталей и стилистики, но при этом начинала всирать фоны и плохо управлялась. Офк это для nai-based моделей, для sd2.x возможно будет иначе, для низких батчсайзов тоже, хотя единичные эксперименты приводили к тем же выводам. >>149216 Гпу мемтест скачай, научись его запускать и вперед. 3к серия при текущем возрасте не склонна к отвалу чипа, да и свежепрогретые ты всеравно не диагностируешь, основные проблемы по врам >>149395 Нет такого правила, все зависит от конкретного случая. Некоторые лоры отлично работают совместно, некоторые всирают друг друга, протестируй и посмотри что получается. Можешь поставить аддон и немного поджать веса текст энкодера оставив юнет, иногда от конфликтов спасает. Если всеже не получается то генерируешь с лорой персонажа а апскейлишь с лорой стиля или наоборот, можно просто img2img с умеренным денойзом использовать.
>>149677 > accelerate на домашней паке > 8-bit оптимизатор Кринж. Особенно если второе действительно работает, то прощайся с нормальными градиентами и ровным обучением.
>>149768 > вы напугали питониста-ждуна Хех, а по существу что-нибудь может скажешь? Разумеется нужен развернутый ответ, вбрасывателей уже дохуя накопилось и все друг другу противоречат
>>149624 >Можешь поставить аддон и немного поджать веса текст энкодера оставив юнет О каком аддоне идет речь? Я в первый раз вчера скачал одну из novelai моделей и оказалось, что для них люди юзают некий clip skip, аддон делает примерно, тот же самый клипскип?
>>150003 Как это юзать? Разбить видео на фреймы, первый прогнать через контролнет, отослать его в и2и, выбрать скрипт не выключая контролнет, а дальше?
>>150009 Я использовал с включенным контролнетом. Выставляешь в скрипте настройки, выбираешь фреймы из исходного видео и тыкаешь генерировать. Он сделает грид, который потом можно нарезать на фреймы и собрать видео сделано через жопу
>>150030 У меня херово работает, один и тот же кадр перерисовывает, можешь подробнее про процесс? Как я понял, надо взять, разбить видео на фреймы, первый перерисовать контролнетом, отправить назад в и2и, дальше выбрать все фреймы с этого видео в скрипте через upload guide frames, а настройки какие выставить не понятно, можешь скинуть скрин своего и2и окна вместе с контролнетом и этим скриптом?
>>149791 > все друг другу противоречат Вся суть треда. У всех есть какие-то любимые настройки, с которыми у них все прекрасно, а как кто-то другой начинает использовать их для себя, так сразу хуита. Я вот посоветую использовать dim 32, alpha 16. train_batch_size = 1, scheduler = "linear"
>>150097 То про сами алгоритмы обучения, планировщики, оптимайзеры и код. А настройки могут меняться в зависимости от задачи, кроме того есть несколько способов достигнуть желаемого. > dim 32, alpha 16 Нулевые тензоры не вылезают? > train_batch_size = 1, scheduler = "linear" А lr, размер датасета, число повторений пикч? И что получается с такими настройками, можешь примеры показать? Исключительно пользы для, в идеале гриды или что-то подобное
>>150151 > Нулевые тензоры не вылезают? Не чекал. На глаз смотрю. > А lr, размер датасета, число повторений пикч? Такие же, как и на твоем скрине выше, я как бы их исправил под свои > можешь примеры показать Не знаю, на что тут смотреть. По идеи все должно быть так, будто основная модель уже знает твой концепт на уровне какой-нибдуь популярной Сырни или легендарной Аски, при этом не херить фон, а персонаж должен уметь принимать позы промтом.
>>149791 Какой тебе развёрнутый ответ, шиз? Не можешь загуглить зачем accelerate? Или тебе надо объяснить почему градиенты идут по пизде при низкой точности?
>>150173 Объясни мне. Загуглил акселерейт, там написано: 🤗 Accelerate is a library that enables the same PyTorch code to be run across any distributed configuration by adding just four lines of code! In short, training and inference at scale made simple, efficient and adaptable.
Загуглил 8 бит адам, там написано: Stateful optimizers maintain gradient statistics over time, e.g., the exponentially smoothed sum (SGD with momentum) or squared sum (Adam) of past gradient values. This state can be used to accelerate optimization compared to plain stochastic gradient descent but uses memory that might otherwise be allocated to model parameters, thereby limiting the maximum size of models trained in practice. In this paper, we develop the first optimizers that use 8-bit statistics while maintaining the performance levels of using 32-bit optimizer states. To overcome the resulting computational, quantization, and stability challenges, we develop block-wise dynamic quantization. Т.е. это не тупа конверт.
>>150239 Забей, дебил просто баззворды кидает, не разбираясь в вопросе. Кому ты больше веришь, челу, который это говно написал и выставил дефолты, или васяну с анонимной имиджборды?
>>150349 Первое конечно же, все работает и работает нормас. Но вдруг это непризнанный гений и знает как сделать лучше, щас все разъяснит, создаст ПР в репе кои и мы сразу же переместимся в утопическое будущее, можно будет тренить на 2 гигах и амд картах, на улице бесплатно смуззи будут наливать.
Аноны, а есть какие-нибудь базовые рекомендации по LORA с параметрами сетки/обучения/разметки датасета чтобы уменьшить запоминание и перенос стиля при обучении на персонажа/объект? Имеет смысл добавлять теги авторов артов чтобы можно было при инференсе исключать их? Дроч с регуляризационными может помочь?
>>149961 Если еще не пробовал, попробуй экстеншен ebsynth_utility, с пальцами он скорей всего не поможет, но с дерганностью видео может помочь. Там тоже контрол нет используется для имк2имг (но вдроде мало настроек для котролнета)
>>150853 Тестовый с img2img на шару. Надо будет получше подобрать настройки контролнетов, чтобы не так сильно ломало. Может бы ть просто скормлю первое видео >>149961 Выглядит лучше в плане плавности пальцев и рук.
Почему-то обработало только мелкий отрезок видео, хотя аудио взяло полностью..
https://rentry.co/xformers_builds 1. Для варианта с использованием предварительно-скомилированного торча вынес несколько версий (две старых и ещё сегодняшнюю) в отдельный rentry, т.к. прошлый билд не работал у некоторых анонов. Возможно, имеет смысл скомпилировать ещё несколько старых версий, но я пока не знаю, есть ли такая потребность.
2. Для гайда с ручной сборкой немного поменял финальные шаги сборки, чтобы в конце высирался собранный пакет в whl формате, который можно позднее запаблишить или сохранить на всякий.
3. Добавил секцию по сборке xformers без привязки к автоматику, чтобы можно было получить скомпилированный whl-файл не шатая пакеты в самом автоматике.
Ещё пункт про бекапы /venv добавил, чтобы можно было безболезненно откатиться, если апдейт вам поломал всё.
>Почему-то обработало только мелкий отрезок видео, хотя аудио взяло полностью
В ebsynch закидывал все .ebs файлы? Скрипт может сгенерить больше одного файла, тогда нужно обработать ебсинком их все (закидывать вроде можно только по одному за раз)
Хз, что еще может быть, у меня не было такой проблемы.
>>151114 Да, он сделал несколько и я все закинул. Наверное баг или я ошибся. Из 400 фреймов только 100 получил, хотя фреймы видео и кейфреймы сделаны нормально
>>151063 > примерно 34/33/33: Это как? Объясни формулу.
>>151141 >>151151 Мержу модели на 16 гигах нормально, только свопа дохуя отжирает, 40-60 гигов. Ну и скорость так се, при составлении гридов по слоям в супермержере прям посос.
Ахтунг, пора катить, тонем же! Здесь бамплимит 500, а 1000 только для двух тредов!
Ахтунг (2), на гуглоколабе обновился пихон с 3.8 на 3.9, у меня сегодня не завелись иксформерсы, заработало после пнресборки оных из сорцов (команда на всякий случай там прилигалась), как поделиться - не знаю.
https://twitter.com/BlockadeLabs/status/1634578058287132674 Рисуем комнату в ВР. Делаем из этого cribble для контролнета. Пишем промпт. Скармливаем ИИ. Вуаля, у нас внутренний скайбокс для ВР-комнаты. Так ведь и до полноценных ВР-миров, сделанных через АИ недалеко уже.
>>151084 Первый вариант у меня ломает автоматик. Вебуй грузится (в начале правда варнинг выдает о том, что torchvision.transforms.functional_tensor module типа устарело), генерация не стартует.
Второй вариант выдает то же самое. Куча ошибок, в конце >RuntimeError: CUDA error: no kernel image is available for execution on the device CUDA kernel errors might be asynchronously reported at some other API call, so the stacktrace below might be incorrect. For debugging consider passing CUDA_LAUNCH_BLOCKING=1. Compile with `TORCH_USE_CUDA_DSA` to enable device-side assertions.
Послений вариант вообще не ставится. >ERROR: Could not find a version that satisfies the requirement torch==2.0.0 И потом еще много всякой ерунды. Походу, по ссылке нифига уже нет.
Второй плоген уже исполует баесиан апроуч для вероятностного просчета чтобы уменьшить количество тупых переборов брутфорсом https://github.com/s1dlx/sd-webui-bayesian-merger но нужно дольше настривать
>>151743 Смысла особого нет, потому что скор говно. На выходе будут мастерпися-арты без мастерписи в промпте, а когда захочешь без мастерписи нарисовать конкретный объект - пойдёшь нахуй.
>>151754 >потому что скор говно >The generated checkpoint is then used to create images that are fed into an aesthetic classifier, such as cafe-aesthetic or laion-V2, which outputs an aesthetic value that ranks the changes made by tweaking that specific value in the merge. Почему кстати говно-то? Там не маняскор с бур всяких кстати, а модели заточенные под скоринг.
>>151762 > модель то есть Так ты сам-то пробовал? На них упор на мастерпися-фоны. Попробуй сам на этой модели лору прицепить и сгенерить персонажа без лишнего говна. >>151764 Так ты почитай что он там скорит. Он определяет насколько разнообразная композиция на пике, так называемое "качество арта". В той модели именно это и видим - фоны с нейрошумом. Абсолютно то же самое делается например с "art by peter mohrbacher, ruan jia, reza afshar, marc simonetti, alphonse mucha" - получишь такую же мастерписю.
>>151770 >Так ты сам-то пробовал? Да, заебись моделька. >На них упор на мастерпися-фоны. Не согласен. >Попробуй сам на этой модели лору прицепить и сгенерить персонажа без лишнего говна. Я персонажных лор не имею, у меня только стилистические и всякие позы да улучшайзеры, с ними работает прекрасно.
>Абсолютно то же самое делается например с "art by peter mohrbacher, ruan jia, reza afshar, marc simonetti, alphonse mucha" - получишь такую же мастерписю. Ну так себе аргумент, он непрвоеряем. Давай лучше начнем с того, что изначально сд тренируют и потом тюнят как раз скорерами, в том числе лайоном, который можно юзать в скрипте.
>>151783 > изначально сд тренируют и потом тюнят как раз скорерами Не пори хуйни, aesthetic score нигде при обучении SD не используют, только CLIP score. Он не может определить что конкретно на пике и бесполезен для обучения text2img моделей. Разве что как метрику для визуализации качества деноиза можно использовать, но в оригинальном SD его нет даже для такого.
>>151796 Ну так для это же фильтр для клипа, а нам фильтровать не надо, а надо слияние сделать оптимальное. Так что все фул легит, лайон может в оценку и аестетиком.
>>151799 Он никакого отношения к обучению SD не имеет и оценивает только сложность композиции, не её содержание. Ты этим сможешь только нейрошум отскорить. Ну в общем разговор не о чём. Как принесёшь примеры повышенного качества миксования на реальных генерациях, так и будем продолжать. А нейрошум можно абсолютно на любой модели забустить.
>>151809 >Как принесёшь примеры повышенного качества миксования на реальных генерациях, так и будем продолжать. Как будто мне нечем заняться, вон у автора на страничке гриды есть - лакомись, мне лично результат работы нравится. И вообще условный оранж точно также тюнили отбирая лучшие положения процентных соотношений блоков, ток вручную, так что ты споришь просто с рабочим методом.
>>152839 На Шинобу на разных стилях, мне не нравиться как выходят некоторые элементы и подумал что можно юзать более мелкие пикчи для таких концептов, и ещё если я собираюсь дообучать на подправленом датасете, то нужно ли снижать lr? Если да то во сколько? А если я добавлю новый концепт типа художника на 1/6 датасета?
Попробовал ещё раз провести эксперимент с проверкой того, как выпиливание бекграундов для датасета влияет на качество фонов при генерации, на этот раз для лор.
Сделал две версии своего датасета - в одном оставил оригинальные бекграунды, а в другом, при помощи этой либы https://github.com/SkyTNT/anime-segmentation выпилил бекграунды. Эта либа делает бекграунд прозрачным, что не сочитается с лорами (насколько мне известно). Так что через этот скрипт >>150039 (спасибо анону и ChatGPT) поменял у всего датасета фон с прозрачного на белый (+ ещё тег white background добавил ко всем картинкам). Затем обучил две лорки с одинаковыми настройками по этим двум датасетам. В примерах использую последнюю эпоху, чтобы по максимуму увидеть последствия переобучения.
Колонка 1 - без лоры Колонка 2 - лора, обученная на белых фонах Колонка 3 - лора, обученная на стандартных фонах
По итогу, различие в качестве фонов между лорами надо под лупой выискывать, так что всё же склоняюсь к мнению, что смысла тратить время на удаление фонов в датасете не имеет смысла при обучении лор на персонажей. Либо это всё же особенность моего датасета, так как на значительной части картинок, на которые приходится много повторов, фоны и так одноцветные (хотя много иероглифов, как правило).
В либе, кстати, неправильно указаны аргументы в примере вызова (там --data-dir, а нужно просто --data), у меня такой вариант заработал, если кому-нибудь нужно: python inference.py --net isnet_is --ckpt ./models/isnetis.ckpt --data ./input --out ./out --img-size 1024 --only-matted
>>152367 > Но типа у кого-то лоры на персонажей работают лишь от токена? Работают, если из тегов датасета убирать к хуям описание персонажа, внешку шмотки etc.
>>152980 Дримбудка и лора в частности довольно толерантны к качеству датасета на самом деле. Заебываться настолько смысла особо нет. Параметры модели и обучения больше разницы дадут. Главное чтобы теги не совсем говно были. Вообще сложилось ощущение, что до приемлимого качества натренить лору зачастую не проблема даже не запариваясь с чисткой тегов и на дефолтных параметрах. А дальше уже начинается полурандомная магия и анальная зависимость сочетаний качества и балансировки датасета с параметрами модели и обучением, и с каждым процентом улучшения модели задроченность тонкой настройки растет x^2
Ну и как с этим со всем теперь разобраться? Сначала добавили LoСon, тут пару постов проскочило, потом появился Kohya LoСon, мы молчали, теперь они решили доебать окончательно.
>>152980 Если фон одинаковый на всех пикчах, то лучше удалять/менять. Сужу по опыту обучения гиперсети на фото. У меня фон "запекался" в сеть вместе с объектом. Не знаю, может с лорами всё не так
>>153209 Если он везде был протэган - то не должен запекаться. Другое дело, что рандомно может и без тэга выскакивать, но негативом у меня такое очень просто лечилось.
>>153216 Вот и я об этом. На гитхабе с умным видом выложили картинки, я с умным видом посмотрел и решил забить до лучших времён. Пока хач обзор не сделает.
>>153190 Ну пиздец. Они еще там смешивают по формулам уровня "ACM+LoHA+DAdapt", вычитают и прибавляют дримбухи. Вангую тотальную еблю с результатом уровня погрешности, ибо фикситься одно, а ломается другое от доп.данных. Сколько раз сталкивался с тем, что больше=значительно лучше и каждый раз это не так. Будто нельзя сделать заебись не живя всем этим.
>>148885 >Раз такой анонимвас то может просто купишь себе видеокарту? Во-первых, с финансами, как обычно, не всё стабильно. Во-вторых, в таком случае нужно будет вообще системный блок собирать, а зачем он мне, если и так ноут есть? Я вроде на мажора не похож. >>149155 "Дрочерство" тут ни при чём, просто мне не совсем хотелось бы отчитываться за каждую крупицу данных, которые кто-либо может использовать против меня, да даже просто докапывать в стиле "ну, вот оно тебе надо, почему ты не как нормальные люди?" особенно, в случае деанона.
Как тегировать датасет для lora на базе реалистичной модели (sd 1.5)? Booru теги не будут работать? Clip выдает длинные описания не понятно как будет работать опция перемешивания токенов.
>>153416 Тэги работать будут, но тут как повезет. Лучше clip используй и отключай перемешивание. Зачем оно тебе, когда у тебя и так сложные и не повторяющиеся предложения?
Сюда тоже насру. Помогите разобраться с этим говном! Я не хочу новый тормозной аноноколаб, я ходу реанимировать старый! Можно ли это исправить, и если можно, то как?!
>>150167 Укатывания лендскейпов в уберреалистичность - один из признаков поломки, но в этом также могут быть виноваты теги. Главное что результат получается > Такие же, как и на твоем скрине выше Хз о чем ты, на пикче в посте выше только параметры обучения, число повторений и количество пикч там не показывается, это параметры датасета. Поделись если не жадина >>152980 По первой складывается впечатление что с оригинальными фонами отработало лучше с точки зрения детальности бекграунда. На третьей чуть больше похоже на оригинал но не сказать что колонка 2 сильно хуже в этих сидах. А это с каким числом шагов? Более ранние или поздние эпохи не смотрел? >>153264 Подобная анонимность - привелегия тех кто может себе позволить железо и/или свой софт. Парадигма мира, увы, такая, или попадаешь в бигдату, или тратишь сотни нефти и ресурсов не попытки этого избежать. А тут еще такой пряник в виде крутых расчетных мощностей нахаляву. >>153416 wd 1.4 tagger, deepdanbooru
>>153848 > Что-то совсем потанули, нужен перекот Было бы неплохо, куда оп пропал, который шаблон шапки еще может отредачить? Там бы удалить мертвые ссылки на репозитории моделей и лор
>>153853 Я понятия не имею что там с колабом, но на локальной установке тоже было такое, там какой-то пакет неправильной версии, надо было просто старую поставить
>>153862 Стоит обсудить что в новую шапку можно добавить для начала Как вариант предлагаю: локоны, параметры тренировки анонов что в этом треде писали, выводы по бекграунду, мердж лор, контролнет, могу complete idiot guide с примером по обучению лоры скриптом локально запилить.
>>153861 Просто в один прекрасный день колаб отказался запускаться >>153862 >>153865 Я нашёл что там проблема с fastapi добавил строку >!pip install --upgrade fastapi==0.90.1 по советам с фейса и реддита Посмотрим что получится
>>153763 У него вроде пре-процесс картинок на вкладке с тренировкой где-то был, насколько я помню. Целую папку туда можно запихнуть. Файлы с текстом создает, картинки ресайзит, всё такое.
>>153876 Хо Ши Мин, ты? Ну форкай тогда шапку и переписывай хотя бы понемногу, раз оп уже забил и не появляется тут > локоны А про них есть какая полезная инфа у тебя? Я вообще хз зачем это появилось, до сих пор нету поддержки в автоматике или аддишионал нетворкс, без отдельного экстеншена. > параметры тренировки анонов что в этом треде писали > мердж лор Да, годно было бы. > контролнет Это отдельный гайд вообще писать придется, там же столько применений, неужели займешься? > могу complete idiot guide с примером по обучению лоры скриптом локально запилить Да уже давно местный аскотест напрашивается с готовым датасетом, для проверки корректности работы тренировки. Вот сейчас как раз решил проверить можно ли сделать две абсолютно одинаковые лоры с одинаковыми хешами, у меня не получается, параметры теже, шафл выключен, сид залочен. Генерации похожи, но чуть чуть отличаются, можно ли это считать правильным аскотестом, ну хз, наверное да. Пик1, пик2 - просто одинаковые настройки, пик3 - +шафл с теми же настройками.
Кстати до сих пор в шапке нету мокрописьки гуя для тренинга лор от одного из местных без вести пропавших, лично мне удобно именно ей пользоваться https://github.com/anon-1337/LoRA-train-GUI
>>153848 Я специально генерил на миксах оранж-миксов с тегами реализма, чтобы проверить, как оно будет. Мне наоборот не хотелось бы, чтобы с персонажем копировался и стиль. Пикчи с инфой соответствуют пикчам из моего предыдущего поста. 4пик не кидаю, так как она как 1пик, но в этой версии больше аниме скриншотов, что дает копирование стиля для одного из концептов, что мне и не надо было.
>>153899 > Хо Ши Мин, ты? Едва ли, хотя есть точки пересечения > Ну форкай тогда шапку и переписывай хотя бы понемногу Нууу если никто не возьмется то можно, конечно, денек на сбор мнений. Лучше Хо Ши Мину это поручить а мы отдельные моменты выдвигать будем > А про них есть какая полезная инфа у тебя? Не, все никак не попробую. Раз из примеров на весь тред только специфичное фурри где разницы и нет то пока в шапку рано значит > Да, годно было бы. Ну параметры могу собрать, про мерж к Сенкофагу > неужели займешься Едвали, может потом > Да уже давно местный аскотест напрашивается с готовым датасетом, для проверки корректности работы тренировки. Выбирайте персонажа или готовый датасет если есть. Или сам выберу заодно из старых что уже есть может что добавлю
>>153907 > Я специально генерил на миксах оранж-миксов с тегами реализма Ну тогда все ок, Ювао разве что не совсем похожа на оранжи > 768 У тебя случаем нет сравнения с 512 тренингом?
>>153920 > Не, все никак не попробую. Раз из примеров на весь тред только специфичное фурри где разницы и нет то пока в шапку рано значит Мне вообще кажется что оно не сработало, ну или это просто не стоит вообще того, чтобы заморачиваться. А есть же еще какое то loha, название как бы намекает.
> Ну параметры могу собрать, про мерж к Сенкофагу А по вайт бекграунду в итоге что, тоже трата кучи времени на 1% улучшения? Ну вроде выглядит здорово для овертрейна и добавления потом в негатив этих симпл беков, персонаж же будет прямо повторен, только наверное откажется переодеваться.
> Едвали, может потом Тогда можно в туду записать, как это было в шаблоне раньше.
> Выбирайте персонажа или готовый датасет если есть. Или сам выберу заодно из старых что уже есть может что добавлю У меня много этих датасетов, на персонажей и стили, причем я хз на стиль точно нужны большие альфа и дим при батч сайзе в один, стоит ли это как то разделять в тесте? А вот что точно стоит делать, это указывать версию сд-скриптс, там какие то опять обновы у кохуи, которые он сам описывает, как не стабильно работающие, мельком глянул
>>153928 > У тебя случаем нет сравнения с 512 тренингом? Я не он, но раз уж сейчас занимаюсь аутизмом то попробую заодно и так сравнить, только хз как это правильней проверить, пальцами чтоли, как мелкими деталями, зависящими от разрешения?
>>148198 Короче извини, но хуйня оказался твой способ, сразу старух и жирное ебало делает с таким LR. А от модели достаются олдскульные причёски. Остановился на дефолтном cosine и тренить, внезапно, на delibearte/analog madness.
>>153928 Может я использовал еще anything-v4.5, который тоже является миксом. > 512 Если даже и есть, то не найду. Постоянно что-то прибавляю из дата-сета, что-то убираю, меняю параметры методом тыка каждый раз и поэтому найти точное сравнение - легче сделать еще раз. В целом, иногда 768 помогает значительно, но иногда нихрена.
>>153949 > А по вайт бекграунду в итоге что, тоже трата кучи времени на 1% улучшения Кмк на ухудшение, субъективно офк, но отрицательный результат тоже результат. Или может не туда смотрю, тут надо больше примеров и указаний как интерпретировать. Алсо здесь важнее будет пример где остались не чищенные иероглифы, надписи и прочее, будет лезть нещадно если такого в датасете много. > Тогда можно в туду записать Дело говоришь > причем я хз на стиль точно нужны большие альфа и дим при батч сайзе в один, стоит ли это как то разделять в тесте? Можно добавить по мере так сказать, для начала персонаж и батч сайз что влезет в 8 гигов, например. > только хз как это правильней проверить, пальцами чтоли, как мелкими деталями, зависящими от разрешения В первую очередь качество передачи персонажа, работает ли также хорошо как 512. Далее уже мелкие детали и глаза при тренировке стилей некоторых авторов, их всирает в первую очередь
>>153928 >>153960 Тут вот не особо помогло. Вроде стали лучше рукава и значок на шее. Да, скорости разные и сеты немного тоже, но в целом не сильно разница видна. А вот когда делал по Некопраре и me!me!me!- там очень сильно глаза ломались.
Так ну пример есть, осталось сделать с настройками под 8гиговых и альтернативными, на днях что-нибудь будет, может даже раньше. Какая на рентрай политика по легкому нсфв?
Вообщем сделал две лоры с одинаковыми параметрами тренировки, единственное отличие между ними разрешение, в6 - 768, в7 - 512. Грид делал 768 квадратом, лосс, не уровня погрешности, ниже именно у лоры 768 во время тренировки. Но лучше основной объект тренировки, то есть персонажа и её платье объективно запомнила именно 512, лол. В то время субъективное имхо, в среднем по палате пальцы получаются лучше с 768. Платье это просто позор на 768, походу 768 намного более придирчив к датасету, там есть пара картинок с не просто белым платьем, а градиентом на вот этот синеватый цвет. Алсо как доебали эти спайки между концом и началом эпохи, вот как с ним батчем тренить, это же пиздец наступает на первые пару шагов, было у кого такое?
>>154204 В6 чуточку лучше глаза, в7 более живая чтоли, по передаче костюма очевидно. Тут просто суть в том что sd1 модель неоче хорошо работает за пределами когерентности, и при обучении это может быть критичным, перебивая преимущества более высокого разрешения
>>154218 > sd1 модель неоче хорошо работает за пределами когерентности Разве этот предел не заканчивается как раз на 768х768, ну или же 0.5 мегапикселя?
>>154311 > нормально Ну как нормально, простое сделает, в сложных позах будет больше пиздеца и меньше вероятность нормальных пальцев чем при 512х512. Оно оче редко может и 1кх1к сгенерировать хорошо. > вроде всем похуй Так этож для гайда, или не нужон? > большой батч сайз и альфа 1 Да, но есть и альтернативные примеры с разным бс, лр, альфой, фп/бф и т.д. Таки самому интересно подтвердить или опровергнуть
Я всё ещё треню DreamBooth. Искренне считаю, что для моих задач норм. Например, если я хочу двух тянок в рисовке конкретного художника. Или если я хочу фотореалистичную ЕОТ-модель по мотивам фоток конкретной косплеерши.
Вопрос: а больше регов - это всегда лучше? В DreamBooth каждый рег имеет одинаковый тегинг (class prompt), так что нашлёпать регов - вопрос только времени. Но большого.
Господа, подскажите, пожалуйста. Созрел, наконец, до клепания своих Лор - гайд в шапке ведь актуален? >✱ LoRA – "легковесный Dreambooth" – подойдет для любых задач. Отличается малыми требованиями к VRAM (6 Гб+) и быстрым обучением: https://rentry.org/2chAI_LoRA_Dreambooth_guide
>>154383 25 фото, все теги прописаны, но одежда/волосы запекаются насмерть, всё же нужно красить/переодевать для нормального результата. Параметры оставил дефолтные - cosine, warmup 0, но надо ещё потестить с ним. 50 проходов. Сейчас играюсь с начальным LR, чёт слышал что при cosine не имеет значения, но внезапно нет.
>>154459 Ну допустим у меня есть лора а в папке б, мне нужно писать $output_name= a, $output_dir = б ? Мне тут говорили что это так делается, или я не правильно делаю?
мимокрок, нужен совет Если просто генерю в малом разрешении(пик1), будь то лора или нет, все нормально выглядит, просто лоурез, если что-то делаю с контролNET(пик2), пикчу пиздец шакалит, зашарпливает и все что можно делает с ней, лишь бы это выглядело несмотрибельно. Делать выше разрешение? - анатомия выходит из чата Делать с хайрезfix? - изначальная маска выходит из чата Суккакфиксить
>>154429 Он изначально рассчитан на версию 0.4.0, в теории все должно работать и до 0.4.4, возможно и на 5й версии заведется. Надо посмотреть как получится что там с версиями, в общем помимо добавления новых параметров там все то же.
>>154464 Я имел в виду, в зависимости от того, каким скриптом и на каком коллабе обучаешь - может быть по-разному это прописано. Output в любом случае это то, куда ты свою лору писать будешь, и под каким именем. Это не то.
>>154484 Я юзаю скрипт из гайда местного, и если то как я делал неправильно, что очень вероятно, то единственный вариант это $ckpt, правда я думал что основная модель всё таки нужна для дообучения, но видимо она нужна была только как отправная точка, а дальше лора работает как самостоятельная в плане обучения
Анон, как мне правильно подготовить датасет для лоры моей еотовны? У меня отобрано около 50 хайрезов с зеркалки, без левых людей и объектов, среди них селфи с разными прическами, цветами волос, в очках и без; фотки в полный рост в разной обстановке, и немного нюдесов в полный рост с разных ракурсов. Всё это добро я уже прогнал через BLIP Captioning в Кохье. 1. Как это всё правильно протегать? С оглядкой на то, что лору я хочу использовать не только на фотореалистик, но и на около-мяняме моделях. Остановиться ли на СД промте вида "photo of a girl with short brown hair, weading white t-shirt, standing in park"? Или лучше использовать данбуру-теги? Или замиксовать? 2. Насколько детально вообще надо тегать исходники? Вот есть у меня фотка с композицией как на пикрилейтеде - надо ли мне подробно расписывать, что это "Full lengh portrait of EOT_name with green short hair, wearing glasses and necklace, in white t-shirt, in green pants, in lime sneakers, standing in park". Из того что я понял тегать надлежит всё, что не должно быть частью тренируемого концепта. То есть если у Еотовны на большинстве фоток разные причесоны и одежда, то их лучше бы протегать чем подробнее тем лучше? 3. Какую модель брать для обучения, с оглядкой на пункт 1? Ванильный СД-1.5, тот же URPM, что-то миксовое, типа Оранжа? 4. Имеет ли смысл заебываться и тюнить каждое из описаний, прогоняя их через генерацию на выбранной для обучения модели? Я попробовал щас это провернуть с первыми десятью фотками из сета на СД1.5, и у меня жопа сгорела - на то чтобы добиться плюс-минус схожей с оригиналом композиции и получить на выходе хотя бы пикилейтед же, у меня ушло минут сорок перебирания промта. Оно вообще стоит того? 5. Как грамотно совместить в датасете нюдесы и портреты, чтобы иметь возможность генерить и отдельно лицо, и Еотовну во всей красе? Я правильно понимаю, что достаточно будет просто проставить где надо теги "Nude" и "NSFW"?
>>154886 Можешь скрином потом показать, как этим управлять? То есть куда параметры вписываются и как. Не хочу часов 10 ставить, а потом понять, что без самостоятельного прописывания всех параметров вручную ничего не запустить, как с оригинальным скриптом, где без гайдового .ps1 ничего не сделать, не зная от и до сам весь скрипт.
ОП-пики в шаблоне отличаются от тех, что в треде - полагаю, вместо графиков надо использовать картинку из шаблона, которая про кручение весов моделей. Но у меня есть сомнения, имеет ли эта схема хоть какое-то отношение к реальности. Эксперты по CLIP-слоям есть в треде?
>>154911 Из личного опыта. 1. Без разницы как тегать, если одна и та же одежда присутствует на нескольких фото - всё, оно будет преследовать тебя и вылезать в самый не подходящий момент, даже если ты распишешь вплоть до каждой пуговицы, полоски и цвета каждой нитки. Но главное тегать, если не тегать - всё ещё хуже. 2. Разная причёска, макияж, цвет волос, маникюр, бритость лобка и потность подмышек будет усреднена. Если фото +/- одного периода времени - можно не тегать, если разного - получишь медианное значение. Длина волос не влезла полностью в кадр а ты не указал длину? Штош, однажды получишь волосы по пояс. Фото лица в похожем ракурсе и размере будут усреднены, т.е. если была дрищём, но отожралась как кабанчик - получишь середину. Нужны разные ракурсы, но не за 10 летний период, максимально близко друг у другу. Улыбка с зубами? Пиши зубы - иначе запекутся и будут вылезать зубы поверх губ, причём довольно рандомно. Собираешь небольшой сет, тренируешь, проверяешь, исправляешь и т.д. Сначала лучше просто небольшой только на лицо. 3. Тренируй на той модели, где будешь использовать, собрать сет самое сложное. 4. Чем длиннее промпт, тем меньше будет похоже на оригинал, либо надо повышать вес лоры, а это дополнительные искажения, нужно искать баланс. Тренировка на 1.5 даёт неплохой результат только на 1.5, на свежих моделях будет что угодно с кривыми глазами, либо если там кривые веса с детальностью кожи - у тебя вылезут все поры и морщинки. Если не нужно прямо 100%% попадание - тренируй где больше нравится и убавляй вес. 5. Просто пиши nude, breast или что там у тебя, но это скользкая дорожка. Лора запомнит кривые сиськи и брухлю. И моли Омниссию, чтоб фоток было достаточно, иначе потом модель составленная по трём фоткам будет тебя преследовать.
Последний раз тренил лору больше месяца назад. Делал по гайду Aitrepreneur, и пользовался его конфиг файлом. Сегодня собрал датасет, обновил kohyas gui... А всё по базовому конфигу не тренит, вроде жалуется на недостаток памяти, хотя раньше было норм. Теперь как черепаха на low vram. Вопрос. Где я мог напортачить и как фиксить?
>>154399 > Так этож для гайда, или не нужон? Да я про твой вопрос с рентри, там от прона никто в обморок не падает
>>154971 Это ж унет слои. Все на них после второго еще треда забили, лично я тоже, просто решил зачем каждый из них выдрачивать до идеала, когда можно просто лору сделать. Актуальна инфа или нет хз, надо смотреть соответствующие гайды или спрашивать прошаренных миксеров. Вариант как создавали силикон29 через аестетик скор кажется куда более интересным в этом плане, хоть какая то автоматизация, выше в треде видел обсужление.
Тред общенаправленныей, тренировка дедов, лупоглазых и фуррей приветствуются
Предыдущий тред:
➤ Гайды по обучению
Существующую модель можно обучить симулировать определенный стиль или рисовать конкретного персонажа.
✱ Текстуальная инверсия (Textual inversion) может подойти, если сеть уже умеет рисовать что-то похожее:
https://rentry.org/textard (англ.)
✱ Гиперсеть (Hypernetwork) может подойти, если она этого делать не умеет; позволяет добавить более существенные изменения в существующую модель, но тренируется медленнее:
https://rentry.org/hypernetwork4dumdums (англ.)
✱ Dreambooth – выбор 24 Гб VRAM-бояр. Выдаёт отличные результаты. Генерирует полноразмерные модели:
https://github.com/nitrosocke/dreambooth-training-guide (англ.)
✱ LoRA – "легковесный Dreambooth" – подойдет для любых задач. Отличается малыми требованиями к VRAM (6 Гб+) и быстрым обучением:
https://rentry.org/2chAI_LoRA_Dreambooth_guide
✱ Text-to-image fine-tuning для Nvidia A100/Tesla V100-бояр:
https://keras.io/examples/generative/finetune_stable_diffusion (англ.)
Бонус. ✱ Text-to-image fine-tuning для 24 Гб VRAM:
https://rentry.org/informal-training-guide (англ.)
Не забываем про золотое правило GIGO ("Garbage in, garbage out"): какой датасет, такой и результат.
➤ Гугл колабы
﹡Текстуальная инверсия: https://colab.research.google.com/github/huggingface/notebooks/blob/main/diffusers/sd_textual_inversion_training.ipynb
﹡Dreambooth: https://colab.research.google.com/github/TheLastBen/fast-stable-diffusion/blob/main/fast-DreamBooth.ipynb
﹡LoRA [1] https://colab.research.google.com/github/Linaqruf/kohya-trainer/blob/main/kohya-trainer.ipynb
﹡LoRA [2] https://colab.research.google.com/drive/1bFX0pZczeApeFadrz1AdOb5TDdet2U0Z
➤ Полезное
Гайд по фиксу сломанных моделей: https://rentry.co/clipfix (англ.)
Расширение WebUI для проверки "сломаных" тензоров модели: https://github.com/iiiytn1k/sd-webui-check-tensors
Гайд по блок мерджингу: https://rentry.org/BlockMergeExplained (англ.)
Гайды по апскейлу от анонов:
https://rentry.org/SD_upscale
https://rentry.org/sd__upscale
Подборка мокрописек от анона: https://rentry.org/te3oh
Группы тегов для бур: https://danbooru.donmai.us/wiki_pages/tag_groups (англ.)
Коллекция лор от анонов: https://rentry.org/2chAI_LoRA (заливать лоры можно сюда https://technothread.space/ пароль 2ch)
Гайды, эмбеды, хайпернетворки, лоры с форча:
https://rentry.org/sdgoldmine
https://rentry.org/sdg-link
https://rentry.org/hdgfaq
https://rentry.org/hdglorarepo
https://gitgud.io/gayshit/makesomefuckingporn
Сервер анона с моделями: https://static.nas1.gl.arkprojects.space/stable-diff/
Шапка: https://rentry.org/ex947
Прошлые треды:
№1 https://arhivach.top/thread/859827/
№2 https://arhivach.top/thread/860317/
№3 https://arhivach.top/thread/861387/
№4 https://arhivach.top/thread/863252/
№5 https://arhivach.top/thread/863834/
№6 https://arhivach.top/thread/864377/