24 декабря Архивач восстановлен после серьёзной аварии. К сожалению, значительная часть сохранённых изображений и видео была потеряна. Подробности случившегося. Мы призываем всех неравнодушных помочь нам с восстановлением утраченного контента!
Существующую модель можно обучить симулировать определенный стиль или рисовать конкретного персонажа. ✱ Текстуальная инверсия (Textual inversion) может подойти, если сеть уже умеет рисовать что-то похожее: https://rentry.org/textard (англ.) ✱ Гиперсеть (Hypernetwork) может подойти, если она этого делать не умеет; позволяет добавить более существенные изменения в существующую модель, но тренируется медленнее: https://rentry.org/hypernetwork4dumdums (англ.) ✱ Dreambooth – выбор 24 Гб VRAM-бояр. Выдаёт отличные результаты. Генерирует полноразмерные модели: https://github.com/nitrosocke/dreambooth-training-guide (англ.) ✱ LoRA – "легковесный Dreambooth" – подойдет для любых задач. Отличается малыми требованиями к VRAM (6 Гб+) и быстрым обучением: https://rentry.org/2chAI_LoRA_Dreambooth_guide ✱ Text-to-image fine-tuning для Nvidia A100/Tesla V100-бояр: https://keras.io/examples/generative/finetune_stable_diffusion (англ.) Бонус. ✱ Text-to-image fine-tuning для 24 Гб VRAM: https://rentry.org/informal-training-guide (англ.) Не забываем про золотое правило GIGO ("Garbage in, garbage out"): какой датасет, такой и результат.
>>155386 (OP) Не поторопился ли? Там аскотест анон сегодня уже хотел запилить вроде. Ну в шаблон добавится тогда на следующий. Когда последний раз торч обновлял кстати? Версия от 13.03 и последний коммит искформерсов мне еще накинул немного производительности, если сравнивать с 18.02. Кстати, сам твой гайд тут тоже к месту был бы
>>155525 > Не поторопился ли? Там аскотест анон сегодня уже хотел запилить вроде. Ну в шаблон добавится тогда на следующий. Ага, добавим в следующий тред тогда. Ну, или можно мода попросить поправить шапку, раз этот тред такой медленный (прошлый за 11 дней до бамп-лимита дошёл).
> Когда последний раз торч обновлял кстати? Версия от 13.03 и последний коммит искформерсов мне еще накинул немного производительности, если сравнивать с 18.02. 11.03 обновлял и сборку сюда выложил: https://rentry.org/xformers_builds Но я замеры у себя не делал ещё для сравнения с 18.02, просто перед паблишем убедился, что локально ничего не ломается.
> Кстати, сам твой гайд тут тоже к месту был бы Окей, добавлю в шаблон позднее. Меня, правда, смущает, что не у всех анонов версии из гайда работают >>151709 → попробую ещё потом пару старых версий собрать и запаблишить.
>>155386 (OP) >>155551 Таки поторопился но ладно, все лучше чем тонуть. Поведение в разных версиях тестирую пока всеравно, 5ю пожалуй стоит отложить ибо там так много отличия и кое что поломали, да и понял что нужно прям совсем для хлебушков пошагово писать а не более детальные вещи для тех кто уже что-то знает
>>155551 > Окей, добавлю в шаблон позднее. Меня, правда, смущает, что не у всех анонов версии из гайда работают >>151709 → → попробую ещё потом пару старых версий собрать и запаблишить. Ну на 4000 серии это же мастхев, хз только насчет более младших, чем 4090 карт, эти шедевры кто то покупал вообще из местных? А на 3000 только хуже делает, у меня например было с 3000 и самосбором иксформеров меньше производительности. Как минимум стоит рекоммендовать собирать самому наверное, раз готовый не ставится. Лучше, конечно, у тех анонов выяснить причину, почему не ставилось, логи там хотя бы глянуть, инфу о системе, как ставил А вообще вангую у него таже проблема с венвом в первом и втором случае, а в третьем он не те версии пытается ставить, у меня было что к версии, условно от 03.03 торча не подходит версия торчвижона, нужна от 02.03 или 04.03
>>155561 > да и понял что нужно прям совсем для хлебушков пошагово писать а не более детальные вещи для тех кто уже что-то знает Разделил бы просто, для хлебушков и смешариков разделы например, всяко хлебушек рано или поздно станет смешариком, если тренить много будет
>>155575 Да Ну что, основной текст есть, осталось гриды запилить да и свежим выглядом посмотреть. Если звезды сойдутся будет завтра.
Все пытаюсь воспроизвести оче долгое обучение на относительно низком лр, уже и батчсайз2 и дим 64 и fp16 поставил. Увидев первый грид даже удивился и показалось что вот оно - но нет, просто пытается копировать пикчу с датасета а при задании какого-то фона тот нахуй уничтожается. На большом bs чуточку лучше но та же херня. >>155607 > кто то покупал вообще из местных У кого-то точно есть 4080 > А вообще вангую у него таже проблема с венвом в первом и втором случае, а в третьем он не те версии пытается ставить Двачую, оно должно влет ставиться а один бедолага долго пердолился
Бля, наверное, я еблан, но спрошу по лора про регуляризационные. Может кто-то объяснить или ткнуть ебалом в гайды как правильно называть папки концептов для них? Туда пихать полностью промпт-класс генерируемых пикч а ля a photo of my big hui и оно соотв. матчится с тегами пикч на которых обучаем?
Есть ли какой нибудь софт для управления датасетами? Что бы можно было хранить изображния, тегировать, искать, делать выгрузку данных. Не поднимать же для этого локальный сервер booru.
И я снова обращаюсь к вам за помощью. Как вот ето вот фиксить то? Вроде бы спрашивал уже, относительно недавно, сказали подтянуть файлы подгрузки и что-то там с процессором сделать - если честно, без понятия как что-либо из этого делать на коллабе. Вот такое происходит при попытке смены моделей или вае. Если что у меня почти все модели загружены ярлыками с других дисков из-за маленькой вместительности оных. Раньше такого не было, началось месяца два назад?... Причем, сначала случалось 50/50, а сейчас прямым блоком не дает ничего сделать. С других устройств/айпи/дисков та же проблема. Буду крайне благодарен за помощь, а то от фреклмикса уже тошнить начинает.
>>156914 Бля я щас подумал. Это может быть от расширений? У меня стоит контролнет, экстернал нетворкс, вилдкарды, и еще что-то, что изначально в этом коллабе было. Потому что началась вся хуйня подозрительно одновременно с тем ,как я поставил контролнет и экстернал нетворки.
>>157023 Да, в коллабе, https://colab.research.google.com/github/ddPn08/automatic1111-colab/blob/main/automatic1111.ipynb Если есть ссылка на другой, более живой и с поддержкой диска и экстеншонов - буду благодарен Да, просто генерирую, точнее генерация происходит прекрасно, но вот при попытке сменить модель на другую все умирает к черту. Лога там больше и нет толком, выше сообщения об ошибке только строчка о том, что загружаются веса модели.
>>157033 Так апдейт. Я поставил медврам и попробовал загрузить модель не-ярлык - ОХУЕТЬ СРАБОТАЛО. Собственно, я думаю, что вряд-ли дело в самом медвраме. Тут как я понимаю с видеопамятью вообще никакой связи. Скорее всего виноваты ярлыки, и это очень удручает. Теперь нельзя иметь централизованный диск хранилище моделек, а придется дрочить десять дисков одновременно.
>>157066 Хз если честно насчет колабов. После генерации картинки вылет, может попробуешь вае перекачать/поменять, ну или для начала хотя бы без отдельного попробовать сгенерить?
Как впасть в депрессию и отчание: 3 часа теггировать датасет и потом понять что у тебя проебалось и поехало всё из-за того что поехали имена файлов из-за разных форматов. Сука.
>>157023 Да этот пример говно какое-то. Везде пишут и по идее, что регулярки должны быть сгенерены с близким к твоим пикчам промптом/классом, например a photo of dick и мой концепт будет N_mybighui с .txt тегами к пикчам с этим классом и остальными тегами. В этом примере же вообще в тегах нет триггер ворда, раз есть .txt значит из названия папки класс не берётся, а регулярки с этим классом проименованы. Каво нахуй. Или я что-то не понимаю, или в гайдах все пиздят не приводя примера датасета, или что вообще. Если я не еблан, то не удивительно, что у всех с ними хуже получается тупо потому что пример неправильный.
Как несколько разрешений повлияет на качество обучения лоры? Что если я в основном обучаю на 1024, но определённый концепт буду тренеровать на меньшем?
>>157651 Если по количеству примерно количество пикч разных разрешений одинаково, стоит ли ставить количество повторений делать разное для них, делая акцент на больших, или похуй
>>157616 >>157651 >>157679 >>157708 Если у вас часть пикч меньше разрешения обучения (дефолтные 512x512), то не надо нахуй так делать. Если больше то уже вопрос кропа/бакетов, один хуй всё отресайзится под разрешение обучения
>>157021 medvram у меня давал замедление на 50% при генерации. 16 картинок 512х512 на euler_a. Только с иксформерсами - почти минуту (56 - 59 секунд). Иксформерсы + medvram - полторы минуты (1:28 - 1:31). Как на разрешение влияет не тестировал. lowwram тоже не тестировал.
>>157900 3090/4090-царь шоле Не пробовал пихать вы высокое разрешение обучения пикчи меньшего, но логика подсказывает что так лучше не делать. На крайняк если пикчи не совсем шакалы лютые руками их апскейлить до 1024x1024+
>>157937 3060 среднеанон, спасибо, попробую апскейлить, ещё не пробовал запускать с меньшим размером, может вообще пукнет ошибкой что ниже определёного разрешения не буду кушать и тогда точно апскейл, или выбросить и забить
>>155386 (OP) Технари, поясните за выбор ГПУ. Там нужно на ещё что-то обращать внимание при выборе помимо VRAM? Типа тензорные ядра там или что-то такое?
>>157986 >Но типа там же 3060 к примеру от разных издателей есть Похуй. >Вот и спросил на что ещё внимание обращать. На шину памяти. Больше - лучше, при прочих равных.
>>158031 Там же обратная совмесьимость, как у usb например, зря читаешь, лол. Если не хочешь идти на авито или разоряться на 40 серию, то у тебя 3060 единственный вар по сути.
>>158072 Пути неверно указал, судя по всему. Должны быть прописаны к папке, в которой уже лежат остальные папки, у которых шаблон названия ЧИСЛО_ИмяКонцепта
Ребзя, подскажите че делать с такой ошибкой? Больше месяца назад тренил лоры с помощью Kohya's GUI по конфиг файлу от Aitrepreneur, а теперь такая хрень. Все что поменялось это Kohya's GUI и дрова обновлял. Как фиксить или придется тупо менять настройки? Если кто пользуется Kohya's GUI поделитесь своими конфигами плз.
Кто в курсе, как в фотошопе избавиться от плавного градиента, при выделении объекта? Нужна жесткая граница, без полутонов при закрашивание. Чтоб потом latent couple скинуть маску.
>>158176 Размытие выделение в верхней строке есть. Но оно там вообще небольшое, порядка полупиксела по умолчанию вроде. Можно еще когда маску сделаешь "Порогом" пройтись или "Постеризацией". Зашарпит так, что порежешься =)
Как та штука называлась, которая позволяла более гибко для LatentCouple зоны забивать? Не прямоугольниками этими дурацкими, а "пятнами", как нарисуешь.
>>157986 >>157991 Тебя чел немножко наебал, выбирай серию карт по производительности и +- цене, а потом селись в хардваче на пару дней, там тебе за большинство вендоров пояснят.
Алсо из неочевидного: 3060 медленнее для сд чем 2060с.
>>158653 Дримбут позволяет большее разнообразие во внешности и ракурсах сделать, поэтому варианты могут варьироваться от не очень до суперпохожих, но натуральных. Как человек один на фотках выглядит разно, но в то же время это один человек. Лора высирает "пластиковое лицо", которое легко можно получить элементарным фейс свапом неудачной внешки после того же дримбута. Единственный минус - размер, но не похуй ли.
Какой апскейлер юзать для изображений на которых хочу тренить, но не подходят по размеру, там чистое аниме, valar или resergan anime ? Или вообще что то другое?
Аноны, кто нибудь пробовал DAdaptation юзать? Попалось в этом гайде https://rentry.org/59xed3#dadaptation , пробовал оттуда параметры, результаты пока непонятные.
Я вот думаю, можно ли как-то сделать так, чтобы выделенное в промпте по нажатию кнопки обрамлялось скобками и добавлялся вес? мастерипись -> (мастерпись:1.5)
>>159218 да. вот пик1 с клипскип2, не лучше. конкретно эту лору тренил на первом клипскипе, до этого тренил на втором - ломает так-жепик2. мб из-за ебнутого дефолтного лёрнинг рейта в кохуягуи(юзаю впервый раз) 5e-5, хотя вчера пытался на нормальном скрипте тренить с 1e-3, на котором нормально тренил все свои анимэ лоры пик3 вообще хз куда двигаться, в последний раз такие артефакты видел когда несовместимые модели смешивал, которые были разных эпох с разными клипскипами
>>158667 > Лора высирает "пластиковое лицо" Хач, ты заебал. Не умеешь делать - не пизди, иди пиши свои ролики по пятихатке и трень гиперсетки, ведь большее ты не осилил.
>>159245 Newtork Dim 32/64. Alpha в два раза меньше. Можно всё 128/128 поставить, нихуя страшного не случится. По дуфолту у него 8/1, для фото не подходит, может только для анимеговна. Остальное всё по умолчанию - косинус, лёрнинг рейт вот это всё нихуя не трогай, всё как есть у Кохуи оставляешь и бьёшься в кайфе. И да, у тебя очевидный пережёг, попробуй для начала в два раза уменьшить количество проходов.
>>159375 Спасибо за совет, завтра попробую. Но я чутка напиздел - у меня не дефолт настройки были, а оптимизированный json от какого-то додика с ютуба для карточек на 6гигов vram. В итоге я накрутил до такого https://pastebin.com/msFxqgdP В основном всё совпадает, кроме network_dim": 128, но эта шляпа, как я понял, тупо на вес лоры влияет, так что похуй, больше - не меньше. По пережегу возможно, но бле, 1600 степов на 16 картинок и так по базе самый минимум, впервые тренил лоры всего за полчаса, да и при генерации на малых весах лоры лицо сильно не морфит, как надо короче, ебало не ломается.
>>157935 Возможно. Но я наконец разобрался в проблеме - оказывается, какого-то хуя при подгрузке моделей с ярлыков с гугл диска требуется НАМНОГО больше оперативки, чем при подгрузке напрямую с подключенного диска. Вот хуй знает почему. И в итоге просто крашается из-за недостатка оперативной памяти. К сожалению придется ебаться с моими шестью гугл акками по-отдельности, или собрать пару моделей, которые использую больше всего, на один из дисков. Мейби пробовать загружать напрямую в память колаба, но это ебля ужасная с моей скоростью загрузки.
>>159408 100 проходов на картинку это много, можно уменьшить в два-три раза. А лучше смотри, что там в тензорборде. Кнопочка внизу гуя запускает и открывает окошко в браузере. Ищи момент где шло вниз, до подъёма, Примерно в этом районе твоя цель.
>>159495 У тебя что за видяха? В конфиге Gradient checkpointing и Memory efficient attention можно вырубить, а батч сайз увеличить. Если это не какой-то спец конфиг под мало ВРАМ у тебя.
>>159623 >пробуй D128/A64 Этот гуи >>159572 не даёт выбирать dim, а ровняет его к альфе или это я слепой и не нашел крутилку Dim - это вот это? Треню на sd1.5, f генерю на shittrinberrysamf222.safetensors[ffd1dc3d30] Просто по тому, что фотки лучше обучались на SD, но сама сд генерировает говняно как на пик2, а около аниме делают немного лучше. Успел попробовать 1e-3 и 4e-4 - на 400степах выдаёт ультраговно. >пробуй D128/A64 Пик 3. По-моему в сравнении с d128\a128 >>159495 стало хуже
>>159698 Да, оно. Проставь цифрами, может глюк какой, при старте посмотри параметры в консоли, что точно применилось. И попробуй тренировать на той же модели. Ну или генерить, на какой тренировал. (хотя SD1.5 уже пора на покой, мне кажется).
>>159741 В теории офк возможно, на практике как это тегать и поймет ли это модель? Попробовать в любом случае стоит, датасет собери. Если клип часть слабее обучать или при использовании подурезать то может даже сработает простая стилизация.
>>159746 SD это база. Да и хотелось повторить удачную дримбут модель, которая была на сд и впоследствии смерджена с моделью на которой генерирую. Ну а так обучать надо на 2.1 модели и 728 пикселях минимум, только вот гигов не хватит
>>159685 Хера ты бахнул, сначала скрипт запускается в гайде, потом собирается датасет. Одну немаловажную вещь забыл, необходимо много системной памяти, будть то рам или своп, тут были такие, кто не мог запустить тренировку и получали разные ошибки. Кстати, там же можно вроде как то только основные теги сохранять, без меты всякой типо абсурдрез или худождикнейм, во время сбора датасета, знаешь как это делать? Понятно, что можно потом теггером потереть, но это куда дольше. Имхо, аскотест слабо затронул, датасет там где то валяется в гайде, но абсолютно не привлекает внимания, сделал бы шафл токенс 0 и сид какой нибудь там 1337228, с финальным результатом, чтобы кому надо повторил и проверил правильность работы тренировки. Еще кстати мало альфу затронул, прошлый гайд хорош, но постепенно уже устаревает, в этом стоило бы именно затронуть тему с 0.4.0 и этой ебучей альфой, в прошлый раз ты какой-то дженерик стиль хуй отличимый тренил, но на большой альфе бледность лиц художника стала больше заметна, попробовать бы с узнаваемым, попозже займусь и покажу результаты, если хочешь. Как раз хотел углубиться в параметры, и отличия версий почитать, имея уже небольшой опыт в этом, но пока дела появились. А так хорош че, спасибо, лисю твою тебе в наи запощу за труды, полюбуйся хоть зайди.
>>158288 Да, сам допер. Сначала небольшой экстенд выделения, по необходимости, потом в режим маски и применить постеризацию минимальную. Такая маска без лишних зон воспринимается расширением и с фоном охуенно взаимодействует. Есть встроенный приоритет по цветам B - G - R, стоит учитывать, когда от прямоугольников к маске переходишь, чтоб промты не переделывать.
Представление: компудыхтер рисует красивое по одной фразе Реальность: сырые костыли, десятки ползунков и необходимость держать в голове характеристики моделей.
Моё ебало, когда поставил Network Alpha = 1 >>159887 У меня сейчас задача избавиться от вермишели. хуйдожники на неё не влияют, а раз уж начал тестить с одним промтом и сидом - нет смысла менять. Увидел бы ты насколько хуёвый датасет я собрал...
>>159867 > сначала скрипт запускается в гайде Ага, сразу в бой. В начале же ссыль на готовый датасет есть, офк он не супероптимален, но в целом работает. Плюс это позволяет избежать всех ошибок из-за косячного датасета и на раннем этапе отследить что что-то не работает в самом скрипте без лишних выяснений. > необходимо много системной памяти, будть то рам или своп Во, дело говоришь, офк там в коде ошибки пишется о том что нужно увеличить пейджфайл, но хлебушек может не разобраться, добавлю > Кстати, там же можно вроде как то только основные теги сохранять, без меты всякой типо абсурдрез или худождикнейм, во время сбора датасета, знаешь как это делать? Даже не интересовался, написал простой питон чтобы лишнее удалял в один клик, ну и пройтись самому пара минут. Если способ опишешь - буду благодарен > датасет там где то валяется в гайде В самом начале капсоболдом, но стоит продублировать, да > сделал бы шафл токенс 0 и сид какой нибудь там 1337228 Они же потом так и будут тренировать с такими настройками, шафл всеже лучше. С точки зрения воспроизводимости - абсолютно верно, вот только реально ли вообще, ведь еще как минимум xformers может насрать. Попробую потестить, если будет получаться воспроизведение - можно добавить. > Еще кстати мало альфу затронул Базовое дано, мнения упомянуты, можно еще выделить синеньким. Для большего надо кучу примеров, свалку гридов лучше потом в конце или отдельным, они так-то есть. Если конкретно по тексту и формулировкам предложения есть - велкам > прошлый гайд хорош, но постепенно уже устаревает Не не, к нему есть 3 серьезные претензии: - неоче структура, про которую уже кучу тредов пишут и хотят исправить и дримбус через ватоматика, и лора через скрипт, в начале зачем-то втирается про патч модели(!) , и один датасет, и тут же к нему другой с какой-то странной структурой, в одном надо кропать и чето писать, в другом не надо но давать ИМЕНА КОНЦЕПТАМ и это все описано рядом подряд. Сам запуск тоже с отсылками в другую часть на незаметные ссылки, а про многие очевидные проблемы упомянуто вообще в конце - гриды, в них нихуя не понятно, тянки и какие-то заросли в разных концептуальных стилях, толи там плохой результат, толи автор наоборот этого добивался - нет предложения настроек тренировки а значения в гридах не менялись с версии 0.3.х Так то когда разобрался он уже выглядит неплохим, и его неоспоримая заслуга что он есть (ссылку на него алсо добавлю, таки многое разжевано полезно), но при прочтении в первый раз даже с неким багажом знаний по нему что-то сделать невозможно без помощи со стороны. > попозже займусь и покажу результаты, если хочешь Хочу, самому же интересно, это все пишу не потому что дохуя знаток а потому что никто не делает > и отличия версий почитать Там новый оптимайзер помимо адама добавили, говорят оче годный но надо тестировать, а так много оптимизаций, быстрее работает, лоры на выходе +- такие же
>>159926 Если причёска не описана и при этом разная на фотках - с волосами может быть любой хтонический пиздец. Сетка смотрит на все причёски персонажа сразу и прикидывает что это и как это запомнить. Если цвет не меняется и не собираешься менять - можно не писать, но длинные/короткие/собраны/растрёпаны - лучше добавить в тег, потом всегда сможешь вызвать нужную причёску.
>>159936 В текстах лично хуйню всякую прописал типо никнейм, 1girl, smiling и т.д. >>159945 Макароны в волосах и на фоне как тут >>159577 >>159949 Пиздос
>>159954 >лично хуйню всякую прописал А прогнал бы через таггер, хоть в СД гуя автоматика, хоть кохуя_гуи и был счастлив. Тем более у тебя датасет небольшой.
>>159959 Возможно. Но не того, который в промте. >>159969 Так таггеры эти бред генерируют. Мне быстрее было самому прописать, чем фильтровать. Тем более, что в датасете картинки почти все одинаковые и можно вообще без тегов обойтись.
>>159926 Ты на 0.5.0 кохье тренить пытаешься? Интересно получится если да и он опять все поломал и надо заного искать удачные параметры
>>159944 > Даже не интересовался, написал простой питон чтобы лишнее удалял в один клик, ну и пройтись самому пара минут. Если способ опишешь - буду благодарен Как буду собирать на какого то художника постараюсь разобраться как раз
> Они же потом так и будут тренировать с такими настройками, шафл всеже лучше. С точки зрения воспроизводимости - абсолютно верно, вот только реально ли вообще, ведь еще как минимум xformers может насрать. Попробую потестить, если будет получаться воспроизведение - можно добавить. Я не говорю что это надо использовать постоянно, именно ради воспроизведения, на уровне отличия иксформеров может воспроизвести, чекай прошлый с постом на кокоро, я там расписывал как делал
> Хочу, самому же интересно, это все пишу не потому что дохуя знаток а потому что никто не делает Надо со стилем определиться, вот там повыше вроде интересный, только сомневаюсь что его можно так просто с бору собрать, да и по примерам трудновато такое будет натренить, много слишком лишнего как по мне
> Там новый оптимайзер помимо адама добавили, говорят оче годный но надо тестировать, а так много оптимизаций, быстрее работает, лоры на выходе +- такие же А с 0.5.0 кохьей в итоге как там?
>>159998 >Ты на 0.5.0 кохье тренить Хз на какой, но буквально сегодня гуи поставил >он опять все поломал Тут скорее я еблан >>160000 у самурая нет цели только путь
>>159998 > А с 0.5.0 кохьей в итоге как там? Хз, я перед обновлениями опенсорца обычно жду пару дней и смотрю багрепорты. Посмотрел и решил не спешить, тем более сам автор о крупных изменениях говорит. > Надо со стилем определиться, вот там повыше вроде интересный Ты про Мадоку? Он ахуенен да, но сложно с тегами. Хотя по тем трем пикчам >>159849 может и ничего, с этим наверно и wd справится >>159998 > чекай прошлый с постом на кокоро, я там расписывал как делал вут?
>>159959 Бля, походу реально хуйдожник-пидарас в промт затесался и говном своим подсирал. Ну хоть тред чутка повайпал, а то тухловато тут было Хотя без него фулл боди генерировать лучше не стало
>>160013 > вут? Повторяемость есть у лорок с одним сидом и офф шафлом, на уровне иксформеров, хеш другой, можешь конечно и сам проверить, может это случайность >>153899 →
>>160005 > Хз на какой, но буквально сегодня гуи поставил В папке с сд-скриптс консоль открой и пропиши git log там дату покажет, заодно и хеш коммита. Все таки лора норм получилась, я так понимаю
>>160046 Как сгенерирую мегагрид с десятью надюпанными лорами - посмотрю >Все таки лора норм получилась Как минимум надо ещё попердолиться в диапазоне 1е-5 - 8е-5 Text Encoder learning rateов и заменить главный токен с никнейма этой чиксы на менее узнаваемый, так как из-за имени генерирует гоблинов с анимэ глазищами
>>159685 > Есть мнение что долгие обучения на низких лр позволяют получить наилучший результат а подобный подход хуев - пруфов этого мы так и не увидели, есть лишь обратное, однако ты, анон, можешь взять и сам сравнить. Пару дней назад проводил эксперимент на эту тему. Для одного и того же датасета сделал две модели с разными параметрами - в v8 lr уменьшен в 10 раз, а число повторов по всем концептам наоборот увеличено в 10 раз, сравнительно с v7. Одна модель обучалась два часа, другая 20 часов.
Я лично для себя не заметил какой-либо значительной разницы между ними. Надо переходить на нормальный нейминг файлов моделей, а то я сам скоро забуду, чем они отличаются.
>>160046 Хз чо эти буковки тебе дадут. Но все эти говнолоры я делал через гуи пик1 после того, как у меня с первой попытки получилось ультроговно на сдскриптс пик2
>>160135 Ух, а вот у тебя случай сложный, полагаю много чего намешано. С Шимкой попробуй прогнать, получается также или что-то иначе? Для тестов хотябы.
Так еще суть в чем, окрестность в которой проходит обучения может быть довольно таки широкой, а большой батч сайз смягчает поломку на долгом обучении. Вот тебе большой грид с 5e-4, результаты для лр в 10 раз больше в гайде есть. Тут по сути после 10й эпохи ничего уже не меняется в этих пикчах, хотя орижинал костюмы достигнуть не успело, а если сравнивать их в других промтах то проблемы сразу вылезают, особенно с фоном и штамповкой одинаковых пикч, косящих под датасет. Для BS=2 хорошо видно как ломается >>156297 Есть и с меньшим лр, там суть вся та же только похожесть меньше, эту хоть вполне можно отнести к положительному результату. Тут аргументов против долгого медленного обучения дохуя привести могу но таки стоит больше потестить и может найдется нюанс, который все объясняет. Попробуй развернуть грид по эпохам, все станет на свои места. > Одна модель обучалась два часа, другая 20 часов. Ахууууеть, завидую твоей целеустремленности, я с 25 минут обучения на батчсайз 2 горел
>>160135 >Надо переходить на нормальный нейминг файлов моделей, а то я сам скоро забуду, чем они отличаются. Последние скрипты и гуй пишут параметры обучения в метаданные лоры, можно через Additional Networks их из автоматика смотреть.
Произошел троллинг от гуи. Все лоры обучались без подхватывания .txt файлов судя по графикам. В последнюю лору токены подсосались, но при вызове главного кастомного токена на персонажа "polumna" - генерирует собак. Но генерирует персонажа при токене "luna lovegood", который был в первой версии .txt файлов и больше нигде. Как чинить?
>>160144 Версия все таки важна, это же опенсорс экспириенс, когда может выйти новая версия и поделить все на ноль. Все таки не 0.5.01, а разве этот гуй не очередная обертка для сд-скриптс, только веб версия? Не пользовался им
>>160480 >Почему просто уникальный токен не вписать в начало и не шафлить его? Хз чо такое шалфить, но вроде так и делаю. >удачный дримбут, то можно вроде из него просто лору извлечь, Да, пробовал. Двумя инструментами через тот-же гуи для тренировки лор и через экстеншон для автоматика supermerger чото там и с двух версий дримбута - чистую и смердженную с красивой моделькой. Во всех случаях, очевидно, получилось говно т.к. удачную дримбут модель я обучал так-же как и все эти лоры. Я ещё, как еблан, все гриды генерил с хайрезфиксом, которым даже не пользуюсь. Вот ещё в последнем гриде словил пикчу, которая отдалённо напоминает пикчи с микса дримбут и модели на которой это сгенерировалось
Прикольно, что в GUI можно online отслеживать обучение LORA. Только вот если бы была кнопка с остановкой этого обучения в нужный момент - было бы ещё прикольнее.
аноны вы же программисты. я сейчас лежал думал над чатом гпт. там есть fine tuning модели на основе массива { вопрос, ответ }, но он занимает около двух часов там написано. файн тюнинг это другая тема, которая не юзает лимит токенов. т.е. получается у нейронки есть два вида памяти - веса нейронки, которые меняются только после файн тюнинга, т.е. это долгосрочная память + токены, которые являются краткосрочной памятью. если мы будем файн тюнить нейронку после каждого сообщения, то у неё не будет лимита по токенам получается и она будет помнить всё? и типа во внутренних серваках опенаи уже работают с нейронкой с долгосрочной памятью получается? т.е. у них уже гига машина есть по типу вики из я, робота?
>>160824 Очевидно, при тренировке на диалоге "Анон, нам негде жить" "Хуёво, давай купим дом" бот на вопросы "Где мы живём" Начнёт отвечать в духе "Хуёво, давай купим дом", а не то что ты хотел. /question
>>160536 > Хз чо такое шалфить, но вроде так и делаю. $shuffle_caption = 1 в конфиге, перемешивает каждое повторение теги на пикче, чтобы оно по старшинству не запоминались Тестовые гриды делать с хайрезом долго слишком, и почему кстати так мало денойза, даже несмотря на пиксельный апскейлер? Такие значения уже приходится ставить только если несколько контролнетов + несколько лор + много разделений тушотом
>>159944 > питон Ты питонист опытный вообще? Хочу прежде чем начну копаться в нововведениях и сравнениях альфы для стиля допилить хгуй для лоры, который не браузерный, добавив в него старт тензорборда галочку и выбор оптимайзера. Оптимайзер наверное просто будет, я хз. А вот старт тензорбоарда наверное потребует дополнительного процесса с командой для консоли и проверки на дурака, если в очереди будет стоять несколько лор, чтобы не запускался каждый раз тензорбоард. Что там еще из нового, только оптимайзер же? Тебе наверное эту херню 5 минут написать и собрать, поможешь?
>>160861 question/ Почему это неправильный ответ? Просто закрепится инфа, что дома нет, и смежные ответы будут с этим контекстом генерироваться. В нейронке же не прямо хардкодится вопрос ответ, а подбираются веса, которые наиболее близки ко всем тренировочным данным, т.е. ко всему диалогу, т.е. он просто будет помнить весь диалог любой длины, т.е. нейронки уже как человеки, и единственное, что останавливает от выката их в массы - ответ раз в два часа. Можно даже оптимизировать и типа когда лимит токенов заканчивается, то попросить нейронку сделать саммари из диалога, описать самое важное событие тремя словами, а потом уже этим событием тренировать.
Хотя я понял, что это уже везде и юзается, как, например, в чарактер.аи. Там же чем больше диалогов у бота, тем он умнее. Просто разрабы выбрали вариант не тренировать на raw диалогах, потому что тогда нейронка будет знать конфиденциальные данные на всех. Они юзают только лайки и дизлайки, чтобы тренить только характер самой нейронки, т.е. половину от возможного функционала. А в реальности на локальных серверах эта нейронка знает всё про всех.
>>161884 >Просто закрепится инфа, что дома нет Ага, после того, как его купили. Так что... >т.е. он просто будет помнить весь диалог любой длины Хуй там плавал. >чарактер.аи. Там же чем больше диалогов у бота, тем он умнее Ебать ты верующий в маркетинговые заявления. /question да когда же он закроется?
>>160536 там Хруст выпустил видево по Лоре, попробуй, может у тебя получится по его напутствию сделать. У меня получилась какаха. Ща буду пробовать по своим канонам делать, посмотрим, кто из нас двоих просветленней.
>>162296 Если хочешь писюнами меряться - вот все мои лоры. Почти все сделаны с первой попытки и на стандартных настройках. >там Хруст Загуглил этого, промотал всю воду и отступления и в итоге, по параметрам, ничего нового он не привнёс. Тупо гайд по лоре в видео формате
Кто-нибудь разобрался, чем отличаются обычные лоры от всяких Locon, Loha и Lycoris (или как их там)?
И можно ли их как-то между фораматами конвертировать? Пусть даже без сохранения каких-то особых фичей (если они там вообще есть). Хочу несколько лор разных типов смерджить, а гуй не дает, ругается ошибками.
>>162296 делибирейт хуйня полная, как и гайд (начал бы делать стилизованные сложные фото - вся ограниченность сразу вылезла бы). на 1.5 живых людей гораздо лучше обучать. Да и один проход я пока не смог получить пиздатый результат. Несколько дообучений с понижением рейта дает лучшую проработку (суммарно где-то 180 повторений). Хотя алгоритм даже для своего случая я пока выявить не смог. Но только несколько дней ебусь.
>>162296 > Хруст выпустил видево по Лоре Сильнее зашквариться хач не мог, рыдал в голосину с его видео, где он не указывает папку с логами и удаляет папку с семплами, крича что это разраб насрал. Мразь тренирует на РАБОЧЕМ СТОЛЕ, это просто пиздец. Путает параболу и косинус. И он ещё что-то продаёт в платных каналах? Как же низко мы пали.
>>162576 Воу-воу, просто ставь cosine и проходов на один раз, примерно сколько тебе надо почувствуй. И не надо никаких дообучений, оно само понижает ЛР и делает это плавно и красиво.
Тест влияния большого батч сайза на тренировку, заодно по совместительству проверка дохлых тензоров, коммит сд-скриптс feb 11 b32abdd327f314fabc76fbbb627218090afb7b69 дефолтные настройки для 0.3.0 кохьи: D128/A128, shuffle=1, сид залочен.
V12 - batch 1, 1e-4. Ну просто рабочий сток, что тут еще сказать. Проверил тензоры, скрин компейра слева Д128/А128, справа Д64/А32. И там и там встречаются дохлые вторые значения 0.0. Поиск по 0.0\r\n Д128/А128 count = 187, Д64/А32 = 126. Еще скрин сравнения лоры 64/32 с 16/1, там таких значений куда меньше - 15. Это значение кстати включая поиск по последнему выключенному слою те, который вообщем то и должен быть 0.0 при клипскипе 2, примерно 6 значений во всех подсчитанных ранее правильные, так что можно из них вычитать это число, посчитал сам и оно может быть неправильным. Судя по логу апдейтов кохи > Noe the script shows the mean of the absolute values of the weights, and the minimum of the absolute values of the weights. Первое число это среднее значение весов в слое(?), а второе минимальное, то есть в этом слое присутствует дохлый тензор.
V13 - batch 12, 2e-3. Как и советовали умные дядьки лр увеличен во столько же раз, во сколько и батч сайз. Результат - смэрть, лосс сразу перевалил за 0.5
V14 - batch 12, 6e-4. Половину лра от рекомендуемого умными дядьками, popierdolilo, но не полностью сожгло, никуда не годится.
V15 - batch 12, 1e-4. Вообще не измененный лр, только батч. Приемлемый результат, но по такой маленькой выборке виден недотрен по сравнению с батчем 1
И чего, и как тренить с таким батчем, ведь умные дядьки не могли соврать насчет лр, правда? Понятно дело, что при альфе 1 и 2е-3 покатит, не раз уже подтверждалось, но это увеличение связано именно с уменьшением альфы, но не увеличением батча.
>>162886 > ренж как у fp32 Нет, это динамические fp16, с ним просто fp32 местами используется, он для совместимости с TPU сделан. А для нормальных градиентов надо использовать скейлер, а не просто автокаст. Даже в документации к торчу написано не использовать автокаст для обратного прохода, но в ваших лорах зачем-то делают это. Со скейлером нет никакой разницы в качестве обучения между fp16 и fp32.
>>162904 > Нет, это динамические fp16, с ним просто fp32 местами используется Каво? В смысле нет? Ну и ты только что миксед пресижн, что как с fp16, так и с bf16 можно.
Это не ты говорил что с 8 бит адам градиенты по пизде идут?
>>160234 Выше пролистай, есть ссылка >>161696 > Ты питонист опытный вообще? Поверхностно знаю, хотя с чем сравнивать > Тебе наверное эту херню 5 минут написать и собрать, поможешь? Попробовать то можно, но я не кодер и с этим не работал, не факт что будет польза > Что там еще из нового, только оптимайзер же? >>162787 Судя по значениям у тебя там фп-16, наглядный пример преимущества бф16 получается прямо > Д128/А128 Там при 5e-4 уже страшно пережаривается и распидарашивает, в наи гриды были, могу притащить > V15 - batch 12, 1e-4. Вообще не измененный лр, только батч. Приемлемый результат, но по такой маленькой выборке виден недотрен по сравнению с батчем 1 А промежуточные между 1 и 6 значения не смотрел?
Таки почему ты так не хочешь альфу1? Наглядное сравнение оптимальной лоры на ней с оптимальной лорой на =дим можешь показать? Тема ведь интересная. В ближайшее время попробую разобрать свалку гридов с разными альфами в том числе, надо разбираться.
У const_v1 и const_v2 одинаковый сид и отключено перемешивание токенов. На эталон не тянет но по тому же сиду сравнивать можно. Сейчас почищу и добавлю.
>>163045 > ты только что миксед пресижн Так вот bf16 - это всегда он. По скорости он обычно хуже чем нормальный fp16 со скейлером. Ну и bf16 не спасёт от NaN если автокастом ебашишь. Вот из документации, но в лорах автокастом обернули вообще всё.
>>163097 > Судя по значениям у тебя там фп-16, наглядный пример преимущества бф16 получается прямо Еще какой, хорошо анон подкинул идею >>162797 Потестил еще save_precision fp32 + mixed_precision fp16, выдает тоже нормальную лору, но весит она естественно в 2 раза больше. То-есть можно будет и на старых картах использовать такие лоры, без бф16 для 3000+, только весить они будут слишком много, хз правильно ли я вообще параметры расставил, в этом гуе mixed_precision выше fp16 нету, скрипт вообще понимает такое значение параметра? > Там при 5e-4 уже страшно пережаривается и распидарашивает, в наи гриды были, могу притащить Тащи конечно, я вот понял что увеличивать лр как минимум в такое же количество раз не нужно. > А промежуточные между 1 и 6 значения не смотрел? Нет, вот эти две сделал с обычным 1е-4 и батчем в 10, они более менее нормальные, можно конечно что-то типо 3е-4 поставить наверное и будет норм. Бтв шафл включен, но все равно большинство пикч повторяется. >Таки почему ты так не хочешь альфу1? Наглядное сравнение оптимальной лоры на ней с оптимальной лорой на =дим можешь показать? Тема ведь интересная. Я пока не собрал датасет на стиль, завтра планирую как раз, отложу пока допиливание гуя. Могу лишь старый пример скинуть, но там тесты не каноничные, без залоченных сидов, с шафлом, не на одинаковых настройках >>109112 → Кстати проблему с черным канвасом я уже идентифицировал, это наи вае такое выдает периодически при генерации, хз насчет дальнейшей тренировки вместе с ним. Ну вот не улавливает низкая альфа стиль, хоть убейся, все остальное получается, форма лица, одежда, мимика, окружение, остальные аттрибуты, но стиль хуй и всё тут. Надо перетестивать короче, если уж на то пошло, можно и старый датасет раскопать, он уже отфильтрованный ведь. С низкой альфой заебись тренить просто персонажа без влияния на стиль, вот что могу сказать, просто охуенно, ничего лишнего не присасывается.
>>163607 > То-есть можно будет и на старых картах использовать такие лоры Ты только учитывай что это потребует дохуя большего объема врам, а ее в старых картах и так не густо совсем. То что весят много это вообще ерунда. > в этом гуе mixed_precision выше fp16 нету Который вебинтерфейс? лол > я вот понял что увеличивать лр как минимум в такое же количество раз не нужно. В такое же - абсолютно нет. Вот сейчас вглядываюсь и пытаюсь интерпретировать, на одном сиде прямо явно выражено что на бс2 гораздо ближе к оригиналу чем бс12 где похоже на недотрен, но смотришь на соседний - уже нихуя. Всеже если разница присутствует то для батчсайзов под 20+ гигов врам она составляет 1.5-2 раза от силы по сравнению с 1-2. Потому в примерах дефолтными и были выставлены значения 2e-3 и 3e-3, уж вероятность поломаться при больших ЛР с BF16 и BS12 у модели меньше это 100%. Будет вообще весело если тут еще зависимость от датасета подъедет, особенно на чем-то шизофазическом типа стиля мадоки > можно конечно что-то типо 3е-4 поставить наверное и будет норм 2-3 еще попробуй, всеравно обучается по 4 минуты. А, кстати, сколько там у тебя шагов? > Могу лишь старый пример скинуть ты по что, ирод, лисодевку в бабу с воротником превратил! > Ну вот не улавливает низкая альфа стиль Полагаю здесь надо определиться с тем что понимать под стилем в принципе. Надо примеров заготовить, возможно тут суть в чем-то конкретном, или важны и другие параметры. > С низкой альфой заебись тренить просто персонажа без влияния на стиль Эх если бы все так просто было, избавиться от стиля при однотипном датасете та еще боль, а иногда и нереально. > Тащи конечно Может завтра, может на днях
Гайдецкий обновил, что-то поправлено, что-то добавлено, есть теперь референсные пикчи для дефолтного сида
>>163773 > Ты только учитывай что это потребует дохуя большего объема врам, а ее в старых картах и так не густо совсем. То что весят много это вообще ерунда. А если запрунить? > Который вебинтерфейс? лол Нет, который без веба работает https://github.com/anon-1337/LoRA-train-GUI им то я и хочу заняться как со стилем разберусь наконец, а после начинать разбираться как правильно пилить эти новомодние лоры, пока почитал, нихуя не понятно но очень интересно, лоха и локон это типо теперь просто ликорис, они походу дополнительным слоем ложаться на основную лору, или вообще можно отключать основную и не тренить, там еще rank!=dim, вроде может быть больше или меньше, вроде лоха больше подходит для стилей, что-то такое тоже читал, короче еще разбираться надо. > Будет вообще весело если тут еще зависимость от датасета подъедет, особенно на чем-то шизофазическом типа стиля мадоки Всмысле подъедет? Датасет это же база, дерьмо вошло дерьмо вышло > 2-3 еще попробуй, всеравно обучается по 4 минуты. А, кстати, сколько там у тебя шагов? Вот попробовал 3е-4 с теми же параметрами и 1е-3 с альфой 1 и дим 32. Первая лучше всего овералл получилоась по этой выборке, имхо. Всего навсего 240 х 10 батч, не меняется ничего уже с 200, судя по гридам, которые я делал с этим датасетом. > Полагаю здесь надо определиться с тем что понимать под стилем в принципе. Надо примеров заготовить, возможно тут суть в чем-то конкретном, или важны и другие параметры. Ну я хз как объяснить, на примере этого художника, вот эта характерная мазня, передается с датасетом лучше на большой альфе, на низкой с повышенным лр тоже может, но похуже, зато тени вроде получше, короче надо тренить нормально с лок сидом, как и с кокоро, чтобы видеть точные отличия > Гайдецкий обновил, что-то поправлено, что-то добавлено, есть теперь референсные пикчи для дефолтного сида Про системную память не упомянул опять? Кстати хорошо было бы чек тензоров добавить в него.
>>163773 Как тебе кстати такое Илон Маск? Удалось распердолить до двухминутного финиша. Вообще просто рофла ради, потому что там жалуется на тритон. Либ bitsandbytes под последний торч с кудой на винде тоже нету, интересно насколько быстро это тренится на линуксе, я просто смотрю для него либы как раз имеются, а с тритоном вообще хз на самом деле, может он в них лежит? Ошибки начало сыпать после перестановки версий просто.
>>164503 1. Caption работает, то что Лора иногда запоминает протеганные моменты - да, есть такое, может кто-то знает как бороться. 2. Learning/Epoch - у него дефолтный лёрнинг (это не плохо, это база) с линейным шедуллером, в итоге получится что одна эпоха и сто проходов, что десять эпох по десять проходов - финальный результат не изменится. И он не правильно говорил про Learning rate и Unet learning rate - первый можно ставить что угодно, для лоры важен Unet, если уж совсем доебаться. Про батч сайз он втирал какую-то совсем не логичную дичь. В общем лучше читай гайд по лоре от анона, там больше пользы в разы. https://rentry.org/2chAI_easy_LORA_guide
киньте гайд для обучения произвольным концептам, если есть
а то что-то мне подсказывает, что научить нейронку рисовать очередное маняме, отличающееся от другого маняме цветом трусов, намного легче, чем обучить нейронку совершенно новому объекту
>>164813 >а то что-то мне подсказывает, что научить нейронку рисовать очередное маняме, отличающееся от другого маняме цветом трусов, намного легче, чем обучить нейронку совершенно новому объекту "Что-то" подсказывает тебе неправильно. Тэгаешь как обычно, ИИ находит похожее в картинках по тэгам, на этом обучается.
>>165096 Разницы нет между 10 повторениями в 10 эпох и 2 повторениями в 50 эпохах, в одну эпоху лучше не тренить. Хотя на 20 пикчах и если там датасет пиздецовый то эффект рандома может вообще оказаться определяющим
Очердное исследование влияния альфы на тренировку стиля, один и тот же сид, шафл включен Начать надо с того, что художник настолько охуенный, что я прямо снимаю шляпу, выдержанный общий стиль всех картинок, я такой низкий лосс на стиль впервые встречаю, у аниметяночек и то порой побольше, его даже в камепанотест на стиль можно добавлять, лол. Первые попытки что то сделать с прошлыми настройками на кокоро, пик1, 3е-4, бс11, (40х5х12)/11 шагов не дали нужного результата, свитспотом даже и не пахнет и я увеличил количество эпох с 12 до 15 и повторений в два раза с 5 до 10 Получил второй грид, свитспот прекрасно видно, я его даже пометил. Вообщем то это всё, что можно сказать насчет альфы 128, just works. А вот приключения с альфой 1 только начинаются, 3e-3 не дал никакого результата, пошел смотреть график, пик4, и пытаться достигнуть такого же лосса как и с альфой 128, в итоге такой лосс был получен только на 7е-3, свитспот скорее всего где то в помеченной области, пик3, тут уже нету такого резкого видного перехода как при альфе 128. И да, 1е-2 уже смерть. Ну хорошо, в некст посте будет более подробный грид.
Промпт элементарный, мастерпися, (1герл, ковбой шот:1.2), тег лоры, вилдкард бекграунда Какая лора лучше редактируется я не могу точно сказать, они обе легко меняют бекграунд. Так же не могу сказать что какая-то из них не передает стиль. Но 7е-3 и альфа 1 получилась какой-то более темной чтоли, как будто тени там абсолютно другие, вообщем мне она меньше нравится, но охуеть в такой лр целиться при тренировке стиля, по мне так легче просто поставить большую альфу и бф16, ведь тогда тензоры не сломаются.
>>159944 > Если способ опишешь - буду благодарен Короче, пока собирал, разобрался с этим, это точно ускорит сборку датасета с бур. Помнишь скрин из старого гайда? https://i.imgur.com/VH5HOcQ.png так вот all надо заменить на general
>>166123 Как ты в тензорборде сделал названия графиков названиями лор? Или переименовывал уже руками после дела? Меня это жутко напрягает, сразу не переименуешь, вся папка с логами лочится , потом уже забываешь где что было.
>>166408 Они же по дефолту идут по названиям лор, разве нет? Ничего не переименовывал, просто один раз тензорбоард запустил и называл лоры по разному через гуй анона1337
>>166437 Надо попробовать тот гуй, правда смотрю он два месяца не обновлялся. У меня кохуя_гуй, вот такая беда там, думал может есть какая настройка отдельная, логам давать названия лор.
>>166474 На такой случай тот пропавший анон сделал план б, в гуе есть строка для задания произвольных параметров, ведь все что из себя этот гуй представляет это просто набор этих параметров к скрипту, можешь пока вручную дописывать новые. Я как раз собираюсь заняться его допиливанием, уж пару параметров то я надеюсь смогу осилить. Если смогу надо будет пр тому анону кинуть, может оживет.
ЧЗХ C каких пор запятая считается как токен, а не разделитель? автоматик совсем ебанулся? Почему никто не говорит, что запятые теперь только подсирают? как чинить? Не могу повторить картинку месячной давности из-за пик4
>>163943 > А если запрунить? Так оно всеравно в 2 раза больше потребует чем фп16, офк надо тестировать > Всмысле подъедет? Датасет это же база, дерьмо вошло дерьмо вышло Имею ввиду что если там уж пиздец какие разноплановые и странные пикчи то подгонка по одной и при рассмотрении группы может дать разный результат и явить то что в нормальных датасетах не проявляется > вот эта характерная мазня Тут бы примеры какие с описанием > надо тренить нормально с лок сидом А толку с этого если в итоге пойдет по другому пути? Если же ты хочешь чтобы гриды похожие получались - через промт вызывай, оно иначе применяется и пикчи с одним сидом генерации с разными лорами довольно таки похожи > Про системную память не упомянул опять? В начале желтеньким чтобы своп выделяли есть >>164258 Хуясе, этоже на минуту быстрее, вот это интересно. Раз ошибки лезут значит что-то есть, оно может просто быть подсосано настолько костыльно что лучше не вскрывать это тему трогать >>165755 О, топчик >>166127 > (1герл, ковбой шот:1.2) Вообще стоит попробовать сравнение с более подробным промтом, ведь при обучении оно натягивает клип по всем тегам которые есть, соответственно %платье_нейм% будет иметь также черты. Но может там достаточно только возмущений юнета, надо тестить. Если сравнивать гриды то на второй виднеются признаки поломанной/чуть перетрененой лоры с альфа=дим - глаза и лица уплывают, появляется характерное двоение - глоу. Но если это приближает к желаемому - почему бы и нет. Тестирование сменой фонов это базовое, но не достаточное, попробуй разные ракурсы, масштабы от клозап на лицо до оче далеко и т.д., позиции персонажа (фром бихайнд и т.п.), если везде срабатывает значит все прекрасно. > бф16 А его, пожалуй, и нужно всегда выставлять, поводом выбрать фп16 может стать только старая видюха > так вот all надо заменить на general Найс, красава >>167983 А какая разница? Нужно наиболее подробное и правильное описание как всего арта, так и той вещи, которую ты хочешь тренить, причем чем больше тегов относятся именно к ней тем лучше. Например, хочешь сделать меч - к нему должны идти типа "холдинг ин хенд", "флаинг" и т.д. А по датасету желательно чтобы было наибольшее разнообразие и совпадение только в том что тренишь. Если у тебя автор рисует одного персонажа или действие происходит только с ним - как ни тегируй, всеравно он будет пытаться вылезти, также как и персонаж в одном стиле будет его воспроизводить (каноничная сенколора хороший пример).
>>168103 > Так оно всеравно в 2 раза больше потребует чем фп16, офк надо тестировать Вот это точно лень делать, все равно ниже ампера ничего нету чтобы протестить, там же хотя бы тютюрю нужно > Имею ввиду что если там уж пиздец какие разноплановые и странные пикчи то подгонка по одной и при рассмотрении группы может дать разный результат и явить то что в нормальных датасетах не проявляется Ты про гриды после тренировки? Все равно не понимаю > Тут бы примеры какие с описанием > А толку с этого если в итоге пойдет по другому пути? Если же ты хочешь чтобы гриды похожие получались - через промт вызывай, оно иначе применяется и пикчи с одним сидом генерации с разными лорами довольно таки похожи Как раз уже закончил тренить стиль, все наглядно вроде расписал выше > Если сравнивать гриды то на второй виднеются признаки поломанной/чуть перетрененой лоры с альфа=дим - глаза и лица уплывают, появляется характерное двоение - глоу. Но если это приближает к желаемому - почему бы и нет. На второй вообще то альфа 1 и 7е-3, мне этот результат тоже не понравился > Тестирование сменой фонов это базовое, но не достаточное, попробуй разные ракурсы, масштабы от клозап на лицо до оче далеко и т.д., позиции персонажа (фром бихайнд и т.п.), если везде срабатывает значит все прекрасно. Я уже это все попробовал, рисует просто охуенно на самом деле на лоре с 128 альфой, ну единственная проблема наверное это миксование лор, но тут уж хз что поделать, кроме как вес снижать с 1.0, ну и дальние ракурсы нуждаются в инпеинте, хотя где они не нуждаются в нем с такого расстояния то? > Хуясе, этоже на минуту быстрее, вот это интересно. Раз ошибки лезут значит что-то есть, оно может просто быть подсосано настолько костыльно что лучше не вскрывать это тему трогать Я пока еще даже не до конца прочитал лог апдейтов кохьи, вот зацепился за параметр --persistent_data_loader_workers и протестил, это он основную работу делает, между эпохами нету выгрузки-загрузки в память, пиздец, надо было сразу почитать это а не мучиться как идиот раньше. А на торч 2 похуй, и так вроде быстро, тем более там и либ каких то не хватает. Алсо сегодня узнал такую вещь, сд вае намного лучше для тренировки, литералли мое ебало когда тренирую на наи вае пик 1 вс мое ебало когда тренирую на сд вае пик 2, с руками тоже все получше, ну и грид сравнительный, лосс тоже другой, и пришлось даже перетренить на меньшем лр, потому что тренируется тупо лучше.
>>168330 > Ты про гриды после тренировки? Все равно не понимаю Шизодатасет с пикчами-тегами, которые будут сильно отличаться от того что сеть делает обычно, да еще протеган так потребует противоположных возмущений. Неудачно сложившееся обучение на одном потоке может увести в сторону и поломать, тогда как усредненные по нескольким даст более адекватные данные. Вот и получим что чтобы не ломалось на бс1 потребуется сильно снижать лр, а на бс_дохуя все будет ок, хотя по факту такой разницы быть не должно. > --persistent_data_loader_workers Ну наконец, давно просилось. Хотя надо отметить что в новых версиях сам процесс подгрузки значительно ускорили. > не до конца прочитал лог апдейтов кохьи --use_lion_optimizer пробовал? Дохуя перспективно и качественно обещают > Алсо сегодня узнал такую вещь, сд вае намного лучше для тренировки Хуясе ебать, надо попробовать
По стилям потом, надо свалку разгрести и для чистого эксперимента натренить пару чтобы сравнить объективно.
>>168330 > сд вае намного лучше для тренировки, литералли мое ебало когда тренирую на наи вае пик 1 вс мое ебало когда тренирую на сд вае пик 2 > 2023 > держать включенным что-то кроме сд вае Ебало неимаджинируемо.
>>168381 > Хуясе ебать Бля в начале прочитал ванильную сд модель и ахуел, а по совместимости вае тема не новая, на какой модели тренилось? >>168709 > 2д23 > Видеть черный только на черных квадратах Еще как имаджинируемо
>>168103 >Если у тебя автор рисует одного персонажа или действие происходит только с ним - как ни тегируй, всеравно он будет пытаться вылезти, также как и персонаж в одном стиле будет его воспроизводить Тут вообще как повезет. Лору на Могунами взять - так она вполне спокойно разных персов воспроизводить может, особенно если на вес тэгов поднажать. В итоге лора на персонажа выдает вдобавок еще и стиль художника. А всё потому что Могунами там протэгана была полностью. Вот одежду толком не протэгали, и поэтому с одеждой лора справляется хуже - всё норовит в бело-синюю школьную форму персонажей нарядить (ну или ее вариации).
О, и еще - кнопки "освободить видеопамять" не придумали еще? А то грузится туда всякое и зависает, только перезапуском спастись можно. После загрузки автоматика 3.3 гига занято, а после генераций (особенно с контролнетом) память может до 6-7 гигов забиться. И даже когда ты это всё отключаешь - память не освобождается, что ведет к постоянным out of memory до перезапуска.
>>168381 > Шизодатасет с пикчами-тегами, которые будут сильно отличаться от того что сеть делает обычно, да еще протеган так потребует противоположных возмущений. Неудачно сложившееся обучение на одном потоке может увести в сторону и поломать, тогда как усредненные по нескольким даст более адекватные данные. Вот и получим что чтобы не ломалось на бс1 потребуется сильно снижать лр, а на бс_дохуя все будет ок, хотя по факту такой разницы быть не должно. Кстати реально интересно, насколько это влияет все таки на обучение, так по наблюдениям на большом батч сайзе лорки реально лучше выходят, по времени то понятно, но даже бс2 8 минут всего с этим параметром, про который я тебе написал > --use_lion_optimizer пробовал? Дохуя перспективно и качественно обещают Этого дохуя перспективно и качественно там вот столько:
def add_optimizer_arguments(parser: argparse.ArgumentParser): parser.add_argument("--optimizer_type", type=str, default="", help="Optimizer to use / オプティマイザの種類: AdamW (default), AdamW8bit, Lion, SGDNesterov, SGDNesterov8bit, DAdaptation, AdaFactor")
и к каждому походу свой подход еще нужен, у ады вообще какой то рофл видел пока дебажил, типо рекомендации в консоле ставить лр 1.0, и в этот момент не понял прикола
> По стилям потом, надо свалку разгрести и для чистого эксперимента натренить пару чтобы сравнить объективно. А я как то не чисто или не объективно сравнил чтоли?
>>169663 Лора может запомнить несколько персонажей или скорее характерные им черты и связать их с промтом, также и стиль художника подсасывается если он везде одинаков и будет присваиваться всем объектам. Другое дело что прям сильно детально если необычные и много не выйдет, а с формой сам видишь нюанс. >>170173 > типо рекомендации в консоле ставить лр 1.0 лол > А я как то не чисто или не объективно сравнил чтоли? Не, как взгляну на что-то типа 7296x7251 где нужно вглядываться сравнивать, вспоминаю про то что еще лежит ждет, ловлю флешбеки с работы и мотивация пропадает. Но рано или поздно надо будет заняться
>>155386 (OP) Гайс, приветствую! Вкатываюсь в нейросети не так давно. Недельку я осваиваю всю эту шушару с лорами, дримбусами и прочим, в целом минут за 10 обучения получилось в дримбусе создать свою модель, внешне похожую, но далеко от какого-то фотореализма. При этом сколько я материалов не смотрю все лезут в какую-то залупу, какие-то лоры в кое, чето делают, текстуал инверсии, а как начнешь разбираться в этих разных вариантах обучения, то оказывается оно всё мало чем отличается друг от друга первый пик в ОП посте, тоже датасет, тоже настраиваю часто такие же параметры, только в другом интерфейсе и прочее. В связи с чем возникает вопрос: что и как использовать для того, чтобы СД генерировал реалистичную модель человека, а-ля сфоткал на свой телефон, на основе своего датасета? Достаточно ли будет накрутить какие-то настройки в дримбусе автоматика1111, чтобы из того, что есть сейчас (1-2 пик), сделать так же красиво как делают чуваки используя лору в Кои_Гуи или просто на готовой модели (3-4)? Заранее благодарен любой посыльной помощи, я мог шото спросить не правильно, я просто вообще нихуя не разбираюсь в этих ваших штуках
sup В нейросетях упарываюсь по обучению на фотках людей для создания их портретов. В основном пользуюсь колабом Fast Freambooth. Из того, что примерно получается - взять 15-20 фото с лицом, натренить на Dreambooth. В результате периодически получаются вполне удачные фотопортреты или портреты в стилистике а ля "amazon warrior", "elf", "elsa from Frozen". Какая есть проблема - если брать фото с лицами крупно, то при попытке запросить что-то типа full length portrait - оно все равно норовит отрисовать только лицо. Начинаешь увеличивать вес промпта - теряется схожесть. Тренишь на портретах в полный рост - лицо и близко непохоже становится. Как с этим бороться? Посоветуйте хороший гайд, анонче.
>>170863 Попробуй Colab какой-нибудь, на Youtube набери "how make my portrait with dreambooth", там полно индусов поясняющих за это.
А вот если я в дадасете на некоторых фото замазал фон тупа зеленым пятном, оно так и будет его потом рисовать? Типа оно не понимает что нужно взять только лицо?
>>171527 Судя по заказанному лицу, результат отличный. Какими тегами пользуешься? Тренишь фотками с лицом крупно или по-другому? Как маркируешь, чтобы сказать сетке - "нужен именно этот конкретный человек"?
>>171631 На самом деле с лицом все не так однозначно, я больной ублюдок и использую 2 гиперсетки и 1 лору на небольших значениях, только так удается получить нужную схожесть с оригиналом. Вообще я лору научился делать буквально на днях и все еще эксперементирую. До этого использовал 3 гиперсетки. Фон бывает из-за такого охуенного коктейля пидорасит пиздец как
Тренил чисто с фотками лица крупным планом, других нормальных нет, и пишу просто photo of young woman
>>171651 Джва года жду возможность автоматизировать SD-апскейл. А то открывать вкладку с браузером картинок, send img2img, выставляешь одни и те же настройки каждый раз.
>>171438 Лучше не зеленью замазывать, а заполнением фона. Или просто вырезать кусок с другой стороны и уже его вставить. Пусть там каша какая-то непонятная будет, но хотя бы в цветах картинки. Это лучше, чем зеленое пятно. Если таких пятен в материалах много будет, нехорошо получится.
Ваша нейронка полойдёт для того, чтобы надрочить её рисовать арты в стиле одного художника? Проблема в том, что хочу обучать её на манге, вырезая отдельные арты. Сколько в среднем артов надо скормить для достижения приемлемого результата?
И, полагаю, мне нужен будет коллаб, так как с 4 Гб видеопамяти точно делать нечего?
>>155386 (OP) Я же правильно понимаю, что если натренировать модель через Dreambooth на чистой SD 1.5, то с ней нельзя будет делать nsfw картинки? И можно ли это обойти использовав кастомную SD?
>>174344 >>174421 Для стилей лучше больше 30. Я беру где-то 100-150 обычно или максимум, что есть. >>172872 Через расширение dataset tag editor в сд вебуй
Насмотрелся хруста Ну вроде норм, что он рекомендует, но можно ли как-то в этом использовать динамический размер, а не 512x512 обрезку? "Random crop instead of center crop" не работает в его сборке, кстати
>>176636 >Насмотрелся хруста Братишка, долбоёб, земля тебе пухом >Ну вроде норм, что он рекомендует, но можно ли как-то в этом использовать динамический размер, а не 512x512 обрезку? [V] Enable buckets > в его сборке Хватит жрать говно
>>176689 В гуи на градио по дефолту включен, в скрипте от анона вроде тоже, что там в конфиге у хачапура - не знаю и знать не хочу. А, вот с обрезкой вспомнил - если кешировать латенты, то нельзя делать рандом кроп и вроде цветовую аугментацию, т.е. оно уже запомнило все пикчи, а не динамически их подгружает и режет по ходу тренировки. Но есть ли польза от рандом кропа - вопрос открытый.
>>176508 >Через расширение dataset tag editor в сд вебуй Не чем, а зачем. Есть на бурах допустим персонаж Ushastaya_nyasha и модель даже немного о ней знает, есть ли смысл заменять этот тег в датасете?
Анон, почему умерди гипернетворки? Ведь это единственный способ действительно добавить информацию в нейронку за счёт нового слоя. Или нет? И пробовали ли делать гипернетворки на vae?
>>177135 Обучаются намного дольше, пикчи нужны лишь квадратные. По документации все круто, а на деле лишь с лорой пошел форс обучения и всякие персонажи со стилями. >>176845 Извини, тупанул. Очевидно, чтобы представления лоры не ломались об представления модели, которые не всегда идеальные и могут иметь некоторые устойчивые искажения.
>>177135 Хз, по мне дак вкатываться в тренинг именно с гипернетворков кажется гораздо проще, не надо RX480TI GTX на 40 гб врам или жопоебли со скриптами или гуями от пиздоглазых криворуких уебанов, тренируется всё буквально на глазах, в любой момент можно тормознуть или продолжить. Тупо открыл вкладку, создал гиперсеть, указал папку с картинками и поехал тренировать, но нет, хотим жрать дримбут или сидеть на стручке Кохуи.
>>177221 Примерно так и думал, спасибо. Нужны еще пояснения насчет регуляционных пикч. Помогут ли от стиля избавиться например? Гуглятся только посты на реддите о том, что они похожесть лиц улучшают, но это не совсем то.
>>159685 Тренировать надо на чем-то другом, что человек может хорошо различать, потому что аниме сельди все выглядят как одна и хуй поймешь, нормально обучилось или нет.
>>176636 Забей, то что он наполовину просто описывает дефолтный правильный пайплайн не оправдывает шизу из другой половины что он там сам нафантазировал. Кохя-скрипт может в разные соотношения сторон если не выключать параметр и сетка такое как успешно генерирует, так и хорошо тренится. Главное чтобы не было слишком длинных/шировких пикч и слишком клозапов, которые при ресайзе и кропе до одного из дефолтных соотношений будут обрезаны. > не работает в его сборке > не работает > в его сборке Причина очевидна, говняк не может сделать нормальное, надо уже радоваться что там нет троянов и майнеров >>176742 > В гуи на градио по дефолту включен, в скрипте от анона вроде тоже this, и там стоят дефолтный диапазон от 256к1024 до 1024к256, штук 8 промежуточных > польза от рандом кропа - вопрос открытый Может быть эфимерная в лучшем воспроизведении глаз и большей толерантности к однообразному датасету, но это еще хуй отследить в тех реализациях. >>177135 Тому что лора покрывает все потребности нормисов, популярна и удобна в использовании, а для чего-то серьезного есть полноценный файнтюн модели. >>178067 Копродедам дисклеймер в начале, не нравится - пили свой. или у хача подписочку чтобы заебывать его тупыми вопросами почему лора на шкуроеот выдает не то
>>177640 По своему опыту скажу. Раньше они не работали, лишь ломали лору в хлам и в мясо. Сейчас попробовал, обучилась удачно. Но как-то не особо разницы увидел, может слишком мало повторов именно на регуляционных поставил. Лучше просто поставить альфу в половине dim или =1. Ну или сам тоже обкатай. Потом расскажешь.
Запилил сравнение версий сд-скриптс для тренинга лор. Сравниваться будут две версии b32abdd327f314fabc76fbbb627218090afb7b69 --- 0.4.2 (11.02.2023) и последняя на текущий момент aee343a9ee994865a50de6374cd610f604ff164f --- 0.5.2 (21.03.2023) Первые две сетки запилил, просто чтобы проверить повторяемость одинаковых настроек на старом коммите, вторые две это новый коммит + старый гуй и новый коммит + новый гуй, который я допилил говнокодом под свои нужды, анон1337 походу всё. Самое важное это то, что теперь лосс между эпохами не скачет как ебнутый и результаты получаются лучше, юбка даже на этой выборке проебывается куда меньше, допиленный гуй вроде тоже работает. Прежние сетки один в один не повторишь, но и новые стали лучше получаться. Так что обновляться с 0.4 походу реально стоит, хз что там на 0.3, вроде такой проблемы между эпохами раньше и не было.
>>180221 Старый скрипт "LoRA retard-friendly train_network script v1.13 by anon" будет работать на новой версии, или надо ждать когда будет его новая версия?
>>180478 Зачем менять юи? У ватоматика анологовнет как говорится, да и с недавним костылем от китайца жопа по врам расслабилась так сказать, как восьмигиговый говорю. Ну комфиюай можешь попробовать если тебе нравится пердолинг например и ты с 8 лет мечтал погромировать.
>>180553 После установки костылей всегда лучше полностью перезапускать юи. А еще на всякий случай заходить в настройки и жать там кнопку аплай и после этого тоже перезапускать
>Чего без иксформерсов? Так там же челик говорит что иксформес с этой темой не работает. Разве нет? В любом случае, я включил его и все равно все обосралось.
>Какие у тебя аргументы в батнике прописаны? Только иксформерс и for /d i in (tmp\tmp,tmp\pip) do rd /s /q "i" & del /q tmp\tmp* & rd /s /q pip\cache (я его убирал, ничего не менялось)
>>180664 > челик говорит что иксформес с этой темой не работает Челик говорит что пикчи с тайлед вае и без не отличаются, а иксформеры он упомянул потому что они дают погрешность при генерации даже на одном сиде.
Ну жди более умного наверное, т.к. я например вообще неебу почему на скрине в директории \extension\ есть директория \stable-diffusion-webui\ например, т.к. у меня ее там нет например. И в ишьюсах костыля такого не помню тоже. Ну можешь постучать китайцу на жидхаб, он быстро фиксит всякую херню.
Поясните нуфагодауну пожалуйста, есть ли вариант вашей сеткой воспользоваться для нсфв целей, если на борту только 2гб vram? Colab наверняка ведь не пропускает такое?
>>180714 Спасибо за помощь. Я просто обновил автоматик и все заработало, оказывается я его не обновлял с момента установки, а это пару месяцев назад наверное
>>183957 Тренишь лору как обычно, тэгаешь всё прям вообще до упора. Должен ухватиться как раз в таком варианте. Спец-токен вызова стиля в тэги можешь не добавлять, все одно влияние минимальное.
>>184185 Такое ощущение, что какое-то расширение мне все ломает, потому что на чисто автоматике+additional extensions все работает, а на автоматике с фуллпаком экстеншенов там наблюдается проблема.
Алсо, вы когда апскейлите, то правите ползунки лоры? Потому что я оставил те же, что были при изначальной генерации, и она потеряла свой стиль.
Гребанные погромисты, опять всё сломали. И какого хрена мне обновиться захотелось?.. Завершение промпта теперь совершенно уебищно выглядит и вдобавок колбасит всю страницу. Список лор и экстеншнов зависал на полминуты при первом открытии - но это починилось последующими обновлениями. Зато сука картинка теперь в увеличенном виде посередине экрана не открывается, как раньше было. Хочешь получше рассмотреть? Открывай в новой вкладке. Аррр, НЕНАВИСТЬ!!!!!
>>184438 Откатывайся, там не только это поломали, пкм по генерейт не работает, стиль и так понятно по пизде, дропдаунам тоже пизда, у меня еще какая-то хуйня с памятью была, не мог 1.5 на 1.5 генерить, откатился и все нормально стало. Нахуй кароче, подождем.
>>184294 > вы когда апскейлите, то правите ползунки лоры? По разному бывает, иногда апскейл без лоры норм например, поэкспериментируй да посмотри, т.к. общий ответ - хуй знает, особенно если это лоры с цивы. Весь рот в recommended weight 0.55
>>184311 > Автоматик уже давно из коробки с лорами работает И вес текстового энкодера тоже умеет менять?
>>184577 > Проблема в том, что я обновил еще и все экстеншны. Я тоже, но лучше на рабочем сидеть, так что откатился, мои костыли вроде не выебываются. А если какой-то будет выебываться то его можно просто хардресетнуть до нужного коммита.
>>185796 Ну вот собсна, у костыля только один минус - нет вменяемого поиска. Пролистывать сотни хуево структурированных лор в поисках нужной это пиздец.
>>185899 > Костыль ради хуйни, которой ни один адекватный человек не пользуется Услышал тебя. Еще скажи что в тренинг инфо и метадату не смотришь. > Еще и срет в консоль. Нихуя не срет.
>>185905 > Еще скажи что в тренинг инфо и метадату не смотришь Для этого есть цивитаи хелпер, который кроме перечисленного еще и позволяет быстро перейти на страницу лоры или прописать триггеры.
> Нихуя не срет. Может в новых версиях что-то поменялось, но раньше при каждом пуке в консоль выводилось, что веса загрузились и изменились или восстановились, лора применилась и подобная очень важная информация.
>>185914 > цивитаи хелпер Ох бля, до него руки все никак не дойдут. Половина лор не с цивы и триггеры уже привык прописывать в названии что б уж точно не проебать. Алсо, в автоматике таки запилили просмотр метадаты лор. > каждом пуке в консоль выводилось, что веса загрузились и изменились или восстановились А, ну если ты про это а не про ошибки совместимости с другими костылями лол, то все по старому, при изменении параметров подключения все так же выводится. Ну хз по мне вес клипа стоящая херня, или его добавят в ватоматик, или китаец прикрутит себе нормальный поиск, или вообще вес клипа добавят в лора блок вейт. Что-то из этого было бы заебись.
Сап, ночной. ЕОТ и около 70 её фоток. DreamBooth от ShivamShrirao, 512х512, lr=8e-7, cosine, 10к шагов, обучение на SD1.5 (диффузорные веса из репы runwayml на обниморде). Выбрал вариант на 6к шагов. Портретно... узнаваемо. Лучше, чем то, что я делал раньше.
Но есть беда - "ванильная полторашка"... не сильна в анатомии, скажем так. Я попробовал сделать Add Difference по формуле DreamLikePhotoRealV2 + ( mycustom6k - v-1-5-pruned ). Получилось не очень, ослабло портретное сходство. ЧЯДНТ?
DLPRv2 - потому что нативные 768х768 на базе 1.5. И оно правда работает. Тренировать непосредственно DLPRv2 пробовал - выходит фигня.
>>186005 SD1.5 нахуй, если не собираешься на ней генерить. 768 нахуй. Что-то не вижу, чтоб все массово переползали на 768, раз это так хорошо. Тренируй на любой нормальной модели, где будешь генерить.
>>159685 Анан, вот это вообще не понял: > Когда пикчи и теги к ним у нас готовы – нужно раскидать их по папкам. Для этого в первую очередьсчитаем количество пар пикча-теги, выбираем число шагов обучения (для начала стоит взять 4000 чтобы с запасом), делим это число на 10 (число эпох в нашем обучении), делим на количество и получаем необходимое число повторений каждой пикчи.
>>186468 Пока устраивает Deliberate, появится что-то более гибкое - с удовольствием соскочу, всё же он довольно пластиковый, но лоры на нём тренированные отлично работают. Как раз новый реалистик вижн вышел, надо пощупать. По диффузорным весам смотри на huggingface, но сомнительно их наличие.
А ещё такой вопрос. В датасете стиля одни тяночки, и ЛОРА на выходе не умеет НИЧЕГО кроме них рисовать, ни мужиков, ни животных... Что нужно сделать, какой параметр скорректировать?
>>155386 (OP) Поясните пожалуйста про отличия между Textual inversion / Hypernetwork / LoRA и Dreambooth На чем и что лучше тренить? В чем разница методов вообще?
>>187478 Тут такая хуйня, что никто кроме тебя не скажет, каждый сет индивидуальный, но начни отталкиваться от максимального качества исходников. Я бы не пихал похожие положения головы, только если там развая причёска/свет. А вот кропнуть излишки исходников под разный размер лица - это полезно.
Чтобы анимешные или любые стилизованные персонажи хорошо натягивались на реализм, нужно при приготовлении лор кидать фотореалистичные пики в папочку Regularisation folder, я правильно понял?
>>187581 Пиздеть не буду, не пробовал, но если пропишешь эмоции то должно работать. На цивитае есть модель Emotion-Puppeteer и где-то была статься от этого мужика, как он её делал.
>>187590 Мне кажется, главная проблема для реалистичных моделей - это наследование стиля . Если у тебя пикчи надерганы с бур, то вряд ли с таким столкнешься. >>187610 Посмотрю, спасибо.
>>187601 На ванильной SD 1.5 тренил, 40 фоток 512x512 и 4000 шагов. Вблизи лицо получается идеально, а вот вдали уже начинаются искажения. Но вроде неплохо фиксится хайрез фиксом.
>>187634 >Наследование стиля лорой от однотипного датасета имею в виду если что. Понял, тем больше более-менее отличающихся стилей, тем лучше модель на реализме переварит ее. А если делать все строго в одном, то стиль будет передан точно, но начнутся проблемы с переходом на реализм.
>>187590 Для регов это бесполезно, а для дата-сета не нужно, так как либо стиль в целом сломается, либо на реалистичной модели будет лишь эта часть дата-сета вылазить все время, если таких пикч было мало. Я вот тренил чисто аниме пикчи, часто с ужасной рисовкой. Выставлял дим 32 альфа 16.
Подскажите, вот тут должны иконки с вызовом инфы по лоре быть, с какими параметрами были созданы, но у меня их нет - это из-за Civitai Helper уи сбился? Чтобы не удалять его для проверки.
>>188882 Как по мне 128 больше деталей захватывает, что хорошо для стиля, но для персонажей уже слишком. Ну тут на вкус и цвет. Кто-то 256 ставит и ему норм, кто-то 4. Я для себя нашел баланс в 32 опытным путем.
>>189001 Ты ставил настройки, чтоб все модели показывались даже с цензурой? Они не так давно стали рандомно на все +18 шлепать. Можно взять пикчу 512x512 с лицом персонажа и получить жесткое ограничение на всю модель. Там что-то автоматическое внедряют видимо, но работает оно очень плохо. То ничего не замечают, то треггерится на херню, то уже дня три не могут проверить пикчу руками и сказать, что она хотя бы уж +18, а не прям реал цопе.
>>189058 Добавь еще артов из "травницы" с отдельным токеном на одежду. Было бы здорово. С Юлей сложнее всего, ибо рисуют либо очень мало, либо крайне хреного. Не понимаю, почему возникают желтые полоски на платье у нее при семплерaх DPM. Причет тоже самое было и на гиперсетях при совсем другом дата сете, когда еще приходилось резать пикчи на квадраты, только там это в 100% случаях и выглядело супер крипово. Будто вся проблема лишь в одной пикче, но не пойму в какой.
>>189092 У меня главная проблема с косичками. На большинстве артов одна из двух закинута за спину и сетку ломает от этого даже с тегами twin braids (или two braids не помню).
Посмотри теги в dataset-tag-editor, может там есть какое-нибудь платье с принтом.
Как бы я не относился к Хачатуру, но после совета не трогать эпоки и не страдать херней Лора сразу вышла без косяков. До этого все лоры ни в какую не хотели правильно передавать сложную прическу персонажа и получались лишь калечные нечто. Сейчас же верчу персонажа со всех сторон и все просто отлично. В общем, на заметку, не трогайте эпоки, они бьют генерацию.
>>189255 >о скоростях обучения и количестве шагов, а так же альфе Для меня все это очень сложные слова. Но раз нужно, то Network Rank (Dimension) и Network Alpha на 128, Learning rate стандартный 0.0001, шаги 100 повторений х 48 картинок х 1 эпок х 2 бакет. Датасет не сильно менял, просто перестал ставить 15 эпок х 10 повторов и все такое, чтобы отслеживать промежуточные значения. Когда ставил получалась сущая хуета, я аж впал в уныние. 1 эпок х 100 шагов - идеально, персонаж близок к оригинальному, качество скакнуло на порядок.
>>189269 А логи в тензоборде смотрел? Может у тебя херовая версия сд-скриптс, дающая спайк между эпохами? Сд-скриптс же используется хотя бы в тренировке от этого хача?
>>189320 >Может у тебя херовая версия сд-скриптс Ну, у меня стоит bmaltais/kohya_ss, который ставил по гайду, и CUDNN 8.6 к нему, и больше не заморачивался. У хача тоже он стоит.
>>189269 Так это 2400 шагов получается. На верхней границе для нормального обучения, обычно гораздо быстрее всё схватывается. Эффект такой же будет, если ты поставишь 10 повторений на 10 эпох на том же сете. Ну, плюс-минус, как повезет. Повторить результаты тренировки все равно не получится, ибо рандом рандомный.
>>189269 А перса ты тегами из датасета вызывал для уточнения или одним токеном? А то мб у тебя запоминание паттерна тегов случилось на одной эпохе то. Переодевается и фоны меняются без ебли?
>>189331 Я 10 на 10 ставил и самое близкое (к персонажу, на 60%) выдавалось где-то на 1000-ом шаге, дальше пережарка и лютая деформация стиля шла. Но у меня и датасет тогда немного другой еще был, я его все время перестраиваю. Но 10 измененных картинок не могли мне такой лютый скачок в качестве дать. >>189335 Один тег персонажа.
>>189342 А примеры генов с версий что у тебя получались не покажешь? Надеюсь там у тебя не очередная ЕОТ. Это конеш не рисерч, но случай интересный. С одной эпохой тут вроде никто не проводил экспериментов.
>>189362 >Надеюсь там у тебя не очередная ЕОТ. Ну, там стандартная анимешная девочка, на которой я набиваю руку, пока разбираюсь в Лорах. Давай просто скажу, что в версии, которая получилась ближе всего, была более-менее сохранена форма прически, но сильно терялись детали. Да и прическа сохранялась не всегда. Не исключено что, я как нуб, что-то неправильно делал и не понимал этого, но кроме эпок и небольшой коррекции датасета я ничего не менял.
>С одной эпохой тут вроде никто не проводил экспериментов. Ну, попробовать никогда не сложно. С гайдами по лорам вообще все перемудрено, пока одни советуют не трогать эпоки или не использовать меньше 100 повторов, другие кидают вот такие штуки, по которым я тоже пробую и результат был так себе. Ну, если более знающий анон повторит и у него 10х10 не будут отличаться от 1х100, то возможно наебался действительно я, но я где я мог наебался - не представляю. Я пока лично буду одну эпоку ставить и больше не ебать себе мозг, весь день с этой херней промаялся и кучу гайдов перечитал.
>>189429 Ну ладно, сам поэкспериментирую когда-нибудь как будет не лень. А тренить на одной эпохе мыслей никогда не возникало кстати, т.к. результат трени надо было отслеживать и корректировать следующую треню, с минимума в 4 эпохи стал размазывать до 10-15. Потом еще узнал что в доках пайторча к даталоадеру написано что дата шафлится каждую эпоху, что и скорее всего происходит у китайца с тегами. После этого смысла слезать со своего оптимума стало еще меньше.
>>189429 Очередная безпруфная околонаучная информация, как и всё от хачапура. Эпоха просто срез лоры на этапе тренировки, никакой магии там нет, разница с одной длинной может быть только если у тебя не константа и происходит рестарт или разогрев между эпохами.
>>189429 > image.png Не нужно делить на батч сайз, если так сделать то получатся маняпопугаи по которым прогресс при обучении обозначается, количество обработанных шагов не изменится.
После ебучего обновления стейбла из списка гипернетворков пропала графа "None" и теперь я не могу отключить гипернетворк, если только не удалю его, чтоб он не применялся. Как исправить эту поеботу?
>>157992 Аноны, что посоветуете для нейронок при бюджете 25к скорее 20к деревянных? На местном авито нашёл только RTX 2060 Super 8GB - 20к RTX 3060 OC 12GB - 25к.
Что из этого лучше? Вроде 3060 лучше т.к. памяти больше, но версия Ti мне не по корману, 2060 можно взять Super, но памяти меньше.
>>190049 Ну версию стоковую 3060 в 12Гб я и сейчас +- могу себе позволить. А на большее копить жедания нет. Я ж не ебанутый, тратить >50к на кусок текстолита, только чтобы пообщаться в чате с виртуальными с аниме-тяночками.
>>190019 Имею 3060 12, полет нормальный. Мерджить или создавать чекпоинты не пробовал, но во всем остальном все отлично. Брал для игр, не думал что 12 гб на борту настолько мне пригодятся в будущем.
>>190679 Для нейронок нет смысла смотреть карты с 8 гигами, когда даже в 30к бюджете есть варианты получше. 2080ти даст производительность на уровне 3070ти, но если у тебя их рядом нет дешевле, то бери 3060, щито поделать.
>>190550 >2080ти Не умеет во всякие 8/4 битные оптимизации. Для картинок пофиг, а вот текстовым прям важно, для текстов меньше 3000 серии рассматривать не имеет смысла.
Подскажите годных ютуберов, рассказывающих про различные возможности Дифюжн. Можно англоязычных. Я только вкатываюсь. Хруста не надо - он, как я понял, ёбаный васян. Хоть и умный.
>>190881 Да я их много и не видел сам. Aitrepreneur да Olivio Sarikas из зарубежных. Тут вообще нет какого-то идеального выбора, из-за новизны нейросетей и их быстрого развития никто нихрена полностью в них не разбирается. Я сколько гайдов по лорам перерыл и большинство говном были.
>>190881 Дак кроме хача ничего и нет, к сожалению. Как же низко мы пали. Смотри его ютуб, для вката сгодится, когда слезать решай сам, может тебе как раз будет его материал и подача. Вот на бусти тратить денег точно не стоит, даже если ты единственный ребёнок олигарха.
Так, ребятушки, поясните мне: - создал лору 1 эпоха х 100 повторов - создал копию, просто жамкнув Трейн еще раз и обозначив лора2 - еще раз Трейн, но уже 10х10 Все три тренировались на одном сиде. И все три выдают разные результаты на одном сиде при генерации, хотя казалось бы. Это из-за xformers?
>>191758 Насколько "разные"? Тащи гриды, там должно быть отличие с одинаковым сидом, но не огромное, на уровне иксформеров, если ничего больше не менялось.
Почему лора запоминает стиль? Я вроде разные стили скармливаю, и фоны описываю подробно, если есть здания, стены, индорс, аутдорс, но все равно упорно рисует здания на фоне... А еще у перса везде черно-белая одежда, а она часто просто как белую воспринимает. Это можно уточнить как-то? Я нюфаг.
Я ебал эти лоры, просто какой-то рандом блять ебучий, измени одно слово в датасете и на выходе новую лору с худшим качеством получаешь, что, как, зачем блять? Это просто непредсказуемая шайтан-машина, черный ящик, все эти ползунки-хуйзунки-текстовые описания ничего не значит, на выходе все равно будет полный рандом
>>193706 Наебал получается, первая эпоха нормально шла, а потом скрипт опять отвалился, теперь при повторном запуске даже первую эпоху не вывозит. Наверно вся проблема в репозитории, но он у меня скачен с гайда. В резерве около 60ГБ оперативы.
Я тоже ебал эти лоры. Решил таки феерически расставить точки над i. Первый прогон - 30 фото, 100 шагов. Батч 2. Сид 1234. 1-E4. Константа. Д64/А64 Второй - Всё закрыто, сделана копия конфига, открыта, изменено название лоры. Третий - 10 эпох по 10 проходов, остальное без изменений. 10x10 тренилась в разы дольше.
>>194290 Пикч под 50. Уже третий день ебусь и не понимаю. Вышла отличная лора при 49 пикчах, но неправильно проставил один тег эмоции, начинаешь что-то менять в датасете, делая его чище и правильнее - какое-то говно на выходе вместо лоры выплевывает, с более неправильными очертаниями персонажа и чуть другими цветами. Надо пока забить на все эти лоры и передохнуть, пока кукуха не поехала. А после экспериментировать с Text Encoder learning rate, Unet learning rate и количеством Repeats. А может забить хрен и просто оставить ту лору, которая сразу получилась удачно, пусть и одна эмоция не всегда будет правильно отображаться, зато все остальное работает.
>>193731 > Первый прогон - 30 фото, 100 шагов. Батч 2. Сид 1234. 1-E4. Константа. Д64/А64 > Второй - Всё закрыто, сделана копия конфига, открыта, изменено название лоры. Это не очень то смахивает на отличия уровня иксформеров, хотя все формы те же, ты их включал во время тренировки? Что насчет шаффла? Даже график повторен. > Третий - 10 эпох по 10 проходов, остальное без изменений. > 10x10 тренилась в разы дольше. А вот тут кохья экспириенс походу, между эпохами лосс пидорасит, какая версия? Дольше кстати потому что не поставил --persistent_data_loader_workers Интересное короче наблюдение, имхо без эпох прямо совсем печально тренить, не черрипикнуть нужную потом
>>194347 У меня на одной пикче у перса была эмоция в которой он глаза скосил, и все персонажи мужского пола по итогу были блядь косоглазыми. Пришлось фотошопить все зрачки везде и переделывать.
>>194347 Я пытался слезть с этой иглы, но всегда возвращался. Сидел по пяти утра а в выходные и того дольше. Правил теги, обещал себе что это последняя попытка, перефотошопливал весь датасет, удалял с шифтом и начинал с начала. Тегал разными тагерами, не тегал, прописывал каждую пылинку. Ложился спать, не мог заснуть и под каким-то предлогом как наркоман искал способ вернуться к пеке чтоб попробовать ещё разок, вот сейчас точно выйдет идеально. Да, есть приличные результаты, но идеала не получилось ни разу. Может завтра смогу?
Заметил, что цвета персонажа на удачной лоре перенасыщены при весе 1, но приближаются к оригинальным при снижении UNet до 0.7 и оставлении TEnc на 1 (либо просто можно снизить общий вес до 0.7). Но при снижении UNet, естественно, и сам персонаж немного теряет в очертаниях, к примеру упрощается сложная прическа. Что тут можно придумать? Трейнил при Unet learning rate 0.0001, снизить его до 0.00007? Но это не похерит очертания персонажа? С другой стороны можно так оставить, все равно на разных чекпоинтах придется 0.7 ставить для правильного смешения с ориг. стилем модели, т.е. цвета и так выровняются. Молодец, сам придумал, сам решил. >>194501 Прямо гача экспириенс какой-то. Надеюсь тренировку лор в будущем сделают более внятным, сейчас это как участие в садо-мазо оргии, причем я на стороне мазо. Смотрю на чужие лоры на том же цивитае и думаю "как вы блядь их сделали?" А секрет наверное в том, что при 0.7-0.8 любая хорошая модель вытянет любую плохую лору, замазав любые ее косяки, что вполне хватит для красивых превьюшек.
>>194348 Шафл отключен, xformers по умолчанию включен. >>194543 Я считаю что это хуита. Возможно не прав, но если тебе нужно оставлять 0.7, т.е. 70% от лоры, чтоб она работала, то это хуёвая лора. Исключение - несколько лор. Больше похоже на перетрен. > Смотрю на чужие лоры на том же цивитае и думаю "как вы блядь их сделали?" Скачай да посмотри параметры. Аниме не знаю, но на персон там в основном лютое дерьмище. Ну или покажи пример хороших лор с цивитая.
>>194609 >но если тебе нужно оставлять 0.7, т.е. 70% от лоры Не, лора отлично работает на 1, без каких либо косяков, только цвета немного насыщеннее. Что для аниме и не совсем плохо. Но возможно стоит попробовать с меньшим числом шагов и посмотреть, что выйдет. >>194609 >Ну или покажи Да уже давно там не был, все последние дни делал лоры и бомбил с них. Лучше бы блять на что-нибудь другое свое время потратил, уже расхотелось в них копаться.
>>194609 > Шафл отключен, xformers по умолчанию включен. Я хз как у тебя это получилось, я вот тоже сделал "контрольный" тест, лок сид, офф шафл и иксформерс, у меня даже хеш, высчитываемый автоматиком, одинаковый получился, на диске у файлов они кстати разные, не говоря о генерациях, так что делаю вывод что никакого черного ящика тут нету, пока не начинаешь менять параметры и содержание датасета. Я уже сравнивал в этом или тредом ранее с лок сидом, шафл офф, там повторение где-то процентов 90 грубо говоря, с включенным шафлом поменьше, но все равно видно, примерно как у тебя Без иксформеров на батч 2 нужно 20 врама, охуеть вообще. Еще сделал одну эпоху, просто с таким же количеством шагов, она мне совсем не нравится, рано делать такой вывод наверное, но тут уже виднеется забывание фона в некоторых местах
>>194798 ХЗ как так получилось, завтра ещё перепроверю. Попробую два раза сгенерить с одного конфига не меняя название конфига и выходной лоры. По идее хэши должны быть одинаковые. Думал тут просто шизы набрасывают и сваливают в туман.
Как восстановить все петухоновские файлы в папке с автоматиком и ниже? Кажется, что из-за каких-то старых правок теперь генерировать иногда отказывается, ссылаясь на не одинаковые типы или девайсы весов.
>>195042 > По идее хэши должны быть одинаковые Они будут одинаковые, если ты сделаешь вот так > лок сид, офф шафл и иксформерс Не обязательно при этом делать одинаковые названия, я же не делал, через гуй менял > Думал тут просто шизы набрасывают и сваливают в туман А вот тут хз вообще о чем ты
>>194798 >но тут уже виднеется забывание фона в некоторых местах Юбку тоже знатно пошатало. Не особо еще видно, насколько изменился персонаж, но по ощущениям глаза прорисовываются хуже.
>>195509 Максимальная тренировка обычно достигается на 2000-2500 шагов. Может и раньше. Иногда значительно раньше (бывало, что файтюн уже имеющегося в сетке концепта ухватывался на 400-м шаге).
Обычно я эти шаги разбиваю на 8 эпох, для контроля насыщения. Сохраняю каждую вторую. Число повторов ставлю в зависимости от количества картинок и батча.
Т.е. для сета в 50 картинок и батча 2 это будет: 2000 (шаги) \ 8 (эпохи) \ 50 (картинки) * 2 (батч) = 10
Посоны, как Batch count работает? Сгенерил картинку, сохранил ее сид, сгенерил еще раз на этом сиде - результат две одинаковые картинки (ожидаемо) На этом же сиде, ничего не меняя, ставлю Batch count - 4, первая картинка та же самая, остальные три разные (хотя я ожидал что он мне сгенерит 4 одинаковые картинки, ведь сид одинаковый)
>>175320 если хочешь делать порнушный контент то я делал так: сначала натренил на блоуджобах модельку брав оригинал сд1.5 потом отдельно в нее снова натренил ебасос своей еот, ??? профит теперь твоя еот сосет, либо ты можешь скачать уже готовую модель коих дохуя на сивитай
>>186005 тренил еот на 10 фотках 1500 шагов выглядит почти идеально, фото нужно брать с какого нибудь одного фотосета а не кучу разных ебел где ты смотриш тут она одна а тут чуть другая, везде фокусные расстояния разные
>>195921 в общем 150 сэмплов за 8,5 секунд на 3060 это охуенно ящетаю. пробовал ставить, на этапе конвертации модели сыпятся ошибки, снёс, SSD не резиновый к сожалению. вот интересно узнать, может у кого получилось и какие подводные камни?
>>196023 > вот интересно узнать, может у кого получилось и какие подводные камни? Я так понимаю подводные в том, что там ничего кроме базовой генерации нет, даже апскейла.
>>196055 да, с удобствами там совсем не густо, жаль. только img2img. надеюсь запилят каким-нибудь образом плагин для автоматика. получить скорость 3090 на 3060 было бы здорово.
Ребята, а почему коха лора колаб по завершению обучения, вместо моего запроса выдаёт какую-то хуйню? Какие-то пейзажи, часы, хуй пойми что, только не то что я ему указываю, хотя я и указывал в текстовых файлах то как оно должно называться. Я как только не пробовал, а всё равно хуйня. Скажите пожалуйста как правильно делать?
Были какие -то картинки с 2д тянкой, я по её инструкции пытался делать, но сразу же обнаружил, что та версия колаба на которую она указывала уже был видоизменён и обновлён, в итоге мне пришлось интуитивно под конец делать по своему и всё равно нихуя не вышло.
Причём оно если и показывает, то на что я его обучал, то в очень видоизменнёном виде, будто этот промт не являлся приоритетным и выдавалось максимум на 1 из 5 генераций сторонней хуйни в виде пейзажей и т.д
Или мне надо было эту лору сохранить и запихнуть уже в другой колаб и в вебуи интерфейсе надо было выбрать лору и уже оттуда установить на текущую модель? Это так рабоатет??? Типо как ДЛС???
>>196519 Опенсорс как он есть, миллион хуёмбол, созданных непонятно кем по разным стандартам и конфликтующих друг с другом. Впрочем, ничего лучше и не имеем.
>>191758 Ловить тот же сид при разных условиях нет смысла, в другой расстановке эпох чуть уедет порядок обучения и на тех же сидах будет другая пикча, это нормально. А если у тебя еще планировщик с рестартами то тем более. Кстати, кто смотрел, вармап применяется на каждую эпоху или только в самом начале? >>193462 > Почему лора запоминает стиль? Оно не может различить стиль и персонажа, числа в модели просто подстраиваются так чтобы по твоему текстовому запросу генерировались пикчи из датасета. Если стиль разный а персонаж один - запомнит его а остальное считай взаимосократиться (в идеальном случае), если персонажи разные но стиль один - запомнит саму стилистику. Может помочь регуляризация или извращения типа дополнительного обучения лоры на стиль и ее вычитание или подобные манипуляции. >>193731 По имеющейся выборке результаты однохуйствены. Если вызывать лору из промта то с одним сидом пикчи гораздо более схожи, даже на совсем разных модельках. >>194543 > Что тут можно придумать? Апскейл и не такое чинит, лол, серьезно. >>194609 > 0.7, т.е. 70% от лоры, чтоб она работала, то это хуёвая лора Да не, 0.7 это еще в пределах, хотя уже совсем на грани. Если хочешь немного отступить от исходной внешности. >>194798 Двачую, с одним сидом получаются одинаковые стабильно, отличия уровня генераций на одном сиде с xformers. > она мне совсем не нравится, рано делать такой вывод наверное Все правильно, таки шафл полезен. >>195921 А оно пригодно к использованию вообще? >>196125 > но может пригодиться при апскейле Так апскейл для того и нужен чтобы деталей добавить, а тут их деградация, в таком виде врядли взлетит.
Таки дошли руки и готовлю неистовый врыв с большим сравнением разных параметров тренинга, как на персонажа так и на стиль. За пару дней должно доделаться. Разные лр, сравнение косинуса-константа, разные варианты альфы, батчсайз 2 - 12, бф-фп с наглядной иллюстрацией где что быстрее ломается, спасет ли бс12 от порванного фп16 лолбля кому вообще в голову придет имея 24 гига тренить не с бф но может быть показательно. Ну и разумеется треш с одной эпохой. Нюанс в том что в датасете ~350 пикч и один повтор на эпоху, вот в этом случае уже может что-то вылезти, а так потребуется повтор с малым датасетом и повторами даже с нормальным числом эпох. Правда может ничего не получиться и будет нихуя не наглядно, но и похуй, тема для дискуссий. Если есть идеи что стоит посмотреть - велкам, или, например, кто какие планировщики считает перспективными.
Тред общенаправленныей, тренировка дедов, лупоглазых и фуррей приветствуются
Предыдущий тред:
➤ Гайды по обучению
Существующую модель можно обучить симулировать определенный стиль или рисовать конкретного персонажа.
✱ Текстуальная инверсия (Textual inversion) может подойти, если сеть уже умеет рисовать что-то похожее:
https://rentry.org/textard (англ.)
✱ Гиперсеть (Hypernetwork) может подойти, если она этого делать не умеет; позволяет добавить более существенные изменения в существующую модель, но тренируется медленнее:
https://rentry.org/hypernetwork4dumdums (англ.)
✱ Dreambooth – выбор 24 Гб VRAM-бояр. Выдаёт отличные результаты. Генерирует полноразмерные модели:
https://github.com/nitrosocke/dreambooth-training-guide (англ.)
✱ LoRA – "легковесный Dreambooth" – подойдет для любых задач. Отличается малыми требованиями к VRAM (6 Гб+) и быстрым обучением:
https://rentry.org/2chAI_LoRA_Dreambooth_guide
✱ Text-to-image fine-tuning для Nvidia A100/Tesla V100-бояр:
https://keras.io/examples/generative/finetune_stable_diffusion (англ.)
Бонус. ✱ Text-to-image fine-tuning для 24 Гб VRAM:
https://rentry.org/informal-training-guide (англ.)
Не забываем про золотое правило GIGO ("Garbage in, garbage out"): какой датасет, такой и результат.
➤ Гугл колабы
﹡Текстуальная инверсия: https://colab.research.google.com/github/huggingface/notebooks/blob/main/diffusers/sd_textual_inversion_training.ipynb
﹡Dreambooth: https://colab.research.google.com/github/TheLastBen/fast-stable-diffusion/blob/main/fast-DreamBooth.ipynb
﹡LoRA [1] https://colab.research.google.com/github/Linaqruf/kohya-trainer/blob/main/kohya-trainer.ipynb
﹡LoRA [2] https://colab.research.google.com/drive/1bFX0pZczeApeFadrz1AdOb5TDdet2U0Z
➤ Полезное
Гайд по фиксу сломанных моделей: https://rentry.co/clipfix (англ.)
Расширение WebUI для проверки "сломаных" тензоров модели: https://github.com/iiiytn1k/sd-webui-check-tensors
Гайд по блок мерджингу: https://rentry.org/BlockMergeExplained (англ.)
Гайды по апскейлу от анонов:
https://rentry.org/SD_upscale
https://rentry.org/sd__upscale
GUI для тренировки лор от анона: https://github.com/anon-1337/LoRA-train-GUI
Подборка мокрописек от анона: https://rentry.org/te3oh
Группы тегов для бур: https://danbooru.donmai.us/wiki_pages/tag_groups (англ.)
Коллекция лор от анонов: https://rentry.org/2chAI_LoRA
Гайды, эмбеды, хайпернетворки, лоры с форча:
https://rentry.org/sdgoldmine
https://rentry.org/sdg-link
https://rentry.org/hdgfaq
https://rentry.org/hdglorarepo
https://gitgud.io/gayshit/makesomefuckingporn
Шапка: https://rentry.org/catb8
Прошлые треды:
№1 https://arhivach.top/thread/859827/
№2 https://arhivach.top/thread/860317/
№3 https://arhivach.top/thread/861387/
№4 https://arhivach.top/thread/863252/
№5 https://arhivach.top/thread/863834/
№6 https://arhivach.top/thread/864377/
№7 https://arhivach.top/thread/868143/