Сохранен 506
https://2ch.hk/ai/res/155386.html
24 декабря Архивач восстановлен после серьёзной аварии. К сожалению, значительная часть сохранённых изображений и видео была потеряна. Подробности случившегося. Мы призываем всех неравнодушных помочь нам с восстановлением утраченного контента!

Stable Diffusion технотред #8 /tech/

 Аноним 14/03/23 Втр 15:24:36 #1 №155386 
.png
.png
.png
.png
ИТТ делимся советами, лайфхаками, наблюдениями, результатами обучения, обсуждаем внутреннее устройство диффузионных моделей, собираем датасеты, решаем проблемы и экспериментируем
Тред общенаправленныей, тренировка дедов, лупоглазых и фуррей приветствуются

Предыдущий тред: >>130722 (OP)

➤ Гайды по обучению

Существующую модель можно обучить симулировать определенный стиль или рисовать конкретного персонажа.
Текстуальная инверсия (Textual inversion) может подойти, если сеть уже умеет рисовать что-то похожее:
https://rentry.org/textard (англ.)
Гиперсеть (Hypernetwork) может подойти, если она этого делать не умеет; позволяет добавить более существенные изменения в существующую модель, но тренируется медленнее:
https://rentry.org/hypernetwork4dumdums (англ.)
Dreambooth – выбор 24 Гб VRAM-бояр. Выдаёт отличные результаты. Генерирует полноразмерные модели:
https://github.com/nitrosocke/dreambooth-training-guide (англ.)
LoRA – "легковесный Dreambooth" – подойдет для любых задач. Отличается малыми требованиями к VRAM (6 Гб+) и быстрым обучением:
https://rentry.org/2chAI_LoRA_Dreambooth_guide
Text-to-image fine-tuning для Nvidia A100/Tesla V100-бояр:
https://keras.io/examples/generative/finetune_stable_diffusion (англ.)
Бонус. ✱ Text-to-image fine-tuning для 24 Гб VRAM:
https://rentry.org/informal-training-guide (англ.)
Не забываем про золотое правило GIGO ("Garbage in, garbage out"): какой датасет, такой и результат.

➤ Гугл колабы

﹡Текстуальная инверсия: https://colab.research.google.com/github/huggingface/notebooks/blob/main/diffusers/sd_textual_inversion_training.ipynb
﹡Dreambooth: https://colab.research.google.com/github/TheLastBen/fast-stable-diffusion/blob/main/fast-DreamBooth.ipynb
﹡LoRA [1] https://colab.research.google.com/github/Linaqruf/kohya-trainer/blob/main/kohya-trainer.ipynb
﹡LoRA [2] https://colab.research.google.com/drive/1bFX0pZczeApeFadrz1AdOb5TDdet2U0Z

➤ Полезное

Гайд по фиксу сломанных моделей: https://rentry.co/clipfix (англ.)
Расширение WebUI для проверки "сломаных" тензоров модели: https://github.com/iiiytn1k/sd-webui-check-tensors
Гайд по блок мерджингу: https://rentry.org/BlockMergeExplained (англ.)
Гайды по апскейлу от анонов:
https://rentry.org/SD_upscale
https://rentry.org/sd__upscale
GUI для тренировки лор от анона: https://github.com/anon-1337/LoRA-train-GUI
Подборка мокрописек от анона: https://rentry.org/te3oh
Группы тегов для бур: https://danbooru.donmai.us/wiki_pages/tag_groups (англ.)
Коллекция лор от анонов: https://rentry.org/2chAI_LoRA
Гайды, эмбеды, хайпернетворки, лоры с форча:
https://rentry.org/sdgoldmine
https://rentry.org/sdg-link
https://rentry.org/hdgfaq
https://rentry.org/hdglorarepo
https://gitgud.io/gayshit/makesomefuckingporn

Шапка: https://rentry.org/catb8
Прошлые треды:
№1 https://arhivach.top/thread/859827/
№2 https://arhivach.top/thread/860317/
№3 https://arhivach.top/thread/861387/
№4 https://arhivach.top/thread/863252/
№5 https://arhivach.top/thread/863834/
№6 https://arhivach.top/thread/864377/
№7 https://arhivach.top/thread/868143/
Аноним OP 14/03/23 Втр 15:31:39 #2 №155394 
Убрал из шапки мёртвые ссылки:
https://technothread.space
https://static.nas1.gl.arkprojects.space/stable-diff

Добавил ссылку на GUI для тренировки лор:
https://github.com/anon-1337/LoRA-train-GUI

Маякните, если ещё что-то конкретное поправить в шаблоне надо.
Аноним 14/03/23 Втр 17:19:28 #3 №155525 
>>155386 (OP)
Не поторопился ли? Там аскотест анон сегодня уже хотел запилить вроде. Ну в шаблон добавится тогда на следующий.
Когда последний раз торч обновлял кстати? Версия от 13.03 и последний коммит искформерсов мне еще накинул немного производительности, если сравнивать с 18.02. Кстати, сам твой гайд тут тоже к месту был бы
Аноним 14/03/23 Втр 17:45:32 #4 №155551 
>>155525
> Не поторопился ли? Там аскотест анон сегодня уже хотел запилить вроде. Ну в шаблон добавится тогда на следующий.
Ага, добавим в следующий тред тогда. Ну, или можно мода попросить поправить шапку, раз этот тред такой медленный (прошлый за 11 дней до бамп-лимита дошёл).

> Когда последний раз торч обновлял кстати? Версия от 13.03 и последний коммит искформерсов мне еще накинул немного производительности, если сравнивать с 18.02.
11.03 обновлял и сборку сюда выложил: https://rentry.org/xformers_builds
Но я замеры у себя не делал ещё для сравнения с 18.02, просто перед паблишем убедился, что локально ничего не ломается.

> Кстати, сам твой гайд тут тоже к месту был бы
Окей, добавлю в шаблон позднее. Меня, правда, смущает, что не у всех анонов версии из гайда работают >>151709 → попробую ещё потом пару старых версий собрать и запаблишить.
Аноним 14/03/23 Втр 17:50:22 #5 №155561 
>>155386 (OP)
>>155551
Таки поторопился но ладно, все лучше чем тонуть. Поведение в разных версиях тестирую пока всеравно, 5ю пожалуй стоит отложить ибо там так много отличия и кое что поломали, да и понял что нужно прям совсем для хлебушков пошагово писать а не более детальные вещи для тех кто уже что-то знает
Аноним 14/03/23 Втр 18:02:40 #6 №155575 
>>155561
> 5ю пожалуй стоит отложить
Речь про sd-scripts?
Аноним 14/03/23 Втр 18:25:54 #7 №155607 
>>155551
> Окей, добавлю в шаблон позднее. Меня, правда, смущает, что не у всех анонов версии из гайда работают >>151709 → → попробую ещё потом пару старых версий собрать и запаблишить.
Ну на 4000 серии это же мастхев, хз только насчет более младших, чем 4090 карт, эти шедевры кто то покупал вообще из местных? А на 3000 только хуже делает, у меня например было с 3000 и самосбором иксформеров меньше производительности. Как минимум стоит рекоммендовать собирать самому наверное, раз готовый не ставится. Лучше, конечно, у тех анонов выяснить причину, почему не ставилось, логи там хотя бы глянуть, инфу о системе, как ставил
А вообще вангую у него таже проблема с венвом в первом и втором случае, а в третьем он не те версии пытается ставить, у меня было что к версии, условно от 03.03 торча не подходит версия торчвижона, нужна от 02.03 или 04.03

>>155561
> да и понял что нужно прям совсем для хлебушков пошагово писать а не более детальные вещи для тех кто уже что-то знает
Разделил бы просто, для хлебушков и смешариков разделы например, всяко хлебушек рано или поздно станет смешариком, если тренить много будет
Аноним 14/03/23 Втр 18:57:10 #8 №155677 DELETED
>>155386 (OP)
Впрыг!
Аноним 14/03/23 Втр 19:12:30 #9 №155701 DELETED
>>155677
Ой, а кто это впрыгнул на мой член?
Аноним 14/03/23 Втр 19:47:42 #10 №155791 DELETED
>>155701
И промазал.
Аноним 14/03/23 Втр 22:46:07 #11 №156297 
.jpg
.jpg
>>155575
Да
Ну что, основной текст есть, осталось гриды запилить да и свежим выглядом посмотреть. Если звезды сойдутся будет завтра.

Все пытаюсь воспроизвести оче долгое обучение на относительно низком лр, уже и батчсайз2 и дим 64 и fp16 поставил. Увидев первый грид даже удивился и показалось что вот оно - но нет, просто пытается копировать пикчу с датасета а при задании какого-то фона тот нахуй уничтожается. На большом bs чуточку лучше но та же херня.
>>155607
> кто то покупал вообще из местных
У кого-то точно есть 4080
> А вообще вангую у него таже проблема с венвом в первом и втором случае, а в третьем он не те версии пытается ставить
Двачую, оно должно влет ставиться а один бедолага долго пердолился
Аноним 15/03/23 Срд 02:19:25 #12 №156563 
Бля, наверное, я еблан, но спрошу по лора про регуляризационные. Может кто-то объяснить или ткнуть ебалом в гайды как правильно называть папки концептов для них? Туда пихать полностью промпт-класс генерируемых пикч а ля a photo of my big hui и оно соотв. матчится с тегами пикч на которых обучаем?
Аноним 15/03/23 Срд 09:59:44 #13 №156716 
В чем разница между dreambooth и fine tuning? Как обучалась оригинальная модель?
Аноним 15/03/23 Срд 11:02:28 #14 №156763 
Есть ли какой нибудь софт для управления датасетами? Что бы можно было хранить изображния, тегировать, искать, делать выгрузку данных. Не поднимать же для этого локальный сервер booru.
Аноним 15/03/23 Срд 13:27:57 #15 №156911 
>>156763
>Есть ли какой нибудь софт для управления датасетами?
Нет вроде, есть мокрописька для тегирования
https://github.com/arenatemp/sd-tagging-helper/

Я хотел еще написать токенизер, который бы обрезал лишние теги, если превышен лимит, но не нашел актуального кода по которому webui это считает.
Аноним 15/03/23 Срд 13:31:55 #16 №156914 
image.png
И я снова обращаюсь к вам за помощью. Как вот ето вот фиксить то? Вроде бы спрашивал уже, относительно недавно, сказали подтянуть файлы подгрузки и что-то там с процессором сделать - если честно, без понятия как что-либо из этого делать на коллабе. Вот такое происходит при попытке смены моделей или вае. Если что у меня почти все модели загружены ярлыками с других дисков из-за маленькой вместительности оных. Раньше такого не было, началось месяца два назад?... Причем, сначала случалось 50/50, а сейчас прямым блоком не дает ничего сделать. С других устройств/айпи/дисков та же проблема. Буду крайне благодарен за помощь, а то от фреклмикса уже тошнить начинает.
Аноним 15/03/23 Срд 13:53:31 #17 №156934 
>>156914
Бля я щас подумал. Это может быть от расширений? У меня стоит контролнет, экстернал нетворкс, вилдкарды, и еще что-то, что изначально в этом коллабе было. Потому что началась вся хуйня подозрительно одновременно с тем ,как я поставил контролнет и экстернал нетворки.
Аноним 15/03/23 Срд 14:55:37 #18 №157021 
Насколько low/medvram влияют на производительность и максимальное разрешение?
Аноним 15/03/23 Срд 14:55:44 #19 №157023 
>>156563
Есть пример датасета в гайде по лорам https://mega.nz/folder/lMQyDTTB#0XM9piheaxg-a9TI7vuDJQ/folder/8cw2nKbT у многих тут с ними выходили лорки хуже, судя по отзывам

>>156914
Что ты пытаешься сделать то? Просто генеришь в колабе каком-то? По логу ничего не понятно, кроме того что процесс умер
Аноним 15/03/23 Срд 14:59:28 #20 №157033 
>>157023
Да, в коллабе, https://colab.research.google.com/github/ddPn08/automatic1111-colab/blob/main/automatic1111.ipynb
Если есть ссылка на другой, более живой и с поддержкой диска и экстеншонов - буду благодарен
Да, просто генерирую, точнее генерация происходит прекрасно, но вот при попытке сменить модель на другую все умирает к черту. Лога там больше и нет толком, выше сообщения об ошибке только строчка о том, что загружаются веса модели.
Аноним 15/03/23 Срд 15:13:47 #21 №157064 
>>157033
Так апдейт. Я поставил медврам и попробовал загрузить модель не-ярлык - ОХУЕТЬ СРАБОТАЛО. Собственно, я думаю, что вряд-ли дело в самом медвраме. Тут как я понимаю с видеопамятью вообще никакой связи. Скорее всего виноваты ярлыки, и это очень удручает. Теперь нельзя иметь централизованный диск хранилище моделек, а придется дрочить десять дисков одновременно.
Аноним 15/03/23 Срд 15:14:51 #22 №157066 
image.png
>>157064
А нет, сука. Оно сгенерировало одну картинку и сдохло... Сука.
Аноним 15/03/23 Срд 15:26:14 #23 №157099 
>>157066
Хз если честно насчет колабов. После генерации картинки вылет, может попробуешь вае перекачать/поменять, ну или для начала хотя бы без отдельного попробовать сгенерить?
Аноним 15/03/23 Срд 16:03:00 #24 №157173 
>>157099
Так, без вае не вылетает. У меня стоял старый как мир эни в3 вае, если что. Но у меня и модели старые, так что хз, хз. Спасибо энивей.
Аноним 15/03/23 Срд 16:22:50 #25 №157200 
Как впасть в депрессию и отчание: 3 часа теггировать датасет и потом понять что у тебя проебалось и поехало всё из-за того что поехали имена файлов из-за разных форматов. Сука.

>>157023
Да этот пример говно какое-то. Везде пишут и по идее, что регулярки должны быть сгенерены с близким к твоим пикчам промптом/классом, например a photo of dick и мой концепт будет N_mybighui с .txt тегами к пикчам с этим классом и остальными тегами. В этом примере же вообще в тегах нет триггер ворда, раз есть .txt значит из названия папки класс не берётся, а регулярки с этим классом проименованы. Каво нахуй. Или я что-то не понимаю, или в гайдах все пиздят не приводя примера датасета, или что вообще. Если я не еблан, то не удивительно, что у всех с ними хуже получается тупо потому что пример неправильный.
Аноним 15/03/23 Срд 20:14:57 #26 №157616 
Как несколько разрешений повлияет на качество обучения лоры? Что если я в основном обучаю на 1024, но определённый концепт буду тренеровать на меньшем?
Аноним 15/03/23 Срд 20:17:41 #27 №157626 
>>157616
Я в любом случае попробую перед тем как тренеровать основную сделать мини версию, но может кто то уже знает
Аноним 15/03/23 Срд 20:31:30 #28 №157651 
>>157616
Никак. Кидаю в датесет некропнутые арты произвольных форматов
Аноним 15/03/23 Срд 20:40:55 #29 №157679 
>>157651
Если по количеству примерно количество пикч разных разрешений одинаково, стоит ли ставить количество повторений делать разное для них, делая акцент на больших, или похуй
Аноним 15/03/23 Срд 20:52:10 #30 №157708 
>>157679
У меня они разделены по папкам только как концепты. Я не сортировал их по размерам
Аноним 15/03/23 Срд 22:15:36 #31 №157888 
>>157616
>>157651
>>157679
>>157708
Если у вас часть пикч меньше разрешения обучения (дефолтные 512x512), то не надо нахуй так делать. Если больше то уже вопрос кропа/бакетов, один хуй всё отресайзится под разрешение обучения
Аноним 15/03/23 Срд 22:23:09 #32 №157900 
>>157888
У меня стоит 1024 на обучении, туда нельзя пихать разрешения меньше?
Аноним 15/03/23 Срд 22:52:52 #33 №157933 
>>157021
medvram у меня давал замедление на 50% при генерации.
16 картинок 512х512 на euler_a.
Только с иксформерсами - почти минуту (56 - 59 секунд).
Иксформерсы + medvram - полторы минуты (1:28 - 1:31).
Как на разрешение влияет не тестировал.
lowwram тоже не тестировал.
Аноним 15/03/23 Срд 22:55:09 #34 №157935 
>>157173
Сравни хеши файлов оригинального вае и твоего, который ты подгружать пытаешься, возможно проблема просто в том что он закорраптился
Аноним 15/03/23 Срд 22:59:43 #35 №157937 
>>157900
3090/4090-царь шоле
Не пробовал пихать вы высокое разрешение обучения пикчи меньшего, но логика подсказывает что так лучше не делать. На крайняк если пикчи не совсем шакалы лютые руками их апскейлить до 1024x1024+
Аноним 15/03/23 Срд 23:04:01 #36 №157941 
>>157937
3060 среднеанон, спасибо, попробую апскейлить, ещё не пробовал запускать с меньшим размером, может вообще пукнет ошибкой что ниже определёного разрешения не буду кушать и тогда точно апскейл, или выбросить и забить
Аноним 15/03/23 Срд 23:05:15 #37 №157943 
>>157933
Тоже уже протестил, как-то так вышло:
Time taken: 18.08sTorch active/reserved: 3008/3668 MiB, Sys VRAM: 5669/11264 MiB (50.33%)
Time taken: 22.89sTorch active/reserved: 1734/3074 MiB, Sys VRAM: 5075/11264 MiB (45.06%)
Time taken: 5m 45.17sTorch active/reserved: 1094/1670 MiB, Sys VRAM: 3671/11264 MiB (32.59%)
Аноним 15/03/23 Срд 23:25:31 #38 №157967 
>>155386 (OP)
Технари, поясните за выбор ГПУ. Там нужно на ещё что-то обращать внимание при выборе помимо VRAM? Типа тензорные ядра там или что-то такое?
Аноним 15/03/23 Срд 23:26:57 #39 №157970 
iURJZGwQMZnVBqnocbkqPa-1200-80.png
>>157967
Уже в шапку можно...
Аноним 15/03/23 Срд 23:37:36 #40 №157986 
>>157970
Да, я это сразу нагуглил. Но типа там же 3060 к примеру от разных издателей есть. Вот и спросил на что ещё внимание обращать.
Аноним 15/03/23 Срд 23:38:34 #41 №157990 
>>157986
>Но типа там же 3060 к примеру от разных издателей есть
Похуй.
>Вот и спросил на что ещё внимание обращать.
На шину памяти. Больше - лучше, при прочих равных.
Аноним 15/03/23 Срд 23:39:36 #42 №157991 
>>157990
Всё понял, добра, анонче!
Аноним 15/03/23 Срд 23:39:56 #43 №157992 
ye49n5XUBk8KwuD4PVkdBf.png
>>157970
Вторую не забудь.
>>157986
3060 с 12 гигами нужна, а то есть и по 8. В этом бюджете 2080ti лучший вар я считаю.
Аноним 16/03/23 Чтв 00:31:35 #44 №158031 
>>157992
Ага, ага, запарился про эти PCI-E сейчас читать, а то у меня на материнке 3.0, а 3060 на 4.0 работает.
Аноним 16/03/23 Чтв 00:38:35 #45 №158041 
>>158031
>а то у меня на материнке 3.0, а 3060 на 4.0 работает.
Похуй, хоть 2.0
Аноним 16/03/23 Чтв 00:40:55 #46 №158046 
>>158031
Там же обратная совмесьимость, как у usb например, зря читаешь, лол. Если не хочешь идти на авито или разоряться на 40 серию, то у тебя 3060 единственный вар по сути.
Аноним 16/03/23 Чтв 01:06:55 #47 №158072 
image.png
Мужики, пытаюсь обучить лору, но нихуя не получается, че это такое?
Аноним 16/03/23 Чтв 02:00:00 #48 №158099 
>>158072
Пути неверно указал, судя по всему.
Должны быть прописаны к папке, в которой уже лежат остальные папки, у которых шаблон названия ЧИСЛО_ИмяКонцепта
Аноним 16/03/23 Чтв 02:27:37 #49 №158110 
image.png
>>158099
Исправил пути, вроде прошло, но вторая ошибка все еще на месте
Аноним 16/03/23 Чтв 03:39:12 #50 №158134 
бля.jpg
Ребзя, подскажите че делать с такой ошибкой?
Больше месяца назад тренил лоры с помощью Kohya's GUI по конфиг файлу от Aitrepreneur, а теперь такая хрень. Все что поменялось это Kohya's GUI и дрова обновлял. Как фиксить или придется тупо менять настройки? Если кто пользуется Kohya's GUI поделитесь своими конфигами плз.
Аноним 16/03/23 Чтв 03:46:05 #51 №158138 
>>158110
Вот это уже хз.
Аноним 16/03/23 Чтв 06:11:58 #52 №158176 
Кто в курсе, как в фотошопе избавиться от плавного градиента, при выделении объекта?
Нужна жесткая граница, без полутонов при закрашивание. Чтоб потом latent couple скинуть маску.
Аноним 16/03/23 Чтв 08:18:44 #53 №158210 
>>158046
>>158041
Благодарю, местный Анон очень отзывчивый, добра.
Аноним 16/03/23 Чтв 10:31:27 #54 №158288 
>>158176
Размытие выделение в верхней строке есть.
Но оно там вообще небольшое, порядка полупиксела по умолчанию вроде.
Можно еще когда маску сделаешь "Порогом" пройтись или "Постеризацией". Зашарпит так, что порежешься =)
Аноним 16/03/23 Чтв 10:34:46 #55 №158290 
Как та штука называлась, которая позволяла более гибко для LatentCouple зоны забивать? Не прямоугольниками этими дурацкими, а "пятнами", как нарисуешь.
Аноним 16/03/23 Чтв 10:39:07 #56 №158297 
>>158290
https://www.youtube.com/watch?v=TYrHBFQPMys
Аноним 16/03/23 Чтв 15:21:38 #57 №158639 
>>157986
>>157991
Тебя чел немножко наебал, выбирай серию карт по производительности и +- цене, а потом селись в хардваче на пару дней, там тебе за большинство вендоров пояснят.

Алсо из неочевидного: 3060 медленнее для сд чем 2060с.
Аноним 16/03/23 Чтв 15:29:20 #58 №158649 
>>158639
Алсо накидывание говна на хардваче никто не отменял, держу в курсе, будь готов выуживать истину.
Аноним 16/03/23 Чтв 15:32:42 #59 №158653 
16743730541270.jpg
Анончики, буду задовать несколько глупых вопросов.

1. Что лучше для обучения на одну тян? Лора или Дримбус? (4090 как-то у меня оказалась, так что могу и то и то, вопрос, что подойдёт лучше)

2. Лору можно подключать к разным моделям? Как VAE? Т.е. смогу еблет ЕОТ кидать в разные стили?

3. И самый важный вопрос. Какой положняк по апскейлером по умолчанию. Reesgan4 до сих пор стронг, или есть что-то сильно лучше?
Аноним 16/03/23 Чтв 15:40:50 #60 №158667 
>>158653
Дримбут позволяет большее разнообразие во внешности и ракурсах сделать, поэтому варианты могут варьироваться от не очень до суперпохожих, но натуральных. Как человек один на фотках выглядит разно, но в то же время это один человек. Лора высирает "пластиковое лицо", которое легко можно получить элементарным фейс свапом неудачной внешки после того же дримбута. Единственный минус - размер, но не похуй ли.
Аноним 16/03/23 Чтв 15:51:23 #61 №158691 
>>158639
Да можно не спрашивать, а брать гигабайт игл. Сильно переплачивать за охлад нет смысла.
Аноним 16/03/23 Чтв 16:09:32 #62 №158719 
image
>>158653
Пчел? Я бы советовал Лору.
Аноним 16/03/23 Чтв 16:26:57 #63 №158749 
>>158667
>>158719

Спасибо, потраю оба варианта.

>2. Лору можно подключать к разным моделям? Как VAE? Т.е. смогу еблет ЕОТ кидать в разные стили?

>3. И самый важный вопрос. Какой положняк по апскейлером по умолчанию. Reesgan4 до сих пор стронг, или есть что-то сильно лучше?

Остаються в силе.
Аноним 16/03/23 Чтв 17:05:48 #64 №158831 
>>158749
2. Сможешь. Я свой кидал во все, сам собой не налюбусь. Не то что в зеркале.

3. Видел для ИРЛ такой хвалили, сам не юзал 4x_NMKD-Superscale-SP_178000_G

А так Валар и Ремакри
Аноним 16/03/23 Чтв 18:43:01 #65 №159116 
Какой апскейлер юзать для изображений на которых хочу тренить, но не подходят по размеру, там чистое аниме, valar или resergan anime ? Или вообще что то другое?
Аноним 16/03/23 Чтв 18:45:39 #66 №159120 
Аноны, кто нибудь пробовал DAdaptation юзать? Попалось в этом гайде https://rentry.org/59xed3#dadaptation , пробовал оттуда параметры, результаты пока непонятные.
Аноним 16/03/23 Чтв 18:47:35 #67 №159126 
Я вот думаю, можно ли как-то сделать так, чтобы выделенное в промпте по нажатию кнопки обрамлялось скобками и добавлялся вес? мастерипись -> (мастерпись:1.5)
Аноним 16/03/23 Чтв 19:01:19 #68 №159169 
>>159126
contrl+ стрелочка вверх
Аноним 16/03/23 Чтв 19:16:42 #69 №159204 
>>159169
Воу, спасибо, даже лучше чем я хотел работает.
Аноним 16/03/23 Чтв 19:16:45 #70 №159205 
image.png
Как-же эту лору ебёт. Эти ваши скрипты и кохуягуи ничего кроме тренировки на анимэ2Дтёлках не умеют?
Аноним 16/03/23 Чтв 19:21:19 #71 №159218 
xyzgrid-0001-2165945610-(masterpice, best quality1.2),( oshino shinobu1.3),(blush stickers1.1), (very long hair1.3), (hair flaps1.3), (shiny hair),.jpg
>>159205
Ты клипскип 1 выставил?
Аноним 16/03/23 Чтв 19:34:58 #72 №159245 
image.png
xyzgrid-0024-1811954462-realistic (Mugshot1.2) of a (polumna1.1), (Prison uniform1.2), (white hair color1.05), (hairstyle1.2), (expressionless1.2).jpg
05497-2884455053-realistic photo of a polumna, (white hair color1.05), (hairstyle1.2), by Jeremy Lipking, by William Bouguereau, (by Alphonse.png
>>159218
да. вот пик1 с клипскип2, не лучше. конкретно эту лору тренил на первом клипскипе, до этого тренил на втором - ломает так-жепик2. мб из-за ебнутого дефолтного лёрнинг рейта в кохуягуи(юзаю впервый раз) 5e-5, хотя вчера пытался на нормальном скрипте тренить с 1e-3, на котором нормально тренил все свои анимэ лоры пик3
вообще хз куда двигаться, в последний раз такие артефакты видел когда несовместимые модели смешивал, которые были разных эпох с разными клипскипами
Аноним 16/03/23 Чтв 20:14:01 #73 №159354 
>>158667
> Лора высирает "пластиковое лицо"
Хач, ты заебал. Не умеешь делать - не пизди, иди пиши свои ролики по пятихатке и трень гиперсетки, ведь большее ты не осилил.
Аноним 16/03/23 Чтв 20:20:38 #74 №159375 
>>159245
Newtork Dim 32/64. Alpha в два раза меньше. Можно всё 128/128 поставить, нихуя страшного не случится. По дуфолту у него 8/1, для фото не подходит, может только для анимеговна. Остальное всё по умолчанию - косинус, лёрнинг рейт вот это всё нихуя не трогай, всё как есть у Кохуи оставляешь и бьёшься в кайфе. И да, у тебя очевидный пережёг, попробуй для начала в два раза уменьшить количество проходов.
Аноним 16/03/23 Чтв 20:38:07 #75 №159408 
>>159375
Спасибо за совет, завтра попробую. Но я чутка напиздел - у меня не дефолт настройки были, а оптимизированный json от какого-то додика с ютуба для карточек на 6гигов vram.
В итоге я накрутил до такого https://pastebin.com/msFxqgdP
В основном всё совпадает, кроме network_dim": 128, но эта шляпа, как я понял, тупо на вес лоры влияет, так что похуй, больше - не меньше. По пережегу возможно, но бле, 1600 степов на 16 картинок и так по базе самый минимум, впервые тренил лоры всего за полчаса, да и при генерации на малых весах лоры лицо сильно не морфит, как надо короче, ебало не ломается.
Аноним 16/03/23 Чтв 20:45:45 #76 №159426 
>>157935
Возможно. Но я наконец разобрался в проблеме - оказывается, какого-то хуя при подгрузке моделей с ярлыков с гугл диска требуется НАМНОГО больше оперативки, чем при подгрузке напрямую с подключенного диска. Вот хуй знает почему. И в итоге просто крашается из-за недостатка оперативной памяти. К сожалению придется ебаться с моими шестью гугл акками по-отдельности, или собрать пару моделей, которые использую больше всего, на один из дисков. Мейби пробовать загружать напрямую в память колаба, но это ебля ужасная с моей скоростью загрузки.
Аноним 16/03/23 Чтв 20:50:42 #77 №159439 
image.png
image.png
>>159408
100 проходов на картинку это много, можно уменьшить в два-три раза. А лучше смотри, что там в тензорборде. Кнопочка внизу гуя запускает и открывает окошко в браузере. Ищи момент где шло вниз, до подъёма, Примерно в этом районе твоя цель.
Аноним 16/03/23 Чтв 20:57:08 #78 №159453 
image.png
>>159439
Ну вроде как раз. Могу конечно на 400 степах словить, но это рофл полнейший будет
Аноним 16/03/23 Чтв 21:00:13 #79 №159463 
>>159453
Тогда ковыряй Network Dim / Learning Rate
Аноним 16/03/23 Чтв 21:19:39 #80 №159495 
05738-1486400104-realistic Mugshot of a luna lovegood, Prison uniform, white hair colo, hairstyle, expressionless, by Jeremy Lipking, by William.png
>>159463
400степов, всё ещё вермишель. Рили надо лернинг рейт ковырять, мб даже альфу на 64 поставить
Аноним 16/03/23 Чтв 21:38:13 #81 №159534 
>>159495
У тебя что за видяха? В конфиге Gradient checkpointing и Memory efficient attention можно вырубить, а батч сайз увеличить. Если это не какой-то спец конфиг под мало ВРАМ у тебя.
Аноним 16/03/23 Чтв 21:56:36 #82 №159566 
>>159439
Что за гуй?
мимо анон
Аноним 16/03/23 Чтв 21:58:50 #83 №159571 
>>159534
2060 6гб. батч сайз 2 точно не вывезет и так впритык.
На дофотл настройках без
>спец конфиг под мало ВРАМ
сыпит ошибками и отлетает.
>>159566
https://github.com/bmaltais/kohya_ss
Аноним 16/03/23 Чтв 21:59:03 #84 №159572 
>>159566
https://github.com/bmaltais/kohya_ss
Аноним 16/03/23 Чтв 22:01:40 #85 №159577 
05739-1486400104-realistic Mugshot of a luna lovegood, Prison uniform, white hair colo, hairstyle, expressionless, by Jeremy Lipking, by William.png
05741-1486400104-realistic Mugshot of a luna lovegood, Prison uniform, white hair colo, hairstyle, expressionless, by Jeremy Lipking, by William.png
>>159495
Альфа 64 и 254. всё ещё не понимаю чо оно делает
Аноним 16/03/23 Чтв 22:02:44 #86 №159580 
>>159571
>>159572
Найс, спасибо
Аноним 16/03/23 Чтв 22:25:31 #87 №159623 
>>159577
256 точно перебор, пробуй D128/A64
Глаза странные, ты генеришь и тренируешь на одной модели?
Аноним 16/03/23 Чтв 22:58:36 #88 №159685 
.png
>>155386 (OP)
Ну че, погнали https://rentry.org/2chAI_easy_LORA_guide
Проверяйте работают ли ссылки, пикчи, ошибки и т.д.

Есть еще довольно немало материала по сравнению различных подходов к обучении, разных альфа, дим, bs, lr, шагов и прочего, можно будет потом добавить
Аноним 16/03/23 Чтв 23:03:57 #89 №159698 
image.png
05632-332284799-realistic (Mugshot1.2) of a luna lovegood, (Prison uniform1.2), (white hair color1.05), (hairstyle1.2), (expressionless1.2).png
05751-1486400104-realistic Mugshot of a luna lovegood, Prison uniform, white hair colo, hairstyle, expressionless, by Jeremy Lipking, by William.png
>>159623
>пробуй D128/A64
Этот гуи >>159572 не даёт выбирать dim, а ровняет его к альфе или это я слепой и не нашел крутилку
Dim - это вот это?
Треню на sd1.5, f генерю на shittrinberrysamf222.safetensors[ffd1dc3d30]
Просто по тому, что фотки лучше обучались на SD, но сама сд генерировает говняно как на пик2, а около аниме делают немного лучше.
Успел попробовать 1e-3 и 4e-4 - на 400степах выдаёт ультраговно.
>пробуй D128/A64
Пик 3. По-моему в сравнении с d128\a128 >>159495 стало хуже
Аноним 16/03/23 Чтв 23:21:08 #90 №159741 
[Meguca]PuellaMagiMadokaMagica-03[BD][h264-1080pFLAC][E65904CF].mkvsnapshot11.51[2023.03.0904.12.28].jpg
>>159685
Найс, я как раз собираюсь сам вкатится в эти ваши лоры. Кстати реально ли научить ее стилю из лабиринтов в Мадоке?
Аноним 16/03/23 Чтв 23:23:05 #91 №159746 
>>159698
Да, оно. Проставь цифрами, может глюк какой, при старте посмотри параметры в консоли, что точно применилось.
И попробуй тренировать на той же модели. Ну или генерить, на какой тренировал. (хотя SD1.5 уже пора на покой, мне кажется).
Аноним 16/03/23 Чтв 23:30:07 #92 №159767 
>>159741
В теории офк возможно, на практике как это тегать и поймет ли это модель? Попробовать в любом случае стоит, датасет собери. Если клип часть слабее обучать или при использовании подурезать то может даже сработает простая стилизация.
Аноним 16/03/23 Чтв 23:34:16 #93 №159776 
xyzgrid-0042-1486400104-realistic Mugshot of a luna lovegood, Prison uniform, white hair colo, hairstyle, expressionless, by Jeremy Lipking, by William.jpg
xyzgrid-0043-1486400104-realistic Mugshot of a luna lovegood, Prison uniform, white hair colo, hairstyle, expressionless, by Jeremy Lipking, by William.jpg
>>159746
SD это база. Да и хотелось повторить удачную дримбут модель, которая была на сд и впоследствии смерджена с моделью на которой генерирую. Ну а так обучать надо на 2.1 модели и 728 пикселях минимум, только вот гигов не хватит
Аноним 16/03/23 Чтв 23:59:15 #94 №159843 
05785-1486400107-realistic Mugshot of a luna lovegood, Prison uniform, white hair colo, hairstyle, expressionless, by Jeremy Lipking, by William.png
05781-1486400104-realistic Mugshot of a luna lovegood, Prison uniform, white hair colo, hairstyle, expressionless, by Jeremy Lipking, by William.png
>>159746
Обучил на той-же модели, на которой и генерирую - стало выдавать результаты уровня sd1.5. Теперь я точно нихуя не понимаю.
Аноним 17/03/23 Птн 00:01:02 #95 №159849 
[Meguca]PuellaMagiMadokaMagica-03[BD][h264-1080pFLAC][E65904CF].mkvsnapshot20.45[2023.03.0613.50.21].jpg
[Meguca]PuellaMagiMadokaMagica-01[BD][h264-1080pFLAC][462E256B].mkvsnapshot19.27[2023.03.0903.25.26].jpg
[Meguca]PuellaMagiMadokaMagica-01[BD][h264-1080pFLAC][462E256B].mkvsnapshot22.01[2023.03.0903.28.28].jpg
>>159767
Начну в любом случае с чего-то попроще, тоже нет идей какие тут должны быть теги
Аноним 17/03/23 Птн 00:08:58 #96 №159867 
>>159685
Хера ты бахнул, сначала скрипт запускается в гайде, потом собирается датасет.
Одну немаловажную вещь забыл, необходимо много системной памяти, будть то рам или своп, тут были такие, кто не мог запустить тренировку и получали разные ошибки.
Кстати, там же можно вроде как то только основные теги сохранять, без меты всякой типо абсурдрез или худождикнейм, во время сбора датасета, знаешь как это делать? Понятно, что можно потом теггером потереть, но это куда дольше.
Имхо, аскотест слабо затронул, датасет там где то валяется в гайде, но абсолютно не привлекает внимания, сделал бы шафл токенс 0 и сид какой нибудь там 1337228, с финальным результатом, чтобы кому надо повторил и проверил правильность работы тренировки.
Еще кстати мало альфу затронул, прошлый гайд хорош, но постепенно уже устаревает, в этом стоило бы именно затронуть тему с 0.4.0 и этой ебучей альфой, в прошлый раз ты какой-то дженерик стиль хуй отличимый тренил, но на большой альфе бледность лиц художника стала больше заметна, попробовать бы с узнаваемым, попозже займусь и покажу результаты, если хочешь. Как раз хотел углубиться в параметры, и отличия версий почитать, имея уже небольшой опыт в этом, но пока дела появились.
А так хорош че, спасибо, лисю твою тебе в наи запощу за труды, полюбуйся хоть зайди.
Аноним 17/03/23 Птн 00:14:54 #97 №159887 
>>159843
Проверял бы сначала без хуйдожников в промте, чтоб получалось что-то усреднённое по датасету, когда будет как живая - лепи дальше что хочешь.
Аноним 17/03/23 Птн 00:20:54 #98 №159911 
tmpg98p8pc1.jpg
>>158288
Да, сам допер. Сначала небольшой экстенд выделения, по необходимости, потом в режим маски и применить постеризацию минимальную.
Такая маска без лишних зон воспринимается расширением и с фоном охуенно взаимодействует.
Есть встроенный приоритет по цветам B - G - R, стоит учитывать, когда от прямоугольников к маске переходишь, чтоб промты не переделывать.

Представление: компудыхтер рисует красивое по одной фразе
Реальность: сырые костыли, десятки ползунков и необходимость держать в голове характеристики моделей.
Аноним 17/03/23 Птн 00:25:48 #99 №159926 
image.png
Моё ебало, когда поставил Network Alpha = 1
>>159887
У меня сейчас задача избавиться от вермишели. хуйдожники на неё не влияют, а раз уж начал тестить с одним промтом и сидом - нет смысла менять.
Увидел бы ты насколько хуёвый датасет я собрал...
Аноним 17/03/23 Птн 00:29:37 #100 №159936 
>>159926
покажи датасет тренировочный
мимовкатывальщик
Аноним 17/03/23 Птн 00:33:02 #101 №159944 
>>159867
> сначала скрипт запускается в гайде
Ага, сразу в бой. В начале же ссыль на готовый датасет есть, офк он не супероптимален, но в целом работает. Плюс это позволяет избежать всех ошибок из-за косячного датасета и на раннем этапе отследить что что-то не работает в самом скрипте без лишних выяснений.
> необходимо много системной памяти, будть то рам или своп
Во, дело говоришь, офк там в коде ошибки пишется о том что нужно увеличить пейджфайл, но хлебушек может не разобраться, добавлю
> Кстати, там же можно вроде как то только основные теги сохранять, без меты всякой типо абсурдрез или худождикнейм, во время сбора датасета, знаешь как это делать?
Даже не интересовался, написал простой питон чтобы лишнее удалял в один клик, ну и пройтись самому пара минут. Если способ опишешь - буду благодарен
> датасет там где то валяется в гайде
В самом начале капсоболдом, но стоит продублировать, да
> сделал бы шафл токенс 0 и сид какой нибудь там 1337228
Они же потом так и будут тренировать с такими настройками, шафл всеже лучше. С точки зрения воспроизводимости - абсолютно верно, вот только реально ли вообще, ведь еще как минимум xformers может насрать. Попробую потестить, если будет получаться воспроизведение - можно добавить.
> Еще кстати мало альфу затронул
Базовое дано, мнения упомянуты, можно еще выделить синеньким. Для большего надо кучу примеров, свалку гридов лучше потом в конце или отдельным, они так-то есть. Если конкретно по тексту и формулировкам предложения есть - велкам
> прошлый гайд хорош, но постепенно уже устаревает
Не не, к нему есть 3 серьезные претензии:
- неоче структура, про которую уже кучу тредов пишут и хотят исправить
и дримбус через ватоматика, и лора через скрипт, в начале зачем-то втирается про патч модели(!) , и один датасет, и тут же к нему другой с какой-то странной структурой, в одном надо кропать и чето писать, в другом не надо но давать ИМЕНА КОНЦЕПТАМ и это все описано рядом подряд. Сам запуск тоже с отсылками в другую часть на незаметные ссылки, а про многие очевидные проблемы упомянуто вообще в конце
- гриды, в них нихуя не понятно, тянки и какие-то заросли в разных концептуальных стилях, толи там плохой результат, толи автор наоборот этого добивался
- нет предложения настроек тренировки а значения в гридах не менялись с версии 0.3.х
Так то когда разобрался он уже выглядит неплохим, и его неоспоримая заслуга что он есть (ссылку на него алсо добавлю, таки многое разжевано полезно), но при прочтении в первый раз даже с неким багажом знаний по нему что-то сделать невозможно без помощи со стороны.
> попозже займусь и покажу результаты, если хочешь
Хочу, самому же интересно, это все пишу не потому что дохуя знаток а потому что никто не делает
> и отличия версий почитать
Там новый оптимайзер помимо адама добавили, говорят оче годный но надо тестировать, а так много оптимизаций, быстрее работает, лоры на выходе +- такие же
Аноним 17/03/23 Птн 00:33:12 #102 №159945 
>>159926
Что за ввермишель?
Аноним 17/03/23 Птн 00:35:39 #103 №159949 
>>159926
Если причёска не описана и при этом разная на фотках - с волосами может быть любой хтонический пиздец. Сетка смотрит на все причёски персонажа сразу и прикидывает что это и как это запомнить. Если цвет не меняется и не собираешься менять - можно не писать, но длинные/короткие/собраны/растрёпаны - лучше добавить в тег, потом всегда сможешь вызвать нужную причёску.
Аноним 17/03/23 Птн 00:38:05 #104 №159954 
image.png
>>159936
В текстах лично хуйню всякую прописал типо никнейм, 1girl, smiling и т.д.
>>159945
Макароны в волосах и на фоне как тут >>159577
>>159949
Пиздос
Аноним 17/03/23 Птн 00:41:13 #105 №159959 
>>159954
Но это стиль художника, нет?
Аноним 17/03/23 Птн 00:44:27 #106 №159969 
>>159954
>лично хуйню всякую прописал
А прогнал бы через таггер, хоть в СД гуя автоматика, хоть кохуя_гуи и был счастлив. Тем более у тебя датасет небольшой.
Аноним 17/03/23 Птн 00:48:14 #107 №159982 
>>159959
Возможно. Но не того, который в промте.
>>159969
Так таггеры эти бред генерируют. Мне быстрее было самому прописать, чем фильтровать. Тем более, что в датасете картинки почти все одинаковые и можно вообще без тегов обойтись.
Аноним 17/03/23 Птн 00:50:05 #108 №159984 
>>159954
Хорошо, что ты этим занимаешься, а не девочек в лесополосе насилуешь. Знаю я таких, как ты. Ночной кошмар любого следователя.
Аноним 17/03/23 Птн 00:54:46 #109 №159990 
>>159984
Сейчас такие девочки, что лучше уже сразу следователей насиловать.
Аноним 17/03/23 Птн 00:59:43 #110 №159998 
>>159926
Ты на 0.5.0 кохье тренить пытаешься? Интересно получится если да и он опять все поломал и надо заного искать удачные параметры

>>159944
> Даже не интересовался, написал простой питон чтобы лишнее удалял в один клик, ну и пройтись самому пара минут. Если способ опишешь - буду благодарен
Как буду собирать на какого то художника постараюсь разобраться как раз

> Они же потом так и будут тренировать с такими настройками, шафл всеже лучше. С точки зрения воспроизводимости - абсолютно верно, вот только реально ли вообще, ведь еще как минимум xformers может насрать. Попробую потестить, если будет получаться воспроизведение - можно добавить.
Я не говорю что это надо использовать постоянно, именно ради воспроизведения, на уровне отличия иксформеров может воспроизвести, чекай прошлый с постом на кокоро, я там расписывал как делал

> Хочу, самому же интересно, это все пишу не потому что дохуя знаток а потому что никто не делает
Надо со стилем определиться, вот там повыше вроде интересный, только сомневаюсь что его можно так просто с бору собрать, да и по примерам трудновато такое будет натренить, много слишком лишнего как по мне

> Там новый оптимайзер помимо адама добавили, говорят оче годный но надо тестировать, а так много оптимизаций, быстрее работает, лоры на выходе +- такие же
А с 0.5.0 кохьей в итоге как там?
Аноним 17/03/23 Птн 01:01:28 #111 №160000 
>>159982
Ладно, если так нихуя и не получится отпишись, завтра попробую её сделать. Глянул, фоток в сети достаточно. Ну или свой датасет скинь.
Аноним 17/03/23 Птн 01:05:16 #112 №160005 
>>159998
>Ты на 0.5.0 кохье тренить
Хз на какой, но буквально сегодня гуи поставил
>он опять все поломал
Тут скорее я еблан
>>160000
у самурая нет цели только путь
Аноним 17/03/23 Птн 01:09:12 #113 №160013 
>>159998
> А с 0.5.0 кохьей в итоге как там?
Хз, я перед обновлениями опенсорца обычно жду пару дней и смотрю багрепорты. Посмотрел и решил не спешить, тем более сам автор о крупных изменениях говорит.
> Надо со стилем определиться, вот там повыше вроде интересный
Ты про Мадоку? Он ахуенен да, но сложно с тегами. Хотя по тем трем пикчам >>159849 может и ничего, с этим наверно и wd справится
>>159998
> чекай прошлый с постом на кокоро, я там расписывал как делал
вут?
Аноним 17/03/23 Птн 01:09:30 #114 №160014 
>>159685
Охуенен. Нет других слов.
Аноним 17/03/23 Птн 01:21:16 #115 №160031 
Пиздец, заметил что куда 11.3 стоит и решил обновиться до 11.6
Все лоры поехали
Аноним 17/03/23 Птн 01:23:23 #116 №160036 
image.png
image.png
image.png
>>159959
Бля, походу реально хуйдожник-пидарас в промт затесался и говном своим подсирал. Ну хоть тред чутка повайпал, а то тухловато тут было Хотя без него фулл боди генерировать лучше не стало
Аноним 17/03/23 Птн 01:32:40 #117 №160046 
>>160013
> вут?
Повторяемость есть у лорок с одним сидом и офф шафлом, на уровне иксформеров, хеш другой, можешь конечно и сам проверить, может это случайность >>153899 →

>>160005
> Хз на какой, но буквально сегодня гуи поставил
В папке с сд-скриптс консоль открой и пропиши git log там дату покажет, заодно и хеш коммита. Все таки лора норм получилась, я так понимаю
Аноним 17/03/23 Птн 02:05:59 #118 №160128 
05826-3653014115-realistic photo of a luna lovegood,.png
05844-3653014115-realistic photo of a luna lovegood,.png
>>160046
Как сгенерирую мегагрид с десятью надюпанными лорами - посмотрю
>Все таки лора норм получилась
Как минимум надо ещё попердолиться в диапазоне 1е-5 - 8е-5 Text Encoder learning rateов и заменить главный токен с никнейма этой чиксы на менее узнаваемый, так как из-за имени генерирует гоблинов с анимэ глазищами
Аноним 17/03/23 Птн 02:12:09 #119 №160135 
.jpg
.jpg
.jpg
>>159685
> Есть мнение что долгие обучения на низких лр позволяют получить наилучший результат а подобный подход хуев - пруфов этого мы так и не увидели, есть лишь обратное, однако ты, анон, можешь взять и сам сравнить.
Пару дней назад проводил эксперимент на эту тему. Для одного и того же датасета сделал две модели с разными параметрами - в v8 lr уменьшен в 10 раз, а число повторов по всем концептам наоборот увеличено в 10 раз, сравнительно с v7. Одна модель обучалась два часа, другая 20 часов.

Я лично для себя не заметил какой-либо значительной разницы между ними. Надо переходить на нормальный нейминг файлов моделей, а то я сам скоро забуду, чем они отличаются.
Аноним 17/03/23 Птн 02:19:24 #120 №160144 
image.png
image.png
>>160046
Хз чо эти буковки тебе дадут. Но все эти говнолоры я делал через гуи пик1 после того, как у меня с первой попытки получилось ультроговно на сдскриптс пик2
Аноним 17/03/23 Птн 02:27:05 #121 №160148 
В гуй где выставляется размер и альфа?
Аноним 17/03/23 Птн 02:30:14 #122 №160150 
image.png
>>160148
Аноним 17/03/23 Птн 02:31:55 #123 №160153 
.jpg
>>160135
Ух, а вот у тебя случай сложный, полагаю много чего намешано. С Шимкой попробуй прогнать, получается также или что-то иначе? Для тестов хотябы.

Так еще суть в чем, окрестность в которой проходит обучения может быть довольно таки широкой, а большой батч сайз смягчает поломку на долгом обучении. Вот тебе большой грид с 5e-4, результаты для лр в 10 раз больше в гайде есть. Тут по сути после 10й эпохи ничего уже не меняется в этих пикчах, хотя орижинал костюмы достигнуть не успело, а если сравнивать их в других промтах то проблемы сразу вылезают, особенно с фоном и штамповкой одинаковых пикч, косящих под датасет. Для BS=2 хорошо видно как ломается >>156297 Есть и с меньшим лр, там суть вся та же только похожесть меньше, эту хоть вполне можно отнести к положительному результату.
Тут аргументов против долгого медленного обучения дохуя привести могу но таки стоит больше потестить и может найдется нюанс, который все объясняет.
Попробуй развернуть грид по эпохам, все станет на свои места.
> Одна модель обучалась два часа, другая 20 часов.
Ахууууеть, завидую твоей целеустремленности, я с 25 минут обучения на батчсайз 2 горел
Аноним 17/03/23 Птн 02:59:01 #124 №160163 
А папки с папками гуй воспринемает?
Аноним 17/03/23 Птн 04:13:30 #125 №160234 
>>160153
Листал раздел наткнулся на пикрил, можно промпты модель настройки на эту тян?
Аноним 17/03/23 Птн 04:20:59 #126 №160239 
>>159426
wget в помощь.
Ещё бывает
!nohup wget ... -O ...

Топ тема. Модели ставишь загружаться - а пока оно качается, ставишь сам поломатик. Благо подгрузка модклей на лету
Аноним 17/03/23 Птн 04:30:37 #127 №160241 
>>160135
>Надо переходить на нормальный нейминг файлов моделей, а то я сам скоро забуду, чем они отличаются.
Последние скрипты и гуй пишут параметры обучения в метаданные лоры, можно через Additional Networks их из автоматика смотреть.
Аноним 17/03/23 Птн 07:37:08 #128 №160315 
tmp8fx8zde5.png
Как это вообще интерпретировать, котаны? Есть гайд?
Аноним 17/03/23 Птн 09:06:09 #129 №160339 
1679033170022.png
>>160315
Здесь по пизде пошло.
Аноним 17/03/23 Птн 09:34:41 #130 №160354 
tmp6spnkweg.png
>>160339
и чё делать? это прогон 35ти эпох были с 0,0002 unet LR был
Аноним 17/03/23 Птн 10:32:20 #131 №160382 
Чем отличается dreambooth от fine tuning? Второй вроде как лучше, но дольше и нужно больше памяти?
Аноним 17/03/23 Птн 10:50:36 #132 №160395 
05913-3653014114-realistic photo of a polumna,.png
05912-3653014114-realistic photo of a luna lovegood,.png
image.png
image.png
Произошел троллинг от гуи. Все лоры обучались без подхватывания .txt файлов судя по графикам. В последнюю лору токены подсосались, но при вызове главного кастомного токена на персонажа "polumna" - генерирует собак. Но генерирует персонажа при токене "luna lovegood", который был в первой версии .txt файлов и больше нигде. Как чинить?
Аноним 17/03/23 Птн 11:53:59 #133 №160443 
xyzgrid-0050-3653014114-realistic photo of a polumna, loravalpolumnav180.75.jpg
>>160395
Руская смекалочка починила проблемку + вот как простая смена токена помогает от лупоглазия.
Осталось только лору нормально обучить.
Аноним 17/03/23 Птн 12:39:53 #134 №160480 
>>160144
Версия все таки важна, это же опенсорс экспириенс, когда может выйти новая версия и поделить все на ноль. Все таки не 0.5.01, а разве этот гуй не очередная обертка для сд-скриптс, только веб версия? Не пользовался им

>>160395
Почему просто уникальный токен не вписать в начало и не шафлить его? https://github.com/2kpr/dreambooth-tokens/blob/main/all_single_tokens_to_4_characters.txt
Кстати, если уже есть удачный дримбут, то можно вроде из него просто лору извлечь, только не помню где видел как это делать, пробовал?
Аноним 17/03/23 Птн 13:21:00 #135 №160536 
image.png
xyzgrid-0052-3653014114-realistic Mugshot of a polumna, Prison uniform, white hair colo, hairstyle, expressionless, by Jeremy Lipking, by William Bougue.jpg
>>160480
>Почему просто уникальный токен не вписать в начало и не шафлить его?
Хз чо такое шалфить, но вроде так и делаю.
>удачный дримбут, то можно вроде из него просто лору извлечь,
Да, пробовал. Двумя инструментами через тот-же гуи для тренировки лор и через экстеншон для автоматика supermerger чото там и с двух версий дримбута - чистую и смердженную с красивой моделькой. Во всех случаях, очевидно, получилось говно т.к. удачную дримбут модель я обучал так-же как и все эти лоры.
Я ещё, как еблан, все гриды генерил с хайрезфиксом, которым даже не пользуюсь.
Вот ещё в последнем гриде словил пикчу, которая отдалённо напоминает пикчи с микса дримбут и модели на которой это сгенерировалось
Аноним 17/03/23 Птн 14:37:32 #136 №160663 
image.png
Прикольно, что в GUI можно online отслеживать обучение LORA. Только вот если бы была кнопка с остановкой этого обучения в нужный момент - было бы ещё прикольнее.
Аноним 17/03/23 Птн 15:19:04 #137 №160726 
аноны вы же программисты. я сейчас лежал думал над чатом гпт. там есть fine tuning модели на основе массива { вопрос, ответ }, но он занимает около двух часов там написано. файн тюнинг это другая тема, которая не юзает лимит токенов. т.е. получается у нейронки есть два вида памяти - веса нейронки, которые меняются только после файн тюнинга, т.е. это долгосрочная память + токены, которые являются краткосрочной памятью. если мы будем файн тюнить нейронку после каждого сообщения, то у неё не будет лимита по токенам получается и она будет помнить всё? и типа во внутренних серваках опенаи уже работают с нейронкой с долгосрочной памятью получается? т.е. у них уже гига машина есть по типу вики из я, робота?
Аноним 17/03/23 Птн 15:24:23 #138 №160734 
>>160726
а не туда написал это стабле диффузион
Аноним 17/03/23 Птн 15:31:42 #139 №160743 
>>160663
Что мешает делать тренировать в несколько эпох и оставлять нужную?
Аноним 17/03/23 Птн 15:48:35 #140 №160777 
>>160726
>она будет помнить всё?
Нет.
/question
Аноним 17/03/23 Птн 16:09:41 #141 №160824 
>>160777
question/ Почему?
Аноним 17/03/23 Птн 16:28:45 #142 №160861 
>>160824
Очевидно, при тренировке на диалоге "Анон, нам негде жить" "Хуёво, давай купим дом" бот на вопросы "Где мы живём" Начнёт отвечать в духе "Хуёво, давай купим дом", а не то что ты хотел.
/question
Аноним 17/03/23 Птн 22:54:13 #143 №161696 
>>160536
> Хз чо такое шалфить, но вроде так и делаю.
$shuffle_caption = 1 в конфиге, перемешивает каждое повторение теги на пикче, чтобы оно по старшинству не запоминались
Тестовые гриды делать с хайрезом долго слишком, и почему кстати так мало денойза, даже несмотря на пиксельный апскейлер? Такие значения уже приходится ставить только если несколько контролнетов + несколько лор + много разделений тушотом

>>159944
> питон
Ты питонист опытный вообще? Хочу прежде чем начну копаться в нововведениях и сравнениях альфы для стиля допилить хгуй для лоры, который не браузерный, добавив в него старт тензорборда галочку и выбор оптимайзера.
Оптимайзер наверное просто будет, я хз.
А вот старт тензорбоарда наверное потребует дополнительного процесса с командой для консоли и проверки на дурака, если в очереди будет стоять несколько лор, чтобы не запускался каждый раз тензорбоард.
Что там еще из нового, только оптимайзер же?
Тебе наверное эту херню 5 минут написать и собрать, поможешь?
Аноним 18/03/23 Суб 00:31:24 #144 №161884 
>>160861
question/ Почему это неправильный ответ? Просто закрепится инфа, что дома нет, и смежные ответы будут с этим контекстом генерироваться. В нейронке же не прямо хардкодится вопрос ответ, а подбираются веса, которые наиболее близки ко всем тренировочным данным, т.е. ко всему диалогу, т.е. он просто будет помнить весь диалог любой длины, т.е. нейронки уже как человеки, и единственное, что останавливает от выката их в массы - ответ раз в два часа. Можно даже оптимизировать и типа когда лимит токенов заканчивается, то попросить нейронку сделать саммари из диалога, описать самое важное событие тремя словами, а потом уже этим событием тренировать.

Хотя я понял, что это уже везде и юзается, как, например, в чарактер.аи. Там же чем больше диалогов у бота, тем он умнее. Просто разрабы выбрали вариант не тренировать на raw диалогах, потому что тогда нейронка будет знать конфиденциальные данные на всех. Они юзают только лайки и дизлайки, чтобы тренить только характер самой нейронки, т.е. половину от возможного функционала. А в реальности на локальных серверах эта нейронка знает всё про всех.
Аноним 18/03/23 Суб 00:51:24 #145 №161926 
>>161884
>Просто закрепится инфа, что дома нет
Ага, после того, как его купили. Так что...
>т.е. он просто будет помнить весь диалог любой длины
Хуй там плавал.
>чарактер.аи. Там же чем больше диалогов у бота, тем он умнее
Ебать ты верующий в маркетинговые заявления.
/question да когда же он закроется?
Аноним 18/03/23 Суб 05:26:46 #146 №162296 
>>160536
там Хруст выпустил видево по Лоре, попробуй, может у тебя получится по его напутствию сделать. У меня получилась какаха. Ща буду пробовать по своим канонам делать, посмотрим, кто из нас двоих просветленней.
Аноним 18/03/23 Суб 10:56:47 #147 №162461 
image.png
image.png
>>162296
Если хочешь писюнами меряться - вот все мои лоры. Почти все сделаны с первой попытки и на стандартных настройках.
>там Хруст
Загуглил этого, промотал всю воду и отступления и в итоге, по параметрам, ничего нового он не привнёс. Тупо гайд по лоре в видео формате
Аноним 18/03/23 Суб 11:35:20 #148 №162482 
>>162461
Я не с тобой собрался меряться же, а с ним.
Аноним 18/03/23 Суб 11:37:46 #149 №162483 
>>162296
>Хруст
Ебать, кто-то реально слушает этого хача?
Аноним 18/03/23 Суб 11:53:29 #150 №162490 
>>162482
А, ну тогда ясен хуй ты. Даже мерять не надо, любой анон итт прошаренее этого ебла.
Аноним 18/03/23 Суб 12:35:21 #151 №162544 
Кто-нибудь разобрался, чем отличаются обычные лоры от всяких Locon, Loha и Lycoris (или как их там)?

И можно ли их как-то между фораматами конвертировать? Пусть даже без сохранения каких-то особых фичей (если они там вообще есть).
Хочу несколько лор разных типов смерджить, а гуй не дает, ругается ошибками.
Аноним 18/03/23 Суб 12:48:41 #152 №162576 
>>162296
делибирейт хуйня полная, как и гайд (начал бы делать стилизованные сложные фото - вся ограниченность сразу вылезла бы). на 1.5 живых людей гораздо лучше обучать.
Да и один проход я пока не смог получить пиздатый результат. Несколько дообучений с понижением рейта дает лучшую проработку (суммарно где-то 180 повторений). Хотя алгоритм даже для своего случая я пока выявить не смог. Но только несколько дней ебусь.
Аноним 18/03/23 Суб 14:45:17 #153 №162739 
>>162296
> Хруст выпустил видево по Лоре
Сильнее зашквариться хач не мог, рыдал в голосину с его видео, где он не указывает папку с логами и удаляет папку с семплами, крича что это разраб насрал. Мразь тренирует на РАБОЧЕМ СТОЛЕ, это просто пиздец. Путает параболу и косинус. И он ещё что-то продаёт в платных каналах? Как же низко мы пали.

>>162576
Воу-воу, просто ставь cosine и проходов на один раз, примерно сколько тебе надо почувствуй. И не надо никаких дообучений, оно само понижает ЛР и делает это плавно и красиво.
Аноним 18/03/23 Суб 15:23:22 #154 №162787 
128-12864-32.png
64-3216-1.png
xyzgrid-0013-e164edddcb-3325567624.jpg
xyzgrid-0014-e164edddcb-3325567624.jpg
Тест влияния большого батч сайза на тренировку, заодно по совместительству проверка дохлых тензоров, коммит сд-скриптс feb 11 b32abdd327f314fabc76fbbb627218090afb7b69 дефолтные настройки для 0.3.0 кохьи: D128/A128, shuffle=1, сид залочен.

V12 - batch 1, 1e-4. Ну просто рабочий сток, что тут еще сказать. Проверил тензоры, скрин компейра слева Д128/А128, справа Д64/А32. И там и там встречаются дохлые вторые значения 0.0. Поиск по 0.0\r\n Д128/А128 count = 187, Д64/А32 = 126. Еще скрин сравнения лоры 64/32 с 16/1, там таких значений куда меньше - 15. Это значение кстати включая поиск по последнему выключенному слою те, который вообщем то и должен быть 0.0 при клипскипе 2, примерно 6 значений во всех подсчитанных ранее правильные, так что можно из них вычитать это число, посчитал сам и оно может быть неправильным.
Судя по логу апдейтов кохи
> Noe the script shows the mean of the absolute values of the weights, and the minimum of the absolute values of the weights.
Первое число это среднее значение весов в слое(?), а второе минимальное, то есть в этом слое присутствует дохлый тензор.

V13 - batch 12, 2e-3. Как и советовали умные дядьки лр увеличен во столько же раз, во сколько и батч сайз. Результат - смэрть, лосс сразу перевалил за 0.5

V14 - batch 12, 6e-4. Половину лра от рекомендуемого умными дядьками, popierdolilo, но не полностью сожгло, никуда не годится.

V15 - batch 12, 1e-4. Вообще не измененный лр, только батч. Приемлемый результат, но по такой маленькой выборке виден недотрен по сравнению с батчем 1

И чего, и как тренить с таким батчем, ведь умные дядьки не могли соврать насчет лр, правда? Понятно дело, что при альфе 1 и 2е-3 покатит, не раз уже подтверждалось, но это увеличение связано именно с уменьшением альфы, но не увеличением батча.
Аноним 18/03/23 Суб 15:26:45 #155 №162794 
xyzgrid-0009-e164edddcb-3325567624.jpg
xyzgrid-0012-e164edddcb-3325567624.jpg
>>162787
Еще грид без бекграунда
Аноним 18/03/23 Суб 15:27:51 #156 №162797 
>>162787
> проверка дохлых тензоров
А это лоры в fp16 или bf16? А то может быть...

мимо
Аноним 18/03/23 Суб 15:30:01 #157 №162801 
>>162797
Все fp16
Аноним 18/03/23 Суб 15:33:48 #158 №162810 
>>162794
> без рук
Пофиксил.
Аноним 18/03/23 Суб 15:34:10 #159 №162812 
>>162801
Было бы интересно сравнить по нулевым тензорам в bf16.
Аноним 18/03/23 Суб 16:07:50 #160 №162869 
>>162812
> bf16
Чел, bf16 нигде кроме TPU не нужно. Разницы для обучения с fp16 нет никакой.
Аноним 18/03/23 Суб 16:19:35 #161 №162886 
>>162869
Так у bf16 ренж как у fp32 и в андерфлоу он выпадает намного реже чем fp16 же.
Аноним 18/03/23 Суб 16:26:01 #162 №162894 
>>162812
>>162886
Дело говоришь, попробовал, count = 6, то есть дохлых тензоров нету, прямо вообще. Д128/А128
Аноним 18/03/23 Суб 16:34:33 #163 №162904 
>>162886
> ренж как у fp32
Нет, это динамические fp16, с ним просто fp32 местами используется, он для совместимости с TPU сделан.
А для нормальных градиентов надо использовать скейлер, а не просто автокаст. Даже в документации к торчу написано не использовать автокаст для обратного прохода, но в ваших лорах зачем-то делают это. Со скейлером нет никакой разницы в качестве обучения между fp16 и fp32.
Аноним 18/03/23 Суб 17:57:55 #164 №163002 
>>162904
>но в ваших лорах зачем-то делают это
Покажешь, где посмотреть и менять?
Аноним 18/03/23 Суб 18:17:54 #165 №163045 
>>162904
> Нет, это динамические fp16, с ним просто fp32 местами используется
Каво? В смысле нет? Ну и ты только что миксед пресижн, что как с fp16, так и с bf16 можно.

Это не ты говорил что с 8 бит адам градиенты по пизде идут?
Аноним 18/03/23 Суб 18:37:47 #166 №163097 
.jpg
>>160234
Выше пролистай, есть ссылка
>>161696
> Ты питонист опытный вообще?
Поверхностно знаю, хотя с чем сравнивать
> Тебе наверное эту херню 5 минут написать и собрать, поможешь?
Попробовать то можно, но я не кодер и с этим не работал, не факт что будет польза
> Что там еще из нового, только оптимайзер же?
>>162787
Судя по значениям у тебя там фп-16, наглядный пример преимущества бф16 получается прямо
> Д128/А128
Там при 5e-4 уже страшно пережаривается и распидарашивает, в наи гриды были, могу притащить
> V15 - batch 12, 1e-4. Вообще не измененный лр, только батч. Приемлемый результат, но по такой маленькой выборке виден недотрен по сравнению с батчем 1
А промежуточные между 1 и 6 значения не смотрел?

Таки почему ты так не хочешь альфу1? Наглядное сравнение оптимальной лоры на ней с оптимальной лорой на =дим можешь показать? Тема ведь интересная.
В ближайшее время попробую разобрать свалку гридов с разными альфами в том числе, надо разбираться.

У const_v1 и const_v2 одинаковый сид и отключено перемешивание токенов. На эталон не тянет но по тому же сиду сравнивать можно. Сейчас почищу и добавлю.
Аноним 18/03/23 Суб 19:14:16 #167 №163226 
1658864925487.png
>>163045
> ты только что миксед пресижн
Так вот bf16 - это всегда он. По скорости он обычно хуже чем нормальный fp16 со скейлером. Ну и bf16 не спасёт от NaN если автокастом ебашишь. Вот из документации, но в лорах автокастом обернули вообще всё.
Аноним 18/03/23 Суб 20:48:03 #168 №163607 
bf16.jpg
fp32.jpg
>>163097
> Судя по значениям у тебя там фп-16, наглядный пример преимущества бф16 получается прямо
Еще какой, хорошо анон подкинул идею >>162797
Потестил еще save_precision fp32 + mixed_precision fp16, выдает тоже нормальную лору, но весит она естественно в 2 раза больше.
То-есть можно будет и на старых картах использовать такие лоры, без бф16 для 3000+, только весить они будут слишком много, хз правильно ли я вообще параметры расставил, в этом гуе mixed_precision выше fp16 нету, скрипт вообще понимает такое значение параметра?
> Там при 5e-4 уже страшно пережаривается и распидарашивает, в наи гриды были, могу притащить
Тащи конечно, я вот понял что увеличивать лр как минимум в такое же количество раз не нужно.
> А промежуточные между 1 и 6 значения не смотрел?
Нет, вот эти две сделал с обычным 1е-4 и батчем в 10, они более менее нормальные, можно конечно что-то типо 3е-4 поставить наверное и будет норм. Бтв шафл включен, но все равно большинство пикч повторяется.
>Таки почему ты так не хочешь альфу1? Наглядное сравнение оптимальной лоры на ней с оптимальной лорой на =дим можешь показать? Тема ведь интересная.
Я пока не собрал датасет на стиль, завтра планирую как раз, отложу пока допиливание гуя. Могу лишь старый пример скинуть, но там тесты не каноничные, без залоченных сидов, с шафлом, не на одинаковых настройках >>109112 →
Кстати проблему с черным канвасом я уже идентифицировал, это наи вае такое выдает периодически при генерации, хз насчет дальнейшей тренировки вместе с ним.
Ну вот не улавливает низкая альфа стиль, хоть убейся, все остальное получается, форма лица, одежда, мимика, окружение, остальные аттрибуты, но стиль хуй и всё тут. Надо перетестивать короче, если уж на то пошло, можно и старый датасет раскопать, он уже отфильтрованный ведь. С низкой альфой заебись тренить просто персонажа без влияния на стиль, вот что могу сказать, просто охуенно, ничего лишнего не присасывается.
Аноним 18/03/23 Суб 21:57:46 #169 №163773 
.png
.png
>>163607
> То-есть можно будет и на старых картах использовать такие лоры
Ты только учитывай что это потребует дохуя большего объема врам, а ее в старых картах и так не густо совсем. То что весят много это вообще ерунда.
> в этом гуе mixed_precision выше fp16 нету
Который вебинтерфейс? лол
> я вот понял что увеличивать лр как минимум в такое же количество раз не нужно.
В такое же - абсолютно нет. Вот сейчас вглядываюсь и пытаюсь интерпретировать, на одном сиде прямо явно выражено что на бс2 гораздо ближе к оригиналу чем бс12 где похоже на недотрен, но смотришь на соседний - уже нихуя. Всеже если разница присутствует то для батчсайзов под 20+ гигов врам она составляет 1.5-2 раза от силы по сравнению с 1-2. Потому в примерах дефолтными и были выставлены значения 2e-3 и 3e-3, уж вероятность поломаться при больших ЛР с BF16 и BS12 у модели меньше это 100%. Будет вообще весело если тут еще зависимость от датасета подъедет, особенно на чем-то шизофазическом типа стиля мадоки
> можно конечно что-то типо 3е-4 поставить наверное и будет норм
2-3 еще попробуй, всеравно обучается по 4 минуты. А, кстати, сколько там у тебя шагов?
> Могу лишь старый пример скинуть
ты по что, ирод, лисодевку в бабу с воротником превратил!
> Ну вот не улавливает низкая альфа стиль
Полагаю здесь надо определиться с тем что понимать под стилем в принципе. Надо примеров заготовить, возможно тут суть в чем-то конкретном, или важны и другие параметры.
> С низкой альфой заебись тренить просто персонажа без влияния на стиль
Эх если бы все так просто было, избавиться от стиля при однотипном датасете та еще боль, а иногда и нереально.
> Тащи конечно
Может завтра, может на днях

Гайдецкий обновил, что-то поправлено, что-то добавлено, есть теперь референсные пикчи для дефолтного сида
Аноним 18/03/23 Суб 23:00:24 #170 №163943 
1e-3bs10A1D32.jpg
3e-4bs10-AD128.jpg
>>163773
> Ты только учитывай что это потребует дохуя большего объема врам, а ее в старых картах и так не густо совсем. То что весят много это вообще ерунда.
А если запрунить?
> Который вебинтерфейс? лол
Нет, который без веба работает https://github.com/anon-1337/LoRA-train-GUI им то я и хочу заняться как со стилем разберусь наконец, а после начинать разбираться как правильно пилить эти новомодние лоры, пока почитал, нихуя не понятно но очень интересно, лоха и локон это типо теперь просто ликорис, они походу дополнительным слоем ложаться на основную лору, или вообще можно отключать основную и не тренить, там еще rank!=dim, вроде может быть больше или меньше, вроде лоха больше подходит для стилей, что-то такое тоже читал, короче еще разбираться надо.
> Будет вообще весело если тут еще зависимость от датасета подъедет, особенно на чем-то шизофазическом типа стиля мадоки
Всмысле подъедет? Датасет это же база, дерьмо вошло дерьмо вышло
> 2-3 еще попробуй, всеравно обучается по 4 минуты. А, кстати, сколько там у тебя шагов?
Вот попробовал 3е-4 с теми же параметрами и 1е-3 с альфой 1 и дим 32. Первая лучше всего овералл получилоась по этой выборке, имхо.
Всего навсего 240 х 10 батч, не меняется ничего уже с 200, судя по гридам, которые я делал с этим датасетом.
> Полагаю здесь надо определиться с тем что понимать под стилем в принципе. Надо примеров заготовить, возможно тут суть в чем-то конкретном, или важны и другие параметры.
Ну я хз как объяснить, на примере этого художника, вот эта характерная мазня, передается с датасетом лучше на большой альфе, на низкой с повышенным лр тоже может, но похуже, зато тени вроде получше, короче надо тренить нормально с лок сидом, как и с кокоро, чтобы видеть точные отличия
> Гайдецкий обновил, что-то поправлено, что-то добавлено, есть теперь референсные пикчи для дефолтного сида
Про системную память не упомянул опять? Кстати хорошо было бы чек тензоров добавить в него.
Аноним 19/03/23 Вск 00:34:45 #171 №164258 
LoRA-train-GUI-v0.21-fix2wVGIMnoVw.png
>>163773
Как тебе кстати такое Илон Маск? Удалось распердолить до двухминутного финиша. Вообще просто рофла ради, потому что там жалуется на тритон. Либ bitsandbytes под последний торч с кудой на винде тоже нету, интересно насколько быстро это тренится на линуксе, я просто смотрю для него либы как раз имеются, а с тритоном вообще хз на самом деле, может он в них лежит? Ошибки начало сыпать после перестановки версий просто.
Аноним 19/03/23 Вск 03:02:30 #172 №164503 
>>162739
А можно по подробнее про то что по видосу хуйня?
1) Caption
2) Lerning rate
3) Epoch

Хочется понять суть.
Аноним 19/03/23 Вск 03:55:37 #173 №164549 
>>164503
1. Caption работает, то что Лора иногда запоминает протеганные моменты - да, есть такое, может кто-то знает как бороться.
2. Learning/Epoch - у него дефолтный лёрнинг (это не плохо, это база) с линейным шедуллером, в итоге получится что одна эпоха и сто проходов, что десять эпох по десять проходов - финальный результат не изменится. И он не правильно говорил про Learning rate и Unet learning rate - первый можно ставить что угодно, для лоры важен Unet, если уж совсем доебаться.
Про батч сайз он втирал какую-то совсем не логичную дичь.
В общем лучше читай гайд по лоре от анона, там больше пользы в разы.
https://rentry.org/2chAI_easy_LORA_guide
Аноним 19/03/23 Вск 10:05:11 #174 №164813 
киньте гайд для обучения произвольным концептам, если есть

а то что-то мне подсказывает, что научить нейронку рисовать очередное маняме, отличающееся от другого маняме цветом трусов, намного легче, чем обучить нейронку совершенно новому объекту
Аноним 19/03/23 Вск 11:42:43 #175 №164848 
Кстати, а есть ли разница тренить на фулл или прунед версии нейронки?
Аноним 19/03/23 Вск 12:32:51 #176 №164879 
>>164813
>а то что-то мне подсказывает, что научить нейронку рисовать очередное маняме, отличающееся от другого маняме цветом трусов, намного легче, чем обучить нейронку совершенно новому объекту
"Что-то" подсказывает тебе неправильно.
Тэгаешь как обычно, ИИ находит похожее в картинках по тэгам, на этом обучается.
Аноним 19/03/23 Вск 15:56:57 #177 №165096 
И всё же интересует вопрос имеется 20 пикч на трейно лоры:

1)100 повторений каждой пикчи в одну эпоху
2)10 повторений каждой пички в 10 эпох

Говорят разницы типа нет, но при втором варианте loss ближе подошел к 1.000. Требуется мнение эксперта.
Аноним 19/03/23 Вск 16:10:02 #178 №165108 
>>165096
Разницы нет между 10 повторениями в 10 эпох и 2 повторениями в 50 эпохах, в одну эпоху лучше не тренить. Хотя на 20 пикчах и если там датасет пиздецовый то эффект рандома может вообще оказаться определяющим
Аноним 19/03/23 Вск 18:26:13 #179 №165323 
>>159685
> выбираем fp16 или bf16. Последний вариант более предпочтителен, но поддерживается только последними сериями видеокарт.
Тьюринг сюда входит?
Аноним 19/03/23 Вск 18:32:42 #180 №165338 
>>159685
Алсо, получаю вылетает ошибка при установке, не знаю что делать.
(venv) PS E:\kohya-ss\sd-scripts> pip install -U -I --no-deps https://github.com/CHNOS/stable-diffusion-webui/releases/download/f/xformers-...dev-cp-cp-win_amd.whl
ERROR: xformers-...dev-cp-cp-win_amd.whl is not a supported wheel on this platform.
Аноним 19/03/23 Вск 19:03:54 #181 №165400 
>>165323
С 3000 серии.
Аноним 19/03/23 Вск 19:09:37 #182 №165425 
>>165338
> win_amd.whl
Там amd64 должно быть, и возле cp циферка. Покажи ка какая у тебя шинда и какой питон установлены (python --version)
Аноним 19/03/23 Вск 19:12:52 #183 №165435 
>>165400
Понял, спасибо.
>>165425
Вроде справился, помогло либо обновление pip, либо добавление папки со скриптами в path.
Аноним 19/03/23 Вск 21:04:24 #184 №165755 
.png
В общем запилилось все на твоем датасете, спасибо за гайд и скрипт анону, пойду грабить художников.
Аноним 19/03/23 Вск 22:55:51 #185 №166049 
Спрошу и сюда.
Братаны, если обновлюсь до вин11, то автоматик заведется?
Аноним 19/03/23 Вск 22:58:21 #186 №166059 
>>166049
Да. Почему ты подумал что не заведется?
Аноним 19/03/23 Вск 22:59:30 #187 №166063 
>>166059
Трясун просто. Привык что обновления все ломают.
Аноним 19/03/23 Вск 23:21:21 #188 №166123 
1.jpg
2.jpg
3.jpg
4.png
Очердное исследование влияния альфы на тренировку стиля, один и тот же сид, шафл включен
Начать надо с того, что художник настолько охуенный, что я прямо снимаю шляпу, выдержанный общий стиль всех картинок, я такой низкий лосс на стиль впервые встречаю, у аниметяночек и то порой побольше, его даже в камепанотест на стиль можно добавлять, лол.
Первые попытки что то сделать с прошлыми настройками на кокоро, пик1, 3е-4, бс11, (40х5х12)/11 шагов не дали нужного результата, свитспотом даже и не пахнет и я увеличил количество эпох с 12 до 15 и повторений в два раза с 5 до 10
Получил второй грид, свитспот прекрасно видно, я его даже пометил. Вообщем то это всё, что можно сказать насчет альфы 128, just works.
А вот приключения с альфой 1 только начинаются, 3e-3 не дал никакого результата, пошел смотреть график, пик4, и пытаться достигнуть такого же лосса как и с альфой 128, в итоге такой лосс был получен только на 7е-3, свитспот скорее всего где то в помеченной области, пик3, тут уже нету такого резкого видного перехода как при альфе 128. И да, 1е-2 уже смерть.
Ну хорошо, в некст посте будет более подробный грид.
Аноним 19/03/23 Вск 23:23:49 #189 №166127 
v6-e10.jpg
v11-e12.jpg
Настройки для граббера.png
Промпт элементарный, мастерпися, (1герл, ковбой шот:1.2), тег лоры, вилдкард бекграунда
Какая лора лучше редактируется я не могу точно сказать, они обе легко меняют бекграунд. Так же не могу сказать что какая-то из них не передает стиль. Но 7е-3 и альфа 1 получилась какой-то более темной чтоли, как будто тени там абсолютно другие, вообщем мне она меньше нравится, но охуеть в такой лр целиться при тренировке стиля, по мне так легче просто поставить большую альфу и бф16, ведь тогда тензоры не сломаются.

>>159944
> Если способ опишешь - буду благодарен
Короче, пока собирал, разобрался с этим, это точно ускорит сборку датасета с бур. Помнишь скрин из старого гайда? https://i.imgur.com/VH5HOcQ.png так вот all надо заменить на general
Аноним 20/03/23 Пнд 00:36:12 #190 №166349 
>>164848
Ещё раз бампану, может кто знает?
Аноним 20/03/23 Пнд 01:16:54 #191 №166400 
>>166349
На прунедах никто не трейнит, ЕМНИП.
Аноним 20/03/23 Пнд 01:27:55 #192 №166408 
>>166123
Как ты в тензорборде сделал названия графиков названиями лор? Или переименовывал уже руками после дела? Меня это жутко напрягает, сразу не переименуешь, вся папка с логами лочится , потом уже забываешь где что было.
Аноним 20/03/23 Пнд 01:46:23 #193 №166437 
>>166408
Они же по дефолту идут по названиям лор, разве нет? Ничего не переименовывал, просто один раз тензорбоард запустил и называл лоры по разному через гуй анона1337
Аноним 20/03/23 Пнд 02:04:29 #194 №166474 
image.png
>>166437
Надо попробовать тот гуй, правда смотрю он два месяца не обновлялся. У меня кохуя_гуй, вот такая беда там, думал может есть какая настройка отдельная, логам давать названия лор.
Аноним 20/03/23 Пнд 02:11:27 #195 №166483 
Если мне нужно только чтобы воспроизводился один костюм, то только его в датасет пихать или в какой-то пропорции?
Аноним 20/03/23 Пнд 02:43:53 #196 №166531 
>>166474
На такой случай тот пропавший анон сделал план б, в гуе есть строка для задания произвольных параметров, ведь все что из себя этот гуй представляет это просто набор этих параметров к скрипту, можешь пока вручную дописывать новые. Я как раз собираюсь заняться его допиливанием, уж пару параметров то я надеюсь смогу осилить. Если смогу надо будет пр тому анону кинуть, может оживет.
Аноним 20/03/23 Пнд 02:57:01 #197 №166539 
tmpap1rqdg0.png
>>162739
>Воу-воу, просто ставь cosine и проходов на один раз
Какой-то странный косинус в дримбуте.
Аноним OP 20/03/23 Пнд 06:03:24 #198 №166768 
>>157970
>>157992
>>159685
>>155525
Добавил в шаблон.
Аноним 20/03/23 Пнд 13:56:50 #199 №167172 
06245-2553379836-realistic photo of 1girl, blue eyes, blue overalls, blush, bracelet, brown hair, frog, full body, green shirt, hair ornament, j.png
06246-2553379836-realistic photo of 1girl blue eyes blue overalls blush bracelet brown hair frog, full body green shirt hair ornament jewe.png
image.png
image.png
ЧЗХ C каких пор запятая считается как токен, а не разделитель? автоматик совсем ебанулся? Почему никто не говорит, что запятые теперь только подсирают? как чинить? Не могу повторить картинку месячной давности из-за пик4
Аноним 20/03/23 Пнд 13:57:45 #200 №167173 
06262-3774322416-, , , , , , , , , realistic photo of 1girl blue eyes blue overalls blush bracelet brown hair frog, full body green shirt h.png
06263-3774322416-realistic photo of 1girl blue eyes blue overalls blush bracelet brown hair frog, full body green shirt hair ornament jewe.png
>>167172
запятые вначале промта
Аноним 20/03/23 Пнд 14:33:33 #201 №167238 
Есть ли способ скопировать все файлы с определёным тегом в другую папку, а не перемещать? В dataset editor я не вижу такой функции
Аноним 20/03/23 Пнд 14:40:43 #202 №167254 
>>167238
Ладно просто скопировал папку и из неё переместил файлы
Аноним 20/03/23 Пнд 16:40:35 #203 №167453 
Чем отличаеться тренировка лоры и дримбута?
Аноним 20/03/23 Пнд 16:54:36 #204 №167498 
>>167453
Первая делает лору, а вторая модель.
Аноним 20/03/23 Пнд 16:57:22 #205 №167505 
>>167498
Ясно, а структура папок и концепты остаються теми же?
Аноним 20/03/23 Пнд 17:26:38 #206 №167549 
image.png
image.png
Да что такое этот ваш лосс? Это то, насколько разъёбывается сетка, чем меньше, тем лучше? Меня напрягает этот забор на лосс/каррент, что это, почему?
Аноним 20/03/23 Пнд 17:37:39 #207 №167560 
>>167549
3 пик в шапке зырь.
Аноним 20/03/23 Пнд 18:33:45 #208 №167647 
>>167549
> чем меньше, тем лучше
Лосс - это не метрика, на значение похуй. Важна динамика.
Аноним 20/03/23 Пнд 19:40:37 #209 №167761 
tmp8yxw6csp.png
tmpdf0p6ys3.png
tmpkx5dbzcq.png
>>167549
И не говори, это пиздос
На сложном сете держится на одном уровне
Аноним 20/03/23 Пнд 20:23:58 #210 №167832 
>>167549
>>167761
Что это за графики такие?
Аноним 20/03/23 Пнд 21:21:25 #211 №167947 
>>167832
дефолтный dreambooth
поебень от kohya категорически отказывается работать на паскале.
Аноним 20/03/23 Пнд 21:34:10 #212 №167983 
Кста Антон который писал гайд, можешь пояснить за разницу в тегировании для стиля/концепта/персонажа/вещи
Аноним 20/03/23 Пнд 22:28:53 #213 №168103 
>>163943
> А если запрунить?
Так оно всеравно в 2 раза больше потребует чем фп16, офк надо тестировать
> Всмысле подъедет? Датасет это же база, дерьмо вошло дерьмо вышло
Имею ввиду что если там уж пиздец какие разноплановые и странные пикчи то подгонка по одной и при рассмотрении группы может дать разный результат и явить то что в нормальных датасетах не проявляется
> вот эта характерная мазня
Тут бы примеры какие с описанием
> надо тренить нормально с лок сидом
А толку с этого если в итоге пойдет по другому пути? Если же ты хочешь чтобы гриды похожие получались - через промт вызывай, оно иначе применяется и пикчи с одним сидом генерации с разными лорами довольно таки похожи
> Про системную память не упомянул опять?
В начале желтеньким чтобы своп выделяли есть
>>164258
Хуясе, этоже на минуту быстрее, вот это интересно. Раз ошибки лезут значит что-то есть, оно может просто быть подсосано настолько костыльно что лучше не вскрывать это тему трогать
>>165755
О, топчик
>>166127
> (1герл, ковбой шот:1.2)
Вообще стоит попробовать сравнение с более подробным промтом, ведь при обучении оно натягивает клип по всем тегам которые есть, соответственно %платье_нейм% будет иметь также черты. Но может там достаточно только возмущений юнета, надо тестить.
Если сравнивать гриды то на второй виднеются признаки поломанной/чуть перетрененой лоры с альфа=дим - глаза и лица уплывают, появляется характерное двоение - глоу. Но если это приближает к желаемому - почему бы и нет.
Тестирование сменой фонов это базовое, но не достаточное, попробуй разные ракурсы, масштабы от клозап на лицо до оче далеко и т.д., позиции персонажа (фром бихайнд и т.п.), если везде срабатывает значит все прекрасно.
> бф16
А его, пожалуй, и нужно всегда выставлять, поводом выбрать фп16 может стать только старая видюха
> так вот all надо заменить на general
Найс, красава
>>167983
А какая разница? Нужно наиболее подробное и правильное описание как всего арта, так и той вещи, которую ты хочешь тренить, причем чем больше тегов относятся именно к ней тем лучше. Например, хочешь сделать меч - к нему должны идти типа "холдинг ин хенд", "флаинг" и т.д. А по датасету желательно чтобы было наибольшее разнообразие и совпадение только в том что тренишь. Если у тебя автор рисует одного персонажа или действие происходит только с ним - как ни тегируй, всеравно он будет пытаться вылезти, также как и персонаж в одном стиле будет его воспроизводить (каноничная сенколора хороший пример).
Аноним 21/03/23 Втр 00:44:07 #214 №168330 
FSViewerPXHYeFqFoL.png
FSViewerwpg5DrNzdf.png
xyzgrid-0038-e164edddcb-1.jpg
chromeuOci31zy0c.png
>>168103
> Так оно всеравно в 2 раза больше потребует чем фп16, офк надо тестировать
Вот это точно лень делать, все равно ниже ампера ничего нету чтобы протестить, там же хотя бы тютюрю нужно
> Имею ввиду что если там уж пиздец какие разноплановые и странные пикчи то подгонка по одной и при рассмотрении группы может дать разный результат и явить то что в нормальных датасетах не проявляется
Ты про гриды после тренировки? Все равно не понимаю
> Тут бы примеры какие с описанием
> А толку с этого если в итоге пойдет по другому пути? Если же ты хочешь чтобы гриды похожие получались - через промт вызывай, оно иначе применяется и пикчи с одним сидом генерации с разными лорами довольно таки похожи
Как раз уже закончил тренить стиль, все наглядно вроде расписал выше
> Если сравнивать гриды то на второй виднеются признаки поломанной/чуть перетрененой лоры с альфа=дим - глаза и лица уплывают, появляется характерное двоение - глоу. Но если это приближает к желаемому - почему бы и нет.
На второй вообще то альфа 1 и 7е-3, мне этот результат тоже не понравился
> Тестирование сменой фонов это базовое, но не достаточное, попробуй разные ракурсы, масштабы от клозап на лицо до оче далеко и т.д., позиции персонажа (фром бихайнд и т.п.), если везде срабатывает значит все прекрасно.
Я уже это все попробовал, рисует просто охуенно на самом деле на лоре с 128 альфой, ну единственная проблема наверное это миксование лор, но тут уж хз что поделать, кроме как вес снижать с 1.0, ну и дальние ракурсы нуждаются в инпеинте, хотя где они не нуждаются в нем с такого расстояния то?
> Хуясе, этоже на минуту быстрее, вот это интересно. Раз ошибки лезут значит что-то есть, оно может просто быть подсосано настолько костыльно что лучше не вскрывать это тему трогать
Я пока еще даже не до конца прочитал лог апдейтов кохьи, вот зацепился за параметр --persistent_data_loader_workers и протестил, это он основную работу делает, между эпохами нету выгрузки-загрузки в память, пиздец, надо было сразу почитать это а не мучиться как идиот раньше. А на торч 2 похуй, и так вроде быстро, тем более там и либ каких то не хватает.
Алсо сегодня узнал такую вещь, сд вае намного лучше для тренировки, литералли мое ебало когда тренирую на наи вае пик 1 вс мое ебало когда тренирую на сд вае пик 2, с руками тоже все получше, ну и грид сравнительный, лосс тоже другой, и пришлось даже перетренить на меньшем лр, потому что тренируется тупо лучше.
Аноним 21/03/23 Втр 01:11:34 #215 №168381 
>>168330
> Ты про гриды после тренировки? Все равно не понимаю
Шизодатасет с пикчами-тегами, которые будут сильно отличаться от того что сеть делает обычно, да еще протеган так потребует противоположных возмущений. Неудачно сложившееся обучение на одном потоке может увести в сторону и поломать, тогда как усредненные по нескольким даст более адекватные данные. Вот и получим что чтобы не ломалось на бс1 потребуется сильно снижать лр, а на бс_дохуя все будет ок, хотя по факту такой разницы быть не должно.
> --persistent_data_loader_workers
Ну наконец, давно просилось. Хотя надо отметить что в новых версиях сам процесс подгрузки значительно ускорили.
> не до конца прочитал лог апдейтов кохьи
--use_lion_optimizer пробовал? Дохуя перспективно и качественно обещают
> Алсо сегодня узнал такую вещь, сд вае намного лучше для тренировки
Хуясе ебать, надо попробовать


По стилям потом, надо свалку разгрести и для чистого эксперимента натренить пару чтобы сравнить объективно.
Аноним 21/03/23 Втр 03:36:01 #216 №168523 
изображение.png
Что писать здесь, не пойму какую ссылку требует от меня что бы загрузило модель, это в колабе по дримбуту
Аноним 21/03/23 Втр 08:59:57 #217 №168709 
>>168330
> сд вае намного лучше для тренировки, литералли мое ебало когда тренирую на наи вае пик 1 вс мое ебало когда тренирую на сд вае пик 2
> 2023
> держать включенным что-то кроме сд вае
Ебало неимаджинируемо.
Аноним 21/03/23 Втр 10:56:48 #218 №168873 
Ну что там сделали уже однокнопочную тренировку лор? Чтобы датасет закинуть и все
Аноним 21/03/23 Втр 14:17:15 #219 №169149 
>>168381
> Хуясе ебать
Бля в начале прочитал ванильную сд модель и ахуел, а по совместимости вае тема не новая, на какой модели тренилось?
>>168709
> 2д23
> Видеть черный только на черных квадратах
Еще как имаджинируемо
Аноним 21/03/23 Втр 18:15:27 #220 №169663 
>>168103
>Если у тебя автор рисует одного персонажа или действие происходит только с ним - как ни тегируй, всеравно он будет пытаться вылезти, также как и персонаж в одном стиле будет его воспроизводить
Тут вообще как повезет.
Лору на Могунами взять - так она вполне спокойно разных персов воспроизводить может, особенно если на вес тэгов поднажать. В итоге лора на персонажа выдает вдобавок еще и стиль художника.
А всё потому что Могунами там протэгана была полностью.
Вот одежду толком не протэгали, и поэтому с одеждой лора справляется хуже - всё норовит в бело-синюю школьную форму персонажей нарядить (ну или ее вариации).
Аноним 21/03/23 Втр 18:17:12 #221 №169670 
Неделю или полторы за темой не следил - чего-то нового придумали?
Лоры эти новые видел - какой в них толк, чем отличаются?
Аноним 21/03/23 Втр 18:23:05 #222 №169683 
О, и еще - кнопки "освободить видеопамять" не придумали еще? А то грузится туда всякое и зависает, только перезапуском спастись можно.
После загрузки автоматика 3.3 гига занято, а после генераций (особенно с контролнетом) память может до 6-7 гигов забиться.
И даже когда ты это всё отключаешь - память не освобождается, что ведет к постоянным out of memory до перезапуска.
Аноним 21/03/23 Втр 21:54:55 #223 №170173 
>>168381
> Шизодатасет с пикчами-тегами, которые будут сильно отличаться от того что сеть делает обычно, да еще протеган так потребует противоположных возмущений. Неудачно сложившееся обучение на одном потоке может увести в сторону и поломать, тогда как усредненные по нескольким даст более адекватные данные. Вот и получим что чтобы не ломалось на бс1 потребуется сильно снижать лр, а на бс_дохуя все будет ок, хотя по факту такой разницы быть не должно.
Кстати реально интересно, насколько это влияет все таки на обучение, так по наблюдениям на большом батч сайзе лорки реально лучше выходят, по времени то понятно, но даже бс2 8 минут всего с этим параметром, про который я тебе написал
> --use_lion_optimizer пробовал? Дохуя перспективно и качественно обещают
Этого дохуя перспективно и качественно там вот столько:

def add_optimizer_arguments(parser: argparse.ArgumentParser):
parser.add_argument("--optimizer_type", type=str, default="",
help="Optimizer to use / オプティマイザの種類: AdamW (default), AdamW8bit, Lion, SGDNesterov, SGDNesterov8bit, DAdaptation, AdaFactor")


и к каждому походу свой подход еще нужен, у ады вообще какой то рофл видел пока дебажил, типо рекомендации в консоле ставить лр 1.0, и в этот момент не понял прикола

> По стилям потом, надо свалку разгрести и для чистого эксперимента натренить пару чтобы сравнить объективно.
А я как то не чисто или не объективно сравнил чтоли?
Аноним 21/03/23 Втр 22:55:04 #224 №170328 
>>169663
Лора может запомнить несколько персонажей или скорее характерные им черты и связать их с промтом, также и стиль художника подсасывается если он везде одинаков и будет присваиваться всем объектам. Другое дело что прям сильно детально если необычные и много не выйдет, а с формой сам видишь нюанс.
>>170173
> типо рекомендации в консоле ставить лр 1.0
лол
> А я как то не чисто или не объективно сравнил чтоли?
Не, как взгляну на что-то типа 7296x7251 где нужно вглядываться сравнивать, вспоминаю про то что еще лежит ждет, ловлю флешбеки с работы и мотивация пропадает. Но рано или поздно надо будет заняться
Аноним 21/03/23 Втр 23:02:12 #225 №170361 
>>167172
Удваиваю проблему, чтоб повторить декабрьские генерации - и то частично, по очевидной причине - пришлось чистить вилкой промпт из пнгинфо.
Аноним 21/03/23 Втр 23:06:05 #226 №170370 
Какие профиты от тренировки не на nai?
Аноним 21/03/23 Втр 23:18:20 #227 №170407 
>>166063
В целом концепция верная, обновления нинужны!

мимо лаптоп-2011-кун
Аноним 22/03/23 Срд 01:43:08 #228 №170849 
>>170370
Может скопироваться стиль модели
Аноним 22/03/23 Срд 01:54:01 #229 №170863 
photo2023-03-1918-54-21.jpg
photo2023-03-1918-46-59.jpg
192323.jfif
239027.png
>>155386 (OP)
Гайс, приветствую!
Вкатываюсь в нейросети не так давно. Недельку я осваиваю всю эту шушару с лорами, дримбусами и прочим, в целом минут за 10 обучения получилось в дримбусе создать свою модель, внешне похожую, но далеко от какого-то фотореализма. При этом сколько я материалов не смотрю все лезут в какую-то залупу, какие-то лоры в кое, чето делают, текстуал инверсии, а как начнешь разбираться в этих разных вариантах обучения, то оказывается оно всё мало чем отличается друг от друга первый пик в ОП посте, тоже датасет, тоже настраиваю часто такие же параметры, только в другом интерфейсе и прочее.
В связи с чем возникает вопрос: что и как использовать для того, чтобы СД генерировал реалистичную модель человека, а-ля сфоткал на свой телефон, на основе своего датасета? Достаточно ли будет накрутить какие-то настройки в дримбусе автоматика1111, чтобы из того, что есть сейчас (1-2 пик), сделать так же красиво как делают чуваки используя лору в Кои_Гуи или просто на готовой модели (3-4)?
Заранее благодарен любой посыльной помощи, я мог шото спросить не правильно, я просто вообще нихуя не разбираюсь в этих ваших штуках
Аноним 22/03/23 Срд 09:03:14 #230 №171272 
Ебал в рот пидараса который утверждал что локально обучение лоры не запустится на 10гб
Аноним 22/03/23 Срд 10:52:54 #231 №171366 
photo2023-01-1923-25-30.jpg
sup
В нейросетях упарываюсь по обучению на фотках людей для создания их портретов.
В основном пользуюсь колабом Fast Freambooth.
Из того, что примерно получается - взять 15-20 фото с лицом, натренить на Dreambooth. В результате периодически получаются вполне удачные фотопортреты или портреты в стилистике а ля "amazon warrior", "elf", "elsa from Frozen".
Какая есть проблема - если брать фото с лицами крупно, то при попытке запросить что-то типа full length portrait - оно все равно норовит отрисовать только лицо. Начинаешь увеличивать вес промпта - теряется схожесть.
Тренишь на портретах в полный рост - лицо и близко непохоже становится.
Как с этим бороться? Посоветуйте хороший гайд, анонче.

>>170863
Попробуй Colab какой-нибудь, на Youtube набери "how make my portrait with dreambooth", там полно индусов поясняющих за это.
Аноним 22/03/23 Срд 11:12:04 #232 №171401 
>>171366
ебаться с img2img, переделывая только ебало
Аноним 22/03/23 Срд 11:44:44 #233 №171438 
image.png
А вот если я в дадасете на некоторых фото замазал фон тупа зеленым пятном, оно так и будет его потом рисовать? Типа оно не понимает что нужно взять только лицо?
Аноним 22/03/23 Срд 12:09:26 #234 №171463 
>>171438
Обознач это каким то тегом, что бы потом в негатив кидать, мне помогло
Аноним 22/03/23 Срд 12:39:52 #235 №171527 
>>171463
пон спасибо, но походу снижение cfg помогло
Аноним 22/03/23 Срд 13:20:12 #236 №171631 
>>171527
Судя по заказанному лицу, результат отличный.
Какими тегами пользуешься? Тренишь фотками с лицом крупно или по-другому? Как маркируешь, чтобы сказать сетке - "нужен именно этот конкретный человек"?
Аноним 22/03/23 Срд 13:31:01 #237 №171650 
>>171631
На самом деле с лицом все не так однозначно, я больной ублюдок и использую 2 гиперсетки и 1 лору на небольших значениях, только так удается получить нужную схожесть с оригиналом. Вообще я лору научился делать буквально на днях и все еще эксперементирую. До этого использовал 3 гиперсетки. Фон бывает из-за такого охуенного коктейля пидорасит пиздец как

Тренил чисто с фотками лица крупным планом, других нормальных нет, и пишу просто photo of young woman
Аноним 22/03/23 Срд 13:32:46 #238 №171651 
Можно ли сделать в webui чтобы у img2img и inpaint были индивидуальные настройки и не приходилось каждый раз отключать апскейл и менять ползунки?
Аноним 22/03/23 Срд 13:36:40 #239 №171660 
>>171651
Джва года жду возможность автоматизировать SD-апскейл. А то открывать вкладку с браузером картинок, send img2img, выставляешь одни и те же настройки каждый раз.
Аноним 22/03/23 Срд 20:29:08 #240 №172872 
Зачем менять тег персонажа на свой при тренировке лоры?
Аноним 22/03/23 Срд 22:00:45 #241 №173234 
00006-3623600999.png
00009-1868709960.png
00016-3104249668.png
>>155386 (OP)
Вкатился с работами
Аноним 23/03/23 Чтв 08:15:03 #242 №174261 
>>171438
Лучше не зеленью замазывать, а заполнением фона.
Или просто вырезать кусок с другой стороны и уже его вставить.
Пусть там каша какая-то непонятная будет, но хотя бы в цветах картинки. Это лучше, чем зеленое пятно. Если таких пятен в материалах много будет, нехорошо получится.
Аноним 23/03/23 Чтв 09:19:51 #243 №174344 
Ваша нейронка полойдёт для того, чтобы надрочить её рисовать арты в стиле одного художника? Проблема в том, что хочу обучать её на манге, вырезая отдельные арты. Сколько в среднем артов надо скормить для достижения приемлемого результата?

И, полагаю, мне нужен будет коллаб, так как с 4 Гб видеопамяти точно делать нечего?
Аноним 23/03/23 Чтв 10:32:08 #244 №174421 
>>174344
Подойдёт конечно, сам тренирую хуйдожников периодически.

30 хороших качественных примеров вполне достаточно, можно больше. Закидываешь в колаб жмяк жмяк жмяк через полчаса-час забирай результат.
Аноним 23/03/23 Чтв 11:37:38 #245 №174500 
>>162739
>Мразь тренирует на РАБОЧЕМ СТОЛЕ
Типа папка с датасетом на рабочем столе? Тоже так делаю, брат жив
Аноним 23/03/23 Чтв 14:39:53 #246 №174751 
>>174500
рабочий стол. логично. сам сру на него во время работы. потом очищаю для следующего проекта

зачем еще нужен рабстол?
Аноним 23/03/23 Чтв 18:13:51 #247 №175320 
>>155386 (OP)
Я же правильно понимаю, что если натренировать модель через Dreambooth на чистой SD 1.5, то с ней нельзя будет делать nsfw картинки? И можно ли это обойти использовав кастомную SD?
Аноним 23/03/23 Чтв 18:36:08 #248 №175402 
чем открывать файлы логов тренировки?
Аноним 23/03/23 Чтв 19:02:58 #249 №175477 
>>175320
Неправильно.
Аноним 23/03/23 Чтв 22:15:30 #250 №176045 
>>175402
Через тензорбоард >>130757 →
Аноним 23/03/23 Чтв 22:27:37 #251 №176074 
>>175320
Можно вытащить из этой модели лору и применять как хочешь, либо мерджить с другими моделями.
Аноним 24/03/23 Птн 00:45:36 #252 №176508 
>>174344
>>174421
Для стилей лучше больше 30. Я беру где-то 100-150 обычно или максимум, что есть.
>>172872
Через расширение dataset tag editor в сд вебуй
Аноним 24/03/23 Птн 01:35:03 #253 №176636 
1679610903671.png
Насмотрелся хруста
Ну вроде норм, что он рекомендует, но можно ли как-то в этом использовать динамический размер, а не 512x512 обрезку?
"Random crop instead of center crop" не работает в его сборке, кстати
Аноним 24/03/23 Птн 01:44:06 #254 №176658 
image.png
>>176636
>Насмотрелся хруста
Братишка, долбоёб, земля тебе пухом
>Ну вроде норм, что он рекомендует, но можно ли как-то в этом использовать динамический размер, а не 512x512 обрезку?
[V] Enable buckets
> в его сборке
Хватит жрать говно
Аноним 24/03/23 Птн 02:01:01 #255 №176682 
>>176658
Не жру, просто дегустирую
Весь рот в тензорах
Аноним 24/03/23 Птн 02:03:32 #256 №176689 
>>176658
> [V] Enable buckets
Там бакетинг по умолчанию отключен? Или это вообще в том гуи на градио? Я пока не щупал его прост.
Аноним 24/03/23 Птн 02:32:14 #257 №176742 
>>176689
В гуи на градио по дефолту включен, в скрипте от анона вроде тоже, что там в конфиге у хачапура - не знаю и знать не хочу. А, вот с обрезкой вспомнил - если кешировать латенты, то нельзя делать рандом кроп и вроде цветовую аугментацию, т.е. оно уже запомнило все пикчи, а не динамически их подгружает и режет по ходу тренировки. Но есть ли польза от рандом кропа - вопрос открытый.
Аноним 24/03/23 Птн 04:11:51 #258 №176845 
>>176508
>Через расширение dataset tag editor в сд вебуй
Не чем, а зачем. Есть на бурах допустим персонаж Ushastaya_nyasha и модель даже немного о ней знает, есть ли смысл заменять этот тег в датасете?
Аноним 24/03/23 Птн 10:50:22 #259 №177099 
>>176742
> что там в конфиге у хачапура - не знаю и знать не хочу
Ну купи вин 10 твикер плиз хотя бы, недорого отдам, брат!
Аноним 24/03/23 Птн 11:09:02 #260 №177135 
Анон, почему умерди гипернетворки? Ведь это единственный способ действительно добавить информацию в нейронку за счёт нового слоя. Или нет?
И пробовали ли делать гипернетворки на vae?
Аноним 24/03/23 Птн 11:32:58 #261 №177221 
>>177135
Обучаются намного дольше, пикчи нужны лишь квадратные. По документации все круто, а на деле лишь с лорой пошел форс обучения и всякие персонажи со стилями.
>>176845
Извини, тупанул.
Очевидно, чтобы представления лоры не ломались об представления модели, которые не всегда идеальные и могут иметь некоторые устойчивые искажения.
Аноним 24/03/23 Птн 13:52:34 #262 №177570 
>>177135
Судя по картинке, лора умеет больше гиперсети.
Аноним 24/03/23 Птн 14:17:21 #263 №177631 
>>177135
Хз, по мне дак вкатываться в тренинг именно с гипернетворков кажется гораздо проще, не надо RX480TI GTX на 40 гб врам или жопоебли со скриптами или гуями от пиздоглазых криворуких уебанов, тренируется всё буквально на глазах, в любой момент можно тормознуть или продолжить. Тупо открыл вкладку, создал гиперсеть, указал папку с картинками и поехал тренировать, но нет, хотим жрать дримбут или сидеть на стручке Кохуи.
Аноним 24/03/23 Птн 14:22:09 #264 №177638 
>>177631
> RX480TI GTX на 40 гб врам
на 8 гб все обучается
Аноним 24/03/23 Птн 14:22:34 #265 №177640 
>>177221
Примерно так и думал, спасибо. Нужны еще пояснения насчет регуляционных пикч. Помогут ли от стиля избавиться например? Гуглятся только посты на реддите о том, что они похожесть лиц улучшают, но это не совсем то.
Аноним 24/03/23 Птн 16:47:10 #266 №178067 
>>159685
Тренировать надо на чем-то другом, что человек может хорошо различать, потому что аниме сельди все выглядят как одна и хуй поймешь, нормально обучилось или нет.
Аноним 24/03/23 Птн 20:21:50 #267 №178626 
>>176636
Забей, то что он наполовину просто описывает дефолтный правильный пайплайн не оправдывает шизу из другой половины что он там сам нафантазировал. Кохя-скрипт может в разные соотношения сторон если не выключать параметр и сетка такое как успешно генерирует, так и хорошо тренится. Главное чтобы не было слишком длинных/шировких пикч и слишком клозапов, которые при ресайзе и кропе до одного из дефолтных соотношений будут обрезаны.
> не работает в его сборке
> не работает
> в его сборке
Причина очевидна, говняк не может сделать нормальное, надо уже радоваться что там нет троянов и майнеров
>>176742
> В гуи на градио по дефолту включен, в скрипте от анона вроде тоже
this, и там стоят дефолтный диапазон от 256к1024 до 1024к256, штук 8 промежуточных
> польза от рандом кропа - вопрос открытый
Может быть эфимерная в лучшем воспроизведении глаз и большей толерантности к однообразному датасету, но это еще хуй отследить в тех реализациях.
>>177135
Тому что лора покрывает все потребности нормисов, популярна и удобна в использовании, а для чего-то серьезного есть полноценный файнтюн модели.
>>178067
Копродедам дисклеймер в начале, не нравится - пили свой. или у хача подписочку чтобы заебывать его тупыми вопросами почему лора на шкуроеот выдает не то
Аноним 25/03/23 Суб 03:45:00 #268 №180158 
>>178626
> Копродедам
Аниме = дегенерат.
Аноним 25/03/23 Суб 03:57:58 #269 №180168 
>>177640
По своему опыту скажу. Раньше они не работали, лишь ломали лору в хлам и в мясо. Сейчас попробовал, обучилась удачно. Но как-то не особо разницы увидел, может слишком мало повторов именно на регуляционных поставил.
Лучше просто поставить альфу в половине dim или =1.
Ну или сам тоже обкатай. Потом расскажешь.
Аноним 25/03/23 Суб 04:29:30 #270 №180221 
1.jpg
2.jpg
Loss.png
Запилил сравнение версий сд-скриптс для тренинга лор.
Сравниваться будут две версии b32abdd327f314fabc76fbbb627218090afb7b69 --- 0.4.2 (11.02.2023) и последняя на текущий момент aee343a9ee994865a50de6374cd610f604ff164f --- 0.5.2 (21.03.2023)
Первые две сетки запилил, просто чтобы проверить повторяемость одинаковых настроек на старом коммите, вторые две это новый коммит + старый гуй и новый коммит + новый гуй, который я допилил говнокодом под свои нужды, анон1337 походу всё.
Самое важное это то, что теперь лосс между эпохами не скачет как ебнутый и результаты получаются лучше, юбка даже на этой выборке проебывается куда меньше, допиленный гуй вроде тоже работает. Прежние сетки один в один не повторишь, но и новые стали лучше получаться. Так что обновляться с 0.4 походу реально стоит, хз что там на 0.3, вроде такой проблемы между эпохами раньше и не было.
Аноним 25/03/23 Суб 09:24:25 #271 №180474 
>>180221
Старый скрипт "LoRA retard-friendly train_network script v1.13 by anon" будет работать на новой версии, или надо ждать когда будет его новая версия?
Аноним 25/03/23 Суб 09:28:10 #272 №180478 
СЛУЧАЙНО не там спросил >>180454 →

8 гиговый сможет какую-то разницу ощутить от смены UI?
Аноним 25/03/23 Суб 09:38:05 #273 №180494 
>>180478
Зачем менять юи? У ватоматика анологовнет как говорится, да и с недавним костылем от китайца жопа по врам расслабилась так сказать, как восьмигиговый говорю. Ну комфиюай можешь попробовать если тебе нравится пердолинг например и ты с 8 лет мечтал погромировать.
Аноним 25/03/23 Суб 09:41:23 #274 №180500 
>>180494
> с недавним костылем от китайца
Где взять?
Аноним 25/03/23 Суб 09:45:33 #275 №180506 
>>180500
> Где взять?
Чекай ветку >>153713 →
Китаес там еще апдейтов навалил нихуевых, довольно потанцевальная херня в целом, а в наи треде все спят.
Аноним 25/03/23 Суб 09:49:12 #276 №180513 
>>180506
спасибо
Аноним 25/03/23 Суб 10:26:52 #277 №180553 
image.png
>>180506
Почему так?
Аноним 25/03/23 Суб 10:32:41 #278 №180561 
>>180553
После установки костылей всегда лучше полностью перезапускать юи.
А еще на всякий случай заходить в настройки и жать там кнопку аплай и после этого тоже перезапускать
Аноним 25/03/23 Суб 10:39:47 #279 №180584 
>>180561
Полностью? Я закрыл его и через бат-файл прямо запустил
Аноним 25/03/23 Суб 10:51:05 #280 №180603 
>>180584
Ну у тебя на скрине там restarting ui написано.
> Я закрыл его и через бат-файл прямо запустил
И при этом та же ошибка?
Аноним 25/03/23 Суб 10:54:25 #281 №180606 
image.png
>>180603
Да
Аноним 25/03/23 Суб 11:09:52 #282 №180644 
>>180606
Ну хз. Без этого костыля та же проблема? Какие у тебя аргументы в батнике прописаны? Чего без иксформерсов?
Аноним 25/03/23 Суб 11:15:45 #283 №180664 
>>180644

Без костыля все работает

>Чего без иксформерсов?
Так там же челик говорит что иксформес с этой темой не работает. Разве нет? В любом случае, я включил его и все равно все обосралось.

>Какие у тебя аргументы в батнике прописаны?
Только иксформерс и for /d i in (tmp\tmp,tmp\pip) do rd /s /q "i" & del /q tmp\tmp* & rd /s /q pip\cache (я его убирал, ничего не менялось)
Аноним 25/03/23 Суб 11:43:02 #284 №180714 
>>180664
> челик говорит что иксформес с этой темой не работает
Челик говорит что пикчи с тайлед вае и без не отличаются, а иксформеры он упомянул потому что они дают погрешность при генерации даже на одном сиде.

Ну жди более умного наверное, т.к. я например вообще неебу почему на скрине в директории \extension\ есть директория \stable-diffusion-webui\ например, т.к. у меня ее там нет например. И в ишьюсах костыля такого не помню тоже. Ну можешь постучать китайцу на жидхаб, он быстро фиксит всякую херню.
Аноним 25/03/23 Суб 11:44:03 #285 №180716 
>>180714
> \extension\
\extensions\
фикс
Аноним 25/03/23 Суб 15:10:26 #286 №181297 
>>180474
Должен работать, старые параметры скрипта кохья не ломал, можешь попробовать, не понравится/взлетит никогда не поздно откатиться
Аноним 25/03/23 Суб 18:08:09 #287 №181691 
1679756892321.jpg
Рейтуйте. Наиманжинировал себе сеттинг, для научной фантастики/киберпанк/мир тьмы/фейбл/акванокс
Аноним 26/03/23 Вск 02:50:44 #288 №183187 
>>167172
Бамп вопросу. Как увеличить лимит в 75 токенов?
Аноним 26/03/23 Вск 04:30:39 #289 №183285 
Поясните нуфагодауну пожалуйста, есть ли вариант вашей сеткой воспользоваться для нсфв целей, если на борту только 2гб vram? Colab наверняка ведь не пропускает такое?
Аноним 26/03/23 Вск 06:01:01 #290 №183336 
>>183285
Юзай колаб, только осторожнее с лолями. А так все пускает
Аноним 26/03/23 Вск 08:08:48 #291 №183397 
>>183336
> только осторожнее с лолями
А что будет? И что если случайно нагенерятся?
Аноним 26/03/23 Вск 09:03:55 #292 №183420 
>>183397
Словишь бан от гугла
Аноним 26/03/23 Вск 11:35:34 #293 №183535 
>>183420
Пруфы будут? Если не лить себе на гугл диск конечно же.
Аноним 26/03/23 Вск 12:20:29 #294 №183602 
>>180714
Спасибо за помощь. Я просто обновил автоматик и все заработало, оказывается я его не обновлял с момента установки, а это пару месяцев назад наверное
Аноним 26/03/23 Вск 13:04:05 #295 №183642 
image.png
>>183187
Аноним 26/03/23 Вск 15:03:00 #296 №183944 
>>155386 (OP)
Посоны, допустим у меня есть уникальный художественный стиль, как и чем лучше всего натренить SD чтобы она рисовала все в моем стиле?
Аноним 26/03/23 Вск 15:05:50 #297 №183957 
Нн очень понимаю для чего используется BREAK.
Аноним 26/03/23 Вск 15:43:55 #298 №184057 
>>183957
Тренишь лору как обычно, тэгаешь всё прям вообще до упора.
Должен ухватиться как раз в таком варианте.
Спец-токен вызова стиля в тэги можешь не добавлять, все одно влияние минимальное.
Аноним 26/03/23 Вск 16:14:38 #299 №184166 
Братья, у вас бывает такое, что апскейл не подхватывает лору по какой-то причине? Галочка стоит, а он игнорит.
Аноним 26/03/23 Вск 16:19:19 #300 №184185 
>>184166
В консоль посмотри, есть ли там ошибка
Аноним 26/03/23 Вск 16:49:31 #301 №184294 
.png
.png
>>184185
Такое ощущение, что какое-то расширение мне все ломает, потому что на чисто автоматике+additional extensions все работает, а на автоматике с фуллпаком экстеншенов там наблюдается проблема.

Алсо, вы когда апскейлите, то правите ползунки лоры? Потому что я оставил те же, что были при изначальной генерации, и она потеряла свой стиль.
Аноним 26/03/23 Вск 16:55:03 #302 №184311 
>>184294
> ползунки лоры
Не пользуюсь этим говном. Автоматик уже давно из коробки с лорами работает.
Аноним 26/03/23 Вск 16:57:44 #303 №184324 
>>184311
Ну не суть где, в расширении или промпте. Оставляете те же значения?
Аноним 26/03/23 Вск 17:37:23 #304 №184438 
01266-2654636367-masterpiece, best quality, detailed, solo, angry, close-up, [[[[screaming]]]], face, from side.png
Гребанные погромисты, опять всё сломали.
И какого хрена мне обновиться захотелось?..
Завершение промпта теперь совершенно уебищно выглядит и вдобавок колбасит всю страницу.
Список лор и экстеншнов зависал на полминуты при первом открытии - но это починилось последующими обновлениями.
Зато сука картинка теперь в увеличенном виде посередине экрана не открывается, как раньше было. Хочешь получше рассмотреть? Открывай в новой вкладке.
Аррр, НЕНАВИСТЬ!!!!!
Аноним 26/03/23 Вск 18:15:06 #305 №184538 
>>184438
Откатывайся, там не только это поломали, пкм по генерейт не работает, стиль и так понятно по пизде, дропдаунам тоже пизда, у меня еще какая-то хуйня с памятью была, не мог 1.5 на 1.5 генерить, откатился и все нормально стало. Нахуй кароче, подождем.
Аноним 26/03/23 Вск 18:27:18 #306 №184577 
>>184538
Проблема в том, что я обновил еще и все экстеншны.
Сейчас вот откачу автоматик, так по пизде пойдут расширения.
Аноним 26/03/23 Вск 18:30:05 #307 №184583 
>>184294
> вы когда апскейлите, то правите ползунки лоры?
По разному бывает, иногда апскейл без лоры норм например, поэкспериментируй да посмотри, т.к. общий ответ - хуй знает, особенно если это лоры с цивы. Весь рот в recommended weight 0.55

>>184311
> Автоматик уже давно из коробки с лорами работает
И вес текстового энкодера тоже умеет менять?
Аноним 26/03/23 Вск 18:37:45 #308 №184602 
>>184577
> Проблема в том, что я обновил еще и все экстеншны.
Я тоже, но лучше на рабочем сидеть, так что откатился, мои костыли вроде не выебываются. А если какой-то будет выебываться то его можно просто хардресетнуть до нужного коммита.
Аноним 26/03/23 Вск 18:39:49 #309 №184612 
>>184602
На какой коммит лучше откатиться? Попробовал какой-то, так там дописывание промптов не пашет (но превьюха починилась).
Аноним 26/03/23 Вск 18:46:26 #310 №184634 
>>184612
На какой лучше не скажу. Я просто откатился на тот на котором сидел a9fed7c364061ae6efb37f797b6b522cb3cf7aa2 это за 14 марта какой-то.
Аноним 26/03/23 Вск 18:54:14 #311 №184650 
>>184612
Автор тегкомплита там добавил совместимость уже, так что обнови его.
Аноним 26/03/23 Вск 19:01:11 #312 №184663 
>>184650
Ага, оно живое. За 24-е число какой-то коммит выбрал случайно, на нем работает.
Спасибо.
Аноним 26/03/23 Вск 23:14:27 #313 №185659 
>>184583
> И вес текстового энкодера тоже умеет менять?
Да. Вместе со вторым.
Аноним 26/03/23 Вск 23:32:00 #314 №185711 
>>185659
> Да. Вместе со вторым.
В смысле? Покеж как делается.
Аноним 26/03/23 Вск 23:33:13 #315 №185715 
>>185711
Просто значение у <лора:1> после двоеточия меняешь.
Аноним 26/03/23 Вск 23:38:04 #316 №185725 
>>185715
Не, в смысле возможность крутить вес юнета и вес клипа отдельно, как в костыле от кои. Я про это спрашивал
Аноним 26/03/23 Вск 23:56:02 #317 №185796 
>>185725
Отдельно нет, нельзя вроде.
Аноним 27/03/23 Пнд 00:00:37 #318 №185811 
>>185796
Ну вот собсна, у костыля только один минус - нет вменяемого поиска. Пролистывать сотни хуево структурированных лор в поисках нужной это пиздец.
Аноним 27/03/23 Пнд 00:13:02 #319 №185837 
Короче, ребята, каким-то образом кастом хайрез фикс ломает имг2имг и апскейл, заставляя их игнорировать лоры.
Аноним 27/03/23 Пнд 00:29:40 #320 №185864 
>>185837
А мог бы пользоваться нормальным аддоном для лор, а не костылём от автоматического узкоглазия.
Аноним 27/03/23 Пнд 00:34:26 #321 №185874 
>>185864
Это каким?
Аноним 27/03/23 Пнд 00:51:43 #322 №185899 
>>185811
Костыль ради хуйни, которой ни один адекватный человек не пользуется, нахуй не нужен. Еще и срет в консоль.
Аноним 27/03/23 Пнд 00:58:42 #323 №185905 
>>185899
> Костыль ради хуйни, которой ни один адекватный человек не пользуется
Услышал тебя. Еще скажи что в тренинг инфо и метадату не смотришь.
> Еще и срет в консоль.
Нихуя не срет.
Аноним 27/03/23 Пнд 01:09:24 #324 №185914 
>>185905
> Еще скажи что в тренинг инфо и метадату не смотришь
Для этого есть цивитаи хелпер, который кроме перечисленного еще и позволяет быстро перейти на страницу лоры или прописать триггеры.

> Нихуя не срет.
Может в новых версиях что-то поменялось, но раньше при каждом пуке в консоль выводилось, что веса загрузились и изменились или восстановились, лора применилась и подобная очень важная информация.
Аноним 27/03/23 Пнд 01:29:28 #325 №185937 
>>185914
> цивитаи хелпер
Ох бля, до него руки все никак не дойдут. Половина лор не с цивы и триггеры уже привык прописывать в названии что б уж точно не проебать.
Алсо, в автоматике таки запилили просмотр метадаты лор.
> каждом пуке в консоль выводилось, что веса загрузились и изменились или восстановились
А, ну если ты про это а не про ошибки совместимости с другими костылями лол, то все по старому, при изменении параметров подключения все так же выводится.
Ну хз по мне вес клипа стоящая херня, или его добавят в ватоматик, или китаец прикрутит себе нормальный поиск, или вообще вес клипа добавят в лора блок вейт. Что-то из этого было бы заебись.
Аноним 27/03/23 Пнд 02:27:25 #326 №186005 
Сап, ночной. ЕОТ и около 70 её фоток. DreamBooth от ShivamShrirao, 512х512, lr=8e-7, cosine, 10к шагов, обучение на SD1.5 (диффузорные веса из репы runwayml на обниморде). Выбрал вариант на 6к шагов. Портретно... узнаваемо. Лучше, чем то, что я делал раньше.

Но есть беда - "ванильная полторашка"... не сильна в анатомии, скажем так. Я попробовал сделать Add Difference по формуле
DreamLikePhotoRealV2 + ( mycustom6k - v-1-5-pruned ). Получилось не очень, ослабло портретное сходство. ЧЯДНТ?

DLPRv2 - потому что нативные 768х768 на базе 1.5. И оно правда работает. Тренировать непосредственно DLPRv2 пробовал - выходит фигня.
Аноним 27/03/23 Пнд 03:30:14 #327 №186067 
>>186005
SD1.5 нахуй, если не собираешься на ней генерить.
768 нахуй. Что-то не вижу, чтоб все массово переползали на 768, раз это так хорошо.
Тренируй на любой нормальной модели, где будешь генерить.
Аноним 27/03/23 Пнд 10:10:18 #328 №186280 
Вот бы можно было лоры в ти конвертить...
Аноним 27/03/23 Пнд 11:42:25 #329 №186364 
Прочёл в интернете про ControlNet, кто-нибудь обмазывался? Действимтельно улучшает качество генерации?
Аноним 27/03/23 Пнд 12:20:29 #330 №186443 
>>159685
Анан, вот это вообще не понял:
> Когда пикчи и теги к ним у нас готовы – нужно раскидать их по папкам. Для этого в первую очередьсчитаем количество пар пикча-теги, выбираем число шагов обучения (для начала стоит взять 4000 чтобы с запасом), делим это число на 10 (число эпох в нашем обучении), делим на количество и получаем необходимое число повторений каждой пикчи.

У меня 80 пикч и 80 тхт, сколько шагов чего?
Аноним 27/03/23 Пнд 12:36:13 #331 №186462 
>>186443
Держи нормальный гайд, а не огрызок непонятно чего: https://rentry.org/59xed3#number-of-stepsepochs
Аноним 27/03/23 Пнд 12:44:55 #332 №186468 
>>186067
Реккестирую список нормальных моделей, на которых ты тренишь :)
Желательно сразу с указанием, где брать диффузорные веса.
Аноним 27/03/23 Пнд 13:19:23 #333 №186482 
>>186462
Спасибо, сейчас затяжечку оформлю.
Аноним 27/03/23 Пнд 13:39:50 #334 №186495 
>>186468
Пока устраивает Deliberate, появится что-то более гибкое - с удовольствием соскочу, всё же он довольно пластиковый, но лоры на нём тренированные отлично работают. Как раз новый реалистик вижн вышел, надо пощупать.
По диффузорным весам смотри на huggingface, но сомнительно их наличие.
Аноним 27/03/23 Пнд 16:20:44 #335 №186665 
Можете скинуть гайд по тренировки лор на коллабе пожалуйста? Старый устарел а новый не находился...
Аноним 27/03/23 Пнд 16:21:25 #336 №186668 
А ещё такой вопрос. В датасете стиля одни тяночки, и ЛОРА на выходе не умеет НИЧЕГО кроме них рисовать, ни мужиков, ни животных... Что нужно сделать, какой параметр скорректировать?
Аноним 27/03/23 Пнд 16:33:29 #337 №186679 
image.png
>>186668
Вангую перетрен и/или проблемы с описанием. Понижай вес, смотри как себя ведёт.
Аноним 27/03/23 Пнд 16:34:38 #338 №186681 
>>155386 (OP)
Поясните пожалуйста про отличия между Textual inversion / Hypernetwork / LoRA и Dreambooth
На чем и что лучше тренить? В чем разница методов вообще?
Аноним 27/03/23 Пнд 16:36:13 #339 №186684 
>>186665
На английском только видел, гуглятся легко.
Аноним 27/03/23 Пнд 16:46:01 #340 №186695 
>>186681
Да.
Аноним 27/03/23 Пнд 21:08:58 #341 №187173 
>>186681
Ты слепой? В шапке все написано
Аноним 27/03/23 Пнд 21:23:03 #342 №187213 
Замерджил себе еот с chilloutmix. Ухх щас буду наворачивать
Аноним 27/03/23 Пнд 22:53:10 #343 №187384 
Что лучше для лоры - меньше повторов на похожих пикчах или меньше пикч, но больше повторов? По качеству они не отличаются
Аноним 27/03/23 Пнд 23:02:53 #344 №187409 
>>187384
Лучше 100 пикч, разных и хороших
Аноним 27/03/23 Пнд 23:30:20 #345 №187478 
>>187409
С разными то понятно, я их в отдельную папочку. А вот что делать с кучей крупняков головы например фиг знает.
Аноним 27/03/23 Пнд 23:54:05 #346 №187527 
>>187478
Тут такая хуйня, что никто кроме тебя не скажет, каждый сет индивидуальный, но начни отталкиваться от максимального качества исходников. Я бы не пихал похожие положения головы, только если там развая причёска/свет. А вот кропнуть излишки исходников под разный размер лица - это полезно.
Аноним 28/03/23 Втр 00:02:09 #347 №187540 
image.png
>>186681
За правоту не ручаюсь.
Аноним 28/03/23 Втр 00:30:44 #348 №187581 
>>187527
А разные выражения лица? Сможет в теории лучше воспроизводить?
Аноним 28/03/23 Втр 00:46:49 #349 №187590 
Чтобы анимешные или любые стилизованные персонажи хорошо натягивались на реализм, нужно при приготовлении лор кидать фотореалистичные пики в папочку Regularisation folder, я правильно понял?
Аноним 28/03/23 Втр 01:06:10 #350 №187601 
>>187213
На чём тренил, какие параметры датасета и тренировки?
Аноним 28/03/23 Втр 01:12:14 #351 №187607 
>>187590
Вряд ли это поможет. Скорее тебе такие пикчи нужны в датасете.
Аноним 28/03/23 Втр 01:14:13 #352 №187610 
>>187581
Пиздеть не буду, не пробовал, но если пропишешь эмоции то должно работать. На цивитае есть модель Emotion-Puppeteer и где-то была статься от этого мужика, как он её делал.
Аноним 28/03/23 Втр 01:15:07 #353 №187613 
00087-348608965.png
>>187590
Надо генерировать на подходящей модели.
Вот это тренировано на фотках реальной куклы Мику на NAI и сгенерированно на оранджмиксе
Аноним 28/03/23 Втр 01:36:15 #354 №187631 
>>187590
Мне кажется, главная проблема для реалистичных моделей - это наследование стиля . Если у тебя пикчи надерганы с бур, то вряд ли с таким столкнешься.
>>187610
Посмотрю, спасибо.
Аноним 28/03/23 Втр 01:39:13 #355 №187634 
>>187631
Наследование стиля лорой от однотипного датасета имею в виду если что.
Аноним 28/03/23 Втр 07:41:55 #356 №187786 
>>187601
На ванильной SD 1.5 тренил, 40 фоток 512x512 и 4000 шагов. Вблизи лицо получается идеально, а вот вдали уже начинаются искажения. Но вроде неплохо фиксится хайрез фиксом.
Аноним 28/03/23 Втр 09:26:43 #357 №187845 
>>187786
Спасибо! Это DreamBooth? Какой брал learning rate, schedule cosine или constant? Какой колаб? И не сломался ли он в аккурат вчера?..

Мёржил ведь через AddDifference, да?
Аноним 28/03/23 Втр 11:12:14 #358 №187927 
>>187610
https://old.reddit.com/r/StableDiffusion/comments/114dxgl/advanced_advice_for_model_training_finetuning_and/
Аноним 28/03/23 Втр 13:26:55 #359 №188087 
>>187845
Да, DreamBooth от shivam shirao. Делал по гайду на ютубе https://youtu.be/ZWpT9Hgxpvw
Аноним 28/03/23 Втр 13:28:42 #360 №188095 
>>187786
Мержил через Weighted Sum.
Аноним 28/03/23 Втр 15:24:51 #361 №188248 
https://youtube.com/watch?v=trXPfpV5iRQ
Выглядит как midjourney для видео. Ждем опенсорс?
Аноним 28/03/23 Втр 16:07:05 #362 №188371 
>>187634
>Наследование стиля лорой от однотипного датасета имею в виду если что.
Понял, тем больше более-менее отличающихся стилей, тем лучше модель на реализме переварит ее. А если делать все строго в одном, то стиль будет передан точно, но начнутся проблемы с переходом на реализм.
Аноним 28/03/23 Втр 17:20:32 #363 №188529 
>>188371
Если в датасете много работ одного художника, можешь кинуть другие его работы в реги еще, тоже должно помочь отделить.
Аноним 28/03/23 Втр 19:44:31 #364 №188775 
1680021868719.mp4
>>188248
Ждем слив в лучшем случае
Или +1 год чтоб быть на уровне sd 1.0
Аноним 28/03/23 Втр 20:12:59 #365 №188819 
1680023573723.png
1680023573734.png
1680023573742.png
1680023573751.png
>>187590
Для регов это бесполезно, а для дата-сета не нужно, так как либо стиль в целом сломается, либо на реалистичной модели будет лишь эта часть дата-сета вылазить все время, если таких пикч было мало.
Я вот тренил чисто аниме пикчи, часто с ужасной рисовкой. Выставлял дим 32 альфа 16.
Аноним 28/03/23 Втр 20:45:09 #366 №188882 
>>188819
Есть ли разница с дим 128 или только размер отличается?
Аноним 28/03/23 Втр 20:58:52 #367 №188917 
image.png
Подскажите, вот тут должны иконки с вызовом инфы по лоре быть, с какими параметрами были созданы, но у меня их нет - это из-за Civitai Helper уи сбился? Чтобы не удалять его для проверки.
Аноним 28/03/23 Втр 21:06:16 #368 №188938 
>>188882
Как по мне 128 больше деталей захватывает, что хорошо для стиля, но для персонажей уже слишком.
Ну тут на вкус и цвет. Кто-то 256 ставит и ему норм, кто-то 4. Я для себя нашел баланс в 32 опытным путем.
Аноним 28/03/23 Втр 21:07:45 #369 №188942 
>>188917
ЦиваХелпер обновлён?
Аноним 28/03/23 Втр 21:09:19 #370 №188947 
>>188938
Окей.
Когда лору зальешь?
Аноним 28/03/23 Втр 21:11:22 #371 №188957 
>>188947
Залил же
https://civitai.com/models/21781/yvao
Аноним 28/03/23 Втр 21:17:26 #372 №188967 
>>188882
>>188938
https://github.com/cloneofsimo/lora/discussions/37
Тлдр: количество тренируемых параметров
Что там с новым ликорисом я хз, там ранк != дим это точно
Аноним 28/03/23 Втр 21:35:13 #373 №189001 
>>188957
У меня не находит по тегам, лол. Мои выдает, а твою нет
Жду когда выйдешь из беты;)
Аноним 28/03/23 Втр 21:51:39 #374 №189031 
>>189001
Ты ставил настройки, чтоб все модели показывались даже с цензурой?
Они не так давно стали рандомно на все +18 шлепать. Можно взять пикчу 512x512 с лицом персонажа и получить жесткое ограничение на всю модель. Там что-то автоматическое внедряют видимо, но работает оно очень плохо. То ничего не замечают, то треггерится на херню, то уже дня три не могут проверить пикчу руками и сказать, что она хотя бы уж +18, а не прям реал цопе.
Аноним 28/03/23 Втр 22:01:25 #375 №189055 
>>188095
И с каким соотношением весов?
Аноним 28/03/23 Втр 22:03:01 #376 №189058 
>>189031
Да, не заметил этих фильтров. Теперь все находится.

Надо таки доделать Славяну и переходить к другим персам. Но мне лень..
Аноним 28/03/23 Втр 22:08:51 #377 №189078 
>>188942
Да, теперь появилось, спасибо
Аноним 28/03/23 Втр 22:17:01 #378 №189092 
1680031017694.png
1680031017705.png
>>189058
Добавь еще артов из "травницы" с отдельным токеном на одежду. Было бы здорово.
С Юлей сложнее всего, ибо рисуют либо очень мало, либо крайне хреного. Не понимаю, почему возникают желтые полоски на платье у нее при семплерaх DPM. Причет тоже самое было и на гиперсетях при совсем другом дата сете, когда еще приходилось резать пикчи на квадраты, только там это в 100% случаях и выглядело супер крипово. Будто вся проблема лишь в одной пикче, но не пойму в какой.
Аноним 28/03/23 Втр 22:38:25 #379 №189200 
>>189092
У меня главная проблема с косичками. На большинстве артов одна из двух закинута за спину и сетку ломает от этого даже с тегами twin braids (или two braids не помню).

Посмотри теги в dataset-tag-editor, может там есть какое-нибудь платье с принтом.
Аноним 28/03/23 Втр 22:46:14 #380 №189228 
Как бы я не относился к Хачатуру, но после совета не трогать эпоки и не страдать херней Лора сразу вышла без косяков. До этого все лоры ни в какую не хотели правильно передавать сложную прическу персонажа и получались лишь калечные нечто. Сейчас же верчу персонажа со всех сторон и все просто отлично. В общем, на заметку, не трогайте эпоки, они бьют генерацию.
Аноним 28/03/23 Втр 22:55:46 #381 №189255 
>>189228
Лол. Без контекста о скоростях обучения и количестве шагов, а так же альфе, твой пост бесполезен
Аноним 28/03/23 Втр 23:02:40 #382 №189269 
>>189255
>о скоростях обучения и количестве шагов, а так же альфе
Для меня все это очень сложные слова. Но раз нужно, то Network Rank (Dimension) и Network Alpha на 128, Learning rate стандартный 0.0001, шаги 100 повторений х 48 картинок х 1 эпок х 2 бакет. Датасет не сильно менял, просто перестал ставить 15 эпок х 10 повторов и все такое, чтобы отслеживать промежуточные значения. Когда ставил получалась сущая хуета, я аж впал в уныние. 1 эпок х 100 шагов - идеально, персонаж близок к оригинальному, качество скакнуло на порядок.
Аноним 28/03/23 Втр 23:06:19 #383 №189280 
>>189269
Бля ты рофлишь или реально пишешь эпок?
Аноним 28/03/23 Втр 23:10:32 #384 №189291 
>>189280
>эпок
ˈiːpɒk, ˈepək, в зависимости англичанин ты или американец.
Аноним 28/03/23 Втр 23:29:27 #385 №189320 
>>189269
А логи в тензоборде смотрел? Может у тебя херовая версия сд-скриптс, дающая спайк между эпохами? Сд-скриптс же используется хотя бы в тренировке от этого хача?
Аноним 28/03/23 Втр 23:34:14 #386 №189330 
>>189320
>Может у тебя херовая версия сд-скриптс
Ну, у меня стоит bmaltais/kohya_ss, который ставил по гайду, и CUDNN 8.6 к нему, и больше не заморачивался. У хача тоже он стоит.
Аноним 28/03/23 Втр 23:34:19 #387 №189331 
>>189269
Так это 2400 шагов получается. На верхней границе для нормального обучения, обычно гораздо быстрее всё схватывается.
Эффект такой же будет, если ты поставишь 10 повторений на 10 эпох на том же сете.
Ну, плюс-минус, как повезет. Повторить результаты тренировки все равно не получится, ибо рандом рандомный.
Аноним 28/03/23 Втр 23:35:37 #388 №189335 
>>189269
А перса ты тегами из датасета вызывал для уточнения или одним токеном? А то мб у тебя запоминание паттерна тегов случилось на одной эпохе то. Переодевается и фоны меняются без ебли?

мимо
Аноним 28/03/23 Втр 23:38:30 #389 №189336 
>>189331
Я 10 на 10 ставил и самое близкое (к персонажу, на 60%) выдавалось где-то на 1000-ом шаге, дальше пережарка и лютая деформация стиля шла. Но у меня и датасет тогда немного другой еще был, я его все время перестраиваю. Но 10 измененных картинок не могли мне такой лютый скачок в качестве дать.
>>189335
Один тег персонажа.
Аноним 28/03/23 Втр 23:42:18 #390 №189342 
>>189335
>Переодевается и фоны меняются без ебли?
Да, с этим тоже все отлично.
Аноним 28/03/23 Втр 23:52:55 #391 №189362 
>>189342
А примеры генов с версий что у тебя получались не покажешь? Надеюсь там у тебя не очередная ЕОТ. Это конеш не рисерч, но случай интересный. С одной эпохой тут вроде никто не проводил экспериментов.
Аноним 29/03/23 Срд 00:06:32 #392 №189391 
Пришел сюда за знаниями, а вы тут вайфуми перекидываетесь и волосики на их головах считаете. Тьхубля.
Аноним 29/03/23 Срд 00:18:29 #393 №189429 
image.png
>>189362
>Надеюсь там у тебя не очередная ЕОТ.
Ну, там стандартная анимешная девочка, на которой я набиваю руку, пока разбираюсь в Лорах. Давай просто скажу, что в версии, которая получилась ближе всего, была более-менее сохранена форма прически, но сильно терялись детали. Да и прическа сохранялась не всегда. Не исключено что, я как нуб, что-то неправильно делал и не понимал этого, но кроме эпок и небольшой коррекции датасета я ничего не менял.

>С одной эпохой тут вроде никто не проводил экспериментов.
Ну, попробовать никогда не сложно. С гайдами по лорам вообще все перемудрено, пока одни советуют не трогать эпоки или не использовать меньше 100 повторов, другие кидают вот такие штуки, по которым я тоже пробую и результат был так себе. Ну, если более знающий анон повторит и у него 10х10 не будут отличаться от 1х100, то возможно наебался действительно я, но я где я мог наебался - не представляю. Я пока лично буду одну эпоку ставить и больше не ебать себе мозг, весь день с этой херней промаялся и кучу гайдов перечитал.
Аноним 29/03/23 Срд 00:19:25 #394 №189432 
>>189391
Так знания и приобретаются для того, чтоб вайфы были лучше и волос на голове было больше.
Аноним 29/03/23 Срд 00:37:53 #395 №189477 
>>189429
Ну ладно, сам поэкспериментирую когда-нибудь как будет не лень. А тренить на одной эпохе мыслей никогда не возникало кстати, т.к. результат трени надо было отслеживать и корректировать следующую треню, с минимума в 4 эпохи стал размазывать до 10-15. Потом еще узнал что в доках пайторча к даталоадеру написано что дата шафлится каждую эпоху, что и скорее всего происходит у китайца с тегами. После этого смысла слезать со своего оптимума стало еще меньше.
Аноним 29/03/23 Срд 00:49:54 #396 №189497 
>>189429
Очередная безпруфная околонаучная информация, как и всё от хачапура. Эпоха просто срез лоры на этапе тренировки, никакой магии там нет, разница с одной длинной может быть только если у тебя не константа и происходит рестарт или разогрев между эпохами.
Аноним 29/03/23 Срд 00:52:54 #397 №189505 
>>189497
>если у тебя не константа
У меня всегда константа. Да и я не хачапурам, а глазам верю. Что работает лучше для меня, то дальше и буду делать.
Аноним 29/03/23 Срд 04:23:13 #398 №189745 
>>189429
> image.png
Не нужно делить на батч сайз, если так сделать то получатся маняпопугаи по которым прогресс при обучении обозначается, количество обработанных шагов не изменится.
Аноним 29/03/23 Срд 04:25:24 #399 №189746 
Пробовал кто-нибудь ликорисы то? Стоит запариваться?
Аноним 29/03/23 Срд 04:43:31 #400 №189766 
>>189746
Между картинкой разницы нет, а лоха скорость генерации в два раза урезает.
Аноним 29/03/23 Срд 05:05:51 #401 №189786 
image.png
После ебучего обновления стейбла из списка гипернетворков пропала графа "None" и теперь я не могу отключить гипернетворк, если только не удалю его, чтоб он не применялся. Как исправить эту поеботу?
Аноним 29/03/23 Срд 07:54:18 #402 №189932 
>>189786
config.json
Аноним 29/03/23 Срд 09:14:53 #403 №190019 
>>157992
Аноны, что посоветуете для нейронок при бюджете 25к скорее 20к деревянных?
На местном авито нашёл только
RTX 2060 Super 8GB - 20к
RTX 3060 OC 12GB - 25к.

Что из этого лучше?
Вроде 3060 лучше т.к. памяти больше, но версия Ti мне не по корману, 2060 можно взять Super, но памяти меньше.
Аноним 29/03/23 Срд 09:33:37 #404 №190035 
>>190019
>но версия Ti мне не по корману
3060 ти с 8 гб, тут либо 3060, либо сразу 3090/4090
Аноним 29/03/23 Срд 09:41:05 #405 №190044 
>>190035
>3090
>170к на авито
Спасибо за совет, анон!
Есть ещё вариант вообще ничего не брать, возможно это ТОП с моим бюджетом.
Аноним 29/03/23 Срд 09:44:00 #406 №190049 
>>190044
Возможно, пользуйся колабом и копи на 3060, только внимательно покупай, есть уже версия с 8 гб.
Аноним 29/03/23 Срд 10:27:31 #407 №190102 
>>189055
70 на 30
Аноним 29/03/23 Срд 10:30:23 #408 №190107 
>>190049
Ну версию стоковую 3060 в 12Гб я и сейчас +- могу себе позволить.
А на большее копить жедания нет. Я ж не ебанутый, тратить >50к на кусок текстолита, только чтобы пообщаться в чате с виртуальными с аниме-тяночками.
Аноним 29/03/23 Срд 13:50:36 #409 №190520 
>>190019
Имею 3060 12, полет нормальный. Мерджить или создавать чекпоинты не пробовал, но во всем остальном все отлично. Брал для игр, не думал что 12 гб на борту настолько мне пригодятся в будущем.
Аноним 29/03/23 Срд 14:03:29 #410 №190550 
>>190019
Дежурно совктую посмотреть еще 2080ти, про которые почему-то забывают даже при покупке с авиты.
Аноним 29/03/23 Срд 14:45:27 #411 №190679 
>>190550
>2080ти
На Авито цена её сравнима с 3060ТИ, я ХЗ что из них лучше, но самая дешёвая стоит 35к, а такие цены я ебал...

>>190520
>не думал что 12 гб на борту настолько мне пригодятся в будущем
Что ж, если по нейронкам она топ до 25к, то думаю это мой вариант.
Аноним 29/03/23 Срд 15:05:09 #412 №190721 
.PNG
.PNG
.png
>>141320 →
https://github.com/qarmin/czkawka
Некропост. Находит даже не полные дубликаты, а просто похожие изображения в датасете, как на пиках.

Не вижу в шапке этой тулзы, хотя в подборке мокрописек есть похожий по смыслу Awesome dublicate photo finder, но не сравнивал их между собой.
Аноним 29/03/23 Срд 15:26:26 #413 №190762 
>>190679
Для нейронок нет смысла смотреть карты с 8 гигами, когда даже в 30к бюджете есть варианты получше. 2080ти даст производительность на уровне 3070ти, но если у тебя их рядом нет дешевле, то бери 3060, щито поделать.
Аноним 29/03/23 Срд 15:32:51 #414 №190781 
>>189766
Ты сам тестил?
Аноним 29/03/23 Срд 15:35:27 #415 №190791 
>>190550
>2080ти
Не умеет во всякие 8/4 битные оптимизации. Для картинок пофиг, а вот текстовым прям важно, для текстов меньше 3000 серии рассматривать не имеет смысла.
Аноним 29/03/23 Срд 15:38:24 #416 №190796 
>>189932
Благодарю.
Аноним 29/03/23 Срд 15:45:11 #417 №190818 
>>190791
Почему не умеет? Вот например https://gist.github.com/whjms/2505ef082a656e7a80a3f663c16f4277
Аноним 29/03/23 Срд 16:09:35 #418 №190881 
Подскажите годных ютуберов, рассказывающих про различные возможности Дифюжн. Можно англоязычных. Я только вкатываюсь. Хруста не надо - он, как я понял, ёбаный васян. Хоть и умный.
Аноним 29/03/23 Срд 16:22:02 #419 №190904 
>>190791
Кстати, рофл будет если через полгода-год выйдет какая-нибудь сота ебала, требующая минимум 4000.
Аноним 29/03/23 Срд 16:22:31 #420 №190905 
>>190818
Видимо попутал с 4 битами.
Аноним 29/03/23 Срд 16:33:01 #421 №190928 
Есть ли вообще разница тренить лору на 512 или 768, если модель 1.5?
Аноним 29/03/23 Срд 16:41:45 #422 №190946 
>>190881
Да я их много и не видел сам. Aitrepreneur да Olivio Sarikas из зарубежных. Тут вообще нет какого-то идеального выбора, из-за новизны нейросетей и их быстрого развития никто нихрена полностью в них не разбирается. Я сколько гайдов по лорам перерыл и большинство говном были.
Аноним 29/03/23 Срд 16:54:43 #423 №190969 
>>190905
А 4-битные какие не ставятся?
Аноним 29/03/23 Срд 17:15:23 #424 №191014 
>>190969
У меня 3000 серия, поэтому ХЗ.
Аноним 29/03/23 Срд 18:41:47 #425 №191195 
>>190881
Дак кроме хача ничего и нет, к сожалению. Как же низко мы пали. Смотри его ютуб, для вката сгодится, когда слезать решай сам, может тебе как раз будет его материал и подача. Вот на бусти тратить денег точно не стоит, даже если ты единственный ребёнок олигарха.
Аноним 29/03/23 Срд 18:42:59 #426 №191201 
>>167172
Запятая это и есть лексема (token) класса "разделитель".

Если раньше они хавали "слово," и "слово" как одну лексему каждое - то это была ошибка.
Аноним 29/03/23 Срд 18:55:28 #427 №191241 
>>190721
XnViewMP ещё может в такое
Аноним 29/03/23 Срд 19:59:37 #428 №191384 
>>191014
Тоже видимо "перепутал".
Аноним 29/03/23 Срд 20:20:07 #429 №191456 
>>191201
Ошибкой было нажимать эту >>183642 кнопку. Она была причиной всей тряски.
Аноним 29/03/23 Срд 20:22:47 #430 №191464 
изображение.png
Пиздец, вторая колабская лора сломалась, как дальше быть...
Аноним 29/03/23 Срд 20:40:01 #431 №191518 
>>191241
Да такое может любой каталогизатор практически.
Аноним 29/03/23 Срд 21:47:41 #432 №191758 
Так, ребятушки, поясните мне:
- создал лору 1 эпоха х 100 повторов
- создал копию, просто жамкнув Трейн еще раз и обозначив лора2
- еще раз Трейн, но уже 10х10
Все три тренировались на одном сиде. И все три выдают разные результаты на одном сиде при генерации, хотя казалось бы. Это из-за xformers?
Аноним 29/03/23 Срд 22:04:55 #433 №191842 
>>191758
seed
Аноним 29/03/23 Срд 22:10:33 #434 №191865 
>>191758
Показывай что сгенерировелость, а мы подумаем
Аноним 29/03/23 Срд 22:13:20 #435 №191877 
>>191758
Логи сохранил?
Аноним 29/03/23 Срд 22:16:56 #436 №191891 
>>191758
Насколько "разные"? Тащи гриды, там должно быть отличие с одинаковым сидом, но не огромное, на уровне иксформеров, если ничего больше не менялось.
Аноним 30/03/23 Чтв 00:31:47 #437 №192191 
>>191758
А бачь сколько?
Аноним 30/03/23 Чтв 14:08:33 #438 №193462 
Почему лора запоминает стиль? Я вроде разные стили скармливаю, и фоны описываю подробно, если есть здания, стены, индорс, аутдорс, но все равно упорно рисует здания на фоне...
А еще у перса везде черно-белая одежда, а она часто просто как белую воспринимает. Это можно уточнить как-то? Я нюфаг.
Аноним 30/03/23 Чтв 14:09:00 #439 №193465 
>>193462
Лора на персонажа имею в виду.
Аноним 30/03/23 Чтв 15:31:18 #440 №193681 
Я ебал эти лоры, просто какой-то рандом блять ебучий, измени одно слово в датасете и на выходе новую лору с худшим качеством получаешь, что, как, зачем блять? Это просто непредсказуемая шайтан-машина, черный ящик, все эти ползунки-хуйзунки-текстовые описания ничего не значит, на выходе все равно будет полный рандом
Аноним 30/03/23 Чтв 15:33:04 #441 №193683 
>>193681
Добро пожаловать.
Аноним 30/03/23 Чтв 15:35:27 #442 №193686 
image.png
image.png
Помогите, что я делаю не так?
Аноним 30/03/23 Чтв 15:38:22 #443 №193690 
>>193686
Попробуй запустить через не windows powershall, а просто powershell
Аноним 30/03/23 Чтв 15:50:04 #444 №193706 
>>193690
Запустил на 7павершеле и все заработало, огромного добра, анон в)
Аноним 30/03/23 Чтв 16:02:01 #445 №193723 
image.png
image.png
>>193706
Наебал получается, первая эпоха нормально шла, а потом скрипт опять отвалился, теперь при повторном запуске даже первую эпоху не вывозит. Наверно вся проблема в репозитории, но он у меня скачен с гайда.
В резерве около 60ГБ оперативы.
Аноним 30/03/23 Чтв 16:04:19 #446 №193724 
>>193686
>>193723
> bitsandbytes
> жалуется что не работает
Нахуй проследуй.
Аноним 30/03/23 Чтв 16:10:56 #447 №193731 
image.png
image.png
Я тоже ебал эти лоры. Решил таки феерически расставить точки над i.
Первый прогон - 30 фото, 100 шагов. Батч 2. Сид 1234. 1-E4. Константа. Д64/А64
Второй - Всё закрыто, сделана копия конфига, открыта, изменено название лоры.
Третий - 10 эпох по 10 проходов, остальное без изменений.
10x10 тренилась в разы дольше.
Аноним 30/03/23 Чтв 16:21:41 #448 №193745 
>>193731
По-моему, эти лосс графики нихуя не значат. На 1 эпохе такой же лосс, как и на 8?
Аноним 30/03/23 Чтв 16:23:59 #449 №193747 
>>193745
Loss - это не метрика.
Аноним 30/03/23 Чтв 16:37:29 #450 №193771 
>>193747
И за чем оно тогда нужно?
Аноним 30/03/23 Чтв 16:56:14 #451 №193811 
Я повешусь...
Аноним 30/03/23 Чтв 17:11:03 #452 №193835 
>>193811
Давай. Попроси только наделать побольше фото, а мы сделаем из тебя лору.
Аноним 30/03/23 Чтв 17:12:39 #453 №193839 
Чем датасеты тегируете?
Аноним 30/03/23 Чтв 17:18:25 #454 №193846 
>>193771
Чтобы градиенты автограду считать.
Аноним 30/03/23 Чтв 17:31:25 #455 №193866 
>>193839
wd-tagger'ом.
В автоматике еще встроенный clip вроде был, для SDшных моделей.
Аноним 30/03/23 Чтв 20:58:24 #456 №194280 
>>193681
Так с одним сидом надо тестить.
>>193462
В негативы пихай, ты же протегал. А так, может пережарил просто лору.
Аноним 30/03/23 Чтв 21:01:21 #457 №194284 
>>194280
>Так с одним сидом надо тестить.
У меня всегда один сид стоит, что при трейнинге, что при тестах.
Аноним 30/03/23 Чтв 21:03:48 #458 №194290 
>>194284
Не знаю тогда, у меня стабильные результаты. Если пикч мало, то вроде сильно рандомит.
Аноним 30/03/23 Чтв 21:21:02 #459 №194347 
>>194290
Пикч под 50. Уже третий день ебусь и не понимаю. Вышла отличная лора при 49 пикчах, но неправильно проставил один тег эмоции, начинаешь что-то менять в датасете, делая его чище и правильнее - какое-то говно на выходе вместо лоры выплевывает, с более неправильными очертаниями персонажа и чуть другими цветами. Надо пока забить на все эти лоры и передохнуть, пока кукуха не поехала. А после экспериментировать с Text Encoder learning rate, Unet learning rate и количеством Repeats. А может забить хрен и просто оставить ту лору, которая сразу получилась удачно, пусть и одна эмоция не всегда будет правильно отображаться, зато все остальное работает.
Аноним 30/03/23 Чтв 21:21:21 #460 №194348 
>>193731
> Первый прогон - 30 фото, 100 шагов. Батч 2. Сид 1234. 1-E4. Константа. Д64/А64
> Второй - Всё закрыто, сделана копия конфига, открыта, изменено название лоры.
Это не очень то смахивает на отличия уровня иксформеров, хотя все формы те же, ты их включал во время тренировки? Что насчет шаффла? Даже график повторен.
> Третий - 10 эпох по 10 проходов, остальное без изменений.
> 10x10 тренилась в разы дольше.
А вот тут кохья экспириенс походу, между эпохами лосс пидорасит, какая версия? Дольше кстати потому что не поставил --persistent_data_loader_workers
Интересное короче наблюдение, имхо без эпох прямо совсем печально тренить, не черрипикнуть нужную потом
Аноним 30/03/23 Чтв 21:38:25 #461 №194392 
>>194347
Идеально все равно не будет, так что не сходи с ума.
Аноним 30/03/23 Чтв 21:50:41 #462 №194421 
>>194347
У меня на одной пикче у перса была эмоция в которой он глаза скосил, и все персонажи мужского пола по итогу были блядь косоглазыми. Пришлось фотошопить все зрачки везде и переделывать.
Аноним 30/03/23 Чтв 22:14:47 #463 №194501 
>>194347
Я пытался слезть с этой иглы, но всегда возвращался. Сидел по пяти утра а в выходные и того дольше. Правил теги, обещал себе что это последняя попытка, перефотошопливал весь датасет, удалял с шифтом и начинал с начала. Тегал разными тагерами, не тегал, прописывал каждую пылинку. Ложился спать, не мог заснуть и под каким-то предлогом как наркоман искал способ вернуться к пеке чтоб попробовать ещё разок, вот сейчас точно выйдет идеально. Да, есть приличные результаты, но идеала не получилось ни разу. Может завтра смогу?
Аноним 30/03/23 Чтв 22:26:20 #464 №194543 
Заметил, что цвета персонажа на удачной лоре перенасыщены при весе 1, но приближаются к оригинальным при снижении UNet до 0.7 и оставлении TEnc на 1 (либо просто можно снизить общий вес до 0.7). Но при снижении UNet, естественно, и сам персонаж немного теряет в очертаниях, к примеру упрощается сложная прическа. Что тут можно придумать? Трейнил при Unet learning rate 0.0001, снизить его до 0.00007? Но это не похерит очертания персонажа?
С другой стороны можно так оставить, все равно на разных чекпоинтах придется 0.7 ставить для правильного смешения с ориг. стилем модели, т.е. цвета и так выровняются.
Молодец, сам придумал, сам решил.
>>194501
Прямо гача экспириенс какой-то. Надеюсь тренировку лор в будущем сделают более внятным, сейчас это как участие в садо-мазо оргии, причем я на стороне мазо. Смотрю на чужие лоры на том же цивитае и думаю "как вы блядь их сделали?" А секрет наверное в том, что при 0.7-0.8 любая хорошая модель вытянет любую плохую лору, замазав любые ее косяки, что вполне хватит для красивых превьюшек.
Аноним 30/03/23 Чтв 22:36:45 #465 №194558 
>>155386 (OP)
Реквестирую лору Gertrud Barkhorn. (Не забудьте про вариант без собачьих ушей)
Аноним 30/03/23 Чтв 23:00:57 #466 №194609 
>>194348
Шафл отключен, xformers по умолчанию включен.
>>194543
Я считаю что это хуита. Возможно не прав, но если тебе нужно оставлять 0.7, т.е. 70% от лоры, чтоб она работала, то это хуёвая лора. Исключение - несколько лор. Больше похоже на перетрен.
> Смотрю на чужие лоры на том же цивитае и думаю "как вы блядь их сделали?"
Скачай да посмотри параметры. Аниме не знаю, но на персон там в основном лютое дерьмище. Ну или покажи пример хороших лор с цивитая.
Аноним 30/03/23 Чтв 23:17:36 #467 №194633 
>>194609
>но если тебе нужно оставлять 0.7, т.е. 70% от лоры
Не, лора отлично работает на 1, без каких либо косяков, только цвета немного насыщеннее. Что для аниме и не совсем плохо. Но возможно стоит попробовать с меньшим числом шагов и посмотреть, что выйдет.
>>194609
>Ну или покажи
Да уже давно там не был, все последние дни делал лоры и бомбил с них. Лучше бы блять на что-нибудь другое свое время потратил, уже расхотелось в них копаться.
Аноним 31/03/23 Птн 00:59:26 #468 №194798 
xyzgrid-0079-e164edddcb-1.jpg
>>194609
> Шафл отключен, xformers по умолчанию включен.
Я хз как у тебя это получилось, я вот тоже сделал "контрольный" тест, лок сид, офф шафл и иксформерс, у меня даже хеш, высчитываемый автоматиком, одинаковый получился, на диске у файлов они кстати разные, не говоря о генерациях, так что делаю вывод что никакого черного ящика тут нету, пока не начинаешь менять параметры и содержание датасета. Я уже сравнивал в этом или тредом ранее с лок сидом, шафл офф, там повторение где-то процентов 90 грубо говоря, с включенным шафлом поменьше, но все равно видно, примерно как у тебя
Без иксформеров на батч 2 нужно 20 врама, охуеть вообще.
Еще сделал одну эпоху, просто с таким же количеством шагов, она мне совсем не нравится, рано делать такой вывод наверное, но тут уже виднеется забывание фона в некоторых местах
Аноним 31/03/23 Птн 04:09:28 #469 №195042 
>>194798
ХЗ как так получилось, завтра ещё перепроверю. Попробую два раза сгенерить с одного конфига не меняя название конфига и выходной лоры. По идее хэши должны быть одинаковые. Думал тут просто шизы набрасывают и сваливают в туман.
Аноним 31/03/23 Птн 05:13:31 #470 №195061 
Почему у кохуи такие всратые сэмплы получаются? В чем секрет?
Аноним 31/03/23 Птн 07:02:28 #471 №195094 
Как восстановить все петухоновские файлы в папке с автоматиком и ниже? Кажется, что из-за каких-то старых правок теперь генерировать иногда отказывается, ссылаясь на не одинаковые типы или девайсы весов.
Аноним 31/03/23 Птн 07:50:51 #472 №195111 
>>195042
> По идее хэши должны быть одинаковые
Они будут одинаковые, если ты сделаешь вот так
> лок сид, офф шафл и иксформерс
Не обязательно при этом делать одинаковые названия, я же не делал, через гуй менял
> Думал тут просто шизы набрасывают и сваливают в туман
А вот тут хз вообще о чем ты
Аноним 31/03/23 Птн 09:17:21 #473 №195143 
Будет ли разница в качестве, если тренировать не, скажем, 2000 шагов, а 1000, но с удвоенным лернинг рейтом (скедулер константный)?
Аноним 31/03/23 Птн 11:29:20 #474 №195249 
>>195143
Теоретически - потеря качества и вариативности. Иначе бы все делали один шаг с lr=1 и всё.
Аноним 31/03/23 Птн 14:25:00 #475 №195489 
>>194798
>но тут уже виднеется забывание фона в некоторых местах
Юбку тоже знатно пошатало. Не особо еще видно, насколько изменился персонаж, но по ощущениям глаза прорисовываются хуже.
Аноним 31/03/23 Птн 14:40:05 #476 №195509 
Сколько эпох и повторов обычно ставите, и на какой объем изображений?
Аноним 31/03/23 Птн 16:06:45 #477 №195651 
>>195509
Максимальная тренировка обычно достигается на 2000-2500 шагов.
Может и раньше.
Иногда значительно раньше (бывало, что файтюн уже имеющегося в сетке концепта ухватывался на 400-м шаге).

Обычно я эти шаги разбиваю на 8 эпох, для контроля насыщения. Сохраняю каждую вторую.
Число повторов ставлю в зависимости от количества картинок и батча.

Т.е. для сета в 50 картинок и батча 2 это будет:
2000 (шаги) \ 8 (эпохи) \ 50 (картинки) * 2 (батч) = 10
Аноним 31/03/23 Птн 16:12:28 #478 №195662 
Посоны, как Batch count работает?
Сгенерил картинку, сохранил ее сид, сгенерил еще раз на этом сиде - результат две одинаковые картинки (ожидаемо)
На этом же сиде, ничего не меняя, ставлю Batch count - 4, первая картинка та же самая, остальные три разные (хотя я ожидал что он мне сгенерит 4 одинаковые картинки, ведь сид одинаковый)
Аноним 31/03/23 Птн 16:14:47 #479 №195671 
>>195662
Оно просто берет начальный сид и с каждой картинкой +1 делает.
Аноним 31/03/23 Птн 16:20:41 #480 №195695 
>>195671
Спасибо
Аноним 31/03/23 Птн 17:45:26 #481 №195921 
image.png
Кто-нибудь пробовал этот GUI с TensorRT? https://github.com/ddPn08/Lsmith
судя по картинке нехило так ускоряет генерацию
Аноним 31/03/23 Птн 17:48:58 #482 №195931 
Почему лора перезаписывает класс? Даже кейворд в промпте прописывать необязательно.
Аноним 31/03/23 Птн 18:06:40 #483 №195974 
>>175320
если хочешь делать порнушный контент то я делал так: сначала натренил на блоуджобах модельку брав оригинал сд1.5 потом отдельно в нее снова натренил ебасос своей еот, ??? профит теперь твоя еот сосет, либо ты можешь скачать уже готовую модель коих дохуя на сивитай
Аноним 31/03/23 Птн 18:12:03 #484 №195987 
>>186005
тренил еот на 10 фотках 1500 шагов выглядит почти идеально, фото нужно брать с какого нибудь одного фотосета а не кучу разных ебел где ты смотриш тут она одна а тут чуть другая, везде фокусные расстояния разные
Аноним 31/03/23 Птн 18:29:26 #485 №196023 
>>195921
в общем 150 сэмплов за 8,5 секунд на 3060 это охуенно ящетаю. пробовал ставить, на этапе конвертации модели сыпятся ошибки, снёс, SSD не резиновый к сожалению.
вот интересно узнать, может у кого получилось и какие подводные камни?
Аноним 31/03/23 Птн 18:51:16 #486 №196055 
>>196023
> вот интересно узнать, может у кого получилось и какие подводные камни?
Я так понимаю подводные в том, что там ничего кроме базовой генерации нет, даже апскейла.
Аноним 31/03/23 Птн 18:56:34 #487 №196064 
>>196055
да, с удобствами там совсем не густо, жаль. только img2img.
надеюсь запилят каким-нибудь образом плагин для автоматика. получить скорость 3090 на 3060 было бы здорово.
Аноним 31/03/23 Птн 19:38:04 #488 №196125 
>>196064
Недавно еще Token Merging появился
https://www.reddit.com/r/StableDiffusion/comments/1276th7/token_merging_for_fast_stable_diffusion/
На низком разрешении прирост не заметен, но может пригодиться при апскейле
Аноним 31/03/23 Птн 20:31:50 #489 №196250 
>>196064
Это не будет работать как плагин, иначе бы не делали отделенный гуй очевидно.
Аноним 31/03/23 Птн 21:17:35 #490 №196422 
Ребята, а почему коха лора колаб по завершению обучения, вместо моего запроса выдаёт какую-то хуйню? Какие-то пейзажи, часы, хуй пойми что, только не то что я ему указываю, хотя я и указывал в текстовых файлах то как оно должно называться. Я как только не пробовал, а всё равно хуйня. Скажите пожалуйста как правильно делать?
Аноним 31/03/23 Птн 21:29:31 #491 №196449 
>>196422

Были какие -то картинки с 2д тянкой, я по её инструкции пытался делать, но сразу же обнаружил, что та версия колаба на которую она указывала уже был видоизменён и обновлён, в итоге мне пришлось интуитивно под конец делать по своему и всё равно нихуя не вышло.
Аноним 31/03/23 Птн 21:31:56 #492 №196456 
>>196449

Причём оно если и показывает, то на что я его обучал, то в очень видоизменнёном виде, будто этот промт не являлся приоритетным и выдавалось максимум на 1 из 5 генераций сторонней хуйни в виде пейзажей и т.д
Аноним 31/03/23 Птн 21:32:54 #493 №196462 
>>195921
Нахуй не нужен, потому что это голый SD из августа прошлого года с кучей ограничений.
Аноним 31/03/23 Птн 21:34:14 #494 №196465 
>>196456

Или мне надо было эту лору сохранить и запихнуть уже в другой колаб и в вебуи интерфейсе надо было выбрать лору и уже оттуда установить на текущую модель? Это так рабоатет??? Типо как ДЛС???
Аноним 31/03/23 Птн 21:53:41 #495 №196519 
>>196125
> может пригодиться при апскейле
Мог бы пригодиться, если бы работал с апскейлерами. Он даже с хайрезфиксом не работает.
Аноним 31/03/23 Птн 22:25:30 #496 №196626 
>>195974
Да я уже разобрался, спасибо. Хочу еще других моделек натренить
Аноним 31/03/23 Птн 22:30:38 #497 №196637 
>>196519
Опенсорс как он есть, миллион хуёмбол, созданных непонятно кем по разным стандартам и конфликтующих друг с другом. Впрочем, ничего лучше и не имеем.
Аноним 01/04/23 Суб 00:51:19 #498 №196887 
>>196637
Скоро выйдет софт от адоби, если еще не. Сможешь насладится удобством и цензурой всего и вся
Аноним 01/04/23 Суб 16:29:16 #499 №197685 
Господа, что за тулза была для проверки лор на нулевые тензоры?
Аноним 01/04/23 Суб 16:58:53 #500 №197723 
>>191758
Ловить тот же сид при разных условиях нет смысла, в другой расстановке эпох чуть уедет порядок обучения и на тех же сидах будет другая пикча, это нормально. А если у тебя еще планировщик с рестартами то тем более.
Кстати, кто смотрел, вармап применяется на каждую эпоху или только в самом начале?
>>193462
> Почему лора запоминает стиль?
Оно не может различить стиль и персонажа, числа в модели просто подстраиваются так чтобы по твоему текстовому запросу генерировались пикчи из датасета. Если стиль разный а персонаж один - запомнит его а остальное считай взаимосократиться (в идеальном случае), если персонажи разные но стиль один - запомнит саму стилистику. Может помочь регуляризация или извращения типа дополнительного обучения лоры на стиль и ее вычитание или подобные манипуляции.
>>193731
По имеющейся выборке результаты однохуйствены. Если вызывать лору из промта то с одним сидом пикчи гораздо более схожи, даже на совсем разных модельках.
>>194543
> Что тут можно придумать?
Апскейл и не такое чинит, лол, серьезно.
>>194609
> 0.7, т.е. 70% от лоры, чтоб она работала, то это хуёвая лора
Да не, 0.7 это еще в пределах, хотя уже совсем на грани. Если хочешь немного отступить от исходной внешности.
>>194798
Двачую, с одним сидом получаются одинаковые стабильно, отличия уровня генераций на одном сиде с xformers.
> она мне совсем не нравится, рано делать такой вывод наверное
Все правильно, таки шафл полезен.
>>195921
А оно пригодно к использованию вообще?
>>196125
> но может пригодиться при апскейле
Так апскейл для того и нужен чтобы деталей добавить, а тут их деградация, в таком виде врядли взлетит.

Таки дошли руки и готовлю неистовый врыв с большим сравнением разных параметров тренинга, как на персонажа так и на стиль. За пару дней должно доделаться. Разные лр, сравнение косинуса-константа, разные варианты альфы, батчсайз 2 - 12, бф-фп с наглядной иллюстрацией где что быстрее ломается, спасет ли бс12 от порванного фп16 лолбля кому вообще в голову придет имея 24 гига тренить не с бф но может быть показательно. Ну и разумеется треш с одной эпохой. Нюанс в том что в датасете ~350 пикч и один повтор на эпоху, вот в этом случае уже может что-то вылезти, а так потребуется повтор с малым датасетом и повторами даже с нормальным числом эпох.
Правда может ничего не получиться и будет нихуя не наглядно, но и похуй, тема для дискуссий.
Если есть идеи что стоит посмотреть - велкам, или, например, кто какие планировщики считает перспективными.
Аноним 01/04/23 Суб 20:27:56 #501 №198019 
>>155386 (OP)
Сделайте плиз, лору на персонажа Delutaya?
Аноним 01/04/23 Суб 20:56:44 #502 №198078 
>>198019
ПЯТЬ ТЫСЯЧ ДОЛЛАРОВ
Аноним 01/04/23 Суб 21:10:31 #503 №198100 
Подскажите, а можно эту KOHYA ебаную перенести на другой диск? Все место сожрала своим кэшем.
Аноним 01/04/23 Суб 22:13:23 #504 №198223 
>>198100
Чего? Каким кешем?
Аноним 02/04/23 Вск 00:47:28 #505 №198486 
>>198100
Где ты git прописывал, туда все подсасываться и будет.
ПЕРЕКАТ Аноним OP 02/04/23 Вск 01:01:55 #506 №198507 
>>198503 (OP)
>>198503 (OP)
>>198503 (OP)
comments powered by Disqus

Отзывы и предложения