Сохранен 533
https://2ch.hk/ai/res/478081.html
24 декабря Архивач восстановлен после серьёзной аварии. К сожалению, значительная часть сохранённых изображений и видео была потеряна. Подробности случившегося. Мы призываем всех неравнодушных помочь нам с восстановлением утраченного контента!

Stable Diffusion технотред #12 /tech/

 Аноним 06/09/23 Срд 00:18:10 #1 №478081 
.png
.png
.png
.png
ИТТ делимся советами, лайфхаками, наблюдениями, результатами обучения, обсуждаем внутреннее устройство диффузионных моделей, собираем датасеты, решаем проблемы и экспериментируем
Тред общенаправленныей, тренировка дедов, лупоглазых и фуррей приветствуются

Предыдущий тред: >>399707 (OP)

➤ Софт для обучения

https://github.com/kohya-ss/sd-scripts
Набор скриптов для тренировки, используется под капотом в большей части готовых GUI и прочих скриптах.
Для удобства запуска можно использовать дополнительные скрипты в целях передачи параметров, например: https://rentry.org/simple_kohya_ss

➤ GUI-обёртки для kohya-ss

https://github.com/bmaltais/kohya_ss
https://github.com/derrian-distro/LoRA_Easy_Training_Scripts
https://github.com/anon-1337/LoRA-train-GUI

➤ Обучение SDXL

Если вы используете скрипты https://github.com/kohya-ss/sd-scripts напрямую, то, для обучения SDXL, вам необходимо переключиться на ветку "sdxl" и обновить зависимости. Эта операция может привести к проблемам совместимости, так что, желательно, делать отдельную установку для обучения SDXL и использовать отдельную venv-среду. Скрипты для тренировки SDXL имеют в имени файла префикс sdxl_.

Подробнее про обучение SDXL через kohya-ss можно почитать тут: https://github.com/kohya-ss/sd-scripts/tree/sdxl#about-sdxl-training

Для GUI https://github.com/bmaltais/kohya_ss и https://github.com/derrian-distro/LoRA_Easy_Training_Scripts/tree/SDXL так же вышли обновления, позволяющее делать файнтьюны для SDXL. Кроме полноценного файнтьюна и обучения лор, для bmaltais/kohya_ss так же доступны пресеты для обучения LoRA/LoHa/LoKr, в том числе и для SDXL, требующие больше VRAM.

Всё пока сырое и имеет проблемы с совместимостью, только для самых нетерпеливых. Требования к системе для обучения SDXL выше, чем для обучения SD 1.x.

➤ Гайды по обучению

Существующую модель можно обучить симулировать определенный стиль или рисовать конкретного персонажа.

Текстуальная инверсия (Textual inversion) может подойти, если сеть уже умеет рисовать что-то похожее:
https://rentry.org/textard (англ.)

Гиперсеть (Hypernetwork) может подойти, если она этого делать не умеет; позволяет добавить более существенные изменения в существующую модель, но тренируется медленнее:
https://rentry.org/hypernetwork4dumdums (англ.)

Dreambooth – выбор 24 Гб VRAM-бояр. Выдаёт отличные результаты. Генерирует полноразмерные модели:
https://github.com/nitrosocke/dreambooth-training-guide (англ.)

LoRA – "легковесный Dreambooth" – подойдет для любых задач. Отличается малыми требованиями к VRAM (6 Гб+) и быстрым обучением:
https://rentry.org/2chAI_easy_LORA_guide - гайд по подготовке датасета и обучению LoRA для неофитов
https://rentry.org/2chAI_LoRA_Dreambooth_guide - ещё один гайд по использованию и обучению LoRA
https://rentry.org/59xed3 - более углубленный гайд по лорам, содержит много инфы для уже разбирающихся (англ.)

LyCORIS (Lora beYond Conventional methods, Other Rank adaptation Implementations for Stable diffusion) - это проект по созданию алгоритма для более эффективного дообучения SD. Ранее носил название LoCon. В настоящий момент включает в себя алгоритмы LoCon, LoHa, LoKr и DyLoRA:
https://github.com/KohakuBlueleaf/LyCORIS

LoCon (LoRA for Convolution layer) - тренирует дополнительные слои в UNet. Теоретически должен давать лучший результат тренировки по сравнению с LoRA, меньше вероятность перетренировки и большая вариативность при генерации. Тренируется примерно в два раза медленнее чистой LoRA, требует меньший параметр network_dim, поэтому размер выходного файла меньше.

LoHa (LoRA with Hadamard Product representation) - тренировка с использованием алгоритма произведения Адамара. Теоретически должен давать лучший результат при тренировках с датасетом в котором будет и персонаж и стилистика одновременно.

LoKr (LoRA with Kronecker product representation) - тренировка с использованием алгоритма произведения Кронекера. Алгоритм довольно чувствителен к learning_rate, так что требуется его тонкая подгонка. Из плюсов - очень маленький размер выходного файла (auto factor: 900~2500KB), из минусов - слабая переносимость между моделями.

DyLoRA (Dynamic Search-Free LoRA) - по сути та же LoRA, только теперь в выходном файле размер ранга (network_dim) не фиксирован максимальным, а может принимать кратные промежуточные значения. После обучения на выходе будет один многоранговый файл модели, который можно разбить на отдельные одноранговые. Количество рангов указывается параметром --network_args "unit=x", т.е. допустим если network_dim=128, network_args "unit=4", то в выходном файле будут ранги 32,64,96,128. По заявлению разработчиков алгоритма, обучение одного многорангового файла в 4-7 раз быстрее, чем учить их по отдельности.

Text-to-image fine-tuning для Nvidia A100/Tesla V100-бояр:
https://keras.io/examples/generative/finetune_stable_diffusion (англ.)

Не забываем про золотое правило GIGO ("Garbage in, garbage out"): какой датасет, такой и результат.

➤ Тренировка YOLO-моделей для ADetailer
YOLO-модели (You Only Look Once) могут быть обучены для поиска определённых объектов на изображении. В паре с ADetailer они могут быть использованы для автоматического инпеинта по найденной области.

Гайд: https://civitai.com/articles/1224/training-a-custom-adetailer-model
Тулза для датасета: https://github.com/vietanhdev/anylabeling
Больше про параметры: https://docs.ultralytics.com/modes/train

➤ Гугл колабы

﹡Текстуальная инверсия: https://colab.research.google.com/github/huggingface/notebooks/blob/main/diffusers/sd_textual_inversion_training.ipynb
﹡Dreambooth: https://colab.research.google.com/github/TheLastBen/fast-stable-diffusion/blob/main/fast-DreamBooth.ipynb
﹡LoRA [1] https://colab.research.google.com/github/Linaqruf/kohya-trainer/blob/main/kohya-trainer.ipynb
﹡LoRA [2] https://colab.research.google.com/drive/1bFX0pZczeApeFadrz1AdOb5TDdet2U0Z

➤ Полезное

Гайд по фиксу сломанных моделей: https://rentry.org/clipfix (англ.)
Расширение WebUI для проверки "сломаных" тензоров модели: https://github.com/iiiytn1k/sd-webui-check-tensors
Гайд по блок мерджингу: https://rentry.org/BlockMergeExplained (англ.)
Гайд по ControlNet: https://stable-diffusion-art.com/controlnet (англ.)

Гайды по апскейлу от анонов:
https://rentry.org/SD_upscale
https://rentry.org/sd__upscale
https://rentry.org/2ch_nai_guide#апскейл
https://rentry.org/UpscaleByControl

Ручная сборка и установка последней версии xformers и torch в venv автоматика:
Windows: https://rentry.org/sd_performance
Linux: https://rentry.org/SD_torch2_linux_guide

Подборка мокрописек от анона: https://rentry.org/te3oh
Группы тегов для бур: https://danbooru.donmai.us/wiki_pages/tag_groups (англ.)
Коллекция лор от анонов: https://rentry.org/2chAI_LoRA

Гайды, эмбеды, хайпернетворки, лоры с форча:
https://rentry.org/sdgoldmine
https://rentry.org/sdg-link
https://rentry.org/hdgfaq
https://rentry.org/hdglorarepo
https://gitgud.io/gayshit/makesomefuckingporn

Шапка: https://rentry.org/catb8

Прошлые треды:
№1 https://arhivach.top/thread/859827/
№2 https://arhivach.top/thread/860317/
№3 https://arhivach.top/thread/861387/
№4 https://arhivach.top/thread/863252/
№5 https://arhivach.top/thread/863834/
№6 https://arhivach.top/thread/864377/
№7 https://arhivach.top/thread/868143/
№8 https://arhivach.top/thread/873010/
№9 https://arhivach.top/thread/878287/
№10 https://arhivach.top/thread/893334/
№11 https://arhivach.top/thread/908751/
Аноним 06/09/23 Срд 11:30:22 #2 №478305 
>>478081 (OP)
Анонче, подскажи, можно ли как-то с помощью SD сменить стиль уже готовой картинки? Гайды, которые я находил, подразумевают что ты уже до этого генерил её, и чтобы не проебывать рисовку нужно копировать промпт и сид.
А если это вообще левая картинка? Попытаться описать что на ней и просто надеяться что с низкими Denoising strength и CFG он не напридумывает лишнего?
Аноним 06/09/23 Срд 12:04:29 #3 №478319 
>>478305
Да, там даже описалка BLIP встроена для такого. Ну и контролнетом можно обмазаться, от канни до тайлового, в зависимости от того, как близки стили визуально.
Аноним 06/09/23 Срд 12:10:24 #4 №478329 
>>478319
Понял, благодарю
Аноним 06/09/23 Срд 18:06:43 #5 №478739 
aZvoya00018.png
image.png
>>478081 (OP)
Помогите пожалуйста, поиск ничего не выдает.
Аноним 06/09/23 Срд 18:07:24 #6 №478743 
Как вообще гуглить артефакты тренировок?
Аноним 06/09/23 Срд 18:25:12 #7 №478782 
IMG1317.jpeg
Сап, аноны. Обоссыте мне ебало, выебите мать, но только подскажите как мне генерить в заданной палитре цветов? Мне нужны только конкретные цвета в txt2pic, но я вообще не понимаю как добиться этого. HALP
Аноним 06/09/23 Срд 20:10:51 #8 №478975 
>>478739
Ты эмбед тренируешь? Лучше смотри на финальный результат, в каком то старом гайде читал что на пробные сэмплы во время тренировки эмбеда лучше не смотреть, там наверное нужно как то настроить генерацию, а то оно скорее всего генерит с пустым промптом.
Аноним 06/09/23 Срд 20:45:35 #9 №479051 
>>478782
VAE
Аноним 06/09/23 Срд 21:22:44 #10 №479146 
Без имени-1.jpg
>>478975
Ты эмбед тренируешь?
Да.
>Лучше смотри на финальный результат, в каком то старом гайде читал что на пробные сэмплы во время тренировки эмбеда лучше не смотреть, там наверное нужно как то настроить генерацию, а то оно скорее всего генерит с пустым промптом.
Пик1 результат шаг 1000. (слева промпт (без эмбедда), с права с эмбеддом). В этот раз тренировал на своем ПК.
Аноним 06/09/23 Срд 21:25:42 #11 №479149 
>>479146
А скинь его, буду использовать для розовых волос. Не баг а фича так сказать.
Подсказать правда нечего.
Аноним 06/09/23 Срд 21:45:22 #12 №479177 
>>479146
Что ты от него получить то в итоге хочешь? Ты же в курсе что он просто те тренит?
Аноним 06/09/23 Срд 22:32:06 #13 №479246 
image.png
image.png
>>479149
https://dropmefiles.com/gQN3Q
>>479177
>Что ты от него получить то в итоге хочешь?
Стиль одежды и приблизительную внешность.
>Ты же в курсе что он просто те тренит?
Вы смысле не тренит? Нет, не в курсе. Но в пустом промпте он всегда генерирует тянок - чему-то он научился.
Пробовал с черно-белого фотографа треннировать вроде стиль понимает. (у фотографа очень мыльные фотки с сильным DOF что заметно.)Пик1

Вообще нет никаких туториалов про то как нужно интерпретировать результаты тренировки. Еще хоть как понятно с overtrained - это когда оно пихает определенные детали ко всем или большинству генерируемых пикч, а undertrained это когда эмбеддинг оказывает слишком слабое влияние. А все остальное это просто дикий лес.

1 Текущий датасет:
Пик2
2 Embedding Learning rate:
0.05:10, 0.02:20, 0.01:60, 0.005:200, 0.002:500, 0.001:3000, 0.0005
3 Steps:
1000
Аноним 06/09/23 Срд 22:46:13 #14 №479266 
>>479246
> Вы смысле не тренит?
Всмысле TE - text encoder тренит, посмотри в пик1 в шапке, это не замена полноценному файнтюну или лоре с новой инфой, просто как лазерная указка что генерить.
> Стиль одежды и приблизительную внешность.
У тебя же там датасет просто рандомных тянок, понятия не имею как ты из такого хочешь стиль одежды или внешность вытянуть, но получится просто что то среднее.
> Вообще нет никаких туториалов про то как нужно интерпретировать результаты тренировки. Еще хоть как понятно с overtrained - это когда оно пихает определенные детали ко всем или большинству генерируемых пикч, а undertrained это когда эмбеддинг оказывает слишком слабое влияние. А все остальное это просто дикий лес.
В гайдах по лорам есть. Вкратце овертрейн отлично будет отличим по артефактам на итоговой картинке, а андертрейн недостаточностью результата на дефолтном весе лоры.
Аноним 06/09/23 Срд 23:13:59 #15 №479298 
изображение.png
>>479246
>https://dropmefiles.com/gQN3Q
Спасибо, работает. Назову "розофикатор".
Аноним 07/09/23 Чтв 15:20:23 #16 №480047 
>>479266
>просто как лазерная указка что генерить.
Это то что мне нужно.
>В гайдах по лорам есть. Вкратце овертрейн отлично будет отличим по артефактам на итоговой картинке, а андертрейн недостаточностью результата на дефолтном весе лоры.
Про овертрейн и андертрейн я понимаю, а как свою проблему загуглить, да и вообщем-то любые с проблемы с тренировкой особенно эмбеддов очень проблемно. В основном "embedding is not woriking" пишут что выходит ошибка в консоли, а у меня цвета добавляются. "Embedding training pink colors" вообще никаких релевантных результатов не выдает.
Аноним 07/09/23 Чтв 18:46:53 #17 №480190 
image
Аноним 07/09/23 Чтв 18:54:45 #18 №480195 
sdxl.PNG
решил попробовать sdxl, обновил SD, кинул базовую модель и еще какую-то на пробу. При переключении периодически получаю ошибку как на скрине. Чего ему надо? Модельки ведь лежат
Аноним 08/09/23 Птн 13:24:58 #19 №480949 
>>480195
Модель не загружается, поэтому webui сбрасывается на предыдущую модель aresmix.

Попробуй перезагрузить автоматик.
Аноним 08/09/23 Птн 23:03:36 #20 №481617 
Аноны, что лучше при тренировке лоры: 50 изображений и 10 повторений или 100 изображений и 5 повторений?
Аноним 08/09/23 Птн 23:09:06 #21 №481621 
>>481617
20-30 изображений и 100 повторений
Аноним 08/09/23 Птн 23:12:36 #22 №481623 
>>481621
Оно же пережарится, лол
Аноним 08/09/23 Птн 23:12:56 #23 №481624 
>>481617
1 изображение 500 повторений
Аноним 08/09/23 Птн 23:35:05 #24 №481646 
>>481624
А если 500 изображений и одно повторение?
Аноним 09/09/23 Суб 00:44:04 #25 №481713 
>>481617
Зависит от изображений.
Если у тебя получилось 100 собрать, на которых именно то, что тебе надо, да еще и протэгать всё правильно - будет лучше 100.
Аноним 09/09/23 Суб 01:21:40 #26 №481759 
Кто-нибудь может сказать, какого черта автоматик генерит разную картинку на одном и том же сиде, если генерить не по одной, а батчами по несколько?
Типа, при Batch count = 4 и Batch size = 1 получаем 4 картинки, потом ставим на том же сиде Batch count = 1 и Batch size = 4 - и получаем уже другие картинки. Похожие, да, но не идентичные.
Как его заставить выдать одну и ту же картинку независимо от этих настроек?
Аноним 09/09/23 Суб 02:09:12 #27 №481799 
>>481759
Не подтверждаю, у меня абсолютно одинаковые картинки генерятся.
Version: v1.6.0-78-gd39440bf, xformers: 0.0.21
Аноним 09/09/23 Суб 02:31:47 #28 №481807 
>>481617
В итоге первый вариант оказался лучше
Аноним 09/09/23 Суб 04:17:51 #29 №481855 
grid-0800.png
grid-0801.png
>>481799
1girl, solo focus
Одна батчем в 4, вторая последовательно по 1-й картинке 4 раза.
SDE-карась.
Версия автоматика, правда, старая была.
Обновился - и оно перестало запускаться.
Ожидаемо.
Перекачиваю всё заново, напишу по результатам.
Аноним 09/09/23 Суб 04:24:32 #30 №481857 
>>481855
У тебя старые иксформерсы, в которых выходные изображения недетерминированы. В версии 0.0.19 это пофиксили. Либо ты использовал SDP-attention.
Аноним 09/09/23 Суб 04:26:07 #31 №481858 
изображение.png
>>481857
Всю папку убил, заново качнул - одна фигня.
>Либо ты использовал SDP-attention.
Где смотреть?
Аноним 09/09/23 Суб 04:28:38 #32 №481859 
>>481858
Settings — Optimizations — Cross attention optimization
Аноним 09/09/23 Суб 04:30:37 #33 №481860 
>>481859
Стояло на automatic, переставил на x-formers.
Сохраняется.
Отключить надо чтоль? На производительности не скажется?
Аноним 09/09/23 Суб 04:36:45 #34 №481861 
>>481860
Отключил - вообще ппц.
Всё медленно, батч 4 не влез в память =)
Что-то фигня какая-то нездоровая.
Аноним 09/09/23 Суб 04:36:54 #35 №481862 
>>481860
Попробуй поставить None и посмотреть, что получится.
Аноним 09/09/23 Суб 04:38:33 #36 №481863 
>>481862
Смотри выше.
Картинки в батче 2-2 получились заметно более различными, чем с auto\x-formres, кстати.
Аноним 09/09/23 Суб 05:16:03 #37 №481865 
>>481863
Странная хуйня, с отключенными оптимизаторами картинки по определению должны быть одинаковыми. А с другими семплерами пробовал, DPM++ 2M Karras например?
Аноним 09/09/23 Суб 05:20:59 #38 №481866 
>>481863
Так же проверь не стоит ли галочка "Do not make DPM++ SDE deterministic across different batch sizes" в Settings — Compatibility
Аноним 09/09/23 Суб 11:15:34 #39 №481991 
1643091008329.jpg
1548895186175.jpg
1663817359809.jpg
1545939663444.jpg
>>481759
В последней версии были затронуты батчи, что позволило гонять по 8 768х768х2 пикч сразу и умещаться в 16гб врам. У меня тоже не генерит идентичные, причём степень отличий ещё и зависит от сэмплера. Пик 1-2 эйлер а, сначала batch size 8, потом batch count 8. 3-4 тоже самое с 2м каррасом. Xformers достаточной версии, чтобы был детерменистик xformers: 0.0.21+c853040.d20230624
Аноним 09/09/23 Суб 19:40:44 #40 №482626 
>>481866
Нет, не стояла.
ЧСХ эта галка меняет аутпут даже без батча, в одной картинке, и очень серьезно.
Аноним 09/09/23 Суб 19:42:11 #41 №482630 
>>481991
Я это вообще на 1.5.6. чтоль заметил, до того, как обновился.
Т.е. оно давно началось.
Заметил, главное, чисто случайно - никогда раньше батчами не генерил, только последовательно. А тут решил попробовать, и офигел с того, что картинки разные начали вылезать.
Аноним 09/09/23 Суб 19:51:02 #42 №482649 
>>481865
На нем тоже.
И на DDIM различия тоже есть, но гораздо менее заметные.
Одна из четырех так вообще идентичная сгенерилась.
Аноним 09/09/23 Суб 20:09:41 #43 №482680 
Надеюсь в той теме спрашиваю.
Хочу примерно оценить сколько времени /мощности может понадобится для обучения своей модели с нуля под узкоспециализированую не широкую тему изображений
На 11 гигах врам 1 видяхи это совсем космическое время или там неделя/месяц/полгода
Наверно есть ориентиры на других анонов которые себе чот обучали типо аниме тян
Аноним 09/09/23 Суб 20:43:38 #44 №482766 
>>482680
>обучения своей модели с нуля
>На 11 гигах врам 1 видяхи
Ебать шиза. Годы чувак, годы, отлетит твоя 1080Ti за это время.
Аноним 10/09/23 Вск 06:38:37 #45 №483265 
>>482766
А на 4090 получается полугоды?
Аноним 10/09/23 Вск 07:26:26 #46 №483287 
1608328570861.png
>>482680
> с нуля
Советую передумать, если ты не глава какой-либо мегакорпорации с крупными бюджетами. Представитель StabilityAI говорил, что для обучения SD1 они использовали кластер из 256 видеокарт A100, суммарная длительность обучения была 150k часов (17 лет, если делать на одной A100).

Существующие модели можно дообучать на домашней ПеКе (Dreambooth, надо 24GB VRAM для дообучения SD1.X моделей). Так же возможно обучать свои микромодели под названием Lora и LyCORIS, которые будут взаимодействовать в паре с другой крупной моделью. Подавляющее большинство тех, кто тренирует нейронки для рисования картинок на этой доске, выбирают этот вариант. На твоей видюхе это без проблем можно сделать; обучение лор, как правило, идёт меньше часа.
Аноним 10/09/23 Вск 09:04:59 #47 №483350 
>>483287
> для обучения SD1 они использовали кластер из 256 видеокарт A100, суммарная длительность обучения была 150k часов
Индус пиздит как дышит, пытаясь наебать дурачков-инвесторов. CompVis за 3 месяца допилили модель и обучили её. Там даже 1000 часов не было, в просто 150 я ещё поверил бы. Я уж молчу про то что если взять в руки калькулятор и посчитать сколько займёт обучение всего датасета LION Aesthetics на 256хА100 - там меньше трёх суток получится. Даже языковые модели с размером 13В в 20 раз больше параметров чем у первой SD и датасетом под лярд токенов столько не обучают - в пределах нескольких недель на таком количестве А100.
Аноним 10/09/23 Вск 12:41:06 #48 №483515 
Анонасы, кто-нибудь юзал вундервафлю LoRA_Easy_Training_Scripts?
https://github.com/derrian-distro/LoRA_Easy_Training_Scripts

UI выглядит охуенно удобно, но туториала по тому что именно делают те или иные опции и как вообще использовать это вот всё я не нашёл. Я так понимаю что это всё делалось для людей которые уже пилили лоры, просто собрано в более удобный вид, а я только-только решил вкатиться
Если у кого есть ссыль или время на написание поста с объясненим как юзать, был бы благодарен.
Ну или хз, можете посоветовать альтернативу
Аноним 10/09/23 Вск 14:43:47 #49 №483632 DELETED
>>483350
>Индус
Это бангладешец, причем мусульманин. Хз к чему ты это сюда приплел.
Аноним 10/09/23 Вск 15:13:35 #50 №483651 
>>483515
Там вообще всплывающие подсказки есть почти на всё, довольно круто сделано.
По поводу чего и куда - в шапке есть туториалы для тренировки лор, там параметры описаны. Названия везде одни и те же, так что прочитай - и понятно будет (почти всё).
Аноним 10/09/23 Вск 16:41:39 #51 №483718 
>>483515
я как-то тренировал для себя на фотках одной девушки. по итогу въебал почти сутки на это. больше как-то не хочется самому этим заниматься
Аноним 10/09/23 Вск 19:29:48 #52 №483865 DELETED
>>483632
> подразумевает что бенгальцы не индусы, когда треть Бенгалии в Индии
Чего, блять?
Аноним 10/09/23 Вск 20:08:05 #53 №483895 
>>483350
А они обучали с нуля или дообучали?
Аноним 10/09/23 Вск 21:17:08 #54 №483964 DELETED
>>483865
Тогда Алекс Шоненков и Бабушкин хохлы, ну а чо, Донецк тоже там был.
Аноним 10/09/23 Вск 21:21:30 #55 №483968 DELETED
>>483964
Когда научишься индусов от индуистов отличать, тогда пасть и раскрывай.
Аноним 11/09/23 Пнд 15:10:33 #56 №484511 
notcursednat (53).jpg
Анончики, как эта одежда называется? Пилю лору на Наточку, скоро с вами поделюсь.
Аноним 11/09/23 Пнд 16:24:25 #57 №484572 
Если ошибка несколько эпох не уменьшается, значит ли, что датасет или тэги плохо подобраны? lr 1e-4, количество эпох 10, всего шагов 2100.
Аноним 13/09/23 Срд 17:59:48 #58 №487384 
>>484511
long sleeve
Куда выложишь?
Аноним 13/09/23 Срд 21:01:03 #59 №487628 
>>487384
Спасибо.
На обменник залью. Но пока так себе выходит, положил в долгий ящик. Будет настроение, вернусь.
Аноним 14/09/23 Чтв 17:00:41 #60 №488414 
Аноны, скажите пожалуйста, если я пдросто возьму и перекину папку с SD с одного харда на другой, оно будет работать?
Просто место на диске С заканчивается, а второй хард пустой стоит.
Аноним 14/09/23 Чтв 19:46:15 #61 №488539 
>>488414
Будет.
Аноним 14/09/23 Чтв 20:13:18 #62 №488562 
>>484511
На нее хороших фоток хуй да маленько.
мимо тоже пробовал тренить
Аноним 14/09/23 Чтв 22:10:23 #63 №488688 
2779863.jpg
>>487628
Тебе нужны фотки с acursednat-исты или с модельного агенства?
Аноним 14/09/23 Чтв 22:33:55 #64 №488724 
Как генерировать нюдсы бывшей?
Аноним 14/09/23 Чтв 22:47:03 #65 №488737 
9C766150-1D15-45D6-8FB3-4E5DE11B4A91.jpeg
Хватит на коллаб заходить и пытаться в нем что то запустить.
Аноним 14/09/23 Чтв 22:47:48 #66 №488739 
И да, я вижу, если вы пытаетесь запустить «мой» код в своем блокноте
Аноним 14/09/23 Чтв 22:53:09 #67 №488746 
>>488737
Дай ссылку
Аноним 15/09/23 Птн 03:41:24 #68 №488906 
>>488688
Неплохо, если скинешь пак, будет полезно.
>>488562
Да хуй знает, иногда выходит нормально, но только меняешь модель или промт, выходит говно.
Аноним 15/09/23 Птн 13:49:56 #69 №489283 
>>488906
https://dropmefiles.com/Tyg5o
Аноним 15/09/23 Птн 14:53:48 #70 №489345 
>>489283
Спасибо.
Аноним 16/09/23 Суб 12:26:13 #71 №490418 
297c9b0b0c76977335265537537310bd.jpg
Аноны, на мой взгляд существующие 3д модели одежды и волос обычно выглядят всрато, особенно лоупольные. Поэтому генерации с ControlNet Depth получаются крутыми только для порно-картинок без одежды.
А что если начать генерировать голого и лысого персонажа с ControlNet, а потом отключить его и генерировать одежду/волосы уже без? Это вообще в Автоматике1111 возможно сделать?

Алсо, может кто-нибудь видел хорошие туторы по эффективному использованию Depth модели? На ютубе одно говно с персонажами подозрительно похожими на примитивную болванку. Я бы за хороший тутор даже денег не пожалел бы. Хотелось бы научиться ставить своего персонажа в самые разные и сложные позы с помощью 3д модели.
Аноним 16/09/23 Суб 13:17:26 #72 №490452 
изображение.png
>>490418
На каждый отдельный модуль можно задать начальный и конечный процент от общих шагов, где контролнет будет работать.
Плюс то, насколько сильно этот модуль влияет.
Плюс можно подключать больше одного модуля.
Например, задать позу, подключить сверху depth, чтоб он на первых 15% шагов поработал, а потом пусть нейронка сама рисует. Только с болванкой тут врядли что получится, а вот одетого перса - уже нормально может обработать.
Экспериментируй, вообщем.
Аноним 16/09/23 Суб 15:37:23 #73 №490553 
D9k6KTM.jpg
>>490452
Спасибо, анон, я и забыл про этот ползунок.
>Только с болванкой тут врядли что получится, а вот одетого перса - уже нормально может обработать.
Проблема в низком качестве моделек одежды. Пикрелейтед, например. Вообще даже плохие 2д рисоваки намного лучше справляются с одеждой чем даже самые крутые 3д модделлеры и системы симуляции ткани. С этим вряд ли что-то можно поделать.
Было бы круто если бы нейросеть дорисовывала одежду сверху на голого персонажа.
Аноним 16/09/23 Суб 16:30:17 #74 №490580 
zz.png
00437-1986416690-masterpiece, best quality, 1girl, solo, cowboy shot, salute, looking at viewer, red hair, long hair, blue eyes, eyelashes, anima.png
image.png
>>490553
Поставь для depth поменьше значимости (или вообще нафиг выруби), подключи сверху canny или lineart, чтоб по контурам больше руководства было.
Плюс tile с низкой силой, типа 0.25 или около того, с быстрым отключением, чисто для контроля цвета.
Ну и денойз повыше, прям в 0.8 или даже 0.9.
Там, где канни ничего не нарисует, нейронка с высоким денойзом будет сама что-то придумывать. В итоге что-то типа пикрила получится.
Аноним 16/09/23 Суб 16:40:04 #75 №490596 
zz.png
00439-2013254752-masterpiece, best quality, 1girl, solo, cowboy shot, salute, confused, angry, open mouth, looking at viewer, red hair, long hair.png
image(1).png
>>490553
>>490580
Плюс не забывай, что картинки контролнета можно редачить.
Вот, например, что получилось, если отключить тайл, закрасить часть контролнетовского файла, и немного пошаманить с промптами.
Аноним 16/09/23 Суб 17:06:38 #76 №490639 
00441-3394378736-masterpiece, best quality, 1girl, solo, cowboy shot, salute, confused, angry, open mouth, looking at viewer, red hair, long hair.png
И чем я только занимаюсь?..
Вот что бывает, когда у человека слишком много свободного времени =)
Крутая штука всё-таки, этот контролнет.
Аноним 16/09/23 Суб 19:52:14 #77 №490864 
image.png
image.png
image.png
>>478081 (OP)
Добавьте в шапку смешивание моделей.
В крайнем случае, можно, хотя бы, добавить ссылку на гайд:
https://rentry.org/BlockMergeExplained
Аноним 16/09/23 Суб 20:35:54 #78 №490912 
>>490580
У тебя чисто по скриншоту 3д-модели получилось лучше чем у автора >>490553 пикчи, который и Depth карту рендерил и OpenPose вроде тоже.
Забавно, может быть в самом деле для аниме, где преимущественно плоский стиль, canny будет лучше работать чем depth.

>>490596
>если отключить тайл
Что за тайл?

>закрасить часть контролнетовского файла
Если тебе одну картинку нужно, то норм так лицо стирать. Если больше, то каждый раз разное лицо будет небось.
Теоретически, можно натренировать лору на лицо какого-нибудь персонажа по набору 2д картинок и тогда будет норм. Это должно будет помочь с типичными косяками 3д-аниме, когда 3д модели в профиль выглядят странно.
Аноним 16/09/23 Суб 23:57:33 #79 №491101 
>>478081 (OP)
Анон могу ли я обучить нейросеть генерить контент для себя с моей бывшей, она была вебкам моделью и в целом онлифанс девочкой ?
Аноним 17/09/23 Вск 05:48:32 #80 №491176 
>>478081 (OP)
Кал дабы всё. Как быть то. Платным вроде тоже нельзя
Аноним 17/09/23 Вск 07:40:52 #81 №491205 
image.png
image.png
image.png
>>487628
держи лору, с моделью realistic vision v5.1 довольно похоже выходит
https://dropmefiles.com/3RI73
Аноним 17/09/23 Вск 07:46:04 #82 №491207 
>>490912
>Забавно, может быть в самом деле для аниме, где преимущественно плоский стиль, canny будет лучше работать чем depth.
Оно и на реалистиках хорошо работает.
Но там, правда, лайнарт модуль должен лучше себя показывать, он не настолько жестко на контуры давит, больше свободы для интерпретации дает.

>Что за тайл?
Модуль контролнета tile. Много где полезен - в и2и или в т2и для задачи цветов и общей композиции, при многотайловом апскейле с полным промптом для уменьшения галлюцинаций, при использовании мультидиффужн, и хз где еще. Работает как референсная картинка, короче, не позволяет ИИ сильно далеко от входящих данных отклоняться.

>Теоретически, можно натренировать лору на лицо какого-нибудь персонажа по набору 2д картинок и тогда будет норм.
А можно просто рулетку подольше покрутить, что-то похожее рано или поздно срендерится. Если, конечно, там не что-то прям шибко специфичное.
Аноним 17/09/23 Вск 07:47:40 #83 №491208 
03532-3670182404.jpg
03497-4110997882.jpg
03570-3262374691.jpg
03573-3387580145.jpg
>>491205
ЗЫ я тут мимокрокодил, учусь лоры тренить, вроде что-то получается
https://dropmefiles.com/DXys1
Аноним 17/09/23 Вск 08:13:35 #84 №491216 
>>491101
Можешь.
Если качественных фоток нужное количество насобираешь.
Гайды на тренировку лор в шапке лежат.
Есть еще модули, которые могут на тело от ИИ или из интернета лицо твоей бывшей налепить, тут даже тренировка не нужна.
Аноним 17/09/23 Вск 11:11:51 #85 №491299 
>>490452
просто покажи что ты хочешь сделать
Аноним 17/09/23 Вск 13:20:03 #86 №491399 
1584914194957.png
1640871691212.jpg
>>484511
>>487628
Тренькнул на своем старом датасете новой пердолькой, лично мне результат нравится. Правда, не юзаю абсолютный реализм, сижу на дримшейпере или чем-нибудь типа epic25d. Смотри, может, тоже пригодится.
https://www.upload.ee/download/15694277/f1cb26dbdd671d8d6c4a/notcursednat.safetensors
Аноним 18/09/23 Пнд 10:54:03 #87 №492341 
>>491399
Почему не загрузишь модель на цивитай?
Аноним 18/09/23 Пнд 13:07:16 #88 №492438 
>>492341
Не умею и мне лень.
Аноним 18/09/23 Пнд 16:05:48 #89 №492603 
>>492341
А там не ЗОБАНЯТ за такое? А то натренировать ЛоРЫ на всяких камвхор по слитым фоткам и пустить их с помощью ИИ в тираж - это вполне себе легко и вызовет просто ядерное полыхание пуканов и у модели, и у её пиздолизов, которые за тоже самое денег отваливали.
Аноним 18/09/23 Пнд 21:07:37 #90 №492994 
>>492603
Максимум удалить могут. И то если персона, на которую лора натренена, пожалуется.
Ну, насколько я помню, и если у них там ничего не поменялось с тех пор.
Аноним 19/09/23 Втр 09:52:44 #91 №493376 
>>492994
Персоне может и похуй будет - даже лучше - дополнительная реклама НАСТОЯЩИХ фотачек. Но вот армию боевых куколдов никто не отменял.
Аноним 19/09/23 Втр 12:55:31 #92 №493456 
Сап технач, есть ебаный вопрос. Посравнивал бенчи своей 4080 с другими и чет какое-то говно у меня. В 512x512 в 1 батч на ейлере максимум что видел 12 it/s в SD.Next, в обычном вебхуе последнем не выше 8 it/s, а на хайрез проходе просто пиздец, 1-1.5 it's. Без токен паддингов и прочей хуйни, дефолт конфиг. У всех 15-20+ а то и 25, а у меня насрано. Нихуя не пойму в чем дело. Может кто подскажет куда копать?

Либы torch:2.0.1+cu118 Autocast half xformers:0.0.20
device:NVIDIA GeForce RTX 4080 (1) (compute_37) (8, 9) cuda:11.8 cudnn:8700 driver:536.67 16GB, проц 5800x
Аноним 19/09/23 Втр 17:11:45 #93 №493578 
>>493456
Попробуй sdp вместо xformers.
Скачай свежую версию cudnn и подмени библиотеки в торче.
Webui, надеюсь, запускаешь без всяких no-half и no-half-vae?
Аноним 19/09/23 Втр 17:26:40 #94 №493589 
>>493578
На sdp ещё хуже в среднем.
cudnn и прочее подрочить попробую, но сомневаюсь что толку будет.
>без всяких no-half и no-half-vae?
Офк.
Аноним 19/09/23 Втр 17:34:57 #95 №493603 
>>493589
в диспетчере задач нагрузку на GPU и VRAM во время генерации смотрел? ничего необычного?
Аноним 19/09/23 Втр 17:39:02 #96 №493610 
>>493603
Ничего, всё чисто.
>cudnn и подмени библиотеки в торче
Где оно там лежит? Забыл чёт.
Аноним 19/09/23 Втр 17:41:58 #97 №493617 
>>493610
stable-diffusion-webui\venv\Lib\site-packages\torch\lib\
Файлы cudnn64_8.dll, cudnn_adv_train64_8.dll, cudnn_cnn_train64_8.dll, cudnn_ops_train64_8.dll, cudnn_adv_infer64_8.dll, cudnn_cnn_infer64_8.dll, cudnn_ops_infer64_8.dll нужно подменить.
Аноним 19/09/23 Втр 17:47:59 #98 №493626 
image.png
>>493617
Спасиб. Вроде чуть получше стало, но один хер выше 17its в моменте не поднимается. Но хоть что-то.
Аноним 19/09/23 Втр 17:49:40 #99 №493629 
>>493626
И да, еще посмотри чтобы Hardware Accelerated GPU Scheduling (Планирование графического процессора с аппаратным ускорением) было отключено в настройках винды.
Аноним 19/09/23 Втр 17:55:01 #100 №493639 
image.png
>>493629
Вот оно чё блять оказывается. Ебать, спасибо за помощь, анон, инфу хуй нагуглишь сам.
Аноним 19/09/23 Втр 18:34:04 #101 №493691 
>>493629
А как быть тем, у кого таких настроек и вовсе нет?
Аноним 19/09/23 Втр 18:35:27 #102 №493693 
>>493691
Значит его тупо нет в твоей винде, не беспокойся.
Аноним 19/09/23 Втр 18:41:06 #103 №493703 
>>493578
>Webui, надеюсь, запускаешь без всяких no-half и no-half-vae?
Так оно на какие-то десятые доли процента вроде тормозит, не критично вообще, не?
У меня с ним на 4080 25its на настройках как у анона рядом.
Аноним 19/09/23 Втр 18:57:24 #104 №493734 
>>493703
>У меня с ним на 4080 25its на настройках как у анона рядом.
Вот какого хуя у меня после выключения шедулинга и с последними либами максимум 20its и это на разогнанной видяхе, куда ещё 5 проебались. Или в общем конфиге пекарни дело, или какие-то приколы вебуя.
Аноним 19/09/23 Втр 19:11:48 #105 №493769 
>>493734
Проц тут тоже влияет, насколько я помню.
Дрова еще. НВидия там какие-то оптимизоны периодически выкатывает, попробуй обновиться.
cudnn-файлы я, кажется, в этот раз не ставил отдельно именно для автоматика. Только для кохай-вебуя для лор.
Аноним 19/09/23 Втр 19:51:47 #106 №493839 
Чому у меня получается либо лицо фотографичное, но портрет на полтела, либо full body с обувью, но лицо по пизде?
Deliberate 3.
Restore face стоит.
Аноним 19/09/23 Втр 20:01:16 #107 №493855 
>>493839
>Restore face стоит.
Убери. Только хуже делает.

>либо full body с обувью, но лицо по пизде?
А ты прикинь, какой процент картинки занимает лицо на "портретной" картинке, и на "фуллбоди". Нейронке просто разрешения не хватает, чтоб его нормально детализировать.
Отправляй картинку в инпэинт, и улучшай лицо там. Гайд с правильными настройками легко загуглишь.
Аноним 19/09/23 Втр 20:58:31 #108 №493935 
>>493769
>НВидия там какие-то оптимизоны периодически выкатывает
Скорее деоптимизоны, лол.
>>493855
>Отправляй картинку в инпэинт, и улучшай лицо там.
Или Adetailer, или как его там.
Аноним 19/09/23 Втр 21:24:41 #109 №493980 
>>493935
>Или Adetailer, или как его там.
То же самое, только в автоматическом режиме.
Если кучу картинок генеришь - оно лучше подойдет. А вот если какую-то конкретную хочешь - лучше инпэинтом.
Аноним 20/09/23 Срд 13:50:24 #110 №494451 
какая-то фигня творится, у 4070ti было 18-19 it/s, теперь же 13-14, дрова последние и аппаратный планировщик отключен. пробовал разгон, ничего не меняется. в диспетчере задач показывает загрузку гпу ~70%. с одной стороны и так сойдёт, не минуты уходят как на 1050ti, с другой - раздражает что всё начинает замедляться без видимых причин.
Аноним 21/09/23 Чтв 00:21:06 #111 №495126 
изображение.png
>>494451
установил SD на manjaro, всё быстро работает, хз что не так с 11 виндой
Аноним 21/09/23 Чтв 07:34:19 #112 №495304 
Подскажите пожалуйста, --opt-sdp-attention и xformers можно вместе использовать?
Аноним 21/09/23 Чтв 08:20:41 #113 №495321 
>>495304
Нет
Аноним 21/09/23 Чтв 09:34:32 #114 №495348 
>>495321
А что из этого лучше? Видеокарта 3060
Аноним 21/09/23 Чтв 21:48:58 #115 №496121 
>>495348
если последняя версия xformers то разницы нет в скорости
Аноним 22/09/23 Птн 00:49:04 #116 №496361 DELETED
Дайте сылку на телеграм групу анона по гугл-колабу.
Аноним 22/09/23 Птн 17:23:06 #117 №497083 
>>493855
>Нейронке просто разрешения не хватает
А ты прав. Спасибо.
Достаточно было высоту картинки увеличить на ~60%
Аноним 23/09/23 Суб 08:22:35 #118 №497751 
Обновляю сейчас пеку и стоит выбор между 3060 12 GB и 3070. Смотрел всякие тесты и по ним 3070 очевидно лучше, но все говорят про нехватку VRAM. Так вот, что лучше взять и для чего в основном нужно больше рамы?
Аноним 23/09/23 Суб 08:42:14 #119 №497758 
>>497751
>для чего в основном нужно больше рамы?
От памяти зависит то, насколько большое полотно ты сможешь захайрезить или апскейльнуть.
Аноним 23/09/23 Суб 08:55:18 #120 №497762 
>>497758
То есть, если мне важна детализация, то лучше будет 3060 взять?
Аноним 23/09/23 Суб 09:37:58 #121 №497777 
>>497762
Да между ними разница минимальна, если 3060 возьмешь с 12гб памяти, ты разве что секунд на 20 дольше будешь свою простыню апскейлить. Плюс если ты юзаешь лорыхуёры, не прунед модель и хочешь ебенить с кастомными апскейлами, которые весят не мало, то их явно легче будет утрамбовать в 12гб. Если тебе для счастья достаточно сгенерить пикчу 512х512 и просто захайрезить её х2 без наворотов и и2и, то тебе можно брать и 3070 (сколько там памяти хоть?).
Аноним 23/09/23 Суб 10:07:10 #122 №497800 
>>497777
8 там. Мало.
>>497762
Очень неудобно с 8, если честно. Постоянно бьешься в верхний лимит памяти. Так что если есть возможность - бери побольше.

Хотя я слушал, что НВидия вроде бы какой-то "оптимизон" на нейронки накатывала, который позволяет еще и оперативку подключать - но ценой значительного снижения скорости.
Хз, как оно точно работает, может аноны с треда подробнее объяснят.
Аноним 23/09/23 Суб 10:54:30 #123 №497823 
>>497777
Понял, спасибо
>>497800
Когда про память читал, писали, что это деоптимизон какой-то, потому что при нехватке памяти начинает жрать оперативку и генерация может замедляться в десятки раз
Аноним 23/09/23 Суб 11:38:52 #124 №497852 
>>497823
Вот и я то же самое читал.
Но генерация всё же идет. А без такой "деоптимизации" - вообще бы не шла. Всё-таки прогресс.
Аноним 23/09/23 Суб 15:41:48 #125 №498012 
Насколько вообще заебись обучать стиль, не трогая текстовую часть модели? Минусы есть?
Аноним 23/09/23 Суб 16:36:08 #126 №498057 
>>497751
Если смотреть чисто для работы на дифуззии, основанной на sd1.5 - 3070 будет лучше. Она быстрее а ограничения памяти можно победить через tiled vae. Но если взять sdxl, дополнительные костыли, или, не дай бог, ллм - там 12гигов сильно предпочтительнее и 3060@12 уже будет доминировать.
Так что смотри, если применение узкие и еще игрун или в ближайшем будущем будешь апгрейдить видюху - бери 3070, а так 3060 на 12 сильно лучше и дешевле.
>>497800
Оно уже есть, просадки дикие но зато возможно делать картинки даже на 1030.
Аноним 24/09/23 Вск 16:06:36 #127 №498868 
image.png
Согласны?
Аноним 24/09/23 Вск 16:12:29 #128 №498877 
>>498868
Хуйня на пике. Мало того что у разный моделей разные слои за отрисовку объектов отвечают, так ещё и нигде нет такого чёткого разделения.
Аноним 24/09/23 Вск 17:38:52 #129 №498964 
>>498868
узнали, согласны
Аноним 24/09/23 Вск 21:09:16 #130 №499160 
n.jpg
Для тех, у кого трудности с локальной генерацией. Кастомный UI для генерации манямэ 512x512 через бесплатный веб сервис, чисто чтоб тестировать промпты. Работает достаточно шустро, цензура отсутствует, + возможность сохранения по правому клику. Регаться нигде не требуется.
https://pastebin.com/raw/NYExP1Ux

На сайте есть в наличии и реалистичные модели, но поленился добавлять.
Аноним 25/09/23 Пнд 11:51:10 #131 №499587 
>>499160
Не нужно, когда на цивитаи уже давно прикрутили возможность генерить на моделях прямо там, без скачки. Пока только без хурезфикса.
Аноним 25/09/23 Пнд 13:15:45 #132 №499673 
>>499587
>на цивитаи
Трут модели, лоры, комментарии, небо и Аллаха.
Аноним 25/09/23 Пнд 15:34:57 #133 №499829 
>>499673
Всё, чем пользуюсь не терли. Видимо ты педофильское что-то использовал.
Аноним 25/09/23 Пнд 17:13:34 #134 №499998 
>>499829
Из педофильского я только делиберейт использую.
Аноним 25/09/23 Пнд 19:43:46 #135 №500184 
>>499998
Он кстати на основен Бстабера сделан, отсюда и педофилия. А бстабер тренировали на сырной пицце. Уровень работы мозга Хача имаджинировал? Надо мразулину на него натравить.
Аноним 25/09/23 Пнд 21:13:10 #136 №500296 
>>478081 (OP)
Сгенерируйте, пожалуйста по промпту
wooden fireplace, stove, Scandinavian style, in perspective
Раньше генерил на гугл колабе, т. к. своей видюхи нет, а сейчас приходится просить у вас помощи
Помогите, пожалуйста, если можно, несколько вариантов
Аноним 25/09/23 Пнд 21:18:42 #137 №500302 
>>500296
> технотред
> ИТТ делимся советами, лайфхаками, наблюдениями, результатами обучения, обсуждаем внутреннее устройство диффузионных моделей, собираем датасеты, решаем проблемы и экспериментируем
Реквесты в других тредах, братишка.
Аноним 25/09/23 Пнд 21:38:46 #138 №500329 
>>500302
> Сгенерируйте, пожалуйста по промпту
> wooden fireplace, stove, Scandinavian style, in perspective
> Раньше генерил на гугл колабе, т. к. своей видюхи нет, а сейчас приходится просить у вас помощи
> Помогите, пожалуйста, если можно, несколько вариантов
Сорри, не туда запостил
Аноним 26/09/23 Втр 04:21:01 #139 №500652 
>>499587
Ну попробуй погенерь там одетых лолек по тегу loli
Аноним 26/09/23 Втр 07:40:36 #140 №500704 
>>500652
Твои педофилопроблемы никого не волнуют, съебался в страхе, изврат.никто в здравом уме не использует этот педофильский тэг для педофилов
Аноним 26/09/23 Втр 13:57:48 #141 №500900 
>>500704
Я не он, но у меня есть сфв персонаж-лоли, для которой мне нужны спрайты с эмоциями и цг.
Это правда, что начиная с сд 2.0 теперь нельзя генерить детей?
Аноним 26/09/23 Втр 14:36:01 #142 №500923 
>>500900
>теперь нельзя генерить детей
Конечно, лично товарищ майор приезжает и пиздит за каждое loli в позитивном промте.
Нормально всё работает даже на сдохле, только голых не делай, а то умрёшь от кринжа.
Аноним 27/09/23 Срд 00:12:01 #143 №501539 
Короче нашел какой-то гуид на дваче, по всем шагам прошелся, но чет при запуске выходит ошибка по установке торча

RuntimeError: Couldn't install torch.
Command: "E:\StableDiffysion\stable-diffusion-webui\venv\Scripts\python.exe" -m pip install torch==2.0.1 torchvision==0.15.2 --extra-index-url https://download.pytorch.org/whl/cu118
Error code: 1

кто-то сталкивался? Как фиксить? Если я тупо руками его накачу - нихуя не заработает же, потому что не в виртуальной среед ставлю
Аноним 27/09/23 Срд 00:16:42 #144 №501546 
>>501539
соре мужики - я даун, сначала вкинул, потом пошел гуглить - по итогу помогла вот эта статья - https://stackoverflow.com/questions/73817772/stable-diffusion-couldnt-install-torch-pip-version

обновил pip и удалил папку venv из корневой - по итогу вроде установка пошла
зачем нужен ComfyUI?  Аноним 28/09/23 Чтв 06:34:49 #145 №502591 
image.png
нашел более подходящий тред для своего вопроса

зачем нужен ComfyUI? я работаю с нодовыми редакторами больше 10 лет, и ни разу не встречал настолько бессмысленного инструмента

вижу единственный плюс в том, что процесс более "продакшеновый". можно настраивать узкие сетапы, сохранять их и открывать впоследствии. в вебуи не завезли файлового воркфлоу. в комфи он хотя бы есть, правда всё равно неудобен

сама творческая работа с нейронкой в комфи занимает в 10 раз больше усилий и времени, чем в вебуи

в вебуи: отключил галку HRFix, чтобы быстрее найти интересный сид
в комфи: отсоединяешь четыре сопли, потратив секунд 5

в вебуи: тыкаешь в галку обратно. 1 клик
в комфи: присоединяешь все сопли на место. 4 драгндроп операции

всё делается через переплетение нод... но зачем?

авторы в курсе, что эти переплетения нод в нормальных редакторах схлопываются в подграфы и выставляют наружу интересующие их крутилки со внутренних нод, превращая всё в одну ноду? и да, при этом получатся подобие вебуи. и по сути является функцией

вебуи это аналог гигантского комфи нетворка с вынесенным наружу интерфейсом для удобства... только в комфи нет возможности выносить интерфейс, потому что авторы комфи не знают как работают нодовые редакторы? не знают, зачем нужны функции?
Аноним 28/09/23 Чтв 07:31:59 #146 №502603 
>>502591
В нормальных нодовых редакторах можно еще "мутить" хоткеем выделенные ноды не нарушая само древо, сродни твоей этой галочки в веб уи. Может и тут есть, прочекай хоткеи
Аноним 28/09/23 Чтв 10:00:11 #147 №502647 
>>502591
>в комфи: отсоединяешь четыре сопли, потратив секунд 5
Там разве нет какой-нибудь ноды-переключателя?
Аноним 28/09/23 Чтв 10:33:47 #148 №502660 
>>502603
> Может и тут есть
Есть, конечно.
>>502647
> ноды-переключателя
Есть, конечно.
Аноним 28/09/23 Чтв 11:33:20 #149 №502694 
>>502660
Ну так в чём проблема? Настраиваем и не тыкаем 4 сопли.
Аноним 28/09/23 Чтв 19:56:10 #150 №502989 
Как тренировать сетку если у тебя нет видеокартовых мощностей
Аноним 28/09/23 Чтв 20:36:04 #151 №503010 
>>502989
В калабе.
Аноним 28/09/23 Чтв 22:42:34 #152 №503063 
>>502989
Смотри. Покупаешь видеокарты, а потом делаешь по инструкции "Как трейнить нейросети, когда у тебя есть компутаторные мощностя".
Аноним 29/09/23 Птн 10:24:30 #153 №503260 
лора.PNG
Народ, вкорячил лора лоадер в комфли юай, и оно начало срать ошибками
RuntimeError: mat1 and mat2 shapes cannot be multiplied (924x2048 and 1280x768)
как говорится, ЧЯДНТ?
Аноним 29/09/23 Птн 10:26:44 #154 №503261 
>>503260
Отбой, сам дурак, забыл к рефайнеру присобачить
Аноним 29/09/23 Птн 14:18:47 #155 №503430 
Аноны, когда использовать регуляризацию при обучении лоры, я так и не разобрался как это работает и поэтому так и не понял в каких случаях её юзать и какие пикчи для регуляризации юзать, а так же в каком количестве, кто то говорил что так можно отделить стилистику от персонажа, но можно более конкретное применение
Аноним 29/09/23 Птн 18:46:44 #156 №503540 
>>502591
>в вебуи: отключил галку HRFix, чтобы быстрее найти интересный сид
>в комфи:Mode>Never
Лично для меня это единственный полноценный ГУИ который работает сразу из коробки. С каломатиком уже посидел пока искал оптимальные настройки 6 гб нищеёб и в документации и среди устаревших и среди советов которые не работают на текущей версии. Еще классная ебля с xformers которая тупо, блять, не устанавливается. В итоге А1111 не может даже 2 пикчи 512х512 в батче обработать, уходит OOM, в то время как комфи ебашит 8.
Аноним 29/09/23 Птн 18:54:33 #157 №503545 
>>503540
>в то время как комфи ебашит 8.
Я так думаю, это с апдейтами дров НВидии связано, которые теперь научились оперативку подключать, если в видеопамять всё целиком не лезет.
Потому что 8 картинок 512х512 - это 2.1 мегапиксела. В автоматике без этого апдейта на восьми гигах до недавнего времени больше 1.3 не помещалось. Даже с иксформерсами.
Яхз, что там за чудо-оптимизация должна быть, если оно чисто через видеопамять на 6 гигах столько пропускать умудряется.
Аноним 29/09/23 Птн 20:37:32 #158 №503610 
image.png
image.png
>>503545
Это еще в NORMAL_VRAM, в full precision потому что если переполнить память то он переходит в lowvram mode или как там. И нет общая память не используется, как видно во время генерации озу освобождается.
Аноним 30/09/23 Суб 04:16:02 #159 №503931 
Мне это кажется, или Heun самый лучший сэмплер? (для манямэ 1.5 моделей, на XL не тестировал)
Конечно, он и самый неудобный: более рассыпанная композиция, медленно работает, с ним нужно минимум 50 шагов и выше риск запороть изображение - но в этом и состоит вся суть ИИ для генерации изображений. Это лутбокс, как в мобильных играх - крути ручку, вращай мельницу, тряси дерево. Одна крутая пикча лучше ста посредственных, поэтому разброс в качестве выигрышнее посредственной стабильности.

Еще хороши ancestral сэмплеры, когда делаешь хайрез с низким денойзом. Ancestral означает что он дорабатывает изображение вплоть до 150-го шага, поэтому детали будут годными даже с denoise 0.4 + 4x-ultrasharp.
Аноним 30/09/23 Суб 06:32:08 #160 №503947 
>>503610
Ну т.е. такой лайвхак автоматический, что если видюха не тянет - то комфи в лоу-врам переходит?

Интересно, в автоматике это так же теперь не работает случайно?
Аноним 30/09/23 Суб 07:48:03 #161 №503952 
>>503931
Чот сколько не тестил, с моими моделями не получается ничего лучше dpm++ 2m karras на 25 шагах.
> Ancestral означает что он дорабатывает изображение вплоть до 150-го шага
Это у которых "a" в названии? Интересно. Жалко каломатик не умеет раздельный сэмплер на хайресфикс ставить.
> даже с denoise 0.4
Чем больше генерю, тем сильнее скручиваю денойз.
Аноним 30/09/23 Суб 08:52:21 #162 №503966 
изображение.png
>>503952
>Жалко каломатик не умеет раздельный сэмплер на хайресфикс ставить.
Умеет.
И даже промпт с негативом умеет.
И чекпоинт менять тоже, прикинь?
В настройках всё устанавливается.
Аноним 30/09/23 Суб 16:00:50 #163 №504125 
image.png
Что за ControlNet Hooked - Time = 61.062315940856934
Раньше такого дерьма не было, чтоб целую минуту ждать приходилось, пока он тайл обработает.
Аноним 30/09/23 Суб 16:02:56 #164 №504127 
>>504125
Пока писал, он принялся за третий и последующие тайлы и теперь обрабатывает их по пол секунды. Что за херня?
Аноним 30/09/23 Суб 17:27:56 #165 №504187 
>>504125
Как видишь, обновляют и улучшают.
С какого калькулятора дифузишь?
Помогите с проблемой в установке, пж Аноним 30/09/23 Суб 21:00:54 #166 №504347 
изображение2023-09-30205913858.png
Пару месяцев назад пользовался прогой, потом удалил, а сейчас решил скачать обратно. Выдает ошибку, а в чем проблема не понимаю, в программировании не шарю от слова совсем. Как пофиксить и в чем проблема?
Аноним 30/09/23 Суб 23:16:34 #167 №504467 
>>503966
Хуясе.
Аноним 01/10/23 Вск 06:22:28 #168 №504610 
>>504187
RTX 2060. И да, раньше быстрее было. Что они там улучшили, что дольше стало?
Аноним 01/10/23 Вск 12:21:16 #169 №504736 
>>504347
Лень разбирать эту простыню, но очевидно же что тебя провайдер ебет. Включай/отключай впны, днс проверяй.
Аноним 02/10/23 Пнд 09:45:51 #170 №505763 
>>478081 (OP)
Моё имхо, лоры - костыльная хуйня (как и всё остальное в SD):
1. Полноценная модель должна знать всё из коробки и уметь в любые стили.
2. Если некий концепт все же слишком нишевый - ИИ должен подхватить его с одного-двух рефов, без какого-либо трейнинга.
Аноним 02/10/23 Пнд 10:03:52 #171 №505781 
>>505763
>Полноценная модель должна знать всё из коробки
Увы, анусов твоей матери слишком мало в интернете, чтобы модель о нём знала.
Аноним 03/10/23 Втр 16:27:04 #172 №507227 
>>478081 (OP)
Переписал старый гайд по лорам от 1060 анона, актуализировав инфу, кому не похуй, укажите в чем не прав https://rentry.co/2chAI_hard_LoRA_guide
Аноним 03/10/23 Втр 17:14:58 #173 №507265 
>>507227
Посаны мне всегда говорили, что коха лох и мёрджить надо супермёржером прям из каломатика.
Аноним 03/10/23 Втр 17:18:47 #174 №507268 
>>507227
> укажите в чем не прав
Буквально во всём.
> Суть любой тренировки лоры заключается в попадании в свитспот сразу двух составных частей Stable diffusion модели, Unet и TE.
Невероятная шиза. На SDXL вообще не тренируют текстовый энкодер. На полторашке только в особо тяжёлых случаях, когда нейросеть вообще не знает таких слов. 2/3 поломок лор как раз из-за шизов, тренирующих текстовый энкодер на lr почти как у unet.
Соответственно вся последующая шиза про поломки и подбор эпох на глаз - высер.
> network_dim=network_alpha=64-128
Опять же совет как сделать хуже. При том что рекомендуемая альфа как у кохи, так и у ликориса - 1.0 или меньше. Альфа размером с ранг - ещё одна причина поломок.
> constant (default)
Отвал пизды просто.
> Если есть RTX3000 и выше, оба значения нужно ставить в BF16. FP16 подойдёт для владельцев других карт, но этот формат имеет слишком мало бит на экспоненту и из-за этого в итоговой лоре может получиться очень много нулевых тензоров.
Как будто бред сумасшедшего читаю.
> --noise_offset
> Ужасная заплатка
А альфу ебашить под 64-128 - это конечно же другое, да.
> Normal train
> loss не уменьшается
С такими высерными конфигами другого и не ожидал.

Да и вообще через строчку ересь какая-то. Ты бы хоть это перевёл, а не высерал шизу - https://rentry.org/59xed3
Аноним 03/10/23 Втр 17:48:12 #175 №507292 
>>507268
> На SDXL вообще не тренируют текстовый энкодер.
Как же тогда привязать чара к тегу? Ладно ещё стиль, но для перса.
> 2/3 поломок лор как раз из-за шизов, тренирующих текстовый энкодер на lr почти как у unet.
Ну а какое значение ты считаешь нормальным? Сколько не тренил, 1/3 от юнета иногда даже недожаривается, не то что перетрен.
> При том что рекомендуемая альфа как у кохи, так и у ликориса - 1.0 или меньше.
Ещё скажи что ты готов по рекомендациям кохи тренить, у него там как раз был пиздец типо 4е-7 адафактор без те для хл файнтюнов, результатом был вдхл.
> Отвал пизды просто.
А вот это с прошлого гайда скопировал не заметив, надо поправить.
> Как будто бред сумасшедшего читаю.
А ты сам натренеть сначала с одним, потом с другим и сравни, или тебе именно формулировка не понравилась?
> А альфу ебашить под 64-128 - это конечно же другое, да.
Согласен, что для перса этого многовато, но стиль на низкой альфе нихуя не улавливает.
> С такими высерными конфигами другого и не ожидал.
Скинь свой конфиг, я не против узнать как можно лучше.
> https://rentry.org/59xed3
Да, это охуенный гайд, я его читал, но там автор больше фокусится на трене чаров.

>>507265
Последняя версия супермерджера какая то багнутая кстати, может смерджить поломанную модель.
Аноним 03/10/23 Втр 18:35:27 #176 №507345 
1652862097054.png
1597891922236.png
>>507292
> к тегу
Чел, в SD frozen clip, т.е. его вообще не тренируют изначально. Если банально по имени персонажа модель рисует любую тянку - значит тестовый энкодер уже понимает о чём идёт речь, надо только научить как рисовать это.
> Ну а какое значение ты считаешь нормальным?
Я тебе уже написал - на SDXL его вообще нельзя тренировать, на полторашке самый минимум или вообще выключить, если как я выше написал работает.
> по рекомендациям кохи
А ты предлагаешь по рекомендациям васянов, даже не понимающих что делают эти параметры? Отсутствие скейла весов - это альфа 1.0. Всё что выше - это костыли ничем не лучше кучи других костылей. Бездумно втыкать костыли куда не надо - это вообще за гранью.
> результатом был вдхл
Результат был закономерный для тренировки ванильной полторашки на рандомном кале с бур, точно такой же результат получали с любым другим способом обучения, потому что проблема в датасете. На SDXL аналогичные результаты получали с датасетом такого же уровня.
> А ты сам натренеть сначала с одним, потом с другим и сравни
От альфы у тебя веса пидорасит, а ты потом удивляешься почему же модель ломается. fp16 всегда лучше по скорости и памяти, а поломок модели вообще никогда не бывает если тренируешь нормально. Особенно учитывая что NaN это в первую очередь про кривые градиенты от идущего вверх loss, поломка весов уже следствие.
> стиль на низкой альфе нихуя не улавливает
И самое лучше что ты придумал - просто скейлить веса до поломки модели? При том что у тебя всякое говно для демпфирования обучения стоит, типа больших батчей/лимита гаммы SNR/weight decay. С loss как пила естественно нихуя не тренируется нормально, тебе только и остаётся скейлить веса и потом на этих волнах высматривать где же изображение поломано меньше. Когда у тебя средний loss идёт вниз без пилы, то и результат стабильный без поломок модели и распидорашивания картинки. Пикрилейтед как loss должен выглядеть, на больших однотипных датасетах вообще как на втором пике.
Аноним 03/10/23 Втр 18:43:07 #177 №507358 
>>507345
> Пикрилейтед как loss должен выглядеть, на больших однотипных датасетах вообще как на втором пике
С какими параметрами и что именно тренилось?
Аноним 03/10/23 Втр 18:45:00 #178 №507359 
169634739477757573.jpg
Можете пожалуйста мой рисунок улучшить, чтобы реалистично было?

Слизни на фоне Фудзи
Аноним 03/10/23 Втр 18:46:27 #179 №507360 
>>507359
Он неплох уже как есть, за этим в nai/sd тред с развернутым описанием реквеста.
Аноним 03/10/23 Втр 18:47:15 #180 №507361 
>>507360
Понял, спасибо
Аноним 03/10/23 Втр 18:49:58 #181 №507367 
>>507345
Брах, чего ругаешься, посоветуй лучше стартовые параметры, чтобы стиль на 1.5 натренить. Я думал с продиджи начать, но не уверен...
мимо
Аноним 03/10/23 Втр 19:50:44 #182 №507423 
1554071943171.png
1602309607588.png
>>507345
> Чел, в SD frozen clip, т.е. его вообще не тренируют изначально. Если банально по имени персонажа модель рисует любую тянку - значит тестовый энкодер уже понимает о чём идёт речь, надо только научить как рисовать это.
Не помогая тегами, просто вжарив юнет? В чём смысл так делать?
> на SDXL его вообще нельзя тренировать
Чтобы не иметь возможности промптить персонажа? Как просто ты собираешься рисовать чаров на хл, если она их изначально не знает? А разделять как собираешься, исключительно юнетами от лор? Ладно там ещё 1.5 с её наи, в которой есть знания как приблизительно чаров многих рисовать, такую и тренить долго обычно не надо, там и 1/10 хватит для те.
> А ты предлагаешь по рекомендациям васянов, даже не понимающих что делают эти параметры?
Я предлагаю то, что не один раз срабатывало.
> Отсутствие скейла весов - это альфа 1.0.
В гайде, на который ты же ссылаешься:
> This is used to scale weights (the model's actual data) when saving them by multiplying them by (alpha/net dim) and was introduced as a way to prevent rounding errors from zeroing some of the weights.
> Alpha 0 = Alpha 128 = 128/128 = x1
Альфа 1 = отсутствие скейла весов, будет верным, только если дим тоже будет 1.
> От альфы у тебя веса пидорасит, а ты потом удивляешься почему же модель ломается.
Ты про нулевые значения? Ну так они литералли из-за выбранной точности становятся такими.
> fp16 всегда лучше по скорости и памяти, а поломок модели вообще никогда не бывает если тренируешь нормально. Особенно учитывая что NaN это в первую очередь про кривые градиенты от идущего вверх loss, поломка весов уже следствие.
Вот натренил, как ты предлагаешь с 1 альфой и фп16. Не особо то график меняется, NaN'ы в отличии от бф16 присутствуют, 103 штуки. В каком месте это быстрее тоже не понятно, такая же скорость как и всегда.
> И самое лучше что ты придумал - просто скейлить веса до поломки модели? При том что у тебя всякое говно для демпфирования обучения стоит, типа больших батчей/лимита гаммы SNR/weight decay.
Я их наоборот не скейлю, а дампенеры как раз стоят чтобы эта хуйня не сжарилась вусмерть.
> С loss как пила естественно нихуя не тренируется нормально, тебе только и остаётся скейлить веса и потом на этих волнах высматривать где же изображение поломано меньше. Когда у тебя средний loss идёт вниз без пилы, то и результат стабильный без поломок модели и распидорашивания картинки. Пикрилейтед как loss должен выглядеть, на больших однотипных датасетах вообще как на втором пике.
Ты лучше расскажи, что ты делаешь, чтобы лосс стал не бесполезной метрикой.
Аноним 03/10/23 Втр 20:26:12 #183 №507458 
>>507423
> В чём смысл так делать?
Чел, я тебе в очередной раз напишу - в SD текстовый энкодер не тренируется, он оригинальный от LAION. Это как раз нет смысла тренировать его. Это текстовая модель, она ничего не рисует, ей не надо знать ничего про то как выглядит твой персонаж. В лорах есть тренировка только как костыль из-за хуёвого CLIP, когда например логические цепочки в промпте, на SDXL уже жирный CLIP и от его тренировки только хуже становится. Даже у кохи об этом написано, чтоб дурачки не пытались его тренировать.
> Альфа 1 = отсутствие скейла весов, будет верным, только если дим тоже будет 1.
Ты только половину понял. У тебя веса сначала умножаются на альфу, тренируются, а потом делятся перед сохранением. При альфе 128 у тебя веса в 128 раз больше, костыль чтоб не округлялись до нуля. Но у тебя из-за этого и колебания значений весов выше.
> лосс стал не бесполезной метрикой
Loss не метрика, по нему градиенты для весов считаются. Если у тебя он идёт вверх - значит тренировка идёт в обратную сторону от референса. Нет забора - нет пережарок и поломанных лор, так же как и NaN никогда не будет, не будет проблем с подрубанием кучи лор, можно будет вес лоры хоть до 2 поднимать и генерация не будет в кашу/шум превращаться.
В душе не ебу что ты там нахуевертил что он у тебя не падает. Если у тебя датасет протеган как попало или текстовый энкодер ломает кривыми тегами, то это запросто может быть причиной пилы вне зависимости от настроек.
Аноним 03/10/23 Втр 20:35:33 #184 №507466 
>>507458
Покажи пример как надо делать чтобы было пиздато, чтобы запоминались вайфу, чтобы ухватывался стиль и получался красивый, убывающий на порядки лосс как из учебника. Не общие рассуждения как вы с кохой против дедов тренировали а конкретику. Будем тебе очень благодарны.
Аноним 03/10/23 Втр 21:02:06 #185 №507511 
>>507458
> на SDXL уже жирный CLIP и от его тренировки только хуже становится. Даже у кохи об этом написано, чтоб дурачки не пытались его тренировать.
Да я видел. Я только понять не могу как тогда модель должна будет догадаться что чар А это чар А, а чар Б это чар Б, как их потом промптить?
> У тебя веса сначала умножаются на альфу, тренируются, а потом делятся перед сохранением. При альфе 128 у тебя веса в 128 раз больше, костыль чтоб не округлялись до нуля.
Ну ок, но в том же гайде про такое не упоминается, а вот про rounding errors есть, которые бывают только на фп16.
> Но у тебя из-за этого и колебания значений весов выше.
Но я же поставил без колебаний, ты ведь видел конфиги, я менял лишь то, про что ты писал, то бишь альфу и точность, но это не помогло, судя по графикам.
> Loss не метрика, по нему градиенты для весов считаются. Если у тебя он идёт вверх - значит тренировка идёт в обратную сторону от референса. Нет забора - нет пережарок и поломанных лор, так же как и NaN никогда не будет, не будет проблем с подрубанием кучи лор, можно будет вес лоры хоть до 2 поднимать и генерация не будет в кашу/шум превращаться.
> В душе не ебу что ты там нахуевертил что он у тебя не падает. Если у тебя датасет протеган как попало или текстовый энкодер ломает кривыми тегами, то это запросто может быть причиной пилы вне зависимости от настроек.
Ну если я нахуевертил, скидывай хороший, по твоему мнению, конфиг. Потреню без ТЕ вообще, если он так мешает.
Аноним 04/10/23 Срд 08:41:00 #186 №507805 
>>507345
> Чел
Маркер долбоеба, дальше не читал
Аноним 04/10/23 Срд 10:39:51 #187 №507826 
>>507805
>>
Маркер долбоёба: >, дальше не читал.
Аноним 04/10/23 Срд 12:24:26 #188 №507887 
Какую модель стоит использовать для тренировки лоры на реального человека?
Аноним 04/10/23 Срд 12:58:34 #189 №507894 
>>507887
Чистый SD
Аноним 05/10/23 Чтв 01:01:40 #190 №508659 
>>507887
эту https://huggingface.co/runwayml/stable-diffusion-v1-5/blob/main/v1-5-pruned.safetensors
а генерировать на этой https://civitai.com/models/4201/realistic-vision-v51
Аноним 05/10/23 Чтв 12:19:27 #191 №508922 
>>507894
>>508659
Понял, спасибо.
Аноним 05/10/23 Чтв 17:31:47 #192 №509256 
image
>>478081 (OP)
Памахите, можно как-нибудь заюзать апскейлеры из вкладки Extra и с ними Codeformer из командной строки? Из UI не подходит, нужно апскейлить очень много разных файлов батчем, потом удалять, для этого даже вкладка Batch from directory не подходит. Апскейлером пользуюсь Remacri с upscale.wiki. По идее же их должно быть можно как-то запускать с командной строки, если они там в вики без SD лежат. Настройки юзаю как на пикрелейдед. В документации по автоматику не пишут, как их с командной строки можно запустить.
Аноним 07/10/23 Суб 02:43:10 #193 №510608 
kjs.jpg
https://www.chub.ai/characters/XanaduMio/sd-chan-60958867/main
ИИ-ассистент для claude, чтобы генерировать промпты
Аноним 07/10/23 Суб 09:10:05 #194 №510701 
https://github.com/KohakuBlueleaf/LyCORIS/blob/document/docs/Guidelines.md
Что за algo=full, это просто тренировка чекпонита?
Аноним 07/10/23 Суб 11:08:25 #195 №510731 
Чот ебался с этой парашей, ебался, а она так и не запустилась, ошибка сыпет при попытке мёрджа. Что этот реп, что бета. Кто-нибудь пользуется, как оно вообще, когда работает? Может альтернативные какие-нибудь похожие штуки есть?
https://github.com/Xerxemi/sdweb-auto-MBW
Аноним 07/10/23 Суб 11:39:24 #196 №510743 
image.png
Поясните за AnimateDiff почему оно нормально генерит при разрешении 512х512, но если взять выше, те же 768х768, то видюха отказывается разгоняться и ползет на 1% мощностей.
Аноним 07/10/23 Суб 11:40:51 #197 №510744 
>>507268
>Да и вообще через строчку ересь какая-то. Ты бы хоть это перевёл, а не высерал шизу - https://rentry.org/59xed3
Чет попробовал настройки автора с автоматическим ЛР на Prodigy - и какая-то фигня вместо стиля натренилась. Похожесть была, но очень отдаленно. Почти 2000 шагов - мало, чтоль?
Аноним 07/10/23 Суб 11:46:27 #198 №510748 
>>510743
Ты сам не видишь что ли что на твоём скрине?
Аноним 07/10/23 Суб 12:16:18 #199 №510767 
>>510748
Ладно, я тупой, сравнил ГПУ на арте и щас, когда генерирую 512х512. Разницы нет, но я не понимаю, почему при попытке генерить 768х768, видеокарта начинает работать медленно, бесшумно и генерация замедляется в 100 раз.
Аноним 07/10/23 Суб 12:30:20 #200 №510777 
1609372502335.png
>>510767
> почему
Аноним 07/10/23 Суб 15:00:42 #201 №510924 
>>510767
Видеопамять у тебя забивается, ну.
Не хватает объема, переходит в режим low-vram, отчего и замедление.
Аноним 07/10/23 Суб 17:28:21 #202 №511022 
546476758468.JPG
Анончики, помогите расшифровать что чат-жопа с японского перевела: https://rentry.org/bp87n
В общих чертах как он это делает? Так что ли:
1) Тренерует Лору на скриншотах дефолтного болванчика из Хани Селект.
2) Болванчик-Лору он как-то мержит вместе с требуемой моделью, модель у него под аниме стиль.
3) Тренирует Лору своего персонажа.
Аноним 07/10/23 Суб 18:01:18 #203 №511049 
>>510701
Да, можно ещё отдельные части выбирать https://github.com/KohakuBlueleaf/LyCORIS/blob/e4259b870d3354a9615a96be61cb5d07455c58ea/lycoris/config.py
>>511022
Всё так, про нюансы только хз, не пробовал
Аноним 07/10/23 Суб 18:52:49 #204 №511092 
>>510924
Понял-принял, благодарю.
Аноним 07/10/23 Суб 19:19:13 #205 №511113 
>>511022
Можно и без хани-селекта обойтись было.
Перс же примитивный, промптом задается.
А если он промптом задается - тупо генеришь штук 300 картинок, из них отбираешь сколько тебе надо, где чар на себя похож, апскейлишь, инпэнтишь лицо (если надо), и на этих картинках сразу и тренируешь.
Аноним 07/10/23 Суб 19:57:21 #206 №511157 
>>511049
>можно ещё отдельные части выбирать
Отдельные части тела? Типа он только на лицо обучал, а можно было тело полностью?

Алсо, кто-нибудь вообще пробовал мержить Лору с моделью? Какие скрипты для этого нужно использовать?

>>511113
>Перс же примитивный, промптом задается.
В целом да, но промптом ты не сможешь тонкие нюансы прописать. Типа размеры, формы и разреза глаз, расположения прядей волос и т.д.
Хотя сейчас вроде бы можно такую мелочь с помощью Ip-adapter модели пофиксить.

>А если он промптом задается - тупо генеришь штук 300 картинок, из них отбираешь сколько тебе надо, где чар на себя похож, апскейлишь, инпэнтишь лицо (если надо), и на этих картинках сразу и тренируешь.
Это дохуя работы. Для тренировки сколько картинок надо? штук 10 минимум. Их из этой кучи достать нужно, а потом еще выдрачивать каждую до идеала.
А тут он просто скриншотов наделал за несколько минут и все, можно обучать.
Аноним 07/10/23 Суб 20:48:34 #207 №511187 
>>511157
> Отдельные части тела?
Отдельные части сд модели
> Алсо, кто-нибудь вообще пробовал мержить Лору с моделью?
С сд-скриптс прямо скрипты лежат для мерджа. Можешь вот этот гуй ещё юзать, он и локоны умеет примердживать https://github.com/bmaltais/kohya_ss
Аноним 08/10/23 Вск 10:28:27 #208 №511540 
>>511157
>ты не сможешь тонкие нюансы прописать.
Вот для этого и надо генерить много пикчей. Выбираешь то, что попало в образ - и норм.

>выдрачивать каждую до идеала.
Зачем? Вообще не надо. Главное, чтоб образ был ухвачен, и особых/повторяющихся косяков не было.

>А тут он просто скриншотов наделал за несколько минут и все, можно обучать.
Он сначала поставил хани-селект, сделал дизайн персонажа, наделал с ним скриншотов, обучил на них лору, смерджил с моделью, нагенерил картинок с персом на таком мердже, и уже на них тренировал финал.
Это далеко не несколько минут =)

По факту весь первый этап с хани-селектом и лорой на нем - это чтоб модель более стабильно тебе сравнительно похожего персонажа выдавала. И то там с попаданием в образ не очень получилось.

Почему и говорю - там, где можно чисто промптом справиться - такой изврат не нужен.
Аноним 08/10/23 Вск 11:19:29 #209 №511585 
Ещё вопросец по AnimateDiff.
Если я использую больше 75 токенов в позитивном промпте, то это приводит к тому, что AnimateDiff не способен сохранять ту же композицию, больше чем на 16 кадров. Кто-нибудь нашел решение?
Аноним 08/10/23 Вск 11:21:03 #210 №511587 
>>511540
> Он сначала поставил хани-селект, сделал дизайн персонажа, наделал с ним скриншотов, обучил на них лору, смерджил с моделью, нагенерил картинок с персом на таком мердже, и уже на них тренировал финал.
Ты последовательность перепутал. Здесь смысл что он от стиля избавлялся, он сделал рандомного персонажа и натренил с ним, чтобы стиль впитать и примерджить к модели и уже с этого тренил, того которого хотел, чтобы стиль 3дшный не подхватывало.
Аноним 08/10/23 Вск 11:35:39 #211 №511597 
Есть какие-то подвижки по дистилляции XL моделей? Чекпойнты по 12 с копейками гигов это чет как-то дохуя.
Аноним 08/10/23 Вск 11:54:53 #212 №511605 
Как в теории допилить SD до уровня Dall-e 3?

Кодировщик текста чрезвычайно велик (вероятно, он мог бы даже использовать в качестве входных данных встраивания размера GPT3.5). Для т екстового кодировщика SD 1.5 используется 123M параметров, GPT3 — 150B параметров.

Нет ничего, что Stability AI не смогут сделать, просто такие вещи не будут работать на потребительском оборудовании, за исключением, возможно, загрузки/выгрузки кодировщика текста при каждом изменении промпта и кэширования после промпта. Даже в этом случае использование огромного встраивания может увеличить размер Unet без улучшения качества изображения.

С точки зрения качества изображения и того, как проработаны руки или согласованность изображения (освещение, тени), Unet (или что-то еще, что используется для обработки изображений) вовсе не является революционным по сравнению с SDXL или MJ.
Аноним 08/10/23 Вск 11:56:33 #213 №511607 
>>511605
В Дейли три походу насколько баз на ТЕРРАБАЙТ
Аноним 08/10/23 Вск 11:58:48 #214 №511608 
Палю лайфхак. Генерируешь изображения нужного персонажа с Dall-E 3, трейнишь на них лору для SD
Аноним 08/10/23 Вск 13:33:14 #215 №511665 
>>511187
Спасибо, анон, если гуи есть то разобраться смогу скорее всего.

>>511540
>Зачем? Вообще не надо. Главное, чтоб образ был ухвачен, и особых/повторяющихся косяков не было.
Вангую что эти косяки тебе потом аукнутся когда будешь Лорой пользоваться. Не думаю что прямо говно будет, но качество будет хуже чем у обычных Лор которых тренировали на картинках от рисовак.
К тому же, мне вот хочется персонажа в одежде, а не просто лицо. При твоем способе даже на 300 картинках одежда будет пиздец какая разная. А в 3д хоть одежда и хуже по качеству, но она везде одинаковая.

>>511605
>Для т екстового кодировщика SD 1.5 используется 123M параметров
У кодировщика SDXL в сумме уже около 800M параметров. Мало, но все же какие-то подвижки вперед есть.

>>511608
Ничего не получится. Как ты сгенеришь несколько картинок одного персонажа?
Хотя я для SD видел один способ в котором чувак при помощь ControlNet openpose и эмбеддинга генерировал одну картинку типа Character Sheet с персонажем в разных позах и ракурсах. Потом апскейлил картинку, резал ее на части и ебался с каждой частью отдельно.
Или ты думаешь что с помощью очень подробного промпта можно в Dall-e получить постоянного персонажа?
Аноним 08/10/23 Вск 16:03:12 #216 №511817 
>>511587
Ничего я не перепутал.
Если генерить просто с лорой, тренированной на 3дшном персе - ИИ будет генерить тебе 3дшного перса.
А вот если с моделью замерджить - перс (ну, какая-то часть) останется, зато 3дшный стиль должен забиться почти полностью. И на втором шаге, когда уже на таком аутпуте тренируют - он уходит вообще.
Надо будет, кстати, самому попробовать. Посмотреть, что получится. Есть у меня лора, на 3дшных рендерах разных персов тренированная. Если ее просто подключать - она этот 3д стиль и выдает в точности.
Основная тренировка лоры на 3д-персонаже у него была для того, чтоб после мерджа модель этого перса более стабильно выдавала.

>которых тренировали на картинках от рисовак.
Ты картинки рисовак то давно видал? =)
Лишних руг-ног нет, лицо не поехало, глаза не вкось? Всё, в тренировку сгодится.

>При твоем способе даже на 300 картинках одежда будет пиздец какая разная. А в 3д хоть одежда и хуже по качеству, но она везде одинаковая.
Так это ж наоборот хорошо! Нейронка лучше концепт перса от одежды отделить сможет, особенно если одежду протэгать как следует. Если у тебя будет 300 картинок перса в одинаковой одежде, как ты ее не тэгай, а она намертво с персонажем будет ассоциироваться. Ты просто не сможешь его ни во что другое без сурового гемора потом переодеть.
Не, если тебе как раз такое и надо - то окей. Но вообще для гибкости нужен разнообразный датасет.
Опять же, генерить можно с вилдкардами на 3-5 сетов одежды. закрытый Купальник, бикини, какой-нибудь кэжул, униформа, всё такое. Это вообще в идеале, чтоб потом с тэгами для второго этапа не париться.
Аноним 08/10/23 Вск 16:11:25 #217 №511831 
bd65b7c2-fbef-48e0-88fd-71bf5903ec1e.jpeg
>>511608
Далл-Е 3 далеко не всех персов знает, и не всегда в образ попадает.
Даже Рей или Аску точно сгенерить - и то проблема, через раз промахивается. Хотя казалось бы, артов с ними в интернете ну просто максимально много.

>>511608
Зачем?..

>>511665
>Как ты сгенеришь несколько картинок одного персонажа?
Пикрил. Видел на одном дискорд серваке, картинка не моя.
Качество говно, конечно.
Before|After в промпте или что-то типа того, очень хорошо работает. Прям зацени, насколько точно совпадение по лицу получается.
(выше твой пост не протэгал в ответе, эх).
Аноним 08/10/23 Вск 16:42:40 #218 №511873 
>>511605
Далли3 - мультимодалка, в этом и секрет.
Действительно текстовая часть там больше, а сама тренировка была с фокусами на концепты, причем четко и правильно обозначенные.
> Для т екстового кодировщика SD 1.5 используется 123M параметров, GPT3 — 150B параметров.
Врядли там даже 1 миллиард параметров есть, столько не нужно. Но вот отдельная llm там очень даже участвует, через нее проходят все юзер промты и она уже их переводит/достраивает/модифицирует для приведения к формату, который понятен, заодно выдает подходящие параметры генерации. Потому и результаты могут разительно отличаться на вроде похожих промтах, или случаются казусы.
Далее, если понаблюдать за генерацией и поведением - за текст и логотипы отвечает отдельная сеть. Оно получается криво-всрато как или даже хуже чем в сд, если запрос пошел не туда, или классно-четко если она задействуется. То же самое может быть в другими запросами тех же концептов или стилей, о чем свидетельствует рандомайзер реакции при смене последовательности в промте. Как именно оно сделано, заранее формируется маска с отдельными частями промта, используются заранее заготовленные разные модели, проходит несколько этапов обработки, используются техники как в контролнете - возможно все сразу, врядли подробно расскажут.
> Нет ничего, что Stability AI не смогут сделать, просто такие вещи не будут работать на потребительском оборудовании
Ерунда, с точки зрения качество самих пикч и т.д. оно вообще не далеко от 1.5 ушло, а то и проигрывает в чем-то конкретном. Считай требования как для XL, но сверху еще 2-4-6 гигов памяти на дополнительную сеть, что делает препроцессинг и асист. Только сразу полезут проблемы с управляемостью и рандомом, потому эту часть целесообразнее запускать заранее, а потом контролировать/править то что она выставила. В этом случае требования мало изменятся.
SDXL то вообще тоже не простая сеть, но в ней фокус сделали на "качество пикч", используя пост-обработку рефайнером.

Хочешь реализовать - двигайся в этом направлении, для начала научив llm по запросу составлять тебе идеально отформатированный промт(ы) и пачку json с параметрами, картами и прочим.
Аноним 08/10/23 Вск 17:24:30 #219 №511944 
Внимание платиновый вопрос.
С чем-нибудь из всех этих ликорисов стоит вообще ебаться для стиля? Или лучше обычной лоры так ничего и не придумали?
Аноним 08/10/23 Вск 17:25:34 #220 №511948 
>>507227
Поменял в шаблоне гайд по лорам от 1060 на твой.

Спасибо за твой труд.
Аноним 08/10/23 Вск 17:37:50 #221 №511960 
>>511944
Нет. Это говно придумали для шизов, дрочащих на размер файла. На деле всё это говно имеет очень плохую переносимость между моделями. Обычные лоры уже давно умеют обучать те же слои, что и ликорис.
Аноним 08/10/23 Вск 18:20:16 #222 №512002 
>>511960
> дрочащих на размер файла
> плохую переносимость между моделями
> Обычные лоры уже давно умеют обучать те же слои, что и ликорис
Слои обучать не надо и даже плохо, но обычные слои их могут обучать. Что хотел сказать то?
Аноним 08/10/23 Вск 18:20:53 #223 №512003 
>>512002
> обычные слои
обычные лоры офк, фикс
Аноним 08/10/23 Вск 18:56:32 #224 №512047 
>>510731
Пиздец, там 30 слайдеров крутить в разных комбинациях, ебясь с моделью долгими зимними вечерами. Это какой-то садюга аутист изобретал.
Аноним 08/10/23 Вск 19:09:57 #225 №512084 
>>512047
Не, слайдеры как раз не надо трогать, но настроек всё равно больно дохуя для "сделать пиздато" модуля. Но у меня один хуй не работает.
Аноним 08/10/23 Вск 19:40:44 #226 №512149 
zX6YOQiNk8.jpg
Почаны, а гугл теперь блочит колабы с SD?
Долго не дифузировал. Сейчас снова хотел вкатиться, но на колабе, где я сидел, висит сообщение, что гугл лавочку закрыл. Но в калабе от того же Христа такого нет.
Так Гугл сворачивает SD'шников или нет?
Аноним 08/10/23 Вск 20:15:38 #227 №512202 
>>512149
С возвращением. Давно уже. И аккаунт могут забанить, ибо нехуй. Покупай своё железо.
Мне одному было очевидно, что лавочку прикроют?
Аноним 08/10/23 Вск 22:17:14 #228 №512377 
>>512202
Ок, бро, я-то комп обновлю так и так. А почему вы в шапке не пропишите такую важную инфу? Мало того, что нет предупреждения об удалении аккаунта, так еще и висят ссылки на гугл-колабы.
Аноним 08/10/23 Вск 22:27:18 #229 №512386 
>>511817
>Если у тебя будет 300 картинок перса в одинаковой одежде, как ты ее не тэгай, а она намертво с персонажем будет ассоциироваться. Ты просто не сможешь его ни во что другое без сурового гемора потом переодеть.
По мне, так это хорошо. Это же самая большая проблема нейронок - невозможность рисовать персонажа в одной одежде на разных генерациях.
Если нужно переодеть, то я бы лучше еще одну Лору обучил. Постоянная одежда в разных кадрах - это бесценно.

>>511831
>Пикрил. Видел на одном дискорд серваке, картинка не моя.
Увы, фигня полная, для тренировки Лоры этого и близко не хватит. Хотя да, совпадение по лицу есть очень точное. В общем, если использовать метод анона выше который про генерацию 300 картинок в СД говорил, то думаю что толку больше будет.
Аноним 08/10/23 Вск 22:37:20 #230 №512396 
Пиздец, аноны, SDXL в автоматике1111 оказывается не умеет нормально в img2img.
https://github.com/AUTOMATIC1111/stable-diffusion-webui/discussions/12187
Точнее умеет, но нужно запускать модель с --no-half что поднимает требования по видеопамяти в небеса. У меня под завязку жрет 16 гигов видеопамяти на 1024 х 1024 картинку без ничего.
Если у вас нет 24 гигов то можете даже не вкатываться в сдхл, разочаруетесь.
Аноним 08/10/23 Вск 22:51:40 #231 №512421 
>>512396
Чел, проблемам с VAE уже год, SDXL тут не при чём. Всё нормально работает в fp16, если у тебя нормальная карта.
Аноним 08/10/23 Вск 23:02:04 #232 №512440 
>>512421
Что значит нормальная? У меня Quadro P5000, 16 гигов видеопамяти.
Ты хотел сказать достаточно новая видюха?
Ну хорошо, 24 гига не нужно, нужно просто быть мажором и купить новую видюху за тыщу баксов.
Аноним 09/10/23 Пнд 04:45:22 #233 №512840 
>>512440
Чел, твоей картонке чуть ли не десятилетие, там архитектура уже всё.
Купи 3060 12ГБ, она быстрее будет, лол.
Аноним 09/10/23 Пнд 13:02:32 #234 №513015 
>>512386
>По мне, так это хорошо.
Нет, не хорошо. Ибо в идеале надо совмещать.
300 картинок с персом, 100 в его фирменном костюме, 100 в разных простых костюмах, 100 чисто голым. И будет красота вообще - и костюм натренится, и переодевать можно будет запросто.
Куча лор так натренирована.

>Увы, фигня полная, для тренировки Лоры этого и близко не хватит.
Да понятно, это была просто демонстрация того, как эта нейронка концепты понимает. Сколько лор на подобное в СД не видел - всегда лажа выходит, никакого постоянства ключевых моментов между картинками. А тут прям из коробки.
Аноним 09/10/23 Пнд 13:50:09 #235 №513067 
>>512396
>on Jul 31
Обновиться пробовал?
>в автоматике1111
Комфи пробовал?
Аноним 09/10/23 Пнд 13:57:06 #236 №513076 
00082-1982162271.png
>>512840
Это не совсем моя карта, я ее в аренду у Paperspace на пару часов взял. Алсо, сегодня по твоему совету взял нормальную: A4000.
Пиздос, ровна такая же проблема.
Но на ней уже с --medvram --no-half по крайней мере работать img2img может. Правда у этой виртуальной машины 45 гигов оперативки, поэтому все помещается.

Короче, нужно очень хорошее железо. А вот в text2img почти на любом старье можно генерить (если есть хотя бы 8 гигов видеопамяти).

>>513015
>Сколько лор на подобное в СД не видел - всегда лажа выходит
Лоры не пробовал, но вот ембеддинг и просто промпт сharacter sheet, multiple views of the same character СД вполне понимает. Без помощи контролнета правда сложно будет. Вот он очень неплохо Лору обучал на основе чарактер щита: https://youtu.be/iAhqMzgiHVw?si=aRD4g-K7TPZOQHhp
Пикрелейтед я сам генерил, правда это для 3д модели было.
Аноним 09/10/23 Пнд 15:52:17 #237 №513195 
>>513067
>Обновиться пробовал?
Я через Gradient блокнот запускаю, хз как его обновить, думаю что там и так последняя версия автоматика.

>Комфи пробовал?
Нет, но думаю попробовать. Вроде там более щадящие требования к железу.
Аноним 09/10/23 Пнд 18:52:30 #238 №513420 
>>513076
>Но на ней уже с --medvram --no-half по крайней мере работать img2img может.
Ещё бы. Я на 12 гигах работаю, и таких проблем нет, хватило --no-half-vae.
Аноним 09/10/23 Пнд 20:23:12 #239 №513514 
>>507227
В целом норм в текущей ревизии. Доебаться можно по мелочам:
Изображения нужно сделать кликабельными (обязательно), а в последовательностях где 1-2 выставить их подряд а не таблицей, ненужное ужимание и шакалит (на усмотрение).
В самом начале нужно обозначить что нужен питон такой-то версии и куда тулкит.
Начало где использование, к способ 3 ставь не рекомендуется или для справки, а то начнут так портить модели.
Пример хорошего датасета - серьезно? Одни ковбойшоты с сомнительным качеством, в тегах к которым нету имени персонажа. Папка 20 вообще отборная. Присутствуют регуляризации, хотя дан совет их не делать. Везде из раза в раз повторяется эта структура 10_x 20_x, что создает впечатления что именно так надо делать. Стоит прояснить как именно выбирать и ставить эти цифры, и сказать что в большинстве случаев можно обойтись одной папкой.
В разделе Easy way пункт 5
> Внимание, в настройках Additinal networks нужно указать дополнительный путь для сканирования лор, чтобы они подхватывались из дефолтной директории вебуи.
тогда как выше написано что все по дефолту ок, и ласт коммит ищет в стандартной папке webui.
Там же, какой смысл тестировать при весах 1.3-1.5? Куда важнее сделать несколько вариантов изображений чтобы оценивать не по одному сиду а хотябы по 4-8. Для этого лучше отказаться от варьирования веса, оставив его 0.8-1.0, выставить батч сайз-батч каунт а в webui изменить число строк или столбцов в гридах (лучше вынести его в квиксеттингс). Тогда можно будет сравнивать и видеть сразу много вариантов. Аналогично не помешает использовать вайлкарты на фон/позу/... и оценивать также косвенное влияние на окружение.
--unet_lr - лучше не значение а просто что равно LR
> conv_dim - тоже самое, что и network_dim, только для этих слоёв. Размер этих слоёв складывается с размером network_dim в выходном файле. Хорошим значением будет network_dim/2-4
Откуда?
> Есть разные мнения использовать вае во время тренировки или нет
Без него сама тренировка невозможна, здесь речь о том будет ли использоваться встроенное в модель или внешнее.
> что если и использовать то только вот это
Ты же на базе тренируешь, что там по дефолту? 840к с kl-f8 и наи сравнивал (только при тренировке офк)?
Аноним 09/10/23 Пнд 22:24:15 #240 №513687 
Сап тренеры.
RAM дохуища (93 гига), а вот VRAM в 1063 не завезли. --lowvram оно сожрет, или я зря надеюсь?
Аноним 09/10/23 Пнд 22:27:07 #241 №513693 
изображение.png
>>513687
Оно ведь не работает с общей памятью, да? Только с хардварной?
Аноним 09/10/23 Пнд 23:06:49 #242 №513743 
Стикер
Аноны, есть сейчас какие-нибудь виртуальные окружения вроде Колаба гуглавского, чтобы БЕСПЛАТНО вот зайти в окружение, нагрузить своих моделей и питоновских скриптов и генерировать?
Пробовал ещё сервис Paperspace, но там всё обмазано завлекалочками "FREE FREE FREE !!11". а как доходит дело до подключения к мощностям - а-тя-тя-тя, подключите свою кридиточку.

Как быть?! Раньше делал всё в колабе, горя не знал, но вот вернулся после 2х месячного перерыва и с ужасом обнаружил что гугл ВСЁ, а цены там неприемлемые, особенно учитывая курс. В общем покупать подписку не вариант.
Аноним 10/10/23 Втр 00:05:56 #243 №513829 
>>513693
на новых драйверах работает и с общей памятью, но где-то в 10 раз медленнее
Аноним 10/10/23 Втр 00:07:26 #244 №513833 
>>513743
купи rtx 3060 12gb
Аноним 10/10/23 Втр 00:18:29 #245 №513852 
>>513829
Норм, годится.
>>513833
>купи
Не куплю.
Аноним 10/10/23 Втр 12:55:43 #246 №514125 
>>513076
>СД вполне понимает
Понимать то понимает, но чтоб важные моменты были точно ухвачены - этого в 90% случаев уже не будет.
Типа тот же before\after, или sequence - будут тебе два разных (но похожих) перса вместо одного с изменениями. В character sheet тоже не слишком много постоянства без кучи неудачных генераций.
Аноним 10/10/23 Втр 13:31:28 #247 №514131 
>>513514
> Изображения нужно сделать кликабельными (обязательно)
Сделал на самые мелкие, которые было не видно.
> В самом начале нужно обозначить что нужен питон такой-то версии и куда тулкит.
Про куду было, перенёс повыше с питоном.
> Начало где использование, к способ 3 ставь не рекомендуется или для справки, а то начнут так портить модели.
Ну добавил, но этим уж заморачиваться будут наверное только те, кто с чекпоинтами постоянно пердолится.
> Пример хорошего датасета - серьезно? Одни ковбойшоты с сомнительным качеством, в тегах к которым нету имени персонажа. Папка 20 вообще отборная. Присутствуют регуляризации, хотя дан совет их не делать. Везде из раза в раз повторяется эта структура 10_x 20_x, что создает впечатления что именно так надо делать. Стоит прояснить как именно выбирать и ставить эти цифры, и сказать что в большинстве случаев можно обойтись одной папкой.
Реально полная хуйня, со старого гайда, я хотел было это переписать, но походу пока про параметры писал забыл. Что думаешь, так пойдёт?
> тогда как выше написано что все по дефолту ок, и ласт коммит ищет в стандартной папке webui.
Поправил.
> Там же, какой смысл тестировать при весах 1.3-1.5?
Ну в том же гриде что я тренил видно недожар, после кстати ещё всякие тестовые тренировки были и как раз на бОльшем лр сетка получилась лучше, без этого графика я бы хуй это узнал, я её даже юзать стал.
> выставить батч сайз-батч каунт а в webui изменить число строк или столбцов в гридах (лучше вынести его в квиксеттингс). Тогда можно будет сравнивать и видеть сразу много вариантов.
Не пойму зачем эта гимнастика с батчами нужна? Можно же просто сиды рандомные поставить.
> Аналогично не помешает использовать вайлкарты на фон/позу/... и оценивать также косвенное влияние на окружение.
Ещё сложнее определить по такому влияние на бекграунд, если честно. Лучше для начала просто оценивать насколько хорошо вышел тренируемый концепт, но я всё же допишу.
> --unet_lr - лучше не значение а просто что равно LR
Уверен? Просто лр можно вообще указать произвольным, он нихера не влияет, если разделяешь и указываешь правильные значения для юнета и те по отдельности с адамом.
> Откуда?
Тестил с этими значениями, выходило хорошо. Есть другие предложения?
> Без него сама тренировка невозможна, здесь речь о том будет ли использоваться встроенное в модель или внешнее.
Да ты прав, плохо сформулированно, переделал.
> Ты же на базе тренируешь, что там по дефолту? 840к с kl-f8 и наи сравнивал (только при тренировке офк)?
А сам не знаешь насколько ужасное в наи вае по дефолту? Сравнения в старых тт кидал, наи вае, не то что в модели, и 840к, kl-f8 не тестил, 840к это энивей его файнтюн, на собственно 840к шагов https://huggingface.co/stabilityai/sd-vae-ft-mse-original#decoder-finetuning , 840к выигрывал в детализации даже на 512
Аноним 10/10/23 Втр 15:50:09 #248 №514234 
00007-4225164689.png
screenshot391.png
>>513420
Спасибо за совет, кстати. Заменил --no-half на --no-half-vae и уже не так сильно память жрет. Работает даже на P5000

>>513852
Расскажи получилось ли генерить с сдхл моделями. Вангую что постоянные вылеты будут.

Кстати, аноны, а кто-нибудь пробовал генерить на основе 3д рендеров, но так чтобы стиль получился 2д?
Мне раньше было это неинтересно из-за низкого разрешения SD1.5, но на SDXL можно любопытные результаты получить если несколько controlnet моделей добавить. Пикрелейтед я генерил без Лоры на персонажа, тупо img2img с денойзом 0.6.
Аноним 10/10/23 Втр 16:23:45 #249 №514281 
>>514234
>низкого разрешения SD1.5
>несколько controlnet моделей добавить
С контрол нетом можно хоть 4к пикчи делать на полторашке, никаких проблем не будет, кроме памяти, лол.
Аноним 10/10/23 Втр 16:34:31 #250 №514295 
>>514281
>никаких проблем не будет
Не все так просто. Даже с контролнетом при увеличении размера картинки ИИ имет свойство чрезмерно засирать нейрошумом пустые пространства. Даже там, где это не требуется.
Если, конечно, тебе не простой апскейл нужен на денойзе 0.25, а именно обработка картинки с увеличением детализации.

>>514234
>генерить наоснове 3д рендеров, но так чтобы стиль получился 2д?
Выше тред почитай, я кидал несколько картинок, забодяженных на основе карточки из койкатсу.
Аноним 10/10/23 Втр 17:08:05 #251 №514343 
>>514295
>ИИ имет свойство чрезмерно засирать нейрошумом пустые пространства. Даже там, где это не требуется.
Так оно всегда так работает, просто при размере с почтовую марку это незаметно.
Аноним 10/10/23 Втр 17:17:59 #252 №514363 
>>514343
>Так оно всегда так работает
Ну, не совсем прям всегда.
Но контролировать эту тенденцию трудно.
Я пока стабильного способа не придумал.

Насрать в картинку нейрошумом - это вот запросто, это завсегда пожалуйста.
Аноним 10/10/23 Втр 18:02:39 #253 №514414 
>>514295
>Выше тред почитай, я кидал несколько картинок, забодяженных на основе карточки из койкатсу.
Ага, нашел тот пост. >>490580
Даже не верится что у тебя с таким высоким денойзом (0.8) получается похоже на оригинальный 3д рендер. У меня даже на 0.6 цвета жестко проебывает.
Сколько ты примерно ставил веса depth и canny? И tile примерно на каком шаге отключал?

Хотя ведь тайл модели вроде нет еще в сдхл, то есть цвет контролировать я не смогу.

>>514281
Можно, но в родном разрешении работать проще. Если мне не нужен арт в высоком разрешении, то я тупо могу 1024 х 1024 рендер сделать и на его основе генерить картинку в том же разрешении. Никаких апскейлов вообще не нужно.
Аноним 10/10/23 Втр 18:50:39 #254 №514480 
>>514414
На тайл есть много вариаций, как я заметил.
Можно поставить 0.25 силы и отключать на 0.1 (24 шага всего, это как раз вариант с картинки). Задаст базу и спокойно отключится, дальше нейронка будет сама думать.
Можно поставить 0.25 силы и вести до конца. Тут более точный контроль будет, ради сохранения деталей и цвета, но меньше фантазии.
Можно поставить 1 силы и тоже вести до конца. Тут уже будет усиление базовых деталей (если они есть) с добавлением всякого поверх, вплоть до "пережаривания" картинки в некоторых сетапах.
Есть еще экспериментальный - сила 2, отключить на 0.1. Выдает интересные результаты порой.
depth я в том примере не использовал, canny был полностью по стандарту, с дефолтовыми настройками.

Есть интересный вариант, который я для латент апскейла применяю:
tile 0.25; 0-0.1
canny 0.65; 0-0.25
Lineart (realistic) 0.65; 0.24-1
Первое - сила, второе шаги включения/отключения.
Входная картинка контролнета при этом - высокого разрешения, полученная через апскейл каким-нибудь валаром или другим не-латентным апскейлером.
Аноним 10/10/23 Втр 18:54:48 #255 №514483 
>>514414
А, ну да, без tile даже на низком денойзе цвета пойдут по тому самому месту. Там вон ниже другие картинки были, как раз без тайла, сам видишь, что получалось.

А в некоторых случаях иногда надо дать ему подольше поработать, потому что на определенных картинках/сидах бывают глюки, и нейронка все равно цвета на половине генерации начинает пересирать. Тут уже экспериментировать только остается.
Аноним 10/10/23 Втр 19:55:17 #256 №514562 
>>514480
Спасибо, тоже попробую когда наконец в сдхл запилят tile модель.
Кстати, а зачем вообще нужна Lineart модель дополнительно к Canny, разве они примерно не то же самое делают?

Я вот думаю что поза и перспектива у пикчи были простые. Если какая-нибудь акробатика или хентай, то нейросеть будет портить колени и другие сложные места. Желательно все же Depth или Openpose добавить.
Аноним 10/10/23 Втр 20:03:10 #257 №514574 
image.png
Помогите у меня бесконечно надпись висит "Installing requirements for CodeFormer"
Аноним 10/10/23 Втр 20:14:47 #258 №514590 
>>514562
>когда наконец в сдхл запилят tile модель
Если запилят.
Аноним 10/10/23 Втр 20:32:58 #259 №514612 
>>514562
Канни дает очень жесткие контуры, лайнарт более мягкие и побольше свободы для интерпретации.
Мне кажется, что в такой последовательности апскейл получше получается.
Но может и плацебо, конечно, можно и целиком на канни идти от начала и до конца.
Аноним 10/10/23 Втр 20:36:15 #260 №514615 
>>514131
> так пойдёт?
Ничесе датасет, алсо это уже не только стиль а еще и мультиперсонаж, лол. Да, заебумба, и по тексту иллюстративно.
> Не пойму зачем эта гимнастика с батчами нужна? Можно же просто сиды рандомные поставить.
Тогда делать несколько гридов с разными сидами и промтом. Вот только пока одни смотреть будешь уже другие забудешь, а лишняя информация по весам/эпохам будет только отвлекать. Тут можно сеточную систему или на выбывание постепенно самые хреновые откидывать, увеличивая при этом количество сравнений.
Ну это все другая история, важно отметить что нужно сравнивать не по одной генерации что сделано, вполне.
А батчи - чтобы не заморачиваться прописывая лишнюю ось в графике и генерить с ними, что быстрее на больших видеокартах. Буквально 2 клика и грид+оптимальный бс.
> Ещё сложнее определить по такому влияние на бекграунд
Он или взрованн-распидорашен, состоит из множества некогерентных частей по разным сторонам от персонажа со странным углом, или нормальный. А позы - это для персонажа, чекнуть чтобы не провоцировало бадихоррор и не копировало датасет. Для того и нужен none как контрольная группа, ведь поломаться может оно и само по себе а не из-за лоры.
> Уверен?
Тут про то что для LR расписано какое значение для такой-то альфы, что для разных оптимайзеров другие значения, а где юнет лр - просто ставь 1e-4.
> Тестил с этими значениями, выходило хорошо. Есть другие предложения?
Нет, не заморачиваясь ставлю таким же размером. Тут именно оптимум на этих значениях нащупал или же просто на них хорошо получалось и дальше начал шпарить? Еще на релизе примеры с разными и выводы из этого - ну вообще неубедительные были.
Аноним 10/10/23 Втр 23:00:38 #261 №514765 
7.jpg
1.jpg
>>514234
>пробовал генерить на основе 3д рендеров, но так чтобы стиль получился 2д?
юзай только контролнет, желательно 3 сразу, аля тайл на 0.5, кенни на 0.75 и аниме лайнарт на 0.75 для поддержки форм, потом дефолт апскейл при максимально мелких диноизов чтоб не было гостов. У меня модель хорошая, юзаю как первое значение в 0.4 и опускаю на 0.1 каждый апскейл х2
Пик сгенерил из разрешения 1280х720, потом апскейл на 0.4 + контролнет при апскейле тоже юзал, лайн арт аниме на 0.75 для поддержания формы.
Прямо как прочитал твое сообщение, вот сгенерил за 10 минут, правок в фотошопе нет
мимо анон который по кд юзает коикатсу+нейронка
Аноним 10/10/23 Втр 23:05:09 #262 №514770 
>>514765
дополню от себя.
руку можно было перегенерить, а еще колготки в сетку хуево переваривает, на месте окончания волос был изначально второй хвостик, артефакт, лень было поправлять, поэтому там каша
Это я к тому, что артефакты будут, больше времени потратишь, можешь убрать эти артефакты
Аноним 10/10/23 Втр 23:12:08 #263 №514778 
image.png
>>514765
>>514770
промт

silver hair, rabbit costume, rabbit ears, rabbit tail, fishnet pantyhose, ass, ahegao, open mouth, tongue
Negative prompt: (panties:1.2), easynegative
Steps: 25, Sampler: DPM++ 2M Karras, CFG scale: 7, Seed: 526260194, Size: 1280x720, Model hash: 2f33c329b7, Model: !custom_mix_v1_stable, Clip skip: 2, ControlNet 0: "preprocessor: canny, model: control_canny-fp16 [e3fe7712], weight: 0.75, starting/ending: (0, 0.75), resize mode: Crop and Resize, pixel perfect: False, control mode: Balanced, preprocessor params: (1536, 100, 200)", ControlNet 1: "preprocessor: lineart_anime, model: controlnet11Models_lineart [5c23b17d], weight: 0.75, starting/ending: (0, 0.75), resize mode: Crop and Resize, pixel perfect: False, control mode: Balanced, preprocessor params: (512, 64, 64)", ControlNet 2: "preprocessor: tile_resample, model: controlnet11Models_tileE [e47b23a8], weight: 0.45, starting/ending: (0, 0.5), resize mode: Crop and Resize, pixel perfect: False, control mode: Balanced, preprocessor params: (512, 1, 64)", CFG Rescale phi: 0, TI hashes: "easynegative: c74b4e810b03", Version: 1.5.1
Аноним 10/10/23 Втр 23:20:11 #264 №514783 
>>514765
Пробовал опенпоуз + дэпс? Их еще можно прямо по ходу отредачить, предварительно поигравшись с препроцессорами.
Аноним 11/10/23 Срд 00:21:30 #265 №514830 
>>514765
Спасибо, похожу если в сдхл тайл скоро не завезут то буду перекатываться в 1.5.
Тут и модель в самом деле годная, но то что counterfeitXL. Ты из чего ее намешал?

>>514783
Двачую вопрос. Главное преимущество 3д моделей ведь в получении точной карты глубины (или нормалей), по идее должна быть польза от depth. Ну хотя бы по части нормального рисования кистей рук.
С другой стороны, карта глубины ведь может добавить глубины, что плохо для плоского аниме стиля.
Аноним 11/10/23 Срд 01:09:16 #266 №514872 
Помогите аноны, не загружаются модели. Сначало пишет что calculating, потом через 10 секунд в браузере пишет errored out и в консоле "нажмите клавишу для продолжения" и всё


venv "D:\stable-diffusion-webui\venv\Scripts\Python.exe"
Python 3.10.6 (tags/v3.10.6:9c7b4bd, Aug 1 2022, 21:53:49) [MSC v.1932 64 bit (AMD64)]
Version: v1.6.0
Commit hash: 5ef669de080814067961f28357256e8fe27544f4
Launching Web UI with arguments: --xformers
Calculating sha256 for D:\stable-diffusion-webui\models\Stable-diffusion\realismEngineSDXL_v10.safetensors: Running on local URL: http://127.0.0.1:7860
To create a public link, set `share=True` in `launch()`.
Startup time: 17.5s (prepare environment: 5.7s, import torch: 7.5s, import gradio: 1.1s, setup paths: 0.9s, initialize shared: 0.2s, other imports: 0.7s, setup codeformer: 0.1s, load scripts: 0.7s, create ui: 0.4s, gradio launch: 0.2s).
7b399aa4be60ddbc8d7e1dbe7d45de65c9a80c881586b3666491d736ac7086d8
Loading weights [7b399aa4be] from D:\stable-diffusion-webui\models\Stable-diffusion\realismEngineSDXL_v10.safetensors
Для продолжения нажмите любую клавишу . . .
Аноним 11/10/23 Срд 10:14:41 #267 №515012 
>>514783
>опенпоуз + дэпс
Юзлис хуйня, слишком много рандома же.
>>514830
>Ты из чего ее намешал?
zMix_v21
hassakuHentaiModel_v13
toonyouJP_alpha1
flat2DAnimerge_v30
И мешал их много раз, больше не смог повторить намешанное, сотни вариантов комбинаций было
>точной карты глубины (или нормалей), по идее должна быть польза от dept
Зачем если эту траблу решает более лучше лайн арты, кенни и тайлы? тайл даже сохраняет нужный цвет в нужных местах
Аноним 11/10/23 Срд 11:12:54 #268 №515038 
00277.jpg
>>514765 >>514778
Я обычно уменьшаю пикчу до небольшой, потом делаю латентный апскейл под контролнетом, за базу беру оригинальную большую пикчу.
Ну и промптов наваливать надо побольше, чтоб ИИ понимал, чего от него хотят вообще.
Типа:
masterpiece, best quality, 1girl, solo focus, from behind, leaning forward, bent over, hand on thigh, looking at viewer, turning head, white hair, blue eyes, open mouth, large breasts, huge ass, wide hips, playboy bunny, strapless, fishnet pantyhose, shoes, rabbit tail, rabbit girl, rabbit ears, shiny skin, shiny clothes, latex, abstract background, star \(symbol\),
Чем точнее промпт под картинку попадает, тем ИИ меньше глючит. Контролнет - это, конечно, хорошо, но и описательная часть тоже важна.

Опенпоз для обработки готовых пикч не рекомендую, только запутывает. С ним генерить надо, но тоже осторожно, а то будет бодихорор.

Depth нужен больше когда у тебя прям вообще голый манекен на исходнике, без одежды, без лица, без прически, чисто чтоб какой-то начальный пинок ИИ дать, чтоб было потом с чем работать.
Аноним 11/10/23 Срд 13:57:54 #269 №515131 
TMND3-masterpiece-best-quality-short-ponytail-hairbow-microdress-thighhighs-skintight-hand-on-own-ch.png
Counterfeit2-5-masterpiece-best-quality-1girl-sailor-fuku-aiming-pistol-breach-and-clear-dusty-middl.png
ЧЯДНТ? Контролнет Tile производит столько мыла что им можно мылить жопу в тюряге
Аноним 11/10/23 Срд 15:20:18 #270 №515186 
>>515131
Настройки, исходник, промпт?

Вообще замыливает только фон, попробуй blurry, blurry background в негативы дописать.
Аноним 11/10/23 Срд 15:30:34 #271 №515201 
Любопытно, обучаю лору на 768px, а генерации с неё пидорит уже на 640, при том что базовая модель очень хорошо с 768 справляется... Мистика...
Аноним 11/10/23 Срд 15:50:02 #272 №515230 
>>515201
Обучай на 512, всё будет нормально.
Аноним 11/10/23 Срд 15:58:05 #273 №515241 
>>515230
Стиль смазывается на 512. Ну, придётся ещё покропать, может, поможет.
Аноним 11/10/23 Срд 16:33:34 #274 №515303 
1559947840296.jpg
>>514615
> Ничесе датасет, алсо это уже не только стиль а еще и мультиперсонаж, лол.
Да тут все три сразу, стиль, концепт и чары, не отходя от кассы, всё равно стиль дольше всего тренить и всё остальное подхватит, немногие художники могут похвастаться такими датасетами.
> Тогда делать несколько гридов с разными сидами и промтом. Вот только пока одни смотреть будешь уже другие забудешь, а лишняя информация по весам/эпохам будет только отвлекать. Тут можно сеточную систему или на выбывание постепенно самые хреновые откидывать, увеличивая при этом количество сравнений.
> А батчи - чтобы не заморачиваться прописывая лишнюю ось в графике и генерить с ними, что быстрее на больших видеокартах. Буквально 2 клика и грид+оптимальный бс.
Не понял про настройки что ты имеешь ввиду. Вот так типо как на пике, bs|bc = той настройке про гриды и вайлдкарды с промптами концептов ну или просто беков?
Ну и да, заебёшься же такое высматривать, легче приблизительную годную эпоху найти и там уже точечно тестить вокруг неё по эпохам что тебе нужно.
> ведь поломаться может оно и само по себе а не из-за лоры
А может случиться и так, что лора наоборот исправит сид.
> Тут про то что для LR расписано какое значение для такой-то альфы, что для разных оптимайзеров другие значения, а где юнет лр - просто ставь 1e-4.
А, ну ок, поправил. Так понятнее?
> Нет, не заморачиваясь ставлю таким же размером. Тут именно оптимум на этих значениях нащупал или же просто на них хорошо получалось и дальше начал шпарить? Еще на релизе примеры с разными и выводы из этого - ну вообще неубедительные были.
Второе скорее, просто мне понравилось это значение и на них сетки получались сочнее вот и всё, слишком много было не оч, слишком мало давало меньше эффекта. Конкретных тестов не было, если прямо уж заморочиться нужно фулл стиледатасет собрать и тренировать conv_only, тогда видно будет различие, но в отрыве от основной реализации лоры естественно, потом с ней по хорошему бы.
Аноним 11/10/23 Срд 16:54:18 #275 №515325 
00004-849509415.png
86191263p5master1200.jpg
>>514778
Примерно таким способом сгенерировал такое. Ничего не редактировал, только инпеинт одной перчатки.

Аноны, так что получается, Лоры собственных персонажей не нужны? Выходит ведь что проще собрать 3д модельку в Койкатсу или еще где и обрабатывать рендеры. 3д происхождение картинки лично я не замечаю.
Лора же обычно дает меньшую стабильность и часто творит дичь с одеждой.
Аноним 11/10/23 Срд 17:04:12 #276 №515348 
>>515325
Хотя вот сейчас заметил что по лицу жесткий проеб.
У меня был денойз 0.5 при первой генерации. Глаза и рот на пикче мелкие слишком для такого денойза.
Скорее всего нужно было еще вариант с низким денойзом делать и потом в фотошопе склеить.
Аноним 11/10/23 Срд 17:10:36 #277 №515357 
>>515325
> Выходит ведь что проще собрать 3д модельку
Конечно проще. Только стабильный дифундер убрать из пайплайна, рендор триде ближайшую сотню лет будет выдавать гораздо более лучшее качество.
Аноним 11/10/23 Срд 22:24:50 #278 №515777 
>>515012
> Юзлис хуйня, слишком много рандома же.
Зато потом любой стиль, любой бэкграунд и небольшая корреция позы прямо на месте, а не подшумливание и перерисовка глаз. Накрайняк тайл 10% окончание. Крутануть рулетку на 16 пикч дело не долгое. Ну ладно, ответ получен, спасибо.
>>515131
На кэтбокс залей.
Аноним 11/10/23 Срд 22:35:40 #279 №515782 
>>515303
> bs|bc = той настройке про гриды
Да
> и вайлдкарды с промптами концептов ну или просто беков
Сравнение с ними лучше, будет охватывать много вариантов а не один изолированный.
> Ну и да, заебёшься же такое высматривать
Берешь и сравниваешь, все перед глазами.
> легче приблизительную годную эпоху найти и там уже точечно тестить вокруг неё по эпохам что тебе нужно
Так и надо, офк не нужно все все тащить а только самые отборные, отсечку же можно и по малой выборке делать, или вообще по тензорфлоу.
> А может случиться и так, что лора наоборот исправит сид.
Сидам веры нет, количественно оценивать надо. Может там сложный промт и т.д. и 3/16 в None поломались, тогда поломка того же количества с лорами - не проблема лор. А если None стабилен везде, а одна или несколько лор выдают в половине случаев хтонь - повод задуматься.
> и тренировать conv_only
Проебутся корреляции с вниманием и т.д., лучше уж сразу все и варианты. Может вообще оказаться что рандома там больше.
>>515325
Одно другому не мешает, юзай и лору и модель, на апскейлах точно поможет.
Аноним 12/10/23 Чтв 00:20:43 #280 №515866 
>>515782
> Сравнение с ними лучше, будет охватывать много вариантов а не один изолированный.
Ну я уже такой в пример же положил тоже, или думаешь его недостаточно?
> Сидам веры нет, количественно оценивать надо. Может там сложный промт и т.д. и 3/16 в None поломались, тогда поломка того же количества с лорами - не проблема лор. А если None стабилен везде, а одна или несколько лор выдают в половине случаев хтонь - повод задуматься.
Сам часто настолько тщательно высматриваешь, или только с хвостами? Но вообще да, это один из способов количественной оценки без черрипика. Ну можно тоже как нибудь упомянуть, но это конечно геморно уже слишком сидеть высчитывать удачные/неудачные, только самый упорный займётся.
> Проебутся корреляции с вниманием и т.д., лучше уж сразу все и варианты. Может вообще оказаться что рандома там больше.
Ну так а я что написал, сначала тест просто этих слоёв, дальше уже вместе, чтобы увидеть точно.
Теперь намного лучше оверолл читается бтв?
Аноним 12/10/23 Чтв 14:34:21 #281 №516355 
Если я не положу текстовые файлы к датасету тогда обучение не будет ничем срать в текстовую часть модели, верно?
А то я сейчас пробую с --трейн-юнет-онли и я не уверен, что оно нормально работает.
А с лохой поди вообще эта команда всё всрёт. Или нет?
Аноним 12/10/23 Чтв 14:51:39 #282 №516375 
>>515866
Пример норм, достаточно.
> настолько тщательно высматриваешь
Не нужно тщательно, в общем что-то типа в этой колонке 5 штук распидарасило все, в этой фоны взорвались, здесь костюм не воспроизводится, в этой 2 так себе а остальные норм, в этой 3 поломаны но остальные мастерпись. Смотришь на None - там 2.5 испорчены - значит все ок. 1-2 гридов достаточно для оценки, больше нужно если требования специфические.
> только с хвостами
Особенно с хвостами

> лучше оверолл читается бтв
Лучше, дальше уже такие мелочи что не стоят внимания.
Аноним 12/10/23 Чтв 16:29:00 #283 №516545 
Стикер
>>513743
Что же аноны нет решения? Никто в кал_лабе не генерирувает что ли?
Аноним 12/10/23 Чтв 17:22:04 #284 №516662 
>>516355
> Если я не положу текстовые файлы к датасету тогда обучение не будет ничем срать в текстовую часть модели, верно?
Неверно, концепты будут иметь названия папок как тег текстовой части.
> А то я сейчас пробую с --трейн-юнет-онли и я не уверен, что оно нормально работает.
Почему? Это и есть правильный параметр чтобы тренить только юнет.
> А с лохой поди вообще эта команда всё всрёт. Или нет?
Не должна, но лоха сама по себе не оч, ты ради эксперимента хочешь её потренить?
>>516375
Ладно, спасибо что помог с правками.
Аноним 12/10/23 Чтв 18:46:07 #285 №516774 
>>516662
> Почему? Это и есть правильный параметр чтобы тренить только юнет.
Понял, спасибо, скрипт мне просто пишет при обучении про текстовые слои и не пишет, что не будет их трогать, потому я сомневаюсь всё ли работает как надо.

> но лоха сама по себе не оч, ты ради эксперимента хочешь её потренить?
Угу, пробую все эти ликорисы. Хорошо если это никак не конфликтует с ними.
Аноним 12/10/23 Чтв 18:57:10 #286 №516789 
>>516545
Я генерирую >>515325, но не на гугол колабе а в paperspace. Правда в месяц 8 долларов плачу (я не в РФ живу). Можно и вообще бесплатно, но там жуткие очереди на бесплатный сервак.
За 8 баксов и сервера нормальные (вплоть до машины с А4000 и 45 гигов оперативкой) и 15 гигов хранилища дают.
Аноним 12/10/23 Чтв 21:45:40 #287 №516955 
>>516774
> Понял, спасибо, скрипт мне просто пишет при обучении про текстовые слои и не пишет, что не будет их трогать, потому я сомневаюсь всё ли работает как надо.
Можешь просто посмотреть в тензорборд, там не должно быть других лров, кроме юнета во время тренировки.
> Угу, пробую все эти ликорисы. Хорошо если это никак не конфликтует с ними.
Локон попробуй, он хорош для стиля.
Аноним 14/10/23 Суб 13:40:52 #288 №518883 
Так блядь. Если в кохагуе нажать на запрет апскейла бакета, то мне скрипт пишет, что будет игнорировать предельные разрешения и обучает со всякими бесполезными условными 1280x64.
Попробовал убрать галку с неапскейла — вижу характерную малафью от обучения на низкокачественном сете, то есть он наелся мыльного апскейльного говна, которое сам же и породил.
Чзх? Как ограничить разрешение и запретить апскейл одновременно?
Аноним 15/10/23 Вск 15:12:13 #289 №519865 
>>513743
Очевидный minister, я всё делаю там. Не как колаб, но с api.
Аноним 15/10/23 Вск 15:12:44 #290 №519867 
>>513833
Поешь говна, маркетолог.
мимокрок
Аноним 15/10/23 Вск 16:58:59 #291 №519990 
>>519867
>Поешь говна, маркетолог
очередное бесполезное кидание фекалиями от шкилы. можешь что-нибудь нормальное посоветовать страдающим без колаба? нет
Аноним 15/10/23 Вск 17:53:04 #292 №520071 
>>519990
Единственный выход это купить видеокарту, а 3060 12ГБ это самый разумисткий выбор. Во всех остальных случаях коллабобляди жрут говно, ебутся там, где ебли вообще быть не должно, банятся и проёбывают деньги на подписки.
Аноним 15/10/23 Вск 18:00:17 #293 №520078 
>>520071
вот именно. если на новую денег жаль, есть вторичка. есть ещё 2060 с 12 гигами, может ещё продаётся, дешевле 3060 должна быть. можно кредит оформить как вариант. а ноют очевидно безработные неумехи\школьники, которым всё это недоступно.
sage[mailto:sage] Аноним 16/10/23 Пнд 02:18:33 #294 №520557 
>>519990
В треде уже советовали + есть тред по этой теме где накидали годноты
sage[mailto:sage] Аноним 16/10/23 Пнд 02:20:23 #295 №520558 
>>520071
Наркоман, как ты собрался подключать эту залупу к ведру?
Вообрази, задрот: не все имеют ПеКа, так как не каждому он вообще нужен
Аноним 16/10/23 Пнд 02:37:25 #296 №520564 
>>520558
>не все имеют ПеКа
Бомжам с улицы с сажей в жопе голоса не давали.
>так как не каждому он вообще нужен
>жуёт говно без ПК
>орёт, что ПК не нужен
В голосину.
Аноним 16/10/23 Пнд 02:42:08 #297 №520567 
>>520078
> можно кредит оформить как вариант
Перетолстил.
Ну а вообще рили сейчас даже сраный школьник в возрасте, когда он сознательно хочет и может абузить нейронки, может заработать/насобирать сумму чтобы дополнительно выклянчив у родителей купить бюджетную карточку что позволит делать все. В пролете только студентота-общажники или постоянно переезжающие с безальтернативностью ноута. Бибу сосут еще странные люди без пекарни/возможности выделить 200-300$, но это уже их выбор а не ситуация.
>>520558
> не все имеют ПеКа
Как жить без пекарни в 2д23 году? Не существовать будучи овощем, которому достаточно потреблять примитивный контент с мобилки, а полноценно жить?
sage[mailto:sage] Аноним 16/10/23 Пнд 03:03:32 #298 №520580 DELETED
>>520564
Убейся, чмо. Поди еще и социал-дарвинист, хорошо хоть путинская власть иногда закапывает подобную мразь (правда, ненамеренно)

>>520567
Норм. Потребляю контент на мобилке, генерирую нейроарт, между делом твою маман в сортире за волосы таскаю.
Аноним 16/10/23 Пнд 03:13:14 #299 №520585 DELETED
>>520580
Это имитация жизни и страдания. Сам это понимаешь и осознаешь уместность насмешек над тобой, потому ты и злой, защитная реакция слабого человека. Еще и политоту приплел, может и не осознаешь а просто глупой злой шизик.
Аноним 16/10/23 Пнд 04:16:38 #300 №520611 
для тех кто вопит "ПИКА НИНУЖОН!!1!"
https://github.com/ShiftHackZ/Stable-Diffusion-Android
в настройках выбираем local diffusion (beta)
SD 8 gen 2 и 12 гб озу желательны, и то будет медленно всё по сравнению с компом
Аноним 16/10/23 Пнд 11:32:01 #301 №520732 
>>519865
Чел если ты про очередной говносайт песочницу, где забиваешь промт и тебе высирает картинку, то это пиздец. Тебе там дают покрутить только пару настроек и промпт. После работы с полным функционалом вебуи это жрать невозможно. никакого тебе регионального промпта, ни контролнета, ни настроек хайреса, ни смешивания моделий и кучи лор и эмбендингов и текстуал инверсий.
Алсоу если ты про тот сайт который первый в выдаче гугла, то вообще плохие новости - он на 100% засран вирусами, переустанавливай винду.
Аноним 16/10/23 Пнд 11:45:29 #302 №520750 
Ананасы, кто делал - дайте плз полные и проверенные настройки для тренировки на каком-нибудь автоматическом планировщике, который сам ЛР настраивает.

Потому что я уже 3 варианта лоры на стиль сделал, и получается всё время какая-то херня по сравнению с базовыми настройками и косинусом. Плохая карикатура, а не стиль.

Хочу все-таки постичь эту мудрость.
Аноним 17/10/23 Втр 19:57:41 #303 №522458 
Кто пробовал трейнить lora на civitai, дефолтные настройки норм? Кто пробовал абьюзить баззы мультиакком?
Аноним 17/10/23 Втр 22:26:23 #304 №522634 
grid-3025.png
grid-3024.png
>>522458
мои\сивитаи
Аноним 17/10/23 Втр 22:47:11 #305 №522665 
>>522634
Оу, оно еще не успело ухватить нужное, но уже полезли мертвые нейроны. Хорошая тренировка.
Аноним 18/10/23 Срд 16:36:11 #306 №523230 
А капшоны влияют на что-то если тренишь только юнет?
Аноним 18/10/23 Срд 16:57:01 #307 №523248 
>>513743
>гугл ВСЁ, а цены там неприемлемые, особенно учитывая курс. В общем покупать подписку не вариант.
Чувак, в vast.ai аренда 3090 стоит 10-30 центов/час. Цены бросовые.
Аноним 18/10/23 Срд 21:14:03 #308 №523494 
Чот ору, не хватает 32гб оперативки штобы скомпилить хформеров. Это что за обновления такие, ебануться.
Аноним 18/10/23 Срд 21:34:31 #309 №523510 
>>523494
> хформеров
Зачем тебе это говно, когда есть SDP?
Аноним 18/10/23 Срд 21:38:24 #310 №523514 
1697654301853.jpeg
>>523510
Ну.
Аноним 18/10/23 Срд 21:46:59 #311 №523527 
>>523514
Там разница 200 мб при 2048х2048.
Аноним 18/10/23 Срд 23:54:44 #312 №523657 
>>523527
Любопитно, любопитно.

xformers
Time taken: 2 min. 26.5 sec.
A: 6.36 GB, R: 6.89 GB, Sys: 8.0/8 GB (99.5%)

xformers --medvram
Time taken: 2 min. 6.0 sec.
A: 5.25 GB, R: 6.55 GB, Sys: 7.6/8 GB (95.2%)

opt-sdp-attention
Time taken: 1 min. 28.6 sec.
A: 9.21 GB, R: 9.81 GB, Sys: 8.0/8 GB (100.0%)

opt-sdp-attention --medvram
Time taken: 1 min. 4.2 sec.
A: 7.19 GB, R: 7.33 GB, Sys: 8.0/8 GB (100.0%)

opt-sdp-no-mem-attention
Time taken: 1 min. 31.1 sec.
A: 9.21 GB, R: 9.81 GB, Sys: 8.0/8 GB (100.0%)

opt-sdp-no-mem-attention --medvram
Time taken: 1 min. 7.2 sec.
A: 7.19 GB, R: 7.35 GB, Sys: 8.0/8 GB (100.0%)
Аноним 19/10/23 Чтв 01:18:15 #313 №523691 
>>523657
Или я дурак, или оно на самом деле на медврам быстрее?
Почему?
Аноним 19/10/23 Чтв 01:20:58 #314 №523694 
>>523691
Да, быстрее, ибо медврам отключает предспросмотр, а он тормозной.
Аноним 19/10/23 Чтв 02:35:54 #315 №523714 
У меня чот получается, что SDP козявит детали на хвйрезе по сравнению с хформерами. Но большую выборку лень делать, так что может и рандом.
Аноним 19/10/23 Чтв 16:32:48 #316 №524080 
>>520750
> Плохая карикатура, а не стиль.
Перетрен же.
Эта автоматика то ещё наебалово, точно также лр надо подбирать, просто другими рычагами. Прикольно что оно нанами не начинает сыпаться и может обучить всякой хуйне с которой Адам не справится.
Короче, продиджи с ди коефом 1 пробуй, констант вис вармап.
Аноним 19/10/23 Чтв 20:14:09 #317 №524299 
>>524080
>Перетрен же.
Там плюс-минус одна фигня с 300-го шага, и до 3000.
Т.е. не ухватывает ни в начале, ни в конце, ни в середине.

Продиджи один раз пробовал, тоже ерунда получалась.
Какие там дополнительные параметры прикрутить, какой разогрев поставить?
Аноним 19/10/23 Чтв 20:46:29 #318 №524328 
>>524299
У меня с дадаптом были такие проблемы, в данный момент продиджи с адамом сравниваю, очень похожие результаты дают.

>Какие там дополнительные параметры
Из статьи из шапки:
decouple=True weight_decay=0.01 d_coef=1 use_bias_correction=True safeguard_warmup=True betas=0.9,0.999

Разогрев на дефолтных 10.
Min SNR gamma по ощущениям срала в результат, выключил.

Сейчас смотрю последний тест и, судя по всему, разрешение очень сильно влияет на результат, на 512 бомбануло просто мгновенно.
Аноним 19/10/23 Чтв 20:57:52 #319 №524334 
image.png
Не знаю в какой тред писать, отпишу тут. Пытался поставить ControlNet для автоматика, он как то поставился неудачно и теперь при запуске ловлю такую ошибку. Попробовал пофиксить способом который писали на stackoverflow, не помогает. Думаю что ошибка в версии OpenCV, но я не знаю какая необходима для работы автоматика, потому что в requirements.txt репозитория его даже нет
Аноним 19/10/23 Чтв 21:15:26 #320 №524351 
>>524334
Судя по всему у тебя какая то ошибка связанная с препроцессорами карт глубин, сам автоматик же последней версии? Лучше в самое репе вебуи контролнета насчёт такого кстати искать.
Аноним 19/10/23 Чтв 22:23:13 #321 №524449 
Аноны с 4080 есть?
25 ит\с на 4080 - это норм вообще?

>512х51
>эйлер_а
>masterpiece, best quality
>(worst quality, low quality, lowres, jpeg artifacts:1.4)

Что-то такое ощущение, что раньше скорость выше была...
Аноним 20/10/23 Птн 01:20:08 #322 №524575 
>>524334
> --no-half
> --no-half-vae
Зачем? Отключи их и заодно medvram убери.
С ошибкой попробуй активировать вэнв и вручную запустить установку реквайрментсов.
Аноним 20/10/23 Птн 02:18:40 #323 №524596 
Конвертировал модель в TRT, получил ускорение с 11 секунд на генерацию картинки до 6 минут на генерацию. Успешен?
Аноним 20/10/23 Птн 02:38:34 #324 №524607 
>>524596
Сурово
Аноним 20/10/23 Птн 06:51:55 #325 №524658 
mem2.png
>>524607
Ещё как. В целом впечатление, что эта хуйня сыровата.
Удалось нормально конвертнуть 1.5 с генерацией картинки вроде бы быстрее, чем на голом автоматике. Но это сказывается только на генерации батчами из-за выгрузки-загрузки всей требухи, если генерить по одной картинке, то смысла нет. Запечь для генерации в фуллашди не удалось, причина на пике. Модель весит около 2 гигов. А запекать при использовании с апскейлом нужно в два разрешения - до апскейла и после. Хуй знает, как запеклась XL модель на 1024 разрешении, но мне, опять же, не хватает VRAM, из-за чего генерация длится около 6 минут. В шаред память эта хуйня не лезет принципиально.
Аноним 20/10/23 Птн 07:27:30 #326 №524666 
>>524658
> Но это сказывается только на генерации батчами из-за выгрузки-загрузки всей требухи, если генерить по одной картинке, то смысла нет.
Всё так.
> причина на пике
У меня кстати даже с оомами билдилось, правда я не фуллашди билдил а всего 1536х1024. Там в зависимости от твоей рам, подели её на два и столько шейред мемори будет, во время билда будет количество врам+этой шейред для билда доступно, если не хватит, то тут уж ничего не поделаешь.
Аноним 20/10/23 Птн 07:41:39 #327 №524672 
512х512.png
HD.png
>>524666
По диспетчеру смотрел. В шейред не лезет вообще. В итоге с другой версией куды запеклось.
Генерация батчей 10 картинок 512х512 и в фулл ашди разрешении. Почти фулл ашди, на 8 пикселей по высоте больше из-за требований тензорной хуйни.
Итераций в секунду у меня мало, хуй знает, так и надо, или картонке пизда. Но их всегда мало, так что смысла смотреть на абсолютные значения нет, только в сравнении.
>если не хватит
Оно 136 гигов пытается выделить.
Аноним 20/10/23 Птн 08:05:33 #328 №524675 
>>524672
> По диспетчеру смотрел. В шейред не лезет вообще.
А вот у меня лезет во время запекания, причём не стесняясь, сразу куском так на 36гб, 24+12. А как у тебя в итоге получилось забилдить фуллашди, это же очень много пикселей, нихера не пролезет ведь, в куде дело? Какая тогда версия?
Аноним 20/10/23 Птн 08:28:35 #329 №524677 
meme.png
>>524675
>вот у меня лезет во время запекания
Что крутишь кроме разрешения? У меня любой размер оптимального батча больше одного - сразу фейл. Подозреваю, что дело как раз в памяти. Ну и вот на пике запекается пятигиговая 1.5 модель на фулл ашди. Всё так же хочет 136 гигов, но в итоге печёт за две с половиной минуты и так. Лоры тоже нужно запекать, иначе не хочет работать. Короче охуенно, в два раза буст. Да, надо ебаться с разрешениями, или запекать под каждое, которое ты используешь, надо печь лоры. Но два раза.
>Какая тогда версия?
У меня 117 стояла, т.к 118 не работала с другой хернёй. Поставил torch 2.0.1+cu118 и, вроде, работает.
Аноним 20/10/23 Птн 09:17:15 #330 №524683 
>>524677
> Что крутишь кроме разрешения?
Да ничего вроде не крутил, к вечеру скину подробнее.
> У меня любой размер оптимального батча больше одного - сразу фейл
У меня 4 батч получался с 1536х1024, но батч 1 с 1536х1536 уже нет почему то. Батч вроде вообще не влияет на потребление памяти, я и не динамик пробовал пресет сделать, тоже фейл.
> Лоры тоже нужно запекать, иначе не хочет работать
Да, это херово, можно сразу несколько вмерджить в чекпоинт предварительно конечно, любой мерджилкой.
> Короче охуенно, в два раза буст. Да, надо ебаться с разрешениями, или запекать под каждое, которое ты используешь, надо печь лоры. Но два раза.
Чем лучше карта, тем хуже будет работать буст, с 4090 он только хуже сделает, переключение профилей между хайрезом и не хайрезом занимает какое то время. Если без картинка условно делается 10 секунд, то с трт даже чуть дольше, несмотря на буст итераций.
> У меня 117 стояла, т.к 118 не работала с другой хернёй. Поставил torch 2.0.1+cu118 и, вроде, работает.
Я вообще про системную куду спрашивал, а не про ту что в венве, в венве у меня такая же.
Аноним 20/10/23 Птн 09:24:14 #331 №524684 
>>524683
> с 4090 он только хуже сделает
Не пизди. У меня на хайрезах почти в два раза буст на 4090 с динамическим разрешением, статику можно не печь. Да даже если делать статику - переключение секунду занимает.
Аноним 20/10/23 Птн 15:43:21 #332 №524861 
1.png
>>524683
>можно сразу несколько вмерджить в чекпоинт
А нахуя? Печёшь лоры и не ебёшь себе голову.
>Чем лучше карта, тем хуже будет работать буст
Ну, у меня нищебродская 3080ti, так что местами буст в 2.5 раза.
>переключение профилей между хайрезом и не хайрезом занимает какое то время
Хуй знает, почти мгновенно. Опять же,
>Я вообще про системную куду спрашивал
А вот это сложно.

Затестил на одиночном пике, генерация 344 064 пикселей, потом апскейл до 2088960.
Без trt: Time taken: 2 min. 13.6 sec.
С trt: Time taken: 49.8 sec.
То есть даже при наличии всех переключений, trt ебать, как ускоряет.
Аноним 20/10/23 Птн 18:52:59 #333 №525000 
1571315697641.png
>>524684
Ну короче у меня было всё этими профилями засрано, создал один единственный, так действительно лучше, без переключений. Лоурез+хайрез+ад 38 секунд с трт, без 56.
>>524861
> А нахуя? Печёшь лоры и не ебёшь себе голову.
А несколько как юзать будешь сразу?
> Хуй знает, почти мгновенно. Опять же
Да, тут с профилями обосрался сам короче. Вот просто с такими настройками собрал.
Ебать, ты зачем столько куд одновременно наставил разных версий то?
Аноним 20/10/23 Птн 20:50:03 #334 №525067 
>>524684
Я чисто на статике проверял. Не ожидал таких охуенных результатов. Надо динамику проверить, если так и будет х2, то вообще заебись.

>>525000
>А несколько как юзать будешь сразу?
Лора печётся под чекпоинт, но если запек, то потом просто пишу в промпт, как обычно. Работает. Если не печь, то игнорируется полностью.
>ты зачем столько куд одновременно наставил
Так уж получилось, не хотела разная хуйня работать с одной кудой. Проверил, автоматик работает на 12.2
Напрягает оом на самом деле. Я так на XL вообще хуй забью, лол. Ещё заметил ошибку, если неправильно выгрузить trt модель, то потом на этапе VAE будет попытка выделить 30+ гигов VRAM.
Аноним 21/10/23 Суб 01:48:06 #335 №525307 
>>483287
Чувак, дримбут полторашки идёт уже и на 16 ГБ девять месяцев уж как...
Аноним 21/10/23 Суб 01:53:55 #336 №525313 
>>493855
Ну либо ADetailer
Аноним 21/10/23 Суб 01:55:14 #337 №525314 
>>495126
Сяп коллеге-линуксоиду!
Отвечаем: с 11 виндой не так то, что она не под GPL. Ещё вопросы?
Аноним 21/10/23 Суб 02:09:21 #338 №525322 
Сяп, двач. Какие есть хорошие модели-полторашки для дримбута? Именно для дримбута. То есть я понимаю всю красоту и гибкость понятия лоры, но... треню я на колабе. Лороколабы я видел, однако дримбутный колаб от Шивама я успел хорошенько профоркать - там и половины не осталось от оригинала. Автопуш на обниморду в фоне, датасеты (концепт и реги) под гитом... Сейчас вот прикручиваю дедупликацию vae (оно ж не тренится) через хардлинки. Если получится - то можно будет держать не 9, а 10 промежуточных точек (включая итоговую).
Короче, чтобы воспроизвести всё это с лорами - трах тот ещё. Это первая причина.
Причина вторая - лоры я вообще-то пробовал, но получалась фигня. То есть - хуже, чем дримбут. Вроде как так и должно быть: лора тренится меньше времени, но даёт худший результат. Возможно, плохо пробовал.
Причина третья - я генерю не Автоматиком, а через библиотеку diffusers. В качестве профита - пока нет банов на гуглоколабе, да и с бесплатными HuggingFace spaces при умелом использовании API... ммм... А поддержку лор в diffusers завезли совсем недавно.

Итак, дрёмобудка. Вопрос: какие модели брать в качестве базовых?

Одна из самых удачных моих моделей - на основе AnythingV3 (причём в два прохода - сначала 6000 шагов, а потом новая модель как базовая и ещё 1200/2400/3600 шагов).
Flat2dAnimerge v2.0 - пока получается хтонь. Возможно, она в принципе необучаема, поскольку микс. Что ещё посоветуешь, анон, для 2д-рисовки в стиле 90х?

Тот же вопрос про реалистик-модели. ChilloutMix разок удалось натренировать так хорошо, что по некоторым генерациям ЕОТ её можно ВК найти поиском по лицу.
Аноним 21/10/23 Суб 02:25:28 #339 №525331 
Могу поспорить с тем, что завышенный CFG это всегда плохо. При тайловом апскейле с низким денойзом (0.2) поверх esrgan, высокий cfg (15) устраняет артефакты и добавляет детали, при этом не портя сэмпл.
Аноним 21/10/23 Суб 02:47:40 #340 №525339 
>>525322
>Что ещё посоветуешь, анон, для 2д-рисовки в стиле 90х?
Ну, если ищешь экзотики, то очевидно пробуй TrinArt Derrida и Waifu diffusion. Тринарт очень нежная хуйня, но может что и получится, WD хтоническое изначально, но потенциал есть. А так его величество NAI, конечно, какие тут варианты вообще.
Аноним 21/10/23 Суб 02:52:01 #341 №525340 
Есть хорошие альтернативы этой параше?
https://github.com/innightwolfsleep/stable-diffusion-webui-randomize
Размер картинок козявит при попытке рандомить - ресайзит вместо того чтобы менять размер генерации - чекпоинтам неправильные названия в мете прописывает, ресайзер не меняет... Пиздец просто.
Находил один с китайскими домиками вариант, но там нельзя чекпоинты рандомить.
Аноним 21/10/23 Суб 02:57:32 #342 №525342 
>>525340
Есть. Отправлять готовые реквесты в API, с рандомизацией в скрипте. Но я так делаю онлайн не локально
Аноним 21/10/23 Суб 02:59:32 #343 №525344 
>>525322
Может тебе будет интересно это https://github.com/KohakuBlueleaf/LyCORIS/blob/document/docs/Guidelines.md
С помощью либы ликорисов теперь можно хоть целый чекпоинт тренировать, если захотеть. А анон выше правильно заметил, лучше всего для 2д стиля будет наи, по крайней мере для лор.
Аноним 21/10/23 Суб 03:00:37 #344 №525345 
>>525342
Это для каломатика? Теоретически норм тема, куда гуглить?
Аноним 21/10/23 Суб 03:00:58 #345 №525346 
>>525339
Шлак. На civitai есть чекпойнты и лоры в стиле 90х.
мимо
Аноним 21/10/23 Суб 03:02:25 #346 №525349 
>>525345
Пользуюсь онлайн платформами. С каломатиком на компе должно тоже работать (не пробовал), но потребуется кодить на питоне, кури библиотеку requests.
Аноним 21/10/23 Суб 03:19:38 #347 №525353 
>>525344
Так не для лор, для дримбута.
Аноним 21/10/23 Суб 15:43:17 #348 №525619 
>>478081 (OP)
Hyperworks вообще использую? Вкладка в webui есть, на civitai тоже категория есть. А моделей там нет
Аноним 21/10/23 Суб 15:58:14 #349 №525631 
>>525619
По качеству между эмбедом и лорой, обучать сложно пиздец. Нинужно.
Аноним 22/10/23 Вск 03:16:07 #350 №526347 
Впечатления по тренировке на Civitai:
UI годнота, приятнее чем колаб
Трейнятся оче долго
Старым аккам дали по 500, новые получают 100 - этого недостаточно для одной лоры, но можно использовать ссылки для приглашения по 500 за акк.
Это тупо платная функция как в f2p онлайн игорях
Аноним 22/10/23 Вск 04:16:16 #351 №526372 
Никто не замечал, что запущенная генерация может программы в фоне выбивать?
В частности у меня периодически ФШ падает почему-то.
Неужели заполнение видеопамяти влияет? Так ФШ вроде не шибко много ее жрет (если вообще). Оперативки же более чем достаточно.
Аноним 22/10/23 Вск 04:22:08 #352 №526374 
>>526372
С фотошопом не дружит сд, всегда так было. И вообще, он прилично видимокарту использует, если специально не выключить это в настройках.
Аноним 22/10/23 Вск 04:23:44 #353 №526376 
>>526374
Да в том то и дело, что как на 4080 переехал - так и началось.
На 2070 сидел - и ни разу не упало, всё в порядке было. А тут прям по нескольку раз за день.
Аноним 22/10/23 Вск 04:24:28 #354 №526377 
>>525619
> Hyperworks вообще использую?
Было актуально до появления лор, сейчас просто легаси.
Аноним 22/10/23 Вск 10:17:38 #355 №526424 
Там, аниметедифф обновился. выдает такую ошибку:
2023-10-22 13:15:45,594 - AnimateDiff - WARNING - exiftool not found, required for infotext with optimized GIF palette, try: apt install libimage-exiftool-perl or https://exiftool.org/

Я немного не умный, как это установить так, что бы не сломать автоматик к херам?
Аноним 22/10/23 Вск 11:31:50 #356 №526462 
>>526424
Это же просто варнинг, можешь хуй забить.
Аноним 22/10/23 Вск 12:34:34 #357 №526499 
image.png
>>526462
Так прикол в том, что он должен фиксить цвета и повышать качество картинки, если верить описанию, вот поэтому и спрашиваю. Забивать на качество, это такое себе предложение.
Аноним 22/10/23 Вск 12:57:07 #358 №526511 
>>526499
Ты читать умеешь? Он там для мета-данных в гифке нужен.
Аноним 22/10/23 Вск 13:29:07 #359 №526522 
>>526372
> заполнение видеопамяти влияет
Влияет, жрет, вылетает причем странно. В настройках сними галочку "использовать графический процессор", тогда будет норм работать одновременно с сд.
>>526424
Скачай готовый бинарник экзифтула по ссылке и пропиши его в path. Но >>526511 прав, он для метадаты.
Аноним 22/10/23 Вск 14:50:55 #360 №526554 
>>526511
>>526522
Понял-принял, спасибо, вразумили.
Аноним 22/10/23 Вск 14:56:09 #361 №526556 
>>526522
>"использовать графический процессор"
Какие-то функции поди отрубятся из-за этого?..
Блин, почему на 2070 с ее 8 гигами было нормально, а на 16 гигах вылеты начались?
У меня такое ощущение, что тут не само заполние влияет, а кто-то в драйверах или софте напортачил с распределением памяти. Куча обновлений ж с тех пор была. И ФШ я при переезде на новый комп тоже обновил.
Аноним 22/10/23 Вск 15:06:36 #362 №526567 
>>526556
В ФШ наговнокодили скорее всего. Под критичной нагрузкой от нейросетей если частоты слишком задраны - может происходить короткий "отвал" карты, большинство софта без проблем такое отрабатывают, просто мигают изображением. А особо конченый говнокод может падать от такого, хотя в доках директ икса требуют обрабатывать события "видеоадаптер отключён".
Аноним 22/10/23 Вск 15:17:20 #363 №526573 
>>526567
Да вроде частоты не гнал, как купил - так и поставил. Экран не мигает.
ЧСХ ФШ еще может "частично" отвалиться. Интерфейс глюкануть, например.
Или зум с перетаскиванием может отключиться (это когда ты кнопку зажимаешь, мышкой двигаешь, и картинка в зависимости от движения масштабируется).
Но в этих случаях хоть сохраниться нормально можно.
Аноним 22/10/23 Вск 15:21:24 #364 №526577 
Ха, так оно и есть.
Отрубил использование видюхи - и теперь плавный зум по-умолчанию так себя и ведет. То бишь просто отсутствует =)
Значит действительно в работе ФШ с видюхой что-то не в порядке.
Как эти "отвалы" вообще можно зафиксировать, если они в наличии?
Видюха на гарантии, можно будет попробовать ее поменять.
Аноним 22/10/23 Вск 15:24:52 #365 №526582 
>>526577
> Как эти "отвалы" вообще можно зафиксировать, если они в наличии?
Частоты GPU на 50-100 мгц понизь и посмотри как оно будет.
> можно будет попробовать ее поменять
Это не брак. Лучше ФШ верни в Адоб, вот там явно пидорасы сидят и говнокодят.
Аноним 22/10/23 Вск 15:26:59 #366 №526584 
>>526577
> Видюха на гарантии, можно будет попробовать ее поменять.
Ещё хочу заметить, что в любом стресс-тесте графики ты этого не увидишь. Заводской разгон может под стресс-тесты графики делали, а отвалы идут когда тензоядра подрубаются и нагрузка под соточку и ты дополнительно ещё ФШ врубаешь.
Аноним 22/10/23 Вск 15:28:37 #367 №526586 
>>526577
Версия фотошопа какая?
Аноним 22/10/23 Вск 15:37:04 #368 №526591 
>>526586
>Версия фотошопа какая?
25.0.0
>>526582
>Лучше ФШ верни в Адоб, вот там явно пидорасы сидят и говнокодят.
Да понятно, что говнокод, но альтернативы не шибко удобные, да и привык я за столько лет к нему уже.
>Частоты GPU на 50-100 мгц понизь и посмотри как оно будет.
Попробую.
Аноним 22/10/23 Вск 15:43:45 #369 №526594 
>>526591
С торрента?
Аноним 22/10/23 Вск 15:49:38 #370 №526598 
>>526594
Похуй откуда, адобовские продукты отвратительно работают с аппаратным ускорением с того момента, как оно у них появилось. Что фотошоп, что премьер, что - особенно - афтерэффектс.
мимо
Аноним 22/10/23 Вск 16:02:41 #371 №526604 
>>526598
У меня с запущенным SD и загруженной в память SDXL всё прекрасно работает без вылетов и багов, даже если в шопе открыто несколько файлов, в каждом из которых по десятку слоёв.
Если у анона выше фотошоп торрент-эдишн, то скорее всего это кривой репак. У меня был такой, который рандомно вылетал при использовании фильтра ликвифай.
Аноним 22/10/23 Вск 16:05:16 #372 №526606 
>>526594
Конечно.
Баги у них везде одинаковые, впрочем.
>>526604
>это кривой репак
Тоже не исключаю. Посмотрю, может чего поновее завезли.
Аноним 22/10/23 Вск 16:21:21 #373 №526617 
>>526604
У меня была лицуха на работе и она откисала ровно так же, как пиратка.
Аноним 22/10/23 Вск 17:16:14 #374 №526695 
>>525322
> дрёмобудка. Вопрос: какие модели брать в качестве базовых?
Буквально очевидный наи. Преимущество будет в том, что потом натрененное можно будет легко примердживать к любым другим моделям с помощью современных техник, а не фиксироваться на какой-то конкретной модели.
>>526556
> Какие-то функции поди отрубятся из-за этого?..
Из дефолтного фотомонтажа и около того все работает. Может где-то поубавилось плавности и фильтры применяются чуть дольше, но не заметно. Со всякими 3д модельками внутри фш и прочей дичью - хз, но врядли тебе они интересны.
> а кто-то в драйверах или софте напортачил с распределением памяти
Там какую-то дичь наговнокодили с этим ускорением, что оно еще проблемы с интерфейсом или странные лаги само по себе может порождать. Так что забей, а на прошлой не вылетало потому что видюха не поддерживало нужное - соответственно и не использовалась в полной мере.
Полагаю если честно купить последнюю версию программы то таких проблем уже не будет.
>>526577
> плавный зум по-умолчанию так себя и ведет
Пользуйся кнопочками возле, сочетаниями клавиш (самое адекватное), органами управления на планшете (если ты из этих).
> Видюха на гарантии, можно будет попробовать ее поменять.
Твой выбор.
Аноним 22/10/23 Вск 17:30:27 #375 №526703 
>>526424
А у тебя убунта или дебиан? В любом случае, не забудь перед этой командой sudo.
Аноним 22/10/23 Вск 17:42:01 #376 №526714 
>>526424
Зачем тебе некро формат gif?
Аноним 22/10/23 Вск 17:43:23 #377 №526715 
>>526695
>Полагаю если честно купить последнюю версию программы то таких проблем уже не будет.
Тут вон анон выше пишет, что точно так же падает.
Плюс Адоб очень жадный, и цены там совершенно конские. Ну их в жопу.
>Пользуйся кнопочками возле, сочетаниями клавиш (самое адекватное),
Неудобно.
Аноним 22/10/23 Вск 17:51:23 #378 №526721 
>>526695
> > дрёмобудка. Вопрос: какие модели брать в качестве базовых?
> Буквально очевидный наи. Преимущество будет в том, что потом натрененное можно будет легко примердживать к любым другим моделям с помощью современных техник, а не фиксироваться на какой-то конкретной модели.

Добра тебе, анон! Прошу просветить ещё про современные техники мёржа и где они обитают. Это просто Add Difference (какой уж он там современный - не меньше полугода ему, а то и 9 месяцев), который A + k*(B-C), или что-то хитрожопое типа block merge ?
Аноним 22/10/23 Вск 18:49:24 #379 №526783 
>>526556
Ля, щас бы на говнофотожопе сидеть, когда есть альтернатива в виде гимпа. Функционал тот же, разве что свистоперделок меньше. Зато весит в 100 раз меньше и не отваливается от каждого пука.
>>526703
Шиндовс.
>>526714
Так он удобнее. Поставил на конвеер тестовый промпт на разных моделях, потом смотришь через "просмотр изображений" клацаяя клавишу влево. С MP4 или WEBP ты нихуя не поклацаешь, их каждый раз по отдельности открывать надо, а мне лень, плюс гифка зациклена, а видос стопорится. Но это не мешает мне сохранять во всех форматах сразу. Говно удалил, нужное залил на сайты.
Аноним 22/10/23 Вск 20:50:03 #380 №526889 
>>526715
> что точно так же падает.
Он пишет что в какой-то момент отслеживал одинаковые баги как в пиратке так и в лицензии. Фотожоп сам по себе глючный, но для начала стоит устранить прочее фактоы.
> Неудобно.
Выцеливать ползунок удобнее чем нажать альт и крутануть колесо, или провести пальцем по области?
>>526721
Ууф, в наи несколько тредов назад достопочтенный господин делился своим опытом и рекомендациями, нужно найти этот пост. Там и несколько ссылок было, сейчас новые методы добавили.
> что-то хитрожопое типа block merge
Это уже искать надо, не подскажу.
>>526783
> щас бы на говномайбахе ездить, когда есть альтернатива в виде 50кубового мопеда.
Починил тебя
> потом смотришь через "просмотр изображений" клацаяя клавишу влево
Шиндовский просмотрщик уже давно умеет во все эти форматы нативно, и под прыщи тоже были совместимые.
Аноним 22/10/23 Вск 23:46:40 #381 №527066 
>>526889
>Выцеливать ползунок удобнее чем нажать альт и крутануть колесо, или провести пальцем по области?
Да не. Зум ж без ползунка. Зажимаешь кнопку, двигаешь вправо-влево - и картинка уменьшается/увеличивается.
Если поддержку видюхи вырубить - оно не работает. При зажатии у тебя начинает рамка образовываться, в которую ты условный зум хочешь сделать.
Аноним 23/10/23 Пнд 01:06:54 #382 №527139 
Я наверно медленный, но:
https://latent-consistency-models.github.io/
Дистиляция моделей SD за 32 А100-часов. Дистилированная модель работает раз эдак в 5 быстрее.

https://github.com/rupeshs/fastsdcpu
демка от индуса на ЦПУ, действительно работает.

самому подистиллировать, что ли? кто-то вроде собрался это реализовывать для имеющихся уёв

только по ходу контролнеты тоже заново надо обучать будет, и всё остальное
Аноним 23/10/23 Пнд 01:25:19 #383 №527155 
>>511605
>Как в теории допилить SD до уровня Dall-e 3?
Заземлить на хорошую языковую модель, как это было сделано в DF IF. У того гугловская LLM на 11B параметров, и он вполне себе понимает довольно сложные промпты уровня "koi fish doing a handstand on a skateboard". Да и в самом далле 3 похоже сделано, только он ещё и обучен на развёрнутых GPT тегах и инференс идёт на них же, что очевидно по его фривольностям.

А вообще понимание промпта и продвинутый текст-ту-имадж - тупиковый путь. Текстом всё равно многого не сделаешь, или сделаешь но долго. Локальную модель нужно дрочить под лёгкость обучения и управления хинтами высшего порядка (например скетчами). Это гораздо проще, см. контролнеты и адаптеры, и результат лучше и быстрее работает. Пусть даже унет будет сильно дистилированный, и понимает мало высокоуровневых концептов - но чтобы хорошо обучался и следовал контролнету. Тогда можно будет и на ёлку влезть и жопу целой оставить.
Аноним 23/10/23 Пнд 01:26:35 #384 №527157 
>>527155
Точнее даже не обучение, а обобщённо - трансфер стиля и концептов. Обучение это лишь один из вариков сделать это
Аноним 23/10/23 Пнд 02:11:52 #385 №527175 
Неутешительные результаты долгих слепых тестов в том, что адам с наотъебись выставленным лром ебёт продиджи в рот снова и снова. Снова и снова. Снова и снова.
Даже когда получается подойти к очень близким выхлопам.
Аноним 23/10/23 Пнд 02:50:18 #386 №527189 
Смотрите какие чудеса.
https://github.com/PixArt-alpha/PixArt-alpha
Заявляют результаты на уровне SDXL при унете в 600 млн параметров (правда трансформер на входе большой) и смешных 25млн картинок в датасете, тренировка стоила всего $26к. Всё это за счёт мультимодальности, хорошо отфильтрованного и протегированного датасета (не забываем что LAION был натурально мусорного качества).
Пиздят или нет, думаю что в ближайшие несколько месяцев все наши эксперименты с обучением лор глубоко устареют, если фундаментальные модели уже становятся доступными небольшим конторам.
Аноним 23/10/23 Пнд 02:54:35 #387 №527193 
image.png
>>526889
> щас бы на говномайбахе ездить, когда есть альтернатива в виде 50кубового мопеда.
Аноним 23/10/23 Пнд 03:35:47 #388 №527200 
>>527189
> в ближайшие несколько месяцев все наши эксперименты с обучением лор глубоко устареют
Так или иначе. Будет всё с одной картинки обучаться в одно касание, так чтобы последний полуслепой кумер справился.
Ну или хайп на днях резко прервётся, что называется в самый неожиданный момент, и мы останемся с удивлением и тем что есть.
Аноним 23/10/23 Пнд 03:48:19 #389 №527207 
>>527066
> без ползунка
> кнопку, двигаешь вправо-влево
Дай угадаю, та кнопка и есть ползунок?
>>527175
Не пробовал менять датасет на разных фазат обучения?
>>527189
> эксперименты с обучением лор глубоко устареют, если фундаментальные модели уже становятся доступными небольшим конторам
Почему? Какой для этого повод и связь с обучением каких-то моделей конторам, что готовы раскошелиться на десятки дысяч денег?
>>527200
Ip-адаптер, референс и прочие уже есть
Аноним 23/10/23 Пнд 04:25:22 #390 №527223 
>>527207
>Ip-адаптер, референс и прочие уже есть
Пока это скорее игрушки, они довольно тухло работают и не умеют хорошо выхватывать то что ты хочешь с одной пикчи. Чтобы зерошот по одной пикче работал приемлемо, нужны гораздо более дрочные методы, чтоб оно анализировало пикчу всерьёз как GPT-4V, и ты ему подсказывал что именно ты хочешь ухватить (например промптом).
Аноним 23/10/23 Пнд 04:44:03 #391 №527224 
>>527207
> Не пробовал менять датасет на разных фазат обучения?
Нет. А что будет? Какой юзкейс?
Аноним 23/10/23 Пнд 07:04:08 #392 №527242 
>>526783
Webp то почему нет?
Аноним 23/10/23 Пнд 11:51:52 #393 №527321 
1686568478324.png
Почему соевым индусам так хочется привести генерации к правому говну? Это же литералли главная проблема SDXL, а оказывается эти дегроды специально такое делают.
Аноним 23/10/23 Пнд 12:07:02 #394 №527328 
>>527321
Потому что иначе их отменят.
Аноним 23/10/23 Пнд 13:25:43 #395 №527389 
>>527223
> чтоб оно анализировало пикчу всерьёз как GPT-4V
Анализировать уже сейчас можно, есть разные модели. А вот чтобы из этого еще взять да и в управление контролнетом перекинуть - это уже мультимодалки нового уровня. В принципе с развитием того же ip адаптера можно, но там модель окажется больше чем сд.
>>527224
Обучить что-то специфическое не ломая. Столько дрочева с лр, оптимизаторами и прочим, а сегментирование датасета не смотрят, хотя сейчас при обучении моделей этому не последнее внимание уделяют и в кохе возможность продолжить обучение есть.
Аноним 23/10/23 Пнд 13:51:58 #396 №527400 
depth-of-field-cover.jpg
focal-length-of-lens.jpg
shallow-depth-of-field-photography-110.webp
>>527321
Это всё из-за говнозеркалок. Там типа модно делать ультрахуёвую глубину резкости.
Аноним 23/10/23 Пнд 14:25:43 #397 №527437 
>>527389
>Обучить что-то специфическое не ломая.
Так оно всё равно ломать будет, хоть обучение аля дримбут, хоть лоры. Всё одно это пердолинг с параметрами, датасетами и прочим.
Аноним 23/10/23 Пнд 14:35:54 #398 №527443 
>>527389
>Обучить что-то специфическое не ломая.
Ну, практический пример, практический. Мы тут и без сегментирования учим специфическому не ломая.
Аноним 23/10/23 Пнд 15:20:02 #399 №527474 
>>527207
>та кнопка и есть ползунок?
Да кнопку мыши же. Включаешь инструмент зума с хоткея, и у тебя на одну-единственную ЛКМ сразу оба направления зума привязаны - и вниз, и вверх, в зависимости от того, куда мышкой двинешь.
Тогда как без этой штуки тебе надо либо инструмент зума переключать, либо через пкм масштаб сбрасывать и зумить заново на конкретный участок, либо тот самый слайдер где-то в интерфейсе искать.
Аноним 23/10/23 Пнд 15:20:41 #400 №527476 
>>527242
Потому что формат говна, и вдобавок в нем серьезную уязвимость недавно обнаружили.
Аноним 23/10/23 Пнд 15:42:41 #401 №527487 
>>527437
>>527443
Ну, с учетом дефолтного юзкеса лоры и сильно ограниченного датасета это не сильно актуально. Разве что для определенных концептов или специфичных стилей где обучение с нарастающей сложностью (читай постепенное повышение отклонений от того что модель уже умеет а не сразу с двух ног смягчив вармапом), ну и для будки, всеже интересно посмотреть подобное.
Не ломая - вон ту же самару взять фон и местами анатомия вышли из чата. Можно компенсировать меняя вес лоры, используя обработку и прочее, но это борьба со следствием а не причиной.
Вот где могло бы хорошо сыграть - с файнтюном того же xl.

Офк не факт что это окажется целесообразно, просто в рамках размышлений, а то столько пердолинга с одним а другое игнорируем.
>>527474
Да, прикольно. Но alt+скролл или сенсорная полоска как-то нативнее и работают без гпу ускорения.
Аноним 23/10/23 Пнд 17:07:21 #402 №527536 
Инсайд из дискорда: в SD 3 вместо CLIP будет BLIP.
Аноним 23/10/23 Пнд 17:08:51 #403 №527537 
>>527321
Но справа выглядит пизже
Аноним 23/10/23 Пнд 17:11:23 #404 №527540 
>>527155
>Текстом всё равно многого не сделаешь, или сделаешь но долго
Текстом или нет, главное чтобы все было автоматическим и делалось батчами. Руками я и сам на планшете в графическом редакторе нарисовать могу.
Аноним 23/10/23 Пнд 17:40:45 #405 №527571 
>>527400
> модно делать ультрахуёвую глубину резкости
2012, вроде, давно позади
Аноним 23/10/23 Пнд 17:48:35 #406 №527576 
>>527400
А еще на говнозеркалки принято делать перспективу уебищную, чтобы лицо было как бы вывернутое, как блин
Аноним 23/10/23 Пнд 21:09:30 #407 №527686 
>>527576
Это когда на телевик за 10 килобаксов снимают, еблет плоский/жирный получается на 300мм фокусном.
Аноним 23/10/23 Пнд 22:37:05 #408 №527764 
А какой смысл в trt, если есть AIT, который работает с лорами без необходимости что-то с ними делать и где не надо модель в onnx переводить?

Проверил производительность - они одинаковое ускорение дают, как минимум на тех разрешениях и батчах, что я обычно использую.
Аноним 23/10/23 Пнд 23:02:59 #409 №527792 
>>527764
Ты наверное на сральном ведре сидишь, раз AIT у тебя по скорости как TRT. А вообще забавно наблюдать как пользователи SD не проходят базовый тест на интеллект и не могут нормально сконвертить модель даже с подсказками на экране.
Аноним 23/10/23 Пнд 23:52:42 #410 №527832 
>>527792
> AIT у тебя по скорости как TRT

Возможно потому что я с SDXL работаю обычно. Типа 1024х1024 батч из 4, 30 шагов dpmpp_2m. 8 секунд что с TRT, что с AIT.
Аноним 24/10/23 Втр 00:10:20 #411 №527848 
Про tensorrt пишут что с ним работает медленней чем без, при включённом medvram-sdxl. А жаль, это было бы единственное ему применение
Аноним 24/10/23 Втр 00:26:53 #412 №527857 
>>527848
Я, кстати, medvram-sdxl не врубал, это без всех оптимизаций каломатика по памяти для sdxl. А AIT я в комфи запускал, тоже без каких-то особых трюков.
Аноним 24/10/23 Втр 01:25:40 #413 №527903 
>>527540
Скетч нарисовать в разы быстрее и точнее, чем крафтить строку ебучую, в итоге не получив в точности то что нужно. У текста просто нет столько семантической ёмкости, сколько есть в простом наброске от умеющего рисовать чела, который понимает динамические позы, анатомию, светотень и т.п.
>Руками я и сам на планшете в графическом редакторе нарисовать могу.
В этом случае 95% времени займёт рендер. Скетч или тегированная 3Д геометрия на разных слоях, обрисованные моделью, куда быстрее.
Аноним 24/10/23 Втр 01:55:37 #414 №527922 
>>527848
>tensorrt
Эта штука крайне требовательна к vram, так как, по сути, отрубает шаред мемори. Если тебе не хватает vram, то идут лютые замедления, на моём ведре trt от 3 до 6 раз медленее, чем без него. На sdxl, само собой. Проверил с флагом medvram-sdxl, euler a, сто шагов, разрешение 1024. TRT медленнее ровно в пять раз, с ним расход памяти ушёл в потолок. Без него расход 8гб ровно, памяти хватает с запасом. Возможно если у тебя 3090\4090, то буст будет. Ну и сам trt не работает при включении xformers, хотя он, по моим тестам, даёт буст в районе погрешности.
Аноним 24/10/23 Втр 02:53:50 #415 №527934 
>>527903
Быстрее, но качество ниже. Но ты во всём прав, конечно, это так, для справедливости.
Аноним 24/10/23 Втр 04:27:41 #416 №527966 
>>527922
На SDXL прироста никакого. C SDP у меня скорость генерации 6.42 it/s Euler A 1024x1024 150 steps. C TRT при тех же параметрах 5.85 it/s, и расход VRAM 22.7 Гб, лол.
А вот на полторахе уже другое дело — с SDP батч из 4 картинок 512х768 Euler A 150 steps 6.57 it/s, расход памяти 5.2 Гб. С TRT 9.27 it/s, расход памяти 6.8 Гб.
Но заёбывание с конвертацией моделей, очень ограниченная поддержка лор и хайрез фикса, и отсутствие поддержки контролнетов пока что рубят всю идею на корню.
мимо-4090-боярин
Аноним 24/10/23 Втр 05:43:01 #417 №527995 
image.png
image.png
Не прогромист итт. Хочу попробовать научить лору. Помогите найти терминатор. Жалуется на 369 строчку 4 символ (2 пик), то есть на "p"
В гугле ничего похожего не нашел.
Аноним 24/10/23 Втр 06:02:39 #418 №528003 
>>527966
А как долго конвертируется модель на 4090? Если достаточно быстро, типа секунд 30, то можно рм предложить сделать автоконвертацию с кешированием
Аноним 24/10/23 Втр 11:58:18 #419 №528114 
А в сфере генерации картинок что то круче и прорывнее SD вышло? Или все крутое основано на нем?
Аноним 24/10/23 Втр 12:50:17 #420 №528134 
>>528114
Gigagan 1 раз видел, но после ничего не слышал о нём
Аноним 24/10/23 Втр 13:24:33 #421 №528164 
>>528134
Диффузия по всем метрикам ебёт GAN. Сейчас уже кроме генерации другие задачи с GAN на диффузию начинают переводить. Например восстановление изображений или супер-резолюшен уже только в диффузии имеют какой-то прогресс за этот год, из недавнего - IR SDE. Все попытки вернуться к однопроходной генерации мертворожденные, буквально движение назад, только для нищежелеза имеют смысл чтоб получить больше скорости ценой качества.
Аноним 24/10/23 Втр 13:55:04 #422 №528189 
>>528134
>>528164
GAN в целом работают, но с трудом управляются и при тренировке и при инференсе. В них вложили дохуя усилий и годами ебались с шаманством с гиперпараметрами, пока не поняли что это тупиковый путь из-за капризности. Стоило придумать диффузионный процесс и восстановление из шума, как всё попёрло при минимальных усилиях.

Диффузия не единственный способ генерить пикчи. Есть ещё визуальные трансформеры, например Stable unCLIP тренировано на эмбеддингах из такого. Есть RNN, разные другие аналоги из физики, например электростатика вместо термодинамики у диффузии. Но в реальности все юзают диффузию. Диффузионная сетка это не единственный компонент реальной модели конечно, понимание инпута требует языковой модели (для промпта) или чего-нибудь управляющего типа контролнета, перевод в/из латентного пространства требует автоэнкодера (которые кстати могут и независимо использоваться для генерации), и т.п., всё это пытаются стакать вместе с переменным результатом.
Аноним 24/10/23 Втр 15:50:22 #423 №528282 
0000.png
Ещё одна проблема с TRT это размер. Все ваши модели удваиваются. И вот этот файлик на 1.6гб - это лора, которая изначально весила 144 мегабайта.
Аноним 24/10/23 Втр 22:03:49 #424 №528647 
>>528282
Ну вот поэтому мне и кажется, что AIT все же перспективней, несмотря на то, что с ним куча своих приколов. Все же вот эта перегонка моделей- то какая-то фигня и не будет работать с тем как обычно народ с моделями работает.
Аноним 24/10/23 Втр 22:43:53 #425 №528692 
Как я понял недавно вышедший LCM, который за 32 часа a100 запечатывает семплер, зажопили? Нигде не нахожу код для тренировки. Нашел максимум на гитхабе сообщение от создателя, что он другие модели планирует сконвертировать

Все же странный выбор изначальной модели: dreamsharper v7. Автор сомнительный, для xl модели он просто Лору вмержил в базовую модель
Аноним 24/10/23 Втр 22:53:37 #426 №528699 
>>528692
Тебе уже объяснили что результаты там говно, надо черрипикать чтоб не было пиздеца. Поэтому и кода нет никакого.
Аноним 24/10/23 Втр 23:03:16 #427 №528711 
1589702401531.png
1568179315899.png
1544370897773.png
1559586918238.png
>>528692
> LCM
Ммм, жидкое говно, как же хочется. Жаль только выглядит оно хуже ванильного SD 1.4, даже если оба на 10 шагах сравнивать. Квантование или дистилляция даже лучше выглядят чем это.
Аноним 24/10/23 Втр 23:39:34 #428 №528738 
>>528692
Автор в дискорде говорит что код будет когда XL модель конвертнёт в LCM.
Аноним 24/10/23 Втр 23:44:11 #429 №528740 
>>528692
>просто Лору вмержил в базовую модель
Потому что лора как таковая не работает с LCM. Оно запекает итерации в дополнительную нейросетку, в этом вся суть. Поэтому лору придётся либо вмёрживать, либо пользоваться файнтюном LCM через описанный в пейпере способ. Контролнеты тоже надо реализовывать заново (как минимум тренить). И т.п.
Аноним 25/10/23 Срд 00:27:38 #430 №528772 
>>528740
Я про не LCM, а просто dreamsharper xl. Там в комментах один чел выяснил что это просто мерж с лорой, выдаваемый якобы за чекпойнт. И вычленил его, можно скачать отдельно

https://civitai.com/models/112902/dreamshaper-xl10?commentId=274242&modal=commentThread

Короче создатель dreamsharper - это инфоциганин. Почему выбрали его модель для основы, не понятно
Аноним 25/10/23 Срд 00:36:16 #431 №528778 
>>528772
>Почему выбрали его модель для основы, не понятно
Да просто авторы яйцеголовые математики, вряд ли они следят за всей этой драмой на сайте для дрочеров, скорее всего они тупо ткнули в первый попавшийся популярный чекпоинт с красивыми картинками и прогнали свой скрипт на нём.
Аноним 25/10/23 Срд 02:32:06 #432 №528822 
>>528778
Яйцеголовые выбрали бы стандартную официальную модель, а не васяномерж.
Аноним 25/10/23 Срд 03:50:34 #433 №528864 
>>528822
Яйцеголовые стремятся к публичности и демкам, это добавляет видимости и цитат. Публикуйся или умри. Базовая модель хуйня, в любом случае васянщину пришлось бы брать, чтобы привлечь внимание. Вот сейчас автор в дискорде спрашивает какую модель конвертить следующей (ему отвечают базовую SDXL или какую-нибудь лору/файнтюн на XL)
Аноним 25/10/23 Срд 04:04:21 #434 №528871 
>>528864
Вот зря вы ненавидите все стандартную модель. Она обучена на миллионах изображений, а все, основанные на ней - это дообученные файнтюны на всего нескольких тысячах картинок
Аноним 25/10/23 Срд 05:49:51 #435 №528875 
Честно говоря не понятен этот хейт на XL! У нее есть уйма преимуществ
- Больше параметров, больше генерализации, поэтому любые концепты (в т.ч. nsfw) подхватывает с полуоборота.
- гораздо сильнее в "чтении" промптов, так что для нее не нужно повторять дважды или писать громоздкие негативы. Что написал, то и получишь.
- трудность в трейнинге лоры вознаграждается более высоким качеством. Лоры для реализма пригодны также для мультов чмонимэ и наоборот.
Аноним 25/10/23 Срд 06:26:32 #436 №528878 
>>528875
Гоняю XL уже с недельку, хуй знает, хейтить её особо не за что. У меня только две претензии - ей абсолютно поебать на твой промпт, она всё равно проигнориует всё, кроме пяти-шести кейвордов. И тут нельзя исправить дело :1.0 или скобочками. Нужно брать важный кейворд и копипастить в промпт 3, 4, 5 раз. Но никакой гарантии не даёт. И второе, это мыло ебаное.
Аноним 25/10/23 Срд 09:58:48 #437 №528910 
>>528875
>Честно говоря не понятен этот хейт на XL!
1. Проебали порнуху
2. Вместе с порнухой проебали анатомию

Ну и общий тренд на вырезание порно из базы залуживает только урины в лицо.
Аноним 25/10/23 Срд 11:35:10 #438 №528942 
>>528910
Стабилити и опенаи - based, дрочеры должны страдать. Не, ну попены говно, но по другой причине
Аноним 25/10/23 Срд 11:36:58 #439 №528943 
>>528878
Это вопрос скилла, у меня всё подхватывает.
Аноним 25/10/23 Срд 12:31:59 #440 №528988 
Имеет ли смысл тегить LLaVA'ой пикчи для файнтюна? (примерно 10к пикч) Для лоры? (на ~100 пикч)
Будет ли качество выше от такого теггинга?
Аноним 25/10/23 Срд 14:58:24 #441 №529074 
>>528943
Так это недостаток XL, что к ней требуется какой-то особый скилл. Когда с 1.5 всё заебись, а для XL такие промпты не годятся.
Аноним 25/10/23 Срд 17:04:12 #442 №529195 
>>529074
Свои мастерписи для полторашки прямо с первого раза правильно писал?
Аноним 25/10/23 Срд 22:49:19 #443 №529459 
>>529195
Загуглил рабочие теги, если не работают - сделал скобочки или 1.0. XL на это похуй, гарантированно рабочих команд тупо нет.
Аноним 26/10/23 Чтв 01:05:26 #444 №529545 
>>528910
Не знаю, пока мне кажется что по анатомии файнтьюны SDXL вполне на уровне. Плюс понимание промптов и когерентность у неё на высоте. SD1.5 не может даже нарисовать нормально сидящую девушку в комнате, если не роллить как угорелый. Либо анатомия кривая, либо кресло плывёт, либо место комнаты на фоне какое-то неконсистентный мусор. А с SDXL - вообще проблем нет, с первой попытки по сути.

>>528878
>>529074
>>529459
SDXL - это не NAI-based модель, она не понимает теги с данбуры, ей надо писать обычный человеческий текст, она с ним куда лучше справляется чем с другими вариантами. Если с этим руками плохо выходит, то можно юзать трюк из пейпера DALLE-3 и просить LLMку улучшить и дополнить свой промпт эпитетами, это на эстетику в положительную сторону влияет.
Аноним 26/10/23 Чтв 01:18:35 #445 №529550 
>>528943
Даже ультрадетализированный содержательный фон с перспективой без мыльца можешь?
>>528988
Нет, возможно ее файнтюны откуда еще им взяться с этим бы справились, но сама херь выдаст.
Аноним 26/10/23 Чтв 01:50:24 #446 №529559 
>>529550
Мыло видел только в niji journey и ранней модели от Linaqruf, а чтобы убрать, достаточно написать в negative, + добавить лоры, и всё. Сэмплер euler может иногда делать мыльно.
На фон и детали есть лоры slider, adjuster, хотя и без них выходят годные. Мне вообще норм и с мылом.
Аноним 26/10/23 Чтв 21:59:30 #447 №530086 
Вопрос - есть ли какая-нибудь хитроёбаная метода, чтобы задать SD референс одним изображением, но при этом указать какие именно фичи из него извлекать? Что-то типа IP-Adapter, но чтобы например можно было промпт вписать "такой-то объект" или "такой-то цвет", или "текстура асфальта", и он извлечёт это и использует как референс.

А то все методы что я пробовал, извлекают всякую рандомную херню, но только не то что мне нужно. Может попробовать потренить кастомные IP-Adapterы? Там 22 млн параметров всего, по идее не должно быть слишком дрочно
Аноним 27/10/23 Птн 00:01:15 #448 №530173 
>>530086
Короче я почитал пейпер IP-Adapters и они говорят что эта шняга должна быть генерализуемой, т.е. управляться с основного промпта (или что там у тебя вместо текста выдаёт кондишионинг). Типа, если в промпте есть "велосипед", и в референсе нарисован велосипед, он будет склонен его рисовать как в рефе.

В общем если подумать оно действительно плюс-минус так и работает, но видимо пока недостаточно хорошо, нужно мутить ещё какую-то более сложную штуку для переноса концептов с рефа.
Аноним 27/10/23 Птн 03:33:46 #449 №530271 
>>530086
inpaint by example?..
Аноним 27/10/23 Птн 03:40:33 #450 №530272 
>>530271
>inpaint by example
А это как?
В любом случае вот например мне надо текстуру сменить у объекта с кожи на мех, или поменять форму с круглого на квадратное - инпеинт с таким не справится, тут нужен именно перенос концепта. Ну или лора/полноценный файнтюн, но там совсем другие заморочки
Аноним 27/10/23 Птн 04:14:26 #451 №530277 
Кто-нибужь уже ковырял конфиги ультимейт СД апскейлера? Если да, то где в его ебенях стоит ограничение Target size type на 8192 пикселей и размер тайла с ограничением 2048? Если в 16к генерить, тайлы настолько крохотные выходят, что лезут артефакты.
inb4: Tiled Diffusion корраптит цвета, а ждать рендер, что бы поменять настройки и снова ждать, не вариант.
Аноним 27/10/23 Птн 07:14:23 #452 №530300 
>>530277
Файл ultimate-upscale.py, строки 453,454,463,464
Аноним 27/10/23 Птн 09:44:20 #453 №530328 
>>530277
> и размер тайла с ограничением 2048
Для 1.5 уже в таком размере херь, а ты еще больше хочешь, не факт от артефактов получится избавиться или не получить другое. Но всеравно по результатам отпиши что вышло.
> Tiled Diffusion корраптит цвета
Контролнет, постобработка в крайнем случае, в tiled vae сними галочки быстрого энкодера/декодера. Алсо для 16к там оче много рам потребуется.
Аноним 28/10/23 Суб 12:24:59 #454 №531043 
>>530272
Это не автоматиком делается, это отдельный проект годичной примерно давности на обниморде.
Аноним 28/10/23 Суб 12:28:30 #455 №531047 
>>530272
https://huggingface.co/spaces/Fantasy-Studio/Paint-by-Example
Аноним 28/10/23 Суб 13:53:29 #456 №531088 
>>478081 (OP)
Аноны, нужна ваша помощь. Хочу создать свою LoRA, но получаю ошибку.
Двач жалуется на спамлист, залил на пастбин https://pastebin.com/8jLgBg0N
Аноним 28/10/23 Суб 15:37:03 #457 №531125 
>>531088
Во-первых, что у тебя за дрисня вместо скриптов кохи? Во-вторых, он пиздит что у тебя версии пакетов не те.
Аноним 28/10/23 Суб 16:37:09 #458 №531149 
>>531125
>что у тебя за дрисня вместо скриптов кохи?
>он пиздит что у тебя версии пакетов не те
Я сделал git clone, потом запустил setup.bat. Он должен был установить нужные скрипты и зависимости.
Аноним 28/10/23 Суб 16:38:51 #459 №531150 
>>531149
>>531125
Только сейчас понял, что установил github.com/bmaltais/kohya_ss вместо того что из шапки.
Аноним 28/10/23 Суб 16:40:16 #460 №531152 
>>531150
Но он есть в шапке.
Аноним 28/10/23 Суб 17:08:42 #461 №531166 
>>531152
Тогда почему он не работает? Я сделал все те немногие шаги что указаны в readme репозитория.
Аноним 28/10/23 Суб 17:25:42 #462 №531172 
Второй лог моей ошибки, более подробный.
https://pastebin.com/b0S2eLFc
Подскажите решение.
Аноним 28/10/23 Суб 18:58:13 #463 №531220 
>>531172
> NVIDIA GeForce GTX 1080 Ti
> use 8-bit AdamW optimizer
Эта карточка не поддерживает этот оптимизатор. Попробуй "Lion"
Аноним 28/10/23 Суб 19:30:41 #464 №531230 
>>531047
А, помню это. Ну это тоже зеро-шот экстрактор фич, да, их много (IP-Adapter, reference controlnet и т.п.), просто этот почему-то так и не достиг ни автоматика, ни комфи. Мне надо чтобы можно было указывать, что именно он будет брать из референса. Например прописываешь ему "эйфелева башня" и он копирует из референса эйфелеву башню. Прописываешь "композиция" и он копирует из референса композицию и пытается её применить. Прописываешь "текстура кирпича" и он берёт оттуда именно эту кирпичную стенку и пытается её всунуть в результат.
IP-Adapter пользуется на входе визуальным трансформером, распознающим концепты на пикче, и в принципе так и работает. Но через пень-колоду, потому что трансформер вытаскивает сразу все фичи что может, а ты потом задаёшь веса этого всего через кондишионинг. Нужны более дрочные методы и более качественные модели для распознавания.
Аноним 28/10/23 Суб 21:16:33 #465 №531312 
>>531220
Спасибо анон. Абсолютно неприметная для меня опция, о которой никто не говорит.
Начал обучение для теста, не выбирая никакие дополнительные опции, из 24 картинок вышел файл на 9 мегабайт. Stable Diffusion его не видит.
Аноним 28/10/23 Суб 21:27:14 #466 №531317 
Будущее - за мультимодальностью, dall-e 3 тому подтверждение.
ИИ следующего поколения будет понимать натуральный язык без тегов и токенизации, создавать по описанию + рефам любую пикчу и дорабатывать её по следующим уточнениям. Вспомните как в SD 1.5 пишешь red hair, blue eyes - а сэмплер делает наоборот, потому что в данных такая комбинация встречалась чаще. И добавляет эти цвета на другие детали. Совершенно костыльная архитектура, чисто на уровне обработки статистики.
Аноним 28/10/23 Суб 21:27:42 #467 №531318 
>>531312
Теперь увидела лору. Странно что не с первого раза. Результат впечатляет: я не вводил никаких настроек но с третьего раза получил более-менее приличную картинку.
Аноним 28/10/23 Суб 21:31:23 #468 №531321 
>>531125
>вместо скриптов кохи?
Лол, какие скрипты, когда на civitai есть такая-то годнота. За приглашенного юзера дают на двоих 1200 баллов (два трейнинга), так что приглашаю себя сам и еще сам себя лайкаю (кукущка хвалит петуха, лол)
мимо шел
Аноним 28/10/23 Суб 21:33:13 #469 №531323 
>>531318
>увидела
Ты знаешь правила, сиськи (не нейронные) или пошла нах отсюда
Аноним 28/10/23 Суб 22:29:04 #470 №531351 
>>531317
>Будущее - за мультимодальностью
Ты хотел сказать настоящее? Мультимодальные сейчас все новые модели, больше того датасеты даже пошли чисто синтетические уже. (пиксарт обучали на синтетике)
>создавать по описанию + рефам любую пикчу
Так оно давно уже есть, с добрым утром. Зеро-шот обучение и экстракторы фич это оно и есть. BLIP и ViT энкодеры, IP Adapter (самый продвинутый и контролируемый из всех), reference controlnet, paint by example, куча их. Они в зачатке, но работает, вон в SD треде аноны дракона со свиньёй скрещивают безо всяких лор.
>Вспомните как в SD 1.5 пишешь red hair, blue eyes - а сэмплер делает наоборот, потому что в данных такая комбинация встречалась чаще. И добавляет эти цвета на другие детали. Совершенно костыльная архитектура, чисто на уровне обработки статистики.
Это не "костыльная архитектура", это хуёвый датасет LAION и хуёвый текстовый энкодер CLIP. А "обработка статистики" это и есть интеллект, это было главное открытие NLP сделанное ещё 10 лет назад.
Достаточно просто юзать хороший датасет и приличный трансформер на входе, что показывает пиксарт, у которого понимание вполне приближается к далле, при этом тренирован он за копейки.
Аноним 28/10/23 Суб 23:27:26 #471 №531385 
>>531351
Пиксарт это конечно хорошо, но трансформер на 4 c хуем лярдов параметров это пиздец немного.
Аноним 29/10/23 Вск 01:04:12 #472 №531430 
>>531385
Там 11млрд, тот же самый что в DeepFloyd IF был (T5 гугловский). И этого вполне достаточно для отличного понимания промпта, ему же не рэп-батлы Шекспира и Гомера писать, он заземлён на датасет из пикч высокого качества, и используется лишь в качестве второй моды диффузионной модели, выдавая кондишионинг для неё.
Аноним 29/10/23 Вск 01:33:47 #473 №531443 
1567491009183.png
>>531430
> Там 11млрд
где
Аноним 29/10/23 Вск 01:39:01 #474 №531445 
>>531351
> приличный трансформер на входе
>Inference requires at least 23GB of GPU memory
Очень вкусно (нет)
Аноним 29/10/23 Вск 01:42:58 #475 №531450 
1568339985072.jpg
>>531443
Нэ понел. Там же ссылка стоит на T5 1.1 XXL, а он 11 млрд.
https://github.com/google-research/text-to-text-transfer-transformer/blob/main/released_checkpoints.md

>>531445
Это же требования говнокода яйцеголовых, им лишь бы влезало на A100. SD вначале требовал 12 кажется ГБ, и со скрипом запускался на 10. Большую часть этой памяти занимает трансформер, его квантизованным до 4-8 бит надо запускать, а не в сыром виде. Или вообще на ЦПУ. Можешь помацать ноду для ComfyUI, там уже есть поддержка, правда сырая.
Аноним 29/10/23 Вск 03:28:19 #476 №531488 
Я читал обсуждения про тренировку на разных сэмплерах, мол, модели тренированы на одних, мы пользуемся другими. Так это, у кохи можно сэмплер сменить? Чот я не видел рычага на сэмплер, на чём он тренируется?
Аноним 29/10/23 Вск 07:48:15 #477 №531530 
>>531488
> тренировку на разных сэмплерах
Семплер - это реверс стохастического распределения. Они не используются при тренировке.
Аноним 29/10/23 Вск 13:59:24 #478 №531656 
Эксперт по лорам для XL1.0 врывается в тред. Поясняю по теме всё как есть, что для чего.
Лоры могут быть легковесные (один определенный предмет, либо один персонаж) или тяжеловесные (стиль одного рисоваки, какие-то технические особенности для изображений). В первом случае бывает достаточно 32 dim / 16 alpha, иначе будет чрезмерно обученная (повторяющая одно и то же). Во втором, нужно как минимум 64 / 32, а лучше сразу 128 / 64, иначе толком не схватит стиль. Лучше лора весом в гигабайт но годная, чем весом в 30 мегабайт, но кривая. 128/16 не советую, сразу начинает срать под себя из-за высокого learning rate. Самое главное в МЛ это параметры моделей, благодаря которым ИИ условно "знает" что-то и "понимает" что-то - но у параметров должен быть и высокий КПД без мусорных нейронов.
Больше данных = лучше, для XL в особенности. Не верьте мудакам, кто рассказывает как они запилили годноту из 5-6 образцов - с таким же успехом можно использовать одну пикчу в контролнете. Попробуй подборку из 16 пикч, и в самом начале трейна будет оверфит: модель будет воспроизводить только один и тот же образец из датасета и больше ничего. 30 необходимый минимум, для персонажа лучше 60-100, для своеобразных стилей может не хватить и нескольких сотен.
Лучший способ подготовки данных - тащить с Danbooru программой imgbrd-grabber для винды, для этого нужно зарегаться и получить токен. Можно качать с Gelbooru, но там хуевые теги,+ не работает сортировка по качеству или дате). Метаданные сохранять как Separate log file, потом вручную (скриптом) добавить ключевое слово в начало каждого txt. Если модель уже знает этот предмет, то используй реальное название, а если нет - придумай короткое несуществующее слово. В настройках тренировки включить рандомное перемещение тегов, кроме переднего слова. Тогда лора будет лучше понимать, что на пикчах главное и что второстепенное. Иногда неплохо срабатывает добавление реальных фотографий в манямэ датасет (получится универсальная модель), но описания для них не обязательно основывать на той же системе тегов.
Аноним 29/10/23 Вск 14:13:22 #479 №531675 
>>531656
> Лучший способ подготовки данных - тащить с Danbooru
Говно с бур - буквально худший датасет. Особенно если там каша из 20+ тегов. Нахуй иди с такими советами.
Аноним 29/10/23 Вск 16:09:35 #480 №531793 
Снимок экрана 2023-10-29 200850.png
Так что там, обновлять драйвер или нет? Сколько уж времени прошло-то.
https://github.com/vladmandic/automatic/discussions/1285
Аноним 29/10/23 Вск 16:19:21 #481 №531798 
>>531793
Да сразу обновлять надо было. Шаред мемори контролируется на уровне приложения это раз, память освобождается при любом из medvram флагов в том же автоматике. Никаких минусов нет.
Аноним 29/10/23 Вск 16:23:17 #482 №531801 
>>531798
Замедление итераций\сек в несколько раз норм что ли?
Аноним 29/10/23 Вск 16:37:54 #483 №531807 
>>531801
Если кончилась память - норм, лучше чем перезапуск автоматика. Если не кончилась, никаких замедлений нет.
Аноним 29/10/23 Вск 17:24:23 #484 №531833 
>>531656
Причина альфы = 1/2 дим?
> 32 dim / 16 alpha, иначе будет чрезмерно обученная (повторяющая одно и то же)
Уменьшение размерности при обучении сказывается эффективнее чем лр, шедулеры, ...?
> 128/16 не советую, сразу начинает срать под себя из-за высокого learning rate
Типа на xl большие альфы работают хорошо а просто больший лр без скейла - плохо?
> Больше данных = лучше, для XL в особенности. Не верьте мудакам, кто рассказывает как они запилили годноту из 5-6 образцов
Это для всех актуально ведь.
> тащить с Danbooru
Там же ведь даже с регой лимит по количеству тегов в поиске, не?
> Gelbooru, но там хуевые теги,+ не работает сортировка по качеству или дате
Сортировка работает, теги +- данбуру и больше зависит от давности арта.
Выходит ты дефолтными буру тегами для xl пользуешься?
> Иногда неплохо срабатывает добавление реальных фотографий в манямэ датасет (получится универсальная модель)
Хуясе ебать.

Честно не очень ты на эксперта похож, спорные вещи и совсем базовые, а важного не обозначит. Но может мы тебя просто не поняли и на самом деле сами не догоняем, ответь, пожалуйста, на вопросы, будем разбираться.
>>531807
Этого двачую
Аноним 29/10/23 Вск 17:40:58 #485 №531848 
>>531656
> Эксперт по лорам для XL1.0 врывается в тред. Поясняю по теме всё как есть, что для чего.
Дай хоть пощупать свои лоры то, эксперт.
> Лучше лора весом в гигабайт но годная, чем весом в 30 мегабайт, но кривая.
Что мешает натренить на большом диме и потом ресайзнуть с минимальной потерей качества?
> 128/16 не советую, сразу начинает срать под себя из-за высокого learning rate.
Насколько высокого? Из опыта 64/16 на 1.5 с бешеным стартовым 4е-3 показал себя неплохо в приемлемые сроки тренировки с ещё несколькими дампенерами.
> Лучший способ подготовки данных - тащить с Danbooru программой imgbrd-grabber для винды, для этого нужно зарегаться и получить токен.
Для 1.5 с наи, для хл ты не сможешь так же просто заоверрайдить теги, там дедоязык.
Аноним 29/10/23 Вск 17:46:09 #486 №531850 
>>531848
> 64/16 на 1.5 с бешеным стартовым 4е-3
График лр есть? А то если там только короткий пик между разогревом и спадом то это уже не то, но потенциально интересный прием.
Аноним 29/10/23 Вск 18:03:49 #487 №531854 
>>531798
>Шаред мемори контролируется на уровне приложения
В треде автоматика на гитхабе написано ровно обратное.
Аноним 29/10/23 Вск 18:06:57 #488 №531857 
>>531833
> Причина альфы = 1/2 дим?
Умственная отсталость. Альфа нужна для прожарки и против слишком мелких градиентов. Тот дурачок напердолил демпинга и очевидно оно нихуя не тренится, а вместо того что бы убрать демпинг въебал прожарку альфой. В итоге вместо ровного обучения получает обновление весов скачками, любые говняки всегда будут усиливаться в разы и ебать лору.
Аноним 29/10/23 Вск 18:14:09 #489 №531860 
1670524888683.png
>>531450
Хм, по идее же наверное там можно на меньший T5 поменять просто если не влезает.
Аноним 29/10/23 Вск 18:41:02 #490 №531872 
1557027942147.png
1665784139025.png
>>531850
Есть, пик1, но там какие то экспериментальные новые параметры были для лосса, продиджи кстати примерно такой же лр ставит с этими настройками на пик2, сейчас небось шизик из секты свидетелей нулевых весов сагрится, что нету градиентного спуска.
Аноним 29/10/23 Вск 18:48:15 #491 №531876 
>>531860
Вообще пока скам какой-то, в ридми хуйня написана и модели пока даже не выложили.
Аноним 29/10/23 Вск 18:58:46 #492 №531883 
>>531656
>Самое главное в МЛ это параметры моделей
>Лучший способ подготовки данных - тащить с Danbooru
Хуею с этих МЛ-экспертов по лорам уже почти год. Про данбуру вообще охуенно, с её часто насранными тегами, которые для SDXL неюзабельны в никаком виде и говнят нахуй понимание моделью промпта. Для XL для SD1 вообще-то тоже в 95% случаев половину нахуй переписывать руками надо и дополнять кучей проебанных тегов капшионы писать только или руками полностью, или делать синтетику автоматом.
> Если модель уже знает этот предмет, то используй реальное название
Что работает от случая к случаю и в зависимости от того что тебе от лоры надо.
>Лучше лора весом в гигабайт но годная
Лору весом в гигабайт ты в жизни не обучишь до полного её "забития" на тех датасетах и их объемы что обычно для лор используются.
>тяжеловесные (стиль одного рисоваки)
>тяжеловесные
>стиль
Я даже комментировать не буду.
Эксперты я хуею
Аноним 29/10/23 Вск 19:24:00 #493 №531904 
Снимок экрана 2023-10-29 232249.png
Почему нет гпу и генерит процессором?
Аноним 29/10/23 Вск 19:47:01 #494 №531930 
изображение.png
>>531904
Торчом не вышел.
Аноним 29/10/23 Вск 20:34:37 #495 №531951 
>>531854
https://docs.nvidia.com/cuda/cuda-c-programming-guide/index.html#shared-memory-9-0
>The shared memory capacity can be set to 0, 8, 16, 32, 64, 100, 132, 164, 196 or 228 KB.
Аноним 29/10/23 Вск 20:48:48 #496 №531967 
>>531951
>228 KB
Там ниху не килобайты, и явно там ничего никто не вызывал. У людей софт полез в оперативку сразу после обновления дров.
Аноним 29/10/23 Вск 20:59:33 #497 №531975 
>>531967
Есть такое понятие, как поведение по умолчанию. По умолчанию драйвер берёт объем RAM, делит на два и пытается выделить это под шаред мемори. Если поведение не устраивает - есть возможность это всё перенастроить. Но это не нужно, поведение адекватное, логичное и полностью оправданное.
>ниху не килобайты
Это килобайты на 1 CUDA блок. У той же 4090 этих блоков 16 384
Аноним 29/10/23 Вск 22:29:42 #498 №532048 
>>531656
>Самое главное в МЛ это параметры моделей
Самое главное это блять качественный датасет.
Аноним 29/10/23 Вск 22:31:09 #499 №532050 
>>531876
Модели утекли в сеть, в комфи (и вроде автоматике) уже есть поддержка, см. >>530994 →
Аноним 29/10/23 Вск 22:32:04 #500 №532053 
>>531975
>Если поведение не устраивает - есть возможность это всё перенастроить.
Окей, как мне это выключить?
>Но это не нужно, поведение адекватное, логичное и полностью оправданное.
Маркетолог куртки, ты? Это невидия обосралась с объёмом врама своего картона, что пришлось костыли лепить.
Аноним 29/10/23 Вск 22:39:34 #501 №532060 
>>532053
Скажи спасибо индусам с их никчемностью, куртка даже этого мог не делать, и те кто сейчас медленно-но-верно что-то могут все также бы сосали бибу.
Аноним 29/10/23 Вск 23:07:52 #502 №532074 
DeepFloydt5-v11-xxl at main.png
>>532050
Да ебануться блять
Аноним 29/10/23 Вск 23:23:50 #503 №532077 
>>532053
>Окей, как мне это выключить?
Делай форк автоматика. В статье, на которую я принёс ссылку - есть код.
>невидия обосралась с объёмом врама
Ты не понимаешь. Если сделать много врам на пользовательских видимокартах, то нужно сделать ещё больше на сороковых. А если сделать дохуя памяти на сороковых, то A100 нахуй не нужны будут. А это основной доход невидии.
Аноним 29/10/23 Вск 23:51:09 #504 №532084 
>>532077
>Ты не понимаешь.
Я прекрасно понимаю, что они жадные мудаки, ты мне америки не открыл. Но это не повод не называть их мудаками
Аноним 30/10/23 Пнд 00:11:16 #505 №532097 
>>532050
М, спасибо. Про коми и автоматик чет не гуглится или у меня еблан на гугле.
Аноним 30/10/23 Пнд 01:35:20 #506 №532110 
ComfyUI - localhost.png
4bitvram.png
8bitvram.png
>>532050
Запустил это поделие в комфи. При генерации 1024х1024 с использованием T5 bnb8bit расход памяти чуть больше 13Гб, скорость около 5 it/s. При использовании bnb4bit расход ровно 12Гб, скорость такая же.
Понятно что на текущий момент у модели очень маленький датасет и она очень слабая в плане композиции и понимании промпта. Но, если китайцы не напиздели, то в перспективе всё выглядит очень многообещающе.
Аноним 30/10/23 Пнд 02:18:07 #507 №532126 
Niji-Special-anime-image-anime-style-anime-eyes-anime-manga-at-pixiv1-multi-strapped-g-string-asymme.png
Time-Less-anime-image-anime-style-anime-eyes-anime-manga-at-pixiv1-multi-strapped-g-string-asymmetri.png
Reproduction8-7-r4ynr-multi-strapped-g-string-asymmetrical-g-string-collarbone-black-hair-black-thig.png
M1-multi-strapped-g-string-asymmetrical-g-string-collarbone-black-hair-black-thighhighs-black-wings.png
>>531848
Я привел усредненные настройки которые срабатывают в 90% попыток, при этом превосходят дефолтные значения существующих скриптов. Пикрелейтед моя сегодняшняя лора на XL base 1.0. по простым настройкам без выебонов и с тегами Gelbooru.
Придумывать "крутые йоба-настройки" смысла нет, лучшее - враг хорошего. Если выкрутить lr на максимум, тогда например, сэмплер берет деталь с волос (заколку) и лепит ее на одежду, будто смысл лоры в этих деталях, а не в персонаже. Причем уже на втором чекпойнте. Про другие мокрописьки не в курсе, потому что трейню лоры в облаке (не в колабе).
Аноним 30/10/23 Пнд 02:42:22 #508 №532131 
>>532110
Погонял тоже, выглядит в перспективе пиздец вкусно, да, но Т5-xxl это пиздец жирно конечно.
Аноним 30/10/23 Пнд 02:50:45 #509 №532133 
Как думаете, что станет настоящим некстгеном и раскрытием потенциала - SD 3.0 с новым энкодером как в Dall-e 2 или SD XXL Pro+ Evo edition который трейнили на 2048p со сжатием латентов
Аноним 30/10/23 Пнд 02:58:00 #510 №532135 
>>531883
>тяжеловесные (стиль одного рисоваки)
>тяжеловесные
Ну давай подумаем. Что лора запоминает для одного персонажа? Пару типичных деталей, прическу и шмот. Всего лишь концепт.
Что нужно запомнить для уникального стиля как Abe Yoshitoshi? Характерные искажения в анатомии, приемы в композиции, текстурные поверхности, соотношение различных форм, чтобы воспроизводить это по-новому в сэмплах. Стиль - это не цветовой фильтр, это дофига всего. Он должен подходить для любых предметов и сцен, а не только тех которые часто встречаются у рисоваки.
Аноним 30/10/23 Пнд 03:06:31 #511 №532136 
>>532135
Зависит от стиля, объема и качества датасета. Стиль можно как и в 32 dim натренить нормально, так и хоть в 256 обосраться.
Аноним 30/10/23 Пнд 03:13:08 #512 №532141 
>>532126
> Придумывать "крутые йоба-настройки" смысла нет, лучшее - враг хорошего.
С параметрами - да, с датасетом - нет, его нужно по максимуму улучшить.
> сэмплер берет деталь с волос (заколку) и лепит ее на одежду
Опять заколки, год назад боролись с ними, так и не закончили. А вообще не должна она лепиться на одежду, если на всех картинках она была на голове.
> сегодняшняя лора на XL base 1.0
Просто скажи зачем вообще нужен XL? Фурри чекпоинт имеет базовое 1024, ушёл дальше по технологиям в виде vpred+ztsnr, его тренить так же просто как 1.5 и больше того, к нему подходят те же параметры, что и к наи, единственный минус, придётся заговорить на собачьем. Из коробки может в хентай без лор. Вот пример того что я сегодня на нём натренил >>532140 →
Аноним 30/10/23 Пнд 03:29:07 #513 №532148 
>>532141
> Фурри чекпоинт имеет базовое 1024, ушёл дальше по технологиям в виде vpred+ztsnr
Объясните для долбоеба не работавшего с sdxl
Аноним 30/10/23 Пнд 03:31:33 #514 №532150 
Есть предложения что поменять в шаблоне перед катом?
Аноним 30/10/23 Пнд 03:47:59 #515 №532160 
>>532148
Тут особо и нечего объяснять, фуррикумеры натренили на полторашке чекпоинт лучше, чем SAI своё дерьмо, которое ещё и фиксили лорой с нойз оффсетом, чтобы динамический диапазон цветов был лучше. Fluffyrock лучше понимает промпт, может сгенерить полностью белую или чёрную пикчу (тот самый рейндж), и может в хентай концепты и любого вида гениталии из-за обильного количества соответствующего в датасете. Минус в том, что этот файнтюн вымыл всё, что было в наи и привычные теги там не сработают, нужно искать на e621 замену, как для промптинга так и для тренировок. Но юзать его надо так же, лишь для тренировок, а генерить с Easyfluff или подобных его производных, как это было и с наи. Недавно анон кстати скидывал трюк улучшения любой модели в наи через изифлафф, он хоть и не перенесёт все фичи, но бустанёт модельку, не похерив совместимость с привычной генерацией, как на наи производных.
Аноним 30/10/23 Пнд 03:48:52 #516 №532161 
>>532141
>Фурри чекпоинт имеет базовое 1024, ушёл дальше по технологиям в виде vpred+ztsnr
Толку с этого, если он не сможет ничего согласовать в HD через крошечное окно сэмплера? sdxl это не просто 4x разрешение - это эстетические слои, благодаря ним модель сама без пользователя знает что красиво, и как сделать художественно. А с рефайнером все же обосрались, потому что в finetune для него нет применения, он чисто для борьбы с uncanny valley.
Аноним 30/10/23 Пнд 03:56:11 #517 №532164 
Посоветуйте новичку

1. Куда смотреть если я хочу не просто эмбеддинг, а трейнить полноценно модель на базе XL, используя Danbooru данные гверна? есть 14 GB GPU
2. Есть ли смысл соединить базовую модель с несколькими лорами, чтобы последующий дотрейн поверх нее был не booru дженериком, а кастомизированным так, как мне надо?
Аноним 30/10/23 Пнд 03:59:29 #518 №532166 
>>532161
> sdxl это не просто 4x разрешение
> это эстетические слои
> благодаря ним модель сама без пользователя знает что красиво
> и как сделать художественно
Подобную индусятину с релиза не раз видел, но оно так и не ушло дальше нормальных файнтюнов для реалистик пикч.
Ты лучше лору свою залей на цивит например, раз она такая классная вместе с примерами, чтобы можно было прикоснуться к прекрасному.
> Толку с этого, если он не сможет ничего согласовать в HD через крошечное окно сэмплера?
Что вообще высрал?
Аноним 30/10/23 Пнд 04:02:17 #519 №532168 
>>532160
> фуррикумеры натренили на полторашке чекпоинт лучше
Даже не удивлен. В очередной раз куминг продвигает ML.
Аноним 30/10/23 Пнд 04:03:27 #520 №532169 
>>532164
> трейнить полноценно модель на базе XL, используя Danbooru данные гверна? есть 14 GB GPU
>XL
>14GB
Смотреть на аренду облаков с видеокартами или на ценники A100 в магазинах.
Аноним 30/10/23 Пнд 04:21:29 #521 №532177 
>>532168
Настоящему МЛ где крутятся миллионы инвестиций - насрать на дрочеров, попены так вообще всё обложили фильтрами.
Аноним 30/10/23 Пнд 04:23:18 #522 №532179 
>>532169
Вопрос был не про это, а про работающие из коробки скрипты как dreambooth.
Аноним 30/10/23 Пнд 04:38:09 #523 №532185 
>>532168
Олвейс хес бин, кумеры на острие мышиного обучения.
Аноним 30/10/23 Пнд 10:08:40 #524 №532270 
>>532150
Да ничего, инфы нормальной по пиксарту пока нет, надо ещё один тред дать отстояться. В следующую шапку уже точно придётся включать.
Аноним 30/10/23 Пнд 10:46:25 #525 №532282 
>>532177
Ему не насрать, просто не хотят пиздюлей от рассерженых моралфагов получать.
Аноним 30/10/23 Пнд 12:43:54 #526 №532320 
>>532160
Хм. В одном ИИ-дискорде видел реплику, что у фурри прям очень крепкое комьюнити и они ваще молодцы, офигенные вещи делают.
Не обратил тогда особого внимания, а тут такое.

Главный вопрос теперь - где скочать и пощупать? Что-нибудь простое, которое скачал, и начал генерить с теми же промптами, что и раньше, на НАИ и производных.
Аноним 30/10/23 Пнд 13:14:10 #527 №532337 
>>532320
> ИИ-дискорде видел реплику, что у фурри прям очень крепкое комьюнити и они ваще молодцы, офигенные вещи делают
И не только ИИ они там делают в дискорде...
Аноним 30/10/23 Пнд 14:33:54 #528 №532369 
>>532110
Так ей бумер промпт нужен, человеческий т.е., а не простыня запятых. Ты бы ещё мастерписов от грега рутковски напихал, ёба. Кто-то сравнивал как гигантский апельсин врезается в Нью-Йорк, SDXL нихуя не понимал, а эта штука учуяла своим трансформером.
Аноним 30/10/23 Пнд 14:42:27 #529 №532372 
>>532369
Это промпт из примеров с их гитхуба (с небольшим отличием)
Аноним 30/10/23 Пнд 17:09:21 #530 №532419 
>>532126
Ну типа сделать дженерик персонажа можно просто фейсроля не дефолтных параметров гуйни или шатая их в широком пределе. Для оценки, что у нее из особенностей кроме двойной-тройной-четверной (?) лямки трусов с одной стороны, ремня под бубсами и шипасных/гладких (?) наплечников? Показал бы гибкость своей лоры, с разных ракурсов и поз, с частичным или полным изменением костюма но сохраняя узнаваемость персонажа, на разных фонах, в сочетании с чем-то еще. А то ошибаться в мелочах, воспроизводить единичный ракурс из датасета и ломать фон еще на самой заре умели.
> сэмплер берет деталь с волос (заколку) и лепит ее на одежду
Что-то сильно поломалось значит, такого быть не должно. Или проблемы с текстовым описанием.
>>532141
> имеет базовое 1024
Если объективно, насколько он хорош в нем? XL в естественных для него условиях очень когерентен и четок, а тут? И по восприятию концептов подробнее.
>>532168
Тут вообще сочетание куминга с "притесняемым" комьюнити и некоторым фанатизмом, взрывная смесь.
Аноним 30/10/23 Пнд 17:53:07 #531 №532439 
>>532320
> Главный вопрос теперь - где скочать и пощупать? Что-нибудь простое, которое скачал, и начал генерить с теми же промптами, что и раньше, на НАИ и производных.
Вот тут расписан алгоритм, как это сделать >>526434 → не все фичи перенесутся, в основном разрешение и послушность промпту должна добавиться, рейнджа не будет, потести вообщем.
> Хм. В одном ИИ-дискорде видел реплику, что у фурри прям очень крепкое комьюнити и они ваще молодцы, офигенные вещи делают.
Да, неприятно это признавать, особенно юзая аниме чекпоинты, но они более компетентны, чем sai, их чекпоинт просто работает и тренится легче.
>>532419
> Если объективно, насколько он хорош в нем?
Сколько не генерю, просто работает и не имеет артефактов присущих наи или его производным в этом разрешении, попробуй просто сам, всё сразу поймёшь, я тоже раньше плевался, меэх фурри, но зря, для аниме оно тоже годится.
> XL в естественных для него условиях очень когерентен и четок, а тут?
Это говно вообще ни в какое сравнение не идёт, оно просто не слушается промпта, даже трусы не могло нарисовать, спустя месяца полтора с релиза, сейчас уже вроде лучше, но нахуй не нужен с такими подходами.
> И по восприятию концептов подробнее.
Что конкретно? Сразу напомню, это простой кондишионинг с промпта в пару тегов с е621, с наи такое возможно только с лорами/кнетом/инпеинтом. Я пробовал простые хентайные концепты, которые на наи можно сделать только лишь с лорой, и то там бадихоррор будет, ну типо job_name, здесь из коробки работает, даже посмотреть со стороны работает, и не плодит кучу конечностей, только пальцы подхеривает, ну это такое. Ещё удивило, что хвосты тоже никуда не летают в 90% случаев.
Аноним 30/10/23 Пнд 18:09:04 #532 №532449 
ПЕРЕКАТ

>>532447 (OP)
>>532447 (OP)
>>532447 (OP)
Аноним 09/12/23 Суб 00:07:29 #533 №567713 
Я не силен в новуке, поясните: возможна ли нейронка которая делает по описанию уникальные видосы как на порнхабе, будто обычная поисковая выдача по тегам но все ролики сгенерированы ИИ? Или, в чем сложность ее создания?
comments powered by Disqus

Отзывы и предложения