24 декабря Архивач восстановлен после серьёзной аварии. К сожалению, значительная часть сохранённых изображений и видео была потеряна. Подробности случившегося. Мы призываем всех неравнодушных помочь нам с восстановлением утраченного контента!
StableDiffusion тред Стабильно диффундируем с августа 2022 ======================== Предыдущий тонет
StableDiffusion тред Стабильно диффундируем с августа 2022 ======================== Предыдущий тонет тут: >>276944551 Архивачhttps://arhivach.ng/?tags=13839 Поиск прошлых тредов: https://rebrand.ly/arhivach_SD ======================== StableDiffusion - открытая нейросеть генеративного искусства для создания картинок из текста/исходных картинок, обучения на своих изображениях. Официальный сайт (SFW): https://beta.dreamstudio.ai/dream - можно зарегаться на фейкопочту и генерировать картинки. ✏️ Как пользоваться сайтом: https://teletype.in/@stablediffusion/dreamstudio
>>137 > больше не будет по 3\4 переката А нахуя тебе так много? Или ты уже перенасытился контентом что не можешь воспринимать адекватную скорость постинга?
>>137 >через месяц тут начнется вечный тред с 3мя ответами за день И это хорошо. Если ещё копрошизиков и хомуроблядей не будет, то я официально буду одним из тех троих, что будет постить.
>>141 >>144 >>167 в любом случае лучше больше людей, чем меньше людей. Если интересовал какой-то нормальный вопрос, на б почти моментально отвечали, во время вката в нейронку и настройкой локалки(конец сентября) мне за секунд 30 отвечали на любой вопрос, теперь залетные будут ждать и не дождутся совета или помощи
>>180 > Если интересовал какой-то нормальный вопрос, на б почти моментально отвечали, во время вката в нейронку и настройкой локалки(конец сентября) мне за секунд 30 отвечали на любой вопрос Ну, если ты действительно заинтересован в проекте, то ты не бросишь его из-за того что тебе в течении пары минут не ответили
>>180 Ну остальная тематика так всегда жила и ничего, норм. Тем более если модер додумается как и в других разделах сделать закреплённый faq тред, чтобы аноны-ньюфаги не шарились по куче тредов, а сразу спрашивали что надо в прикреплённом.
>>180 Этот тред создавался именно как SD-тред, не как тред NAI-тяночек. И для SD-треда, в котором скорость постинга не такая высокая, как в треде с тяночками, отдельная доска подходит идеально, потому что в /b все последние разы его постоянно смывало.
Потом буду внукам рассказывать, как осенью 2022 весь б засрали тредами nai, да так, что отдельный загон сделали. Через время будут детектить олдов по узнаваемости пчела, лягуха, ебнутого чела с моделькой шинобу, чела с всратой голой эльфийкой и прочих
>>190 Это большая победа CAI-треда, мы тут как-то по инерции ползём.
>>192 Вайпающий шизосемён, спок. Ты уже оформил трипл-кринж в /b/, сиди спокойно. Никто тебя не трогает, особенно если ты засядешь именно что в SD-треде.
>>218 Одно радует. Здесь ты не сможешь угнать тред и засрать его своим баттхертом в виде боевых картиночек и семёнства. А если тебя забанят здесь за /po/рашу, это вообще идеально. Так что доска объективно идеальное решение против шизов вроде тебя.
>>229 Дурашка... Ты сейчас приписал мне деяния буквально всех, кто тебе ниприятен. Впрочем, да, если тут работает магическое заклятие "политика вне /po/", то это крутое решение. От голубей-шахматистов навроде тебя.
>>241 >Вам обязательно сразу начинать сраться даже здесь? Я просто надеялся, что за пару дней моего отсутствия этот /po/рашник-шизик, скативший аж три треда, оформил куда-нибудь в небытие. Но как видимо нужно подождать ещё, чтобы оно поняло, что это не /b/ и тут его шизу вниманием кормить не будут. >>253 Даун, тебе поставил мат даже мой бот, копирующий твои шизопасты.
Launching Web UI with arguments: No module 'xformers'. Proceeding without it. Traceback (most recent call last): File "C:\stable-diffusion-webui\launch.py", line 295, in <module> start() File "C:\stable-diffusion-webui\launch.py", line 286, in start import webui File "C:\stable-diffusion-webui\webui.py", line 15, in <module> from modules import shared, devices, sd_samplers, upscaler, extensions, localization, ui_tempdir File "C:\stable-diffusion-webui\modules\sd_samplers.py", line 12, in <module> from modules import prompt_parser, devices, processing, images File "C:\stable-diffusion-webui\modules\processing.py", line 30, in <module> from blendmodes.blend import blendLayers, BlendType ModuleNotFoundError: No module named 'blendmodes' Press any key to continue . . .
Какой же я неосилятор, сука, я не могу, уже несколько месяцев периодически пытаюсь настроить, но каждый раз какая-то ошибка, на сей раз вот эта вот. Видимо, это не моё.
>>2450 Так поставил, не помогло. Клонировал через командную строку модуль в папку с SD, всё равно не помогло. Снёс всё, установил SD с гайда с форчонга, так вылезла другая ошибка с другим модулем, сделал с ним то же самое и всё равно не помогло.
Всем привет. Вкатываюсь потихоньку в SD, установил ПК-версию, все работает. Возникает желание пытаться использовать это в практических целях.
Для начала, есть тут кто-то с опытом, кто может мне ответить на вопросы:
1.У меня получился хороший персонаж на картинке. Есть ли какой-то способ сделать так, чтобы нейросеть сгенерировала того же персонажа, максимально совпадающего, но, например, в другой позе?
2.У меня есть раскадровка анимации, например, ходьбы из 5 кадров. Возможно ли как-то сделать, чтобы SD сгенерировать одного и того же персонажа в позе с каждого кадра, чтобы можно было сделать анимацию?
>>3455 А для чего оно вообще пригодно? Я вот видел тему, мол в интернетах на сайте делаешь позу, и закидываешь в нейронку с промтом, а она уже на эту позу дорисовывает персонажа. Кроме этого что-то можно? У меня вот есть набросок рисунка, img2img смогёт его доработать?
>>3489 > 2.У меня есть раскадровка анимации, например, ходьбы из 5 кадров. Возможно ли как-то сделать, чтобы SD сгенерировать одного и того же персонажа в позе с каждого кадра, чтобы можно было сделать анимацию? Вот, вроде, img2img такое могёт >>3492, но я не знаю как.
Время от времени нейронка перестаёт запускаться выдавая ошибку RuntimeError: [enforce fail at ..\c10\core\impl\alloc_cpu.cpp:81] data. DefaultCPUAllocator: not enough memory: you tried to allocate 12582912 bytes.
Разлогин и последующий логин в систему даёт опять запустить всё, но все равно время от времени вылазит это, особенно если переключать модели в UI. Как будто какой-то кэш заполняется и не очищается. Уже рылся, пытался драйвер видюхи перезапускать, очищать кеши cuda, озу вычищать. Ничего не помогает, только ребут системы.
Должен же быть способ как-то вычищать память которую он не может выделить?
>>3489 > У меня есть раскадровка анимации, например, ходьбы из 5 кадров. Возможно ли как-то сделать, чтобы SD сгенерировать одного и того же персонажа в позе с каждого кадра, чтобы можно было сделать анимацию? Видрил.
Аноны, вот тут я смотрю в колабе можно загружать свою модель, то есть можно получается скачать и для себя ее обучать, или как? Есть какие-нибудь гайды по обучению через колаб? А то че-то все так быстро усложняется, я каждый раз вкатываюсь и не вдупляю опять
Так, поясните обезьяне. Вот вырезал я персов у художника одного (удалил фон, оставив ток персов). Хочу сделать по ним .ckpt на основе данного автора. По простому объясните куда пихать картинки. Гайды все на инглише. Чекнул fast-DreamBooth нихуя не понял.
А хуле нейросетки до сих пор не могут в неанимешный прон нормально? Материала всевозможного дохуя и больше, да и вообще прон всегда двигатель прогресса же Почему всякую дичь генерит без проблем, а над еблей так пыхтеть надо чтоб че-то внятное получить?
>>4456 Могут, есть специально дообученные модели для прона: blowjob, SmirkingFace и миксы на их основе вроде Хассана. Просто генерированный реалистичный прон малопопулярен, потому что есть куча натурального на любой вкус, где не нужно дрочить параметры генерации вместо того, чтоб просто фапать.
Сделал два .ckpt (соответствено, на основе работ двух художников). В самом гуглколабе https://colab.research.google.com/github/ShivamShrirao/diffusers/blob/main/examples/dreambooth/DreamBooth_Stable_Diffusion.ipynb?ref=dtf.ru(собственно там их делал) проверочный рендер - выдавал всратенькие (ток 1 получился норм) результаты, но ТАМ УЗНАВАЛСЯ СТИЛЬ этого художника. У себя же на компе, когда скачал, и пихнул в папку, выбрал в качестве модели - НИХУЯ. Ни один из двух. Выдает ебанный реализм, и пр. Ну что за хуйня??? Где проеб то?? Другие скаченные модели - работают, а мои нет. Только на гуглколабе было внятное что-то, в проверочном рендере .
>>3489 1. Нет. 2. Возможно удастся, но скорее всего лица будут меняться, даже если жёстко прописать "Эмма Уотсон". Видел, что люди делают серию фоток с одним лицом персонажа, но как это делают все молчат.
>>3489 >1.У меня получился хороший персонаж на картинке. Есть ли какой-то способ сделать так, чтобы нейросеть сгенерировала того же персонажа, максимально совпадающего, но, например, в другой позе?
Вот кста тоже интересует данный вопрос. вкатился пару дней назад
>>3489 >1.У меня получился хороший персонаж на картинке. Есть ли какой-то способ сделать так, чтобы нейросеть сгенерировала того же персонажа, максимально совпадающего, но, например, в другой позе?
Вот кста тоже интересует данный вопрос. вкатился пару дней назад
Можно ли как-то через inpaint пофиксить руки? Засунул картинку из миджорни, такой же промт, добавил негативных тегов и замазал маской руки, но результат - хуета. Что я делаю не правильно?
>>6358 поставь seed -1. и сгенерь, если не пронравиться - сгенерь ещё раз, если не пронравиться - сгенерь ещё раз, если не пронравиться - сгенерь ещё раз
>>6358 Если ты исправляешь только выделенную руку, то можешь убрать из промпта всё, что к ней непосредственно не относится, потому что лишними тегами ты только сбиваешь сетку с толку. Зачем ей знать, что героиня holding a pen, если в этой руке pen нет? Теги стилей и качества оставляй, лишнее убери, а что-то локальное можешь, наоборот, дописать. И крути после этого гачу, варьируя денойз от минимального.
>>72 (OP) Поставил себе на комп (stable-diffusion-ui), видимокарта не тянет (2 ГБ), но решил подождать на процессоре. Так вот, почему в маленьком разрешении какой-то бред? Запрос со всеми параметрами по умолчанию генерировался чуть больше получаса (пикрил), но при попытке сделать что-то в меньшем разрешении получается повторяющаяся в виде какого-то странного фрактала херня. Я читал про то, как SD работает, и, исходя из описания, сделал вывод, что разрешение в пикселях не должно играть существенной роли, потому что основная нейронка работает в условных попугаях, а проекцию на пиксели делает какая-то отдельная нейронка... Но получается, что картинку меньше 512х512 вообще нет смысла пытаться сделать, потому что будет получаться какая-то бессмыслица? Как это фиксить? Не могу ничего нагуглить на эту тему.
>>6772 Ставить разрешение меньше 512х512 смысла нет, потому что нейронка обучена на это разрешение и при выборе меньшего, грубо говоря, часть используемых концептов оказывается за рамками изображения, что в итоге приводит к нарушению смысловой когерентности генерации. Сходный эффект будет, если генерить большое разрешение без хайрез-фикса – картинка делится на отдельные тайлы, изображения в которых генерятся независимо, в результате обычно получаются уроды и мутанты. Генерить на процессоре – гроб-гроб и путь в никуда. Используй гугловские колабы, каждый день корпорация добра в милости своей дает всем страждущим по несколько часов бесплатного использования серверных видеокарт. Можно генерить почти всё, кроме цп. Если времени не хватает, можно абузить с разных акков, но осторожно, каждая учетка с разных IP и браузеров, иначе забанят. Акк под это дело лучше заранее завести отдельный от твоего основного.
>>6791 >Генерить на процессоре – гроб-гроб и путь в никуда. Так ведь, по идее, всего лишь медленно, а в остальном ничуть не хуже должно быть.
>гугловские колабы >Можно генерить почти всё >иначе забанят Потому и поставил локально, чтобы быть независимым от желания левой пятки гугла. Уж лучше тогда купить дорогую видеокарту, чем брать бесплатный сыр...
Что там сейчас самый топ кек из видимокарт? >Palit NVIDIA GeForce RTX 3090 >GAMINGPRO OC 24G, 24ГБ, GDDR6X, OC >123 тысячи рублей Звучит неплохо, самое то для апгрейда с GTX 750 Ti. Оно ведь будет работать на матери 2008 года сборки?
>>6869 > всего лишь медленно Не просто медленно, а ооочень медленно. Если ты 512x512 30 минут генеришь, то батч из 4-х картинок в минимальном разрешении будет пыхтеть 2 часа. Ты просто не сможешь даже нормально проверить, насколько удачные какие-то промпты или нет. А если захочешь увеличить разрешение, сколько тогда это займет?
> Что там сейчас самый топ кек из видимокарт? 4090, но это если у тебя бюджет позволяет. По соотношению цена-качество оптимальный выбор это 3060 с 12 Гб VRAM.
> будет работать на матери 2008 года Очень сомневаюсь.
>>6992 Про скорости двачую неистово. Раньше тоже думал, что разница будет, но не сильная. Потом когда воткнул 1660с вместо рендера на самом днищенском ам4 проце еще долго удивлялся, что жду не 40 минут, а 2-3. Вырезал вокал из песен через UVR
>>6869 >Так ведь, по идее, всего лишь медленно, а в остальном ничуть не хуже должно быть. Картинка будет почти чёрно-белая, с большим количеством шумов.
>Оно ведь будет работать на матери 2008 года сборки? Вот человек, год сборки знает, а какой там у него процессор и память не знает... В 2088г. много мусора делали, но и топовое железо было. Так что без комментариев.
>Что там сейчас самый топ кек из видимокарт? Стабильно дифузирую на 2060S, 512x512 в 30 шагов с последующим увеличением до 1024х1024 за 10 секунд: Running Stable Diffusion - 4 Iterations, 1 Steps, Scales 15, 512x512, Starting Seed: 245942167 1 prompt 4 images 1 step count * 1 scale and 1 image using 1 strength = 4 images total. Generated 1 image in 6.16s (1/4) Done! Generated 1 images in 10s.
>>6358 >Можно ли как-то через inpaint пофиксить руки? А как ты хочешь пофиксить, если у тебя там на длинной щупальце наложена длинная маска? Самый простой способ: 1. Загоняешь в графический редактор. Делаешь набросок руки. 2. Загоняешь в Инпаинт и накладываешь на это место маску.
>>7611 >Вот человек, год сборки знает, а какой там у него процессор и память не знает... В 2088г. много мусора делали, но и топовое железо было. Да при чём тут процессор и память, когда речь о слотах расширения. У меня есть свободный второй слот PCI x16 и лишняя линия питания от 700 вт блока, вот думаю, если поставить, скажем, новую 3060 второй картой чисто как ускоритель для нейронки, будет ли она работать параллельно основной 750 Ti (которой мне более чем хватает на игры, не удаётся загрузить на 100%) или всё накроется медным тазом? А то вдруг практичнее будет собрать себе новый компьютер с нуля на относительно современных компонентах, а этот больше не мучить бессмысленными апгрейдами и отдать маме в другую комнату.
В общем-то мотивации собирать новый компьютер мало, рисовальные нейронки пока выглядят баловством, как и вообще рисование - никогда не считал его чем-то достойным для приложения усилий, поэтому так и не научился нормально рисовать. Даже одну видеокарту вряд ли буду покупать, просто прощупываю почву на случай если всё-таки решусь что-то купить. Развлечений у меня и без того выше крыши, только ничего уже не радует...
Подскажите, а этот ваш диффужн, умеет генерировать конкретных персонажей? Типо если я захожу сгенерировать Сталина который сосется с члениным, это у меня получится?
>>9336 Рестор фейс не нужен, сними эту галку. В промпт пропиши (detailed face and eyes), beautiful face, (perfect face). В негатив можешь добавить deformed face.
Пиздец. Два месяца не запускал, а у автоматика так нихуя и не изменилось. Как утекала память, так и утекает. После пары-тройки десятка картинок нужно перезапускать. Так еще и 2.0 чекпоинты нихуя не загружаются.
>>9645 >После пары-тройки десятка картинок нужно перезапускать это у тебя проблемы, у меня все ок >Так еще и 2.0 чекпоинты нихуя не загружаются. у него есть гайд как запускать, все запускается
>>9803 в inpaint обводишь одежду, пишешь в промпте nude woman 512х512 и галочку на inpaint at full resolution модель специальная sd 1.5 inpaint нужна, с другими выходит херня
>>9726>>9768 Бля. Это я в гите нихуя не понимаю и принял критическую ошибку git pull за "какую-то хуйню". Память не течет, чекпоинты грузятся, но один хуй генерация 768х768 вылетает с HIP out of memory. И чсх, вылетает уже после того, как все проценты проходят и остается только показать картинку.
>>10060 > не топ карта Совсем не топ. Более того, без --no-half вообще нихуя не рисует, хорошо хоть --precision full больше не требует. Но с новой 768 моделью вроде не слишком хуево 512х768 рисует без Highres. fix, но надо будет еще потестить.
>>10349 зачем ему туда? там нереалистичные большеглазые "нарисованные" бляди с одинаковыми лицами. что-то более реальное и копродедов лучше тут постить
Почему, ну почему инпаинтинг не работает с кастомными моделями? Если нейроека знает действие "врисовать" и знает, как выглядит персонаж - то что ей таки мешает??
>>12257 Я потыкал промпт, меняя частями. Судя по всему, у него плохая выборка обучения по Марсу, или типа того, и это все портит. Попробуй в обход, не писать прямо, а описать словами марсианскую поверхность, не говоря, что Марс.
>>12292 Не за что. Со временем поймешь как оно реагирует на промпт, пойдет намного проще. Одного художника для стиля тоже бывает вредно, лучше несколько хотя бы.
>>12288 VRAM определяет максимальное разрешение генерации и возможность дообучения, число куда-ядер влияет на скорость генерации. Т.е. 3070 будет генерить быстрее при том же разрешении, но 3060 12GB сможет выдавать разрешение лучше, хоть и медленнее, и на ней ты сможешь дообучать модели локально к чему приходят практически все, кто занимается этой темой больше месяца. А еще лучше 3090, которая и быстрая, и с достаточной памятью.
>>12320 А стоит ли платить больше за видяху, если все равно апскейл работает лучше, чем генерация в высоком разрешении изначально? Я для себя все-таки склоняюсь к 3070, наверное. 8 гигов для любой игры более, чем достаточно, а только для генерации картинок, оверкилл. И это я даже не беру в учет цену, для меня не так критично. Но даже в таком случае не нашел смысла брать старшие модели. Может и не прав, конечно.
>>12329 > 8 гигов > а только для генерации картинок, оверкилл Это ты сейчас так думаешь, пока не увидишь ошибку "CUDA out of memory". Запомни, ни одна игра не сравнится по требованиям к железу видюх с требованиями для AI-генерации.
где можно взять код сетки для TF, для потыкать, попробовал с питорча переписать, не завелось. интересует только часть с модифицированным UNet, без текста
>>12975 Основную ценность SD дает не сколько u-net, а то, что через него за сотни тысяч часов на серверных видеокартах прогнали миллиарды картинок, на которых сетка обучилась и сохранила полученные веса в моделях.
Я правильно понял, что я могу взять любую модель, сунуть её и пикси в коллаб с текстуральной инверсией, а потом получить модифицированную модель, которую можно будет пихать в коллаб со стейбл дифьюжоном?
Вопрос по дообучению. Какую модель лучше брать в качестве базовой для обучения в DreamBooth на рисовку реальной тяночки-косплеера? Хочу иметь её маленькую няшную модельку, чтобы она делала для меня селфи :з
Пробовал AnalogDiffusion, результат прикольный, но немного не то. Селфи норм, фуллбоди - ну сам видишь, лицо как пчёлами покусано.
И да, насколько DreamBooth может "схватить" не только лицо тянки, но и фигуру? Или я с лицом вообще не по адресу, этим занимаются специализированные нейросетки?..
А тушу промптами я не хочу. Ощущения не те. Я хочу, чтобы нейросеть сама угадала, какой там тип фигуры. Она уже может или подождать следующего года? Три дня осталось
>>13928 на 1.5 полной, которая 7 гигов весит обучай, к фоткам лица добавь фотки по пояс и в полный рост но не так много, желательно не в мешковатой одежде, лучше с оголёнными плечами, ещё лучше в купальнике\бикини и будет тебе похожая фигура
>>13928 лица только на близком расстоянии хорошо просчитываются, если фуллбоди фото то они всираются, выделяй лицо в инпейнте и дорендеривай ещё раз с тем же промптом. только галочку inpaint at full resolution поставь и уменьши денойз до 0.65 примерно
Просто новость понравилась, перепощиваю сюда. >В нейросети Midjourney сгенерировали картинки по запросу «Star Wars в царской России». На получившихся изображениях можно увидеть Йоду в образе летописца, штурмовиков в золотых доспехах и Хана Соло с Чубаккой, который из вуки превратился в медведя.
Дегенераты, зачем срете в своем же треде? Для этого есть тред анимешников, все уродливое - туда. И овцы сыты, и волки целы. Сами же поорете с их реакции. И нахуя вы безруким кумерам раздеваете баб, они за это бабки платят в другом треде, а сами даже колаб запускать не хотят.
Я устанавливал stable diffusion как в видео и появилос <error> там вроде написанно, что нужно что то написать, но я не знаю куда. можете помочь, не знаю что делать дальше. https://www.youtube.com/watch?v=P8or0hg8tW4
>>15872 Чел, ты системные требования вообще читал, перед тем, как устанавливать? Минимально нужна дискретка NVIDIA с 4GB VRAM. Тебе путь только в гугловские колабы.
Кто-то использует Dreambooth для тренировки моделей? Нужна помощь.
В конце процесса тренировки при создании модели выдает ошибку:
Exception while training: CUDA out of memory. Tried to allocate 1024.00 MiB (GPU 0; 12.00 GiB total capacity; 8.71 GiB already allocated; 0 bytes free; 10.84 GiB reserved in total by PyTorch) If reserved memory is >> allocated memory try setting max_split_size_mb to avoid fragmentation. See documentation for Memory Management and PYTORCH_CUDA_ALLOC_CONF Allocated: 7.2GB Reserved: 10.8GB
Variable._execution_engine.run_backward( # Calls into the C++ engine to run the backward pass RuntimeError: CUDA out of memory. Tried to allocate 1024.00 MiB (GPU 0; 12.00 GiB total capacity; 8.71 GiB already allocated; 0 bytes free; 10.84 GiB reserved in total by PyTorch) If reserved memory is >> allocated memory try setting max_split_size_mb to avoid fragmentation. See documentation for Memory Management and PYTORCH_CUDA_ALLOC_CONF
>>17266 попробовал: открываю страницу, проматываю вниз буквально на 2см и страница зависает, и ничего уже не сделаешь. пиздец у меня мощный ноут, до этого я и не знал насколько он слабый
Анальники Знающие анончики помогите. В "таблице" установки СтейблДифьюжн было написано в конце "для продолжения нажмите любую клавишу" я нажал и она "таблица" исчезла. Дальше что?
>>21334 А разве мясной художник может такое нарисовать? Ты вообще в курсе, что все стереокартинки создаются специальными программами? Никто не заморачивался делать для этого отдельную нейронку, потому что это можно сделать и без них, но ничего не мешает сгенерировать отдельно паттерн и фон, обрезать лишнее по карте глубин из MiDaS в SDv2 и создать на их основании стереокартинку в любой из существующих программ.
Пробовал обучить модель в Dreambooth на изображениях конкретном автомобиле. Обучить то получилось, но теперь кроме тачек на фоне пейзажей мне ничего не рисует, даже не применяет промты художественных оформлений типа киберпунк и т.д.
Так и должно быть? В качестве Source Checkpoint использовал knollingcase.
>>21558 Если нужно как в твоем примере получить объемную фигурку на абстрактном фоне – то принципиальный пайплайн я описал, его вполне можно автоматизировать, если с этим заморочиться. Если же нужно получить 2 картинки рядом для стереопары – то даже голая SD это умеет из коробки, хотя и немного всрато. Просто дописываешь в промпт stereogram и крутишь гачу. Если дообучить модель на примерах стереопар, результат должен быть получше.
>>21709 > Так и должно быть? Нет. Поздравляю, ты на своем опыте познал, что такое переобучение. Сохраняй промежуточные чекпоинты и проверяй результат на них, от недо- до переобучения иногда разница всего несколько сот шагов, в зависимости от данных.
> В качестве Source Checkpoint использовал knollingcase. Не все модели и миксы одинаково хорошо подходят для дальнейшего обучения. Чем проще исходная модель в том плане, что в нее меньше намешано и дообучено, тем она в целом гибче для обучения новым концептам. Поэтому обучают обычно на стандартной SD 1.5 и затем подмешивают результат к нужной модели через разницу: A – целевая модель B – дообученная модель C – базовая модель, на которой обучал.
Но все равно это только общие эвристики, реально в каждом конкретном случае это можно проверить только на практике.
>>21767 Целевая модель – так, в которую ты хочешь добавить свой новый концепт.
Если ты хочешь добавить машинки в кнолли, то обучаешь на них SD 1.5 и тогда будет так: A – кнолли B – твоя дообученная модель C – SD 1.5.
Важно, чтоб при вычитании у моделей A и B была одна базовая модель C полностью или хотя бы частично. Для кнолли это выполняется, потому что ее учили на основе SD 1.5
>>21778 Благодарю. Часто бываешь в треде? Задонатил бы за консультации. Есть еще много вопросов, которые хотел бы обсудить, но после нг тяжело формулировать вопросы и приводить примеры.
Если не против, то связался бы в тг. С другой стороны, если заходишь сюда хортя бы изредка, то другие тоже могут почитать ответы.
Боиз, вот есть скрин, тупо стена и текст, и нужно удалить текст. Как вписать в промт? Если тупо вписать промт "Delete text", он тупо delete пишет на стене(
>>976 >последняя не порезанная версия = 1.5, всё что выше мусор.
Долбоебы, вы хоть бы комментарии от разрабов почитали. Они 2 и выше тренировали на другом датасете, где нсфв уже похерены были, и они сами сказали что это не нарочно и предложили варианты временных решений (тебе файнтюнинг дали, хули ебало скрючил?), а в будущих версиях они это исправят, но сейчас будет так.
Подскажите, а есть репозиторий с эмбендингами , желательно персонажей и целебритиз. На чивитаи 1.5 штуки на хаггинге нет совсем, гугление ничего не даёт. На местном хосте с моделями в моделях одно онеме :(((
При этом куча Аiart ов с Уотсон Джоли и другими... Где-то же они значит есть...
>>23410 еблан, нахуй мне шарить за лор разрабов, если >последняя не порезанная версия = 1.5, всё что выше мусор. это правда, а как это получилось мне похуй.
>>23758 Кривовато. А вообще я хотел это узнать, чтобы понять, можно ли с помощью нейронки делать арты типа пикрил, стилизация какого-то рисунка в виде орнамента.
>>23784 >Кривовато. А вообще я хотел это узнать, чтобы понять, можно ли с помощью нейронки делать арты типа пикрил, стилизация какого-то рисунка в виде орнамента. Я просто на говне сгенерил особо не заморачиваясь. Как видишь симметри он понимает - значит можно. Если ты тупой, то ты конечно не догадаешься кинуть в корел и автотрейсинг сделать, поправив как надо половинку, а потом отзеркалить. Уж про обучение в дримбудке не говорю, там аж пять кнопок надо нажать.
>>21733 >Чем проще исходная модель в том плане, что в нее меньше намешано и дообучено, тем она в целом гибче для обучения новым концептам. Поэтому обучают обычно на стандартной SD 1.5 и затем подмешивают результат к нужной модели через разницу: А вызывающее слово при этом теряется?
>>72 (OP) >можно зарегаться на фейкопочту и генерировать картинки. Каковы шансы, что меня забанят по айпи/подсети, если зарегаю новый аккаунт после растраты всех халявных кредитов? Эта хрень как наркотик, а компуптер не справляется с генерацией локально.
>>25453 >Мой счет фейкоакков ужа наверно перевалили за 1000 О! А там получаются годные арты с высоким уровнем детализации и т.п.? А то сравниваю свои потуги с артами, которые аноны тут выкладывают, и сомневаюсь, что там можно что-то качественное сделать. Некоторые идеи более-менее сработали, но качество очень низкое и при попытке улучшить результат (разными способами) получается что-то совсем другое (зерно фиксированное; значение всех настроек я уже понял). Хотя некоторые зависимости прослеживаются...
>>25506 Да все сидят и крутят рулетку, на 50 всратых генераций выходит одна годная пикча, её и выкладывают. А насчет высокой детализации врядли, все таки она обучалась на 512х512 и никаких хайрезфиксов там нет.
>>26435 >>26462 вот тебе промт на красивое. увиличивай разрешение до максимума. пик1
indescribable monster Lovecraft, megalophobia, hyperditailed, red clouds, very detailed and intricate environment, by jeremy lipkin and michael garmash, hq, 8k Steps: 40, Sampler: DDIM, CFG scale: 16, Seed: 3881960486, Size: 1600x896, Model hash: a9263745, Denoising strength: 0.4, ENSD: 31337, First pass size: 640x320
если анимэ так понравелось - пиздуй в манямэ тред.
>>26119 Вот с analog diffusion, первая с меньшим количеством "detailed" и без !!, вторая как раньше, ты был прав, на высоком разрешении чувствительность к промту усиливается. Кстати ты не знаешь когда analog/hassan/f222 обновятся до sd 2.1, я пытался загрузить их с 2.1 но там ошибки mismatch size, работают только с 1.5
>>26494 > analog/hassan/f222 Хз. Я нихуя, кроме f222 из этого не использовал, и то пару месяцев назад. Сейчас только от нехуй делать залезаю иногда, но на 2.1 и пытаюсь промпт освоить. Фотки получаются нормально, без хайрез фикса и фейс рестора, в оличие от 1.5.
>>26462 >>26482 После такого "NSFW" дрочить вообще не хочется. Разработчикам SD нужно взять это на заметку и вместо цензуры обучить нейронку генерить такую мерзость - чтобы у кумеров импотенция началась.
Поставил hassan на колаб, как раздевать девок так и не понял. ну загружаю я фотку бывшей одноклассницы в img2img прописываю "naked skinny young blonde girl in full growth" и результат такой же только со смазанным еблом.. ну ок думаю я, захожу во вкладку Inpaint и рисую черной маской по одежде, запускаю.. и результата вообще нет никакого. что я делю не так?
>>27112 >242.1 УК РФ Т-тврищ майор, а у ейнего тврища дамочка >>27109 >in full growth Энто в переводе с вражеского значится "в таком-то зрелом возрасте", то бишь совершеннолетняя!
>>27109 >результат такой же только Попробуй уменьшить влияние загруженной картинки. Чем больше влияние загруженной картинки, тем результат будет ближе к ней, вплоть до почти точной копии.
>>2046 Сделал тест бесплатных апскейлеров на основе твоих пикч. Название файлов: 1 Название софта. (Upscayl и Video2x) 2 Название настройки. (REMACRI, RealSR и т.д.)
Вы уже слышали хуйню, что ИИ арт не может быть закопирайчен из за того, что Peta судилась с чуваком, который сфоткал обезьяну? Хуйдужники уже ссут в штаны от радости. Что думаете по этому поводу?
>>29563 Нихуя не понял какая макака, я все через Бугро хуярю, а он уже помер давна, пошли они все нахуй, как вообще кто-то может доказать что я нейросеткой картинку сделал, а если я в фотошопе её обмазал, сделал колаж из таких картинок и шума нахуярил сверху, что они делать будут? Или по картинке модельку слеплю в зибраше, это уже вообще другая работа считай.
Сап, двач. Столкнулся с такой проблемой, что с моделью Anything V3 почти всегда багается генерация пальцев, а иногда еще и колени или пропадают ноги. Не знаю, что с этим делать, тк мало в чем разбираюсь в этом плане, а большую часть работы делаю по гайдам. Использовал вот такие промпты и настройки, а также примеры прикреплены ниже. Еще далеко не всегда правильно делались крылья, но полных промптов по персонажу у меня не сохранилось. Я понимаю, что проблемы рук и пальцев есть у многих, но если такой вопрос уже задавался, то скиньте ссылку на овтет
Стабильно диффундируем с августа 2022
========================
Предыдущий тонет тут: >>276944551
Архивач https://arhivach.ng/?tags=13839
Поиск прошлых тредов: https://rebrand.ly/arhivach_SD
========================
StableDiffusion - открытая нейросеть генеративного искусства для создания картинок из текста/исходных картинок, обучения на своих изображениях.
Официальный сайт (SFW): https://beta.dreamstudio.ai/dream - можно зарегаться на фейкопочту и генерировать картинки.
✏️ Как пользоваться сайтом: https://teletype.in/@stablediffusion/dreamstudio
Альтернатива: https://dezgo.com/ NSFW, без регистрации, мало настроек, скорость зависит от очереди.
Вариант: https://replicate.com/stability-ai/stable-diffusion SFW, быстрая генерация, использовать на вкладке Инкогнито для сброса куков с кол-вом бесплатных генераций.
https://mage.space/ - NSFW, мало настроек, больше настроек после регестрации, без ограничений
https://hf.space/embed/stabilityai/stable-diffusion/+ - SFW, настроек нет, чисто попробовать, без регистрации
🔞 Без цензуры и полный функци_анал: только Colab и ПК-версия
==========================================
🎨 ГАЙД ПО СОСТАВЛЕНИЮ ЗАПРОСА, ВСЕ ХУДОЖНИКИ И СТИЛИ 📃
https://teletype.in/@stablediffusion/artists_for_prompts
==========================================
📊 ПАРАМЕТРЫ И НАСТРОЙКИ ГЕНЕРАЦИИ 👇
https://teletype.in/@stablediffusion/samplers_steps
==========================================
ℹ️ ДОПОЛНИТЕЛЬНЫЕ ИНСТРУМЕНТЫ И ПОЛЕЗНАЯ ИНФОРМАЦИЯ 🛠
https://teletype.in/@stablediffusion/util_for_SD
==========================================
♾️ GoogleColab со StableDiffusion 👇
https://teletype.in/@stablediffusion/Colab_StableDiffusion
Если нет возможности или желания установить нейросеть на свой ПК.
Colab - это виртуальный бесплатный сервер с видеокартой от Гугла.
===========================================
🖥УСТАНОВКА НА ПК💻
https://teletype.in/@stablediffusion/PC_install_SD
------------------------------------------
📚 РАЗЛИЧНЫЕ МОДЕЛИ 👇
https://teletype.in/@stablediffusion/models_for_SD
------------------------------------------
🧠 ОБУЧЕНИЕ ПО СВОИМ КАРТИНКАМ 👇
https://teletype.in/@stablediffusion/dreambooth_textual-inversion
-------------------------------------------
Шаблон шапки ОП-поста для перекатов: https://pst.klgrth.io/paste/zn5qh