24 декабря Архивач восстановлен после серьёзной аварии. К сожалению, значительная часть сохранённых изображений и видео была потеряна. Подробности случившегося. Мы призываем всех неравнодушных помочь нам с восстановлением утраченного контента!
NovelAI & WaifuDiffusion тред №5 Генерируем тяночек (и не только)! Прошлый тред: >>4965 (OP) ht
есть какой-нибудь нормальный гайд по обучению эмбеддингов, чтобы прям всё разжёвано было? а то у меня с одной тян збс рендеры выходят, с другой никак лицо похожим не становится
Ух бля как настоящий рисунок, руки спрятаны за спиной, наиприятнейшая композиция, может ещё добавить проёбаные тени что бы вообще невозможно было отличить
>>6049 > coherent на английском, не знаю нормальный перевод на русский А нормального перевода и нет, это официально используемый термин во всех отраслях https://ru.wikipedia.org/wiki/Когерентность
>>6072 Да надо бы, я только пару колабов перебирал для этого, но до сих пор определиться не могу с оптимальными параметрами. Да и авторы колабов меняют правила на ходу.
>>6112 На персону - так чтобы по плечи было видно как минимум, желательно ничего на башке типа шляп и заколок, чтобы лицо не было закрыто болосами, немного ракурсов, 512х512 размер и фоток 30 будет за глаза, желательно чтобы на фоне ничего не мельтешило.
Стиль смотря какой либо стиль рисования типа мазков кистью или чёрно-белая абстракция, либо стиль рисования персонажей, в первом варианте пикчи что собственно передают стиль, во втором как с треней персоны в принципе.
Настройки разные, последние разы тренил так 200 шагов на 1 пикчу. Текстуал энкодинг 25 - для стиля, 70 для персоны. Но я говорю авторы меняют подход к этим параметрам сами, тобольше шагов советуют, то меньше хер поймёшь, но из личного опыта вот такие параметры годятся. Абсолютно уверен, что можно гораздо лучше, но пока сам до этого недопёр.
>>6125 1. Заходишь по ссылке "200+ моделей и их хэши". 2. Находишь нужную папку по пути, указанному на скрине >>5998 → 3. Нажимаешь на "chinaberry (nofix f222 1.4) part2.ckpt". 4. ??? 5. PROFIT! Если ты и после этого признаешь, что не можешь ее найти, потому что страдаешь от синдрома дефицита внимания, то так уж и быть, тогда скину тебе прямую ссылку.
>>6180 вот так через 10-20 лет мы все будем видеть окружающую реальность, под воздействием распыленного вещества. станислав лем, футурологический конгресс.
В бэ тред удалили с концами? Ну ладно. Такой вопрос - как вы делаете пикчи, что девки под разным ракурсом, а лицо всё равно одного персонажа? Это что делать надо?
>>6223 Забавно. Пару дней назад я задавал этот вопрос ровно этим же порядком слов. Кароч, надо сперва детально прописать лицо своей девушки, а потом менять только описание позы, а описание черт лица уже не трогать
>>6223 если в промте нет описания персонажа, то именно такого же ты не сгенеришь. Именно потому нужно всегда прописывать детали персонажа, а не уповать на рандом. Если детали прописаны, лочишь сид и делаешь небольшие правки в промте для нужной позы
>>5773 → О добрый и отзывчивый анон, а можешь подсказать, что надо прописать в настройках, чёб эти опции которые ты обвёл красным, появились у меня на странице быстрого доступа, как у тебя? А то у меня только Clip Skip там есть
МЕСЯЦ НЕ ЗАХОДИЛ НА ДВАЧ ЗАШЕЛ В /b/, СТАЛ ИСКАТЬ NOVELAI ТРЕД НИЧЕГО НЕ НАЙДЕНО РАССТРОИЛСЯ, ДУМАЛ ТЕМА ЗАГЛОХЛА КАК КОПРОДЕДОВСКИЕ ТРЕДЫ ОКАЗЫВАЕТСЯ ЗАПИЛИЛИ /AI/ ДОСКУ ХРАНИ АЛЛАХ АБУ
Итак, аноны, я вернулся со вторым конкурсом нейрохудожников. Общие правила конкурсов: 1. Изображение должно быть полностью сгенерированно и не отредактированно. Модели, гиперсети, промпты - используйте в любых количествах и вариациях. Насчёт апскейлов различных вопрос открыт. 2. Победитель выбирается так: Чем больше условий конкурса выполнено, тем лучше. Если у нескольких картинок выполнены все условия, то выбирается лучшая из них. 3. Награда: ничего. Если конкурс признают легитимным, то пусть картинка-победитель попадёт в шапку следующего треда. Сам конкурс призван проверить ваше мастерство На пикриле вы видите картинку-победителя прошлого (первого) конкурса, на которой спрятан скрытнопост под паролем "ai". Итак, условия картинки второго конкурса: 1. Девушка. Двуцветные волосы, неважно какие цвета, главное чтобы их было два. 2. Девушка на картинке стоит спиной или боком. Впереди девушки зеркало. Девушка и предметы окружения отражаются максимально точно. ДВУЦВЕТНЫЕ ВОЛОСЫ ОТРАЖЕНЫ В ЗЕРКАЛЕ ТАК, КАК БЫ ОНИ ОТРАЗИЛИСЬ В РЕАЛЬНОСТИ. 3. Богатое окружение. В окружении сложные элементы типо других картин. 4. Девушка взаимодействует с зеркалом. Не важно как, хоть рукой трогает. 5. Стиль свободный, но не закос под 3D.
Теперь сложнее да? Ну, если идея зайдёт, буду продолжать. Надеюсь вам будет интересно.
>>6421 В плагине мирроринг не шарю, а без него очевидно, что зеркало будет пососное. И наверняка тут большинство как я. Ну хз, можно и поковыряться, но как-то ты по дефолту отсек кучу народу с такими специфичными условиями.
>>6427 Ну а хуле ты хотел, выезжай на всём остальном. Да, я понимаю что это сложно и будут нарушители этого правила, но это заметно будет. >>6431 Ну так а как иначе? Тут уж выезжай как хочешь, врядли кто-то ддругой шарит. Да есть и другие условия, можешь на них выехать
Если у меня никак не получается смерджить модели, что бы обе работали нормально, может имеет смысл попробовать обе эти модели ещё пообучать, что бы при мерже они имели больше весу?
Кажется пришло время заводить мульти аки для колаба. У меня уже есть впн клиент, посоветуйте браузер, чтоб ставить на него сменятель юзер агента, тогда гугл не сможет меня задетектить и я буду юзать этот браузер чисто под нейронко нужды.
Попробовал помиксить модели натрененные под огромную грудь и что-то нифига не выходит. Через Weighted sum получается "что-то среднее", причем надо от сисечной модели немало влить - где-то не меньше половины. А это сильно вредит той, в которую вливаешь. Через Add difference по той же схеме как остальные миксы делаются - вообще получается поломанная модель, которая разноцветный шум рисует. Реально ли вообще замиксить модели, чтобы исходная только приобрела что-то он той которую вливают?
ДАААА СУКА!!!! ДАААА!!!! Я СМОГ ЭТО ПОВТОРИТЬ!!!! НЕСКОЛЬКО ЧАСОВ ЖИЗНИ ОКУПИЛИСЬ!!! Итак, никто из нас не понимал, как вот этот анон >>5866 → умудряется рендерить в таком стиле картины, мы точь-в-точь повторяли его действия и нихуя не выходило. Потом он допустил предположение, что возможно это из-за того что у него запущен "XFormers", это такой ускоритель для рендера, который более равномерно нагружает видеокарту, у некоторых в полтора раза увеличивается производительность. Ну я и решил ухватиться за эту последнюю соломинку, и всё именно так и оказалось, лол! От работы XFormers реально зависит не только скорость рендера, но и блять его результат! Охуеть да? Поэтому используйте с умом.
Вот подробная инструкция, как установить XFormers проще всего, ибо раньше с его установкой приходилось ебаца очень долго, но теперь есть новое решение: https://www.youtube.com/watch?v=ZVqalCax6MA
>>6492 Хули ты трясешься. Я уже 3 месяца активно сижу на трех аккаунтах и без всяких напрягов переключаюсь. Иногда сижу одновременно с двух в нескольких вкладках.
>>6519 >ебаца очень долго, но теперь есть новое решение: Что ты несешь блять? Ещё три месяца назад было достаточно вписать --xformers в параметры запуска и оно само скачивало готовые бинарники.
>>6517 > поломанная модель, которая разноцветный шум рисует Также было, когда две вроде нормальные модели (не самопал) через разницу мержил. Тоже хотелось бы понять причину.
>>6542 Какие нахуй проги? >>6531 Из тулкита нужна только одна либа. И если у тебя python версии 3.10 и выше, то она уже была встроена в бинарник, который скачивается при первом запуске с ключом xformers.
>>6549 Разрабы WD несколько раз пустили жидкого по штанине и перенесли выпуск новой версии в бесконечность. А диски с базами проклевал петух/съела собака/сжевала коза, но вот-вот всё будет, бля будем, надо только подождать.
>>6560 Лол, ты думал так просто их теперь выпилить? Так ключ в систему вшивается. Только писать жалостливое письмо Автоматику, чтобы он персональный патч скинул. Иначе теперь жить с хформерами. А нечего было всякую чушь смотреть на ютубе. Еще бы из тиктока советам верили
>>6552 >>6551 Я надеюсь это не те же люди, которые деньги собирали на файнтюнинг sd2.0. Кстати, а по sd2 кастомные модели уже появились? В sdupdates3 даже по этой части ничего нет.
>>6519 Не расстраивайся, анончик. Теперь у тебя имеются знания и опыт о том, как собирать библиотеки из исходников, и как собирать xformers в частности.
>>6529 Напомнило одного анона из треда, который где-то месяц назад интересовался подобными техническими вопросами и скидывал фото своего ПК, в том числе разобранного.
>>6591 >cp39 Потому что нужен был python версии 3.10. Под 3.9 не было нормальных бинариков. И об этом было прямо сказано на странице с описанием memory efficient attention
>>6614 У меня рабочий день это как раз пердолинг и собрать либу с гита это раз плюнуть. Была проблема только с тем что нативный сдк в студии не стоял, поставил пару галок и собралось
>>6695 > где вы ищите эти модели Известно где – на том самом, загнивающем. Здесь аноны сами отличные модели делают, но всё же движуха на фоче в несколько раз больше.
>>6726 Слева вверху есть поле поиска, вводишь нужное слово и смотришь результат, благо, треды здесь пока что не тонут. В прошлых тредах ссылку кидали. Если здесь нет – есть архивач. Используй более широкий набор действий для успеха.
>>6679 >>6733 ну это мертвый номер, на форче можно бесконечно листать треды, пока найдешь эту фигню. Только если кто-то скинет(вроде этого анона) на файлообменник любой. С нас как обычно, но спасибо скажем
>>6687 Одно "но" - weighted sum берет часть от одной, часть от другой. Долю сам задаешь. В это случае - 65% от модели под фотореализм и 35% от аниме-стилистики. Ну, оно по картинке и видно в принципе. Тупо "склеить вместе" две модели чтобы унаследовать преимущества обоих - вроде как нельзя.
Nudebody nude nude girl и иже с ними пробовал. На малых скейлах переодевает, на высоких в отмеченную область корячит голую телку без привязки к донорской фотке.
Тут скидывали как-то рецепт микса на элизиуме: "you need these four models elysium anime v2, f222, sd1,5, and easter e9 first half Elysium, f222, sd1.5 add difference (second checkbox) at 1 take that finished model then do another merge model part 1, with easter e9, weighted sum at .25" Первое то еще понятно - это для реалистичных тел, но разве не лучше будет заменить Ф222 тем же хасаном? Пункт второй тоже хотелось бы подробностей в чем его фича - easter e9 по виду какая-то унылая моделька с недофуррями кривыми.
>>6806 Ну если ради чего то конкретного мешать то можно улучшить результат, я вот потел когда пытался сделать более похожей шинобу на себя когда ещё с nai бегали
>>6762 Ясно, спасибо за пояснение. Но там ведь ещё есть место под третью модель, то есть (А), (B), (C). Если Multiplier установить на 0.3, то получится, что от второй и третьей модели будет взято по 30%? Таким образом получится модель, где 40% от (А), 30% от (B) и 30% (C)?
>>6835 add differences по факту складывает модель а с моделью б через модель с таким образом что модель б заменяет модель с в модели а, но модель с должна присутсвовать в модели а и в модели б, то есть например я хочу добавить 222 в any, для этого я добавлю 0.05 sd 1.4 к any через weighet sum, и потом add differences к any через sd1.4. Почему это возможно? Потому что 222 натренирована на sd и пофакту в 222 есть sd1.4 и в any мы добавили sd1.4, теперь мы заменяем все значения из sd1.4 весами из 222 полностью если поставим множитель 1 Да я хуёво объясняю
>>6847 Бля а нахуй в него wd добавлять он же нереально хуёвый, а ещё sd1.4 и sd1.5 и несколько версий nai, неужели он настолько ахуеным становиться от таких манипуляций
>>6854 Потому что часть других моделей обучалась на 1.4, а часть на 1.5, и чтоб правильно добавить к другим их "эссенцию" , нужно вычесть из них их основу.
>>6851 Джва месяца назад я знал про нейросети, что они есть. Спасибо. Вроде можно не делать картинки "на показ", и генерить уже тоже не надо, нагенерено впрок гигабайты, а какая-то зависимость тащит вместо того, чтобы развиваться или хотя бы смотреть мф
>>6859 Анон, на самом деле здорово объяснил, я вот раньше не понимал зачем первым этапом в берри добавляли фикс. Если все действительно так, то я стал чуточку лучше понимать всю эту алхимию. До прочтения дифф понимал примерно как к A добавить из B, убрав из B C.
>>6866 Самое смешное, что да, даже всратые модели при правильном добавлении их щепотки к другим могут внезапно улучшить итоговый результат. Видимо, в них есть какие-то полезные в другом контексте концепции, которые в чистом виде затмеваются их более заметными недостатками, но если эти недостатки чем-то перекрыть, то проявляется некая скрытая до того годнота. Это как Dragan Bibin, который в оригинале делает мрачняк и хоррор, при добавлении к другим стилям улучшает четкость прорисовки деталей у тяночек. Но заранее это предсказать невозможно, нужно только экспериментировать на практике.
>>6867 Большинство моделей, кажется, самостоятельные, но многие из этих я не знаю Еще возможно, не всегда пишут, что модель основана на чем-то, а это нехилый буст в обучении. Если можно отнять "эссенцию", то лучше отнять, конечно, чем миксить 100 раз одно и то же
>>6892 да нифига, я уже перезапустил, не видит он эту залупу >>6881 обновить...? как? перекачать заново типо всю эту фигню, или вы о чем, я в танке в средней полосе россии
>>6909 Сохрани только сначала копию рабочей папки со всеми настройками. Потому что разрабы автоматика живут молодостью и хардкором, и ебут все рекомендации по созданию стабильных релизов в рот, поэтому хуярят все коммиты без проверки прямо в мастер. Из которого их потом пулят себе все пользователи, со всеми свежими багами и несовместимостями.
>>6914 >поэтому хуярят все коммиты без проверки прямо в мастер Вообще большую часть проверяют. Коммиты с опечатками, которые не вылияют на код даже не всегда пропускают в мастер
Анонята милые, многие наверно сталкивались с такой проблемой, качаешь модель которая выглядит на чужих скринах охуенно, а у тебя она делает тусклые картины, не насыщенные цветами и светом. Бледноватые, либо будто с дымкой. Кто знает, есть ли настройки которые это фиксят?
Я "обновляю" проще - старый переименовываю и заново пуллю новый, закидываю ему модели и прочее, засейвленные промпты и запускаю. Лучше подождать пока он там все свежее скачает, чем долбиться в питоноконсоль. Если ничего не сломалось - сношу старый.
>>6932 >>6935 ПЛя зазавхъаъхва точно, сразу всё красками заиграло. Спасибо! А то каждый раз разочаровывался в моделях. Хотя понимал, что где-то мой косяк. Чмокаю вас
>>6909 >>6921 >>6924 ахуеть, ниче не понял, легче перекачать видимо единственное, о чем подозреваю, что это команды, но куда что зачем когда вставлять\писать, для меня вообще не очевидно
>>6923 > подредактировать временами хочется Как же я на этой замучился и с руками, и с ногами. Но слишком удачная была поза во всём остальном, в все вариации или малейшие изменения промта начинали выдавать другую
>>6952 Кстати, как ты всратые руки/ноги редактируешь? У меня временами с инпеинтом за сотни картинок ничего путного не роллится. В какой-то момент начал подставлять удачные руки/ноги от других генераций, подкрашивать в нужный тон и склеивать в имг-2имг. Есть какие-то более адекватные решения?
>>6985 cute teenage girl dressed like superhero, wearing latex suite, cape, masterpiece, realistic, (flat chest:1.4), (small breasts:1.4), narrow waist, slim body, focus on face details, dynamic pose, detailed face and eyes, mole, floating hair, floating cape, thigh boots, thighs, cityscape, blurry background, full body, from above, by Adriaen van der Werff, by Steve Henderson Что-то такое.
Да заебали вы, видит он сейвтензорс файлы даже не самый-самый новый. Обновите список кнопкой или перезапустите. У меня вон даже нету поля для выноса быстрых настроек на главную страницу, но этот формат видит.
>>6971 > подставлять удачные руки/ноги от других генераций, подкрашивать в нужный тон и склеивать в имг-2имг Вот ето вот.
>есть какие-то более адекватные решения? Тоже хотелось бы узнать.
Ещё меняю комбинации скейлер/сэмплер, иногда лучше можно получить, потом эти части вырезаю. Ну и в самом шопе нейрохирургия регулярная вроде: отрезал лишние, заштампил корявости, скопировал палец с правой на левую, пластикой уменьшил ступню до нормальной и ей же исправил форму. В печальных случая буквально рисуешь тонкой кистью контуры
Спасибо, что есть i2i, который позволяет всё это непотребство потом "собрать" обратно в нечто походящее на человека.
Если что, то в webui-user.bat можно прописать параметр Git pull и он сам будет лезть за обновлениями при каждом запуске. Держу в курсе. Если на ваших некроговнах что-то из-за этого отвалится - вопросы не ко мне
>>6999 Ты хотя бы в шопе, а не в пеинте. Никак руки не дойдут фотошоп скачать, под новый год завалило работой. Но на нейронные картинки время находится, да. Скидывал тут недавно картинки одной знакомой рисоваке, которая в целом лояльна к нейронным поделиям, но говорит, что человек, задавший данные для генерации, не имеет особых заслуг и даже права собственности на сгенерированный арт. Ещё говорит, что нейронные картинки приелись, и я в чём-то склонен согласиться: ажиотаж понемногу угасает, а новое и революционное не спешит в этой сфере появляться.
>>6971 > Есть какие-то более адекватные решения? Забыл, есть же! Не сохранять всратые, удалять безжалостно, несмотря на отличную позу, лицо, выражение что я не могу научиться делать
>>7018 from behind, ass focus - для начала bent over - чтобы нагнувшись all fours - на четвереньках from below - снизу чтобы смотрелось Но поза в целом сложная. Будет получаться не стабильно
>>7017 > человек, задавший данные для генерации, не имеет особых заслуг и даже права собственности на сгенерированный арт Как же этой рисоваке абсолютно не горит
>>7018 Ass/pussy focus, view from behind/from below, cameltoe, partially visible vulva, looking back ну и по вкусу на трусы и колготки можешь добавить тегов, какие нравятся.
>>7030 Она сама из мира технологий, так что не думаю, что горит. Просто она респектует создателям нейронки и признаёт их заслуги, а вот нас, нейромантов, за творцов не считает.
>>7061 Теги на качество стандартные, можешь по вкусу накидывать рисовак и стилей. Основа вот: eveil scary scarecrow, no eyes, sharp teeth, covered in blood, night, horror, nightmare, surreal
>>7071 Фрекл промпт попробуй: realistic photo, 11 year old girl, freckles, detailed face and eyes, detailed face+eyes, cute (опционально) ну и всякие такие вещи
>>6421 Кароче пытаться генерировать чистый txt2img по критериям это наркомания какая-то. Создаешь промпт и генеришь сотнями картинки, в ожидании пока зарандомит правильные волосы, пока зарандомит зеркало и более менее вменяемое отражение, пока зарандомит хоть какое-то окружение. По сути никакого копания в промптах нет, на детали, так как txt2img не может в такие детали и итог просто ожидание что зарандомит. В итоге это лучшее из того что получилось. Думаю если поставить часика на 2-3 генериться картинки то просто из кучи ещё что-то более толковое вышло бы.
>>7100 Не думаю что оно научится скоро делать нормальные отражения. Для этого надо понимать 3D пространство и перспективу. А сейчас только в ФШ шаблон малевать и в I2I
>>7002 пиздец говнище, до этого все стабильно работало, после обновления за 1 вечер 5 раз зависала вся система, 1 раз браузер приказал долго жить. Хорошо что бекап сделал, ну и хуитень...
Анон, какие модели хороши для дипфейков? Обучил я на реальном лице человека. Сейчас хочу с этим лицом погенерить. Но пока модели все что находил - говно
>>6487 Я пытаюсь получить модель, которая будет уметь и в пушки и в Кино, по отдельности они работают нормально, при смешивании обе не работают, а мои странные выводы это моё тыкание пальцем в небо, если я не прав и ты знаешь как решить проблему, поделись.
>>6478 >>7236 >может имеет смысл попробовать обе эти модели ещё пообучать, что бы при мерже они имели больше весу? Логика в целом верная. Твоя обученная модель должна хороший результат на весе ~0.5 давать (или вообще без кейворда, оптимально чтоб она вообще срала калашами в любой непонятной ситуации и при этом без артефактов), тогда её можно вливать в другую с коефом 0.5-0.6. Желательно через разницу. Вообще сумма моделей 50/50 или близко к тому обычно дает срань.
а че там по оперативной памяти? как я понял, вкинув 100 в 1024х1024 пикч на 3060 я должен пролетать со свистом, думал на ночь поставить генерить, а тут мне выдало ошибку, что мало оперативной памяти(у меня 16).
>>7368 Ну хз, надо сетку пилить на 7, 12 и 20, тогда понятней будет. Не хочешь сделать? А то у меня жедезо слабовато, долго ковырять будет. Время бы ещё показывало....
Анонсы, запилите гайд, как вы в импейнте руки восстанавливаете. Оставляете промпт оригинальный, или модифицируете? Или вообще другой пишете? Какие настройки ставите? Или может вообще в другой программе делаете? В фотошопе может очертания рисуете? Заебало ебаться, будто бьюсь об стену, а толку ноль.
>>7439 >Мощней видюха - быстрее будет, логично ведь Это и так понятно >смысла видюху писать Тогда в его диаграмме был бы хоть какой-то смысл, а так его вообще нет лол
>>7443 Чому? Ты теперь знаешь какой семплер самый шустрый, соответственно меньше времени на гинерацию с приемлемым результатом. Понято что для мощьных не актуально.
>>7452 Ебать ты тип, ну спасибо большое, вот помог так помог! Скинул первую ссылку из гугла, даже не смотрел поди, там вообще нихуя полезного нет, какой-то щитпост. И, да, я гуглил, ничего дельного не нашел, потому и спросил.
>>7454 Хех, а ты думаешь это по другому делается? Можешь в ФШ попилить или так же поролить. Нет таблетки. Есть некоторые модели который чёта как то чуть чаще других нормально клешни отрисовывают, но это скорее исключение.
>>7455 Зачем вообще вызываться давать советы, если у тебя нет ответов на вопросы? Или ты уверен, что являешься экспертом в этой области и точно знаешь, что нет никаких действенных тактик, работающих последовательностей, наиболее эффективных инструментов, и рандомное нажатие на кнопки — единственный вариант? Я, пожалуй, подожду ответа того, кто лучше тебя разбирается в теме.
Почитал https://rentry.org/SD_upscale и начал разбираться с апскейлерами, понял, что все сложно и под каждую картинку нужно подбирать теги и пробовать. Первый пик — оригинал, второй — valar 0.28 denoise, третий — valar 0.1 denoise и с убранными тегами про персонажа, четвертый — ldsr 0.28 denoise, третий — ldsr 0.1 denoise и с убранными тегами про персонажа. Еще делал ESRGAN, там чет вообще шляпа, не буду постить даже. Ни один вариант мне не нравится, буду ковырять дальше.
>>7476 А что не нравится? Я бы под такую картинку смело денойс бы 0.35-0.4 бахал, промт не менял, ддим 60 и лдср/Валар.
Если лишние поди полезут, то сделать на валаре и денойсом 0.28 бэкап, и с него места взять, которые в первом варианте запортачились. Почему сразу не взять второй вариант? Первый покрасивее должен получиться
>>7480 > А что не нравится? Валар проебал текстуры на земле, ldsr если не уберать теги хочет всё в людей превратить, например траву по центру слева. Лицо тоже сильно меняется везде. Ну и ждать приходится не мало, даже на 4090. Чтобы просто посмотреть-порадоваться, хватает маленького разрешения, нейросеть в мозгу дорисует разрешение, а чтобы уже на обои поставить, так это нужна реально красивая картинка, плюс ебля в фотошопе желательно, для меня это того не стоит, я пока не нагенерил ничего, чтобы для меня стоило затраченных усилий.
> я бы под такую картинку смело денойс бы 0.35-0.4 бахал, промт не менял, ддим 60 и лдср/Валар.
Первый пик — прогон DDIM, 60 шагов и ldsr, второй — прогон результата с DDIM, 60 шагов и valar. Даже не знаю, хорошо это или плохо, но это уже совсем другая картинка, лол. Ну и люди полезли везде, да.
>>7504 да почти то же самое, просто быстрее запускается. удобно, когда нужно апскейл сделать по-быстрому, а не ждать запуска SD. gui свой вместо браузера + модели различные подкидывать тоже можно.
>>7505 Ну, на второй картинке там в платье больоше деталей, чем в третьей, так что хз. А с семплерами я пока не разобрался, часто на дефолтном euler a генерю, видел всякие сравнения, не разобрался, что лучше, просто разные результаты.
>>7496 Это же просто оболочка к обычному старому есргану. Обновлялась в 2021 году. В автоматике аналогичное в Экстра, только ещё и выбирать можно алгоритм
Попробовал картинку в другом стиле апскейльнуть, тут вообще все максимально хуево вышло. Первая ориг, вторая valar DPM++ 2M Karras 0.4 denose 60 steps, третья valar DPM++ 2M Karras 0.28 denose 60 steps
Аноны, хочу чтоб эта фигня за меня рисовала, скачал я плагин dreambooth, загрузил в папку свои рисунки, нажимаю чтоб пошла тренировка, а оно после пары секунд прекращается, что не так? Есть ли какой-то прям хороший гайд подробный
>>7508 Да, ты верно описываешь. Валар может больше даже детальности насыпать, но лдср может более "верно" как-то их добавить. На >>6787 Валар тоже платье делал узорнее, но лдср там гораздо лучше объем платья и область подмышек, извините передал. Но ещё раз - лдср не панацея, может прямо радикально не зайти в какой-нибудь картинке. Валар и быстрее, и более предсказуем
>>7509 всякие там валар, ремакри и т.д. тоже юзать можно, кидай дополнительные модели в папку и всё. автоматик у некоторых минутами запускается, быстрее здесь апскейлить
https://github.com/chaiNNer-org/chaiNNer более продвинутая хрень с нодами, не только в апскейл но и в улучшение лиц может, в том числе и в видео как я понял может кушать больше различных моделей
Проба номер N. Первая: ориг Вторая: ориг → ldsr ddim 0.4 denose 60 steps Третья: вторая → valar ddim 0.28 denose 60 steps Четвертая: вторая → ldsr ddim 0.28 denose 60 steps Времени, конечно, ldsr жрет побольше но еще больше заливаются картинки на двач, пора в jpg конвертить
>>7512 Running training Num examples = 39 Num batches each epoch = 39 Num Epochs = 125 Instantaneous batch size per device = 1 Total train batch size (w. parallel, distributed & accumulation) = 1 Gradient Accumulation steps = 1 Total optimization steps = 4875 Actual steps: 4875 Training settings: CPU: False Adam: False, Prec: no, Grad: True, TextTr: True EM: False, LR: 2e-06 LORA:False Allocated: 4.0GB Reserved: 4.1GB
Steps: 0%| | 0/4875 [00:00<?, ?it/s] Exception while training: CUDA out of memory. Tried to allocate 26.00 MiB (GPU 0; 12.00 GiB total capacity; 11.17 GiB already allocated; 0 bytes free; 11.29 GiB reserved in total by PyTorch) If reserved memory is >> allocated memory try setting max_split_size_mb to avoid fragmentation. See documentation for Memory Management and PYTORCH_CUDA_ALLOC_CONF Allocated: 11.2GB Reserved: 11.3GB
Traceback (most recent call last): File "C:\StableDiffusion\stable-diffusion-webui\extensions\sd_dreambooth_extension\dreambooth\train_dreambooth.py", line 1051, in main optimizer.step() File "C:\StableDiffusion\stable-diffusion-webui\venv\lib\site-packages\accelerate\optimizer.py", line 140, in step self.optimizer.step(closure) File "C:\StableDiffusion\stable-diffusion-webui\venv\lib\site-packages\torch\optim\lr_scheduler.py", line 65, in wrapper return wrapped(args, kwargs) File "C:\StableDiffusion\stable-diffusion-webui\venv\lib\site-packages\torch\optim\optimizer.py", line 113, in wrapper return func(args, kwargs) File "C:\StableDiffusion\stable-diffusion-webui\venv\lib\site-packages\torch\autograd\grad_mode.py", line 27, in decorate_context return func(args, *kwargs) File "C:\StableDiffusion\stable-diffusion-webui\venv\lib\site-packages\torch\optim\adamw.py", line 146, in step state['exp_avg'] = torch.zeros_like(p, memory_format=torch.preserve_format) RuntimeError: CUDA out of memory. Tried to allocate 26.00 MiB (GPU 0; 12.00 GiB total capacity; 11.17 GiB already allocated; 0 bytes free; 11.29 GiB reserved in total by PyTorch) If reserved memory is >> allocated memory try setting max_split_size_mb to avoid fragmentation. See documentation for Memory Management and PYTORCH_CUDA_ALLOC_CONF |===========================================================================| | PyTorch CUDA memory summary, device ID 0 | |---------------------------------------------------------------------------| | CUDA OOMs: 1 | cudaMalloc retries: 1 | |===========================================================================| | Metric | Cur Usage | Peak Usage | Tot Alloc | Tot Freed | |---------------------------------------------------------------------------| | Allocated memory | 11442 MB | 11442 MB | 61819 MB | 50376 MB | | from large pool | 11343 MB | 11343 MB | 61189 MB | 49845 MB | | from small pool | 99 MB | 99 MB | 630 MB | 531 MB | |---------------------------------------------------------------------------| | Active memory | 11442 MB | 11442 MB | 61819 MB | 50376 MB | | from large pool | 11343 MB | 11343 MB | 61189 MB | 49845 MB | | from small pool | 99 MB | 99 MB | 630 MB | 531 MB | |---------------------------------------------------------------------------| | GPU reserved memory | 11566 MB | 11566 MB | 13648 MB | 2082 MB | | from large pool | 11464 MB | 11464 MB | 13470 MB | 2006 MB | | from small pool | 102 MB | 102 MB | 178 MB | 76 MB | |---------------------------------------------------------------------------| | Non-releasable memory | 126050 KB | 663773 KB | 34648 MB | 34525 MB | | from large pool | 123280 KB | 652240 KB | 33947 MB | 33827 MB | | from small pool | 2770 KB | 15667 KB | 700 MB | 698 MB | |---------------------------------------------------------------------------| | Allocations | 2665 | 2665 | 8895 | 6230 | | from large pool | 865 | 865 | 3540 | 2675 | | from small pool | 1800 | 1800 | 5355 | 3555 | |---------------------------------------------------------------------------| | Active allocs | 2665 | 2665 | 8895 | 6230 | | from large pool | 865 | 865 | 3540 | 2675 | | from small pool | 1800 | 1800 | 5355 | 3555 | |---------------------------------------------------------------------------| | GPU reserved segments | 247 | 247 | 362 | 115 | | from large pool | 196 | 196 | 273 | 77 | | from small pool | 51 | 51 | 89 | 38 | |---------------------------------------------------------------------------| | Non-releasable allocs | 156 | 156 | 3499 | 3343 | | from large pool | 83 | 83 | 1850 | 1767 | | from small pool | 73 | 73 | 1649 | 1576 | |---------------------------------------------------------------------------| | Oversize allocations | 0 | 0 | 0 | 0 | |---------------------------------------------------------------------------| | Oversize GPU segments | 0 | 0 | 0 | 0 | |===========================================================================|
>>7559 Примеры бы посмотреть. Меня настолько выбесило описание выпиленного из СД2, что даже не качал. И интересно, эта модель вместо обычной модели или вместо модели апскейлера? Т.к. если вместо обычной модели, то нафиг не надо, у нас же там не стандартная СД загружена в 99%
>>7545 Спосебо! >>7560 > RuntimeError: CUDA out of memory. Tried to allocate 26.00 MiB (GPU 0; 12.00 GiB total capacity; 11.17 GiB already allocated Вот и ответ. xformers установлен? Вроде с ним меньше жрать будет.
>>7560 если это расширение dreambooth в вебгуи от автоматика то можно прописать --test-lora в батнике, и поставить галочку на LORA в настройках dreambooth. тогда и на 6 гб можно тренить, только насчёт качества хз
>>7572 На доске еще даже 2й страницы нет, куда он утонет. Мы тут еще месяц можем сидеть, если не больше. Но перекатывать стоит, чтобы проще было найти инфу, если помнишь тред. Хз, подождем ОПа, пусть он перекатывает, у него норм получается.
Кстати кто пробовал новые варианты в x/y гридах, думаю теперь для каждого варианта написать стиль и хуярить художников в более подходящем окружении для демонстрации стиля, но ещё не пробовал, может вообще не работает
>>6887 >Если можно отнять "эссенцию", то лучше отнять, конечно, чем миксить 100 раз одно и то же Чел, это база мерджа, если ты не отнимаешь уже имеющееся, то получается говно из жопы, а не микс
Уж всяко я упражнялся, даже в фотошопе че-то чистил, все равно куча косяков вылазит с апскейлом. Но инструмент сильный, просто надо предугадывать, где он может накосячить, и лучше сразу в исходнике править.
Хочу сфотканные мною пейзажи превратить в аниме. Что для этого лучше заюзать? Стоит ли морочиться с установкой на пк, или проще коллаб запустить? Видеокарта - 1660
>>7655 Возможно, а еще лучше быть хуложником и вручную править косяки. Пока так, криворукие/ленивые довольствуются малым и ждут прогресса в технологии. Думаю, через 5 лет никто и не вспомнит об этих косяках молодой технологии.
>>7676 > с другими настройками Какими? Через что ты вообще это делаешь и в чем смысл без промпта, деталей же не добавляется, с таким же успехом можно бикубической интерполяцией в фотошопе увеличивать.
Сделал элизимор-микс. Ну, такое себе пока впечатление - везде стремится сделать лицо кукольного пупса. Зато если делать микс не из элизиума-аниме, а из обычного, который типа под реал, то получается почему-то прямо реалистичная отрисовка одежды, но лица как говорится не модельные, но по своему милые в своей неидеальности
>>7678 > деталей же не добавляется, с таким же успехом можно бикубической интерполяцией в фотошопе увеличивать. Ну вот так-то точно деталей добавилось. Справа твой оригинал.
>>7727 Среднюю на апскейлере еще раз. Вроде лучше всего из всех, лицо не уебал, деталей добавил. Итого сначала на img2img до 1024 без апскейлера, потом еще раз апскейлером.
>>7708 >>7706 Рано или поздно, этот тред станет настолько большим, что в него придётся заходить по минуте, хотя тут остались вроде только аноны с производительными пекарнями. Где кстати посмотреть сколько вкладка памяти съедает?
orig vs ldsr vs valar. 0.1 denoise, иначе соски пропадали. Короче, не всегда большой денойз хорош, если исходник устраивает и нужно просто его апскейльнуть без новых деталей, можно спокойно ставить 0.1 и не париться. Буду так делать впредь чаще всего, думаю.
>>7759 Ты можешь объяснить, нахуя ты срешь в тред? Я пощу результаты апскейла с описанием, чтобы аноны, которым некогда проверять самим, могли сравнить разные движки. Все картинки релевантны треду. Ты же не добиваешься никакого увеличения качества, это же очевидно, что у тебя даже Stable Diffusion не запущен.
>>7783 > настройки SD написаны Тогда почему такое мыло? А я скажу. Потому что у тебя промпт пустой, либо не такой, как в оригинале, и твой денойз ничего не делает, потому что сеть не может сгенерировать ничего, включая уже существующие контуры. Сгенери свою пикчу любую, и гоняй её, тогда будет улучшение качества. А ты просто срешь бесполезным говном, ньюфаги попробуют повторить, взяв рандомную пикчу, и не будут понимать, почему нихрена не получается.
>>7798 Нет, это ты в глаза долбишься. Мне лень доказывать, попробуй в фотошопе открыть свои и мои апскейлы на разных слоях, попереключай их, и увидишь.
>>8007 А как он должен жить без притока новой крови? У тематики есть свои плюсы, но главный минус что ньюфагов мало, а когда основной актив расходится тред потихоньку умирает.
Автоматик опять сломал что-то за последние пару дней? Что за хуита? Рисует вообще не так как раньше, как будто другую модель взял. Или возможно мой пердолинг с кастомным шумом сломался. И когда WD 1.4?
Аноны, которыке активно генерирят и постят в пуксив/да/ас, вы потом смотрите поиском, тащат куда-нибудь твои арты? Видел уже местное творчество в мелко-пабликах, жожреакторе, кекабу, обложках миксов на ют.
>>8112 Собственно исследовать влияние фраз по типу 4k 8k и прочего очень сложно, ведь даже если слово в промпте не читается нейронкой как токен, оно всё равно смещает акценты в промпте и меняет генерации.
>>8118 Так они же пиздели что уже в ноябре было что-то крутое у них. А потом слились с отмазками, но обещали же на 2.0 выкатить. 1.35 я попробовал - пиздец полный.
>>8114 >>8120 Я так понимаю, нужно как можно более точно указывать, что ты хочешь, чтобы нейросеть пыталась сделать это красиво. А на общих тегах это использовать смысла вообще не имеет.
>>8146 В сущности, да, все эти мастерпис и делай заебись ничего не делают, нужно уточнять конкретно какие части картины детализировать, например лицо, в каких цветах и каким стилем художника рисовать.
>>8155 Тег реалистик фото точно работает, так же некоторые теги на освещение срабатывают. Но разбираться что в этой помойке работает, а что нет - пизец лениво, проще копипастить всё напохуй.
>>8127 Честно говоря, даже по посту, который разошелся, видно, какие они фантазеры. Там приводится cafe-instagram как пример того, что они сотворят с руками, но: 1) это не их модель; 2) кому надо - её и без умников из WD юзают; 3) модель уже не новая, а всё еще аналоговнет.
Генерируем тяночек (и не только)!
Прошлый тред: https://arhivach.ng/thread/854608/
----------------------------------
Руководство с нуля
https://ai-art-wiki.com/wiki/Stable_Diffusion/Absolute_beginners_guide/ru
https://wiki.diffai.xyz/free-tg-bots - Бесплатные телеграм боты
----------------------------------
УСТАНОВКА НА ПК
Для комфортной работы нужна видеокарта с как минимум 6Gb памяти.
https://ai-art-wiki.com/wiki/Stable_diffusion/install/ru
https://teletype.in/@stablediffusion/PC_install_SD
Оптимизация для слабых ПК. Обычно это приводит к потере детерминированности и качества.
https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Optimizations
https://rentry.org/voldy#-running-on-4gb-and-under-
----------------------------------
УСТАНОВКА В ОБЛАКЕ
Если у вас слабое железо, можно поднять нейронку на гугл коллабе. Google Colab - облако, выделяемое гуглом с мощными CPU и TPU. Можно юзать бесплатно несколько часов каждый день. Обойти ограничение можно, создав второй аккаунт.
https://ai-art-wiki.com/wiki/Stable_diffusion/cloud/ru
https://rentry.org/244wt - список колабов
----------------------------------
Аска тест (проверка работоспособности NAI):
>masterpiece, best quality, asuka langley sitting cross legged on a chair
Negative prompt:
>lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark, username, blurry, artist name
https://rentry.org/nai-speedrun#hello-asuka
----------------------------------
МОДЕЛИ И МИКСЫ:
Модель определяет стиль генерируемых картинок. Популярные модели, используемые в треде:
- Аниме: AntlersMix, Berrymix
- Хентай: Anonmix
- Реализм: HassanBlend
Подробнее о моделях: https://rentry.co/ng5wh
200+ моделей и их хэши https://static.nas1.gl.arkprojects.space/stable-diff/
----------------------------------
ОБУЧЕНИЕ
Существующую модель можно обучить симулировать определенный стиль или рисовать конкретного персонажа или объект.
Обучение своих эмбедингов/моделей - https://wiki.diffai.xyz/training-info
Если модель уже умеет рисовать что-то похожее: https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Textual-Inversion
Если она не умеет, или нужно делать это на нескольких моделях: https://rentry.org/hypernetwork4dumdums
Гайд по созданию своих моделей: https://github.com/nitrosocke/dreambooth-training-guide
Сборник гайдов и технических статей по теме: https://ai-art-wiki.com/wiki/Textual_inversion
----------------------------------
Репозитории:
https://github.com/AUTOMATIC1111/stable-diffusion-webui - пользовательский интерфейс от AUTOMATIC1111
----------------------------------
ПОЛЕЗНЫЕ ССЫЛКИ
https://wiki.diffai.xyz/FAQ - ЧаВо ДАННОГО ТРЕДА, ЕСЛИ ЕСТЬ ВОПРОС, ДЛЯ НАЧАЛА ЗАГЛЯНИ СЮДА
https://wiki.diffai.xyz/amd-users - у тебя AMD? Тебе сюда!
https://rentry.org/sdupdates2 - Вся информация о моделях, эмбедингах, промтах и т.д. (переодически обновляется)
https://rentry.org/SD_upscale - Про апскейлинг (aka как делать хайрезы без повторяющихся лиц и кроненбергов)
https://wiki.diffai.xyz/other-info - Остальные ссылки (апскейлеры, промпты, лица, одежда, позы, ракурсы и т.д.)
----------------------------------
Шаблон шапки для тредов: https://wiki.diffai.xyz/2ch-template