24 декабря Архивач восстановлен после серьёзной аварии. К сожалению, значительная часть сохранённых изображений и видео была потеряна. Подробности случившегося. Мы призываем всех неравнодушных помочь нам с восстановлением утраченного контента!
Как победить такую хрень? После установки https://github.com/adieyal/sd-dynamic-prompts при отключенной сетке запуск SD зависает на "Installing requirements for Web UI". Если подрубить сеть, то запускается без проблем.
>RReyes04 commented 2 days ago >This is related to Civitai, any model you downloaded today is corrupted and will not work. Let's hope they fix whatever is causing this. Your old models should work, or models downloaded from huggingface. Edit: I'm 90% sure of this.
>>197254 Там есть некоторые невнятные моменты, например, не очень ясно, как рассчитать количество повторов и эпох или связь этих параметров с количеством картинок в датасете. Но в целом неплохой автор, можно почитать.
>>197267 вообще без ничего. мне пиздец лень контролнеты и латнент каплы пробовать, хотя и нужно было бы. просто выставил ползунки как на пикче сверху, влупил батч каунт штук на 50 и сижу жду, пока они мне в папочку падают. процентов 80 получаются без явных дефектов.
>>197247 Сначала пилишь хайрезфикс через R-ESGRAN 4x с денойзом в ~0.35. в зависимости от важности деталей ставишь множитель от 2 до 3.5. можно ещё накинуть tiled vae, если памяти не хватает и если нужно прям много текстуры. А потом уже пихаешь в exstras и апскейлишь в Ultrasharp 4x или Latent.
Забавы ради сделал два запроса на русском. «охуенный» — это в основном что-то вкусное и русское «бургер» — что-то русское То есть где-то в датасетах русский язык вкидывали
>>197312 Сначала пустырь с двумя разными хайрезфиксами, из одного оставил чёткую траву, из другого более мягкие и неаккуратные горы. Совместил в фш, нарисовал маску в центре и прогнал в инпаинт тем же промптом, но с абберацией
>>197349 Так, у тебя нету чего-то в апскейле или в хайрезфиксе? Там это чуть-чуть разное. R-ESGRAN 4x должен быть по умолчанию, и довольно давно. Ultrasharp 4x скачивается, гайды есть на ютубах
Можно как-то поставить в очередь несколько разных промптов+настройки? Например я хочу 5 совсем разных штук сгенерить, каждая по 50 картинок и свалить по делам. Может есть плагин?
>>197202 (OP) Анончеки, дошли ли нейросеткило такого уровня чтобы апскейлить до реалистик стайла игровые текстурки? (Про нормалмапы и прочие карты молчу, но альбедо или дифуз было бы неплохо)
>>197474 Какой апскейлер тогда выбирать для реалистик рютекстурок? А и эт самое, видел как из картинки делали карту высот, а с текстурками такое можно будет? Просто это все занимает слишком много времени и сложно, а нейросетями можно ускорить процесс в разы, просто дорабатывая в остатке.
>>197488 Так а конкретно эти пики могут быть классифицированы как цопе? По мне так выглядят тянки молодо, но хуй их поймешь сколько. Тянка может так и в 20 выглядеть, если худая.
потестил модель на базе сд 2.1, да соски не рисует идеально, пальцы редко есть небольшие проблемы, но генерация 30 сек сразу в 768х1024, никаких дабл-ёбл, реакция на промт типа освещения, бэкграунда, эффектов гораздо лучше чем у топ 1.5 модели
>>197541 На данном этапе развития нейронок нельзя получить вменяемый результат. На всех фото будет разное тело, разный размер груди или разный пельмень. Окружение не повторить, если только не вписывать в существующий интерьер. Не будет повторяемости. С лицом тоже будут проблемы с повторяемостью, либо на оборот - будет одно и то же выражение. Причёска, одежда тоже будет с проблемами. Думай.
>>197541 я могу генерить такое, от реал фото не отличить, лицо всегда одно и тоже будет, любое выражение, почти любые позы, селфи т.д., но зачем мне ты в этой схеме?
>>197573 Можешь генерить что угодно, главное не выкладывать в тред офферы извращенцев-педофилов, которые предлагают купить у тебя цопе, которое ты выложил на зарубежных сайтах. Как бы, главное не кичиться тем, что ты генеришь цопе.
>>197579 Я не про тред и не про оферы и вообще я цопе как раз не хочу генерить. Я про галереи да и просто пикчи на девианарте, например. Чтоб там не доебались. Чтоб не доебался товарищ майор. Кроме откровенно детских пропорций вроде размера туловища к голове какие еще признаки могут быть? Хотя и тут можно скахать, что это просто карлан. Или доебываются если уж совсем очевидно, что цопе, типа несформированные тела, маленький рост, тематика.
>>197202 (OP) И да, кто-нибудь знает вообще, что допустимо, например, в законодательстве РФ? Голые сиськи можно? Голые письки? Хуй поймешь ведь. На тех же вконтактах дохуя эротики с голыми бабами, хотя откровенного порно, где ебутся поменьше.
>>197589 >Кроме откровенно детских пропорций вроде размера туловища к голове Ты всё перечислил уже. Делай картинки, чтобы люди не были похожи на детей.
>>197596 Эротика это норм, чтобы не было прям откровеньщины - раскрытая пизда, хуй в ней, хуй во рту, в очке и что-либо подобное. А просто красивое женское тело, где не раскрыта пизда во всей её "красе", это можно. Ну хуй, конечно, тоже нельзя голым держать, ибо это приравнивается к открытой пиздец во всей её "красе". Короче, то что касается половых органов это нельзя, а грудь можно, вот и отталкивайся от этого.
>>197603 Интересно прямо про открытую пизду. А если полупрозрачные трусы, то есть видна верблюжья лапка, но при этом в трусах, то такое можно? Ты, кстати, откуда эту инфу взял? Мне бы хотелось поговорить с человеком, кто в теме.
>>197625 Да одно дело гуглить, другое дело что хуй знает как тот же товарищ майор определяет. Например вконтаче есть много открытых групп с голыми бабами, то есть там и письку видно и сиськи, но при этом "открытой пизды" и хуев я там не видел, и каналам уже по 5 лет. Возможно, ты прав и голую бабу можно рисовать, включая пизду, просто хотелось нюансы выяснить у какого-нибудь знающего.
>>197485 И это при том что на этом ебучем пиксиве горы действительно порно с детьми в анимешном стиле, где их ебут во все дыры толпой и по одиночке. А у того Антона только целомудренные девочки в кружевах и купальниках были
>>197651 Ну так у японцев отдельные правила, тоже ебнутые правда. Но мы живем в Россиюшке и интересно про нее узнать, плюс про сервисы, на которых хостимся, например, девианарт. Кстати, какие ру площадки можно использовать кроме вконтача?
>>197666 Сам ты цопешник! Хотя против рисованного цопе ничего не имею, в отличие от товарища майора. Реальные дети же при его создании не страдают, соответственно ничего плохого в нем нет. Но пока товарищ майор этого не понимает, избегаю.
Artius SD 2.1 768 vs 1.5 model самизнаетекакая, генерация сразу 768x1024, без фиксов. 1.5 пришлось перебрать много сидов чтобы получить результат без даблёбл и деформаций
>>197804 насколько по качеству получается хорошо? а там мне нужны текстуры для ретекстура и один хуй надо из других собирать. Но вещь полезная, не знал. Изучу
>>197480 >>197486 Что за модель братишка? хочу котов на генерировать. Или что лучше посоветуешь для котиков, ещё бы их очеловечивать немного, чтобы они какие ни будь дела делали, как monster hunter.
>>197909 у меня сложилось впечатление, возможно ложное, что когда я высталвяю большой батч, на 50-100 пикч, то всевозможные артефакты вроде красных пятен, мозаичности, пикселизации, начинают появляться ближе к концу генераций. алгоритм может "уставать"? или можетэто от того, что видяха греется от долгого цикла загрузки и артефакты идут?
>>197970 а почему не инпейнтить сразу на обычной? один хуй поверх готового рисунка елозить. в чем суть отличия что для него надо целую модель отдельную?
диффундирую два дня, про одиозного товарища на букву Х, уже узнал, он кажется очень явно форсит свою модель, канал и все остальное, но вот для такого контента, кажется, realistic vision на порядок лучше. какой моделью письки сиськи делаете?
Аноны, сорри за тупой вопрос, а можно ли держать локально на компе не одну версию сд, а 1.5 и 2.1, но раздельно? Чтоб в каждую через свой батник заходить
>>197981 я тот же ньюфаундлер из поста про сиськи чуть повыше. Я сделал в винде виртуалку на убунте через wsl. Видеокарта туда прокидывается, и собственно все работает также как винде, только изоляция больше кмк. Ты можешь поднять 2 виртуалки для разных моделей. Могу гайд пильнуть, если вдруг кому это нужно
>>197998 если бы. В этом способе есть преимущество - если чето идет не так - все сносишь к хуям и ставишь заново за 15 мин + решение проблемы с полной изоляцией разных окружений.
>>198050 Охуеть на первом пике нильф вышел идентичным оригиналу. Вот сука как это получить? Потому что изображение получается либо таким же мылом если не большим, либо полностью перерисовывается
>>197909 ну я бы пробовал сменить вае, узнал бы, нет ли в модели встроенного вае, конфликтующего, попробовал бы отключить лоры, другую модель, полумать, нет ли тэга, который может вызывать «крупные мазки краски». Тот же masterpiece например. Особенно если CFG больше 6
>>197804 > полноценные материалы Неполноценные скорее всего. если они генерятся на базе цвета, то это говнина, которая делает ямы в тенях и на тёмных элементах, например более тёмном кирпиче, чёрных пятнах леопарда, чёрных чешуйках змеи… Зашёл, посмотрел, да, говнина типовая. Тут была тень на альбедо-генерации, тень подчистило а глубину не выправило.
Это можно было делать из фоток годы назад. 2я картинка по мнению сервиса это кожа змеи с чёрными и белыми чешуйками.
>>198396 > Лору на раздвигание ног юзаешь? Нет. > Какая модель? Во избежиние подрыва вселенского масштаба, просто скажу, что 2-я на цивитае, найти несложно.
>>198401 Блядь, вот почему нельзя взять тот же сет что и в 1.5 и обучить его на 512+? Ебаные цензуродауны, выпустили 2+, которая нахуй никому не нужна.
>>198426 >Блядь, вот почему нельзя взять тот же сет что и в 1.5 и обучить его на 512+? Ебаные цензуродауны, выпустили 2+, которая нахуй никому не нужна. Так у тебя в руках все инструменты для обучения, хули ты визжишь, долбоеб?
>>198435 >долбоеб Долбоёб тут только ты. Все существующие модели строются на базовой и берут на себя все недостатки базовой. А чтобы обучить БАЗОВУЮ модель тебе нужен сет из миллиардов изображений и кластеры с видеоускорителями.
>>198435 >у тебя в руках все инструменты для обучения Да, сейчас из кармана достану суперкомпьютер. Ты не понимаешь разницы между лорой и обучением базовой модели?
>>198677 Процедурки были и остаются топовым по трудозатратам и качеству «неручным» методом.
Посмотри как делают свои материалы polygon.com, они рассказывали немного. Там и фото и фотограмметрия и алгоритмы для очистки. И понимание настроек всех.
В разработке предсказательный метод, который с видео или пачки фоток может восстановить глянцевые полимерные материалы, типа кожзама. Основная прелесть метода в умении отсекать блики. Но это пока эксперименталка.
>>198273 Да. Пока идёт полезность и хайп, ультимативные способности картонок офигенно востребованы. Да и в разработке всякие нейропомогаторы тридэшникам,
А вы тоже презираете хачатура на дваче хотя смотрите все его видосики, моделите на делиберэйте и подписаны на бусте? Я да, ведь зависть у русского в крови.
>>198787 >презираете Я его обожаю, он мой ровесник, он говорит на моём языке, моими словами, то что я хочу услышать. Тупые, пидристичные думеры идут нахуй, а свою постиронию пускай себе жопу засунут, ебланы безрукие.
Я совсем недавно поставил себе SD и не могу понять какую лучше модель надо использовать, чтобы можно было нормально переодеть ЕОТ на ОДНОЙ пикче с помощью impaint?
как нарисовать камшоты на коже без лоры? промпты не особо помогают. (sweaty skin shine:1.2), (cum driping on face:1.2), (cum driping on breasts:1.2)
если брать порнушную модель, то там аздники распидорашивает, они кроме тела нихуя рисовать не могут. Лоры начинают еабальники во весь экран рисовать, а мне нужно члоб в кадре были другие люди, эксгибиционизм же. максимум что выходит это мокрую кожу с капельками пота сделать, но на буккаке и камшоты это нифига не похоже. чтобы впарить дрочерам пикчи с милфами чтобы меня не забанили на девиантарте за слишком красивых девочек нужно добавить фетишей, блядь
Есть какие-то эффективные настройки / промпты для inpaint чтобы убрать из рук персонажа объект? Я пробовал empty hand, empty hands в промпте, holding object in hands в негативе - никакого толку. Пробовал разные настройки masked content, разный denoising strength - нихуя. Единственные рабочий для меня метод - это тупо генерировать сразу большую пачку вариантов через inpaint чтобы просто по рандому хотя на одном из них рука была пустой и затем уже дальше от этого варианта работать. Но может есть какие-то более эффективные методы?
кароч в пизду фотореализм, анимешникам быстрее мамки зайдут.
С сегодняшнего дня в аасортименте нашего аукционного дома слегка залежавшиеся милфы, в виду тогоэ. что лолей всех уже раскупили. налетай не звай, мамки тоже с огоньком, приласкают, обогреют, всему научат, за опт скидка.
>>199057 >купил бы доступ к библиотекам таких пикч за 2 бакса в месяц на девиантарте? Нет, милф я могу сам нагенерировать на порнхабе бесплатно в любых позах посмотреть. Платить есть смысл только за арт, которого нет в свободном доступе. Мне интересны картинки, в которых гармонично сочетается несочетаемое, маловероятное или невозможное в обычных условиях.
>>198725 Процедурки же это по типу тех которые созданы в сабстенс дизайнере? И не поспоришь, но зачастую все эти схемы материалов платные а денежек тратить на это лишних нету, ну а если ещё и говорить про ретекстуры игр где геометрия объектов делалась исходя из текстурок, то там и того генераторы использовать неудобно. Вот и хотелось бы приспособить нейросети, а в остатке уже остальные карты сделать не проблема, лишь бы дифуз ьыл с более менее ровным светом
мда уж, есть пиздатая идея нафайнтюнить базовую 2.1 под определенную узконаправленную задачу, которую пока не реализовали, но датасет на ~2 ляма пикч конечно никакой халявный колаб не потянет
>>199317 Господи, это же тралинг, да? Ну не может же Виталий Александрович быть таким говноедом и любителем тугой струи в лицо? Ладно если бы это был 14 летний Виталик, я бы понял, может парень без отца рос и всё такое.
>>199416 Schizo, please. В отличие от тебя, я подписку на промпт не покупал, и собирал/использовал этот стиль еще с прошлого года. А ты нихуя, кроме полной копипасты промптов еще не высрал. И нет, там нет ни одного токена из грузинского льва, кроме самого слова lion. Поговорил с GPT.
>>199304 да >платные базовых много очень бесплатных. Под SD и Blender. Но и с ними надо разбираться.
В играх альбедо пекут с шейдеров. То есть накидывают процедурно и пекут на единую карту, потом докрашивают. И могут добавлять в диффуз какие-то тенюшки типа AO
Можно пробовать роллить нейросеточные текстуры через Блендер, там есть аддон на SD с проекцией, кажись, но качество по итогу сомнительное.
Ребята, у меня проблема, решение которой я ищу уже месяц. Я пытаюсь обучить лору в колабе и когда дело доходит до тестирования, оно вместо моего запроса генерирует рандомную хуйню и мне приходится добавлять к своему выозву более абстрактные понятие и тогда оно хоть и отдалённо, но делает что-то похожее на то чему я его обучал, тоесть оно обучилось тому что я ему обучал, но оно не генерирует это, хотя и знает как оно выглядит. В чём дело??? Я уже спрашивал в техно, но там всем похуй.
>>199554 Да ты же ебанутый на всю голову и не там ищешь проблему. Вообще забудь про какие-то вызовы тестирования в колабе. Просто делай лору и тестируй уже готовую хоть в коллабе, хоть скачивай на комп, там уже тестируй, приноси и показывай в чём проблема.
>>199635 Дурашка, вот делиберат, с трейдмарковым жженым пластиком. А там явно 2.1, причем первые годные пикчи на 2.1 за этот тред. Кто бы мог подумать, что результат от промптера зависит, а не от модели?
Почему у 2.1 версии такая скудная поддержка комьюнити? Три годных фотореал модели, да пара десятков криворуких лор. Неужели все что касается SD крутится только вокруг дрочки и проногенерации?
>>199682 Урезан датасет. >Неужели все что касается SD крутится только вокруг дрочки и проногенерации Помимо дрочки вырезаны все художники и ещё дохуя всего, нахуй оно надо.
>>199701 Каким образом ты дообучишь стилям десяткам тысяч художников. У тебя поди дома суперкомпьютер с датасетом на 100 лямов картинок и кластер с ускорителями.
>>199714 а нахуя мне десятки тысяч художников? что-бы кривыми руками подсирали? вот заебца вырезали этих криворучек и генерировать нормально стало. а если мне понадобиться, допустим, ложкин какой-нибудь, или хуи лошадиные - без проблем обучу.
Бля, анончик, Я ТАКОЙ ЖЕ КАК И ТЫ, тоже хочу онлифанс завести нейробабе, но как до меня написали - очень тяжело добиться стабильно хорошего, похожего результата. НО, я примерно нашел два варика наебать систему, они самыми адектатными выглядят. В целом, ничего военного, можем скооперироваться на каких-то условиях. Кста, а там при регистрации акка на онлифансе просят верификацию с паспортом, это ж можно с помощью фотошопа пройти, или у тебя все модели подтверждают личность реально?
>>200491 проблема даже не в бабе которую ты сдиффунируешь, а в окружении где она будет находиться, это постоянно делать фотки с боке и размытием, но всё равно хуета идея, пока сд модели не могут выдать фото которые не отличить от реальных, особенно если это нюдсы, портреты и селфи ещё можно как реал фото сделать, но не более того
Я правильно понимаю, что 40xx видеокарты прямо ДОХУЯ лучше 30xx за счет более новых тензорных ядер и их большего количества? Если я вместо своей 3060 возьму 4070 на 12 гигов когда она выйдет, я же прямо ДОХУЯ в скорости генерации выиграю? Раза в 2.5 или даже 3 быстрее будет?
>>198820 >А то судя по треду это только селфачи всякие и фотки блядищ Так потому что в треде и сидят два с половиной кумера, нонстоп генерящие блядищь.
>>200811 Скорость хуета а вот количество видеопамяти нет. Хуанг говном кормит с 12гб на 4070 и 16 на 4080. Например text2video в разрешении 320х320 жрет 16 гб видеопамяти. 4090 безальтернативный вариант.
Сам думаю брать ли 4080 или оно окажется хуйней из за 16 гб vram
>>200853 > 4090 безальтернативный вариант. Кто бы с этим спорил. Но таких денег у меня нет. Перейти на диету из одной гречки и макарон ради 4090 я не готов... Будь я успешным и хорошо зарабатывающим - конечно взял бы 4090. >>200873 Смотря сколько будет это самое дохуя. Рекомендованная розничная цена у нее 600 баксов. Понятное дело, что на старте продаж за рекомендованную цену продавать её не будут. Но все же 3070ti прямо сейчас можно взять за 60к в том же ДНС. А значит, чтобы 3070 хоть кто-то покупал - она должна стоить не дороже 50к (если рубль еще больше не наебнется). За 50к или меньше я бы наверное купил. Все равно видеокарт от Nvidia на 16+ гб дешевле сотни тысяч рублей мы не увидим раньше 50й серии, и это если предположить что рубль не улетит в ебеня. Я конечно и на 3060 себя не то чтобы прямо плохо чувствую, но ради прибавки в скорости в х3 или близко к тому, 50к был бы готов отдать. Даже меньше, если 3060 на авито продать потом.
>>200533 >>200543 >>200548 И шо, это по вашему не достойный онлифанса контент? Я с вами только растроился, вынашивал эту идею онлифанса пару недель, вот сделал модель на дримбусе, в целом, говнище конечно. Кста, все, почему-то, советуют делать копии моделей на основе лоры, это оправдано чем-то, кроме конечного веса модели?
>>197541 Теоретический концепт предлагаю - для повторяемости окружения - юзаем контролнет+накиданый в 3Д интерьерчик
тянку как повторяемой сделать - это посложнее - опенпоз может+ лора (в теории можно на тело интересующей комплекции натренировать, благо референсов голых тянок хоть жопой жуй
остается лицо - тот сложнее. чтобы не попастся нареальное лицо - юзаем метахьюман, для создания образца лиц,а дальше через какой-нибудь фейслаб, или в самой же нейронке на готовое лицо генерим все остальное...
да, процесс трудозатратен, но в теории результат может быть годным, если кто попробует, отпишитель, на каком этапе косяки всплывают нерешаемые
Какие промты нужно прописывать, чтобы нагенерить милф с телом как на 1й или 4й, но не со старым лицом? Может есть какая-то специальная модель под милф?
>>201054 Куда? Я на a9eab23 сижу. Но экстэншены один за другим скоро перестанут старый коммит поддерживать, и тогда их тоже нужно откатывать, canvas-zoom уже там, например.
>>201083 > не справляется Ну поучаствовать три дня в коммитовой оргии у него сил хватило же. Мне кажется уже полгода подряд каждую неделю в issues всплывает предложение разделить на stable и dev.
Сори если вопрос очень тупой, но я никогда раньше не обновлял webui и вообще не пользовался git ранее. Я могу что-то проебать при обновлении webui? Стоит переносить модели и изображения куда-нибудь, чтобы они не проебались при апдейте?
>>201195 >>201198 Там и с волосами проёб. Вообще у SD с отражениями туго, она их как бы диффундирует, что при думскролинге отражение, как отражение. Но если рассматривать - нихуя не то. Та же хуйня и с пальцами и зрачками. Сутки инпейнта не скроют ебучие пальцы от диффундатора, но для обычного дрочера зачастую хватит одного прохода инпейнта.
>>200921 Если вопрос только в памяти то есть старенькие теслы, на кеплере и максвеле, но там производительность конечно та еще, + боль с охлаждением, зато можно взять 24гб за "копейки"
>>200927 если делать контент для слепых умственно отсталых инвалидов дальтоников ни коим образом не хочу оскорбить каких либо инвалидов то пойдет, иначе - сам понимаеш... последняя не настолько страшно как остальные выглядит, но качественной это ее не делает...
ну ты ж сам видиш анонче, что оно выглядит так, шо токо в страшилки реквизитом добовлять... на онлифанс надо фап-контент, а на такое даже 12 школьник-спермотоксикозник который прон никогда не видел не будет фапать, не говоря уже про то, чтобы кто-то платил за такое
>>201239 ну, на предыдущем арте пальци довольно таки неплохие... так-то на дрочеров ориентироваться затея так себе, поскольку комерческая ценность таких картинок КРАЙНЕ МАЛА
>>201331 > пальци довольно таки неплохие Ну если не присматриваться, то и отражение вполне нормально, и зрачки, и даже даже трусы сидят на пизде, а не на куске мяса, к которому хирургом из фильма кевина смита про моржа, приделаны конечности. Но опять же, для диффундатора, который постоянно с такой хуйней сталкивается, и оно само в глаза бросается, это лучше заметно, чем для обычного дрочера. >>201337 > книжка так-то это другое... Ну хз, в 12 лет таки проще на кривую картинку передернуть, там много не надо же. Алсо, если уж на хентаи всякие с октопусами есть своя аудитория, то на анкэни крипоту диффундированую тоже найдутся, может даже целое поколение фанатов появится.
>>201315 Я в детстве жил в деревне и там сортир был на улице, а так как дома дрочить было палевно, дрочил в сортире под вонь говна и копошение опарышей снизу. Так вот я однажды начал представлять, что из говна вылезает говнотян и начинает мне жестко отсасывать. С тех пор меня начало это возбуждать. А вы говорите интернет плохо влияет на мозги детей. Не было тогда интернетов.
>>200712 да можно так же если посидеть в инпейнте и фш, как пример чиcто генерации в 2 прохода txt2img i2i, без controlnet, инпейнтов, фиксов и апскейлов
>>201376 Расскажи с каким семплером, апскейлером и параметрами ты делаешь апскейл? Валар хуету выдает, ldsr выдает какие-то ебаные пятна рандомные. Да еще и семплеры хуй знает какие выбирать, потому что эйлер делает слишком гладко, керас слишком мультяшно.
>>201239 Кстати об отражениях. SD их не только сама рисовать не особо хочет, но даже всячески их пытается перерисовать, если ей уже подать хуйню из гимпа. Только на низких денойзах типа 0.2 не пытается отражению ебаное леопардовое платье нарисовать.
>>200927 Сделай проще. Возьми пару-тройку активных рандомных инстаграмщиц. Качай их фотки и морфи одну в другую. Бери лицо со среднего результата и хоть в фотожопе хоть фейссвапом вставляй в пронконтент. Получившееся говно выкладывай на онлифанс. Может кому-то зайдёт такая хуйня.
>>201492 я на новых аккаунтах пока монетизацию не включил. сначала надо немного аудитории набрать, а потом можно и окучивать. думаю через недельку можно начинать стричь
1. Закончил обучение через kohya ss. Что дальше делать? 2. А куда надо было вставлять слово-триггер? Я указал project_name но это не оно вроде. Найти не могу.
недавно вкатился в тему генераций, сразу скачал модель Deliberate и купил подписку на бусти создателя, 500 руб это копейки, он реально гений, это лучшая модель, теперь делаю шедевры, а чего добился ты?
>>201746 А я бесплатно копипасчу в этом треде все промпты на делибирайте и прогоняю их в других моделях, чтобы показать всем, как я ненавижу делебирайте.
Где взять качественных референсов на голую тян для трейна? Пробовал пихать рандомбап, но у них соответственно разные груди и получается мутная хуйня вместо сосков. Вроде когда-то видел на порнолабе как раз рефы на белом фоне, но сейчас не могу найти.
>>201962 >Где взять качественных референсов на голую тян для трейна? О времена, о нравы. В далеком прошлом люди сохраняли картинки, что в душу запали. Но души давно задушили. Ищи.
>>201772 серьезно. это "фото"? я вот не пойму, вы там через ЧБ телевизор 50х годов смотрите, или через телефон начала 2000х, или вы не видите? половина лица выжжена в хлам. половина с перетянутым красным. такие "фото" брак стопроцентный ни на что не пригодный...
и вот что интересно, с делиберейта красных оч много...
>>202042 Глубоко похуй что там выжжено или нет. Они сами по себе вызывают отторжение свей пластиковостью и однообразием ебальников не смотря на an european woman или asian girl у тебя в промпте.
>>202167 Ой да куда они денутся. Раньше делали ставку на майнеров, но облажались. Сейчас будут делать ставку на нейронки, это просто очевидно, при том что спрос есть и будет.
>>202162 Уже кочаю! Страшные они там конечно, но что делать. Сделаю свой делиберате, без анимеговна и пластика. >>202202 Нахуй вообще этот 2M Карась нужен, можешь пояснить? Сижу на Euler a, для апскейла юзаю SDE Karras, брат жив.
>>202228 теплое с мягким путать не надо, среди майнеров основная клиентура была далеко не простые пользователи а бизнесмены с ангарами и блатными розетками, и спрос на майнинг был ввиду возможности получения прибыли от такового,
тут же ситуация кардинально иная - гонять нейронки в пользовательских масштабах прибыльно не будет, (имеем в виду тупо сдавать мощностя), те кто на самих нейронках зарабатывает те конечно будут зарабатывать, но мы не о том, так вот, к чему я веду, в таких объемах как майнинг, гонять нейронки не будет никто, более того, для годных нейронок нужны огромные объемы памяти, а "петиции" намекают, что открывать нейронки широким массам не сильно то и хотят, а для компаний которые занимаются нейронками. видяхи пользовательского сегмента нафиг не нужны, в виду малых объемов памяти и меньшей надежности, для них и так делают тензорные видяхи с граздо большим обемом памяти и возможностью объединения (так то 96Гб Vram на двух картах уже доступно)
>>202261 Всё это, конечно, правильно. Но станут ли они добровольно отдавать рыночек красным, как это сделали синие, решив, что 8 ядер достаточно всем? Если учесть, что многие покупают процы от красных из рассчета "лишние ядра не помешают, может потом понадобится", будут ли буряты из нвидиа насильно разбивать линейку на проф карты, которые могут, и геймерские карты, которые не могут?
>>202261 >в таких объемах как майнинг, гонять нейронки не будет никто Нейронки будут гонять в больших объёмах чем майнинг. > а "петиции" намекают Это хуйня, которой подотрут жопу как производитель, так и потребитель. Миром правят бабки. Спрос рождает предложение. А если ты не можешь удовлетворить спрос - то уходи с рынка, найдётся тот кто сможет.
>>202297 >моя >моей попустись, черт ты датасет лайон5б собирал? или может ты владелец всех пикч из этого датасета? а базовую сд 1.5 ты тоже тренировал? дримбуз тоже ты написал? мне кажется ты просто хуй сосал
>>202274 рыночек и так разбит на проф и непроф сегменты, прям отдавать они не станут конечно, но и размывать границу проф и не проф сегмента тоже не станут, как не крути видеокарты из верха линейки стоят как чугунный мост, и прирост памяти не геймерском сегменте не настолько активен (а че, игры ж не используют столько памяти)
>>202295 >Нейронки будут гонять в больших объёмах чем майнинг. кто и где их гонять будет в больших объемах? при текущей тенденции ухода в облака, когда найти приложение работающее без интернета и не сливающее данных найти все сложнее и сложнее, а сегмент персональных компьютеровсдает позиции, и все на смартфоны укатывается, где opensource места нет, и корпорации решают кто и что и где гоняет...
>>202442 на artius sd2.1 сталина не делал, вот rmada merge, эти 2-е модели на базе сд2.1 самый топ, artius для эротики, девок, rmada для артов в стиле миджорни, многие промты с миджорни даже лучше делает
>>202460 Чел, ну не может 2.1 в обнаженку, палево же с инпейнтом. Да и лица пиздец, дохуя шума от сэмплеров. Единственное, где у 2.1 действиетльное есть преимущество - это пикчи с низким освещением, там действительно 1.5 не сравнится.
>>202465 1.5 выигрывает только в возможности генерить прон, в остальном говнище унылое, 2.1 генерация сразу в 768х1024 и выше без дабл ебл, больше эффектов, лучше освещение и стилизация артов, арты всегда на любом промте получаются более креативными и атмосферными.
>>202472 На всякий случай посчитаю это троллингом, который ИТТ в каждом втором посте, если не чаще. >>202476 Очевидно, проблема в промпте, а не модели, а так же в преимуществе 2.1 с темным освещением. Если тебе нужно именно имитировать миджорни, тогда 2.1 тебе больше поможет, в большинстве других случаев 1.5 справится лучше.
>>202489 > давай примеры Пролистай тред, там, где не 2.1 - там 1.5. Если лично тебе оно не нравится, по какой-либо причине, включая закон Бэйкона (плохие манеры/национальность автора модели, на которой картинки были сгенерированы) - это не значит, что это плохой арт, это просто значит, что лично тебе это не нравится.
>>202455 По ситуации. Если ты что-то заменяешь с высоким денойзом - описывай конретно то, что должно получиться. Если просто фиксишь с низким денойм пальцы/глаза/еще чего - можно оставлять тот же промпт, особой разницы не сыграет.
Зависит от конкретного случая. Если, например, фото простое, где баба стоит ровно и сиськами в камеру, то порой достаточно простого naked woman, если же она повернута к камере задом, то часто приходится уточнять, что спиной к камере, иначе на жопе пытается рисовать сиськи или еще что-то явно лишнее, и получается поехавший треш вместо фап-контента.
Вот этот анон намного лучше объясняет, что почем: >>202542
>>202541 ору, там лютая модерация промтов которые ты хочешь продать,в основном покупают промты для миджорни, и выплаты только на Stripe, который доступен только для tier1 стран
>>202455 Смотри, если ты делаешь only masked, то нейронка не будет значить ничего про картинку вне пределов данной маски. Но если у тебя денойз ниже 0.5 и ты просто проводишь only masked по лицу, то нейронка будет понимать, что это лицо и без промпта.
>>202160 Что значит на подходе? Вот 4070 - да, на подходе, через неделю выходит. А у 5090 еще даже даты выхода нет. Пишут, что "в лучшем случае" она выйдет осенью 2023, но мне кажется с учетом того, что они еще даже 3ье поколение толком не продали, ждать их раньше зимы не стоит. Плюс кожанка еще и цену на карточки поднимает с каждым поколением. У меня на 4090 то бабок нет, откуда они у меня на 5090 будут. Я максимум могу 4080 взять - но тогда останусь вообще на нуле и буду на еде экономить. А вот 4070 по карману не так сильно ударит, если будет продаватся по цене более менее близкой к рекомендованной.
>>202705 станет, в массе sd никто кроме китая и тир3 недостран не пользуется, нормальные люди из США и Европы юзают миджорни по подписке, для них купить промт за 5 баксов это не деньги
>>202167 Шизоид-конспиролог, плиз. Одна из фич 40xx видеокарт это новый DLSS 3, использующий ИИ и те самые тензорные ядра для того чтобы выдавать охуенную прибавку к ФПС с минимальной потерей качества. По-сути, зеленые держат рыночек именно засчет DLSS и RTX в играх, а так эффективности даже игровых видеокарт в работе с ИИ и 3д графикой. Потеряв это преимущество - они объективно будут нахуй не нужной никому кроме фанбоев тыквой, потому что по сырой производительности в игрушках без всяких ИИ технологий и лучей - АМД гораздо лучше Нвидия, по-крайней мере в расчете на бакс. Урезать тензорные ядра - это рыночное самоубийство для зеленых. Нахуя им это делать?
ну що, посоны, кажется, живём. выходят модели и обновления на базе 2.1, контролнет для неё же, хайп разгорается, так что имеем шансы на хороший набор моделей.
>>202728 куда они выходят? в помойку? 2.1 пару моделей мердженых обрубка за пол год вышло и всё, и то они неспособны нормально даже голую тянучку сдифунировать, годятся только для картинок собачек и котиков. 1.5 это топчик, нам больше и не нужно
Аноны, вопрос на стыке моделей, а кто пробовал использовать Лору натренированную на лицо в анимешных моделях? Как добиться лучшего результата и сходства? может какого-то автора указывать определеного?
>>202754 Надо тренить лору на аминешной модели типа Anything v3 с аминешной vae, и (возможно) будет тебе счастье. А фотолору пихать в аниме - ну, будет странненько.
>>202760 Спасибо, не подумал сразу о тренировке на анимешной модели, попробую. В принципе, результат я получаю при весах 1.2 скажем неплохие, т.е лицо угадывается, подхватывает родинки и некоторые мелкие детали, но интересно было как сделать ещё лучше
>>202768 Анимешные модели сами по себе дают именно композиции и подходящую стилистику общей рисовки, ну и плюс более качественную прорисовку и композицию рук-ног, в обычной модели при попытке вытянуть промтами аниме к нему подтягиваются основные проблемы модели
>>202274 Те процессоры и эти видеокарты - не одно и то же. Если в первом случае это просто камни на одной архитектуре и совсем немного узкоспециализированных либ, использующих отдельные расширения наборов инструкций, то в случае с видеокартами это платы и толстая обертка из драйверов, либ и другого софта. На которую амд забили хуй. Даже если ты вдруг захочешь купить самую охуевшую видеокарту от амд, потому что больше тензорных ядер и памяти, то ты соснешь, потому что софта нет и карта либо не работает, либо выдает унылую производительность. А софт просто так никто переписывать-доделывать не станет. Даже сейчас запуск сота нейронок на ртхах - побочный эффект: пишут под ашки вшки, но из-за той же архитектуры оно работает и на ртхах.
Помогите разобраться, пожалуйста. Допустим у меня есть негативный промпт: (deformed hands and fingers:1.5) 1.5 усиление будет распространятся на весь текст "deformed hands and fingers" или только на слово "fingers"? А в случае (((deformed hands and fingers))) как будет работать? И будет ли эффективней использовать отдельно deformed hands и deformed fingers или вместе?
>>202941 > 1.5 Всё, что этих в скобках. > (((deformed hands and fingers))) Так же, только будет 1.3 вместо 1.5 > будет ли эффективней использовать отдельно Попробуй, разницы особой нет. На каких-то генерациях будет лучше, на других хуже.
>>202968 Спасибо! А может ты или еще кто-то может подсказать насчет Textual Inversion моделей - их можно использовать с любой моделью или с какими-то конкретными? Вот скажем вот эти две: https://civitai.com/models/4629/deep-negative-v1x https://civitai.com/models/7808/easynegative Их можно использоваться с любой моделью у которой base model это тоже SD 1.5 - или только с какими-то особыми моделями под которые эти Textual Inversion модели делались?
блядь, АИ реально тупой. я только что полчаса ебался с этой хуйней потому что не мог понять схъуяли оно начало вмне диффундировать черно белые пикчи. в итоге виной всему оказался промпт "black and white laced corset"
>>203089 >АИ реально тупой >я только что полчаса ебался с этой хуйней ВНАТУРЕ >>203143 Я купил его говно за 500 рублей, хотел для лулзов сюда всё слить, а там нихуя-то и нету, только ссылки на гайды из этого и анимэ тредов. Пишу в поддержку бусти хочу рефанд сделать.
>>203423 лол, никто тебе не сольет на дваче эти стили, успокойся, все кто покупал подписку адекватные люди которые знали на что тратят деньги, и не для того чтобы это потом слить в паблик и лишиться обновлений
Как эта хуйня работает? Откуда она знает как разные объекты выглядят? Она в интернет обращается? Я правильно понимаю, что одна модель натренирована рисовать в одном конкретном стиле?
>>203470 Нет и нет, модель работает локально без интернета. Знает, потому что тренировали на сотне миллионов картинок с затегированными объектами, которые она должна была воссоздать, включая и стили. Все имеющиеся модели это файн тюн оригинальной модели.
>>203761 научись писать промты, эта модель в топе именно потому что она максимально правильно выдает то что написано. ни одна другая модель так на промт не реагирует
>>203769 >эта модель в топе именно потому что долбаёб зафорсил свой говноустановщик автоматика с вирусом, который накручивает скачивания и ставит лайки этому говну.
>>203793 Метод - DPM++ 2M Karras, 20 шагов, CFG 7; По Hires. fix: Denoise - 0.7, latent, 2x; По Tiled Diffusion: Метод - MultiDiffusion, размер тайлов - 96x96, overlap - 48; По Tiled VAE: Размер тайлов энкодера - 960, размер тайлов декодера - 64, fast encoder и fast decoder - ВКЛ.
>>203847 > Denoise - 0.7 Ох нихуя себе, и че, нормально обычно работает? Я больше 0.4 не поднимаю. И апскейлер - 4x_NMKD-Superscale-SP_178000_G. Размер энкодера тоже лучше поднять, на сколько vram позволяет. > MultiDiffusion Mixture of Diffusers меньше артефактов дает, хотя с 0.7 денойзом, думаю и он не поможет.
>>203863 >Ох нихуя себе, и че, нормально обычно работает? Я больше 0.4 не поднимаю. Обычно я вообще без hires-фикса/апскейлера, плюс, денойзне менял. Недавно просто вот решил попробовать, хоть с Tiled Diff., без него VRAM зачастую просто не хватает (4GB, если что). >И апскейлер - 4x_NMKD-Superscale-SP_178000_G Но спасибо за наводку, надо будет как-нибудь попробовать. > Размер энкодера тоже лучше поднять, на сколько vram позволяет. Боюсь, что и так впритык, хотя, нужно пробовать.
>>203895 > Недавно просто вот решил попробовать Я бы не советавал его с хайрез фиксом. Просто в img2img кидай, и там апскейль. Оверлап можно до 16 снизить, на 0.4 денойзе нормально получается, но гораздо быстрее.
>>203936 Все похуй сам разобрался. Запутался нахуй из-за 100500 ссылок на установку лоры. Там христ (святой человек) сделал он клик солюшен решение, пойду тестану.
>>203812 Как вот эту хуйню пофиксить как на 1 пикче. Видишь какие резкие переходы цвета? это изза float32 выключенной галочки или просто модель хуевая?
>>204050 не думаю, что цивитаи долго протянет, у них пока никакой бизнес модели толком нет, и они явно недооценивают скилл китайцев засирать сайт своим говном
как интересно выходит. у меня есть строчка промпта внутри очень длинной последовательности, которая описывает предметы одежды, которые никогда ни при одной генерации не отрисовывались, но при этом, если я пытаюсь эту строчку удалить, то выходит вот такая срака, как здесь - >>204050 пути диффундирования неисповедимы
>>204161 Что правильно? Ты посмотри как там цвета переходят друг в друга. На 3 пике так же. Почему не плавные переходы а резкие с границами, как будто 16 бит цветов.
АМДаун в треде. Такой вопрос: генерирую на проце в данный момент сборка для амд шакалит и не правит лица, и картинка генерируется в среднем 10 минут. За сколько 3060 выдаёт картинку по стандартному запросу?
>>204366 >скорее просто даун Я не согласен. Веб интерфейс выдаёт ошибку о нехватке памяти, даже 400х500 проскакивает, а 1.9.1 gui не имеет фейсфиксера если выбрать amd gpu; и так же позволяет 512х512 максимум.
>>204424 да я сравнивал, в чате промты видны кто генерит, разница не большая, + на sd есть inpaint и openpsoe, куча апскейлов, вообщем в помойку миджорнию
>>204363 >За сколько 3060 выдаёт картинку 512x512 восемь штук в батче за 33 секунды. стандартные 20 сэмплов на эйлере. xformers Короче меньше 5 секунд на картинку, и не факт, что я чего-то важного для ускорения не знаю. Потому что у меня показывает 4 ит/с на соло картинке, а кто-то утверждает, что 6-7 на этой карте
>>204564 Ну лично мое имхо, это пока лучшее. На втором месте лавлас, потом уже йиффи микс, а дальше уже шлак, у которого анатомия корраптится только так.
Допустим, я хочу использовать одну и ту же модель (скажем, liberty) для инпейнта и простой генерации картинок.
Нужно ли мне держать для генерации картинок базовый вариант этой модели без инпейнта (liberty), или liberty-inpaint тоже будет давать результаты, аналогичные не-инпейнт версии?
Можно как-то добиться того чтобы цвета относились только к какой-то части тела / объекту? А то я вбиваю в промпт что-нибудь вроде green eyes или dark red hair - а оно на одежду или даже на кожу протекает.
>>207512 Для генерации лучше обычную версию, она даст больше деталей. А инпеинт старается контекстно сохранить стиль, но столько деталей не сделает. Попробуй сгенерить равные параметры и сид, но с разными версиями модели, убедишься
======================================
Предыдущий тред https://arhivach.top/thread/877271/
Поиск прошлых тредов: https://rebrand.ly/arhivach_SD
------------------------------------------
схожие тематические треды
- технотред
- NAI-тред (аниме)
- тред в /fur/ https://2ch.hk/fur/res/270356.html
========================
StableDiffusion - открытая нейросеть генеративного искусства для создания картинок из текста/исходных картинок, обучения на своих изображениях.
Полный функционал в локальной установке и коллабе (см. ниже)
Официальный сайт (SFW): https://beta.dreamstudio.ai/dream - можно зарегаться на фейкопочту и генерировать картинки.
✏️ Как пользоваться сайтом: https://teletype.in/@stablediffusion/dreamstudio
📃 Стандартные модели stable diffusion (v1.4 - v2.1) от Stability AI значительно отстают по качеству от кастомных моделей (см. ниже).
Альтернатива: https://dezgo.com/ NSFW, без регистрации, мало настроек, скорость зависит от очереди.
Вариант: https://replicate.com/stability-ai/stable-diffusion SFW, быстрая генерация, использовать на вкладке Инкогнито для сброса куков с кол-вом бесплатных генераций.
https://mage.space/ - NSFW, мало настроек, больше настроек после регестрации, без ограничений
https://hf.space/embed/stabilityai/stable-diffusion/+ - SFW, настроек нет, чисто попробовать, без регистрации
🔞 Без цензуры и полный функци_анал: только Colab и ПК-версия
==========================================
♾️ GoogleColab со StableDiffusion 👇
https://teletype.in/@stablediffusion/Colab_StableDiffusion
Если нет возможности или желания установить нейросеть на свой ПК.
Colab - это виртуальный бесплатный сервер с видеокартой от Гугла.
===========================================
🖥УСТАНОВКА НА ПК💻
https://teletype.in/@stablediffusion/PC_install_SD
------------------------------------------
Альтернативная установка в один клик
https://github.com/AUTOMATIC1111/stable-diffusion-webui/releases
==========================================
🎨 ГАЙД ПО СОСТАВЛЕНИЮ ЗАПРОСА, ВСЕ ХУДОЖНИКИ И СТИЛИ
https://teletype.in/@stablediffusion/artists_for_prompts
Пример запроса (Промпт): a tiger, wildlife photography, high quality, wildlife, soft focus, 8k, national geographic, photograph by nick nichols
==========================================
📊 ПАРАМЕТРЫ И НАСТРОЙКИ ГЕНЕРАЦИИ 👇
https://teletype.in/@stablediffusion/samplers_steps
------------------------------------------
📚 РАЗЛИЧНЫЕ МОДЕЛИ 👇
https://civitai.com/
https://teletype.in/@stablediffusion/models_for_colab
==========================================
🧠 ОБУЧЕНИЕ ПО СВОИМ КАРТИНКАМ 👇
https://rentry.org/2chAI_LoRA_Dreambooth_guide
https://teletype.in/@stablediffusion/dreambooth_textual-inversion
⚠️Перекат оформляется после 1000 поста