24 декабря Архивач восстановлен после серьёзной аварии. К сожалению, значительная часть сохранённых изображений и видео была потеряна. Подробности случившегося. Мы призываем всех неравнодушных помочь нам с восстановлением утраченного контента!
>>279001234 → У меня 1 акк на DA. Старый у меня с моими кривыми рисунками в Фш и Карандашом, полумёртвый. Если его забанят переживать не буду. Но не думаю что им не пофиг. К тому-же он на другие данные, и я в него не щахзодил пару лет, IP никак не связаны.
>>279008099 → Я давал ИТТ ссылки, меня репортит шиз у которого от меня трясучка, и меня за ссылку банят. Так что ссори. Найти совсем не сложно. Только из бана вылез.
>>278999634 → Да, и в голове держу когда генерю. Богатые Тян на вертолётах и в платьях, а бичи танцуют брейкданс, и носят рванину.
Создаётся целостный образ. Если ты знаешь о персонаже, живешь им, чувствуешь его.
>>279014478 Аудио стрим проебался куда-то, а я и не заметил. >Да и версия в нормальном разрешении у меня есть. Пикрелейд. Просто я пока не готов вкидывать её двачи. Так эт всё твои видосы?
>>279014478 >пока не готов Обьясни в кратце как это делается, я так понимаю это сродни дипфейку, где на танцующего человека натягивается тот или иной перс?
>>279014602 Смотря что ты подразумеваешь под моими. С аквой 1 релейд - футаж из интернетов, 2 - после моего видеоредпктора. 3 - гтф из интернетов Там >>279014478 уже из моего видеоредактора. MMD (4) - c нуля. По заимствованному файлу движений. Хотя иногда и просто с нуля. Зоть движения делать и муторно но, иногда приходится.
>>279015053 Не в этом смысле. Не готов потому что раньше, когда я первым делом скидывал продукты жизнедеятельности моего видеоредактора их растаскивали по всяким павликам, и даже пару раз швыряли в меня сделанными мной же видосами выдавая их за видосы сделанные конфой доски /a/. (Правда после контрольного реквеста отваливались. Я кодирую видео экспериментальной версией проги которой нет в свободном доступе). Поэтому сейчас я, сначала, вкидываю на двачи ресайзнутую версию в 50 или 25%, а когда оттанцую видбшку на всех площадках где хочу тогда уже вкидываю на двач фулл сайз видео.
>>279016044 Anything_V3, делаю на коллабе. Основа промтов - ((muscular bodybuilder female)), - уже этого хватает, но для усиления , muscular arms, correct anatomy of the arms, ((big biceps)), muscular legs, correct anatomy of the legs, muscular belly, six pack belly, sweaty skin, sweaty muscles - это для пота. По качеству обычно начинаю с realistic shadows, masterpiece, highest quality, high quality, dynamic light, 8k, Негативный промт угнал у анонима, lowres, bad anatomy, bad hands, bad legs, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark, username, blurry, mutated legs, amputated leg, bad face, bad eyes, bad ears, mutated ears, glowing face, text, logo, signature, username, copyright name, company name,, lowres, bad anatomy, bad hands, bad legs, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark, username, blurry, mutated legs, amputated leg, bad face, bad eyes, bad ears, mutated ears, glowing face, text, logo, signature, username, copyright name, company name, 4 fingers, 6 fingers, boy, man.
Обычно я начинаю с монструозной стены текста аля realistic shadows, masterpiece, highest quality, high quality, (nsfw), dynamic light, (muscular bodybuilder female), (((Asuka Soryu Langley))), dynamic pose, anatomically correct, 5 fingers, detailed background, official art, ((red hair)), ((in gym)), sports bikini, barbell, good anatomy, (full length portrait), muscular girl, long leg, big_muscles, sculpted body, muscular legs, muscular arms, big_biceps, desperate struggle, tense muscles, good anatomy leg, good anatomy arm, full length portrait, short hair, smiling, muscular arms, correct anatomy of the arms, (double biceps), ((big biceps)), muscular legs, correct anatomy of the legs, muscular belly, six pack belly, medium breasts, medium boobs, 1girl, (((solo))), fine details, ((detalied face)), perfect faces, highly detailed eyes
А потом начинаю его чикать между генерациями смотря что выходит.
>>279016521 Ай спасибо! Хотя Anything, вроде как, не знает кучи авторов? Все равно огромное спасибо! Так, пора делать девушек в коже в стиле рипоффов Безумного Макса из 80-х...
>>279016584 Он не только авторов не знает, он кучу персонажей не распознает. Например он не ебет кто такая Лалатина или Мизоре. Но знает Лару Крофт, лол.
>>279016661 Спасибо, попробую. Что не шибко тяжелое из анимешных моделей ещё есть, при попытках загрузить Anything_Berrymix у меня коллаб падает. Хотя может это проблема того что время не восстановилось. Или нагрузка была ебовая.
>>279016661 >>279017092 Вот этот >>279016865 прав в том смысле, что исходно сетки обучали в основном на наиболее популярных примерах. Достаточно просто сравнить число ссылок в гугле, чтоб увидеть, что Лара Крофт по популярности обгоняет среднего аниме-перса на пару порядков. Поэтому анимешные модели и обучают отдельно на данных с бур.
>>279017359 Дрочат! Дрочат на НЕПОРЯДОЧНОЕ!!! НА КАРТИНКИ ДРОЧАТ!!! Да что же это такое, госпожа полицейская! Вы там разберитесь! А ну как, на картинках, страшно подумать ДЕТИ ЦВЕТЫ ЖИЗНИ???
Господа, у кого нибудь на модели 2.1 или 2.1х768 удалось обучить лицо? Потратил вчера 100 юнитов и выдает просто шлак - левых людей, какието кривые по цветам рисунки. Локально эти модели вообще не запускаются, только в коллабе. Пробывал и 500 и 5000 шагов обучение - одинаковый хлам. Кстати у всех пропала функция fp16 сжатия?
На модели 1.5 обучал 3000 шагов, датасет из 30 лиц и в итоге не всегда выдает лицо с фотки, где то в половине случаев левое лицо - как фиксить?
>>279019109 Я к тому, что какой средневековый меха, какие у него могут быть плохие руки, и у тебя куча запросов не разделена запятыми. Тем не менее, получается то, что тебе нужно.
>>279019227 я не разобрался с этим коллабом, не мог обьяснить по подробнее? он же вроде стили тренирует? Я вот сделал сейчас модель со своим лицо и выходит 60% похожести. Что на коллабе, указанном тобой надо сделать сейчас?
>>279019369 >он же вроде стили тренирует? Там на одном из шагов выбираешь из выпадающего списка что тебе нужно модель или стиль >Что на коллабе, указанном тобой надо сделать сейчас? Выполняешь шаги по очереди, фотки лица которым ты хочешь натренить модель заливаешь на любой хостинг картинок.
>>279020613 Результат сильно зависит от исходных фоток: прически и макияж разный например плохо влияют, и сами фотки должны показывать лицо не только прямо но и с разных сторон. На каком колабе пробуешь? На какой модели? Результат совсем говно, вообще не узнать исходную тянку?
>>279020607 Кто-то (возможно пчела) говорил, что надо делать платные галлереи с нудисами, но я сам не пробовал. Ко мне ещё приходил чел в личку, просил нагенерить артов за деньги, но я ебал корячиться несколько часов за предположительные 10-20 баксов.
>>279020790 Я пробывал тут https://colab.research.google.com/github/TheLastBen/fast-stable-diffusion/blob/main/fast-DreamBooth.ipynb версии 1.5 два раза, на версии 2.1 тоже два раза В версии 1,5 выходит похожее в половине случаев, иногда прямо то что нужно, но это 1 из ста запросов - так ведь не должно быть, это просто трата времени получается... проще живого художника нанять чем сидеть весь день ролить эту хуиту. На в2.1 вообще говняк вышел, зря только 80 юнитов всрал.
>>279021116 Пробуй на том что я скинул 1300 шагов, максимум минут 40 на всё про всё, если не выйдет наверное дело в исходных фотках ну или где-то ты объебываешься. >проще живого художника нанять чем сидеть весь день ролить эту хуиту Это само-собой, но как я понял тебе фотки нужно получать а не анимешные картинки?
Вижу тут люди уже потренировались делать свои модели на лица в колабе. Давайте обсудим, поделимся опытом?
Я начну тогда... Использую колаб fastDreambooth, почему его - чуть ниже. Правда автор, Бен, частенько меняет его функционал и опции стараясь держать руку на пульсе вылизывая работу, потому порой когда заходишь вновь это немного сбивает.
Использую 30 пикч, где только лицо, по плечи. Стараюсь, чтобы на на голове не было заколок, шапок и т.д. Чтобы лицо не было закрыто волосами. Немного профиль немного анфас. 512х512 естественно, желательно с хорошим освещением и т.д.
Модель юзаю 1.5 так как если вдруг тренирую стиль, то эта модель побогаче, но мы сейчас не про стиль, а про лицо, короче один хрен выбираю 1.5
Про шаги тренинга. Раньше Бен советовал количество фоток множить на 200, то есть 30 фоток = 6000 шагов. Сейчас же предлагается начать с 3000 и если результат не понравился потом дотренировывать, но я всё равно юзаю 6к по старинке.
Следующий параметр больше всего вводит меня в ступор, это Text_Encoder_Training_Steps, по идее с текст энкодером (далее просто), модель должна получиться значительно лучше, но технологии этой я тупо не понимаю.
Раньше Бен писал, что для стиля достаточно 15-25%, а для тренировки морды лица 50-70% от общего количества шагов выбирать, выбирал я 70% то есть в нашем случае 6000 шагов, значит ТЭ будет 4200 шагов.
Теперь в колабе написано: "350-600 шагов достаточно для маленького датасета, держите это число небольшим, чтобы избежать овертренинга, поставьте на 0, чтобы вырубить". Дальше идёт уточнение, что для тренировки стиля достаточно 350-600, подразумевая, что это те самые 15-20% от 3к шагов. Ну а для лица видима как и прежде выбирать 4200, или я хер знает. Кстати для тренировки стиля там теперь появилась галочка, что мы именно стиль хотим тренить. Ну и далее сохранение модели через энное количество шагов.
Когда начинается треня сперва идёт обучение ТЭ, тоесть в нашем случае проходит обучение 4200 шагов, а потом ещё 6000 шагов основной трени.
Так вот этот текст энкодер меня смущет, ибо если поставить его на 100%, то лицо будет выдавать идеально, с тех пикчей на которых ты тренил модель, но попробуй создать с этим лицом девушку на пляже и будет практически невозможно. Пропадает какая-то гибкость что ли. Модель будет пытаться выдавать максимум то чему её учили, похожее лицо и всё. Видимо надо уменьшать ТЭ, но так чтобы и лицо оставалось похожим.
Как люди тренят модели типа Ортеги я хз, у них куда лучше выходит, хочу научиться нормально.
Такую простыню сделал, ваще не знаю, зря наверное. Прочитает ваще кто/отпишется?
>>279021352 Да, мне нужно реалистичные картинки, что бы еще потом можно было применять разные стили. Поставил по твоей ссылке, скоро закончится. Вообще какого размера надо датасет? у меня под 40 фото состоящие из 6 где то сабсетов с немного разной косметикой и прической.
>>279021861 У меня по фастдримбуфу получаются хорошие лица, которые я потом пересаживал на хассана, а вот посадить эти лица на хуй было большой проблемой, пиздец как колбасило.
>>279022257 Алсо, так как оригинальная модель состряпана хорошо, то и пересаживается лицо на Хассана довольно годно. А те модели которые тренирую я со скрипом на Хассана налазят и устраивают бадихоррор.
>>279021461 > Так вот этот текст энкодер меня смущет Подозреваю, что это векторизация истории, то есть разбор запроса на факты. Если принять фотографию за один факт, то никаких вариаций не получится. Посему вопрос - ты создавал описания для своих фотографий? Или после того, как deepbooru / CLIP разберёт картинку, ты редактировал текстовые файлы?
>>279022467 >если сделать 3000 шагов или 5000 будет еще лучше? Я не пробовал но очень сомневаюсь что будет лучше. Модель может и переобучиться. Эмб - небольшой файлик который ты кладешь в папку embeddings и после этого можешь свою тянку уже использовать в разных моделях. Что сильно удобнее 5 гиговой модели с твоей тянкой
>>279022611 >>279022652 на 1300 шагов вышло что по промту photo of eotname выдает в общем лицо еот с 90% точностью а вот если писать другой промт типа >realistic photo, realistic shadows, masterpiece, highest quality, high quality, nsfw, 17 year old girl, highres, dynamic light, cute, detailed face+eyes, cleft of venus, detailed face and eyes, uncensored, buzz cut, glowing sparkling eyes, blonde hair, sad, soft focus, lying on stomach, dining room, bokeh, (Lovecraftian style, grim, gloomy, dark colours, creepy:1.2), whore, 64k, beautiful, HDR, UHD, extremely detailed, autumn, head out of frame, pov, garter straps, hair ornament, choker, evening, pointy hair, clothes by Carolina Herrera, by Dirck de Quade van Ravesteyn, by Roberto Ferri, by Jeremy Lipking, by Antonio J.выдает левые лица вообще Почему? Что делать?
>>279022378 > ты создавал описания для своих фотографий? Или после того, как deepbooru / CLIP разберёт картинку, ты редактировал текстовые файлы? В этом колабе ты просто кидаешь пикчи и всё, никаких текстовиков. Я помню когда гипер тренил в автоматике там да, блипал и корректировал, а тут просто вбрасываешь фотки. Возможно да, возможно ТЭ и пытается блипать и разбирать фотки на текст.
Вот статься про это в том числе, там примеры результатов треинга моделей: пик1 - тренинг без ТЭ пик2 - тренинг с ТЭ
>>279022720 > выдает левые лица вообще > whore Подозреваю, что нейросеть считает тян приличной девушкой.
>>279022743 > просто кидаешь пикчи и всё, никаких текстовиков Ну тогда сетка вполне может принять твою тян за нечто большее. В смысле массива данных. На фото есть другие объекты? Они попадают в результат?
>>279022467 Эмбединг это типа "мини-модель" скажем так на 4 килобайта, куда проще, но если хорошо натренирована, то результаты будут норм, но всё же проще чем у модели.
По моему личному опыту тренировки на 30 пикчах - результат в 6к шагов лучше чем на 3к.
>>279022879 Да, так как фото лица довольно крупным планом, по плечи, то тёмные волосы в итоге приводят к тому, что на пикчах либо лес либо болото, светлые волосы, либо пруд либо постельное бельё, это часть проблемы, хоть и не всегда. но в колабах я не видел тренинг модели, чтобы с тектовиками заливать. Да и без них как-то другие же тренят.
>>279022886 > 30 пикчах - результат в 6к шагов лучше чем на 3к У меня то же впечатление. Но тут всё слишком "зависит". Коллаб сохраняет промежуточные результаты? На домашней карточке, когда тренируешь на 12000 шагов, у тебя 12 результатов по 4Гб - легко сравнить.
Если в Хассана переносить модель " с лицом" изначально хорошо натренированым, как Ортега, то будет норм пикрелейтед.
А то что тренирую я переносится не очень, то есть лицо моей модели и в Хассане норм выходит, но я её в Хассана не для крупного плана лица загоняю, потому когда хочу сделать пикчу с хуем в писечке выходит очень так себе, жёстко черрипикать приходится.
Эмбеддинг на трех херовых фотках, которые даже не квадратиком, может выйти лучше модели на невъебенном датасете из идеальных студийных фото. Сколько с этим вожусь, прямой логики очень мало вижу.
>>279023009 Нет, не всегда. Просто такие скобочки добавляют веса именно тому что в них, в твоём случае eotname. Если промт большой неплохо в нём выделить именно то, что наиболее важно для тебя в результате.
>>279021808 >>279022035 Проблема в том, что SD2 голые сиськи/письки не видела от слова вообще, поэтому она в принципе не имаджинирует, как их правильно рисовать. И эту проблему не решить одним дообучением на нескольких десятках примеров, потому что она тупо не знает базовой анатомии голого человека. Обучать это дело полностью – это задача, хоть и меньшая по масштабам, но сопоставимая по затратам ресурсов с тренингом всей модели. А обучение SD с нуля – это больше месяца работы кластера из 32 серверов с 8 Tesla A100 40GB VRAM в каждом. Поэтому до сих пор так и нет NSFW версий на основе SD2, что это далеко не настолько простая задача.
>>279023657 Много раз на нём пробовал, всегда выходило совсем никак. Вот думаю может реально с тремя фотками попытаться. Ты менял какие-нибудь настройки типа learning_rate на 1e-6 ? И как результаты?
>>279023885 Менял, но не вижу в этом смысла. На дефолтной скорости раз примерно за время доступа к видюхам 1 эмбед успеешь. Ставь побольше шагов, 4к хотя бы. Фоток в среднем 7-10 ок. Прямо с тремя я мало пробовал, но у других вполне работает.
>>279019544 Великолепно! Художники такое даже не стали бы рисовать, потому что слишком много строгих геометрических фигур, которые легко проебать. А тут на тебе! Миллиард шестеренок!
>>279023402 На самом деле логика там очень даже есть, потому что это процесс в целом практически детерминированный, просто она местами очень сильно отличается от привычной людям логики. Причем отличается настолько сильно, что мы её в результате вообще не улавливаем. Это к вопросу о возможности контакта с другими цивилизациями, когда может оказаться, что базовые принципы их мышления настолько сильно отличаются от наших, что для нас их поступки будут выглядеть как рандомный шизоидный бред, хотя на самом деле будут вполне внутренне логичны.
>>279024648 >А условия ты читал? Такие как пилить перекат до 500 поста? да читал
>Бесплатный, да? Да. Обычно просто время выходит и пишет об этом (часа 3 с хуем-5) и после не пускает. А тут раз и привычного сообщения нету и пускает снова
>2D, center of city view, c&c structure, empty background, ultra high quality, soft light, extremely high details, sharp focused, fine shadows, 4K, cartoon, sketch, professional streetart, masterpiece, album cover, diffuse, refract, caustic, soft reflections, glow, scfi
>>279025522 вроде как не просто переименовать, а имя должно быть такое же как у модели. но есть вариант в бат файле прописать set COMMANDLINE_ARGS=--vae-path "models\VAE\Anything-V3.0.vae.pt"
>>279025599 Это только если ты в Settings выбираешь настройку Auto чтоб он подсасывал с одинаковым именем текущей модели такой же VAE Если принудительно выбрать, то будет всегда грузить его вне зависимости от названия модели. Можно еще на верх основной страницы webui вынести для удобства.
>>279025384 > надо брать vae-ft-mse-840000-ema-pruned, но там какие-то COCO 2017 и LAION-Aesthetics 5+ версии, как выбирать? Ты куда вообще смотришь? На вкладке Model card приводятся просто оценки качества работы на референсных датасетах, а сам файл ты скачиваешь на вкладке Files and versions, он там один такой всего.
>>279025941 Кк, просто ссылки прямые даны сразу на вкладке Model card, вот и скачал. Ща с Files and versions подсосал заново, тоже самое там. >>279026036 Я и сидел всегда на VAE от Any. Но иногда возникает проблема с черными квадратами при генерациях, сломанным инпейнтом. Тут сказали, что лечится при помощи no half vae в запуске. Данная настройка жрет больше VRAM. Еще было сказано что проблема с квадратами из-за VAE от NAI там мол что-то криво и можно юзать VAE от SD обычный чтоб не писать no half vae Только ради этого и пробую а цвета ужасные
>>279026874 Да, действительно, она у меня тем более установлена была, какого-то хуя через ctrl f в папке оно мне не нашло, понял только когда в ручную хеши сравнил.
>>279031209 Рендерю до 1216x1216 на 4гб, выше тоже можно, но надо включать lowvram, он скорость понижает. А так до 1216 приемлемое время, обычно балуюсь 1024 разрешением, рендерит полторы минуты одну.
Обьясните нубу как вот делать - у меня получилось сносный портрет, хочу допустим придеалть какой то беграунд, сеттинг, не переделывяыя сильно портрет? Или как из портрета сделать полный рост? В промте указывается в полный рост на улице, а выдает портрет на фоне стены.
>>279031743 Вот почему это ещё не в шапке, блеать?
Тебе нужна карта с максимальным количеством CUDA ядер. В прошлых тредах пришли к консенсусу, что по соотношению цена и качество идеальной будет 2080 / 2080Ti.
>>279031805 Ну вот и замажь бэкграунд. Тебе же его поменять надо? Ну и фотожоп никто не отменял, многие здесь хорошие фото обрабатывают там, в том числе я. Есть модели, заточенные под бэкграунды, и порой мы фон делаем отдельно. Это и удобно, можно использовать снова.
>>279022171 Нахуя ты так пугаешь людей. Я дай бог с таблицей умножения справлюсь, но в колабе легко обучаю и гоняю лица, стили.
Это блядь просто интерфейс, гугл тебе бесплатно дает компик. А кто-то уже написал питон код, который тебе всего лишь нужно запустить и только. Какие нахуй линуксоиды, красноглазики. Ставить локально - вот это реально красноглазие. Есть сто и один способ без проблем генерить онлайн.
Блять, ебанутые. Я просто поражаюсь. CTRL+F9 - и все нахуй, аутоматик запускается через минуту. А они всерьез думают о покупке видеокарты чисто, чтобы поиграться.
>>279032014 > ах вы наебщики, я думал это все нейросетка генерит с одного запроса Ну что то можно и с одного запроса сразу брать. Для сложных штук уже ебля обычно
>>279031550 Хуйрез быстродействие понижает и разрешение на 1050, потому что надо медврам врубать, я им почти не пользуюсь поэтому. Так что с хуйрезом хз что покажет, но на медвраме сделал с ним твой пропмпт за 05:06, пикрелейтед результат.
>>279032014 > а как на счет 3080ти? Ну вот >>279031550 пример как раз на ней. Очень шустрая, и из третьего поколения это максимум. Переход в четвёртое поколение это скачок цены в 3 раза, но и скорость обучения должна вырасти на столько же. В любом случае, 3080Ti это сейчас лучшее, что можно достать до перехода в 2K$. Но это всё равно компромисс. Лучшее из консумерских - 4090, следующий шаг - А5000 и ей подобные, с 40 гигами на борту и по цене потрёпанного автомобиля.
>>279032014 > ах вы наебщики, я думал это все нейросетка генерит с одного запроса 99% артов здесь - в один приём, никто не заморачивается. А вот что выкладывают в DA - это другой вопрос. Там можно и пальцы поправить, и фон поменять. Я как минимум цветовую гамму меняю - ибо уж очень она у сетки рандомная. Ну вот, как пример.
В процессе поковырял разрекламированный на форче апскейлер valar, и на реддите - LDSR. В итоге остался на комбе из двух вариантов денойса с remacri на DDIM'е: 0.3 и 0.45. Те для такой картинки совсем не подходят. Ещё там встретил совет использовать анцестральные семплеры для апскейла, т.к. тоже шумят и меняются. Ну... чуть лучше, чем их не анцестральные, но, к сожалению, в одну кнопку так, как на пик1 - пока никак.
>>279032556 > пикрелейтед результат Ну, результат здесь не важен, надо именно время с хайрезом и остальными сеттингами. Но даже так видим хорошую разницу - то, что 1050 делает за 5 минут без хайреза, 3080Ti делает за 10 секунд с хайрезом. Хорошая разница.
>>279032778 >>279032671 я запутался у меня 1660, 512х512 30 шагов ddim делает 1 минуту с копейками. сколько будет делать 2080ti и 3080ti? А100 с коллаба делает за 3 секунды например
Кстати, кто хочет на пиксив/да постить и максимального охвата, то очевидно, что в голову приходит сразу гейшит и, если вы дед, то ещё тохо. Казалось бы, гейшит новее и его ца активнее, но судя по лайкосикам - тохоёбы гораздо более упорные и горячие. У меня есть несколько картинок, которые сейчас я бы сделал гораздо лучше, но лайков на них больше всего, и их объединяет одно - есть тохоёбские тэги. Гейшитовские тоже берут больше, чем оригинальные, но меня задрало, и я делаю своих
Я правильно понимаю, что мы достигли сингулярности? Бесконечный уникальный фап контент на любой вкус без ограничений в любых количествах? Это ж пиздец какой-то!
>>279032637 О, сегодня без мыла, так ещё красивее. Сегодня успешно сделал пикчу по твоему гайду. А чего мидас локально работает хуже, нежели онлайн версия? Что за ancestral, те которые с буквой "a" в названии?
>>279033684 Еще нет, должно быть так - врубаешь игру, включаешь там SD стиль или промпт, и она тебе на ходу всех персонажей подменяет на генеренные. То же самое в видосах с ютуба, всех блохеров подменяет котами, все в рилтайме. Вот тогда будем говорить о сингулярности. А пока это все баловство с картинками.
>>279024648 >>279024876 Лол, напоминает поехавшего пиндоса, который сливал всю свою зарплату на коммишки с блондинками, которые ели белый хлеб и ненавидели окружающую среду.
>>279033804 Тащемта, то, что ты описываешь, это всё равно еще только развитая предсингулярность. При сингулярности разница в том, что ты можешь сделать копии своих сознаний, загрузить их в игру и загрузиться туда самому, а после окончания игры смержить воспоминания всех копий и выгрузиться обратно.
>>279033684 > мы достигли сингулярности Когда достигнем сингулярности, которая на самом деле обычно понимается как процесс при котором технологии и ИИ саморазвиваются с постоянным ускорением то там будут технологии, которые мы сейчас даже вообразить особо не можем.
>>279035172 Да ищи какой по вкусу и скорости, эти рассказы про детальность и прочее по большей части пердеж в лужу. Основное в чём различаются семплеры -- какое минимальное плюс минус количество шагов надо чтобы начать выдавать уже что-то адекватное. Причем тоже вкусовщина.
>>279035172 Для однокнопочного апскейла дадут, да. Лишнего добавляют, но нейронка будет из них по твоему промту детали делать. Самый быстрый DPM2++ M Karas, но DDIM тоже быстрый.
>>279034862 >>279033684 >>279034384 Мы не достигнем сингулярности, всем успокоиться. Будем годами генерировать картинки на SD, ну может еще видосики допилят, вот и весь предел прогресса.
>>279035282 >>279035306 Ну я ддим'ом генерю, просто потому что он быстрее всех остальных, иногда DPM++2M Karras пробую. Попробую анчестрал какой-нибудь потом.
Генерируем тяночек!
Прошлый тред: https://arhivach.ng/thread/850713/
----------------------------------
Руководство с нуля
https://ai-art-wiki.com/wiki/Stable_Diffusion/Absolute_beginners_guide/ru
https://wiki.diffai.xyz/free-tg-bots - Бесплатные телеграм боты
----------------------------------
УСТАНОВКА НА ПК
Для комфортной работы нужна видеокарта с как минимум 6Gb памяти.
https://ai-art-wiki.com/wiki/Stable_diffusion/install/ru
https://teletype.in/@stablediffusion/PC_install_SD
Оптимизация для слабых ПК. Обычно это приводит к потере детерминированности и качества.
https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Optimizations
https://rentry.org/voldy#-running-on-4gb-and-under-
----------------------------------
УСТАНОВКА В ОБЛАКЕ
Если у вас слабое железо, можно поднять нейронку на гугл коллабе. Google Colab - облако, выделяемое гуглом с мощными CPU и TPU. Можно юзать бесплатно несколько часов каждый день. Обойти ограничение можно, создав второй аккаунт.
https://ai-art-wiki.com/wiki/Stable_diffusion/cloud/ru
https://rentry.org/244wt - список колабов
----------------------------------
Аска тест (проверка работоспособности NAI):
>masterpiece, best quality, asuka langley sitting cross legged on a chair
Negative prompt:
>lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark, username, blurry, artist name
https://rentry.org/nai-speedrun#hello-asuka
----------------------------------
МОДЕЛИ И МИКСЫ:
Модель определяет стиль генерируемых картинок. Популярные модели, используемые в треде:
- Аниме: AntlersMix, Berrymix
- Хентай: Anonmix
- Реализм: HassanBlend
Подробнее о моделях: https://rentry.co/ng5wh
200+ моделей и их хэши https://static.nas1.gl.arkprojects.space/stable-diff/
----------------------------------
ОБУЧЕНИЕ
Существующую модель можно обучить симулировать определенный стиль или рисовать конкретного персонажа или объект.
Обучение своих эмбедингов/моделей - https://wiki.diffai.xyz/training-info
Если модель уже умеет рисовать что-то похожее: https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Textual-Inversion
Если она не умеет, или нужно делать это на нескольких моделях: https://rentry.org/hypernetwork4dumdums
Гайд по созданию своих моделей: https://github.com/nitrosocke/dreambooth-training-guide
Сборник гайдов и технических статей по теме: https://ai-art-wiki.com/wiki/Textual_inversion
----------------------------------
Репозитории:
https://github.com/AUTOMATIC1111/stable-diffusion-webui - пользовательский интерфейс от AUTOMATIC1111
----------------------------------
ПОЛЕЗНЫЕ ССЫЛКИ
https://wiki.diffai.xyz/FAQ - ЧаВо ДАННОГО ТРЕДА, ЕСЛИ ЕСТЬ ВОПРОС, ДЛЯ НАЧАЛА ЗАГЛЯНИ СЮДА
https://wiki.diffai.xyz/amd-users - у тебя AMD? Тебе сюда!
https://rentry.org/sdupdates2 - Вся информация о моделях, эмбедингах, промтах и т.д. (переодически обновляется)
https://wiki.diffai.xyz/other-info - Остальные ссылки (промпты, лица, одежда, позы, ракурсы и т.д.)
----------------------------------
Шаблон шапки для тредов: https://wiki.diffai.xyz/2ch-template