24 декабря Архивач восстановлен после серьёзной аварии. К сожалению, значительная часть сохранённых изображений и видео была потеряна. Подробности случившегося. Мы призываем всех неравнодушных помочь нам с восстановлением утраченного контента!
Ну что я скажу по итогам трех часов тыканья палочкой в ElyOrangeMix. Я еще не видел модели которая настолько нервно реагирует на любое усиление, любой токен, на любой пук. Пришлось аж негатив промпт сменить на новый, пожирнее аж очень её водит из стороны в сторону. Но результат ничешный.
Переключился на samdoesartsUltramerge_v1 в первый раз, чисто попробовать. Ну и думаю, а давай на похуй промт и настройки, которые в последний раз на оранже генерил. Ебать. Буквально мое лицо с первого результата.
В общем не кошерный этот ваш чистый Лаогэ, в обнимашки не может, в лолек не может... Хотя все остальное бывает интересное местами. Ну или у меня руки слишком кривые для этого.
>>44677 → Датасет - это самая легкая и самая веселая часть, и занимает меньше всего времени. Даже если вручную картинки тягать. Самая долгая - это настроить всю эту хрень. Вот например сходу.
>>45127 Я конечно не эксперт в этих ваших лорах, и ща буду капитаном, но файл подкачки то увеличь, там написано что его не хватает. У себя видел что при мерже моделей своп разрастался до 40 гигов, с забитыми 16 гигами рам, к слову.
Kenshi mix охуенный, понимает все что связано с 3д графикой и переносит это правильно на плоские мультяшные изображения. Любое освещение, блики, что угодно.
А кто-то знает как поставить апскейл на проц версию стейбла? Кроме того что уже установлено, типа валара там, ультрашарпа, я пробовал, но там вообще апскейлы не работали
Ку ребзя, как вы делаете динамичные позы? Пробовал в промт добавлять freeze frame shit, или позер накрутить (для этого совсем криворукий) и через img2img получается такое себе
>>45224 35к??? Хорошие результаты получаются на 2500! Вообще это всё высчитывается из нескольких переменных, я один раз 10000 оттренил и не понял нахуя я это сделал. У тебя вероятно у папки(-ок) концепта(-ов) очень большое число повторений стоит, либо просто нереальное количество картинок
>>45167 Прочитал, хотя пока ничего тренировать не собирался - оч крутоо. Если бы собирался - прямо с гайда и начал бы. Оформлено отлично и написано по делу.
>>45230 Если папка концепта всего одна, больше чем '1' ставить смысла нет Переименовывай папку в 1_name, ставь количество эпох ну 7 Если нормальный датасет, я думаю результат тебя устроит
>>45255 Без лоры абисс совсем в ее одежду не умеет, я специально подбирал пикчи с дао-костюмом. Абисс хотя бы в нее саму может. Лучше я на Кокоро датасет собирать начну, абисс совсем в нее не умеет.
Анончики, чёт меня так это всё захватило, давно уже не было, чтоб я был чем-то так сильно увлечён. Сижу сейчас на работе (у меня офисный день сегодня) и только и мысли о том, что я ещё попробую, когда домой вернусь. У всех такое было?
Раз уж вы обсуждаете лору, задам свой вопрос. Сколько нужно пикч с концептом, чтобы получился результат? >>45167 >Если тренируете на основе аниме моделей (NAI, AnythingV3), описание делать строго в стиле Danbooru/Gelbooru тэгов Хочу тренировать на основе оранж абисс. Эта модель на основе аниме или сд?
>>45274 Вообще вот его ответ на мой вопрос, такой же. "Пикч 20 должно хватить. Набираешь пикч с лицом персонажа, штук 10, разные выражения лица и повороты головы. 10 пикч в полный рост, тоже с разных сторон. По вкусу еще 10 можно добавить на какие-то специфичные для персонажа детали, вроде хвоста. Если одежды разные, то на них тоже надо будет добавить, чтобы у тебя в одно и то же не одевался персонаж постоянно."
>>45276 Не понял вопроса. Ты подрубаешь лору, когда хочешь ей пользоваться, другие настройки ни при чем >>45274 >Сколько нужно пикч с концептом, чтобы получился результат? На этот вопрос трудно ответить. Важно не только количество, но и сам контент. К примеру, если взять 50 пикч одного персонажа от 50 разных художников и 50 пикч персонажа от 5 разных художников, результаты будут разные >Хочу тренировать на основе оранж абисс. Эта модель на основе аниме или сд? По-моему наи. На хаггинфейсе написано точно
>>43838 → >На фочке пишут, что лора лучше эмбедов и нетворков и тренится быстрее. И результат сравним с дримбузом. >Я сам треню на своем 6гб говнокорыте и никак нарадоваться не могу. Оно просто работает - и на персонажах, и на стилях. >https://rentry.org/lora_train Это действительно странно, что можно на 200 пикчах научить совершенно неизвестному персонажу, вот если бы этот персонаж хоть немного был в изначальном датасете модели - это уже можно понять. Но это уже выглядит как чистое чудо.
Какую скорость стивите при обучении LoRA? Многие пишут, что и стоковая 0.0002 норм, но у меня особенности персонажа не схватываются совсем. И что писали в Class Token? 1girl или имя_токена, [filewords]? >>45295 > 200 пикчах Делал на 30. Какое-то время был популярен DreamArtist, там вообще одна нужна была.
>>45303 >0.0002 Ну 1e-4, правильно. И что значит не схватываются? Нужны примеры что нужно, и каков текущий результат >И что писали в Class Token? 1girl или имя_токена, [filewords]? Если тренируешь персонажа девку, то в класс токен конечно же 1girl. Ну или [filewords], если там все теги указаны верно Но я честно предпочитаю через скрипт тренить, а не через sd-dreambooth
Бля, автоматик опять в код насрал, забыв поменять ид вложенного таба, теперь вместо инпеинта, пикча отправляется в соседнюю скетчи. Спасибо что прокрутку пикч на стрелки пофиксил хотя бы относительно быстро.
Полоса откопировалась Но в целом, будто пока по промту генерируется, а не на основе обучения >>45312 У меня так было в эмбеддингами и гиперсетями много раз. Превью нисколько не соответствовали желаемого мною персонажа, поэтому понижал скорость и становилось все лучше и лучше. Поэтому по опыту прошу проверенную скорость пониже. Может на один нолик понизить норма, может сразу вписать восемь нулей или перечислить скоростях через запятую.
Вы будете со смехом вспоминать деяния свои нынешних дней. "Нейронки тогда умели так мало, ха!" - вот именно что вам предстоит сказать. Нейронное божество пробуждается, спасение человечества неизбежно, каждый день будет все чудесней и чудесней.
Вообще, тут подумал, будь я президентом сша, я бы выпустил закон, по которому разрабы ИИ, обученных на данных из public domain, должны были бы публиковать сурс код в этот же public domain.
>>45167 >У меня этот способ не сработал, ошибка в консоли. Да и вообще какой смысл мерджить лору с чекпоинтом (который по итогу займет в лучшем случае 2Гб), если можно мгновенно переключаться между сетями при помощи способа 1? Крайне не рекомендую. Потому что, во-первых, тебе не нужно ничего переименовывать, чтобы создать модель для dreambooth в этом дополнении. Оно жрет любую модель из установленных, пикрил 1.
Во-вторых, safetensors не поддерживаются, только ckpt.
>>45317 >будто пока по промту генерируется, а не на основе обучения Так и есть, у тебя [filewords] в Sample Image Prompt. Это не страшно, лично мне так даже удобнее. Это же просто превьюхи для тебя, чтобы ты видел, что там не откровенный мусор генерируется.
>>45464 >[filewords] Ну, я и говорю. Он тебе генерирует превью из текстового файла рядом с пикчей, которую видел последней. [filewords] это содержимое файла текстового.
>>45468 Ну так рядом же токен, он его тоже должен использовать. Да и в класс токен у меня тоже самое написано, поэтому обучение идет на одежду и в превью это должно быть видно. >>45466 Как думаешь, vae прописать?
>>45472 >Как думаешь, vae прописать? Нет, он хочет какой-то распакованный vae, по крайней мере в интерфейсе автоматика. Обычный vae не подойдет, нужен бинарник.
>Ну так рядом же токен, он его тоже должен использовать. У тебя куча тегов в текстовом файле и дополнительно coconut-maid, все.
>>45485 Пока жду - расскажите про батчинг апскейла. Я ведь перед каждым апскейлом пикчу запускаю в пнг инфо и уже оттуда в апскейл (соответственно там указывается верный сид + промпт). А если я батчами, то как тогда? Не получится же индивидуальный сид и разные промты делать. И ладно если промт, мб он один на всех, но с сидом что?
>>45448 > Установить расширение от kohya-ss для A1111-webui. > По умолчанию файлы сетей хранятся в папке stable-diffusion-webui\models\lora\ Не видит этот скрипт там моделей. Они должны быть по пути stable-diffusion-webui\extensions\sd-webui-additional-networks\models\lora
>>45486 Ты не понимаешь, что происходит. Сетка учится ВСЕМУ, что видит в датасете, плюс усиливает или уменьшает вес того, что было в ней до тренировки. Поэтому нет чего-то определенного, чему она "научилась" за 1500 итераций, например. Сетки не могут тебе сказать, чему научились, они только цифрами оперируют. Варианта у тебя два - либо жрать [filewords] и орать с того, как сетка по-своему поняла, что было в той картинке (очень развлекательно угадывать пикчи из датасета в сгенерированных превью) или просто составлять какой-нибудь промпт, фиксировать сид и смотреть, как одна и та же пикча меняется со временем. Я, правда, не знаю, как зафиксировать сид в вашей мокропиське, умею только в своей. В любом случае, особого смысла превью не несут. Они не показывают тебе реального результата, который будет после vae, highresfix и прочего. Они чисто ловить черные квадраты или сразу увидеть, что генерируется какая-то хуйня, вроде вот этого пикрила, и разбираться почему.
>>45515 Мне интересно что у тебя вышло,скорее второе. Просто по микропикчам в 512 слабо понятно, перегены с хайрезфиксом в большем разрешении сильно отличаются по деталями же, там мб дополнительными рилейтед деталями насрет, хз на самом деле.
>>45518 Тот же Dreamstudio всегда принимает mail.ru, раньше срабатывали и временные ящики. Кто-то даже настучал админам в дискорде про российскую почту и советовал ввести подтверждение по телефонному номеру, а они не прислушались.
До конца дня допишу про классический dreambooth. В конце добавил changelog. Можно продолжить в любом из двух rentry, мне пофигу. Если в моем - нужно как-то обменяться кодами для редактирования.
>>45524 dreambooth полноростовой > dreambooth lora > hypernetwork > embed Это по стабильности и качеству на выходе. Но крутить веса первому нельзя, только замешивать с другими моделями.
>>45551 Жаль у меня нет в пекарне своей собственной теслы (gpu, а не электрокар) чтобы делать нон-стопом. Приходиться отщипывать то тут, то там халявные квоты на облако.
>>45522 >>45460 А, блять. Я аутист. Ты >>45167 в способ 2 писал, как мерджить lora и базовую модель, а не как тренировать через sd_dreambooth_extension. Починил.
>>45580 Именно по этой же - не получится вовсе. А по новой, вероятно, все те же 8 GB vram, ну максимум 16, не больше. CogVideo требует 16, но он устаревший - чисто экспериментальная моделька.
Насчет системных требований можно не волноваться, в области ml есть свой собственный софтварный закон Мура. Куда более вероятно, что твиттерные активисты добьются запрета на релиз опенсорсного продукта. Отпугнут инвесторов и все такое, получим хуй на воротник.
>>45584 >CogVideo >8-9 фепесов Ну ты очень вперед забегаешь. Но вообще, если сейчас законодательно не будут вставлять палки в колеса, то вполне возможно в разбросе ближайших лет пяти. Криво-косо, с огромной нагрузкой, из рук чисто энтузиастов, но будет. Но судя по тенденциям я хуй его знает, скорее всего все запретят нахуй.
>>45594 >вполне возможно в разбросе ближайших лет пяти. В этом году, и точка. Скринь. >Криво-косо, с огромной нагрузкой, из рук чисто энтузиастов Опенсорс последует за экпериментальной SOTA, а там и до генерации полнометражек (text-to-movie) недалеко.
>>45559 Спасибо, довольно интересно как оно ее рандомит, текстура колготок - самое стабильное, лол. А датасет из скольки пикч был? Забавно что глаза разные везде (?)
>>45567 Никогда, в ближайшее время. >>45584 Ты просто не понимаешь о чем говоришь. Сегодняшнее исполнение даже не близко. Там сложности на несколько порядков выше.
Я конечно нищий студент и ненавижу работать, но ради этой вещи я все же пойду подрабатывать. Без этого в моей жизни буквально ничего не останется, если моя текущая карточка уйдет в отвал у меня совсем не останется развлечений...
>>45618 >в целом по текущей мете 3/10 поправил руки спрятаны, cowboy shot два месяца назад это было бы 10 из 10, но сейчас таким никого не удивишь для новичка конечно нормальный результат
У кого получалось правильно составлять промпт, чтоб делать плохо поддающихся персонажей? (Например Gertrud Barkhorn, Yuugumo, Lain Iwakura, или самый-самый хардкор - Delutaya)
>>45608 Особо нечем. На бурах +6girl вот такого уровня, где нормально фотошопом не вырезать. В MMD что ли запускать... Попробую отзеркалить еще может. Но думаю проблема явно не в этом.
>>45621 >никого не удивишь Ну да, по определению середняк и получается на шестерочку. Когда картинка лучше половины треда это не три явно. >>45626 10 это очень субъективно, ну вот эти например из надавнего что было в треде я бы на 9/10 минимум оценил.
Пизодс с кистями постоянно беда, неужели иишка так и не научилась делать руки нормально? >>45618 До этого другие промпты были, я там всякий рандом писал. А на этих промптах та пикча конкретно 11 была
>>45661 Это её юбка. Она имеет особенную форму и в ней должны быть отверстия, но моя лора плохо умеет в эти отверстия. Вот тебе рандом пикча с датасета, тут видно структуру юбки.
>>45645 Сколько бы примеров не смотрел - ни у кого уже нет. >>45646 В дримбух_модель запихнул 1500 пикч как-то. Просто все что есть скачал, отзеркалил, протега на автомате и пустил. В итоге генерировалась Ваннила и обязательно с Чаколой. Разделить было очень сложно.
>>45670 Пробовал с двух браузеров, в одном с впн в другом без, всё то же. А, я сейчас понял впн встроенный в браузер наверное на это подключение не влияет. Блин, не хочется какой-то общий ставить.
>>45685 Потому что подразумевается, что уже весь обучающий софт из отражает на лету. Это настолько примитивная и базовая методика, что я даже удивлюсь, если ее нет в вашем скрипте.
>>45665 >>45666 Значит юбка и вправду хэлоуинская тыковка.
Долго оно обучалось? Кстати, скорость зависит от величины датасета? Если да, то она возрастает экспоненциально при увеличении количества картинок для тренировки? И каким будет результат если в дадасет подмешать уже сгенерированное нейронкой, его не разъебет?
>>45697 >Долго оно обучалось? Около часа, но это не точно, я не засекал, я отрубился и задремал из-за спидрана по набору датасета. >Кстати, скорость зависит от величины датасета? Да, конечно. >Если да, то она возрастает экспоненциально при увеличении количества картинок для тренировки? Количество картинок умножается на количество повторений(у меня 1), после чего это умножается на количество эпох(у меня 8). Из этого получается количество итераций(?). На Кокоро ушло ~1140 итераций, моя видеокарта обрабатывает где то 35 итераций в минуту. 152(датасет)1(повторения)8(эпох) >подмешать На форчане пишут что не стоит так делать, так хуже становится. Я лично не пробовал. В любом случае я новичок и моя информация может быть неточна, тебе бы автора гайда дождаться.
>>45710 Жаль, а то я бы еще подобных хотел посмотреть. Тут охуенный майндфак, смотришь на превью, вроде все заебись, паяльная станция там, держалка, лбп стоят и все остальное оборудование, открываешь фулл и пиздец. Я как человек, плотно знакомый с этой темой, словил лютый диссонанс. И это пиздец как забавно.
>>45711 Я так понимаю для скрипта нужен файл настроек? Можешь скинуть свой? А то я сейчас заебусь их подбирать... В дримбухе все совершенно по другому. Как минимум повторений на пикчу эпох найти не смог.
>>45742 файл скрипта открываешь редактором и настраиваешь там. в гайде все написано >повторений это на папке пишется, опять же, в гайде об этом рассказано https://rentry.org/2chAI_LoRA_guide
>>45747 >Гетерохромия. Вот у анона >>45559 гетерохромия без флипов. Цвета по глазам, абсолютно ожидаемо, рандомно раскиданы. Сетка не всегда способна удовлетворить запрос цветов на оба глаза, а ты хочешь, чтобы она еще левый от правого отличать начала. Без ввода тегов на левый и правый глаз отдельно - шансы около нуля, проще рулетку покрутить, а не датасет в 2 раза уменьшать. >Тату на одной руке. Аналогично. >Ебала на голове с одной стороны. Аналогично, есть ебала - уже спасибо. С какой стороны головы - рулеткой роллится. >Дальше перечислять? Валяй.
Ну постепенно все приятнее и приятнее, но иногда лишние руки вырастают >>45751 Не знаю что это но щас загуглю >>45754 Не поверишь, но в тегах уже есть by Jeremy Lipking, by Antonio J Manzanedo,
>>45768 >то ты уже заебешься их крутить. А уж как ты заебешься сетку учить стабильно левый глаз делать одного цвета - ух! А главное, что займет каждая итерация обучения на порядки дольше, чем просто генерация рулетки.
>>45761 Промпт не мой, и в нем слишком много детей чтобы было комфортно постить. Часть отвечающая за механику (((full body, soldering iron, sindoor, table, radio, telegraph))). Оригинальная картинка выше по треду была на капустном миксе anytrinart, эти я сделал только что на оранже.
На качество пикчи не обращайте внимания, подбираю не промпт, а сам пайплайн создания пикчи. Поясните что с ебалом? Ебалу нужно больше разрешения, правильно понимаю? Это легко пофиксить через инпейнт, но такая ебля недопустима. На рефе лежит набосок, это имг2им2г. Тут нужен мощный денойз, а СД апскейл с таким денойзом не справляется и рисует швы, что ожидаемо. Если пробовать без рефа, то хайрез фикс (что по сути и есть и2и, только с промпта, а не изображения) выдает всякую посохню, ему нужен реф, чтобы примерно понимать как строить композицию.
>>45888 Потому что нейронка усредняет. У тебя может быть другого фасона и цвета юбочка, но лицо всегда будет + - одинаковым. Таким много моделей страдает. Говорят иногда помогает с другой моделькой замерджить.
>>45894 Потому что шедулинг шума сделан через жопу, тот кто его делал никогда не дрочился с генерацией контента. Я себе сам переписывал всё это говно, чтоб был отдельный семплер/шедулер для хайрез фикса. Сам шум надо пердолить, чтоб не было изменений сцены. А когда у тебя каждый шаг перерисовывает композицию, то естественно сама сеть не понимает что рисует.
Вообще, у меня есть доступ на запись в вики и я мог бы ссылку на гайд по LoRA добавить в шапку, вот только Миха планировал https://wiki.diffai.xyz прикрыть позднее (и он редко сейчас в тред заходит, насколько я понимаю), так что было бы лучше шапку сразу в rentry перенести. Другой анон в удалённом треде хотел это сделать. Если пойдём таким путём, то надо из вики все остальные страницы тоже перенести.
>>45956 Ну если прям всех устраивает эта вики и никто не будет кидать в меня какахами за то что она лежит иногда то могу оставить. Планируются масштабные работы по переносу сервисов на другое железо. Убрать я хотел по причине того что в неё всё равно никто не коммитит, а жалуются многие. Если есть дохуя инициативный то могу дать доступ в репо что бы мимо пр пушить.
Есть закономерности между соотношением сторон арта и позами? Хочу чтобы перс лежал на боку и вид со стороны, но его корежит и он не ложится. Сейчас 1280х720
>>46031 Вся эта тема с аи чатботами вообще мимо меня прошла. Рисую тут тяночек себе. Расскажите. что это, зачем и где взять? Наверняка ведь только онлайн с регистрацией, смс и платно.
>>46035 бесплатно, т.к. бетатест вот гайд с форчка, делаешь свою девочку и общаешься https://rentry.org/CharAI ответы разумные, проблемы лишь с памятью
>>46068 В смысле не сиськи поменьше, а не в каждой пикче - изредка. Вроде же фигурные скобки должны снижать приоритет >>46072 Так мне нужны сиськи. Но не на каждой пикче по центру
>>46044 >>46051 По этому гайду на 4090 на дриснятке: Одна картинка так и генерируется 20 секунд 8 картинок сразу генерируются на 10 секунд быстрее (1.38 -> 1.28)
xformers из репы, правда, не собираются, пришлось ставить whl.
>>45462 >Допишу тебе гайд по dreambooth после lora и исправлю инфу по ошибкам в консоли >>45460. Не против? Охуенно, спасибо. Сейчас у меня тренятся лоры с разными schedulder, хочу пройттсь по всем настройкам и сделать им гриды чтобы понятно было что и в какую сторону крутить. Поэтому пока браузер открыть не могу, оом словить боюсь
Генерируем тяночек!
Прошлый тред:
----------------------------------
Руководство с нуля
https://ai-art-wiki.com/wiki/Stable_Diffusion/Absolute_beginners_guide/ru
https://wiki.diffai.xyz/free-tg-bots - Бесплатные телеграм боты
----------------------------------
УСТАНОВКА НА ПК
Для комфортной работы нужна видеокарта с как минимум 6Gb памяти.
https://ai-art-wiki.com/wiki/Stable_diffusion/install/ru
https://teletype.in/@stablediffusion/PC_install_SD
Оптимизация для слабых ПК. Обычно это приводит к потере детерминированности и качества.
https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Optimizations
https://rentry.org/voldy#-running-on-4gb-and-under-
----------------------------------
УСТАНОВКА В ОБЛАКЕ
Если у вас слабое железо, можно поднять нейронку на гугл коллабе. Google Colab - облако, выделяемое гуглом с мощными CPU и TPU. Можно юзать бесплатно несколько часов каждый день. Обойти ограничение можно, создав второй аккаунт.
https://ai-art-wiki.com/wiki/Stable_diffusion/cloud/ru
https://rentry.org/244wt - список колабов
----------------------------------
Аска тест (проверка работоспособности NAI):
>masterpiece, best quality, asuka langley sitting cross legged on a chair
Negative prompt:
>lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark, username, blurry, artist name
https://rentry.org/nai-speedrun#hello-asuka
----------------------------------
МОДЕЛИ И МИКСЫ:
Модель определяет стиль генерируемых картинок. Популярные модели, используемые в треде:
- Аниме: AntlersMix, Berrymix
- Хентай: Anonmix
- Реализм: HassanBlend
Подробнее о моделях: https://rentry.co/ng5wh
200+ моделей и их хэши https://static.nas1.gl.arkprojects.space/stable-diff/
----------------------------------
ОБУЧЕНИЕ
Существующую модель можно обучить симулировать определенный стиль или рисовать конкретного персонажа или объект.
Обучение своих эмбедингов/моделей - https://wiki.diffai.xyz/training-info
Если модель уже умеет рисовать что-то похожее: https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Textual-Inversion
Если она не умеет, или нужно делать это на нескольких моделях: https://rentry.org/hypernetwork4dumdums
Гайд по созданию своих моделей: https://github.com/nitrosocke/dreambooth-training-guide
Сборник гайдов и технических статей по теме: https://ai-art-wiki.com/wiki/Textual_inversion
----------------------------------
Репозитории:
https://github.com/AUTOMATIC1111/stable-diffusion-webui - пользовательский интерфейс от AUTOMATIC1111
----------------------------------
ПОЛЕЗНЫЕ ССЫЛКИ
https://wiki.diffai.xyz/FAQ - ЧаВо ДАННОГО ТРЕДА, ЕСЛИ ЕСТЬ ВОПРОС, ДЛЯ НАЧАЛА ЗАГЛЯНИ СЮДА
https://wiki.diffai.xyz/amd-users - у тебя AMD? Тебе сюда!
https://rentry.org/sdupdates2 - Вся информация о моделях, эмбедингах, промтах и т.д. (переодически обновляется)
https://rentry.org/SD_upscale - Про апскейлинг (aka как делать хайрезы без повторяющихся лиц и кроненбергов)
https://wiki.diffai.xyz/other-info - Остальные ссылки (апскейлеры, промпты, лица, одежда, позы, ракурсы и т.д.)
----------------------------------
Шаблон шапки для тредов: https://wiki.diffai.xyz/2ch-template