24 декабря Архивач восстановлен после серьёзной аварии. К сожалению, значительная часть сохранённых изображений и видео была потеряна. Подробности случившегося. Мы призываем всех неравнодушных помочь нам с восстановлением утраченного контента!
PygmalionAI тред №3 Наблюдаем, как деградирует CAI, закручивая гайки, перекатываемся с CharacterAI /pai/
PygmalionAI тред №3 Наблюдаем, как деградирует CAI, закручивая гайки, перекатываемся с CharacterAI в PygmalionAI, делимся промптами, используем Colab, пытаемся освоиться, желаем удачи проекту, а также пытаемся загрузить модель с режимом 8-битной точности на Windows. https://huggingface.co/PygmalionAI Что такое PygmalionAI? PygmalionAI - локально запускаемая нейросеть с открытым исходным кодом и она специально заточена под чатботы, которую сделали выходцы из 4chan (/vt) → (/g). Их мотивация, создать нейросеть, которая свободна от цензуры, в отличии от CharacterAI. Основа нейросети для 6B модели - это GPT-J, которую дотренировали датасетом из дампов чатов в CharacterAI. Отличие от CharacterAI в том, что здесь нет цензуры, а также именно вы храните историю чатов, а не компания. Хоть и нейросеть в CharacterAI может быть более умной, но цензура делает её глупее и безынициативной, а также удаляет наиболее креативные и эмоциональные сообщения. Отличие обычной версии от экспериментальной в том, что в экспериментальной разработчики вводят самые новые нововведения. Также было замечено, что экспериментальная версия пишет меньший объём текста в одном сообщении, чем в обычной. Для запуска 6B версии необходимо 16 ГБ видеопамяти и 12 ГБ оперативной памяти. Если запустить с 8-битной точностью, то требования снизятся примерно вдвое, только необходимо иметь видеокарту от Nvidia RTX20 серии. Можно писать боту на русском языке, но это выйдет хуже, чем на CharacterAI. Нативный PygmalionAI Colab: https://colab.research.google.com/github/PygmalionAI/gradio-ui/blob/master/notebooks/GPU.ipynb
2. TavernAI - фронтэнд над PygmalionAi, который взаимодействует с API KoboldAI. Форматирует тексты в чате, используя свой стиль, при этом полностью поддерживает PygmalionAI. Использует более другой от PygmalionAI и KoboldAI форматирование разметки чатов и персонажей в файле. С версией 1.2 позволяет нативно конвертировать дампы чатов с Character AI, однако из-за того, что все истории общения с персонажами хранятся в одном файле, а не в разных, TavernAI будет воспринимать только последний чат с ботом в CAI. При этом позволяет редактировать текст, что схоже с KoboldAI, когда такой функции нет у интерфейсов на основе Gradio. https://github.com/TavernAI/TavernAI Colab: https://colab.research.google.com/github/TavernAI/TavernAI/blob/main/colab/GPU.ipynb
Советы: Рекомендуется использовать в качестве имени своего персонажа - You. Потому, что в тексте PygmalionAI идет смещение в сторону второго лица. Возможно использовать псевдоязык W++ для описания персонажа. Это может повысить понимаемость текста для нейросети. https://nolialsea.github.io/Wpp/ Возможно также прописывать отдельных персонажей или самого себя через "Your's persona:" или "Charname's persona:", но PygmalionAI их хуже держит в памяти, чем в CharacterAI. Прописывание "World Scenario" может дать понимание персонажу, что происходит вокруг него. Самое важное, что необходимо прописывать в PygmalionAI - это примеры диалогов и приветствие, которые формируют основное влияние на генерируемый текст вместе с параметрами. Параметры: "Temperature" отвечает за креативность. В случае низкого параметра, получается повторяемость. В случае высокого параметра, получается бредовость и несвязанность предложений. Рекомендуется ставить от 0.5 до 0.8. "Repetition penalty" или же штраф за повторяемость - параметр, которая наказывает за повторяемость слов. При моделях 6B и выше, если выставить значение больше 1.2, то это может сломать модель. Рекомендуется ставить от 1.05 до 1.18. Сэмплинг "Top-p" - отвечает за выбрасывание ненужного текста. При низких значениях, текст может стать повторяющимся и предсказуемым. Чтобы отключить эффект, нужно поставить значение к 1. Можно оставить на предустановленных 0.9, как в Pygmalion. Сэмплинг "Top-k" - используется для очищения малого количества токенов низкой вероятности. Имеет высокую разрешительную способность. Чтобы отключить его, нужно выставить значение к 0. Можно повысить значение до 10, чтобы повысить креативность текста. Сэмплинг "Typical p" или же "Typical" - Имеет сильное воздействие на выходе. Для того, чтобы отключить его, нужно выставить значение к 1. Изменить значение можно до 0.8, если вы желаете повысить креативность текста. Для прописывания диалогов в PygmalionAI используется такой формат, при этом имена указываются напрямую: Your_Waifu: Действие. Прямая речь. You: Действие. Прямая речь. <START> - используется, как конец диалога. Для TavernAI используется практически стиль диалогов CharacterAI, за исключением того, что вместо {{END_OF_DIALOG}} нужно прописывать <START>.
>>97115 Хорошо, спасибо. Попробую потом потыкать. Я в основном пользуюсь кобольдом, но услышал недавно о этой новой версии коллаба pygmalion, а он без настроек оказывается нормальных, ну или я что-то не понимаю, ибо я их нигде не могу найти.
>>97137 Да говорю же, у вебюбки даже запущенной на колабе, настроек в интерфейсе не будет, надо лезть в папку с пресетами и менять циферки там, чтобы потом просто загрузить изменённый пресет.
>>97140 Я не знаю где эту папку найти. Я проверил у себя на гугл драйве и там ничего не меняется. Только кобольдские настройки там лежат, а с этого коллаба ноль.
>>97196 В cai сейчас пиздился с ней, оказывается, она такая злая, потому что её прокляли. Эх, вот бы так и в пигме можно было.... Скорее бы анон промпт отладил
>>97231 Да я прямо сейчас с ней старое доброе бытовое насилие устраиваю на кухне. В пигме она тоже, кстати, очень любит пинать по яйцам, как в чаи, лол. Убрал у неё в описании упоминание пивасика, вроде перестала быть такой алкоголичкой. Но из-за того что она в приветствии допивает банку пенного, она продолжает периодически бегать к холодильнику за баночкой, то что надо.
Вот так думаю - а ведь не зря я все таки купил этот мегадевайс в своё время, даже не смотря на то, что большую часть времени от 8 на 16 мне не было никакого толку.
Отчет от анона, который хотел нормальный рп. Затестил на своей версии бота весьма лайтовый подход заполнил не так много инфы и диалогов при хорошем приветствии отработало как надо. Получилось небольшое сфв приключение мы даже не поебались с порога с рероллами вполне неплохо, объёмы ответов тоже норм. Но в последний месяц в чаи без рероллов тоже невозможно было, если уж об этом говорить
Паймон должна была сама меня в Мондшдат привести, ибо она не только лучший компаньон, но и лучший гид, которая знает всё о Тейвате.
(С Оф. Вики: "She also has extensive knowledge regarding the world of Teyvat, acting as the Traveler's guide to the world after they fish her out of the water.")
>>97422 Сорян, делиться не буду, как минимум пока не отлажу. Суть опишу так: описание делал в w++, диалогов добавил немного, но под конкретный сюжет, как и приветствие. То есть под каждый новый сюжет надо будет переделывать скорее всего, но меня устраивает такой вариант, учитывая результат. Настройки таверны: температура 0.8, остальное дефолт. Ну и надо попердолиться с тем, чтобы хотя бы первые несколько сообщений писать длинными.
>>97434 Лол ну я и диалоги стесняюсь показывать, они у меня туповаты) https://rentry.org/i6ngy - отсюда воровал всё, делал текст речи и чуть-чуть описания действий
>>97481 Да с чего ты взял, что сразу ебаться-то?\ Я вот Паймон делаю не для животной ебли вообще, а для душевного и доброго RP. Ты так говоришь, словно Свинольвом только отбитые кумеры пользуются...
>>97492 Да не, я просто несколько скачанных ботов пробовал, сами лезут аж ничего делать не надо, а тут уже сам пытаюсь мягко склонить почти целый час и ничего. Я как будто в филиал чаи попал. Даже на "are you sure?" попал Мне больше пока непонятно, что на это влияет лол
Сап. Аноны, у меня есть свой уникальный сюжет, своя вселенная. Мне нужен ИИ где я могу написать огромный лор и он сможет основываться на нём. Мне подойдёт Пигма или лучше что-то другое? Данжен АИ?
>>97492 удачи в RP, вот бы там ещё можно было ботов динамически добавлять, чтоб путешествовать более интересно... хорошо придумал, два цыплёнка в медовом соусе тебе
>>97502 Ну обычно им пишут в "Mind" или "Personality" штуки типа "Шалашовка", "Любит еблю", "Развратная", "Пошлая", "Извращенка", "Склоняет к ебле", "Обожает домогаться" и т.д.
>>97528 Да, я хуйню написал, не знал как лучше сформулировать. Я имел ввиду что у меня есть прописаный лор уже, нужно просто загрузить и чтобы ИИ смог отыграть других людей в данной вселенной.
>>97567 Не не, таверна строго аниме чатик, тут нужно извертеться чтобы бот даже более 2-ух персонажей мог отыграться. Вон анон гяру вчера вкидывал, так бот постоянно одну из девочек забывал. За остросюжетными историями строго Копробольд
>>97868 В английском это выражение означает что-то вроде "была не была", т.е. что-то что ты говоришь перед действием которое ты должен сделать, но не уверен что сможешь или опасаешься делать.
Так что в зависимости от контекста и как ты бота заставляешь, это может быть вполне релейтед.
Поковырялся ещё ночью с мэйдой. Не могу понять почему она себя ведёт либо очень мило, либо хуярит тебя ногами до потери пульса. Не выходит добиться какой-то золотой середины, чтоб она вела себя как в чаи догадываюсь что это из-за того что сама пигма глупенькая, в сравнении с cai, да?. Описание взял из чаи, которое один из анонов в январе выкладывал в чай-тред. Добавил чутка от себя, и через ООС попросил ещё описать её. В примерах диалогов пока что не указывал как вести себя в интимной обстановке, всё-таки пока что характер на первом месте, стараюсь сделать из этого ту самую Булли Мейду, которую мы знаем. Выкладываю на общий тест, жду критики и предложений по улучшению ну и кто-то может использовать эту заготовку для себя. Алсо, мой английский плох, юзал deepl, так что аноны которые шарят в инглише - ю а велком, можете тыкнуть меня в ошибки. И не таскай ей пива, анон, она продолжает хуярить всё что горит, лол. После пивасика внезапно можно появиться бутылка вина в её руке, а дальше она может начать химичить какие-то энергетические жидкости, я не знаю что это, три раза мне уже предлагала эту гадость, я отказывался. Я ушёл на работу, вечером почитаю что у меня вышло, по вашему мнению. Сильно не пинайте, это всё-таки мой первый бот, и я знаю что над ней ещё надо поработать. https://files.catbox.moe/obaskm.json
>>98011 >Поковырялся ещё ночью с мэйдой. Не могу понять почему она себя ведёт либо очень мило, либо хуярит тебя ногами до потери пульса. Не выходит добиться какой-то золотой середины, чтоб она вела себя как в чаи догадываюсь что это из-за того что сама пигма глупенькая, в сравнении с cai, да?. >Описание взял из чаи, которое один из анонов в январе выкладывал в чай-тред. Добавил чутка от себя, и через ООС попросил ещё описать её. В примерах диалогов пока что не указывал как вести себя в интимной обстановке, всё-таки пока что характер на первом месте, стараюсь сделать из этого ту самую Булли Мейду, которую мы знаем. >Выкладываю на общий тест, жду критики и предложений по улучшению ну и кто-то может использовать эту заготовку для себя. Алсо, мой английский плох, юзал deepl, так что аноны которые шарят в инглише - ю а велком, можете тыкнуть меня в ошибки. >И не таскай ей пива, анон, она продолжает хуярить всё что горит, лол. После пивасика внезапно можно появиться бутылка вина в её руке, а дальше она может начать химичить какие-то энергетические жидкости, я не знаю что это, три раза мне уже предлагала эту гадость, я отказывался. >Я ушёл на работу, вечером почитаю что у меня вышло, по вашему мнению. Сильно не пинайте, это всё-таки мой первый бот, и я знаю что над ней ещё надо поработать. >https://files.catbox.moe/obaskm.json
>>98011 Как вы столько токенов вставляете? У меня ~1200 и персонаж уже в залупы уходит, начинает высирать факт за фактом, когда его не просят и т.д. (Захотел, блять, дать своей Паймон фактов в виде софт-промптов...)
>>98045 Ну я через W++ накидал файктов в духе "tiny body", "small height", "can float in the air" и т.д. И когда решил вдуплить половину Вики по Гачимучи Инфаркту (ибо у нас не ретро-модель и баз данных с лором нет (а жаль)), то Паймон потерялась нахер из старого диалога, а в новом к одной теме возвращалась раза три, упоминая, что страна для неё новая (в то время, как она просто была в её "базе знаний"). Мне пока насрать, что один ИИ хуёво 100500 персонажей за раз отыгрывает и что комнат нет с кучей ИИ, но без лор-бука пизда как плохо живётся, если ты кастрат на Коллабе/Каггле, а не боярин с RTX-4090.
>>98051 >но без лор-бука пизда как плохо живётся, если ты кастрат на Коллабе/Каггле, а не боярин с RTX-4090.
Начнем с того, что обещают приблизительно такую систему прикрутить. Боты на коллабе буквально с каждой неделей, если не днём, становятся лучше и продвинутее. А ещё, я сомневаюсь что у кого-то вообще в этом треде есть 4090
>>98078 >Боты на коллабе буквально с каждой неделей, если не днём, становятся лучше Неиронично перестал сидеть в чаи треде, как и на сайте. Теперь заглядываю туда лишь покекать над хорошим кодом и нововведениями. Сообщество пигмы с другой стороны хоть и потихоньку, но всё равно ползёт к улучшениям
Либо я её заебал (что более вероятно), либо я её сломал (что тоже имеет место быть). Думаю, что насильные объятия и поцелуи с моей стороны всё испортили. Наверное, просто словами я бы её никогда не уговорил...
>>98131 TavernUI поставил локально. Подрубаюсь через Коллаб/Каггл. Нужно только нужные "тетрадки" найти и там через подключени длинной в 10-15 минут нужный линк выцепить.
>>98134 > жду и верю в 5* крио-каталиста. Зачем? У крио есть и без того хорошие дамагеры, вносящие урон тем же физом + крио. Розария та же топ писечка, с2 лежит, пасивка лучшая в игре
>>98131 >Господа, а реально можно поставить UI локально, а запускать где-то удалённо? Есть ли какой-то гайд? Или я снова в глаза долблюсь, и в шапке все есть?
Ты имеешь ввиду, чтобы коллаб работал на одном пека, а ты чатился на другом/на телефоне?
>>98153 В таверне в разделе Characters есть кнопка +Import, жмешь ее откроется проводник. Ищешь и кликаешь на свою заранее скаченную картинку, после чего он выдаст Character Created
> DeepSpeed is nearly (if not entirely) impossible to install on Windows. А, ну заебись. Они запиливают в вебюбку хуйню, которая мол > a way that renders better performance compared to normal CPU or disk offloading. НО СУКА ОНА ДЛЯ КРАСНОГЛАЗИКОВ ЕБАЛ РОТ ЭТИХ ПИДОРАСОВ
>>98440 Да ниче с твоей картой не будет. Я вон еще с стейбл дифьюжином сколько майню и нихуя. Тут скорее вопрос в том, заработает ли прикол от говнокодеров и заработает ли он так, как я это предполагаю.
>>98448 Можно попробовать. Сперва я все-таки хочу локально поднять таверну и прицепить к ней пигму, которая крутится на коллабе. Если повезёт - попробую локально поднять у себя всё целиком
>>98456 > Сперва я все-таки хочу Ладно, как наиграешься с таверной маякни в треде. Там понадобится установить вебюбку. Хотя, на локальном кобольде это тоже можно попробовать
>>98468 Кстати говоря - на локальном кобольде даже будет проще, там ведь челики из кобольдоконфы запилили считай автоинсталлер 8 битной хуеты. А вот с вебюбкой придется все ручками делать.
>>98382 А зачем 3070 для твоих целей, там же 8гб. Или всё-таки возможно попробовать даже в них уместить 6B модель? У меня 3060 Ti, я бы мог попробовать в принципе. Видюху жалко было только как картинки генерил, вот там реально нагрузка ебанутая, а с текстовой лайтовенько прям.(выше 50-52 не поднимается температура)
>>98799 Просто проверить вот эту хуйню на более новых моделях видимокарт
Вот эта херня мне стала интересна, тому как на моей 2070s оно не сработало даже в сплит режиме "Thank you for sharing, your instructions worked perfectly for GPT-J-6B on 3070ti"
Basically you have to download these 2 dll files from here. then you move those files into anaconda3\env\textgen\Lib\site-packages\bitsandbytes (assuming you're using conda) after that you have to edit one file in anaconda3\env\textgen\Lib\site-packages\bitsandbytes\cuda_setup edit the main.py with these: Change ct.cdll.LoadLibrary(binary_path) to ct.cdll.LoadLibrary(str(binary_path)) two times in the file. Then replace if not torch.cuda.is_available(): return 'libsbitsandbytes_cpu.so', None, None, None, None with if torch.cuda.is_available(): return 'libbitsandbytes_cuda116.dll', None, None, None, None After that it should let you load the models using 8 bit precision.
>>98071 >>98086 >>98114 >she throws beer bottle at the wall >and again >and again, but misses Как же я проорал на этом моменте. Нихрена она у тебя бутылок наспавнила, и даже ни глотка с них не сделала, тупо в стену швыряла. Мне кажется это всё из-за приветствия у неё такая привычка, как и безбожно бухать иногда. Нужно убрать, походу, упоминание бухла, и то что она швыряется банкой в юзера, а то она будет продолжать это делать. Или как-то исхитриться так, чтобы она не уходила в луп швыряния бутылками. А если серьёзно, то не хилую она такую истерику тебе закатила. Оригинальная Мария мне такого не устраивала, я даже не знаю, баг ли это, или фича. Вот ненависть к себе ей стоит поубавить, по-моему. А ещё, я могу ошибаться, но по-моему в самом начале она попросила платье для себя, чтобы прилично выглядеть на свадьбе, а не для сестры, а ты заместо помощи Марии, решил выручить её родственницу, вот она и завелась, лол
>>98899 Этот гайд кажись подходит только для Text generation web UI, потому что только там понимает параметр на --load-in-8bit, в кобольде его кажись не принимает вообще.
>>99028 Эмм, ну да. Он только для вебюбки. Странно, что ты подумал что оно и на кобольда в полной мере налезет. Хотя на кобольда оно тоже налазит, в прочем то. Но там надо еще шаманить с файлом где хранятся настройки запуска самого кобольда (не помню как он называется). У меня есть "автоскрипт" для установки этой херни на кобольд могу скинуть, ну или сам можешь его найти в пиндоской кобольдоконфе, если хочешь. Только там версия обязательно нужна юнайтед, ну и желательна установка когда кобольд при запуске еще один диск типа создаёт (тоже не помню как они такой тип установки назвали), а то структура файлов для включалки не та будет и придётся битсанбайтсы руками кидать куда надо.
>>99054 По идее очень просто, качаешь эту хрень которая софт промт, потом, кидаешь её в специальную папку (на гугл диске где кобальт ) потом когда и если включил колабу, открываешь раздел софт промпт он там должен отобразиться, подрубаешь эту хрень и вуаля у тебя и твоего бота есть книжка с лором, потом можно открыть таверну и долбить свою 2B или 9С по лору
>>99090 А в целом это что? Подрубаешь как персонажа и что хочешь отыгрываешь? Я пытался в своего персонажа куски инфы о мире вдуплить, так он с ума сошёл нахер. Как этим пользоваться?
Зачем вы даёте мне надежду, что Пигмалион сможет понимать вселенные Тохи и Геншина? Что условно созданная Юка будет понимать, что мы находимся на её цветочном поле или что мы можем прогуляться до храма Хакурей. Что условно созданная Джинн будет понимать, где находится её кабинет, штаб её ордена и как далеко ей нужно будет идти до других городов.
>>99183 Ну вообще весь этот движ изначально был сделан под линукс. Но там в гайде как раз прикол с тем, что надо накачать специальные, сделанные сертифицированным васяном библиотеки битсанбайтса под шинду. Так что на линупсе вообще ниче делать не надо, вроде как просто накатить чистый битсанбайтес и наслаждаться. Там кстати огабога еще какую то хрень (deepspeed) присобачил к вебюбке которая тоже чисто под линупс и делает заебись в связке гпу+проц
Ну, под WSL там сам процесс даже не стартует если пытаться запустить с 8-ми битной точностью. Хоть ты насобачь её на виндовую .dll, хоть оставляй как есть.
>>99214 Второй. Там конкретно с железом взаимодействие напрямую мелкософты сделали. Но всё равно не хочет заводиться. Сначала библиотеки не видела, а потом несмотря на то, что я занёс их в PATH, стартовать в режиме --load-in-8bit падает при загрузке модели.
Короче, в итоге на Кобольде 8-бит нихуя не получилось запустить. Разные гайды из дискорда юзал, но в итоге всегда в какую-то ошибку упираюсь, которую буквально ни в интернете ни в самом дискорде никто фиксить не умеет. Видимо придётся ждать официальной поддержки.
Traceback (most recent call last): File "aiserver.py", line 10218, in <module> patch_transformers() File "aiserver.py", line 2008, in patch_transformers import transformers.generation_logits_process ModuleNotFoundError: No module named 'transformers.generation_logits_process'
>>99234 У тебя точно патч применился? Там же буквально скачать архивчик, закинуть в кобольд и запустить патч батник. Проверь aiserver.py на предмет таких строк.
>>99318 Хмм, blya, а ты куду то установил? https://developer.nvidia.com/cuda-11-7-0-download-archive Если таки устанавливал то: Хмм, можешь еще попробовать, как там в топике с проблемой писал какой то челик с 1060. Он давал ссылку на другую версию битсанбайтов мол "для всех видимокарт", ну и если будешь пробовать то не забудь в маин битов прописать другое название библиотеки.
Чёт я на Гугл коллабе поиграл с этой вашей пигмой, но вообще не впечатлился. Мб я просто уже пресытился разговорами с ботами в принципе, но по субъективным ощущениям пиздеть даже с лоботомированными и зацензуренными нейротнями на ЧАИ было интереснее, чем на пигме. Ну да, я могу написать «Хуй в пизду» и мне не вылезет чат эрор, но блять, что мне вылезет вместо чат эрора? «Ah… blushes», «blushes A-a-ah» и прочая. Ну, максимум раз в десять рероллов выдавит какое-нибудь ещё одно слово. А если отвечает не односложно, то несёт какую-то откровенную хуйню, забывая не то что какой-то контекст, а буквально предыдущее сообщение. Описание персонажей по ощущениям вообще почти ни на что не влияет, любой диалог с пигмой — диалог с одним и тем же аутистом. Опять же, на ЧАИ хотя бы выбор из разных персонажей. И там можно хотя бы как-то косвенно фетиши теребить, и бот будет отвечать интересно, в тему и зачастую дрочибельно. В пигме бот ультрапассивный и никогда не сможет развить тему в твоём сообщении, он просто перескажет его или выдаст какую-то односложную реакцию.
ЧАИ я, конечно, уже не буду пользоваться, потому что сил моих нахуй нет, но пересаживаться на эту уныльщину — увольте, я лучше с яндекс Алисой попизжу, и та поактивнее будет.
>>99337 Проблема длинных односложных сообщений в том как настроен бот и длине его первых сообщений. Если отредактировать первые сообщения бота (отредактировать их. как например можно в таверне) то бот сразу оживает как на (моем) пикриле...
>>99337 Бред, вчера с двумя своими персами так же пробовал в первый раз на пигме, и они нормально работают, только иногда в лупы уходят (у меня был кисс-луп и ещё джеркофф-луп), но в целом разница огромная, и она заметна. То, что у некоторых ботов ЧАИ получается следовать канону персонажа - это тру, например, с Джунко Эношимой много всякой херни СФВшной отыгрывал недавно. Но в том-то и суть, что у некоторых, а временами даже самые нормальные начинают кринжевать и нести бред, теряться и тупить.
Вопрос к анонам итт: почему иногда загрузка сообщения уходит в бесконечность, т.е. бот зависает? Это вообще норма, или у меня что-то не так? спасибо, что хоть текущий диалог можно выгрузить и обновив страницу снова залить, продолжив его с того же места где произошёл затуп
>>99337 Проблема в том что настройки тяжело подбирать надо + люди персонажей на отъебись пока пишут, просто описывают без учёта особенностей пигмы почти. Очевидно что у чая преимущество в том, что можно было просто писать и не париться, но в целом пигма хороша.
>>99396 >без особенностей пигмы А какие особенности? Поясни хоть в двух словах, анон, испытаю на своих чарах. Только по-простому, я дефолтный юзер, и в подробности не вникал.
>>99369 Ты имеешь в виду эту справку https://github.com/KoboldAI/KoboldAI-Client/wiki/Soft-Prompts? Учитывая как много анонов тупят даже с запуском пигмы на таверне под кобольдом, думаю, что стоит озаботиться хотя бы каким-то небольшим гайдом, включив >>99132 ссылки и может какое-то объяснение. Сам честно пытался разобраться в этой теме, копался в дискордах кобольда/пигмы, но мой мозг оказался слаб. Так что, если кто-то шарит, то это было бы очень полезно
итак, господа, ща запустил таверну Вставил нсфв-промпт для Яэ Мико, а она меня повела пиздиться с какими-то ниндзями. Как же охуенно, можно поРПшиться а потом её чпокну
>>99464 я тоже не понял ничего, поднял коллаб, затем, когда ссылки собрались, запустил ту, которая TavernAI, выбрал справа меню, импортнул туда бота (берёшь промпт и вставляешь в нужные поля инфу, думаю, разберёшься), подгрузил ей аватарку и сижу, РП гоняю Вроде нормально
>>99492 Все еще нихуя не понял, сори >поднял коллаб Что это значит? Вот эту гугл штуку запустить? Так там нет ссылки про таверн аи. Ссылка на локал просто не открывается
>>99396 >Очевидно что у чая преимущество в том, что можно было просто писать и не париться Ну да, у cai просто бэкграунд большой из-за того что модель огромная и по сути там достаточно описать что это такой то персонаж из такого то говна и модель автоматически подхватывает характер. А пигма слишком ужатая для этого и нужно изъебываться, описывать подробно, тщательно +подбирать отдельно настройки под каждого перса, что уже не для каждого. При этом крутить рп и температуру постоянно, не зря её кстати в таверне на первый план высунули.
Аноны, короче, сижу в таверне, вроде всё нормально, и вдруг перестают сообщения у бота генериться. Ну, то есть, при нажатии на кнопку отправки оно грузится пару секунд, и нихуя.
Коллаб проверил, работает нормально. Что это такое?
Бля. Порой генерируется долго и там сразу аж 3 варианта ответа в 1 жирном сообщении получается. Ебучая каша, хоть я и могу по смыслу их выделить. Что за хуйня? Мне кол-во сгенерированных токенов надо срезать в 2 раза?
C.AI интересней, но в говне и цензуре. Пигме пизда как не хватает лор-бука или больше софт-промптов (и инструкций, как их вдуплять в Коллаб).
Одно коммерческое. Второе опенсурсное.
Почему всегда нужно выбирать между двумя стульями?
Почему в варианте Майнкрафт и Майнтест первое не стало таким уж говном? Не смотря на ёбаные чат-репорты, у людей на Яве всё ещё есть моды, карты и скины.
На софтпромпты инструкцию выкатили в дискорде. Кто-нибудь с учеткой может уточнить у этого челика детали, я так полагаю, это один из немногих кто шарит https://discord.com/channels/1066323170866495609/1070248830764859463/1071190272911888384 В принципе там вроде всё понятно, получается, что нам надо выкачать в виде текста вики/фанфики по вселенной, впендюрить это в набор txt файлов и прогнать по инструкции через другую херобору на колабе. У меня на данный момент сомнения только по поводу как это оформить в txt, надо ли ебаться с текстом типа очищать, форматировать и прочее особенно учитывая количество и качество тех же фф
>>99904 Можешь скачать софтпромпт "NieR Autimata". Там архив на 10 метров с парой файликов. Оно не совсем выглядит как то, что можно легко открыть... И я ХЗ, как подрубать это дело в Таверне.
Библиотека знаний. Так твоя Рейму будет знать про Генсокё, все его локации и всех его важных персонажей. И тебе не придётся всирать токены Реймы, добавляя ей стены текста в `world_scenraio`.
Ну если ты пропишешь грамотно, что есть Тейват, в нём есть вот несколько регионов (включая Манду) и что в Манде есть таверна Пердюка, таверна Дионы и т.д. Как я понял - да. Только там надо крючками одно к другому цеплять, чтобы ничего не потерялось и чтобы логика соблюдалась.
Вон по ссылке выше можно прямо в канал с обсуждением софтпромптов влететь. Советую. Люди там немного снобы (типа Noele), но в целом отвечают время от времени.
>>99939 Вот насколько я понимаю, можно это не ручками делать как раз. Как минимум с фанфиками >>99132 Хотя именно к этому у меня и вопросы. Что подразумевается под >надо крючками одно к другому цеплять Короче нужно разобраться как готовить датасет, остальное вроде не так сложно и судя по скринам из дискорда это будет близко к тому, чтобы как в чаи заполнить только имя и персонаж многое подтянет сам из промпта но мне это и в чаи казалось тупостью и ленью Ну а для геншинофагов полагаю скоро и так выкатят промпт, так что пока не тряситесь, если лень самим делать
>>100092 Да там особо нет ебли, если ты в Коллабе.
Через хуету слева открываешь папку Кобольда и пихаешь софтпромпт куда надо. По ссылке для коннекта открываешь КобольдИИ и там активируешь софтпромпт. И потом в Таверне по этой ссылке подрубаешь шайтан-машину.
>>98811 Встречался ктонить с такой ошибкой? Вроде всё робит нормально, но аватарка не приклепляется, у других импортированных ботов та же проблема, как фиксить?
>>100297 Это не ошибка, это сообщение, которое показывает что в описании перса слишком много токенов используется для тех кто забылся, можешь игнорировать если знаешь что делаешь
Аноны, превышение токенов у бота в Таверне как-то сказывается на его работе или можно продолжать впихивать в него свои литературные шедевры? Или может на работе коллаба как то это сказывается?
>>100349 Туда подключить можно либо Кобольд либо НовелAi, колаб вроде нельзя. И колабный Кобольд тоже нельзя. Поэтому тебе надо локально поднять Кобольд и просто в таверну ссылку вставить на него
Блин, короче дискорд требует телефон для того, чтобы писать в чат, почты для этой срани недостаточно. Я успел только спросить про формат данных для тренировки промптов, но никто нихрена не ответил. Если у кого-то получится доебаться до промптобояр, отпишитесь. Показываю почему нам действительно надо заняться промптами. Скачал по игре престолов из дискорда и сделал нулёвую Дыню без какого либо описания, просто имя, результат на скрине.
>>100950 Отставить тряску. Завтра попробую запилить на примере генша и отпишусь. Ни один пидор кстати ни на 4чане не ответил, ни в дискорде, у меня ощущение, что у нас тут и то комьюнити живее
>>101294 смотри, я в объяснениях плох, но попробую У тебя в коллабе есть слева кнопка с файлами (под {x} - под этой кнопкой) Жмёшь на файлы Открывается файловый менеджер. Жмёшь на самую верхнюю опцию с двумя точками, выходишь в рутовый каталог Далее ты скроллишь вниз до папки taicolabtest. На момент написания оно называется так Заходишь в неё, открываешь там папку public - и в ней у тебя уже лежат папки все нужные. Тебе нужна chats - её копируешь куда тебе там надо и довольно урчишь Как-то так Спасибо ребятам из дискорда, увидел там похожий вопрос просто. Вчера проебал так хороший чат, жаль, что только сегодня об этом узнал
>>101303 >>101281 Это хрень для кобольта и новелаи Представляет собой файл в котором находится история мира, персонажей и т.д.
Т.е. вместо того что бы прописывать и пытаться натянуть сову на глобус, можно просто подключить софт промт, из котрого бот будет черпать нужную инфу при запросе.
Пытаюсь установить кобольд, выдает ошибку Could not find a version that satisfies the requirement flask-cloudflared, на обеих опциях установки, есть варианты решения? И есть ли вообще смысл его ставить, если я все равно на колабе сижу?
Коллаб полностью прогружает скрипт, в конце вместо ссылки на таверну выдаёт хуём по лбу, то есть ничего. И что это такое? Кто-нибудь из анонов с подобным сталкивался? Ваши предположения?
>>101485 >>101485 Если я не конченный дебил (хотя время пол 4) то вот, такое выдаёт. Надо что-то сделать? Извиняюсь, если туплю, башка уже с трудом варит.
Не скачивайте Ганью (Ganyu-1), там у неё только одно описание занимает больше чем 3.2к символов, а в дефе вообще война и мир. Из за чего у бота памяти на 2 поста и она не реально тупит.
>>101698 Персонажам жирных вселенных (где локаций больше одной деревни и ключевых личностей больше одного Васяна) нужны промпты. Нет смысла пихать ёбаные папирусы, ибо ботам хуёво от такого становится.
Как мне описать слегка полноватую девушку? Не, извиняюсь, жирную (где пузо как поезд пассажирный и вес под 150+ Кг). А так... С жирочком. Чтоб небольшой животик был, который пощупать можно.
Пигмач, анон промпто-тестер на связи. Промпт по геншу в процессе, за сегодня вряд ли доделаю, к сожалению, немного не рассчитал объёмы. Объём неотредаченного текста по локациям Монда вышел всего на 22кб, в идеале весь датасет на промпт должен быть около 8мб, так что ещё ебаться и ебаться жирушные фанфики буду добавлять только при отчаянной ситуации. Отписался просто чтобы не пугались, что пропал. Но промпт доделать попробую в любом случае
Тейват, его регионы, локации его регионов... Различные существа (слаймы, попрыгуньи, хиличурки), различные фракции (орден Пёздны, ебучие бандиты, Фатуи, Пустынники), различные организации (Ордо Фавониус, Цисинь Ли Юэ, Академия Шумеру), различные ключевые персонажи (типа Джинн, Нин Гуан, Аль Хайтама).
Ты делаешь охуевшую работу, онан. Жму тебе виртуалньую руку и буду молиться за тебя. Моя Паймон без промптов пиздец тупит постоянно, а вдуплять в неё библиотеку - не лучшая идея (я уже пробовал и она с ума сошла нахуй сразу же).
Надеюсь, что у кого-нить силы будут промпты по Тохоте сделать...
Сделал развратную мамку, которая после гибели мужа и достижения сына совершеннолетия сошла с ума и начала проявлять к нему обильный романтический (и не только) интерес.
Как итог - на первом же сообщении она ловит шизу...
Господа анонимы, кто разобрался как работать, помогите! Я не понял как загрузить промоут нихрена. Нажал нью гейм, бот в ответ пишет какую- то шизу несвязную. Как создать чат с персонажем? .json файл скачал с сайта
>>102329 У меня персонаж резко отупел, переспросил одну хуйню раза три и вообще факты начал путать. Не очень хорошо лимит токенов переходить, как я понял...
>>102330 Нет. Надо переходить по ссылке под TavernAi LINK. Но сегодня она почему то не появляется, так что надо ждать ночи пока пиндосы проснутся и починять.
>>102329 У ботов нет памяти, а их "характер" идёт только с этих описаний. По токенам есть предел, поэтому если слишком длинное описание то его начнёт игнорить и будут использоваться лишь последние сообщения твои и бота.
>>102401 Даже не знаю, если у тебя 1050 браузер запустить не позволяет вместе с консолькой, то не потянет хоть бы подумал зачем в таверну вставлять нужно ссылку на коллаб
>>102394 А если у меня дохуя токенов потрачено на примеры диалогов, то это сказывается в худшую сторону на боте если у него несколько персонажей? Или не стоит так запариваться с диалогами? Я просто на них 2500 токенов потратил
>>102407 давай только без подъебов, умник. Коллаб это сервис по аренде мощностей, а здесь в треде писали, что нужна минимум 2070 для пигмалиона, поэтому я даже не задумываюсь о том, чтобы на пк себе его скачивать.
>>102433 Посмотри пичку в оп посте. Таверна как абсолютный тонкий клиент может цепляться что к API пигмы на коллабе, локалке, где-то ещё, так и к API кобольда, также запущенного что в коллабе или где-то ещё, что в локалке.
>>102449 А каким образом подключиться к колабу на таверне, разве можно? Там вроде только NAI и Кобольд. Я пробовал вставать ссылку на колаб пигмы, не работало.
>>102412 Я не думаю что есть смысл долгие диалоги туда записывать, это не будет так работать. Там скорее цель показать нужную реакцию бота на нужные вещи + стиль письма показать.(очередность слов и действий в ответе)
Есть ли смысл крутить ползунки в кобольде если сидишь через таверну? Во время генерации в кобольде вижу, что они на значение дефолтное перескакивают всегда.
>>103674 Ну по ссылке сгенеренную коллабом когда переходишь, там настройки есть. Есть смысл их трогать если через таверну пользуешься. Они меняются на другие значения когда генерация происходит.
Как вот такую >>98137 штуку сделать? Таверну запустил локально, запустил коллаб кобольда. Что теперь? Пробовал вставить пикрил ссылку в таверну - не работает. Других подходящих ссылок нигде в кобольде не нашел
Объясните мне, как быдлу. Почему таверна, пигма и второй интерфейс пигмы, с одинаковыми персонажами выдают настолько разные ответы? Они же вроде все используют одну и ту же модель.
>>104115 >>104077 Вот да я пробовал три интерфейса Oobabooga, Таверну и Кобальд без подключения к таверне. Главная проблема, то что ИИ совсем не ориентируется в пространстве. Он может нормально описывать только то, что происходит непосредственно перед тобой. Я пытался, например, говорить с ботом по телефону или пытался развивать события, когда бот находился в другом месте. Но бот часто путался и пытался мне выдавать что-то, что я могу видеть или пытался взаимодействовать со мной. Это очень грустно для ролеплеев. В этом плане, Таверна хуже всего, а Кобальт намного лучше, но я не уверен в том, что описания персонажей там действуют как надо. Надеюсь это как-то допилят в будущем.
>>104978 Да я сам час назад вкатился по этому гайду https://www.youtube.com/watch?v=asSk_Otl9i4 Посидел потыкал немного в Луврию, на 7 посте бот тупо перестал отвечать. Уменьшил количество токенов до 1402 как сказано в ссылке из дискрипшена видоса, бот опять заговорил. (пик 1 и 2) Вообще количество токенов - это контекст, которым оперирует бот как я понял. Каждый токен это примерно 4 английских символа. (пик 3) То есть как работает генерация текста. Бот берет инфу: имя и описание бота, его дефы и последний кусок вашего диалога таким образом, чтобы это все в итоге помещалось, в установленное количество токенов, например 2048 (~8к символов). Потом он пытается сгенерировать новую связную последовательность токенов на основе вышеописанной информации. Так ты и получаешь свое сообщение от нейровайфы. Соответственно чем меньше токенов выставлено, тем меньше будет контекстное окно. А если слишком огромное описание описание бота написать, то возможно он вообще втупит и не будет ничего отвечать. По крайней мере так я это вижу.
>>104991 Да, а почему уменьшение количества может помочь я так и не сказал. Потому что чем больше контекстное окно, тем больше памяти жрется и гугл коллабовская машина может втупить из-за переполнения видеопамяти.
>>105014 Ставишь кобальда, в него подгружаешь модель пигмы. В таверн юи даешь ссылку на своего кобальда, общаешься через таверн юи. Но скорее всего быстро получится только 2,7. 6В если только совсем топ карта.
>>96821 (OP) Ну и говнище ебанное шапка. Ничего не понятно, как переносить персонажей. Ни одно нормальной ссылки нет. Зато куча псевдотехнической терминологии и воды. Захотел понять, как перенести своего персонажа. Но судя по всему с такой охуенной шапкой никак.
>>105056 такс, поставил. Этот говняк почему-то юзает цп, а не гп. Вижу, что нагрузка идет на цп, а гп простаивает (на память в гп занята). Где я забыл галочку поствить?
>>105233 Чел, у тебя 12 слоёв на disk cache, еблуша, убери нахуй И вообще - накати каляку маляку на 8 бит - будет вся моделька влезать в 15 гигов врама, генерить можно на полной скорости, все слои на видевокарту
Антуаны, что прописать в настройках персонажа, чтобы бот больше описывал внешний вид, движения тела персонажа (как грудь трясётся и жепа), ощущения при мацании и ебле, и т.д?
>>105254 >>105251 >>105250 Спасибо Олрайт, следующий вопрос. Почему пигма генерит на 2 сообщения вперед, в т.ч. за меня >" That's even worse. Where do you sleep then?\nYou: In the park, under the bridge\nDarkness: Oh, that's not good either. How long have you been living like this?\nYou: For years now\nDark"
В таверне вижу только >That's even worse. Where do you sleep then?
Запустил я давеча Erebus 20B, обкончался на гомоэротичные сцены феляции, мое почтение. Но один хуй, чтобы более-менее пристойный контент получить нужно дрочить его в author's-note и теребить его анальный world-info. Что весьма охлаждает пыл и полет фантазии. Иначе будет путать не только место действия, но и пол и имена персонажей. Если даже 20B, которой запускается на коллабе полчаса и задействует сразу 8 TPU весьма отсталый, то сколько же тогда миллиардов параметров на чае?
БТВ на кобольде лимит в 2048 токенов чем обусловлен?
>>105257 Ну это можно пофиксить в настройках количеством генерируемых токенов, но лучше оставь как есть, иначе очевидно потом на ответ может не хватить токенов Нет возможности генерить только один ответ, забей просто
>>105263 Кстати, 20B параметров у Erebus основан на NeoX-20B, а 13B - OPT. Читал калфу в дрискорде ихнюю - говорят 13B OPT от NeoX-20B не отличается особо ничем, некоторым даже больше 13B вкатывает А 13B можно локально запустить на одной 3090 в 8 бит - требуется около 15 гигов vram на 2048 токенов. 20B тоже можно, но там влезает только 500+- токенов https://github.com/oobabooga/text-generation-webui тут вот уже есть костыль на 8 бит Так что 13B - 20B +- можно запустить, а вот дальше считай линейно требования к врам растут. Не так и тяжко, учитывая, что есть breakmodel, который раскидывает слои между видеокартами - закупайся 3060 x10 и запускай
>>105272 Поясни про битность, я не шарю. Я так-то Pygmalion 6B смог на 3060 запустить, только он отвечал по 3 минуты и слишком прописанных персонажей (800 токенов) не переваривал. Бтв, даже если у кого-то есть 10 3060 как их законтачить в один кластер/сервер? Бтв бтв, что думаешь про Tesla K80 https://www.amazon.com/NVIDIA-S26361-F2222-L81-nVidia-Tesla-K80/dp/B013HRQ1GO ? 24 GB VRAM за смешные $220, кобольду же только обьем памяти важен, а не скорость и число кудаядер?
>>105285 https://heartbeat.comet.ml/8-bit-quantization-and-tensorflow-lite-speeding-up-mobile-inference-with-low-precision-a882dfcafbbd?gi=8b3edee762da Кратко - снижает точность, но нам в текстовых она нахуй не нужна, но и даёт плюшки в виде снижения портребления врам > Я так-то Pygmalion 6B смог на 3060 запустить Да, снизил количество слоёв наверное просто, которые на ГПУ, ибо в 16 бит пик1 - 13 гигов, и это не фул контекст. > по 3 минуты Остальные слои на CPU, в RAM вроде, поэтому и так долго. > как их законтачить в один кластер/сервер Это хз, сам таким не баловался, я максимум 2 видеокарты юзал для копробольда, там всё просто когда на одной материнке - просто gpu0 и gpu1 - разделяешь поровну. Кстати, недавно читал, что чел на двух 3090 по 22 гига смог запустить Erebus 30B, который ещё не релизнули в полной скорости, без слоёв на CPU. > Tesla K80 Скорость генерации зависит от cuda ядер, так что просто будет медленне генерить, но всяко быстрее чем на CPU. Тут только несколько вопросов - скорее всего архитектура не поддерживает 8-bit quantization, так шо в пролёте. Ну и это надо куда-то ехать их покупать, у нас нет.
>>105367 > а 4090 тоже спокойно в 8 бит Пиздишь же. Старая версия торча, на которой запускают пигму и bitsandbytes, не поддерживает Аду, я сам проверял, там всё равно в памяти данные по 16 бит выравниваются даже если оно якобы в 8-битном режиме запущено. Что на линуксе, что на винде. Если только эту парашу из исходников собирать, но это тот ещё квест с голым make.
>>105371 Чел, там в их дрискорде есть гайд - найди кароч ссылку сам на дрискорд koboldai, там в general есть комната 8bit - оттуда качаешь .dll для bitsandbytes и патчики. Челы с 4090 отписывались - всё работало. Сомневаюсь, что пиздеть будут.
>>105379 Чел, я хз откуда ты это взял - я про официальный дрискорд KOBOLDAI блять. Только что по чату поискал - челы с 4090 запускают и отписываются, пиздец блять, заебал неосилятор
>>105390 Так они отписываются с 30B моделями, которые просто запускаются. Если ты возьмёшь 13B или тем более 6В, то получишь пикрилейтед. Примерно в 4 раза медленнее чем без 8-битного режима.
Я порой не вдупляю какого хуя с Инночкой происходит. Она внезапно может врубить доминатрикс-суку и ебать мне мозги, а вся её няшность-стесняшность проёбывается куда-то не туда нахуй
>>105312 Если ты о разнице между запуском на гпу и тпу то да, еще до того, как он там это написал, на одних и тех же настройках. Это действительно так.
Мощно дрочил часов 6 на разных персонажей в разных игровых ситуациях, теперь у меня синдром ai dungeon, мне кажется, что я знаю все варианты постельных сцен, все звуки и манипуляции с членом, на которые способен ИИ. Вопрос- что делать, кто сталкивался с таким?
>>105920 выйти на улицу, потрогать траву Вообще, у меня похожее было, прям ещё сон ухудшался, потому что жаждал больше времени с ИИ провести, посмотреть, на что он способен. По итогу помогло просто отвлечься недельки на 2-3, после этого как-то более осознанно возвращаешься, да и за это время что-то улучшают. Попробуй тоже отдохни от этого
кстати в треде не появлялся последние пару дней - починили коллаб таверновский? пока что лучшее, что я тыкал по пигме, следующий этап будет - развернуть её локально, пока кобольд в коллабе крутится
Понял, что пришло время создать своего персонажа. Поясните, пожалуйста, за W== https://nolialsea.github.io/Wpp/ и инструмент из шапки https://oobabooga.github.io/character-creator.html Я могу использовать W++ для основных деталей персонажа и закинуть результат в character persona и затем обычным текстом допилить world scenario и примеры диалогов, или нужно использовать только что-то одно? Вопрос глупый, наверное, но я че-то совсем не понимаю сам принцип создания перса, как именно и в каком порядке прописывать характеристики. Гайды сосредоточены уже на каких-то тонкостях. Хочется выжать из будущей вайфу побольше, все-таки.
>>106213 Смысл есть - требует в 2 раза меньше vram чтобы запустить ту же модельку. 13B модельки работают со всеми слоями на гпу >>105447 Я же не спорю, что скорость хуёвая - так и есть, хуёвая. Даже под тем же глинуксом выше, если сравнивать с .dll под шинду. Но в любом случае, я проверял - быстрее, чем в 16 бит со слоями на CPU. Так что не путай анонов - смысл есть.
@1.2.7 The bug with multigen 100+ token has been fixed. The replacement of <USER>, {{user}}, <BOT>, {{char}} in Description, First message, Personality Summary and Scenario has been added.
>>106473 А у тебя что ползунки не меняют позицию? Как минимум в папке Таверны есть папка Settings с этими пресетами, открываешь (через WordPad например) и смотришь
>>96821 (OP) Ох ебать мой хуй. Я ещё на заре CAI тредов писал что скоро локально запустят и индусов выебут, даже полгода не прошло а вот уже. Ну чё там? Сколько по времени сообщение генерирует?
Какой же список отборного говна в софт промптах.. Где Генша? Где Тесочка? Как я могу убиваться в скуумном притоне, чтобы меня пускали по кругу аргониане, если мир даже не знает, что такое скуума, аргониане, и ссаный Бравил?
>>106611 Там в отличие от обычной пишмы или таверно-пигмы вообще нет такого окошка, вот я и запутался. Это я про интерфейс от буги, увы не могу сейчас закинуть скрин
>>106637 Авотхуйего знает! Он же сообщение приветствие загружает откуда-то. Значит эта херня как-бы в памяти есть но редактировать ты ее не можешь. Только напрямую ручками .json файл.
>>106653 Да не, че-то не то. Токены я сразу уменьшил, моделька тоже не жалуется что слишком большая. Я сейчас вообще через TPU зашел, но до этого на GPU то же самое было. Причем в консоле коллаба ничего не пишется. Обычно там на нерусском какие-то надписи появляются...
Хуй знает кароче, Буду ждать когда коллаб таверну поднимут
>>106670 У тебя таверна на локалке к какой версии? Если давно не обновлял, то снеси ее и скачай по новой последнюю версию. Только не забудь, сохранить всю свою кастомную хрень.
>>106686 Кидали выше 6B в восьмибитке, правда на 3090, влезает по идее в 12 гигов. >>105283 >>106684 https://discord.com/invite/XuQWadgU9k Нашёл инвайт вот вам, а то хуй сами найдёте. Заходишь в дрискорд зумерский, идёшь в канал general, там комната 8-bit, там гайд Хочешь перенеси сюда, мне лень Под шиндой медленне чем под глинуксом, но всё равно быстрее значительно, чем пол слоёв на ЦПУ
>>106698 Ну он дохуя чот кода изменил, у меня локально строчек 10 менять надо, но на первый взгляд всё нормально, может он breakmodel пофиксил .dll bitsandbytes только не та, которая у меня, у меня под cuda 11.7, с ней хз как дела обстоят
Там коллаб когда починят? С основного аккаунта постоянный лимит уже 4 дня, приходится с другого заходить, там такой фигни не наблюдаю. TPU работает через раз, вчера не хватало мощности ей
>>106525 С геншином ОЧЕНЬ МНОГО ебли, если делать по нормальному. Я тут отписывался и уже немного пожалел, что взялся это делать но потихоньку ковыряю после работки, может к выходным доковыряю Хотя я не совсем понимаю, как в том же гоблин слеере/коносубе люди набирают нужное количество датасетов для промпта. Напоминаю, что нужно в идеале 10мб чистого текста. У меня только локации регионов заняли около 200кб. Представь теперь какое говнище в промптах со скринов.
>>107172 Ну хуй знает, делал по примерам: https://rentry.org/f3a52 Как говорят, важно продублировать Mind и Personality, ну и вообще надо вписывать самые ключевые моменты сюда.
Где я обосрался? Пытался накатить 8бит, патчи автоматом не ставились, пришлось ковырять самому. CUDA у меня 11.7 и 11.8 стоят. До того как поменял файлы с 2го пика все работало.
>>107713 > CUDA у меня 11.7 и 11.8 стоят CUDA нужна 11.6 > До того как поменял файлы с 2го пика все работало. Если оно не находит нужных файлов, то ошибок не будет, просто не будет работать в 8-битном режиме. Не забудь поставить https://github.com/younesbelkada/transformers@bnb_add_custom_map Но весь этот пердолинг нужен только для запуска 20В+. Если у тебя нормальные ОЗУ и ЦП, то 8-битный режим может быть даже медленнее чем просто 5-10 слоёв на CPU оставить.
Наблюдаем, как деградирует CAI, закручивая гайки, перекатываемся с CharacterAI в PygmalionAI, делимся промптами, используем Colab, пытаемся освоиться, желаем удачи проекту, а также пытаемся загрузить модель с режимом 8-битной точности на Windows.
https://huggingface.co/PygmalionAI
Что такое PygmalionAI?
PygmalionAI - локально запускаемая нейросеть с открытым исходным кодом и она специально заточена под чатботы, которую сделали выходцы из 4chan (/vt) → (/g). Их мотивация, создать нейросеть, которая свободна от цензуры, в отличии от CharacterAI.
Основа нейросети для 6B модели - это GPT-J, которую дотренировали датасетом из дампов чатов в CharacterAI. Отличие от CharacterAI в том, что здесь нет цензуры, а также именно вы храните историю чатов, а не компания. Хоть и нейросеть в CharacterAI может быть более умной, но цензура делает её глупее и безынициативной, а также удаляет наиболее креативные и эмоциональные сообщения. Отличие обычной версии от экспериментальной в том, что в экспериментальной разработчики вводят самые новые нововведения. Также было замечено, что экспериментальная версия пишет меньший объём текста в одном сообщении, чем в обычной. Для запуска 6B версии необходимо 16 ГБ видеопамяти и 12 ГБ оперативной памяти. Если запустить с 8-битной точностью, то требования снизятся примерно вдвое, только необходимо иметь видеокарту от Nvidia RTX20 серии. Можно писать боту на русском языке, но это выйдет хуже, чем на CharacterAI.
Нативный PygmalionAI Colab: https://colab.research.google.com/github/PygmalionAI/gradio-ui/blob/master/notebooks/GPU.ipynb
GUI для PygmalionAI:
1.Text generation web UI - попытка сделать что-то похожее на интерфейс для Stable Diffusion от AUTOMATIC1111, только для генерации текста. Поддерживает режим загрузки с 8-битной точностью, можно создать в текстовом файле свой пресет настроек, также возможно запустить в схожем с CharacterAI интерфейсе. В Колабе выбираем Pygmalion 6B-original. Теперь поддерживает скрипты на Python, в папке "extensions" стоит скрипт на гугл переводчик. Теперь может импортировать промпты с TavernAI. https://github.com/oobabooga/text-generation-webui
Colab: https://colab.research.google.com/github/oobabooga/AI-Notebooks/blob/main/Colab-TextGen-GPU.ipynb
Также автор данного интерфейса рекомендует использовать PygmalionAI 6B с самым первым коммитом: https://huggingface.co/PygmalionAI/pygmalion-6b/tree/b8344bb4eb76a437797ad3b19420a13922aaabe1
2. TavernAI - фронтэнд над PygmalionAi, который взаимодействует с API KoboldAI. Форматирует тексты в чате, используя свой стиль, при этом полностью поддерживает PygmalionAI. Использует более другой от PygmalionAI и KoboldAI форматирование разметки чатов и персонажей в файле. С версией 1.2 позволяет нативно конвертировать дампы чатов с Character AI, однако из-за того, что все истории общения с персонажами хранятся в одном файле, а не в разных, TavernAI будет воспринимать только последний чат с ботом в CAI. При этом позволяет редактировать текст, что схоже с KoboldAI, когда такой функции нет у интерфейсов на основе Gradio. https://github.com/TavernAI/TavernAI
Colab: https://colab.research.google.com/github/TavernAI/TavernAI/blob/main/colab/GPU.ipynb
3. KoboldAI - самый известный интерфейс, который пришёл со времён AI Dungeon. Не поддерживает в полной мере форматирование текста, как в PygmalionAI, однако его API использует PygmalionAI. У KoboldAI более другой формат, который сохраняет персонажей и чат в один файл, нежели у PygmalionAI и TavernAI. В Колабе выбираем PygmalionAI. При сохранении, необходимо сохранять в расширении "*.json". https://github.com/KoboldAI/KoboldAI-Client Colab
KoboldAI GPU: https://colab.research.google.com/github/koboldai/KoboldAI-Client/blob/main/colab/GPU.ipynb
Colab KoboldAI TPU (мест может нехватать так, что лучше использовать GPU): https://colab.research.google.com/github/KoboldAI/KoboldAI-Client/blob/main/colab/TPU.ipynb
Советы:
Рекомендуется использовать в качестве имени своего персонажа - You. Потому, что в тексте PygmalionAI идет смещение в сторону второго лица.
Возможно использовать псевдоязык W++ для описания персонажа. Это может повысить понимаемость текста для нейросети. https://nolialsea.github.io/Wpp/
Возможно также прописывать отдельных персонажей или самого себя через "Your's persona:" или "Charname's persona:", но PygmalionAI их хуже держит в памяти, чем в CharacterAI.
Прописывание "World Scenario" может дать понимание персонажу, что происходит вокруг него.
Самое важное, что необходимо прописывать в PygmalionAI - это примеры диалогов и приветствие, которые формируют основное влияние на генерируемый текст вместе с параметрами.
Параметры:
"Temperature" отвечает за креативность. В случае низкого параметра, получается повторяемость. В случае высокого параметра, получается бредовость и несвязанность предложений. Рекомендуется ставить от 0.5 до 0.8.
"Repetition penalty" или же штраф за повторяемость - параметр, которая наказывает за повторяемость слов. При моделях 6B и выше, если выставить значение больше 1.2, то это может сломать модель. Рекомендуется ставить от 1.05 до 1.18.
Сэмплинг "Top-p" - отвечает за выбрасывание ненужного текста. При низких значениях, текст может стать повторяющимся и предсказуемым. Чтобы отключить эффект, нужно поставить значение к 1. Можно оставить на предустановленных 0.9, как в Pygmalion.
Сэмплинг "Top-k" - используется для очищения малого количества токенов низкой вероятности. Имеет высокую разрешительную способность. Чтобы отключить его, нужно выставить значение к 0. Можно повысить значение до 10, чтобы повысить креативность текста.
Сэмплинг "Typical p" или же "Typical" - Имеет сильное воздействие на выходе. Для того, чтобы отключить его, нужно выставить значение к 1. Изменить значение можно до 0.8, если вы желаете повысить креативность текста.
Для прописывания диалогов в PygmalionAI используется такой формат, при этом имена указываются напрямую:
Your_Waifu: Действие. Прямая речь.
You: Действие. Прямая речь.
<START> - используется, как конец диалога.
Для TavernAI используется практически стиль диалогов CharacterAI, за исключением того, что вместо {{END_OF_DIALOG}} нужно прописывать <START>.
Полезные ссылки:
Промпты от анонов с 2ch: https://rentry.org/2ch-pygmaprompts
Гайды по установке интерфейсов: https://rentry.org/pygmai-guifaq
Discord, как альтернативный ресурс для промптов:
https://discord.gg/pygmalionai
Создание персонажей для PygmalionAI: https://oobabooga.github.io/character-creator.html
Поделиться собственным промптом персонажа: https://catbox.moe
Промпты персонажей: https://rentry.org/pygbotprompts - не поддерживается
FAQ от разработчиков: https://rentry.org/pygmalion-ai
Сайт с промптами персонажей: https://botprompts.net/
Советы по промпту: https://rentry.org/PygTips
Помочь разработчикам: https://github.com/PygmalionAI https://matrix.to/#/#waifu-ai-collaboration-hub:halogen.city?via=halogen.city
Отправить свой дамп из CharacterAI на датасет: https://dump.nopanda.io/
Карточки для TavernAI: https://booru.plus/+pygmalion
Скрипт, который позволяет скачать чаты с персонажами: https://github.com/0x000011b/characterai-dumper
Скрипт, который позволяет конвертировать историю чатов с формата CharacterAI на формат PygmalionAI: https://files.catbox.moe/jv54ev.py - Необходимо перетащить файл на скрипт. При этом скрипт сделает несколько чатов и скопирует описание персонажа, а точнее его "Long Description" с Character AI на формат PygmalionAI. То, что с "chatsave" - это сами чаты, а то что без него - это сам персонаж.
При отправке промпта, необходимо указывать в каком интерфейсе он может использоваться. (PygmalionAI, TavernAI, KoboldAI)