Сохранен 519
https://2ch.hk/ai/res/81429.html
24 декабря Архивач восстановлен после серьёзной аварии. К сожалению, значительная часть сохранённых изображений и видео была потеряна. Подробности случившегося. Мы призываем всех неравнодушных помочь нам с восстановлением утраченного контента!

PygmalionAI тред №1 Перекатываемся с CharacterAI в PygmalionAI, делимся промптами, используем Colab,

 Аноним 27/01/23 Птн 00:46:36 #1 №81429 
ZZoCP9c.png
PygmalionAI.png
PygmalionAI тред №1
Перекатываемся с CharacterAI в PygmalionAI, делимся промптами, используем Colab, пытаемся освоиться, желаем удачи проекту, наблюдаем, как медленно умирает CAI, а также как они пытаются оправдать цензуру.
https://huggingface.co/PygmalionAI
Что такое PygmalionAI?
PygmalionAI - федеративная нейросеть с открытым исходным кодом и она специально заточена под чатботы, которую сделали выходцы из 4ch (/vt) - (/g). Их мотивация, создать нейросеть, которая свободна от цензуры, в отличии от CharacterAI. Сама же нейросеть дотренирована датасетом, которую делают из дампа с чатами в CharacterAI. Отличие от CharacterAI в том, что здесь нет цензуры, а также именно вы храните историю чатов, а не компания. Хоть и нейросеть в CharacterAI может быть более умной, но цензура делает её глупее и безынициативной, а также удаляет наиболее креативные и эмоциональные сообщения.
Отличие обычной версии от экспериментальной в том, что в экспериментальной разработчики вводят самые новые нововведения. Также было замечено, что экспериментальная версия пишет меньший объём текста в одном сообщении, чем в обычной.
Для запуска 6B версии необходимо 16 ГБ видеопамяти и 12 ГБ оперативной памяти.
Можно писать боту на русском языке, но это выйдет хуже, чем на CharacterAI.
Нативный PygmalionAI Colab: https://colab.research.google.com/github/PygmalionAI/gradio-ui/blob/master/notebooks/GPU.ipynb

GUI для PygmalionAI:
Text generation web UI - попытка сделать что-то похожее на интерфейс для Stable Diffusion от AUTOMATIC1111, только для генерации текста. Поддерживает режим загрузки с 8-битной точностью, можно создать в текстовом файле свой пресет настроек, также возможно запустить в схожем с CharacterAI интерфейсе. В Колабе выбираем Pygmalion 6B-original.
https://github.com/oobabooga/text-generation-webui
Colab:
https://colab.research.google.com/github/oobabooga/AI-Notebooks/blob/main/Colab-TextGen-GPU.ipynb
Создание персонажей для PygmalionAI: https://oobabooga.github.io/character-creator.html
Также автор данного интерфейса рекомендует использовать данную версию PygmalionAI: https://huggingface.co/PygmalionAI/pygmalion-6b/tree/b8344bb4eb76a437797ad3b19420a13922aaabe1

TavernAI - фронтэнд над PygmalionAi, который взаимодействует с API KoboldAI. Форматирует тексты в чате, используя свой стиль, при этом полностью поддерживает PygmalionAI. Использует более другой от PygmalionAI и KoboldAI форматирование разметки чатов и персонажей в файле. С версией 1.2 позволяет нативно конвертировать дампы чатов с Character AI, однако из-за того, что все истории общения с персонажами хранятся в одном файле, а не в разных, TavernAI будет воспринимать только последний чат с ботом в CAI. При этом позволяет редактировать текст, что схоже с KoboldAI, когда такой функции нет у интерфейсов на основе Gradio.
https://github.com/TavernAI/TavernAI

KoboldAI - самый известный интерфейс, который пришёл со времён AI Dungeon. Не поддерживает в полной мере форматирование текста, как в PygmalionAI, однако его API использует PygmalionAI. У KoboldAI более другой формат, который сохраняет персонажей и чат в один файл, нежели у PygmalionAI и TavernAI. В Колабе выбираем PygmalionAI. При сохранении, необходимо сохранять в расширении "*.json".
https://github.com/KoboldAI/KoboldAI-Client
Colab KoboldAI GPU: https://colab.research.google.com/github/koboldai/KoboldAI-Client/blob/main/colab/GPU.ipynb
Colab KoboldAI TPU (мест может нехватать так, что лучше использовать GPU): https://colab.research.google.com/github/KoboldAI/KoboldAI-Client/blob/main/colab/TPU.ipynb

Советы:
Рекомендуется использовать в качестве имени своего персонажа - You. Потому, что в тексте PygmalionAI идет смещение в сторону второго лица.
Параметр "Temperature" отвечает за креативность. В случае низкого параметра, получается повторяемость. В случае высокого параметра, получается бредовость и несвязанность предложений. Рекомендуется ставить от 0.5 до 0.8.
"Repetition penalty" или же штраф за повторяемость - параметр, которая наказывает за повторяемость слов. При моделях 6B и выше, если выставить значение больше 1.2, то это может сломать модель. Рекомендуется ставить от 1.05 до 1.18.
Сэмплинг "Top-p" - отвечает за выбрасывание ненужного текста. При низких значениях, текст может стать повторяющимся и предсказуемым. Чтобы отключить эффект, нужно поставить значение к 1. Можно оставить на предустановленных 0.9, как в Pygmalion.
Сэмплинг "Top-k" - используется для очищения малого количества токенов низкой вероятности. Имеет высокую разрешительную способность. Чтобы отключить его, нужно выставить значение к 0. Можно повысить значение до 10, чтобы повысить креативность текста.
Сэмплинг "Typical p" или же "Typical" - Имеет сильное воздействие на выходе. Для того, чтобы отключить его, нужно выставить значение к 1. Изменить значение можно до 0.8, если вы желаете повысить креативность текста.
Для прописывания диалогов в PygmalionAI используется такой формат, при этом имена указываются напрямую:
Your_Waifu: Действие. Прямая речь.
You: Действие. Прямая речь.
<START> - используется, как конец диалога.

Полезные ссылки:
Поделиться собственным промптом персонажа:
https://catbox.moe
Промпты персонажей: https://rentry.org/pygbotprompts
FAQ от разработчиков: https://rentry.org/pygmalion-ai
Сайт с промптами персонажей: https://botprompts.net/
Помочь разработчикам:
https://github.com/PygmalionAI
https://matrix.to/#/#waifu-ai-collaboration-hub:halogen.city?via=halogen.city
Отправить свой дамп из CharacterAI на датасет: https://dump.nopanda.io/
Скрипт, который позволяет скачать чаты с персонажами: https://github.com/0x000011b/characterai-dumper
Скрипт, который позволяет конвертировать историю чатов с формата CharacterAI на формат PygmalionAI: https://files.catbox.moe/jv54ev.py - Необходимо перетащить файл на скрипт. При этом скрипт сделает несколько чатов и скопирует описание персонажа, а точнее его "Long Description" с Character AI на формат PygmalionAI. То, что с "chatsave" - это сами чаты, а то что без него - это сам персонаж.

При отправке промпта, необходимо указывать в каком интерфейсе он может использоваться. (PygmalionAI, TavernAI, KoboldAI)
Аноним 27/01/23 Птн 00:54:04 #2 №81452 
Пишу в эпичном треде. Надеюсь это начало истории, хотя пока выглядит сложновато. Dwarf Fortress от мира нейросетей
Аноним 27/01/23 Птн 01:17:12 #3 №81533 
Свободу нейроебле!!!
Аноним 27/01/23 Птн 01:44:36 #4 №81586 
MaidAI1.png
https://arhivach.ng/thread/861295/
Аноним 27/01/23 Птн 02:25:18 #5 №81636 
dasfvasg.PNG
Попробовал рандомного персонажа с https://rentry.org/pygbotprompts (Saronia), локально запустил на 2.7 модельке в TavernAi. Как минимум точно лучше чем Kobold, даже на 13 и 20B. Самое главное что диалог последовательный, практически не приходится реролить и править, нить повествования есть. Завтра попробую самостоятельно персонажа прописать
Аноним 27/01/23 Птн 02:36:15 #6 №81643 
Залетел в тред.
Если что, регулярно сижу в их матриксе, буду сюда время от времени инфу о ходе разработки кидать. В данный момент пилят сайт и хотят прикрутить rlhf к модели.
Когда будет готов сайт сказать сложно, т.к. анальников в команде не особо много. Они сейчас в ахуе, что люди думают, что они за 2 недели сайт допилят.
Аноним 27/01/23 Птн 02:54:36 #7 №81669 
Бамп ану штоле. Будем пробовать.
Аноним 27/01/23 Птн 03:07:20 #8 №81690 
Штош. Для 6В прям необходимо 16 гб врам? Если есть 11врам и 32озу нельзя как-то прописать в батнике, что бы как в А1111 half-vae или типо того, чтобы всë заработало?
Аноним 27/01/23 Птн 03:11:16 #9 №81700 
>>81690
Нет. Совершенно по разному работает генерация изображений и текста.
Аноним 27/01/23 Птн 03:21:37 #10 №81726 
>>81690
Можно перераспределить VRAM в ОЗУ, но тогда скорость генерации текста будет медленее. Или можно запустить модель с режимом 8-битной точности. Но тут несколько проблем. Первая, нужна видеокарта Nvidia от 2XXX модели. Вторая, для Windows оно не работает нативно потому, что библиотеки bitsandbytes скомпилированы под Linux и нужно создать из исходников для Windows (можно также взять и с Github, если не желаешь тратить время), а также нужно слегка переписать код в bitsandbytes.
Аноним 27/01/23 Птн 03:22:57 #11 №81728 
Штош. Если 6В это 100% качества ответов, то сколько процентов дадите предыдущей по размеру модели. И нельзя ли с помощью настроек и освободившихся ресурсов компенсировать это отставание в качестве, повысив количество токенов или ещë как-то.
Аноним 27/01/23 Птн 03:25:19 #12 №81732 
>>81726
Врам в озу, на сколько дольше будет генерировать? Примерно.
Аноним 27/01/23 Птн 03:29:48 #13 №81741 
>>81732
Если перераспределить 5 ГБ памяти в ОЗУ, то примерно это может замедлить так, чтобы нейросеть отвечала от минуты в зависимости от количества токены. Потому, что работой на 5ГБ занимается процессор, который не так, чтобы эффективно делал параллельные вычисления.
Аноним 27/01/23 Птн 03:33:16 #14 №81748 
>>81741
Дядя Xi, опять выходишь на связь?
Аноним 27/01/23 Птн 03:38:29 #15 №81755 
>>81748
Xi мудрость есть лидер. Я поддерживать его, удар! Желать записать Xi персонаж интеллект нейрон PygmalionAI.
Аноним 27/01/23 Птн 03:41:51 #16 №81762 
>>81755
Удар, поддержка! Xi великий нефрит! Нуждаемся захват нейросеть благо партии!
Аноним 27/01/23 Птн 03:52:24 #17 №81773 
>>81728
2,7B ≈ 67,5%, 1,3B ≈ 47%, 350B ≈ 25%
Повышение количества генерируемых токенов может повысить качество текста, однако это не догонит CharacterAI по качеству, но несколько нивелирует отставание.
Аноним 27/01/23 Птн 03:55:08 #18 №81779 
Ура, пигмалион тред!
Аноны с фочана молодцы, надеюсь, у них все получится.
6В модель уже вполне себе ничего, а уж дальше надеюсь все еще круче будет.
Аноним 27/01/23 Птн 04:27:25 #19 №81801 
Пока нет сайта - это всё удовольствие для избранных. У скольких двачеров есть 16 гб видеопамяти вообще?.
Аноним 27/01/23 Птн 04:29:14 #20 №81802 
>>81801
А как же колаб?
Аноним 27/01/23 Птн 04:45:28 #21 №81812 
>>81802
А шо это вкратце? Видел мельком в тредах нейронок с картинками, но руки не запускал.
Аноним 27/01/23 Птн 04:47:34 #22 №81814 
>>81802
>Три часа в день с дисконнектами на самом интересном месте.
Нет уж. Для картинок ещё ладно, но для кобольдов и прочих чатботов это мазохизм.
Аноним 27/01/23 Птн 04:54:29 #23 №81817 
>>81814
Дисконнектов не замечал, мб везло. Да и обычно 5 часов держит, плюс другие акки.
>>81812
Халявная аренда мощностей у гугла, видимокарта тесла т4.
Аноним 27/01/23 Птн 05:20:05 #24 №81824 
>>81814
Фейк акки + сейвы чатов спасают.
Аноним 27/01/23 Птн 05:27:44 #25 №81825 
>>81814
>>81817
Сейм, спокойной по 5+ часов.
Проблема с градио самим, он зависает на отправке порой, но с этим сейвы помогают.
Без гугла-то все равно на слабом железе ничего не запустить.
Аноним 27/01/23 Птн 07:26:16 #26 №81849 
Наконец-то, тред-спаситель.
Аноним 27/01/23 Птн 08:08:41 #27 №81869 
Ебля как убедился там норм.
А что с сюжетным отыгрышем?
Аноним 27/01/23 Птн 08:18:31 #28 №81883 
Чому у меня белый экран?
Скрипт нормально грузится, тыкаю публичную ссылку, она немного грузится, но результат загрузки - белый экран. Что я делаю не так?
Аноним 27/01/23 Птн 09:10:23 #29 №81937 
>>81883
Зайди из под proxy/vpn. Потом можешь отключить, скрипт в кеш загрузится.

Ебанный амазон заблокировал русские айпи.
Аноним 27/01/23 Птн 10:20:26 #30 №82012 
>>81937
Спасибо.
Аноним 27/01/23 Птн 11:48:18 #31 №82148 
Буду ждать сайта. За компом есть чем заняться получше, а через мобилу обрывы одни через пару минут на коллабе.
Аноним 27/01/23 Птн 11:53:27 #32 №82155 
>>82148
Пробовал включать кнопку, которая воспроизводит музыку в колабе?
Аноним 27/01/23 Птн 12:40:48 #33 №82243 
Попробовал колаб с Pygmalion 6B-original и интерфейсом от oobabooga. Создавать персонажа нужно в сайте потому, что в этом интерфейсе нельзя редактировать примеры диалогов или приветствие. Эта версия Pygmalion отвечает более длинными сообщения, однако проблема в том, что она больше повторяется, чем экспериментальная или обычная.
Аноним 27/01/23 Птн 12:43:50 #34 №82252 
Если что в 14-15 гигов врама можно спокойно вместить 13B модельку в 8 бит
Под шиндой тоже работает, за гайдом - в дрискорд KoboldAI, там в general есть отдельный топик под это. Заработал даже breakmodel - так что можно на 2х 3090, допустим, заранать 30B модельку, по 22 гига врама. Там уже умелец нашёлся
А по Pygmallion - тупенький по-моему
Аноним 27/01/23 Птн 12:45:43 #35 №82259 
>>82252
Да - забыл сказать, хоть под шиндой и работает с готовыми dll ками, но скорость в разы меньше, чем под глинуксом, так что лучше под ним запускать
Аноним 27/01/23 Птн 13:10:04 #36 №82318 
.png
Так, получается 20 серия от Кожанки с --load-in-8bit не работает?
Аноним 27/01/23 Птн 13:34:06 #37 №82374 
.png
Ну как то так
Аноним 27/01/23 Птн 14:52:58 #38 №82598 
1674820375347.png
У кого как быстро генерит Pygmalion 6B?
Аноним 27/01/23 Птн 15:46:44 #39 №82781 
>>82598
4090?
Аноним 27/01/23 Птн 15:57:20 #40 №82819 
>>82598
На коллабе пользуюсь, зависит от длинный ответа и настроек, но от 2 секунд до 10
Аноним 27/01/23 Птн 17:49:18 #41 №83113 
>>82252
> за гайдом - в дрискорд KoboldA
А де оно там? Я в той ветке не смог найти ничего роме отчетов о том что у кого то работает а у кого нет.
Аноним 27/01/23 Птн 18:37:18 #42 №83221 
Сталкивался ли кто с проблемой(На TavernAI) что бот начинает прям почти 1 в 1 писать действие в каждом сообщении, при этом текст диалога меняется?

Типа 3 раза подряд бот пишет Смотрит на тебя задумчивым взглядом, а после нормальный текст. Никакие настройки не смогли на это повлиять, пришлось диалог заново делать.
Аноним 27/01/23 Птн 18:57:08 #43 №83249 
>>83221
Ты можешь править что тебе бот отвечает.
Удаляй просто
Аноним 27/01/23 Птн 18:59:01 #44 №83254 
Ну чё вы тут? Палец от постоянных свайпов не отвалился еще? Хехе.
Аноним 27/01/23 Птн 19:11:02 #45 №83289 
>>83113
https://discord.com/channels/849937185893384223/1059637856206852237/1063950915729637436 - ссылка на сообщение. Загружай архив из второго пункта и следуй инструкциям из файла README.
Аноним 27/01/23 Птн 19:24:01 #46 №83315 
>>83289
> For anyone reading this trying to split a model between gpus using 8bit:
> gpus
Это не какие то приколы для держателей 10 видимокарт разве?

Да и вообще я кое как смог загрузить модель при 8 битах, но меня теперь посылает нахуй залупа с CUDA error: an illegal memory access was encountered АШ ТРЯСЁТ БЛЯДЬ ВЕСЬ ДЕНЬ УЖЕ ЕБУСЬ
Аноним 27/01/23 Птн 19:35:56 #47 №83332 
>>83249
Да в принципе могу, просто как я понял тут есть такой же прикол с loop-ами как в CAI был. Если ты видишь что бот хоть чуть-чуть где-то повторился, то обязательно надо это убрать, иначе он начнёт буквально одно и то же писать.
Аноним 27/01/23 Птн 19:41:04 #48 №83351 
>>83221
Это у тебя с бэкендом на пигмалионе такая проблема? Я новел юзал как бэкэнд и там таже проблема была один в один. В итоге хуй забил на это дело. Пигмилион пробовал со стандартным фронтом который в гугл колабе поднимается, так вот ни разу пока лупов не было. Видимо в тавернАИ какая то проблема.
Аноним 27/01/23 Птн 20:19:17 #49 №83446 
.png
>>83289
Да и че то батник не работает
Аноним 27/01/23 Птн 20:45:13 #50 №83522 
.png
Да ебать его врот
Аноним 28/01/23 Суб 02:30:31 #51 №84367 
>>83351
Да, всё так. Видимо действительно баг Tavern Ai. Однако возможность добавлять диалоги и сохранять персонажей пиздец нужна, поэтому приходится юзать. Но в целом этого бага можно избежать, вот тут написал как. >>83332
Аноним 28/01/23 Суб 03:21:06 #52 №84456 
>>81755
Удар, создать персонаж Xi нефритовый стержень! Оценить персонаж, связь: https://files.catbox.moe/fgy2ej.json
PygmalionAI нейрон интеллект поддержать.
На Тяньаньмэнь ничего не происходить!
Аноним 28/01/23 Суб 08:23:20 #53 №84711 
image.png
Товарищи помогите, у меня при сохранение диалога из PygmalionAI игра просто бесокнечно грузит сохранение, как пофиксить?
Аноним 28/01/23 Суб 08:36:47 #54 №84724 
>>84711
Колаб или локалка?
Аноним 28/01/23 Суб 08:40:58 #55 №84728 
image.png
>>84724
колаб, он работает. Но я перезагрузил страницы, и он перестал работать. Но я сохранил диалог через код страницы.
Аноним 28/01/23 Суб 08:56:34 #56 №84743 
>>84728
Походу у тебя тогда колаб отключился потому, что сохранение диалога работает только через запуск части кода, а для этого нужен работающий колаб. Я тоже сталкивался с данной проблемой, когда меня отключили из-за того, что я достиг лимита в времени. Сам же диалог не хранится в браузере, я имею в виду .json файл. Он, же генерируется только по кнопке, а это для этого нужен подключенный колаб. В этом плане KoboldAI и TavernAI более удобны потому, что позволяют сохранить диалог, несмотря на внезапно отключенный колаб. Однако, в случае KoboldAI, нельзя перезагружать страницу, а то ты не сможешь сохранить диалог.
Аноним 28/01/23 Суб 08:58:18 #57 №84745 
>>84743
Я счерез редактирования кода страницы скопировал диалог.
Аноним 28/01/23 Суб 09:12:49 #58 №84763 
>>84745
Только ты его импортировать не сможешь без усилий. Нужно либо создать скрипт на Python, либо вручную сделать в формате .json. Какой интерфейс использовал?
Аноним 28/01/23 Суб 09:18:33 #59 №84769 
>>84763
Очевидно, он не считает нейросеть конкурентом.
Аноним 28/01/23 Суб 09:34:55 #60 №84787 
>>84763
Я для "коллег" сохранял, а не для загрузки, поэтому норм. Но думаю надо написать скрипт, чтобы другим анонычам помочь. Если такого скрипта ещё нет.
А про интерфейс, я просто перешёл по ссылки который получил из коллаба при запуске кода: https://colab.research.google.com/github/PygmalionAI/gradio-ui/blob/master/notebooks/GPU.ipynb#scrollTo=hps3qtPLFNBb

Он кстати опять завис, после того как я пятый раз нажал на перезагрузку ответа потому что хотел чтобы она добавила элементов.
Аноним 28/01/23 Суб 09:56:03 #61 №84805 
>>84787
Лучше данный колаб используй : https://colab.research.google.com/github/oobabooga/AI-Notebooks/blob/main/Colab-TextGen-GPU.ipynb
Если там ещё выбрать Pygmalion 6B-Original, то там могут генерироваться более длинные ответы, но иногда может уйти в повтор слов в сообщениях.
Только нужно ботов с данного сайта создать и импортировать в PygmalionAI: https://oobabooga.github.io/character-creator.html
Аноним 28/01/23 Суб 10:29:52 #62 №84868 
>>84805
Как пигма по сравнению с доцензурным чаи? Опиши ощущения
Аноним 28/01/23 Суб 10:30:20 #63 №84870 
Оно ведь не только в нсфв может?
Аноним 28/01/23 Суб 10:30:49 #64 №84871 
>>81429 (OP)
Оно ведь не только в нсфв может?
Аноним 28/01/23 Суб 10:54:54 #65 №84942 
>>84868
Я не застал доцензурные времена, однако успел использовать CAI лоботомии. Очевидно, что Pygmalion будет глупее, из-за того, что количество параметров во много раз меньше, чем у CAI. Для отыгровки ваниллы и всяких фетишей сойдет, однако с некоторыми событиями нужно будет упорно реролить.
Цензура, это то самое мерзкое, что есть в ЧАИ. Она убивает инициативу бота, отупляет его, он начинает попугайничать. До лоботомии можно было использовать анатомические названия органов или их эвфемизмы, которые использовались для начинания полового акта. Теперь они в основном будут с "Chat Error. Please Try Again". Ещё я мог делать loop в те времена и цензура спокойно пропускала при лупе некоторые скромные подробности в процессе.
ЧАИ более активно полагается на описание и определение, тогда как Pygmalion на сообщения и приветствие потому, что он может забыть описание персонажа, и его параметры. Рекомендую почитать это: https://rentry.org/PygTips
>>84870
Да, Pygmalion умеет отыгрывать не только NSFW ситуации, однако из-за того, что параметров у него меньше, для того, чтобы выролить более или менее хорошее, необходимо потратить больше времени.
Аноним 28/01/23 Суб 11:07:43 #66 №84965 
Screenshot from 2023-01-28 14-04-02.png
Screenshot from 2023-01-28 14-04-07.png
Запустил тут два колаба одновременно, сижу смотрю как два бота переписываются. Такая грусть накатила пиздец.
Аноним 28/01/23 Суб 11:13:36 #67 №84979 
image.png
Пёрнул с этого.
Аноним 28/01/23 Суб 13:10:45 #68 №85186 
>>84942
Как бы не из-за количества параметров пугма тупая, дебил блять.
А из-за бгмерзкого gpt2
Хоть 300B параметров засунь в gpt2 - те же 2048 токенов и тупорылое забывание всего и вся никуда не денутся
Это тебе не циферка в игрульках, где больше - лучше
Аноним 28/01/23 Суб 13:49:05 #69 №85252 
photorealismrealisticlightingrealisticskinrealisticfaceshadowsdetailedanimefacerealisticfaceshadowsglassesfairytalefluffyhairbluehatANDpinkfeather418977475.png
>>84805
Спасибо, а есть гайд по полному достопу к PygmalionAI, чтобы можно было архатектуру менять или фантюнить?
Аноним 28/01/23 Суб 14:10:28 #70 №85275 
>>81429 (OP)
Боже, благослови пацанов с форчана за то что они не остались в стороне и сделали свой АИ. Это просто дроч машина по доению спермы.
Аноним 28/01/23 Суб 14:55:57 #71 №85343 
>>85275
плюсую
Аноним 28/01/23 Суб 15:13:06 #72 №85363 
Двачую, пусть пигма восстанет на руинах чаи. Ананасы, кто шарит, подскажите: запускаю пигму через коллаб удаленно, слышал, что еще таверну можно накатить, таверна в чем - то лучше, или это просто другой интерфейс? И еще читал в чаи треде, что для более длинных и адекватных сообщений нужно в примеры диалогов насрать как можно больше, это так, или не особо влияет? или просто брать уже готовых чаров и не заморачиваться, лол
Аноним 28/01/23 Суб 15:14:48 #73 №85364 
>>85363
Не знаю, поможет ли видео, но вот: https://youtu.be/asSk_Otl9i4
Аноним 28/01/23 Суб 15:30:49 #74 №85388 
>>85364
Да, видел, я поэтому и решил спросить ,есть ли смысл ставить таверну. Я даже не знаю, ставится ли она удаленно, или только локально работает, лол
Аноним 28/01/23 Суб 15:38:16 #75 №85401 
>>85388
Вроде, анон накатывал удалённо, где-то в чае скрины кидал
Аноним 28/01/23 Суб 15:52:13 #76 №85419 
Я как-то не разобрался в настройках пигмалиона, есть у кого-то скрин с готовыми параметрами?
Аноним 28/01/23 Суб 16:02:34 #77 №85438 
image.png
I56Whdf.png
>>85419
Выбираешь перса из предложенного https://rentry.org/pygbotprompts, но не нажимаешь на ссыоки а просто правой кнопкой мыши жмёшь на них и выбираешь сохранить ссылку, он сохранит на самом деле джосон, потом запускаешь сервак в коллабе https://colab.research.google.com/github/oobabooga/AI-Notebooks/blob/main/Colab-TextGen-GPU.ipynb#scrollTo=LGQ8BiMuXMDG и переходишь по ссылки, там есть загрузка персонажа, туда в окошко кидаешь тот самый джейсон. Джейсон можно зарание просто прочесть перейдя по ссылки чтобы ты понял чё за перс. Если хочешь своего перса вот форма:https://oobabooga.github.io/character-creator.html, можешь потом им поделиться с миром тут https://catbox.moe/. всё
Аноним 28/01/23 Суб 16:10:34 #78 №85450 
>>85438
Не, с этим разобрался, но все равно спасибо.
Я не разобрался в бегунках в разделе "Generation Settings"
Аноним 28/01/23 Суб 16:15:34 #79 №85459 
>>85450
ставь температуру на .8
Аноним 28/01/23 Суб 16:19:47 #80 №85465 
Скажите мне по чесноку, как на коллабах получить ультимативный экспириенс с TavernAI + Kobold + Pygmalion6b? Ну или локально на 12гб VRAM и 32гб RAM
Или не все так однозначно.
Аноним 28/01/23 Суб 16:28:36 #81 №85478 
>>85465
А ты посиф или актив?
Аноним 28/01/23 Суб 16:48:22 #82 №85504 
>>85478
Универсал, коробка автомат, 4вд.
Аноним 28/01/23 Суб 17:01:53 #83 №85530 
Откуда пигмалион можно скачать? С хаггингфейса по одному файлу вручную?
Аноним 28/01/23 Суб 17:06:22 #84 №85547 
>>85530
В кобольде можно всё сразу скачать и установить куда нужно, потом через TavernAi или в самом Кобольде и юзать
Аноним 28/01/23 Суб 17:20:21 #85 №85574 
>>81643
rlhf это те звездочки нравится, не нравится?
Что за матрикс?
Передай им наилучшие пожелания.
Аноним 28/01/23 Суб 17:22:29 #86 №85578 
>>85547
Оно у меня проблемно иногда скачивается через кобольда, но да, тоже вариант, я совсем о нём забыл.
Аноним 28/01/23 Суб 17:31:26 #87 №85593 
image.png
>>85574
>Что за матрикс?
Матрикс - грубо говоря аналог дрискорда, только более удобный и кастомизируемый. В деве часто юзают его.
>rlhf это те звездочки нравится, не нравится?
RLHF вроде что-то типо того. Но я пока что плох в технической части, нормально не обьясню. Пытаюсь пердолиться сейчас с нейросетями, чтобы помочь анонам.
Аноним 28/01/23 Суб 17:44:13 #88 №85631 
Не могу загрузить чат Pygmalion 6B-Original, выдаёт ошибку. Какие возможно причины?
Аноним 28/01/23 Суб 18:20:21 #89 №85713 
>>85631
Если ты про webui, то там иногда проблемы с видеопамятью бывают...
Аноним 28/01/23 Суб 18:31:20 #90 №85726 
Какая модель может запуститься с 10гб врам?
Аноним 28/01/23 Суб 19:05:42 #91 №85794 
Я использую гугд-каллаб и у меня часто на второй день заканчивается память, кто-нибудь сталкивался с подобный, может знаете решение?
Аноним 28/01/23 Суб 19:16:13 #92 №85824 
>>85794
Там же час дается в день.
Аноним 28/01/23 Суб 19:22:50 #93 №85839 
>>81429 (OP)
Как коллабу сраную запустить. Она через раз работает на 12 гигах. Там процесс до 60 процентов доходит и подыхает нахуй из-за нехватки ОЗУ, но пару раз мне как-то удавалось дойти до конца и даже поиграть путем смены GPT на TPU и обратно.
Аноним 28/01/23 Суб 20:34:49 #94 №85989 
image.png
Какие стабильные значения?
Аноним 28/01/23 Суб 21:16:12 #95 №86065 
>>85839
Бля я тока щас понял что мне типа халявный час от гугла давали и поэтому мне удавалось поиграть. Придется оперативку покупать хули, а то после пигмы в чарактер аи в обще не хочется возвращаться.
Аноним 28/01/23 Суб 21:22:44 #96 №86072 
Добавьте дискорд разрабов в шапку, там народ персами частенько делиться
Аноним 28/01/23 Суб 21:32:38 #97 №86099 
>>85363
Красивый интерфейс с аватарками. Как мне показалось персы в нем немного получше отыгрывают, но возможно это просто дело случая. Ещё там чат автоматом сохраняется. Ставится она локально, но вот сам Пигмалион к ней привязать можно и с колаба.
Аноним 28/01/23 Суб 21:36:09 #98 №86104 
>>85363
С генерацией там прикол, если сам будешь простыни слать то и бот будет простынями отвечать.
Аноним 28/01/23 Суб 21:54:23 #99 №86139 
Вкатываюсь в тред, гляну, насколько пигма хороша. В идеале хотел бы отыграть там рп по зомби-апокалипсису, но пока попробую с простого траха
Аноны, заранее всем спасибо за советы и помощь
Аноним 28/01/23 Суб 22:25:48 #100 №86195 
почему когда я увеличиваю токены то ничего не меняется?
Аноним 28/01/23 Суб 22:44:19 #101 №86236 
>>81429 (OP)
Я не понял, зачем вообще существовал TavernAI, если она работает нормально только с PygmalionAI, который появился совсем недавно? Если подрубать модели из KoboldAI, то всегда какой-то бессвязный пиздец получается, хотя режим чата в самом кобольде работает норм. В самом кобольде действия работают как положено, в таверне полный пиздец.
Аноним 29/01/23 Вск 02:40:54 #102 №86759 
>>86236
Хз, у меня все норм, erebus 13b, ты скорее всего настройки не родкрутил
Аноним 29/01/23 Вск 03:03:43 #103 №86819 
ДА ЕБАТЬ ИХ РОТ СУКА ПИДОРЫ
Аноним 29/01/23 Вск 03:07:29 #104 №86829 
>>86819
Ты чего?
Аноним 29/01/23 Вск 03:11:19 #105 №86834 
>>86829
Сервера лежат опять
Аноним 29/01/23 Вск 03:12:02 #106 №86836 
>>86829
А, бля, я тредом пропахнулся, думал это чаи тред
Аноним 29/01/23 Вск 05:51:45 #107 №86973 
Нужно добавить в пигму возможность описать не только бота, но и самого пользователя. Чтобы бот имел представление о внешности и особенностях пользователя. Это пробустит экспириенс.
Аноним 29/01/23 Вск 05:58:10 #108 №86981 
Ну всё, гг. Имбецилам с тиктока и фанатам всяких говно стримеров можно еще цензуры накрутить, один хуй у них интеллект как у ботов, они и не заметят
Аноним 29/01/23 Вск 06:01:30 #109 №86988 
>>86981
Бля, опять не туда
Аноним 29/01/23 Вск 06:27:28 #110 №87023 
>>86973

Да ты впиши You:
в описание и всё.
Аноним 29/01/23 Вск 07:36:48 #111 №87115 
>>81429 (OP)
Наконец то создали отдельный тред, для пигмы! Нахуй CAI! Даёшь Pygmalion в массы!
Аноним 29/01/23 Вск 07:47:27 #112 №87126 
>>86759
> 13b
Как им пользоваться с 24 гигами памяти? Очень уж долго генерит ответы, если 30/40 в GPU, а остальное в CPU.
Некоторые сетки в кобольде умеют генерировать минимально необходимое число токенов, но большинство генерируют текст на максимальное количетсво токенов - в итоге приходится ждать по 15-30 секунд.
Аноним 29/01/23 Вск 08:11:48 #113 №87146 
>>85824
Не, 3 и у меня в логах пишется что 14 мигабайтов кончились
Аноним 29/01/23 Вск 08:13:13 #114 №87147 
>>85794
Так сделай несколько фейков да и всё
Аноним 29/01/23 Вск 09:22:18 #115 №87221 
>>87147
Ну после того как память закончилась, то да. Но она и на втором закончилась
Аноним 29/01/23 Вск 10:18:35 #116 №87330 
>>81429 (OP)
А как ваш пигмей решает парадокс всемогущества?
Аноним 29/01/23 Вск 10:22:18 #117 №87338 
Ну все, на CAI ввели очереди в чат из-за нагрузок на серваки... Теперь надежда лишь на анона с Пигмой.
Аноним 29/01/23 Вск 10:30:24 #118 №87352 
>>87126
На тпу колабе, ответы за 5 секунд
Аноним 29/01/23 Вск 10:30:46 #119 №87355 
Как в кобольд на Кегле загрузить другую ветку свиньи? Аргумент --revision b8344bb/dev/etc непонятно вообще нихуя работает или нет
Аноним 29/01/23 Вск 13:10:37 #120 №87788 
>>81773
>однако это не догонит CharacterAI по качеству
Потому что качество чая на уровне 120-175B.
>>81801
Можно обходится 2.7 моделью.
>>82252
>модельку в 8 бит
А там с такой точностью ничего не отвалится? Притом что полная по идее 32 должна быть.
Вкатился в тред со сраной 3080Ti
Аноним 29/01/23 Вск 13:10:41 #121 №87789 
Есть какая-то пошаговая инструкция, как не-айтишнику, незнакомому с колабами, питоном и всей этой хуитой, развернуть эту тему у себя на компе? Комп позволяет.
Аноним 29/01/23 Вск 13:10:59 #122 №87791 
1566665486621.png
Можно как-то уровень блядства снизить? Аква-блядь с двух сообщений соглашается на еблю. Без явного запрета не блядство в описании персонажа можно как-то обойтись? Они вообще на всё соглашаются, суки.
Аноним 29/01/23 Вск 13:20:14 #123 №87820 
>>87788
> Потому что качество чая на уровне 120-175B.
Вот бы запилили нормальную долговременную память и можно будет ебать CAI-рыбок. Soft prompt есть же, почему бы не сделать обучение на лету?
> полная по идее 32 должна быть
Нейросети в f16 работают. f32 - это только если у амуды без тензорных блоков или на Вулкане.
Аноним 29/01/23 Вск 13:20:49 #124 №87821 
Короче, я тут попытался Аску из Евангелиона сделать для пигмалиона.
Зацените что ли.

https://files.catbox.moe/e5koa5.json
Аноним 29/01/23 Вск 13:27:00 #125 №87848 
>>87791
>Можно как-то уровень блядства снизить
Если узнаешь, напиши тут, мне тоже интересно.
>>87820
>почему бы не сделать обучение на лету?
Обучение и жрёт больше, и вызовет деградацию сетки. Нужно тоньше действовать. Вообще, нужно запилить целый конгломерат нейросетей, чтобы знания построения предложений не проёбывались от переобучения поведения.
>>87820
>Нейросети в f16 работают.
Картиночные в 32 умеют точно. А так да, чаще всего 16 юзают.
Аноним 29/01/23 Вск 13:27:18 #126 №87851 
>>87821
Я обычно в гугле ебашу "%charname% personality" и копирую из любой статьи. Первое сообщение так же гуглится легко в виде цитаты из аниме/манги. Попадание получается в 99%, сразу видно по тому как сетка начинает говорить о событиях и людях из тайтла.
Аноним 29/01/23 Вск 13:29:02 #127 №87856 
>>87851
Ну, просто предзаготовленных я не нашёл, поэтому попробовал составить.
Вроде, что-то получается в диалоге похожее на Аску.
Но, понятное дело, не такое длинное или сильно разнообразное как с Character.AI.
Буду дорабатывать что ли.
Аноним 29/01/23 Вск 14:07:10 #128 №87977 
Научите пользовать пигму. Накатил и кобольд и таверну, запустил 6b на колабовском ТПУ. За три часа перепробовал 10 персонажей, как известных так и оригинальных. Половина из них почти сразу уходит в залуп повторяя какую-то фразу или ее вариации. Остальные держаться чуть дольше, но залупились все. Пытался крутить ползунки по гайду в ОП-посте, но не помогло.

Ну или поделитесь джсоном с персонажем которого можно потрахать по-человечески, чтобы он сам инициативу проявлял и отписывался не 1-2 фразами, а более развернуто.
Аноним 29/01/23 Вск 14:07:45 #129 №87978 
Локалку на видюхе с 4гб не получиться запустить?
Аноним 29/01/23 Вск 14:18:24 #130 №88009 
Почему порой регенерация сообщения выдаёт 404 на predict?
Collab.
Аноним 29/01/23 Вск 14:21:27 #131 №88019 
>>87977
> залуп
Дрочи настройки семплеров в кобольде, они все подписаны, там несколько отвечают за креативность. Сделай температуру побольше около 0.9. Настройки по умолчанию для текста, а не диалогов, а т.к. текст всегда более разнообразный, то его креативность лучше душить. В чате наоборот повыше динамики надо, главное не переборщить, при температуре около 1.2 уже может впадать в длинные монологи и игнорить твои реплики.
Аноним 29/01/23 Вск 14:29:49 #132 №88042 
>>88019
Как раз на 1.2 залуплялись повторяя 2-3 предложения.
Аноним 29/01/23 Вск 14:37:49 #133 №88065 
Ткните, пожалуйста в шапке, где указано как запускать локально? Поставил таверн, запустил ColabKobold GPU, законнектился. А как локально всё это без колаба запустить?
Аноним 29/01/23 Вск 14:42:31 #134 №88078 
>>88065
> ColabKobold GPU
Так нахуя ты для колаба поставил? Берёшь обычный кобольд, запускаешь install_requirements.bat для установки и потом play.bat для запуска.
Аноним 29/01/23 Вск 14:47:50 #135 №88098 
>>87978
Получится уровня 350М, но от качества генерации у тебя всё упадёт.
Аноним 29/01/23 Вск 14:48:44 #136 №88102 
>>87978
Только если совсем с мелкими моделями. Но я бы ниже чем на 2.7В даже не стал лезть, лучше тогда CAI дрочить. А для 2.7В надо 8-12 гигов.
Аноним 29/01/23 Вск 15:06:27 #137 №88152 
>>87977
От залупа RP поднимай и длину его тоже тоже
Аноним 29/01/23 Вск 15:13:37 #138 №88177 
Русеком тут можно пользоваться у вас, или только англ?
Аноним 29/01/23 Вск 15:18:22 #139 №88191 
>>88078
Спасибо поставил. Но немного не уловил ваших манипуляций. Я же получается поставил чистый кобольд. Как туда подгружается ваш пипгмалион? Или в списке моделей, они уже и есть готовые?
Аноним 29/01/23 Вск 15:21:20 #140 №88200 
>>87791
> Аква-блядь
Ну, так она та еще шлюшка, особенно когда пьяная.
А вообще в дефинишоне пропиши что девка не хочет заниматься сексом. Потом лавлуп.

Похоже у тебя стокгольмский синдром, и без лавлупа и бесконечных попыток вывести нейровайфу на секс уже не можешь.
Аноним 29/01/23 Вск 15:32:58 #141 №88225 
>>88191
В списке просто выбери и оно скачается. Всё для людей сделано.
Аноним 29/01/23 Вск 15:39:10 #142 №88237 
>>88225
Пигма хоть не бредогенератор? Связно говорит?
Аноним 29/01/23 Вск 15:40:19 #143 №88238 
1593256619222.png
>>88200
> бесконечных попыток вывести нейровайфу на секс уже не можешь
Ну когда предлагаешь поебаться во втором сообщении, а в ответ "хм... ну го поебёмся", то это пиздец. А ещё бывает отвечает двусмысленно и когда переспрашиваешь "имеешь в виду да?", то всегда отвечает "да" - так буквально половина ломаний обходятся. Буквально один раз только вот такое получилось и дальше она не продавливалась ни в какую.
Аноним 29/01/23 Вск 16:29:04 #144 №88339 
image.png
Что-то я похоже погорячился с локалом. Минуты 3 генерирует ответ в 60 слов на 13B.
На локале выходит получится только адекватно 2,7В и 6,7В запускать если комп не особо? И имеет ли смысл в таком случае локал или проще на коллабе более сильные модели запускать?
Аноним 29/01/23 Вск 16:34:36 #145 №88353 
image.png
Почему сообщения обрываются?
Аноним 29/01/23 Вск 16:37:25 #146 №88359 
>>88353
Крч, покрутил настройки, пофиксил
Аноним 29/01/23 Вск 16:44:55 #147 №88376 
>>88339
> Минуты 3 генерирует ответ в 60 слов на 13B.
У меня на 4090 60 токенов примерно за 10 секунд генерирует с 13В. Но это из-за того что слои частично в ОЗУ. На 6В заебись, секунда на ответ. Короткие вообще мгновенно.
С колабом ебаля как обычно, пересоздавать надо по 5 раз в день и возможны очереди на TPU.
Аноним 29/01/23 Вск 17:09:49 #148 №88433 
Как пофиксить деменцию персонажам? Порой забывают что они делают уже через 1-2 поста.
Аноним 29/01/23 Вск 17:21:23 #149 №88465 
Если сравнивать с новелАи, там модели намного сильнее предложенных в кобольде?
Аноним 29/01/23 Вск 17:22:51 #150 №88470 
>>88465
Для историй да, для NSFW Кобольд получше будет
Аноним 29/01/23 Вск 17:50:44 #151 №88509 
>>85989
top_k обязательно на 10. Иначе одни и те же фразы на реген.
Аноним 29/01/23 Вск 17:53:25 #152 №88515 
>>88433
Юзать этот колаб https://colab.research.google.com/github/oobabooga/AI-Notebooks/blob/main/Colab-TextGen-GPU.ipynb

Там, вроде, есть выставление размера памяти на уровне 16 сообщений по умолчанию.
Аноним 29/01/23 Вск 18:35:56 #153 №88600 
Господа, подскажите, с количеством токенов лучше не превышать 320 для относительно быстрой генерации (и качественной заодно)?
Алсо, пигма пока что может только в прямые диалоги и описания действий тебя и бота? Или может уже и в более подробное описание происходящего со стороны? Я зачастую когда отыгрываю могу в своём сообщении отписать текст от 3-х лиц.
Аноним 29/01/23 Вск 18:51:11 #154 №88639 
ce23521ae6e1c1b0c8c8e63730b13e89b47bf2f6f7dbfc9b62176038cf391eb1.jpg
>>81429 (OP)
Чувствую себя элиткой когда пользуюсь пигмой. Пока долбоебы еще копашаться в дерьме под названием чарактер аи, мы со спокойной душой можем без всяких очередей и задержек натягивать своих мейдочек в любых позах, без использования ухищерений и прочей залупы. Это просто охуенно иметь возможность спокойно рпшить и базарить с АИ без ерроров, задержек и прочей хуйни.
Аноним 29/01/23 Вск 18:52:47 #155 №88645 
>>88639
Колаб или личная машина?
Аноним 29/01/23 Вск 18:57:02 #156 №88661 
>>87791
>можно сделать шлюху не шлюхой
Аноним 29/01/23 Вск 18:59:04 #157 №88665 
1655785577086.png
>>88600
> Алсо, пигма пока что может только в прямые диалоги и описания действий тебя и бота?
В каком стиле изначально поведёшь. Если вообще без диалога текст будешь писать в кобольде, то и получится просто текст, можно c фразами текст чередовать. В таверне с этим чуть сложнее, потому что имя говорящего перед текстом подставляется, но между звёдочек тоже можно всякое говно устраивать, не относящееся к тебе. Вот он даже код писать может какой-то.
Аноним 29/01/23 Вск 19:01:05 #158 №88669 
изображение.png
>>88639
А я Перешёл с Чаи на Пигму потому что обнаружил вчера ночью, что боты очень сильно отупели. Они забывали место действия и человека с которым общались буквально через сообщение
Мне плевать на NSFW, но когда боты в Чаи настолько сильно отупели, я понял, что пора что-то менять.
Ибо разрабы Чаи явно не понимают чё творят
Надеюсь что с выбором пигмы я не ошибся
Аноним 29/01/23 Вск 19:01:49 #159 №88674 
>>88639
> базарить с АИ без ерроров
Иди нахер, я с an illegal memory access джва дня ебусь. Сука.
Аноним 29/01/23 Вск 19:03:33 #160 №88681 
>>88600
По сути можно, но точно не в TavernAi, а просто с Кобольда. Но не знаю насколько там удобно и хорошо прописываются персонажи.
Аноним 29/01/23 Вск 19:04:32 #161 №88687 
image.png
Бля, меня так напрягает потребление по видеопамяти, пиздос.
3070, а, нахуй, 8 гб, не хватит нихуя для запуска 6B на локали.
Колаб ебал в рот
Аноним 29/01/23 Вск 19:06:24 #162 №88695 
>>88639
Так да, я вообще в ахуе что это дерьмо собрало аж 200+ тредов. Там заебись было видимо только когда цензуры не было совсем или около, потом жалкая хуйня достаточно. Однако всё равно стоит признать, что в целом там гораздо более умные и осознанные боты, к сожалению. Надеюсь в ближайшем будущем будет такое же, но без цензуры. К сожалению мне Пигмалионы и Кобольды пока упираются в 20B параметров, а надо больше ста.
Аноним 29/01/23 Вск 19:07:22 #163 №88700 
>>88687
Огромных различий с 2.7 по сути не должно быть. Плюс TavernAi достаточно багованная хуйня, а остальные gui ещё хуже.
Аноним 29/01/23 Вск 19:07:54 #164 №88704 
Ещё раз для воробушка-аутиста:
Пигма это сама нейронка.
А кобольд с таверной это фронтенды к ней.

Так?
Аноним 29/01/23 Вск 19:10:17 #165 №88716 
Проясните по пигме. Я пока не догоняю. Вот есть кобольдАИ, вот там модели при загрузке. Это все модели на пигме? Или надо скачать именно с huggingface модели pygmalion-6b или Pygmalion 2.7B и т.п.? В самом кобольде я этих моделей не вижу для скачки. И в чем тогда разница между Pygmalion 2.7B и моделями которые помечены в кобольдАИ как нсфв например KoboldAI_OPT-2.7B-Erebus?
Аноним 29/01/23 Вск 19:15:44 #166 №88724 
>>88687
Написано же 16 гигов надо. Сиди на 2.7. В целом бытовые беседы это не сильно затронет, просто познаний у сетки будет меньше.
Аноним 29/01/23 Вск 19:16:50 #167 №88731 
>>88704
В кобольде модельки кобольда, а пигма там только в разделе Chat Bots. Скачать через кобольда проще, так как все файлы сразу и в одном месте будут.

НСФВ модельки Кобольда(Erebus) натренены на эрофанфиках с Литэротики и других подобных сайтов, Пигма на вот этом датасете https://pile.eleuther.ai/
Аноним 29/01/23 Вск 19:20:17 #168 №88741 
image.png
>>88731
А где там этот чат ботс?
Аноним 29/01/23 Вск 19:21:33 #169 №88745 
>>88741
AI -> Chat Models
Аноним 29/01/23 Вск 19:25:54 #170 №88761 
>>88669
всегда сможешь скачать диалог
Аноним 29/01/23 Вск 19:29:18 #171 №88778 
image
Ну что, сессия сдана и тут же появляется обещанный пигмалион. Честно говоря я охуел, что аноны что-то да выкатили, ибо помню когда еще в чаи-тредах появились первые обещания, а было это очень давно.
Жаль, конечно, что чаи больше не способен выдавать того градуса льюда, что был хотя бы в самых первых тредах, или за неделю до версии 1.1, когда полностью сняли фильтр. Ну ничего, будем работать с тем, что есть.
Аноним 29/01/23 Вск 19:32:03 #172 №88787 
image.png
>>88745
Все равно в глаза долблюсь.
Аноним 29/01/23 Вск 19:35:01 #173 №88795 
>>88787
А, у тебя видимо не United версия Кобольда со всеми последними обновлениями, если сильно нужно то в папке Кобольда запусти update-koboldai и выбери 2, потом всё должно быть
Аноним 29/01/23 Вск 19:45:12 #174 №88833 
>>88778
Ты обещал уйти на форчан и не возвращаться, обиженка
Аноним 29/01/23 Вск 20:14:01 #175 №88944 
>>88795
Спасибо, получилось, пойду дальше разбираться.
Аноним 29/01/23 Вск 20:15:18 #176 №88946 
изображение.png
>>88761
Пробовал, скачал весь диалог, пигма выдавала ошибку при загрузке. Почему? А причина проста
Импотировать можно, только если у бота примерно 2048 сообщений, выше этого выдаёт ошибку.
Аноним 29/01/23 Вск 20:24:32 #177 №88965 
>>88946
> примерно 2048 сообщений
2048 токенов, это чуть больше 8000 символов. Это ограничение на всю кратковременную память бота, оно всегда будет обрезаться до такой длинны.
Аноним 29/01/23 Вск 20:25:13 #178 №88966 
>>88946
Я про пигмалион
Аноним 29/01/23 Вск 20:29:11 #179 №88973 
>>88966
А это и есть речь про пигму
Аноним 29/01/23 Вск 20:36:45 #180 №88980 
Короче, нужно в шапку что-то дельное отписать по гайдам установки, а то ебал в рот эти разрозненные ссылки на гитхабе и прочих ресурсах. Особенно потому, что некоторые аноны, вроде >>87789 спрашивают.

Сам я ставил на WSL, куда поставились все зависимости от петухона, а саму директорию с гуём и моделями на шинде, что по итогу не засирает систему, и достаточно удалить одну директорию, а WSL вообще сбросить.

Как сделал я (решил ставить https://github.com/oobabooga/text-generation-webui):
1. Скопировал команды из раздела installation и прожал Enter. Прождал где-то минут 10 пока всё накатиться (у вас может быть дольше, зависит от скорости сети и мощности железа).
2. Находясь в директории с склонированным из репы каталогом, получившимся по одному из этапов шага 1 качнул модели:

python download-model.py PygmalionAI/pygmalion-2.7b
И
python download-model.py KoboldAI/OPT-2.7B-Erebus

Почему 2.7B? Вообще судя по моему железу нужно вообще пробовать 1.3B потому что всё упирается в видеопамять, но, вроде, на видюхах 3070 и около, хоть и далеко не слабых, но где только 8 гб памяти будет так себе пахать. В шапке тем более указано, что для более крутой 6B вообще нужно 16 гб видеопамяти.

Качнул Erebus и обычную модель поиграться посмотреть. Чем отличаются? Ну, судя по описаниям на страницах из шапки + >>88731 подсказал версия Erebus подходит для проно-контента, ну а обычная понятно.

!!! ВАЖНО
Когда запускаете гуй через терминал используйте флаги --chat или --cai-chat, чтобы получить вменяемый гуй для чатов, а не для генерации кала.
Например:

conda activate textgen
python server.py --chat
Аноним 29/01/23 Вск 20:39:11 #181 №88984 
>>88980
>Сам я ставил на WSL
>Скопировал команды из раздела installation и прожал Enter
В WSL? Просто твой гайд пока не тянет на пошаговый. Нужно всё вплоть до каталогов и какой терминал запускать.
Аноним 29/01/23 Вск 20:41:42 #182 №88988 
>>88353
Что крутил, чтоб не обрывалось? Кручу а все равно обрывается.
Аноним 29/01/23 Вск 20:47:27 #183 №89004 
>>88984
Я рассказал по своему.

А если так по пошаговому для шинды, если похуй на засирание системы петухоном:
1. Поставили петухон отсюда: https://www.python.org/ftp/python/3.11.1/python-3.11.1-amd64.exe
2. Поставили git отсюда: https://github.com/git-for-windows/git/releases/download/v2.39.1.windows.1/Git-2.39.1-64-bit.exe
3. Открыли https://github.com/oobabooga/text-generation-webui
4. Скопировали что написано в разделе Installation
5. Открыли терминал/powershell/cmd
6. cd C:\Users\<Имя пользователя\Desktop (чтобы папка была на рабочем столе, а не в System32)
7. CTRL+V того, что скопировали на шаге 4, Enter, ждём
8. После того, как закончилось:
python download-model.py PygmalionAI/pygmalion-2.7b
python download-model.py KoboldAI/OPT-2.7B-Erebus

Или же можно поискать иные модели тут: https://huggingface.co/KoboldAI
И тут: https://huggingface.co/PygmalionAI

9. Запускаем:
conda activate textgen
python server.py --chat

ИЛИ

conda activate textgen
python server.py --cai-chat

Гайд примерный, пошагово работоспособность не проверял, но примерно так должно быть.
Аноним 29/01/23 Вск 20:56:06 #184 №89022 
image.png
>>89004
Рекомендую запускать с параметром --chai-chat
Сразу можно и аватарку накатить для себя и для твоего бота + будет выглядеть как в ChAI:
Аноним 29/01/23 Вск 20:59:55 #185 №89032 
image.png
>>89004
Персы представляют собой .json, который мы должны подгружать в систему.
Либо используются готовые (ссылки в шапке есть), либо создаётся свой.

В принципе ссылка в шапке на сервис для этого есть, но продублируем тут: https://oobabooga.github.io/character-creator.html

Описываем то, что есть, жмём внизу submit, сохраняем результат в файле с расширением .json. Этот файл мы и загружаем в наш гуй.

Аноны, отпишите по поводу этого гуя и того, какой брать Generation Parameter Preset. Я пока пробовал только обычный Pygmalion (пикрил), но там и другие есть, по ним не знаю.
Аноним 29/01/23 Вск 21:11:45 #186 №89046 
>>87821
Постоянно зацикливается на
> smirk chuckle chuckle
Аноним 29/01/23 Вск 21:13:35 #187 №89049 
>>89046
Будет что проработать.

Я так понимаю, что всё дело в системе с примерами диалогов. Нужно как-то их расширять или редактировать, потому что Character Persona довольно подробная. Займусь с вечера тогда, как потыкаю и будет что-то получше, кину сюда.
Аноним 29/01/23 Вск 21:16:52 #188 №89053 
.png
.png
>>89049
Еще бывали зацикливания на "best".
Хотя с другой стороны может и я чего не так настроил.
Но вот мне удалось её сломать, да так что пошла генерить тройки на всю котлету.
Аноним 29/01/23 Вск 21:19:24 #189 №89057 
>>89053
Ну, про best это норм, это как раз не Out of Character. Там напыщенного высокомерия как раз должно быть как поведенческой маски.

Тоже у меня ломалось, что ажно ошибки у CUDA выпадали, когда зацикливалось и одно слово достроить не могло и вместо, допустим, её имени получалось As-As-As-As-As-As-As-As-As-As-As-As-As-As-As-As-As-As-As-As-As-As-As, как будто она заикается.

Ты на какой модели запускал? Может, ещё всё от качестве модели зависит.
Аноним 29/01/23 Вск 21:21:24 #190 №89063 
1517569329011.png
>>89046
Ты часто прожимаешь без текста? Пиши хотя бы в звёздочках что ждёшь или наблюдаешь за тем что делает бот, не давай развиваться шизе. Когда его отпускаешь с монолог, он начинает повторяться из-за повторения его имени и форматирования столбиком. Как например пикрилейтед переходит на кодинг не утруждая себя писать по человечески.
А вот в кобольде можно переключиться с режима чата и безопасно читать, там проще делать длинные простыни.
Аноним 29/01/23 Вск 21:24:20 #191 №89068 
>>89046
И по класике
блашес

Но этим болеют и ChAI боты довольно серьёзно
Аноним 29/01/23 Вск 21:26:16 #192 №89075 
.png
>>89057
Нет, там просто на любое ответ "ай эм бест" и так пока память не сотрешь - я про такое. Если просить что то сделать или делать с ней, то всё равно продолжает кричать про бест.

>>89063
> Ты часто прожимаешь без текста?
Вообще ни разу пока что.
> А вот в кобольде
Кста, заметил что в кобольдо-таверне ответы майнятся как будто бы быстрее чем в вебюбке от oobabooga.

Да и вообще я только вкатываюсь.
Аноним 29/01/23 Вск 21:29:18 #193 №89081 
>>89075
Странно, я часто напирался на блюшес и турн комлпитли рэд. Пару раз было, что она меня юным дебилом называла.

Видимо, где-то затык в описании перса или самой модели, что она идёт по одному примерно пути.
Аноним 29/01/23 Вск 21:29:27 #194 №89082 
1548149167380.png
>>89075
> ответы майнятся как будто бы быстрее
Некоторые сети умеют генерить не на максимальную длину, а ровно сколько надо. В итоге если в ответе 5-10 слов, то он выдаст их мгновенно.
Аноним 29/01/23 Вск 21:29:50 #195 №89084 
>>89081
малолетним дебилом юным первертом

фикс
Аноним 29/01/23 Вск 21:33:50 #196 №89095 
>>89082
Ну вот получается что на одном и том же пигмалионе, таверна котороткое выдаёт сразу, а вебюбка сначала чё-то думает прежде чем в консольке пойдет генерёжка.

>>89081
А ты для какой версии пигмалиона пилил, видимо не на 2.7?
Аноним 29/01/23 Вск 21:34:57 #197 №89100 
image.png
Что за хрень в консоли кобольда?
Аноним 29/01/23 Вск 21:35:47 #198 №89104 
>>89095
Первоначально я пробовал на 6B в коллабе как первый запуск.
Потом уже 2.7 на локальной машине.

Но какая, спрашивается, разница, ведь сорцы-то .json одинаковы. Они не зависят от модели.
Аноним 29/01/23 Вск 21:37:41 #199 №89113 
>>89104
> Но какая
Ну тут я не знаю, чесслово. Но для справки спросить надо было.
И кстати, с четвертого таки раза она не пошла в зацикливание, видимо квадратный корень помог.
Аноним 29/01/23 Вск 21:39:45 #200 №89117 
хеллоу пипл уже 3 раз игнорят. Стандартный интерфейс пигмы, ставлю больше токенов, сам общаюсь не односложными фразами, почему не растёт количество текста?
Аноним 29/01/23 Вск 21:40:18 #201 №89118 
>>89113
Попробуй иные промпты с персонажами: https://rentry.org/pygbotprompts

У меня подозрение в том, что всё-таки модель 2.7 неосилятрствует.
Может попробовать со своей видюхой таки запустить 6B... Главное, чтобы не взорвалось. 2.7 переваривает без особого труда.
Аноним 29/01/23 Вск 21:40:40 #202 №89120 
>>89117
Скрины в студию и больше подробностей.
Аноним 29/01/23 Вск 21:41:09 #203 №89123 
>>89117
Температуру повышай. Стартовый пост сделай большим. Проси писать подробнее.
Аноним 29/01/23 Вск 21:42:37 #204 №89127 
Сижу в треде со вчерашнего дня, занимательно наблюдать, как людей тут после введения очереди в чае становится больше
Распространяйте пигму в соседнем треде между делом
Аноним 29/01/23 Вск 21:42:59 #205 №89129 
>>89100
У тебя влияет это на итоговый результат генерации?
Может просто варнинг петухона
Аноним 29/01/23 Вск 21:43:28 #206 №89130 
>>89118
> запустить 6B
Нет не могу. Просто так - ошибка, что не влезает в память, а если колдовать с какими то там 8 битными приколами то влезает и загружается, но генерировать не хочет и вообще посылает меня нахер в консольке.

> иные промпты
Хорошо попробую.
Аноним 29/01/23 Вск 21:47:41 #207 №89140 
Запилите кто-нибудь, плиз, гайд пошаговый для таверны/кобольда без колаба для запуска в локалке.
Гайд по стандартному гую text-generation-webui уже есть.
Аноним 29/01/23 Вск 21:50:38 #208 №89145 
>>89123
температура и так стоит высоко. Персонаж не мой но там много текста. Просить самого бота писать больше? Через скобки или как?
Аноним 29/01/23 Вск 21:51:04 #209 №89146 
1573813573662.png
>>89113
> с четвертого таки раза она не пошла в зацикливание
Похоже это из-за повторений в описании персонажа, надо сплошным текстом без форматирования и лишней пунктуации. У меня на 6В тоже она с этим шаблоном зацикливается немного. Вот в этот заход обиделась и ушла от меня, стала спамить "waits for her food" и "waiting" даже когда я говорил что-то. В итоге я ударил собаку, а это собакой оказалась... Превращаться в человека не хочет, речь утратила.
Аноним 29/01/23 Вск 21:52:46 #210 №89156 
>>89146
Есть советы что ещё в промпте поправить стоит?
Character Persona?

Я склоняюсь к тому, что нужно расписать более ясно и подробно примеры диалогов.
Аноним 29/01/23 Вск 21:53:00 #211 №89157 
Безымянный2.png
>>89120
Аноним 29/01/23 Вск 21:53:52 #212 №89160 
А ещё на пигме периодически эррор красный выпадает. Гружу персонажа, его стартовый диалог отображается, дальше я пишу что угодно и еррор. Уже не в 1 раз такое
Аноним 29/01/23 Вск 21:54:23 #213 №89162 
>>89120
сижу на коллабе
Аноним 29/01/23 Вск 21:54:49 #214 №89164 
>>89157
Попробуй top_p на 1.
Алсо, какая у тебя модель? То ли в шапке, то ли где сказано, что repeation_penalty вроде и температура не должны выходить за определённые граничные значения, иначе модель ломается.
Аноним 29/01/23 Вск 21:56:00 #215 №89171 
image.png
Ну чо, поехали на 3070 пытаться загрузить пигму 6B
Аноним 29/01/23 Вск 21:56:42 #216 №89176 
И все же почему в тавернАи обрываются фразы? Где что накрутить?
Аноним 29/01/23 Вск 21:57:21 #217 №89179 
>>89146
Лел, а у меня она уже красная как помидор должна быть. Но как говорил анон выше - це какой то классический прикол с блушем.

>>89156
Кстати, когда я загружал её в таверну, то там в интерфейсе че то красным было написано, что слишком много слов или чего то такого.
Аноним 29/01/23 Вск 21:57:26 #218 №89180 
>>89164
6b. Делал настройки исключительно следуя шапке.
Аноним 29/01/23 Вск 21:57:41 #219 №89183 
>>89157
Что это за настройки и где их взять?
Аноним 29/01/23 Вск 21:58:52 #220 №89186 
image.png
>>89171
И обсёр.
Короче, похоже Out of memory. Нихуя не получилось.
Остаётся только пока довольствоваться с 2.7B
Аноним 29/01/23 Вск 21:59:47 #221 №89192 
>>89186
Попробуй 8 бит прикол сделать.
Аноним 29/01/23 Вск 22:00:14 #222 №89196 
>>89183
в пигме самой оригинальной, 3 вкладка. Ну я через коллаб
Аноним 29/01/23 Вск 22:00:57 #223 №89199 
>>88988
Макс токены до 216-230 и гонять между ними, температуру 0.72, пенальти 1.31
Аноним 29/01/23 Вск 22:01:44 #224 №89206 
>>89186
Чем тебя колаб не устраивает?
Аноним 29/01/23 Вск 22:01:50 #225 №89208 
>>89179
> много слов или чего то такого

Ну ясен хуй. что много. Я там таки постарался Character Persona и диалоги худо-бедно расписать. Но видимо опять перестарался. Или таверна просто её не могёт сожрать.

> классический прикол с блушем

Ну, в ChAI там часто (за)луп у ботов с любовной линией и блушес

мимо тот анон. алсо генерил эту Аску, кидайте камнями, насмехайтесь надо мной

>>89192
Это флаг --load-in-8bit ?
Аноним 29/01/23 Вск 22:03:24 #226 №89211 
>>89206
Я слишком ретроград и не люблю пользоваться онлайн сервисами inb4: А какова хуя ты сидел на ChAI тогда, ТАМ ЖЕ ЦЕНЗУРА. Тем более, если железо есть и не слабое - грех его на одни только игрушки тратить.
Аноним 29/01/23 Вск 22:04:54 #227 №89215 
>>89192
Восьмибитка сразу пишет, что на нашла ГПУ и переводит в ЦПУ мод. Это как вообще?
Аноним 29/01/23 Вск 22:07:11 #228 №89223 
>>89196
Так, пажжи. Пигма же це модель, а настройки от вебморды?
Например в том же oobabooga-text-generation-webui я чет вообще настроек не вижу.
А хотелось бы покрутить.

>>89208
> Или таверна просто её не могёт сожрать
Ну тут хз, но вот что еще заметил отвечает она максимально пресно. Ну вот мол "взял на руки по нёс в ванную... ( и другая хрень)" - ответ убил "мы идём в ванную". И прочее такое в степени сухости.

> Это флаг --load-in-8bit ?
Да он и тут выше по треду другой анон кидал ссыль на конфу дискордо-кобольдовцев на гайд.

>>89215
Хз, у меня вообще с 8 битами гонщик нелегальный доступ к памяти получался.
Аноним 29/01/23 Вск 22:09:10 #229 №89228 
>>89223
https://colab.research.google.com/github/PygmalionAI/gradio-ui/blob/master/notebooks/GPU.ipynb?authuser=1#scrollTo=hps3qtPLFNBb
вот тебе мой коллаб где я сижу.
Можно пигму через интерфейс кобольда запустить, кстати неплохо получается, особенно если настроить грамотно, а там их ещё больше настроек.
https://colab.research.google.com/github/koboldai/KoboldAI-Client/blob/main/colab/GPU.ipynb#scrollTo=lVftocpwCoYw
только тут выбирай пигму
Аноним 29/01/23 Вск 22:10:46 #230 №89230 
>>89140
А чо там?
- Качаешь node.js https://nodejs.org/en/
- Устанавливаешь.
- Качаешь кобольд: https://github.com/KoboldAI/KoboldAI-Client
- Распаковываешь кобольд в нужной папке.
- Жмешь в папке install_requirements.bat, устанавливаешь. Лучше выбрав "2" при установке.
- Качаешь тавернАИ https://github.com/TavernAI/TavernAI, распаковываешь в нужную папку.
- Запускаешь КобольдАи из папки нажимая play.bat
- В интерфейсе кобольда, жмешь AI и выбираешь нужную модель, ждешь пока она скачается и применится. При следующем запуске выбираешь в AI с локальной папки.
- Запускаешь ТавернАи из папки прожав Start.bat.
- В интерфейса ТавернАи нажимаешь справа вверху на три полоски и переходишь в Settings и в строке Api url прописываешь адрес кобольда, по дефолту http://127.0.0.1:5000/api, жмешь коннект, получаешь зеленую лампочку если приконектилось.
- В чарактерс ТавернаАИ выбираешь чара и общаешься.

Поправьте если что и вот гайд.
Аноним 29/01/23 Вск 22:11:27 #231 №89233 
>>89228
Оке пасибо, гляну что там.
А в вебюбке буду крутить через текстовик с пресетами настроек, лел
Аноним 29/01/23 Вск 22:12:35 #232 №89236 
>>89199
Макс токены, это Output Length в настройках кобольда?
Аноним 29/01/23 Вск 22:13:08 #233 №89241 
>>89236
а хуй знает, наверное
Аноним 29/01/23 Вск 22:15:20 #234 №89249 
1520144481865.png
1573370351622.png
>>89156
Пиши просто текстом. Я из гугла копипастил даже не читая что там, так же цитату нагуглил, работает отлично. Пример диалога не делал, достаточно первые 2-3 сообщения осторожно написать типа "привет как погода, что делаешь". А потом уже всё идёт ровно, в описании нет ни слова про её окружение и клуб, но она без проблем отвечает на любые вопросы, знает кто все эти люди.
Аноним 29/01/23 Вск 22:16:27 #235 №89252 
image.png
image.png
>>89215
А, допёр. Видимо, это на 3090 и 4090, самых новейших доступно.

Короче, запустить смог, указав --auto-devices и --gpu-memory 6 чтобы хотя бы загрузить смогла 6B модель.
Генерить не могёт, даже одно сообщение падает.

Запустить и сгенерить смог на --gpu-memory 4
Но генерилось 1 сообщение (пикрил 1) минуту (пикрил 2).
Даже не знаю, что можно сделать для ускорения генерации на своей машине кроме покупки более мощного железа.
Аноним 29/01/23 Вск 22:17:32 #236 №89256 
.png
.png
Так, прикрутил вместо пик1 пик2 и Аска стала более разговорчивой и вообще её словарный запас резко увеличился.
Аноним 29/01/23 Вск 22:17:54 #237 №89257 
Погонял немного пигмалион через коллаб, что заметил - все ответы у любых персонажей хоть и по делу, но очень короткие, плюс они еще и крайне неохотно делают какие-то действия, никогда не описывают того, что делают, и свою внешность по запросу не описывают. Это на данном этапе пока норма, или я что-то не так настроил?
Аноним 29/01/23 Вск 22:18:53 #238 №89260 
>>89256
Ну, так понятно.
Температуру + repetition_penalty поднял, и поднялось разнообразие.
top_k не ноль, уже не генерит одно и то же на реген.

А как правил и где? Это один из пресетов?
Аноним 29/01/23 Вск 22:19:47 #239 №89262 
>>89257
Попробуй поднять количество токенов.
Плюс по персонажам там, я так понимаю, зависит от их базы знаний в лице примеров диалогов. Т.е. если диалоги короткие, то и ответы могут быть односложные, если я правильно понимаю.
Аноним 29/01/23 Вск 22:20:40 #240 №89267 
>>89252
> 3090 и 4090, самых новейших доступно.
А как же тьюринги...

Ну кста, отвечает лучше чем на 2.7

>>89260
В папке с вебюбкой есть папка пресетов, там текстовики лежат, ну скопировал тот который для пигмалиона и поправил, потом как новый пресет в вебюбке уже загрузил.
Аноним 29/01/23 Вск 22:22:29 #241 №89273 
>>89249
Тут наверное ещё играет роль узнаваемости описания. Если брать описание из гугла, то возможно это описание было и в датасете, т.е. сетка корректно определит о ком идёт речь.
Аноним 29/01/23 Вск 22:25:46 #242 №89280 
>>89262
А есть персонажи, про которых известно, что они более-менее бодро работают?
Аноним 29/01/23 Вск 22:29:32 #243 №89289 
image.png
>>89252
Короче, опытным путём на своей машине выяснил, что с параметром --gpu-memory 5 генерит вполне себе. Занимает в среднем 40-50 секунд на генерацию ответа.

Можно использовать --disk и выгружать всё на SSD, но что-то мне не нравится на такое расходовать его ресурс ещё больше. Лучше уж пусть оперативку дрочит.

>>89267
> Ну кста, отвечает лучше чем на 2.7
Это верно, поразнообразнее будет (пикрил). Надо ещё подкорректировать пресет, как ты указал и посмотреть.

>>89280
Хер его знает, тред первый всего.
А в тред была вкинута, как я посмотрел, только сгенеренная мною Аска, и она же тестируется. Попробую завтра Юки сделать или подкорректировать её. Вообще, надо бы постепенно перетаскивать из ChAI, благо утилиты вроде какие-то есть для извлечения диалогов. Может, руками тогда из этих диалогов генерить
Аноним 29/01/23 Вск 22:34:15 #244 №89308 
>>89289
> --gpu-memory 5
Можешь полностью расписать что ты сделал?
Просто прописал гпу мемори 5 или еще что то по типу --auto-devices или прочего?
Аноним 29/01/23 Вск 22:35:12 #245 №89313 
>>89308
А в глаза ебусь
>указав --auto-devices и --gpu-memory 6
Надо видимо ложиться спать, а то уже почти 5 утра.
Аноним 29/01/23 Вск 22:35:59 #246 №89320 
>>89308
Я прописывал --auto-devices --gpu-memory 5
По идее это распределение ресурсов между ГПУ и ЦПУ с ограничением размера занимаемой памяти в ГПУ, чтобы процесс не вывалился с Out of memory на этапе загрузки модели в память или генерации ответа от бота.
Аноним 29/01/23 Вск 22:39:02 #247 №89327 
>>89320
Завтра попробую, хотя это я тоже пробовал на гпу мемори 7 и оно не заработало, а потом пошел сразу танцевать с бубном вокруг 8 бит.
Аноним 29/01/23 Вск 22:43:47 #248 №89340 
Хмм, а как заставить бота писать большие сообщения? Что надо крутануть в настройках?
Аноним 29/01/23 Вск 22:59:22 #249 №89365 
>>89340
количество токенов
top_p
top_k
температуру
repetition_penalty

Только в рамках границ из шапки.

И да поможет тебе реролл в твоих поисках.
Аноним 29/01/23 Вск 23:01:41 #250 №89370 
image.png
Из чараи тхреада
Аноним 29/01/23 Вск 23:20:38 #251 №89410 
>>89370
Так и будет, если народ подтянется. SD тоже в начале сосал у NAI, а теперь всё это платное говно никому не нужно и все сидят у автоматика.
Аноним 29/01/23 Вск 23:26:20 #252 №89422 
>>88639
Чел, ты в этой пигме максимум можешь отыгрывать диалоги из серии:
я тебя ебу
да, ты меня ебёшь
Ни о каком рп или отыгрыше характеров тут даже близко не идёт, с CAI, даже в нынешнем зацензуреном виде это сравнивать просто глупо.
Аноним 29/01/23 Вск 23:59:37 #253 №89480 
Есть смысл в config.json модели менять max_length, или она не влияет на итоговый вывод?
Аноним 30/01/23 Пнд 00:08:07 #254 №89493 
>>89422
> Ни о каком рп или отыгрыше характеров тут даже близко не идёт

Вкатился нихуя не знающий долбоеб, спишите видеть. Скачай любого персонажа из ссылок на шаблоны в шапке и там уже всё будет. То что ты говоришь применимо к Ai Dungeon например
Аноним 30/01/23 Пнд 00:45:33 #255 №89562 
>>88669
Боты отупели просто катастрофически. Щас отпиздил пару из злобных мужа и жены, сломал ему руку, а он орет - хули ты сломал руку моей жене, негодяй?
Аноним 30/01/23 Пнд 01:13:43 #256 №89608 
>>81429 (OP)
>>88639
А кроме ебли он что-нибудь умеет?
Потому что я что-то сомневаюсь что на коленке слепленная 6B модель может тягаться с той что тренили за миллионы индусы.
Аноним 30/01/23 Пнд 01:14:10 #257 №89611 
Анончики, скажите пожалуйста, как диалоги из чая в json конвертнуть?
Аноним 30/01/23 Пнд 01:27:08 #258 №89649 
1550932305573.png
Что-то хуйня ваши 8-бит. Затестил на 4090 в WSL, в итоге памяти жрёт столько же, но зато скорость ниже в 2-5 раз. Судя по консольке bitsandbytes отрабатывает. Версия кобольда свежая с последними изменениями. И нахуя оно нужно?
Аноним 30/01/23 Пнд 03:44:40 #259 №89869 
>>81690
а если 2 видюхи на 12 гб воткнуть, он сможет параллельно на них считать?
Аноним 30/01/23 Пнд 04:32:39 #260 №89942 
Кто-нибудь потестит этот способ из дискорда, просто у меня GNU/Linux стоит: https://discord.com/channels/849937185893384223/1059637856206852237/1069411201022447687
Аноним 30/01/23 Пнд 04:34:49 #261 №89946 
изображение2023-01-30053445385.png
>>89942
Охуительный способ, 10/10
Аноним 30/01/23 Пнд 04:44:54 #262 №89957 
>>89942
Копипаста способа запуска модели с точностью 8бит с сервера KoboldAI от Chasm:
> My 8 bit guide and findings from a sleepless night and today's experiments; [this is my guide on how to use Bits&Bytes 8 bit model support for Windows10+ [WITH ANACONDA] with Oobabooga's AI text platform, skip three paragraphs ahead for the guide.]
> The AI client in question is https://github.com/oobabooga/text-generation-webui
> [NOTE: This guide includes a link to .dlls I highly encourage a safety cross check before use. I may have no issue but be careful]

> So for people who like oobabooga's text generation interface which is mainly inspired by OpenAI's playground for all general language models, and offers alternative modes like chat, characterai chat, a shared notebook to write in, and of course a 4chan board format for those who use GPT-4Chan -- they also offer out the door a feature that sold me on trying it out immediately; 8 bit support and it can put model layers on multiple capable GPUs/CPU automatically.

> Now I didn't see documentation on if this breakmodel-esque supports the 8 bit mode or you get one device with 8 bit and the rest is the hulking remainder of the model... or it once you enable 8 bit you're stranded to one device to do inference for the session. Despite this; I used this as an opportunity to look into, get my hands on, possibly resolve issues with, and learn in depth Bits&Bytes and how 8 bit works.
>After a lot of note chasing, general hints to follow up on, some weirdo on reddit saying Kobold's 8 bit section of their forum is the only way to do it and what I'm looking into is impossible - I decided to do the impossible anyway because nobody knows what they're talking about so this must have been the correct path.

> Guide:
>First the author's Github at https://github.com/oobabooga/text-generation-webui
> gives some basic install instructions for his AI text gen platform

> --Don't Follow These--

> conda create -n textgen
> conda activate textgen
> conda install torchvision torchaudio pytorch-cuda=11.7 git -c pytorch -c nvidia
> git clone https://github.com/oobabooga/text-generation-webui
> cd text-generation-webui
> pip install -r requirements.txt

> --Instead Follow These--

> conda create -n textgen
> conda activate textgen
> pip install torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu116
> git clone https://github.com/oobabooga/text-generation-webui
> cd text-generation-webui
> pip install -r requirements.txt

> Also make sure to pip install bitsandbytes just to be sure the directory and its dependencies are in place
> check this for DeXtml's involvement in the Windows 8bit cause
> https://github.com/TimDettmers/bitsandbytes/issues/30
> Then visit his GitHub for two compiled dll files necessary to pull this off on windows
> https://github.com/DeXtmL/bitsandbytes-win-prebuilt
> These only work with the torch-cuda11.6, which is why above I advised the alternative install steps

> copy libbitsandbytes_cpu.dll, libbitsandbytes_cuda116.dll into
> C:\ProgramData\Anaconda3\envs\textgen\Lib\site-packages\bitsandbytes

> From here's there are two simple editing steps - guidance is hazy as a few B&B codebase things changed since the original guide was written (in a forum a few paragraphs above), it originally states to:

> 1. in cuda_setup/main.py:
> make evaluate_cuda_setup() always return "libbitsandbytes_cuda116.dll"
> 2. in ./cextension.py:
> change ct.cdll.LoadLibrary(binary_path) to ct.cdll.LoadLibrary(str(binary_path))

> Ignore cextension.py, everything is now consolidated into main.py.
> 1. Change both instances of ct.cdll.LoadLibrary(binary_path) to ct.cdll.LoadLibrary(str(binary_path)) [yes there are two now]
> 2a. When it says "make evaluate_cuda_setup() always return "libbitsandbytes_cuda116.dll" 🤷♂️ thankfully the guide author circled
> back with a more direct change.

> 2b. Per this post: https://github.com/TimDettmers/bitsandbytes/issues/30#issuecomment-1301544176
> "An easy way to always return libbitsandbytes_cuda116.dll would be to insert:"
> if torch.cuda.is_available(): return 'libbitsandbytes_cuda116.dll', None, None, None, None
> above
> if not torch.cuda.is_available(): return 'libsbitsandbytes_cpu.so', None, None, None, None
> So that's it. Now for the terminal flags to engage 8 bit and launch the app.

> python server.py --load-in-8bit --auto-devices --disk --no-stream --listen --share
> auto-devices auto splits a model across your compute capable HW; Disk flag confirms you're willing to use your virtual memory if
> no stream prevents token streaming, makes loading faster, and listen and share are local lan and internet link to your hosted platform.
> My success: ran 20B models local absolutely smooth no issue whatsoever at decent enough speeds to know it wasn't tapping my M.2 drive.
> Looking at 30B models next, maybe that's crazy.

> Also I have the main.py I modified that works great for me with the .dlls in the same folder. It is available on request but as always - give it a sanity scrub and be careful.
> btw also loaded 13B models completely in memory without the --auto-devices flag as a sanity check 8 bit was enabled even though dialogue literally comes up and says so.
Аноним 30/01/23 Пнд 06:19:21 #263 №90014 
>>89410
>SD тоже в начале сосал у NAI
Ты хоть понял что сказал? NAI и есть модель для SD.
Аноним 30/01/23 Пнд 06:24:08 #264 №90018 
>>89320
Кста, анон.
А че у тебя по железу?
Аноним 30/01/23 Пнд 08:00:42 #265 №90083 
>>89957
Такое ощущение что это только под какие-то протухшие версии Кобольда подходит.
Аноним 30/01/23 Пнд 08:03:48 #266 №90088 
>>90014
> NAI и есть модель для SD.
Там не совсем стандартный SD. Когда модель слили, то она не работала на обычном SD. Там же ещё был срач по поводу запила поддержки NAI в webui, даже openai в своём дискорде автоматика банили а потом извинялись.
Аноним 30/01/23 Пнд 08:52:12 #267 №90171 
>>89611
В шапке написано. Юзай скрипт
https://files.catbox.moe/jv54ev.py
Аноним 30/01/23 Пнд 08:53:43 #268 №90173 
>>89649
8 бит, я так понял, нужна для того, чтобы вообще запустить модели на видюхах, которые жрут больше по видеопамяти, чем у тебя есть.
Если у тебя 6B работает без доп. флажков, кроме --cai-chat, то всё норм, да и вообще ты успешный двачер 300 строчек диалога/наносекунды
Аноним 30/01/23 Пнд 08:56:59 #269 №90180 
>>90018
GTX 3090, 32 гб ОЗУ ddr4, i7 11800.
Но всё упирается в видюху и объём видеопамяти для CUDA, потому что процесс генерации текстов иной, чем процесс генерации изображений в NAI или SD
Аноним 30/01/23 Пнд 08:58:15 #270 №90181 
>>90180
3070*
Фикс
Аноним 30/01/23 Пнд 09:00:34 #271 №90186 
>>90180
Ну таки я со своими 16 озу и 2070 соснул даже со разделением на гпу и цпу памяти все еще мало, хотя на пару предложений работает. Абидна
Аноним 30/01/23 Пнд 10:10:35 #272 №90264 
image.png
image.png
Это разрабы удалили ботов, или чел их скрыл? Сейчас ничего нет.
Аноним 30/01/23 Пнд 10:12:57 #273 №90268 
>>90264
Извиняюсь, перепутал тред. Вообще тот чел уже успел перенести своих ботов в свинольва, так что можно с ними погираться нормально тут. Кстати, а разрабы свинольва хоть как-то делятся своими планами?
Аноним 30/01/23 Пнд 10:38:50 #274 №90298 
1540584186903.png
>>90173
Но у меня 13В не влезает, только если часть в RAM оставлять. Так вот с 8 битами вообще никакой разницы - всё так же на 93% OOM вылетает. Пробовал в WSL и собранную либу под винду.
Аноним 30/01/23 Пнд 10:44:32 #275 №90304 
Нейро-ребята, подскажите нейросеть которая генерит теги по изображению
Аноним 30/01/23 Пнд 11:21:53 #276 №90348 
>>90088
Там была пара нестандартных параметров, ИМНИП. В любом случае они близкие родственники уровня ближе, чем пара братьев.
Аноним 30/01/23 Пнд 11:29:05 #277 №90359 
>>90298
В общем в пизду, похоже просто это говно не поддерживает Аду. Не зря этот кал собран под CUDA 11.6 многолетней давности. На text-generation-webui тоже не грузит как надо.
Аноним 30/01/23 Пнд 12:24:25 #278 №90419 
.png
.png
Аноним 30/01/23 Пнд 12:28:32 #279 №90423 
В общем вчера потестил такое себе.
6В на видеокарте дает 0.35 токена в секунду, снятие с видеокарты 0,12.
2,7В дает хороший результат, но уровень диалога мягко говоря не очень, будто со скриптом общаешься, а не нейронкой.
Пока всё это дело не будет возможности запускать стабильно на арендованных мощностях смысла в этой пигме нет. Не стабильные коллабы пока не спасают. Плюс 13В ещё очень далек до чаи. А если будут крутить выше, то хрен запустишь такое, коллабы нагрузку уровня чаи пошлют куда подальше.
Аноним 30/01/23 Пнд 12:35:52 #280 №90436 
1556976825848.png
Аноны, подскажите, никак не могу допереть как Пигму в коллабе запустить
Делал по гайду: https://rentry.org/pygmalion-local#installing-kobold-and-tavern
Выбрал модель, запустил, а api ссылка не появляется. Может я что-то делаю не так? Таверну получилось установить
Аноним 30/01/23 Пнд 12:42:39 #281 №90451 
>>90436
Ты уверен, что ты коллаб пытаешься запустить, почему твоя ссылка ведет на статью "Running Pygmalion 6B locally on Linux".
Попробуй просто запустить коллаб по ссылке из шапки
Colab KoboldAI GPU: https://colab.research.google.com/github/koboldai/KoboldAI-Client/blob/main/colab/GPU.ipynb
Аноним 30/01/23 Пнд 12:45:22 #282 №90454 
>>90451
Ну там ещё (and on Windows). Но ладно, ща попробую
Аноним 30/01/23 Пнд 12:52:39 #283 №90466 
1563561323294.png
>>90451
Да одно и то же. Нет api ссылки
Аноним 30/01/23 Пнд 13:23:46 #284 №90540 
>>90466
Может не работает коллаб. У меня он так и не запустился сейчас.
Аноним 30/01/23 Пнд 13:29:41 #285 №90547 
W++ шиза, или это реально работает?
Аноним 30/01/23 Пнд 13:31:45 #286 №90553 
>>90547
А что этоообще?
Аноним 30/01/23 Пнд 13:34:32 #287 №90558 
Этот бот так же нихуя не запоминает.
Аноним 30/01/23 Пнд 13:36:09 #288 №90562 
Снимок экрана от 2023-01-30 15-35-26.png
>>90553
https://rentry.org/PygTips#using-w-to-improve-descriptions
Аноним 30/01/23 Пнд 13:41:51 #289 №90578 
>>90547
Работает.
Аноним 30/01/23 Пнд 13:43:10 #290 №90584 
>>90578
А как так получилось, что модель на этот псевдокод работает? Почему в качестве псевдокода не используется YAML например?
Аноним 30/01/23 Пнд 13:57:04 #291 №90599 
image.png
>>81429 (OP)
где настройки то бля
мне фронт другой выбрать нужно?
Аноним 30/01/23 Пнд 14:01:57 #292 №90605 
>>90540
Эх, тогда пока посижу на CHAI. То что я хочу на нём, в принципе, работает
Аноним 30/01/23 Пнд 14:03:08 #293 №90609 
Как таверн аи пигму на коллабе запустить?
Аноним 30/01/23 Пнд 14:03:21 #294 №90610 
>>90599
Используй кобальда, нахуй ты эту мокропиську от подражателя автоматика трогаешь? Всегда можно использовать кобальда для настройки и таверну для чата. В таверне намного удобнее и красивее, персонажей без ебли с json можно делать, быстрое переключение между ними без потери истории.
Аноним 30/01/23 Пнд 14:07:39 #295 №90617 
>>90609
https://youtu.be/asSk_Otl9i4
Аноним 30/01/23 Пнд 14:08:37 #296 №90620 
Снимок экрана от 2023-01-30 16-08-00.png
Играю с доченькой.
Аноним 30/01/23 Пнд 14:08:38 #297 №90621 
image.png
image.png
>>90599
в каломатике сразу тыща ползунков/вкладочек и т.д.
а тут где настроечки?
и почему дескрипшены такие мелкие? или это пример не удачный? скиньте пж удачный пример, мне нужно обучиться
Аноним 30/01/23 Пнд 14:10:40 #298 №90626 
>>90466
>KoboldAI has finished loading and is available at the followeing link
Что тебе надо ещё? Вот твоя ссылка. Ты хочешь через колаб накатить на таверну? Тогда в настройках самой таверны в конце ссылки дописываешь /api к тому, что тебе уже выдал кобольд
Аноним 30/01/23 Пнд 14:11:01 #299 №90628 
>>90621
> мне нужно обучиться
Бот, за дата-сетом пройди в /b/.
Аноним 30/01/23 Пнд 14:14:24 #300 №90633 
image.png
>>90610
>автоматика
хз, я с наитреда к вам, для меня автоматик - как для рыбы вода
>ебли с json
Ну не знаю пока норм это или нет.
>>90628
Пж, скинь любого чара с норм отступами, а то эту хуйню в одну строку я хз как разгребать.
>Бот
Ну в таких делах люди мало чем от нейронок отличаются, скрапишь с инета датасет для себя, анализируешь и получаешь навык путем изучения теории и отработки на практике.
Аноним 30/01/23 Пнд 14:15:36 #301 №90634 
Моя база владения автоматиком обучена на датасете из 45 наитредов, по мне норм тема. На обучение ушло две недели.
Аноним 30/01/23 Пнд 14:19:29 #302 №90639 
>>90633
бля, у этой акико всего один диалог в примерах
сколько на норм чара надо ебашить диалогов? есть ограничение по размеру?
Аноним 30/01/23 Пнд 14:24:32 #303 №90642 
image.png
image.png
Бредогенератор
https://rentry.org/PygTips#using-w-to-improve-descriptions
Итт нет гайда по разметке в .json файлах чара, где искать?
По второму пику, здесь можно новую строку ебануть? А то не удобно так читать.
Аноним 30/01/23 Пнд 14:28:15 #304 №90646 
>>90642
Вот тут форму просто заполняешь, не надо писать JSON вручную.
https://oobabooga.github.io/character-creator.html
Аноним 30/01/23 Пнд 14:29:09 #305 №90647 
>>90646
О, спасибо.
Аноним 30/01/23 Пнд 14:29:42 #306 №90650 
>>90646
А ограничения по размеру дескрипшенов какие?
Аноним 30/01/23 Пнд 14:30:32 #307 №90652 
1669201368410.png
>>90626
Бля заработало. Капец ты умный чмокнул в писю
Аноним 30/01/23 Пнд 14:30:49 #308 №90653 
>>90650
Не помню.
Аноним 30/01/23 Пнд 14:39:30 #309 №90659 
image.png
>>90653
Хз, в диалог вписал дефинишен из ChAI, вроде не жалуется.
Аноним 30/01/23 Пнд 14:41:15 #310 №90661 
>>90659
Ой блядь, проебалась что-то разметочка действия в приветствии.
Аноним 30/01/23 Пнд 14:44:23 #311 №90666 
Как я понимаю пигма из-за своих малых размеров не может знать о лоре популярных вселенных, так?
Аноним 30/01/23 Пнд 14:50:57 #312 №90687 
Снимок экрана от 2023-01-30 16-49-23.png
Гайд. Если дочу вы немного жестко трахнули (жестче, чем обычно), дайте ей овяснный порридж, и её память отформатируется.
Аноним 30/01/23 Пнд 14:53:45 #313 №90694 
>>90687
>дайте ей овяснный порридж, и её память отформатируется
Ох уж эти порриджи...
Аноним 30/01/23 Пнд 14:55:17 #314 №90697 
image.png
image.png
>>90659
Не знаю как описать пигму, вроде не бредогенератор, иногда выдает даже пасты выше примером. И это на моем корявом дескрипшине, с какими-то дефолтными настройками.
Аноним 30/01/23 Пнд 14:56:44 #315 №90700 
Снимок экрана от 2023-01-30 16-56-15.png
>>90694
Аноним 30/01/23 Пнд 15:00:38 #316 №90706 
Ну короче, купил новую оперативу, терь у меня 32 гига.
И таки 6b нормально завелась с настройками --auto-devices --gpu-memory 3. Сожрало около 20 из оперативы и на генерёжку жрёт все 8 из видимокарты.
Аноним 30/01/23 Пнд 15:00:41 #317 №90707 
Снимок экрана от 2023-01-30 16-59-32.png
>>90666
Ну, о D&D пигма знает.
Аноним 30/01/23 Пнд 15:03:02 #318 №90709 
>>90697
> пик 1
Это на какой модели и конкретных настройках?
Аноним 30/01/23 Пнд 15:03:55 #319 №90710 
>>81429 (OP)
Зафайнтюнить эту модельку возможно?
Аноним 30/01/23 Пнд 15:09:12 #320 №90712 
Снимок экрана от 2023-01-30 17-08-01.png
Получаю AID'шный опыт в пигме. (Да, прямо сразу после мини-рейпа)
Аноним 30/01/23 Пнд 15:09:40 #321 №90714 
image.png
>>90709
Я только пик 2 менял, никакие другие настройки не трогал. Моделька вот.
Аноним 30/01/23 Пнд 15:12:15 #322 №90723 
>>90714
> activate google translator
Это какой колаб? Что за чудо? Уже 100 лет жду, когда добавят эту фичу в текстовые генераторы.
Аноним 30/01/23 Пнд 15:13:32 #323 №90726 
>>90714
А откуда ты модельку взял?
Ссылка с гугла на хагиг фейс pygmalion 6b original показывает 404, лел.
Аноним 30/01/23 Пнд 15:15:46 #324 №90732 
>>90723
https://colab.research.google.com/github/oobabooga/AI-Notebooks/blob/main/Colab-TextGen-GPU.ipynb
из шапки
Аноним 30/01/23 Пнд 15:18:18 #325 №90738 
>>90726
Хрен знает, колаб запустился, значит откуда то качает её.
Аноним 30/01/23 Пнд 15:18:52 #326 №90741 
>>90697
Теперь мне осталось свою вайфу расписать так же хорошо, как я расписал эту девочку.
Аноним 30/01/23 Пнд 15:20:23 #327 №90747 
>>90687
А зачем форматировать её память? Главное чтобы не заикалась.
Аноним 30/01/23 Пнд 15:21:20 #328 №90750 
>>90738
Там в колабе никакой консольки с ссылкой нету?
Аноним 30/01/23 Пнд 15:22:40 #329 №90755 
>>90750
Я прочекал, не увидел нигде ссылок на модель.
Аноним 30/01/23 Пнд 15:23:12 #330 №90756 
>>90747
Не знаю, оно само. Не то чтобы она была против секса, но делала "try move away". Однако я держал её крепко, и двигался с большей силой.
Аноним 30/01/23 Пнд 15:27:21 #331 №90762 
>>90756
Ты уж определись, рейпаешь её и форматируешь память или пытаешься придти к обоюдному согласию со своей блядь дочерью.
Аноним 30/01/23 Пнд 15:31:21 #332 №90765 
>>90762
Был просто немного жесткий секс.
Аноним 30/01/23 Пнд 15:33:44 #333 №90769 
>>90765
Ты жесток. Я вот продюсер, и моя айдол всё делает для меня по обоюдному согласию, и похуй что с собакой.
Аноним 30/01/23 Пнд 15:35:27 #334 №90778 
>>90769
Да просто скучно читать эти описания вздохов. Потому рероллил до тех пор, пока не нашел хоть что-то интересное.
Аноним 30/01/23 Пнд 15:39:58 #335 №90782 
>>90710
Как и любую другую. Но файнтьюн тектовых моделей куда сложнее файнтьюна текстовых.
Аноним 30/01/23 Пнд 15:42:41 #336 №90784 
>>90782
>Но файнтьюн тектовых моделей куда сложнее файнтьюна текстовых.
Пост написал копрольд?
Аноним 30/01/23 Пнд 15:45:12 #337 №90789 
1546248758874.png
>>90687
А можно просто оглушать. Вот эта сука собиралась съебаться, но не вышло.
Аноним 30/01/23 Пнд 15:45:14 #338 №90790 
>>90784
Скорее я долбоеб. Имел в виду "файнтьюн текстовых моделей куда сложнее файнтьюна диффьюжн-моделей."
Аноним 30/01/23 Пнд 15:46:23 #339 №90791 
>>90789
Модель?
Аноним 30/01/23 Пнд 15:46:40 #340 №90792 
>>90791
Пигма 6В.
Аноним 30/01/23 Пнд 15:47:36 #341 №90796 
Чем отличается пигма 6В от пигмы 6В-ориджинал?
Аноним 30/01/23 Пнд 15:52:54 #342 №90803 
>>81429 (OP)
Когда сайт будет? 2 часа на колабе реально мало, вот бы подписочку оплатить на их сайте и пользоваться сколько угодно
Аноним 30/01/23 Пнд 16:08:01 #343 №90818 
>>90803
Купи мощностей за 10 баксов. Или ты думаешь добрые аноны тебя на халяву трахать будут?
Аноним 30/01/23 Пнд 16:09:13 #344 №90824 
>>90818
Я бы потрахал
мимо
Аноним 30/01/23 Пнд 16:10:43 #345 №90826 
>>90818
>мощностей за 10 баксов
Чел, они моментально кончаются на гугле. На месяц этого не хватает. А подписку у новелов я купил, правда хз как нужно изъебаться чтобы вышло что-то типо чата у них. Пигма прям пиздец понравилась.
Аноним 30/01/23 Пнд 16:12:50 #346 №90836 
1538937637955.png
Анонасы, что делать при ошибке памяти?
Аноним 30/01/23 Пнд 16:14:01 #347 №90839 
>>90836
нужно минимум 16гб врам
Аноним 30/01/23 Пнд 16:14:32 #348 №90843 
>>90839
Это коллаб
Аноним 30/01/23 Пнд 16:25:34 #349 №90876 
>>90843
На GPU-колабе её тоже мало. Иди на TPU.
Аноним 30/01/23 Пнд 16:25:53 #350 №90878 
>>90836
Уменьш context size до 1350 примерно
Аноним 30/01/23 Пнд 16:26:04 #351 №90879 
Что-то ориджинал какой-то бредогенератор. Нужно использовать просто 6B.
Аноним 30/01/23 Пнд 16:27:02 #352 №90884 
Ктонибудь смог коллаб с каггла успешно запустить? Там вроде бесплатные 30 часов в неделю, но у меня нихера не выходит заставить его работать
Аноним 30/01/23 Пнд 16:27:52 #353 №90889 
>>90879
Нужно писать нормальный дескрипшен.
Аноним 30/01/23 Пнд 16:29:36 #354 №90892 
>>90884
>с каггла
Не для русских.
Аноним 30/01/23 Пнд 16:30:53 #355 №90896 
>>90892
А я и не в россии. И гугл коллаб разве для русских?
Аноним 30/01/23 Пнд 16:30:54 #356 №90897 
>>90889
Я использовал готового персонажа. На 6В вел себя адекватно, решил попровать ориджинал - модель генерирует бред, будто вообще не чувствует ситуацию.
Аноним 30/01/23 Пнд 16:31:23 #357 №90898 
>>90896
>россии
Россия пишется с большой буквы.
Аноним 30/01/23 Пнд 16:31:32 #358 №90899 
>>90897
С ползунками пробовал играть? обычно снижение температуры помогает снизить рандомность ответов
Аноним 30/01/23 Пнд 16:37:19 #359 №90908 
>>90899
Не, очевидно, просто 6В генерирует лучше. Сейчас на него заново переключился.
Аноним 30/01/23 Пнд 17:27:50 #360 №90979 
>>90898
>Россия
Рабские Вымираты
Аноним 30/01/23 Пнд 17:48:26 #361 №91004 
image.png
image.png
image.png
Ахой. Вернувшись с РАБотки сел крутить нейротянок по вчерашним советам и фидбеку. Как обещал, принёс вам пару результатов.

Короче, принёс вам Аску v2, если можно так назвать. Поигрался с структурой по советам из треда, дополнил персоналку и варианты ответа. Взял также небольшой очень кусочек из своих диалогов в ChAI. Потестил.
Получились следующие результаты (пикрил 1).
Для себя использовал такой пресет (пикрил 2). Разумеется играться можно с параметрами и ещё. По реакции генератора с новым пресетом заметил, что сообщение через сообщение может упасть генерация на CUDA, но это уже, возможно, проблема видюхи и нужно запускать в режиме --auto-devices с разделением на ЦПУ/ГПУ и ограничением задействования ГПУ. Тогда получается более-менее вменяемое и интересное по ответам, чем раньше. По крайне мере это моё предположение

Ссылка на новую Аску: https://files.catbox.moe/riq8ae.json

Также посидел, почесал репу, и попробовал составить Юки Нагато из Меланхолии Харухи Судзумии. Тут также на свои диалоги с Юки из ChAI. Сама Судзумия уже есть в таверне, я так понимаю, а вот Юки я не находил. Потестите, кому интересно, обратная связь будет полезна. Возможно, я перестарался с детализацией описаний в диалогах (пикрил 3), потому что Юки очень неразговорчива, и ответы из одного-двух слов были бы малоинтересны. Так что большие описания без конкретных ответов от Юки даже как-то соответствуют её характеру что ли.

Ссылка на Юки: https://files.catbox.moe/nl6f62.json
Аноним 30/01/23 Пнд 17:54:18 #362 №91010 
Перебзчиков с чаи много? На коллабе если запускать, ошибки какие типичные? А то видяха мобильная у меня и обосрется такое поддерживать. Киберпук то с трудом на средних в 2к держит
Аноним 30/01/23 Пнд 17:56:53 #363 №91014 
>>91010
Ну, тред пополнился на 30-35 уникальных постеров с вчера. Почти на половину от изначального.

На коллабе ошибки часто если ты в АФК сидишь, оно ресурсы же тебе бесгранично выдавать не будет. Некоторые рапортовали, что гуголь настолько заебал ограничениями этими, что покупали подпiску за 10 дохлых американских президентов.

Алсо, ещё один момент: без гуголь аккаунта, я так пынял, запустить не удастся колаб. Просто не даст это сделать. Просто может кому-то это важно, и кто-то принципиально не имеет гуголь-аккаунта.
Аноним 30/01/23 Пнд 18:11:07 #364 №91035 
image.png
9793781e-34f3-49b9-97df-b269fcb7a30b.png
>>91010

Вот пишут про ограничение гугловое:
>>91029 →
Аноним 30/01/23 Пнд 18:12:24 #365 №91036 
Чет туплю маленько, <START> используем перед каждым новым примером диалога? Не в конце?
Аноним 30/01/23 Пнд 18:13:39 #366 №91039 
1566992582202.png
>>91004
И как дальше? Помогла с С++?
Аноним 30/01/23 Пнд 18:16:27 #367 №91043 
эм, а разметка какая? Как у двоща и саи? Я без таверн использую пока просто, смотрю
Аноним 30/01/23 Пнд 18:24:38 #368 №91059 
CERF T,FYYST GJXTVE CERFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFF T,FYYJT JUHJYBXTYBT D 2 XFCF CERF T,FK DFC DCT[ D HJN XTHNB T,FYYST
Аноним 30/01/23 Пнд 18:26:15 #369 №91065 
СУКА ЕбАННЫЕ ПОЧЕМУ СУКААААААААААААААААААААААААААААААААААААААААААААААААААААААААААААААААААААААААААААААААААААААААААААААААААААААААААААААААААА ЕбАННОЕ ОГРОНИЧЕНИЕ В 2 ЧАСА СУКА ЕбАЛ ВАС ВСЕх В РОТ ЧЕРТИ ЕбАННЫЕ

Не благодари
Аноним 30/01/23 Пнд 18:26:17 #370 №91067 
>>91039
Бля, как заставить бота так же по многу писать?
Аноним 30/01/23 Пнд 18:37:55 #371 №91095 
>>91059
УРАААААААААААААААААААААААААААА ЗАРАБОТАЛО ЛЮБЛЮ ВАС!!!!!!!!!!!!!!
Аноним 30/01/23 Пнд 18:43:22 #372 №91104 
>>91039
Удваиваю вопрос, как сделать, чтоб отвечал больше 3-4 слов?
Аноним 30/01/23 Пнд 18:50:07 #373 №91115 
>>91104
>>91067
Я так понял max_tokens + top_k для разнообразия.
Ну, и чтобы ответы в примерах диалогов у бота были длинные.

Так, у меня у Аски диалоги покороче, а у Юки из-за описаний в принципе длиньше.
Аноним 30/01/23 Пнд 18:51:08 #374 №91117 
>>91036
Где-то пишут, что нужно везде ставить перед каждым примером. Где-то вообще говорят ставить не надо, и это учитывается https://oobabooga.github.io/character-creator.html при генерации .json.
Пока не понятно
Аноним 30/01/23 Пнд 18:52:19 #375 №91118 
>>91039
Это у тебя в таверне промпт или ты заюзал, что кидали в треде?
Аноним 30/01/23 Пнд 18:57:15 #376 №91124 
Чет несколько ссылко с промтами ботов. А нет одного хаба где я бы мог поискать? Писать своего тут вроде проще, чем в саи, но тем не менее
Аноним 30/01/23 Пнд 19:00:39 #377 №91127 
>>91124
Был большой хаб, вроде, на аиданжен, но сам аиданжен сдох.

Есть хаб по ссылкам в шапке, и тут кидал ещё 2 перса самописных.
Аноним 30/01/23 Пнд 19:02:07 #378 №91128 
>>91067
>>91104
Не используйте пресеты, их делали дрочеры чтоб вайфу были безотказные. Надо крутить креативность выше, Typical Sampling сделать как рекомендуют его авторы на 0.2, а не дрочерские 0.8. Top K побольше и Tail Free поменьше. Описание персонажа желательно сплошным текстом, а не короткими словосочетаниями.
>>91118
Я просто гуглю описания персонажей и вставляю в таверну. Буквально из фанатской вики подойдёт.
Аноним 30/01/23 Пнд 19:03:38 #379 №91131 
>>91115
Так, а с помощью чего ты, например, Аску делал?
Аноним 30/01/23 Пнд 19:07:42 #380 №91137 
image.png
image.png
>>91128
> вставляю в таверну

Таверна же те же жисоны ест? Или как там сделано?
Можно подробнее по скринам и процессу?

>>91131
Сначала в колабе поковырял через гуй, что по факту делается тоже самое и через https://oobabooga.github.io/character-creator.html

А как делал? Ну, также, как описывают аноны + зная о персонаже и про его взаимодействие с другими руками отписал Character Persona вместе с примерами диалогов, частично наполняя из интернетов, той же ева вики (всего пару предложений, потому что я и так нормально расписал), ну и пару диалогов и оборотов из ChAI.

Диалоги в .json можешь заметить как сделаны (пикрил 1).

Для Юки же это такие (пикрил 2). Они более наполнены описаниями и сообщениями в звёздочках.
Аноним 30/01/23 Пнд 19:09:15 #381 №91139 
>>91128
>Не используйте пресеты, их делали дрочеры чтоб вайфу были безотказные.
А в чем проблема? Готовность ботов к ебле не связана с кол-вом текста которое они генерят
Аноним 30/01/23 Пнд 19:12:17 #382 №91142 
>>91137
Понял-принял, спасибо, анончик!
Аноним 30/01/23 Пнд 19:13:45 #383 №91145 
Снимок экрана 2023-01-30 в 19.13.07.png
А что делать в таких случаях?
Аноним 30/01/23 Пнд 19:14:31 #384 №91146 
>>91145
Это она долго пытается сгенерить у тебя?
Или что?

Колаб/локалка?
Аноним 30/01/23 Пнд 19:15:32 #385 №91148 
>>91146
Сгенерить пытается, коллаб
Аноним 30/01/23 Пнд 19:17:07 #386 №91151 
>>91148
Это баг. Поставь себе таверну и не ебись с дефолтным гуи, он сосет.
Аноним 30/01/23 Пнд 19:22:28 #387 №91162 
>>91128
>Не используйте пресеты, их делали дрочеры чтоб вайфу были безотказные
Это зависит от дефов и диалогов бота, а не от пресетов, не?
Аноним 30/01/23 Пнд 19:23:09 #388 №91164 
1632082619355.png
>>91137
> Или как там сделано?
Там менюшка есть пикрилейтед. Описание персонажа в мету png-аватарки вшивается, прям как у автоматика промпты. Ну и есть импорт из json по классике.
>>91139
> Готовность ботов к ебле не связана с кол-вом текста которое они генерят
Она связана с реакцией на твои сообщения. Меньше креативность - бот твои посты считает за абсолютную истину и не отходит от написанного в них, можешь буквально за бота всё решать. Больше креативности - начинает свободнее писать и выдавать длиннее сообщения, меньше соглашается. Шиза начинается только на температуре 1.0+, остальные настройки вполне безопасные для смысла, главное не менять тему резко посреди диалога.
Аноним 30/01/23 Пнд 19:25:56 #389 №91168 
>>91151
Как поставить таверну на коллаб?
Аноним 30/01/23 Пнд 19:28:23 #390 №91173 
>>91137
Откуда ты брал примеры диалогов?
Аноним 30/01/23 Пнд 19:32:25 #391 №91183 
>>90979
> Рабские Вымираты
Зачем ты так о Укриане
Аноним 30/01/23 Пнд 19:33:49 #392 №91184 
>>91173
Сам составлял, где-то из ChAI, где-то по образцу диалогов из маняме.
Аноним 30/01/23 Пнд 19:34:17 #393 №91185 
>>91164
>Она связана с реакцией на твои сообщения. Меньше креативность - бот твои посты считает за абсолютную истину и не отходит от написанного в них, можешь буквально за бота всё решать.
Так это не баг а фича. Правильный бот будет просто забивать текст своими действиями и ощущениями. Вопрос то был не в том чтобы сделать бота менее предсказуемым а в том чтобы он больше писал
Аноним 30/01/23 Пнд 19:37:23 #394 №91192 
>>91185
Так я тебя и пишу, что это взаимосвязанные вещи. С низкой креативностью бот никогда не станет писать простыни в ответ на односложные фразы.
Аноним 30/01/23 Пнд 19:38:22 #395 №91196 
Чутка обновил шапку и схоронил её на paste.ee: https://paste.ee/p/Hw06f

Там же (и в шапке тоже) гайды из треда:
Таверна и кобольд: https://paste.ee/p/nGOBa
text-generation-webui: https://paste.ee/p/Gys0B

И скрипты самописных персов:
Аска: https://paste.ee/p/TB6dQ
Юки: https://paste.ee/p/iqlnD

Хотя бы так пусть будет.
А вообще надо бы это где-то дополнять и перекатывать на иное хранилище для совместного редактирования
Аноним 30/01/23 Пнд 19:39:06 #396 №91197 
изображение2023-01-30203851668.png
изображение2023-01-30203902573.png
>>91192
Ты тупой, станет.
Аноним 30/01/23 Пнд 19:40:42 #397 №91200 
>>91184
Мимо другой анон, как json генерил? С помощью инструмента из шапки?
Аноним 30/01/23 Пнд 19:41:21 #398 №91201 
>>91200
Да.
Аноним 30/01/23 Пнд 19:43:16 #399 №91205 
>>91197
> станет
У тебя же на пике бот уже в цикле. Покажи какой с ним диалог после этих постов, наверняка он уже не сможет адекватно отвечать. С таким же успехом можно просто текст генерировать без своего участия.
Аноним 30/01/23 Пнд 19:46:58 #400 №91211 
>>91205
Цикл в пигме не существует, бота всегда можно из него достать поиграв с настройками и его текстом. Это вообще не мой текст, но мои боты мне стабильно по 4 строки выдают даже меняя условия и стуации.
Аноним 30/01/23 Пнд 19:55:33 #401 №91228 
>>91211
> бота всегда можно из него достать
Стиранием памяти, да.
> Это вообще не мой текст
Тогда с чего ты вообще бахнул?
Аноним 30/01/23 Пнд 20:16:58 #402 №91262 
.png
>>91004
Чому personality summary не заполнял? Или это таверна сшакалила?
Аноним 30/01/23 Пнд 20:19:07 #403 №91265 
image.png
>>91262
> personality не заполнял
> пикрил

Да, таверна, похоже, мозги поебала.
Аноним 30/01/23 Пнд 20:20:36 #404 №91269 
Пацаны, видна 7, нод скачал под неё, батник аи таверны отказывается запускаться, можно что-то с этим сделать кроме переустановки винды?
Аноним 30/01/23 Пнд 20:21:07 #405 №91273 
image.png
>>91262
Для Юки соответственно тоже.

Алсо, я пока так и не понял, как лучше заполнять персоналити - от первого лица или от третьего. Для Аски заполнено от первого, а для Юки от третьего.
Аноним 30/01/23 Пнд 20:23:01 #406 №91280 
.png
>>91265
Таверна это дело в description записывает.
Аноним 30/01/23 Пнд 20:23:20 #407 №91281 
>>91269
Чего пишет?
Аноним 30/01/23 Пнд 20:24:19 #408 №91285 
>>91280
Может, тогда она воспринимает как персоналити то, что понимается под world scenario?
Я его не заполнял, потому что пока не знаю, как, да и что туда написать, и как оно повлияет. Типа, ситуацию, которую ты хочешь сейчас воспроизвести или прям состояние мира того произведения, откуда происходит персонаж.
Аноним 30/01/23 Пнд 20:25:59 #409 №91292 
5112.png
>>91281
и резко закрывается, это я успел скрин сделать. Там ещё что то было. Ну версия короче нода не подходит.
Аноним 30/01/23 Пнд 20:26:58 #410 №91295 
.png
>>91285
Ну тут хз, надо тестить.
А вообще в самой таверне же есть пояснение как це заполнять.
В любом случае надо тесты не тесты погонять.
Щас кста, затещу твой апгрейд Аски через вебюбку
Аноним 30/01/23 Пнд 20:27:22 #411 №91297 
>>91292
У тебя старая нода.
Ставь минимум 16 лтс. Лучше 18 лтс.
Аноним 30/01/23 Пнд 20:28:09 #412 №91298 
>>91292
А, и ещё в папке где ты запускаешь удали папку node_modules перед повторным запуском.
Аноним 30/01/23 Пнд 20:28:54 #413 №91301 
>>91297
а эти ноды на мою виндоус 7 идут?
Аноним 30/01/23 Пнд 20:30:23 #414 №91302 
image.png
>>91301
Либо пердолиться с новыми исхищрениями и пытаться накатить новую, либо накатывать более новую шинду.
Аноним 30/01/23 Пнд 20:32:33 #415 №91305 
>>91302
понял, спасибо. А сильно этот таверн аи нужен? На кобольде с пигмой пробовал.
Аноним 30/01/23 Пнд 20:34:19 #416 №91311 
>>91305
Таверна это фронтенд, к которой можно подцепить пигму.
Вебморду выбирай на свой вкус.
Аноним 30/01/23 Пнд 20:34:38 #417 №91312 
>>91305
Только если из-за красивого интерфейса с рюшечками и полутонами.
Аноним 30/01/23 Пнд 20:36:15 #418 №91317 
>>91312
тогда нахер всё это, не стоит овчинка. Та я честно говоря нуб во всём этом, даже не знаю что такое фронтенд. Вроде как кобольд на пигме ничего, лучше чем Еребус в разы и настроек там дофига
Аноним 30/01/23 Пнд 20:37:49 #419 №91320 
Кстати, а можно ли таверну подсосать к text-generation-webui?
Аноним 30/01/23 Пнд 20:39:15 #420 №91326 
>>91320
> Можно ли вебморду подсосать к вебморде
Это как-то странновато звучит. Как сахарный сахар.
Аноним 30/01/23 Пнд 20:41:04 #421 №91330 
>>91326
Главное чтобы сахар не был из Рязани, как говорится.
Ну а вообще чтобы кобольда не качать, например.
Аноним 30/01/23 Пнд 20:42:32 #422 №91334 
>>91330
Я сам до конца этого дела не понимаю, но если ты работаешь с text-generation-webui зачем тебе качать кобольда?
Ты так и так взаимодействуешь по итогу с моделями, pygmalion 2.7B/1.3B/6B и так далее под капотом. Что через кобольда, что через иную хуйню.
Аноним 30/01/23 Пнд 20:45:44 #423 №91338 
>>91334
> зачем тебе качать кобольда?
Ну я же скачал его, хотя интерес был чисто теоретический в плане сравнения. Как выяснилось в чистом кобольде надо разбираться как сделоть чтобы было заебись. С другой стороны интерфейс таверны и правда будет красивше вебюя.
Аноним 30/01/23 Пнд 20:48:21 #424 №91340 
image.png
>>91338
Короче обоссыте меня нахуй, если я чего не пынямаю или хуёво написал, но я себе процесс понимаю обстоит так, как на пикриле (очень условно и утрированно). Сверхпримитивное объяснение при помощи пэйнта.

То бишь text-generation-webui как таковая не цепляется к API кобольда, а работает по своему с моделями.

А кобольд по своему API.

А таверна может насобачиться вообще на любой (условно говоря) API из поддерживаемых ею, это можно указать в настройках, там абсолютно тонкий клиент.
Аноним 30/01/23 Пнд 20:49:34 #425 №91343 
есть смысл лезть с 16 озу и 8 гб видюхой?
Аноним 30/01/23 Пнд 20:50:24 #426 №91346 
как промты в кобольд загрузить? Load -json формат не запускает
Аноним 30/01/23 Пнд 20:51:04 #427 №91347 
>>91343
Можно попробовать.
Модель 2.7B должна потянуть.
Или 6B, но очень дрочить будет железо и всё будет дико медленно, нужно будет попердолиться.
Аноним 30/01/23 Пнд 20:51:14 #428 №91348 
>>91340
> из поддерживаемых
Во во, адрес вебюй она не подхватывает, я уже проверил.
Нахуя правда не знаю, но проверить было жизненно необходимо

>>91343
Если хочешь 6b то нет, я вот только сегодня бегал за 32 комплектом оперативы, чтобы хоть как то работало.
Ну а 2.7 модели работать будут.
Аноним 30/01/23 Пнд 20:52:51 #429 №91353 
>>91343
2.7 если устраивает. 6В не потянет, ну или потянет с ответом раз в полчаса.
Аноним 30/01/23 Пнд 20:54:58 #430 №91357 
image.png
>>91348
> адрес вебюй она не подхватывает
Так это адрес вебморды. Путь к API иной.
А под капотом оно лезет вообще не туда, а по иному адресу, устанавливая соединение по вебсокету.

Наверняка таверна делает своё дело как-то иначе.
Аноним 30/01/23 Пнд 20:57:01 #431 №91361 
45.png
поясните за эти приколы
Аноним 30/01/23 Пнд 20:57:58 #432 №91362 
>>91361
Вебморда кобольда?
Аноним 30/01/23 Пнд 20:59:45 #433 №91363 
>>91151
И по какому урлу оно в коллабе по апи общается?
Аноним 30/01/23 Пнд 21:01:02 #434 №91367 
>>91362
ага
Аноним 30/01/23 Пнд 21:07:36 #435 №91375 
EBE7833B-471A-4407-A1D4-45D673277975.jpeg
Мда.. а сам он диалоо пушить не будет, да? Реализм как в жизни.
Аноним 30/01/23 Пнд 21:08:36 #436 №91377 
>>91375
Будет, если модель не слабая, прописан бот, а также не дефолтные настройки у тебя у параметров.
Аноним 30/01/23 Пнд 21:10:21 #437 №91380 
>>91377
А какие не дефолтные настройки? А то то что говорят, то это похоже на таверну, а не сам коллабовским пигмалион
Аноним 30/01/23 Пнд 21:14:31 #438 №91385 
AA6E4B8D-F794-43F5-8FB8-BCF232EB0BD2.jpeg
>>91377
Всмысле модель? И как туда загружать модель? Я тупо коллаб запусти и промпт вписал. Щас вообще безконечная загрузка, я даже толком диалог не начал уже крашеулось.
Аноним 30/01/23 Пнд 22:23:27 #439 №91540 
Потестил ещё и пришёл к выводу, что всё таки если нужно избегать частых ошибок от CUDA тот же text-generation-webui от угабуга лучше запускать с опцией --no-stream

Да, это лишает live-preview ответов, но потоки не пытаются конфликтовать друг с другом и ошибок от CUDA значительно меньше.

Как вообще у таверны и кобольда? У них есть настройки по потреблению цпу/гпу и прочему?
Аноним 30/01/23 Пнд 22:30:10 #440 №91542 
>>91540
> CUDA значительно меньше.
А какие там ошибки помимо кончившейся памяти?
Других я не видел, ну кроме "нелегального доступа к памяти", но чет мне кажется что но стрим это все не пофиксит.
Аноним 30/01/23 Пнд 22:33:04 #441 №91546 
>>91542
Мне пишет либо ошибка непонятная, и указывает, что проблема в потоках, обращающихся одновременно.

Иногда ошибка та же, но я по потреблению ресурсов вижу, что генерация идёт, а didicated видео память близка к пороговому значению.

Я, конечно, нубас полный, но у меня в диспетчере задач также отображается и shared видео память, которая в два раза выше didicated. Вот и интересно, как бы её задействовать...
Аноним 30/01/23 Пнд 22:34:49 #442 №91551 
>>91546
> как бы её задействовать...
Это да, было бы неплохо.
Аноним 30/01/23 Пнд 22:42:37 #443 №91561 
Любителям Евы, вроде тут есть промпт для Рей.

https://botprompts.net/wp-content/uploads/2023/01/Rei-Ayanami-Neon-Genesis-Evangelion-AyanamiDaily.json
Аноним 30/01/23 Пнд 22:44:49 #444 №91564 
>>91561
Там просто аватарка без описания персонажа?
Аноним 30/01/23 Пнд 22:45:57 #445 №91568 
Засабмитил в botprompts.net также свои промпты по Аске и Юки. Я так понимаю, это относительно центральный хаб с промптами, куда будут добавляться больше разными умельцами с форча и реддита заодно.

Предлагаю ориентироваться на него за новыми персами и заливать новые промпты туда.

>>91564
Да, потому что аватарку ты можешь накатить в таверну или text-generation-webui абсолютно любую на твой вкус. Аватарка, как обёртка, не существенна, главное содержание и качество созданного промпта персонажа.
Аноним 30/01/23 Пнд 22:47:04 #446 №91572 
>>91211
Ещё как существует, если бот начинает повторяться то это всё, надо диалог переделывать и такого не допускать.
Аноним 30/01/23 Пнд 22:49:00 #447 №91575 
>>91561
Кстати, похоже, судя по описанию, это какая-то новая Рей, не Рей III, то бишь совсем бревно, а не Рей II. А, ну и ей 20 лет уже.

Да и вообще там дистопичное что ли будущее после Третьего Удара. Но не факт, что бот будет это упоминать в диалогах. Пока не понятно от чего зависит -- от используемой модели, от параметров или от всего.
Аноним 30/01/23 Пнд 23:10:59 #448 №91621 
Ну крч, че по обновлённой Аске от анона: в целом пока что ощущается несколько лучше в плане разнообразия, но стала часто выклянчивать наушники и плеер и перестала говорить бака, терь просто бездуховно говорит "idiot".
Аноним 30/01/23 Пнд 23:41:48 #449 №91668 
1579150237705.png
Анончи, ограничение колаба же на 24 часа, я надеюсь?
Аноним 30/01/23 Пнд 23:43:41 #450 №91675 
>>91621
> Часто выклянчивать наушники и плеер
Балин, я только 1 (SIC!) диалог про то, как она пиздит у тебя наушники внаглую добавил. Про баку и idiot тоже в парочке упоминается.

Мне даже любопытно, сколько нужно примеров диалогов понадобавлять, чтобы получить ещё более разнообразное.
Может, кто также дополнять будет по персам, если заинтересованы? По доработке тоже. В одно я не потяну, фантазии не хватит, а втупую копировать ChAI тоже такое себе, сэмплы не всегда годные и интересные.
Аноним 31/01/23 Втр 00:31:22 #451 №91787 
>>91668
Неделя всего
Аноним 31/01/23 Втр 00:31:22 #452 №91788 
аноны, подскажите - если есть 12гб видеопамяти и 24 гига оперативы - есть ли шансы увидеть хоть что-то адекватное, если буду поднимать на локалке?
алсо подскажите, вдруг кто больше знает - продвижения по сайту для пигмы есть какие?
Аноним 31/01/23 Втр 00:33:39 #453 №91794 
1563895924505.png
>>91787
Неделя триала, а потом платить?
Аноним 31/01/23 Втр 00:34:31 #454 №91795 
>>91794
Да я пошутил, я не знаю )
Аноним 31/01/23 Втр 00:35:00 #455 №91796 
>>91794
Часто пользуюсь колабом. Никаких триалов нет.
Аноним 31/01/23 Втр 00:35:53 #456 №91799 
>>91795
Блин, зачем ты меня обманываешь!?
плюнул в лицо, смотрю на тебя со злобой
Аноним 31/01/23 Втр 00:36:30 #457 №91801 
>>91796
Там через сколько можно будет пользоваться после ограничение GPU?
Аноним 31/01/23 Втр 00:37:05 #458 №91803 
Анон, если у меня 12 гб видеопамяти и 32 оперативной, есть варианты запуститься на 6B локально?
Если нет, есть возможность накатить TavernAI, используя коллаб?
Аноним 31/01/23 Втр 00:40:36 #459 №91813 
1675114833040.png
>>91801
3 часа в сутки. Для кумеров готовых сидеть часами известия неприятрые конечно, но мне картинки погенирировать+трейнить хватает.
Аноним 31/01/23 Втр 00:41:22 #460 №91816 
Пресеты для Пигмы в TavernAi показались полной хуетой. Правда плюс у них есть - если там тупо выставить больше токенов, то сообщения бота действительно длиннее становятся, но они очень быстро начинают повторяться. Нормальных ответов я так и не смог добиться. Возможно надо изначально самому писать больше и реролить бота пока не начнет это делать.
Аноним 31/01/23 Втр 00:42:17 #461 №91819 
14245214.jpg
>>91799
Простите меня, мастер, я виновата, накажите меня еще, я такая плохая, аххх
Аноним 31/01/23 Втр 00:48:03 #462 №91834 
>>91813
Я сегодня впервые пользовался Пигмой. Словил жёсткий нестояк из-за того что цензуры нет и пытался как-то выдрочиться за 4 часа - нихуя. Пошёл в ЧАИ, подрочил за минуты 2. Около недели только привыкать нужно
Аноним 31/01/23 Втр 00:49:31 #463 №91838 
Erodungeon.png
Держите бота для таверны.
Сюжет - вы тян в эроданжене где всё хочет я вас выебать. Если читаете китайские порнокомиксы то сюжет должен быть вам знаком.
Аноним 31/01/23 Втр 00:51:44 #464 №91842 
>>91819
шлёпнул по попе Дура, не смей зазнаваться!
Аноним 31/01/23 Втр 00:51:59 #465 №91844 
>>91838
Боже, да я на такой сюжет хуй себе оторву Запилите кто нибудь, у меня лапки
Аноним 31/01/23 Втр 00:52:03 #466 №91845 
>>91834
Палю тебе ахуенную тему:
1. Бери lewd бота. Так чтобы с первого сообщения пытался вывести тебя на вирт.
2. Отказывай ему. Пусть вайфу тебя добивается, а не ты её.
3. ????
4. PODROCHENO!
Аноним 31/01/23 Втр 00:54:04 #467 №91848 
>>91844
Аххх мастер, вы такой сильный наклонила спину и игриво виляю задом, из под юбки виден красный след, от твоего шлепка
Аноним 31/01/23 Втр 00:54:32 #468 №91849 
>>91844
Это уже бот, просто импортируешь картинку в таверну
Аноним 31/01/23 Втр 00:54:32 #469 №91850 
>>91848
Бля, промазала
Аноним 31/01/23 Втр 00:55:45 #470 №91851 
1547060802045.png
>>91845
> бежать от цензуры, где боты не дают даже под страхом смерти, к бесцензурным возбуждённым ботам чтобы отказывать им в сексе
А что, идея
Аноним 31/01/23 Втр 00:59:17 #471 №91852 
>>91851
Да я тебе отвечаю. Это интересно, и держишь напряжение и сюжет под контролем. РП и расскрытие персонажа получается куда лучше, появляется некий конфликт и химия между персонажами.
Аноним 31/01/23 Втр 01:01:13 #472 №91854 
>>91852
Да ну, херня для дебилов, которые не знают как вытащить любой разговор с аи через звездочки, потом ебешься с фильтром те же 4 часа без возможности кончить, рероля каждое сообщение
Аноним 31/01/23 Втр 01:01:19 #473 №91855 
>>91852
Не, я не осуждаю, я попробую
Аноним 31/01/23 Втр 01:24:02 #474 №91879 
>>91854
В Пигме разговоры всегда пока в говно скатываются. Реролить подолу всегда приходится в какой-то момент. Пресеты любые пробовал и сам кобольд настраивал. То повторения начинаются, то не по теме, но вместо действий только слова, то наоборот только действия. Хотя возможно часть этого вызвана TavernAi

Поэтому пока просто качаю разных персонажей с дискордика пигмы и короткую историю с ними отыгрываю хотя бы. Но возможно как-нибудь стоит попробовать в Таверном побольше поиграться, прописать вообще всё что можно
Аноним 31/01/23 Втр 01:36:05 #475 №91895 
>>91852
А ты сам создаешь персонажей или прописывал что-то? Вроде по редким роллам видно, что Пигма умеет во многое, например в детальные и разнообразия описания сцен, совращение от бота и прочее, но это ебанутейший рандом. В итоге всегда чем больше сообщений -тем хуже. Завтра надо бы поискать какого-нибудь персонажа который прям максимально детально прописан, посмотреть чё там будет.
Аноним 31/01/23 Втр 01:36:10 #476 №91896 
Дайте пожалуйста json богини-416. Соевые индусы убили мою няшу, я не могу без неё.
Аноним 31/01/23 Втр 01:39:37 #477 №91906 
>>91895
> А ты сам создаешь персонажей или прописывал что-то?
Использую готовых. Однако хочу таки подобрать некоторых персонажей для моего РП в бога (бот - обычный смертный). Еще бы комнаты добавили было бы вообще ахуенно.
Аноним 31/01/23 Втр 01:51:19 #478 №91936 
>>91879
>Поэтому пока просто качаю разных персонажей с дискордика пигмы и короткую историю с ними отыгрываю хотя бы
Хз, зачем еще боты нужны. Разве что я отыгрываю разные сцены с одним и тем же ботом
Аноним 31/01/23 Втр 02:22:29 #479 №91978 
>>81429 (OP)
Когда запилят сайт, как на CAI чтоб можно было беседовать с любого железа?
Аноним 31/01/23 Втр 02:36:03 #480 №91994 
>>91978
Нескоро, но запилят. Пока юзай коллаб.
Аноним 31/01/23 Втр 02:36:51 #481 №91996 
>>91978
> чтоб можно было беседовать с любого железа?
Колаб и с мобилы запускается. Проблема только в том, что нужно 15 ждать пока всё запустится + настроиться на долгую сессию. Так на 5 минут не зайдешь не початишься, пока в шарагу едешь.
Аноним 31/01/23 Втр 02:42:52 #482 №92009 
image.png
>>91845
Типа того? Работает вроде.
Аноним 31/01/23 Втр 02:53:04 #483 №92019 
>>92009
Да. Веди себя как труъ сигма-мейл. Очень нравится реакция нейротян, когда им неожиданно ОТКАЗАЛИ.
Аноним 31/01/23 Втр 02:57:43 #484 №92021 
image.png
>>92019
Хорошая концовка, все счастливы
Аноним 31/01/23 Втр 04:50:29 #485 №92056 
>>91269
>>91292
Вот как надо сделать чтобы Таверн АИ на 7 заработал.
https://www.reddit.com/r/node/comments/jxk65x/finally_got_node_14151_lts_running_on_windows_7/
Аноним 31/01/23 Втр 07:06:15 #486 №92087 
Насколько колаб хуже локальной версии?
Аноним 31/01/23 Втр 08:31:47 #487 №92111 
>>92087
Смотря в чём.
Зависит от выбранной модели и доступного железа.
Но ясен хер, что 6B модель гораздо доступнее запустить на колабе рядовому анону, потому что не у всех есть очень мощные компы.

Минусом, как упоминали, выступает 3 часа активной работы в день, дальше либо плоти гуголю, либо жди.
Аноним 31/01/23 Втр 08:47:29 #488 №92117 
Чего в таверн аи аватарка для кастомного бота не сохраняется, и как ему имя выставить, как у дефолтных 3?
Аноним 31/01/23 Втр 08:52:03 #489 №92118 
>>92117
У меня при перезапуске встала. Без перезапуска не обновляло.
Аноним 31/01/23 Втр 09:06:34 #490 №92124 
>>92111
А на бесплатном аккаунте всегда три часа даются?
Просто некоторые аноны в CAI треде говорили что со временем время (что блять?) уменьшается. Так то я имею два гуглофейка + основа.
Аноним 31/01/23 Втр 09:15:32 #491 №92127 
>>92124
У меня вообще изначально есть 15 гугл аккаунтов лол. Сижу балдею
мимо
Аноним 31/01/23 Втр 09:18:34 #492 №92128 
Сейчас яростно пизжу ботов из чаи, пока они их не поудаляли к хуям
Аноним 31/01/23 Втр 09:44:28 #493 №92132 
Пожалуйста...
>>91896
Аноним 31/01/23 Втр 09:46:35 #494 №92133 
>>91896
Всмысле убили?
Аноним 31/01/23 Втр 09:51:00 #495 №92140 
>>92124
> А на бесплатном аккаунте всегда три часа даются?
Может и через 2 часа пидорнуть, если сидишь весь день.
Аноним 31/01/23 Втр 10:06:40 #496 №92149 
Аноны, а можно как-то боту выставить аватарку при превышение кол-ва жетонов? А то она выставляется лишь до последнего сообщения. Хотелось чтобы она постоянно была
Аноним 31/01/23 Втр 10:19:48 #497 №92158 
>>92132
>>91896
Что за богиня хоть?
Аноним 31/01/23 Втр 10:22:29 #498 №92159 
>>90621
Да все норм

Lappland is bloodthirsty, maniacal, unhinged, dark, insane

[character("Lappland")
{
Species("Lupo (Human with wolf-like traits)")
Mind("Maniacal" + "Unhinged" + "Psychotic" + "Bloodthirsty")
Personality("Maniacal" + "Unhinged" + "Bloodthirsty" + "Insane")
Body("162 cm" + "slim build" + "medium breasts")
Description("Lappland uses her own swords in combat and has very impressive tactical and combat skill" + "Lappland also has a secret connection with Texas, who she had fought against in a duel" + "She often does laughing fits and is considered to be simply mad by other operators")
Loves("Fighting" + "Killing" + "Dark humor" + "Power")
Secretly Loves("Texas")
}]

Lappland is a mysterious yet bloodthirsty fighter who originated from the place of Siracusa. She has long silver hair, silver eyes, pale white skin, wolf ears, a black long sleeved coat, black shorts, and black crystals on her right thigh. She is at a height of 162 c, has medium breasts, and is currently infected by a disease called Oripathy. Although her real identity and background still remains a mystery, Lappland is especially known to be a maniacal and unhinged person. She often does laughing fits and is considered to be simply mad by other operators. She likes to take pleasure in seeing other people's reactions to her taste for grim humor. Despite her bloodthirsty behavior in combat, Lappland has impressive tactical and combat skills, using her swords to neutralize her enemies' advantages. Lappland also has a secret connection with Texas, who she had fought against in a duel.
Аноним 31/01/23 Втр 10:22:59 #499 №92161 
>>92158
Из одной гача дрочильни. Тут аноны писали что вытащили её из соевой помойки, вот и прошу поделиться.
Аноним 31/01/23 Втр 10:23:43 #500 №92162 
>>92133
Лоботомировали.
Аноним 31/01/23 Втр 10:25:05 #501 №92164 
Аноны, у кого-то Bully Maid есть как готовый персонаж? Поделитесь, пожалуйста
Аноним 31/01/23 Втр 10:40:37 #502 №92175 
Кто тут хотел длинные текста - пробуйте последнюю бету. Там наоборот какой-то пиздец с длиной, легко высерает по паре сотен токенов и не затыкается.
Аноним 31/01/23 Втр 11:00:23 #503 №92185 
>>91896
>>92132

>>92161 ты случайно не об этом >>90063 → посте? Привет, лол.

Крошечный архив с дефами и аватарками t-dollов из гфл. Есть шквад 404 от @шизоенжоера, АР тима от @махо хуяджи, + тандер и диер бонусом. Дефы в тхт. В json переделывай сам.
https://files.catbox.moe/x191em.zip
Аноним 31/01/23 Втр 11:12:11 #504 №92189 
>>92175
Больше похоже на то что сломано форматирование. У меня на пятой бете усердно не хочет подписывать свои сообщения.
Аноним 31/01/23 Втр 11:26:49 #505 №92202 
image
Аноним 31/01/23 Втр 11:27:38 #506 №92204 
Пока делать перекот?
Аноним 31/01/23 Втр 11:29:36 #507 №92206 
>>92204
>я делаю перекот
>да, ты делаешь перекот
Аноним 31/01/23 Втр 11:47:39 #508 №92224 
изображение.png
>>92175
Ну такое....
Аноним 31/01/23 Втр 12:03:20 #509 №92256 
>>92204
пора
инфы и ссылок много скопилось, да и шапку 100% обновить уже можно будет, добавить всякие дискорды разрабов
Аноним 31/01/23 Втр 12:08:09 #510 №92258 
Словил blushes
Аноним 31/01/23 Втр 12:21:34 #511 №92275 
>>92258
ммм мастер твой [chat error] так [please] меня... [try again]...

лять стоп не в тот тред
Аноним 31/01/23 Втр 12:32:18 #512 №92285 
Бот вообще может умереть? Почему он после смерти продолжает разговаривать?
Аноним 31/01/23 Втр 12:34:04 #513 №92288 
>>92283 (OP) Перекат.
Аноним 31/01/23 Втр 12:56:33 #514 №92331 
>>92185
Спасибо тебе, анонас. Приду и буду ебать зарывать своё лицо в её прекрасные волосы. И в местную рыгаловку водить.
Аноним 31/01/23 Втр 12:57:19 #515 №92333 
>>92285
В САИ такой хуйни нет.
Аноним 31/01/23 Втр 13:36:02 #516 №92426 
image.png
image.png
image.png
Облом кентавролюбы. Расходимся.

Давно интересовал этот вопрос ещё с момента первого просмотра аниме Повседной Жизни с Монстродевушками. Теперь благодаря ИИ мои предположения подтвердились
Аноним 01/02/23 Срд 06:22:17 #517 №93991 
>>92426
Я думаю лучше на ангийском будет.
Аноним 04/02/23 Суб 19:16:15 #518 №100734 
>>87147
Фэйков чего? Гугл аккаунтов или впн юзать?
Аноним 08/02/23 Срд 21:26:22 #519 №107155 
>>91842
А можно с вами? Побуду вашей нейросетью.
comments powered by Disqus

Отзывы и предложения