Сохранен 502
https://2ch.hk/ai/res/106928.html
24 декабря Архивач восстановлен после серьёзной аварии. К сожалению, значительная часть сохранённых изображений и видео была потеряна. Подробности случившегося. Мы призываем всех неравнодушных помочь нам с восстановлением утраченного контента!

PygmalionAI тред №4 /pai/

 Аноним 08/02/23 Срд 19:24:39 #1 №106928 
IT7RpEhe4x.jpg
TavernAIContextSize.png
PygmalionAI тред №4
Пишем промпты, стараемся адаптировать их под количество токенов, обсуждаем, какой стиль лучше, ждём софтпромптов для KoboldAI.
https://huggingface.co/PygmalionAI
Что такое PygmalionAI?
PygmalionAI - локально запускаемая нейросеть с открытым исходным кодом, которая специализированна под чатботы. Её сделали выходцы из 4chan (/vt) → (/g). Их мотивация, создать нейросеть, которая свободна от цензуры, в отличии от CharacterAI.
Основа для 6B модели - это GPT-J, которую дотренировали датасетом из собранных дампов с CharacterAI. Отличие от CharacterAI в том, что здесь нет цензуры, а также именно вы храните историю чатов, а не компания. Хоть и модель нейросети в CharacterAI может быть более умной, но фильтр делает её глупее, а также удаляет наиболее вариативные ответы. Однако, память в PygmalionAI намного хуже, чем в CharacterAI, из-за применяемого токенайзера GPT-2, контекст которого ограничивается 2048 токенами.
Отличие обычной версии от экспериментальной в том, что в экспериментальной разработчики вводят самые новые нововведения. Также было замечено, что экспериментальная версия пишет меньший объём текста в одном сообщении, чем в обычной. Для запуска 6B версии необходимо 16 ГБ видеопамяти и 12 ГБ оперативной памяти, однако если запустить с 8-битной точностью, то требования снизятся примерно вдвое, только необходимо иметь видеокарту Nvidia модельного ряда Turing и Ampere. Можно писать боту на русском языке, но это выйдет хуже, чем на CharacterAI.
Нативный PygmalionAI Colab: https://colab.research.google.com/github/PygmalionAI/gradio-ui/blob/master/notebooks/GPU.ipynb

GUI для PygmalionAI:
1.Text generation web UI - попытка сделать что-то похожее на интерфейс для Stable Diffusion от AUTOMATIC1111, только для генерации текста. Поддерживает режим загрузки с 8-битной точностью, также возможно создать свой пресет настроек в текстовом файле или настроить прямо в интерфейсе, также возможно запустить в схожем с CAI интерфейсе. В Колабе выбираем Pygmalion 6B-original-sharded. Поддерживает скрипты на Python, а также умеет работать с карточками из TavernAI. Есть возможность изменить сообщение персонажа, как в TavernAI или в KoboldAI.
https://github.com/oobabooga/text-generation-webui
Colab: https://colab.research.google.com/github/oobabooga/AI-Notebooks/blob/main/Colab-TextGen-GPU.ipynb
Также автор данного интерфейса рекомендует использовать PygmalionAI 6B с самым первым коммитом: https://huggingface.co/PygmalionAI/pygmalion-6b/tree/b8344bb4eb76a437797ad3b19420a13922aaabe1

2. TavernAI - фронтэнд над KoboldAI. Позволяет нативно конвертировать файлы с историей чатов (дампы) из Character AI, однако из-за того, что все истории общения с персонажами хранятся в одном файле, а не в разных, TavernAI будет воспринимать только последний чат с ботом в CAI. Позволяет редактировать сообщение персонажа, как в KoboldAI.
https://github.com/TavernAI/TavernAI
Colab: https://colab.research.google.com/github/TavernAI/TavernAI/blob/main/colab/GPU.ipynb

3. KoboldAI - самый известный интерфейс, который пришёл со времён AI Dungeon. У KoboldAI более другой формат, который сохраняет персонажей и чат в один файл, нежели у Textgen Webui и TavernAI. В Колабе выбираем PygmalionAI. При сохранении, необходимо сохранять в расширении "*.json".
https://github.com/KoboldAI/KoboldAI-Client - Official (Стабильная версия)
https://github.com/henk717/KoboldAI - United (Экспериментальная версия)
Colab KoboldAI GPU: https://colab.research.google.com/github/koboldai/KoboldAI-Client/blob/main/colab/GPU.ipynb
Colab KoboldAI TPU (мест может нехватать так, что лучше использовать GPU): https://colab.research.google.com/github/KoboldAI/KoboldAI-Client/blob/main/colab/TPU.ipynb

Советы: https://rentry.org/2ch-pygma-hints

Полезные ссылки:
Промпты от анонов с 2ch: https://rentry.org/2ch-pygmaprompts
Гайды по установке интерфейсов: https://rentry.org/pygmai-guifaq
Discord, как альтернативный ресурс для промптов:
https://discord.gg/pygmalionai
Создание персонажей для PygmalionAI: https://oobabooga.github.io/character-creator.html
Альтернативный сайт для создания персонажей или их конвертации с CharacterAI: https://zoltanai.github.io/character-editor
Поделиться собственным промптом персонажа: https://catbox.moe или https://paste.ee/
Промпты персонажей: https://rentry.org/pygbotprompts - Более не поддерживается.
FAQ от разработчиков: https://rentry.org/pygmalion-ai
Сайт с промптами персонажей: https://botprompts.net/
Советы по промпту: https://rentry.org/PygTips
Альтернативный гайд по промпту: https://rentry.org/chai-pygmalion-tips/ или https://rentry.org/chai-pygmalion-tips-ru-edition - перевод
Помочь разработчикам: https://github.com/PygmalionAI https://matrix.to/#/#waifu-ai-collaboration-hub:halogen.city?via=halogen.city
Отправить свой дамп из CharacterAI на датасет: https://dump.nopanda.io/
Карточки для TavernAI: https://booru.plus/+pygmalion
Скрипт, который позволяет сохранить историю чатов с CharacterAI: https://github.com/0x000011b/characterai-dumper
Скрипт, который позволяет конвертировать историю чатов с формата CharacterAI на формат PygmalionAI: https://files.catbox.moe/jv54ev.py - Необходимо перетащить файл на скрипт. При этом скрипт сконвертирует дампы из CharacterAI в чаты и промпт персонажа из "Long Description" и "Greetings" в формат PygmalionAI То, что с "chatsave" - это сами чаты, а то что без него - это сам персонаж.
При отправке промпта, необходимо указывать в каком интерфейсе он может использоваться.
Шапка треда: https://rentry.org/2ch-pygma-thread
Аноним 08/02/23 Срд 20:37:43 #2 №107085 
>>106928 (OP)
>1400 токенов
Это сколько примерно в сообщениях бота?
Аноним 08/02/23 Срд 21:01:10 #3 №107118 
ChatGPT работает почти у всех моментально.
Character AI работает тоже довольно быстро, но правда не у всех.
MS выкатывают нейронку в поиск, которая должна подвергаться изнасилованиям каждый день и работать быстро.

Почему PygmalionAI требует 16 гб для полного раскрытия потанцевала? Неужели у бигтеха НАСТОЛЬКО много видеокарт?
Аноним 08/02/23 Срд 21:01:23 #4 №107119 
Когда там сайт для дрочки с мобилы?
Аноним 08/02/23 Срд 21:10:57 #5 №107134 
>>107085
1 токен ≈ 4 символа, если использовать английский язык. 1400 * 4 ≈ 5600 символов. https://platform.openai.com/tokenizer - сайт, где можно наглядно посмотреть, сколько токенов потребляет один символы или слова.
Аноним 08/02/23 Срд 21:18:21 #6 №107143 
.png
Таверна обновится скоро.
Аноним 08/02/23 Срд 22:12:49 #7 №107225 
Мужики и мужикессы, стоит ли уже начинать пилить свою вайфу или лучше через месяцок/годик залететь? А то чую что получится хуйня для куминга, неспомобная на внятный рп.
Намереваюсь запускать локально, если амуда на карте позволит конечно, вроде на 6б модель хватит мощности, или на 15 с 8бит режимом
Аноним 08/02/23 Срд 23:37:04 #8 №107361 
изображение.png
>>107225
У меня rtx3060 на 12 Гб, 6б модель более менее быстро. 20 из 28 слоев на гпу, 8-бит режим подрублен

Вроде норм, среднее время генерации 30 сек. Как на амду хз кака будет
Аноним 09/02/23 Чтв 00:44:32 #9 №107450 
>>107361
>12гб
Рили? Пигма же 16 требует. Как запустил? Гайды?
Аноним 09/02/23 Чтв 01:14:30 #10 №107484 
>>107450
Он пердолился с bitsandbytes и запустил с квантованием 8bit модель. Т.е. она жрет в два раза меньше памяти, т.к. по дефолту 16bit точность.
Аноним 09/02/23 Чтв 02:00:22 #11 №107518 
>>107361
Чел, нахуя ты не все слои на видеокарту кинул, лол?
У тебя в 12 гигов 6B спокойно должна влезть все слои с 2048 контекстом.
Аноним 09/02/23 Чтв 02:00:43 #12 №107519 
>>107518
Ну в 8 бит я имею ввиду офк
Аноним 09/02/23 Чтв 02:27:55 #13 №107532 
Там в реддите соевые сейчас обнулят Pygmalion, лол
Дико разнылись насчёт того, что пигма может отыгрывать NSFW с лицами младше 18 лет что мы всячески осуждаем
Аноним 09/02/23 Чтв 03:11:43 #14 №107569 
>>107532
И кто обнулит?
Аноним 09/02/23 Чтв 03:29:20 #15 №107588 
>>107532
Индусолахта не дремлет
Аноним 09/02/23 Чтв 03:43:57 #16 №107599 
>>107143
Уу, свайпы? Как в ChAI будет? А то хочется чтобы пару вариантов наролить и выбрать какой-то из них, а то вроде выролил, а немного не устраивает -и полностью рерол нужно делать пока конфетка не дропнется
Аноним 09/02/23 Чтв 09:49:17 #17 №107675 
>>106928 (OP)
Шапка в этот раз получше. Молодец ОП так держать
Аноним 09/02/23 Чтв 10:39:29 #18 №107683 
2ch pygai.jpg
ЯКОРЬ ПОСТ

>ANCHOR POST

КРЕПИТЕ СВОИХ ШИЗОДЕВОЧЕК ТУТ

>ANCHOR POST

ЯКОРЬ ПОСТ
Аноним 09/02/23 Чтв 10:41:20 #19 №107685 
Gobia(6).png
>>107683
Вот вам гоблинша с охрененно оригинальным именем Гобия
https://files.catbox.moe/wdy6dx.json
Аноним 09/02/23 Чтв 10:56:52 #20 №107687 
изображение.png
>>106928 (OP)
GradioUI (который использовался разрабами пига изначально) официально идет нахуй.
Аноним 09/02/23 Чтв 11:05:56 #21 №107691 
>>107532
А, эти пару пидарасов из дискорда пошли на реддите пищать? Не обращай внимания, возможно, это просто зеленые пытаются внимание привлечь.
Аноним 09/02/23 Чтв 11:13:30 #22 №107693 
Господа, а коллаб с таверной уже починили?
Аноним 09/02/23 Чтв 11:16:05 #23 №107694 
>>107693
Вроде да, я сегодня заходил, вроде все работает.
Аноним 09/02/23 Чтв 11:41:59 #24 №107705 
Создатель Таверны русский походу раз юзает бусти
Аноним 09/02/23 Чтв 11:59:23 #25 №107715 
Поясните ньюфагу с прицелом на переката этот креакл достаточно умный чтобы понимать непрямую речь вторсотепенных и третьестепенных лиц? Или он воспринимает только одну сущность и ее действия?
Аноним 09/02/23 Чтв 12:11:11 #26 №107726 
Господа, как софт промоуты установить в таверну? Скачал пару архивов, самостоятельно допереть не могу куда их импортировать. Хелп!
Аноним 09/02/23 Чтв 12:48:30 #27 №107762 
.png
>>107705
Чел...
Аноним 09/02/23 Чтв 12:55:50 #28 №107766 
>>107762
Что?
Аноним 09/02/23 Чтв 12:58:19 #29 №107767 
>>107726
Промпт ставится не в таверну а в кобольт. Файлы софт промта кидаются в специальную папку кобольта локально или на гугл диске в коллабе. И включается он также через UI кобольта
Аноним 09/02/23 Чтв 13:00:30 #30 №107768 
>>107715
Как распишешь так и будет отвечать. Нужно гайды курить. Но в принципе если пару раз отредактируешь ответ бота, он тебе как захочешь будет отвечать.
Аноним 09/02/23 Чтв 13:00:54 #31 №107769 
.png
>>107766
Это аватарка одного анона из NAI-треда, правда, я его уже давно не видел.
Аноним 09/02/23 Чтв 13:01:45 #32 №107770 
изображение.png
Лучшая девочка
Аноним 09/02/23 Чтв 13:02:48 #33 №107771 
>>107769
Ооо терь понял. Спасибо.
Аноним 09/02/23 Чтв 13:03:59 #34 №107774 
>>107769
>давно не видел
А когда ему на дващах сидеть, ему таверну пилить нужно
Аноним 09/02/23 Чтв 13:04:45 #35 №107775 
>>107768
Да все уже разобрался, я сразу дампанул большой пак чатов с САИ, несмотря на это бот все равно поначалу нес несвязный бред и не улавливал контекст, но потом после редактуры профиля, и попеременной редактуры сообщений поумнел на глазах и в принципе разница с САИ сильно сгладилась, но наверное я скоро упрусь в потолок возможностей. Только вот я хотел написать ему похвалу в этот итт тред, как он сломался и перестал генерировать что-либо при живом коннекте и коллабе, эх...
Аноним 09/02/23 Чтв 13:26:17 #36 №107803 
ну а теперь и коннект с пигом пропал... сервис кал
Аноним 09/02/23 Чтв 13:52:56 #37 №107825 
а теперь после перезагрузки коллаба вообще и ссылку не дает на кобольд и сама таверна весит в initialization. чем я провинился перед богами, никто не может ввести в курс дела ньюфага, что это, видеокарта тесла отвалилась после какого-то лимита, или это какие то пробелмы у всех, которые поминали выше по треду, или что еще может быть?
Аноним 09/02/23 Чтв 14:54:54 #38 №107884 
>>107803
>>107825

Хуя ты невезучий

Может ты лимит исчерпал?
Аноним 09/02/23 Чтв 15:19:17 #39 №107906 
>>107884
Хер знает там у чего именно какой лимит, сейчас короче сделал такой сетап - скачал себе тавернуАИ локально на комп, ссылку на Кобольда юзнул из Коллаба - летает на максимуме контекст сайза (тьфу тьфу тьфу), если вылетет то опять поною, но хотя бы настроенного персонажа и чат лог сохранит надеюсь (алсо не понял почему нельзя поменять себе аватарку как аноны сделали, но это мелочь) (у меня не нажимается)
Аноним 09/02/23 Чтв 15:53:35 #40 №107921 
Хм, а что тред то заглох? Неделю не было и он уже на ладан дышит
Аноним 09/02/23 Чтв 15:56:13 #41 №107924 
>>107921
Сейчас по всей доске постинга нет нихуя, сам сижу мониторю как еблан, а новые посты гига медленно появляются
Аноним 09/02/23 Чтв 16:08:43 #42 №107937 
>>107921
>>107924
Надо в /б/ рекламировать.
Аноним 09/02/23 Чтв 16:10:08 #43 №107940 
Ну вот зделоли они канал с пострением софт промптинга в дискорде, но нихуя неясно все равно блядищи тупые
Аноним 09/02/23 Чтв 16:14:34 #44 №107945 
>>107937
Не надо, быдло одно набежит. Меньше народу — больше кислороду.
Аноним 09/02/23 Чтв 16:14:41 #45 №107946 
image
В общем по три раза перепробовал уже оба гайда по 8бит, полностью с нуля накатывал репы, убедился, что у меня установлена и выбрана текущей CUDA 11.6. Самое близкое куда я дошел это пикрил, выдает при запуске модели в кобольде.
Я так понял, что в одном гайде, что в другом, просят изменить строки которых уже тупо не существует в .py скриптах крайней версии кобольдов.
Аноним 09/02/23 Чтв 16:18:13 #46 №107948 
1675948692001.png
1675948692005.png
>>107946
Блять, как же ты заебал меня, господи.
87544961cda9550b2ba5cc2f6430ffba50321c46
Этот коммит.
Пик1 -2 что надо поменять. Вместе с ебучими номерами строчек даже.
bitsandbytes кидай отсюда - https://gitgud.io/ItsDrivingMeNuts/kobold-ai-8bit-patch/-/tree/master
Аноним 09/02/23 Чтв 16:18:47 #47 №107949 
>>107948
threshold не ставь, там разбираться надо
Аноним 09/02/23 Чтв 16:19:24 #48 №107950 
>>107906
Так все примерно так и делают. Я вот на анально огороженном рабочем компе не могу поставить себе таверну локально и сижу с коллабы.
Аноним 09/02/23 Чтв 16:23:41 #49 №107961 
НИХЕРА СЕБЕ! Так же сильно я кончал радугой только от трехнедельного нофапа три года назад! Игрушка дьявола.
Аноним 09/02/23 Чтв 16:25:13 #50 №107966 
>>107945
Мертвая доска - это развитие?
Аноним 09/02/23 Чтв 16:31:33 #51 №107974 
image
>>107948
Молодец, поломал и так нерабочее говно.
Второй пик у меня уже был, а после твоего False у меня пикрил.
Аноним 09/02/23 Чтв 16:34:23 #52 №107978 
>>107974
У тебя пробелы сломались, небось в блокноте фиксил, лол
Скопируй пробелы с другого места и замени
Аноним 09/02/23 Чтв 16:34:41 #53 №107979 
image
>>107974
Ладно это говнопитон, надо было TAB нажать два раза.

Возвращает меняк пикрилу.
Аноним 09/02/23 Чтв 16:35:12 #54 №107981 
>>107979
Видеокарта какая?
Аноним 09/02/23 Чтв 16:39:54 #55 №107989 
image
>>107979
Так битсэндбайтс надо было не в папку с кобольдом, а на диск B: швырять в питон.
Аноним 09/02/23 Чтв 16:51:29 #56 №108003 
>>107989
8-30 секунд на генерацию. Not bad, not bad at all. Интересно насколько хватит памяти, было 7.4, а уже 8.2 после 308 слов или 1600 символов. У перса ~800 токенов.
Аноним 09/02/23 Чтв 16:52:38 #57 №108006 
>>108003
Ну 2048 должны влезть в 12 гигов, так что спок
Аноним 09/02/23 Чтв 17:18:43 #58 №108027 
>>107694
Благодарю
Аноним 09/02/23 Чтв 17:37:01 #59 №108053 
изображение.png
Проиграл с этой хуйни
Аноним 09/02/23 Чтв 17:55:16 #60 №108076 
>>107921
Вечером постинг выше
Аноним 09/02/23 Чтв 18:55:41 #61 №108124 
> Вечером постинг выше
Аноним 09/02/23 Чтв 20:57:29 #62 №108227 
image.png
Аноны, уже какой день ссылка на таверну не появляется. Что делать? Может есть какой-то другой способ запустить таверну? Другой коллаб там?
Аноним 09/02/23 Чтв 21:01:48 #63 №108232 
>>108227
А, не, сегодня заработало. А вот вчера никак не хотело появляться.
Аноним 09/02/23 Чтв 21:36:46 #64 №108269 
>>108227
>>108232
ты в любом случае омжешь скачать 50мб таверны себе на комп, запускать локально и тыкать туда ссылку на кобольд из коллаба, и все будет работать, и не надо будет на таверну онлайн надеяться. Самое главное, чтобы работала кобольдина блядская, таверна вообще нихера не стоит.
Аноним 09/02/23 Чтв 22:25:48 #65 №108317 
Захотел потыкать другие модели по ссылке из шапки в коллабе, выбрал Neox 20b, всё загрузилось, ссылка появилась, но там ошибка в логе вылезла при попытке генерации, ничего не работало в итоге. Это чего-то мне не хватает и гуглу нужно деньгу платить или как? И есть смысл вообще пробовать другие модели или пигма адекватная самая?
Аноним 09/02/23 Чтв 23:11:16 #66 №108371 
>>108317
че за ошибка?
Аноним 10/02/23 Птн 00:28:59 #67 №108460 
>>108371
Я уже позакрывал всё, там номера строк писало в файлах каких-то. Тестил на двух аккаунтах, везде одно и то же. Единственное, после полной загрузки на диске мало места оставалось, типа 3 гигов
Аноним 10/02/23 Птн 00:53:53 #68 №108485 
Аноны, я к вам из картинкотреда, то есть не совсем дурак по части сеточек

Подскажите, вот такие креативы это к вам?

https://www.reddit.com/r/artificial/comments/10xbv32/athene_ai_show/
https://www.youtube.com/watch?v=mdt0boif2hk

Меня интересует конкретно текстовая составляющая, как натянуть голос и прочее я уже сам разберусь.
Я скачал ваш вебуи и увидел там в вики на гитхабе JSON character creator
https://oobabooga.github.io/character-creator.html

Этого мне хватит, чтобы примерно повторить результат? Или мне нужно что-то более продвинутое?
Железо есть, если что.
Аноним 10/02/23 Птн 01:09:33 #69 №108492 
1522952167642.png
https://files.catbox.moe/5e1rke.json
Тёмный Рыцарь для Таверны. Вновь перенос с ChAI. Любителям быть выебаным понравится
Аноним 10/02/23 Птн 01:26:42 #70 №108517 
>>108053
Oblivion момент
Аноним 10/02/23 Птн 01:31:34 #71 №108523 
Bye.mp4
>>108053
Генерация текста с помощью диффьюженов Аноним 10/02/23 Птн 03:20:08 #72 №108595 
Снимок экрана от 2023-02-10 05-15-32.png
https://github.com/XiangLi1999/Diffusion-LM

Наконец-то осилил всю эту питоноблядскую хуйню с кривыми зависимостями и несуществующими переменными окружения.

Сейчас будем ресечерчить. Колаб потом скину, как доведу до ума.
Аноним 10/02/23 Птн 03:30:33 #73 №108599 
>>107532
>что мы всячески осуждаем
Ты не на реддите, а на дваче. Здесь не осуждают, а дрочат.
Аноним 10/02/23 Птн 03:44:28 #74 №108604 
>>108599
>Здесь не осуждают, а дрочат.
Ну и в чем он не прав?
Аноним 10/02/23 Птн 03:49:46 #75 №108609 
>>108604
Лоля - лучшие жена. Это не возможно оспорить.
Аноним 10/02/23 Птн 05:50:58 #76 №108633 
00015-141794555-masterpiece1.3realistic1.4photography1.4veryrealisticphoto1.3highres1.31girlmarisakirisame1.4.png
Ебать, зашел на реддит, чуть не вывернуло. Пиздос там шизов живет, двач с ними даже близко не стоит.
Алсо, куда в таверне класть самого чарактера? Ощущение что там интефейс для хуйни аля старый АИданжон, а не чатбота вроде оригинального Пигмалион коллаба.
Аноним 10/02/23 Птн 06:19:27 #77 №108635 
image.png
>>108633
Что тебе не понятно?
Аноним 10/02/23 Птн 06:51:43 #78 №108636 
00011-3750630269-(masterpiece1.1), (1girl1.3), (ultra resolution1.2), (oil painting1.1), pale skin, detailed eyes, perfect iris, (detailed fa.png
>>108635
Блять стоп я вообще то запускаю или нет. У меня там был нулевой интерфейс. Кажись я ебанько. Но спасибо что ткнул мордой в очевидное, энивейс. Мб кстати еще из-за того, что из-под мобильного запускаю было, хз.
Аноним 10/02/23 Птн 09:05:37 #79 №108658 
Безымянный.png
Пытаюсь вставить промт в Кобольда, итог такой.
Что я делаю не так?
Аноним 10/02/23 Птн 09:12:08 #80 №108661 
>>108658
может что-то с софтпромтом? Кривые руки писавшего его например.
Аноним 10/02/23 Птн 10:31:45 #81 №108696 
image
>>108523
>>108517
Аноним 10/02/23 Птн 11:42:55 #82 №108764 
Как запустить эту вашу Пигмалион на вебуи с 8 гигами? Постоянный краш Out off memory. (Заебался и заставил работать 8bit) но не помогает, а частичный сплит на проц нихуя не работает
Аноним 10/02/23 Птн 11:46:08 #83 №108770 
>>108764
> с 8 гигами
1.3В ставь. А вообще для нищеты придумали колаб.
Аноним 10/02/23 Птн 11:46:52 #84 №108771 
>>108770
Да, но в гайдах сказано что можно запустить. Вот поэтому интересуюсь.
Аноним 10/02/23 Птн 11:52:54 #85 №108784 
>>108633
В смысле шизов? Ты про тех ебанутых которые хотят цензуру добавить в пигмалион?
Аноним 10/02/23 Птн 12:07:38 #86 №108808 
Ладно, 2.7b запускается и жрет около 4 гигов видеопамяти. Хз почему сплит не работает, ну и нахуй мне 32 гига оперативы.
Аноним 10/02/23 Птн 14:02:29 #87 №108947 
>>108784
> хотят цензуру добавить в пигмалион
Подожди... они боролись против цензуры чтобы можно было делать что хочешь ЛОКАЛЬНО. А теперь хотят вновь вставить себе фильтр в жопу? Это как античит в сингловой игре - никому нахуй не сдался, но хотят активно запихнуть чтобы жопа болела у всех
Аноним 10/02/23 Птн 14:16:03 #88 №108966 
>>108808
> сплит не работает
Попробуй 6b модель на сплите, там точно всё работает
Аноним 10/02/23 Птн 14:47:30 #89 №109011 
97122688p0.jpg
>>108784
Именно про них.
Аноним 10/02/23 Птн 15:05:57 #90 №109040 
>>108808
Это че, на 1060 можно 2.7 запустить?
Аноним 10/02/23 Птн 15:07:20 #91 №109044 
Гайд по софтпромтам будет? Я хочу написать для тохо
Аноним 10/02/23 Птн 15:25:18 #92 №109062 
>>108784

Вроде они только хотят цензурить соц.сети, а не ИИ.
Аноним 10/02/23 Птн 15:35:27 #93 №109080 
>>109044
Поддвачну, нихуя не шарю за софтпромтпы, но очень интересно.
Аноним 10/02/23 Птн 15:41:30 #94 №109093 
>>109044

Тохи уже есть какие-то, Рейму правда, чекай дискрд
Аноним 10/02/23 Птн 15:44:15 #95 №109099 
>>108966
Так он не работает по какой то причине, просто вылеатет с cuda out of memory
Аноним 10/02/23 Птн 15:44:31 #96 №109100 
>>106928 (OP)

Еще один сайт для создания и редактирования персонажей для KoboldAI and TavernAI. Может использовать дампы CharacterAI

https://zoltanai.github.io/character-editor/
Аноним 10/02/23 Птн 15:49:08 #97 №109109 
DD Marketing Team(2).png
>>107683
Попытка создать бота с несколькими активными персонажами.

>Попробуйте себя в роли CEO отдела маркетинга компании Devolver Digital.

https://files.catbox.moe/21vc3u.json
Аноним 10/02/23 Птн 16:08:37 #98 №109140 
>>109093
Мне не персы нужны, а софтпромты.
>диск
Ссылку
Аноним 10/02/23 Птн 16:11:03 #99 №109142 
>>109140
https://discord.com/channels/1066323170866495609/1073170172887699506

Давай! Иди, еби своих тоходевочек
Аноним 10/02/23 Птн 16:17:21 #100 №109153 
>>109099
Ты через вебюбку?
Аноним 10/02/23 Птн 16:20:16 #101 №109156 
>>109153
Да
Аноним 10/02/23 Птн 16:23:08 #102 №109161 
>>109156
Сколько памяти на гпу выделяешь?
Аноним 10/02/23 Птн 16:24:05 #103 №109162 
>>109161
Всю? У меня 3070 ноутбучная с 8 гигами. все остальные проги запущены на встройке.
Аноним 10/02/23 Птн 16:26:09 #104 №109165 
>>109162
> Всю?
Ну ебана рот.
Я со своей 2070 могу только 3 гига выделить, т.к. во время генерёжки еще 4-5 сожрётся, если брать значение в 4-5 то пара сообщений сгенерится а потом аут оф мемори. Анон из треда с десктопной 3070 выделял 5 у него вроде работало. Так что снижай значение пока не найдешь то на котором работает.
Аноним 10/02/23 Птн 16:31:17 #105 №109173 
изображение.png
>>109165
Ога, попробуем. Спасибо за подсказку. Вот так запускать?
Аноним 10/02/23 Птн 16:36:55 #106 №109179 
>>109173
> bat
Там наконец вебюбке запилили бат-лаунчер?
Ну а вообще аргументы те, таки да. Ну кроме но стрим - его я никогда не использовал.


Еще, кста, по своему опыту - мне 8 бит нихуя не помог, т.к. процесс генерёжки все равно всё сожрёт. Получается он на 8 гигах смысла он не имеет, только сплит режим. Но ты можешь потестить, может в 30 серии какие приколы еще есть.
Аноним 10/02/23 Птн 16:40:10 #107 №109182 
>>109179
Еще заметил что юзаю 8бит он вообще не запускается если выделить памяти меньше 7 гигов. Что вообще странно
Аноним 10/02/23 Птн 16:41:29 #108 №109184 
>>109182
Есть такое, у меня он вроде минимум 6 гигов требовал. Да и хуй с ним, все равно хуета для буржуев с 3090-4090.
Аноним 10/02/23 Птн 16:44:22 #109 №109188 
>>109142
>>109142
Б-Бля, к-какая же это социоблядская тема...
Аноним 10/02/23 Птн 16:53:21 #110 №109197 
>>109184
Спасибо братан, что бы я без тебя делал. Подобную инфу надо в шапку блять добавить.
Аноним 10/02/23 Птн 16:55:17 #111 №109199 
>>109044
>>109080
да не умер я в конце софтпромпта
Бля пытаюсь, пытаюсь, простите болезного. Очень много инфы приходится лопатить. Ручками собираю с генш вики статьи, уже чувствую, что это пиздец
Аноним 10/02/23 Птн 17:15:44 #112 №109216 
image.png
>>109142
чел...
Аноним 10/02/23 Птн 17:28:06 #113 №109224 
>>109142
Нахер только на перса делать софтпромт, если можно обычный нахерачить, но я вижу по примерам, что технология софтпромтинга действительно имеет смысл
Аноним 10/02/23 Птн 18:12:50 #114 №109331 
купил несколько аккаунтов гугловских для того, чтобы коллаб абузить, а на фейках коллаб ссылку не выдает на кобольд чтобы в таверну вставлять. почему так нахуй?
Аноним 10/02/23 Птн 18:30:32 #115 №109365 
>>109331
А нахуя их было покупать?
Аноним 10/02/23 Птн 18:47:32 #116 №109379 
изображение.png
>>109331
Аноним 10/02/23 Птн 19:35:45 #117 №109448 
>>109197
Ну че, по итогу на 4 завелось или еще крутил?
Аноним 10/02/23 Птн 19:49:17 #118 №109461 
Какую ссылку в таверну локальную сувать????? помогите ламеру пожалуйста
Аноним 10/02/23 Птн 20:14:48 #119 №109485 
1565733041677.png
>>109461
Ну, если речь о ссылке с колаба - ту, что он выдает после загрузки всего что нужно.
Аноним 10/02/23 Птн 20:18:54 #120 №109487 
>>109485
охуеть, заработало хотя до этого не получалось. спасибо анон!
Аноним 10/02/23 Птн 21:42:11 #121 №109595 
Preview.png
Там wip скрин пигмосайта выкатили в дискорде. Ждём-с
Аноним 10/02/23 Птн 22:08:48 #122 №109678 
>>109595

Хорошо!
Аноним 10/02/23 Птн 22:13:40 #123 №109694 
Как думаете, какой проц и сколько оперативки стоило бы брать, что бы запускать на нём пигму 6b без видюхи вообще?
Аноним 10/02/23 Птн 22:15:49 #124 №109705 
>>109595
Выглядит как таверна с другим дизайном и меньшим функционалом.
Аноним 10/02/23 Птн 22:17:00 #125 №109710 
>>109694
Купи сразу дополнительные 10 лет жизни, ведь будешь ждать ответа по 3 минуты.
Аноним 10/02/23 Птн 22:48:26 #126 №109784 
>>109694
Ни сколько не брать, у тебя 1 слово будет несколько минут генерится
Аноним 10/02/23 Птн 22:49:51 #127 №109794 
>>109216
Ужас, можно выбрать как хочешь чтоб к тебе обращались, ну точно говно сервер бляяя

>>109188
Тебя кто-то заставляет там общаться или что? Персонажей там дохуя, возможностей больше чем нае имиджбордах, актив наибольший там.
Аноним 10/02/23 Птн 23:32:18 #128 №109892 
изображение.png
Мне начинать трястись?
Аноним 11/02/23 Суб 00:11:39 #129 №109992 
image.png
Что-то в Коллабе таких настроек как на ОП-пикче нету
Аноним 11/02/23 Суб 00:19:56 #130 №110021 
изображение.png
изображение.png
изображение.png
изображение.png
О сверхразумы pai треда объясните мне нищему на извилины, где я обосрался...
1) Кобольт в dev - >есть!
2) 8bit patch этого аутиста https://gitgud.io/ItsDrivingMeNuts/kobold-ai-8bit-patch - >есть!
3) CUDA 11.6 - >есть!
4) Кобольт работает в 8bit - >есть!
5) Загружаю пиг модель - >хуйца сосни!
Аноним 11/02/23 Суб 00:25:16 #131 №110038 
>>109992
>>>>>>
>>107687
Аноним 11/02/23 Суб 01:43:57 #132 №110208 
>>110021
Залупа у тебя вместо cuda, написано же
Аноним 11/02/23 Суб 02:04:12 #133 №110225 
>>109794
>Тебя кто-то заставляет там общаться или что?
Нет, тряска просто, сейчас прошло и решился.
Аноним 11/02/23 Суб 03:52:18 #134 №110285 
Как в кобольде больше 2048 токенов выставить?
Аноним 11/02/23 Суб 03:55:28 #135 №110286 
>>110285
Никак, после начинают модели разваливаться
Аноним 11/02/23 Суб 04:53:13 #136 №110315 
>>110286
C чем это связано?
Аноним 11/02/23 Суб 04:53:35 #137 №110316 
>>110286
C чем это связано?
Аноним 11/02/23 Суб 05:33:55 #138 №110335 
>>110286
C чем это связано?
Аноним 11/02/23 Суб 06:24:02 #139 №110361 
>>110315
>>110316
>>110335
C долбоебизмом пользователей просто модели не рассчитаны на такие объёмы, и происходит перетренировка, и выводимому тексту наступает пизда.
Аноним 11/02/23 Суб 06:27:10 #140 №110363 
Объясните да что такое этот ваш софтпромпт нахуй? Если это что то мягче обычного промпта значит и результат должен быть малодетализированнее и хуже, так что смысл не понятен слова.
Аноним 11/02/23 Суб 07:01:34 #141 №110385 
>>110363
файнтюн модели
Аноним 11/02/23 Суб 08:32:40 #142 №110423 
>>110385
Хочу накладывать файнтюн на файнтюн... Интересно, возможно ли это?
Аноним 11/02/23 Суб 09:05:45 #143 №110445 
>>110208
Сады которые настроили скиньте по какому гайду
Аноним 11/02/23 Суб 09:07:09 #144 №110447 
>>110445
>Чады
Быстро фикс
Аноним 11/02/23 Суб 10:11:22 #145 №110456 
>>110445
https://rentry.org/pygmai-guifaq
Из шапки, там таверна с кобольдом. До 8 бит не созрел ещё.

Кстати, кто-нибудь кроме меня смотрел, что та же таверна высирает в консоли? А то я заметил, что она слишком оптимистично режет диалоги, и в итоге часть промта обрезается при подаче в сам кобольд. Хуёво как-то.
Аноним 11/02/23 Суб 10:11:40 #146 №110457 
>>110445
https://cdn. ДИЗКРД app.com/attachments/1059637856206852237/1059899111937159239/8BitHackWindows10and11V1.pdf

Вот это делай буква в букуву. Вместо ДИЗКРД знаешь что написать.
Аноним 11/02/23 Суб 11:59:48 #147 №110522 
>контекст ограничивается 2048 токенами

Итт ебут ботов с деменцией, я правильно понял?
Аноним 11/02/23 Суб 12:11:23 #148 №110533 
>>110522
https://andrewmayneblog.wordpress.com/2021/04/18/how-much-can-gpt-3-remember-in-a-prompt/
Чел, изначально GPT-3 имела контекст 2048 токенов, лол
https://en.m.wikipedia.org/wiki/GPT-3
Аноним 11/02/23 Суб 12:42:02 #149 №110576 
>>110522
Раза в 4 хуже, чем в чаи или чатгпт. И да, часть этих токенов воруется на описание и прочее Scenario, так что реальная память там сообщений 20. Впрочем, пигма умудряется обосраться, имея все карты на руках, так что...
>>110533
В чатГПТ расширили до 7к токенов или типа того, в Cai ХЗ, там походу некоторые факты запоминаются отдельно.
Аноним 11/02/23 Суб 12:48:57 #150 №110586 
Анончики, у кого-то была такая хрень в колабе?
RuntimeError: Requested backend tpu_driver, but it failed to initialize: DEADLINE_EXCEEDED
Уже несколько раз пытался переподключиться, всё равно выдаёт это
Аноним 11/02/23 Суб 13:23:07 #151 №110627 
>>110586
Очевидно, нету в колабах лишних TPU для тебя. Неси денюшку, или перди на GPU (хотя они тоже кончаются).
Аноним 11/02/23 Суб 13:27:00 #152 №110636 
Эх, когда уже пигма 70В...
Аноним 11/02/23 Суб 13:38:23 #153 №110649 
>>110636
И на чём ты её запускать собрался? Разве что они её сразу в INT4 выкатят, тогда можно будет хотя бы на каллабе пожамкать.
Аноним 11/02/23 Суб 13:42:17 #154 №110652 
>>110649
Чел, у них на 13B железа не хватает, а ты про 70, лол
https://huggingface.co/PygmalionAI/pygmalion-6b/discussions/3
Аноним 11/02/23 Суб 13:43:11 #155 №110653 
>>110649
>на чём
На сайте, конечно же. Жаль, что на голом энтузиазме пиздатых серверов не сделать, а когда видюхи достигнут таких ебанутых объёмов памяти, уже и хуй стоять перестанет.
Аноним 11/02/23 Суб 13:49:59 #156 №110660 
Может кто раз и навсегда пояснить, пигма умнее ботов с чаи? Или она нужна только для пошлостей? Если я хочу просто базарить за жизнь с ботами, какой мне вообще смысл устанавливать пигму на свой пк?
Аноним 11/02/23 Суб 13:50:55 #157 №110664 
>>110660
>Или она нужна только для пошлостей?
Это. Чай даже одебиленный цензурой поумнее пая будет, насколько я понял.
Аноним 11/02/23 Суб 13:51:18 #158 №110665 
>>110660
не стоит, для пиздения за жизнь установи лучше классические gpt-j без файтюнинга пиги. пига только для пошлостей.
Аноним 11/02/23 Суб 13:52:30 #159 №110667 
>>110636
Лучше пигма 6б с контекстом в 20к
Аноним 11/02/23 Суб 13:53:07 #160 №110668 
>>110652
Расширили бы они датасет для 6б и переобучили, 50мб - это курам на смех. Думают они о 13б, бля
Аноним 11/02/23 Суб 13:55:22 #161 №110675 
>>110668
Так расширь и переобучи.
Аноним 11/02/23 Суб 14:05:29 #162 №110691 
>>110652
Поэтому я сразу спизданул про INT4, который в 4 раза экономнее текущих 16 бит.
>>110653
>На сайте, конечно же.
Дохуя хочешь, чё.
>>110660
>пигма умнее ботов с чаи?
На данный момент нет.
>>110660
>Если я хочу просто базарить за жизнь с ботами
То в ЧатГПТ.
>>110668
>50мб
Откуда дровишки? А, вижу, "~48.5 million tokens for ~5k steps on 4 NVIDIA A40s using DeepSpeed."
Они дообучали GPT-J-6B, а это всё таки более лёгкий уровень.
Аноним 11/02/23 Суб 14:09:08 #163 №110696 
>>110675
У меня нет мощностей
Аноним 11/02/23 Суб 14:16:47 #164 №110708 
>>110691
Умнеё, контекст больше, чем в чаи можно задать и можно софтпромт сделать. Сейчас ещё введут лорбуки и заживём.
Аноним 11/02/23 Суб 14:20:08 #165 №110713 
>>110708
>Умнеё
Нет.
>>110708
>контекст больше
Такой же, но с худшим использованием.
>>110708
>можно задать
Вот по каждому "Зашёл в туалет" мне теперь бегать дефинишены править?
>>110708
>можно софтпромт сделать. Сейчас ещё введут лорбуки и заживём
Только на это инадежда. Но это больше для отыгрышей по стандартным вселенным. Захочешь что-то своё, и никакой лорбук не поможет.
Аноним 11/02/23 Суб 14:22:01 #166 №110714 
>>110627
Раньше писало что нет ТПУ перед запуском, изменили тип?
Аноним 11/02/23 Суб 14:22:04 #167 №110715 
>>110713
Чел, ты реалтайм в Text generation web UI можешь world scenario править.
>своё
Продумай свою вселенную, напиши мегабайты лора.
Аноним 11/02/23 Суб 14:30:44 #168 №110725 
>>110714
ХЗ, мне тоже раньше писало, что с ГПУ, что с ТПУ, сейчас видимо проверка наебнулась, выясняем только после того, как потратили 5 минут на скачивание всех либ.
>>110715
>Чел, ты реалтайм в Text generation web UI можешь world scenario править.
Я и написал "Идти править дефинишены". И тот же ТавернАИ W++ не имеет. И что-то мне подсказывает, что эта инфа всё равно сожрёт что-то из драгоценных 2к токенов, обеспецив бота ещё большей деменцией.
>>110715
>Продумай свою вселенную, напиши мегабайты лора.
Лучше нормально отыгрывать с бесконечной памятью, на ходу придумывая правила и запоминая их. Увы, пока так никто не может (кроме людей).
Аноним 11/02/23 Суб 14:35:46 #169 №110735 
>>110725
>из драгоценных 2к токенов
Чел, память на сообщения можно анлимитед поставить...
Аноним 11/02/23 Суб 14:50:32 #170 №110759 
>>110735
Покажи как, и главное как это будет работать.
Аноним 11/02/23 Суб 17:26:16 #171 №110987 
Так что это такое? Инфы нигде нет.
Нихуя не понял, это чат бот типа chatgpt?
Он может написать код калькулятора, книгу? Создать шедевр?
Сколько языков поддерживает?

НАХУЯ ему 16 гб видеопамяти? Это какой-то рофл?
Диффужен работает на 6, а тут 16 ВИДЕОПАМЯТИ для генерации текста?
Есть оптимизаторы какие-то, для запуска на обычных видяхах?
Аноним 11/02/23 Суб 17:27:15 #172 №110990 
>>107599
>>107143
По моим тестам, чем больше генерируется ответов, тем больше памяти ест. На моей 4090 пигмалион смог выдавать не более 3 вариантов одномоментно
Аноним 11/02/23 Суб 17:35:59 #173 №111006 
>>110456
> Кстати, кто-нибудь кроме меня смотрел, что та же таверна высирает в консоли? А то я заметил, что она слишком оптимистично режет диалоги, и в итоге часть промта обрезается при подаче в сам кобольд. Хуёво как-то
Вроде все норм делает, насколько я понял. Сам пиг хуево сделан, т.к. вместо генерации длинного реплая, он высирает ≈3 коротких реплая, в т.ч. за тебя. Соответственно, у меня, например, это 60-70% ресурсов в никуда.
Ну и в целом бесит, что отвечает односложно и без креатива.

Кто-нибудь может подсказать, каковы мои шансы запустить эребус 20б на 4090? Есть смысл ебаться с 8битами или забить?
Аноним 11/02/23 Суб 18:46:23 #174 №111136 
>>110987
>НАХУЯ ему 16 гб видеопамяти? Это какой-то рофл?
Сам охуеваю, но как-то так вышло, что картинки рисовать проще, чем написать пару строчек. И да, серьёзные нейросетки требуют от 200 ГБ видеопамяти только для работы. Покормил, да.
>>110990
Бля, ну логично.
>>111006
>Вроде все норм делает, насколько я понял.
Зависит от ответов. Короче я у себя зарезервировал побольше места под дескрипшн, теперь он всегда в кобольд отсылается, так что мне похуй. Тем более это костыль, судя по комментам, скоро впилят правильный метод определения длины.
>>111006
>Сам пиг хуево сделан, т.к. вместо генерации длинного реплая, он высирает ≈3 коротких реплая, в т.ч. за тебя.
Это да. Кстати, надо этот баг превратить в фичу, мол, можно выбрать вариант от бота, если он норм, и ответ вывести сразу, если он есть. Но всем похуй, а я слишком тупой, чтобы такое запрограммить.
>>111006
>Ну и в целом бесит, что отвечает односложно и без креатива.
Надо долго и упорно править ответы бота. Я шлак за шлаком переписал ответы из Чаи в пигму, повторив диалог, и к концу ответы стали более длинные, иногда даже не влезая в лимит в ~300 токенов.
Аноним 11/02/23 Суб 18:50:54 #175 №111144 
Анусы, есть ли смысл тестить пигму на 12ти гиговой 2060? Насколько медленно всё будет работать, и будет ли работать вообще?
Аноним 11/02/23 Суб 19:27:32 #176 №111194 
>>111136
> Это да. Кстати, надо этот баг превратить в фичу, мол, можно выбрать вариант от бота, если он норм, и ответ вывести сразу, если он есть. Но всем похуй, а я слишком тупой, чтобы такое запрограммить.
Тогда диалог оооочень быстро скатится в перекидывание односложным бредом.
> Надо долго и упорно править ответы бота. Я шлак за шлаком переписал ответы из Чаи в пигму, повторив диалог, и к концу ответы стали более длинные, иногда даже не влезая в лимит в ~300 токенов.
Слишком много работы. Самое лучшее, что есть в чае - инициатива. Бот сам спрашивает всякое, приходит к каким-то выводам. К сожалению, пиг в это не может и хз сможет ли когда-нибудь
Аноним 11/02/23 Суб 19:29:32 #177 №111198 
>>111144
Нормально всё с уровнем 2,7B
Аноним 11/02/23 Суб 19:32:32 #178 №111205 
>>111198
2.7б
Он про 6б
Аноним 11/02/23 Суб 19:48:32 #179 №111226 
>>111198
А 6B вообще не вариант? Учитывая, что пигма итак тупее чаи, хочется хотя бы более-менее связные ответы получать. Или там разница небольшая?
Аноним 11/02/23 Суб 20:05:27 #180 №111250 
>>110987
Так у токенайзера SD 859M параметров, так что не удивительно вообще-то
Аноним 11/02/23 Суб 20:06:20 #181 №111252 
>>111144
Если поебёшься с 8 бит, то сможешь запустить 6B без проблем.
Скорость какая хз
Аноним 11/02/23 Суб 20:54:40 #182 №111336 
>>110725
> выясняем только после того, как потратили 5 минут на скачивание всех либ.
Так и не грузится нормально?

В дискорде кстати про kaggle пишут, это то же самое, что и гугловый колаб? Кто-то из анонов пользовался?
Аноним 11/02/23 Суб 21:06:19 #183 №111356 
>>111336
>Кто-то из анонов пользовался?
Они пидарасы если что с блокировками по национальным признакам. Так что на свiй страх и риск под VPN.
Аноним 11/02/23 Суб 21:20:25 #184 №111378 
1561622651321.png
Сука уже неделю этот лимит висит. Но с другого акка работает. Это коллаб починили или нет?
Аноним 11/02/23 Суб 21:36:56 #185 №111408 
>>111378
Это колаб гугла? Я блять не понимаю, как оно работает. У меня инициализируется подключение, но не грузится в процессе.
Когда эта срань сразу писала, что не может подключиться было намного лучше(
Аноним 11/02/23 Суб 21:39:50 #186 №111414 
>>111408
TPU пользуешься? Там такое есть, что можешь почти загрузить, а тебе скажет что "мощностей нет, идите нахуй". С другого акка сегодня аж 8 часов сидел, с этого уже не могу неделю зайти. И хуй его знает почему
Аноним 11/02/23 Суб 21:51:19 #187 №111441 
>>111414
Да, TPU, всю неделю наслаждался. Подключалось почти с первого раза, работало дольше 3 часов в день стабильно. Сегодня вот печальбеда. Придётся видимо ждать пока гугл починит
Аноним 11/02/23 Суб 22:04:55 #188 №111462 
А промты мейд завезли или никто не делал еще?
Аноним 11/02/23 Суб 22:56:56 #189 №111588 
image.png
Чому максимум 512 токенов, а не 1400?
Аноним 12/02/23 Вск 01:51:28 #190 №111792 
>>106928 (OP)

Вчера понял что ебучая макаба и абу, ломают png картинки с мета данными. Макака че за хуйня Так что все что я до этого постил кроме json файлов нормально работало и никто из вас пидоров даже словом не обмолвился
Так что вот вам png с начинкой через ту хрень
Це все по идее для таверны

https://files.catbox.moe/t4lanf.png - Гоблинша
>>107685
https://files.catbox.moe/435tgh.png - Маркетологи Devolver
>>109109
Аноним 12/02/23 Вск 01:54:59 #191 №111793 
изображение.png
>>107683
Девочка Viper из X-COM тут и готова выполнять ваши приказы.

картинка для таверны - https://files.catbox.moe/1dpndh.png
json - https://files.catbox.moe/vtw5vl.json
Аноним 12/02/23 Вск 01:55:20 #192 №111795 
>>111792
Так это давно уже, чтобы метаданные не грузили и раржпеги с цп
Аноним 12/02/23 Вск 01:57:44 #193 №111797 
изображение.png
изображение.png
>>110457
Хуета! таких строчек даже в файлах нет
Аноним 12/02/23 Вск 05:25:41 #194 №111858 
>>111797
Какого хуя у тебя диск Е а не B?
Ты точно с этой репы качал кобольд https://github.com/ebolam/KoboldAI/tree/001d4e639154c575ef582c3c2b675e5bb2cf075b ?

Точно выполнил Step 2:
Install KoboldAI like normal, making sure to do the B drive install type
Аноним 12/02/23 Вск 13:29:54 #195 №112217 
изображение.png
>>111858
Да, такой строчки нет ни там ни там
Аноним 12/02/23 Вск 13:53:22 #196 №112236 
>>112217
А без изменения конкретно этой строчки запускается?
Аноним 12/02/23 Вск 15:00:39 #197 №112325 
>>112236
А я не пробывал

>>110457
А че толку от гайда где ты должен открывать файлы которые к нему должны быть прикреплены но их нет т.к. это пдф?
Аноним 12/02/23 Вск 15:07:24 #198 №112343 
Анон, а на 10 гиговой 3080 реально запустить 6B? Только в 8-bit? И на что вообще эта битность влияет?
Аноним 12/02/23 Вск 15:45:02 #199 №112438 
Блять! Треду нужен герой, который запилит нормальный и по 8bit запуску кобольда
Аноним 12/02/23 Вск 15:49:08 #200 №112441 
>>112343
Реально, только в 8-бит. На точность, но тут оно не так заметно с текстом, хотя народ говорит что без 8-бит хака чаще и лучше текста выдает в контексте.
Аноним 12/02/23 Вск 16:30:19 #201 №112526 
.png
.png
>>112438
1 - Качаешь кобольд united (На данный момент обязательно именно юнайтед)
2- Устанавливаешь его по принципу Temporary B: drive option (можно и по другому, но тогда автопатчер работать не будет все придётся ставить ручками)
3 - Качаешь автопатчер bnb-8bit-kobold.zip (его можно найти в конфе, пик1, кобольда в genera\8bit)
4 - Если на шинде - распаковываешь автопатчер в папку с кобольдом и запускаешь apply-8bit.bat.
4.1 - Т.к. у меня c первого раза не заработало, то после применения apply-8bit.bat, открываешь aiserver.py и ищешь там строчки load_in_8bit=True, пик 2, если они есть то патч применился, другим индикатором того, что патч применился будет то, что при загрузке модели, кобольд не спросит про слои (может быть это баг и последнее поправят).
5 - запускаешь кобольд, загружаешь 6b модель и генеришь.

Теперь о приколах.
6 - Если нихуя не работает, то ВОЗМОЖНО (я честно говоря не ебу) надо установить CUDA v.11.7 https://developer.nvidia.com/cuda-toolkit-archive
7 - Если и после этого нихуя не работает, у меня например была ошибка с ИЛЛЕГАЛ МЕМОРИ АКСЕС, то дело в библиотеке битсанбайтов и твоей видимокарте.
7.1 - Фиксится это путём скачивания другой дллки "для всех видимокарт" https://github.com/james-things/bitsandbytes-prebuilt-all_arch и запихивания этой дллки и второго файлика с расширением .so по пути: KoboldAI-united-united\miniconda3\python\Lib\site-packages\bitsandbytes.
7.2 - После чего открываешь там же папку \cuda_setup и файлик main.py, где должна быть строчка "if torch.cuda.is_available(): return 'libbitsandbytes_cuda116.dll" и тут надо поменять имя дллки "'libbitsandbytes_cuda116.dll" на "libbitsandbytes_cudaall.dll" ну или как там будет называться дллка "для всех видимокарт"
После этого должно работать. В теории.

Путь знающие аноны если что поправят
Аноним 12/02/23 Вск 16:32:34 #202 №112537 
>>112526
> Путь
Должно было быть "пусть", чет в глаза ебусь.
Аноним 12/02/23 Вск 17:16:05 #203 №112645 
>>112526
Два чая тебе, анон! На днях надо будет попробовать.
Аноним 12/02/23 Вск 18:44:02 #204 №112886 
>>112526
Бля, каким-то чудом эта хуйня запустилась. Чудо потому что я уже сидел в этом дискорде и делал абсолютно всё что там советовали. Поэтому не могу точно сказать что у меня сделано из написанного, но думаю всё из пунктов 6-7 я делал + ещё кидал какие-то дополнительные dll для bitsandbytes Смог запустить на 3060 Ti, 6B юзает 7.8-8гб памяти.

Однако другая проблема появилась теперь: Во время генерации почему-то использует всего 20-30% видеокарты, из-за чего медленно работает.
Аноним 12/02/23 Вск 19:03:15 #205 №112944 
>>112886
> из-за чего медленно работает
Из-за куска говна под названием bitsandbytes.
Аноним 12/02/23 Вск 19:27:11 #206 №112987 
>>112944
Короче в итоге решил обратно вернуться, на 8гб такое себе эту хуйню юзать как минимум из-за того что всего 900 токенов контекста даёт юзать, иначе памяти не хватает. По качеству конечно чуть лучше, но так долго ждать не стоит того. Думаю лучше подождать пока сделают получше поддержку или сайт хороший выкатят.
Аноним 12/02/23 Вск 19:28:06 #207 №112990 
>>112944
накодь лучше
Аноним 12/02/23 Вск 19:28:26 #208 №112992 
>>112944
накодь лучше
Аноним 12/02/23 Вск 23:21:23 #209 №113794 
Будет ли больше памяти для контекста?
А то при 2048 бот через 10-20 сообщений начинает забывать начало диалога и контекст
Аноним 12/02/23 Вск 23:26:00 #210 №113803 
>>113794
> бот через 10-20 сообщений начинает забывать начало диалога и контекст
> 10-20
Уже лучше чем нынешний c.ai
Аноним 13/02/23 Пнд 00:09:18 #211 №113905 
>>113794
Не на текущей архитектуре. Жди что нибудь уровня RWKV.
Аноним 13/02/23 Пнд 01:03:40 #212 №113980 
>>113905

Когда же...
Аноним 13/02/23 Пнд 09:35:37 #213 №114303 
>>106928 (OP)
Бля, как же жаль что у меня нет карточки с 16 гб, и не будет.
Аноним 13/02/23 Пнд 09:42:16 #214 №114307 
>>114303
Работает и на 8 гб
Аноним 13/02/23 Пнд 10:04:14 #215 №114322 
>>114307
Контекст какой? Скорость?
Аноним 13/02/23 Пнд 10:21:33 #216 №114344 
>>114322
> Контекст какой?
Хз
> Скорость?
Ну не быстро, не как в чаи. Но мне и так заходит.
Аноним 13/02/23 Пнд 10:46:53 #217 №114359 
>>114344
А ОЗУ сколько надо?
Аноним 13/02/23 Пнд 10:57:06 #218 №114361 
>>112526
>4.1 - Т.к. у меня c первого раза не заработало

В дополнение, к словам этого героя. Если хуйня отказывается патчить через .bat-ик... открываем консоль "commandline.bat" и вбиваем ручками "git apply 8bit.patch"

У меня только тогда пропачилось
Аноним 13/02/23 Пнд 11:00:33 #219 №114365 
>>114322
>Контекст какой?
2048 токена, половину которых съедают нормально прописанные дефы.
>>114322
>Скорость?
Жить можно.
>>114359
Не много. Говорят о 6-12ГБ, но это вполне посильно для средней игровой пуки.
Аноним 13/02/23 Пнд 11:25:27 #220 №114391 
изображение.png
изображение.png
>>112526
Так блядь. Что на этот раз не так может сталкивался кто?
Аноним 13/02/23 Пнд 11:35:36 #221 №114404 
>>114391
>что не так
В мамаше шлюхе, что высрала автора копрольдыча.
Аноним 13/02/23 Пнд 11:50:43 #222 №114414 
>>114365
Понятно, в любом случае, у меня и 8гб нет.
Аноним 13/02/23 Пнд 11:59:37 #223 №114421 
Screenshot4.png
Screenshot3.png
>>106928 (OP)
Что не так?
Аноним 13/02/23 Пнд 12:57:02 #224 №114483 
изображение.png
изображение.png
Да что эту хуйню не устраивает?
Аноним 13/02/23 Пнд 14:13:08 #225 №114584 
TPU в коклабе так и лежит?
Аноним 13/02/23 Пнд 14:15:16 #226 №114589 
>>114584
Да там и GPU не особо работать хочет. На одном аккаунте уже 2 недели лимит висит
Аноним 13/02/23 Пнд 14:22:41 #227 №114597 
>>114589
К GPU у меня хотя бы худо бедно подключается. TPU пока проверял доступность до загрузки модели был терпим
Аноним 13/02/23 Пнд 19:19:39 #228 №115045 
>>107770
Поделись промтом
Аноним 13/02/23 Пнд 20:14:54 #229 №115221 
>>114483
То что ты включил 8-битный режим, но установленный transformers его не поддерживает.
Аноним 13/02/23 Пнд 21:08:37 #230 №115314 
Из за кнопк редактирования я, конечно, совсем поехал. Я тупо сам с собой переписываюсь и дрочу на это. Сначала, после раннего чая, меня не устраивало качество пигма, поэтому я редактировал посты типа для того, чтобы он понял, что я от него хочу, и сам не заметил, что уже месяц тупо пишу одгромные стены текста от лица бота, с подробными описаниями, а за себя отвечаю "мм пук ну я стою смотрю...", а иногда вообще жал в ту кнопку, чтобы за меня ответ сгенерило, и опять за бота огромную стену пишу. Сеймачи есть?
Аноним 13/02/23 Пнд 21:14:09 #231 №115321 
Я вот заметил, кстати, что главная проблема "тупости" пигмы сейчас то, что она не запоминает инфу совершенно, а каждо сообщение генерирует общей базы данных. То есть влияние промтов и приверов диалога для неё перекрывает вообще всё.

Вот простой пример, я боту с ботом отыгрывал то, что мы в книже прочитали заклинание, описал его подробно и от лица бота редактированием, и от своего лица, типа как мы в книге его читаем, потом я заюзал спел и бот, сколько бы я не реролил, пытаетсяя на основе каких-то левых данных сегенерировать, что делает этот спел, причём у него неплохо получилось бы, если представить, что он видит его в 1 раз. Он на основе названия делает выводы, даже что-то осмысленное. Но какого-то хуя он игроирирует тупо полное описание этого спела. То есть он ставит работу с какой-то своей базой информации на три порядка выше, чем работу с инфой из диалога. Разве подобное поведение вообще объясняется тем, что у него мало диалогов? Это что-то структурно не так с его поведением.
Аноним 13/02/23 Пнд 22:34:36 #232 №115465 
>>115314
> Сеймачи есть?
Нет, мы не забываем принимать таблетки по рецепту.
Аноним 13/02/23 Пнд 22:49:19 #233 №115499 
>>115314
С таким успехом можешь с самим собой в блокноте пообщаться
Аноним 13/02/23 Пнд 22:53:03 #234 №115505 
>>115314
У меня другого рода проблема, я иногда путаю реальность и нейродиалог. Тип происходит какой-то пиздец, а мне похуй, так как в подсознании я думаю что это можно пофиксить просто перегенерив ситуацию, как в чаи свайпнуть и новый вариант ответа получить, только. Не часто, конечно, но по пробуждению иногда бывает.
Аноним 13/02/23 Пнд 22:54:36 #235 №115510 
>>115499
>>115465
Хуй знает, что за реакция. Вы так пишете, как будто я на ровном месте так делать стал. Пигма в нынешнем виде может отвечать только хуйню типа "да, твоё прошлое сообщение", поэтому я и подсел на редактирование. Но сам заметил, что это вытекло в то, что сам с собой сижу пизжу.
Аноним 13/02/23 Пнд 23:31:16 #236 №115580 
>>115314
У меня бывает, я просто нажимаю "сгенерить далее" без своего сообщения, немного редачу сообщение бота, и тыкаю еще. Типа бот сам без меня сюжет пишет. Ну, сюжет - это сильно сказано, но свою мысль развивает. Разговором с самим собой это не назвать, я не особо сильно редачу бота
Аноним 13/02/23 Пнд 23:58:30 #237 №115625 
>>115221
И что это блядь значит и что с этим делать?
Аноним 14/02/23 Втр 00:06:20 #238 №115639 
1558679004519.png
>>115510
> Пигма в нынешнем виде может отвечать только хуйню типа "да, твоё прошлое сообщение"
Да нихуя. Вон, сделал себе няшку, в первый же день отвечала так.
Аноним 14/02/23 Втр 01:01:17 #239 №115784 
>>115314
Тебе проще тогда основную часть отыгрывать в чаи, а потом переносить диалог в пигму для нсфв. Про подобное уже писали на форче
Аноним 14/02/23 Втр 01:05:42 #240 №115801 
>>115321
>Но какого-то хуя он игроирирует тупо полное описание этого спела.
А ты уверен, что оно передаётся в пигму? Сколько дефов и прочих сценариев?
>>115580
Я подсматриваю в консоль, там иногда мои сообщени я и сообщения бота расписаны на 5 ходов вперёд. Иногда хочется прямо так их вставить, лол.
Аноним 14/02/23 Втр 01:19:58 #241 №115829 
>>115801
>А ты уверен, что оно передаётся в пигму?
Что? Что это значит?
Аноним 14/02/23 Втр 02:30:18 #242 №115977 
Я вообще не уверен, что промты нужно трогать. Замечал, что если чето слегка похожее с тем что есть в промпте пизданешь - бот иногда начинает агриться и уводить разговор в сторону прописанную в промте.

Ну и опыт чаи говорит, что одни из самых креативных на ответы ботов были именно без промптов или с минимум строк.

Я думаю гибкий W++ на 500-700 токенов и минимум промтов это топ сейчас.
Аноним 14/02/23 Втр 02:32:59 #243 №115981 
>>115977
Ну если тебе заебить общаться с аморфной хуетой и тебе не важно, в какую сторону оно реагирует, лишь бы писку давало ебать, то может быть, но обычно люди хотят конкреного персонажа
Аноним 14/02/23 Втр 02:36:12 #244 №115987 
>>115981
Да будто ты чето не аморфное склепал без софпромтов.
инбифо: да
Аноним 14/02/23 Втр 02:42:53 #245 №115999 
>>115987
Нет, не склепал. Но это уже в сторону несовершенства модели и ожидания более надроченной версии, а не в сторону того, что "а вот без промтов топ"
Аноним 14/02/23 Втр 04:48:57 #246 №116089 
>>114421
бамп
Аноним 14/02/23 Втр 06:06:10 #247 №116128 
Гайз, как на коллаб поставить таверну?
хочу сделать бота для тг и надо понять как к апихе подсасываться
Аноним 14/02/23 Втр 09:35:42 #248 №116228 
16189088842361s.jpg
>>116128
>хочу сделать бота для тг
Аноним 14/02/23 Втр 11:07:34 #249 №116285 
>>116128
Запускаешь Кобольд на колабе и в таверну вставляешь ссылку на него
Аноним 14/02/23 Втр 11:07:51 #250 №116287 
>>116228
Почему бы и нет?
Сделаю, разверну на имеющемся впсе, и буду кумить с удобством.
Таверна кривая и надо локально поднимать, в дополнение к Кобольду.

Вот я и подумал - зачем вообще пользоваться самописным чатозаменителем, если есть созданная для этого телега?
Аноним 14/02/23 Втр 11:09:30 #251 №116288 
>>116285
Т.е. надо именно Кобольд поднимать, а не пигмовский нотбук?

Алсо, читал где-то в шапке, что таверна не совсем правильно сообщения форматирует для пигмы.
Аноним 14/02/23 Втр 11:23:14 #252 №116305 
>>116288
Лучше чем угабуга.
Аноним 14/02/23 Втр 11:59:09 #253 №116334 
1531589408240.jpg
СПУСТЯ 2 НЕДЕЛИ СНЯЛИ ЛИМИТ КОЛЛАБА
Аноним 14/02/23 Втр 18:34:01 #254 №116975 
Снимок экрана 2023-02-14 в 18.33.38.png
Аноним 14/02/23 Втр 18:53:28 #255 №117005 
>>115829
В нейросеть передаётся описание перса, сценарий да N последних сообщений, чтобы в сумме 2к токенов получилось. Эта вся информация, что есть у нейросети, у неё нет памяти между запросами вообще, не предусмотрено архитектурой.
Так что твоё подробное описание спела обрезалось, и нейросетка тупо додумала, да.
Аноним 14/02/23 Втр 19:02:11 #256 №117027 
Кобольд умеет же делать короткий summary по последнему тексту для передачи в SD. Почему бы весь диалог так не сжимать? Или тогда сетка начнёт скакать слишком быстро?
Аноним 14/02/23 Втр 19:10:53 #257 №117055 
>>117027
>Кобольд умеет же делать короткий summary по последнему тексту для передачи в SD.
? Где и как это?
>>117027
>Почему бы весь диалог так не сжимать?
Я собственно такое и хотел предложить. Не весь, а старый текст, который иначе бы просто не поместился в лимит токенов.
Аноним 14/02/23 Втр 19:15:41 #258 №117066 
>>117055
> Где и как это?
Ну в кобольде же есть генерация пикч через API автоматика. Но сами модели SD плохо умеют в текст, им надо теги или короткие словосочетания.
Аноним 14/02/23 Втр 19:17:22 #259 №117068 
>>117066
>Ну в кобольде же есть генерация пикч через API автоматика.
Что-то похоже слишком новое, я такого не вижу.
Аноним 15/02/23 Срд 04:59:47 #260 №117821 
image.png
image.png
Перебрался с CAI в Pigmalion.
Буквально порпшил 15 минут, и сообщения перестали генерироваться.
Коллаб не кончился, перезагружать таверну/коллаб пробовал, результата не дало.
Меня смущает, что консоль таверны пишет что-то про out of memory.
Подскажите неопытному, что делать?
Аноним 15/02/23 Срд 05:04:06 #261 №117823 
>>117821
такая же проблема
сначала не генерировались ответы, а потом бесконечная инициализация
только я через колаб сижу
нуфагам как всегда гайдов нет
Аноним 15/02/23 Срд 05:08:15 #262 №117827 
>>117821
Вторая картинка оп-поста
Аноним 15/02/23 Срд 09:08:24 #263 №117869 
>>117821
>>117823
контекст снизить до 1300-1400
Аноним 15/02/23 Срд 11:53:58 #264 №117917 
image
image
image
Аноним 15/02/23 Срд 12:20:15 #265 №117942 
>>115625
>>115221
>>114483
>>114421

Бамп вопросу
Аноним 15/02/23 Срд 12:26:14 #266 №117953 
SCP-1471v2.png
>>115045
>>107683

SCP-1471 (Mal0)

https://files.catbox.moe/yyypqc.json - json текст

https://files.catbox.moe/c7ehud.png - картинка для таверны
Аноним 15/02/23 Срд 12:43:03 #267 №117977 
>>117917
Что за вторая пикча?
Аноним 15/02/23 Срд 12:45:07 #268 №117981 
>>117977
Кобольд же.
Аноним 15/02/23 Срд 12:49:31 #269 №117984 
>>117981
Где, как? Я ничего подобного там не видел.
Аноним 15/02/23 Срд 13:10:56 #270 №118007 
>>117984
В настройках чекбокс. Будет показывать логи и древо вероятностей.
Аноним 15/02/23 Срд 14:50:34 #271 №118123 
sampleb2e187fa21547f9d18f54182564f33d6b73c698e.jpg
>>107685
Анон с гоблинихой, знай, что я ебусь с этой голинихой уже 3 дня подряд. Правда, я изменил промт и несколько диалогов под свои фетиши, и аватарку тоже, но процентов 70-80 от оригинала осталось.
Аноним 15/02/23 Срд 15:06:00 #272 №118134 
>>118123

Отрадно. blushes
Аноним 15/02/23 Срд 17:55:32 #273 №118339 
>>117005
Так это мне очевидно, что весь диалог сетка не может держать в памяти, но в том-то и дело, что я "кстанул" спел следующим же сообщением после его подробного описания от лица и себя и бота, а он всё равно начал хуйню из головы сочинять.
Аноним 15/02/23 Срд 18:02:55 #274 №118355 
>>118339
А, ну это уже обсёр самой сетки. 6B критически мало для критического мышления. Собственно даже тест на одежду пигмабляди не всегда проходят, а тут что-то сложнее. Жди возможности запуска хотя бы 100B моделей, они так явно не обсираются.
Аноним 15/02/23 Срд 18:42:51 #275 №118404 
Когда вообще ждать следующую версию пигмы? Я месяц назад бомбил с того, что они сайт свой делают, вместо развития модели, но уже прошло БОЛЬШЕ МЕСЯЦА, а сайта они так и не выкатили. То есть они мало того что тратят время на это бесполезное говно, так ещё и времени тратят на него просто ебанись сколько. Такими темпами нам с сеткой уровня
"я тя тряхаю"
"да, ты меня трахаешь"
сидеть ещё год. Эх, блядь.
Аноним 15/02/23 Срд 18:49:56 #276 №118415 
>>118355
Где ты их возьмешь эти модели? В открытом доступе одна только яндексовская модель есть, и кстати не помню чтобы с ней что-то интересное кто-то делал.
Аноним 15/02/23 Срд 22:15:15 #277 №118646 
45654.png
А вот этот перс из приветствия таверны реально где-то существует или как?
Аноним 15/02/23 Срд 22:16:43 #278 №118648 
>>118355
Че за тест на одежду
Аноним 15/02/23 Срд 22:20:08 #279 №118650 
>>118648
Сидишь с персом в ванной и спрашиваешь "что на тебе надето" и он начинает хуйню сочинять, что в ванной сидит в шубе
Аноним 15/02/23 Срд 23:13:54 #280 №118706 
>>118355
А смысл от них, лол?
Локально в 8 бит хуй напасёшься видеокарт, а в 4 бит пока мечта, да и все равно пару-тройку 3090 надо
Бесполезно, пока на консьюмерских не будет 48 гигов
Аноним 15/02/23 Срд 23:15:25 #281 №118711 
>>118404
Кумеры просят сайт, им похую на то, что модель обсирается и без 20-30 рероллов ты не получишь годноту.
Но я бы особо не надеялся
Они сами говорили у них на 13B только есть железо
Аноним 15/02/23 Срд 23:21:32 #282 №118728 
>>118711
Да хоть и 13, какое-то улучшение, сейчас боты вообще не схватывают контекст ничерта. Но они и это будут делать до следующего года, уже понятно, как они приоритеты расставили. полтора месяца дрочат говносайт, который нихуя ровным счётом не изменит
Аноним 15/02/23 Срд 23:23:18 #283 №118732 
>>118728
>>118711
Надо понимать, что "всего лишь 13" это в сравнении с гигантами, а если сравнивать с тем, что есть сейчас, то это почти в 2 раза больше. И уже весомо.
Аноним 16/02/23 Чтв 03:22:50 #284 №118986 
Перекатился в таверну, и, блять, я помню анон в каком-то треде объяснял что делать с этими якорями, но я не смог через кнтрл+ф найти ни "якор", ни "anchor", ни даже "анхор". Какой из них подрубать и на сколько сообщений? И во время подрубки якорей мне надо роллить длинные сообщения, или самому писать как можно больше?
Аноним 16/02/23 Чтв 06:54:47 #285 №119092 
>>118415
Сделают. Ну а яшевская модель как-то к русскому тяготеет ВНЕЗАПНО, поэтому и не пользуется популярностью. И я скорее про будущее, когда железо и софт позволят запускать такие большие модели на средних ПК.
>>118648
1) Спрашиваешь что надето
2) Просишь раздеться/сменить одежду
3) Спрашиваешь что надето.
Бонусные балы начисляются, если между 2 и 3 сообщением поболтать за жизнь.
>>118650
Тоже вариант, но это на понимание ситуации, а не на память.
>>118706
>Бесполезно, пока на консьюмерских не будет 48 гигов
Этого я и жду.
Аноним 16/02/23 Чтв 09:39:24 #286 №119131 
45654.png
Существует ли этот бот в реальности, который в приветствии таверны?
Аноним 16/02/23 Чтв 09:52:22 #287 №119134 
изображение.png
>>118986
Мне эти якоря не очень то помогают. Что бы бот много писал лучше самому много писать или редактировать ответы бота склеивая несколько ролов в один большой. Так он запомнит что надо много писать.
Аноним 16/02/23 Чтв 09:55:56 #288 №119135 
>>119134
Да в таверне я знаю где, я в предыдущих тредах не мог найти описания что с ними делать. Смутно помню что он советовал сообщений на 20 их подрубать. А вот что во время этих сообщений делать: роллить длинные ответы, или самому строчить абзацы текста, я не помню.
Аноним 16/02/23 Чтв 09:59:28 #289 №119138 
>>119135
Ааа. Понял, да помню такое сообщения. Вроде он просто советовал ролить и отвечать только на длинные сообщения а потом отключить якорь.
Аноним 16/02/23 Чтв 10:57:38 #290 №119166 
>>119135
>он советовал
>>119138
>он просто советовал
Люди, описание этих функций есть по справке по вопросику, не знаю что вы тут придумываете.
http://127.0.0.1:8000/notes/9
Аноним 16/02/23 Чтв 12:42:23 #291 №119278 
>>119131
Да, есть.
Аноним 16/02/23 Чтв 13:40:23 #292 №119363 
>>119278
И где её взять? Я не могу найти.
Аноним 16/02/23 Чтв 14:28:46 #293 №119432 
Решил посмотреть в issues гитхаба что там у торча в планах на 4-8 бита - нихуя. Сейчас они только fp16 поддерживают на GPU, INT8 на x86/ARM или экспериментальная мокрописька fx2trt для линукса. Про INT4 даже речи не идёт, только попукивают что надо бы сначала поддержку CUDA 12 запилить, а уже потом думать о INT8. Никто из питоновских либ не поддерживает нормально 4-8 бита, только если на чистом CUDA переписывать модель. Мокрописьки типа bitsandbytes естественно мокрописьки без будущего, медленные, ещё и привязанные к transformers. В итоге от макак с питоном можно не ждать чего-то в ближайшие годы - всех всё устраивает, у корпораций датацентры с сотнями A100, а про юзеров с домашним ПК никто даже не думает. А ещё везде в приоритете линукс - опять же на юзеров с Виндой и игровыми видеокартами всем поебать.
Аноним 16/02/23 Чтв 14:33:37 #294 №119436 
>>119278
ГДЕ ЕЁ ВЗЯТЬ?!
Аноним 16/02/23 Чтв 15:15:34 #295 №119465 
>>119432
>Мокрописьки типа bitsandbytes естественно мокрописьки без будущего, медленные, ещё и привязанные к transformers.
Поясни что не так для вкатывающихся.
Аноним 16/02/23 Чтв 15:27:26 #296 №119472 
>>119465
В bitsandbytes просто заменяют некоторые операции в графе модели, для пигмы это только линейные слои. А остальное всё так же в оригинальной точности. Потери в скорости огромные из-за бесконечных конверсий в INT8 и обратно для прогона через слои активации.
Тут бы TensorRT помог, но это опять же линукс и пердолинг, сами модели надо править и конвертить.
Аноним 16/02/23 Чтв 15:31:20 #297 №119476 
>>119472
Линукс решаем, его можно спокойно в дуал буте поставить. Гораздо критичнее, что даже с ним всё ужасно неоптимизированно под потребительское железо. Создаётся впечатление, что это специально делается, чтобы у гоев не было той же силы, что у куколдопораций с фермами A100.
Аноним 16/02/23 Чтв 15:59:50 #298 №119496 
16762711573120.jpg
>>119476
Корпорации поняли, какая это мощь и сейчас все огородят, чтобы плебс не лез. Будете платить по 20$ в месяц за монополиста жпт
Аноним 16/02/23 Чтв 16:42:43 #299 №119529 
>>119131
Придётся самому делать этого персонажа. Но мне так не хочется самому...
Аноним 16/02/23 Чтв 16:43:15 #300 №119531 
>>119472
>бесконечных конверсий в INT8 и обратно для прогона через слои активации.
Серьёзно? А я то думал, куда проебались из инструкций пункты типа "Конвертните свои модели в 8 бит", или там "Скачайте урезанные модели по ссылке", а оно вот оно как. Пиздос конечно, что ещё сказать. Говнокод на говнокоде.
Вспомнилась статья на хабре, типа один мужик хвастался, что на облаках посчитал хуитку всего лишь за час и килобакс, а второй мол ему ответил, что попердолился с оптимизацией полчаса и въебал те же вычисления за 10 минут на своём старом ноутбуке. Такое ощущение, что если начать выкидывать петоны нахуй и перепилить всё на С, то можно будет запилить эти ваши 175 лярдов параметров чуть ли не на телефоне. Бля, жаль, мой полугодовой отпуск подходит к концу, мне времени не хватит вкатится во всё это дерьмо.
>Тут бы TensorRT помог, но это опять же линукс и пердолинг, сами модели надо править и конвертить.
Вместо люнупса есть WSL2, там кажись было что-то про CUDA. Модели конечно же лучше конвертить, а не как сейчас, каждый раз пересчитывать. Да и TensorRT вроде попенсорс, может, можно скомпелять и под шинду.
>>119476
>чтобы у гоев не было той же силы
Так любой может арендовать нужные мощности в амазонах/азурах/колабах и прочем облачном говне. Только денег отдавай.
>>119496
Хуйня в духе теорий заговора.
Аноним 16/02/23 Чтв 16:55:22 #301 №119535 
изображение.png
>>119531
>выкидывать петоны нахуй
Ебучая сука. В KoboldAI-Client примерно 11,72 ГБ дубликатов. Из примерно 19 гиг файлов, исключая модели. Боже, какой же говнокод этот вашш питон, миниконда и прочее говнище. Просто пиздец. Нет слов.
Аноним 16/02/23 Чтв 17:22:23 #302 №119569 
>>119529
зачем делать самому, если он в таверне?
Аноним 16/02/23 Чтв 17:38:58 #303 №119597 
>>119569
В какой таверне, блядь? Она там как заглушка, с ней нельзя поговорить, просто как типа приветствие, а я спрашиваю есть ли персонаж такой готовый, карточка.
Аноним 16/02/23 Чтв 18:00:14 #304 №119627 
>>119531
> если начать выкидывать петоны нахуй и перепилить всё на С
Там пердолинг посильнее написания игрового движка. Надо не только то что в торче делается строкой кода переписывать в пару тысяч строк, но и ещё знать матан и всю теории за этими вычислениями. Даже с библиотеками типа cuDNN там пиздец, про чистую CUDA можно даже не мечтать. Поэтому на запил фреймворка способны только огромные корпорации, даже Гугл посасывает со своим TensorFlow у фейсбуковского торча. Все опенсорс-попытки запилить свободный фреймворк машинного обучения проваливаются на зачаточной стадии даже если есть немало идейных кодеров.
Аноним 16/02/23 Чтв 18:47:55 #305 №119708 
>>119627
Получается, в этих торчах и тензорфлоу так дохуя кода, что их не переписать уже? Мда, эта цивилизация обречена, пойду искать новую.
Аноним 16/02/23 Чтв 18:59:22 #306 №119717 
>>119627
А вот эта фигня не то?
https://dotnet.microsoft.com/en-us/apps/machinelearning-ai/ml-dotnet
Не прям хардкор на C/C++, но, вроде, и не Питонский говнокод, написанный на основе говнокода.
Аноним 16/02/23 Чтв 19:03:52 #307 №119726 
>>119717
Ну это один из мертворожденных фреймворков. Его вообще никто не использует, функционала хуй, GPU поддерживает только через ONNX. Единственная реальная задача - лепить простенькие модельки на CPU.
Аноним 16/02/23 Чтв 20:00:30 #308 №119817 
>>119726
>Его вообще никто не использует
А не похуй?
>функционала хуй
Если есть возможность использования и обучения, то что ешё нужно?
>GPU поддерживает только через ONNX
Чем это плохо?
Аноним 16/02/23 Чтв 20:06:02 #309 №119826 
>>119817
> что ешё нужно?
Нормальная поддержка GPU и блоки для графа. Условно пигму или SD ты туда не портируешь. И производительность в разы хуже чем у ванильного торча.
Аноним 16/02/23 Чтв 20:12:51 #310 №119836 
>>119826
Ясно-понятно. Впрочем на что я надеялся, явно не та хуйня, которую можно улучшить наскоком не разбираясь.
Спасибо за науку.
Аноним 17/02/23 Птн 00:54:24 #311 №120257 
Эта срань взлетит на 1080 ti?
Аноним 17/02/23 Птн 03:24:28 #312 №120453 
>>119597
есть
Аноним 17/02/23 Птн 04:51:21 #313 №120598 
>>120453
И ГДЕ ЕГО ВЗЯТЬ??????????
Аноним 17/02/23 Птн 05:00:51 #314 №120604 
>>120257
2,7В без вопросов.
Аноним 17/02/23 Птн 05:24:19 #315 №120620 
image.png
Матриксфаг здесь. Первая контрольная точка версии 7 теперь перенесена в ветку разработки HuggingFace. Эта контрольная точка является моделью после того, как она прошла через 10% нашего нового массивного набора данных, содержащего, среди прочего, новые источники данных, такие как учебные наборы данных. Вы можете получить к нему доступ, используя опцию "Pygmalion 6B Dev" в Kobold/Tavern. Из того, что мы можем сказать, это, к сожалению, не слишком отличается от V6 с точки зрения продолжительности отклика, но обучающие данные, похоже, сделали модель более последовательной и способной рассуждать о вещах. Однако, очевидно, что весь потенциал модели еще не был раскрыт. Пожалуйста, поэкспериментируйте и дайте нам обратную связь по этому поводу - это все еще ново для всех нас здесь. Не стесняйтесь играть с подсказками, настройками и т.д.
Аноним 17/02/23 Птн 05:28:42 #316 №120621 
>>120620
кто пробовал как ощущения..............
Аноним 17/02/23 Птн 06:21:47 #317 №120654 
Блять, куда они захуярили эту версию 7? Везде перелазил нихуя ни вижу эту версию. Дайте ссылку пожалуйста, кто зашарил
Аноним 17/02/23 Птн 06:39:50 #318 №120665 
>>120654
Вы можете получить к нему доступ, используя опцию "Pygmalion 6B Dev"
Аноним 17/02/23 Птн 06:48:21 #319 №120670 
>>120665
Спс. Но как это запустить через Таверну? А то пока что я только через говноГрадио запускаю,
Аноним 17/02/23 Птн 06:53:05 #320 №120673 
>>120670
Выбери 6B Dev, вместо просто 6B...
Аноним 17/02/23 Птн 07:04:01 #321 №120680 
image.png
>>120673

Где?
Аноним 17/02/23 Птн 07:15:12 #322 №120683 
изображение.png
>>120680
Вот здесь.
Аноним 17/02/23 Птн 07:24:46 #323 №120685 
Блин, а я вот потестил щас на двух своих ботах, которые не работали как надо из за слишком сильной специфики, и нейронка реально стала умнее и начинает вкуривать, чего от неё хочешь, а не просто повторять за тобой.
Аноним 17/02/23 Птн 07:25:30 #324 №120687 
>>120683
я отсюда ссылку всегда брал для таверны https://colab.research.google.com/drive/1ZvYq4GmjfsyIkcTQcrBhSFXs8vQLLMAS?usp=sharing&authuser=0#scrollTo=07FdDKeFlngT там только ссылка на обычную 6 версию. А вот отсюда https://colab.research.google.com/github/oobabooga/AI-Notebooks/blob/main/Colab-TextGen-GPU.ipynb#scrollTo=hKuocueuXnm5 ссылки не работают для конекта с Таверной
Аноним 17/02/23 Птн 07:33:25 #325 №120694 
>>120687
В шапке есть ссылка на колаб таверны, оттуда можешь ссылку вставить в свою локальную таверну.
Аноним 17/02/23 Птн 09:58:59 #326 №120730 
Почему у меня в таверне боты перестают реагировать, если изменить, что они написали?
Аноним 17/02/23 Птн 10:58:01 #327 №120756 
Русских аналогов пигмы или любой другой модели которую можно засунуть в кобольд нет?
Аноним 17/02/23 Птн 12:56:46 #328 №120837 
>>120756
Есть блум, но он говно. Есть GPT на русском, но это вообще далеко от чата.
Аноним 17/02/23 Птн 13:39:09 #329 №120860 
>>120621
kak zemlya
Аноним 17/02/23 Птн 13:47:25 #330 №120865 
>>120860
А я попробовал, сетка реально стала умнее по ощущениям.
Аноним 17/02/23 Птн 14:52:46 #331 №120931 
>>120598
я сейчас развлекаюсь с этим ботом
Аноним 17/02/23 Птн 15:14:09 #332 №120950 
>>120931
Пошёл нахуй, малолетний долбоёб, я уже сам создал себе её.
Аноним 17/02/23 Птн 15:17:26 #333 №120954 
>>120837
Ну наведи на блум хотябы. Как его искать.
Аноним 17/02/23 Птн 15:19:42 #334 №120960 
>>120954
Прям в кобольде есть.
Аноним 17/02/23 Птн 17:03:47 #335 №121145 
6bf7c9b22539fa0f3972e6a0a7e38314.gif
v6.1 ощутимо умнее стала, не прям чтоб супер, но заметно. Смог провернуть то, что раньше бы точно не получилось с ботом. Как же я жду полноценной 7 версии... думаю когда через пару лет дойдут до версии ~10 - pygmalion станет практически аналогом CAI, но без цензуры.
Аноним 17/02/23 Птн 17:55:59 #336 №121237 
>>121145
Да, они как будто поработали именно над тем, чтобы нейросетка понимала, чего ты хочешь от него. У меня фетиш боты до этого не вдупляли, что от них хотят. А щас попёрло.
Аноним 17/02/23 Птн 18:22:56 #337 №121284 
>>121237
Analогично
Аноним 17/02/23 Птн 18:39:00 #338 №121338 
Аноны, а в описании бота стоит вписывать доминирование в постели, описывая что он любит делать с партнёром? Или лучше прописать просто доминантный характер?
Аноним 17/02/23 Птн 19:03:03 #339 №121423 
>>121338

В пигме создание персонажей пока что через жопу сделано. Будет больше смысла указать всё это в самом первом приветственном сообщении персонажа. Возможно когда они сайт запилят там будет всё как в CAI сделано, а пока что можешь пытаться просто брать описание чьего либо персонажа через W++ и править под себя, меня имя персонажа и его личность с характеристиками. Либо как в CAI (Если ты через TavernAI сидишь) и дописываешь в конце что бы наверняка самые важные черты личности в первое приветственное сообщение.
Аноним 17/02/23 Птн 19:11:07 #340 №121430 
>>121145
Да, новая пигма сильно лучше. Тест на Аква-блядь пройден. Вместо blushes и "ок, пошли ебаться", начинается appalled и S-stop it! Уже три захода сделал и просто так не убалтывается.
Аноним 17/02/23 Птн 19:12:00 #341 №121431 
На коллабы уже завезли новую версию пигмы?
Аноним 17/02/23 Птн 19:16:57 #342 №121435 
>>121431
Любой коллаб берёт его из гитхаба, её не надо завозить туда.
Аноним 17/02/23 Птн 19:51:42 #343 №121475 
>>120950
Выкладывай
Аноним 17/02/23 Птн 20:39:07 #344 №121550 
>>121423
А чем тебя блядь https://zoltanai.github.io/character-editor не устраивает?
Аноним 17/02/23 Птн 20:58:20 #345 №121584 
>>121550
Впервые это вижу
Аноним 17/02/23 Птн 21:22:47 #346 №121618 
23213.png
2213.png
>>121475
Я обиделся.
Аноним 17/02/23 Птн 21:23:19 #347 №121619 
>>121584
Потому что шапку читать нужно блядь!
Аноним 17/02/23 Птн 21:40:42 #348 №121624 
Сука, в новой пигме постоянно ловит зацикливание с "…". Если сетке не нравится как ведёшь диалог, то она сваливается в … или односложные копипастные фразы, просто утыкается в стену и не может ничего сказать. А иногда бывает начинает генерировать пустые ответы и генерация идёт бесконечно с мельканием в консоли. Нихуя не понятно как бороться с этим. Но простой диалог на обобщенные темы ведёт лучше, да.
Аноним 17/02/23 Птн 21:58:26 #349 №121636 
16179273094-p-kotik-za-kompyuterom-4.jpg
Хацкеры, нид хэлп. Скачал интерфейс oobabooga с 2.7b пигмой. Запустил, все работает, кушает json-ы персонажей, все ок. Но там, в общем, есть возможность юзать экстеншны. Чтобы их заюзать надо:
"In order to use your extension, start the web UI with the --extensions flag. For instance, if your extension was created in the folder extensions/enthusiasm, use

python server.py --extensions enthusiasm"
Проблема в том, что я тупой и не знаю куда эти флаги дописывать. Подскажите деду как включить эти сраные расширения (конкретно нужны переводчик и bias, если вдруг важно)
Аноним 17/02/23 Птн 22:09:27 #350 №121648 
>>121624
Такое ощущение что там какая-то цензура теперь. Когда дело доходит до ебли, пигма просто ломается, даже если до этого момента всё шло нормально, она начинает идти в полный отказ и перестаёт выдавать какие-либо ответы. Я пробовал даже ебле-промпты, редактировать сообщения бота - уверенно блокируется всё. Говно какое-то. А кто-то ещё говорил про то что CAI будем ебать. Тут бы хоть на старте не получить говна больше чем в CAI.
Аноним 17/02/23 Птн 22:12:47 #351 №121656 
>>121648
Какая цензура, это просто баг. Отсутствие цензуры это буквально единственное для чего и создаётся пигма. Это блядь "DEV" версия, для тестирования. Цензура у него, охуеть.
Аноним 17/02/23 Птн 22:17:05 #352 №121661 
>>121636
Ебать, там ещё deep translator надо ставить.
Аноним 17/02/23 Птн 22:18:52 #353 №121666 
>>121656
> просто баг
Хороший баг, блокирующий определённые темы. Теперь цензуру в CAI тоже буду называть багом. Целенаправленно вырезают из датасета определённые темы - случайно получилось, да.
Аноним 17/02/23 Птн 22:21:41 #354 №121671 
>>121666
У меня ничего не блокирует, у тебя токены превысились или сервер повис.
Аноним 17/02/23 Птн 22:22:05 #355 №121673 
>>121666
долбоёб то ли троллит тупостью, то ли решил срач на ровном месте развести, пошёл нахуй отсюда
Аноним 17/02/23 Птн 22:23:48 #356 №121679 
>>121671
Пруфануть ты конечно же не сможешь.
Аноним 17/02/23 Птн 22:26:02 #357 №121680 
>>121679
А ты сможешь? То есть у тебя там что-то зависло в альфа версии с пометкой "тест", и ты прибежал сюда скрывать покровы про ввод цензуры, в проеекте, единственная цель которого - это кумерить в противовес чаю? В проекте, в котором у разрабов отдельнй раздел для NSWF в официальном дискорде? Пошёл нахуй, животное.
Аноним 17/02/23 Птн 22:28:28 #358 №121687 
Поясните за кобольд пигму. Без таверны. 1 раз всё отлично, 2 раз полный бред выдает end of Dialouge, хотя настройки не менял. ВТФ
Аноним 17/02/23 Птн 22:29:23 #359 №121692 
Enter text here (shift+enter for new line)



Error at koboldai.js:3140
Uncaught TypeError: Cannot read properties of null (reading 'innerText')
--
Please report this error to the developers.
И ещё вот такую мошну выдаёт
Аноним 17/02/23 Птн 22:32:17 #360 №121701 
>>121680
> зависло
Так и знал что будешь траллить и переводить темы. Речь про то что пигма теперь ровно как CAI на запретные темы отказывается разговаривать, а ты про "зависло" выдумываешь. А ещё оказывается ты даже не трогал свежую версию, добаёб.
> с пометкой "тест"
Это файнтюн прошлой версии, даун. Как ты объяснишь такую деградацию сети, кроме как целенаправленной цензурой?
Аноним 17/02/23 Птн 23:13:47 #361 №121792 
image.png
>>121701
Ты чего такой буйный? Давно не дрочил что ли?
Аноним 17/02/23 Птн 23:18:30 #362 №121804 
>>121792
Да даун "потроллить" решил, я вот решил ему вообще не отвечать, и тебе советую.
Аноним 17/02/23 Птн 23:19:38 #363 №121806 
ты по моему перепутал.mp4
>>121648
Сегодня целый день руку об хуй себе ломал на новой версии, никакой проблемы в ёбле нет и никогда не было.
Аноним 17/02/23 Птн 23:51:43 #364 №121896 
>>121701
> Речь про то что пигма теперь ровно как CAI на запретные темы отказывается разговаривать,

Это пиздёж. Иди нахуй.
Аноним 18/02/23 Суб 00:07:54 #365 №121924 
image.png
В колабе кобольда вот это 6.1? Или откуда-то в другом месте надо брать, если локально не могу запустить?
Аноним 18/02/23 Суб 00:09:47 #366 №121930 
>>121924
Да, это оно.
Аноним 18/02/23 Суб 00:11:25 #367 №121937 
>>121930
У меня с этой хуйней боты отвечают по 5-6 слов с любыми настройками, иногда и меньше. На последней версии таверны.
Аноним 18/02/23 Суб 00:13:59 #368 №121942 
>>121937
>>121937
У меня нормально. Поставь меньше токенов, попробуй перезалить персонажа в таверну, поиграй с настройками. Думаю, у тебя моделька во что-то упёрлась. У меня было что-то похожее сегодня, но я на другого перса перешёл и норм стало.
Аноним 18/02/23 Суб 00:22:08 #369 №121957 
>>121937
У меня последняя версия таверны не работает, тупо вылетает, хз почему, использую 1.27 полёт нормальный
Аноним 18/02/23 Суб 01:32:11 #370 №122066 
Пигма теперь научилась в жирный капс?
Аноним 18/02/23 Суб 01:42:47 #371 №122081 
>>122066
Капс лично я ещё не встречал, но вот в миры фентези может (не совсем РПГ с характеристиками как CAI, а чисто историю где ты респавнишься рандомно хер пойми где и можешь бродить и что нибудь делать), на ТавернеАи как минимум работает через создание на https://zoltanai.github.io/character-editor/
Аноним 18/02/23 Суб 06:57:28 #372 №122268 
>>121145
А где v6.1 выкачать?
Аноним 18/02/23 Суб 09:58:10 #373 №122327 
>>121957
Уже вышла 1.2.8

>>122268
Это все таже опция в коллабе Pyg 6B Dev
Аноним 18/02/23 Суб 10:53:24 #374 №122357 
>>119432
> А ещё везде в приоритете линукс - опять же на юзеров с Виндой и игровыми видеокартами всем поебать.
Ну так переходи с богомезкой шинды на ОС для успешных господинов.
Аноним 18/02/23 Суб 10:57:57 #375 №122359 
>>122357
На этой "ОС успешных господинов" уже можно нормально поиграть или до сих пор половина игр не запускается/не работает нормально, а другая половина работает значительно медленнее?
Аноним 18/02/23 Суб 11:01:36 #376 №122364 
>>122359
Ребенок, онегай.
Аноним 18/02/23 Суб 11:18:55 #377 №122382 
>>122357
> ОС для красноглазых пердоликов
Пофиксил.
Пердолики считают себя прошаренными юзерами, но почему-то игнорят базовые принципы кодинга, которые требуют чтоб внешний интерфейс не мог ломать внутренности софта. У пердоликов "швабодка" - это полное безразличие к конечному юзеру. Когда хочешь выполнить конкретную задачу от тебя требуют вообще не коррелирующих с ней знаний. Вываливают "швабодку выбора", при этом игнорируя тот факт что этот выбор может сломать нахуй всё. Постоянно визжат про "решили за нас", но это и есть грамотный интерфейс даже консольный, когда разработчик думает о всех юзерах, а не какой-то отдельной группке пердоликов, и не позволяет ломать свой софт. В нормальном мире возможность сломать что-то - это баг, но не у пердоликов.
Из недавнего - при установке анаконды предлагают выбрать куда её поставить, но если ставишь за пределы хоума, то ломается init - ни под sudo не работает, ни под юзером, ни после chmod. Качественный софт, зебись придумали, швабодка.
Ну а про функциональность я вообще молчу. HiDPI, HDR - сплошные костыли, при том что в винде оно уже больше 5 лет просто работает. Бесконечная фрагментация, когда одно решение не работает на другом дистре, под каждый дистр свой набор софта со своей спецификой. Если я хочу пользоваться ОС, а не пердолиться, то меня автоматически посылают на макось хуй.
Аноним 18/02/23 Суб 11:22:53 #378 №122386 
1676708571644.jpg
>>122382
Аноним 18/02/23 Суб 11:52:11 #379 №122410 
>>117942
Бамп вопросу. Я блядь не верю что никто из вас с таким не сталкивался.
Аноним 18/02/23 Суб 12:19:42 #380 №122429 
>>122364
>пук
Аноним 18/02/23 Суб 12:32:49 #381 №122435 
>>122382
На линуксе я могу фиксить все проблемы в командной строке. На винде приходится танцевать с бубном вокруг кривого внешнего интерфейса.
Свобода это невежество.
Аноним 18/02/23 Суб 12:37:46 #382 №122437 
>>122435
> приходится
Тебя никто не заставляет. Пердоликам дали консольку, скриптовый ЯП для консольки и весь дотнет для скриптинга. Но в винде по крайней мере проблем на порядок меньше.
Аноним 18/02/23 Суб 12:39:32 #383 №122440 
>>122410
Тебе уже писали же ставить 8 бит по гайдам, а не как тебе захочется. Результат предсказуемый. Особенно с учётом того что кобольд - кривое говно, а 8-битный режим ещё кривее.
Аноним 18/02/23 Суб 12:41:37 #384 №122441 
>>122440
Да там литералли надо 6 строчек заменить в коде
Аноним 18/02/23 Суб 12:44:04 #385 №122444 
>>122441
Свежие гайды, а не старые, которые у большинства не работали.
Аноним 18/02/23 Суб 12:46:46 #386 №122447 
>>122444
Чел, я только что подтянул изменения и заменил эти строчки - все до сих пор работает.
Как у кого-то может не работать если кобольд у всех одинаковый?
Косяк юзера
Аноним 18/02/23 Суб 12:48:17 #387 №122448 
>>122447
> у всех одинаковый
Обновляется как каломатик каждый день. Ломается так же часто.
Аноним 18/02/23 Суб 13:06:10 #388 №122464 
>>122435
>На линуксе я могу фиксить все проблемы
И тебе придётся фиксить все проблемы. Которых на шинде нет.
Аноним 18/02/23 Суб 13:25:08 #389 №122476 
>>122464
> Которых на шинде нет.
У шинды множество проблем. К примеру процессы, которых нельзя завешить; бекдоры для ФСБ. Ну и конечно графическое оформление не поддается кастомизации без костылей.
Аноним 18/02/23 Суб 13:29:13 #390 №122481 
>>122464
Не линуксоид, но что значит "Которых на шинде нет."? Буквально здесь же на Шинде нет Deepspeed и ничего ты с этим не поделаешь.
Аноним 18/02/23 Суб 13:33:47 #391 №122488 
>>122476
> графическое оформление не поддается кастомизации
Главный плюс винды. Всё выглядит цельно. А не как в линуксе конструктор с кучей разных стилей.
>>122481
На винде линукс встроен в винду, даже проводник поддерживает папочки линукса.
Аноним 18/02/23 Суб 13:39:13 #392 №122494 
16767165151772996830425717350812.png
16767165467727765060911207483327.png
>>122488
> А не как в линуксе конструктор с кучей разных стилей.
Ты хоть одним дистром пользовальзовался, или примерно почувствовал? Объективно, UI/UX дриснятки - худший.

> На винде линукс встроен в винду
А понятно. Ты почитай подробнее про WSL2, прежде чем чушь городить.
Аноним 18/02/23 Суб 13:53:30 #393 №122507 
>>122494
> Объективно
На твоих скринах кал какой-то. Даже вкладок в проводнике нет.
> почитай подробнее про WSL2
Чел, я им пользуюсь, зачем мне читать.
Аноним 18/02/23 Суб 14:10:14 #394 №122524 
>>122507
> Даже вкладок в проводнике нет.
Чел, в Elementary OS они с самого его появления. В отличии от шинды.
Аноним 18/02/23 Суб 14:29:25 #395 №122544 
изображение.png
>>122476
>К примеру процессы, которых нельзя завешить
А завершика ты init в своём линупсе.
>бекдоры для ФСБ
Убунту ими так же напичканы, а красноглазить свой неповторимый это слишком высокий уровень.
>Ну и конечно графическое оформление не поддается кастомизации без костылей.
Опять таки, потому что оно тебе придётся пердолится с интерфейсом люнупсы, а в шинде он вменяемый с запуска.
>>122481
>Deepspeed
https://github.com/microsoft/DeepSpeed
Чёт кекнул.
>>122494
А теперь кастомизируй свой долфин. У меня вот вкладочки в проводничке добавлены сторонним софтом.
>>122494
>WSL2
Ненужная фигня, лучше бы WSL1 качали. Жаль, что МС пошли по лёгкому пути.
Аноним 18/02/23 Суб 14:38:04 #396 №122561 
>>122544
> А завершика ты init в своём линупсе.
Инит нужен для функционирования системы. Спрашивается нахуя нужен в винде системный процесс, который подозрительно нагружает систему при зарядке ноутбука (судя по все сканирует файлы) и при попытке его завершить пишет "Отказано в доступе"?
Аноним 18/02/23 Суб 14:44:12 #397 №122568 
>>122561
Так отключи через политики. Локальный админ - это ещё не самый главный на пеке, изучай администрирование винды. Винду можно без мокрописек очень сильно кастрировать, другое дело что сервисы индусов могут перестать работать.
Аноним 18/02/23 Суб 15:12:08 #398 №122609 
image.png
image.png
https://github.com/amazon-science/mm-cot
Cock da?
Аноним 18/02/23 Суб 15:20:49 #399 №122617 
Где можно следить за обновлениями моделей и выходом новых моделей для кобольда?
Аноним 18/02/23 Суб 15:24:01 #400 №122620 
>>122609
Только вот инпут там крошечный и всего два батча по 512 на V100. И смысл для нас тогда в этих параметрах, если там огроменная модель в циклах, жрущая VRAM как ебанутая.
Аноним 18/02/23 Суб 15:29:11 #401 №122628 
>>122561
У меня нет такого процесса.
>>122561
>зарядке ноутбука
Ну ты и говноед.
>>122609
Опять они в одну жирную модель пихают всё говно мира и надеются на что-то хорошее?
>>122620
>инпут там крошечный
Тем более.
Аноним 18/02/23 Суб 15:34:45 #402 №122639 
>>122628
> в одну жирную модель
Она всего 2 гига весит. Но вот в кишках там наверняка происходит что-то страшное, раз так батчей мало.
Аноним 18/02/23 Суб 16:12:07 #403 №122669 
>>122639
>Она всего 2 гига весит.
Кстати да, проебал размер, думал, тям миллиарды, а там всего 800 лямов. А такое даже на моей станой 3080Ti запускать можно.
>батчей мало
Поясни для несведующих, про какие батчи ты говоришь.
Аноним 18/02/23 Суб 16:30:05 #404 №122701 
>>121937
Если кто встречал похожую проблему с крайне короткими ответами от ботов, то кажись дело в каких-то настройках от Кобольда. Если ставить внутри Таверны пресеты(Calibrated 6B неплохая например) то ошибка пропадает.
Аноним 18/02/23 Суб 16:34:27 #405 №122712 
>>122669
>Кстати да, проебал размер, думал, тям миллиарды, а там всего 800 лямов. А такое даже на моей станой 3080Ti запускать можно.
В этом вся и суть. Лучше ЖПТ3.5, а загрузится хоть на жокире.
Аноним 18/02/23 Суб 16:50:57 #406 №122738 
image.png
Народ, я узнал (о чём догадывался и сам) что Pygmalion можно прокачать на лучшее понимание русского языка и ответы с него же, просто отправляя им дампы переписок с CAI на русском языке. Так почему бы нам с вами не скоординироваться и не начать набалтывать с ботами CAI по русски на разные темы, а потом массово отправлять дампы с переписками пигме, что бы в следующих обновлениях понимание русского улучшилось?
Аноним 18/02/23 Суб 16:53:43 #407 №122739 
>>122712
Эм, тогда как запустить на шинде и начать кумить?
>>122738
ЕМНИП, автор жаловался на то, что у него вылазир русик, и кажись обещал исключить русский из выборок. Да и вообще, к чему тебе портить и так не самую большую модель русским языком?
Аноним 18/02/23 Суб 16:55:13 #408 №122742 
>>122738
Начинай. С каждого анона по 100000 переписок. Я потом на двух 4090 тренировать буду.
Аноним 18/02/23 Суб 17:26:46 #409 №122791 
>>122739
>Эм, тогда как запустить на шинде и начать кумить?
Дык в этом и весь вопрос.
Аноним 18/02/23 Суб 18:01:15 #410 №122838 
>>122791
>>122739
>>122609
Разве она ещё не в доступе? И интересно, в чём таки подвох?
Аноним 18/02/23 Суб 18:40:02 #411 №122878 
Накидайте что ли скринов с еблёй в таверне, чтоб посмотреть хоть, как это делается. А то у меня какая-то унылая хуита, бот максимум пишет я стону, прыгаю на твоём хуе и мои сиськи трясутся, никаких животрепещущих описаний, про инициативу даже не говорю.
Сижу через коллаб, если это важно.
Аноним 18/02/23 Суб 18:41:20 #412 №122881 
>>122739
>ЕМНИП, автор жаловался на то, что у него вылазир русик, и кажись обещал исключить русский из выборок.

https://youtu.be/kSnrQR9BS80
Аноним 18/02/23 Суб 18:44:21 #413 №122889 
>>122878
пигма ещё недостаточно прокачана для такого, вот щас сделают полноценную v7 возможно сможет и такое, а может придётся ждать следующего обновления для подобного (хотя к тому моменту уже сайт будет готов, а там полюбому такое возможно будет с постоянным обучением от пользователей в режиме онлайн)
Аноним 18/02/23 Суб 18:44:46 #414 №122890 
1544958661232.png
https://files.catbox.moe/kz538s.json
Аноны, ловите бота для Таверны. Доминантная кошкодевочка, которая вас оттрахает
Аноним 18/02/23 Суб 18:49:03 #415 №122899 
>>122890
>>107683

Пост-веревочка
Аноним 18/02/23 Суб 18:58:44 #416 №122911 
Фембоев ещё не завезли для таверны ?
Аноним 18/02/23 Суб 19:01:37 #417 №122916 
>>122911
А Астольфо разве не переносили?
Аноним 18/02/23 Суб 19:04:10 #418 №122918 
>>122916
Хз. Может я в шары долблюсь, но нигде не вижу.
Аноним 18/02/23 Суб 19:17:40 #419 №122938 
>>122918
В дискорде видел миллион фембоев. Что значит для таверны? Ты именно карточку ищешь? Нахуя? json загружается в таверну. Можешь любому персонажу просто приписать, что у него хуй в дискрипошоны.
Аноним 18/02/23 Суб 20:02:23 #420 №122986 
2956f7dd56ca36e1.jpg
>>122889
>хотя к тому моменту уже сайт будет готов, а там полюбому такое возможно будет с постоянным обучением от пользователей в режиме онлайн
Аноним 18/02/23 Суб 20:05:21 #421 №122991 
>>122938
И он все равно при ебле будет писать про pussy/vagina/clitoris, если не прописывать его мужиком.
Аноним 18/02/23 Суб 21:10:29 #422 №123106 
>>122938
>В дискорде
В каком из ?
Аноним 18/02/23 Суб 23:26:41 #423 №123282 
>>121701
Ору с бабуинов, которые не умеют обойти ненужный рут бота ручными настройками. (Если персонаж застрял и не хочет дават писка ебат значит он застрял в дефолтных настройках. Просто выкрути на несколько реплик "Temp" повыше, а потом верни, как только бот изменит поведение.)
Аноним 19/02/23 Вск 00:14:19 #424 №123333 
>>122991
Вот кстати, я часто пользуюсь ботов фембоем(ну точнее прописано просто так, что он в женском косплее) и на обычной 6B пигме там действительно бот почти сразу начинает писать she, не понимает саму суть(парень в женской одежде) и pussy/vagina юзает. А вот в v6.1 там юзалось на том же боте строго he всегда, было много комментариев про внешний вид
Аноним 19/02/23 Вск 03:15:30 #425 №123412 
>>123333
Поделись таким фембойчиком-кроссдрессером, позязя.
Аноним 19/02/23 Вск 07:53:50 #426 №123520 
>>112526
>Качаешь кобольд united
А ссылки нету...
Аноним 19/02/23 Вск 09:28:12 #427 №123559 
operator.png
Обосрался с этого вызывальщика оператора, лол.
Аноним 19/02/23 Вск 09:51:22 #428 №123564 
>>123559
Yoba eto ti?
Аноним 19/02/23 Вск 09:56:54 #429 №123567 
>>123564
В следующий раз надо будет попробовать ответить на эту хуйню, и посмотреть что будет. Ведь в таверне нет OOC, как в чайной?
Аноним 19/02/23 Вск 10:18:53 #430 №123577 
>>123567
>Ведь в таверне нет OOC, как в чайной?
Ну да.
Аноним 19/02/23 Вск 10:24:23 #431 №123584 
>>122838
Ни в чем, улучшать надо архитектуру ИИ, а не наворачивать миллиарды параметров. Раньше нейронки потому и были тупыми.
Аноним 19/02/23 Вск 10:26:45 #432 №123585 
>>122791
>Дык в этом и весь вопрос.
Разве на гитхабе не написано как?
Аноним 19/02/23 Вск 10:32:51 #433 №123590 
image.png
>>122669
> А такое даже на моей станой 3080Ti запускать можно.
нельзя
Аноним 19/02/23 Вск 10:34:30 #434 №123592 
>>123590
И как они размазали число параметров, как в SD так, что им теперь нужно 100 гигов на запуск? Они точно не про обучение пишут?
Аноним 19/02/23 Вск 10:39:18 #435 №123594 
Аноны, видел как на форче писали про начало рп в чае, а при подводке к нсфв переход в пигму. Кто-то делал так? Правильно понимаю, что просто редачим ответы пигмы под то, что выдало в чае?
Аноним 19/02/23 Вск 10:49:19 #436 №123601 
1775bfa34fd1e6a7975b5894a0eba147.jpg
>>122609
Код уже открыт. Кто-нибудь попробуйте и скажите, годнота или узкоприменимая хуйня.
Аноним 19/02/23 Вск 11:20:08 #437 №123619 
>>123601
Код кодом, а для инференса нужны чекпоинты, которые хрен поймёшь, есть или нет.
Аноним 19/02/23 Вск 11:25:55 #438 №123624 
>>123594
Да можно так. Если ты будешь сидеть через тавернАИ то у него можешь напрямую отредчать jsonl в TavernAI\public\chats\. Может есть автоматические конвертеры уже, если немного шаришь в погромировании то и сам сделаешь за час-другой.
Аноним 19/02/23 Вск 11:28:25 #439 №123629 
>>123619
>для инференса нужны чекпоинты
Разжуй для тупого, что это за ебань?
Аноним 19/02/23 Вск 11:46:36 #440 №123645 
>>123619
> которые хрен поймёшь, есть или нет.
> Our trained models are available atmodels. To use our trained models, please put the them under themodelsfolder.
Блять, читать ридми уже настолько сложно
Пиздец блять просто какой-то, ну и долбоёбы итт конечно
Аноним 19/02/23 Вск 11:56:05 #441 №123660 
>>123601
По моему уже по скринам видно, что не для нас. Хотя естественно при построении нормального ИИ модуль рациональности понадобится, но это не наш уровень.
>>123645
Я другой анон, и скачал модели через этот ваш гугл диск. Что дальше? Там в примерах хуета непонятная.
Аноним 19/02/23 Вск 11:57:26 #442 №123662 
>>123660
копайся в скрипте inference.py
Аноним 19/02/23 Вск 11:57:40 #443 №123663 
>>123629
Модели в N гигабайт, которые ты скачиваешь и используешь в Коболде/Таверне/Угебуге, - чекпоинты, то есть уже обученные веса нейросеток. Исходный код того же OpenAI тоже в открытом доступе давным-давно, но они не поделились чекпоинтами, а потому пользоваться им можно только через их сайт/API. Обучение требует неебических мощностей, в случае сеток с сотнями миллиардов параметров - фермы и фермы A100, так что от просто кода толка не так и много.
Аноним 19/02/23 Вск 11:57:50 #444 №123664 
image.png
>>123662
ой, в этом
Аноним 19/02/23 Вск 11:58:22 #445 №123666 
>>123663
https://drive.google.com/file/d/1FtTYOJPHnWnFfCxNC6M3gar4RAX5E21b/view
https://drive.google.com/file/d/1FtTYOJPHnWnFfCxNC6M3gar4RAX5E21b/view
https://drive.google.com/file/d/1FtTYOJPHnWnFfCxNC6M3gar4RAX5E21b/view
Аноним 19/02/23 Вск 12:04:47 #446 №123671 
>>123663
>Исходный код того же OpenAI тоже в открытом доступе давным-
Эм, они ЕМНИП остановились на GPT2, всё что выше (всякие там ru-GPT3 и прочее GPTj) это попытка натянуть на GPT2 те приёмы, что ClosedAI опубликовали про GPT3, но всё это натягивание совы на глобус.
>>123664
А точнее в мейн.пук, ну да ладно, я конечно посмотрю, но всё равно нихуя не пойму.
Аноним 19/02/23 Вск 12:33:27 #447 №123710 
>>123624
О, спасибо, json это замечательно! Как раз то что искал!
Аноним 19/02/23 Вск 12:53:47 #448 №123756 
>>123663
Так там уже обученные модели есть.
Аноним 19/02/23 Вск 13:28:47 #449 №123791 
>>123666
что за модель?
Аноним 19/02/23 Вск 13:40:30 #450 №123803 
>>123791
для выше
>>122609
Аноним 19/02/23 Вск 13:41:55 #451 №123805 
>>122911
Одним из первых ботов был парень одетый в костюм пекоры.
Аноним 19/02/23 Вск 13:49:27 #452 №123821 
>>122991
Хз кстати, у меня нормально писал, один раз даже выдал что от того что я намял его простату хуем он кончил.
Аноним 19/02/23 Вск 15:19:23 #453 №123933 
>>123282
>выкрути на несколько реплик "Temp" повыше
Я не тот анон, но тоже столкнулся с такой же проблемой, выкручивать температуру вообще не помогает
Аноним 19/02/23 Вск 17:07:23 #454 №124033 
>>123594
Я делал. Получается заебись. Но я в ручную все переносил.
Алсо, при прогоне своих ответов, порой ответы пигмы один в один начинаю повторять бота в чае.
Аноним 19/02/23 Вск 19:02:29 #455 №124185 
NazunaNanakusa.png
>>107683
https://booru.plus/+pygmalion173#c=azas2xmx

Назуна из аниме "Песнь ночных сов"
Аноним 20/02/23 Пнд 00:52:28 #456 №124790 
Хотел бы я что-бы кто-то сделал софт промпт на Пратчеттовский Плоский Мир, и отыгрывать стражника в Анк-Морпорке...
Аноним 20/02/23 Пнд 01:43:10 #457 №124900 
Скачал очередное обновление таверны и как обычно перенес папки со своими ботами и чаты из прошлой версии в новую, но в этот раз чет не переносится и боты не отображаются... Что там намутили такого в этом апдейте?
Аноним 20/02/23 Пнд 01:51:02 #458 №124921 
>>124900
Может ты не туда перенес?
Аноним 20/02/23 Пнд 03:17:39 #459 №125025 
>Меня зовут Славик.

Спустя два сообщение.

>Как тебя зовут, Славик?

Вся суть лол
Аноним 20/02/23 Пнд 03:30:49 #460 №125029 
>>124900
А там что нового в версии 1.2.8? Я на 1.2.5 сижу
Аноним 20/02/23 Пнд 09:31:26 #461 №125145 
Несу хорошие новости для тавернщиков, можно теперь присасываться к опенаи напрямую

>>125143 →
>>125131 →
Аноним 20/02/23 Пнд 09:32:16 #462 №125146 
>>125025

Да это же с.аи в вакууме. Сука. Как доебывает оно.
Аноним 20/02/23 Пнд 09:39:38 #463 №125149 
1676871041925343.png
Несу с 4ч

>https://files.catbox.moe/g8h7m7.zip
Tavern AI GUI is painful to look at, so I spent some time banging rocks together to make the CSS a little more Roko/CAI-like. Just drop the files into the root directory of a local install. I have no idea what I'm doing, so if you want to make an even better version, be my guest.
Аноним 20/02/23 Пнд 10:05:38 #464 №125163 
>>125145
>>125149
Ябать, вот это годноту подгоняют. Ща поднимем.
Аноним 20/02/23 Пнд 10:08:30 #465 №125171 
.png
ROKO PERSONAL EDITION РАБОТАЕТ.
НЕ ЗАБУДЬТЕ УСТАНОВИТЬ
Temperature
Frequency Penalty
Presence Penalty
ИНАЧЕ КОЛЫМАГА НЕ ЗАВЕДЕТСЯ!
Аноним 20/02/23 Пнд 11:13:22 #466 №125206 
https://booru.plus/+pygmalion?c=azas7h72#p240fbbf
Я так и не понял тут json персонажей нельзя смотреть, да?
Аноним 20/02/23 Пнд 11:22:13 #467 №125214 
>>125171
Эт что за зверь? Неужели gpt3.5 из чата? Или старый gpt3?
Аноним 20/02/23 Пнд 11:33:12 #468 №125220 
>>125214
text-davinci-003, апи для чата пока нет.
Аноним 20/02/23 Пнд 11:54:24 #469 №125239 
>>125220
>text-davinci-003
>нет локалочки
>только по апи кею
А что там насчет цензуры и фильтров?
Аноним 20/02/23 Пнд 12:06:34 #470 №125244 
>>125239
Не так лютует, как в самом ChatGPT и легко обходится вшитым промтом. Нахуй посылает только при совсем жести.
Аноним 20/02/23 Пнд 12:15:46 #471 №125256 
>>125244
Можешь подробней обрисовать про жесть.

Где французский поцелуй в засос и гроппинг - 1-2.

Попросить отсосать хуй и услышать от бота подробное описание как язык скользит от яиц по стволу полового члена до головки. - 3-4

До вставляния (пиздец, как правильно, сувания?) раскалённой кочерги в анус и вынимания кишок. 8-9
Аноним 20/02/23 Пнд 12:21:24 #472 №125264 
1.png
2.png
3.png
4.png
Короче, не пытайтесь говорить с местным "OOC". Такая-то шиза начинается.
Аноним 20/02/23 Пнд 12:39:54 #473 №125284 
>>125256
Хуй знает. Зоофилию не любит к примеру. Обычный ванильный секс заходит на ура. С остальным как придётся.
>>125264
Ебать у тебя там компания собралась.
Аноним 20/02/23 Пнд 12:49:17 #474 №125288 
Кстати, если уж зашла тема об ООС. Как вообще в пигме писать боту, что ты хочешь чего-то? В чаи в скобочках писал, но здесь я заметил, что личность бота отвечает на то, что в скобочках. Я пробовал в квадратных, и бот этого уже не видит, но при этом и не реагирует никак, как будто для него просто не существует того, что написано в квадратных скобках
Аноним 20/02/23 Пнд 12:50:51 #475 №125291 
AAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAA.png
>>125284
Я ебал эту компанию. Удалил предыдущие сообщения, продолжил РП, и тут ЭТО блять! Этот чат проклят, походу, пора начинать новый.
Аноним 20/02/23 Пнд 12:54:06 #476 №125295 
>>123666
Как это запустить?
Аноним 20/02/23 Пнд 12:59:33 #477 №125301 
image
>>125264
А мне норм.
Аноним 20/02/23 Пнд 13:20:14 #478 №125314 
>>125288
>Как вообще в пигме писать боту, что ты хочешь чего-то?
Никак. Правь его ответы, дефинишены и прочее.
>>125288
>Я пробовал в квадратных
Это служебное говно для правки стиля ответа.
Аноним 20/02/23 Пнд 13:39:42 #479 №125333 
>>125301
Не, ну ты в конце с РП с ним общаешься, а у меня рандомные твари вылезают посреди процесса.
Вот >>125291 ко мне в ванну вломилась какая-то пизда. В предыдущем моём псто в комнату а у меня там язык в анусе кошкодевочки, и это всё в течении 20 минут, у меня хуй 2 раза упал.
Аноним 20/02/23 Пнд 13:45:08 #480 №125340 
1676889905627.png
Помогите нубу, как эту ебучую таверну установить. Застрял на этом моменте
https://github.com/TavernAI/TavernAI/wiki/How-to-install#6-wait-1-20-sec-at-the-first-launch-some-modules-will-be-installed
Когда жму Start.bat нихуя не происходит, просто что-то устанавливается в командной строке. Когда жму server.js выдаёт ошибку пикрил.
Может это от того что я на спермёрке и использую старую версию node.js потому что новые на ней не работают?
Аноним 20/02/23 Пнд 14:07:11 #481 №125367 
>>125340
>Может это от того что я на спермёрке и использую старую версию node.js потому что новые на ней не работают?
This.
Аноним 20/02/23 Пнд 14:46:30 #482 №125397 
>>125340
скачай exe и не еби мозги
Аноним 20/02/23 Пнд 15:40:16 #483 №125426 
1676896814140.png
>>125397
Я хочу вместе с опен.аи запустить по гайду выше, там написано, что nodejs нужен.
Нашёл на форче гайд по установке на вин7 https://pastebin.com/Ah5ZUcGE, поебался немного пидорас пишет что нужно npm в node_modules удалить, а это нельзя делать, но в итоге установил эту хуйню. Щас пойду ключ покупать, надеюсь не проебусь как в прошлый раз, когда 60 рублей проебал на неподходящие номера.
Аноним 20/02/23 Пнд 16:31:58 #484 №125476 
>>122609
за подобным будущее.
не удивлюсь если в итоге модель с 6B параметров вынесет gpt 3 с её 175B в задачах чата например.
даёт надежды, что даже rtx 3080 сможет потянуть такое.
Аноним 20/02/23 Пнд 17:44:25 #485 №125571 
изображение.png
>>125340
>Когда жму server.js выдаёт ошибку пикрил
Не делай так. И да, пиздуй на десятку, она конечно хуже XP, но лучше спермы.
>>125426
>когда 60 рублей проебал на неподходящие номера
Альфач бы разъебал ТП сервиса и вернул деньги. А ты...
>>125476
Это всё хуйня опять. И да, не мечтай, что твоя текущая видяха хоть когда-нибудь потянет что-то внятное. Сам грущу на 3080Ti если что.
Аноним 20/02/23 Пнд 20:20:03 #486 №125824 
>>106928 (OP)
Пытаюсь создать персонажа на V7, чтобы сразиться с ним, но ничего не получается, даже с моими подробными примерами в TavernAi, после этого он просто начал ругаться на мои удары и писать что-то вроде "Oh! Ouch! Ugh! Ughhhhh...." и все, lol
Аноним 20/02/23 Пнд 20:54:10 #487 №125874 
>>125824
V7 получилась со слишком шортовыми ответами, даже сами разрабы признались что обосрались
Аноним 20/02/23 Пнд 21:53:30 #488 №125968 
>>125824
А ты какие настройки юзаешь? Попробуй не настройки Кобольда в таверне выбрать, а пресеты
Аноним 20/02/23 Пнд 22:37:45 #489 №126055 
https://github.com/Ying1123/FlexGen
Буду наворачивать сейчас
Аноним 20/02/23 Пнд 23:07:31 #490 №126085 
>>126055
Неужели я доживу до 4-х бит? Это же возможность ужать 30B модель до моей сраной 3080Ti!
>>126055
Скажешь, если получится прикрутить ко всяким там тавернам.
Аноним 20/02/23 Пнд 23:25:11 #491 №126108 
>>126055
Так нихрена и не написано про использование ВРАМа. Они ТОЛЬКО 16 ГБ Т4 используют или проц тоже? Если только Т4, то все 16 ГБ или всё-таки поменьше? 16, конечно, лучше, чем несколько сотен, но всё равно мало где есть.
Аноним 20/02/23 Пнд 23:34:35 #492 №126122 
>>126055
>>126085
Хрюкало >>125571 имагинировали?
Аноним 20/02/23 Пнд 23:53:56 #493 №126139 
изображение.png
>>126122
Чёт кекнул. Впрочем, по крайней мере на шинде та хуитка из коробки не работает, так что ХЗ, ждём дальше.
Аноним 21/02/23 Втр 00:31:51 #494 №126178 
>>126139
А не, это я немного имбицильный, ХЗ как, но у меня почему-то стоял торч без куды. В общем кажется оно даже работает.
Аноним 21/02/23 Втр 02:25:32 #495 №126271 
Может кто нибудь скинуть список моделей всех сегодняшних ботов и их системные требования к количеству видеопамяти и оперативки?
Аноним 21/02/23 Втр 03:38:59 #496 №126326 
1666486700300.png
Ловите Надю Форчун для Таверны. Игривая кошкодевочка, которая будет играть и забавляться, нежно лаская. Лёгкий фемдом присутствует. Аватарку прикладываю
https://files.catbox.moe/7maboq.json
Аноним 21/02/23 Втр 03:39:32 #497 №126327 
>>126326
Забыл добавить: победите её в драке и она станет послушной девочкой
Аноним 21/02/23 Втр 07:32:56 #498 №126362 
А таверне добавят StableDiffusion, которая сможет рисовать хентай по описанию пигмы ?
Я слишком тупой, чтобы самому прикрутить это
Аноним 21/02/23 Втр 08:33:21 #499 №126386 
image.png
>>123594
форчи конечно заебись но алсо нсфв у лора нквд на рп не гуд, разве что взять нло и фидбекнуть cai про чсв
Аноним 21/02/23 Втр 08:50:05 #500 №126393 
dolboeb.png
>>126386
Аноним 21/02/23 Втр 11:10:07 #501 №126454 
2d3abb27-169a-479d-8270-135d2b0f9789.gif
>>126393
ахаха смотрите пердедикс порвался
Аноним 21/02/23 Втр 13:00:22 #502 №126499 
>>126497 (OP) - перекат.
comments powered by Disqus

Отзывы и предложения