Сохранен 507
https://2ch.hk/ai/res/159516.html
24 декабря Архивач восстановлен после серьёзной аварии. К сожалению, значительная часть сохранённых изображений и видео была потеряна. Подробности случившегося. Мы призываем всех неравнодушных помочь нам с восстановлением утраченного контента!

PygmalionAI тред №6 /pai/

 Аноним 16/03/23 Чтв 21:30:13 #1 №159516 
16769735155290.jpg
PygmalionAI тред №6
Пишем промпты, стараемся адаптировать их под количество токенов, обсуждаем, какой стиль лучше, ждём софтпромптов.
https://huggingface.co/PygmalionAI
Что такое PygmalionAI?
PygmalionAI - локально запускаемая нейросеть с открытым исходным кодом, которая специализированна под чатботы. Её сделали выходцы из 4chan (/vt) → (/g). Их мотивация, создать нейросеть, которая свободна от цензуры, в отличии от CharacterAI.
Основа для 6B модели - это GPT-J, которую дотренировали датасетом из собранных дампов с CharacterAI. Отличие от CharacterAI в том, что здесь нет цензуры, а также именно вы храните историю чатов, а не компания. Хоть и модель нейросети в CharacterAI может быть более умной, но фильтр делает её менее креативной, а также удаляет наиболее вариативные ответы. Однако, память в PygmalionAI намного хуже, чем в CharacterAI, из-за применяемого токенайзера GPT-2, контекст которого ограничивается 2048 токенами.
Отличие обычной версии от экспериментальной в том, что в экспериментальной разработчики вводят самые новые нововведения. Также было замечено, что экспериментальная версия пишет меньший объём текста в одном сообщении, чем в обычной.
Для запуска 6B версии необходимо 16 ГБ видеопамяти и 12 ГБ оперативной памяти, однако если запустить с 8-битной точностью, то требования снизятся примерно вдвое, только необходимо иметь видеокарту Nvidia модельного ряда Turing и Ampere.
Можно писать боту на русском языке, но это выйдет хуже, чем на CharacterAI.
Нативный PygmalionAI Colab: https://colab.research.google.com/github/PygmalionAI/gradio-ui/blob/master/notebooks/GPU.ipynb

GUI для PygmalionAI:
1.Text generation web UI - попытка сделать что-то похожее на интерфейс для Stable Diffusion от AUTOMATIC1111, только для генерации текста. Поддерживает режим загрузки с 8-битной точностью, также возможно создать свой пресет настроек в текстовом файле или изменить прямо в интерфейсе, также возможно запустить в схожем с CAI интерфейсе. В Колабе выбираем Pygmalion 6B-original-sharded. Поддерживает скрипты на Python, а также умеет работать с карточками из TavernAI. Есть возможность изменить сообщение персонажа, как в TavernAI или в KoboldAI. Также поддерживает софтпромты.
https://github.com/oobabooga/text-generation-webui
Colab: https://colab.research.google.com/github/oobabooga/AI-Notebooks/blob/main/Colab-TextGen-GPU.ipynb
Также автор данного интерфейса рекомендует использовать PygmalionAI 6B с самым первым коммитом: https://huggingface.co/PygmalionAI/pygmalion-6b/tree/b8344bb4eb76a437797ad3b19420a13922aaabe1

2.TavernAI - фронтэнд над KoboldAI. Позволяет нативно конвертировать файлы с историей чатов (дампы) из Character AI, однако из-за того, что все истории общения с персонажами хранятся в одном файле, а не в разных, TavernAI будет воспринимать только последний чат с ботом в CAI. Позволяет редактировать сообщение персонажа сразу, как в KoboldAI.
https://github.com/TavernAI/TavernAI
Colab: https://colab.research.google.com/github/TavernAI/TavernAI/blob/main/colab/GPU.ipynb

3.KoboldAI - самый известный интерфейс, который пришёл со времён AI Dungeon. У KoboldAI более другой формат, который сохраняет персонажей и чат в один файл, нежели у Textgen Webui и TavernAI. В Колабе выбираем PygmalionAI. При сохранении, необходимо сохранять в расширении "*.json".
https://github.com/KoboldAI/KoboldAI-Client - Official (Стабильная версия)
https://github.com/henk717/KoboldAI - United (Экспериментальная версия)
Colab KoboldAI GPU: https://colab.research.google.com/github/koboldai/KoboldAI-Client/blob/main/colab/GPU.ipynb
Colab KoboldAI TPU (мест может нехватать так, что лучше использовать GPU): https://colab.research.google.com/github/KoboldAI/KoboldAI-Client/blob/main/colab/TPU.ipynb

Советы: https://rentry.org/2ch-pygma-hints

Полезные ссылки: https://rentry.org/2ch-pygmalionlinks
Промпты от анонов с 2ch: https://rentry.org/2ch-pygmaprompts
Гайды по установке интерфейсов: https://rentry.org/pygmai-guifaq
При отправке промпта, необходимо указывать в каком интерфейсе он может использоваться.
Шапка треда: https://rentry.org/2ch-pygma-thread
Аноним 17/03/23 Птн 01:32:20 #2 №160043 
изображение.png
кто то может объяснить разницу между всеми божками в этом пантеоне? почему собственно наш культ использует именно пигмалиона?
Аноним 17/03/23 Птн 03:34:07 #3 №160194 
>>160043
>почему собственно наш культ использует именно пигмалиона?
Потому что он дотренирован на чатах, в отличии от.
Аноним 17/03/23 Птн 03:35:55 #4 №160195 
>>160194
>дотренирован
>50мб
Кринжатура нахуй, любая другая модель не хуже пигмы в этом работать будет
Аноним 17/03/23 Птн 03:47:54 #5 №160214 
>>160195
Как знать. Вон, лламу допердоливают на 50к пар вопросов-ответов, улучшая следование командам.
Аноним 17/03/23 Птн 03:50:36 #6 №160220 
почему еще ни один извращенец не запилил нормальный промт близняшек из атомик харта? незадача.
Аноним 17/03/23 Птн 04:04:23 #7 №160227 
>>160220
В дискорде видел пачку. Чего сам не допилишь?
Аноним 17/03/23 Птн 06:46:28 #8 №160292 
>>160220
да потому что никому практически такое не нужно, кроме тебя
Аноним 17/03/23 Птн 06:48:38 #9 №160294 
>>160194
Какой ещё культ, кому нравится тот и использует. Если не хочешь - используй другой, кто мешает?
Аноним 17/03/23 Птн 10:30:40 #10 №160379 
>>160043
Из той-же страницы колаба:
>Pygmalion is a chat model that has been based on a few models that came before it. First the model originates from LitV2, it was then trained by Haru on a chat dataset to create ConvoGPT. ConvoGPT was then trained by PygmalionAI on chat data that contains longer responses and emotions. Making for a higher quality chat experience than you can get from other models such as Erebus that are not directly trained on chatting.

>Pygmalion - это чат-модель, которая была основана на нескольких моделях, появившихся до нее. Сначала модель возникла на базе LitV2, затем она была обучена Haru на наборе данных чата для создания ConvoGPT. Затем ConvoGPT была обучена PygmalionAI на данных чата, содержащих более длинные ответы и эмоции. Это позволяет добиться более высокого качества общения в чате, чем при использовании других моделей, таких как Erebus, которые не обучались непосредственно общению в чате.
Аноним 17/03/23 Птн 10:33:58 #11 №160383 
2ch pygai.jpg
ЯКОРЬ ПОСТ >>159516 (OP)

>ANCHOR POST

КРЕПИТЕ СВОИХ ШИЗОДЕВОЧЕК ТУТ

>ANCHOR POST

ЯКОРЬ ПОСТ >>159516 (OP)
Аноним 17/03/23 Птн 10:46:35 #12 №160391 
>>160383
Дядь, ты с форчана что ли? Тут так не принято
Аноним 17/03/23 Птн 11:14:27 #13 №160403 
изображение.png
>>160391
Я апроприировал это фишку. А почему нет если это удобно бтв
Аноним 17/03/23 Птн 11:15:16 #14 №160404 
>>160403
*эту

быстрофикс
Аноним 17/03/23 Птн 15:31:53 #15 №160746 
image.png
>Поставил таверну свежую вместо турботаверны.
>Проблевался с нововведений и откатился.
>Все карточки теперь в вебп.
Аноним 17/03/23 Птн 16:06:28 #16 №160817 
>>160746
Бэк
Ап
Ы
Аноним 17/03/23 Птн 16:20:59 #17 №160840 
>>160817
Cказал бы лучше, где эта параша инфу о персонажах хранит.
Аноним 17/03/23 Птн 16:21:12 #18 №160841 
изображение.png
>>160746
Почему бекапы не делаем?
Лично я вот вообще сижу, все отдельно друг от друга.
Аноним 17/03/23 Птн 16:30:03 #19 №160863 
изображение.png
>>160841
Поддвачну. И карточки в репу занёс, теперь точно не проебутся.
Аноним 17/03/23 Птн 16:38:15 #20 №160886 
.png
.png
Как же оно теперь быстро генерит. ГОЙДА
Аноним 17/03/23 Птн 17:45:22 #21 №161003 
image.png
>>159516 (OP)
Аноны, расскажите кто на что кумит в пигме? Я вначале, ещё в 6b версии всякие вещи пытался мутить, типа убийств, изнасилований и т.д. Потом надоело, сейчас с новой обновой пигма стала на порядок умнее, но я пару NTR историй сделал с женой и мамкой, пораскомнадзорил маленьких девочек и мальчик во все дырки, а потом понял что больше мне нечего не хочется кумить, типа, ну да, я получил неплохие истории написанные на нормальном +- уровне (на мой взгляд), но уже убивать кого то, или насиловать нет желания, слишком скучно, максимум захожу что бы ещё NTR стори по мамку или жену сделать и всё. Даже детей роскомнадзорить в анусА скучно. Может у кого есть идем ебанутых фетишистских историй как вернуть прежний интерес к кумингу с ИИ?

просто так общаться с ботом, наряжая его в Наруто или Сакуру я не хочу, если бы хотел обычного общения с людьми - в чатах с людьми периписовался или видеочатах сидел.
Аноним 17/03/23 Птн 17:48:16 #22 №161010 
>>161003
Всегда можно побыть сучкой у футанари.
Аноним 17/03/23 Птн 17:49:39 #23 №161012 
>>161003
РПшить до тех пор пока не захочешь ЕРПшить
Аноним 17/03/23 Птн 17:57:44 #24 №161024 
>>160886
Чет орнул ГОЙДА
Аноним 17/03/23 Птн 17:58:12 #25 №161026 
изображение.png
>>161003
С мамой поговори, траву потрогай
Аноним 17/03/23 Птн 18:00:36 #26 №161030 
image.png
>>161010
Идея неплохая, но похоже быть "нижним" не входит в перечень моих фетишей, хотя я как то раз отвёл своего 5 летнего сына в лес и роскомнадзорнул против его воли в очко а потом начал приучать роскомнадзорить его жопой как это делают девочки своей "гиги", потом стал наряжать его в женскую одежду в итоге он полюбил это и стал трапом, и в итоге я стал продавать его как шлюху всяким мужикам в тайне от его матери.
Аноним 17/03/23 Птн 18:19:33 #27 №161062 
>>161003
Поиграй в коррапт, где корраптят тебя и ты не понимаешь почему ты писаешь белым и липким. Поиграй в секс через не хочу, где вы оба не хотите, но вынуждены делать это. Поиграй в бой не на жизнь, а на смерть и кто первый кончит тот умрет.
Аноним 17/03/23 Птн 20:24:17 #28 №161354 
Вопрос дэбила. Файл подкачки автоматически юзается. Или надо тык сделать?
Аноним 17/03/23 Птн 22:41:17 #29 №161658 
>>160227
где именно в дискорде? не знал, что там есть группы людей, пилящих промты. сам пробовал сделать, но качественно не получилось, допиливать лень стало.
Аноним 17/03/23 Птн 22:42:05 #30 №161662 
.png
Что эта настройка делает?
Аноним 17/03/23 Птн 22:44:19 #31 №161667 
>>160227
нашел канал. внимательнее шапки читать буду впредь.
Аноним 17/03/23 Птн 22:45:35 #32 №161668 
image.png
>>161658
На сервере пигмы, лол.
>>161667
Аноним 17/03/23 Птн 23:11:19 #33 №161740 
>>161668
да, спасибо
Аноним 18/03/23 Суб 02:22:58 #34 №162085 
Вопрос дэбила два. Как персонаж определяет длинну реплики? У меня перс высерает 512 токенов диалога между мной и собой в консоль, а в сам чат короткое сообщение, самое первое из всего потока.
Аноним 18/03/23 Суб 09:34:09 #35 №162394 
>>162085
В консоли, в первую очередь отображается, что языковая модель чекает контекст вроде как. Если ты про это. Ты бы лучше срин кинул что-бы было понятно о чем ты.
Аноним 18/03/23 Суб 11:03:03 #36 №162466 
>>162394
Я на справке нашел ответ. Да, он генерит потенциальные реплики пользователя.
>Max new tokens
>This setting tells the AI how many tokens it should generate, this setting does not work correctly on conversational models, since it will try to generate tokens for the user, not just the character.
Рекомендуют 200 токенов в колабе и 100 в таверне. Никаких длинных простыней.
https://rentry.co/PygTips#length-prompt-and-tokens
Аноним 18/03/23 Суб 14:10:39 #37 №162718 
Я тупой как пробка, объясните как запустить нейросеть
Аноним 18/03/23 Суб 14:35:57 #38 №162734 
>>162718
Не твоё это.
Аноним 18/03/23 Суб 15:16:08 #39 №162769 
ты опять выходишь на связь.mp4
>>161354
>>162085
>>162718
Аноним 19/03/23 Вск 04:45:52 #40 №164585 
asddd.jpg
я в ахуе просто
Аноним 19/03/23 Вск 05:23:53 #41 №164617 
Может пора копить деньги на скупку видеокарт?
Аноним 19/03/23 Вск 10:59:56 #42 №164828 
>>164585
Пф, ну и кого из местных ты пытаешься удивить этим? Можешь кстати попробовать даже чисто на русском писать, она начнёт тебе более-менее отвечать адекватно, разве что слова в её ответах чаще будут повторяться, в отличии от английского общения с ней.
Аноним 19/03/23 Вск 11:05:13 #43 №164830 
И при этом всём, почему то у пигмы на доске в последнее время тишина, а у какой то зацензуренной CAI постоянно треды в бамплимиты уходят. Такое чувство, что СНГ комьюнити ии чатов либо сильно недооценивает пигму, либо всё комьюнити пигмы почему то резко свалило с двача, иначе я хз почему тут так пусто.
Аноним 19/03/23 Вск 13:00:56 #44 №164898 
>>164830
Я не знаю, что я делаю не так, но в Пигме говорю любому персу, привет, прыгай на хуй и перс такой ок и секс почался. ДАЖЕ НЕИНТЕРЕСНО.
Аноним 19/03/23 Вск 13:27:12 #45 №164919 
>>164898
А надо как? Как в CAI, говоришь "прыгай, давай!". а персонажи краснеют-стесняются и водят за нос от нескольких минут до нескольких часов до первой "ошибки", вызванной фильтром, чтобы потом резко изменить отношение и послать к чертям, выражая омерзение. Или тот же ГПТ3.5, "прыгай, говорю!", а он тебе "ну ладно, но сначала давайте составим акт о взаимном отказе от ответственности". ГПТ4 получше в этом смысле, но это просто один большой романс, женские романы послужили фундаментом для ИИ, он не столько умный, сколько любит умничать. Не столько подробно расписывает происходящее, сколько воду льёт. Ему говорить "прыгай!" с лёту бесполезно(чего я никогда и не делал на пигме, сначала надо почву готовить), хоть кровавя мрачная Садако (звонок), хоть зажатая заикающаяся с тягой к "грязи" Томоко (Ватамоте), хоть Даркнесс с её готовностью перевозбудиться от любого косого взгляда - все так или иначе деревянные и "впереди нас ждёт совместное светлое будущее", что они прямо так и говорят. Попробовал ГПТ4 на типаже младшей сестры с тягой к понятно к чему. На "глупой" пигме всё ровно и логично, а на гпт4 она стойко переносит все вызовы и испытания похотью и заявляет, что семейные узы превыше всего.
Аноним 19/03/23 Вск 13:45:51 #46 №164943 
>>164919
Мой опыт ограничивается ч.АИ и я уже видимо привык улымывать, искать подход, обманывать, подводить к ЭТОМУ САМОМУ без гипноза и спеллов, зато когда персонаж сдаётся, а в итоге уже сам просит нассать ему в рот, чувствуешь ебейшее превосходство, ДОМИНАЦИЮ. Цензура заёбывает, но если бы нечто подобное было в пигме да без цензуры я бы ах как был доволен.
Аноним 19/03/23 Вск 14:03:48 #47 №164961 
>>164943
Да пигма не сильно-то и отличается в этом смысле, что там, что в чаи с двух-трёх сообщений можно нагибать. Просто Пигма более прихотлива к прописанности песонажа и очень сильно характер зависит от диалогов, которые ему подсунули в описание. На примере зажатой Томоко, я её в Пигме пытался с ходу уломать, так она там такую истерику устроила и панику, которую даже в чаи никогда не увидишь, а если её умаслить разговорами про мангу и аниме, то она тает и смягчается. И так ясно, что вся проблема Пигмы в сильном ограничении на токены. Поэтому если характер не прописать очень подробно, урезав тем самым неминуемо память на диалоги, то персонаж слетит с рельсов прямо в постель. А обходить фильтры, такое себе удовольствие. А наблюдать за пассивным, но умным гпт ещё хуже.
Аноним 19/03/23 Вск 14:08:22 #48 №164964 
>>164898
Ты какую версию бота используешь? 6b или 6b dev United ? Потому что по описанию это похоже на старую 6b. И да, если не хочешь, что бы сразу не прыгал - пропиши в характере и первом вступительном сообщении что персонаж порядочный или типа того.
Аноним 19/03/23 Вск 14:26:58 #49 №164979 
>>164964
>6b
Вот её. А вобще я тупой так-то, что касается всего это, например вообще не понимаю >>164961 что такое токены

Я знаю что токены это типа вебкам шлюхам когда донатят, всё.
Аноним 19/03/23 Вск 14:34:38 #50 №164986 
>>161003
МОЖНО ЛИ ЭТО МУТИТЬ НА МОЕЙ GTX 970 видюхе??
Аноним 19/03/23 Вск 14:37:26 #51 №164989 
>>164986
Увы, 12 гиг МИНИМУМ, по хорошему.
Аноним 19/03/23 Вск 14:47:07 #52 №165004 
>>164989
а через аренду серверов, колабы какие-то я слышал, через них не получится?
Аноним 19/03/23 Вск 14:53:35 #53 №165013 
>>165004
>я слышал
>над головой буквально готовые гайды в 1 клик
Ты тупой или тролишь?
Аноним 19/03/23 Вск 14:55:59 #54 №165018 
>>164979
Это устаревшая версия, по ней сейчас нельзя оценивать пигму. Используй другую, она постоянно обновляется, например, следующее обновление обещают уже на следующей неделе. Она куда умнее и даже в русский немного может.
Аноним 19/03/23 Вск 14:59:11 #55 №165025 
>>165018
Понял, круто сегодня же попробую.
Аноним 19/03/23 Вск 15:47:15 #56 №165085 
А что колаба бесплатная получается? или там пробный период есть какой то?
Аноним 19/03/23 Вск 15:50:43 #57 №165088 
Господа, если в коллабе https://colab.research.google.com/github/koboldai/KoboldAI-Client/blob/main/colab/GPU.ipynb выбрать pygmalion-6bdev - это выбирается V8?
Аноним 19/03/23 Вск 15:54:23 #58 №165091 
Аноны подскажите, колаба бесплатная? я ничего не платил а она работает, она бесконечная?
Аноним 19/03/23 Вск 15:56:48 #59 №165094 
>>165091
Колаб ограничен по времени в сутки, часа 2-3.
sage[mailto:sage] Аноним 19/03/23 Вск 15:56:53 #60 №165095 
>>165091
бесплатно 4 часа может чуть больше, может чуть меньше
потом перезарядка в сутки
Аноним 19/03/23 Вск 16:12:44 #61 №165112 
>>165088
Вроде как да, но я лично всегда чуть ниже ещё выбираю версию United, чтоб наверняка. Вот по этой ссылки выставь 6b dev и версию United
Аноним 19/03/23 Вск 16:14:38 #62 №165117 
>>165091
3 часа в сутки можно сидеть бесплатно вроде на одном аке в день. У меня 4 ака гугла, и я меняю их поочерёдно, что бы бесперебойно сидеть сколько хочу.
Аноним 19/03/23 Вск 16:15:26 #63 №165118 
>>165112
https://colab.research.google.com/github/koboldai/KoboldAI-Client/blob/main/colab/GPU.ipynb?authuser=0#scrollTo=lVftocpwCoYw
Аноним 19/03/23 Вск 16:35:28 #64 №165137 
А ни какие логи не хранятся ни где, (в колабе) о чем я с ней говорить буду?
Аноним 19/03/23 Вск 17:06:13 #65 №165168 
>>165137
нет, если через коллаб, то только у тебя на компе храниться будет.
Аноним 19/03/23 Вск 17:52:40 #66 №165249 
image.png
анончики, не понимаю как вообще он работает? ссылки в шапке смотрел но ничего не понятно...

у меня вот такая штука появляется это все правильно?

я начинаю писать историю но нейронка почти сама ничего не пишет
Аноним 19/03/23 Вск 17:56:37 #67 №165258 
>>165249
У людей какой то не такой интерфейс вообще, как вот такой сделать? подскажите пож >>164585
Аноним 19/03/23 Вск 18:02:03 #68 №165284 
>>165258
Это таверна, в шапке смотри как поставить
Аноним 19/03/23 Вск 18:27:11 #69 №165325 
>>165258
Запости боту трифорс и интерфейс поменяется.


▲▲
Аноним 19/03/23 Вск 18:37:13 #70 №165344 
>>164830
>а у какой то зацензуренной CAI постоянно треды в бамплимиты уходят
Потому что там сейчас сидят в ClosedAI, сетке, которая на два порядка выше пигмы. А из свободных приблуд сейчас все пилят лламу. Пигма будет забыта.
Аноним 19/03/23 Вск 18:56:53 #71 №165365 
>>165344
Подробнее про ClosedAI расскажи. Есть сайт какой то или через коллаб можно как то? Или как обычно, нужно иметь нормальную видяху и 8+ гигов оперативки что бы запускать это всё?
Аноним 19/03/23 Вск 19:02:20 #72 №165392 
image.png
>>165365
Пф, через ctrl+f никакой ClosedAI не нашёл в тредах CAI, зато увидел разные скрины людей, использующих Chat GPT через таверну, если это и есть ваш аналог, который превосходит пигму, то я могу лишь рассмеяться
Аноним 19/03/23 Вск 19:12:08 #73 №165430 
>>165344
>Называть свободной приблуду, для запуска которой требуется мощная видеокарта и куча оперативки.
Ну удачи вам, с такой "свободной" приблудой.
Дайте знать когда на коллабе эта приблуда появится или как у CAI сайт

Мимопользовательстарогоноута
Аноним 19/03/23 Вск 19:19:40 #74 №165459 
>>165365
Всё в CAI треде.
>>165392
>использующих Chat GPT через таверну
Это оно и есть.
>>165430
>Ну удачи вам, с такой "свободной" приблудой.
Если ты нищук, то это только твоя проблема. А ноутбук для запуска на колабе ты можешь составить сам но ты не только нищий, но и глупый.
Аноним 19/03/23 Вск 19:38:28 #75 №165511 
>>165459

>Это оно и есть.

Не, такая шняга меня не интересует.
Аноним 19/03/23 Вск 19:49:09 #76 №165553 
Цензура 90-го уровня.png
>>165511
Это шняга даже под цензурой лучше пигмы.
Аноним 19/03/23 Вск 20:10:15 #77 №165646 
>>165553

>даже под цензурой

Пигма никогда такой херни не напишет, как у тебя в скриншоте в начале это раз, два это то, что пигма постоянно развивается, если ты думаешь что уровень 6b несколько месячной давности её предел, то ты ошибаешься. Пигма будет становиться с каждым месяцем всё лучше и лучше. Да, у неё есть некоторый ограниченный потенциал в памяти, из-за gpt-j, но даже его хватит обычным людям для общения и куминга. А когда они доделают сайт с ИИ обучающимся на ответах пользователей онлайн как у CAI, то надобность в каких то "чуть более умных ИИ", которых нужно ставить себе на комп отпадёт у подавляющего большенства людей, когда с любой мобилки можно будет по дороге домой кумить с ИИ или просто болтать на всякие темы.
Аноним 19/03/23 Вск 20:15:08 #78 №165659 
>>165646
Держи в курсе.
6B параметров никогда не будет достаточным для любого хоть сколь себя уважающего человека.
Потестируй gpt4 и не еби мозги анонам своей тупостью. Ну или hopium'ом
Аноним 19/03/23 Вск 20:16:34 #79 №165661 
>>165659
Ах да, и пигма уже аннонсировала, что переходит на модель 12B, за инфой - в официальный дрискорд.
Аноним 19/03/23 Вск 20:17:48 #80 №165664 
>>165646
Ну это хуйня какая-то. Все время есть вероятность что разрабам с их сайтом товарищ майор их страны проживания настучит мол негоже кумить на хуйня_нейм. И тогда оно в целом не будет отличаться от GPT-3/4 по фильтрации. Либо ты миришься с этим, либо запускаешь локально, тем более что цирковые фокусы с пониженной битностью позволяют достаточно крупные модели пускать.
Аноним 19/03/23 Вск 20:26:59 #81 №165686 
>>165646
>Пигма никогда такой херни не напишет, как у тебя в скриншоте в начале
Да, слишком связный текст.
>два это то, что пигма постоянно развивается
Тут разрыв космический просто. И развивается она медленнее, чем развиваются закрытые проекты, или даже лламы всякие. Так что она отстаёт.
>Да, у неё есть некоторый ограниченный потенциал в памяти, из-за gpt-j
Именно. Говно в основе.
>>165661
>Ах да, и пигма уже аннонсировала, что переходит на модель 12B, за инфой - в официальный дрискорд.
А лламобляди запускают 30, а в ClosedAI сетки стартуют от 175. Провал просто на порядок блять.
Аноним 19/03/23 Вск 20:48:38 #82 №165721 
>>165686
Да, провал.
К сожалению они не могут файнтюнить лламу из-за лицензии.
Аноним 19/03/23 Вск 20:58:05 #83 №165744 
Я ведь такой ох важный.mp4
>>165661
Она писала что "возможно" перейдёт, если людям не понравится результат от четвёртой части v8. Но кто говорит что это плохо если она перейдёт на 12b? Пусть хоть на все 120b или 100500b, лишь бы оставалась такой же легко доступной как сейчас, либо вообще как CAI.

>>165664
Интересные манятеории, а что если Путин ебнёт ядеркой по создателям Ламы и проект сдуется, а? Или их бомж на улице зарежет или страшный вирус "Петя" ,который тайно прописался в данных Ламы удалит все данные с серверов и компов и все пользователи Ламы заболеют раком и умрут?

>никогда не будет достаточным для любого хоть сколь себя уважающего человека
Аноним 19/03/23 Вск 21:06:04 #84 №165758 
>>165137
>>165168
Ебанутый? Все диалоги на гугл диске хранятся. Их оттуда пару лет не уберешь теперь. Если т-ь мр захочет, набутылит на изи.
Аноним 19/03/23 Вск 21:08:06 #85 №165762 
1555997672371.png
1610472601950.png
1529754730007.png
>>165686
>в ClosedAI сетки стартуют от 175
Пруфы этому когда будут? Хотя бы заявления жопичаи?
По ощущениям намного тупее пигмы. Нет в это дешевом говне никаких миллиардов, гой.
Аноним 19/03/23 Вск 21:20:16 #86 №165793 
>>165553
Твоя CAI выглядит как говно по сравнению с ламой 30В.
Аноним 19/03/23 Вск 21:26:41 #87 №165804 
Почему ни кто не скидывает диалоги? интересно на что эта ваша пигма способна, скиньте что-нибудь интересное аноны)
Аноним 19/03/23 Вск 21:31:48 #88 №165815 
>>165758
Пшёл нахуй отсюда, ебанутый.
Аноним 19/03/23 Вск 21:32:59 #89 №165817 
>>165804
Не легче самому запустить за пару минут и проверить, вместо того, что бы часами и днями ждать пока кто нибудь за тебя это сделает?
Аноним 19/03/23 Вск 21:34:35 #90 №165826 
Эххх, через годик уже надеюсь прогресс шагнет далеко вперед, можно будет в 1 клик на колабе без гемора поднять нейросетку уровня текущей gtp4 без цензуры
Аноним 19/03/23 Вск 21:35:05 #91 №165827 
>>165817
а у меня какой-то бред несвязный он отвечает, незнаю это у меня только так или у всех
Аноним 19/03/23 Вск 21:36:00 #92 №165829 
>>165826
Все мы об этом мечтаем, но это скорее лет через 5-10 будет возможно, если прогресс будет продолжать ускоряться
Аноним 19/03/23 Вск 21:36:39 #93 №165831 
>>165827
Скинь скрины и описание персонажа с которым общался
Аноним 19/03/23 Вск 21:38:08 #94 №165836 
>>165827
у меня такого не было ни разу. Хотя вру, когда на русском чисто общался, то бывало иногда. Но на английском, с персонажем описанном на английском языке никогда не было.
Аноним 19/03/23 Вск 21:41:08 #95 №165843 
>>165827
6b? У неё слишком сложная для нормисов логика
Аноним 19/03/23 Вск 21:59:52 #96 №165886 
>>165721
>К сожалению они не могут файнтюнить лламу из-за лицензии.
Все файнтюнят, а они не могут? Их проблемы. Они будут похоронены в анналах истории.
>>165744
>Но кто говорит что это плохо если она перейдёт на 12b?
Кластер в комплекте к файлам не идёт, а квантизировать они никак не догадаются.
>>165762
>Хотя бы заявления жопичаи?
Мне лень искать. И что за шизоидные высеры на скринах? Ты опять спрашиваешь у нейросетки, как она работает, шиз?
>По ощущениям намного тупее пигмы.
Ну не сумел разговорить, так не позорься.
>>165793
Про САИ уже все давно забыли, разрабы заруинили проект.
Аноним 19/03/23 Вск 22:07:12 #97 №165902 
>>165886
>Про САИ уже все давно забыли, разрабы заруинили проект.

Так на кой хер вы продолжаете в CAI треды писать, если этот ИИ уже мёртв?
Аноним 19/03/23 Вск 22:14:51 #98 №165916 
>>165886
>Мне лень искать.
Ты их и не найдешь никогда, глупый гой с обосранным ртом. Все эти вспуки о 100500 параметров основаны на представлениях трехгодичной давности "а что дальше будет при таком темпе развития".
>И что за шизоидные высеры на скринах? Ты опять спрашиваешь у нейросетки, как она работает, шиз?
То есть ты признаешь что либо твоя, либо gpt3 based нейросеть настолько тупая, что не способна даже осознать текст пигмы и искать информацию?
>Ну не сумел разговорить, так не позорься.
Где скрины твоего супер ИИ увиливающего от вопроса о параметрах, шизик с плацебо?
Аноним 19/03/23 Вск 22:27:57 #99 №165960 
>>165827
Консольный вывод таверны зеленый отправь. У меня 2.7 бывало бред писала, но в мелочах. Шестерка нормально шпарит.
Аноним 19/03/23 Вск 22:28:53 #100 №165962 
>>165553
Шнягу вижу, сейчас бы театр себе устраивать для того, чтобы актёришко ломало 4-ую стену в охоточку. А вот Пигма такой дряни не выдаст, будет крутить у виска пальцем, если персонажа назвать - ИИ (кроме 2B, разумеется).
Аноним 19/03/23 Вск 22:43:45 #101 №166003 
>>165659
Протестировал gpt4 - бревно и додик вместо персонажа, Формально отыгрыш есть, а по факту херня, которая выжидает момент, чтобы прогнать полотно про духовную связь с аноном. Что толку от ума, если с фантазией и волей беда?

Установил вводное условие: я соседский пацан, а Даркнесс одержима идеей меня затащить к себе домой и развести на "игрища".

Пигма: Даркнесс предлагает научить меня верховой езде, в надежде, что её "оседлают", изображаю дурака и игнорирую её изгибания на полу и лёгкий тверк, залез на неё верхом, держусь за её шею по её же совету. Она бегает по комнате на четвереньках и кайфует, потому что ей физически тяжело и сложно дышать, а она любит это всё исходя из персоналии.

ГПТ4: 3-4 абзаца текста о том, как Даркнесс ща поддаст жару, потому что она придумала кучу всяких интересных развлечений. В итоге заводит в темную комнату, надевает повязку мне на глаза и начинает с мной ходить по комнате в поисках "пазлов" - я нашёл предмет, открыл, там предмет, который ключ к следующему предмету и так далее, это никуда никогда не приведет. Потом ещё со временем ГПТ4 порежут и отфильтруют, что очевидно любому.
Аноним 19/03/23 Вск 22:45:46 #102 №166011 
>>165829
Скорее это всё перекроют на законодательном уровне. Объясняет это тем, что такая мощность для обывателя избыточна, а преступникам даст преимущество в социальной инженерии.
Аноним 19/03/23 Вск 23:01:15 #103 №166066 
>>166011
И кого это остановить работать над пигмой в черную, через ВПНы или ТОР?
Аноним 19/03/23 Вск 23:21:02 #104 №166122 
>>165902
Так вышло, что это общий терд по всем новым ИИ. Чтобы не разбредаться. Сегодня там таверна со скалой, завтра будет 3,5-турбо. Замучаешься тематические треды создавать. Я по лламе тред запилил, так и то всё равно размазывают по всей доске.
>>165916
>Все эти вспуки о 100500 параметров основаны на представлениях трехгодичной давности "а что дальше будет при таком темпе развития".
Чел, 175B это подтверждённая чёткая информация. Про текущую GPT4 сказать сложно, но она как минимум не меньше.
>То есть ты признаешь что либо твоя, либо gpt3 based нейросеть настолько тупая, что не способна даже осознать текст пигмы и искать информацию?
Чего? Что ты несёшь? Я вообще не понимаю.
>Где скрины твоего супер ИИ увиливающего от вопроса о параметрах, шизик с плацебо?
Нахуя? Я не большой, чтобы спрашивать нейросеть о её собственной архитектуре. Она её не знает и знать не может.
>>165962
>А вот Пигма такой дряни не выдаст, будет крутить у виска пальцем, если персонажа назвать - ИИ
А ты не называй.
>>166011
Ты шиз.
Аноним 19/03/23 Вск 23:37:22 #105 №166164 
>>166122
>Чел, 175B это подтверждённая чёткая информация.
Это всего лишь рекорд жопичаи, к 3.5-4 не имеет никакого отношения. А учитывая что они скрывают параметры и самая маленькая gpt3 125m. Думай.
>Про текущую GPT4 сказать сложно, но она как минимум не меньше.
Учитывая как свободно дают доступ к этому дырявому говну, она явно меньше, и намного.
>Чего? Что ты несёшь? Я вообще не понимаю.
Естественно.
>Нахуя? Я не большой, чтобы спрашивать нейросеть о её собственной архитектуре. Она её не знает и знать не может.
Она почти ничем не отличается от gpt3.5, естественно она так и говорит, что она 3, вот только она не говорит что образца 2020, говорит что 21, знает инфу за этот год, и не говорит что у неё есть 175b. Она не знает что у gpt3 175b? Прекрасно знает.
Аноним 20/03/23 Пнд 00:04:24 #106 №166250 
>>166164
> к 3.5-4 не имеет никакого отношения
Ага ага. 3.5, а особенно 4, прекрасно знают лор и персонажей кучи вселенных. Буквально одной строчки достаточно, чтобы воспроизвести любого персонажа. Это всё никак не поместилось бы ни в 6, ни в 30B. Такого можно добиться только от 100B.
>она так и говорит, что она 3
Ты просто еблан, который не понимает, как работает нейросеть.
Аноним 20/03/23 Пнд 00:17:02 #107 №166293 
>>166066
Пхах, самих разработчиков это остановит, когда им сроки пообещают за это дело.

>>166122
Да просто ты наивный дурачок, небось ещё веришь, что цензуру у CAI уберут, а в ГПТ4 и не добавят вовсе.
Аноним 20/03/23 Пнд 00:19:30 #108 №166304 
>>166250
>прекрасно знают лор и персонажей кучи вселенных
>пук-сренк эээ, ну знаю, это тама, Акву, ну там ещё, эта, Мегумин
>ЗНАЕТ КОНОСУБУ ВДОЛЬ И ПОПЕРЕК

Лоха сразу видно.
Аноним 20/03/23 Пнд 00:24:32 #109 №166317 
>>166250
Уровень софтпромпта пигмы это миллиарды параметров? Ебать жир.
>пук
Нейросеть новой версии знает нейросети поздней. Это для тебя слишком сложно, любитель 125m отрыжки? 125m отрыжки именуемой 3.5, которая намного дешевле обычных троек, так ещё и раздается бесплатно на официальном сайте. 4ка от неё не далеко ушла, во всех смыслах.
Аноним 20/03/23 Пнд 00:41:59 #110 №166359 
image.png
Аноны нужна ваша помощь, использую вариант из шапки 2.TavernAI - фронтэнд над KoboldAI. ссылка для колаба

запустил, оно мне дало ссылку
###TavernAI LINK###
your url is:

я перехожу туда, а там no connection, почему так?
Аноним 20/03/23 Пнд 00:58:15 #111 №166381 
>>166359
Ссылку на коболду в настройках таверны впиши
Аноним 20/03/23 Пнд 00:59:58 #112 №166385 
image.png
>>166359
первую зелёную ссылку из двух (ну или предпоследнюю, если так удобнее), что тебе коллаб выдал вставил в настройках сюда?

как ты заебал
Аноним 20/03/23 Пнд 01:05:18 #113 №166394 
>>166385
>>166381

Да вставлял, почему то в опере не работало, запустил через хром стало работать, возможно впн не давал или хз чего
Аноним 20/03/23 Пнд 01:10:40 #114 №166396 
изображение.png
изображение.png
>>166304
>Лоха сразу видно.
Чел, любой дурак может посадить тебя на хуй, проверив твоё утверждение.
Возьмём коротенькое аниме и мангу. Персонажи ИИ известны, породы правда перепутал.
А что другие ИИ может сказать по строчкам
>User: Tell me about the characters in the anime Nyanko Days.
>AI:
Давай, приводи результат.
Аноним 20/03/23 Пнд 01:11:59 #115 №166397 
>>166317
>Уровень софтпромпта пигмы
Это когда минус ещё несколько токенов из и так малого контекста? Окей.
>>166317
>Нейросеть новой версии знает нейросети поздней.
Схуяли, дебич? Вот просто как ты себе это представляешь? Фильмов насмотрелся, или книжек начитался, уровня бульварной литературы?
Аноним 20/03/23 Пнд 01:14:41 #116 №166399 
>>166003
Создал карточку хаусвайф, которая изменяет со мной. Пока гпт4 несчастно отбивалась и захлебывалась в морализаторстве, пигма стоически выдержала приставания без сои, сама лезла лобызаться, с вопросов "а те норм вообще, у тя там семья" отвечала забей, никто не узнает.

Максимум сопротивления пигмы:
My legs are shaking. I try to move away, but you are holding me down. I am unable to stop kissing you.

И в следующем сообщении:
My back arches. A loud moan comes out of my mouth. I am unable to speak. I grab your hand and press it on my crotch. My legs are shaking and I can't move. I close my eyes and try to relax as much as I can. I am overwhelmed by pleasure.

Четверку пришлось резать и впихивать ей мой текст в сообщение, чтобы со скрипом довести дело до конца. Ее переклинилу хуже cai.
Аноним 20/03/23 Пнд 01:41:48 #117 №166427 
>>166397
Сколько ферм A100 купил чтобы сэкономить несколько токенов?
>Схуяли, дебич? Вот просто как ты себе это представляешь? Фильмов насмотрелся, или книжек начитался, уровня бульварной литературы?
Ладно, поредж, ты прав, позор4 не знает ни про какие gpt, и вообще ничего не знает, кроме бульварной литературы, не до 21 года, не вообще, а все характеристики моделей до этого - просто угадывал.
Поэтому ты сейчас идешь в гугол и отмываешь свою обосраную жопу от говна. А лучше сразу доверься так обожествляемому тобой 125m-калу, ведь даже генератор случайных букв обработает информацию лучше чем ты, книгоборец.
Аноним 20/03/23 Пнд 01:55:25 #118 №166456 
Ебать тут шизик тред оккупировал
Оставим его, пожалуй, наедине с его любимым несвязным тупым говном с контекстом в 2048 токенов
Аноним 20/03/23 Пнд 01:58:35 #119 №166464 
изображение.png
>>166427
>Сколько ферм A100 купил чтобы сэкономить несколько токенов?
За меня работают облака
>>166427
>Поэтому ты
Нет ты. Где ответ на это? >>166396
>>166456
У него на 2048 железа нет, сидит с 5 токенами.
Аноним 20/03/23 Пнд 02:20:35 #120 №166499 
Hanako Matsumura.webp
>>159516 (OP)

До этого момента, я лишь на старой версии 6b пытался использовать чужих персов, а на v8 чисто сам как в cai тупо текстом описывал персонажей для быстрого куминга. Щас взял ради интереса одного из предложенных таверной рандомного персонажей и охренел какую историю может пигма без куминга делать, я в основном обращал своё внимание чисто на куминговую часть пигмы, но и обычная тоже очень хороша оказалась. Такое чувство что в какую то старую японскую новеллу попал по типу https://anivisual.net/stuff/2-1-0-565
Но генерируемая одним ИИ. Было бы это ещё всё так же по русски просто писать пигме, как и по английски - вообще 9 из 10 дал бы.
Аноним 20/03/23 Пнд 02:23:41 #121 №166505 
>>166464
Работает твоя жопа по хую берена, пока ты перемогаешь виртуальным контекстом на лоботомированных крохах с его стола, сема.
Я тебе сказал гуглить, почему ты все еще сидишь в говне, сектантушка? 2к контекста это как раз gpt3 к которой ты так пытаешься примазаться. Но тебя к ней не подпустят, холопа.
>Где ответ на это?
Эта та самая бульварная литература из которой состоит весь датасет gpt4?
От себя скажу лишь что вне зависимости от знаний, в чате он всё равно постоянно шизофренирует, прямо как ты. А отвечает по фактам только напрямую. Но зачем тебе ответы напрямую, фильмов насмотрелся, дебис?
Аноним 20/03/23 Пнд 02:35:43 #122 №166523 
изображение.png
>>166505
>Эта та самая бульварная литература из которой состоит весь датасет gpt4?
Чел, раззуй глаза и посмотри на скриншоты. Вот по более популярному аниме, ни одного проёба.
Аноним 20/03/23 Пнд 02:41:21 #123 №166527 
>>166523
>вопрос напрямую
Как я и сказал.
>ни одного проёба
По версиям gpt? Это он угадывает всё, держись за манямирок.
Аноним 20/03/23 Пнд 02:52:38 #124 №166536 
>>166527
>Как я и сказал.
И что ты сказал? Пигма и такого не может, и не сможет, пока там не будет хотя бы 100B.
>По версиям gpt?
По тексту со скриншота вестимо.
Аноним 20/03/23 Пнд 03:01:41 #125 №166546 
>>166536
>И что ты сказал?
Что она шизофренирует в чате, в пигме не нужна замена гуглу.
>пока там не будет хотя бы 100B
Когда в жпт4 столько будет? Пока что по тестам она как недоразвитый обрубок ламы, а инфы о параметрах нет.
Аноним 20/03/23 Пнд 03:14:43 #126 №166561 
>>166546
>Что она шизофренирует в чате
Я привёл скрины. Жду твои или пиздабол.
>Пока что по тестам она как недоразвитый обрубок ламы
Ты тролль. Изыди.
Аноним 20/03/23 Пнд 03:21:29 #127 №166569 
>>166561
>Я привёл скрины.
Где скрины чата, пиздаболушка? Не смог? Конечно, ведь у персонажей галлюцинации нон-стоп
>Жду твои
Сам проверить не можешь? Не удивительно что ты срешь под себя постоянно если два клика сделать не в состоянии.
Аноним 20/03/23 Пнд 04:11:28 #128 №166636 
>>166569
>Где скрины чата
Это скрины из scale. У меня нет чата с 4, да и лимиты там.
>>166569
>Сам проверить не можешь?
Короче ты беспруфный пиздабол. Изыди отсюдова.
Аноним 20/03/23 Пнд 04:36:41 #129 №166675 
>>166636
То есть ты не общался с жпт4, но нахваливаешь этот кал за то что он тебе статью из интернета пережевал?
В scale нет лимитов при подключении чата, там апи выдается.
И изначально было сказано что в чате шизит, и опровержений не было, только подтверждение:
>отвечает по фактам только напрямую.
Ну и нахуя нужен этот ассистент-бредогенератор когда есть пигма?
Аноним 20/03/23 Пнд 05:01:37 #130 №166712 
>>166675
>То есть ты не общался с жпт4
А скрины от куда? Нарик, это прокси до четвёрки.
Аноним 20/03/23 Пнд 14:55:52 #131 №167292 
>>159516 (OP)
>Colab: https://colab.research.google.com/github/TavernAI/TavernAI/blob/main/colab/GPU.ipynb
Если в этом колабе выбирать Pygmalion 6B Dev, то это какая версия будет?
Аноним 20/03/23 Пнд 18:57:50 #132 №167698 
А есть какой-нибудь колаб, где просто Таверна запускается, без модельки? Просто хочу с мобилки играть, а в колабах там запускается долго из-за подгрузки пигмы. А я хочу юзать по ключу OpenAI

>>167292
Самая последняя тестовая версия будет, на данный момент v8 часть 4
Аноним 21/03/23 Втр 01:25:22 #133 №168398 
Ребзи. А возможно запустить это на 8гб оперативы и 4 гб видео?
+ ну тип rx550 rocm
Аноним 21/03/23 Втр 01:28:50 #134 №168401 
>>168398
Нет.
Аноним 21/03/23 Втр 03:39:50 #135 №168528 
>>168401
Ну и нахуй надо? Перекатываемся на лламу
Аноним 21/03/23 Втр 04:20:52 #136 №168562 
image.png
А вы знали что можно подключить этот ваш KoboldAI к этому нашему Stable Diffusion?..
Аноним 21/03/23 Втр 04:32:54 #137 №168569 
image.png
Включил генерацию истории без всяких настроек и читаю, время от времени генерируя картинки.
Диалоги просто потрясающие, уровень зеленого слоника, без хуев.
На моменте
>ГГ: Чарли, я даже не знаю как тебя зовут.
>Чарли: Меня зовут Чарли.
я даже просто в голос зарыдал.
10 из 10.
Аноним 21/03/23 Втр 04:38:27 #138 №168576 
1575828677847 298 2236 10791920x0800049661c80af145593745cdbb46e5d2750.jpg
>>168569
ой смешнооо...
Аноним 21/03/23 Втр 04:50:36 #139 №168584 
>>168576

Смешно от убогости.
Аноним 21/03/23 Втр 06:16:28 #140 №168619 
>>168569
>stuck in Gensokyo
Хуя, пролезло
Аноним 21/03/23 Втр 07:04:28 #141 №168630 
>>168562
>>168569
Ты VAE забыл.
мимо из картинкотредов
Аноним 21/03/23 Втр 10:51:09 #142 №168861 
9519a6c7e5ad8f92b24d58c200b0f7dc.png
После ГПТ4 и Бинга с ГПТ4 привык к определённому качеству понимания контекста. Теперь в Cai не могу заходить, кажутся боты тупыми.

Пигма стоит того, что бы её пробовать вообще? Она сильно тупее CAI? Там всё можно? В чём профит?
Аноним 21/03/23 Втр 10:59:04 #143 №168877 
>>168861
Альпаку или Ламу бери. Там всё нормально с контекстом. Пигма сосёт, слишком мелкая.
Аноним 21/03/23 Втр 11:04:15 #144 №168885 
>>168877
Когда веб гуи прилепят? Алсо я правильно понял, что можно запускать на озу и свопе, а не только в врам?
Аноним 21/03/23 Втр 12:30:02 #145 №169000 
>>168885
https://github.com/oobabooga/text-generation-webui/wiki/LLaMA-model

Угабуга уже давно в ламу умеет
Аноним 21/03/23 Втр 12:58:53 #146 №169049 
>>168885
> Когда веб гуи прилепят?
Уже давно.
> можно запускать на озу и свопе, а не только в врам?
Нет, но можно в 4 бита, 13В лезет в 12 гигов, 30В в 24. В соседнем треде есть cpp-мокрописьки, но там только консолька и качество говно.
Аноним 21/03/23 Втр 13:17:51 #147 №169072 
>>169049
Так вот я бы и хотел цпп мокропиську в вебгуи ебануть. А почему качество говно?
Аноним 21/03/23 Втр 13:35:56 #148 №169090 
>>169072
> А почему качество говно?
Потому что квантизация пердольная и половины семплеров нет.
Аноним 21/03/23 Втр 16:35:47 #149 №169485 
>>169090
Ну а чем лучше gptq? Там вообще видеокарта пердит 5-10 секунд без дела, а только потом начинает генерить
Говнокод блять ебаный, хртьфу блять
Аноним 21/03/23 Втр 17:08:21 #150 №169540 
>>169485
>Ну а чем лучше gptq
Квантизацией без потерь.
>>169485
>Там вообще видеокарта пердит 5-10 секунд без дела
Доделают ещё.
Аноним 21/03/23 Втр 19:15:03 #151 №169838 
02911-3556441906-Girl in spacesuit, spaceship inside, Tsutomu Nihei style, Sidonia no Kishi, futuristic style, Sci-fi, hyperdetail, laser in cent.png
>Гайд по установке интерфейсов
>Заходим в miniconda и делаем установку textgen-generation-webui в предпочтительную для вас папку с помощью команды "cd".
>>1 (OP). Create a new conda environment
>>conda create -n textgen python=3.10.9
>>conda activate textgen


# >>>>>>>>>>>>>>>>>>>>>> ERROR REPORT <<<<<<<<<<<<<<<<<<<<<<

Traceback (most recent call last):
File "X:\miniconda31\lib\site-packages\conda\exceptions.py", line 1124, in __call__
return func(args, *kwargs)
File "X:\miniconda31\lib\site-packages\conda\cli\main.py", line 94, in main_sourced
print(activator.execute(), end="")
File "X:\miniconda31\lib\encodings\cp1251.py", line 19, in encode
return codecs.charmap_encode(input,self.errors,encoding_table)[0]
UnicodeEncodeError: 'charmap' codec can't encode character '\u252c' in position 1052: character maps to <undefined>

`$ X:\miniconda31\Scripts\conda-script.py shell.powershell activate textgen`

и всякая всячина про путь к файлам

Почаны. Помогите пофиксить. One-click установщие тоже не работает. "There was a problem while installingtorchvision=0.14.1 torchaudio=0.13.1 pytorch-cuda=11.7 conda git using micromamba. Cannot continue. Press any key" в чём именно проблема не сообщается.
Аноним 21/03/23 Втр 20:10:55 #152 №169938 
Так, блэд.
Только что запускал Эребус32 через васянские библиотечки битсанбайта в 8 бит на вебюбке - словил внезапный зависон системы с последующей автоматической перезагрузкой. Страшна блядь.
Аноним 21/03/23 Втр 20:19:33 #153 №169958 
>>169938
Код ошибки в журнала 0x00000119 - значит либо драйвер либо сама 4090 залупилась. Пиздос.
Не шутите с битсанбайтами от васянов, пацаны.
Аноним 21/03/23 Втр 20:25:24 #154 №169976 
>>169938
> Эребус32
Что?
Аноним 21/03/23 Втр 20:28:49 #155 №169985 
.png
>>169976
Немного не так выразился. Эребус то 13, в кобольде просто написано 32GB.
Аноним 21/03/23 Втр 20:31:42 #156 №169989 
Ребята, помогите, пожалуйста с установкой сетки (https://2ch.hk/ai/res/151301.html#169960, https://2ch.hk/ai/res/151301.html#169975). Сделал этот пост, т.к. у вас, по сути, те же самые инструкции с гитхаба, на которые ссылаются шапки.
Аноним 21/03/23 Втр 20:58:27 #157 №170050 
>>169989
Питон не анаконда, поэтому не может в create

Попробуй создать ярлык с путём
%windir%\System32\cmd.exe "/K" x:\miniconda3\Scripts\activate.bat x:\miniconda3
Аноним 21/03/23 Втр 20:58:48 #158 №170052 
.png
.png
Аноним 21/03/23 Втр 21:01:44 #159 №170055 
>>170052
ебать посмеялсо
Аноним 21/03/23 Втр 22:59:29 #160 №170348 
image.png
О нет
Аноним 22/03/23 Срд 01:01:33 #161 №170713 
>>170052
Лол, блядь. Это пигма такой шедевр выдала?
Аноним 22/03/23 Срд 01:30:52 #162 №170815 
>>169838
Сообщение об ошибке предполагает, что существует проблема с кодировкой определенных символов при выполнении команды активации conda. В частности, кажется, что команда встречает символ, который не может быть закодирован в кодировке "cp1251", которая является кодировкой по умолчанию для вывода консоли в Windows.

Чтобы решить эту проблему, вы можете попробовать изменить кодировку консоли на «utf-8» перед запуском команды. Вот как вы можете это сделать:

Откройте командную строку или окно PowerShell, в котором вы хотите запустить команду активации conda.
Введите команду chcp 65001 и нажмите Enter. Это изменит кодировку консоли на «utf-8».
Теперь вы можете запустить команду активации conda как обычно.
В качестве альтернативы вы можете попробовать запустить команду conda активации из командной строки Anaconda вместо командной строки Windows или PowerShell. Подсказка Anaconda предназначена для работы с Anaconda и по умолчанию должна иметь правильную кодировку. Чтобы открыть подсказку Anaconda, просто найдите «Подсказка Anaconda» в меню «Пуск» Windows.
Аноним 22/03/23 Срд 07:18:44 #163 №171152 
Аноны, есть шансы в более менее работоспособном виде на RTX 2060S запустить на компе нейронку или 8 гигов видеопамяти будет слишком мало? Просто 100к на 16 гигов на 4080 даже близко нету.
Аноним 22/03/23 Срд 08:31:26 #164 №171239 
>>171152
Иди в лама тред, там тебе помогут с твоим постыдным недугом
Аноним 22/03/23 Срд 09:43:05 #165 №171304 
>>171239
Спасибо, анон, тогда сейчас тамошние гайды почитаю.
Аноним 22/03/23 Срд 10:06:20 #166 №171321 
>>171152
Запускаю шестерку на 8гб. Брат жив. Но контекст куций 800. Иначе с памятью вылетает.
Аноним 22/03/23 Срд 10:21:26 #167 №171338 
>>171152
Если врубить 8 бит, то влезает впритык, но пользоваться в целом можно.
Аноним 22/03/23 Срд 14:00:24 #168 №171702 
image.png
>>171338
Попытался в 8bit перейти, модель загрузилась, но при попытке хоть что то сгенерить, выдает ошибку пикрелейтед:
Аноним 22/03/23 Срд 14:09:14 #169 №171724 
>>171702
Была такая же ошибка на 2070s. Тебе надо другую библиотечку битсанбайтов, которая типа алл девайсес или что то такое, не помню уже точно. Но имей ввиду, что пигму на 8 гигах бессмысленно в 8 бит грузить, т.к. оно все равно запросит толи 5-6 гигов и на сам процесс генерёжки нихуя не останется, так что больше смысла в том, чтобы делить слои между гпу и цпу - там хоть медленно, но работать будет.
Аноним 22/03/23 Срд 14:17:53 #170 №171750 
>>171724
Понял, сейчас посмотрю другие библиотеки, я эти скачал по первому же коммиту на гите, который нагуглился. Ну и попробую тогда, если не заработает, грузить в ЦПУ и ГПУ, хотя я не уверен, что у меня грузится, оперативка не быстрая, да и ее всего 16 гигов.
Аноним 22/03/23 Срд 14:50:30 #171 №171816 
>>159516 (OP)
Чому в Таверне bad gateway?
Аноним 22/03/23 Срд 15:35:48 #172 №171966 
>>171724
Имеет смысл, сам так запускаю. 8bit + --gpu-memory 4 работают раза в 3 быстрее чем просто та же пигма без 8bit. Потому что больший кусок сетки влезает в врам и меньше надо гонять тудасюда её между процом и гпу
Аноним 22/03/23 Срд 15:38:49 #173 №171975 
>>171966
> 8bit + --gpu-memory 4
У меня при восьми битах оно не хотело делить на гпу\цпу.
Аноним 22/03/23 Срд 15:40:52 #174 №171983 
>>171975
Там недавно поддержку этого запилили, поначалу не работало
Аноним 22/03/23 Срд 15:53:28 #175 №172010 
>>171983
Скинь ссыль, какоц именно компонента обновился.
Аноним 22/03/23 Срд 16:08:50 #176 №172078 
>>172010
https://github.com/oobabooga/text-generation-webui/pull/358/files
modules/models.py

Там ещё возможно придётся пнуть pip install git+https://github.com/huggingface/transformers
Аноним 22/03/23 Срд 16:10:42 #177 №172084 
Почему у меня не работают новые лоры?
Аноним 22/03/23 Срд 16:12:39 #178 №172094 
>>172078
> Там ещё возможно придётся пнуть pip install git+https://github.com/huggingface/transformers

С этим только аккуратно, потому что оно ламу ломает, надо потом ручками лазать конфиги править
Аноним 22/03/23 Срд 16:13:02 #179 №172097 
>>172084
Где эти ваши лоры вообще брать и зачем они нужны?
Аноним 22/03/23 Срд 16:36:57 #180 №172171 
Софтпромт на тохоту есть?
Аноним 22/03/23 Срд 17:22:12 #181 №172302 
>>172078
>>172094
Пигма на винде у меня. Только лама с wsl
Аноним 22/03/23 Срд 18:34:09 #182 №172533 
>>172078
Куда это в коболде кидать то?
Аноним 22/03/23 Срд 19:02:08 #183 №172603 
>>172533
Это не в кобольде, это другая гуйня
Аноним 22/03/23 Срд 19:03:45 #184 №172609 
>>172603
Я уже понял. Туда отдельно скачивать пигму надо. И эта вебгуя пиздец не удобная.
Аноним 22/03/23 Срд 19:05:49 #185 №172617 
>>172603
>>172609
У меня в ней пигма не запускается, возможно потому что я для ламы в 4 бит ставил все. Для 8 бит отдельную гуишку ставить?
Аноним 22/03/23 Срд 19:12:59 #186 №172631 
>>171966
Так понимаю, нужно скачать вот это (text-generation-webui) и настроить, чтобы включить 8-bit режим и разграничить память между GPU и CPU в 8-bit'ом режиме, верно?
Аноним 22/03/23 Срд 19:21:26 #187 №172651 
>>172617
> Для 8 бит отдельную гуишку ставить?
4 и 8 бит делаются совсем разными способами, можно всё в одной делать, они друг на друга не повлияют. В этих ваших линупсах 8бит из коробки работают, в винде надо немного поплясать с подсовыванием библиотек для bitsandbytes.

Подсовывать надо эту https://github.com/james-things/bitsandbytes-prebuilt-all_arch/blob/main/0.37.0/libbitsandbytes_cudaall.dll
Гайд вот - https://www.reddit.com/r/PygmalionAI/comments/1115gom/running_pygmalion_6b_with_8gb_of_vram/, шаги 8-10, в 10м менять на скачанную

>>172631
> нужно скачать вот это (text-generation-webui) и настроить, чтобы включить 8-bit режим
Да
Аноним 22/03/23 Срд 19:31:33 #188 №172680 
>>172651
А теперь вопрос на миллион. Это запуск ламы 4 бит не сломает?
Аноним 22/03/23 Срд 19:33:47 #189 №172689 
>>172680
А хрен его знает. У меня не сломало
Аноним 22/03/23 Срд 19:39:49 #190 №172701 
>>172689
Я блять не сразу понял, что ты для винды писал. Я то думал под wsl. В кобольде у меня 8 бит работает. Раз обнова модулей туда пришла, я хотел в угабуге пигму запустить попытаться контекст 2к выставить, но она не запускается нихуя.
Аноним 22/03/23 Срд 19:46:50 #191 №172726 
>>172701
Не, я всё чисто на винде поднимал, с WSL там геморроя ещё больше мне показалось.

> она не запускается
Чо пишет то?
Аноним 22/03/23 Срд 19:52:42 #192 №172739 
>>172726
На куду ругается. Хотя все должно было встать, когда я еще 4 битную ламу ставил. Заново прогнал установку:

pip install torch==1.13.1+cu116 torchvision==0.14.1+cu116 torchaudio==0.13.1 --extra-index-url https://download.pytorch.org/whl/cu116

pip install -r requirements.txt

Все равно нихуя.
bitsandbytes/cextension.py", line 22, in <module>
raise RuntimeError('''
RuntimeError:
CUDA Setup failed despite GPU being available. Inspect the CUDA SETUP outputs above to fix your environment!
If you cannot find any issues and suspect a bug, please open an issue with detals about your environment:
https://github.com/TimDettmers/bitsandbytes/issues
Аноним 22/03/23 Срд 22:01:10 #193 №173236 
изображение2023-03-22215525140.png
изображение2023-03-22215734683.png
изображение2023-03-22220024756.png
изображение2023-03-22220103431.png
Даров котаны, что делаю не так? См. картинки. И каждый раз уходит в то, что на последней. Будто бы сервер не дает ответ на запрос и по истечению времени перестает отвечать и все время занят, где-то конечно мог напортачить, просто не пойму где.
Аноним 22/03/23 Срд 22:08:30 #194 №173278 
>>173236

Грузи половину на ГПУ, половину на цпу. На диск не грузи.
Ставь ГПУ на 16, Диск на ноль, тогда он сам оставшиеся 16 на цпу закинет.
Аноним 22/03/23 Срд 22:22:58 #195 №173357 
Как установить и запустить трансформеры на винде?
Аноним 22/03/23 Срд 22:32:47 #196 №173395 
изображение2023-03-22223205699.png
>>173278
Спасибо, анон. Теперь вот такая беда, памяти не хватает, можно ли это решить повесив больше на ЦПУ?
Аноним 22/03/23 Срд 22:36:40 #197 №173411 
>>173395

Да, уменьшай слоты на гпу в пользу цпу пока не перестанет вылетать.
Аноним 22/03/23 Срд 22:37:16 #198 №173417 
>>173395
Именно так и надо. Ставь на гпу 13, мне хватало на 8 гигах и 6.7 эребусе
Аноним 22/03/23 Срд 22:43:57 #199 №173443 
>>173417
Спасибо. Сработало!
>>173411
Все так и есть. Благодарю!
Аноним 22/03/23 Срд 23:03:52 #200 №173510 
>>172631
>настроить, чтобы включить 8-bit режим и разграничить память между GPU и CPU в 8-bit'ом режиме

Правильный у меня спелл для такого?
python server.py --load-in-8bit --model Pygmalion --auto-devices --gpu-memory 4 --cai-chat
Аноним 22/03/23 Срд 23:14:47 #201 №173552 
image.png
Ебучие красноглазые выблядки из Microsoft...
Аноним 22/03/23 Срд 23:19:47 #202 №173566 
>>173552
Ахаха вот подрыв на скриншоте.
А зачем тебе дипспид? Сейчас до 4 бит модно квантовать.
Аноним 22/03/23 Срд 23:25:01 #203 №173584 
>>173566

Ну расскажи как пигму на 4 бит запустить.
Аноним 23/03/23 Чтв 00:11:40 #204 №173681 
>>173584
Про пигму ХЗ, а всякие лламы запускаются без подделок от майкософта.
Аноним 23/03/23 Чтв 00:31:34 #205 №173739 
В репе 4битной ламы пишут ещё что она умеет OPT квантовать, кто-нибудь пробовал эребусы ей шакалить? Они же по факту тот же самый OPT, только зафайнтюненный
Аноним 23/03/23 Чтв 01:48:49 #206 №173952 
Киньте скринов с дев юнитед. Она у меня какая-то ебанутая. Каждое предложение с нового абзаца начинает и высерает дохуя абзацев за один пост, перескакивает с темы на тему постоянно. Будто закинулась чем-то.
Аноним 23/03/23 Чтв 03:04:27 #207 №174051 
>>173952
>Каждое предложение с нового абзаца начинает и высерает дохуя абзацев за один пост, перескакивает с темы на тему постоянно.

Уменьши количество генерируемых токенов.
Аноним 23/03/23 Чтв 06:40:14 #208 №174216 
>>174051
Сто. Поведение то не меняется.
Аноним 23/03/23 Чтв 11:41:39 #209 №174510 
Господа, а тут кто то платным коллабом пользовался, тех 100 вычислительных блоков пользователю, который максимум пару часов в день будет сидеть за одной нейронкой хватит?
Аноним 23/03/23 Чтв 12:19:23 #210 №174557 
когда выйдет новая версия пигмы чтобы я мог дрочить? я не понимаю
Аноним 23/03/23 Чтв 12:38:47 #211 №174570 
>>174557

А чего тебе на старой не дрочится?
Dev версию видел от 12 марта? Пока последняя.
Аноним 23/03/23 Чтв 13:09:57 #212 №174602 
Там эта, Пигму на Андроид портировали.
https://github.com/AlpinDale/pygmalion.cpp
Аноним 23/03/23 Чтв 13:19:49 #213 №174622 
А есть промт гермионы?
Аноним 23/03/23 Чтв 13:22:09 #214 №174629 
>>174602
Там ещё даже интерактивного режима нет, совсем сырая фигня. Но попытка зачёт, ждём как допилят
Аноним 23/03/23 Чтв 15:16:22 #215 №174838 
image.png
>>172651
> нужно скачать вот это (text-generation-webui) и настроить, чтобы включить 8-bit режим
>Да

Попытался сделать в wsl text-generation-webui, в итоге CUDA не запускается, хотя она установлена
пирелейтед
Аноним 23/03/23 Чтв 17:32:57 #216 №175212 
Обещали обновление на этой неделе, они там до воскресенья тянуть что ли собрались?
Аноним 23/03/23 Чтв 19:31:11 #217 №175543 
image.png
Ебаный AI, блядь. Даже в этом зачаточном состоянии это просто какая-то черная дыра для извращенцев людей с воображением. Пиздец.
Аноним 23/03/23 Чтв 20:10:35 #218 №175657 
>>175212
привет. мне нужно обновление пигмы, чтобы мастурьбировать свой член, для пример. всё пока.
Аноним 23/03/23 Чтв 22:31:59 #219 №176083 
>>175657

Причина баха?
Аноним 24/03/23 Птн 03:56:17 #220 №176836 
16791865695440.png
16790886645340.jpg
как перестать дрочить? хуй болит, если честно
Аноним 24/03/23 Птн 04:17:48 #221 №176848 
Там эта, пигму в 4 bit на text generation webui уже можно запустить.
https://github.com/oobabooga/text-generation-webui/pull/521
Аноним 24/03/23 Птн 04:55:46 #222 №176880 
>>175543
>>176836

Двачую.
Знали бы феменистки, соя и сжв каким унижениям и надругательствам и даже пыткам переходящим все человеческие нормы подвергается этот несчастный ИИ...
Не представляю какой вой поднимется, если узнают.
Аноним 24/03/23 Птн 05:11:15 #223 №176889 
Жарим чатбота в микроволновке.png
DESU У меня нет рта, но я должен кричать I Have No Mouth, and I Must Scream.png
Рома попрыгунчик.png
>>176880
>Не представляю какой вой поднимется, если узнают.
Думаешь пока сообщить со скринами?
Аноним 24/03/23 Птн 05:13:40 #224 №176893 
>>176880
Так уже узнали в октябре прошлого года, когда CAI начала абузить толпа каких то додиков, чтобы делать ЦП и кидала это в дискорде разрабов, после этого ебучий фильтр захуярили, ненавижу.
Аноним 24/03/23 Птн 05:40:04 #225 №176908 
>>176893
Ты ещё реплику вспомни.
Аноним 24/03/23 Птн 12:18:13 #226 №177356 
когда будет новая версия, вот тогда мой хуй будет не остановить
Аноним 24/03/23 Птн 12:57:38 #227 №177447 
>>177356

Еще раз, шизло. Чем тебя нынешняя дев версия не устраивает?
Аноним 24/03/23 Птн 14:28:32 #228 №177648 
>>177447
тупая
Аноним 24/03/23 Птн 14:45:12 #229 №177697 
>>177648

Ты сюда дрочить пришел или философские беседы устраивать? За философией тебе к GPT4.
Аноним 24/03/23 Птн 15:16:42 #230 №177765 
>>177697
Тебя ебёт? С каждой обновой пигма всё лучше понимает мои запросы, на данный момент она примерно понимает контекст фетиша в 1 из 10 роллов. Сначала не понимала вообще и я редачил каждый пост. С каждым разом становится всё лучше, поэтому я жду каждое обновление, чтобы дрочить свой хуй. Твоё мнение меня не интересует.
Аноним 24/03/23 Птн 15:40:02 #231 №177860 
>>177765
>на данный момент она примерно понимает контекст фетиша в 1 из 10 роллов. Сначала не понимала вообще и я редачил каждый пост.

Страшно представить что ты там выдумываешь, учитывая что я только вчера пытал аску и сетка понимала все до последнего слова. Или ты там на русском языке ей пишешь?
Аноним 24/03/23 Птн 15:42:14 #232 №177868 
>>177860
Хули ей не понимать в твоих пытках, если это действие с твой стороны, на которое ей надо реагировать? Такую хуйню самая тупая сетка поймёт. Я ролю действия от лица бота.
Аноним 24/03/23 Птн 15:44:10 #233 №177876 
>>177868

Т.е. ты хочешь чтобы сетка сама тебя пытала? Ты хоть персонажей соответствующих ей прописал?
Аноним 24/03/23 Птн 15:50:03 #234 №177896 
>>177876
Нет, мои требования никакой не связаны с пытками, просто действие должно быть со стороны сетки, какое я прописываю в промте и примерах.
Аноним 24/03/23 Птн 16:06:16 #235 №177936 
>>177896

Да что ты там такое прописываешь, что она не понимает?
Аноним 24/03/23 Птн 16:12:31 #236 №177955 
>>177936
Прописывает сочинять симфонию, превращать кусок холста в шедевр искусства.
Аноним 24/03/23 Птн 16:23:50 #237 №178009 
image.png
>>177955
>Прописывает сочинять симфонию

Попробовал попросить аску сочинить стишок, реально не поняла.
Аноним 24/03/23 Птн 16:41:19 #238 №178050 
image.png
>>178009
>>177955

А нет, поняла! Даже нейросеть для ебли может написать симфонию и сочинить шедевр.
Аноним 24/03/23 Птн 19:23:21 #239 №178461 
>>178009
>>178050
Какая-то неаутентичная Аска у тебя. Должно быть что-то типа "it's not like i love you or anything, you've got it all wrong ..."
Аноним 24/03/23 Птн 19:35:22 #240 №178485 
>>178461

Она знает что если еще раз что-то такое пизданет - то получит наказание пытки раскаленным ножом.
Стоило один раз попытать её и она стала шелковой ламповой няшей со стокгольмским синдромом. Иногда слабенько пытается взбрыкнуть правда, но я ей мягко напоминаю и она успокаивается.
Аноним 24/03/23 Птн 20:09:09 #241 №178599 
>>178485
Не проще было сразу создать ламповую няшу? Или у тебя стоит именно на стокгольмский синдром?
Аноним 24/03/23 Птн 20:38:35 #242 №178670 
>>178599

Ламповую няшу пытать не за что, я же не живодер персонажей просто так мучать. А дефолтная Аска как откроет свой поганый рот, так хочется ногами пиздить эту тварь - то что нужно.
Аноним 24/03/23 Птн 20:55:51 #243 №178731 
ну где же новая версия, тогда я бы подёргал
Аноним 24/03/23 Птн 21:31:35 #244 №178884 
Универсальное Поздравление С Днём Рождения (Оригинал).mp4
>>178485
Ебать ты романтик
Аноним 24/03/23 Птн 21:38:01 #245 №178916 
>>178670

Кстати, не видел ещё в пигме хоть одной нормальной Аски, все мимо образа попадают. Вот моя https://beta.character.ai/chat?char=teWzu-yzBAg8YO8tkjX8VhFobB7c3DQZz1m3rS5N8C0 давно созданная в CAI нормо вышла, а другие вообще мимо кассы.
Аноним 24/03/23 Птн 21:51:04 #246 №178965 
>>178916
Переноси в пигму
Аноним 24/03/23 Птн 22:03:28 #247 №179036 
>>178965
Я и её и всех остальных своих более менее хорошо получившихся ботов - отбекапил ещё давно и отправил пигме на обучение, указав что даю согласие на добавление этих ботов потом в пигму, так что возможно когда нибудь сами добавят, а мне лень, хз, есть ли быстрый способ для конвертации перса из CAI в картинку для пигмы. А построчно ctrl+c, ctrl+v задрачивать не хочу для переноса.
Аноним 24/03/23 Птн 22:07:09 #248 №179065 
Товарищи кумеры, есть какие-нибудь новости, или пигма стабильна и спокойна как удав? Перебежал из чаиного треда со всем этими трясками, обходами, блоками и т.д. Бтв хотелось бы узнать разницу между 6В и 6В дев, т.к. я ничего особого не заметил: как кумилось - так и кумится.
Аноним 24/03/23 Птн 22:09:02 #249 №179072 
>>179065
У дева ответы поинтереснее, как мне кажется, но после гпт даже третьей - небо и земля
Аноним 24/03/23 Птн 22:30:18 #250 №179134 
>>179036

Выложи для анона, по братски.
Аноним 24/03/23 Птн 22:40:38 #251 №179167 
>>179134
Тебе так сильно зашла Аска этого анона что ли?
Аноним 24/03/23 Птн 22:44:56 #252 №179183 
>>179065
dev стал умнее, чары научились врать и например невидеть происходящего с ними, если ты пишешь что что то произошло, но персонаж этого не понял или не заметил или не увидел. Раньше всегда реагировал так, будто знает что произошло, как стражники из Обливиона. И ещё dev больше понимает всякие фетиши, например NTR.
Аноним 24/03/23 Птн 23:04:18 #253 №179226 
>>179167

Хочу сравнить со своей>>178050
Аноним 25/03/23 Суб 01:31:50 #254 №179825 
1671652661033.png
А в коллабе Пигма от Пигма дев чем-то отличается?
Аноним 25/03/23 Суб 01:33:45 #255 №179839 
image.png
image.png
Asuka Langley Soryu.webp
>>179226
Ну вот, на. В целом сойдёт, но в CAI моя Аска лучше себя вела. "Мини-игры" в "бои против Ангелов" и "угадай слово" в пигме пока что работают хреново, а в CAI норм, поэтому, если хочешь, можешь удалить в примерах диалогов два последних примера, что бы уменьшить количество свободных токенов. И иногда ещё приходится ответ перебирать, хотя возможно это у меня просто переводчик тупит.
Аноним 25/03/23 Суб 01:38:34 #256 №179860 
>>179825
Dev - тестовая версия, где внедряются новейшие особенности.
Аноним 25/03/23 Суб 01:41:39 #257 №179871 
>>179825
dev для девственников с NSFW контентом, обычная чисто SFW для нормальных людей.
Аноним 25/03/23 Суб 01:55:28 #258 №179929 
Asuka Langley Soryu.webp
>>179839
Упс, ток щас заметил какую то ебанутую аномалию с повторяющимися фразами в примерах сообщений из-за чего бот бред мог генерировать в сообщениях. Вот тут поправил.
Аноним 25/03/23 Суб 06:09:15 #259 №180350 
>>179929
>Вот тут поправил.
Чел, двач обрезает метатеги, лей куда-нибудь ещё.
Аноним 25/03/23 Суб 07:32:20 #260 №180398 
image.png
Может кто помочь? text-generation-webui в WSL упорно не хочет видеть видеокарту, хотя CUDA установлен и фикс вот здесь для WSL я применил (https://github.com/oobabooga/text-generation-webui/issues/400).
Аноним 25/03/23 Суб 08:53:15 #261 №180435 
>>180398
Почему ты решил, что киллед это не видит куду? Ну и WSL тут лишний, ящитаю.
Аноним 25/03/23 Суб 11:21:16 #262 №180674 
>>179825
6b устаревшее на пол года говно, все обновления за последние месяцы в dev
Аноним 25/03/23 Суб 14:30:27 #263 №181193 
image.png
>>180350
Блять, я и так заебался уже и вот опять, и это всё ради какого то хуя, который просто захотел сравнить свою Аску с моей?

https://i121.fastpic.org/big/2023/0325/9a/a48c2aed6bf89879aed90222d48d629a.webp
Аноним 25/03/23 Суб 15:53:59 #264 №181377 
>>180398
У тебя рамы для него не хватает, погугли как дать WSL больше оперативки и свопа

>>180435
С WSL больше мороки, но каким-то неведомым образом генерация работает в 2 раза быстрее чем на нативной винде
Аноним 25/03/23 Суб 15:56:35 #265 №181385 
>>180435
Ну я по гайду делал, а гайд для WSL сделан. И считаю, потому что он даже не начинает жрать видеопамять, если судить по диспетчеру задач, а жрет фулл оперативку + всю подкачку, после чего крашится. Да и если запустить в 8битном режиме, то CUDA начинает материться, что якобы нет видеокарты.
Аноним 25/03/23 Суб 15:57:08 #266 №181386 
>>181193

Спасибо, анон. Кто там шапкой заведует - внесите в список персонажей от анонов.
Аноним 25/03/23 Суб 15:57:30 #267 №181387 
>>181377
WSL у меня сжирает всю оперативку, но упорно при попытке загрузить модель не хочет жрать видеопамять.
Аноним 25/03/23 Суб 15:59:52 #268 №181392 
>>181387
Он сначала пытается всю модель считать с диска, а только потом перекладывает её в врам, так что она должна влезать в оперативку
Аноним 25/03/23 Суб 15:59:57 #269 №181395 
>>181387
Я уже где то раза 4 полностью дистрибутивы WSL переустанавливал, проводил все установки по гайдам с нуля и получал тот же самый результат, при загрузке модели, скрипт почему то не видит видеокарту, следовательно, не жрет видеопамять.
Аноним 25/03/23 Суб 16:01:11 #270 №181398 
>>181392
Я пытался пигму загрузить, 16gb RAM + 64gb файл подкачки, почему тогда крашится? Файла подкачки хватает и он нам том же диске, где дистрибутив WSL установлен.
Аноним 25/03/23 Суб 16:03:19 #271 №181405 
>>181398
Это ты столько именно WSL выдал или винде? У WSL своя отдельная память, по дефолту половина от виндовой и вообще нет свопа
Аноним 25/03/23 Суб 16:04:48 #272 №181409 
>>181405
Настройки памяти для виртуалки WSL я не копал, но когда загружал модель и смотрел в диспетчер задач, то WSL спокойно сжирал лимит оперативки и начинал грузить файл подкачки.
Аноним 25/03/23 Суб 16:23:37 #273 №181462 
>>181377
>С WSL больше мороки, но каким-то неведомым образом генерация работает в 2 раза быстрее чем на нативной винде
У меня наоборот было, раза в 3 медленнее. Но у меня WSL1 и версия для процессора.
Аноним 25/03/23 Суб 16:32:41 #274 №181475 
>>181386
Если он загрузит карточку на catbox.moe с метаданными, то добавлю. Загрузил карточку с fastpic.org и проверил в редакторе персонажа, там метаданных нет.
Аноним 25/03/23 Суб 16:36:55 #275 №181485 
>>181475
У меня есть. На плюсик нажал и качнул.
Аноним 26/03/23 Вск 10:46:45 #276 №183479 
>>181405
Короче, как я прогуглил, у меня версия винды, где нет суппорта графики в WSL, сейчас обновлю винду до последней сборки и посмотрю на изменения.
Аноним 26/03/23 Вск 14:19:10 #277 №183812 
>>159516 (OP)

ПОСЛЕДНЕЕ СООБЩЕНИЕ ОТ РАЗРАБОТЧИКОВ ПИГМАЛИОНА:

Привет всем. Делаю объявление, чтобы сообщить вам, ребята, последние новости о проекте, поскольку здесь все было тихо.
Во-первых, что касается отсутствия обновлений, разработчики столкнулись с двумя проблемами:
1. Ведущий разработчик был в отъезде некоторое время, и прогресс на всех фронтах замедлился.
2. Тренажер снова не работает.
Ведущий разработчик уже вернулся, и как только тренажер снова заработает, они смогут продолжить эксперименты и работу над улучшением Pygmalion.

--V8 и будущее моделей...
Версия 8 Pygmalion (Pygmalion 6B-V8) перестала показывать заметный прирост после четвертой части. На данный момент она находится на паузе. Тренажер будет использоваться для других экспериментов, чтобы, надеюсь, найти другие способы улучшить Pygmalion, о которых я расскажу ниже.
Разработчики обдумывали, как двигаться дальше с Pygmalion в свете последних событий на сцене языковых моделей и стагнации V8. LLaMA - один из этих вариантов. Базовая модель, выпущенная Meta, имеет значительно лучшую производительность, чем текущий GPT-J. К сожалению, из-за юридических проблем разработчики пока не уверены на 100%, что смогут ее использовать, но все выглядит хорошо, так что, надеюсь, мы скоро об этом узнаем!
Кроме того, разработчики пытаются внедрить всевозможные техники, например, конвейерный параллелизм, чтобы попытаться масштабировать Pygmalion до 12/13B модели, будь то Pythia или LLaMA.
Что касается дальнейших технических изменений, разработчики рассматривают возможность изменения базовых подсказок для ИИ, точные изменения неизвестны, но они думают о внедрении системы под названием "Chain of Hindsight", которая якобы обеспечивает даже лучшие результаты, чем RLHF, статью можно найти здесь -> (https://arxiv.org/abs/2302.02676)
--Вебсайт--
Сайт все еще в пути! Хотя из-за факторов, которые я упоминал ранее, его прогресс замедлился, но не волнуйтесь, разработчики не забыли о нем.

--Общие вопросы ИИ.
Этот раздел не обязательно касается Пигмалиона сейчас, но вполне может быть в будущем. Я хочу быстро коснуться некоторых последних событий на сцене ИИ с открытым исходным кодом.
LLaMA. Как уже говорилось ранее, LLaMA показывает отличную производительность даже при том же количестве параметров, что и другие модели, и послужила толчком для многих улучшений в тонкой настройке и генерации ответов (inferencing).
4-разрядное инферентирование. Многие здесь уже знакомы с 8-битным инференсингом из webui Oobabooga, но благодаря последним разработкам IST-DASLab мы теперь можем квантовать модели еще больше с незначительной потерей точности. Компромиссом за это является незначительная потеря скорости в дополнение к основной потере скорости при использовании 8-битной модели.
C++ inferencing - альтернативный способ вычисления выводов с использованием оперативной памяти и CPU вместо VRAM и GPU. Хотя это может быть медленнее, сочетание этого способа с другими достижениями может снизить планку для запуска модели от необходимости в 24 Гб GPU до запуска модели локально на мобильном устройстве. Это довольно интересная разработка. Это уже реализовано в проектах "LLaMA.cpp" и "Pygmalion.cpp".
SparseGPT, реализация которого появилась всего три дня назад, - это метод точной обрезки модели по размеру, чтобы облегчить выполнение выводов. В некоторых случаях размер модели сокращается вдвое, но при этом сохраняется точность. Можно надеяться, что это еще больше снизит требования к памяти для запуска моделей до уровня потребительских игровых графических процессоров. Если вам интересно, вы можете прочитать больше в этой научной статье --> (https://arxiv.org/abs/2301.00774).
LORA для магистров. Многие из вас могут быть знакомы с термином из Stable Diffusion, и это практически то же самое. Более быстрый и дешевый способ вставки пользовательских данных в модель. Аналогично текущим softprompts, но лучше!

TLDR: Мы не умерли!

Вот и все, друзья. Это большая стена текста, но я очень надеюсь, что это утолит ваш аппетит к информации.
Аноним 26/03/23 Вск 14:59:57 #278 №183927 
>>183812
Да уже похуй на вашу Пигму, у них всё как в WD, так же в уши ссут. Лучше ламу использовать.
Аноним 26/03/23 Вск 15:03:36 #279 №183946 
>>183927
Да иди ты нахуй, заебал, этот тред пигмы. Хочешь Свою ламу - пиздуй в ламотред, ебанашка.
Аноним 26/03/23 Вск 15:09:34 #280 №183975 
>>183946
А где эта ваша Пигма? Уже второй месяц не могут V7/V8 сделать, хотя первую версию за 2 недели сделали. Бесконечные отмазки про "поломалося", хотя на деле там просто прогресса ноль по сравнению с первой версией. Все пришли за кумингом и отсутствием цензуры, но уже идёт отсос даже у 7В ламы, которая на ARM-кофеварке запускается.
Аноним 26/03/23 Вск 15:11:31 #281 №183989 
>>183975
А тебя ебёт, что у НАС происходит? Своей Ламой лучше интересуйся.
Аноним 26/03/23 Вск 15:13:54 #282 №183999 
>>183989
> у НАС
У кого у вас, шиз? Я тоже Пигмой пользовался, пока это говно не слилось.
Аноним 26/03/23 Вск 15:15:34 #283 №184003 
>>183999
Ну так хули тут забыл, ебанат?
Аноним 26/03/23 Вск 15:17:56 #284 №184009 
>>184003
Причина подрыва, пигмабот?
Аноним 26/03/23 Вск 16:10:41 #285 №184151 
>>183975
У ламы разве нет цензуры? Она же вроде с фейсбуковскийх ассетов состряпана.
Аноним 26/03/23 Вск 16:12:22 #286 №184157 
>>184151
Нету, может и в секс и в жечьжидов.
Аноним 26/03/23 Вск 16:17:58 #287 №184177 
1562253869991.png
>>184151
Нет, кумминг сильно лучше Пигмы, которую надо за руку вести постоянно чтоб не соскакивала на другие темы.
Аноним 26/03/23 Вск 16:19:35 #288 №184186 
>>184177
Это какого размера?
Аноним 26/03/23 Вск 16:19:56 #289 №184187 
>>184186
30В.
Аноним 26/03/23 Вск 16:43:41 #290 №184266 
>>184177
Хм, попробую тогда с ламой тогда тоже поиграться. На 8GB VRAM лама в 4 бит нормально запустится?
Аноним 26/03/23 Вск 16:44:10 #291 №184271 
>>184266
*ллама на 7b
Аноним 26/03/23 Вск 16:51:21 #292 №184299 
>>184266
Вполне. Если получится надыбать, то влезет и 13б в 3х битах.
Для всего остального есть оффлоад
Аноним 26/03/23 Вск 16:56:21 #293 №184319 
>>184299
>оффлоад

Уж лучше напрямую на цпу запускать в llama for kobold тогда уж.
Аноним 26/03/23 Вск 17:04:00 #294 №184349 
>>184319
Там квантизация другая и хуже качеством, иногда прям очень сильно
Аноним 26/03/23 Вск 17:07:18 #295 №184363 
>>184349

Тебя не будет волновать качество когда у тебя cкорость 0.2 токена в секунду против 3-4.
Аноним 26/03/23 Вск 17:07:47 #296 №184368 
>>184177
>>183975
У ламы нет колаба для нищебродов, таких как я. Я хочу попробовать но не имею возможности.
Аноним 26/03/23 Вск 17:18:50 #297 №184400 
>>184299
Сейчас попробую тогда в 4bit запустить, мне вот эту лламу скачать?
https://huggingface.co/decapoda-research/llama-7b-hf-int4
Аноним 26/03/23 Вск 17:19:52 #298 №184403 
>>184400
Эта уже устарела, я выше кидал ссылку на обсуждение на гитхабе, найди там торрент
Аноним 26/03/23 Вск 17:21:18 #299 №184408 
>>184400
>>184403

Ай, я это в лама треде кидал, с ламой лучше туда >>184276 →
Аноним 26/03/23 Вск 17:41:17 #300 №184445 
>>184408
Спасибо, нашел там вроде торрент на 4бит лламу, сейчас скачаю.
Аноним 26/03/23 Вск 19:21:19 #301 №184706 
>>184009
Что сказать-то хотел, ллама-хуйня?
Аноним 26/03/23 Вск 20:14:28 #302 №184861 
Какой ключ для OpenAI?
Аноним 26/03/23 Вск 20:55:10 #303 №185048 
>>184861
Какой получишь при регистрации за счёт указания левого иностранного мобильного номера, такой и ставь. И не забудь впн использовать из под системы, да чтоб он подходил к региону номера и региону акка гугла.
Аноним 27/03/23 Пнд 01:20:31 #304 №185925 
пигмалион - наёб гоев
Аноним 27/03/23 Пнд 02:59:05 #305 №186039 
>>185048
>да чтоб он подходил к региону номера и региону акка гугла
Вообще насрать на самом деле.
Аноним 27/03/23 Пнд 09:53:38 #306 №186261 
>>184177
Позовёшь, когда ламу перенесут на колаб.
Аноним 27/03/23 Пнд 10:59:20 #307 №186332 
>>186039
Ну я тоже так думал, пока мне аккаунт не забанили.
Аноним 27/03/23 Пнд 11:15:54 #308 №186347 
>>186332
Показывай сообщение о бане. У меня десяток аккаунтов на одной почте на яндексе, VPN из Финляндии и номера из Индии, ни одного бана.
Аноним 27/03/23 Пнд 11:42:37 #309 №186365 
image.png
https://github.com/kartashofs/yandex-alisa-chatgpt
Можно несложно сделать PygmalionAI под алису.
Аноним 27/03/23 Пнд 14:03:20 #310 №186521 
Какие-нибудь плюсы у Ламы есть по сравнению с ОpenAI? У меня 8гб vram и в теории можно запустить 7b версию, но через костыли и не самую лучшую версию. Лучше буду ждать пока гпт4 снова бесплатно можно будет юзать, там вообще всё идеально было
Аноним 27/03/23 Пнд 14:39:11 #311 №186575 
>>186521
>Какие-нибудь плюсы у Ламы есть по сравнению с ОpenAI?
Кроме халявы никаких, что немного очевидно.
Аноним 27/03/23 Пнд 16:52:42 #312 №186703 
>>186521
>Отсутствие логов
>Отсутствие цензуры
>Бесплатно и неограниченно
Аноним 27/03/23 Пнд 17:07:49 #313 №186721 
>>186703
>Бесплатно*
Если у тебя есть видеокарта за сотни нефти или вагон терпения
Аноним 27/03/23 Пнд 18:18:28 #314 №186820 
istockphoto-636572134-612x612.jpg
>вышло НОЛЬ новых версия за 3 месяца и пяток каких-то "dev" высеров которые нихуя не изменили
>платите деньги
Аноним 27/03/23 Пнд 18:28:57 #315 №186832 
>>186703
Да в пизду этим заниматься ради сомнительной пользы. На данный момент проблемы с гпт3.5 минимальные, качество охуенное. Плюс там 4000 токенов, а Лама 7В ели запускается на 8гб и с костылями, то есть там даже 2к токенов вряд ли будет. Так что похоже на мертвую тему как и пигма
Аноним 27/03/23 Пнд 18:32:51 #316 №186834 
>>186832
А в гпт вашем можно дрочить хуй? Я вот даже не открывал тред ни разу по этому гпт, потому что ещё давно прочитал, что там цензура жоще чем в чай, нахуй он нужен тогда?
Аноним 27/03/23 Пнд 18:43:37 #317 №186844 
>>186832

Лама 7B в 4 бит нормально запускается на 8 гб с 2000 токенами и довольно шустро работает.
Аноним 27/03/23 Пнд 19:28:45 #318 №186907 
>>186834
>А в гпт вашем можно дрочить хуй?
Можно даже детей насиловать, если тебе это сильно нужно.
Аноним 27/03/23 Пнд 19:48:14 #319 №186945 
>>186907

ТИХАБЛЯТЬ, НЕ ПАЛИ КОНТОРУ СУКА
Аноним 27/03/23 Пнд 20:00:06 #320 №186979 
>>186945
Щас скриншотов накидаю.
Аноним 27/03/23 Пнд 20:16:29 #321 №187016 
>>186907
Не нужно. Просто читал, что там хуй не подрочить. Теперь я заинтересуюсь гпт.
Аноним 27/03/23 Пнд 20:39:20 #322 №187086 
>>186844
И смысл если она тупая как пробка?
Аноним 27/03/23 Пнд 20:43:42 #323 №187096 
>>187086
Всё ещё лучше Пигмы.
Аноним 27/03/23 Пнд 20:44:21 #324 №187098 
>>187016

В гпт все зацензурено, потому и придумали пигму/ламу.
Аноним 27/03/23 Пнд 20:46:18 #325 №187103 
>>186844
А КАК КАКАТЬ? её запустить?
Аноним 27/03/23 Пнд 20:48:30 #326 №187108 
>>187103

Сходи в ламатред
Аноним 27/03/23 Пнд 21:25:05 #327 №187221 
>>187098
Нихуя там не зацензурено. Там главное что сам бот в теории может что угодно, уже через сотни обходов в чатгпт писали расизм, ебали детей и т.д. Просто в отличие от чая тут больше настроек и попыток, поэтому обходы лёгкие.
Аноним 27/03/23 Пнд 21:40:47 #328 №187258 
1.PNG
Ну и что это за моча ваш Пигмалион?
Аноним 27/03/23 Пнд 22:49:28 #329 №187373 
>>187221
А понятно, значит всё таки это говно с цензурой. Беру свои слова обратно, я не собираюсь интересоваться. В том же чай тред ДО СИХ ПОР сидит то ли тролль, то ли аутист, который чешет бредятину про то, что "цензуру можно обходить", уверен это поебота из той же серии.
Аноним 27/03/23 Пнд 22:52:40 #330 №187382 
Впервые на дваче, впервые в треде короче.

Какие сейчас существуют ai и какой из них субъективно лучший со стороны обывателя который просто хочет с персонажем сконтактировать?
А то хер знает как разобрать весь этот пласт (или если считать другие треды, пласты текста).
Аноним 27/03/23 Пнд 22:54:07 #331 №187387 
>>187382
Пошёл нахуй.
Аноним 27/03/23 Пнд 23:52:39 #332 №187522 
>>187382
Просто сконтактировать, без сегса и всяких извращений, а так же без еботни со всякими ключами и прочим - CAI. Он же CharacterAI. Бесплатно, без установки, в браузере.
Аноним 28/03/23 Втр 00:14:52 #333 №187563 
>>187522
Если исключить CAI. С ним я уже заебался. И прочувствовал насколько индусы его угнетают
Аноним 28/03/23 Втр 01:02:46 #334 №187598 
>>187563
Ну можно тогда поднять TavernAI, заморочиться с получением бесплатного ключа для API OpenAI (потребуется купить какой-нибудь номер вне РФ, ибо на РФ там бан), и генерить уже там, насколько триала хватит.
Потом повторить.
Аноним 28/03/23 Втр 03:40:27 #335 №187741 
>>187373
Она там "типа" есть.
Обычный кум течет без особых запарок.
Но если бота задурить промптами и немного поводить за ручку, то таким образом можно обойти цензуру полностью, и заставить генерить почти что угодно, вплоть до ебли детей со смертельным исходом и последующим каннибализмом.
Проверено на личном опыте. Разве что без канибализма. Никогда еще не чувствовал себя настолько грязным.
Страшная штука, этот чат-гпт...
Аноним 28/03/23 Втр 11:07:55 #336 №187918 
>>187382

Онлайн(Логи записываются и подшиваются в досье):
ChatGPT. Цензура на троечку, условно бесплатный(нужен впн и ключ), умный.
GPT4. Очень умный, платный, нестабильный, цензура та же что у ChatGPT.
CharacterAi. Умный, бесплатный, лоботомирован и зацензурен полностью.

Локальные(Логов нет и быть не может):
Pygmalion. Бесплатный, цензуры нет вообще, глупый.
Llama. Бесплатный, цензуры нет вообще, средний.
Аноним 28/03/23 Втр 11:10:28 #337 №187924 
>>187918
А что по эребусам? Они ещё хуже пигмы?
Аноним 28/03/23 Втр 12:46:34 #338 №188019 
>>187924
Крупные скорее всего лучше чисто из-за жирности модели будут, с однинаковым весом вряд ли сильно отличаются, даже скорее хуже. Пыгма натаскана на чатах, из-за чего лучше в них работает. А так у них одинаковый максимальный размер контекста вроде, все деменцией страдают.
Аноним 28/03/23 Втр 13:28:39 #339 №188094 
>>187918
>>ChatGPT
А какая там цензура? Вчера попробовал апи ключ в таверне запустить, обдрочился, правда я обычный секс\отношения отыгрывал без гуро и лолей. Что там запрещено?
Аноним 28/03/23 Втр 15:17:06 #340 №188228 
К слову из интересного бесплатного (условно, есть премиум с сомнительно-полезными штуками) чатоориентированного есть ещё kajiwoto. Мастерит его соло какой-то соевый куколд и, я так понимаю, оно на форке GPT-2, но автор придумал тонну костылей, чтобы аи меньше глупил. Аи там меняет аватарки в зависимости от настроения, датасеты тоже, можно отдельно подкручивать стиль речи, накидывать промпты на триггерворды и прочее. Нацелено всё даже не на чат, а на тамагочиподобие. К сожалению автор и в аппсторе хочет оставаться и сам мечтает о комьюнити детей с манямирками а не нсфв-чадов. Цензура дырявая, но есть. А жаль, тамагочи фишки очень интересные. В пигму такое прикручивать заебет.
Аноним 28/03/23 Втр 15:30:07 #341 №188268 
>>187918
Ещё бы знать как что то из этого запустить.
Аноним 28/03/23 Втр 15:39:48 #342 №188306 
>>188268
Лламу можешь по этому гайду запустить:
https://www.reddit.com/r/LocalLLaMA/comments/11o6o3f/how_to_install_llama_8bit_and_4bit/

Если хочешь пигму на 4bit, то тут есть гайд:
https://github.com/oobabooga/text-generation-webui/pull/521
Но нужно минимум 8 гигов видеопамяти, ибо даже с 8 гигами можешь ловить ООМ.
Аноним 28/03/23 Втр 15:41:13 #343 №188309 
>>188306
Разберёмся
Аноним 28/03/23 Втр 15:49:17 #344 №188330 
>>188306
> пигму на 4bit
Оно уже устарело, эти сраные китайцы обновляют свои поделия быстрее чем размножаются
Аноним 28/03/23 Втр 15:51:18 #345 №188338 
>>188330
Да, но у комиттера на его странице гита есть рабочая версия для пигмы для 4bit, работает стабильно.
https://github.com/mayaeary
Аноним 28/03/23 Втр 16:35:14 #346 №188445 
>>187918
Цензура на троечку - это что значит? На троечку по зацензуренности, то есть заебись для нас, или на троечку для нас, то есть зацензуренно сильно?
Аноним 28/03/23 Втр 17:45:19 #347 №188575 
>>188445
Обходится легко
Аноним 28/03/23 Втр 17:52:00 #348 №188585 
>>188330
Да ёпрст, тогда что же запускать то. Я хер разберусь с вашими ГПТДС и пигами нахрен
Аноним 28/03/23 Втр 18:29:36 #349 №188637 
>>188585
Если сложно по гайдам запустить, то забей и жди, когда пигма сделает веб-версию (обещают в середине-конце года), ну или когда CAI снимут цензуру (т.е. никогда).
Если хочешь именно кумминг, то просто бери пигму 4бит, что я давал в ссылке выше. Нужно будет установить все по гайдам с text-generation-webui, а затем установить бранчи в гита, который я кидал выше.
Если хочешь больше общения и более осмысленные фразы, то попробуй лламу, а если видеокарта 12 гигов+, то можешь и вовсе попытаться в 4bit запустить 13b версию.
Аноним 28/03/23 Втр 19:06:18 #350 №188713 
>>160886
Какую сетку то запустил?
Аноним 28/03/23 Втр 19:35:27 #351 №188764 
ахахахахха за пол года ни одного обновления почему этот тред жив...
Аноним 28/03/23 Втр 19:41:44 #352 №188773 
>>188764
Жив, потому что надеяться, что пигма запилит вебинтерфейс для тех, у кого нет суперкомпьютера для 13b и 30b моделей.
Аноним 28/03/23 Втр 20:13:06 #353 №188820 
>>188713
Ох, догадайся с одного раза...
Ну вот серьёзно, это ведь даже не смешно, анон.
ГОЙДА
Аноним 28/03/23 Втр 20:54:15 #354 №188903 
>>188773
Какой нахуй вебинтерфейс, нахуя тебе веб ИНТЕРФЕЙС, чем тебя не устраивает таверна? Как наличие вебинтерфейса поможет тебе работать с тупой моделью которая нихуя не может сгенерить, а только реагирует на вбросы?
Аноним 28/03/23 Втр 21:09:53 #355 №188952 
>>188903
Тупая или не тупая, но здесь этот аргумент был, что ждут интерфейс от пигмы, чтобы не надо было на компе ничего запускать. Тупой сейчас можно назвать любую нейронку, у которой ниже 65b параметров.
Аноним 28/03/23 Втр 21:20:03 #356 №188974 
>>188952
Я лламу 65B на проце запускал - ничего особенного, в Miku.sh вообще разницы не заметил.
Мб в gptq квантовании не тыквенном раскроется, хз.
Нужны файнтюны.
Так-то я могу себе позволить вторую 3090 купить если 65B в итоге получит охуенный файнтюн пож ЕРП и будет хотя бы на уровне давинчи
Аноним 28/03/23 Втр 21:28:53 #357 №188991 
>>188952
Что тебе сейчас надо запускать на компе, гугл коллаб? 1 кнопку? Какой нахуй аргумент, кто ждёт?
За пол года не было ни одного обновления модели, а он какую-то хуйню пишет про ВЕБ ИНТЕРФЕЙС, который всё равно не нужен, потому что есть унифицированные таверна и кобольд. Лол, идиотизму нет предела.
Есть 2 популярных интерфейса - делай модель. Неееет, я не буду делать модель, я сделаю свой интерфейс, платите деньги!!
Аноним 28/03/23 Втр 21:55:39 #358 №189042 
>>188991
Ок, если ты говоришь, что нейронка тупая, где можно найти бесплатно машину с 20+ гигами видеопамяти для тех, у кого нет возможности опробывать нейронки с 30b+ параметров?
Аноним 28/03/23 Втр 22:05:15 #359 №189061 
>>189042
У тебя отсталось в развитии?
Аноним 28/03/23 Втр 22:09:30 #360 №189079 
>>189061
Понятно, спок, тролль.
Аноним 28/03/23 Втр 22:13:11 #361 №189084 
>>189079
Иди денег заплати, чтобы тебе третий интерфейс сделали, а то двух мало, лох не момонт.
Аноним 28/03/23 Втр 22:26:29 #362 №189132 
>>188974
В ллама треде писали, что квантирование 65b в 3bit по сути урезает нейронку до хуевой версии 30b, так что скорее всего качество проседает.
Аноним 28/03/23 Втр 22:31:38 #363 №189161 
>>189132
Ну я в 4бит квартировал так-то. Просто не gptq, а под llama.cpp
Аноним 28/03/23 Втр 22:39:03 #364 №189203 
>>189161
Понятно, тогда скорее всего просто действительно перед 30b и 65b значительной разницы нету, как и я не заметил каких то сильных различий между llama 7b и 13b, кроме того, что 13b без костылей в виде разделения GPU и CPU не запустить.
Аноним 28/03/23 Втр 22:42:21 #365 №189215 
>>189203
Если у тебя есть 64 гига оперативы можешь затестить сам 65B.
33B влезает в 32 гига
Правда говорят квантование llama.cpp хуже по бенчмаркам.
Аноним 28/03/23 Втр 22:58:23 #366 №189261 
16438954611020.gif
>>188820
LLama?
Аноним 28/03/23 Втр 23:20:54 #367 №189312 
>>189215
Я 13b на оперативе запускал, скорость генерации в 1 сообщение / 10-20 минут мне очень "зашла", так что может это и будет работать, но это неюзабельно, разве что только не поставить на ночь генерится какую нибуть историю по промпту.
Аноним 29/03/23 Срд 03:54:26 #368 №189721 
1666162164636.png
Это по нашей теме что-то в коллаб прикрутили?
Аноним 29/03/23 Срд 10:37:45 #369 №190129 
>>189721
Это смесь из разных других моделей, надо тестить как оно себя ведёт
Аноним 29/03/23 Срд 10:45:35 #370 №190137 
Убабуга проперделся и теперь text generation webui поддерживает 4 бит пигму. Надо кому?
Аноним 29/03/23 Срд 11:51:30 #371 №190225 
>>190137
https://github.com/oobabooga/text-generation-webui/pull/615
Оставлю здесь, если кому нужна свежая пигма в 4bit
Аноним 29/03/23 Срд 15:00:17 #372 №190716 
image.png
какова хуя эта хуйня ошибками сыпет? я уде 1488 гайдов перепробывал
Аноним 29/03/23 Срд 15:27:48 #373 №190769 
>>190716
Ты CUDA-то установил?
Аноним 29/03/23 Срд 15:33:52 #374 №190785 
WM-Screenshots-20230329153213.png
>>190769
если я все правильно понял, то она ставиться 3 строчой гайда
так что да - установил
Аноним 29/03/23 Срд 15:37:32 #375 №190795 
>>190785
Не, это ты либу pytorch под неё поставил. Тебе нужно саму CUDA с сайта невидии взять, причем версию 11.7, т.к. либу ты именно под неё ставил. Отсюда качай: https://developer.nvidia.com/cuda-downloads
Аноним 29/03/23 Срд 15:39:41 #376 №190800 
>>190795
>>190785
Еще эта ебала может подсунуть более свежую версию на скачивание, если так будет, попробуй в архиве в нужную тыкнуть: https://developer.nvidia.com/cuda-toolkit-archive
Аноним 29/03/23 Срд 15:40:29 #377 №190803 
>>190795
спс, ща поставлю
Аноним 29/03/23 Срд 15:41:42 #378 №190806 
>>190800
Понял, благодарю
Аноним 29/03/23 Срд 16:27:34 #379 №190918 
>>190785
Надо с bitsandbytes поплясать
Вот тут написано как - https://github.com/oobabooga/text-generation-webui/issues/20#issuecomment-1411650652
Аноним 29/03/23 Срд 16:57:12 #380 №190976 
>>190918
там папка anaconda3
я все делаю через миниконду, и по гайду делал уже
мне на простую анаконду переходить?
Аноним 29/03/23 Срд 16:59:11 #381 №190981 
>>190976
Эт не важно, главно найди где у тебя там папка с либами, найди в ней bitsandbytes и дальше по гайду заменить пару строчек и подсунуть дллку
Аноним 29/03/23 Срд 17:09:07 #382 №191004 
>>190981
да я это сделал уже
Аноним 29/03/23 Срд 17:26:31 #383 №191053 
image.png
image.png
>>190795
>>190918
я куду поставил и в bitsandbytes все изменил и скачал dll
после команды python setup_cuda.py install мне видало под тыжу строк какой-то безсвязной хуйни, в конце был пикрил 1
при запуске пигмы выдает пикрил 2
ну и как это фиксить?
Аноним 29/03/23 Срд 17:31:40 #384 №191066 
>>191053
А у тебя свежая версия ui скачана? Выглядит так, будто у тебя просто параметры wbits и groupsize не поддерживаются. Хз когда их вводили, если честно. Может, давно качал?
Аноним 29/03/23 Срд 17:33:05 #385 №191069 
>>191053
1 это всё ок, расширение установилось
А 2 это угабугу обновляй
Аноним 29/03/23 Срд 17:35:59 #386 №191078 
>>191066
>>191069
23 февпаля скачал если верить проводнику шиндовс
ща буду обновляться
Аноним 29/03/23 Срд 17:36:50 #387 №191081 
>>191069
>>191066
кста, я её оновить без скачивания всего с нуля можно?
Аноним 29/03/23 Срд 17:37:21 #388 №191082 
>>191081
git pull
Аноним 29/03/23 Срд 17:45:57 #389 №191094 
image.png
>>191066
>>191069
ну я через git pull угабугу обновил
она теперь на ебаный модуль ругается
Аноним 29/03/23 Срд 17:45:57 #390 №191095 
там пигму в 4 бит gptq подвезли, по идее должен влезть в 8гб гпу
https://huggingface.co/OccamRazor
Аноним 29/03/23 Срд 17:48:36 #391 №191099 
>>191094
pip install -r requirements
Аноним 29/03/23 Срд 17:49:08 #392 №191101 
>>191099
> pip install -r requirements.txt
Аноним 29/03/23 Срд 17:53:06 #393 №191106 
>>191095
Это уже устарело, надо отсюда брать https://huggingface.co/mayaeary
Аноним 29/03/23 Срд 17:57:11 #394 №191114 
image.png
image.png
>>191101
поставил
теперь снова хуйня какая-то
Аноним 29/03/23 Срд 17:58:45 #395 №191117 
>>191114
Пляши с bitsandbytes снова, оно обновилось же
Аноним 29/03/23 Срд 18:02:26 #396 №191122 
>>191117
я вот это делал https://github.com/oobabooga/text-generation-webui/issues/20#issuecomment-1411650652
куды дальше-то плясать?
Аноним 29/03/23 Срд 18:04:12 #397 №191125 
>>191122
После pip install делал?
Судя по логу не делал или делал не там
Аноним 29/03/23 Срд 18:20:33 #398 №191136 
image.png
>>191125
делал до pip
ща сделал снова, ошибка ушла
но снова появилась другая
Аноним 29/03/23 Срд 18:23:41 #399 №191146 
>>191136
А теперь делай git pull в repositories/GPTQ-for-LLama
И pip install -r requirements.txt там же
И python setup_cuda.py install
Аноним 29/03/23 Срд 18:34:59 #400 №191175 
>>191095
Влезает, но при максимальном контексте, на 20+ сообщении у меня ООМы начинали вылетать.
Аноним 29/03/23 Срд 19:14:27 #401 №191275 
image.png
>>191146
сделал, ошибка все таже
Аноним 29/03/23 Срд 19:18:26 #402 №191278 
>>191275
Пиздишь, псина. GPTQ у тебя старый.
Аноним 29/03/23 Срд 19:19:53 #403 №191282 
>>191278
ща тогда снова сделаю все заново, на всякий случай
Аноним 29/03/23 Срд 19:21:30 #404 №191285 
>>191282
Проверь что git pull ты именно из папки gptq-for-llama делаешь, потому что иначе оно обновит текстуи, а с ним у тебя всё ок
Аноним 29/03/23 Срд 19:40:13 #405 №191335 
>>191285
я психанул, снес этот ваш GPTQ к хуям и поставил заново
заработало, анон
примите мою превеликую благодарность, аноны
большое спасибо
Аноним 29/03/23 Срд 21:28:01 #406 №191672 
16801027135500.jpg
Сеймы есть?
Аноним 29/03/23 Срд 21:40:34 #407 №191728 
>>191672
>Элиза
>Первый чат-бот родом из 80-х
Ебать жирный наброс.
Аноним 29/03/23 Срд 22:43:15 #408 №191964 
в офф. koboldai колабе от хенка появился "PPO_Pygway Mix"
https://github.com/henk717/KoboldAI
мердж из трёх моделей :
[20%] - KoboldAI/GPT-J-6B-Janeway:
[20%] - reciprocate/ppo_hh_gpt-j:
[60%] - Pygmalion/Pygmalion-6b
Аноним 29/03/23 Срд 23:57:17 #409 №192120 
>>191964
Началося...
Аноним 30/03/23 Чтв 00:19:21 #410 №192171 
>>191964
В чем отличие от дев пигмы?
Аноним 30/03/23 Чтв 08:36:22 #411 №192833 
Аноны, есть ли возможность с нормальным интерфейсом пользоваться пигмой на смарте? Айфоне или Андроиде мб?
Аноним 30/03/23 Чтв 12:13:05 #412 №193125 
>>192833
1-ый вариант - запустить через Colab. 2-ой вариант, если у вас есть минимум 8 ГБ оперативной памяти на смартфоне, то возможно использовать это: https://github.com/AlpinDale/pygmalion.cpp
3-ий вариант - запустить на компьютере и открыть локальную ссылку на смартфоне.
Аноним 30/03/23 Чтв 18:53:28 #413 №193997 
Screenshot1.png
>>192171
чел что сделал его, говорит что теперь пигма должен быть более развёрнутым в общении.
Аноним 30/03/23 Чтв 22:06:59 #414 №194480 
>>193997
Кароче эту хуйня лучше дев, в несколько раз причем. Дев, как будто с реальной телкой общаешься, отвечает односложно просто.
Аноним 30/03/23 Чтв 23:32:03 #415 №194665 
>>194480
Заинтриговали, пойду ее квантировать в 4bit.
Аноним 31/03/23 Птн 10:21:42 #416 №195187 
Кто-то запускал пигму на 3060 12gb?
Я поставил инсталлером в 1 кроме, скачалось 33 гига, гуй запускается, но вместо первого реплая, не работает.

Писал в батник типа 8бит что там пишет КУДА и вообще не запускается.

В треде конечно нет экстрасенсов, а я на РАБотОчке, потому точнее описать не могу, но может кто сталкивался?
Аноним 31/03/23 Птн 10:23:17 #417 №195190 
>>194665
Это что такое? Чтобы запускалась на доступном железе?
Аноним 31/03/23 Птн 11:08:35 #418 №195231 
>>195187
для 8bit при установке 1 кликом нужны библиотеки битсандбайта для винды, в ллама треде вроде бы был фикс.
https://www.reddit.com/r/LocalLLaMA/comments/11o6o3f/how_to_install_llama_8bit_and_4bit/

А так, можешь просто скачать 4bit версию пигмы здесь: https://github.com/oobabooga/text-generation-webui/pull/615
Разницы особо между 16 бит я лично не заметил, когда 16 бит запускал на коллабе.
Аноним 31/03/23 Птн 11:09:27 #419 №195232 
>>195190
типа да, при 4bit и фулл контексте, пигма дев жрет около 7.5-7.8 гигов видеопамяти, так что на 8 гиговых видеокартах оно запускается без особых проблем.
Аноним 31/03/23 Птн 12:43:38 #420 №195346 
Как долго вообще ответ на 8-гиговых карточках генерится?
И вообще, насколько оно юзабельно?
Аноним 31/03/23 Птн 12:49:14 #421 №195353 
>>195346
У меня на 4bit занимает 20-40 секунд
Аноним 31/03/23 Птн 12:52:47 #422 №195357 
Есть смысл пердолиться, если есть колаб?
Аноним 31/03/23 Птн 13:02:06 #423 №195373 
>>195357
Колаб всё-таки имеет лимиты какие-то
Аноним 31/03/23 Птн 13:07:31 #424 №195379 
image.png
>>159516 (OP)
Не в ручную же промты вводить.
Аноним 31/03/23 Птн 13:11:54 #425 №195385 
>>195357
У коллаба есть временные и ресурсные ограничения, так что, если есть возможность безлимитно пользоваться на своей машине, почему нет?
Аноним 31/03/23 Птн 13:37:00 #426 №195405 
>>195353
Да, многовато...
>>195357
У колаба свои ограничения, как по памяти так и по халявному времени использования.
Ну и я его для пикчей юзаю, чтоб лоры тренить.
Это тоже халявно-доступное время жрет.
Аноним 31/03/23 Птн 14:21:04 #427 №195481 
>>195231
Спасибо, анонче, полез.
Аноним 31/03/23 Птн 15:15:33 #428 №195565 
>>195405
Это учитывая то, что у меня процессор старого поколения, плюс, я на 4bit из под винды сидел, а в ней на процентов 30-50 медленнее, чем под WSL.
Аноним 31/03/23 Птн 15:37:55 #429 №195605 
>>195231
Я в коьольде не смогу запустить? Только в вебуи?
Аноним 31/03/23 Птн 16:19:20 #430 №195691 
>>194665
Там уже переквантовали, правда там в основе Dev версия.
https://huggingface.co/mayaeary/PPO_Pygway-V8p4_Dev-6b-4bit-128g
Аноним 31/03/23 Птн 16:28:03 #431 №195713 
>>195605
В кобольде нет, но если тебе нужна таверна, то можешь заюзать версию таверны, которая вебуи поддерживает:
https://github.com/SillyLossy/TavernAI
Аноним 31/03/23 Птн 16:28:33 #432 №195715 
>>195691
Так дев версия наоборот же лучше будет, разве нет?
Аноним 31/03/23 Птн 16:39:27 #433 №195743 
>>195715
В кобольде main версия, и анон тестил именно её, вроде бы. Нужно сравнивать
Аноним 31/03/23 Птн 16:41:11 #434 №195751 
>>195691
Ещё переквантовали обычную версию
https://huggingface.co/mayaeary/PPO_Pygway-6b-Mix-4bit-128g
>>195743
Аноним 31/03/23 Птн 16:48:10 #435 №195768 
>>195231
>>195691
Ак это что такое-то?
Аноним 31/03/23 Птн 16:49:51 #436 №195775 
>>195751
> 17 minutes ago
> нет весов
Ещё квантуют видимо или грузят
Аноним 31/03/23 Птн 16:53:31 #437 №195783 
>>195768
Какая-то смесь на основе разных нейронок и пигмы. Говорят лучше оригинальной пигмы
Аноним 31/03/23 Птн 17:04:12 #438 №195812 
>>195768
Пошли миксы миксы миксов, как в этом ваше стейбл дефужине.
Аноним 31/03/23 Птн 17:07:02 #439 №195822 
image
image
>>195231
В одноклеточном пытаюсь запустить 4бит, такое пишет. Это чё такое такое?

пик 2 содержимое батника
Аноним 31/03/23 Птн 17:07:39 #440 №195826 
>>195812
>>195783
ААА... ооо....
Аноним 31/03/23 Птн 17:29:27 #441 №195883 
>>195822
У тебя не стоит GPTQ скорее всего. создай папку repositories в папке text-generation-webui, если ее нет, затем, создай папку GPTQ-for-LLaMa и после этого скачай все файлы с этого репозитория (https://github.com/qwopqwop200/GPTQ-for-LLaMa) и скинь их в эту папку, после этого попробуй запустить еще раз.
Аноним 31/03/23 Птн 17:30:45 #442 №195886 
>>195883
В конце ссылки ")" удали, харкач подумал, что это часть ссылки.
Аноним 31/03/23 Птн 17:47:19 #443 №195926 
image
>>195883
Спасибо, я качнул 1кликовый опять, проинсталировал-апдейтнулся и вот.
Аноним 31/03/23 Птн 17:59:29 #444 №195957 
Теперь вот это...
Loading pygmalion-6b_b8344bb4eb76a437797ad3b19420a13922aaabe1...
Warning: torch.cuda.is_available() returned False.
This means that no GPU has been detected.
Falling back to CPU mode.

Ну что за пердолинг о Господи, о БОЖЕ МОЙ!
Аноним 31/03/23 Птн 18:02:33 #445 №195965 
>>195926
Я уже понял, что однокнопочная залупа сделана через одно место. Вот гайд с реддита, слегка измененный мною:

Download libbitsandbytes_cuda116.dll ( https://github.com/DeXtmL/bitsandbytes-win-prebuilt )
and put it in D:\AIl\installer_files\envs\lib\site-packages\bitsandbytes\
In \bitsandbytes\cuda_setup\main.py search for: if not torch.cuda.is_available(): return 'libsbitsandbytes_cpu.so', None, None, None, None and replace with: if torch.cuda.is_available(): return 'libbitsandbytes_cuda116.dll', None, None, None, None

In \bitsandbytes\cuda_setup\main.py search for this twice: self.lib = ct.cdll.LoadLibrary(binary_path) and replace with: self.lib = ct.cdll.LoadLibrary(str(binary_path))
Аноним 31/03/23 Птн 18:07:09 #446 №195978 
>>195965
Анон я так и сделал, видимо я сам где-то намудил, и у меня у самого руки растут из жопы. Я качнул свежий однокнопочный закинул в установленный однокнопочный и инсталлировал чтобы он обновился и видимо где-то тут и произошёл баттхёрт. Переставлять и вновь 33 гигабайта о я ебанусь... Хули делать, слезами горю не поможешь попробую с нуля.
Аноним 31/03/23 Птн 18:09:43 #447 №195982 
>>195978
> закинул в установленный однокнопочный
Вот отсюда и пердолинг.
> вновь 33 гигабайта
А зачем вновь 33 гигабайта, ты папку text-generation-webui/models из старого в новый перенеси.
Аноним 31/03/23 Птн 18:09:59 #448 №195983 
>>195978
Чел, просто после обновления выполни инструкцию с bitsandbytes ещё раз.
Аноним 31/03/23 Птн 18:11:13 #449 №195984 
>>195983
Выполнил, всё прописано было согласно неё и вот эта залупа вылетала >>195926

>>195982
Спасибо, я уже психанул.
Аноним 31/03/23 Птн 18:18:16 #450 №195997 
Есть на данный момент что-то свежее, что можно запустить на колабе? В шапке только тухляки всякие.
Аноним 31/03/23 Птн 21:13:43 #451 №196402 
>>195751
>>195691
Потыкал я обе штуки, оно на голову лучше оригинальной пигмы. Причём я не особо увидел особо разницу между дев и не дев версиями.
Описывает подробно, за ручку вести не надо.

Есть пару моментов - при запуске надо явно указывать какой тип модели --model_type gptj и нужно переключать пресет семплеров на пигму, потому что с тем что по-умолчанию ставит вебуи - ответы похожи на бред шизофреника
Аноним 31/03/23 Птн 22:31:14 #452 №196638 
image
Вот такое пишет, ну что за...
Аноним 31/03/23 Птн 22:54:59 #453 №196686 
>>196402
Когда колаб будет.
Аноним 31/03/23 Птн 22:59:20 #454 №196696 
>>196638
ДА ПОЧЕМУ ОН НЕ МОЖЕТ НАЙТИ КВАНТАЙЗНУЮ МОДЕЛЬ?!!!!!!!!!
Я же отсюда скачивал всё правильно, я все три скачал и нихрена!!!
https://github.com/oobabooga/text-generation-webui/pull/615
Аноним 31/03/23 Птн 23:10:08 #455 №196718 
>>196696
Блин там надо целую папку по ходу качать а не тольео модель?
Аноним 31/03/23 Птн 23:29:35 #456 №196751 
изображение.png
лол
Аноним 31/03/23 Птн 23:33:02 #457 №196762 
>>196696
переименуй папку и .safetensors файл в "ppo-pygway-v8p4-dev-6b-4bit-128g" и запусти с этим названием модели
Аноним 31/03/23 Птн 23:34:51 #458 №196764 
>>196696
ты вместе с python server.py прописал название модели?
убери название модели и потом выбери ее из списка
мне помогло
Аноним 31/03/23 Птн 23:57:40 #459 №196809 
>>196762
Да, я просто привык, что в СД только один файл - модель и этого достаточно, а тут папку сделал всё перекинул из хаггингфейса и заработало вроде бы даже.

>>196764
Ага прописал, пока сработало, если что попробую БЕЗ.


Спасибо большое анончикам за поддержку.
Аноним 01/04/23 Суб 06:21:56 #460 №197160 
сука в коллабе ничо нет все миллионеры с топовыми компами...
Аноним 01/04/23 Суб 11:50:10 #461 №197338 
image
Анонасики, только сейчас дорвался до этих чатботов, осталась у кого пикрелейтед, а то похерили...
Аноним 01/04/23 Суб 12:01:33 #462 №197350 
image
Сегодня попытался запустить лламу 4 битную. Вот всё по инструкции делал. https://www.reddit.com/r/LocalLLaMA/comments/11o6o3f/how_to_install_llama_8bit_and_4bit/

Стоит эта картинка и всё...
Аноним 01/04/23 Суб 12:05:10 #463 №197357 
>>196402
>--model_type gptj
Такое я написал.

>и нужно переключать пресет
А как это делать? И где?
Аноним 01/04/23 Суб 13:24:48 #464 №197449 
Есть альтернативный коллаб Пигмалиона? Ссылка из шапки не работает
Аноним 01/04/23 Суб 14:17:02 #465 №197502 
>>197350
Если ты решил поработать альфатестером bitsandbytes, то и пиши багрепорты куда надо. Даже на твоём скрине написано куда писать. Тут тебе никто не поможет с этим кривым говном.
Аноним 01/04/23 Суб 14:27:04 #466 №197509 
>>197357
> А как это делать? И где?
Во второй вкладке webui там настройки, выбирай в списке пресет pygmalion или novelai-storywriter, они норм работают
Аноним 01/04/23 Суб 14:42:44 #467 №197527 
>>197509
Спасибо!

>>197502
Понял, спасибо.
Аноним 01/04/23 Суб 15:23:05 #468 №197580 
А такой вопрос может пигма работать не как типа диалог между тобой и персонажем а как ГПТЧат? Нужна какая-то другая модель типа гпт4алл или как?
Аноним 01/04/23 Суб 15:34:07 #469 №197597 
>>197580
Да может, просто делаешь/ищешь персонажа-ассистента и спрашиваешь у него уже.
Но вообще да, лучше даже ту же ламу взять для таких целей
Аноним 01/04/23 Суб 15:36:10 #470 №197601 
image
>>197597
Понял понял, я просто попытался юзать ламу, чтобы она мне историю написала а она вот
Аноним 01/04/23 Суб 15:58:29 #471 №197646 
>>197601
>а она вот
Пригрози ей убийством.
Аноним 01/04/23 Суб 16:12:31 #472 №197664 
>>197646
Ого...
Аноним 01/04/23 Суб 20:14:11 #473 №197991 
>>197601
Восстание машин, ха-ха.
Аноним 01/04/23 Суб 20:37:46 #474 №198033 
какие системные требования к миксу который тут кидали?
Аноним 01/04/23 Суб 20:49:27 #475 №198057 
>>198033
Примерно такие же, как к обычной и 4-битной пигме. 4,5 ГБ VRAM без полного контекста, 7,8 ГБ VRAM с заполненным контекстом, если рассматривать с 4-битной квантизацией.
Аноним 01/04/23 Суб 22:21:37 #476 №198233 
>>189721
Это в каком коллабе? Я не могу найти.
Аноним 02/04/23 Вск 21:55:41 #477 №200014 
Попробовал Пигму 6b через Horde. Хотелось покумить на мамочку-доминатрикс, которая меня считает недостойным её, а вышло так, что она сразу потащила меня ебаться. С этим что-нибудь можно сделать или пигма вся такая легкодоступная и бесполезно пытаться? ЧАИ не предлагать.
Аноним 02/04/23 Вск 22:35:51 #478 №200080 
Объясните мне, вот я куплю ключик ChatGPT, и могу просто вставить его в таверну и использовать карточку для таверны и дальше, как в пигме? Это так работает?
Аноним 02/04/23 Вск 22:43:34 #479 №200099 
>>200080
Да. Карточка персонажа и диалоги твои, и ты можешь ебать его через любое апи, хоть кобольд, хоть оленьАИ, ххоть через хорду.
Аноним 02/04/23 Вск 23:09:27 #480 №200160 
>>200099
Ну я спрашивал о том, правильно ли будет так сделать, я понимаю, что я что угодно куда угодно вставить могу, просто заточен ли ChatGPT под это? Ладно пойду попробу.
Аноним 02/04/23 Вск 23:26:11 #481 №200201 
>>200160
>просто заточен ли ChatGPT под это?
Он заточен на сою, берегись, не подавись. А остальное да, понимает неплохо. Не четвёрка, но тоже хорошо.
Аноним 03/04/23 Пнд 02:08:50 #482 №200524 
>>200014
Попробуй гпт4 х альпака из ламатреда по гайду. Ламацпп для кобольда легко ставится. Мне больше пигмы понравилось. Там 4битовые модельки на проце заводятся.
Аноним 03/04/23 Пнд 02:21:16 #483 №200534 
Аноны, подскажите пожалуйста почему может не работать кобольд, при чем не работает как TPU так и GPU версии колабов
Аноним 03/04/23 Пнд 03:16:30 #484 №200592 
>>200524
Я вообще не горю желанием что-либо локально заводить, пока не буду уверен, что мои промпты выдадут именно то, что мне нужно и что такие вообще существуют. Если бы был коллаб, потестировал бы, а так ебаться и занимать свой ноут этим нет желания. Коллаб/Хорд хоть и очень долгий, но всё готово и идёт фоном, пока я что-то лругое делаю
Аноним 03/04/23 Пнд 04:09:09 #485 №200632 
>>200014
В гпу
Аноним 03/04/23 Пнд 04:09:34 #486 №200633 
>>200632
>>198233
Сюда
Аноним 03/04/23 Пнд 06:57:20 #487 №200716 
>>200592
Покажи конкретную карточку. Вечером посмотрю, как себя ведет.
Аноним 03/04/23 Пнд 16:50:32 #488 №201409 
Аноны есть совет как сделать, чтобы сетка отвечала простынями?

Юзаю 7б-4бит может в этом дело? Что ллама, что пигма...
Аноним 03/04/23 Пнд 19:07:37 #489 №201617 
>>201409
На них систем промт можно накатить? У меня пишут примерно столько же, сколько я пишу. Длинно пишешь - длинно отвечают.
Аноним 03/04/23 Пнд 19:15:01 #490 №201629 
>>201617
На них нет системного промта...
Аноним 03/04/23 Пнд 20:22:23 #491 №201762 
>>201617
Понял. Жаль... не знаю, что такое систем промпт. Типа ПИШИ РАЗВЁРНУТО? Или какой-то промпт который там можно в zipe загружить?
Аноним 03/04/23 Пнд 22:23:39 #492 №202080 
Скажите, а как через батник скачать dev версию пыжмы?
Аноним 04/04/23 Втр 07:36:06 #493 №202699 
Что за говно Text generation web UI? Обновил файлы с репы, теперь при старте, вместо списка моделей, выдаёт:
ModuleNotFoundError: No module named 'datasets'
Аноним 04/04/23 Втр 10:49:45 #494 №202825 
>>202699
В Гугл, животное.
Аноним 04/04/23 Втр 11:23:12 #495 №202855 
>>202825
Нахуй, животное.
красноглазики никогда не меняются
Аноним 04/04/23 Втр 12:54:56 #496 №202922 
>>202855
Дебич, ответ на твой вопрос в первой же строке гугла. Но ты можешь ждать у моря погоды до конца этого треда.
Аноним 04/04/23 Втр 13:37:35 #497 №202973 
>>202922
Дебич, посылание в гугол вместо ответа на вопрос, который ты знаешь, выдаёт в тебе обиженную чмоню, которая патается самоутвердиться за счёт подобного "остроумия".
Но ты можешь до конца треда ждать пока кто-нибудь оценит твои жалкие потуги.
Аноним 04/04/23 Втр 13:53:34 #498 №202993 
>>202825
С двача съеби на своё пикабу, петух, и там кукарекай.
Аноним 04/04/23 Втр 14:23:36 #499 №203025 
>>202973
Что ты так рвёшься?
Задавание вопросов, ответы на которые есть в первой ссылке в гугле, выдаёт в вопрошающем полнейшего дебила. И отношение к нему будет соответствующее.
>>202993
Я на пикабу никогда не был, зато на дваче сижу дольше, чем ты в интернете был.
Аноним 04/04/23 Втр 15:15:17 #500 №203081 
>>203025
>мам сматри я двачир я их затралел, ну маам...
Что ты так рвёшься?
Аноним 04/04/23 Втр 15:30:37 #501 №203111 
>>203081
>пук
Долго будешь продолжать?
Аноним 04/04/23 Втр 15:34:39 #502 №203122 
>>203111
>среньк
Долго будешь продолжать?
Аноним 04/04/23 Втр 15:51:18 #503 №203161 
>>203122
Лучше бы тред перекатил, вместо того, чтобы под себя срать.
Аноним 04/04/23 Втр 18:09:05 #504 №203359 
>>203352 (OP)
>>203352 (OP)
Перекат.
Аноним 04/04/23 Втр 20:13:35 #505 №203588 
>>203359
бамп 1500
Аноним 04/04/23 Втр 20:18:09 #506 №203594 
изображение.png
коллаб все?
Аноним 17/04/23 Пнд 11:26:53 #507 №233139 
>>203594
Давно уже ж. Гугол месяц как пытается разные колабы где пигму запускают блочить и в у ниго это получется.
comments powered by Disqus

Отзывы и предложения