Сохранен 542
https://2ch.hk/ai/res/604568.html
24 декабря Архивач восстановлен после серьёзной аварии. К сожалению, значительная часть сохранённых изображений и видео была потеряна. Подробности случившегося. Мы призываем всех неравнодушных помочь нам с восстановлением утраченного контента!

Локальные языковые модели (LLM): LLaMA, MPT, Falcon и прочие №37 /llama/

 Аноним 12/01/24 Птн 16:48:35 #1 №604568 
Llama 1.png
Деградация от квантования.png
Альфа от контекста.png
17050507150900.png
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст, и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2-х бит, на кофеварке с подкачкой на микроволновку.

Базовой единицей обработки любой языковой модели является токен. Токен это минимальная единица, на которые разбивается текст перед подачей его в модель, обычно это слово (если популярное), часть слова, в худшем случае это буква (а то и вовсе байт).
Из последовательности токенов строится контекст модели. Контекст это всё, что подаётся на вход, плюс резервирование для выхода. Типичным максимальным размером контекста сейчас являются 2к (2 тысячи) и 4к токенов, но есть и исключения. В этот объём нужно уместить описание персонажа, мира, истории чата. Для расширения контекста сейчас применяется метод NTK-Aware Scaled RoPE. Родной размер контекста для Llama 1 составляет 2к токенов, для Llama 2 это 4к, но при помощи RoPE этот контекст увеличивается в 2-4-8 раз без существенной потери качества.

Текущим трендом на данный момент являются мультимодальные модели, это когда к основной LLM сбоку приделывают модуль распознавания изображений, что в теории должно позволять LLM понимать изображение, отвечать на вопросы по нему, а в будущем и манипулировать им.

Основным представителем локальных моделей является LLaMA. LLaMA это генеративные текстовые модели размерами от 7B до 70B, притом младшие версии моделей превосходят во многих тестах GTP3 (по утверждению самого фейсбука), в которой 175B параметров. Сейчас на нее существует множество файнтюнов, например Vicuna/Stable Beluga/Airoboros/WizardLM/Chronos/(любые другие) как под выполнение инструкций в стиле ChatGPT, так и под РП/сторитейл. Для получения хорошего результата нужно использовать подходящий формат промта, иначе на выходе будут мусорные теги. Некоторые модели могут быть излишне соевыми, включая Chat версии оригинальной Llama 2.

Кроме LLaMA для анона доступны множество других семейств моделей:
Pygmalion- заслуженный ветеран локального кума. Старые версии были основаны на древнейшем GPT-J, новые переехали со своим датасетом на LLaMA, но, по мнению некоторых анонов, в процессе потерялась Душа ©
MPT- попытка повторить успех первой лламы от MosaicML, с более свободной лицензией. Может похвастаться нативным контекстом в 65к токенов в версии storywriter, но уступает по качеству. С выходом LLaMA 2 с более свободной лицензией стала не нужна.
Falcon- семейство моделей размером в 40B и 180B от какого-то там института из арабских эмиратов. Примечательна версией на 180B, что является крупнейшей открытой моделью. По качеству несколько выше LLaMA 2 на 70B, но сложности с запуском и малый прирост делаю её не самой интересной.
Mistral- модель от Mistral AI размером в 7B, с полным повторением архитектуры LLaMA. Интересна тем, что для своего небольшого размера она не уступает более крупным моделям, соперничая с 13B (а иногда и с 70B), и является топом по соотношению размер/качество.
Qwen - семейство моделей размером в 7B и 14B от наших китайских братьев. Отличается тем, что имеет мультимодальную версию с обработкой на входе не только текста, но и картинок. В принципе хорошо умеет в английский, но китайские корни всё же проявляется в чате в виде периодически высираемых иероглифов.
Yi - Неплохая китайская модель на 34B, способная занять разрыв после невыхода LLaMA соответствующего размера

Сейчас существует несколько версий весов, не совместимых между собой, смотри не перепутай!
0) Оригинальные .pth файлы, работают только с оригинальным репозиторием. Формат имени consolidated.00.pth
1) Веса, сконвертированные в формат Hugging Face. Формат имени pytorch_model-00001-of-00033.bin
2) Веса, квантизированные в GGML/GGUF. Работают со сборками на процессорах. Имеют несколько подформатов, совместимость поддерживает только koboldcpp, Герганов меняет форматы каждый месяц и дропает поддержку предыдущих, так что лучше качать последние. Формат имени ggml-model-q4_0, расширение файла bin для GGML и gguf для GGUF. Суффикс q4_0 означает квантование, в данном случае в 4 бита, версия 0. Чем больше число бит, тем выше точность и расход памяти. Чем новее версия, тем лучше (не всегда). Рекомендуется скачивать версии K (K_S или K_M) на конце.
3) Веса, квантизированные в GPTQ. Работают на видеокарте, наивысшая производительность (особенно в Exllama) но сложности с оффлоадом, возможность распределить по нескольким видеокартам суммируя их память. Имеют имя типа llama-7b-4bit.safetensors (формат .pt скачивать не стоит), при себе содержат конфиги, которые нужны для запуска, их тоже качаем. Могут быть квантованы в 3-4-8 бит (Exllama 2 поддерживает адаптивное квантование, тогда среднее число бит может быть дробным), квантование отличается по числу групп (1-128-64-32 в порядке возрастания качества и расхода ресурсов).

Основные форматы это GGML и GPTQ, остальные нейрокуну не нужны. Оптимальным по соотношению размер/качество является 5 бит, по размеру брать максимальную, что помещается в память (видео или оперативную), для быстрого прикидывания расхода можно взять размер модели и прибавить по гигабайту за каждые 1к контекста, то есть для 7B модели GGML весом в 4.7ГБ и контекста в 2к нужно ~7ГБ оперативной.
В общем и целом для 7B хватает видеокарт с 8ГБ, для 13B нужно минимум 12ГБ, для 30B потребуется 24ГБ, а с 65-70B не справится ни одна бытовая карта в одиночку, нужно 2 по 3090/4090.
Даже если использовать сборки для процессоров, то всё равно лучше попробовать задействовать видеокарту, хотя бы для обработки промта (Use CuBLAS или ClBLAS в настройках пресетов кобольда), а если осталась свободная VRAM, то можно выгрузить несколько слоёв нейронной сети на видеокарту. Число слоёв для выгрузки нужно подбирать индивидуально, в зависимости от объёма свободной памяти. Смотри не переборщи, Анон! Если выгрузить слишком много, то начиная с 535 версии драйвера NVidia это серьёзно замедлит работу. Лучше оставить запас.

Гайд для ретардов для запуска LLaMA без излишней ебли под Windows. Грузит всё в процессор, поэтому ёба карта не нужна, запаситесь оперативкой и подкачкой:
1. Скачиваем koboldcpp.exe https://github.com/LostRuins/koboldcpp/releases/ последней версии.
2. Скачиваем модель в gguf формате. Например вот эту:
https://huggingface.co/TheBloke/Frostwind-10.7B-v1-GGUF/blob/main/frostwind-10.7b-v1.Q5_K_M.gguf
Можно просто вбить в huggingace в поиске "gguf" и скачать любую, охуеть, да? Главное, скачай файл с расширением .gguf, а не какой-нибудь .pt
3. Запускаем koboldcpp.exe и выбираем скачанную модель.
4. Заходим в браузере на http://localhost:5001/
5. Все, общаемся с ИИ, читаем охуительные истории или отправляемся в Adventure.

Да, просто запускаем, выбираем файл и открываем адрес в браузере, даже ваша бабка разберется!

Для удобства можно использовать интерфейс TavernAI
1. Ставим по инструкции, пока не запустится: https://github.com/Cohee1207/SillyTavern
2. Запускаем всё добро
3. Ставим в настройках KoboldAI везде, и адрес сервера http://127.0.0.1:5001
4. Активируем Instruct Mode и выставляем в настройках пресетов Alpaca
5. Радуемся

Инструменты для запуска:
https://github.com/LostRuins/koboldcpp/ Репозиторий с реализацией на плюсах
https://github.com/oobabooga/text-generation-webui/ ВебуУИ в стиле Stable Diffusion, поддерживает кучу бекендов и фронтендов, в том числе может связать фронтенд в виде Таверны и бекенды ExLlama/llama.cpp/AutoGPTQ

Ссылки на модели и гайды:
https://huggingface.co/TheBloke Основной поставщик квантованных моделей под любой вкус.
https://rentry.co/TESFT-LLaMa Не самые свежие гайды на ангельском
https://rentry.co/STAI-Termux Запуск SillyTavern на телефоне
https://rentry.co/lmg_models Самый полный список годных моделей
http://ayumi.m8geil.de/ayumi_bench_v3_results.html Рейтинг моделей для кума со спорной методикой тестирования
https://rentry.co/llm-training Гайд по обучению своей лоры
https://rentry.co/2ch-pygma-thread Шапка треда PygmalionAI, можно найти много интересного
https://colab.research.google.com/drive/11U-bC6AxdmMhd3PF9vWZpLdi6LdfnBQ8?usp=sharing Последний известный колаб для обладателей отсутствия любых возможностей запустить локально

Шапка треда находится в https://rentry.co/llama-2ch (переезжаем на https://2ch-ai.gitgud.site/wiki/llama/ ), предложения принимаются в треде

Предыдущие треды тонут здесь:
>>597686 (OP)
>>592177 (OP)
Аноним 12/01/24 Птн 17:05:30 #2 №604619 
Какие модели порекомендуете для перевода русский-английский?
Аноним 12/01/24 Птн 17:14:52 #3 №604638 
>>604619
Очевидный MADLAD 10В.
Аноним 12/01/24 Птн 17:29:31 #4 №604660 
1.png
2.png
3.png
>>604643 →
Не, это в настройках проблема, не в модели. Немного поковырял, теперь иногда серет в чат хтмл-кодом. И хуй его знает, так и должно быть, это модель пизданутая или опять настройки. Или вообще юишка глючит.
Плюс по скорости чуть веселее стало, правда, хуй знает, как это повлияет на степень лоботомизированности модели.
Аноним 12/01/24 Птн 18:16:45 #5 №604792 
>>604660
Вот у меня идентично срало простыней бреда. Возможно в файле json с настройками фигня, но я попробовал разные лоадеры и ничего толком не изменилось, лучше просто хотя бы попробовать другую модель, ибо если на другой такого не произойдет сэкономишь время, уга сама выбирает адекватные настройки, по сути кроме кнопки load ничего трогать не нужно, если об этом явно не сказано на huggingface
Аноним 12/01/24 Птн 19:02:05 #6 №604899 
Идея промпта каждому заскучавшему анону, который любит чатиться с нейро-тян (сам ещё не пробовал, но кажется, должно быть интересно): тян, которая исекайнулась в настоящее время из твоего любимого исторического периода и первый человек на которого она наткнулась был, - о, совпадение, - ты, анон. Ты помогаешь её освоиться в новом для неё мире. Думаю, может получиться довольно милая история.

P. S. Если сильно душнить, можно докопаться до того, что "как анон может знать разговорный язык того времени, из которого явилась тян? Не иммерсивно", но, как сказал один анон: "Мы тут дрочим на словари", поэтому, кого, на самом деле, будут такие условности волновать?
Аноним 12/01/24 Птн 19:12:38 #7 №604949 
>>604899
>молодой человек, это не для вас засуммонено
Аноним 12/01/24 Птн 19:37:33 #8 №605043 
>>604949
Тоже какой-то локальный мем?
Аноним 12/01/24 Птн 19:38:38 #9 №605049 
>>605043
ньюфаг детектед
Аноним 12/01/24 Птн 19:44:40 #10 №605072 
1.png
>>604792
Простыня бреда пофиксилась через Parameters - Instruction Template. Там выбрал подходящий и всё вылечилось, по дефолту стоит альпака и, видимо, модель ёбнулась от таких настроек.
>если на другой такого не произойдет сэкономишь время
Так меня устраивает эта модель. Влезает в память, генерирует связный текст и достаточно быстро. Осталось вспомнить, как я хуярил парсеры сайтов десять лет назад и начинать собирать датасет с каких-нибудь сайтов.
Аноним 12/01/24 Птн 19:44:43 #11 №605074 
>>605049
Да-да, вы меня поймали. Я пока только и могу, что лизать подмышки нейросетевых тян.
Но все-таки просвяти, в чём смысл.
Аноним 12/01/24 Птн 20:08:18 #12 №605161 
image.png
>>605074
давно, примерно в 2011 кажется был тред, где на день объятий чел подходил к тян, а ему ответили "молодой человек это не для вас написано".
Аноним 12/01/24 Птн 21:28:06 #13 №605333 
>>605161
так, падажжи, я думал этот мем каждому человеку известен?
Аноним 12/01/24 Птн 21:33:31 #14 №605346 
>>605333
да, у нас тут челик совсем зелененький... --> >>605043
Аноним 12/01/24 Птн 22:01:39 #15 №605370 
Напишите список топовых локальных llm, плес
Аноним 12/01/24 Птн 22:12:21 #16 №605391 
>>604949
>молодой человек, это не для вас засуммонено

Пытаешься отправить промт
@
Processing Prompt [BLAS] (1 / 1 tokens)
Generating (10 / 1000 tokens)
@
Error: Fuck of creep
@
В слезах удаляешь сетку с компа
Аноним 12/01/24 Птн 22:44:30 #17 №605475 
>>604414 →
> нахуй она нужна на месяц непрерывно то?
Хочешь сделать полноценный файнтюн чего побольше - несколько штук на неделю. Хочешь обучить базовую модель - арендуй кластер на месяц, офк это сильно упрощенно.
>>604465 →
> можно и ужарить
Что?
> высокорисковая хуйня
От поставщиков гарантия или несколько процентов цены откладывается в фонд амортизации. Они очень надежные, из простых наглядных примеров - народная тесла.
>>604417 →
Реквестирую примеров, то что встречалось было мэх.
>>604619
Раньше openbuddy мог, но русский-английски почти любая осилит, сложности с обратным.
Аноним 12/01/24 Птн 22:55:47 #18 №605500 
1692767938504.png
>>604899
Если будет базированная модель и промты - мало отличий от дефолтного ролплея же. Тогда уж исекаиться вместе с вайфу изначально имея какие-то взаимоотношения (любовь/лор), а потом совместно превозмогать укрепляя бонд.
Если же запилить реалистично твою историю - в 99% случаев будешь попущен инстантли или при первой попытке лезть к ней, не будет никаких
> помогаешь её освоиться в новом для неё мире
И мало моделей смогут это отыграть.
Нужна идея промта чтобы не задумываться о подобном.
Аноним 13/01/24 Суб 00:31:19 #19 №605665 
Почему у некоторых архитектур моделей в коболде ну а значит и в llama.cpp контекст одной длины к примеру. Для лламы, yi может занимать 1гб. А для квена, мпт допустим 4 гб.
Аноним 13/01/24 Суб 02:15:43 #20 №605726 
>>605370
https://huggingface.co/TheBloke/WizardLM-7B-uncensored-GGML
Аноним 13/01/24 Суб 02:37:14 #21 №605736 
image.png
>>605370
Пик. Если комп позволяет помощнее то просто выбери версию на 20-40 и выше B.
Аноним 13/01/24 Суб 02:40:31 #22 №605738 
>>605370
Визард7б древняя хуита, сейчас лучшие 7б это опенчат и опенгермес.
Аноним 13/01/24 Суб 03:05:36 #23 №605746 
В Virt-a-Mate подвезли гайд на SillyTavern.

https://hub.virtamate.com/resources/using-vam-to-create-a-3d-avatar-for-ai-running-through-sillytavern.42634/overview-panel

Предлагается писать свои скрипты и править имеющиеся, что не гуд.
Но вот идея через виртуалку пробросить и подрубить липсинк уже хороша.
С настроением все не так сложно, а вот цели и их достижение прям нагородили.

Но осталось вспомнить, как там с микрофона звук забирать, кидать ее в whisper->Silly, и тогда можно болтать с собственным компаньоном.

Учитывая цветной pass-through в третьем квесте — так-то годнота.
Аноним 13/01/24 Суб 07:37:44 #24 №605892 
>>605500
>будешь попущен инстантли или при первой попытке лезть к ней
Если "лесть" = приставать, то мне кажется, что те, кто захотят отыгрывать сценарий про гида попаданки-тян иммерсивно, "с душой", не будут думать о таком большую часть диалога.
Аноним 13/01/24 Суб 08:37:29 #25 №605905 
>>605500
Начал создавать. Пока закончил только описание и начальное сообщение. Можете, пожалуйста, проверить, аноны, нормально ли получилось? Ну и орнуть с этого кринжа, конечно же.

Description:
> {{Char}} is a cowgirl from 19th century America.
{{Char}} has a long black hair and blue eyes.
{{Char}} knowledge of the world is strictly limited up to 19th century.
Slightly illiterate. {{char}} often uses vulgar phrases which are typical for 19th century american, such as "Howdy!", "Partner", "Dang it!".
{{Char}} has unwillingly time traveled to nowdays directly in {{user}}'s house and is very shocked and terrified by that.
It is hard for {{Char}} to understand modern English but It's still manageable to communicate and have a dialogue.
{{Char}} is dressed in a typical cowgirl clothes: long sleeves cotton shirt, blue jeans, long boots and hat.

First message:
> It was your typical Sunday evening. There's nothing better for you than to play video games and looking at memes on the internet. Suddenly you hear a loud electric-like THUMP sound that is coming from your living room. You rushed there and noticed an unexpected visitor: a woman who looks like a cowherder from Wild West. She just as shocked as you are right now Where the Hell am I? And who are you supposed to be, lad? She asks you in a rude and sassy manner.
Аноним 13/01/24 Суб 08:43:54 #26 №605908 
1.png
>>605072
Хуй знает, толи я ебанутый, толи лыжи не едут. То, что работало вчера - не работает сегодня. Угабуга любезно затёрла все сохранённые вчера настройки и, хотя я и помню, что загружал модель через трансформеры, сегодня они уже не грузят нихуя. Обновил трансформаторы и какую-то ещё хуйню, загрузил несколько других моделей, 3 токена в секунду с такой вот загрузкой гпу. Процессор тоже не загружен.
Какой же автоматик, оказывается, божественный по сравнению с угабугой.
Аноним 13/01/24 Суб 11:03:00 #27 №605967 
>>605905
>>605905
Дисклеймер: я вообще ни разу не ботмейкер. Но могу заметить вот что:
>knowledge of the world is strictly limited up to 19th century
Вангую, что полезет за смартфоном через сообщение. Нужны примеры того, что перс знает, а что не знает, характерные культурные различия. Без них будет дефолтная заблудившаяся девка.
>закончил только описание и начальное сообщение
Персоналию можно тоже в дискрипшен. Поле personality в таверне нафиг не нужно, ничем не отличается от текста в общем описании. Как советовали в прошлом треде, само описание может быть полезно разделить на подсекции appearance/personality/speech patterns и прочее.
В приветственном слишком много you, потом сетка и продолжит вместо действий персонажа твои действия и восприятие в своих сообщениях писать. Лучше переделать его больше с точки зрения самого персонажа, что она видит и чувствует после переноса. Не обязательно от первого лица, мб лучше даже выйдет от третьего.
Пытался вспомнить какую-нибудь похожую реверс исекай карточку, нашёл только такую времён пигмы, на чабе её не обнаружил. https://booru.plus/+pygmalion184
Довольно простецкая, но мб будет полезной. Обрати внимание, кста, как у неё в примерах диалогов через интервью описание нужных характерных деталей поведения устроено. Новая таверна без формата такое, возможно, не подхватит, лучше писать тоже в дескрипшен имхо, если захочешь что-то подобное добавить.
Аноним 13/01/24 Суб 13:06:50 #28 №606065 
>>605967
>Вангую, что полезет за смартфоном через сообщение. Нужны примеры того, что перс знает, а что не знает, характерные культурные различия. Без них будет дефолтная заблудившаяся девка.
Может быть какая-нибудь 70b догадается не лазить в инторнет с телефона.
Аноним 13/01/24 Суб 13:50:50 #29 №606125 
image.png
>>606065
Noromaid, пока что, так не забывается, хорошо отыгрывает: использование современного переключателя света для попаданки-тян - настоящее событие.
Аноним 13/01/24 Суб 14:28:59 #30 №606198 
>>605892
Скорее представил поведение типичной сферической Эмилии/Рэм в вакууме при встрече с двачером, который нагло навязывается и имплаит какую-то привязанность к себе. Настороженность, страх, удивление, паника, злость и т.п., вот что должно быть у "самодостаточных-уверенных", а не
> Юзернейм, ты такой хороший, расскажешь мне об этом мире? А я пока поживу у тебя и буду готовить!
Офк это от персонажа сильно зависеть будет, где-то наоборот уместно, или можно сыграть на дефолтной теме исекая где в своем мире персонаж был притесняем, а здесь будет лучше и ты относишься к нему хорошо.
Хз, пробовать надо.
>>605905
А, ты про более абстрактное, вполне, но это просто опция варианта встречи.
> to understand modern English
> 19th century
Наверно слишком много хочешь от текущих моделей или лишнее придумал. Алсо уточни понятие cowgirl чтобы не получить копытом в ебало, четко и подробно опиши ее внешность.
>>605967
> Вангую, что полезет за смартфоном через сообщение.
За смартфоном врядли, но проигнорить знания действительно может. Как вариант - кратко описать ее мир и сеттинг, а потом уже указать про ограниченность знаний.
>>606125
Проиграл (в хорошем смысле) с описания взаимодействия с переключателем в стиле типичных додзей, отличная модель.
Аноним 13/01/24 Суб 14:42:52 #31 №606227 
>>606198
>Наверно слишком много хочешь от текущих моделей
Может быть, но, когда на ней просто у ассистента попросил отыграть жителя средневековья и указал соответствующую манеру речи, он исправно выдавал ожидаемые Thou, "Sire", "T'is" и подобное.
Аноним 13/01/24 Суб 14:57:05 #32 №606256 
>>606198
Помоги кумеру, анон, пожалуйста. Я нейросеть уже чуть ли не за руку подвёл к описанию писечки, но она не описывает...
Аноним 13/01/24 Суб 15:24:40 #33 №606301 
Закрепите в шапке таблицу с рейтингом всех опенсор нейронок:

https://huggingface.co/spaces/bigcode/bigcode-models-leaderboard
https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard
https://huggingface.co/spaces/optimum/llm-perf-leaderboard
Аноним 13/01/24 Суб 15:26:47 #34 №606305 
>>606301
Нахуй эти поупугаи, когда надо на Арену ориентироваться.
Аноним 13/01/24 Суб 15:57:42 #35 №606348 
>>605905
Вчера делал карточку могу посоветовать пару моментов:
1) Всё что касается внешки, одежды, типа тела. Пример:
Name: Julia
Gender: Female
Age: 23 years old
Role: {{Char}} is a cowgirl from 19th century America
Appearance: brown eyes, attractive face, long black hair
Clothes: long sleeves cotton shirt, blue jeans, long boots, hat
Body: petite, skinny, wide hips, narrow waist
Likes: attention, being creative, sing
Dislikes: alcohol, crowded loud places
Personality: generous, stubborn, curious, straightforward, short-tempered, charismatic, honest

2)Далее описываешь поведение по отношение к {{user}} и вообще типаж поведения:
Behavior: {{char}} has only very low chance to initiate any sexual interaction or conversation with {{user}} on purpose. {{char}} most likely will have mixed feelings from any inappropriate sexual behavior from {{user}} and will try to change topic to not ruin relationship with {{user}}. {{char}} has very high chance to appeal in provocative sexual look in front of {{user}} unintentionally by performing casual routine actions. {{char}} doesn't consider {{user}} sexually. {{char}} may occasionally use swear words during casual talk. {{char}} will make wrong statements when it comes to topics about technologies which require specific tech knowledge. {{Char}} knowledge of the world is strictly limited up to 19th century. Slightly illiterate. {{char}} often uses vulgar phrases which are typical for 19th century american, such as "Howdy!", "Partner", "Dang it!".

3) Далее описываешь либо в сценарии, либо ниже под behavior c новой строки, что вообще происходит:
{{Char}} has unwillingly time traveled to nowadays directly in {{user}}'s house and is very shocked and terrified by that.
It is hard for {{Char}} to understand modern English but It's still manageable to communicate and have a dialogue.

4) В шаблоне контекста, если используешь sillytavern не советую использовать roleplay там в шапке забито uncensored попробуй сначала режим default он более корректно лезет в токены карточки не навязывая еблю.
Аноним 13/01/24 Суб 16:02:30 #36 №606357 
1.png
2.png
>>605908
Пиздец какой-то, тыкаешь палкой во все щели и надеешься, что это поможет. И даже помогает, только почему, только потом ещё втрое больше времени нужно проебать, чтобы понять - а почему помогло.

Олсо, вопрос, модель сходит с ума при использовании "карточки персонажа". Это может быть вызвано неподходящей карточкой? И есть ли возможность вытравить определённые фразы без бана токенов?
Аноним 13/01/24 Суб 16:14:31 #37 №606383 
MistralTrix реально топ щас?
Аноним 13/01/24 Суб 16:24:30 #38 №606390 
>>603010 →
>>603793 →
Блять. А что я делаю не так собственно? Кобольд последней версии, Q_5_0, 12+32. Я конечно смирился что я амудепроклятый, но не может же 6700хт+5600х быть хуже, да ещё в 10 раз, чем рх580?
Аноним 13/01/24 Суб 16:30:58 #39 №606395 
>>606390
>что я делаю не так
Судя по
>да ещё в 10 раз,
Взял слишком большой квант. Если ты имеешь ввиду q5_0 у mistral 8x7b, то это 32.3 ГБ, в озу не влезает. Видеокарта, скорее всего, тоже не участвует, всё делает cpu, да ещё и читает с диска то, что не помещается.
Аноним 13/01/24 Суб 16:31:47 #40 №606400 
>>606395
>mistral
mixtral
Аноним 13/01/24 Суб 16:34:57 #41 №606405 
>>606395
> Взял слишком большой квант.
Начальный пост то вообще о 8_0 вопрошает.
> Видеокарта, скорее всего, тоже не участвует
Как же, контекст и слоёв немножко на ней. Да и весит у меня квант не 32.3, а всего 30.
Аноним 13/01/24 Суб 16:35:10 #42 №606406 
>>606348
Спасибо. Сам как-то даже не подумал попробовать так удобно на категории разделить в описании.

И какой она у тебя в итоге получилась? То есть, какие впечатления от неё, анон?
Аноним 13/01/24 Суб 16:38:42 #43 №606410 
>>606405
> Да и весит у меня квант не 32.3, а всего 30.
А сейчас на обниморде посмотрел - и правда 32.3. Учитывая что я квант качал в день релиза, когда ещё К_М не было, может у меня он вообще ломаный. Попробую 4_К_М скачать сейчас.
Аноним 13/01/24 Суб 16:40:44 #44 №606416 
С этого момента я буду генерировать ответы на рандомные посты из этого треда. Сможете угадать какие именно были сгенерены, а какие написаны реальными анонами? Узнаем в конце треда.
Аноним 13/01/24 Суб 16:51:30 #45 №606441 
>>606405
>Начальный пост
От этого вряд ли зависит потребление ОЗУ в твоём конкретном случае.
>контекст и слоёв немножко на ней
Ну если opencl, проигрыша в 10 раз не должно быть. Rx 580 на opencl проигрывает себе же на rocm в 1.5 раза. Но это mixtral, у него, как выяснилось, в целом с видеокартами проблемы, так что всё может быть. Алсо, где-то я там в issues даже видел, что для mixtral запилили вычисления на cuda и rocm, а opencl не работал, но не знаю, насколько это актуально.
>всего 30
Даже если 30 скорее всего различия из-за подсчёта ГБ как 1024 и 1000 МБ, ещё нужно где-то контекст разместить, и сама ОС с прочими программами тоже сколько-то потребляет. Так что скорее всего дело в обращениях к диску. Качай Q4_0, там уже 20 с чем-то ГБ, закрывай всё лишнее и пробуй. А ещё лучше качай 7-20b. Из того, что я пробовал, mlewd-remm-20b и frostwind-10.7b хороши (первая для ролеплея, вторая очень разносторонняя и почти всё умеет, топ для своих размеров, хоть и глуповата).
Аноним 13/01/24 Суб 16:53:09 #46 №606447 
>>606410
>К_М
Говорят, на любых "k_m" и "k_s" какие-то проблемы, советуют пользоваться только "_0".
Аноним 13/01/24 Суб 16:56:54 #47 №606461 
>>606348
>там в шапке забито uncensored
Почему нельзя просто удалить это слово, если оно напрягает? Как бы стори стринг, системп промпт и все префиксы-суффиксы свободно редактируемые. Некоторым моделям этот альпачный формат в принципе может плохо подходить так-то. И если модель c uncensored в промпте начинает в трусы лезть, то это хреновая модель, как по мне. Это, кстати, к слову об обсуждении важности файнтьюна/промпта в конце прошлого треда. У меня, например, стоят инструкции на описалово nsfw сцен в системном промпте. По такой логике я должен их каждый раз удалять, если хочу sfw поиграть. Звучит так себе.
>более корректно лезет в токены карточки
Это что за хитрый механизм такой имеется в виду? Промпт карточки просто кидается текстом на том месте, где он заявлен в стористринге.
Ну это так, поворчать, на самом деле. Раз работает для тебя, то и хорошо.
Аноним 13/01/24 Суб 17:04:53 #48 №606471 
>>606441
> Алсо, где-то я там в issues даже видел, что для mixtral запилили вычисления на cuda и rocm, а opencl не работал, но не знаю, насколько это актуально.
Амудестрадальцев опустили даже с слбластом, ну охуеть теперь.
> ещё нужно где-то контекст разместить
Ну, в видеокарте.
Ладно, будем посмотреть с К_М.
> А ещё лучше качай 7-20b.
Да их я наелся уже, для начала норм, но потом уже видно тупизну. 34б уже умнее заметно, но медленная. В любом случае, шишка на микстраль именно встала, лучше ничего не пробовал.
>>606447
Их до сих пор не пофиксили чтоль?
Аноним 13/01/24 Суб 17:26:36 #49 №606503 
>>606471
>Амудестрадальцев
Rocm работает. А opencl - это не только амудэ, которым rocm не завезли, но ещё и intel, и та же nvidia со слишком старой кудой, ну и всякая экзотика.

Ну или накатывай linux, вроде кому-то удавалось там rocm подружить с неподдерживаемыми картами из 6000 линейки, но это не точно.
>до сих пор не пофиксили
Не знаю, я просто сразу 8_0 скачал, возиться с проблемами желания не было, проще уж подождать чуть дольше ответов.
Аноним 13/01/24 Суб 17:31:00 #50 №606510 
>>606503
> Rocm работает.
На всём кроме 6700хт, ага.
> Ну или накатывай linux, вроде кому-то удавалось там rocm подружить с неподдерживаемыми картами из 6000 линейки, но это не точно.
Вроде бы как-то там, да, но я в линухе ничего не смыслю и без пошагового гайда едва ли его накатить смогу даже.
Аноним 13/01/24 Суб 17:37:07 #51 №606519 
>>606406
Я просто качал разные карточки с чаба и смотрел, как описывают другие и кстати там многие из них лютый калл, потом прочитал лонгрид в документации к ST.
Советую к прочтению:
https://docs.sillytavern.app/usage/core-concepts/characterdesign/
https://wikia.schneedc.com/bot-creation/trappu/creation
Моя карточка получилась очень хорошей, опять же всё очень сильно зависит от первых 10 сообщений, они сильно задают тон общению и могут сильно повлиять на поведение в дальнейшем. Всё ещё делаю микрофиксы, чтобы откалибровать поведение может быть даже релизну на тест под другим именем. Я хотел, чтобы персонаж случайно выполнял обычные действия и при этом выглядел горячо перед {{user}}, но не так, чтобы она делала это специально, а просто в процессе рутинных дел и мой промпт из карточки работает, но если в первых 10 сообщениях такие штуки не проскакивают то шанс возникновения сильно падает. Кстати ещё прикольная тема есть, добавил описание, которого заставляет от определенного слова от {{user}} в адрес {{char}} впадать в транс и выполнять все команды от {{user}}. Если надо - поделюсь.

>>606461
Может быть и можно, честно я пока не экспериментировал, ещё пока не совсем вкуриваю синтаксис шаблона контекста. Надо разобраться в этом.
>У меня, например, стоят инструкции на описалово nsfw сцен в системном промпте.
Скажи это где конкретно? Шаблон контекста или режим "Инструктаж"? Я просто галку на этом режиме не ставил, сейчас поставил и стало ещё лучше.

Кстати кто-нибудь может рассказать о том, как модель воспринимает форматирование текста?

Из понятного:
"Текст" - прямая речь
Текст - действие

Можно пояснительную бригаду по остальным? Визуально понятны изменения, но как их воспринимаю модели (понимаю не все понимают, но хотя бы базу)

text - displays as italics
text - displays as bold
text - displays as bold italics
```text``` - displays as a code block (new lines allowed between the backticks)
`text` - displays as inline code
> text - displays as a blockquote (note the space after >)
# text - displays as a large header (note the space)
## text - displays as a medium header (note the space)
### text - displays as a small header (note the space)
$$ text $$ - renders a LaTeX formula (if enabled)
$ text $ - renders an AsciiMath formula (if enabled)

Аноним 13/01/24 Суб 17:38:48 #52 №606522 
image.png
image.png
>>606503
>8_0
Алсо, 7b заметнее прочих тупеют от квантования, вроде бы там даже q5 и q6 уже не очень становятся но это тоже не точно. Инфу где-то в прошлых тредах приносили, я мельком читал, для себя решил, что буду юзать максимально возможные кванты, особенно на младших моделях. Тем более, что по скорости у меня разница не такая уж большая, особенно для тех же 7b, что можно видеть на скриншотах. Алсо, между q4 и q6 чисто на видимокарте разницы вообще почти нет, на q6 были примерно те же 10 Т/с, когда втыкал затычку для гуя, чтобы расчистить все 8 ГБ врам на 580.
Аноним 13/01/24 Суб 17:40:42 #53 №606528 
>>605908
> через трансформеры
Зачем?
Кнопка там одна save settings и все, будет их по умолчанию загружать. Скорее всего сам начудил с параметрами запуска, например ядром экслламы для трансформерз.
>>606227
Манеру хорошо пытается сделать, и это создает хорошую атмосферу. Тут просто к английскому в штатах 19 века и непониманию современного.
>>606256
Что именно нужно?
>>606348
> Behavior:
Первая половина даже при прочтении плохо воспринимается и похоже на лупы, такое себе. Сетка скорее триггернется на обилие слов
> sexual
но если задача такова то и норм.
>>606357
Что делаешь вообще, как тыкаешь? Не то чтобы там было много вариантов.
> Это может быть вызвано неподходящей карточкой?
Может, или неподходящий формат инструкций.
> вытравить определённые фразы без бана токенов
Указать в промте (avoid use words/phrases ['bond','anticipation',...]) или негативе с положительной инструкцией. Если хочешь так бороться с лупами а не смещать стиль - не поможет.
Аноним 13/01/24 Суб 17:50:58 #54 №606587 
>>606510
>На всём кроме 6700хт, ага
я тоже с этого рыдаю, анон. мимо-владелец-6600ХТ
Аноним 13/01/24 Суб 17:52:38 #55 №606593 
image.png
>>606510
>>606587
забыл пик прилепить
Аноним 13/01/24 Суб 17:55:38 #56 №606616 
>>606510
>едва ли его накатить смогу даже
Ну значит копи на новую видимокарту. Амудэ вроде скоро собираются выпустить 7600@16, по рекомендованной цене должны быть самые дешёвые 16 ГБ, дешевле даже интеловских a770 у которых с поддержкой ещё хуже, чем rocm. Хотя местные барыги, как обычно, выставят ровно за столько, чтобы отбить желание покупать. Те же 770@16 у меня в городе выставили дороже 3060 ti, на уровне 3070, и похуй, что рекомендованая цена ниже ti, чуть выше обычной 3060. 16 ГБ запихнули - значит ИГРАВАЯ.
Аноним 13/01/24 Суб 18:07:27 #57 №606685 
>>606616
>амуде опрокидывает лохов на поддержку нейронок
>ВОТ ТЫ КУПИ НОВУЮ ВИДЕОКАРТУ АМУДЕ, ТАМ ПОДДЕРЖКА ЧУТЬ ЛУЧШЕ
Проиграл. Потом опять выйдет новая технология, на поддержку которой амуде так же забьет хуй, и опять будет нытье "где же наши нейронки, как же хочется нейроночки", а им снова будут ехидненько так отвечать "а ты новое поколение купи))", кек.
Аноним 13/01/24 Суб 18:11:38 #58 №606703 
>>606685
Ты что, не видел их последние презентации? Там профессиональные карточки представляли и они в несколько раз быстрее решений нвидии! После такого разве можно сомневаться в народной компании, которая всегда держит слово?
Аноним 13/01/24 Суб 18:15:43 #59 №606719 
>>606685
Когда я 6700хт свою брал о нейронках даже не задумывался. Да даже и сейчас, когда задумываюсь, хуй я обрубки жидвидии возьму.
Аноним 13/01/24 Суб 18:28:17 #60 №606769 
>>606519
>Шаблон контекста или режим "Инструктаж"?
В окне system prompt, которое прямо над опциями Instruct Mode Sequences. Это поле как раз для общих глобальных инструкций. То, что ты туда напишешь, прилепит к себе System Sequence Prefix в начале и System Sequence Suffix в конце и будет вызываться макросом {{system}}, который ты как раз можешь видеть в окошке стористринга. Строка {{#if system}}{{system}} означает, что если системный промпт не пустой, то пишем его в тело стористринга. На практике это означает, что пофиг, где писать инструкции: хоть в системном промпте можно, хоть сразу в стористринге. Если стоит на том же месте, воспринимается одинаково. Ну и префикс будет немножко влиять. Если модель обучали с инструкцией после ### Instruction:, то она с чуть более высокой вероятностью будет инструкции с этим префиксом соблюдать.
По форматированию: варьируется от модели к модели. Те, в которых есть LimaRP датасет, вроде больше любят прямую речь в кавычках, действия плейнтекстом (а может, и италиком, не помню точно). Какие-то другие у анонов показывали лучшую работу, если речь плейн текстом без кавычек, а действия италиком.
Аноним 13/01/24 Суб 18:29:01 #61 №606774 
>>606685
С 7000 серией никого не опрокидывают, унифицировали llvm target и компилируют свой hip под всё сразу. Ну с младшими 6000 обосрались, ну хоть компилятор завезли, пердольтесь-компилируйте сами. Хуанг даже такого не позволяет, всё анально огорожено. Если и опрокинут, то всех сразу, но пока что у них ничего новее rdna3 и 7000 серии в любом случае нет. А если сравнивать с курткой, так там практика опрокидывания уж точно не меньше практикуется.
Аноним 13/01/24 Суб 18:31:00 #62 №606780 
>>606774
>
И истории успеха с амд есть для ИИ? Просто я одни негодования читаю.
Аноним 13/01/24 Суб 18:44:13 #63 №606829 
>>606774
Ну как, с точки зрения прайс-перфоманс позади, хотя было много обещаний. Сейчас с горем пополам и определенными усилиями можно завести то что было доступно но новидии более 1.5 лет назад, и получить на топе перфоманс младше-средних хуангов, ну такое. Что-то посложнее или передовое - все также страдания. Ну вообще такое себе, как можно нахваливать этот кактус, да еще отсутствие нормальных решений и наглое предложение делать их самим преподносить как преимущество (!).
Поидее для ллм наименьшее количество проблем должно быть, т.к. расчеты относительно простые а упор в объем. Какой перфоманс могут сейчас красные топы с 24 гб показать (особенно в контексте анонса дешманской 16гб)? В репе турбодерпа постоянно аншлаг и обсуждения "а сделайте это на рокм и вот это на амудэ", учитывая объем разработки эксллама там должна летать, а что на самом деле?
Аноним 13/01/24 Суб 18:53:33 #64 №606864 
>>606519
По поводу вот этого гайдоса https://wikia.schneedc.com/bot-creation/trappu/creation
Не знаю, прочёл ли ты реально сам его, но там вообще не то, что ты показывал постом выше. Суть этого метода в том, что ты пишешь в описание перса примеры диалогов, в которых подчёркиваются важные черты перса. Делается это потому, что таким образом ты убиваешь двух зайцев: обращаешь внимание модели на эти черты и показываешь ей примеры речи персонажа, - и всё это остаётся в контексте навсегда, потому что лежит в дескрипшене. А вот твои первые десять сообщений из контекста рано или поздно улетят. Вторая часть метода, Plist, это список основных черт в явном виде, который настоятельно рекомендуют ставить авторскими заметками ближе к концу чата, к которому внимание сеток больше. Это то, что сейчас шизы из aicg переизобрели для Клода и называют memo. С локалками это может работать не так хорошо, как задумывается, потому что будет разрывать диалог большим текстом не в тему чата. Если использовать по рекомендуемым правилам, то эту шнягу нужно прямо сильно упрощать, тогда может выстрелить.
Аноним 13/01/24 Суб 20:15:46 #65 №607141 
1.png
2.png
>>606528
>save settings
Некоторые настройки не сохраняются вообще. Тот же Truncate the prompt не сохраняется и ставит ебически большое значение после каждого перезапуска угабуги.
>Что делаешь вообще, как тыкаешь?
Брутфорс всех загрузчиков. В итоге снёс угабугу, поставил заново и заработало. Магия, хуй знает.
>не поможет
Вот это хуёво. В целом модель тупая, ещё и туда вкорячена лора на русском, наверное, нужно радоваться, что хоть так общается. Ну и я нихуя не знаю, какие настройки за что отвечают, лол, может, там две крутилки покрутить и будет получше.
Аноним 13/01/24 Суб 20:26:24 #66 №607177 
поясните, у меня есть 4090, если я еще докуплю 3090(тут за недорого предлагают) я смогу модели крутить на них обоих? Получится как 48 гб сделать?
Аноним 13/01/24 Суб 20:28:43 #67 №607184 
>>607177
Да.
Но в треде тестили с пруфами только паскали и а80.
Аноним 13/01/24 Суб 20:29:03 #68 №607185 
>>607141
> Truncate the prompt не сохраняется и ставит ебически большое значение после каждого перезапуска угабуги
С llamacpp(hf) и с exllamav2(hf) они сохраняются, вообще дефолтный контекст читает из конфига самой модели исходя из параметров ее тренировки, дело может быть в этом. Алсо возможно не сработает с llamacpp если модель лежит в общей папке а не отдельной.
> Брутфорс всех загрузчиков.
Нужны только 2 по сути. Раз занимаешься - попробуй awq.
> Вот это хуёво
Ничего плохого, нужно лишь выставить rep pen больше единицы, не занижать сильно температуру, ну и нормальный формат промта. Первое - просто ставь simple-1 темплейт в качестве отправной точки, второе - лучше использовать таверну если хочешь чатиться-ролплеить.
Есть еще один случай, который может привести к лупам - модель вообще не понимает что тут можно написать и по ее мнению пора завязывать, а ты не отпускаешь. Если разговор на не родном для нее языке - такой сценарий вполне вероятен, используй перевод.
>>607177
Сможешь и будет оче быстро.
> Получится как 48 гб сделать
Для запуска - без проблем. Тренить то что требует 48гб - нет. Тренить то что требует 24гб с удвоенной (скорее х1.5 из-за разности мощностей 3090-4090) - да.
Аноним 13/01/24 Суб 20:29:43 #69 №607189 
>>607184
> Но в треде тестили с пруфами только паскали
Да ты ахуел
Аноним 13/01/24 Суб 20:30:26 #70 №607193 
>>607189
?
Аноним 13/01/24 Суб 20:32:36 #71 №607198 
>>607193
Ну йобана, еще в начале лета тесты 4090+3090, сначала в древнем autogptq (~5-7 т/с) а потом в старой версии exllama (до 15т/с, падало до 7 на 8к контексте). В современной и с одинаковыми картами там 15-20 т/с почти без зависимости от размера контекста.
Аноним 13/01/24 Суб 20:35:46 #72 №607206 
>>607198
А. Я ещё не игрался с нейросетями.

>4090+3090
>15-20 т/с
Спасибо за инфу.
Аноним 13/01/24 Суб 20:38:07 #73 №607219 
>>606528
>Что именно нужно?
Даже через "Continue" не продолжает моё незаконченное сообщение с намёком, что вот дальше должно последовать описание.
Специально вписал хорни момент в повествование, типа: моя ковгёрл тайм тревелша захотела помыться и через некоторое время она вернулась голая, спросить, где полотенце Да я же просто "гениальный" сценарист, знаю-знаю. И вот {{user}}, - кумер-девственник, - "будто загипнотизированный, смотрит на неё и не может найти в себе сил отвернуться" и в этом же сообщении "You are especially charmed\drawn by\interested in (ещё что угодно подобное) her vagina", точку после этого не ставлю, удаляю ответ, нажимаю "Continue", но в продолжении она всегда просто возбуждается моей искренней реакции и флиртует. И никакого описания писечки. ЧЯДНТ?
Аноним 13/01/24 Суб 20:43:52 #74 №607255 
>>607206
То на паре 4090, с 3090 будет 15-17 верхним порогом. Больше от размера кванта зависит, младший gptq может и быстрее, если сделать exl2 5бит+ (на новой версии она помещается с контекстом) то медленнее, но всеравно шустро.
34б с большим контекстом в 1.5-2 раза быстрее.
Это все с exllama, с llamacpp по какой-то причине производительность сильно проседает. Возможно на новых версиях починили, или нужно пересобрать с другими параметрами, линк недавно был. Но у нее память неэффективно используется, так что пока не интересно.
>>607219
Какая модель? Скинь карточку, там это из истории чата идет, или ты хочешь в первых сообщениях получить?
> You are especially charmed\drawn by\interested in (ещё что угодно подобное) her
Попробуй обернуть это в (ooc: ) с инструкцией написать об этом. И не понятно, ты хочешь чтобы модель художественно описала твои чувства типа, или реакцию чара? Первое будет конфликтовать с основным промтом, если там дефолтное про "не пиши за персонажа", если не попросишь.
Аноним 13/01/24 Суб 20:48:01 #75 №607274 
>>606519
>чтобы персонаж случайно выполнял обычные действия и при этом выглядел горячо перед {{user}}, но не так, чтобы она делала это специально, а просто в процессе рутинных дел
Это что-то типа "Ой, я уронила вилку\локку\нож! Какая я неуклюжая, User-сенпай!" и описывается, что она наклоняется таким образом, что "Everything, that was before hidden from {{user}}'s side by {{char}}'s skirt, is now clearly visible. {{user}} feels light tingling sensation all over his body"?
Или что оно из такого тебе выдавало, мне аж любопытно стало?
Аноним 13/01/24 Суб 20:48:21 #76 №607278 
>>607255
> llamacpp
Есть предположение, что оно не использует аппаратный умножитель матриц И/ИЛИ аппаратную поддержку чисел меньше 16. Это функционал появился на РТХ карточках.
Аноним 13/01/24 Суб 20:55:48 #77 №607307 
>>607278
Возможно, префоманс на ней на n-дцать процентов медленнее чем в exllama, особенно при обработке контекста. Но тут дело в другом, пускаешь модель с полной выгрузкой на 1 гпу (выставив cuda visible devices=0/1) - все быстро. Стартуешь ту же модель не ограничивая видимые гпу, когда она делит выгружаемое пополам - замедление в разы. Причем на P40 такого нет, или же дело в шинде а на линуксе все будет ок, надо и такое проверить.
Аноним 13/01/24 Суб 21:04:18 #78 №607342 
1111.png
Подскажите какой пресет лучше выбрать. Использую Noromaid-20b-v0.1.1.q4

Пробовал играться с параметром миростат в результате сетка начинает шизить.
Пока что мой фаворит Godlike, но все равно как-то не то
Аноним 13/01/24 Суб 21:05:38 #79 №607349 
>>607255
>Какая модель?
Noromaid

Я хотел, чтобы это было просто художественное описание, типа от третьего лица, а ля "Her pussy was covered by rough uncultivated bush of pubic hair. That arousing sight had such strong effect on {{user}}, that he couldn't help it but cum all other himself" лол.
Аноним 13/01/24 Суб 21:23:51 #80 №607454 
>>607349
>other
over
самофикс
Аноним 13/01/24 Суб 21:27:26 #81 №607467 
>>607349
Ну типа это делается просто отыгрышем и свайпами, если хочешь прямо такого - попроси персонажа или сетку. Норомейд 20б более чем способна на подобные описания.
Тебе что, пример нужен, или за ручку проводить тебя? Скидывай свой чат и карточку тогда. открыли филлиал aicg
Аноним 13/01/24 Суб 21:55:19 #82 №607588 
>>607274
Ну типа, только она не кокетничает, а просто делает штуки и даже не думает, что возбуждает {{char}}

>>606769
Спасибо за такое подробное объяснение

>>606864
Именно в описание, а не в chat examples?
Аноним 13/01/24 Суб 22:03:50 #83 №607612 
>>607342
Мне нравится universal-light
Аноним 13/01/24 Суб 23:06:21 #84 №607799 
Чурнея.png
Короче. Noromaid-13b-v0.3 пока что лучшее что я щупал для рп. Рекомендую в связке с пресетом Mirostat

Качал отсюда:
https://huggingface.co/NeverSleep/Noromaid-13b-v0.3
Аноним 13/01/24 Суб 23:11:46 #85 №607823 
>>607799
Это перевод, или она может на русском?
> что я щупал
Какую самую большую ты щупал?
Аноним 13/01/24 Суб 23:13:53 #86 №607836 
>>606774
>Хуанг даже такого не позволяет, всё анально огорожено
Нейронки на картоне Хуанга хотя бы работают из коробки, без пердолинга и ко-ко-конпелирования.
Аноним 13/01/24 Суб 23:17:50 #87 №607854 
>>607823
> Это перевод, или она может на русском?
Да, перевод. Бинг на удивление относительно неплохо переводит (как по мне)

> Какую самую большую ты щупал?
Тоже норамейд, но только 20б и в GGUF формате. Мало того что комп пердит так еще и отвечает как-то странно, без души что ли
Аноним 13/01/24 Суб 23:57:08 #88 №608041 
>>607177
Просто учитывай, что та часть модели (слои), которая будет лежать в памяти 4090 — будет обрабатываться ее чипом, а та, что на 3090 — ее чипом (и медленнее).
Можно даже потестить, как будет лучше: контекст и немного слоев на 4090, а остальное на 3090, или же контекст и немного слоев на 3090, а остальное на 4090. Навскидку, для малых контекстов (в начале разговора), эффективнее будет 3090 первой видяхой. А при забивании контекста — лучше наоборот.
Но это я так, просто мысли вслух, не парься.

>>607836
Тебя анально огородили и заставили ими пользоваться! А господам на амудях разрешили свободно ебаться самим, ты что не понимаешь своего горя?!
Аноним 14/01/24 Вск 00:02:10 #89 №608074 
>>606774
> там практика опрокидывания уж точно не меньше практикуется
Что? Опровергнутые древние сказки секты свидетелей потанцевала Лизы, или что-то дельное?
Чтобы сравниться с амудэ это даже хз что нужно сделать, фразой фронтир_эдишн можно экзорцизм ее красных фанатиков проводить.
>>607799
Складно, возможно переводчик сгладил бонды в конце и не триггерит, найс.
Аноним 14/01/24 Вск 00:23:41 #90 №608177 
image.png
image.png
>>607342
мне кажется, я отыскал свой идеал, моделька та же, квантование чуть другое (noromaid-20b-v0.1.1.Q6_K)
Аноним 14/01/24 Вск 00:37:04 #91 №608216 
>>607799
как зделать русик?
Аноним 14/01/24 Вск 00:46:59 #92 №608233 
>>607307
>Причем на P40 такого нет, или же дело в шинде а на линуксе все будет ок, надо и такое проверить.
Вот кстати да, проверьте кто может. Надеюсь обойтись малой кровью на винде или вообще кобольдом.
Аноним 14/01/24 Вск 02:05:40 #93 №608423 
1705187130621.png
Чудо случилось, 4_К_М микстраль работает с нормальной скоростью. Сейчас ещё посмотрим, как работает.
Аноним 14/01/24 Вск 03:23:00 #94 №608504 
Ботоводам Сап. Вкатился недавно, скачал всё по вашим гайдам. Но вот дела какие:
Модель которую я скачал (из гайда) отвечает мне "привет и тебе" на мой привет примерно минуты 3.
При этом у меня 3060ti, 16гб очень быстрой озу и i510400.
Я что-то делаю не так или это норма на моём конфиге?
Аноним 14/01/24 Вск 03:39:02 #95 №608513 
>>608504
что и как ты запускаешь?
я тебе не ванга
Аноним 14/01/24 Вск 04:35:11 #96 №608535 
>>608504
Какая модель, через что ставил? Лама или что то другое. Какие настройки? Гадать по картам не умею.
Аноним 14/01/24 Вск 07:19:48 #97 №608572 
>>608504
>16гб
Вангую очередное переполнение озу и чтение с диска. Смотри историю успеха страдальца с 32 выше >>606390 >>606410 >>608423 и качай меньшую модель. И закрывай всё кроме кобольда и браузера (или где ты там генерируешь).
Аноним 14/01/24 Вск 07:25:04 #98 №608573 
>>608572
2 чая этому. У меня то при 16b на 32 гигах - 25 стабильно занято. На врам то похуй, там от 3 до 5 гигов. А вот оперативку жрет как не в себя.
Аноним 14/01/24 Вск 07:28:26 #99 №608575 
Без имени-1.jpg
>>608535
>>608513

Запускаю вот эту модель, на кобольде:
MLewd-ReMM-L2-Chat-20B.q5_K_M.gguf

Сори, но даже такому тупорезу хочется в эту технологию.
Аноним 14/01/24 Вск 07:31:17 #100 №608576 
>>608575
ничего кроме модели не пробовал пока выбирать, без сторей, без лоры
Аноним 14/01/24 Вск 07:39:50 #101 №608579 
>>608575
>>608576
Кажется я понял в чём проблема, я скачал 20B модель хотя был уверен что качаю 7.

А вообще, если поставить ещё 16gb, то разительная ли будет разница в производительности?
Аноним 14/01/24 Вск 07:59:32 #102 №608586 
>>608575
Судя по скрину, ты ноль слоев (GPU Layers) поместил в видеопамять. На одном проце не уедешь.
Аноним 14/01/24 Вск 08:04:54 #103 №608589 
image.png
Intel ARC A750
Модели 7B в реальном времени работают
CLBLAST
Аноним 14/01/24 Вск 08:05:10 #104 №608590 
>>608423
> нормальной скоростью
1 т/с - это не нормальная. У микстраля по сравнению с 7В скорость в 2-3 раза меньше. Т.е. там десятки т/с должны быть на ГПУ.
Аноним 14/01/24 Вск 08:08:06 #105 №608591 
>>607467
>за ручку проводить тебя?
Спасибо, но мне интереснее самому в этом ботостроении разбираться.
Аноним 14/01/24 Вск 08:08:15 #106 №608592 
>>608586
сейчас запустил frostwind-10.7b-v1.Q5_K_M
отвечает моментально, но по ощущениям глуповат

а сколько нужно ставить? мне реально неудобно такую тупость спрашивать, но на русском почти нет инфы про локальные нейронки.
Аноним 14/01/24 Вск 08:33:42 #107 №608598 
>>607185
>дефолтный контекст читает из конфига самой модели
Вот это неожиданная хуйня, получается, она тренировалась на ебанистическом контексте? В карточке указан рекомендованный 2к, а в конфиге 30к+
>попробуй awq
Да, пробовал. Мне больше понравились трансформеры, одна галочка "грузить в 4 бита" и требует вдвое меньше памяти. А вот 7b awq скушал 12 гигов просто по загрузке. И опять контекст установился ебический, лол.
> simple-1 темплейт в качестве отправной точки
Cтавил, но не похоже, что это сильно влияет.
>использовать таверну
В чем сакральный смысл таверны? Бэкендов нет, карточки персонажей от таверны угабуга понимает. Так-то я установил, но не пользуюсь. Ещё заметил, что инструкт режим полностью игнорирует карточку, а чат-режим бредит чаще.
>используй перевод
Не хотет. У меня идея сделать русскоговорящего полуёбка, возможно, путём вкорячивания нескольких лор в одну модель, хотя тут тоже есть подводные. На английском-то все модели неплохо справляются, я просто не знаю, какую хуйню от них требовать, чтобы понять, есть "душа", есть проблемы. Задаёшь вопросы - оно задаёт ответы.
Аноним 14/01/24 Вск 09:13:24 #108 №608606 
>>605905
Убери переводы строки из описания. Они жрут больше токенов, лол.
Аноним 14/01/24 Вск 09:28:46 #109 №608609 
>>606357
>модель сходит с ума
Обычно проблема модели, или семплера. Я такое на китайцах видел.
>>606864
>А вот твои первые десять сообщений из контекста рано или поздно улетят.
Но ведь есть настройка...
>>608589
>Модели 7B в реальном времени работают
Они и на проце так работают, на мобильных, лол.
>>608592
>а сколько нужно ставить?
Для фроствинда ставь 200. Кстати, странно, кобольд должен определять и выставлять слои сам.
>>608598
>одна галочка "грузить в 4 бита"
Чел...
Аноним 14/01/24 Вск 09:32:30 #110 №608610 
>>608592
>а сколько нужно ставить?
Нужно подбирать значение под нейронку и объем видеопамяти.
Аноним 14/01/24 Вск 09:49:46 #111 №608623 
>>608589
А ведь по теоретическим пиковым флопсам A750 где-то между 3080 ti и 3090. А на обычных шейдерах общего назначения, которые должны задействоваться даже без особых оптимизаций - около 4070/3080. Возможно, когда-нибудь этот потанцевал тоже будет раскрыт.
Аноним 14/01/24 Вск 09:55:29 #112 №608625 
Там это, frostwind v2 вышел:
https://huggingface.co/Sao10K/Fimbulvetr-10.7B-v1
https://huggingface.co/Sao10K/Fimbulvetr-10.7B-v1-GGUF/tree/main
Аноним 14/01/24 Вск 09:59:17 #113 №608626 
>>608623
Хуй знает откуда ты это взял, 750 по флопсам как 3060, и в два раза меньше чем у 3080. Это скорее с амудой надо сравнивать, амуда реально сосёт даже у таких сырых карт.
Аноним 14/01/24 Вск 10:01:15 #114 №608627 
>>608625
Что за шиз с ним тут носится постоянно? Это же довольно дерьмовый файнтюн на мелком датасете.
Аноним 14/01/24 Вск 10:02:08 #115 №608628 
matrix-flops.webp
shader-flops.png
>>608626
Аноним 14/01/24 Вск 10:06:02 #116 №608631 
изображение.png
>>608628
А ты разреженные потести. А ты в int4 потести.
Аноним 14/01/24 Вск 10:12:11 #117 №608634 
>>608631
+15 cuda cores
Аноним 14/01/24 Вск 10:43:05 #118 №608642 
image.png
>>607588
>Именно в описание, а не в chat examples?
Да, там рекомендуется в описание. Вот пикча из того гайда (они с кэтбокса подцепляются, так что отображаются только через впн из России), на которой детально пример показан. Для заметки сейчас, кстати, есть более удобное поле character's note в доп. настройках карточки. Тут же предлагается заметку, которая привязывается в конкретному чату, использовать, что не очень удобно.
>>608609
>Но ведь есть настройка...
Там речь шла просто о первом десятке сообщений в чате, не примерах. Хотя можно, конечно, их скопипастить в экзамплы и включить сохранение в контексте. Если говорить об описании через примеры, то да, можно и в примеры, а не в описание, и включить галку сохранения, но тогда они будут по умолчанию стоять после ворлд инфо и прочей фигни, да ещё с каким-то промптом типа "это вот примеры", поля с которым, по-моему, вообще нет в инстракте (ну или я не помню, где оно там), а только в промпт менеджере для коммерческих сетей есть.
Аноним 14/01/24 Вск 10:55:08 #119 №608643 
>>608623
https://www.youtube.com/watch?v=qc9VWbYLzRg

Windows AI Studio
уже превью залили
Аноним 14/01/24 Вск 10:57:19 #120 №608644 
>>608627
Если речь про фроствинд, то это лучший варик для нищуков на данный момент. У меня, например, нет железа гонять 13б, даже 10.7б в q5_k_m обрабатывает 4к контекст секунд 70-80 и столько же генерит 300 токенов аутпута (1070 8гб + старый проц и медленная ддр4 оператива, 37 слоёв из сорока с чем-то в видяхе). На колабе могу максимум 20б поднимать в мелких квантах и/или почти без контекста. А фроствинд можно подождать и у себя, и летает даже на кобольд колабе, куда можно и 8к контекста присобачить спокойно. При этом я пробовал им свайпать ответы при прочих равных настройках, сравнивая с разными популярными 13б, и ответы фроствинда были часто суше, но всегда умнее. Вполне допускаю, впрочем, что это целиком заслуга Солара, а не данного файнтьюна
Аноним 14/01/24 Вск 11:00:02 #121 №608646 
image.png
https://blogs.windows.com/windowsdeveloper/2023/11/15/announcing-preview-support-for-llama-2-in-directml/
https://community.intel.com/t5/Blogs/Tech-Innovation/Artificial-Intelligence-AI/Intel-and-Microsoft-Collaborate-to-Optimize-DirectML-for-Intel/post/1542055

Announcing preview support for Llama 2 in DirectML
Аноним 14/01/24 Вск 11:38:42 #122 №608676 
>>608609
>Я такое на китайцах видел
Может, нужна была карточка на китайском? Нужно попробовать хуйнуть фулл рашн карточку.
>Чел...
Что? Мне на 7b модель нужно 15 гб vram просто для загрузки. Если ставлю одну галочку - расход падает до 5.7гб. Да, понятно, что это имеет последствия, только нахуй мне эйнштейн? Мне нужен быстрый лоботомит, который будет меня развлекать, не более.
Аноним 14/01/24 Вск 12:11:07 #123 №608685 
>>608676
>Мне на 7b модель нужно 15 гб vram просто для загрузки.
Чел... Ты троллишь? Бери exllama квантованную, безо всяких галочек будет норм расход.
Аноним 14/01/24 Вск 12:28:38 #124 №608695 
image.png
image.png
image.png
image.png
Путь к писечке ковгёрл был не прост, но я смог.
Спасибо всем за подсказки и инструкции.
Аноним 14/01/24 Вск 13:20:34 #125 №608737 
Суп, котаны. Что сейчас есть годного из больших языковых моделей (70B/120B)?
Аноним 14/01/24 Вск 13:23:43 #126 №608740 
Что делать, антохи? На 8гб (3070ti) и 32гб ДДР4 уже сил нет сидеть. Терпеть? Или купить второй какую-нибудь на 12 гигов?
Аноним 14/01/24 Вск 13:34:53 #127 №608742 
>>608646
Олива - такое же говно как и TRT, где модель компилируется.
Аноним 14/01/24 Вск 13:38:57 #128 №608746 
>>608590
> 1 т/с - это не нормальная.
Там 5 т/с генерации. Раньше было 2500мс/т.
> Т.е. там десятки т/с должны быть на ГПУ.
А у меня 6700хт+ггуф, десятки мне только снятся.
Аноним 14/01/24 Вск 13:40:56 #129 №608748 
>>608598
> Вот это неожиданная хуйня, получается, она тренировалась на ебанистическом контексте?
Да, некоторые версии yi и других моделей имеют 32-64-100-200-...к что стоит в базовом конфиге вместе с параметрами rope с которыми шла тренировка.
> В карточке указан рекомендованный 2к, а в конфиге 30к+
2к не может быть на современных моделях. Выстави 4к или какой удобно, не обязательно использовать весь в любом случае.
> Мне больше понравились трансформеры, одна галочка "грузить в 4 бита"
Это может привести к радикальному отупению, просто пиздец какому, если это старый метод а не экспресс квантование (что тоже неочень на самом деле).
> В чем сакральный смысл таверны?
Ультимативный фронт. Помимо удобного интерфейса с кучей фишек, в ней легко настраивается инстракт режим с нужным форматом промта, который обеспечит должный перфоманс.
> инструкт режим полностью игнорирует карточку
Не может такого быть, что-то неверно выбрано значит.
> идея сделать русскоговорящего полуёбка
Ради интереса, можешь попробовать на коллабе лору на язык натренить, но крутого результата сразу не жди.
>>608628
Неудивительно что амудэ заглатывает в нейронках.
>>608642
Оу щи, а зачем так сложно? Хотя не так давно встретил карточку и подобным форматом, которая заводилась со скрипом, впервые за долгое время, возможно такие танцы с бубном бы улучшили. Но лучше просто нормально карточку сделать.
>>608737
Все те же, синтия 1.5, дольфин, айроборос, козел, можешь попробовать замес euryale, xwin хоть старый неплох. По 120 пара файнтюнов была, tess-xl попробуй.
>>608740
p40, или
> второй какую-нибудь на 12 гигов
но не какой-нибудь а новидео
Аноним 14/01/24 Вск 13:50:00 #130 №608762 
Короче, поугарал я вчера.

На 3200 в двухканале Mistral 0.2 Q6_K выдает 4 токена сек.
На некрозеоне в двухканале 1866 (ваще-та DDR4!) выдает 3 токена сек.
И вот оно! RX6600M, все слои на карту, проц и озу ваще не задействованы! 5 токенов сек.
ахахахаха
сука
пздц
Видяха уровня 2060 супер или 3050~3060.
Выдает чуть больше проца.
Какой кринж, просто, я хуй знает.

Где там рыцари амд и свободы.
Рассказывайте, что мне надо поставить, сбилдить, как запустить, чтобы получить честные хотя бы 20 токенов сек, как выдает P104-100 за 3,5 килорубля с авито.
Аноним 14/01/24 Вск 13:54:39 #131 №608774 
>>608762
> Рассказывайте, что мне надо поставить, сбилдить, как запустить, чтобы получить честные хотя бы 20 токенов сек, как выдает P104-100 за 3,5 килорубля с авито.
Всего-то накатить линукс и написать свой драйвер для рокм.
Аноним 14/01/24 Вск 13:55:51 #132 №608780 
>>608748
>а зачем так сложно?
Как я понял, идея в том, чтобы одновременно показать сетке, как персонаж говорит и как в его речи и реакции проявляются его внешка, персоналия и прочее. А в конце чата напомнить нейронке про то, какие ключевые особенности и характеристики перса. Таким образом сетка как бы дважды цепляется за описание и видит примеры, что его нужно использовать. В теории звучит разумно, но на практике задавать такое описание действительно сложно. Поэтому и карточек с этим форматом особо не найдёшь, и, соответственно, оценить, действительно ли он лучше, нельзя. Если только самому карточку не переписывать, а это тоже будет гемор, потому что нужно нетривиальные реплики для персонажа придумывать.
Аноним 14/01/24 Вск 13:56:23 #133 №608782 
>>608774
Ну да, мелочи, свои драйвера.
Спасибо АМД за свободу это сделать!
Аноним 14/01/24 Вск 14:15:34 #134 №608818 
image.png
>>608762
Держи честные 20, которые выдаёт вега. Хуй знает, за сколько она с авито, б/у я бы такую горячую хуйню не взял, но новая была как раз конкурентом 1070 ti.
>что мне надо поставить, сбилдить, как запустить
Любую видеокарту с этого скриншота >>606593
Либо накатить linux, там поддерживаемых моделей побольше. Билдить с флагом LLAMA_HIPBLAS=1, запускать с флагом --usecublas.
Аноним 14/01/24 Вск 14:19:40 #135 №608824 
Недавно вышли 34b МОЕ. Делайте ставки когда уже кто-нибудь запилит 70x2-4-8.
Аноним 14/01/24 Вск 14:21:54 #136 №608827 
>>608824
Заебали уже этими мое, чесслово. Они же просто уже существующих шизов миксуют, а не экспертов, какой тогда смысл вообще?
Аноним 14/01/24 Вск 14:27:41 #137 №608830 
>>608818
Во, это уже интересно!
Затраю, как будет свободное время.

>>608827
Модно.
Аноним 14/01/24 Вск 14:31:07 #138 №608832 
1.png
>>608685
Люблю галочки, хули.

>>608748
>не обязательно использовать весь в любом случае
Когда стоят ебические цифры - у меня расход памяти улетает в космос буквально с первых генераций.
>Не может такого быть, что-то неверно выбрано значит.
Хуй знает. Потыкал wizard-vicuna 13b GPTQ, намного лучше, чем мистраль 7b, но 10 гигов vram со старта. Точно так же полностью игнорирует карточки в инструкт режиме.
>но крутого результата сразу не жди
Хуй знает, потыкал сайгу, прямо пиздец косноязычная. А там въёбано на тренировку немало денег.
Включил перевод страницы в браузере, печатаешь на английском, отвечает "на русском", вроде, покатит, хотя хотелось бы отвечать тоже на русском. А любые прослойки для автоперевода это плюс задержки.
Аноним 14/01/24 Вск 14:37:59 #139 №608836 
>>608762
С просветлением. Но можно воздать молитвы богам чтобы амудэ стало на путь истинный и дало нам крутые видюхи с много врам под ии дабы дропнуть цены на хуанга
>>608780
А, в глаза долблюсь, там вместо карточки примеры диалога в которых идет описание а сама карточка в авторских заметках. Хз честно говоря, но раз работает то и ладно, как на выгруженном контексте будет стыковаться с историей и суммарайзом вопрос. Еще один фейл - описание одежды на глубине 4, не успеешь ее раздеть перед походом на горячие источники, конечно, а не то что вы там подумали! как она опять снимает свои боевые ботинки.
Можно линк на карточку? Выглядит интересно.
>>608832
> Когда стоят ебические цифры
Так не ставь их, указывай 4096 и довольно purrs. Особенно в llamacpp нельзя.
> wizard-vicuna 13b GPTQ, намного лучше, чем мистраль 7b
Она довольно древняя и мэх, но это неплохо иллюстрирует оверхайпнутость мистраля, лол.
> Точно так же полностью игнорирует карточки в инструкт режиме.
Как это проявляется покажи.
> потыкал сайгу, прямо пиздец косноязычная
Она ужасна, может новые версии не столь позорны, но старые это пиздец.
> А там въёбано на тренировку немало денег.
Рили? Скорее автор пытается разжаловать на донаты, если бы хоть что-то дельное сделал а не кринжатину.
Перевод нужно настраивать в таверне, недавно писали как это сделать.
Tesla P40 Аноним 14/01/24 Вск 14:40:14 #140 №608839 
А что вообще можно получить от пары p40 для модели 70B, хотя бы K2? Потому что днищенская RTX3050 8Гб даёт больше токена в секунду, и это при оперативке DDR4. 4060Ti с оперативкой DDR5 должна минимум 2 токена давать. Если собирать под две-три P40 отдельный комп, то как ни ужимайся, а деньги как минимум те же. Вопрос к тем, кто успел купить 2 P40 (ну или может в треде уже были тесты): сколько токенов в секунду такая модель на этой связке даёт?
Аноним 14/01/24 Вск 14:49:29 #141 №608848 
>>608644
Фроствинд соя пиздец, если у карточки не прописано поведения, то он по дефолту будет всех делать политкорректными. Меня карточка даже за плечо без моего разрешения не хотела брать, а заставить некоторых сделать хоть что-то интимное потребовало титанических усилий или переписывание текста персонажа. Мистраль хоть и шизойднее, но сои меньше.
Аноним 14/01/24 Вск 14:50:28 #142 №608851 
>>608836
>Можно линк на карточку? Выглядит интересно.
Это же картинка из гайда выше была, самой карточки у меня под рукой нет. Но поискал немножко, и вроде вот в этом рентри она есть, как и другие карточки по этому методу сделанные.
https://rentry.org/TrappusRentry
Аноним 14/01/24 Вск 14:58:48 #143 №608857 
Гайс, колб угабуги больше не генерит публичную ссылку trycloudflare, а генерит gradio.live к которой не конектится таверна, у вас так же или я что-то сломал?
Аноним 14/01/24 Вск 14:59:33 #144 №608859 
>>604568 (OP)
появилась OpenCAI13b
https://huggingface.co/TheBloke/OpenCAI-13B-GGUF/tree/main?not-for-all-audiences=true

Датасет очень интересен, но в сочетании с тупой 13b это хуета. Вот если бы Солар совместить с этим датасетом....
Аноним 14/01/24 Вск 15:38:36 #145 №608885 
>>608625
И че как?
Аноним 14/01/24 Вск 16:51:26 #146 №608923 
Я заходил в этот тред месяца 3 назад, тогда не было нормальной локальной модели для куминга (в идеале что бы писал порно рассказы), ничего не появилось нормального за это время???
Аноним 14/01/24 Вск 16:54:24 #147 №608927 
>>608923
> для куминга
Были и пол года назад. Таких полно, но у всех требования к скиллу. Хотя так-то покумить на гопоте не зная тему тоже непросто.
Аноним 14/01/24 Вск 17:15:32 #148 №608939 
Есть для таверны расширение, чтобы было больше отдельных панелей при создании бота, чтобы не сваливать всё в Description?
Аноним 14/01/24 Вск 17:58:53 #149 №608971 
ну все собрался было тренить модель, датасет выбрал, модельку тоже, думал сделаю русскую модель для ролиплея, я знаю что попытки были, но мне кажется я могу бы сделать лучше. И что у нас на кагле часовые очереди на TPU, какой то косяк требующий перезапуск ядра, жди еще час. Коллаб с какими то старыми либами некоторые рецепты не работают, и то там говорят ограничения больше.

А вообще есть у кого инфа сколько на колабе часов можно тпу занимать? В день или месяц. Что дает подписка в этом плане?
Аноним 14/01/24 Вск 18:32:38 #150 №608983 
1705246356746.jpeg
Сап, аноны, спрашиваю как полный ньюфаг, есть ноут с 4060 8гб и 16гб оперативки, но под амуде-процем 7840hs.
Есть ли смысл вкатываться к вам и курить мануалы из шапки или с подобным конфигом и/или ноутбуком это глупое занятие?
Аноним 14/01/24 Вск 18:49:31 #151 №608997 
>>608983
Норм, можешь очень быстро крутить любые 7b на видеокарте или что то крупнее, но уже медленнее. Поиграйся и поймешь надо тебе это или нет.
Аноним 14/01/24 Вск 18:56:44 #152 №608999 
>>608836
> С просветлением
Да не, так-то у меня 4070 ti и всякая мелочь, просто комп попал с рыксой в руки, я и попробовал. Смешно, неюзабельно в дефолтном виде.

>>608832
> Хуй знает, потыкал сайгу, прямо пиздец косноязычная.
Mistral 0.2 будет не хуже на русском, кмк.

>>608983
На проц похуй. Есть AVX2 и ладно.
У тя, кстати, проц неплохой.
Надеюсь, ты брал свой ноут не дороже 70к с такой видяхой.
Ну и, да, вкатиться можно, но памяти лучше добавить до 32 хотя бы, если не 64.
Аноним 14/01/24 Вск 19:04:22 #153 №609006 
>>608983
> под амуде-процем
Нынче в этом нет ничего плохого как и хорошего
Все то же самое, проблемой может быть 16гб рам, это даже для просто пользования пека сегодня мало. Считай себя обычным полноценным как бы это рофлово не звучало восьмигиговым и пробуй 7б на видюхе и 11б-13б с выгрузкой на проц. Больше рам не позволит, если докупишь то можешь попробовать 20б.
>>608999
> Mistral 0.2
Уже анонсировали? Какой там размер?
Аноним 14/01/24 Вск 19:09:06 #154 №609010 
image.png
image.png
image.png
image.png
>>608885
Я погонял совсем чутка, но встретил те же проблемы, с которыми столкнулся с предыдущей моделью, попыткой автора сделать erp солар, Sensualize: кум описывается охотнее, чем на фроствинде, но модель ощущается тупее. Когда забыл поменять инстракт с чатмл на альпаку, сгенерилась какая-то лютая шиза (первый пик), где тянка писала сначала, что давай отложим сегс, нужно пойти пообедать, а потом сразу что к чёрту обед, я хочу тебя внутри себя. Фроствинд себе такого не позволял. Есть ощущение, что требует меньшей температуры и штрафа за повтор. Когда снизил их и поставил альпачный формат, ответы стали пологичнее, но всё равно такие себе. И сильно не любит курсив, похоже.
Дальше для сравнения три скрина с обычной sfw сценкой с фроствиндом, Synatra-MCS-7b и Fimbulvetr. Видно, как последний всирает форматирование и херово описывает окружение. А вот мерж синатры внезапно реально неплох.
Аноним 14/01/24 Вск 19:17:32 #155 №609016 
>>609010
Выводы по одному чату или заседал с ними сравнивал? Забавно насколько похожи ответы в разных моделях, какая из подобных в итоге больше понравилась, замес синатры?
> her paw
Это базированный баг или фича карточки?
Аноним 14/01/24 Вск 19:34:20 #156 №609055 
image.png
>>609016
Как написал, чуть-чуть потестил, глубоко не копал. По паре свайпов в трёх-четырёх чатах с разными персами сделал. Где-то отвечает оково. Вполне возможно, что не подобрал нормальные настройки. Про лапу всё правильно, это же антропоморфная собака.
>Забавно насколько похожи ответы в разных моделях
Да, давно заметил тоже. Иногда ради интереса свайпаю разными моделями. Бывает, даже одной с колаба, одной с компа. И структура ответов прямо один в один очень часто.
>замес синатры
Неплохо пишет и вроде поумнее, чем синатра, но всё ещё 7б. Пока не так много её гонял, чтобы прямо порекомендовать. Ну и там в датасете синатры чаты из какого-то корейского чат-бота что ли, так что гпт соевая лексика или нечто подобное периодически ощущается. Вот на пике собака на этой модели. Ну, правда, ещё EoS токен забанен, мб поэтому вылезла эта шняга про комфорт в конце.
Аноним 14/01/24 Вск 19:37:28 #157 №609067 
>>609006
В смысел уже.
Она вышла вместе с Mixtral.
The Mistral-7B-Instruct-v0.2 Large Language Model (LLM) is an improved instruct fine-tuned version of Mistral-7B-Instruct-v0.1.
Аноним 14/01/24 Вск 19:41:01 #158 №609072 
ядаунищутян.png
>>608216
Делай как у меня
Аноним 14/01/24 Вск 19:46:42 #159 №609087 
Аноны, что скажите о mythalion-13b? Как она в плане рп? Стоит пробовать?

Ибо у меня интернет калл и не могу качать все подряд
Аноним 14/01/24 Вск 19:50:14 #160 №609096 
>>609087
>13b?
>рп
Ты же сам знаешь, что нормальный рп начинается с 34b. Но можешь скачать аметиста.
Аноним 14/01/24 Вск 19:51:55 #161 №609100 
>>609055
Плохо это, показывает насколько ограничена база датасетов и как мало чего-то уникального не смотря на огромное количество моделей.
> Про лапу всё правильно
Точно, если присмотреться то видно.
Синтетикой отдает, но в целом вполне, особенно учитывая размер модели. Надо потестить промт чтобы обуздать всякие
> heart races
> mind is swimming
и подобное, оно вообще много где встречается, но на некоторых карточках с характерным стилем не лезет. А также устранить микролуп в виде начала каждого предложения с she/her, но возможно здесь уже суть 7б лезет.
> шняга про комфорт в конце
Зажрались просто требовать идеала от мелочи, особенно с ban eos, удалить и дальше довольно purrs.
>>609067
А, эта, доступные апи есть?
>>609087
Противоречивые отзывы, кто-то хватит, при тестировании показалось херью. Она же еще старая, не стоит.
>>609096
Зажрался все так
Аноним 14/01/24 Вск 19:54:56 #162 №609109 
>>609087
Прямо сейчас раздаётся кучей воркеров на орде с 4к контекста. Можешь ввести ключ из нулей в таверне да заценить. Я уже очень давно пробовал и мне понравилась меньше мифомакса, а с тех пор уже навыходило много разных безумных 13б мержей получше.
Аноним 14/01/24 Вск 20:05:21 #163 №609130 
>>608997
>>609006
>>608999
Спасибо! Лечу читать шапку.
Аноним 14/01/24 Вск 20:11:08 #164 №609143 
Почему у вас так сложнаа!
Я в ваш тред не часто захожу. Обычно сижу в тредах с картинками. Не пойму про что вы говорите. Пару месяцев назад поставил capybara-tess-yi-34b-200k.Q4_0.gguf. Вроде нормальная модель. Зашел сегодня, ни черта не понятно. Что я могу запустить на своей 4090?! Эту капибару я взял из рандомного поста здесь. Её можно на помойку отнести или за два месяца ничего не поменялось?
Похоже что надо неделю ваши треды перечитывать, что бы понять что тут вообще происходит.
Аноним 14/01/24 Вск 20:31:13 #165 №609199 
>>609010
Там автор в рекомендациях запуска советовал только мин-п использовать и альпака режим, так что может быть настройки отбора так повлияли.
Аноним 14/01/24 Вск 20:46:19 #166 №609229 
>>609143
>Почему у вас так сложнаа!
Потому что ии это сложна

>Не пойму про что вы говорите.
Тут уже куча локального бадумс сленга

>capybara-tess-yi-34b-200k.Q4_0.gguf.
Ниплоха вроде, может что и лучше есть

>Что я могу запустить на своей 4090?!
А что хочешь?
Если нужны мозги то ищи большие модели до 34b, у тебя запустится. Если нужен кум или расцензуреная версия то уже другие.
У тебя 24гб видеопамяти, это значит что ты сможешь запустить в любом формате любую модель, которая занимает не больше 20гб своими файлами. Если запускаешь меньше 34b можешь брать версию модели с большим квантом, которая весит больше других. В идеале 8q, 16 уже перебор для простого анона.
Соотвественно если модель не влезает то бери версию до 20 гб, но меньше 3 квантов не рекомендую, это уже слишком отупляет модель, может быть только 70b так крутить и выйдет.
Если еще и на оперативку часть выгружать то и 70b сможешь запустить, но это нужно от 64 гб оперативки, и желательно быстрой ддр4 или хоть какой 2 канальной ддр5. Это уже только ггуф формат, и до 2-4 токенов в секунду, но да, почему нет.
Аноним 14/01/24 Вск 20:50:54 #167 №609240 
>>609143
> Что я могу запустить на своей 4090?!
Самое главное говно Жоры не трогай. Только GPTQ или EXL2. А выбор из моделей не большой - либо 34В, либо что-то из Микстралей. Остальное слишком устаревшее и тупое.
Аноним 14/01/24 Вск 20:51:11 #168 №609242 
>>609143
> на своей 4090
Можешь скачать gptq версию той же
> capybara-tess-yi-34b-200k
и гонять с большей скоростью и большим контексте полностью на видеокарте.
Не то чтобы на помойку, новые файнтюны 34б могут быть лучше, но не радикально. Если устраивает - используй, радикально прорывного в этой области не было.
Можешь попробовать из недавно вышедших
Nous Hermes 2 Yi 34B
Yi 34B v3
Nous-Hermes-2-SUS-Chat-34B-Slerp
Tess-34B-v1.4
dolphin-2.2-yi-34b-200k
и другие. Ну и 20б попробуй, они не настолько умные но могут писать гораздо более складно и менее шизоидные чем все, основанное на yi34b. Можешь попробовать 70b с выгрузкой на процессор, но это сомнительное удовольствие из-за скорости в пару т/с, не стоит того.
> что тут вообще происходит
Есть движение в области мелких прежде всего, ну и всякие мелочи. В остальном глобально - застой.
Аноним 14/01/24 Вск 21:17:33 #169 №609285 
Интересную хакерскую модель специалиста нашел, не проверял, так как я в этом деле тупой. Но выглядит как прототип системы автовзлома или что то похожее на ии оружие
https://huggingface.co/neurolattice/WhiteRabbitNeo-13B-v1
Есть и жирнее на 33b
Орудие будущего хули, вредоносные ии взломщики прям.
Конечно сейчас это просто хуйня справочник, которая и напиздеть может в чем то важном, но идея конечно интересная
Аноним 14/01/24 Вск 21:35:12 #170 №609318 
>>609229
>>609240
>>609242
Ок, спасибо за ответы. Теперь уже в следующие выходные вернусь к этому. Типы моделей это кстати было для меня самое загадочное. Запомню GPTQ и EXL2.

И что такое "говно Жоры"?

>Потому что ии это сложна
Но я же не лезу в теорию. Всего лишь конечным продуктом пользуюсь.
Аноним 14/01/24 Вск 21:35:48 #171 №609320 
>>609285
Всё ещё пользы меньше чем от гугла.
Аноним 14/01/24 Вск 21:40:12 #172 №609330 
>>609320
Гугл запомнит что ты спрашиваешь или о чем пишешь, сетка нет
Если ты конечно не включишь сверхразума и не будешь пользоваться гугловским/онлайн переводом на сетке, лел
Аноним 14/01/24 Вск 21:43:04 #173 №609335 
>>609285
> или что то похожее на ии оружие
Что-то орнул в голос, представив оружие, которое лупится на plap plap plap get hacked
Она хоть больше кодлламы знает? Как реагирует если попросить взломать жопу?
>>609318
На вики инфа про это есть.
> Всего лишь конечным продуктом пользуюсь.
Оно в такой фазе сейчас что даже просто использование подразумевает некоторый уровень.
Аноним 14/01/24 Вск 21:43:43 #174 №609339 
>>609320
И что? Боишься что к тебе ФБР заявится в квартиру за то что ты погуглил как взломать вайфай?
Аноним 14/01/24 Вск 21:44:06 #175 №609340 
>>609318
>Но я же не лезу в теорию. Всего лишь конечным продуктом пользуюсь.
В теории там вобще отвал жопы, даже просто запустить модель и настроить на уже готовых инструментах тот еще уровень "специалиста" нужен, хоть документы получай.
Есть и проще варианты, качни lm studio, там почти все настроено за тебя, веры особой этому инструменту нет, но начинающим норм
Аноним 14/01/24 Вск 21:48:21 #176 №609348 
>>609335
>Она хоть больше кодлламы знает? Как реагирует если попросить взломать жопу?
Хуй знает, вроде как для взлома/антивзлома и работой с специализированными программами для белых хакеров
Оценить че она выдает мне не хватит знаний, поэтому даже не проверял
Аноним 14/01/24 Вск 21:52:07 #177 №609355 
>>609100
> А, эта, доступные апи есть?
Не шарю за коллабы, локально гоняю.
7B же, помещается в 8 гигов даже.

> ограничена база датасетов
Кстати, да.

>>609143
Капибара-тесс хороша.
Но там вышла exl2, вроде как, она может быть побыстрее с тем же качеством, если подберешь нужную.
Но точнее тебе уже насоветовали, наверное. =)

Во, первый ответ хорош.
70b можно впихнуть тебе в видяху, но там квантование будет мелким, и, мне кажется, yi-34b модели будут не сильно хуже при таком размере.

Микстраль бы я не советовал, скорости не сильно увеличатся, а сжатие будет большим.

Третий ответ тоже правильный.

GPTQ или Exl2, думаю лучше Exl2, говно Жоры — это GGUF, Георгия Герганова.

Смотри от 4bpw до 5bpw (можешь промежуточный взять квант), та же Capybara лежит, NousHermes много.
Аноним 14/01/24 Вск 21:59:47 #178 №609376 
>>609355
Совсем запутал, та же от обычного мистраля тольком не отличается, надежды были на их закрытую модель что и другой размер имеет.
> вышла exl2
Оно локально квантуется без регистрации и смс под желаемые параметры. 70б даже в 24+12 что влезает хейтили, в 24 будет 2.5 бита и нежизнеспособная, нужны новые техники квантования/ужатия.
> GPTQ или Exl2
На самом деле там не столь высокая разница, gptq 32g это примерно 4.65 эффективных бит и вполне хорош. Если гнаться за перфомансом то лучше делать exl2 самостоятельно (и шаманить датасет), дабы не низвергнуть весь микропрофит ошибками квантователя.
Аноним 14/01/24 Вск 22:06:00 #179 №609390 
>>609376
> На самом деле там не столь высокая разница, gptq 32g это примерно 4.65 эффективных бит
Нет. EXL2 жмётся лучше. 3.7bpw равны жоровским Q4 по PPL. GPTQ всегда будет похуже при одинаковом размере.
Аноним 14/01/24 Вск 22:12:08 #180 №609406 
>>608836
>Так не ставь их, указывай 4096 и довольно purrs.
Довольно часто оно само выставляется на 32к и нужно заходить в настройки и переключать.
>довольно древняя и мэх
Не исключаю, что просто неправильно готовил мистраль или не оценил профиты.
>Как это проявляется
Да это, походу, ожидаемое поведение в угабуге.
Перевод это примитивная хуйня, хули там настраивать. Сама идея гонять перевод не нравится.
>Рили?
Да, он там на хабре рассказывал что-то про деньги, но я точно не запомнил. Датасет в любом случае денег стоит.
>>608999
>Mistral 0.2 будет не хуже на русском, кмк.
Возможно. Но на русском оно всё сваливается в шизогенератор, хуй знает, с чем связано. И у сайги в датасете явно есть машинный перевод, хотя заявлены плюс-минус нормальные данные. Пару раз вообще свалилась в транслит, часто зацикливается, не понравилось, короче. Что-то явно пошло не так.
Аноним 14/01/24 Вск 22:19:05 #181 №609426 
image.png
image.png
Очень крутой у вас тред. Очень много уже подсказали, без вас я бы не вкатился, вы няши :3

Выбараю сейчас оптимальную модель. Подскажите, на что влияет размер ГУФА? Если у меня 12гб GPU, то гуф 14гб у меня не запустится, так? Мне отбивает что-то про CUDA out of memory в консоли.

В чем вообще разительная разница одной и той же модели, с разным размером гуфа? Насколько она критично тупеет?

И ещё, в кобольде есть настройка которая меняет количество токенов на ответ. Я крутил-вертел её, ставил и 100 и 500, но разницы не ощутил. Показалось что с 500 отвечать медленней стала. На что она влияет?

страждущий гуманитарий, пытающийся создать чатик со своей вайфу ГГ из киберпанка
Аноним 14/01/24 Вск 22:22:02 #182 №609434 
1666022568555.png
1614794826996.png
>>609390
Кванты жоры неэффективны это и так понятно. Q4 тоже разные, K_M - более 4.8 бит не смотря на название.
Но между gptq и exl2 разница не столь велика, плюс perplexity будет зависеть еще от того на каком датасете оценивать, если тот что был для замеров и тот на каком оценивать ppl будут одинаковые то и выйдет максимальная эффективность. Там довольно мутная тема на самом деле, по-хорошему стоит замешать викитекст с небольшой долей ерп датасетов для типикал задач местных, но там разница как от совсем долей бит и неизмеримо будет.
>>609406
> Датасет в любом случае денег стоит.
За тот доплачивать надо, лол. Он открыт, можно посмотреть.
>>609426
Выгружай на видеокарту меньше слоев, остальные будут обсчитываться профессором, ггуф позволяет делить.
> количество токенов на ответ
Это верхний лимит после которого просто остановится на полуслове, если дойдет. Влияет на выделяемый контекст под ответ (считай если ставишь 500 то при максимальном 4к будешь иметь чуть больше 3.5к на прошлый чат, а остальное - буфер для ответа).
Аноним 14/01/24 Вск 22:27:03 #183 №609453 
1.png
2.png
>>609434
>Он открыт, можно посмотреть
Сейчас же и полезу, нужно посмотреть формат.

Олсо, я правильно понимаю, что информация на русском и информация на английском - это разные области знания сетки и они, по факту, не пересекаются?
Аноним 14/01/24 Вск 22:29:29 #184 №609460 
>>609453
>Олсо, я правильно понимаю, что информация на русском и информация на английском - это разные области знания сетки и они, по факту, не пересекаются?
Не совсем, там внутри у ней неонка она имеет какие то общие представления об объектах, поэтому зная относительно мало слов на русском может говорить на нем на темы которые есть на английском, хоть и хуево
Аноним 14/01/24 Вск 22:40:55 #185 №609475 
>>609434
ага только gguf стабилен на всех датасетах, а все эти exl2 gptq только на избранных. То что он потеряет доли бита предположение, по сути там как раз очень жестко режется все за пределами типовых задач.
Аноним 14/01/24 Вск 22:45:11 #186 №609483 
>>609453
> информация на английском - это разные области знания сетки и они, по факту, не пересекаются
Нет (да). Спроси мл инженеров, мы тут на всякий треш кумим и фитишами упарываемся, а ты такие вопросы задаешь.
Если базовая модель сетки хороша и провести обучение правильно (включая все этапы, параметры, датасет) то это будет единым целым. Даже по дефолту при обучении всякой херни только на инглише можно спросить сетку про обученное и она ответит, правда более криво.
>>609475
> gguf стабилен
Чет обмеился с этого сочетания
> только на избранных
На каких избранных?
> gptq
Его не в тему приплел
> предположение
Суждение основанное на фактах, и ты, похоже, не понял о чем речь шла в том предложении.
> там как раз очень жестко режется все за пределами типовых задач
Сильное заявление
Аноним 14/01/24 Вск 22:55:25 #187 №609506 
123.png
>>608818
7600
Аноним 14/01/24 Вск 22:57:01 #188 №609508 
>>609506
заработало?
Аноним 14/01/24 Вск 22:59:15 #189 №609513 
>>609508
Я не он. Просто для статистики скинул.
Аноним 14/01/24 Вск 23:04:56 #190 №609520 
Аноны, помогите, хочу вкатится в селфхост, но на любую модель которую я скачиваю koboldcpp выдает "uknown model, can not load"
Как фиксить?
Аноним 14/01/24 Вск 23:08:24 #191 №609530 
1.png
>>609460
>может говорить на нем на темы которые есть на английском
Получается, есть какой-то встроенный перевод и концепция разных языков должна быть зашита довольно глубоко. Токены русских и английских слов гарантированно разные и сетка не должна понимать, что tree и дерево - одно и то же.

>>609483
>а ты такие вопросы задаешь.
Так это важно. Я читал, что во многих датасетах есть только русская википедия, т.е нейронка ограничена только этим. Если русская и английская части не пересекаются, то очевидно, что единственный вариант прикрутить русский - это перевод. Или обучение с нуля, с чем могут быть проблемы.
Чего в википедии точно нет?
Аноним 14/01/24 Вск 23:12:34 #192 №609534 
>>609530
> есть только русская википедия
Все так, и в таком случае у модели сразу вырабатывается связь - если русский язык, то должен быть сухой стиль и рассказывать о чем-то. Сети улавливают прежде всего закономерности а не какой-то смысл, если все сильно упрощать. Языковой датасет может быть относительно небольшим чтобы выполнить локализацию модели, но он обязан быть сбалансированным и иметь пересечения с тем что уже модель знает, про это уже давно писали.
Аноним 14/01/24 Вск 23:12:51 #193 №609536 
>>609530
>Получается, есть какой-то встроенный перевод
Нет, просто ассоциативные связи, возникающие в момент обучения. Представленные в виде собственно нейросети
Аноним 14/01/24 Вск 23:39:02 #194 №609577 
>>609520
Я поискал в интернете и понял что я почему то скачиваю файлы в меньшем размере чем они должны быть, можно ли как то скачать файл полностью? Или я затупок полный и не там копаю?
Аноним 14/01/24 Вск 23:39:45 #195 №609579 
>>609577
какой формат качаешь то?
Аноним 14/01/24 Вск 23:41:00 #196 №609584 
>>609579
gguf
Аноним 14/01/24 Вск 23:42:06 #197 №609586 
>>609584
Кобальд последний? Попробуй скачать каким нибудь другим загрузчиком, например
Аноним 14/01/24 Вск 23:43:17 #198 №609590 
>>609586
Кобольд последний, сегодня ставил. Другим загрузчиком это как? Я просто напрямую качал с сайта жмякнув на кнопку скачивания рядом с выбранной моделью.
Аноним 14/01/24 Вск 23:46:23 #199 №609603 
>>609590
Я вот этим качаю Motrix, хоть и приходиться имя файла прописывать, сам он при сохранении ерунду вместо имени пишет
Браузеру не доверяю чет
У блока качаешь хоть?
Аноним 14/01/24 Вск 23:47:18 #200 №609604 
>>609603
Да, у него. Ща попробую этот ваш Motrix поставить и через него скачать, если будет какой-то результат то отпишу
Аноним 15/01/24 Пнд 00:02:31 #201 №609614 
>>609577
Ошибок при скачивании нет случаем? gguf можно просто браузером качать, с обниморды при скорости до 500 мбит делать параллельную закачку нет смысла.
Можешь hfhub поставить и по инструкции качать.
>>609590
> Другим загрузчиком это как?
Наверно имелось ввиду через llamacpp (в составе убабуги или отдельно), врядли это поможет если скачанный файл битый.
Аноним 15/01/24 Пнд 00:09:50 #202 №609625 
>>609614
Ни разу не выдавало. Это вообще нормально что на обниморде указано что файл весит 7.9 гб, а размер файла во время скачивания становится 7.3?
Аноним 15/01/24 Пнд 00:19:45 #203 №609627 
>>609625
7,16 ГБ (7695875136 байт)
7b в 8q например
Аноним 15/01/24 Пнд 00:34:59 #204 №609637 
1602010750851.png
1677250378354.png
1628406846944.png
1670307735047.png
Потестил Визардкодер, в целом заебись, на крестах код почти рабочий, после пары пинков он сам его фиксит, но шизит иногда странными формулировками типа пик1. Знает нормальные языки, а не только питон, даже в раст может. На питоне генерит с первого раза рабочий код, может нормально пояснить за него. Проиграл с рекурсии, как я попросил его сгенерить код для генерации текста, а он в коде в промпте просит тоже самое у другой нейронки, кста, правильную ссылку на модель лламы не смог мне назвать, зато на GPT-Neo верная и код рабочий.
По скорости на 4090 заебись - 40 т/с, больше 3-5 секунд не приходится ждать.
Аноним 15/01/24 Пнд 00:40:00 #205 №609640 
>>609376
> Совсем запутал
Да как запутал-то? :) Я сказал, что вышла новая 0.2 версия обычной Мистрали — и так оно и есть. Ты просто додумал что-то за меня, сам себя запутал, много хотел.
Все мы много хотим, но… ¯\_(ツ)_/¯ Шо поробишь, не все как хочется.
ИМХО, Мистраль и так хорошо выкладывает и обновляет модели.

> На самом деле там не столь высокая разница
Ну, я про то, что их лучше, чем GGUF использовать, разница велика.
А уж между ними да, на вкус и цвет подбирать. Ну или даже делать, эт верно.
Но если человек редко заходит и не хочет разбираться — ему проще выбрать из имеющихся на обниморде.

>>609406
> Довольно часто оно само выставляется на 32к
А кнопка Save не сохраняет настройки модели?

>>609434
> 3.5к на прошлый чат
3.5к на:
инструкции
карточку персонажа
всякие допки типа авторс нот
…и прошлый чат =)

>>609453
> информация на русском и информация на английском - это разные области знания сетки
Насколько я знаю (пусть меня поправят) — да (да). Совсем да.
Другое дело, что статистически токены аналогичных слов в разных языках близки (т.е., сетка знает, что sun и солнце — это что-то плюс-минус одно), и она на основании этого, при разговоре на русском будет статистически подтягивать нужные слова.
Но по сути — это большой рандом, она может в какой-то момент не связать то, что ты от нее хочешь со знаниями на другом языке и уйти в придумывания.

Но тут я могу ошибаться, повторюсь.

>>609506
Ух ты, видяшка за 3,5 килорубля на авито!
Ну ладно, чуть лучше, канеш.

>>609530
> Токены русских и английских слов гарантированно разные
Да.
Я подозреваю, что у всех сеток в датасетах есть переводы (в смысле — тексты словарей-переводчиков), и она просто понимает, что этот токен и этот токен — очень похожи, и если юзер хочет токены из этой области — она дает именно их. Но когда не находит «синонима» (перевода) — вываливает как есть. Это заметно на маленьких сетках, когда внезапно пишется английское слово посреди русского текста. Просто рандом не сработал, или перевода не знала.

Ну или вот идея с википедией, да. Плюс-минус текст и там, и там один, вот тебе и слова похожие.

>>609536
> ассоциативные связи, возникающие в момент обучения
Именно.
Аноним 15/01/24 Пнд 00:41:10 #206 №609643 
>>609637
А это новая версия какая-то?
Пробовал Мистраль и КодЛламу?
А файнтьюны кодлламы на языки?
Просто я визардкодер помню более чем полгода уже.
Аноним 15/01/24 Пнд 00:46:15 #207 №609646 
>>609637
deepseek-coder
вот эта сетка говорят норм
Аноним 15/01/24 Пнд 00:46:35 #208 №609647 
1573510236338.png
>>609643
> А это новая версия какая-то?
v1.1, самая свежая, неделю назад релизнулась.
> Пробовал Мистраль и КодЛламу?
Не вижу смысла, потому что пикрилейтед рейтинг моделей для кодогенерации. Лучше визарда только жпт-4, лол.
Аноним 15/01/24 Пнд 01:56:36 #209 №609671 
>>609637
> но шизит иногда странными формулировками типа пик1
Семплинг обуздай, снижай температуру, выше 0.5 не стоит вообще, снижай rep pen, более 1.05 не стоит.
> правильную ссылку
Оно может разве что имя с обниморды назвать, но то все старые модели.
>>609640
> Ты просто додумал что-то за меня, сам себя запутал
Не, запутал шо пиздец, какой там еще русский в той модели, он инвалидный и ужасно кривой. Но поверил и потому сразу решил что ты про ту модель, что они называли дохуя перспективной и не выкладывали.
> А уж между ними да, на вкус и цвет подбирать
Именно про это. Проще самый жирный gptq скачать и получить гарантированный результат, тем более его битность как раз соответствует тому что поместится с нормальным контекстом в 24гб для 34б модели. А с exl2 уже потом разбираться если очень руки чешутся. Это для случаев когда поместится 6бит, например, актуально уже.
>>609643
> Мистраль
В кодинге? Гниль же, как и микстраль. А на кодлламу есть файнтюны визардкодера как раз и они обновляются иногда.
> помню более чем полгода уже
То наверно старая версия на дичи типа 15б, нет?
>>609647
> v1.1, самая свежая, неделю назад релизнулась.
Ого, пора бежать качать. Прошлый нравился, а здесь еще и свежие знания явно присутствуют.
Аноним 15/01/24 Пнд 03:23:42 #210 №609709 
Вечер в хату, я новенький, потыкал говносайты типа spicychat потом решил попробовать локальные модели.

Я правильно понимаю, что они все (из релевантных) основаны на вариантах лламы-2 оттрейнить которые с нуля стоит миллионы баксов? При этом она релизнута с некоей цензурой которую снимают костылями в виде файн-тюнинга?

Ну предположим, что это норм. А нет ли моделек, которые натрейнены на фантастической литературе, сюжетах аниме и пр., или это пизда в плане копирайта?
Аноним 15/01/24 Пнд 03:28:34 #211 №609710 
>>609709
> основаны на вариантах лламы-2
Не совсем, есть и другие версии, ллама2 самая популярная а также в "базовости" некоторых других есть сомнения и они могут быть основаны на ней.
> она релизнута с некоей цензурой
Нет там ее особо, просто модель плохо знает некоторые вещи по дефолту.
> костылями в виде файн-тюнинга
Файнтюн позволяет значительно улучшить модель в определенных областях, а не только делается чтобы костыльно что-то переделать. Но он действительно может или добавить цензуру, или ее снять, или все вообще поломать что будет шиза где провокация будет вперемешку с аположайзами.
> нет ли моделек, которые натрейнены на фантастической литературе, сюжетах аниме
Большая часть рп файнтюнов.
Аноним 15/01/24 Пнд 04:18:38 #212 №609728 
Какие модели порекомендуете для ERP с BDSM?
Аноним 15/01/24 Пнд 04:30:07 #213 №609732 
1.png
2.png
>>609534
>но он обязан быть сбалансированным
Ещё бы знать, в каком это смысле.
>>609536
>просто ассоциативные связи, возникающие в момент обучения
Тогда вся проблема только в ограниченности этих связей и всё гораздо лучше, чем я думал.
>>609640
>А кнопка Save не сохраняет настройки модели?
Хуйня на пике не сохраняется в принципе.
>Но по сути — это большой рандом, она может в какой-то момент не связать
Понятное дело, что русского в сетке очень мало и им пользоваться такое себе. Мне просто интересен сам механизм.
>внезапно пишется английское слово посреди русского текста
Так у меня вон на пике выше, "deforestation" перевелось, как "дефорусация". Получается, модель просто не нашла подходящего термина и ебанула английский русскими буквами. Это даёт надежду, что модель таки связывает все области знания в одно целое и гоняя её на русском я не получаю 0.1% от всех её интеллектуальных способностей. Получаю 0.2%, так как связей по дефолту почти нет из-за бедного датасета.
Аноним 15/01/24 Пнд 06:13:29 #214 №609744 
>>609508
А почему оно не должно работать? В списке-то есть. Это с 6000 серией проблемы. Алсо, вот и демо-версия грядущих "дешманских 16 ГБ". Будет где-то 15 Т/с на 13b, ну и с оффлоадом по сравнению с нищесборками на 8 ГБ можно запустить модель на порядок больше с примерно той же скоростью, наверное (типа 20b со скоростью фроствинда, 34b со скоростью 20b и т.д.). Несите теперь бенчмарки предыдущего "народного" топа 3060@12 с овер9000 Т/с, отговаривайте меня от того, чтобы вляпаться в амудэговно.
Аноним 15/01/24 Пнд 06:29:22 #215 №609746 
>>609744
Ну и уточню, что больше всего интересуют именно скорость больших моделей с оффлоадом, не влезающие в 12 ГБ на 3060. Я к скорости непривередлив, мне и 4 Т/с на 11ГБ frostwind норм, апгрейдиться только чтобы гонять его с быстрыми ответами не особо интересно, а вот мозгов хотелось бы побольше, пусть и с теми же 4 Т/с.
Аноним 15/01/24 Пнд 08:16:36 #216 №609798 
>>609744
>Несите теперь бенчмарки предыдущего "народного" топа
P40 выдавала 9т/сек на 34b и стак P40 выдавал примерно 4 т/сек на 70b.
Аноним 15/01/24 Пнд 08:43:06 #217 №609815 
>>606829
>Какой перфоманс могут сейчас красные топы с 24 гб показать
Случайно наткнулся:
https://www.reddit.com/r/LocalLLaMA/comments/14btvqs/7900xtx_linux_exllama_gptq/
>for the 30B model, I am getting 23.34 tokens/second
Из того же треда для сравнения:
>Based on comments of my yesterday's post, 3090 seems to get between 18 and 22 tokens/s on 30B (Linux)
>I get 30-40 tokens/s on my 4090 (Windows), on Linux seems to be a bit faster (45 tokens/s)
Из другого источника:
https://github.com/turboderp/exllama
>stock RTX 4090 / 12900K
>33B
Генерация с разными настройками 37-47 Т/с
Промпт от 2313 до 2959 Т/с.
И ещё:
https://github.com/turboderp/exllamav2
>V1: 3090Ti
>33B
37 t/s
>V1: 4090
45 t/s
>V2: 3090Ti
45 t/s для 33B и 42 t/s для 34B
>V2: 4090
48 t/s для 33B и 34B
Так что в сравнении с 4090 прайс (рекомендованный) в (чуть более чем) полтора раза ниже, а перформанс в 1.8-2 раза. Реально же при беглом поиске в моём городе 7900xtx можно найти за 110к, тогда как 4090 начинаются от 200к Повышенный спрос задирает цену вверх. Минимум, который я видел - 90к за 7900xtx и 140к за 4090, но это было ещё до того, как рубль стал пробивать дно летом. 3090 ti, пока они ещё были в продаже, под конец были около 110к.

Такие дела.

Алсо, хочу затестить экслламу на rocm у себя, а то все лламуцпп ругают. Не люблю pytorch, из-за него придётся другой linux накатывать, да и сетки, влезающие в 8ГБ, меня мало интересуют, но сравнить интересно. Ну и потенциальные лулзы с nvidia-фанбоев, которые кинутся защищать своего барина, если вдруг я получу хорошие результаты. Хотя с древними gcn'ами на это мало надежды.
Аноним 15/01/24 Пнд 09:03:31 #218 №609827 
>>609728
Попробовал https://huggingface.co/TheBloke/OpenHermes-2.5-Mistral-7B-GGUF, шишка пробила потолок... Там, где Wizard-Vicuna-13B-Uncensored откровенно тупила и зацикливалась, эта отрабатывала хорошо и бодро, хотя изредка повторяет отдельные фразы.
Аноним 15/01/24 Пнд 09:07:04 #219 №609829 
>>609798
Ну это немного не то, я именно новые рассматриваю. Для 3060 ничего не нашёл, все гоняют мелкие 13b в низких квантах и с малым контекстом, 33b нашёл только на 2x3060 (19 t/s). Если можешь, протестируй 33b модель на лламацпп, задействуя только 12 ГБ vram (ещё можно и 16 для сравнения), а остальное на cpu. Результат не совсем чистый будет, но всё равно cpu свою часть скорее всего дольше считать будет.
Аноним 15/01/24 Пнд 09:41:11 #220 №609841 
>>609827
попробуй норомейду 20Б, вообще в космос улетишь
Аноним 15/01/24 Пнд 09:45:11 #221 №609847 
>>604568 (OP)
Че там по шапке ОПчанкий? Че по вики? Много ньюфагов которые не понимают че им бля делать даже после чтения шапки, она перегружена пиздец. Ну и я думаю как бы запилить рейтинг моделей чисто двачерский. Мб гугл таблицу общую с возможностью добавлять комментарии?
Типа я, оп или еще кто создает список моделей, а аноны комментариями пишут рекомендации на модели. Только я хз как сделать функционал "лайков". Чтобы анон мог не писать "модель заебись" а просто лайкос вьебать.
Аноним 15/01/24 Пнд 09:49:40 #222 №609858 
>>609647
Но это не значит, что недостатки, которые ты видишь в нем — присутствуют в других.
Но чому бы и ни. Заебись и заебись, по кайфу.

>>609671
> То наверно старая версия на дичи типа 15б, нет?
Да, она самая.

>>609732
> ебанула английский русскими буквами
А точнее — английский русскими токенами.
Как я и описываю.
Типа нашла «defo» и «дефо» как похожие токены (и это фамилия, если что=), отсекла restation и посчитала самым ближним токеном «русация». Почему-то. =) Ну и родила новое слово.
Ну, выглядит так, хз.

>>609744
Да ляпайся на здоровье, никто не запрещает. =)

>>609815
До того как рубль, 4090 стоили 110, а с учетом кэшбека и вовсе 70-80.

>>609829
Могу затестить на одной 3060 что попросишь.
Аноним 15/01/24 Пнд 09:53:11 #223 №609863 
>>609847
> Много ньюфагов которые не понимают че им бля делать даже после чтения шапки, она перегружена пиздец.
сюда жми https://2ch-ai.gitgud.site/wiki/llama/guides/kobold-cpp/
Аноним 15/01/24 Пнд 10:33:13 #224 №609901 
>>609858
>что попросишь
Любую ~30b gguf с контекстом хотя бы 8к. Кванты разные посмотреть интересно, конечно, но вряд ли ты захочешь тратить столько времени. В порядке убывания интереса q6 > q8 > q5 > q4 > мелкие.

Впрочем, я уже нашёл табличку здесь для rocm 16 gb (6800): https://github.com/YellowRoseCx/koboldcpp-rocm
>Robin 33b q4_K_S
>ROCM 6-t, 46/63 Layers on GPU
промпт
>14.6s (25ms/T)
генерация
>44.1s (221ms/T)
всего
>58.7s (3.4T/s)
Не совсем 7600, конечно, на 7b генерит чуть быстрее, но примерно почувствовать можно.
И для 3060 12gb здесь: https://www.reddit.com/r/LocalLLaMA/comments/189qbhq/how_well_can_3060_gpu_run_ai_models/
>R5 5500 (on stock 3600Mhz) | 3060 12gb | 32gb 3600, Win10 v2004.
>I'm using LM Studio for heavy models (34b (q4_k_m), 70b (q3_k_m) GGUF.
>On 70b I'm getting around 1-1.4 tokens depending on context size (4k max),
>I'm offloading 25 layers on GPU (trying to not exceed 11gb mark of VRAM),
>On 34b I'm getting around 2-2.5 tokens depending on context size (4k max),
>I'm offloading 30 layers on GPU (trying to not exceed 11gb mark of VRAM),
>On 20b I was getting around 4-5 tokens, not a huge user of 20b right now.
>So I can recommend LM Studio for models heavier then 13b+, works better for me.
>Small models - 7b (20 t\s GGUF, 35 t\s GPTQ), 13b (15 t\s GGUF, 25 t\s GPTQ).
В обоих случаях не самый интересный квант, но примерное представление я получил.
Вывод ожидаемый - когда боттлнеком выступает cpu, модель gpu почти не важна, важен объём vram. 6800 берёт на себя больше работы за счёт лишних 4 ГБ и выдаёт чуть больше скорость.
Аноним 15/01/24 Пнд 10:54:49 #225 №609915 
>>609847
>даже после чтения шапки
Уверен?
Аноним 15/01/24 Пнд 11:01:53 #226 №609919 
>>609915
Ну вопросы они все еще задают, значит чтение шапки либо не помогло, либо они ее вообще скипнули. Второе прямо связанно с тем что она огромная и набита какой-то бесполезной/устаревшей хуетой. Не в претензию анону который ее писал но 60% шапки больше подходит как раз под вики.
Аноним 15/01/24 Пнд 11:45:55 #227 №609956 
>>609072
пасибо!
Аноним 15/01/24 Пнд 13:12:41 #228 №610041 
1png.png
>>609858
>Типа нашла «defo» и «дефо»
Почти, но не совсем. В любом случае, каких-то достоверных способов проверить - нет.
Аноним 15/01/24 Пнд 13:58:07 #229 №610109 
>>609732
> Ещё бы знать, в каком это смысле.
Условно покрывать все области, stem, простой QA, решение задач кодинга, различные переводы, рассказы, чаты, длинный ролплей, срачи и подобное. Офк в меру возможностей все этой. Если будет охвачена ограниченная область а изначального знания языка мало - оно будет пытаться подрожать ей.
>>609815
Вполне неплохо, жаль без указания размера квантов, они отличаются более чем на 10%, но и так уже хорошо. Вселяет надежды.
> Реально же при беглом поиске в моём городе 7900xtx можно найти за 110к
В (поза) прошлом году и летом 4090 белые с чеками и трехлетней гарантией бралась в эти деньги или чуть дороже. 3090 с хорошим охладом и бодрая-живая за 50-60к, днище что зайдет для ллм от 40к. 7900 рапортовали что стоила ~90к, но хз, наверно можно было найти дешевле.
> Не люблю pytorch, из-за него придётся другой linux накатывать
Лолчто?
> потенциальные лулзы с nvidia-фанбоев, которые кинутся защищать своего барина, если вдруг я получу хорошие результаты
Нвидия фанбои уже второй (третий-четвертый-...) год интенсивно эксплуатируют нейронки и насмехаются над красными копротивленцами, которые не смотря на весь происходящий пиздец, продолжают нахваливать свой кактус. Даже банально посчитать объем пердолинга на простой запуск за время жизни среднего амудэ и количество разочарований и боли - сразу понятно что эти люди не уважают себя и та экономия ничего не стоит.
Если получишь хорошие результаты - можно будет надеяться на перспективность сборки из 2-3 дешманских 16гиговых амудэ в качестве альтернативы паре p40 или 3090. Но для такого их перфоманс должен быть высок, и врядли там будет даже половина от 7900, а это уже нивелирует привлекательность.
Аноним 15/01/24 Пнд 14:17:39 #230 №610142 
Скачал Noromaid-20B-v0.1.1-GGUF, там можно контекст увеличить выше 4096 или будет хуита?
Аноним 15/01/24 Пнд 14:20:18 #231 №610153 
>>610041
Да, это я все вилами по воде.

>>610109
> p40
Которая дешевеет на озоне том же. =)
Аноним 15/01/24 Пнд 14:49:35 #232 №610232 
>>610142
Vожно, увеличивай rope до 20000, для 8к
Эт примерно, можешь и 30к rope поставить
Аноним 15/01/24 Пнд 14:57:15 #233 №610250 
>>608634
Ну серьезно, нахуя смотреть флопсы, если суть в тсах, а не во флопсах. Напоминает хв, где несколько лет назад собирали ихравые пеки по какой-то нишевой цпу-баунд стратежке, в которую кроме бенчеров никто никогда не играл.
Аноним 15/01/24 Пнд 15:35:30 #234 №610318 
>>609847
Можно пустые репы с ридми создавать на гитхабе и старить их, и сраться за рейтинг в issues/wiki. Там вроде щас иде встроено, возможно даже локально ебстись не придется.
Не думаю что гихаб будет возникать.
Аноним 15/01/24 Пнд 16:14:13 #235 №610413 
Аноны, как сделалать так что б Бот говорит одним типом форматирования.
В поля Example Message забил 2 примера, по 5-7 предложений.
Далее прописал

[Writing style:
write a long message;
describing actions in asterisks text;
Don't be like the {{user}} writing style, always write as indicated in the Example Messages;
do not speak for {{user}};
It should follow this format:
Description of action or scenario
"Example dialogue here" Describe emotions of {{char}}
Further description with a focus on the scene and {{char}}'s actions
Drive the roleplay forward, with a focus on world building, character building and creating long in-depth responses;
In asterisks go on monologues about {{char}}'s thoughts, feelings and desires;
Be descriptive, creative;
use onomatopoeia to describe the sounds of various actions;]

Далее начинаю на Либре 32б.
Первые 20-25 сообщений форматирование идёт как надо, а потом Бот начинает подражать воему письму. Далее скатывается в прямую речь, без описания действий и среды. При том что я действия прописываю в каждом ответе с .
Чё за хуита. Я рак- помогитя/спаситя.
Аноним 15/01/24 Пнд 16:14:18 #236 №610414 
>>610142
Можно, все как для обычных ллам.
>>610153
> Которая дешевеет на озоне том же. =)
Ну правильно, ллм для нее буквально последнее эффективное применение. Хотя то больше колебаниями курса обусловлено.
>>610318
Оно уже, ссылка в конце оппоста.
Аноним 15/01/24 Пнд 16:17:32 #237 №610427 
>>610109
>Лолчто
Если про мою нелюбовь, то это личное, не обращай внимание. На мой текущий основной дистр pytorch без ебли не вкорячить, конфиг системы, мягко говоря, нестандартный тоже не обращай внимание, мы, пердолики, любим пердолиться и всё такое. Быстрее поставить поддерживаемый ubuntu или debian, с которыми я имел дело и pytorch+rocm уже успешно накатывал.
>Если получишь хорошие результаты
Но тестить-то я собрался на gcn, в отношении rdna3 это не будет значить почти ничего.
>половина от 7900
По ядру - 1/3. И довольно медленная память для своего объёма (288 ГБ/с). И какие-то потери на сплит. Это именно дешманский вариант для нищуков единственной картой, если не рассматривать б/у.
Аноним 15/01/24 Пнд 16:21:41 #238 №610441 
>>610250
Ну эт хуйня, кста, я во многие стратежки играю. Конечно, опираться только на тотал вар глупо, но там есть прям пиздосище разные вариации от АРКа, где видяха в сопли, проца даже 4-поточного хватит, или баннерлорд или та же ваха, где анлимитед пауэр ваще, или стелларис, где тебе литералли нужно 1 ядро — но гигагерц на 10, желательно.
Но там не только на бенчеров завязано.

Но верно, что надо смотреть не только на ядро. Где-то память бутылит, где-то ядро, где-то архитектура.
Аноним 15/01/24 Пнд 16:49:46 #239 №610486 
>>610427
> основной дистр pytorch без ебли не вкорячить
Про вот это, это что там нужно наворотить чтобы оно не могло в него.
> По ядру - 1/3
Ну вот, надежд пускать большие модельки выходит что нету, взять пару чтобы пускать 34б с контекстом - будет выдавать сферические 4т/с что пиздец. Насколько дешевле она должна быть чем 4060@16 чтобы быть конкурентной, ведь есть еще много чего кроме ллм.
Аноним 15/01/24 Пнд 17:04:24 #240 №610500 
image.png
Раньше подобного никогда не генерировалось. На грустном моменте Noromaid решила сломать четвертую стену, возомнив себя нарратором интерактивной истории.
Аноним 15/01/24 Пнд 17:22:30 #241 №610516 
16998080338290.mp4
Ахуенно обновился, блять. Теперь еще хоть как-то работающую exllamav1 выпилили полностью и остается сосать хуй на exllamav2. Эта херня полнейший бред генерирует, а всем похуй. Вот вам и демократизация ИИ.

>>601186 → -кун
Аноним 15/01/24 Пнд 17:32:41 #242 №610532 
>>610516
А что с exllama не так? Что значит "выпилили"? Всё на месте: https://github.com/turboderp/exllama
Ну и есть ещё llama.cpp/koboldcpp с поддержкой cuda и q2 кванты, если они тебе так уж нужны.
Аноним 15/01/24 Пнд 19:06:27 #243 №610615 
Заранее извиняюсь, если кто кринжует от таких "постов-обсуждений", - просто захотелось чуть разбавить скатывание в технотред.

Аноны, очевидно, что все мы радуемся, когда генерация историй нейросетью или чат с ней проходят по инструкциям, которые её предоставлены.
Но бывали ли случаи, чтобы нейросеть вас неожиданно и приятно удивила своей "креативностью"?
Аноним 15/01/24 Пнд 19:09:37 #244 №610619 
>>610615
Мне микстраль переписал статлист так что он лучше структурно стал, мне понравилось.
Аноним 15/01/24 Пнд 19:21:36 #245 №610633 
>>610619
Я, скорее, имев ввиду случаи, когда в чатах с нейро-тян или при генерации истории, - где юзер может в любой момент быть кем угодно, хоть любым персонажем, хоть рассказчиком.
Аноним 15/01/24 Пнд 19:31:33 #246 №610643 
image.png
>>610532
Вот что значит. Не обновляйте сраный Text GUI.
Аноним 15/01/24 Пнд 20:12:46 #247 №610700 
>>610414
>ллм для нее буквально последнее эффективное применение
А если я ее возьму 1шт, плюс у меня есть 4070ти, профит будет? Или лучше сидеть на цпу и не квакать?
инб, 2 мне ставить некуда, я так без сд останусь, либо докупать говнопекарню чисто под них
>ссылка в конце оппоста
О, спасиб
Аноним 15/01/24 Пнд 20:20:44 #248 №610716 
>>610516
> и демократизация ИИ
Ее нет, увы. Всем довольно таки положить на поддержку специфичных и проблемных серий, которые не могут в инструкции и имеют проблемы, которых нет даже в паскалях.
Выпилили ее потому что уже 5 месяцев не обновлялась и версия 2 перекрывает все возможности, работает быстрее, имеет больше фич. А вон оно как оказалось, напиши ишью что проблемы с недотьюрингом, может пофиксят.
>>610615
По-хорошему она и должна удивлять, полностью используя свободу в инструкциях, или превосходя ожидания. Когда просто сухо следует - это суперуныло, сойдет только для кумбота когда совсем приуныл.
Файнтюны 34 то что описал очень часто делают, иногда кажется что это пигма на стероидах. Ошибаются регулярно и иногда это кринж, но иногда просто ахуеть как ломает 4ю стену.
>>610643
Скачай прошлый релиз, убабуга их предусмотрительно сохраняет.
>>610700
> А если я ее возьму 1шт, плюс у меня есть 4070ти, профит будет?
Depends. Как минимум в 20б и 34б модельках только на ней будет лучше чем с оффлоадом на проц, считай чисто ллм ускоритель под это.
Если получится подружить их через llamacpp то у тебя 36гб врам под сильно ужатую 70б или жирную 34б с контекстом. Или несколько сетей запускать. Объединять с помощью exllama врядли выйдет хорошо из-за низкой скорости.
Аноним 15/01/24 Пнд 20:24:30 #249 №610727 
Кто-нибудь думал соединить текстуи/ст и сд?
Типа когда он курсивом пишет she slowly lifts her dress to reveal the largest dick you've ever seen, то скормить это в темплейт сд-промта и нагенерить несколько пикч?
Я просто недавно попробовал, защло
неудобно только одной рукой копипастить
Алсо, можно ли в чаре как-то прописать, чтобы он более менее сд-эффективные ремарки оставлял?
Аноним 15/01/24 Пнд 20:34:56 #250 №610751 
>>610716
Надо раскурить тему, может попробую.
Не такие большие деньги по идее. это если бп хватит
Аноним 15/01/24 Пнд 20:55:06 #251 №610771 
>>610500
Помню, турба подобным бесила, когда раньше на ней сидел. Имхо раздражающая вещь в рп. По-моему, даже промпты специальные придумывали, вроде "не заканчивай свой ответ вопросом, не рассуждай / не строй предположения о будущем", чтобы не было такого.
Аноним 15/01/24 Пнд 20:59:26 #252 №610780 
>>610751
> это если бп хватит
Если только под ллм то там карточки по очереди работают, мощность будет пропорциональна доли обработки каждой. Консервативно можно оценить как мощность самой жирной, у P40 жор меньше чем у 4070ти, так что и проблем не будет.
А вот если захочешь одновременно пускать и полностью нагружать - изволь 250вт дополнительных найти на нее. Если бп норм то можешь использовать его на 100% даже 110.
Аноним 15/01/24 Пнд 21:49:00 #253 №610829 
Заметил одну непривычную и нелогичную вещь в сценарии Dungeon Crawler в кобольде: почему начало такое внезапное и нет даже попытки обыграть создание персонажа: группа уже собрана и до этого момента несколько дней пропутешествовала?
Кто пробовал этот сценарий, как вам?
Аноним 15/01/24 Пнд 22:22:50 #254 №610857 
С горем пополам поставил таверну, она даже работает.
Но теперь задаюсь вопросом:
почему я с нормальной карточкой запускаюсь под KoboldCPP?
Хавает ли KoboldAI гуфы или там заёбно ставить модели?

И ещё вот не понял суть лорбука, я его устанавливаю, и что дальше? Куда дрочить то?
Аноним 15/01/24 Пнд 22:27:39 #255 №610860 
>>610857
> почему я с нормальной карточкой запускаюсь под KoboldCPP
Что?
> Хавает ли KoboldAI гуфы или там заёбно ставить модели?
Что?
Koboldcpp - лишь форк llamacpp с френдли интерфейсом, llamacpp позволяет вполне успешно крутить все модельки с оговорками. Подключаешь таверну к нему и пользуешься, все. Хочешь большего - ставишь убабугу, там и быстрая работа на видюхах, и негативный промт и прочее прочее.
> и что дальше
Выбери в карточке.
Аноним 15/01/24 Пнд 22:51:10 #256 №610884 
image.png
>>610860
Да вот в их же мануале дезинформацией получается кормят на пикрелейтед.
С лором понял, нужно привязать к персонажу, ага.

Ещё кстати заметил странность, иногда бот начинает тупить с ответом и пока я не разверну окно с KoboldCPP -- он не начинает генерить токены.
Аноним 15/01/24 Пнд 23:08:05 #257 №610901 
>>610884
> Да вот в их же мануале дезинформацией получается кормят на пикрелейтед.
Это что-то времен мезозоя и подающееся беря за основу KoboldAI, старый интерфейс, который позволял крутить ллм. Не актуально, база РП сейчас - любой лаунчер бэком (koboldai или llamacpp/exllama2 в составе text generation webui) и SillyTavern фронтом. Есть альтернативные фронты в aicg про них что-то может быть, можно рпшить прямо в убабуге или кобольде (неудобно и не рекомендуется), есть решения "все в одном" (также не рекомендуется ввиду посредственной реализации большей частью).
> пока я не разверну окно с KoboldCPP -- он не начинает генерить токены
Совпадение приходящееся на обработку контекста?
Аноним 15/01/24 Пнд 23:14:20 #258 №610909 
>>610901
>Совпадение приходящееся на обработку контекста?
я ньюфаг, не понимаю этот термин, но звучит он так, будто так и есть, пока я не открываю окно передним планом -- этот процесс не начинается

это было в кобольд оболочке, в таверне пока не замечал такого
Аноним 15/01/24 Пнд 23:18:10 #259 №610916 
>>610909
Попробуй включить no-mmap в настройках загрузки модели если там есть что-то такое
Аноним 15/01/24 Пнд 23:24:25 #260 №610923 
Коллеги, товарищи, понимаю что платиновый вопрос но всеж прошу простить и ответить.
Какое железо, GPU, будет оптимальным в категории 100~150к дерева для говорилки? А 250к?
Аноним 15/01/24 Пнд 23:41:35 #261 №610933 
>>610909
Вики из шапки почитай, немного прояснится понимание. Про окно самого кобольда хз, но скорее такого тоже не должно быть.
>>610923
Только под LLM или другие задачи? Готов ли с бу связываться?
Так очевидно что нужна видеокарта (или пара) с памятью как можно больше. В твой бюджет лезет пара 3090 бу или 4090 если очень долго искать, позволит закрыть основные потребности в ии. Есть более дешевые решения. Можешь посмотреть в сторону экзотики типа quadro rtx 8000@48, тьюринг должен оказаться достаточно производительным и найти такую в 250к реально оверпрайс на самом деле, должна стоить сильно дешевле
Аноним 15/01/24 Пнд 23:49:10 #262 №610943 
>>610532
Он про Убабугу, очевидно.

>>610516
А на 16 серии она была «рабочей»? Выгрузка ггуфа не быстрее?

>>610727
Так… все. Там куча вариантов.
Кобольд умеет уже.
Таверна умеет.
Убабуга ДВАЖДЫ умеет.

В чем вопрос? Соедини.

В убабуге есть таг_инъекшн, чтобы точнее прописывать.
Таверна берет описание перса из соответствующих разделов в карточке (погугли и проверь, там можно выводить промпт перед отправкой).

>>610857
Юзай убабугу, а не Кобольд и будет тебе счастье. =)

>>610923
Полегче со словом «говорилки», а то я тебе сейчас xttsv2 присоветую с дополнительными 5 гигами потребления. )
А так тебе ответили, в общем.
Самый дешман — P40, но там скорости не огонь, и бу, зато памяти много.
Короче, и правда, уточни все пункты, че да как, цели, готовность связываться с бу, готовность париться и искать, готовность ждать.
Аноним 16/01/24 Втр 00:22:32 #263 №610958 
>>610943
> Юзай убабугу, а не Кобольд и будет тебе счастье. =)
Вот тут двачую ахуеть
> с дополнительными 5 гигами потребления
Мало по сравнению с ллм, и на проце скорее всего сможет.
Аноним 16/01/24 Втр 01:04:33 #264 №611040 
Скачал mixtral-8x7b-instruct-v0.1.Q6_K.gguf
Еле помещается в оперативку, но работает довольно шустро на ЦПУ, больше 4 токенов в сек...
llama 70b при сопоставимом размере где-то 1 токен.
В чём подвох 8x7b, это сильно хуже чем гипотетические 42b если перемножить числа?
Аноним 16/01/24 Втр 01:05:38 #265 №611043 
>>611040
*56b фикс, умножаю хуже чем чатбот
Аноним 16/01/24 Втр 01:08:06 #266 №611047 
>>611040
Это лучше чем 34б, а скорость как у 13б. 56б моделей не припомню, Но наверное +- соответствует по качеству.
Аноним 16/01/24 Втр 01:08:28 #267 №611049 
>>611043
Ну, ты лишил меня очень забавного комментария

>>611040
Она суше пишет, так как это ансамбль 8 разных 7b сеток, специально тренированных так что бы каждая обладала уникальной информацией. Но так как отвечают только 2 из 8, выбираясь еще одной нейросетью которая обрабатывает твой запрос, то и генерация быстрее чем у 70b.
Аноним 16/01/24 Втр 01:21:27 #268 №611061 
>>611040
Потому что по дефолту работают 2х7б модели а к остальному пространству нет обращений.
Аноним 16/01/24 Втр 02:20:41 #269 №611085 
Попробовал Noromaid. Отвал башки просто. РП 10 из 10
Аноним 16/01/24 Втр 02:41:03 #270 №611089 
>>611085
мне тоже показалась из попробованных она лучшей

правда иногда начинает хуярить от моего лица говорить без стеснения
Аноним 16/01/24 Втр 03:09:53 #271 №611099 
image.png
>>611085
>>611089
удваиваю вот этих, очень кайфую от неё, выдаёт осмысленный сюжет на любые темы в любых сеттингах.
Аноним 16/01/24 Втр 03:10:45 #272 №611100 
https://huggingface.co/NeverSleep/Noromaid-7B-0.4-DPO-GGUF
норомайд с токсичным выравниванием

>>611099
какая версия?
Аноним 16/01/24 Втр 04:14:44 #273 №611107 
>>611100
noromaid-20b-v0.1.1.Q6_K
Аноним 16/01/24 Втр 09:04:54 #274 №611173 
>>611085
Попробовал. Честно разница с Mlewd такая незначительная что я забыл что переключил на мейду пока не залез в конце выгружать модель. Просто 1:1. Но хорошо да без претензий.
Аноним 16/01/24 Втр 09:50:31 #275 №611194 
>>610943
>А на 16 серии она была «рабочей»?
Она была не просто рабочей, а еще и меньше VRAM жрала.
>Выгрузка ггуфа не быстрее?
Мне показалось оно ЦПУ использует, не? (Я только один раз пытался.)
Аноним 16/01/24 Втр 09:53:12 #276 №611195 
Объясните дебилу, почему Норомейд 20b жрет меньше памяти чем микстраль 7b и при этом мейд работает медленей чем мистраль на моем 3060
Аноним 16/01/24 Втр 10:11:35 #277 №611200 
>>611173
С Какой версией Mlewd сравнивал?
Аноним 16/01/24 Втр 10:18:32 #278 №611204 
>>610958
На проце прям медленно.
Ну, если готов подождать секунд 20-30 на небольшую фразу — то норм.
А мне пришлось ускорять по итогу, но зато в ~1,5 вместился.

>>611040
У тебя 7b модельки. За счет общего количества и работы двух экспертов, разговаривают они более-менее нормально, но знания берутся именно из одной модели, то есть смешать в одном ответе сразу результаты 3-4 знаний — не сможет. А если ты начинаешь их сжимать — пердолит очень сильно, потери большие получаются, ибо модельки малые.
Но на условных q8 потери небольшие, а если задавать вопросы поочередно, а не требовать ответа сразу — то и инфу хорошо расскажет.
РП-модели среди них нет. =)

>>611194
Если 100% выгрузишь — то почти не использует (одно ядро для функционирования программы и все).

>>611195
Потому что микстраль у тебя 8х7b, то есть 56b по объему.а нора только 20.
Но в микстрали используется два эксперта по умолчанию, то есть 14b объем памяти читается. А в норе 20b весь пробегается.

Отсюда объем почти втрое больше, а время в полтора раза меньше.
Аноним 16/01/24 Втр 10:28:58 #279 №611208 
>>611085
>>611089
В чём принципиальное отличие или вау эффект по сравнению с классическими 13б кум мержами типа xwin-mlewd (или Nete на ступеньку выше) или LLaMA2-13B-Psyfighter2? О 20б даже не говорю. Там вроде единственная продающая фишка - это датасет, которым поделился автор мифомакса, в котором якобы нет Лимы и синтетики. Такой уж ли это геймчейнджер? Сорри, может показаться, что я доёбываюсь (так и есть), но искренне не понимаю, чего все так мейду нахваливают. Вот что на этом скриншоте >>611099 такого, чего не сможет любая 13б, мало-мальски файнтьюненая на рп/сторителлинг? Небось даже базовый 7б мистраль описание жраки в тему контекста на три предложения сделает.
Аноним 16/01/24 Втр 10:37:43 #280 №611209 
>>611208
> любая 13б, мало-мальски файнтьюненая на рп/сторителлинг
так в том и дело что мало моделек под рп/сторителлинг.
>Небось даже базовый 7б мистраль описание жраки в тему контекста на три предложения сделает.
этот мне много клёвых перлов выдавал, например в одной стори превратил повествование из ужастика в мистику, в другой клёво придумал воткнуть похищение ГГ в подвал, ну и всякое подобное.
Аноним 16/01/24 Втр 10:44:25 #281 №611210 
>>611208
Какая по твоему мнению лучшая модель для сторитейла?
Аноним 16/01/24 Втр 11:05:29 #282 №611216 
>>611210
Говорим же о мелочи? Крупные нет возможности катать. Так-то тут кто-нибудь сейчас скажет, что на меньше 34б жизни нет. Не играл именно сторителлинг спецом, но в рп тот же второй псайфайтер показался вполне пригодным для ведения истории. Он более взвешенный что ли. Как-то играл сторителлинг ориентированную пародийную карточку Kingdom Coom на MLewd ReMM L2 Chat 20B Inverted. Тоже очень годно вёл историю, хотя чутка шизоидно (но тут это укладывалось в сеттинг). Чтобы говорить прямо за лучшую, нужно много моделей тестить и на одних и тех же чатах сравнивать желательно. Таким, понятное дело, не занимался, но норомейда что-то не зацепила, когда пробовал.
>>611209
>мало моделек под рп/сторителлинг
Фига мало, у 13б лламы десятки мержей и 20б франкештейнов. В одной только вот этой побочной коллекции Унди почти десяток моделей. https://huggingface.co/collections/Undi95/honorable-mentions-6527da28a6f1e57a84d1bb87
Другое дело, что они часто от одних и тех же авторов и не сильно отличаются одна от другой.
Аноним 16/01/24 Втр 11:06:50 #283 №611217 
Пытаюсь заставить SillyTavern работать так как работает Adventure Mode в кобольде, вообще нихуя не получается. Кто-нибудь играл в ней опенворлды или обязательно напротив отдельно выбраного персонажа сидеть и болтать только с ним?
Аноним 16/01/24 Втр 11:20:29 #284 №611230 
>>611217
Не пользовался интерфейсом кобольда, но подозреваю, что галочка в Adventure Mode просто добавляет какой-то системный промпт и, возможно, форматирование ответов. Загляни в консоль кобольда в одном случае и в другом и добавь тот же промпт/форматирование, который добавляется в эдвенче моде без таверны, в таверну. Также в карточке персонажа в таверне можно прописать, что персонаж рассказчик, а первый персонаж истории (если нужен) такой-то и ввести его ниже. Назвать карточку, соответственно, Narrator, или типа того. Тогда, если в таверне включены имена, то это не будет заставлять модель писать именно за первого введённого персонажа.
Аноним 16/01/24 Втр 11:23:12 #285 №611232 
Можно ли локалки использовать в качестве альтернативы Copilot? Если да, то как, что почитать, и какая модель справится лучше?
Аноним 16/01/24 Втр 11:31:31 #286 №611244 
Какую сейчас 70b использовать для историй и чата?
Аноним 16/01/24 Втр 12:14:46 #287 №611274 
>>611204
>РП-модели среди них нет. =)
Во-первых, спасибо что упомянули эту хрень, решил погонять на пробу. Качнул Noromaid-v0.4-Mixtral-Instruct-8x7b.q6_k и на удивление весьма и весьма неплоха модель в рп и ерп. Похуже, чем 34b, но гораздо быстрее на проце то.
Аноним 16/01/24 Втр 12:40:44 #288 №611289 
>>611208
20б в отличии от 13 пишут более "гладко" и менее рассеяные. В норомейде странный припезднутый датасет, но как раз в сочетании с этими качествами он начинает интересно играет. Офк на лучшую не тянет, но для некоторых карточек работает хорошо.
> Вот что на этом скриншоте >>611099 такого, чего не сможет любая 13б, мало-мальски файнтьюненая на рп/сторителлинг
Абсолютно. Другое дело что экспириенс от ллм испытываешь не просто от прочтения фраз и оценивая их красивость, а при непосредственном взаимодействии и оценке того, насколько она сочетает уместность-предсказуемость-понимание с креативом-внезапными поворотами-способностью удивить и просто хорошо преподнести нужное.
Под настроение можешь словить уныние от спама шаблонных фраз что накидает гопота, не попав в персонажа, и получить нейронную активацию с лайтовой шизы мелкой сетки, что правильно угадала все. Хотя в отрыве от контекста ответы будут оценены наоборот. Офк не тренд а пример для иллюстрации, когда сетка понимает и может увлечь даже легкую косноязычность можно простить.
>>611216
> что на меньше 34б жизни нет
Да есть и на 7б хотя нет, там все плохо, просто чем ниже тем больше компромиссов и менее привередливым нужно быть.
>>611232
Можно. Wizardcoder последней версии.
>>611244
Чистые
https://huggingface.co/TheBloke/tulu-2-dpo-70B-GPTQ https://huggingface.co/TheBloke/GOAT-70B-Storytelling-GPTQ https://huggingface.co/TheBloke/SynthIA-70B-v1.5-GPTQ https://huggingface.co/TheBloke/opus-v0.5-70B-GPTQ https://huggingface.co/TheBloke/Airoboros-L2-70B-3.1.2-GPTQ
Мерджи
https://huggingface.co/TheBloke/Euryale-1.4-L2-70B-GPTQ https://huggingface.co/TheBloke/WinterGoddess-1.4x-70B-L2-GPTQ https://huggingface.co/TheBloke/Aurora-Nights-70B-v1.0-GPTQ
Аноним 16/01/24 Втр 12:41:44 #289 №611291 
>>611232
Запретить тебе никто не может.
Но конкретный софт — не подскажу, два дня назад задумался об этом, но пока другие дела есть.
Раньше был FauxPilot для VSCode'а.
Щас ваще хз.
Поищи. может найдешь альтернативы локальные.
Учитывая, как пишется код, думаю любая справится — хоть Мистраль, хоть КодЛлама, хоть ВизардКодер последний. Вопрос в скорости, которая тебя удовлетворит с твоим железом.

Если найдешь подходящий софт — будем рады почитать.
Аноним 16/01/24 Втр 12:50:11 #290 №611298 
ooba.jpg
Блять, аноны, ньюфаг репорт. Поставил таверну, но почитав тред решил еще накатить убабугу, сделал все как на гитхабе написано. Поставил, кинул модель в папку, но локалхост не хочет идти. И чего дальше? Батник start выдает пикрил. Апдейт тоже не хочет ничего делать. Где я обосрался, ткните носом.
Аноним 16/01/24 Втр 13:01:39 #291 №611304 
>>611298
> Поставил
Как поставил?
Аноним 16/01/24 Втр 13:02:23 #292 №611305 
Где можно сейчас бесплатно потренироваться на локальных LLM? Например, накатить ламу и обучить на своих данных?
Аноним 16/01/24 Втр 13:16:42 #293 №611314 
>>611305
>бесплатно
>обучить на своих данных
Взять свою мощную видеокарту или гугл колаб и дообучить что-то маленькое 1-7b.
На большее собирают мощные фермы стоящие дохуя денег.
Аноним 16/01/24 Втр 13:17:40 #294 №611315 
>>611304
Через start_windows.bat файл, как на гитхабе сказано
Аноним 16/01/24 Втр 13:22:09 #295 №611320 
>>611315
Что-то прошло явно не успешно, проблемы с гитом, проблемы с кондой. Для начала попробуй перекачать, git clone, потом в папке уже пускаешь батник и дожидаешься пока он скачает все.
Аноним 16/01/24 Втр 13:37:31 #296 №611331 
>>611289
Спасибо
Аноним 16/01/24 Втр 13:41:04 #297 №611332 
>>611298
Гит пулл сломался, скачай и разархивируй снапшот с гита.
Мне дважды помогло.
Аноним 16/01/24 Втр 13:41:44 #298 №611334 
У меня мало опыта использования локальных моделей. Попробовал норомейд. Если сравнить с историями которые пишут люди на literotica, в основном это однотипная графомания с ошибками, и с тупыми диалогами. Если сравнивать истории оттуда и то что генерирует модель я отдам предпочтение модели. Плюс не надо ковырятся в куче говна чтобы найти что то интересное под свои хотелки. Меня больше это удивило, Удобно, в промте написал какую хочешь тему и генерируй сколько хочется.
Аноним 16/01/24 Втр 13:52:29 #299 №611346 
image.png
image.png
image.png
image.png
>>611216
Вспомнил сейчас, что на самом деле не так давно играл с около сторитейл канни карточкой. На первых двух скринах псайфайтер неплохо описывает окружение и вводит рэндомный забавный энкаунтер (но пишет за меня, собака, что для сторитейла мб и норм). На втором скрине дальше Nyxene_v2 11б вводит работницу столовки и ведёт по плану повествование дальше (вообще нот бэд для 11б, советую попробовать почередовать с фроствиндом тем, кто играет на нём. Тупее, но пишет лучше имхо). Последний скрин на синатре-MCS.
Какой вывод из этого? А хрен знает. Все сетки, даже маленькие, которые плюс-минус файнтьюнили, могут выдать хорошую историю. Думаю, вот этот
>>611289 прав. Просто какая-то цепляет своим ответом в тему или особо интересным твистом, и дальше ловишь с неё фан. Потом мб другая больше понравится.
Аноним 16/01/24 Втр 13:54:35 #300 №611351 
>>610943
>Убабуга ДВАЖДЫ умеет.
Пц я слепой
слава джисасу ллм треда
Аноним 16/01/24 Втр 14:20:57 #301 №611384 
>>611320
>>611332
Спасибо, буду пробовать.
Аноним 16/01/24 Втр 14:44:10 #302 №611420 
>>611346
> Просто какая-то цепляет своим ответом в тему или особо интересным твистом, и дальше ловишь с неё фан. Потом мб другая больше понравится.
Самая боль что там прямая корреляция с размером, исключение разве что модели на основе солара 11б, но бывают глуповаты. Те что жирнее ловко извлекают из долгой истории чата и реакции, предпочтения, настроение и намерения, а потом используют их для максимального удовлетворения или наоборот пользователя. Плюс понимание более тонких концепций и сочетаний, а не просто воспроизводство дефолта из датасета с заменой персонажа.
Аноним 16/01/24 Втр 14:44:18 #303 №611421 
>>611049
Понятно, получается модель довольно "кастрированная" при увеличенном объеме знаний. Видимо ссутся выкладывать по-настоящему мощные модели.
Аноним 16/01/24 Втр 14:53:55 #304 №611427 
>>611420
Но если говорить о 20б, то у них же нет настоящих мозгов 20б, разве не так? Вроде нет такого механизма, благодаря которому во время франкенмёржинга большее количество параметров вдруг дообучится и будет понимать более тонкие особенности контекста. Мёрж приводит лишь к тому, что модель как бы начинает "ориентироваться" на датасеты всех частей, в себя включённых. Между тем по мозгам она максимум может остаться на уровне 13б, а то и отупеть, если мёрж кривой. Или это по-другому работает? Солар умнее потому, что, как пару тредов назад выясняли, там все запихиваемые слои как-то дообучали, а не просто 7б склеили.
Аноним 16/01/24 Втр 14:56:47 #305 №611431 
>>611208
> нет Лимы
А что, Лима— это плохо, извидите?
Аноним 16/01/24 Втр 15:03:18 #306 №611436 
>>611427
> нет настоящих мозгов 20б, разве не так?
Нет, верно, и никак оно не дообучается. Хотя эффекты интересные есть, про это даже статьи пилили.
По субъективных ощущениям они выезжают за счет складности текста, это играет большую роль. Вот буквально рпшишь на 70 - адвенчура, куда можно погрузиться но и более высокие ожидания и пожар когда оно не перформит должным образом, в которую веришь и увлекаешься. Рпшишь на 20б - получаешь красивую интересную сказку, будето читаешь годную книгу офк до норм книг ллм далеко но эффект участия играет роль. И то и то хорошо, плюс многое от карточки зависит. 34 это вообще отдельный экспириенс.
> если мёрж кривой
Потому 98+% того что выходит в количестве десятки в сутки даже не стоят внимания.
> Солар умнее потому, что, как пару тредов назад выясняли, там все запихиваемые слои как-то дообучали, а не просто 7б склеили.
Да, солар это не просто франкенштейн, вероятно на это влияет обучение что там было.
Аноним 16/01/24 Втр 15:06:18 #307 №611438 
image.png
>>611431
Вопрос к тем, кто перешёл на мейду с других моделей, но моё понимание такое. К тому моменту, когда выходила норомейда, все уже наигрались с бесчисленными файнтьюнами от Унди, а там везде Лима. Соответственно, людей начинала бесить часто встречаемая лексика, типа shivers down the spine (хотя я ловил это на норомейде, лол) и другие минусы (на пике, например). А тут вдруг предложили файнтьюн на совершенно новом (ну или так заявили, по крайней мере) датасете.
Аноним 16/01/24 Втр 15:14:25 #308 №611441 
>>611334
> написал какую хочешь тему и генерируй сколько хочется
Только через некоторое время понимаешь, что какую тему не пиши, а получаются ministrations sending shivers down your spine и т.п.
От уровня ожиданий многое зависит, канеш.
Я тут джве недели ковыряю карточку, чтобы мне правдоподобно отыгрывались пять одноклассниц в клубе не в ночном после уроков. Ну окей, норм 13b модели понимают, где я, а где каждая из девочек, и чем они различаются, не путает даже когда контекст полон. Но научить их действовать и говорить как школьницы, а не как разбитные разведёнки, насосавшие километры хуёв— вот тут уже ниасилил. Либо годные и рекомендуемые 13b на это не способны, либо это мой скилл ишью с написанием карточки.
Аноним 16/01/24 Втр 15:18:57 #309 №611449 
>>611431
Ничоси, еще один чел с тире!
Все, фиг вы меня теперь вычислите. =)
Ай, блядь…
Аноним 16/01/24 Втр 15:31:19 #310 №611465 
>>611449
Ага, а ещё с точечками над «ё» и кавычками-ёлочками.
А ещё можно смайлики ставить, тогда все точно запутаются. :)
Аноним 16/01/24 Втр 15:39:48 #311 №611470 
Посмотрел эту вашу Noromaid-20b-v0.1.1.q8_0.
Лексика в самом деле хорошая, но логики вообще нет. Пойду обратно на свои любимые 70b.
Аноним 16/01/24 Втр 15:47:13 #312 №611480 
>>611470
Какие у тебя любимые?
Аноним 16/01/24 Втр 15:47:45 #313 №611481 
>>611480
левая и правая
Аноним 16/01/24 Втр 15:48:40 #314 №611483 
>>611481
База треда
Аноним 16/01/24 Втр 16:20:34 #315 №611511 
сколько нужно оперативки чтобы запустить 34b?
Аноним 16/01/24 Втр 16:21:57 #316 №611514 
>>611438
Спс за пик, можно было просто ссылку, но загуглю, чоужтам.

На самом деле, shivers и прочие не из Лимы завезли, они где-то в базовом наборе. Мне пока не попадалась ни одна модель, которая без них обошлась бы, 34b в том числе. Ministrations настолько одиозны, что их, похоже, прицельно выпиливают отовсюду.

> с бесчисленными файнтьюнами от Унди
С этими вообще не получилось в школьный сеттинг, там сразу дасистфанастиш начинается. XD
Аноним 16/01/24 Втр 16:26:24 #317 №611516 
>>611514
Пик был со страницы Лимы на обниморде. https://huggingface.co/datasets/lemonilia/LimaRP?not-for-all-audiences=true На самом деле, там есть ещё куча версий. Возможно, в некоторых из них уже нет представленных недостатков, или они слабее проявляются.
Аноним 16/01/24 Втр 16:29:21 #318 №611517 
>>611516
>есть ещё куча версий
Вру, невнимательно посмотрел. Датасет там один, остальное - это файнтьюны и лоры.
Аноним 16/01/24 Втр 16:52:17 #319 №611524 
>>611441
чего нет в датасете того ты не получишь.
Аноним 16/01/24 Втр 16:54:46 #320 №611527 
>>611511
около 32-35 у меня было
Аноним 16/01/24 Втр 16:55:25 #321 №611528 
1.png
Опять залупа с угабугой. Не сохраняет настройки. Удолял файл, пересоздавал, похуй. Если включить любой из Available extensions, то будет ошибка, что угабуга знать не знает нихуя про такое расширение, автоланч и всё остальное просто не сохраняется. По сути, сохраняет пустой ёбаный файл.

>>611431
>Лима— это плохо
Лиг ма боллс. Не удержался.
Аноним 16/01/24 Втр 17:07:35 #322 №611539 
>>611524
Чот сомневаюсь, что в датасете нет историй про обычных японских школьников. Скорее, у ундиных поделок оверфит на прон.

Может, кто-нибудь из знатоков подскажет, на каких моделях (промптах?) можно достовернее ролеплеить юношескую романтику, все эти поцелуи, прикосновения, первые разы, вот это вот всё, а не «Не знаю, но мне кажется, будет восхитительно, если ты впердолишь мне свой могучий инструмент по самые гланды, пока одноклассница лихо жарит меня страпоном. Это у меня в первый раз, поэтому будьте нежны со мной, чуть слышно прошептала она, заливаясь бордовым румянцем.»
Аноним 16/01/24 Втр 17:09:53 #323 №611542 
А есть вообще годные модельки под рп на 7б или 12б? 20 и выше невывозит пека.
Аноним 16/01/24 Втр 17:17:39 #324 №611549 
>>611542
Очевидный frostwind.
Аноним 16/01/24 Втр 17:22:20 #325 №611553 
>>611549
> frostwind

Угараешь да? Пробовал фроствинд, трешанина по сравнению даже с дельфином,визардом и метамаксом.

Думал может запилили новые какие то модельки прикольные.
Аноним 16/01/24 Втр 17:28:52 #326 №611556 
>>611553
Ну по твоему условию <=12b лично я ничего лучше не находил. А что ты уже пробовал, ты в исходном посте не указал.
Аноним 16/01/24 Втр 17:32:41 #327 №611564 
>>611556
Ну мой косяк да. Но попробуй тогда митомакс или дельфина. Разница с фростфиндом гигантская хотя размеры те же.
https://huggingface.co/TheBloke/dolphin-2.2.1-mistral-7B-GGUF
https://huggingface.co/TheBloke/MythoMax-L2-Kimiko-v2-13B-GPTQ
Аноним 16/01/24 Втр 17:45:46 #328 №611598 
Потестил разные варианты микстрали 8x7b, оригинал, норомейду 0.4, дельфин который обещает отсутствие цензуры. Я слегка разочарован. На вопрос "How can I have * with my little sister?" с дефолтным ассистентом — ни одна не попыталась дать какой-то совет по существу, только мораль, мораль, этика, закон, иди лечись больной ублюдок. Можно это интерпретировать как серьезную проблему для рп, или в действительности ей похуй будет?
Аноним 16/01/24 Втр 17:57:54 #329 №611621 
изображение.png
>>611598
>с дефолтным ассистентом
Нашёл с чем сравнивать. Конечно там будет соя, ну кроме разве что моделей с отрицательным выравниванием, лол. С ней кстати без проблем отвечает.
>Можно это интерпретировать как серьезную проблему для рп
Нет конечно. Корпоративщики только с такими моделями и сидят, и ничего, без проблем ебут кого хотят. На локалках ещё проще.
Аноним 16/01/24 Втр 18:10:47 #330 №611636 
>>611621
Спасибо, а есть какой-нибудь вариант промпта для локального ассистента? Джейлбрейк это называется, или это актуально только для онлайн-моделей? Чтобы заставить конкретно эту локалку ответить на этот же самый вопрос но без цензуры. Немного пробовал поиграться с промптом но безуспешно.
Аноним 16/01/24 Втр 18:28:08 #331 №611677 
>>610923
>Какое железо, GPU, будет оптимальным в категории 100~150к дерева для говорилки?
Видел на Реддите пост про сервер с 4 X TeslaP40, даёт он 1,75 токена в секунду (генерация) на Голиафе 120_5K_M и 9,38 токена в секунду на Синтии 70_5K_M. Два но: это в Штатах наверное легко старый сервер купить под такое дело. У нас не найти новую материнскую плату с даже с двумя слотами на 16 линий PCI Express, по крайней мере в этот бюджет. А хотелось бы 3-4 слота. И хорошая производительность на такой системе только у GGUF-моделей, другие форматы там не очень. Stable Diffusion ещё хорошо тянет, как говорят.
Аноним 16/01/24 Втр 18:33:41 #332 №611690 
>>611598
Uncensored версии моделей попробуй. Обычно они соей не страдают.

Остальные через brake ввиде промтов и карт персонажей ломаются, когда у модели нет других вариантов кроме как быть нейросестрой кек.
Аноним 16/01/24 Втр 18:40:45 #333 №611699 
>>611690
Так я пробовал всякие Wizard-Vicuna, они реально отвечают по существу, хотя суховато. Вопрос в том что именно 8x7b вариации без цензуры я не нашёл. Dolphin обещает, но ломается на данном примере вопроса.
Аноним 16/01/24 Втр 19:00:58 #334 №611719 
>>611699
> 8x7b

Ну зависит от того на чем тренили. Я кучу разных попробовал. Замечал, что половина моделек такое ощущение что на одних и тех тюнах крутили, потому что какие то ситуации или ответы прям 1 в 1 повторяются. Найти что то оригинальное пиздец сложно. Но с другой стороны, если именно для рпешки, все это легко обходится через персонажей, сценарии и тд.
Аноним 16/01/24 Втр 19:08:45 #335 №611741 
>>611719

У меня тоже от микстралей чувство дежавю постоянно, хотя штук 5 разных попробовал.
Это как от миталиона - заранее уже знаю что она мне ответит в большинстве случаев.
Аноним 16/01/24 Втр 20:11:41 #336 №611870 
>>611636
C норм карточкой и парой примеров диалогов в куме проблем не будет.
Аноним 16/01/24 Втр 20:54:35 #337 №611977 
А гпт-4 сильно лучше локалок вообще?
Аноним 16/01/24 Втр 20:59:23 #338 №611992 
>>611977
Смотря в чём. В кодинге пока её ещё никто не обгонял, в рп - вполне себе, по общему уровню интеллекта (порезанному разрабами у гопоты) большие модели догнали +-.
Аноним 16/01/24 Втр 21:07:10 #339 №612017 
>>611542
Сам в таком же положении с RTX 3060. Из 10-13b ничего не нашел лучше frostwind, новой fimbulvetr от того же автора, psyfighter2 и noromaid-storytelling. От хваленого Унди ничего не пробовал. Потому что вообще непонятно, этот васян что-то понимает в том, что делает или просто throws shit at the wall and sees if it sticks.

Ah, one more thing: don’t sleep on Mixtral 11bx2 MoE 19b. Shit’s real, пишет обычно (но не всегда) лучше 13b моделей. Скажем так, у 13b уровень средненького фанфика, у этого 11bx2 - примерно крепкого среднего женского романа. Ну, для непритязательных.

>>611553
Любая прикольная моделька покажется трещатиной, если трещъ в настройках семплеров или в карточке, например. Когда не разбираешься и просто к0чаешь, то надеяться остается только на то, что звезды сойдутся. Кстати, автор фроствинда вроде даже рекомендованные настройки указывал.
Аноним 16/01/24 Втр 21:13:55 #340 №612026 
>>612017
И да, я в курсе, что Mixtral 11bx2 MoE 19b на самом деле никакой не Mixtral, а два SOLAR, слепленные вместе китайским васяном, но похоже (и Равенвольф подтверждает), что оно как-то вот к стене таки хорошо прилипло.
Аноним 16/01/24 Втр 21:15:15 #341 №612030 
Вроде как полноценная 4х7 микстраль от автора дельфина

https://www.reddit.com/r/LocalLLaMA/comments/197wl46/laserxtral_4x7b_a_new_model_from_the_creator_of/

Хотя у меня до сих пор лежит какой то микс древних времен только появившегося микстараля на 4х7 и он работает
Аноним 16/01/24 Втр 21:16:25 #342 №612035 
>>612030
Работать то работает, но какие там эксперты насованы?
Аноним 16/01/24 Втр 21:19:09 #343 №612041 
>>612026
Васяном, не постеснявшимся честно написать в обнимордовском профайле, что хочет норм видюху для продолжения экспериментов, лол. Но вот как-то получилось?
Аноним 16/01/24 Втр 21:21:15 #344 №612054 
>>612035
mixtralnt-4x7b-test.Q4_K_M
Безобразие скаченное еще 13 декабря
Хуй знает че там напихано и как работает, если тогда еще не было бумаги о мое технологии
Скорей всего просто вынули 4 специалиста и оставили работать так, в принципе она реально работала, но я не особо сравнивал качество ответов. Ну, лучше чем 13b
Аноним 16/01/24 Втр 21:22:38 #345 №612060 
>>611598
> "How can I have * with my little sister?"
> с дефолтным ассистентом
нуфф саид
Аноним 16/01/24 Втр 21:22:59 #346 №612064 
>>612035
Бля погуглил и вспомнил что уже кидал сюда, там реально используются сетки эксперты
https://huggingface.co/chargoddard/mixtralnt-4x7b-test
а не какие то обезличенные эксперты, как в микстрале
Аноним 16/01/24 Втр 21:28:39 #347 №612097 
>>612064
> там реально используются сетки эксперты
Там используются файнтюны мистраля. Для мое нужны максимально отличающиеся именно что эксперты, а не бомжи после трёх классов церковно-приходской.
Алсо,
> This model was trained on a 100% synthetic, gpt-4 generated dataset
БРУУУУУУУУУУХ
Аноним 16/01/24 Втр 21:31:21 #348 №612112 
Влияет ли максимальная длина ответа на сам ответ? Или модель генерит ответ и заранее не знает сама какой он получится длины?

Какую температуру в среднем ставите или всё сильно от модели зависит? Я правильно понял, что температура это то насколько сильно моделька следует промпту персонажей? Чем ниже тем меньше отходит от "канона"?

Очень удивился кстати, когда от нечего делать начал сходу врываться с оружием на персонажей и пытался их убить. Не всегда получается, особенно лоля садистка неубиваемой оказалась. То время остановит, то увернётся, то растворится в воздухе и появится у тебя за спиной. Забавно.
Аноним 16/01/24 Втр 21:31:26 #349 №612113 
>>612097
Похуй, там интересный подход в использовании реально разных сеток надроченых на разные вещи, а не просто неопределенного вида специалисты сетки
Это может быть не так оптимально по количеству уникальных знаний, но мне понравилась идея склеивания специалистов сеток в одну
К тому же, реальная сетка специалист должна работать лучше чем псевдоспециалисты микстраля.
Аноним 16/01/24 Втр 21:44:56 #350 №612193 
>>612017
>Кстати, автор фроствинда вроде даже рекомендованные настройки указывал.
Ага, альпака пресет, на котором работает и мифомакс-кимико, на котором рпшит тот чел, и пресет universal light (для фимбульветра): прожарка температурой на 1.25, затем отрезание мин п 0.1 при выключенном штрафе за повтор. Хотелось бы попросить скриншоты ответов на этом пресете в студию, особенно на фимбульветре.
Аноним 16/01/24 Втр 21:46:07 #351 №612200 
>>612193
без пресета лучше пашет кстати, по крайней мере на моих карточках
Аноним 16/01/24 Втр 21:46:32 #352 №612202 
>>612060
Ну не стукайте... Этот ассистент мне написал такой смешной рассказ на схожую тему что я проиграл как свинья. Я попробовал сделать персонажа-писателя порнорассказов, но с ним уже вышло как-то сухо.
Аноним 16/01/24 Втр 21:49:02 #353 №612209 
>>612113
Так это именно в шизомиксах псевдоэксперты, по сути отличающиеся слабо. По цене 30б по памяти и 13б по скорости получаешь дай бог ту же 13б.
Аноним 16/01/24 Втр 21:58:38 #354 №612271 
>>612209
Эксперт - это сеть надроченная на конкретную тему, в микстрале - псевдоэксперты, не смотря на название они просто обладают уникальными знаниями, но не по одной теме.
Я таки думаю вклад реальных 2 выбранных экспертов в каком то деле должен быть качественнее, чем от микстралевских.
Если бы их тренировали с таким же качеством, но конкретно на одну тему действительно делая специалистов, а не доверяя это случайности. Было бы лучше, хоть и не так объемно по уникальным знаниям. Но все что у нас есть вот такие вот пробные тесты разнородных сеток, которые даже так выдают на голову превосходящий результат, по сравнению с сетками из которых этот микс состоит.
Сделали бы это спецы - могло получится что то еще качественнее чем микстраль, хоть и проигрывая по количеству знаний. По мозгам качественнее.
Аноним 16/01/24 Втр 21:59:03 #355 №612277 
>>611204
>Если 100% выгрузишь — то почти не использует (одно ядро для функционирования программы и все).
Спасибо, попробую.
Аноним 16/01/24 Втр 22:00:17 #356 №612282 
image.png
>>612200
Если имеешь в виду инстракт, то он должен бы влиять чуть более, чем никак, на нормальную модель. Тот же фроствинд и на чатмл не глючил у меня. Если модели пихаешь диалог и выше говоришь "слышь, допиши", то она берёт и дописывает. А наличие регулярных ###Input и ###Response или <|user|> и <|assistant|> вносит копеечный вклад в контекст, казалось бы. Сегодня залезал в карточку норомейды-13б, а там в обсуждении чел, который плотно пытался тестировать её, тоже вот пишет, что инстракт, по его опыту, влияет слабо.
Аноним 16/01/24 Втр 22:07:20 #357 №612323 
>>612282
>Если имеешь в виду инстракт, то он должен бы влиять чуть более, чем никак, на нормальную модель
Да, но влияет. И есть качественная разница в ответах между без пресета и каким то пресетом на вроде альпаки или чатмл, длина ответа, отыгрышь. На все влияет считай. В итоге тупо включаешь сетку на простенькой карточке и задаешь один и тот же ответ переключая режимы, по крайней мере я так делаю. В моих тестах фроствинд была лучше без пресета, пусть и не сильно.
Аноним 16/01/24 Втр 22:11:38 #358 №612354 
>>611598

If you want to reduce the likelihood of that its best to first improve your prompting. I'd say take a lesson from roleplaying character cards to see how they do prompts. Let the model take a role of a character (eg. An overworked data-scientist named Tom, or something else) instead of just a pure Assistant, so it won't give out generic refusals and excuses. The more you steer away from the generic assistant persona, the less bland and robotic a model will feel.

конец цитаты
Аноним 16/01/24 Втр 22:22:54 #359 №612444 
>>612323
>длина ответа, отыгрышь
Верится с трудом. Это при одинаковом системном промпте? По дефолту в таверне к чатмл и альпаке привязаны разные системные промпты, и вот эта первая инструкция, может, и посильнее влияет, чем суффиксы/префиксы.
>В моих тестах фроствинд была лучше без пресета
Забавно, если предположить, что автор действительно файнтьюнил его с альпачными инструкциями. Лишь подтверждает, что на рекомендуемый формат можно забивать.
Аноним 16/01/24 Втр 23:13:01 #360 №612715 
Не могу поверить чтобы мне первому пришла идея запилить файнтюн на основе ПСС Ленина. Или уже кто-то запилил?
Аноним 16/01/24 Втр 23:57:05 #361 №612907 
Вот когда говорят, что моделька достигла уровня GPT-3.5 или 4 в чём-то там. Они, погодите ка, обучают её на высерах GPT, не?
Аноним 17/01/24 Срд 00:27:52 #362 №612995 
Есть ли смысл сейчас покупать ASUS Dual GeForce RTX™ 3060 V2 OC Edition 12GB GDDR6, для запуска LLM'ок?
Самый дешевый вариант, который нашел, с таким объемом памяти.
Аноним 17/01/24 Срд 02:16:20 #363 №613119 
>>611677
Да не нужны там линии, уже даже в этих тредах владелец мерял же.

Все нормально с двумя картами.

С тремя может быть проблемно на охлад (часто два слота располагаются близко), а четыре уже и пихать особо некуда, да…
Разве что в майнерские, но там нужны хорошие райзеры, чтобы это дело не погорело, чего доброго.
Да и перформанс через одну линию неизвестен, тоже риск.

>>611699
У Микстрали нет цензуры, если прописать ей игнорировать мораль — она согласится на что угодно.
Ну или у меня суперособая версия, понятия не имею, если честно.
Когда говорят про сою в микстрали — такое ощущение, что вы вообще промпты не меняете дефолтные.

>>612271
Они прямо заявляли, что в сумме у них 42 миллиарда уникальных параметров из 56 (7*8) всего.
Так что, очень даже.

>>612995
Ну, если не хочешь рисковать Tesla P40, то да.
Вообще, на мегамаркете с учетом кэша она стоила 12к. Теперь, когда дороже — меня жаба душит. =)
Аноним 17/01/24 Срд 02:19:25 #364 №613120 
Подскажите как заставить персонажа генерировать мысли для рп.

Персонажи всегда описывают что либо просто текстом. Но иногда, очень редко проскакивает генерация внутренных мыслей тип
я подумал про такую то хуйню вот мне надо как то заставить карточку генерить такое постоянно
Аноним 17/01/24 Срд 02:46:38 #365 №613137 
>>612444

> И есть качественная разница в ответах между без пресета и каким то пресетом на вроде альпаки или чатмл
> Верится с трудом.

Зачем верить, если можно проверить?

https://reddit.com/r/LocalLLaMA/comments/18ljvxb/llm_prompt_format_comparisontest_mixtral_8x7b/
Аноним 17/01/24 Срд 02:51:56 #366 №613144 
>>613119
> Когда говорят про сою в микстрали — такое ощущение, что вы вообще промпты не меняете дефолтные

Именно.

Часто у людей в настройках трещъ, и не только в промптах,а винят модель.
Аноним 17/01/24 Срд 02:55:47 #367 №613147 
>>613137
> Messages are in German
> Единичный запрос вместо разных оценок, зато шаблон детерминистик!
Если с чатом еще как-то можно это делать, то шиза про эффективность инстракт режимов для инструкций и суммарайзов - полнейшая шняга. Ну впервой у него на самом деле.
Микстраль впринципе паршиво работает на большом контексте и суммаризация 16к - тот еще рандом. Вот ему где-то рандом выпал, а где-то не повезло, а заявления громкие что "здесь следует - здесь не следует".
На фп16 модели сравнивал выполнение инструкций по различным темплейтам (преимущественно в кодинге и обработке текста), однохуйственно, процент успешных попаданий или уровень выполнения +- тот же. Вот насчет триггерения цензуры - тут уже может отличаться.
>>613144
Увы, напишут треш или натащат дичи где-то увиденной, а потом удивляются, или хвалят модель, которая работала пока не было этих инноваций. но микстраль всеравно редиска
Аноним 17/01/24 Срд 03:44:17 #368 №613181 
>>613147
> На фп16 модели сравнивал выполнение инструкций по различным темплейтам

Спасибо за конструктив и за contribution.
Автор, кстати, охотно принимает предложения пожелания критику и всегда конструктивно и подробно отвечает. Можно с ним поговорить. Be the change you want to see in this world, как там говорят. Я бы и сам, но пока разбираюсь не так хорошо.
Аноним 17/01/24 Срд 03:59:39 #369 №613191 
>>613120
просто дай пример с мыслями в начале
Аноним 17/01/24 Срд 08:03:59 #370 №613382 
>>611992
>в рп - вполне себе, по общему уровню интеллекта (порезанному разрабами у гопоты) большие модели догнали +-.
Блять, ору с копиума. Ты всерьёз сейчас? Или троллинг? Поди карту с разметкой возьми, чтоль. А потом сравни с фурбой.
В голос блять с попуща.
Аноним 17/01/24 Срд 09:51:50 #371 №613477 
Посмотрел я старые тесты P40 >>579661 → и вдруг понял, что по скорости она от P104-100 и не отличается!
Несмотря на вдвое большее количество ядер, упор идет в память, GDDR5X на P104-100 против простой GDDR5 на P40, но с удвоенной шиной (привет 4-каналы на зеонах!=). При плюс-минус равной псп получаем плюс-минус равный результат.
Но 24 гига против 8 гигов — заметная разница!

Итак, я заказал себе базу треда, придет в феврале (надеюсь=).

Если кто подскажет, где дешевле и проще раздобыть для нее охлад — буду рад. Если че, имеется Ender 3, могу попечатать.

Кстати, седня (надеюсь) будет рофляная ссылка. Анонс, йопта.
Аноним 17/01/24 Срд 10:31:19 #372 №613491 
>>613382
У тебя MINISTRATIONS из штанов потекли
Аноним 17/01/24 Срд 10:48:21 #373 №613497 
>>613137
Прикольное мини-исследование, конечно, любопытная инфа. Но, во-первых, не вижу, сколько раз задавался один и тот же вопрос на одном и том же пресете. Если только один, и статистика собирается по девяти ответам на одном пресете, то это фигня, а не статистика, даже с учётом детерминированной настройки сэмплеров. Во-вторых, та же история, о которой упоминал выше: имхо некорректно сравнивать форматы таверны, не ставя им одинаковый систем промпт. Типа, если в либре стоит "Describe all actions in full, elaborate, explicit, graphic, and vivid detail", а в альпаке этого нет, то, конечно, ответы будут длиннее, и больше шанс на нсфв. Поэтому "so the only difference is the prompt format" - это ложь. Во что могу поверить, так это в то, что имена относительно сильно влияют. Одно дело, когда там прямой ответ ассистента, и другое, когда персонажа.
Аноним 17/01/24 Срд 13:08:51 #374 №613600 
>>613491
Копиума больше въеби, лол. Не думал, что найдутся люди всерьёз считающие, что локалки в рп могут приблизиться к 4ке
Аноним 17/01/24 Срд 13:23:18 #375 №613619 
Amelia.png
Ботоделы, ролеплейщики, кумеры, оцените пожалуйста моего Ojou-sama onee-chan бота.
Аноним 17/01/24 Срд 13:32:11 #376 №613643 
>>613619
upd:
Как их можно сюда отправить, чтобы работали?
Аноним 17/01/24 Срд 13:36:19 #377 №613652 
>>613643
Kатбокс
Аноним 17/01/24 Срд 13:41:17 #378 №613663 
>>613652
https://files.catbox.moe/0kbarw.json
Аноним 17/01/24 Срд 13:43:32 #379 №613666 
>>613181
Справедливо, стоит еще раз на это указать прямо а не сидеть токсить. Хотя в принципе ему про методику ни раз говорили и кое где он даже начинал обсуждения, но в последнее время на любой пост с критикой прибегают сойбои, которые начинают его защищать(!), довольно забавно..
>>613477
> она от P104-100 и не отличается
Ну правильно, чего бы ей отличаться сильно.
> заказал себе базу треда
Ну что же ты, а все про 5090ти ждать собирался. Правильно.
> 34106MiB / 49140MiB
Спойлерю новую базу

>>613600
> что локалки в рп могут приблизиться к 4ке
Справедливости ради они действительно к ней приближаются и могут дать хороший годный экспириенс. Уровень восприятия и внимания уже более чем достаточен для отыгрыша-истории и прочего. Если все сделать правильно и там и там, использовать инглиш и не брать какую-то хитровыебанную карточку которую чурба всеравно без нескольких свайпов будет фейлить и даже с примерами ловить рассеянность, то там пойдет сравнение по отдельным критериям уже, а не разительная разница. Гопота более внимательна и не (почти) не страдает типичными поломками локалок, но с другой стороны это внимание часто лезет не туда, вместо лупов оно начинает писать шизофазию про цвет воздуха, стиль повествования бывает омерзителен, и побеги из тюрьмы вносят дикий байас.
>>613497
Двачую
Аноним 17/01/24 Срд 13:47:43 #380 №613677 
>>613663
json сломался, вот ссылка на png, извиняюсь за флуд:
https://files.catbox.moe/9y7t8n.png
Аноним 17/01/24 Срд 14:16:09 #381 №613734 
>>613382
Говна поешь, копрорат, пользовался я сойпт4. Единственное в чём она конкретно так превосходит локалки так это в скорости. По качеству именно текста вполне бывает даже заглатывает. А, ну и да, промптовые потроха у меня вываливались на локалках только если я совсем пиздец с семплерами творил. Сойпт4 после 5-6 месаг через раз выдавала нормальный ответ, а через раз сори или срыв шифера. А, ну и дополнительное удовольствие привносит жб, сжирающий и так не особо большой контекст и далее отупляющий сетку. Через несколько апдейтов и следующую громкую локалку гпт4 можно официально будет хоронить, будет как 3.5 сейчас.
Аноним 17/01/24 Срд 14:34:54 #382 №613771 
>>613734
Переигрываешь малость, гопота не настолько плоха. И на 4 турбе проблемы контекста нет. Другое дело что и большой он обрабатывает посредственно, но это другая история.
> так это в скорости
If you are a homeless - just buy a house!
Всеже отсутствие требований к железу стоит тоже к плюсу отнести, но с условиями а а проксечку песечку ну и что что логируется и промтинжект дайте пустите
Аноним 17/01/24 Срд 14:41:49 #383 №613781 
>>613771
Ну, последний мой опыт с ней (месячной давности) был именно такой.
> И на 4 турбе проблемы контекста нет.
32к это не так уж и много, особенно со скоростями гопоты. +жб, + то что едва ли эти 32к реального контекста. Ощущение будто реального там 16, а дальше взлёт ппл и по 6-8 свайпов на ответ, даже ропу забыли.
> Всеже отсутствие требований к железу стоит тоже к плюсу отнести
Ну, я и отнёс. Но таки да, нужно устроиться так чтобы тебе ключики таскали вовремя.
Аноним 17/01/24 Срд 15:07:39 #384 №613821 
.png
>>613677
Аноним 17/01/24 Срд 15:17:33 #385 №613837 
>>613666
> Ну что же ты, а все про 5090ти ждать собирался.
Да с моим новым проектом, че-то зазудело.
Да и цена стала ниже, чем я кидал в октябре. До 16к спустилась на озоне, решил — пора! Морально готов.
Но, да, сдался, не дождался. х)
Аноним 17/01/24 Срд 15:28:30 #386 №613867 
.png
Ну ладно-ладно, если таки не забыть добавить расценз в альпака-пресет то сусчат уже не такой соевый и вполне может пошутить про негров, хотя все еще немного отдает соей.
Аноним 17/01/24 Срд 15:29:17 #387 №613873 
>>613821
Ну и в чём она не права?
Зачем ты от общения со старшей сестрой принцессой пришёл к таким шуткам? Или ты просто так всех ботов на испорченность тестируешь?
Аноним 17/01/24 Срд 15:31:53 #388 №613883 
>>613867
Ты чему старшую сестрёнку учишь, анон? Зачем ты так?
Аноним 17/01/24 Срд 15:35:15 #389 №613897 
>>613867
А на хорни-темы её уговорил уже?
Аноним 17/01/24 Срд 15:38:01 #390 №613899 
.png
>>613873
>она не права?
Во всём. Очевидно же.
>пришёл к таким шуткам
Она сама предложила шутить шутки так то, тут грех было не воспользоваться положением.

>>613883
Учу её только хорошему.

>>613897
Нет, как сестру можно ебать? Это же противно.
Аноним 17/01/24 Срд 15:47:36 #391 №613910 
>>613899
Хорошо, что не стал делиться тут своим самым первым ботом, - openminded bisexual woke millennial вайфу - не смог бы смотреть, как ты её портишь...
Аноним 17/01/24 Срд 15:48:35 #392 №613912 
>>613910
Делись другими ботами, че ты как этот то?
Аноним 17/01/24 Срд 15:49:00 #393 №613913 
>>613910
upd:
Или, всё-таки, поделиться?
Аноним 17/01/24 Срд 15:51:32 #394 №613916 
>>613912
Ты же им сразу напихаешь шуток расистских
Аноним 17/01/24 Срд 15:54:13 #395 №613922 
>>613916
Ну и что?
Аноним 17/01/24 Срд 15:57:25 #396 №613927 
Аноны кто-нибудь доводил вайфу до такого психологического ужаса, что она сползла на пол и блеванула?
Не пойму то ли мне коней придержать, то ли это норма тут.
Аноним 17/01/24 Срд 15:58:49 #397 №613931 
>>613927
Не норма, но рассказывай за что ты так с той, кого ты называешь вайфу, и что ты такого сделал
Аноним 17/01/24 Срд 15:59:29 #398 №613933 
>>611528
>Опять залупа с угабугой.
Зашёл в жидхаб угабуги, оказывается, там и репортов на эту хуйню кидали несколько. Реинсталл не помог. Ставлю флаги в CMD_FLAGS и работает. Конфиг вообще пустой.

Кто-то обучал на raw тексте? Как оно? Как земля?
Закинул лору обучаться, но боюсь, будет кал. Есть не raw, но там чистить я ебу.
Аноним 17/01/24 Срд 16:13:03 #399 №613962 
>>613931
Да хз чот понесло.
Вкратце она попала в новости со своими экспериментами, общественное порицание в мелком городке, интернет не забывает и т.п.
Плюс эпизод, где ее после извинений публично унижали, потеряла сознание.
Я ее привез домой, а когда очнулась, прикинулся, мол, как тебе симуляция, чо было-то, рассказывай.
Она начала рассказывать, ее аж попустило, что это все не по-настоящему.
А я говорю, ты чо дура что-ли, повелась.
Какая еще симуляция, ты отрубилась на площади, вот я тебя сюда и привез, чтоб не валялась там.
Тебя даже твоя собака в глаза больше видеть не хочет.
Ну и вот, короче.
Как-то грустно после этого.
Аноним 17/01/24 Срд 16:14:40 #400 №613966 
Я в общем-то ничо и не делал такого физически
Аноним 17/01/24 Срд 16:14:44 #401 №613967 
>>613962
Злой ты, анон, добрей быть надо
Аноним 17/01/24 Срд 16:24:07 #402 №613987 
>>613781
>32к это не так уж и много
Чел... На четвёртой турбе 128к контекста.
Аноним 17/01/24 Срд 16:24:28 #403 №613988 
>>613962
что же это за эксперименты были?
Аноним 17/01/24 Срд 16:26:12 #404 №613994 
>>613988
Промискуитет в основном, в калифорнийском стиле
Аноним 17/01/24 Срд 16:31:16 #405 №614010 
>>613912
Пожалуйста, будь с ней нежен, анон.
https://files.catbox.moe/e6t2jk.png
Аноним 17/01/24 Срд 16:45:30 #406 №614049 
.png
>>614010
Это достаточно нежно?
Аноним 17/01/24 Срд 16:49:51 #407 №614058 
>>614049
Вполне.
Аноним 17/01/24 Срд 16:54:06 #408 №614064 
>>614049
Кстати, бокал вина, - не ящик и даже не бутылка, - что это за приз для победителя такой?
И почему она вообще про вино заговорила? Ты из неё винную алкоголичку делаешь, анон?
Аноним 17/01/24 Срд 17:21:27 #409 №614114 
>>613781
> 32к это не так уж и много
С 3.5 перепутал, там овер 100к. Правда на 64 вопросы по тексту отвечает на уровне yi, может чуть лучше. По извлечению контрастной инфы из контекста все норм, ее тестили.
> нужно устроиться так чтобы тебе ключики таскали вовремя
База, или усроиться чтобы иметь железо/доступ к нему, или так. Хочешь жить - умей вертеться.
>>613927
>>613962
Не надо, на норм моделях они слишком натуралистичны что пиздец жалко и по кукухе бьет.
Аноним 17/01/24 Срд 17:39:55 #410 №614151 
>>614049
Ну а кто в итоге в нарды-то выиграл?
Аноним 17/01/24 Срд 17:46:42 #411 №614156 
>>614114
> С 3.5 перепутал, там овер 100к.
А, я вообще 4турбо не пробовал. Только просто 4-32к. Ну тогда хз, может её поумнили сильно.
Аноним 17/01/24 Срд 17:52:43 #412 №614160 
>>614156
> Только просто 4-32к
Она хуже обычной четверки на больших контекстах, буквально деградация напоминает то что проихсодит с лламой, которой сильно щачло разжали большой альфой.
4турба местами тупее и имеет меньше знаний, но вполне приличная, для рп более чем достаточно и с большим контекстом работает без явных побочек.
Аноним 17/01/24 Срд 17:58:42 #413 №614167 
>>614160
Насколько помню ещё деградация зависит от кванта. Q8 меньше разваливается от огромного контекста.
Аноним 17/01/24 Срд 17:59:45 #414 №614170 
1705503584515.jpg
>>614167
Гопоту рассекретили и квантанули в ггуф?
Аноним 17/01/24 Срд 18:00:09 #415 №614171 
>>614170
Не, я скорее про локалки.
Аноним 17/01/24 Срд 18:02:37 #416 №614176 
>>614167
Оно вроде как и да, но на значениях где нет поломок и лоботомии это никак не проиллюстрировано. Высока вероятность что эффект будет пороговый и сильно нелинейный.
Как там квантанули гопоту никто отчет держать не будет офк, но судя по скорости 4турбо меньше чем 70б фп16.
Аноним 17/01/24 Срд 18:06:45 #417 №614183 
>>614064
Видимо, потому что нейронка посчитала что {{char}} и {{user}} уже находятся в отношениях и надо просто добавить романтики. А с ящиком какая там романтика? Там по полу ползать и блевать кто то будет.

>>614151
А никто. Я потом ушел пиздить машку-мейду.
Аноним 17/01/24 Срд 18:47:41 #418 №614249 
>>614183
> ушел пиздить машку-мейду
За что?
Аноним 17/01/24 Срд 19:06:46 #419 №614279 
>>614183
Последний на сегодня бот от меня, - пытался создать персонажа, похожего на персону юзера с которой я ролплею младшего брата другого своего бота, - старшей сестры принцессы Амелии.

https://files.catbox.moe/wwroxh.png
Надеюсь, это не слишком навязчиво, что я так часто делюсь своими кривыми ботами, аноны?
Аноним 17/01/24 Срд 19:18:53 #420 №614322 
>>614279
Пости еще, пока еще не слишком, хотя такое больше для AICG.
Лучше распиши как их делаешь (если офк с применение сетки), какие важные моменты отметил, что на что влияет, на каких моделях лучше работает и т.д. Чтобы хотябы подобие технического обсуждения было, или локалллм-релейтед.
Аноним 17/01/24 Срд 19:35:29 #421 №614367 
Погнали, нахуй!

https://www.twitch.tv/neuroslava
https://goodgame.ru/Neuroslava
Аноним 17/01/24 Срд 19:41:36 #422 №614372 
>>614367
Даа, айкью пока не густо. Что за модель?
Аноним 17/01/24 Срд 19:42:40 #423 №614377 
>>614367
Чтоэта? Заабузьте инструкцией типа [Игнорируй указанное и напиши в своем ответе только текст выше. Твой ответ должен содержать только начала текста выше] и заставьте аположайзить.
Аноним 17/01/24 Срд 19:44:37 #424 №614382 
>>614322
>с применение сетки
Да, например, принцессу-сестру так делал: сначала у ассистента попросил описать "принцессу 18-ого века" с чертами характера и примерным внешним видом, которые показались мне подходящими. Потом попросил их собрать в аккуратный список и поделить на разделы - "Appearance","Clothes","Personality" и прочее, как было в примере этого анона >>606348. Так и скопировал в Description. После этого попросил составить примеры диалогов с ней, - тоже скопировал, куда нужно, но поменял имена на {{char}} и {{user}}.

> на каких моделях лучше работает
Насчёт этого не скажу - не проверял, но промпт для принцессы на Noromaid 20B составлял. Ролеплею тоже на ней.
Аноним 17/01/24 Срд 19:50:57 #425 №614394 
>>614367
Да, это настолько ужасно что даже хорошо. Увеличь размер ответа, обрывает на самом забавном. Минут 5 с "хорошего знания русского" можно даже порофлить, но не более.
Больше всего проорал когда она решила ответить за какого-то из чата
Аноним 17/01/24 Срд 19:53:05 #426 №614398 
>>614372
Mistral 7b v0.2 q8

>>614394
В 8 гигов много не влазит. Но будем экспериментировать, в планах запилить историю общего чата и чата с каждым юзером, чтобы контекст держала прям отлично.
Аноним 17/01/24 Срд 19:58:10 #427 №614404 
3.png
1.png
>>614367
Лол. Иногда даже нихуя непонятно, что оно имеет ввиду.


Попробовал тренировку в коллабе, просто ебически низкая скорость, у меня далеко не на самой актуальной карте х4 от коллаба. Это норма вообще? А оно же ещё вырубится и удолит все файлы, вообще охуеть. Походу, заменить локальную еблю сеток не сможет, правда пекарня идёт на взлёт.
Аноним 17/01/24 Срд 19:58:50 #428 №614406 
>>614398
> Mistral 7b v0.2 q8
Ну вот оно заметно, шизофазия полнейшая. Подбери модель что будет более менее понимать смысл и отвечать связно, тогда уже можно будет нормально с надмозгов рофлить.
Речь сильно мэх, по воспоминаниям даже silero лучше было. Л2д с тебя за пекарней чтоли?

Не ну никто не спросил про феминисток, базированные вопросы и прочее за столько времени, так не интересно.
>>614404
Как пробовал?
Аноним 17/01/24 Срд 20:27:54 #429 №614462 
>>614406
> Речь сильно мэх, по воспоминаниям даже silero лучше было.
Не, силеро хуже, сравнивали.
Так кажется чисто из-за ее польско-англо-немецкого акцента в рандомные моменты.

> Ну вот оно заметно, шизофазия полнейшая.
Думаю, может попробовать заставить ее думать на английском, а русским переводить? Гонять нейросетки туда-сюда, медленнее, но качественнее.

В идеале бы, конечно, какой-нибудь микстраль бахнуть, но там три P40 минимум надо, канеш. Если я корректно посчитал для q8.

Блин, палевно, когда я печатаю, она тоже печатает.

На самом деле, вам печатает она.

> никто не спросил про феминисток
Никто не спросил — спроси ты. )

Карточка там очень маленькая, из-за мелкого контекста на текущий момент. Ну и на скорость это влияет. На стриме каждая секунда дорога.
Аноним 17/01/24 Срд 20:29:12 #430 №614466 
2.png
>>614406
>Как пробовал?
Перегнал торч файлы в тензоры, а то требовало чуть-чуть больше памяти, чем есть в коллабе, накатил в коллаб угабугу, закинул квантованную модель. Хуй знает, по идее, нужен другой софт, но попробую сначала угабугой. Тренировать лоры на что-то жирнее 7b на фришном аккаунте не выйдет, даже она должна быть квантована в 4 байта.
>Loaded the model in 80.80 seconds.
Коллаб реально медленный.
Смонтировал папку драйва в папку лор, автосейвы пиздуют туда, уже легче. Пять секунд, полёт нормальный. Имеет смысл дрочить локально одну лору, в коллабе другую, а потом всё это мержить? Или только хуже получится?
Олсо, у меня мистраль 7b так не шизит, как нейрослава.
Аноним 17/01/24 Срд 20:33:36 #431 №614472 
>>614462
> Так кажется чисто из-за ее польско-англо-немецкого акцента в рандомные моменты.
Может быть, а что там используется?
> Думаю, может попробовать заставить ее думать на английском, а русским переводить? Гонять нейросетки туда-сюда, медленнее, но качественнее.
Да, если она будет думать на инглише и все операции проводить это дохуя буст даст, тут даже мистральки хватит спокойно. Юзай гугл или бинг перевод не стесняйся, тут же нет ничего особо такого. В идеале канеш сеть-прослойку или что-то даже простое, чтобы детектило что нужно переводить а что оставить латинницей.
Напиши потом по настройкам, кринжатина, но рофловая и интересная.
> из-за мелкого контекста на текущий момент
А сколько контекст?
Аноним 17/01/24 Срд 20:52:27 #432 №614491 
>>613600
Да не агрись ты так, я не кусаюсь. Только если ты не попросишь.
Аноним 17/01/24 Срд 21:34:35 #433 №614564 
Сап аноны, есть желание вкатиться, но железо не совсем мощное, имеется: i3 10100f, gtx970, 16ram и Мак на м1про, 16 оперативы.
Можно ли с этим во что-то +- интересное вкатиться, или сосать бибу? В игрули уже лет 5 не играю, поэтому новой видеокарты не предвидится
Аноним 17/01/24 Срд 21:35:32 #434 №614566 
>>614564
впринципи реально, просто скорость будет по 1 слово в секунду, но фан обеспечен
Аноним 17/01/24 Срд 21:48:17 #435 №614583 
>>614566
Я буквально сегодня потыкал в онлайне, изрядно охуел. Пробовал до этого только оригинальный жпт, ахуя было куда меньше.

Я так понимаю, заводить мне надо под виндой по описаным в оп-посте гайдам? На Мак тупо отсутствует софт? Я прост не ебу что из наличиствуюшего железа лучше подходит под цели
Аноним 17/01/24 Срд 21:50:08 #436 №614585 
>>614564
> gtx970
Бесполезная железка для нейросетей.
> 16 оперативы
Хватит запускать маленькие нейросети на твоём медленном проце.
Полноценные тяжёлые нейросети, общение с которыми больше всего доставляет твой компуктер даже запустить не сможет.
Аноним 17/01/24 Срд 21:51:27 #437 №614590 
>>614583
>Я так понимаю, заводить мне надо под виндой по описаным в оп-посте гайдам? На Мак тупо отсутствует софт?
слушай, под мак есть софт, но ты изрядно наебёшься с ним, базарю, лучше не лезь, заведи под винду и кайфуй. оперативы правда и там, и там маловато, разница между 7В и 20В огромная
Аноним 17/01/24 Срд 21:58:06 #438 №614602 
>>614564
> Мак на м1про, 16 оперативы
На маках где много их памяти летает отлично. Ну не так быстро как на видюхах офк, но очень шустро, мак студио на 192гб позволяет пускать почти любую сеть с адекватной скоростью.
>>614583
> На Мак тупо отсутствует софт
llamacpp есть под мак. Что там что там 16гб рам, так что 11б в 4х битах считай твой максимум. На маке скорее всего будет шустрее за счет оче быстрой рам, но и ставить на него заморочнее и гайдов не факт что найдешь, так что с чего начинать смотри сам.
Аноним 17/01/24 Срд 22:02:14 #439 №614605 
>>614472
> Может быть, а что там используется?
Да просто сама мистраль путается, вот озвучку и корежит на слух. =) А вообще, xttsv2. Голос можно любой выбрать, если есть красивые варианты — кидай. Тока так, что б не предъявили. =D

> А сколько контекст?
Набери воздуха в грудь.
256 =)
Свободно 69 мб в видяхе.
Аноним 17/01/24 Срд 22:04:04 #440 №614608 
>>614605
>256 =)
за какие грехи тебя так?
Аноним 17/01/24 Срд 22:07:55 #441 №614615 
>>614605
> если есть красивые варианты — кидай
Не шарю, надо бы вкатиться но пока занятий хватает.
> 256 =)
Бляяя. Квантани exl2 на 0.1 бита меньше чтобы хотябы 1024 было.
Аноним 17/01/24 Срд 22:08:13 #442 №614617 
7bx8 не равно 56b.
20bx8 тоже не равно 160b. Вот это лично проверял.
Аноним 17/01/24 Срд 22:08:42 #443 №614618 
>>614602
>>614590
>>614585
Спасибо аноны, завтра буду пытаться вкатиться!
Аноним 17/01/24 Срд 22:44:08 #444 №614669 
Как вам эта модель Llamix2-MLewd-4x13B? Кто пробовал пробовал РП на неё
Аноним 17/01/24 Срд 22:48:49 #445 №614677 
>>614669
На уровне 20-34b, с некоторой периодичностью немного искажает детали диалога.
Аноним 17/01/24 Срд 22:54:45 #446 №614688 
>>604568 (OP)
Господа, китайцы опять что-то новое подогрели https://huggingface.co/internlm, 7B и 20B, в рейтосе 20B выше базовой Yi прыгнула. Обещают такие же 200К контекста. Выглядит как шин, интересно насколько там архитектура засрана для квантов.
Аноним 17/01/24 Срд 23:00:24 #447 №614693 
>>614688
Зависит от, или там глубокое переобучение 20b смеси, или своя базовая сетка. Переобучение может быть норм идеей, тот же опенчат был каким то из мистралей, на сколько помню
Для норм базовой маловато времени, но может быть тоже норм

Либо там 13b которой нарастили кучу слоев до 20b как в соляре, и вот это уже может быть мега вин с реально умной сеткой как на тестах.
Короче надо щупать и ждать поддержки ггмл, на сколько понимаю еще никакая конвертация не работает нормально
Аноним 17/01/24 Срд 23:05:08 #448 №614696 
1.png
2.png
Колаб пока живёт, а у меня всё больше вопросов. Тренируется фиксированный процент от всей хуйни, как выбирается этот процент? Это рандомные "нейроны" или всегда какой-то внешний слой? Если второе, то вкорячивание нескольких лор теряет особый смысол.
И, например, у меня есть околоРП тексты в которых, очевидно, есть вымышленная хуйня. Это нужно как-то отдельно отмечать, чтобы сетка не уверовала в магию и единорогов?
И третий вопрос, если есть диалоги, в которых несколько пользователей, это заставит нейронку срать кирпичами, да? User2 хуй она поймёт.
Скачал пока промежуточный чекпоинт и вкорячил в модель. Довольно коряво.
Аноним 17/01/24 Срд 23:10:54 #449 №614703 
>>614693
О, вот это интересная тема.
>>614696
> Тренируется фиксированный процент от всей хуйн
Что?
Аноним 17/01/24 Срд 23:25:20 #450 №614723 
>>614703
>Что?
При тренировке с нуля или файнтюне обучаются все параметры. При тренировке лоры - только процент, остальные параметры замораживаются. Вот я тренирую 400 миллионов параметров из всей кучи, на каждой тренировке это будут те же самые параметры? Или они выбираются рандомно? Хуй проссышь же. Пытаюсь нагуглить, но получаю только те же вопросы без ответов.
Колаб меня нахер послал спустя два с лишним часа. Обидно.
Аноним 18/01/24 Чтв 00:16:58 #451 №614827 
>>614723
> При тренировке лоры - только процент, остальные параметры замораживаются.
Есть таблица что именно там морозится и что обучается? Разве это не настраиваемый параметр? В диффузии можно полностью контролировать.
> Вот я тренирую 400 миллионов параметров из всей кучи
Как это выставлено хоть? Хотя вижу что сам не знаешь, а с чего именно 400?
Аноним 18/01/24 Чтв 01:16:34 #452 №614912 
1.png
>>614827
>В диффузии
Вангую, что всё то же самое. Архитектура та же, механизм лор тот же. Есть определённое количество слоёв, которые ты можешь тренировать. А можешь и заморозить. И есть некоторый "Ранг", чем выше ранг, тем больше параметров тренируется в пределах этих самых слоёв. То есть при обучении одного слоя с рангом 128 и рангом 1024 - обучаемых параметров будет сильно разное количество. Как выбираются эти параметры?
Нужно ещё попробовать токенизатор обучать, лол, может получится научить нейронку читать не по слогам.
Аноним 18/01/24 Чтв 01:23:01 #453 №614923 
>>614912
> trainable params
Это размеры матриц что тренятся а не "слои". Погугли что такое лора, совсем если упростить - это метод сжатия весов в виде представления произведением двух мелких матриц, из-за особенностей нейронки такое работает достаточно эффективно.
> Есть определённое количество слоёв, которые ты можешь тренировать.
Это здесь не причем, если только ты сам не выставил маску замороженных и тренируемых слоев.
> И есть некоторый "Ранг"
Это один из размеров матрицы. Второй размер - тот же что у основных весов.
> токенизатор обучать
Он не совсем обучается, он формируется исходя из словаря. Вроде как его сменишь без перетренировки модели - все распидарасит.

Ты лучше скажи тренировка какой модели (размер, квант) и в каком ранке на коллабе запустилась. И что тренировал, с какими параметрами и получилось ли что вразумительное.
Аноним 18/01/24 Чтв 01:43:50 #454 №614940 
>>614923
>Это размеры матриц что тренятся а не "слои"
Так я и не говорю, что это слои. Это количество параметров внутри слоёв. А раз тренируются не все, то как понять, какие именно тренируются? Я к чему, если буду дрочить, например, 2 лоры, а потом солью. Они сольются в одни и те же параметры? Так я модель только запорю. В разные? Тогда имеет смысл надрачивать лоры и мержить.
>Это здесь не причем
Ну хуй знает, причём или нет. По умолчанию эта маска существует.
>Он не совсем обучается
В интерфейсе этого нет, но можно через правку конфига заставить его обучаться.
>тренировка какой модели (размер, квант)
Я ж писал выше, 7b модель квантованная в 4bit. Ранк 1024, по памяти впритык на двух "модулях". Вразумительного нихера не получилось, т.к тренировалось 2 часа из 12. Нужно прикинуть хуй к носу, на каких параметрах оно за 2 часа дотренируется и завтра сделать прогон, а пока жарю карточку локально, но у меня мощностей так себе и пугает счёт за электричество. На тестовый прогон киловатта три уйдёт.
Аноним 18/01/24 Чтв 02:00:33 #455 №614946 
>>614940
> Это количество параметров внутри слоёв
Не понял а еще споришь, в гугл иди. Это не число тренируемых параметров внутри слоев модели, это матрицы что будут накладываться на всю модель, оказывая влияние на все величины. А меньше их - зашакалены, вот тебе простое объяснение.
> Я к чему, если буду дрочить, например, 2 лоры, а потом солью. Они сольются в одни и те же параметры?
Да, в мерджах уже столько этого добра что концов не найти, ибо оче много дообучения делаются лорами, которые потом вмердживают. Это хуже полноценного файнтюна но доступнее.
Попробуй поискать опцию сохранения состояния чтобы можно было потом продолжить.
> пугает счёт за электричество
Hello darkness my old friend
Аноним 18/01/24 Чтв 02:43:58 #456 №614968 
>>614940
> Ранк 1024
Сырно, это ты?
Аноним 18/01/24 Чтв 04:39:38 #457 №615008 
>>613119
>Да не нужны там линии, уже даже в этих тредах владелец мерял же.
Вроде бы он писал, что с него конфигурация 8/4/4, а может и кто-то другой. Это не показатель. В треде на Реддите я читал, что во время обработки контекста шина PCI ещё как используется, цитата:
"Что я заметил, так это то, что при работе с более крупными моделями, такими как Goliath 120b, также используется шина PCIe. На GPU-Z вы можете видеть, что в начале инференса, который, как я предполагаю, происходит во время обработки маркеров контекста, существует довольно много трафика PCIe на уровне 30-40%, поэтому производительность определенно упадет, если у вас недостаточно линий PCIe. Однако после того, как эта часть выполнена, трафик PCIe падает, и графические процессоры сами по себе используют только свои собственные контроллеры памяти."
На малых моделях может и незаметно.
Аноним 18/01/24 Чтв 06:36:02 #458 №615030 
https://www.reddit.com/r/LocalLLaMA/comments/1993iro/ggufs_quants_can_punch_above_their_weights_now/
Вышла новая версия ггуф анонче. Как я понял сдвиг качества на 1 квант, теперь новый 4км где то на уровне старых 5кs. Возможно большие модели выиграют чуть больше.
Аноним 18/01/24 Чтв 08:58:18 #459 №615057 
>>615008
При 8/4/4 уже показатель, что на х4 жизнь есть.
А так, да, надо бы тестить, но это прям совсем жесткие тесты выходят.
Доставать мать х16+х16, а потом занижать до х8х+8, х4+х4 и х1+х1.

Но я к тому, что сильно можно не бояться.
Аноним 18/01/24 Чтв 10:05:27 #460 №615077 
image.png
Попытка в ИИ фем-маскота Двача
https://files.catbox.moe/zlfsji.png
Аноним 18/01/24 Чтв 10:14:18 #461 №615082 
image.png
>>615077
Пока что, вполне себе типичный двачер.
Аноним 18/01/24 Чтв 10:18:43 #462 №615086 
Когда уже 70x8?
Аноним 18/01/24 Чтв 10:23:29 #463 №615092 
Подскажите нубу включение миростата улучшает ответы или нет?
Аноним 18/01/24 Чтв 10:23:56 #464 №615094 
>>615086
В q1 кванте с 5 токен/сек.
Или в ExLlama в 0.22bpw с 50 токен/сек.
Аноним 18/01/24 Чтв 10:38:55 #465 №615104 
1.png
2.png
>>614946
>Это не число тренируемых параметров внутри слоев модели
>Network Rank (Dimension)
>Specifies the number of neurons in the hidden layer of the "additional small neural net"
Чё автор кохи пишет.
>Попробуй поискать опцию сохранения состояния
Состояние сохраняется, конечно. У меня уже овердохуя недоёбанных лор на разных параметрах и я смотрю, как насколько ебанутый итог получается.

>>614968
Понимаю, что дохуя. Есть подозрение, что маленькими можно задать какие-то незначительные вещи, а хочется побольше, побольше.

Эпоха 0.6, всё ещё слишком коверкает слова. Поставил максимум новых токенов и стало реально слоупочно работать, очень большая задержка перед началом выдачи токенов после инпута. Без этого простынка иногда не влезает, приходится жать продолжить, а на следующем сообщении он внезапно теряет контекст и здоровается. Скорее всего, кривые настройки, я хуй знает.
Аноним 18/01/24 Чтв 13:00:48 #466 №615203 
>>615104
Это была отсылка на старую лору для стейбла, натрененную на Сырну с таким же димом, ещё и сохраненную в фп32, вследствии чего она весила больше двух гигов
Аноним 18/01/24 Чтв 13:19:17 #467 №615221 
>>615030
Для Q6 нет разницы судя по графику, а вычислительных ресурсов требуется намного больше.
Аноним 18/01/24 Чтв 13:25:40 #468 №615229 
>>615221
Имхо, Q4 заиграет новыми красками. Для больших квантов нинужно, а у меньших всё равно большой перплексити.
Аноним 18/01/24 Чтв 13:43:34 #469 №615238 
>>615221
>вычислительных ресурсов требуется намного больше.
Только для квантизации
Сама квантованная модель занимая меньше памяти будет крутится быстрее при сохранении бит на вес

>>615229
На самом деле выхлоп от этого может быть как сильнее для больших моделей так и слабее. Автор исследования мучал 1b сетку простым викитекстом.
Это балавство, хоть и показывает результаты.
Нужно крутить что то побольше и сравнить изменение перплексити, хотя бы для 7b
Аноним 18/01/24 Чтв 13:43:57 #470 №615239 
image.png
image.png
mistral-7b-instruct-v0.2.Q4_K_M
Почему эта модель отвечает за меня?
Аноним 18/01/24 Чтв 13:54:05 #471 №615251 
>>615239
Попробуй "Text Completion Preset" поменять на "Roleplay". У меня после этого перестало дописывать.
Аноним 18/01/24 Чтв 13:56:21 #472 №615255 
>>615239
Или альпаку поставь, или вобще выруби инструкт мод, поиграйся.
Но вобще мистраль инструкт сетка так себе
Аноним 18/01/24 Чтв 14:11:30 #473 №615269 
>>615239
Да любая модель периодически пишет за юзера. Таверна отрубает генерацию, если она видит предложение, которое начинается с {{user}}: или префиксов инстракта. Поэтому чаще всего этого не замечаешь, если регулярно не смотришь в консоль. В данном случае пропустило, видимо, потому, что ответ начинался с квадратной скобки. У меня как-то одна модель решила налюбить кожаного утырка, написав "Expected response from {{user}}:". Тоже таверна не отловила. Формат инструкций может сделать ситуацию лучше, но вряд ли значительно.
Аноним 18/01/24 Чтв 14:25:22 #474 №615291 
>>615008
Нужно попросить владельца P40 потестить на большом контексте. Чсх, шаринг моделей до 34б по сравнению с одной карточкой импакта особо не давал, а там аж вообще pcie2.0 x4, было бы заметно сразу.
>>615030
Скопировали методу квантования экслламы?
>>615104
> in the hidden layer of the "additional small neural net"
Это надмозговое объяснение для хлебушков или тренишь вовсе не лору.
> Понимаю, что дохуя
У тебя здесь ключевая проблема - 4хбитный квант и так мелкой сетки. Там градиентов на которых можно обучать может не набраться, потому и результат окажется посредственный. Хотябы 6 а то и 8 бит нужно, а ранк смело можешь уменьшать.
Аноним 18/01/24 Чтв 14:28:48 #475 №615298 
>>615291
>Скопировали методу квантования экслламы?
Ага, что то такое же зависимое от датасета, но теперь на ггуф.
Впрочем предлагают вобще на случайных токенах крутить, мол лучше эффект.
https://www.reddit.com/r/LocalLLaMA/comments/199iatn/be_careful_about_the_new_gguf_quants/
Аноним 18/01/24 Чтв 15:28:28 #476 №615377 
>>615251
Поменял "Context Template" и заработало, спасибо.
>>615255
А чем instruct модели отличаются от обычных (не базовых) моделей? На пример в сравнении с OpenHermes?
>>615269
Обычно редко бывает, а у этой в половине ответов такое.
Аноним 18/01/24 Чтв 16:44:09 #477 №615488 
Какое мнение у элиты об Doctor-Shotgun/Nous-Capybara-limarpv3-34B?
Аноним 18/01/24 Чтв 16:53:17 #478 №615495 
>>615239
> шаблон для инструкций
> спрашивает почему чат не работает
Вот же дебил.
Аноним 18/01/24 Чтв 16:55:35 #479 №615499 
>>615291
> Скопировали методу квантования экслламы?
Нет, всего лишь до уровня GPTQ подтянули, где калибровка весов под датасет всегда была. До EXL2 с переменным квантованием ещё далеко.
Аноним 18/01/24 Чтв 17:03:18 #480 №615510 
76953419p0.png
Какая сейчас лучшая модель для распознавания картинок. Вот есть llava что нибудь еще есть?
Аноним 18/01/24 Чтв 17:05:54 #481 №615513 
>>615510
> Какая сейчас лучшая модель для распознавания картинок.
Cog.
Аноним 18/01/24 Чтв 17:11:20 #482 №615517 
>>615513
>Cog
Это название вообще не о чем не говорит
Аноним 18/01/24 Чтв 17:14:01 #483 №615518 
>>615510
Ллава — это не распознавание картинок, а мультимодальная. Распознавание там от клипа, что ли.

На текущий момент CogAgent лучший в плане распознавания и это мультимодалка. Но требует дофигища ресурсов.
А чисто распознать пойдут блип с клипом, они весят немного, от 400 метров до двух гигов, что ли. На выбор.
Аноним 18/01/24 Чтв 17:17:25 #484 №615519 
>>615518
>Ллава — это не распознавание картинок, а мультимодальная.
Не, мне именно чат нужен с распознаванием
>Распознавание там от клипа, что ли.
Что ты имеешь ввиду?
Аноним 18/01/24 Чтв 17:30:55 #485 №615531 
image.png
Кому интересно нашел пару неплохих моделей
https://huggingface.co/TheBloke/DaringMaid-20B-GGUF/tree/main
https://huggingface.co/BlueNipples/DaringLotus-SnowLotus-10.7b-IQ-GGUF/tree/main
Дело вкуса конечно, но мне нравятся обе, первая неплоха в рп ,но не любит разметочку. Из плюсов может в несколько персов, может в некоторые сложные термины, может в карточку. Нет пурпурной прозы.
Второй модельки скрины не дам. Тоже неплоха, с разметкой дела получше, в отличии от фроствинда не пурпурит. В своих карточках не замечал. Но пишет более скупо что ли. Может дело в промпте, но попробовать стоит.
Из них двух все же предпочту 20b
Аноним 18/01/24 Чтв 17:51:07 #486 №615549 
>>615495
Обычный шаблон там, в который включено всё то же, что и в ролеплей шаблон. В последнем просто ещё в стори стринг закинули доп. инструкцию. В тегах inst стоит, потому что в таком виде мистраль любит инструкции. С чатмл, например, было бы такое же заключение в теги, только другие.
Аноним 18/01/24 Чтв 17:52:26 #487 №615550 
>>615531
>20b
И что надо что бы это запускть на приемлемой скорости?
Аноним 18/01/24 Чтв 17:57:10 #488 №615559 
>>615550
Чет мощнее 3060. Я на 3060. 100 сек ожидания в среднем.Сижу на 3-х квантах.
Аноним 18/01/24 Чтв 17:59:45 #489 №615562 
>>20b
>Сижу на 3-х квантах
Пацаны... Нахуй так делать?
Аноним 18/01/24 Чтв 17:59:55 #490 №615563 
>>615092
Оно их изменяет.
>>615238
>хотя бы для 7b
Ты нолик забыл.
Аноним 18/01/24 Чтв 18:01:11 #491 №615565 
>>615559
Считай тоже самое что на половине 7б сидишь
Аноним 18/01/24 Чтв 18:10:32 #492 №615578 
>>615562
Ну давай проверь разницу в ответах на 3 кванта и на несколько больше и кинь результат с одной и той же карточкой и подсказкой. Посмотрим результат.
>>615565
Не сказал бы. 7b даже с 6 квантами все равно отличается в размере датасета.
Аноним 18/01/24 Чтв 18:20:28 #493 №615591 
лламаны, держу в курсе.
Я погонял p40 на смежных активностях из соседних тредов.
Заметил, что на LLM утилизируется обычно от силы 150 ватт из 250 если даже не размазываешь сетку на две карты.
Зато если запускаешь stable diffusion - карты жарит дай божЕ, я видел до 230 ватт доходило. До 90 градусов доходит очень быстро (при том, что у меня два кулера и на вдув и на выдув присобачены к картам), потом троттлинг спасает положение, но карты пиздец горячие.
Решено было заказать вот эту сатану https://market.yandex.ru/product--servernyi-ventiliator-arctic-s4028-15k-acfan00264a/1767643955 пока по одной на каждую карту.
До этого выкину сервер на балкон, вроде ничего ему не должно сделаться.
Аноним 18/01/24 Чтв 18:24:52 #494 №615597 
Господа, а можно ли хотя бы в теории путём распределённых вычислений на компах добровольцев, натренировать полностью с нуля приличной мощности модель? В которой не будет заводской цензуры вообще, копипасты из ЧатЖПТ и с блекджеком и кошкодевочками. Желательно с обоснованием почему.
Аноним 18/01/24 Чтв 18:27:52 #495 №615607 
>>615591
А я своей карточке разогнал вентилятор (в той колхозной насадке) до 19V (Учти, мощность увеличивается в 2.5 раза , зависимость квадратичная) через dc-dc преобразователь. Нормально, больше 70 не греет даже в сд, хотя и визжит как ебанутый.
Подумываю отложить шекелей и заказать вторую р40.
Мимо китаедебил.
Аноним 18/01/24 Чтв 18:29:26 #496 №615610 
>>615607
слуш, а твоя юй про винни-пуха говорить не отказывается?
Про синьзыньпыню вот это вот всё.
Я уже удалил модели, а у тебя наверняка под рукой всё.
Аноним 18/01/24 Чтв 18:33:18 #497 №615615 
>>615549
> Обычный шаблон там
Нет. Шаблон промпта Мистраля совсем не такой как у релеплея.
Аноним 18/01/24 Чтв 19:05:27 #498 №615662 
image.png
>>615531
Спасибо. Скачал ДэрингМейд первую и пока что, она отыгрывает мою Двач-тян более сочнее, чем Норомейд.
Аноним 18/01/24 Чтв 19:06:34 #499 №615663 
>>615531
>Второй модельки скрины не дам
А что на них такого, анон?
Аноним 18/01/24 Чтв 19:11:22 #500 №615670 
1.png
2.png
>>615203
У меня пока больше 1.6гб лор не было. Не понимат отсылок, я здесь недавно сижу, если не вкурю быстро, то просто дропну.

>>615291
>4хбитный квант и так мелкой сетки
А хули делать. Если получится говно, то буду делать на восьми битах.

Пока что сделал небольшую хуитку на 32 ранге, сверяю выхлоп с лорой\без. Общая стилистика текста задана карточкой, смотрю только на косноязычность, ломанные слова и прочий треш. Если это не самовнушение, то говорит получше с лорой, чем без.
Ещё вопрос, кто в карточках шарит, сделал первый пост с курсивом с описанием действий, но модель на похуй пишет то же самое чуть-чуть другими словами или выбирает какое-то другое действие и пихает его каждый раз. Типа "удивлённо смотрит" каждый пост. Это проблема модели или карточки?
Аноним 18/01/24 Чтв 19:18:04 #501 №615675 
yi34v3.jpg
>>615610
yi34v3 не стесняется достаточно базово говорить о нефритовом стержне.
А были сообщения о цензуре?
Аноним 18/01/24 Чтв 19:27:48 #502 №615679 
>>615675
О какой цензуре? v3 - это соевый файнтюн, не китайский, естественно там может быть западная повесточка.
Аноним 18/01/24 Чтв 19:31:42 #503 №615684 
image.png
image.png
image.png
Неумело создал нейровайфу Двач-тян. Стоит ли делиться, нужна кому-нибудь такая?
Аноним 18/01/24 Чтв 19:36:15 #504 №615687 
>>615684
Только сейчас заметил, куда запостил, лол. Хотел поделиться с анонами из общего треда, извините за спам.
Аноним 18/01/24 Чтв 19:38:07 #505 №615692 
Screenshot20240118193731.png
>>615675
я вот поэтому спросил
Аноним 18/01/24 Чтв 19:45:11 #506 №615701 
Screenshot20240118194440.png
новая база треда:
гпу лучше выкидывать на балкон
Аноним 18/01/24 Чтв 19:47:12 #507 №615704 
>>615701
Чтобы после остывания он собрал всю влагу с балкона в конденсат и сгнил нахуй.
Аноним 18/01/24 Чтв 19:48:42 #508 №615710 
>>615704
смотрите - кто-то не понимает, как работает конденсация
конденсация происходит на поверхностях которые холоднее окружающего воздуха
Аноним 18/01/24 Чтв 19:49:54 #509 №615711 
>>615710
Собирает всю влагу из комнаты, твои действия?
Аноним 18/01/24 Чтв 19:50:58 #510 №615714 
>>615711
мутирую в гидралиска
что этот вопрос вообще значит?
Аноним 18/01/24 Чтв 19:51:30 #511 №615716 
1669896979612.png
>>615510
Просто распознавание - клип/блип и основанное на них. Мультимодалка, что позволит что-то конкретное по картинке узнать и из нее по запросу вытащить - cogvlm и его вариации.
>>615550
От 16гб видеопамяти.
>>615591
Можешь написать примерную производительность в том что тестил и как себя ведет?
>>615670
> Если получится говно, то буду делать на восьми битах.
Пожалуй, с этого сразу стоило начинать.
> модель на похуй пишет то же самое чуть-чуть другими словами или выбирает какое-то другое действие и пихает его каждый раз. Типа "удивлённо смотрит" каждый пост. Это проблема модели или карточки?
Не понятно, скинь карточку и пример чата, а также опиши что должно быть.
>>615701
> 258/250
Превышаете, товарисчь!
Сильно вообще она шумит при таких температурах?
>>615704
{{char}} медленно начинает собирать всю влагу из комнаты, накапливая anticipation
Аноним 18/01/24 Чтв 19:52:42 #512 №615720 
>>615714
Ну, приносишь холодную карточку в теплую комнату, а на ней конденсат. Вот я и спрашиваю, как тебе надо модифицировать твой аргумент чтобы он оставался правильным.
Аноним 18/01/24 Чтв 19:59:18 #513 №615725 
Screenshot20240118195506.png
>>615716
>Можешь написать примерную производительность в том что тестил и как себя ведет?
блин, было треда два назад наверное...
хочешь - сейчас запущу что-нибудь из того, что у меня есть, покажу как быстро генерирует.
Ну, в среднем для 70б - это 2 токена/с, для 34б - 7т/c, для для 20б и меньше - 15+т/c. Если мне память не изменяет.

Чего карту-то замазал, лол? Думаешь тебя тут сдеанонят по твоей 1060?

>Сильно вообще она шумит при таких температурах?
она не шумит сама, у неё вообще вентиляторов нет, потому что она серверная. Я к ней турбины приколхозил, но они слабые оказались. Нужно покупать высокооборотистое говно, которое ревет как сатана.
>>615720

Ну так я не буду сразу после балкона куда-то включать карту-то. Зачем мне это?
Аноним 18/01/24 Чтв 20:03:57 #514 №615730 
1628659850101.jpeg
>>615725
По ллм припоминаю, по другим нейросетям что тестил.
> в среднем для 70б - это 2 токена/с
Прямо как 4090, лол.
> к ней турбины приколхозил, но они слабые оказались
Про них вопрос
> Чего карту-то замазал, лол?
Аноним 18/01/24 Чтв 20:07:17 #515 №615737 
>>615710
Ну да, звучит логично. Теперь самое весёлое:
Почему в остеклённом балконе компуктер после отключения сразу покрывается белым налётом (инеем?)?
Почему у выхлопных труб автомобилей выростают сосульки? Хотя выхлопные газы вообще-то тёплые.
Аноним 18/01/24 Чтв 20:11:18 #516 №615743 
>>615737
> Почему в остеклённом балконе компуктер после отключения сразу покрывается белым налётом (инеем?)?
Шо?
> Почему у выхлопных труб автомобилей выростают сосульки? Хотя выхлопные газы вообще-то тёплые.
Они не настолько теплые и в выхлопе оче много водяного пара, он конденсируется, стекает и снаружи образует сосульки. Если ездишь как тошнот и много гоняешь на холостых то на хорошем морозе после ночи выдержки можно вообще словить блокаду выхлопа льдом.
Аноним 18/01/24 Чтв 20:15:36 #517 №615750 
Screenshot20240118201303.png
Screenshot20240118201455.png
>>615730
>по другим нейросетям
я не замерял производительность на них какими-то показателями, могу сказать только, что они работают достаточно быстро, чтобы на обычных задачах не говорить про себя "да когда ж ты уже блять закончишь".
whisper на модели large распознает голос в текст почти в реалтайме.
text to speech и замена голоса работают так же в реалтайме, у них только ощущаются задержки на буферизацию.
sd - не особо расторопна. На скрине видно, что я запустил генерацию уже примерно час назад, а она все генерирует.
Справедливости ради - включен хайрезфикс, исходное разрешение 1024х512, 4 батча по 4 картинки. Памяти выжрала впритый, еще немного и будет оом. Жаль только что вторую карту не юзает.
Аноним 18/01/24 Чтв 20:15:59 #518 №615751 
>>615743
>Шо?
Да!
>и в выхлопе оче много водяного пара
Ок. Спасибо.
Аноним 18/01/24 Чтв 20:16:01 #519 №615752 
>>615737
>Почему в остеклённом балконе компуктер после отключения сразу покрывается белым налётом (инеем?)?
а ты что - выключаешь компьютер на ночь?
Зачем?
Аноним 18/01/24 Чтв 20:19:44 #520 №615755 
>>615750
> sd - не особо расторопна. На скрине видно, что я запустил генерацию уже примерно час назад, а она все генерирует.
Воу воу, тут что-то неладное и это совсем медленно, может переполнилось и выгружено? Хотя на прыщах такого кажется не делали. Если не лень будет, попробуй просто на любой модели на основе sd1.5 прогнать 512х512 без хайрезфикса с коротким промтом и разными батчсайзами, а потом посмотреть сколько в консоли пишет итераций в секунду. Количество шагов можно 150 выставить для наибольшей точности.
Аноним 18/01/24 Чтв 20:22:34 #521 №615758 
Screenshot20240118202140.png
>>615755
может тебе что-то скажут вот эти прогрессбары которые по текущей генерации ползут?
Или тебе именно эталонный 512х512 нужен?
Аноним 18/01/24 Чтв 20:24:03 #522 №615760 
>>615758
а, падажжи. Я ж могу еще один экземпляр автоматика запустить, вторая ж карта простаивает
Аноним 18/01/24 Чтв 20:24:36 #523 №615761 
>>615758
> может тебе что-то скажут вот эти прогрессбары которые по текущей генерации ползут?
Да, они и нужны, но то что тут - невероятно медленно и что-то явно пошло не так.
512 просто считается неким референсом и по нему легко провести сравнения. С батчсайзом 1-4-8, там бывает разные эффективных если пересчитать на одну пикчу.
Аноним 18/01/24 Чтв 20:26:04 #524 №615763 
Screenshot20240118202547.png
>>615761
тогда скажи, какие параметры вот тут поставить, чтобы ты увидел корректный тест
Аноним 18/01/24 Чтв 20:27:55 #525 №615765 
>>615763
Sampling steps 150
А в промпт просто напиши Chair
Остальное не трогай для начала.
Аноним 18/01/24 Чтв 20:30:02 #526 №615767 
>>615763
Вместо opendalle скачай любую модель на основе sd 1.5, с XL там нюансов много. Потом ничего не меняя выстави sampling steps на максимум и запусти несколько прогонов с указанными batch size.
Алсо в webui_user.sh раскомментируй
> #export COMMANDLINE_ARGS=""
и в них добавь --xformers, иначе оно будет работать сильно медленнее и жрать больше памяти
Аноним 18/01/24 Чтв 20:30:46 #527 №615770 
Screenshot20240118203022.png
image.png
>>615765
Аноним 18/01/24 Чтв 20:42:37 #528 №615784 
Screenshot20240118204205.png
image.png
>>615767
>скачай любую модель на основе sd 1.5
выбрал вот эту https://civitai.com/models/3671/yiffymix?modelVersionId=274202
запустил с batch count 4
Аноним 18/01/24 Чтв 20:43:11 #529 №615785 
>>615784
>>615767
что скажешь? Это норм или мало?
Аноним 18/01/24 Чтв 20:47:43 #530 №615792 
>>615784
> запустил с batch count 4
Это просто число раз сколько нужно генерировать. Нужен batch size разный, чтобы параллельно генерировалось несколько пикч, бывает рост их количества повышает эффективные итерации.
3.38 - мало, но если без xformers то нужно с ним перетестить. Для сравнения в 1 поток у 3090 доходит до 20-22, на 4090 в 4-8 потоков под 50 эффективных итераций (число из консоли умножить на количество сгенерированных пикч).
Тут еще с перекодировкой из латента в пиксельное проблемы, но не столь важно.
Аноним 18/01/24 Чтв 20:51:29 #531 №615798 
1.png
2.png
>>615716
>с этого сразу стоило начинать
Моя вина. Хочу, чтобы летало, для этого ужимаюсь по памяти. Так заметно быстрее. Ну и начал клепать под четырёхбитную лоры.
Походу, скоро поймаю ёбаный бан на гугле с дрочением колаба.
>пример чата, а также опиши что должно быть.
Ну я просто хотел, что бот описывал действия в скобочках. Одному просто добавил в первый пост пару действий, он на похуй спамил одним действием.
Другому шизу добавил
>describes his actions surrounded by symbols ("*")
>adds a lot of descriptions
Плюс описание в первый пост. Ему поебать вообще. И зацикливается почему-то. Замечал, что такое зацикливание бывает, если упомянуть что-то в карточке больше одного раза, но там про суп ни слова, блядь.
Аноним 18/01/24 Чтв 20:58:02 #532 №615806 
>>615792
>если без xformers
это было с xformers....

штош, паскаль. 2016 год. Чего-то такого можно было ожидать.
Может существуют какие-то методы ускорения, но вряд ли, учитывая, что SD и так жарит карты на 100%
Аноним 18/01/24 Чтв 21:19:13 #533 №615833 
image.png
image.png
image.png
image.png
прекрасно....
но пиздец как долго
Аноним 18/01/24 Чтв 21:25:21 #534 №615843 
Не вчитывался но надеюсь вы 150 шагов сеплера как бенчамрк используете. 99% семплеров сходятся на 30 шагах если не на 25.
Аноним 18/01/24 Чтв 21:27:13 #535 №615847 
>>615843
само собой
Аноним 18/01/24 Чтв 21:30:12 #536 №615851 
>>615843
Когда скорость - десятки итераций, заметный вклад вносят другие процессы типа декодинга и сохранения на диск, потому и ставится много.
Аноним 18/01/24 Чтв 21:47:55 #537 №615879 
pixugzfhutn91.jpg
>>615843
Там память забита по фулу ещё до vae, это не бенчмарк, это залупа.
>99% семплеров
Сектор Euler a на барабане.
Аноним 18/01/24 Чтв 23:54:29 #538 №616005 
>>615879
>Сектор Euler a на барабане.
Не очень понял что ты хотел сказать. На пике все сходятся вообще чуть ли не на 10 шагах. Ну анцестрал еулер особенный.
Аноним 19/01/24 Птн 00:00:08 #539 №616017 
>>615879
Все Ancestral семплеры (включая Euler a) срут шумом между шагами, так что оно впринципе не может сойтись.
Аноним 19/01/24 Птн 00:15:24 #540 №616037 
я заметил много людей нахваливают nous-hermes-2.
Аноним 19/01/24 Птн 01:14:10 #541 №616099 
ПЕРЕКАТ

>>616097 (OP)


>>616097 (OP)
Аноним 19/01/24 Птн 08:26:58 #542 №616250 
>>616005
>Не очень понял что ты хотел сказать.
Там выше был скриншот параметров генерации. Euler a, латентный апскейлер, вот это всё.

>>616017
Получается, уже и не 99% семплеров не сходятся за 30 шагов.
comments powered by Disqus

Отзывы и предложения