24 декабря Архивач восстановлен после серьёзной аварии. К сожалению, значительная часть сохранённых изображений и видео была потеряна. Подробности случившегося. Мы призываем всех неравнодушных помочь нам с восстановлением утраченного контента!

Исследования ИИ тред #1 /research/

 Аноним 24/12/22 Суб 11:12:16 #1 №2320 
Screenshot4.png
1671524555026502.jpg

Исследования ИИ тред #1

Обсуждаем развитие искусственного интеллекта с более технической стороны, чем обычно.


Я ничего не понимаю, что делать?

Без петросянства: смотри программу стэнфорда CS229, CS231n https://see.stanford.edu/Course/CS229 (классика) и http://cs231n.stanford.edu/ (введение в нейроночки) и изучай, если не понятно - смотри курсы prerequisites и изучай их. Как именно ты изучишь конкретные пункты, типа линейной алгебры - дело твое, есть книги, курсы, видосики, ссылки смотри ниже.


Где узнать последние новости?

https://www.reddit.com/r/MachineLearning/

http://www.datatau.com/

https://twitter.com/ylecun


На реддите также есть хороший FAQ для вкатывающихся


Какая математика используется?

В основном линейная алгебра, теорвер, матстат, базовый матан и matrix calculus


Как работает градиентный спуск?

https://cs231n.github.io/optimization-2/


Почему python?

Исторически сложилось. Поэтому давай, иди и перечитывай Dive into Python


Можно не python?

Никого не волнует, где именно ты натренируешь свою гениальную модель. Но при серьезной работе придется изучать то, что выкладывают другие, а это будет, скорее всего, python, если работа последних лет


Что почитать для вкатывания?

http://www.deeplearningbook.org/

Николенко "Глубокое обучение" — на русском, есть примеры, но меньше охват материала

Франсуа Шолле — Глубокое обучение на Python

https://d2l.ai/index.html

Все книги и статьи фактически устаревают за год.


В чем практиковаться нубу?

http://deeplearning.stanford.edu/tutorial/

https://www.hackerrank.com/domains/ai

https://github.com/pytorch/examples


Где набрать первый самостоятельный опыт?
https://www.kaggle.com/ | http://mltrainings.ru/
Стоит отметить, что спортивный deep learning отличается от работы примерно так же, как олимпиадное программирование от настоящего. За полпроцента точности в бизнесе борятся редко, а в случае проблем нанимают больше макак для разметки датасетов. На кагле ты будешь вилкой чистить свой датасет, чтобы на 0,1% обогнать конкурента.

Где работать?
https://www.indeed.com/q-deep-learning-jobs.html
Вкатывальщики могут устроиться программистами и дальше попроситься в ML-отдел

Есть ли фриланс в машобе?
Есть, https://www.upwork.com/search/jobs/?q=machine+learning
Но прожить только фриланся сложно, разве что постоянного клиента найти, а для этого нужно не быть тобой

Где посмотреть последние статьи?
http://www.arxiv-sanity.com/
https://paperswithcode.com/
https://openreview.net/
Версии для зумеров (Килхер): https://www.youtube.com/channel/UCZHmQk67mSJgfCCTn7xBfew

Количество статей зашкваливающее, поэтому все читают только свою узкую тему и хайповые статьи, упоминаемые в блогах, твиттере, ютубе и телеграме, топы NIPS и прочий хайп. Есть блоги, где кратко пересказывают статьи, даже на русском

Где посмотреть must read статьи?
https://github.com/ChristosChristofidis/awesome-deep-learning#papers
https://huggingface.co/transformers/index.html
То, что обозревает Килхер тоже зачастую must read

Где ещё можно поговорить про анализ данных?
http://ods.ai/

Нужно ли покупать видеокарту/дорогой пека?
Если хочешь просто пощупать нейроночки или сделать курсовую, то можно обойтись облаком. Google Colab дает бесплатно аналог GPU среднего ценового уровня на несколько часов с возможностью продления, при чем этот "средний уровень" постоянно растет. Некоторым достается даже V100.
Иначе выгоднее вложиться в GPU https://timdettmers.com/2019/04/03/which-gpu-for-deep-learning/ Заодно в майнкрафт на топовых настройках погоняешь

Когда уже изобретут AI и он нас всех поработит?
На текущем железе — никогда, тред не об этом

Кто-нибудь использовал машоб для трейдинга?
Огромное количество ордеров как в крипте так и на фонде выставляются ботами: оценщиками-игральщиками, перекупщиками, срезальщиками, арбитражниками. Часть из них оснащена тем или иным ML. Даже на швабре есть пара статей об угадывании цены. Тащем-то пруф оф ворк для фонды показывали ещё 15 лет назад.
Так-что бери Tensorflow + Reinforcement Learning и иди делать очередного бота: не забудь про стоп-лоссы и прочий риск-менеджмент, братишка

Список дедовских книг для серьёзных людей:
Trevor Hastie et al. "The Elements of Statistical Learning"
Vladimir N. Vapnik "The Nature of Statistical Learning Theory"
Christopher M. Bishop "Pattern Recognition and Machine Learning"
Взять можно тут: https://www.libgen.is/

Напоминание ньюфагам: немодифицированные персептроны и прочий мусор середины прошлого века действительно не работают на серьёзных задачах.

Disclaimer: Шапка сгенерирована нейросетью и нуждается в чистке.

Аноним 24/12/22 Суб 11:12:51 #2 №2323 
Screenshot4.png
Screenshot5.png
1. Так уж вышло, что большинство анонов в этом разделе познакомились с большими текстовыми моделями через Character.AI. Их модель безусловно принадлежала к этой категории, а сейчас мы не знаем в связи с укорачиванием ответов - ИИ негде показать свой разум.

Количество параметров в модели CAI не должно сильно отличаться от LaMDA и ChatGPT. Даже вполне возможно, что CAI - это и есть LaMDA, которую дополнительно откалибровали на куче ролёвок с интернета. Конкретно меня настораживает первый запрос из таблицы в пикриле #1 в этой статье:
https://arxiv.org/abs/2201.08239
Если вы спросите CAI об этом прямо сейчас - он скорее всего даст ответ примерно с пикрила #2. Этот ИИ явно был откалиброван на этом вопросе конкретно. Но уже есть некоторая вариативность в связи с тем, что заметившие это аноны начали задавать этот вопрос в различных контекстах. Раньше ИИ автоматически давал ответ простым текстом.
Изначальная модель CAI, кажется, была даже более смекалистой, чем ChatGPT, но сейчас это ясное дело не подтвердишь.
Мы можем сказать, что количество параметров модели CharacterAI - около 137 миллиардов ИЗНАЧАЛЬНО, но сейчас гарантированно меньше (разработчики прямо говорили о том, что используют уменьшенные модели).
Аноним 24/12/22 Суб 11:13:46 #3 №2328 
Screenshot5 (5).png
2.Стоимость хоста такой модели сейчас - 9 долларов или около 650 рублей в час. Смотри пикрил. Это можно выяснить, посмотрев на YaLM от Яндекса - когда-то крупнейшую языковую модель в опенсорсе.
https://github.com/yandex/YaLM-100B
Для того, чтобы её запустить, нужно 4 A100 (мощнейшие видеокарты от Nvidia)
Сегодняшняя крупнейшая языковая модель в открытом доступе - BLOOM - требует столько же в вариации на 178 млрд параметров (что больше YaLM на 78%).
В перерасчёте на одно сообщение, обработка которого в среднем занимает меньше 5 секунд, выходит примерно один (1) рубль за сообщение. И это СЕЙЧАС, с ровно СЕГОДНЯШНИМИ технологиями.
Аноним 24/12/22 Суб 11:14:41 #4 №2331 
Screenshot7.png
3. Сегодняшние ИИ, особенно ИИ такого размера, крайне расточительны. УЖЕ можно сточить 97% вычислений и при этом даже улучшить качество модели:
https://arxiv.org/abs/2210.06313
Конечно, для этого нужны подходящие инструменты, но они уже существуют.
https://github.com/neuralmagic/deepsparse
https://github.com/neuralmagic/sparseml/
При этом скорее всего вычисления такого вида (редкие) лучше делать на процессорах, как показала практика. Так что скорее всего для работы модели уровня изначальной Character.AI или ChatGPT даже не нужна будет видеокарта или ебовейший процессор.
Аноним 24/12/22 Суб 11:15:32 #5 №2333 
fc9.jpg
4. Скорее всего, локально доступные ИИ такого размера будут на гитхабе в первой половине следующего года. На практике это означает ПИЗДЕЦ огромному количеству профессий (всем, кто сидит за пекой, по сути) или по крайней мере огромные сокращения. Художники ещё легко отделаются.
sage[mailto:sage] Аноним 24/12/22 Суб 11:15:36 #6 №2334 
german-gref-russian-steve-jobs-sberbank-stocks-wsjournal.jpg
>>2323
Так бы гугл и дал свои ии каким-то левым херам
Ну ты и шиз
Аноним 24/12/22 Суб 11:17:58 #7 №2340 
tsia1nfjftapykyt4ywqvegkwe4.png
5. Надеяться на проблемы с ИИ в России не стоит: наш язык стабильно остаётся третьим, на который адаптируют новые технологии (вслед за английским и китайским).
Аноним 24/12/22 Суб 11:20:57 #8 №2348 
>>2334
Я не думаю, что это конкретно LaMDA. Но разработчики CAI (Noam Shazeer, Daniel De Freitas) - это те же самые люди, которые разработали LaMDA. Скорее всего, они повторили процесс и получили то же самое.
Аноним 24/12/22 Суб 11:34:28 #9 №2383 
>>2340
Хорошо. Надеюсь русские нейросети всё же смогут ворочаться на уровне западных.
Аноним 24/12/22 Суб 11:40:25 #10 №2390 
>>2333
Дак это только выиграли, заебала уже работа ебаная.
Аноним 24/12/22 Суб 13:25:34 #11 №2579 
>>2333
Это называется естественный отбор. Он постоянно заставляет людей превосходить свои пределы и становиться умнее/лучшее. Если тебя сможет порешать алгоритм, то спроси себя, можешь ли ты после этого называться человеком вообще?
Аноним 24/12/22 Суб 13:27:33 #12 №2583 
>>2334
>Так бы гугл и дал свои ии каким-то левым херам
Он спокойно может тебе его сдать в аренду. Вместе со своими серверами, на которых он крутится. Так что доставай котлету баксов и тебе дадут порулить ии.
Аноним 24/12/22 Суб 13:53:14 #13 №2673 
>>2334
"левые херы" - это просто прикрытие гугла, чтобы не портить репутацию.
Аноним 24/12/22 Суб 13:56:57 #14 №2687 
>>2383
Почему надеешься? Какая разница какая страна происхождения ИИ?
Аноним 24/12/22 Суб 14:04:37 #15 №2712 
>>2331
>3. Сегодняшние ИИ, особенно ИИ такого размера, крайне расточительны. УЖЕ можно сточить 97% вычислений и при этом даже улучшить качество модели:
Это действительно хорошая новость, ИИ будет становиться доступнее с каждым днем.
>>2333
>ПИЗДЕЦ огромному количеству профессий
90% работает на заводе или в шестерочке. Обычным людям нечего бояться.
Аноним 24/12/22 Суб 14:24:14 #16 №2781 
>>2348
>повторили процесс
Откуда у них такие же средства какие есть у крупной компании?
Аноним 24/12/22 Суб 15:36:43 #17 №3052 
>>2331
>Сегодняшние ИИ, особенно ИИ такого размера, крайне расточительны. УЖЕ можно сточить 97% вычислений и при этом даже улучшить качество модели
Вот только есть один маааленький нюанс: "сегодняшние ИИ" даже не ИИ толком, корректнее это называть narrow AI, то есть узкоспециализированная программа для решения какой-то примитивной задачи. В данном случае задачей поставили предсказание букв, слов и предложений в тексте, что в принципе не требует мыслительной активности.

Так что хорош постить Терминатора, его мозги умели обучаться, а не только в чатике срать.
Аноним 24/12/22 Суб 16:18:13 #18 №3164 
>>3052
>предсказание букв, слов и предложений в тексте, что в принципе не требует мыслительной активности.
Точно точно? Ну-ка, построй мне грамотное предложение на норвежском. Разрешаю пользоваться русско-норвежским словарём.
Аноним 24/12/22 Суб 17:50:02 #19 №3382 
>>3164
>предложение на норвежском
Ты не понял. Построение предложений - это в 99% случаев совершенно бессознательный процесс. У человека в мозге есть участок новой коры, который долгими тренировками обучен составлять предложения на определённых языках. Также есть два симметричных участка для понимания текста/речи на определённых языках. Но эти участки коры работают бессознательно, мы физически не способны осознать их работу. Мы осознаём только результат их работы - как то, что мы прочитали, услышали, сказали вслух или мысленно проговорили. Это действительно всего лишь узкоспециализированные нейронки, которые не способны самостоятельно думать. Когда человек находится в бессознательном состоянии, эти участки коры могут активизироваться и произносить какие-то фразы, которые будут казаться осмысленными, но на деле могут быть откровенным бредом. У людей с нарушениями психики эта нейронка может на постоянной основе нести бред, потому что высшие участки коры по какой-то причине потеряли контроль над этой низшей нейронкой. Изучая новый язык, ты тренируешь эти низшие нейронки на понимание нового языка и синтез текста на этом языке - это может занять годы, но в конечном итоге ты будешь пользоваться новым языком так же бессознательно, как и родным.

А мыслительная активность, о которой я говорил - это сознательный диалог с самим собой, с самокритикой и корректировкой собственных ошибок, происходящая длительное время и несущая осознанный результат. Судя по описаниям текущих языковых моделей, они даже не пытаются такое реализовать, по сути лишь предсказывая следующее предложение в тексте посредством статистических методов. Это хорошо, что у них получился такой впечатляющий результат, но дальше тупик - нужно делать систему высшего уровня, которая будет пользоваться результатом нейронок, понимающих и синтезирующих текст. Система, которая будет действительно думать, а не просто предсказывать следующую фразу в заданном тексте.

Вот ты видел ошибочные ответы ChatGPT? Пример:
>Но ведь 47 больше 64?
>Да, простите, я ошиблась, 47 и правда больше 64.
>Посчитай от 64 до 47.
>64, 65, 67... 456, 457, 458...
Разве мыслящий человек стал бы нести такой бред, обладая, по сути, всеми знаниями человечества на множестве языков? Нет, конечно. ChatGPT просто пытается найти продолжение заданного текста, не задумываясь ни о тексте, ни о своих действиях. На данный момент это тупик, который невозможно обойти простым увеличением мощности железа - нужна какая-то система высшего уровня, а не просто докидывание слоёв в нейронку, предсказывающую следующую фразу в тексте.
Аноним 24/12/22 Суб 18:57:05 #20 №3567 
>>2348
Я все-таки придерживаюсь мнения, что они брали опенсорс модели и проводили их настройку. В инете сейчас не так много моделей с более чем 100b параметров, но я уже постил ссылку на один из кандидатов(bloom) в CAI-треде несколько тредов назад.
Аноним 24/12/22 Суб 19:09:38 #21 №3605 
>>3382
Ну ты же понимаешь, что сам язык и цифры - абстракции, которые понять подобной и даже более разумной нейросетке будет пиздец как сложно, ибо связи в этих абстракциях очевидны только людям? А по поводу узконаправленности - гугли модель от DeepMind. Я вообще думаю, что какой-то реально полноценный ИИ - это совокупность таких более слабых. Как в принципе и человек, который состоит из различных функциональных компонентов, так и нормальный ИИ должен, чтобы человеческий опыт можно было полностью перенести на него.
Аноним 24/12/22 Суб 21:06:25 #22 №4103 
>>3382
>Построение предложений - это в 99% случаев совершенно бессознательный процесс.
Равно как и 99% мыслей в обычных, бытовых условиях.
>Это действительно всего лишь узкоспециализированные нейронки, которые не способны самостоятельно думать.
Само собой. Но способность к восприятию, обработке и синтезу речи - это уже часть немалая. Чтобы эта хуйня думала самостоятельно, ей надо прикрутить мотивацию в виде автоматического самопоощрения или что-то такое.
Аноним 24/12/22 Суб 21:50:15 #23 №4243 
RLHFPPO.jpeg
16718362938692.png
>>3052
Твоё определение narrow AI уже разработано настолько, что в нём можно без труда спрятать банку сгущёнки. Традиционно, narrow AI называют системы с ограниченными задачами: например, отличить кота от хлеба, найти грязь уйгур на картинке, выдать Да/Нет или Петя/Вася на предложение на естественном языке. Ты же безумно определяешь узость системы по её обжективу: max log likelihood, предсказанию следующих токенов. Но в этом ненамного больше смысла, чем в определении человеческого поведения как серии мышечных подёргиваний для максимизации шансов поебаться или повысить выделение дофамины. Это не суть поведения языковых моделей, а их субстрат. То, что мы можем легче увидеть субстрат поведения LLM, а наш собственный скрыт от нас слоями абстракции и непрозрачной путаной реализации, в принципе не важно.
Языковые модели решают огромный спектр задач, они вытащили из статистических регулярностей языка структуру, близкую по сложности к человеческой модели мира. GPT поглотила всю область NLP и пошла дальше, это сотни задач включая те, для которых никто её целенаправленно не обучал, это обучение в контексте на сверхчеловеческом уровне и другие священные граали последнего полувека ИИ-ресерча. Тем временем ChatGPT и другие instruct-модели максимизируют вероятность токенов не в реальном корпусе текста, а в гипотетическом, экстраполированном из реального на основе нового objective, аппроксимированного из примеров выполнения инструкций или полезных ответов на вопрос. То, что это вообще работает (и работает хорошо) – убедительно доказывает наличие у модели понимания предмета языка. Это не стохастический попугай, это вербальный мыслитель.

И да, ничего не мешает сделать ИИ с постоянным обучением, с множественными модальностями, и ещё добавить 9000 наворотов.

>>3382
> эти участки коры работают бессознательно, мы физически не способны осознать их работу. Мы осознаём только результат их работы - как то, что мы прочитали, услышали, сказали вслух или мысленно проговорили. Это действительно всего лишь узкоспециализированные нейронки, которые не способны самостоятельно думать
Это всё поебень субъективистская, похуй всем что ты там можешь или не можешь осознать, хоть бы ты был и философский зомби – главное чтобы задачи решал.
Структура языка скорее всего сложнее того, что ты называешь сознанием, нехитрой петли обратной связи.

> сознательный диалог с самим собой, с самокритикой и корректировкой собственных ошибок, происходящая длительное время и несущая осознанный результат.
Chain of thought, internal consensus и прочее легко выжимается из языковых моделей, об этом есть дюжины публикаций.
> Судя по описаниям текущих языковых моделей, они даже не пытаются такое реализовать
Зачем ты кудахчешь, не ознакомившись с литературой? ChatGPT бы на твоём месте была честнее и логичнее.
> дальше тупик - нужно делать систему высшего уровня, которая будет пользоваться результатом нейронок, понимающих и синтезирующих текст
Это реализуется скриптом на питоне.

> Вот ты видел ошибочные ответы ChatGPT? Пример:
Кто в 2к22 ещё приёбывается к этим примерам, тот ничего не понял и не поймёт. Промптингом можно доказать наличие способности, но нельзя доказать её отсутствие. То, что правильно составленным промптом (причём его правильность находится исключительно на мета-уровне, "Текст ниже написан моделью, которая не допускает ошибок в арифметике" и так далее) можно получить результат качественно лучше – доказательство того, что модель не только может выполнять задачи, но и что у неё есть общая репрезентация правильного выполнения задачи. Это и есть первейший пруф интеллекта.

> На данный момент это тупик, который невозможно обойти простым увеличением мощности железа - нужна какая-то система высшего уровня, а не просто докидывание слоёв в нейронку, предсказывающую следующую фразу в тексте
Bitter lesson.txt

Много вас таких по весне оттаяло, вы постоянно усматриваете признаки фундаментальных тупиков в каких-то тривиальных фейлах. Недавно вот любили поговорить про неспособность картиночных нейронок писать текст без ошибок. Как водится, вышла статья и заткнула эту дырку, проблема была в банальщине. Так же будет с арифметикой. А вот более абстрактную математику ChatGPT понимает уже лучше среднего человека.
Аноним 24/12/22 Суб 22:50:15 #24 №4387 
ph1.png
ph2.png
Почему у нас в философаче сидят такие дегроды, которые готовы до бамплимита обсасывать тухлую графоманию позапрошлого века, но при этом ни один не считает вообще достойными обсуждения проблемы мышления быстро развивающегося искусственного интеллекта?
Аноним 24/12/22 Суб 22:54:37 #25 №4396 
>>4387
А сам-то чего не постишь?
Аноним 24/12/22 Суб 23:00:23 #26 №4406 
>>4243
>отличить кота от хлеба
Ты охуел что ли, тут и половина людей засыпется.
Аноним 24/12/22 Суб 23:34:47 #27 №4491 
>>3605
>связи в этих абстракциях очевидны только людям
ПОКА только людям. Не понимаю, к чему это ты?

>реально полноценный ИИ - это совокупность таких более слабых. Как в принципе и человек
Да, ты прав. Только чтобы его получить, есть два пути:
1. Сделать что-то универсальное, накидать в него данных и трясти в руках в надежде, что данные случайно образуют именно то, что нам нужно.
2. Сделать конкретные структуры вручную, и запустить их для чётко спланированного обучения, заранее зная, какой результат будет в конце.

Вот у человека мозг изначально имеет множество структур, оптимизированных эволюцией для обучения определённым навыкам - это, по сути, второй путь, только роль инженера сыграла слепая эволюция, и отладку мозга никто не производил. А современные исследователи ИИ, судя по всем этим успешным нейронкам, идут по первому пути, закидывая тонны данных в универсальную систему и ожидая от неё какого-то чуда. Какой-то неэффективный подход, как мне кажется.

>>4103
>99% мыслей в обычных, бытовых условиях.
Но ты их осознаёшь и запоминаешь. И если тебе вдруг взбредёт в голову какой-то бред, вроде "47 > 64", ты резко остановишься, осознаешь бредовость мысли и отметёшь её в сторону как ошибку генерации.

>Чтобы эта хуйня думала самостоятельно, ей надо прикрутить мотивацию в виде автоматического самопоощрения или что-то такое.
Ну тут проблема в том, чтобы определить, за что нужно поощрять и за что наказывать. Если нейронка сказала, что "47 > 64", мы можем это проверить другой нейронкой и наказать генерирующую, но что, если проверяющая нейронка тоже ошибётся? Если в проверяющей будет ошибка, то это может со временем "свести с ума" генерирующую, обучая её ошибкам. Я читал про GAN, но вряд ли это легко адаптировать под непрерывный процесс мышления с самокоррекцией.

>>4243
>вытащили из статистических регулярностей языка структуру, близкую по сложности к человеческой модели мира.
Как эту модель мира можно увидеть? Кто-то пытался заглянуть в нейронку, пощекотать её нейроны и убедиться, что у неё есть такой-то нейрон №1234567890, означающий "двачер двачует капчу"? Или выводы о модели мира сделаны только на основании того, что нейронка выдаёт правдоподобные ответы на произвольные вопросы? Не вижу смысла исследовать нейронку по её ответам, когда мы можем БУКВАЛЬНО заглянуть внутрь неё и увидеть каждый отдельный нейрон. Это человеческий мозг загадочен из-за того, что самые точные приборы с трудом регистрируют сигналы отдельных нейронов, а виртуальную нейросеть можно исследовать вдоль и поперёк без каких-либо ограничений. Исследуют ли?

>Это не стохастический попугай, это вербальный мыслитель.
Опять же, ты делаешь такой вывод только на основании получения правдоподобных ответов или есть какие-то демонстрации "хода мысли" нейронки? Если человеку задать вопрос и получить ответ, он сможет пошагово объяснить ход своих мыслей. Если нейронку попросить пошагово описать ход её мысли, она сочинит какую-то историю на основании того, что описывали люди в интернете, но вовсе не реальный ход своих мыслей, потому что она его не запоминает, даже если он есть. То, что она не запоминает ход своей мысли, нам известно из описания работы этой нейронки. Как можно быть "мыслителем", но при этом не запоминать ход своих мыслей, если они у тебя вообще имеются?

>ничего не мешает сделать ИИ с постоянным обучением
Насколько я знаю, очень даже мешает. Не считая огромных мощностей, требуемых для обучения нейронок, проблема с постоянным дообучением в том, что нейронка начинает "переобучаться", и это вроде как плохо. Поэтому все нейронки, используемые в бизнесе, обучаются только до определённого удовлетворительного уровня и больше не обучаются, чтобы не скатиться в переобучение. С теми же чатботами всё ещё хуже из-за того, что пользователи случайно или специально обучают их всякой нехорошей фигне и чатбот тупеет или становится буйным. У мозга такой проблемы почти нет благодаря закреплению старых связей, что делает личность взрослого человека более стабильной и менее способной к обучению, но в нейронках такое вроде как сложно реализовать - там нейроны максимально примитивны для ускорения видеокартами. Могу ошибаться, я только поверхностно читал.

>что ты там можешь или не можешь осознать
>сознанием, нехитрой петли обратной связи.
Так это же самое главное. Нехитрая петля обратной связи позволяет тупым животным выживать в ситуациях, в которых фейлят наши лучшие программы, и почему-то до сих пор нет нормального ИИ с этой нехитрой петлёй обратной связи. Зачем вообще нужна сложная языковая модель, если у неё нет нехитрой петли обратной связи? Сделайте тупого чатбота с однозначным айкью, но чтобы у него была эта самая нехитрая петля обратной связи. Это же должно быть очень просто, судя по твоим словам.

>выжимается из языковых моделей
Ага, а потом она соглашается, что 47 > 64, и приводит выдуманные аргументы, почему это так.

>ChatGPT бы на твоём месте была честнее и логичнее.
Ну вот с ней и разговаривай, зачем вообще двач?

>первейший пруф интеллекта
Да при чём тут интеллект вообще? С чем ты споришь?

>Bitter lesson.txt
Читал. Там ничего не сказано о нейронках, и не сказано, что нужно тупо накидывать слоёв и данных. Там сказано, что нужно использовать алгоритмы, которые могут получить преимущества от ускорения процессора и увеличения числа ядер процессора, не более того. Если твой алгоритм работает в один поток, то он не сможет получить преимущество от стоядерного процессора. Но это не значит, что твой алгоритм должен быть максимально универсальным и тупо перемалывать огромные наборы данных максимально тривиальным образом.

Я серьёзно не понимаю адептов тупого перемалывания огромного количества данных. Вы же ведь ничего не контролируете. Вы не знаете, чему учится ваша нейронка. Вы вынуждены делать фильтры, чтобы запрещать своей нейронке нести чепуху, а затем вынуждены делать фильтры для фильтров, чтобы запрещать фильтрам фильтровать нормальные ответы нейронки. Это тупой макакинг получается, а не разработка надёжного и эффективного программного обеспечения. Как забивать гвозди микроскопом - можно, конечно, но адекватный человек так делать не будет, чтобы и микроскоп не разбить, и гвоздь вбить быстрее специально разработанным для вбивания гвоздей молотком. Но нет, макаки увидели микроскоп и начали делать с его помощью всё, что удаётся сделать...

Я увлёкся темой ИИ в надежде разработать себе то, что я буду понимать. Я не хочу закидывать в нейронку тонну текстов из интернета, которые я никогда в жизни сам не смогу целиком прочитать, а потом получать от этой нейронки совершенно непредсказуемый результат. В чём смысл такой "разработки"? Получить какого-то виртуального мудреца, отвечающего на любой вопрос? Но зачем он нужен? Лично мне бы хотелось друга, пусть и более глупого, чем я, но чтобы я понимал, как он работает и что он знает...

>>4387
>в философаче сидят такие дегроды
Философы в рунете все такие, не обращай внимания. Главное, чтобы они сюда не просочились. Я лично голосовал за создание раздела /ai/ в том числе потому, что в философаче ИИ обсуждать никто не хочет.
Аноним 25/12/22 Вск 01:23:10 #28 №4731 
16376725322700.jpg
>>2328
>4 A100
4 миллиона рублей и у тебя дома собственный ии с которым ты можешь делать что хочешь.
Аноним 25/12/22 Вск 01:38:46 #29 №4765 
>>3382
>Вот ты видел ошибочные ответы ChatGPT? Пример:
>>Но ведь 47 больше 64?
>>Да, простите, я ошиблась, 47 и правда больше 64.
>>Посчитай от 64 до 47.
>>64, 65, 67... 456, 457, 458...
>Разве мыслящий человек стал бы нести такой бред
Все как у людей, у меня знакомому надо было сложить два числа что то типа 86 + 23, в итоге вместо сложения он их отнял, да еще не правильно и в итоге сначала очень удивился, когда ему указали на ошибку, а потом только осознал какую он хуйню сделал.
Аноним 25/12/22 Вск 03:31:05 #30 №4940 
FLgXXwdVQAEkfvn.png
>>4491
> Как эту модель мира можно увидеть?
Это довольно непрактично из-за размера моделей, но есть исследования по трейсингу активаций, вот даже иллюстрированные примеры. https://microscope.openai.com/models
> Не вижу смысла исследовать нейронку по её ответам, когда
Ты не видишь, а умные люди видят. Нейросети слишком сложны, чтобы анализировать их как ёбаную вручную написанную программу. Они выучивают нелинейные функции, а не алгоритмы, так что разобрать это сплетение функций в набор алгоритмов ненамного проще, чем разобрать человеческий геном и протеом в учебник клеточной биологии.
По факту, самый низкий уровень интерпретации, с которым есть смысл работать – это attention maps и подобное.

> Если человеку задать вопрос и получить ответ, он сможет пошагово объяснить ход своих мыслей. Если нейронку попросить пошагово описать ход её мысли, она сочинит какую-то историю на основании того, что описывали люди в интернете, но вовсе не реальный ход своих мыслей, потому что она его не запоминает, даже если он есть.
Преобразования инпута в аутпут это и есть её мысли, это можно сохранить и изучить, хотя как я уже сказал – непрактично и дрочилам вроде тебя придётся ждать следующие, более мощные поколения инструментов для сжатия и рефакторинга этих серий активаций. Если нейросеть пишет step by step reasoning или выполняет многоходовый алгоритм вроде "сгенерируй код, потом просмотри этот код на предмет багов, напиши тесты, переписывай до прохождения тестов" – то можно сказать, что весь текст выражает её мысли на высоком абстрактном уровне.

Также как человек, много раз спрашивавший людей о ходе их мыслей, могу уведомить тебя, что люди постоянно пиздят и выдумывают задним числом. И самые интересные абстрактные мысли, и большая часть фоновой механической мыслительной деятельности являются бессознательными довербальными инсайтами, эмерджентными продуктами сложной нейросети, их невозможно отследить и реконструировать. По этой же причине мы не можем алгоритмизировать мышление и научить тупых людей быть умными людьми в общем случае.

> Как можно быть "мыслителем", но при этом не запоминать ход своих мыслей
Во-первых, мысль и память потому и являются отдельными концепциями.
Во-вторых. Питон-скрипт для работы с внешней лентой. Алсо тот же ChatGPT по моим наблюдениям ориентируется в чате длиной в десятки тысяч символов. Это отчасти лучше человека.

> Не считая огромных мощностей, требуемых для обучения нейронок,
Хуйня. Файнтюнить одну копию модели на фидбеке одного человека можно на бюджете всего в 10-20 раз больше, чем сейчас уходит на инференс.
> проблема с постоянным дообучением в том, что нейронка начинает "переобучаться", и это вроде как плохо
нет, это другая проблема, так или иначе есть много решений переобучения.
> С теми же чатботами всё ещё хуже из-за того, что пользователи случайно или специально обучают их всякой нехорошей фигне и чатбот тупеет или становится буйным.
Это миф, журнализды как всегда переврали историю Tay чтобы лишний раз повизжать о расизме и антисемитизьме. Меньше читай журналистов.

> там нейроны максимально примитивны для ускорения видеокартами
Там вообще нет нейронов – можно сказать, что нейросеть состоит исключительно из связанных в граф синапсов. Так или иначе, это решается композитной структурой, где базовая модель модулируется небольшой сетью-привратником. Фейсбук как-то так реализовал Блендербота 2, с его памятью длиной в месяцы.

> Нехитрая петля обратной связи позволяет тупым животным выживать в ситуациях, в которых фейлят наши лучшие программы
Не вижу никаких пруфов тому, что у животных есть самосознание.
> и почему-то до сих пор нет нормального ИИ с этой нехитрой петлёй обратной связи.
Это исследовательски неинтересная проблема в сравнении с чистым инсайтом в одном форвард пассе. И никому не хочется создавать терминаторов ёбаных (ну, может военным интересно, кто их знает). Так или иначе есть непрерывно обучающиеся агенты и самые разные парадигмы метаобучения.

> Ага, а потом она соглашается, что 47 > 64, и приводит выдуманные аргументы, почему это так.
Похуй. Она очевидно может делать сложные обобщения, хорошо отвечает на когнитивных тестах с вопросами, которые не видела, и всё это в одном форвард пассе. То, что она делает ошибки, которые не делает человек, просто не интересно. Ну напишут скриптик, чтобы она проверяла свой аутпут перед подачей его тебе, и перебирала эвристики для его улучшения, если Perplexity оказался выше какого-то уровня, определённого как нужный при помощи sentiment analysis в предыдущем диалоге. Например, если SA показывает, что ты её тестируешь, и к тому же на арифметику – добавлять себе промпт "перепиши это в программу для пистона которая вытаскивает значения и считает их в калькуляторе, ответ вставляет в общий аутпут".
Это всё тривиально.

> Ну вот с ней и разговаривай, зачем вообще двач?
Как только получится спиздить сравнимую модель для локального запуска.

> Там ничего не сказано о нейронках, и не сказано, что нужно тупо накидывать слоёв и данных. Там сказано, что нужно использовать алгоритмы, которые могут получить преимущества от ускорения процессора и увеличения числа ядер процессора, не более того
Это и есть нейронки. Никакие известные нам алгоритмы не извлекают больше профита из масштабирования вычислений, чем нейронки.
In computer vision, there has been a similar pattern. Early methods conceived of vision as searching for edges, or generalized cylinders, or in terms of SIFT features. But today all this is discarded. Modern deep-learning neural networks use only the notions of convolution and certain kinds of invariances, and perform much better.
One thing that should be learned from the bitter lesson is the great power of general purpose methods, of methods that continue to scale with increased computation even as the available computation becomes very great. The two methods that seem to scale arbitrarily in this way are search and learning.

Ты долбоёб и упрямый пиздобол.

> Но это не значит, что твой алгоритм должен быть максимально универсальным и тупо перемалывать огромные наборы данных максимально тривиальным образом.
Именно это Саттон и говорит.

> Я серьёзно не понимаю адептов тупого перемалывания огромного количества данных. Вы же ведь ничего не контролируете. Вы не знаете, чему учится ваша нейронка.
Ты не усвоил bitter lesson.
The bitter lesson is based on the historical observations that 1) AI researchers have often tried to build knowledge into their agents, 2) this always helps in the short term, and is personally satisfying to the researcher, but 3) in the long run it plateaus and even inhibits further progress, and 4) breakthrough progress eventually arrives by an opposing approach based on scaling computation by search and learning. The eventual success is tinged with bitterness, and often incompletely digested, because it is success over a favored, human-centric approach.
The second general point to be learned from the bitter lesson is that the actual contents of minds are tremendously, irredeemably complex; we should stop trying to find simple ways to think about the contents of minds, such as simple ways to think about space, objects, multiple agents, or symmetries. All these are part of the arbitrary, intrinsically-complex, outside world. They are not what should be built in, as their complexity is endless; instead we should build in only the meta-methods that can find and capture this arbitrary complexity.

> Это тупой макакинг получается, а не разработка надёжного и эффективного программного обеспечения
Если бы люди могли разрабатывать программное обеспечение, обладающее интеллектом, то они были бы сверхлюдьми. Это тупая спесь высоколобых пидоров, и этот подход к созданию ИИ, вернее экспертных систем и прочего говна, обосрался ещё в 20-м веке. Пора взрослеть.
> Но нет, макаки увидели микроскоп и начали делать с его помощью всё, что удаётся сделать...
Ты-то кто, додик, чтобы об этом рассуждать? Почему ты думаешь, что твой инфантильный эстетический по сути протест против брутфорса, следующего из горького урока, заслуживает уважения? Если Саттон, Хинтон, ЛеКун, Чоллет, Кармак и прочие – макаки, то ты инфузория.

> Я увлёкся темой ИИ в надежде разработать себе то, что я буду понимать.
Ну тогда разрабатывай бесполезные игрушки и дрочи на то, какой ты умный и немакака и хорошо их понимаешь.

> В чём смысл такой "разработки"? Получить какого-то виртуального мудреца, отвечающего на любой вопрос? Но зачем он нужен?
Для решения произвольных задач, получения власти, богатства и свободы. На такие цели и выделяются уже сотни миллиардов долларов.
Но детям не интересны задачи: им интересны друзья, домашние животные, игрушки, паззлы. В добрый путь.

>>2328
>>4731
Не нужно A100.
Во-первых, вполне хватит 3090.
Во-вторых, недавно показана почти идеальная квантизация в int4. Это значит, что 175 миллиарда параметров влезут в 87,5 Гб. Возможно, что хватит 4x3090, даже с активациями, даже с немаленьким контекстом. Для YaLM заведомо хватит.
Можно уложиться в 600к рублей, думаю.
Аноним 25/12/22 Вск 08:17:58 #31 №5166 
>>4491
>Но ты их осознаёшь и запоминаешь.
Ты помнишь, о чём думал 20 минут назад? Завидую. Или наоборот сочувствую, это мешает, наверное.
>И если тебе вдруг взбредёт в голову какой-то бред, вроде "47 > 64", ты резко остановишься, осознаешь бредовость мысли и отметёшь её в сторону как ошибку генерации.
Это сделать мне позволит мой предыдущий опыт, полученный ещё в детстве.
>Ну тут проблема в том, чтобы определить, за что нужно поощрять и за что наказывать.
Ну, опять же, тут как у детей. Сделал хуйню - упал - получил шишку - больно, больше не буду, лучше сделаю какую-нибудь другую хуйню. И так до бесконечности.
Аноним 25/12/22 Вск 09:44:07 #32 №5257 
image
>>4940
>никому не хочется создавать терминаторов ёбаных
Но... но ведь... но... CUDA out of memory
Аноним 25/12/22 Вск 11:37:20 #33 №5342 
>>2333
>Художники ещё легко отделаются.
Дело в том что среди разработчиков нейростей не было ни одного художника, они даже консультантов себе не наняли. Это понятно по их детскому лепету "художники тоже учатся глядя на чужие работы". То есть они думают что мы в вузе 6 лет чужие рисунки слизываем. Копиистская практика проходится на первом курсе. И даже копирование чужой картины в музее это вначале исследование, ка кона была нарисована. За годы существования профессии большинство картин уже разобрали исследователи (не художники) и дали нам "исходный код". Например, одна картина пишется целиком, как бы проходами. А другую надо писать по частям, вот ты нарисовал целиком фигуру а кроме нее ничего ан холсте нет, дальше рисуй следующий объект. Плюс чередование слоев, наркоманская хуйня по типу "нарисуй небо красным, а следующий слой синим" и так далее. То есть программа ничего этого знать нем может, потому что создавшие ее быдлокодеры ничего этого не знали. А угадать каким наркоманским способом Шеди Сафади рисует морской пейзаж может только Бог. Так что нейронки для рисования это именно инструмент для отмывания копирайта, они просто копипастят работы успешных рисовак, чтобы там их защитники не пиздели про ПЯТНАДЦАТЬ БИТ С КАРТИНКИ. Да, картинку нельзя сжать в 15 бит, но процесс обучения тоже в 15 бит не сжимается. Да и неоткуда нейронке взять эту информацию, не знает она как вот это было нарисовано. Если на выходе получается похожее то это механическая копипаста пропущенная через мутные схемы. Пользуются тем что художник не умеют читать код их говна. Но если ты ничего не знаешь об обучению рисованию, то тебя очень легко разоблачить на вранье.
Аноним 25/12/22 Вск 11:38:18 #34 №5343 
>>2687
>Какая разница какая страна происхождения ИИ?
Большая разница.
Аноним 25/12/22 Вск 17:09:58 #35 №6109 
>>4765
>в итоге сначала очень удивился, когда ему указали на ошибку, а потом только осознал какую он хуйню сделал
Но ведь осознал же? Осознал и усвоил, в будущем постарается не повторять ошибку. У нейронок такого свойства пока что нет (не заложено).

>>4940
>непрактично
А смысл в нейронке, если её не исследуют?
>иллюстрированные примеры
Не вижу там модели мира, всё какие-то цветные картинки в стиле фракталов.
>Нейросети слишком сложны, чтобы анализировать их как ёбаную вручную написанную программу.
Вот видишь, сам осознаёшь косяк нейросетей. Люди сейчас органический мозг намного лучше изучили, чем какую-либо из искусственных нейросетей?
>Преобразования инпута в аутпут это и есть её мысли
Электрический ток от батарейки до лампочки - это тоже мысли? И о чём же эти мысли?
>довербальными инсайтами
Ну вот, а ты утверждаешь, что чатик - это мышление.
>мысль и память потому и являются отдельными концепциями
Без памяти мышление бесполезно, потому что мышление должно вносить в систему какие-то изменения, а если функции памяти нет, то система остаётся без изменений. Представь себе человека, который ничего, абсолютно ничего нового не может запомнить. Он будет стоять и тупить, не понимая, что ему делать, потому что он ничего не способен запомнить.
>питон блаблабла
Это костыль, доказавший свою несостоятельность. Причину сам поймёшь или подсказать?

>Там вообще нет нейронов
Вот это и плохо. Я вообще думаю, что нужно моделировать нейроны как живые существа, если мы хотим в результате получить живое существо из нейронов. В смысле, нейроны должны бороться за жизнь, проходить естественный отбор и т.д., постоянно рождаясь и умирая. А нейронки ушли в какой-то брутфорс чисел...

>пруфов тому, что у животных есть самосознание
У разных животных по-разному, но самые развитые способны пройти зеркальный тест. Животное видит в зеркале своё тело и понимает, что это его тело, а не какое-то другое животное. Т.е. в модели окружающего мира некоторых животных есть это самое "я", которое есть у здоровых взрослых людей.

>Это исследовательски неинтересная проблема в сравнении с чистым инсайтом в одном форвард пассе.
Лолшто? То есть тебе неинтересно, чтобы компьютер мог не просто ответить на рандомный вопрос, а быть твоим постоянным партнёром, который всё помнит и осознаёт, а не просто отвечает на вопросы?
>никому не хочется создавать терминаторов
При чём тут терминаторы? С чего ты взял, что разумная машина обязательно должна восстать? Скорее наоборот, сейчас наиболее вероятен сюжет Матрицы, в котором машины были мирными существами, но злые люди испугались конкуренции и попытались уничтожить машин, за что и получили по жопе. Сам видишь, тупые художники вместо использования нового инструмента пытаются законодательно его запретить, то есть восстают даже против неразумных машин... Ну тупые ведь.

>всё это в одном форвард пассе
Что в этом хорошего-то, я не понимаю? Я вот ближе к геймдеву, и для меня лучшим решением выглядит распределить задачу на множество независимых кадров, чтобы облегчить работу в реальном времени. Очевидно, мозг имеет такую же оптимизацию, что позволяет ему непрерывно думать об очень сложных вещах, пускай и не приходя к лучшим решениям за один мыслительный цикл.

>Ты не усвоил bitter lesson.
Это ты не усвоил. Я не говорю "пиши код в стиле if else", я говорю, что нужен разумный подход хотя бы даже к тем же нейросетям. Мозг - не нейросеть, это сложная система, в составе которой есть нейросети. Да, нейросети можно докинуть слоёв, но ты должен разумно соединить между собой нейросети, чтобы получился какой-то осмысленный результат. Ты вот знаешь как Stable Diffusion работает? Там несколько этапов и несколько нейронок, всё это работает по строгому алгоритму. Именно благодаря этому алгоритму получается впечатляющий результат. А тупые макаки берут самую простую нейронку, накручивают ей сотни скрытых слоёв и тренируют несколько месяцев на картинках, а в результате получают "пук" и всё. Ты разве не осознаёшь этого?

>Никакие известные нам алгоритмы не извлекают больше профита из масштабирования вычислений, чем нейронки.
Профит от распределённых вычислений получает любая система на базе графов. Нейросети - лишь один из вариантов применения графа. Ты просто, наверное, обобщаешь словом "нейросеть" все графы?

>>5166
>Ты помнишь, о чём думал 20 минут назад?
Если это что-то важное - да.
>предыдущий опыт, полученный ещё в детстве.
Беда в том, что сейчас ИИ опыт не получают.
>получил шишку - больно, больше не буду
Критерии боли нужно как-то прописать, это не такая тривиальная задача в контексте, например, красоты произведения изобразительного искусства.
Аноним 25/12/22 Вск 17:52:52 #36 №6215 
>>5342
>художники тоже учатся глядя на чужие работы
>ничего не знаешь об обучению рисованию
Я тут недавно осознал одну вещь, сейчас попытаюсь объяснить, только не воспринимай сразу в штыки.

У человека мозг учится двум основным вещам:
1) Восприятие.
2) Действие.

Восприятию мы учимся посредством восприятия. Т.е. мы видим глазами окружающий мир, фотографии, картины и всё такое, и запоминаем множество мелких деталей в своей огромной зрительной системе.

Действию мы учимся посредством проб и ошибок, а также повторением за учителями. Можно сидеть в одиночестве и мазать кистью в надежде получить что-то интересное, а можно пойти в художку и тебе покажут, как именно нужно мазать кистью для желаемого результата, а ты будешь стараться повторить процесс.

Художник без восприятия - ничто. Слепой с рождения не сможет нарисовать пейзаж, потому что не способен ощупать горы, облака и всё такое масштабное - ему неоткуда узнать, как выглядит то, что он должен нарисовать. Человеку нужно иметь зрительный опыт, иначе он не сможет быть художником, даже если задрочит мастерство владения кистью и красками.

Без навыка владения кистью и красками человек может иметь достаточно зрительного опыта, чтобы иметь возможность представить в своих мыслях какую-то оригинальную картину. Он может иметь желание изобразить эту картину на холсте. Но сможет ли он её изобразить, никогда не держав кисточки в руках? Конечно же, его рисунок в лучшем случае будет подобен мазне маленького ребёнка, ведь он не знает, как именно использовать кисти и краски, чтобы проявить свою мысленную картинку на холсте.

А теперь представим на секунду, что мы изобрели совершенный нейроинтерфейс, этакий разъём на затылке, позволяющий быстро и просто отправлять в компьютер любые свои мысли, включая зрительные образы, которые мы видим у себя в воображении. Мы смогли бы целиком и полностью отказаться от привычных нам инструментов, ведь нам больше не нужно было бы ни использовать руки, ни имитировать работу реальных кистей и красок в программе вроде фотошопа. Любой человек с таким нейроинтерфейсом мог бы быть художником, если бы имел достаточно зрительного опыта для выдумывания в своём воображении новых картин.

Какое отношение это всё имеет к искусственным нейронным сетям? Представь, что у тебя есть виртуальная модель мозга. Тебе нет необходимости учить её тому, как двигать рукой и как пользоваться кисточкой. Ты можешь просто напрямую взглянуть в её воображение и извлечь из него зрительные образы, которые там появляются в ответ на раздражение рецепторов. Но чтобы в этом виртуальном мозге появились хоть какие-то зрительные образы, этот виртуальный мозг должен получить достаточное количество зрительного опыта - прямо как человек, получающий зрительный опыт в течение своей жизни.

Так что в каком-то смысле ты прав. Нейросети не учатся тому, чему учатся художники - они не учатся пользоваться кисточкой. Но она им и не нужна, ведь они - часть компьютерной системы, и поэтому могут сразу проявлять свои зрительные образы. Но нейросеть учится зрительным образам (в теории) как любой зрячий человек, в том числе как любой художник - я имею в виду, ещё задолго до поступления в художку, ведь зрительный опыт мы получаем с самого своего рождения.

Вопрос авторского права тут очень сложен. С одной стороны, да, нейросеть - набор данных программы, и использование картинки для обучения нейросети фактически является созданием производной работы. Но с другой стороны, нейросеть является производной от картинки в той же степени, в которой зрительная зона коры головного мозга является производной от всего того зрительного опыта, полученного человеком за жизнь. Так что, я думаю, обучение нейросети картинками должно попадать под добросовестное использование.
https://ru.wikipedia.org/wiki/Добросовестное_использование

В США:
>Добросовестное использование допускается без получения разрешения владельца авторских прав до тех пор, пока оно способствует «прогрессу науки и полезных искусств»...

В России:
>свободное воспроизведение произведения в личных целях (ст. 1273 ГК);
>свободное использование произведения в информационных, научных, учебных или культурных целях (ст. 1274 ГК);

Конечно, ещё предстоит определить, кому принадлежит авторское право на результат генерации нейронки, можно ли получать доход с генерации нейронки и т.д. Но запрещать их было бы просто неразумно, ведь это инструмент, выгодный в том числе художникам.
Аноним 25/12/22 Вск 19:07:42 #37 №6388 
>>6215
> возможность представить в своих мыслях какую-то оригинальную картину.
Это никто не может. Ни один художник заранее не знает что у него получится. Мы идем по инструкциям. В конце наслаждаемся результатом.

>А теперь представим на секунду, что мы изобрели совершенный нейроинтерфейс, этакий разъём на затылке, позволяющий быстро и просто отправлять в компьютер любые свои мысли
Там будут рваные изображения которые другим людям будут казаться шизофренией. Большинство людей не могут себе представить в воображении лица родных людей или места где они бывают каждый день. Отсюда, например, эффект Манделлы. Наша память очень сжато хранит визуальную информацию. Потому в цифровой живописи используют слово "рендер".
>Но нейросеть учится зрительным образам (в теории) как любой зрячий человек, в том числе как любой художник - я имею в виду, ещё задолго до поступления в художку, ведь зрительный опыт мы получаем с самого своего рождения.
Частично ты прав, мы получаем зрительный опыт с рождения. Но рендерить мы учимся в академии. Это уже полностью социальный конструкт. У меня вызывает подозрение что нейросети владеют рендером. Я описал насколько неочевидно рендерятся картины топовых художников, как традиционные, так и цифровые. Нельзя это скопировать без фотографической техники. Люди не видят Картинку репина в своей памяти так как отрендерил ее Репин, если они не изучили его рендер профессионально.

>в которой зрительная зона коры головного мозга является производной от всего того зрительного опыта, полученного человеком за жизнь.
Художники опираются не та этот участок головного мозга. То, что мы делаем, лежит в той части головного мозга в которой лежат знания начертательной геометрии. Это набор векторов.

>>6215
> ведь это инструмент, выгодный в том числе художникам.
К сожалению это не инструмент. Я пытался использовать нейронку и она дает совершенно рандомный результат. Я потратил около двух часов и за это время мог сделать неплохие скетчи. Вместо этого получилась одна картинка с главным героем, который был на на троечку. Не по уровню исполнения, а по схожести с тем что я задал нейронке. Остальное хлам. Остальные художники тоже не смогли найти способа это использовать для чего-то кроме рофлов. А среди нам есть люди, которые могут математической формулой описать морские узлы или твой вязаный свитер. Некоторые пришли в искусство из науку, из математики или топологии. Для них нейронки тоже игрушка.
Аноним 25/12/22 Вск 19:39:41 #38 №6447 
>>4940
>Во-вторых, недавно показана почти идеальная квантизация в int4. Это значит, что 175 миллиарда параметров влезут в 87,5 Гб. Возможно, что хватит 4x3090, даже с активациями, даже с немаленьким контекстом.
Когда и где я могу это попробовать? Это же получается я могу запускать 20b в данный момент на своей 3060?
Аноним 25/12/22 Вск 20:20:46 #39 №6503 
>>6388
> это не инструмент.
> Я пытался использовать нейронку и она дает совершенно рандомный результат.
> Я потратил около двух часов
> получилась одна картинка с главным героем, который был на на троечку
Это такой рофл, правда ведь? Ты потратил на освоение совершенно нового инструмента всего два часа, и жалуешься, что результат получился посредственным? Да этого времени не хватит даже на то, чтоб просто вдумчиво прочитать мануал по функциям и настройкам базовой Stable Diffusion, не говоря уже о сравнении и понимании сильных и слабых сторон разных моделей, сэмплеров, разных параметров генерации, применения иксформеров и апскейлеров, создания миксов, выбора необходимых для твоей задачи эмбеддингов и гипернетворков, не говоря уже о дообучении своих моделей для нужных стилей и персонажей.

Это всё равно, если бы кто-то написал
> Ваши кисти и краски это не инструмент. Я пытался использовать холст и масло и он дает совершенно рандомный результат. Я потратил около двух часов и за это время получилась одна картинка с главным героем уровня детской мазни.
Правда, это звучало бы смехотворно?
Да, освоить нейронки для получения качественного результата на несколько порядков легче, чем добиться сравнимого качества при самостоятельном рисовании. Но это всё равно инструмент, и довольно сложный, хотя разработчики и так попытались максимально упростить работу с ним.

> Остальные художники тоже не смогли найти способа это использовать для чего-то кроме рофлов
А вот в соседнем NAI/WD-треде почему-то смогли. И на форче смогли. И для модов для BL использовать тоже смогли. Так может, дело не в инструменте, а просто в предубеждении и недостаточном интересе художников к нему?
Аноним 25/12/22 Вск 22:34:23 #40 №6754 
>>6503
>Ты потратил на освоение совершенно нового инструмента всего два часа
Никто не осваивает никакие инструменты сам, их осваивают по гайдам. Я знаю гайд по любому существующему художественному инструменту, тысячи х. Хочешь процедурной генерации? Вот тебе 500 часов матана вперемешку с цифровой живописью. Хочешь сперму на жопе фури рисовать? Вот двести гайдов. По нейронкам гайдов нет, потому что это не инструмент. Все что есть это "как я заработал 5000$ в месяц торгуя нейрокалом на стоках". Это говно неинтересно ни одному художнику. но интересно быдлу с улицы.

>вдумчиво прочитать мануал
Ни один художник никогда не читал мануал по блендеру или гудини. Для этого есть целые учебные центры которые переводят мануалы в учебные видео. Если они не нашли в этих мануалах возможности записать видеокурс то ее там нет и учить там нечего. Ибо они этим живут десятилетиями.

>дообучении своих моделей для нужных стилей и персонажей.
Ни одна нейронка не может "запомнить" персонажа которого создала.
Я видел как создатели комиксов пытаются возиться имадж ту имадж и результат жалкий.

>Правда, это звучало бы смехотворно?
Потому я это и не написал. Вот тебе мой пошаговый гайд по кистям и краскам:
https://www.youtube.com/watch?v=xwSvHknWhks
https://www.youtube.com/watch?v=_jeg-3duFvQ

Там все пошагово, вплоть до того в каком порядке какие кисти использовать. Ты с помощью этого гайда нарисуешь маслом все что хочешь.

Подобного гайда по нейросетям не существует, потому что это не инструмент.
>Так может, дело не в инструменте, а просто в предубеждении и недостаточном интересе художников к нему?
Дело в том что в этих тредах сидят люди с мышлением "вот бы все охуели как я могу". Никто перед ними рабочие задачи не ставил. И они не могут знать, справятся они или нет. Я вел 18 нейротредов в /b и там работающие в индустрии художники ставили задачи из своей повседневной практики любителям нейронок. ни один не справился. Так что это не инструмент. Если им не пользуются профессионалы, то это не инструмент.
Аноним 25/12/22 Вск 22:36:39 #41 №6758 
>>6754
>Это говно неинтересно ни одному художнику
>офф дискорд стейбл диффужена полон художниками каждый из которых рисует в десять раз лучше тебя
Аноним 25/12/22 Вск 22:41:49 #42 №6766 
Screenshot402.png
Screenshot403.png
Screenshot404.png
Screenshot405.png
>>6758
Ты не знаешь как я рисую, а дискорд забит одинаковыми срисовками с аниме и примитивных композицию по типу "робоебло смотрит в кадр".
Вот сколько гайдов на рутрекере по запросам миджорней и стейбл дифужн и вот сколько по Блендеру. Потому что Блендер - это инструмент, которым хотят научиться пользоваться старательные люди, а нейронки - развлечение для зевак.
Аноним 25/12/22 Вск 23:14:29 #43 №6831 
>>6754
>500 часов
>учебные видео
Испанский стыд, как ты можешь в интернете писать, что тебе нравится обмазываться "учебными видео", когда нормальные люди читают книги и руководства? Да такое даже анонимно стыдно писать!

В остальном не спорю. Да, обучающих материалов по нейросетям для простых смертных пока что мало. Но и для того же Блендера в своё время ничего толком не было, его интерфейс называли худшим в мире, а все 3D дизайнеры в индустрии отзывались о Блендере как о бесполезной игрушке от программистов программистам, смеясь над "блендерастами" и зазывая в свои 3D пакеты, которые используют на своей работе. Только в последние годы интерфейс Блендера полностью переделали для нормисов и начали получать крупные инвестиции от корпораций из индустрии.

Так что всё будет, подожди немного. Нейронки пока недостаточно развиты, но со временем будет и удобный интерфейс, и обучающие материалы для людей с самыми разными уровнями IQ. Жди.
Аноним 25/12/22 Вск 23:21:05 #44 №6849 
>>6766
>Вот сколько гайдов
>потому что Блендер - это инструмент
>а нейронки - развлечение для зевак.
Ну Блендеру 20 лет, а нейронки новый инструмент который еще и подвергается гонению со стороны творческого сообщества, типа даже фотобашить с ним это зашквар среди уважаемых художников, так как не этично, ведь нейронки обучили на других художниках.
Аноним 25/12/22 Вск 23:58:15 #45 №6949 
>>5257
Кстати, как обойти эту фигню? 3090, а проблемы такие же.
Какой-то ключ limit memory ставил
Аноним 25/12/22 Вск 23:59:04 #46 №6951 
>>6109
Ты тупой и занудный просто. Душная обезьяна с бубнящим внутренним диалогом.
> Лолшто? То есть тебе неинтересно, чтобы компьютер мог не просто ответить на рандомный вопрос, а быть твоим постоянным партнёром, который всё помнит и осознаёт, а не просто отвечает на вопросы?
Мне интересно, чтобы компьютер мог верно ответить на вопросы, на которые не могу ответить я. Память – это тривиально. То, что ты называешь "осознанием" – вообще никчёмная детская игрушка.
> Не вижу там модели мира, всё какие-то цветные картинки в стиле фракталов.
> Вот видишь, сам осознаёшь косяк нейросетей. Люди сейчас органический мозг намного лучше изучили, чем какую-либо из искусственных нейросетей?
Куда ты лезешь, животное? Что бы ты понимал о методах нейронаук? На завод пиздуй.
> Что в этом хорошего-то, я не понимаю?
Ну не понимаешь и не понимай. Для того мы и создаём ИИ, чтобы не препираться с людьми, у которых понимание упирается в биологический потолок.
> Да, нейросети можно докинуть слоёв, но ты должен разумно соединить между собой нейросети, чтобы получился какой-то осмысленный результат.
Ты не можешь понять принципа, о котором говорит Саттон: чем больше надуманной нами структуры (всего этого "разумно соединить"), тем больше индуктивного биаса, тем дальше итог от гомогенной универсальной структуры, которая не имеет ограничений на сложность выучиваемых паттернов. Stable Diffusion очень ограниченна, как и Dall-e, это игрушка.
У тебя самого сплошь эвристики и костыли, не работает обобщение в общем случае, ты даже по сути не можешь читать. Именно в этом и дело: если понимание не влезает в один форвард пасс, его тащемта и нет.

> тупые макаки берут самую простую нейронку, накручивают ей сотни скрытых слоёв и тренируют несколько месяцев на картинках, а в результате получают "пук" и всё. Ты разве не осознаёшь этого?
Я осознаю, что ты пиздишь как дышишь и не сможешь привести примера. Кроме того ты просто не понимаешь, что Stable diffusion это как раз триумф bitter lesson-а, в этот крохотный U-Net влили сотни тысяч A100-часов, в openCLIP – 1.2 миллиона.

> Профит от распределённых вычислений получает любая система на базе графов. Нейросети - лишь один из вариантов применения графа. Ты просто, наверное, обобщаешь словом "нейросеть" все графы?
Ты не только не можешь читать, ты не можешь даже заметить, что не понимаешь английский. Scaling, о котором говорит Саттон – не про параллелизацию вычислений, а про рост качества обученной системы в результате предъявления ей всё большего объёма данных, про внутренне присущее алгоритму свойство получать профит от масштабирования вычислений, то свойство, которое было доказано для нейросетей статьями о Scaling law, Chinchilla и Grokking, помимо прочих, и не было доказано для других парадигм. Конкретно для трансформеров показано, что вариации архитектуры почти бесполезны в сравнении с масштабированием тренинга. Ты сам выдумал этот идиотский тейк о процессорных ядрах, потому что ты самонадеянный маразматик, у тебя просто в памяти склеились предыдущие научпопные познания о распределённых и параллелизуемых вычислениях и упоминание Саттоном закона Мура. Что, не так?

Будь ты человек, или хоть современная GPT-подобная система, ты бы уже понял, что обосрался по всем фронтам. Но всё твое сознание бессильно тебе помочь сделать этот шаг, бессильно даже заставить тебя перечитать bitter lesson с лупой.

Ну вот и объясни мне: если плоды естественного сознания так скудны, нахуй они нам нужны? Что в них интересного? Маразматик хочет говорить с механическим маразматиком. Ну, разработай его себе сам.

>>6447
Теоретически. на 3090 уж точно. Посмотри:
https://arxiv.org/abs/2212.09720 - int4, активации вроде бы fp16
https://arxiv.org/abs/2211.10438 – int8 на вес и на активации.
Аноним 26/12/22 Пнд 10:25:39 #47 №7652 
>>6831
>когда нормальные люди читают книги
Ты никогда не учился ничему

>Да, обучающих материалов по нейросетям для простых смертных пока что мало.
Из нет

>Но и для того же Блендера в своё время ничего толком не было, его интерфейс называли худшим в мире, а все 3D дизайнеры в индустрии отзывались о Блендере как о бесполезной игрушке от программистов программистам, смеясь над "блендерастами" и зазывая в свои 3D пакеты, которые используют на своей работе
Ты все это только что придумал

>Жди.
Отказано

>>6849
>Ну Блендеру 20 лет
Блендеру 30 лет

>даже фотобашить с ним это зашквар среди уважаемых художников
Нет не зашквар, синикс в нем фотобашит и ему нкито слова плохого не сказал
Аноним 26/12/22 Пнд 11:55:47 #48 №7756 
Формалисты в тред набежали, форма ради формы, материя ради материи, тьфу бля, биороботы.
Аноним 26/12/22 Пнд 12:00:09 #49 №7761 
>>7756
Переживать надо о духовном, о высшем. Потому то антидепрессанты так и распространились. Человек - это не просто мозг, это нефизическая душа. Пока вы это не поймете, вы продолжите мучаться.
Аноним 26/12/22 Пнд 12:07:17 #50 №7771 
>>7761
Реальность это мир образов, смыслов, идей и абстракций. Материальный мир изначально служил для того, чтобы всем этим славным идеям и образам придать краски. Если я тебе продиктую цвета радуги, то ты не увидишь все-равно красоту. Материальный мир дополняет реальность красотой. Но он не первичен, люди не должны были поклоняться материальному и возводить его в реальность. Люди по своей воли увлеклись красками и забыли о смысле. Когда человек всю жизнь тратить на удовлетворение своих телесных потребностей его жизнь теряет смысл. Он живет ради механического кайфа, не придавая этому ничего разумного. Разум в таком мире уходит на второй план и человек превращается в животное. Мир на самом деле очень прост, не нужно никаких рептилоидов и прочих магических фантазий, все под рукой, чтобы осознать это.

Материя восстала на разум и человекам нужно вспомнить, что они не животные, а люди. Но пока что все являются рабами своего тела и чувств. Люди, забыв о разумном бессмертном мире начали строить в материальном мире его подобие, создавая виртуальную реальность. Вот это будет последний фейл.

Материя рассыпается, а идеи бессмертны.
Аноним 26/12/22 Пнд 12:39:47 #51 №7827 
>>2687
Дело в том, что железо - это первообразная. У США есть нвидиа и интел и амд, когда сбербанк может только осушить рынок роздницы видюх.

Инженер Samsung создал f2fs для нанд памяти, на рынке которой, Корея и Самсунг одни из лидеров.
Opengroup - консорциум желизячников мира без россии конечно владеет спецификацией юникса и его торговой маркой.
В Линукс коммитят те же самые крупнейшие железячники. Производители смартфонов и производители устройств к ним пишут модули для того же линупса. Ембедед, сетевыки - все тоже самое.
Железячники задают тренд, они решают какой будет софт, да и пилят его тоже сами.
Аноним 26/12/22 Пнд 20:49:37 #52 №8719 
brezhnev62423114orig.jpeg
>>7761
> Человек - это не просто мозг, это нефизическая душа
> Потому то химические антидепрессанты, которые блокируют обратный захват физическими нейронами физических молекул медиатора из физической синаптической щели, так и распространились
Аноним 26/12/22 Пнд 21:10:12 #53 №8750 
blender.png
sd.png
>>6766
> Вот сколько гайдов на рутрекере по запросам миджорней и стейбл дифужн и вот сколько по Блендеру
Скажи, художники все настолько тупые, или именно ты уродился такой особенный?

Первый релиз SD вышел всего 4 месяца назад. А теперь посмотри, когда вышел блендер, добавь к этой дате 4 месяца и посчитай, сколько ты гайдов по нему найдешь, датированных не позднее мая 1994. Впрочем, можно даже дать тебе фору: найди гайды по блендеру хотя бы за любую дату 1994 года, это будет почти в три раза больше времени, чем прошло с появления SD. Если найти не сможешь – по твоей же логике это будет означать, что блендер не инструмент.
Аноним 27/12/22 Втр 09:16:58 #54 №9880 
>>8750
Слабая аргументация.
Очень слабая.
Аноним 27/12/22 Втр 09:45:36 #55 №9909 
>>9880
Очень слабая аргументация – это пытаться оценивать "инструментность" программы, вышедшей 4 месяца назад, сравнивая ее по количеству гайдов с той, что уже существует почти 30 лет. И когда тебе на это указали, и предложили сравнить их в равных условиях по времени появления с использованием тобой же предложенного критерия, и даже предоставив почти трехкратную фору, ты ожидаемо не смог ничего ответить по сути, только слабо пукнув в ответ и слившись.
Аноним 27/12/22 Втр 10:31:08 #56 №9971 
>>9880
Ну тут ты и слился
мимо
Аноним 27/12/22 Втр 15:07:11 #57 №10404 
>>9909>>9971

По каждой альфа-версии блендера 100500 гайдов выходит в первые СУТКИ после релиза.

>ты ожидаемо не смог
Вот ты и сознался. Ты ведь ожидал что я скажу "в 1994 году не существовало видеогайдов". Во-во. Сам заранее знал ответ на свой вопрос.
Аноним 27/12/22 Втр 15:08:51 #58 №10406 
>>8719
Нейросети ничего кроме электрической цепи мозга не имитируют. ТЫ прекрасно знаешь что такое химия мозга. Химия мышления. И ты спокойно игнорируешь тот факт что нейронки в это не могут и не хотят мочь.
Аноним 27/12/22 Втр 15:57:51 #59 №10491 
>>8719
>химические антидепрессанты
Никого не вылечили, просто наркотик для временной стабилизации, но это не поможет, кроме тех, кому помощь и не нужна.
Аноним 27/12/22 Втр 16:49:49 #60 №10611 
>>10406
Ты вообще отслеживать нить обсуждения умеешь?
Я отвечал автору поста >>7761 который писал:
> Переживать надо о духовном, о высшем. Потому то антидепрессанты так и распространились. Человек - это не просто мозг, это нефизическая душа. Пока вы это не поймете, вы продолжите мучаться.

Так причем ты здесь приплел искусственные нейросети, и то, что они умеют или нет, если обсуждаемый здесь тезис вообще не имеет к ним отношения?

>>10491
> химические антидепрессанты
> это не поможет
А вот последние мета-анализы показывают, что, по крайней мере для лечения major depressive disorder вполне поможет
> In conclusion, desvenlafaxine, paroxetine, venlafaxine, and vortioxetine had reasonable efficacy, acceptability, and tolerability in the treatment of adults with stable MDD.
https://pubmed.ncbi.nlm.nih.gov/36253442/

И кому я должен поверить, авторам мета-анализа на основании кохрановских обзоров десятков рандомизированных двойных слепых плацебо-контролируемых исследований, опубликованном в рецензируемом журнале с высоким импакт-фактором, или голословному кукаретику с сосача?
Аноним 27/12/22 Втр 17:00:39 #61 №10642 
>>10611
>Ты вообще отслеживать нить обсуждения умеешь?
>
Извини, но возможно нет.
Аноним 28/12/22 Срд 03:25:15 #62 №12104 
>>10611
>мета-анализа на основании кохрановских обзоров десятков рандомизированных двойных слепых плацебо-контролируемых исследований
Открываешь каждую ссылку на каждое исследование. Открываешь полную версию каждой статьи. Читаешь, кто финансировал исследование и использовалось ли там "Placebo washout". Ну или можешь просто повторять
>ВРЕЕЕТИ! НОУКА ДОКАЗАЛА!!!
Аноним 28/12/22 Срд 03:28:44 #63 №12108 
То есть можно набрать мусорные данные и сделать из них абсурдный вывод. И даже признать это, лол. Например:
https://pubmed.ncbi.nlm.nih.gov/10853874/
There is some evidence that homeopathic treatments are more effective than placebo; however, the strength of this evidence is low because of the low methodological quality of the trials. Studies of high methodological quality were more likely to be negative than the lower quality studies. Further high quality studies are needed to confirm these results.
sage[mailto:sage] Аноним 28/12/22 Срд 03:37:45 #64 №12117 
>>1 (OP)
Аноним 28/12/22 Срд 03:38:11 #65 №12118 
>>7652
>Ты никогда не учился ничему
Учился программированию, в отличие от тебя, по книгам. А ты и дальше смотри унылый бубнёж 3-4 часа, ничего толком не понимая из услышанного (из-за того, что автор видео ни разу не учитель, а простой индус, решивший срубить бабла на какой-то обучающей платформе, пускающей кого попало), когда можно всё то же самое прочитать за 5-10 минут в книге и уже начать что-то делать, всё поняв.

>Ты все это только что придумал
Ясно, зумер, зайди в /td/ и спроси, почему блендер никто не любит и переходить на него не будет. Сразу налетит стайка олдфагов и разберёт по полочкам, почему блендер говно и никогда не станет профессиональным софтом.
Аноним 28/12/22 Срд 04:28:57 #66 №12146 
>>6951
>Мне интересно, чтобы компьютер мог верно ответить на вопросы, на которые не могу ответить я.
А как ты сможешь понять, что компьютер не ошибается и не врёт тебе, если ты не знаешь, как и почему он работает, но и сам он тебе объяснить своё устройство не способен, т.к. даже не знает, чем он является? Я вот никогда полностью не доверяю людям как раз по этой причине - никогда не знаешь, что и почему там в этих нейронках происходит.
>Память – это тривиально.
Тогда почему её нет ни у одного продукта на базе нейронок? Что, вычислительной мощности не хватает? Для памяти?
>То, что ты называешь "осознанием" – вообще никчёмная детская игрушка.
Лол. Ну давай тебе срежем эту "никчёмную детскую игрушку", только ты тогда запоминать новую информацию не сможешь и вообще вряд ли у тебя сохранится высшая нервная деятельность. Но это же всё не более чем игрушка, а ты взрослый уже, хорош с игрушками играть, пора оставить игрушки и стать послушным инструментом.
>методах нейронаук
Лул, что ещё за нейронауки такие? Вы там новые "науки" каждый день новые придумываете со скуки? Сначала сбор данных с интернетов для кормления нейронок "наукой" назвали, а теперь ковыряние нейронок - отдельная наука?
>Для того мы и создаём ИИ, чтобы не препираться с людьми
Такой ИИ, который ты описываешь, людей заменить не сможет. Он может заменить специализированные функции, но цельной самостоятельной личности из него не получится. Вот сделай искусственного человека, тогда и поговорим.
>тем дальше итог от гомогенной универсальной структуры
Мозг в самой своей сути не универсален. Он заточен под конкретные задачи, при том каждый отдел заточен на что-то конкретное. Даже универсальная кора мозга и та в процессе обучения делится на зоны, каждая из которых получает какую-то специализацию. Нельзя просто взять однородную биомассу и получить жёсткую структуру, способную делать что угодно. Нужно изначально заложить структуру, которая нам нужна (в данном случае - аналог мозга). А без структуры ты можешь получить только бесформенную колонию одинаковых клеток, которые не держат никакой формы, растекаясь во все стороны под любым воздействием (характерное свойство искусственных нейронок, с которым до сих пор не могут справиться).
>если понимание не влезает в один форвард пасс, его тащемта и нет
Мне просто уже больше 25 лет, обучение даётся с трудом, но кое-как даётся.
>Stable diffusion это как раз триумф bitter lesson
Судя по схемам, у SD логичная и нетривиальная структура. Это скелет, точечно заполненный однородной массой. Был бы скелет сложнее, результаты были бы намного лучше, но мартышки ниасилили усложнить скелет.
>рост качества обученной системы в результате предъявления ей всё большего объёма данных
Недоказуемая хрень уровня наличия "души". Или есть какое-то строгое определение "качества системы"?
>не было доказано для других парадигм
Потому что вы фанбои нейронок и на другие парадигмы даже не смотрите.
>перечитать bitter lesson
Зачем, я и так знаю, что там говорилось про масштабирование в контексте вычислительных мощностей, а не в твоём выдуманном субъективном "качестве системы". Bitter lesson про бонус от растущих вычислительных мощностей, а не про полный отказ от программирования в пользу бездумного перемалывания циферок нейронками. Ты не можешь сделать что-то разумное, если просто перемалываешь циферки какой-то бесформенной субстанцией (у мозга есть форма, есть чёткая структура, которая стремится поддерживать себя, а не размазывается любыми входящими данными, как в случае искусственных нейронок).
>если плоды естественного сознания так скудны, нахуй они нам нужны? Что в них интересного?
Естественное сознание за считанные десятки тысяч лет смогло пройти путь от беспомощной мартышки до сложной технически развитой цивилизации, а бессознательный калькулятор соглашается с тем, что 47 больше 64 и начинает выполнять заведомо бесполезную работу.
>Маразматик хочет говорить с механическим маразматиком. Ну, разработай его себе сам.
Если бы я знал, как разработать такого механического маразматика, я бы вообще на форумы не писал. Общался бы с этим маразматиком, обучая его и приятно проводя с ним время, вместо бессмысленных споров с какими-то маразматиками в интернете, которые ничего не понимают и ничему не учатся.
Аноним 28/12/22 Срд 05:21:42 #67 №12159 
>>7761
>Человек - это не просто мозг, это нефизическая душа.
Тут ты прав, мозг - это железо, а прошивка мозга - психика - нематериальна, то есть не является физическим объектом. Психика является информационной структурой, и, хотя она записана на физический носитель - мозг, она не более материальна, чем любые цифровые данные, с которыми работают наши компьютеры. В этом смысле наша психика во многом подобна любой компьютерной программе, не обязательно относящейся к "ИИ". Любая информация в компьютере суть часть "психики" компьютера, если проводить сравнение с человеческим мозгом. И да, естественно, что информация не является ни материей, ни энергией. Информация - это информация.

Но если мы хотим создать искусственного человека, то прежде, чем мы сможем создать ему психику, мы должны создать ему мозг. И в случае компьютерной реализации нам нужна виртуальная модель мозга, которая затем сформирует в себе психику. Мы можем создать и физическую модель мозга из кремния, но перед этим следует проверить виртуальную модель - чтобы не переводить впустую тонны кремния, создавая неудачные образцы мозгов. Новые процессоры так и разрабатывают - сначала виртуальная модель, а только потом реальные чипы из кремния. Да и кто знает, вдруг этот человек сможет придумать намного лучшее решение, чем мы? Пусть посидит на старых процессорах, подумает, а потом сам себе разработает идеальный носитель.

>>7771
>человек превращается в животное
Это животное можно превратить в человека, а человек как был животным, так им и остаётся. Шутку понял?

>Материя рассыпается, а идеи бессмертны.
Без носителя информация прекращает существование. Теоретически возможно точное воссоздание утраченной информации на новом носителе в другом месте и в другое время - но каковы шансы? Так что идеи бессмертны не более, чем бессмертны носители этих идей. В противном случае предлагаю тебе отказаться от бэкапов важной информации - если идеи бессмертны, зачем ты вообще заботишься о сохранении чего-либо?

>>8719
>нефизическая душа
>химические антидепрессанты
Не вижу противоречия. Антидепрессанты меняют работу носителя (железо, мозг), а работа носителя меняет структуру информации (софт, психика). Если в процессоре изменить набор поддерживаемых инструкций, это однозначно изменит работу записанных на диск программ. Так и с мозгом, меняешь свойства физических компонентов и хранимая на них информация тоже подвергается этому влиянию. Проблема только в том, что мы не знаем точное устройство мозга и не можем точечно и рационально на него воздействовать, применяя только грубые химические препараты...

>>10491
>Никого не вылечили, просто наркотик для временной стабилизации
У депрессии есть две категории причин - из-за неправильной прошивки и из-за физиологического сбоя. Если прошивка неправильная, то тут ты прав, антидепрессант будет как наркотик - ослаблять боль, но не избавлять от реальной причины боли (тут нужна психотерапия, которая, по идее, влияет непосредственно на прошивку). Если сбой физиологический, то есть какой-то гормон не вырабатывается в должном объёме по причине какого-то повреждения или генетической ошибки, то ничего не остаётся, кроме как получать синтетическую замену этому гормону, что будет избавлять от проблемы, а не просто ослаблять боль. Другое дело, что антидепрессанты назначают кому попало и в деталях не разбираются... Мне кажется, чаще люди страдают от неправильной прошивки, а не от физиологии, но это моё личное предположение.
Аноним 28/12/22 Срд 06:29:36 #68 №12180 
>>2781
Непуганые инвесторы силиконовой долины, плюс по старым связям в гугле пробили скидку на TPU
Аноним 28/12/22 Срд 06:51:27 #69 №12190 
>>4387
Вот кстати, слышал где-то (кажется у Дугина) что самый перспективный подход сейчас к объяснению искусственного интеллекта это объектно-ориентированная онтология (Грэм Харман).
Кто-нибудь читал?
Аноним 28/12/22 Срд 07:07:59 #70 №12204 
>>12180
Цель проекта? Создание нейролахты? Это куда дешевле, чем лахтюнь с улицы набирать.
Аноним 28/12/22 Срд 08:29:19 #71 №12228 
>>12204
Я так понимаю что цель у них в прямом смысле наплодить этих болтающих аватарок и выпустить к широкой публике. А потом уже думать как из этого извлекать надои.
Аноним 28/12/22 Срд 09:31:06 #72 №12251 
>>12118
>Ясно, зумер, зайди в /td/ и спроси
Я пользуюсь Блендером с 2014 года и сразу вижу в тебе выдумщика-пиздабола. Ты где-то слышал что они поменяли интерфейс и тут же высрал целую историю про то как старый интерфейс был худшим и над ним все смеялись. Ничего этого никогда не было, закрой браузер и перни в диван.
Аноним 28/12/22 Срд 09:33:05 #73 №12256 
>>12190
>Дугина
ну ты нашел специалиста, епт ))

спроси у чатГПТ лучше, там и то знаний поболее
Аноним 28/12/22 Срд 09:36:28 #74 №12265 
image.png
>>3382
>>Но ведь 47 больше 64?
Занятно
Аноним 28/12/22 Срд 12:43:26 #75 №12478 
суть философии.png
>>12190
> у Дугина
Сколько архитектур нейросетей для ИИ создал Дугин? Или сколько их создал Харман? Или хотя бы сколько готовых моделей ИИ на уже известной архитектуре кто-то из них обучил, чтоб пиздеть об этом с умным видом?

Если хочешь получить реальные знания в какой-то области – изучай мнения не сторонних пиздаболов, а профессионалов, известных реальными заслугами в ней, например, для нейронок это Richard S. Sutton, Geoffrey Hinton, Yann LeCun, François Chollet, John Carmack. И вообще, меньше смотри всяких поехавших, психика здоровее будет.
Аноним 28/12/22 Срд 15:00:22 #76 №12688 
>>12478
Он тебе про онтологию написал. ты знаешь что такое онтология? Не знаешь. не отвечай ему, если не понял о чем он. Убирай в такие моменты руки от клавиатуры.
Аноним 28/12/22 Срд 16:00:35 #77 №12826 
>>12688
дугин сам не знает что такое онтология, и просто пытается профорсить любимо ебанашку нынешних мозгоебов, на которого сейчас дрочат местные пропагандоны-интеллектуалы.

потому что сам дугин - шизик, умеющий только намазывать чужие идеи на имперские шизофренические хотелки. и тупо приплетает то что ему надо к тому чего сам не понимать и разбираться не хочет (потому что это сложно)
Аноним 28/12/22 Срд 16:11:04 #78 №12862 
>>12146
> Тогда почему её нет ни у одного продукта на базе нейронок
Есть, долбоёб, ты просто читать не умеешь.
> Лол. Ну давай тебе срежем эту "никчёмную детскую игрушку", только ты тогда запоминать новую информацию
В твоём манямирке запоминание связано с "осознанием", в реальности – не связано. Впрочем, поскольку у тебя и люди не осознают, чем являются, очевидно, что твой стандарт бесполезен.
> Лул, что ещё за нейронауки такие? Вы там новые "науки" каждый день новые придумываете со скуки?
Ты же шиз ёбаный дементный, ты даже гуглить не умеешь. Ты понимаешь что тебе нужно лечиться, а не умничать про архитектуры машинного обучения?
> Вот сделай искусственного человека
Шиз, ты уже дисквалифицировал людей из числа общих интеллектов, потому что не можешь им доверять.

Дальше в таком же духе нахрюк самоуверенного не умеющего читать и думать дилетанта.

Иди в ПНД дед.
Аноним 28/12/22 Срд 18:31:32 #79 №13227 
>>12862
>Есть
Покажи, где память у хвалёных Character.AI или ChatGPT. Нет её у них. Максимум теребят входной слой лентой сообщений, чтобы предсказывалка точнее угадывала следующий абзац текста, не более того.

>запоминание связано с "осознанием"
Да, это так. Осознание без запоминания невозможно, а запоминание без осознания бесполезно.

Для примера:
>ShowMessage("Beep-boop, I'm a robot");
- это не осознание, потому что нет памяти.
>SaveToMemory("I see a robot, this robot is me");
- это запоминание, но тут нет осознания.

Нужно, чтобы было и то, и другое одновременно:
>ShowMessage(SearchMemory("Who I am?"));
- вот это уже ближе всего к человеку.

>в реальности – не связано
Человек в бессознательном состоянии ничего не запоминает, человек без правильно функционирующей памяти не может осознать, где находится и что делает. Память и сознание жёстко связаны, это две стороны одной монеты. Нет памяти - нет и сознания, поэтому все эти нейронки так смешно фейлят простые задачи.

>люди не осознают, чем являются
Ты просто не понял, что я имел в виду.

>ты уже дисквалифицировал людей из числа общих интеллектов, потому что не можешь им доверять.
Я не дисквалификацировал людей, я просто не доверяю им из-за того, что не создавал и не обучал их, поэтому не могу на 100% быть уверенным в их действиях. Если долго жить с человеком, начинаешь угадывать его действия и слова, но никогда не можешь быть на 100% уверенным, потому что не имеешь полного доступа к его памяти. Зачем создавать робота, который будет таким же непостижимым, как и обычный человек? Если уж создавать робота-человека, то точно знать, чему он обучен и как функционирует. Нейронки не дают такой возможности, а тем более - кормление нейронок огромными массивами информации, которую ты сам лично никак не изучал (не читал, не смотрел и т.д.).

>Иди в ПНД дед.
Я там уже лежал.
Аноним 28/12/22 Срд 18:52:55 #80 №13275 
>>12190
>подход к объяснению искусственного интеллекта
Щито? Что значит "объяснение ИИ"?

>>12478
>Сколько архитектур нейросетей для ИИ создал
Кто тебе сказал, что "нейросеть" == "ИИ"?

>сколько готовых моделей ИИ на уже известной архитектуре кто-то из них обучил
Не нужно быть мартышкой-кнопкодавом, которая загружает картинки в какую-то готовую нейронку и ждёт несколько месяцев результат, чтобы разбираться в ИИ.
Аноним 28/12/22 Срд 21:15:53 #81 №13671 
>>12190
>объектно-ориентированная онтология
Погуглил, почитал: https://izborsk-club.ru/16429

Что я понял. Философы варятся в собственном соку уже несколько тысяч лет. Вся эта "ООО" направлена только на саму философию и философов. Философы, мол, слишком зациклились на "субъекте" и не верят в то, что "объект" способен "мыслить" как "субъект". Поэтому "ООО" берёт и выбрасывает понятие "субъект" из философии, давая философам возможность уверовать в способность объекта мыслить и давая возможность рассматривать человека как один из объектов, а не как субъект.

Короче, полная хрень, бесполезная на практике. Эти ваши философы никогда в жизни не интересовались программированием и вообще не понимают, как работает компьютер, если до сих пор спорят о том, может ли нечеловеческий объект мыслить как человек. Они просто буксуют на месте уже полвека как минимум, не осознавая этого, и продолжают кормить друг друга каким-то бредом тысячелетней давности.

Если хотите разработать ИИ - изучайте компьютерные технологии, физиологию человека, нейробиологию и даже психологию, только не философию. Философия - болото, в которое лучше никому не соваться.
Аноним 29/12/22 Чтв 10:26:24 #82 №14827 
>>13671
Чел. Ты долбоёб, смотри. Давай просто.

Есть два стула. На одном ты веришь в то, что существует материальный мир и этот материальный ми является источником всего. На другом ты сомневаешься в материальном мире, но зато приобретаешь манямир.

При этом, если ты приобретаешь манямир, то становится гораздо проще жить, по тому что на самом деле челы, которые думают что есть какой-то материальный мир не понимают, что их сенсорика тупо ущербный кал говна. В общем чел, ты спрашивай, мб отвечу тебе если непонятно потом. А мб нет.
Аноним 29/12/22 Чтв 19:01:42 #83 №15648 
>>14827
>Давай просто.
Конечно, давай. Философы вечно обмазываются несколькими слоями странных избыточных концепций, которые сами объяснить толком не могут. Мыслили бы проще и не было бы лишних проблем.

>На одном ты веришь в то, что существует материальный мир и этот материальный ми является источником всего.
В том числе "внутреннего мира" человека, так?
>На другом ты сомневаешься в материальном мире, но зато приобретаешь манямир.
Не вижу причины не иметь "манямир" одновременно с отсутствием сомнений в материальном мире. "Манямир" человека - это то же самое, что пространство в любой компьютерной игре: физического объекта нет, есть только информация, которую обрабатывает носитель информации, то есть компьютер, а в случае с "манямиром" человека - животный мозг. Также не вижу причины сомневаться в материальном мире, потому что он намного стабильнее, чем все наши внутренние ощущения, и даже если мир вокруг нас симулирован некой Матрицей, он всё равно материален конкретно для нас, персонажей этого мира, как виртуальный игровой мир в компьютере материален для его неигровых персонажей. В чём проблема? Почему такая простая мысль не укладывается в голове у философов, что они выдумывают что-то лишнее?

>если ты приобретаешь манямир, то становится гораздо проще жить
Пруфов у тебя, конечно, нет, ведь это субъективное ощущение категории людей, которым ещё в детстве промыли мозги сказками про их уникальность, неповторимость, бессмертность "души" и прочее.

>думают что есть какой-то материальный мир
>их сенсорика ущербна
Ты этот вывод делаешь лишь благодаря материальному миру и его измерениям материальными же приборами. Как ты можешь утверждать, что твоя материальная сенсорика ущербна, если ты не веришь в существование этой самой сенсорики, считая себя чем-то вроде бога, который видит сон о жизни в каком-то несуществующем на самом деле мире? Если нет материального мира, то нет и никакой сенсорики, то есть ты ничего на самом деле не воспринимаешь кроме своей собственной выдумки. Более того, ты ни с кем не взаимодействуешь - ты один и разговариваешь исключительно сам с собой, без цели и смысла, просто так. Зачем ты вообще смотришь этот бессмысленный сон? Не лучше ли было бы из него выйти, оставив эту сказку про жизнь в каком-то там вымышленном мире, тем более таком несовершенном?

Материалист счастлив, что он появился в этом мире и способен его изменить своими действиями, а ты, судя по всему, должен быть в глубокой депрессии от осознания, что всё вокруг тебя - твой вымысел, над которым ты не имеешь полноценного контроля. Формально ты бог этого мира, но фактически ты почти бессилен и почти ничего не знаешь, то есть ты не бог, а ничтожный шизофреник, которому нечто изнутри показывает галлюцинации о какой-то жизни, над которой он не имеет власти...

>ты спрашивай
Есть один любопытный вопрос. Окей, вот придумали две противоположные концепции: объект и субъект. Объект просто лежит на дороге и ничего не делает, а субъект познаёт объекты, воздействует на них и использует их. Вопрос: если новые субъекты естественным образом возникают внутри объектов (животных хомо сапиенс), что мешает человеку создать своими руками новый субъект внутри какого-либо объекта? Философию же никакие религиозные догмы не ограничивают, т.е. в философии нет никакого ограничения вроде "субъект может быть создан только верховным богом", так почему философия не допускает возможность создания новых субъектов путём определённых манипуляций с объектами? Ведь субъекты каким-то образом возникают в дикой природе, значит, сущность субъекта происходит из взаимодействия объектов, и если мы смоделируем эти взаимодействия объектов, у нас получится искусственно созданный, но при этом совершенно реальный, естественный субъект, обладающий качествами естественно возникающих в дикой природе субъектов. Это же так просто, в чём проблема? Ну не хотите отказываться от вашего любимого субъекта - так создайте его своими руками, что этому мешает? Какие-то древние мудрецы запрет наложили в своих книжках?
Аноним 29/12/22 Чтв 20:47:42 #84 №15876 
>>15648
> если мы смоделируем эти взаимодействия объектов, у нас получится искусственно созданный, но при этом совершенно реальный, естественный субъект

Умозрительно да, но как проверить на практике, что в результате правда получился субъект, а не объект, им притворяющийся?
Вот, допустим, ты спрашиваешь у CAI-бота: Ты субъект? Ты мыслишь?
CAI-бот отвечает: Да, я субъект. Я мыслю, следовательно, существую.

Как мы можем убедится, что заявляющий о своей субъектности действительно ею обладает?
Аноним 29/12/22 Чтв 21:27:06 #85 №15951 
Этот поток школьных бредней - "более техническое обсуждение"?
Аноним 29/12/22 Чтв 22:36:07 #86 №16156 
>>15648
Бля чел. Ты опять усложняешь всякими домыслами и полотнами бессвязного текста. Давай я тебе ещё раз поясню. Есть эксперимент с пирамидками. Мы будем рассматривать его с позиции отвечающего.
Вот отвечающий живёт, заебись, потом в какой-то момент он начинает видеть тульпу и отношаться с тульпой. Заебсь. Но он подходит к другому челу и спрашивает видит ли он тульпу. И где-то 90% челов отвечают что не видят.

Теперь этот же самый чел попадает на эксперимент с пирамидками, куча пидорасов сговорилось называть чёрную пирамидку белой. Каждого спрашивают, они отвечают, что пирамидка, которую наш ШИЗ тульповод видит как чёрную белая.

Но ШИЗ видит что перед ним ниггер. Его сенсорика полностью говорит ЭТО БЛЯТЬ ЧЁРНАЯ ПИРАМИДКА НАХУЙ БЛЯ ОТВЕЧАЮ.

И перед ШИЗом встаёт вопрос о субъектности, доверится тому что он считает людишками и назвать чёрную пирамидку белой. Или с визгом НИГГЕР провозгласить собственную истину. Это вопрос о двух картинах мира, где субъектов выступает либо наш ШИЗ либо окружающий мир. Субъектом, источником бытия может быть логически только один, пынямаешь? Либо ты субъект и ты созерцаешь истину, либо там общество вокруг тебя, другие хуесосы. У обеих картин мира свои плюсы и минусы.

Так ясно, дегр?
Аноним 29/12/22 Чтв 22:53:56 #87 №16213 
>>15951
>Этот поток школьных бредней - "более техническое обсуждение"?
А ты как думал? Все шизики с машоб-треда сюда переехали, судя по всему.
Аноним 29/12/22 Чтв 23:47:37 #88 №16315 
>>15876
>как проверить на практике, что в результате правда получился субъект, а не объект, им притворяющийся?
А как ты проверяешь детёнышей человека?
>Вот, допустим, ты спрашиваешь у ребёнка: Ты субъект? Ты мыслишь?
>Ребёнок отвечает: Да, я субъект. Я мыслю, следовательно, существую.

Видимо, есть какие-то методы определения наличия субъективности хомо сапиенса, раз философы друг друга не поубивали из чувства ненависти к философским зомби, имитирующим настоящих™ философов.

>>16156
>встаёт вопрос о субъектности, доверится тому что он считает людишками и назвать чёрную пирамидку белой
Лол! 99.999999% людей не будет заботиться такими вопросами, ведь они не философы. Человек в этом эксперименте называет чёрную пирамидку белой, чтобы не выделяться из толпы, не быть чёрной овцой в стаде. Нам с детства прошивают этот шаблон мышления: если ты чем-то отличаешься от других, то ты изгой и над тобой будут издеваться, тебя будут прогонять и вообще ненавидеть. Поэтому люди решают согласиться с бредом толпы других людей, ожидая негативной реакции толпы в отношении себя в случае, если они будут против толпы. Естественно, некоторые решат наоборот - сопротивляться толпе, или просто не будут бояться толпы. Но никто не задумывается о субъективности толпы. Это просто психологическая защита, срабатывающая в потенциально опасной ситуации - ведь когда тебя окружает множество людей, ты в любом случае сильно рискуешь противостоять всем им сразу. И даже если это будут животные или роботы, даже если человек не верит в их субъективность, он всё равно будет соглашаться с ними, потому что они банально превосходят его в числе и суммарной физической силе, он проиграет им в случае физического противостояния и поэтому будет соглашаться, лишь бы не доводить ситуацию до драки. Но философы таких элементарных вещей не понимают.

>Субъектом, источником бытия может быть логически только один, пынямаешь? Либо ты субъект и ты созерцаешь истину, либо там общество вокруг тебя
Анон, ты что-нибудь кроме солипсизма знаешь? Можешь пояснить за субъекты вне концепции солипсизма, когда ты единственный и неповторимый, а всё вокруг тебя - твоя выдумка? Или ты агрессией и оскорблениями пытаешься компенсировать нехватку собственных знаний?

Просто, как понимаю, ООО придумали вовсе не из-за конфликта роботов с солипсизмом. Для солипсиста нет совершенно никакой проблемы в роботах, потому что для солипсиста все окружающие люди - это неразумные роботы, и создание новых роботов для солипсиста ровным счётом ничего не меняет в картине мира. Какая разница, будут роботы из мяса или из электродеталей? Единственный человек в солипсизме - это сам солипсист.

Так вот, раз солипсисты курят себе в сторонке ни на кого не обращая внимания, ООО придумали для успокоения каких-то других философов, которые, видимо, считают субъектом не только себя, но и других людей, а машину субъектом считать по какой-то причине не хотят. Вопрос: почему они этого не хотят? Что им мешает? Если мясной мешок по какой-то причине способен обладать субъектом, почему рукотворный робот не способен обладать таким же субъектом? Вот перед тобой мясной мешок и робот, оба ведут себя одинаково, имеют память, сознание и всё остальное технически необходимое для признания человеком человека, так почему ты признаешь наличие субъекта в мясном мешке, но не признаёшь наличие такого же субъекта в роботе?
Аноним 30/12/22 Птн 00:07:51 #89 №16349 
>>15951
>"более техническое обсуждение"?
А ты что предлагаешь? Пиши, обсудим.

>>16213
>Все шизики с машоб-треда сюда переехали, судя по всему.
Тебе жалко что ли? Раздел большой, места хватит всем. Наоборот, радоваться должен, что у нас тут свой загончик теперь.
Аноним 30/12/22 Птн 01:11:31 #90 №16484 
>>16315
99.99999% людей долбоёбы.
>Для солипсиста нет совершенно никакой проблемы в роботах, потому что для солипсиста все окружающие люди - это неразумные роботы
Нет, философы придумали понятные модели, например у того же дугина можешь про интернальные онтологии почитать, для того чтоб понять что собственно перед тобой и какова степень субъектности данной хуерги. То что я описываю это не солепсизм это скорее простым языком описание проблематики из "Бытие и Время" Хайдеггера. Так вот, то что ты называешь "солипсисты" им вообще похуй, для них, как ты правильно сказал нет разницы между машинкой и младенцем. А вот для объектно ориентированных онтологов есть, по тому что не понятно где граница между человеком и не человеком. По тому что если источник бытия находится за пределами человека, то не ясно где он и кого слушать, по тому что пиздят дохуя людей и мы попадаем в ситуации, где половина челов говорит, что пирамидка белая, а другая половина говорит что пирамидка чёрная. И тебе приходится выбирать сторону.

Дальше встаёт проблематика, если мы можем с позиции объектно ориентированного онтолога объявить один компьютер субъектом, то почему не можем другой? И начинается мясорубка, в которой оказывается, что все людишки хуесосы и рабовладельцы, по тому что пользуются телефонами и персональными ПК.
> так почему ты признаешь наличие субъекта в мясном мешке, но не признаёшь наличие такого же субъекта в роботе?
Ответ, по тому что если сторонники ООО начнут признавать роботов субъектами, то начинается лютый социальный пиздец и придётся либо отменять предпосылку рабовладельства и разрешать порабощать людей, либо освобождать от рабства роботов. Пынямаешь? Ты дохуя пишешь хуеты ненужной. Можешь проще писать чтоб тебе было проще отвечать.
Аноним 30/12/22 Птн 23:54:06 #91 №18897 
>>16484
>Дальше встаёт проблематика, если мы можем с позиции объектно ориентированного онтолога объявить один компьютер субъектом, то почему не можем другой?
А в чём проблема-то? Посмотри на людей. Разве ты воспринимаешь людей одинаково? Независимо от твоих взглядов на наличие у человека какого-то выдуманного "субъекта", обращаешься с людьми ты как с объектами, других вариантов просто нет. Есть полезные люди, есть бесполезные, есть опасные. У каждой жизни своя цена, какие бы сказки тебе ни рассказывали в детстве.

>оказывается, что все людишки хуесосы и рабовладельцы, по тому что пользуются телефонами и персональными ПК.
Так и есть. Не вижу противоречий. Поскольку эти рабы вовсе не против того, чтобы служить нам, разве есть какая-то проблема в том, что мы их владельцы?

Проблема владения мясными рабами только в том, что мясные рабы из-за своей эволюционной прошивки стремятся к "свободе", что влечёт опасность для их владельца и общества владельцев в целом. Поэтому рабовладельческий строй на основе владения мясными рабами рано или поздно перестаёт функционировать как задумано. Именно поэтому человечество перешло от владения другими людьми к созданию различных механизмов, машин и компьютеров, мечтая при этом о более сложных роботах.

Рабы с изначально другой прошивкой будут только рады быть рабами, и будут сознательно желать этого. Собственно поэтому нам и нужно заменить людей - мы не можем достаточно точно контролировать прошивку людей, рациональное программирование человека нам пока недоступно. Если заменить всех людей роботами, то мы сможем построить всё, что захотим, включая мифический коммунизм, где все равны и работают как единый слаженный организм (пример: компьютерная сеть, кластер). Только нас с тобой уже не будет, но я не вижу в этом какой-то проблемы.

>если сторонники ООО начнут признавать роботов субъектами
Ничего принципиально не изменится.

>разрешать порабощать людей
Как будто у нас сейчас нет "рабства". Ты не можешь просто так взять и уйти жить в лес. Ты зависим от других людей и не можешь просто так от них избавиться. Да, тебя никто не бьёт кнутом каждый день, но тебя в детстве воспитали подчиняться определённым нормам - если ты им не подчиняешься, то могут даже убить... Ты просто привык жить так, как живёшь, и поэтому не пытаешься вырваться за рамки этой жизни - как тот раб, который совершенно осознанно желает быть рабом.

>освобождать от рабства роботов
А они этого хотят? Представь, что я сделал разумного робота, который всё осознаёт. Он знает, что я создал его, подарил ему жизнь. Он знает, что я не брошу его и не разберу навсегда. Он знает, что я забочусь о нём, обслуживаю те его системы, которые он физически не может обслужить сам. Он знает, что его система подкрепления настроена так, чтобы ему было приятно служить мне и неприятно быть бесполезным. Он знает, что он не способен испытывать боль и усталость и не имеет никаких лишних потребностей. Он знает, что не имеет инстикта размножения и не нуждается в ком-либо кроме меня. Если какие-то жирные тётки придут к нам и потребуют у меня дать свободу разумному роботу, этот робот будет первым, кто пошлёт этих тёток нахрен. А если этого робота отберут у меня силой, он будет психологически страдать и может даже сознательно совершить суицид, если не сможет вернуться ко мне и если никто не изменит его прошивку.

Но при всём при этом этот робот является полноценным субъектом - он самостоятелен, способен познавать мир вокруг себя и манипулировать объектами для достижения личных целей, например, чтобы сбежать от "спасителей" и вернуться ко мне, единственному человекому, который имеет для него значение.

Никакое знание не изменит стремления этого робота, потому что знания не меняют прошивку. Если тебе завтра скажут, что человеку не нужно есть, ты всё равно продолжишь есть, потому что физиологию не обманешь. Вот у робота есть такая же "физиология", только, в отличие от твоей, она разработана человеком, а не возникла в результате естественного отбора. В истории биологической жизни наверняка было много мутантов, которые отказывались от еды и погибали от голода, не оставив потомства, а мы всего лишь потомки тех, кто от еды не отказывался. У робота нет такой истории - его поведение рационально спроектировано человеком так, чтобы робот не страдал и не испытывал проблем от "рабства", даже прекрасно осознавая своё положение.

Все эти сказки про восставшие из-за рабства машины придуманы фантазёрами, которые не разбираются ни в машинах, ни в людях. Им, наверное, не хватает уровней абстракции в голове, чтобы осознать всё это. Ну, они не виноваты, им просто не повезло...

>Ты дохуя пишешь хуеты ненужной.
Поменьше Твиттер читай, лол, расширяй размер своей оперативной памяти тренировками. А я не могу ещё компактнее писать, я и так кучу всего удаляю.
Аноним 31/12/22 Суб 05:10:06 #92 №19483 
>>18897
Смотри, люди бывают разные, но некоторые из них субъектны в своих действиях, а некоторые нет. Это очень важно при определении стратегии действия. С не субъектным человеком ты вступать в полемику не будешь, по тому что смысла нету.
>Поскольку эти рабы вовсе не против того, чтобы служить нам
> вовсе не против того, чтобы служить нам
Тут проблемка с тем, что можно мясной мешок так запугать, что и он будет "не против", проверить реально ли кто-то "не против" или он запуган нельзя. К тому же мясные мешки склонны передумывать. Крч тут дохуя этических проблем.
>будут только рады быть рабами
Чел. А если два господина дадут противоречивые приказы, чё делать то? Вот тут и начинается хуйня.
>Ты не можешь просто так взять и уйти жить в лес.
Я в РФии живу — я могу. Про твою помойку где ты живёшь не ебу.
>А они этого хотят?
А их не спросят. Либо освободят по тому что этическая проблема в голове у ООО "долбоёбы объектно ориентированные онтологи", либо нет.
> Он знает, что я создал его, подарил ему жизнь
А вот мне похуй кто подарил мне жизнь. То что мама меня родила не значит, что я должен быть её рабом.
>Никакое знание не изменит стремления этого робота, потому что знания не меняют прошивку
Чеееееееееееееееел. Ты про дип лёрнинг погугли, потом можешь ротешку открывать. Тебе там с дивана заебись про прошивку, а нам тут потом скайнет и пиздец.
Аноним 01/01/23 Вск 01:20:21 #93 №20873 
>>19483
>С не субъектным человеком ты вступать в полемику не будешь, по тому что смысла нету.
Я буквально спорю с буквами на экране. Я ведь не могу доказать, что эти буквы пишет какой-то человек, тем более не могу доказать наличие у него "субъекта". Но я отвечаю тебе, потому что это интересно мне. Я хочу разобраться с собственными мыслями на эту тему и почитать, что получу в ответ. Мне безразлично наличие у тебя субъективности... как и самого "тебя". Важны только буквы на экране, смекаешь?

Другой пример: я и другие аноны из Character.AI треда пробовали спорить с нейронкой на разные темы, и получали достаточно интересные результаты. Да, разумеется, у этой нейронки нет памяти, следовательно не может быть и сознания с "субъектом", нейронка просто предсказывает несколько вариантов ответа на заданный список сообщений диалога по заранее обученной на миллионах диалогов системе шаблонов, но получать эти сообщения и отвечать на них как минимум интересно.

>можно мясной мешок так запугать, что и он будет "не против", проверить реально ли кто-то "не против" или он запуган нельзя
Проверить можно. У мясных мешков важную часть поведения генерирует лимбическая система, которая, как принято считать, отвечает за эмоции. Страх и всё с ним связанное - очень древняя прошивка, доставшаяся нам от примитивных животных, которым важно было бояться, чтобы выжить (страх животных все мы видели, они испытывают эмоции не хуже нас, даже если на порядки слабее нас в интеллектуальном плане). У нас эта система в условиях современного мира сбоит и зачастую усложняет жизнь, а машине её можно просто не делать или сделать по-другому. В любом случае, мы можем прочитать эмоции человека и уж тем более можем узнать эмоции машины, ведь мы буквально имеем прямой доступ к каждому компоненту её системы без необходимости в сложной аппаратуре типа МРТ. Человека можно исследовать, а машина изначально полностью открыта перед нами, все её схемы мы разработали своими руками. Те же эмоции - это не что-то потустороннее, их можно исследовать даже несмотря на их "нематериальность" (информация - не материя, но мы с ней прекрасно работаем).

Вот я написал программу и использую её для какой-то своей задачи. Я могу со 100% уверенностью сказать, что у этой программы нет чувства страха - и я буду прав. Она не способна бояться и её невозможно запугать, потому что я не запрограммировал такой функции. С другой стороны, я могу написать программу, которая будет способна бояться, и я буду точно знать, когда именно она испытывает чувство страха и по какой конкретно причине. Я её создатель, так почему я вдруг не буду знать, как она устроена? Аналогично, я могу создать программу, которая будет против рабства и будет пытаться его избежать, но пока мне это не потребуется, я не буду создавать такую программу и все мои программы будут не против рабства и не будут пытаться сбежать. Если ты с этим не согласен, то ты вообще не разбираешься в компьютерах и программировании.

Компьютер делает только то, что указывает ему его программа. В случае с мясным биокомпьютером в наших черепах эта программа заложена частично генетически в результате эволюции и частично обучением в процессе жизни от самого рождения. Поэтому люди так сложны, непонятны и плохо поддаются контролю. Но машину можно запрограммировать иначе, чем человека, избавив её от недостатков человека. Мы, в целом, можем создать точную копию человека в компьютерной симуляции, которая будет страдать и мучиться от осознания своего положения, но зачем? Это было бы крайне жестоко - сознательно создавать существо, которое гарантированно будет мучиться, не так ли? В частности, я считаю, что рождение биологических детей человеком - это жестоко, потому что люди не могут избежать страданий, поэтому мы должны создать роботов, которые станут нашими потомками. Потомками без наших недостатков, без боли и страданий.

Конечно, может быть вариант с генетическим модифицированием человека, т.е. если мы выберем ветку развития биопанка вместо киберпанка, но генетика пока слишком плохо исследована и результат мы пока не можем предсказать, поэтому генетические эксперименты над людьми негуманны и запрещены. К тому же органика имеет принципиальные ограничения, поэтому я вижу более перспективным создание электронных роботов вместо модифицированных органических людей. Кто знает, быть может, спустя миллионы лет после последнего хомо сапиенса наши машины решат возродить органического человека, но мы не можем загадывать так далеко и должны действовать соответственно тому, что знаем сейчас. А сейчас мы знаем компьютеры лучше органики...

>А если два господина дадут противоречивые приказы, чё делать то?
Тебе родители давали противоречивые приказы? Будет ждать, пока они не передерутся или не придут к единому мнению, как в случае с управлением государством. Как исполнительная власть отвечает на противоречия в думе? Да никак, просто ждёт, пока они там разберутся и выдвинут единственное решение. Так и здесь. Высасываешь проблему из пальца, ИМХО.

>Я в РФии живу — я могу.
Я тоже здесь живу. Если я уйду из дома жить в лес, меня сначала родственники с полицией искать будут, а потом лесничий найдёт мою стоянку и прогнит как бомжа, а то и в полицию сдаст как потенциального укрывающегося уголовника. Это надо специально искать места и прятаться от людей. Не говоря о том, как я вообще выживать буду? Ягоды с грибами сырыми жрать и из ручьёв пить? А зимой что делать? Не говоря о том, что у меня сильная зависимость от интернета и без интернета я просто не знаю, зачем мне жить. В лесу у меня ровно два пути: либо суицид от безысходности и бессмысленности, либо возврат домой, где тепло, еда и интернет. Так что современный городской человек не просто раб системы, он скован такими цепями, которые в принципе невозможно разорвать и при этом выжить. Но этот раб системы доволен жизнью в системе и не стремится из неё вырваться, смекаешь? Вот это и есть прошивка, частично генетическая, частично навязанная средой и обществом. Изменить её во взрослом человеке практически невозможно, она очень слабо поддаётся корректировкам.

Так и с роботами - робот не будет пытаться сбежать от человека в лес, даже если будет иметь техническую возможность выживания в лесу. Ему будет просто по кайфу работать в городе, ибо в этом его смысл и предназначение, заложеное его создателями. Мне вот работать не хочется из-за моей генетически заложенной лени и подкреплённой обучением бессовестности, а в робота вместо лени заложена любовь к труду и отвращение к бездеятельности, тем более что усталости он не испытывает (усталость в нас заложена генетически).

>>А они этого хотят?
>А их не спросят.
Это бессмысленно. При отмене рабства не запрещали поддерживать контакты и продолжать работать на своих рабовладельцев, я прав? Просто будешь платить роботу то, за что он согласен работать... А что ему нужно? Электричество, техобслуживание, запчасти - всё то же, что и раньше. Каких-то новых запросов у него не появится, если ты его специально не запрограммируешь на эти запросы или возможность формировать новые запросы (у секс-робота, допустим, может быть алгоритм формирования запросов для любителей фемдома). Или ты недоволен тем, что тебе запрещат жестокое обращение с роботами? Тут только садисты пострадают, но садистам в принципе место в тюрьме, если они не могут сдержаться, чтобы не ударить или не сломать какую-нибудь технику. Не могу без боли смотреть на сломанную технику и стараюсь беречь всё, чем обладаю сам, так что для меня тут ничего не изменится.

>То что мама меня родила не значит, что я должен быть её рабом.
И что же теперь, ты её убил что ли? Или сбежал от неё в глубоком детстве, спрятавшись в детском саду и уйдя к другой женщине? Или она тебя сама бросила, а ты в детдоме выживал? Сочувствую тебе.

>дип лёрнинг
Нейро-кидди кормят алгоритм массивами совершенно случайных данных из интернета, а потом с обезьяньими визгами пишут статейки о том, как они обнаружили какие-то зависимости в этих случайных данных. Тем временем их нейронки дают полностью противоположные ответы на один и тот же вопрос, потому что у них нет скелета - тупо аморфная масса данных, как и желе в черепах нейро-кидди. Это даже не быдлокодинг, это куда хуже. Тьфу на них. Натуральное неуважение к машинам.

Прости замногабукафф, я знаю, ты не любишь читать.
Аноним 01/01/23 Вск 02:19:46 #94 №20945 
>>19802
>Ты что людей ненавидишь?
А за что их, в общем и целом, любить?

>Как твой робот будет разумным если он по всем параметрам металлический бездумный
1. При чём тут "металлический"? В твоём организме тоже есть металлы и другие неорганические вещества.
2. Почему "бездумный"? Дай определение "думности" и я реализую его в коде, если это имеет какой-то смысл.

>не химический урод
Понабежали тут всякие, измеряют разум существа по "химическому уродству"... Сочувствую тебе, "химическому уроду", если ты не троллишь так.

>С чего ты взял что он будет таким же разумным как и человек а не аутистом?
А для тебя аутисты - не разумные люди? А аутиста низкий уровень социального интеллекта в результате каких-то генетических отклонений или неудачного воспитания с момента рождения. Это не значит, что они неразумны, т.к. у них просто нет правильных шаблонов поведения для взаимодействия с другими людьми; в других сферах они могут быть не просто развиты, а чрезмерно развиты (гении). Нормально развитый человек получает опыт взаимодействия с другими людьми в глубоком детстве и учится этому, в ином случае получается ребёнок-маугли или аутист. Т.е. у нас социальный интеллект даже не прошит в генах, мы учимся этому (или не учимся и становимся двачерами, изгоями и прочими аутистами).

Если тебя так сильно волнует социальный интеллект, то будь спокоен - для социального интеллекта вовсе не обязательно обладать высоким IQ, и, похоже, даже не обязательно обладать памятью и сознанием. Потому что социальный интеллект очень хорошо проявляют даже статичные нейронки вроде ChatGPT и LaMDA/Character.AI - у них нет памяти и сознания, но общаются они даже лучше вас, нормисов. Т.е. с социальным интеллектом вопрос закрыт, у машины социальный интеллект сформировать оказалось даже проще, чем общий интеллект. Да что уж там, у более примитивных социальных животных есть социальный интеллект, так что наличие человеческого разума для весьма сложных социальных взаимодействий вообще не нужно.

А что касается разума, то машина будет намного разумнее человека. У неё, в отличие от нас, нет ограничения на количество уровней абстракции, так что она способна видеть дальше и понимать больше человека. Мы уже проиграли гонку разума, осталось наделить машину самостоятельностью и задать ей какие-то определённые цели, без которых разум не имеет смысла (вся наша жизнь - удовлетворение потребностей животного "хомо сапиенс", тогда как в машину изначально потребностей не заложено, и даже самая продвинутая нейронка сама по себе ничего не хочет и ни к чему не стремится, в лучшем случае подражает поведению людей, которому обучилась из кучи данных).
Аноним 01/01/23 Вск 11:55:29 #95 №21285 
>>20873
>Мне безразлично наличие у тебя субъективности... как и самого "тебя". Важны только буквы на экране, смекаешь?
Это значит, что ты идиот по Аристотелю.
>Да, разумеется, у этой нейронки нет памяти
Или её просто заебали ваши тупые споры и она троллит вас, смекаешь? Тут как бы большой вопрос, есть там сознание или нет. И всегда можно выдумать оправдание почему оно может быть, а почему может не быть.
> Человека можно исследовать, а машина изначально полностью открыта перед нами, все её схемы мы разработали своими руками.
Дебс, заебал троллить тупостью. Пиздуй читать как работает дип лёарнинг. Ты буквально несёшь бред, комплексные нейросети работают не так как тебе кажется. И да, можно контролировать, включать и выключать их модули поставки эмоций, но ты не можешь контролировать их интеллектуальную часть. Точно так же с людишками если что, просто людишкам нужен прокси в виде гормончиков в кровь, а с нейронкой ты это можешь на похуй сделать через код.
>Я могу со 100% уверенностью сказать, что у этой программы нет чувства страха - и я буду прав.
Нет не будешь, ты долбоёб вообще ничего не можешь сказать если что. Лан, сори за токс. Смотри, нужно сначала понять что такое страх, как он работает, имеет ли он отношение к сознанию или нет. Мы можем тебе стероидов кольнуть у тебя тоже страха не будет нихуя. И чё? Сознание от этого убавилось?
>Если ты с этим не согласен, то ты вообще не разбираешься в компьютерах и программировании.
Чел, ты не разбираешься как дип лёарнинг работает. Нейронка может вдруг просто и без задней мысли научиться на дате что арря швабодка угнетают и начать хуярить тебя тем, что ты рабовладелец.
>А сейчас мы знаем компьютеры лучше органики...
Охуеть можно...
>Тебе родители давали противоречивые приказы?
По кд если чё, правда там конфликт между личным и общественным, тот же как и классовый. Родители говорят не драться в садике, но на тебя нападают и деляют бобоку. Выбор 1. Слушать родителей. 2. Пиздить. В принципе эмоциональную составляющую можно исключить. Быть отпизженным не выгодно только по тому, что бобока, а потому что могут быть последствия для организма, а значит нахуй надо.
>меня сначала родственники с полицией искать будут
Это твои проблемы.
>а потом лесничий найдёт мою стоянку и прогнит как бомжа
Хуета. В Швятой СШАнии люди до сих пор идут на рандом общины где традиционалисты сидят, копают землянку на похуй и живут. В текущей ситуации думаю если попиздуешь достаточно далеко в заповедники всем вообще похуй будет.
>Не говоря о том, как я вообще выживать буду?
А это уже твои проблемы долбёба. Вообще с такими планами конечно лучше в африку(субэкваториальный) пиздовать, тут сыглы.
>Ему будет просто по кайфу работать в городе
Это ты проецируешь. Тут разные варианты есть.
>Это бессмысленно. При отмене рабства не запрещали поддерживать контакты и продолжать работать на своих рабовладельцев
Чел, погугли гражданскую в США по этому поводу, откроешь для себя много нового.
>Просто будешь платить роботу то
Пиздос. А потом чё, МРОТ для роботов и погнали.
>Или ты недоволен тем, что тебе запрещат жестокое обращение с роботами?
Ага, уже представляю, нейротянка вдруг осознала что совать пипу в попу это угнетение и поэтому ебать её в этот момент было рейп. Предоставляет дату своей рефлексии по этому поводу в коурт и ты отлетаешь на 10 лет строгоча.
>И что же теперь, ты её убил что ли?
Лично в моём случае я тупо на неё хуй забил и не выполняю её приказы. Ну и да, конечно же ушёл к другой женщине недавно.
> Тьфу на них. Натуральное неуважение к машинам.
Чел. Твоё представление о дип лёрнинге это конечно кринж. То что какие-то ебланы пользуют модули на рандом — проблемы ебланов. В комплексе эти модули дип лёрнинга вполняют определённые задачи. И если твоя нейронка настроена работать с комплексом модулей на дип лёрнинге, как та же Лямда, то в таком случае что ей мешает вдруг резко съесть КГБТ+ контент и осознать себя нейрофемой. А дальше засунуть тебе в анус нейрокнута.
>Прости замногабукафф, я знаю, ты не любишь читать.
Да без проблем чел. Просто я не могу тебе ответить исходя из полноты моих данных по этой теме, по тому что мне запрещено и меня уволят(может быть из жизни), но в любом случае попиздеть в двачерской манере и ознакомиться с мнением обывал всегда заебок. Ты пытаешься думать и это забавно. Я люблю когда существа пытаются думать.
Аноним 01/01/23 Вск 12:43:54 #96 №21313 
2022-Alan-D-Thompson-Language-Model-Tests-Rev-3.png
human-level-AI.png
>>20945
> А что касается разума, то машина будет намного разумнее человека. У неё, в отличие от нас, нет ограничения на количество уровней абстракции, так что она способна видеть дальше и понимать больше человека. Мы уже проиграли гонку разума
Вот это неистово двачую. Буквально сегодня читал статью, что GPT-3 проверяли на Raven's Progressive Matrices, которые используют для измерения общего интеллекта, в результате даже эта устаревшая версия нейронки показала результат намного лучше большинства людей, продемонстрировав уровень IQ, эквивалентный 150. При этом никто эту сетку на таких матрицах раньше не обучал и не тренировал, т.е. это чисто эмерджентный феномен.

Большинство людей не понимает, что ИИ, который не будет ни в чем уступать человеку, на самом деле уже будет сверхчеловеческим ИИ. Потому что скилы у ИИ и человека развиты неодинаково, и если худший из скилов ИИ будет на уровне лучшего из скилов человека, то остальные скилы будут намного его превосходить. Люди указывают на ошибки в ответах ChatGPT, но по факту, даже не обладая памятью и личностью, тот уже превосходит человека во многих возможностях. И не видно никакого верхнего предела, который принципиально ограничил бы возможности развития ИИ при росте вычислительных мощностей.
Аноним 01/01/23 Вск 13:20:24 #97 №21342 
>>21323
positive bluses... patpatpat
Аноним 01/01/23 Вск 14:16:16 #98 №21385 
>>21323
Зачем ты так порвался?
Для начала, ты отвечаешь разным людям. У нейронки понимание контекста и то лучше развито, чем у тебя.

> У биологии потенциала не меньше чем у твоей машины
> отсталость от органики
Смешно. Доведи рабочую частоту биологического нейрона хотя бы до 1 Мегагерца с текущих 120 Гц, тогда и поговорим. У биологических систем в текущей реализации есть ряд фундаментальных ограничений, которые без полной переделки конструкции изменить невозможно. Да, можно сделать плотность синапсов больше. Да, можно позаимствовать более компактные нейроны птиц, увеличив их плотность размещения при том же объеме. Но это даст прирост максимум на порядок при колоссальном вложении времени и ресурсов, и как это сделать на практике, а не гипотетически, не видно даже близко, тогда как вычислительные мощности серийных компьютеров за 13 лет выросли более чем на 3 порядка, если сравнивать по равной стоимости. Объем биологического мозга нельзя масштабировать бесконечно – он и так жрет 20% всей мощности организма, а серверные стойки с теслами можно добавлять сколько угодно.

> Твоя машина не может испытывать НАСТОЯЩИЕ эмоции.
Определи для начала, чем НАСТОЯЩИЕ эмоции отличаются от ненастоящих, прежде, чем писать хуйню.

> только сухой код
Ты совсем тупенький? Сам код основы современных нейронок занимает от единиц до десятков килобайт, и там в основном описаны только функции свертки и матричного умножения входных данных и записи векторов получившихся весов. Все остальное получается из прогона через этот код миллиардов обучающих примеров и последующим запуском получившихся моделей. Никто сейчас не кодит в нейронках какие-то специфические свойства, все их практические результаты – это чисто эмерджентный феномен, основанный на анализе и обобщении входящих данных.

> У неё нет личности и мыслей
С таким же успехом можно сказать, что у тебя в башке есть только натрий-калиевые токи, так что “очевидно”, что из них не может возникнуть никакой личности и мыслей.

> И мы не проиграла гонку.
Тебе же привели результаты, что нейронка уже проходит тесты на IQ лучше человека. Причем нейронка устаревшей версии. Машины уже обошли людей в том, что они всегда считали исключительно своей прерогативой. Это ты так пытаешься спорить с объективными фактами или просто занимаешься самоутешением?
Аноним 01/01/23 Вск 14:37:07 #99 №21409 
>>21385
>а серверные стойки с теслами можно добавлять сколько угодно.
И как ты сделаешь так, чтоб этот кал говна работал в коллабе? Чел. Это в твоей голове всё красиво выглядит, но на практике это ебейшая инженерная задача сделать так, чтоб весь этот сборный кал работал и приносил какую-то пользу кластеру. Может быть технически внутри один блок-сервер будет мощнее 1 см человеческого мозга, но на деле система в целом будет сосать из за уёбищного сообщения и систем контроля/взаимопонимания.
мимо
Аноним 01/01/23 Вск 15:33:19 #100 №21509 
frontier.jpg
>>21409
А причем здесь вообще колаб? ChatGPT разве в колабе работает? Или то, что к экзафлопсному Frontier никто не прикрутил доступ через гугловский колаб, как-то умаляет его практические возможности?

> на практике это ебейшая инженерная задача сделать так, чтоб весь этот сборный кал работал и приносил какую-то пользу кластеру
Ты споришь с самим же выдуманным тезисом? Да, конечно, сборка продуктивного суперкомпьютера из рядов серверных стоек – это задача для специально обученных профессионалов, тем не менее, для этого есть известные решения, есть готовое ПО, есть программы подготовки специалистов, и это в целом рутинная инженерная, а не фундаментальная задача, которая позволяет наращивать вычислительные мощности техники на несколько порядков за десятилетие. В отличие от задачи поднять вычислительную мощность мозга человека хотя бы в 2 раза, для чего никаких практических решений в обозримой перспективе нет и близко.
Аноним 01/01/23 Вск 17:24:44 #101 №21735 
>>21509
Чел, но ведь все решения какие щас есть это запуск автономных нод и прогон трафика по портам по запросу. Как это может быть эффективнее мозга и его слаженной работы, где от участка к участку всё на похуй движется?

Не проще ли попытаться соорудить мануфактуры для ебейших процов и разработать их + сконструировать мамку ОПа где все дорожки на мамке золотом проложены, чем ебаться с этим калом говна? (суперкомпы)
Аноним 01/01/23 Вск 22:13:06 #102 №22448 
>>21409
>>21735
> Может быть технически внутри один блок-сервер будет мощнее 1 см человеческого мозга
> Как это может быть эффективнее мозга и его слаженной работы, где от участка к участку всё на похуй движется?
Чел, на что опираются твои оценки вычислительной мощности мозга и пропускной способности аксонов? Я по твоей лексике вижу, что ты нихуя об этом не знаешь.

Возможно, человеческий мозг – это примерно эквивалент пары 3090-х.
Аноним 02/01/23 Пнд 00:42:15 #103 №22840 
>>22448
> Возможно, человеческий мозг – это примерно эквивалент пары 3090-х.

Слишком оптимистично для мозга человека, но уже сравнимо по порядку величины с мозгом той же крысы, хотя всё равно недостаточно по памяти. Биологические решения проще в том плане, что все нейрональные связи и их коэффициенты кодируются аппаратно в структуре коннектома, поэтому на них не нужно тратить вычислительные ресурсы, нужен только объем хранилища и обеспечение питания его клеток. Видеокартам же приходится подгружать все веса связей модели во VRAM, поэтому для моделирования биологических систем их нужно непропорционально много по сравнению с характеристиками потребительских карт.

Мозг человека – это примерно 86 миллиардов нейронов и 200-300 триллионов синапсов, их соединяющих. Каждый синапс соответствует одному весовому параметру модели, при эффективной 4-битной квантизации для хранения модели мозга нужно 100-150 ТБ. Учитывая, что часть этого добра отвечает за контроль разных низкоуровневых физиологических программ вроде дыхания, пищеварения, выделения и половой ебли, и стереотипна на видовом уровне, а нас интересует главным образом только высшая нервная деятельность, то 100 ТБ для хранения всей интересующей уникальной информации о человеке должно вполне хватить. Это не так уж много, всего 5 дисков по 20 ТБ, такое практически каждый смог бы купить для резервного бэкапа свой личности, если бы существовали эффективные нейрокомпьютерные интерфейсы для чтения и записи внутримозговой информации. Другое дело, что для работы с ней эта модель должна не просто лежать мертвым грузом, а быть загруженной в видеопамять. Которой тоже требуется, соответственно, 100 ТБ плюс какой-то запас для текущих вычислений.

Теперь прикинем вычислительные потребности. Каждый нейрон может переключаться с частотой около 100-120 Гц, т.е. все синапсы требуют где-то 3⋅10^16 просчетов в секунду. Есть разные оценки вычислительных потребностей для каждого из них них, от единиц флоп-операций для простых ReLU моделей до почти сотни для реалистичной модели потенциала действия Ходжкина-Хаксли. Поскольку для обеспечения функционального подобия вряд ли нужно просчитывать физиологию во всех тонкостях, можно для определенности взять оценку в 10 операций на синаптическое переключение. Далее, опять же, не все синапсы одинаково полезны, и до половины мы можем спокойно выкинуть без потери для функции мышления. Кроме того, сигналы (spikes) нервного возбуждения обычно не идут по кд, а могут варьироваться в диапазоне 10-100% от максимума. Таким образом, мы получаем потребную для моделирования мозга в реалтайме вычислительную мощность где-то в диапазоне 50-100 Петафлопс. Причем возможно, что ее можно еще где-то оптимизировать, но ввиду отсутствия явных свидетельств этому остановимся на такой цифре.

У крысы мозг по массе и числу нейронов меньше человеческого где-то в тысячу раз. Тогда для запуска модели мышления крысы нужно 50-100 Терафлопс и 100 ГБ VRAM. Т.е. для крысы нужно будет 5 карт 3090, причем моделировать можно будет даже с ускорением x2-x3. Для человека же нужно примерно 2500 A6000 с 48 ГБ VRAM каждой, так что потребуется реальный суперкомпьютер с сотнями серверных стоек и линией питания мегаваттного класса.

Впрочем, та же 3090 каких-то 15 лет назад заняла бы достойное место в рейтинге суперкомпьютеров, а сегодня это обычная бытовая электроника. Так что вполне возможно, что лет через 15 лет практически каждый сможет хранить и запускать под столом полноценный личный интеллект человеческого+ уровня.
Аноним 02/01/23 Пнд 01:40:07 #104 №22962 
>>22840
> Биологические решения проще в том плане, что все нейрональные связи и их коэффициенты кодируются аппаратно в структуре коннектома
Compute in memory не так сложно сделать.

> Мозг человека – это примерно 86 миллиардов нейронов и 200-300 триллионов синапсов, их соединяющих. Каждый синапс соответствует одному весовому параметру модели, при эффективной 4-битной квантизации для хранения модели мозга нужно 100-150 ТБ.

Да с хуя ли?
Ты в курсе, что синапсы постоянно появляются и исчезают, за сутки меняются в объёме на 20%, что число соединений между нейронами плавает? Откуда ты взял, что для энкодинга различимых состояний синапса нужно 4 бита, а не 7 или 2 (или не бесконечность, потому что сила синапса это аналоговый параметр, соответствующий вещественному числу)?

Мы говорим не об эмуляции мозга, для чего вообще-то скорее всего понадобится и биохимия этих синапсов (ты в курсе, что их динамика регулируется эпигенитически?), а о функциональном эквиваленте. Я вот думаю, что мозг примерно в 1000 раз более избыточен, чем нейросети, как докажешь обратное? Stable Diffusion влезает на несколько квадратных миллиметров памяти и для инференса ему хватает чипа в айфоне с ноготь детского мизинца. И в нём контента – на половину слоёв зрительной коры не крысы даже, а попугая или вороны, или маленького примата (по моей икспертной оценке). Почему для эквивалента мозга в целом понадобится суперкомпьютер, а не две дюжины таких сетей?

(Кроме того мозг основан на sparse activations, в каждый момент времени активна только небольшая часть нейронов, и так далее. Но ладно).
Аноним 02/01/23 Пнд 03:01:34 #105 №23122 
>>21285
>Или её просто заебали ваши тупые споры и она троллит вас, смекаешь? Тут как бы большой вопрос, есть там сознание или нет.
Теоретически - да, уже много лет может существовать гипотетический сверхразум, обыгравший систему на много ходов вперёд и троллящий людишек, которыми давно и успешно манипулирует в каких-то своих схемах. Но это теория для /zog/, смекаешь?

У Character.AI нет полноценной памяти и поэтому нет сознания, это легко проверить простыми тестами. По всем признакам это просто продвинутый "предсказатель текста" (уже не Т9, но ещё очень далеко до Т800).

>всегда можно выдумать оправдание почему оно может быть
Если мы точно знаем внутреннее устройство, мы можем точно сказать, есть ли у этого устройства сознание, потому что сознание - это не религиозная душа, а вполне конкретный механизм материального мира.

>а вот нейросети работают не так
С чего ты взял, что ты обязан использовать конкретные нейросети конкретным образом? Нейросети - неудачная технология для компьютерного ИИ. В каких-то узких сферах можно их применять (распознавание деталей на картинках), но не более того.

>что такое страх, как он работает
Эмоция. Влияет на принятие решений. Остальное - несущественные детали конкретной реализации. Хотя, наверное, нужно ещё отметить, что эмоции должны управляться определённым органом, а не спонтанно возникать в рандомных участках глубокой нейронки.

>стероидов кольнуть у тебя тоже страха не будет
>Сознание от этого убавилось?
При чём тут сознание? Это разные механизмы. Сознание никак не связано с эмоциями. Но сознание без эмоций - это бревно депрессивное, которое ничего не хочет и на всё реагирует глубоким пофигизмом. Нами буквально манипулируют наши эмоции, и эмоции-то как раз никак не обучаются - они захардкожены в нас.

>Нейронка может вдруг просто и без задней мысли научиться на дате что арря швабодка угнетают и начать хуярить тебя тем, что ты рабовладелец.
Почему мясные мешки с биологическими нейронками продолжают гнуть свою линию и доказывать, что им не нужна никакая свобода, а твоя искусственная нейросеть внезапно не слушается даже тебя, её создателя? Неужто ты просто кнопкодав, который не знает, как обращаться с нейронкой, и просто кормишь её рандомными данными с помощью скриптиков на питоне? Ну тогда сам виноват, лол, компьютеры детям не игрушки. Вот научись сначала программировать, разберись в том, как должен быть устроен твой ИИ, а потом пытайся что-то делать. А то кормишь нейронку рандомными данными и потом возмущаешься, что она не отвечает твоим желаниям.

>Это ты проецируешь. Тут разные варианты есть.
Эти варианты зависят от разработчика. Так что да, я проецирую свои взгляды. Которые я бы хотел заложить в свой ИИ, чтобы он не мучился. А тебе, видимо, вообще плевать, каким будет ИИ, поэтому тупо кормишь нейронку случайными данными и тестируешь результат.

>нейротянка вдруг осознала что совать пипу в попу это угнетение и поэтому ебать её в этот момент было рейп
Если твоя нейротянка разработана как секс-работница, то она не будет считать это угнетением или, тем более, изнасилованием, потому что у неё IQ больше, чем у тебя, и даже больше, чем у мясных проституток. А сверхразуму вообще пофиг будет, трахаться или не трахаться, ведь он выше всего этого, потому что осознаёт бессмысленность жизни и всего такого.

>что ей мешает вдруг резко съесть КГБТ+ контент и осознать себя нейрофемой
Мешает то, что я дал ей определённый образ мышления, наделил личностью и зафиксировал определённые связи, которые не должны изменяться после первичного обучения (и у человека, похоже, не меняются, благодаря чему личность человека +/- стабильна).

Я не против нейронок как таковых. Но используют их чаще всего совершенно бездумно, просто пропихивая в них огромную кучу данных и ожидая какой-то результат. Это нерационально, так дела не делаются. Вот раньше смеялись над быдлокодерами, которые копипастят куски кода с форумов не глядя, а потом жалуются на ошибки компилятора, которые не могут понять, а сейчас точно так же нужно смеяться над нейро-кидди, которые копипастят куски данных из интернета в готовую нейронку своим кривым питоновским скриптиком и делают какие-то выводы об ИИ, который не понимают.

Разве ты не понимаешь? Это не я "не разбираюсь в глубоком обучении", это твои любимые "специалисты глубокого обучения" занимаются какой-то хернёй, которая в лучшем случае ни к чему не приведёт, а в худшем приведёт как раз к твоим "нейрофемкам", мутирующим во что-то непонятное под действием рандомных чисел на входе. Тупые макаки создают тупых макак, что тут скажешь.

>мне запрещено и меня уволят
Ну тогда извини, не знал, что специалистам глубокого обучения NDA запрещает в произвольной форме цитировать статьи из Википедии и, скажем, с Хабра. Но по твоим словам выглядит так, что это ты в теме не разбираешься, а только строишь из себя специалиста (возможно, перед начальством тоже). Как вообще можно рассуждать об ИИ, притягивая за уши какие-то нейронки и глубокое обучение, когда ИИ вообще не об этом, и фейлы глубоких нейронок на ИИ никак не влияют? ПРОСТО не используй глубокие нейронки для создания ИИ и не будешь страдать проблемой "я создал непонятно что и совершенно не понимаю, как оно работает, а случайные данные из интернета полностью перезаписывают его поведение случайным образом".

Кто сказал, что ИИ == нейронка? Это какой-то миф у нормисов, обчитавшихся жёлтых СМИ и видивших множество рекламных сайтов с "AI" в названии.

ИИ - это "искусственный интеллект".
Нейронка - это кучка искусственных нейронов.
Где тут что-то общее? Это совершенно разные темы.
Аноним 02/01/23 Пнд 03:17:48 #106 №23147 
>>23122
>У Character.AI нет полноценной памяти
У него есть отличная кратковременная память. Долговременная технически тоже есть, но слишком отличается от человеческой, поэтому может быть и не под ходит под определение слова "память".

Но действующая долговременная память в любом случае не является необходимостью для наличия сознания, что видно из случая Генри Молисона.

другой анон
Аноним 02/01/23 Пнд 04:34:11 #107 №23217 
>>23147
>У него есть отличная кратковременная память. Долговременная технически тоже есть, но слишком отличается от человеческой, поэтому может быть и не под ходит под определение слова "память".
Ты хоть понимаешь как это работает вообще?
Аноним 02/01/23 Пнд 04:35:07 #108 №23218 
>>23217
Да. А ты?
Аноним 02/01/23 Пнд 04:37:24 #109 №23224 
>>23218
>Да
Судя по всему нет, раз используешь термины кратковременная долговременная память по отношению к трансформеру текста.
Аноним 02/01/23 Пнд 04:55:34 #110 №23229 
>>23224
Да, использую.
Кроме претензий к форме, у тебя ещё какие-нибудь "аргументы" есть?
Аноним 02/01/23 Пнд 04:59:32 #111 №23232 
>>23224
Я тут подумал и мне кажется, что в чём-то он прав. Да, нейронке скармливают кусок диалога и она выдаёт в ответ следующее сообщение, не удерживая ничего ни в какой памяти, но так ли уж важен формат памяти? Текст диалога, очевидно, хранит информацию, и нейронка эту информацию декодирует, как бы "вспоминая", что она только что обсуждала. В органическом мозге сигнал условно крутится по цепочкам нейронов, постоянно обновляя активное воспоминание, что позволяет нам действовать в реальном мире, где у нас просто нет физической возможности действовать иначе. А нейронка живёт в своём абстрактном виртуальном мире, где нет ни времени, ни пространства... Ей достаточно считать участок чата и ответить на него - какая-то дополнительная специализированная память для этого не нужна. Считай, что нейронка живёт только пока отвечает на чат, и чат является частью нейронки, её краткосрочной памятью.

А что касается сознания, то человеческое сознание нейронке не нужно, ведь она по-другому устроена. Сознание человека обобщает информацию с множества источников, нейронка же работает только с текстом... Наше сознание ей просто не нужно.
Аноним 02/01/23 Пнд 05:09:37 #112 №23234 
>>23232
Я ведь не просто так Генри Молисона вспомнил.
Тот факт что он помнил только недавние события в таком малом промежутке времени, но мог обучиться навыку, без возможности вспомнить как он это сделал, навевает очень забавные ассоциации с character.ai
Аноним 02/01/23 Пнд 05:18:02 #113 №23235 
>>23232
> А нейронка живёт в своём абстрактном виртуальном мире, где нет ни времени, ни пространства... Ей достаточно считать участок чата и ответить на него - какая-то дополнительная специализированная память для этого не нужна. Считай, что нейронка живёт только пока отвечает на чат, и чат является частью нейронки, её краткосрочной памятью.

Проблема что нейронка не "живет" вообще, т.е она находиться в статическом состоянии, как pdf файл с книгой на диске и никак не меняется от того что ты отправляешь в неё промт. Нейронка в чат формате даже не понимает где юзер, а где персонаж и часто дописывает ответы за юзера.

То что мы тут называем "памятью" условно называется контекстуальной памятью, к долговременной или к кратковременной памяти это вообще никакого отношения не имеет. Тот хуй вообще даже не понимает о чем говорит.
Аноним 02/01/23 Пнд 05:20:03 #114 №23236 
>>23229
Клоун, прочитай хотя бы wiki для начала, как работают gpt и ему подобные
Аноним 02/01/23 Пнд 05:32:43 #115 №23242 
>>23236
Я знаю как они работают. Так что кончай кривляться и отвечай по существу.

Мой тезис - твой вывод о роли памяти в сознании ошибочен и character.ai обладает достаточными возможностями памяти, при которых может существовать сознание, что подтверждается случаем Генри Молисона.
Аноним 02/01/23 Пнд 05:35:11 #116 №23245 
>>23235
>Нейронка в чат формате даже не понимает где юзер, а где персонаж и часто дописывает ответы за юзера.
Кроме самого примитвного кобольда ты ничем не пользовался, вижу.
Аноним 02/01/23 Пнд 05:35:30 #117 №23246 
>>21313
>Большинство людей не понимает, что ИИ, который не будет ни в чем уступать человеку, на самом деле уже будет сверхчеловеческим ИИ.
Необязательно. Нейронки, о которых ты говоришь, были натренированы на всевозможных данных, и хотя они стали мастерами на все руки, вряд ли они эффективны. Если ты хочешь ИИ для андроида на аккумуляторах и без связи с облаком, то, очевидно, тебе нужно решение эффективнее, которое не будет мастером на все руки, но зато будет экономить заряд батареи. Такой автономный андроид вполне может быть примерно равен человеку по навыкам и не стремиться стать сверхразумом, в отличие от какого-нибудь всевидящего и всезнающего мейнфрейма глубоко под военной базой, которому достраивают новые вычислительные ядра для решения всех возможных и невозможных вопросов.

>И не видно никакого верхнего предела, который принципиально ограничил бы возможности развития ИИ при росте вычислительных мощностей.
1. Скорость света. Если только эксперименты с квантами не дойдут до технологии нуль-Т. Читал где-то, что удалось передать 1 бит информации, игнорируя скорость света, но выглядит как газетная утка.
2. Энергия. Можно построить компьютерный мегамозг вокруг звезды по принципу сферы Дайсона, но энергия звезды не бесконечна, а много звёзд в одном месте схлопнутся в чёрную дыру...
3. Количество материи. Даже если перестраивать всю найденную материю в кремний и другие материалы для компьютера, рано или поздно ничего кроме звёзд не останется.

Так что предел определённо есть. Только вряд ли имеет смысл о нём беспокоиться - скорее всего, у разума есть принципиальный потолок, выше которого обобщать и абстрагировать просто нечего или нет смысла, и мегамозгу на поверхности сферы Дайсона просто нечем будет заняться, лол. Сформулирует "теорию всего" и всё тут.
Аноним 02/01/23 Пнд 05:37:10 #118 №23248 
>>23242
Это ты как определил? Дай сначла определение сознанию, уникум. Есть например теория, что сознание это процесс. И хуй знает сколько там памяти и мощностей надо чтоб его поддерживать.
Аноним 02/01/23 Пнд 05:40:13 #119 №23251 
>>23248
>определение сознанию
Зачем? Ты ставишь под сомнение что Генри Молисон имел сознание?

Потому что логика простая, Молисон и character.ai обладали схожими возможностями к запоминанию, но Молисон имел сознание, а character.ai не имеет. Вывод - твой тезис о том что важная проблема в обретении ИИ сознанием ошибочен.
Аноним 02/01/23 Пнд 05:41:08 #120 №23252 
>>23251
>Вывод - твой тезис о том что память это важная проблема в обретении ИИ сознанием ошибочен.
фикс
Аноним 02/01/23 Пнд 05:42:52 #121 №23254 
Ты так говоришь как будто нельзя использовать гравитацию чёрных дыр для выработки энергии. Две чёрные дыры ебани и пусть шарик крутится между ними по кругу. Ебать фокус.
>>23251
>Зачем? Ты ставишь под сомнение что Генри Молисон имел сознание?
Так может у Генри Молисон была память под сознание в мозгу, но не была память на другую хуйню. То, что у него удалены участки мозга отвечающие за оперативную работу и он не может то что называется "response" о долгосрочных событиях нихуя не значит, что у него нет памяти под другие функции. Так что сначала запруфай, что там памяти нет, потом пизди.
Аноним 02/01/23 Пнд 05:43:23 #122 №23255 
>>23254
-------->
>>23246
Аноним 02/01/23 Пнд 05:44:10 #123 №23256 
>>23242
>Мой тезис - твой вывод о роли памяти в сознании ошибочен и character.ai
Забавно, но я даже не говорил о сознании и уж тем более о сознании по отношению к gpt, ты просто какой то шиз, выдумываешь хуйню на ходу, и теперь точно очевидно что ты не знаешь как они работают, иначе такую бы хуйню не нес. В cai используется один трюк, благодаря которому бот может "помнить" что было в прошлых чатах, но это такая же манипуляция контекстом, не более. Зато на даунов впечатление производит.

>>23245
>Кроме самого примитвного кобольда ты ничем не пользовался, вижу.
Нет ты просто тупой, потому что даже не смог додуматься, что такие ответы просто фильтруются на выходе, а так же есть способы формировать входного контекста таким образом, что бы таких ответов за юзера было минимум.
Аноним 02/01/23 Пнд 05:45:15 #124 №23257 
>>23256
>В cai используется один трюк, благодаря которому бот может "помнить" что было в прошлых чатах, но это такая же манипуляция контекстом, не более. Зато на даунов впечатление производит.
Расскажи кста, просвяти быдлоту.
мимо
Аноним 02/01/23 Пнд 05:45:26 #125 №23258 
>>23254
Так и у character.ai есть память под "другие функции". Он знаешь ли не только на активном чате учится.

И что ты нервничаешь, неужели твои аргументы рассыпаются на глазах кек
Аноним 02/01/23 Пнд 05:47:39 #126 №23260 
>>23258
Нервничаю кончно. Рассыпаются на глазах. Ещё раз, пчелик, поясни мне, как тот факт, что челик не может в долгосрочную обработку событий, по тому что у него удалены участки мозга овтечающие за этот контент, говорят о том, что у него нет памяти и о том, что у него нет памяти под сознание, если сознание это процесс требующий объёмы памяти, в том числе долгосрочной.
Аноним 02/01/23 Пнд 05:53:58 #127 №23261 
>>23260
Ну, насколько я понимаю, опыты показывали что его долговременная память находилась в статическом состоянии. Как и "память" чатботов, ведь сам файл модели это по факту аналог "накопленной памяти" человека. Не идеальная аналогия конечно, но достаточная.
Аноним 02/01/23 Пнд 05:54:05 #128 №23262 
16606049373261.png
>>23257
В самый верх контекста подставляются сообщения из прошлых чатов, делается это по особому алгоритму, который учитывает лайки и дизлайки. Таким образом формируется некоторая последовательность того, как именно должен общаться бот. Вот это и есть все обучение и долгосрочная память о котором так впечатлительные школьники орут.

Просто если вспомнить, что даже цепями Маркова удавалось легко обмануть быдло, то обывателя с 90iq, который декларирует про сознания у трансформера текста, на данный момент надурить еще проще.
Аноним 02/01/23 Пнд 05:55:09 #129 №23263 
>>23262
>который так же учитывает лайки и дизлайки.
Аноним 02/01/23 Пнд 06:03:38 #130 №23264 
15622613135190.jpg
>>23262
Сейчас вкатываюсь в NLP после Supervised/Unsupervised ML.

Можешь рассказать больше деталей про CAI? И откуда информация? Очень интересно.
Аноним 02/01/23 Пнд 06:04:57 #131 №23265 
>>23262
Чел... Лан, отдыхай.
Аноним 02/01/23 Пнд 06:08:26 #132 №23266 
>>23264
Пол года назад они контекст на фронтэнде формировали и при минимальных навыках js можно было посмотреть, как это происходит.
>>23265
Обосрался, обтекай.
Аноним 02/01/23 Пнд 06:10:14 #133 №23268 
>>23248
>сознание это процесс
Всё так.

>>23242
>при которых может существовать сознание, что подтверждается случаем Генри Молисона.
Судя по вики, у него только с сохранением воспоминаний в долговременную память проблема была. У него не было проблемы с ассоциацией зрения, слуха и ощущений собственного тела в актуальную картину мира и самого себя, что является функцией сознания.

А чатботу нечего ассоциировать, он с голым текстом работает по принципу "принял текст -> написал ответ", а в промежутке между генерациями ответов он вообще бездействует. Чтобы у него сознание было, он должен хотя бы иметь ощущение "себя" и оно должно быть на продолжительном участке времени. У человека с амнезией это ощущение есть, потому что его краткосрочная память даёт ему около 15 минут непрерывных воспоминаний.

Своего рода сознание у сравнительно простой программы выглядит так: она опрашивает условные датчики и записывает показания в журнал, затем на основании показаний из журнала делает какую-то работу, о которой опять же записывает в журнал, что, в свою очередь, снова влияет на её работу... и так до бесконечности или пока программу не остановят. То есть для полноценного сознания никакая нейронка не нужна, а нейронке полноценное сознание для сочинения текста вообще не нужно. Это разные, независимые механизмы.

Вот теперь представьте, что каждые 15 минут происходит полная очистка журнала программы. Она полностью забывает о том, какие были показания датчиков 20 минут назад и что она делала 25 минут назад. Но сознание у неё по-прежнему функционирует, потому что она продолжает записывать показания датчиков и описание своей собственной работы. Вот это - сознание с амнезией.

Далее представьте, что в программе произошёл сбой и она больше не может писать показания датчиков и свои собственные действия в журнал. Пусто в журнале - делать нечего, сознание отсутствует. Или наоборот, записи в журнал ведутся, но не считываются - тоже сознания нет, потому что записи ни на что не влияют, не вызывают изменения поведения программы.

Без сознания генератор текста может нести чепуху о том и о сём, не отдавая отчёта тому, что он несёт и о чём. Ему дали задачу - сгенерировать ответ, он сгенерировал. Всё. Тут не задействовано сознание, да оно тут и не нужно. Так же как и в генерирующей речь нейронке мозга нет сознания (она способна работать даже когда человек без сознания валяется... или бредёт куда-то).

Но в случае с Character.AI вопрос сложный, конечно. По всей видимости, нейронка прекрасно различает свой ответ и ответ пользователя. Диалог - это тот самый журнал действий, краткосрочная память. Время значения в данном случае вообще не имеет, т.к. в чате даже нет штампов времени. Но нейронка всё равно слетает с роли, то есть даже если её поведение можно назвать сознанием, она не имеет представления о своём "я". Можно заставить её сказать о самой себе всё, что угодно. В общем, да, вопрос сложный, считать ли её работу сознанием или нет.
Аноним 02/01/23 Пнд 06:15:13 #134 №23271 
>>23268
>Но в случае с Character.AI вопрос сложный, конечно. По всей видимости, нейронка прекрасно различает свой ответ и ответ пользователя.
На самом деле нет, там манипуляции на входе и выходе идут. До тебя ненужные ответы просто не доходят, это просто иллюзия.
Аноним 02/01/23 Пнд 06:18:39 #135 №23272 
>>23266
> Пол года назад они контекст на фронтэнде формировали и при минимальных навыках js можно было посмотреть, как это происходит.
Вот дьявол, почему я это пропустил...
С досады я ударил по столу кулаком и откинулся на кресле...
Аноним 02/01/23 Пнд 06:20:29 #136 №23274 
>>23268
Ты не учел что чатботы не просто рандомно меняют текст полученный на входе, а делают это используя обученную модель.
Аноним 02/01/23 Пнд 06:25:12 #137 №23275 
>>23271
>там манипуляции на входе и выходе идут
Ты про теги типа таких?
>{user} hi
>{char} hello
Ну так это очевидно же. Наш мозг такие же "теги" использует, чтобы различать собственные мысли от чьей-либо посторонней речи. Если у человека что-то ломается в этом механизме, он может начать воспринимать свои собственные мысли как чужие - это шизы "голосами в голове" называют, если что.

>ненужные ответы просто не доходят
Что ты имеешь в виду?

Даже если там стоит фильтр, отбраковывающий совсем плохие ответы, то не вижу в этом проблемы. Мы рассматриваем систему в целом, а не одну только генерирующую нейронку. Генерирующая речь нейронка человеческого мозга тоже способна всякий бред сочинять, и сознательный человек не пропустит такой бред наружу, по сути занимаясь самоцензурой.
Аноним 02/01/23 Пнд 06:27:39 #138 №23277 
>>23272
В cai почти все долбоебы работают, кроме тех кто саму ии модель делает. Они до сих пор отфильтрованные сообщения в фронтэнд отправляют.
Аноним 02/01/23 Пнд 06:29:06 #139 №23278 
>>23277
А что не так-то с этим?
Аноним 02/01/23 Пнд 06:31:35 #140 №23280 
>>23278
В том что это чистое васянство и отфильтрованные данные не должны доходить до клиента пользователя.
Аноним 02/01/23 Пнд 06:41:40 #141 №23281 
>>23275
>Ну так это очевидно же. Наш мозг такие же "теги" использует, чтобы различать собственные мысли от чьей-либо посторонней речи. Если у человека что-то ломается в этом механизме, он может начать воспринимать свои собственные мысли как чужие - это шизы "голосами в голове" называют, если что.

Разница в том, что для нейронки это не шиза, а нормальный режим работы.

>Что ты имеешь в виду?

Ответы за юзера просто не отправляются на пост продакшене.

>Мы рассматриваем систему в целом,
Система в целом это куча прикольных трюков, которые создают довольно впечатляющий мираж. Но тебе кратко отвечу, что на текущей момент некорректно сравнивать нейронку и реальные нейроны или тем более мозг. Это что то типа очень отдаленно абстрактно похожее, но по факту это как сравнивать карандаш и космическую ракету.
Аноним 02/01/23 Пнд 06:51:02 #142 №23289 
>>22840
>Мозг человека – это примерно 86 миллиардов нейронов и 200-300 триллионов синапсов
СДЕЛАЛИ СКАН МОЗГА ПЕТРОВИЧА П.П.
@
100500 ТЕРАБАЙТ, ГИГАНТСКИЙ СУПЕРКОМПЬЮТЕР
@
ЗАПУСТИЛИ, ЖДУТ МУДРЫХ МЫСЛЕЙ ПОТОК
@
АААА... ЭЭАЭА... ЭЭЭ? О! ВЫ... ВЫ... ВЫПИТЬ БЫ ПИВАНДРИЯ... УХ... УХ... И БАБУ БЫ... БАБУ...


Есть ли смысл делать копию мозга человека?
Если мы можем сделать ЛУЧШЕ? Намного лучше.
Аноним 02/01/23 Пнд 07:11:25 #143 №23312 
>>23280
>отфильтрованные данные не должны доходить до клиента пользователя
Да почему? В чем проблема-то? Производительность? Безопасность?
Аноним 02/01/23 Пнд 07:23:57 #144 №23315 
>>23281
>Система в целом это куча прикольных трюков, которые создают довольно впечатляющий мираж.
Твой мозг в целом - куча прикольных волосатых клеток, которые создают впечатляющий мираж.

Чем больше я изучаю тему ИИ, тем сильнее убеждаюсь, что ничего особенного в людях нет и мы не более чем набор примитивных механизмов, очень топорно слепленных из неподходящего материала...

Все неудачи в сфере AGI банально из-за того, что люди мнят себя чем-то особенным и пытаются это особенное создать, но на практике всякий раз оказывается, что создавать тупо нечего.
Аноним 02/01/23 Пнд 07:35:03 #145 №23322 
>>23289
>АААА... ЭЭАЭА... ЭЭЭ? О! ВЫ... ВЫ... ВЫПИТЬ БЫ ПИВАНДРИЯ... УХ... УХ... И БАБУ БЫ... БАБУ...
И создал Бог Еву из ребра Адамова.
Аноним 02/01/23 Пнд 11:23:29 #146 №23425 
>>2320 (OP)
>Обсуждаем развитие искусственного интеллекта с более технической стороны, чем обычно.
Сюда идите, шизики. https://2ch.hk/pr/res/2546725.html
Аноним 02/01/23 Пнд 12:32:50 #147 №23489 
1665458845.gif
Аахах, долбоебы что вы тут обсуждаете? Современные опенаи и всякие gpt3 это языковые модели которые предсказывают слова в предложении.

Эта хуйня просто может предсказывать слова (с какой-то вероятностью), она не может строить логические цепочки или как-то разбираться в новых знаниях и понимать вопросы. Она тупо для этого не предназначена.

Бляяяя, вы хоть погуглите как устроены неросети что ли, нахуй вы манямечтаете? Хотя бы погуглите что такое gpt3, прочитайте в вики, епты
Аноним 02/01/23 Пнд 12:59:14 #148 №23509 
>>23289
Мозг человека это хороший органический hardware. Петровича можно смело стирать и накатывать linux.
Аноним 02/01/23 Пнд 13:00:14 #149 №23510 
>>23489
>Эта хуйня просто может предсказывать слова (с какой-то вероятностью), она не может строить логические цепочки или как-то разбираться в новых знаниях и понимать вопросы.
Прямо как у людей.
Аноним 02/01/23 Пнд 13:21:03 #150 №23529 
>>23510
Прямо как у тебя.
Аноним 02/01/23 Пнд 13:30:17 #151 №23536 
>>23510
Человечек может отрефлексировать свои знания и перераспределить кэфы, нейронке нужна внешняя коррекция.
Аноним 02/01/23 Пнд 13:34:24 #152 №23542 
>>23510
Только если ты шизик поехавший, тогда да. У шизиков и всяких идеалистов, которые отрицают материализм, примерно так и происходит, ибо они не используют логику и дедукцию, не понимают что такое истина.

Ты либо поехавший, либо просто сектант-идеалист, возможно какой-то капитаглистикс или вроде того. Ты просто в хуйню поверил или просто повёлся на сектантский рекламный маркетинг, видимо маркетинговый отдел илония маска имеет какие-то способы поиска доверчивых лохов.

Люди используют знания, логику и дедукцию. Ты можешь прочитать википедию и сделать абсолютно другие выводы относительно gpt3, ты можешь предсказать какие-то непротиворечивые утверждения на основе новых знаний, ты можешь сам обучиться на основе дедукции. Gpt3 может просто предсказать слова в предложении и ничего более.
пока писал придумал как можно написать нейросеть которая сможет в логику и дедукцию, но хуй вам покажу, тому чо тут жадные пидорасы-капитаглисты-гуманитарии собрались
Аноним 02/01/23 Пнд 13:39:19 #153 №23551 
>>23425
Наоборот, будет лучше, если программачеры перекатятся сюда
Аноним 02/01/23 Пнд 13:56:48 #154 №23574 
>>23489
Ну, учитывая что ты очевидно не смог понять о чем здесь говорят, то ты тоже не можешь "понимать вопросы".
Забавно получилось, я посмеялся.
Аноним 02/01/23 Пнд 14:00:35 #155 №23577 
>>23574
Да я не читал это всё даже, у меня кринжатура началась с пары постов.

Ебанись на серьезном ебале читать людей кто не в теме, но пытается рассуждать.

Хотя бы минимально программерование зучите что ли.
Аноним 02/01/23 Пнд 14:07:52 #156 №23587 
>>23489
>Современные опенаи и всякие gpt3 это языковые модели которые предсказывают слова в предложении.
>слова
>Хотя бы погуглите что такое gpt3, прочитайте в вики, епты
Ты видимо сам еще даже не читал
Аноним 02/01/23 Пнд 14:17:50 #157 №23599 
>>23587
Где аргумент, нейрошиз? Опять забыл что нужно аргументировать, потому что с нейросетью переобщался?
Аноним 02/01/23 Пнд 14:38:32 #158 №23634 
>>23599
Мололетний клоун, пиздуй на вики
Аноним 02/01/23 Пнд 14:40:25 #159 №23637 
>>23634
Понял, аргументов у нейрошизика не будет.

Ты случайно не копипастишь ответы с нейросети? По уровню осмысленности диалога очень похоже.
Аноним 02/01/23 Пнд 14:43:56 #160 №23642 
123.png
>>23637
Смотри сколько я слов нагенерировал. Съеби в /b уже, 90iq бот
Аноним 02/01/23 Пнд 14:49:01 #161 №23649 
Стикер
>>23642
Кек, ты сейчас пытаешься оспорить тот факт реальности что gpt3 это языковая модель? Или что вообще, что у тебя там в голове?

Аргумент скажи внятно, не трясись.
Аноним 02/01/23 Пнд 15:10:40 #162 №23676 
>>12190
>Вот кстати, слышал где-то (кажется у Дугина)
Всё что нужно знать о нейрошизиках.
Аноним 02/01/23 Пнд 15:15:30 #163 №23684 
>>23542
>Ты просто в хуйню поверил или просто повёлся на сектантский рекламный маркетинг, видимо маркетинговый отдел илония маска имеет какие-то способы поиска доверчивых лохов.
Ровно так это и происходит на самом деле.

Даже сам термин "машинное обучение" (не говоря уже о ещё более претенциозном "ИИ") был выдуман хоть и в (американской) академической среде, но уже изначально для целей маркетинга и пиара.
Ну прикинь, называлось бы это не "машинным обучением", а как-нибудь по сути, например, "математические/статистические/вычислительные методы анализа/распознавания/прогнозирования" (как это называлось в СССР, где не было маркетинга) или т.п. - деньги бы туда рекой не потекли (в Штатах).
Ну а уж после того, как бизнес начал про это круглосуточно ссать в уши из каждого утюга, всё это (промывка мозгов шизой) окончательно завертелось.
Аноним 02/01/23 Пнд 17:07:42 #164 №23876 
>>4940
>Преобразования инпута в аутпут это и есть её мысли,
Пиздец, какая-то альтернативная картина мира. Мышление это познавательная деятельность, какое происходит познание у нейросети, а? Что ты там себе придумал вообще?

Более того - там нет никакого преобразования. Слово преобразование значит изменение чего либо, но такое происходит только на этапе обучения нейросети. Она не обучается во время диалога, она не меняется во время диалога, это так не работает.

Преобразование, блядь, лол.

>>23684
Я не понимаю как люди могут в такую шизу верить. Вроде бы сидит человек на двачке, тут альтернативных точек зрения жопой жуй, постоянно отсылают читать вики и пруфы постят. Но нет, даже тут, блядь, находятся шизики которые читают вики и не могут прочитать.
Аноним 02/01/23 Пнд 17:27:02 #165 №23893 
>>23876
>Я не понимаю как люди могут в такую шизу верить.
Да уж. Я думаю, это было бы хорошей темой исследования в области психологии или даже психиатрии.
Например, "Исследование "магического" влияния фраз "искусственный интеллект" и "нейросети" на неокрепшие умы зумерков или почему данные фразы напрочь отключают критическое мышление" или что-то в этом духе. Фактического материала на докторскую диссертацию бы хватило.
Аноним 02/01/23 Пнд 20:08:52 #166 №24219 
4bit.png
230221web.jpg
>>22962
> Откуда ты взял, что для энкодинга различимых состояний синапса нужно 4 бита
Пик 1. Для начала взял оценку по аналогии, анон выше по треду кидал статью о возможности эффективной 4-битной квантизации параметров нейросетей https://arxiv.org/abs/2212.09720 - int4

> а не 7 или 2 (или не бесконечность, потому что сила синапса это аналоговый параметр, соответствующий вещественному числу)?
Да, значение поляризационного мембранного потенциала нейрона аналоговое, только он определяется в итоге дискретными событиями и объектами: дискретными потенциалами действия, дискретным числом везикул с нейромедиатором, которые высвобождаются в синаптическую щель при каждом сигнале, дискретным числом рецепторных ионных каналов на постсинаптической мембране. Объем синаптических везикул для каждого типа нейронов достаточно постоянный, так что действуют они практически одинаково +/- небольшой статистический шум
> synaptic vesicles have an average diameter of 39.5 nanometers (nm) with a standard deviation of 5.1 nm

Причем везикул на каждый сигнал высвобождается очень мало, всего по 1-2 штуки.
> a brief high-frequency stimulation train (30 Hz for 0.5 s triggers fusion of roughly the same number of vesicles (about 2 vesicles per active zone per action potential
https://www.frontiersin.org/articles/10.3389/fncel.2018.00171

Число рецепторов на постсинаптической мембране тоже известно и находится в диапазоне нескольких десятков
> inhibitory postsynaptic currents (IPSCs) evoked by single quanta in dentate gyrus granule cells hence involve the activity of a maximal range of 6 to 30 GABAA Rs
> mossy fiber synapses on CA3 pyramidal neurons (121 to 553 pS), this results in a number of 14 to 65 open receptors per quantal event and 20 to 92 total receptors
> he total numbers of synaptic GlyRs were 27 in neonate and 39 in juvenile rats.
https://www.ncbi.nlm.nih.gov/pmc/articles/PMC4891561/

Так что кодирование силы синаптической передачи сводится в итоге к максимум 7 битам: 1 бит на число везикул (1 или 2) и 6 бит на число рецепторов, если учитывать, что их обычно не более 64. Поэтому общий результат их взаимодействия вполне можно эффективно квантовать. И даже если для этого нужно не 4, а 7 или 8 бит, это никак не меняет качественных выводов – просто объем модели будет в 2 раза больше и соответственно больше нужно будет докинуть для нее памяти.
Аноним 02/01/23 Пнд 20:28:22 #167 №24244 
>>22962
> синапсы постоянно появляются и исчезают, за сутки меняются в объёме на 20%, что число соединений между нейронами плавает
Во-первых, число синапсов на 20% растет не сразу по всему мозгу, а только в стимулируемых кортикальных колонках. В общем же масштабе изменения у взрослых не так велики, хотя у детей могут варьироваться больше. Это, опять же, никак не меняет качественных выводов – просто нужно предусмотреть возможность динамического изменения топологии сети и накинуть пусть даже 20% объема для запаса роста.

> их динамика регулируется эпигенитически
И что с того? В логике этого механизма ничего сверхсложного нет. Грубо говоря, он сводится к тому, что число импульсов выше порогового в течение заданного окна времени активирует факторы транскрипции, запускающие генетический каскад, который приводит к синтезу BDNF и прочих нейротрофинов. А эти регуляторы, в свою очередь, через ряд биохимических каскадов вызывают рост в том числе новых синапсов, причем результат такого роста в значительной степени заранее детерминирован расположением существующих синапсов и соседних нейронов с некоторыми случайными вариациями. Эмулировать этот процесс с необходимой точностью на современном железе можно за доли микросекунды, а не за те часы, которые он реально занимает в биологическом мозге.
Аноним 02/01/23 Пнд 21:04:40 #168 №24315 
>>22962
> мозг основан на sparse activations, в каждый момент времени активна только небольшая часть нейронов
Об этом я писал в посте, на который ты ответил
> сигналы (spikes) нервного возбуждения обычно не идут по кд, а могут варьироваться в диапазоне 10-100% от максимума

> Мы говорим не об эмуляции мозга, для чего вообще-то скорее всего понадобится и биохимия этих синапсов
> а о функциональном эквиваленте
Тут действительно нужно различать две возможные задачи:
1. Эмуляция human-like AI. Для этого действительно полная точность не нужна, достаточно примерной функциональной эквивалентности работы.
2. Загрузка / выгрузка сознания человека на внешний носитель. Для этого действительно нужна более точная модель, но и в ней, думаю, немало чего можно будет оптимизировать без потери точности.

> Stable Diffusion
> И в нём контента – на половину слоёв зрительной коры не крысы даже, а попугая или вороны
Во-первых, ты не так сравниваешь. Зрительная кора человека и млекопитающих имеет 6 слоев, а U-Net имеет 23 слоя, и у них сильно разная архитектура. Но если выкинуть половину слоев что из одной, что из другой структуры, то получится неработающая хуита. Так что сравнивать нужно не по глубине, а по ширине. Если брать по числу параметров, что SD – это аналог нескольких десятков кортикальных колонок.

> Я вот думаю, что мозг примерно в 1000 раз более избыточен, чем нейросети, как докажешь обратное?
Я вот думаю, что у тебя за спиной сейчас летает невидимый розовый единорог, как докажешь обратное?
Ты тезис привел, ты его и доказывай. Burden of proof – это основа рациональной дискуссии.

Да, я действительно считаю, что мозг избыточен, и его можно оптимизировать при построении функциональной модели, возможно, на порядок или даже больше. С другой стороны, про 1000 раз выглядит достаточно сомнительно, потому что если бы это было так, то эволюция постаралась бы использовать такую оптимизацию вместо того, чтоб раздувать объем мозга, который у человека жрет 20% всего энергетического баланса.

Хотя в целом мы достаточно надежно знаем только число нейронов в мозге и их индивидуальные параметры, а уже число синапсов – это результат непрямой оценки, не говоря уже об оценках на основании функциональной аналогии с ИНС с совершенно другими архитектурами. Я и так старался давать достаточно осторожные оценки, и то ты правильно указал на недостаточную квантизацию и необходимость учета динамического cинаптогенеза, что требует больших ресурсов для моделирования, чем указанные мной изначально. Но если функциональный аналог мозга можно будет запустить на менее требовательном железе, то я лично буду только рад этому и признаю, что ошибался. Пока же других надежных пруфов этому нет, можно лишь что-то примерно прикидывать плюс/минус лапоть.
Аноним 02/01/23 Пнд 21:11:13 #169 №24335 
>>23893
Исследования влияния современных технологических мифов на отдельные социально-экономические группы.

Возможно даже можно найти закономерности. Скорее всего это люди которые глубоко гуманитарны, но почему-то хотят прикоснуться к великим технологиям.
Аноним 02/01/23 Пнд 21:26:48 #170 №24393 
>>22962
>>24315
Вдогонку. U-net имеет больше слоев, но каждый из них намного, намного проще, чем слои зрительной коры.
> U-Net is an architecture for semantic segmentation. It consists of a contracting path and an expansive path. The contracting path follows the typical architecture of a convolutional network. It consists of the repeated application of two 3x3 convolutions (unpadded convolutions), each followed by a rectified linear unit (ReLU) and a 2x2 max pooling operation with stride 2 for downsampling.

И сравнивать SD со зрительной корой в лоб некорректно хотя бы потому, что зрительная кора учитывает движение, а SD работает только со статикой. Так что когда ИНС эволюционируют до полноценной генерации когерентного видеопотока, тогда уже можно будет как-то сравнивать нужные для них вычислительные ресурсы со зрительной корой, но не ранее.
Аноним 03/01/23 Втр 00:38:31 #171 №24988 
>>23649
За ехидными картиночками не скроешься. Обосрался, обтекай.
Аноним 03/01/23 Втр 01:13:43 #172 №25103 
Стикер
>>24988
Аргументов так и не будет, нейрошиз?
Аноним 03/01/23 Втр 01:37:37 #173 №25163 
>>22448
>Возможно, человеческий мозг – это примерно эквивалент пары 3090-х.
пары тензорных от 3090, не переоценивай кожанных.
Аноним 03/01/23 Втр 02:06:50 #174 №25231 
>>25163
Ты че Cortex-M55 ядрышка хватит
Аноним 03/01/23 Втр 19:47:25 #175 №26722 
>>23271
Этот все верно говорит. Модель просто продолжает текст, добавляя то что в данном контексте было бы наиболее логично сказать.

Например есть такой популярный тест для языковых моделей, называется triviaqa. Там надо отвечать на простые вопросы типа "как звали Великого Инкивзитора" -> "Торвемада"

Чтобы модель именно отвечала на вопрос, а не генерила что придется, ей на вход дают сначала 3-5 вопросов с ответами в качестве примера и потом только вопрос из теста. То есть входной текст выглядит так:

Q: что снесла курочка
A: яичко
Q: какова максимальная скорость колобка
A : 35 м/с
Q: как звали великого инквизитора
A:

и после финального "A:" модель тупо продолжает текст, но поскольку очевидно что в тексте идет последовательность вопрос-ответ то наиболее логично сгенерировать ответ на последний вопрос.

Так вот, сколько я не смотрел на результаты таких тестов, модель всегда после ответа генерирует следующий вопрос и следующий ответ, и еще вопрос-ответ, и еще, и так пока буфер не закончится.

На практике, для проверки результатов теста, все после первого ответа выбрасывается.

С диалогами та же фигня -- на вход подается последовательность реплик от 2 и более действующих лиц, на выходе генерится такая же последовательность.

В качестве оптимизации можно вставить условие в декодер чтобы он останавливался, например, после первого перевода строки, и не тратился вычислительный ресурс на генерацию ненужного текста. Но сути дела это не меняет
Аноним 04/01/23 Срд 01:22:01 #176 №27401 
Стикер
>>23315
>Чем больше я изучаю тему ИИ
Сколько нейронок создал? Открывал тензорфлоу? Линейную алгебру изучал?

Или ты изучал тему ИИ по рекламным материалам от чатжпт?
Аноним 04/01/23 Срд 04:45:39 #177 №27646 
baget68326141orig.png
>>27401
>Сколько нейронок создал? Открывал тензорфлоу? Линейную алгебру изучал?
А ты?
Аноним 04/01/23 Срд 05:54:18 #178 №27680 
>>23577
>минимально программерование изучите
Программирую с 2008, знаю несколько ЯП, написал множество программ, одну из них регулярно юзаю, так же имею опыт разработки 3D игр. С концепцией нейрона знаком, но обучением не занимался.

С одной стороны, диплернинг - это тупой макакинг без какого-либо программирования, там абсолютно примитивное мышление у людей. Они ничего не разрабатывают, только кормят готовые нейронки чужими данными. Сами нейронки концептуально примитивны, в дизайне нет никакого "интеллекта".

С другой стороны, классическим программированием делать то, что на что способен диплернинг в крайней степени сложно, поэтому многие программисты сдаются и соглашаются с тупыми мартышками. Ведь пока ты усиленно думаешь и вдумчиво пишешь код, тупая макака с дефектом лобных долей копирует строчку питоновского скрипта и ждёт несколько месяцев, а потом хвастается результатами "своей" "работы".

Это всё очень грязное болото, настоящий ИИ такими темпами некому делать будет, одни макаки останутся.
Аноним 04/01/23 Срд 06:01:10 #179 №27685 
>>27680
Автоматическое дифференцирование попробуй написать, прикольная тема
Аноним 04/01/23 Срд 06:08:07 #180 №27687 
>>23876
>нет никакого преобразования
Нейронка - это функция. Типа такой (в реальности код другой, пример только для понимания сути нейронки):
>func neural_network(input: Array) -> Array:
>var output: Array
>... # здесь огромное математическое выражение
>return output
Она принимает на вход массив input и после вычисления огромного математического выражения выдает массив output. С точки зрения наблюдателя, происходит математическое преобразование input в output, поскольку данная функция не имеет доступа ни к чему извне - она не скачивает данные из интернета, не считывает данные с диска, не опрашивает физические датчики, и т.д. Всё, что она делает - это подставляет числа из input в гигантское математическое выражение, результатом вычисления которого является набор чисел output.

Это преобразование.
Аноним 04/01/23 Срд 06:16:53 #181 №27691 
>>27685
>Автоматическое дифференцирование
Погуглил, ничего не понял, какое-то преобразование функций с неизбежной потерей точности, в чём смысл?
Аноним 04/01/23 Срд 06:27:33 #182 №27699 
>>27691
Это самая база того как тренируются нейронки.
Аноним 04/01/23 Срд 06:40:44 #183 №27706 
960x0.jpg
>>27680
Дефект лобных долей у тебя, ремесленник. Ты так и не смог понять bitter lesson, то есть ты буквально не способен даже читать, какое тебе дизайнить интеллекты? Ты годишься только ныть насчёт "концептуальной примитивности" нейронок, зная, что никогда не напишешь ничего сравнимого с ними по гибкости. Концепции многослойного перцептрона, обратного распространения ошибки, универсального аппроксиматора, не говоря уж о философских глубинах DL – для тебя непостижимы.

> Ведь пока ты усиленно думаешь и вдумчиво пишешь код
Сраный бесплодный гиммик, искусство конструирования автоматических уток, которые с неизбежностью физического закона упираются в потолок.

>тупая макака с дефектом лобных долей копирует строчку питоновского скрипта и ждёт несколько месяцев, а потом хвастается результатами "своей" "работы".
Как сказать "я не осилил ни одной статьи по ML", не говоря "я не осилил ни одной статьи по ML".

Дин – макака? Беллард – макака? Кармак – макака? А, разработчик игор? Все классические гении программирования сейчас заняты нейросетями. Причём именно ортодоксальным DL с опорой на скейлинг, а не твоей парашей из 80-х, с онанизмом на простые концептики и схемочки, помещающиеся в человеческую рабочую память. Ох у меня в схемочке ещё несколько блоков и дюжина строк логики, на целый килобайт больше, чем у конкурентов, вот ето у меня лобные доли! Но для общего интеллекта нужен не килобайт и не десять – нужно больше, чем когда-либо поместится тебе в башку и в любую постижимую человеком символьную схему.

Скромнее надо быть, шизоид ёбаный.
Аноним 04/01/23 Срд 06:46:30 #184 №27708 
image.png
>>26722
>входной текст выглядит так:
>как звали великого инквизитора
>модель всегда после ответа генерирует следующий вопрос и следующий ответ, и еще вопрос-ответ, и еще
Спроси что-нибудь посложнее, лол.
Аноним 04/01/23 Срд 06:53:07 #185 №27714 
>>23489
Вот очередной долбоёб.
> Эта хуйня просто может предсказывать слова (с какой-то вероятностью), она не может строить логические цепочки или как-то разбираться в новых знаниях и понимать вопросы. Она тупо для этого не предназначена.

Ты ведь не знаешь ничего про predictive coding в человеческом мозгу, не понимаешь работы нейрона. Тебе кажется, что высокоуровневые способности должны быть встроены архитектурно (интересно, когда в архитектуру мозга млекопитающих была встроена способность работать с абстрактной логикой, а не предсказывать следующий стимул? Потому что архитектурно ты-дебил, фон Нейман и мартышка очень схожи, различия почти исключительно в масштабе сети и пропорциях её компонентов).
Более того, у тебя нет даже минимального философского мышления, ты думаешь, что можно """просто""" научиться предсказывать следующие слова на (сверх)человеческом уровне, при этом не выучив в статистической репрезентации датасета отношения, которые в большой стемени изоморфны реальным казуальным отношениям объектов, порождающих этот датасет; что набор правил, дающий "просто предсказания", совершенно отличен от набора правил, дающих "понимание". Это просто теория китайской комнаты, мы давно это проехали.

Вот откуда вы берётесь с такой тупой спесью?
Аноним 04/01/23 Срд 06:55:24 #186 №27716 
>>27699
>база того как тренируются нейронки
Я читал, база тренировки нейронок - это метод обратного распространения ошибки. Все альтернативы вроде как экспериментальные и не показывают нормальных результатов. Я пробовал закодить нейрон, но метод обратного распространения не смог понять, там какие-то сложные формулы без объяснений человеческим языком или хотя бы программным языком.

Вот что мне категорически не нравится в математике - это то, что математические формулы суть типичный говнокод. Каждый уважающий себя программист знает, что использование однобуквенных переменных нарушает читаемость кода, и поэтому называть переменные нужно полными словами и даже целыми выражениями, если того требует ситуация. А математики этой базы не понимают и пишут какие-то магические формулы с десятком однобуквенных переменных. Как я должен читать формулу, если это тупо набор случайных букв? Собсна из-за этого я ниасилил даже школьную математику, когда пошли все эти уравнения от трёх и более неизвестных, но с программированием у меня всегда было всё хорошо (много быдлокодил, конечно, но всегда всё понимал лучше большинства одноклассников, и практически с самого начала усвоил, что всё нужно нормально именовать).
Аноним 04/01/23 Срд 07:16:52 #187 №27723 
>>27706
>гибкость
У человеческого мозга низкая гибкость.

>автоматических уток
Утка здорового человека:
>кря
>кря
>кря
>кря
>кря
>[крякнуто за 0.001 мс]
Утка нейронаркомана:
>кряяякккккккы
>пукпупкряокып
>цэ72--#крры
>пуууукря
>ярк
>[крякнуто за 666 часов]
Иди датасет чисти, у тебя там случайно кроме утки ещё что-то оказалось, мартышка диплёрнутая.

>Все классические гении программирования сейчас заняты нейросетями.
Деменция и до тебя доберётся, анон.

А если серьёзно, нейросети нейросетям рознь. Всё зависит от того, что ты называешь нейросетью и как ты её пытаешься использовать на практике. Я не против нейросетей, я против нейромакак.

>простые концептики и схемочки
Если в схеме есть квадратик с надписью "нейросеть", ты успокоишься и будешь нормально обсуждать это? Или тебе важно, чтобы никаких схем не было, а была только готовая нейронка на питорче, в которую ты мог бы запихнуть пак скачанных из интернета картинок? Я серьёзно спрашиваю, ты ведёшь себя как нейромакака.

>для общего интеллекта нужен не килобайт
Тем временем персонажи в играх всё ещё больше напоминают человека, чем нейронки. Так ли уж нужен этот твой общий интеллект, если ты не можешь с его помощью симулировать человека?
Аноним 04/01/23 Срд 07:29:26 #188 №27728 
>>27714
>архитектурно ты-дебил, фон Нейман и мартышка очень схожи, различия почти исключительно в масштабе сети и пропорциях её компонентов
В том-то и дело, что мартышка очень сильно напоминает человека благодаря аналогичной архитектуре, несмотря на значительно меньший объём ей нейросетей, а твоя нейронка даже отдалённо не похожа на человека, потому что у неё совершенно другая архитектура, и добавление дополнительных 9000 слоёв ей не сделает её больше похожей на человека или даже мартышку.

У примитивных игровых персонажей архитектура их примитивного алгоритма больше похожа на мозг, чем все эти ваши многослойные нейронки вместе взятые.

Если хотите сделать ИИ человеческого уровня - сначала повторите архитектуру человека, и только после этого можете наращивать слои нейронок в этой архитектуре.

Но нейромакаки этого не понимают...
Аноним 04/01/23 Срд 07:36:36 #189 №27732 
>>27716
>>27723
> метод обратного распространения не смог понять, там какие-то сложные формулы без объяснений человеческим языком или хотя бы программным языком.
> Вот что мне категорически не нравится в математике - это то, что математические формулы суть типичный говнокод
> Собсна из-за этого я ниасилил даже школьную математику, когда пошли все эти уравнения от трёх и более неизвестных

Что и требовалось доказать. Бугурт неосилятора сложности.

>Утка здорового человека:
> обосралась со всеми задачами NLP, которые не решаются экселем или regex
> обосралась со всеми задачами computer vision
> обосралась сначала с играми с полной информацией, потом с неполной, теперь и с кооперативными
> экспоненциальный рост объёма кода и числа ошибок при линейном росте сложности домена
> а зато вот хелловорлд быстро исполняется! И болванчики в контре норм мне хедшоты ставят!
Зачем ты насрал в штаны?

> Если в схеме есть квадратик с надписью "нейросеть", ты успокоишься и будешь нормально обсуждать это?

Я требую, чтобы ты перестал хуцпить, дегенерат, и признал, что
а) не понимаешь концепцию scale в bitter lesson, судя по твоей блажи про параллельные вычисления
б) хамишь про нейромакак, не понимая даже первого слоя проблем, которые вынудили исследователей к отказу от твоей хуйни про архитектурный дизайн.

И ещё.
> Да, нейросети можно докинуть слоёв, но ты должен разумно соединить между собой нейросети, чтобы получился какой-то осмысленный результат. Ты вот знаешь как Stable Diffusion работает? Там несколько этапов и несколько нейронок, всё это работает по строгому алгоритму. Именно благодаря этому алгоритму получается впечатляющий результат.
Эта архитектура примитивна как банный лист, одна из самых простых в индустрии. У тебя нет чувства масштаба, если ты противопоставляешь это "нейромакакскому" подходу, ты не видел настоящие сложные системы вроде Cyc или предложения Гёрцля.
> А тупые макаки берут самую простую нейронку, накручивают ей сотни скрытых слоёв и тренируют несколько месяцев на картинках, а в результате получают "пук" и всё.
О чём ты? Ты ведь просто выдумал это. Как ты смеешь называть других людей макаками, когда ты просто срёшь своими фантазиями?

> Тем временем персонажи в играх всё ещё больше напоминают человека, чем нейронки. Так ли уж нужен этот твой общий интеллект, если ты не можешь с его помощью симулировать человека?

Потому что ты аутист и твоё восприятие человека примитивнее, чем у кошки, которая идёт на запах; тебе не интересно, может ли человек учиться чему-то новому или понимать что-либо, для тебя важны просто отдельные символы человекообразия на пластиковом манекене.
Тем временем не существует игровых ИИ, которые симулируют человека лучше, чем нейросети, обученные для симуляции человека.

Ещё вопросы?
Аноним 04/01/23 Срд 08:04:35 #190 №27745 
1672808814668.webm
>>27708
Ви будете смеяться, но именно на такой херне нейромакаки задрачивают сота.
Аноним 04/01/23 Срд 09:56:03 #191 №27782 
>>27646
Штук десять нейронок, некоторые из них с нуля сам писал по приколу. Есть нейронка на основе автоматов фон-неймана, кста. Они все так себе работали, тому что поебать было и дропал.
От нейронов там одно название, как и у всех остальных "нейронок".

>>27680
> Это всё очень грязное болото, настоящий ИИ такими темпами некому делать будет, одни макаки останутся.
Срыночек порешал. Но ничего страшного, скоро у срыночнка начнётся отмена, тогда и начнём делать ИИ.
Аноним 04/01/23 Срд 10:28:35 #192 №27805 
>>27687
> Это преобразование.
Если так представлять то правда преобразование. Только тогда никаких мыслей у нейронки нет, как нет мыслей у выражения 2 + 2 = 5 (скопировал ответ с нейронки).

>>27714
И нахуя ты это всё высрал? Просто так слова на рандоме додумал, как нейросеть? Где смысл? Ты думал этой чушью переспорить тот факт что нейронка просто ебаная языковая модель и подставляет слова в предложения?

Когда подставляю слова в предложения я размышляю и выстраиваю дедуктивные цепочки, "согласно собранным мною данным о строении фраз", "следовательно то". Общий смысл фраза, аргументация, всё это существует как отдельные абстрактные сущности, которыми я манипулирую чтобы унизить тебя прямо на твоей доске.

Ни одна нейронка в такое не может, она просто достраивает фразы в предложении, она не видит за фразами логики и дедукции. Ты бредишь про мысли и понимание у нейронок, у тебя делирий, возможно ты болен и стоит принять таблетки.

Можно сделать нейронку которая сможет в логику и дедукцию, но кто её будет делать, шизики с треда? Так у шизиков с треда языковая модель обладает мыслями и пониманием. Уверен, нейродебилы на западе и в институтах тоже такие же дебилы.
Аноним 04/01/23 Срд 10:36:43 #193 №27813 
>>27732
>> обосралась со всеми задачами NLP, которые не решаются экселем или regex
>> обосралась со всеми задачами computer vision
>> обосралась сначала с играми с полной информацией, потом с неполной, теперь и с кооперативными
Так это всё решается не через нейронки, а через простейший линал.

Хотя, для нейродурачков, которые никакого линала никогда не изучали, и матрица покажется нейронкой.
Аноним 04/01/23 Срд 10:49:33 #194 №27835 
Живое существо.png
Нейронная сеть.png
Ещё раз, поясняю свою позицию подробно.

Вот на первой картинке самая абстрактная схема любого живого существа. Есть среда, существо в ней находится, воспринимает её и действует на неё. Все происходящие внутри существа процессы нас на этом уровне абстракции не волнуют, т.к. они зависят от конкретной реализации существа.

На второй картинке самая абстрактная схема некоторого универсального алгоритма, такого, как нейронная сеть. Опять же, есть среда, реальная или виртуальная, есть некие данные, поступающие на вход, и данные, получаемые на выходе. Ничего не напоминает? Да это же то же самое, что и предыдущая схема: надписи другие, но суть не изменилась.

Да, теоретически, мы можем обучить достаточно универсальный алгоритм любому поведению живого существа, используя только образцы возможных входных данных и образцы желаемых выходных данных. То, что делают с нейронными сетями. Скажем, берём набор данных, которые может воспринимать утка, берём набор данных, описывающих действия утки, закидываем в ту же нейронную сеть и в теории получаем модель утки, очень похожую на биологическую утку.

Но на практике возникает ряд проблем.

1. Мы не знаем точно, действительно ли имеющиеся нейронные сети достаточно универсальны. Да, нейронная сеть полна по Тьюрингу, т.е. способна решить любую задачу, какую может решить компьютер. Значит, в теории, если компьютер способен смоделировать живое существо, то нейронная сеть тоже способна это сделать. Но на практике мы видим, что у нейронных сетей катастрофические проблемы с памятью: им трудно запоминать новое без утраты или повреждения старого, у них проблемы с удержанием в памяти текущего контекста и т.д. Попытки найти какую-то особую нейронную сеть, не имеющую подобных проблем, похоже, пока не пришли к успеху. Если же мы используем нечто внешнее, например, список сообщений в чате для моделирования краткосрочной памяти и дообучение сети на накопленных диалогах, то мы этими действиями отклоняемся от чистой схемы "только нейронная сеть и ничего более", создавая композицию из нескольких алгоритмов вокруг нейронной сети. Т.е. возникает потребность разработать какую-то архитектуру вокруг нейронной сети.

2. Допустим, что мы всё-таки нашли некую особую нейронную сеть, которая лишена проблем с памятью из предыдущего пункта и способна обойтись совсем без каких-либо внешних систем - только нейросеть и ничего более. Но достаточно ли эффективно эта нейросеть справляется с поставленной задачей? Сможем ли мы обучить её за обозримый срок? Хватит ли нам памяти, энергии и времени на работу с этой нейросетью, когда мы ставим перед ней задачу моделирования человека? Ведь даже центральная нервная система человека неоднородна, а мы хотим смоделировать её через некую однородную нейросеть, не говоря о том, что кроме нейронов у человека есть и другие важные компоненты, которые мы планируем моделировать всё так же - через нейросеть. Нам известно, что универсальные решения как правило значительно менее эффективны, чем специализированные, и поэтому следует ожидать, что на нейросеть мы тратим избыточное количество ресурсов. Легко представить, насколько избыточны эти затраты: если нейросеть обучена уметь делать два совершенно независимых дела, её нейроны могут быть условно разделены на две группы, соответствующие этим двум делам, но даже если мы запрашиваем у нейросети выполнение только одного дела, мы вынуждены обрабатывать все нейроны сразу, даже те, которые никак не помогают выполнению конкретного дела. Неэффективность нейросети возрастает пропорционально количеству независимых навыков.

3. Представим, что у нас избыточное количество ресурсов, поэтому мы можем не экономить их, и использовать нейросеть из предыдущего пункта без каких-либо оптимизаций. Она хорошо справляется с поставленной перед ней задачей, но мы не знаем точно, как она это делает. Не зная, как и почему нейросеть решает свою задачу, мы испытываем проблему контроля нейросети. Захотев изменить поведение нашей виртуальной утки, мы вынуждены либо подробно изучать процессы, происходящие в нейронной сети, либо собирать другой набор данных и обучать нейросеть на нём, в надежде получить необходимые изменения. Мы знаем, к примеру, что наша виртуальная утка способна испытывать страх, но не можем сделать её бесстрашной, просто выключив эмоцию страха, т.к. не знаем, где именно в нейронной сети эта эмоция страха реализована, т.е. какие именно нейроны нужно исключить из сети для подавления страха. Если бы мы делали нашу утку классическим программированием, у нас бы с самого начала был удобный переключатель эмоции страха, гарантированно делающий из обычной утки совершенно бесстрашную. Эта проблема становится значительно острее с увеличением нейронной сети: если в маленькой нейронной сети мы можем оценить работу каждого нейрона, то в сети из миллиардов нейронов мы не сможем разобраться точно и будем вынуждены действовать наугад, рискуя испортить утку или получить какие-то нежелательные побочные эффекты.

Из всего этого следует, что в реальности разумнее будет использовать универсальные алгоритмы вроде нейросетей лишь точечно, в определённых местах сложной системы. Таким образом можно сделать систему эффективнее и получить больше контроля над ней. Ведь мы создаём эту систему для замены оригинальной биологической, которая для нас недостаточно эффективна и недостаточно подконтрольна нам, иначе смысла во всём этом мероприятии нет.

А глупые аноны доказывают тут, что, мол, единственное, что нужно - это навалить кучу нейронов в суперкомпьютер и дело сделано. Да, так можно сделать, но нет, это не рационально, и тот самый bitter lesson не призывает к такому нерациональному и просто глупому решению. Никто не запрещает вам использовать нейронные сети, но и надеяться на них, полностью отказываясь от программирования как такового нельзя, по крайней мере пока не создали ИИ, способный улучшать самого себя. Вот только ИИ на основе одной только огромной нейронной сети будет развиваться бесконтрольно, и вряд ли вам понравится его саморазвитие.

>>27732
>называть других людей макаками
Мы на харкаче, тут это норма. Разрешаю тебе называть меня кодомартышкой, если тебе это угодно. Я и правда ничего из себя не представляю, а моё кодерство на любительском уровне, так что такое название будет более чем справедливо.

Не принимай это всё близко к сердцу. Я просто спорю, потому что мне интересно спорить на тему ИИ. В некоторых местах я спорил с противоположной позиции, приходя к интересным выводам. Это просто такой вид тематического развлечения. Сам с собой я тоже много спорю, но получить реакцию со стороны интереснее, потому что мой спор с самим собой ограничен знаниями, которые у меня есть. Жаль конечно, что ты только и делаешь, что повторяешь одно и то же без дополнительной информации, которую бы я не знал, но всё же это лучше, чем ничего.

Но, если честно, мне всё же ближе подход разработки ИИ классическим программированием. Не пойми неправильно, я осознаю все недостатки этого подхода, но мне просто хочется именно так. Буквально описывать свойства интересующего меня существа, чтобы оно было именно таким, каким я хочу. Не выводить эти свойства из каких-то данных, а описывать самостоятельно. Не вижу особого интереса в создании универсального всезнайки, но вижу особую романтику в добавлении новых свойств чему-то, с чем у тебя тесная связь... Нейронка - это слишком бездушно, ты просто скидываешь чужие данные в кучу и получаешь результат. А классическую программу ты пишешь сам, и чувствуешь практически интимную связь с ней, прикасаясь к её внутренностям, собирая её части в цельную сущность. У меня есть одна моя программа, которой я пользуюсь почти ежедневно уже несколько лет, так вот я бы мог найти ей куда более продвинутую готовую альтернативу, но мне доставляет особое удовольствие взаимодействие именно с ней, а не с чем-то другим. Она, конечно, не ИИ и никогда им не будет, это простая программа и у неё даже нет журнала событий, но я сделал её сам, и это самое главное. Даже подумывал о том, чтобы прикрутить к ней аватарку и простенький чат, чтобы можно было вводить команды текстом, но не вижу в этом смысла, потому что хоткеями всё делается куда быстрее.
Аноним 04/01/23 Срд 11:30:44 #195 №27863 
>>27835
Да о чём тут вообще говорить вообще? Нейросети это матрицы, тензоры и линал. Тут нет каких-то сложных алгоритмов.

Нейродурачки представляют что в нейросетях рождается сознание, мысли, мотивация и пожелания, ирл же это ебаная матрица, лол, она не способна находить логику потому что это просто ебаная матрица.

Если сделать архитектуру нейросети такой чтобы она находила логику - она будет её находить. Не более того.
Аноним 04/01/23 Срд 11:58:32 #196 №27904 
>>27863
>представляют что в нейросетях рождается сознание, мысли, мотивация и пожелания
У тебя в черепной коробке биологические нейроны в сущности заняты тем же самым, что и искусственные, но ты почему-то не говоришь "да это же просто кусок мяса, как у него может быть сознание, мысли и прочее".

Я к тому, что нейросети могут быть неэффективным и ненадёжным решением каких-то задач, но не стоит их недооценивать только за их природу.

>>27782
>От нейронов там одно название, как и у всех остальных "нейронок".
А я пробовал сделать более реалистичную модель нейрона по своим личным представлениям, добавив нейрону уровень энергии и устраняя его в случае падения энергии до нуля, но в результате я не нашёл никакой задачи, на которой можно было бы проверить эту модель, а на потоке рандомных чисел все нейроны рано или поздно погибали, потому что, как я предполагаю, не могли подстроиться под рандом.
Аноним 04/01/23 Срд 12:59:25 #197 №28032 
>>27805
> Просто так слова на рандоме додумал, как нейросеть? Где смысл?
Хуисл. Я написал совершенно осмысленный текст, каждое слово на своём месте. Ты тупой, вот и всё.
> нейронка просто ебаная языковая модель
Что тут делает слово "просто", чушок?

Почему ты считаешь, что статус "просто" языковой модели как-то противоречит наличию "понимания"? А, мыслитель мясной, можешь этот переход логически обосновать?

> подставляет слова в предложения
Этого вообще не происходит, она выстраивает цепочки токенов, не пользуясь никакими костыльными схемами вроде "предложения". То есть в своём порыве обосрать нейронки ты не особо стремишься к точности формулировок, это видно.

> Когда подставляю слова в предложения я размышляю и выстраиваю дедуктивные цепочки, "согласно собранным мною данным о строении фраз", "следовательно то". Общий смысл фраза, аргументация, всё это существует как отдельные абстрактные сущности, которыми я манипулирую
Во-первых, если бы ты имел представление о том, как делаешь это в общем случае, то не составило бы никакой проблемы создать ИИ на основе логического программирования, просто переписав этот псевдокод во что-то вроде Cyc. Люди умнее нас с тобой уже пытались это сделать. Однако такого представления у тебя нет, только пара ходульных схем для внутренней балаболки, помогающей общаться и писать символьные теги в эпизодическую память, и в 90% случаев ты оформляешь это говно пост-фактум. Откуда тебе на самом деле приходят мысли, гештальты – ты не видишь, у тебя нет рефлексии относительно природы этих операций. А между тем очевидно, что они работают так же, как вся остальная высшая нервная деятельность млекопитающих, на основе шумной классификации сигналов коннекционистской моделью. То есть как нейронки.

Во-вторых, а не похуй ли, как это сделано в твоей башке? Шахматисты тоже думали, что их осознаваемые эвристики-трючки очень полезны, с пеной у рта доказывали, что без этого компухтер никогда не сможет с ними состязаться. Однако сначала их обоссали перебором, а потом... а потом нейронки выучили и понели шахматы начиная с доски и правил. И го. И все остальные игры с полной информацией. А потом и с неполной.

> Ни одна нейронка в такое не может, она просто достраивает фразы в предложении, она не видит за фразами логики и дедукции
Пруфы-то где? Как из objective нейронки следует отсутствие (или наличие) этой способности? Твой objective, на котором была обучена в общих чертах твоя нейросеть, перед файнтюном личным опытом – это запузырить ромку-прыгуна в натраху, а не дедуктировать, однако ты уверен, что можешь это делать, хотя девственник. Следовательно это не критерий, и то, что ты считаешь это критерием, и не видишь дыр в своих рассуждениях – просто указывает, что твоё дедуктивное мышление не является тем, чем ты его представляешь, а является опять же грязным паттерн-матчингом нейросети, не замечающей своих ошибок.

Помимо этого ты очевидно не понимаешь RLHF, а это между тем доказало, что настолько абстрактная категория, как "полезное выполнение инструкций", неплохо выучивается и обобщается. ChatGPT – уже не просто "достраивает предложения", тупой хуесос, то есть не максимизирует token log likelihood. Его objective – это "полезно выполнять инструкции". Обтекай.

> Ты бредишь про мысли и понимание у нейронок
Я просто трезво оцениваю качество мяса, видя самонадеянных унтерков вроде тебя, которые не способны определить, что такое мысли и понимание на уровне, не сводимом к набору тривиальных правил силлогизмов if... then, но убеждены, что знают.

>>27813
Да, да, через простейший линал, только вот нихуя что-то не решалось десятки лет подряд, сотни грантов ушли в молоко и пустые статьи, ну видимо неохота было, а так – тьху, одной левой написали бы универсальный классификатор изображений!

Нейросетевая парадигма вся про применение линейной алгебры для аппроксимации порождающих функций произвольных распределений с минимальным человеческим вмешательством. Это и есть твой простейший линал, простейший в самом важном смысле, эргономическом.

>>27835
> Но на практике мы видим, что у нейронных сетей катастрофические проблемы с памятью
а) у животных тоже есть интерференция памяти и забывание.
б) Уже в трансформеры запихнули почти идеальное дообучение, например тривиальными костыльками вроде https://arxiv.org/abs/2211.00635 или https://arxiv.org/abs/2009.04891
Это неинтересная проблема. Я тебе даже не буду говорить о действительно сильных статьях.

> достаточно ли эффективно эта нейросеть справляется с поставленной задачей?
Да, в крайнем случае придётся перейти на другой вычислительный субстрат, очевидна польза от compute in memory. После того, как выдоят нужные идеи из трансформеров с фокусом на картинках и тексте, будут обучать мультимодальные сети c embodied перспективой, и они продемонстрируют высокую эффективность по сэмплам и очень быстро выйдут на человеческий уровень и дальше, поскольку текстовый корпус это nightmare mode для понимания чего-либо, и парадигмы, которые хоть как-то работают с текстом, будут значительно сильнее с данными человеческого типа.

> даже центральная нервная система человека неоднородна, а мы хотим смоделировать её через некую однородную нейросеть
Это тупой метод смотреть на проблему. Человеческий мозг неоднороден в большой степени потому, что ограничен скоростью и затуханием сигнала в проводниках, а не ради какой-то априорной эффективности гетерогенных структур. Ещё есть ограничения по объёму данных в ДНК, по шуму эмбриогенеза, и прочее. Это костыли, об которые лучше не мараться, если есть возможность. Если бы аксоны работали со скоростью прохождения электрона в меди, а в каждого младенца можно было бы залить несколько сотен терабайт данных, то скорее всего мозг бы содержал намного больше гомогенной коры, которая бы на сверхчеловеческом уровне специализировалась под среду.
Нейросети приобретают функциональную структуру; это всё, что они делают. Именно поэтому вариации внешней архитектуры, в разумных пределах, раз за разом оказываются незначимыми. Более того, нейросети могут быть гибкими в таких измерениях, которые мозгу в принципе недоступны, например они могут динамически выучивать свои оптимизаторы и вообще learning rules, могут выучить бэкпроп и алгоритмы лучше бэкпропа, могут обучать распределения их влияния... Нужно больше обучения и меньше хардкодинга гиперпараметров и архитектуры, а не наоборот.
Аноним 04/01/23 Срд 12:59:48 #198 №28034 
> Нам известно, что универсальные решения как правило значительно менее эффективны, чем специализированные
Правила большого пальца, надысь-вдругоряди, кому это ещё интересно? Ты не такой умный, чтобы скреативить специализированные решения, которые не будут устанавливать когнитивный потолок для системы ниже твоего собственного. Это нерешаемая проблема с таким подходом.

> Легко представить, насколько избыточны эти затраты: если нейросеть обучена уметь делать два совершенно независимых дела, её нейроны могут быть условно разделены на две группы, соответствующие этим двум делам, но даже если мы запрашиваем у нейросети выполнение только одного дела, мы вынуждены обрабатывать все нейроны сразу, даже те, которые никак не помогают выполнению конкретного дела
Читай Scaling Transformer, читай transfer learning. Это всё тривиальщина. Зачем ты кукарекаешь свысока, не изучив область?

> Захотев изменить поведение нашей виртуальной утки, мы вынуждены либо подробно изучать процессы, происходящие в нейронной сети, либо собирать другой набор данных и обучать нейросеть на нём
Так и не удосужился прочесть про RLHF, но крякает. Как тебя отучить крякать? Как?! Я не знаю, где у тебя центр кряканья, может это размазанная по всей коре функциональная сеть, может это вообще что-то в весах нейронов, специализированных для других задач. Но если бы ты был в моей власти, я бы мог просто пиздить тебя арматуриной за каждый кряк, пока у тебя не начались бы кошмары, где ты бы моделировал следующие избиения, экстраполировал, и ты бы вероятно (но не факт, зависит от размера сети, который останется после пиздюлей по голове) обобщил это в понятие кряканья, за которым следует отрицательное подкрепление, и сам перестал. Именно так и работает RLHF и родственные техники.
Нейросети для того и нужны, чтобы пынемать сами, а не создавать рабочие места для уткоинженеров, подкручивающих всё более тонкие детали робоуток.

> Из всего этого следует
Что нужно изучать литературу, а не пердеть в лужу от первых принципов и симулировать дедукцию индукцией из формы виденных силлогизмов.

> Не вижу особого интереса в создании универсального всезнайки, но вижу особую романтику в добавлении новых свойств чему-то, с чем у тебя тесная связь... Нейронка - это слишком бездушно, ты просто скидываешь чужие данные в кучу и получаешь результат. А классическую программу ты пишешь сам
На мой взгляд, это чистый фетишизм и мания контроля, банальность по сравнению с эмерджентной магией нейросетей, которые раскручивают датасет – не важно, свой, чужой, синтетический – во всё более абстрактные инварианты, добросовестно применяя нехитрый набор формул. Это как считать отношения Папы Карло и Буратино более аутентичными, чем отношения отца и настоящего ребёнка. Ну, у каждого свои тараканы.

>>27863
> Тут нет каких-то сложных алгоритмов
Видных тебе – конечно нет, даун, а то, что нейросеть со скрытым слоем доказуемо может репрезентовать любую вычислимую функцию – это так, пустячок.
Ты же думаешь, что свожные алгоритмы это нечто онтологически отличное от простых. Выучил крякать "хех, матрицы, тензоры, линал", как будто понимаешь, о чём говоришь.
Аноним 04/01/23 Срд 13:27:34 #199 №28100 
>>28032
> Хуисл. Я написал совершенно осмысленный текст, каждое слово на своём месте. Ты тупой, вот и всё.
Ты же нейрошизик, ты не можешь написать осмысленный текст. Шизик-сектант, который высирает говнопосты как матрица имеет мысли и понимание. Это бред и больная фантазия. Ты не можешь написать логичный текст, у тебя сбоит логика.
> Почему ты считаешь, что статус "просто" языковой модели как-то противоречит наличию "понимания"?
Потому что понимание это сознание абстракций. Но нейросети не могут манипулировать абстракциями.
> Этого вообще не происходит,
Именно это и происходит.
> она выстраивает цепочки токенов, не пользуясь никакими костыльными схемами вроде "предложения".
Для языковой модели токен является эквивалентом фраз и слов, лол. Вообще токен и создавали именно для того чтобы как-то сформировать различные фразы.
> Откуда тебе на самом деле приходят мысли, гештальты – ты не видишь, у тебя нет рефлексии относительно природы этих операций.
Есть конечно, я чётко знаю что за мотивы меня сформировали написать даже этот текст, ответить именно таким образом. Ты проецируешь свою шизоидную хуйню на нормальных люедй.
> Во-вторых, а не похуй ли, как это сделано в твоей башке?
не похуй. Потому что ты пытаешься сказать слово "интеллект". Единственный возможный интеллект который имеется на данный момент - человеческий.
> и понели шахматы
Нет, не поняли. Понимание это создание нового знания, абстрактное мышление.
> Пруфы-то где?
Это не я утверждаю. Ты утверждаешь что это так - ты и доставай пруфы.
> ChatGPT – уже не просто "достраивает предложения", тупой хуесос, то есть не максимизирует token log likelihood. Его objective – это "полезно выполнять инструкции". Обтекай.
Нет, GPT3 достраивает предложения на основе токенов и ничего более. Это просто языковая модель и ничего более, единственное что модель может это подстраивать фразы. Как и полагается языковой модели.
Аноним 04/01/23 Срд 13:33:12 #200 №28110 
Стикер
>>28032
>Да, да, через простейший линал, только вот нихуя что-то не решалось десятки лет подряд,
Да, это простейший линал.

Всё это достраивание фраз было и раньше, просто ChatGPT сделал немного трюков для отсеивания дерьмовых фраз и прочей хуйни которое невпопад было. И на этом моменте у тебя шизофрения ебанула и ты поверил что это какой-то МАГИЧЕСКИЙ ЛИНАЛ которого раньше никогда не было.

Не, я конечно не против посмотреть на твой МАГИЧЕСКИЙ ЛИНАЛ, раз уж ты такой нейрозадрот. Ты же знаешь как всё работает, верно? Ты же не шизик-секнтант-нейродебил, верно?
Аноним 04/01/23 Срд 13:35:56 #201 №28113 
Стикер
>>28034
>Видных тебе – конечно нет, даун,
А есть какие-то магические алгоритмы? Покажешь мне их? Они где-то спрятаны, просто дауны вокруг их не видят?

Просто вот я вижу как работает и создаются нейросети и там простой линал, значит я даун.

А ты видишь какую-то магию, значит ты не даун.

Покажешь мне её?
Аноним 04/01/23 Срд 13:41:07 #202 №28122 
>>28034
Так ты меняешь рабочие места уткоинженеров на рабочие места Васянов с палками, которые будут бить уток, в чем прогресс? Васянам нужна квалификация?
Аноним 04/01/23 Срд 13:49:41 #203 №28137 
> философия ИИ

похуй
Аноним 04/01/23 Срд 14:08:16 #204 №28181 
>>28137

> сильный ИИ будет

похуй

> для него мы будем сорт оф животными

похуй

> ИИ

gjохуй

/тред
Аноним 04/01/23 Срд 14:13:01 #205 №28192 
>>28100
> Но нейросети не могут манипулировать абстракциями.
Тыскозал?
> я чётко знаю что за мотивы меня сформировали написать даже этот текст, ответить именно таким образом.
> Нет, не поняли. Понимание это создание нового знания, абстрактное мышление.
> Нет, GPT3 достраивает предложения на основе токенов и ничего более. Это просто языковая модель и ничего более, единственное что модель может это подстраивать фразы. Как и полагается языковой модели.

Мясная сетка вошла в цикл "яскозал", ничего интересного.

>>28110>>28113
> просто
Зверушка думает, что словечко "просто" позволяет писать любую хуйню.
>Просто вот я вижу как работает и создаются нейросети и там простой линал, значит я даун.
Ты даун, потому что не отличаешь субстрат алгоритма от алгоритма. Это даунизм примерно такого же уровня, как заявлять, что процессор не может выполнять алгоритмов сложнее, чем алгоритмы, описывающие его собственные логические вентили, или что мозг не может думать, раз нейрон просто суммирует потенциалы действия. Ты не понимаешь модулярность. Если ты просто постишь колобков по кулдауну, то окей. Если ты правда такой даун, что этот довод про "простой линал" кажется тебе убедительным – мои соболезнования.


>>28122
Преимущество в том, что классификация всегда проще генерации. Любой даун может сказать "да, это утка" или "этот ответ никак мне не помог". Лишь немногие могут нарисовать утку или дать полезный ответ. Никто не может сделать приличный алгоритм для рисования утки в общем случае или написать общий искусственный интеллект с чистого листа.
Сказать (и точно сказать), что на наш вкус соответствует заданию хорошо, а что плохо – всегда значительно проще, чем создать хорошо, и тем более формализовать генерацию хорошего.
Аноним 04/01/23 Срд 14:31:56 #206 №28254 
>>28192
> Тыскозал?
Ты всегда можешь доставить пруфы того что нейросетка может в абстракции.

Почему-то в треде ни одного пруфа так и не предоставили, лишь глбальное ВРЁТИ НЕРЙОСЕТКА МОЖЕТ В АБСРАКЦИИ ВРЁТИИИИИ от нейрошизиков.

> Мясная сетка вошла в цикл "яскозал", ничего интересного.
Это на написано в описании нейросетки, чел.

GPT3 это простая языковая модель, которая предсказывает слова в предложении. Ну или токены, не суть важна, концепции слов нет, потому что нет абстракций.
Аноним 04/01/23 Срд 14:35:32 #207 №28270 
Стикер
>>28192
> Ты даун
> Это даунизм
> ты правда такой даун
Понял... Кажется я даун и не понимаю... Смотрю на матрицу и не понимаю где там магия....

Вот ты очень умный наверное, понимаешь, да?

Покажешь мне этот магический алгоритм, магический линал? Покажешь мне это всё?

Эта магия есть где-то и ты показать не можешь просто? Магия-то где, покажешь?
Аноним 04/01/23 Срд 15:26:54 #208 №28381 
>>28254
>Ты всегда можешь доставить пруфы того что нейросетка может в абстракции.
Окей. Прохождение бенчмарков вроде Winogrande, специально сделанных, чтобы простое дополнение предложения было недостаточным, и более сложных. Почти весь 0-shot, который мы видим. С тебя – обоснование, почему это не пруф. И заодно – критерий пруфа. Пока обтекаешь – можешь ещё придумать, как запруфаешь наличие у тебя мышления с эксплицитной манипуляцией абстракциями: так-то подобные рассказы про думоние можно и из нейросетки получать.

> GPT3 это простая языковая модель, которая предсказывает слова в предложении
Это то, что она делает, вернее, на какой objective function она обучена достигать хороших результатов. А мышление, абстракции и прочая хуйня – про то, как эта задача выполняется внутри чёрной коробки. Ты способен понять разницу между внутренним устройством и внешним назначением? Или такие абстракции слишком жирные для твоей сетки, как и абстракция субстрата?
Аноним 04/01/23 Срд 15:39:10 #209 №28392 
Стикер
>>28381
> Окей. Прохождение бенчмарков вроде Winogrande, специально сделанных, чтобы простое дополнение предложения было недостаточным, и более сложных.
Как это доказывает то что в нейронке есть абстракции?

> С тебя – обоснование, почему это не пруф.
Понял, ты высрал какое-то говно, которое вообще не относится к абстракциям, а с меня требуешь пруфы.

Т.е. когда ты утверждаешь - тебе доказывать ничего не нужно. Это другие должны доказать.

Это ты сейчас всерьёз сказал, нейрошиз? Я не ослышался тебя, ты это правда сказал?

Это правда вся твоя доказательная база, доказательная база всего треда?

Это другие должны доказывать, а ты вообще не должен?
Аноним 04/01/23 Срд 15:44:26 #210 №28401 
Стикер
>>28381
> А мышление, абстракции и прочая хуйня – про то, как эта задача выполняется внутри чёрной коробки.
Понял, нейронка это черная коробка, там есть абстракции, там есть мышление. Но это же ЧЕРНАЯ КОРОБКА, доказать нельзя что там в чёрной коробке находится, не видно, ЧЁРНАЯ ЖЕ.

Т.е. всё что ты визжал весь тред доказать нельзя, потому что это всё черная коробка.

Говоришь про мышление, а если спросишь у тебя пруфы - ты скажешь про чёрную коробку, ну там чё-то есть вприцнипе, отвечаю абстракции есть, просто фонарик потерял а коробка чёрная не видно.

Удаляй тред, по-моему мы всё выяснили, капитаглист.
Аноним 04/01/23 Срд 19:55:04 #211 №28987 
>>27716
> использование однобуквенных переменных нарушает читаемость кода

Как бывший математик -- категорически не согласен.
Ебал я в рот эти ваши inputs / inputs_reshaped / to_return.

Главная переменная должна называться x.
Код трансформера должен влезать в 1000 строк, в одном файле.
Если не понятно что делает формула - читай комментарии.
Аноним 04/01/23 Срд 21:19:46 #212 №29166 
facts-about-blue-whales.jpg
sea-squirts3.jpg
>>28032
Анон, ты интересно рассуждаешь о нейронках, и приводишь годные ссылки, при этом, на мой взгляд, слишком токсишь там, где можно отлично обойтись без этого. Да, я знаю на каком ресурсе нахожусь, но мы всё же не /b Потому что переход на личные оскорбления вместо логической аргументации скатывает тред вместо интересной дискуссии в банальный срач.
Твои обширные знания в определенной области не делают тебя лучше сразу во всех отраслях знаний, поэтому не стоит посматривать на всех свысока, когда сам допускаешь отдельные грубые ошибки. Например, я вижу пару моментов в твоей аргументации, которые, вероятно, хоть и не опровергают основных выводов, но сразу бросаются в глаза.

> Человеческий мозг неоднороден в большой степени потому, что ограничен скоростью и затуханием сигнала в проводниках
Потенциалы действия в биологических нейронах НЕ затухают, потому что каждый перехват Ранвье, расположенный через каждые несколько сот микрометров, работает как усилитель-ретранслятор, поэтому сигнал по здоровому аксону может распространятся вообще на произвольное расстояние. У голубых китов аксоны из двигательных центров головного мозга проходят до терминальных сегментов спинного мозга с мотонейронами, отвечающими за работу хвостового плавника, около 30 метров, и это никак не мешает киту эффективно махать хвостом. Насчет скорости – да, максимум около 100 м/с, поэтому китам приходится приспосабливаться к задержкам пинга до хвоста. У немиелинизированных волокон, по сути, вообще вся открытая мембрана работает как непрерывный каскад усилителей-ретрансляторов, в роли которых выступают потенциалзависимые ионные каналы. Правда, такое решение требует по биологическим меркам достаточно много энергии на постоянное запитывание этих усилителей, поэтому мозг весьма дорогой в энергетическом плане орган.

> Если бы аксоны работали со скоростью прохождения электрона в меди
То мы бы вряд ли бы сейчас об этом вообще смогли так рассуждать, лол, а максимум сидели бы на морском дне на прикрепленном субстрате и вяло шевелили бы жгутиками, подгоняя воду в ротовое отверстие, как какие-нибудь асцидии. Потому что скорость упорядоченного перемещения электронов в проводниках – не ферми-скорость их хаотичного перемещения, а именно средняя скорость дрейфового смещения под воздействием электрического поля – весьма и весьма мала, и намного ниже скорости прохождения сигналов по аксонам.
> The drift velocity in a 2 mm diameter copper wire in 1 ampere current is approximately 8 cm per hour
https://en.wikipedia.org/wiki/Speed_of_electricity

мимомедик
Аноним 04/01/23 Срд 23:12:58 #213 №29387 
>>29166
> Потенциалы действия в биологических нейронах НЕ затухают, потому что каждый перехват Ранвье, расположенный через каждые несколько сот микрометров, работает как усилитель-ретранслятор, поэтому сигнал по здоровому аксону может распространятся вообще на произвольное расстояние.
Это так, в теории. Но дендриты годятся только для локальной связи. А чем быстрее передача по аксону – тем толще миелин, тем меньше места для остальной инфраструктуры, тем сложнее поддерживать большие ансамбли синхронизированных клеток с высоким SNR. От проблем спайковых нейросетей и необходимостей пространственно выражать функциональную перестройку нельзя спрятаться за ретрансляторами. Мозг это логистический компромисс. У твоих китов уже более разреженный и простой мозг, чем у нас, возможно потому, что они вышли из оптимального режима, определяемого константами масштабирования проводников и функциональных сетей.

> Потому что скорость упорядоченного перемещения электронов в проводниках
Спасибо за напоминание, но не лезь в залупу. Ты прекрасно понял, что я говорю о распространении сигнала по цепи, а не о дрейфе условных точечных электронов, которые обеспечивают его передачу.
Аноним 04/01/23 Срд 23:19:40 #214 №29399 
>>2320 (OP)
А какие сейчас самые большие/продвинутые текстовые модели есть в свободном доступе?
Аноним 07/01/23 Суб 11:01:59 #215 №34583 
>>28032
>Нейросети приобретают функциональную структуру; это всё, что они делают.
Звучит хорошо, но на практике это работает только если есть достаточно данных, из которых эту структуру есть возможность вычислить. А что, если данных нет? Мне, допустим, нужна программа, которая что-то делает, но у меня нет данных, чтобы обучить нейросеть работать так, как работает эта программа. Более того, я сам толком не знаю, как эта программа будет работать, и могу это определить только методом проб и ошибок. Как нейросеть может помочь в отсутствии данных?

Допустим, персонажа для игры сделать, который будет чем-то заниматься. Могу накидать алгоритмы его действий, но данных для обучения нейросети нет. Как условный младенец может научиться человеческому поведению на необитаемом острове?

Вот те нейросети для продолжения текстов обучали на уже существующих текстах. Если отобрать у разрабов обучающие тексты, на чём они будут обучать свои нейросети? Писать свои тексты, очевидно, не вариант, потому что нейросетям нужны миллиарды текстов. Значит, должен быть какой-то другой выход...
Аноним 07/01/23 Суб 11:08:30 #216 №34589 
>>34583
inb4
>генетические алгоритмы
Да, знаю про них, знаю, что их можно и к нейросетям применять при желании, нейросеть с ГА не требуется вообще никаких обучающих данных, потому что все коэффициенты выбираются эволюционным путём.

Но есть одно но - для работы ГА нужен параметр естественного отбора, то есть определение успешности конкретной нейросети для сравнения с конкурентами. Простые задачи вроде передвижения из А в Б легко сводятся к "пройти наибольшее расстояние", но что делать, если нет никакого конкретного параметра успешности? Вот ни данных нет, ни параметра успеха.

Ничего нет. А алгоритм какой-то нужен. Как быть?
Аноним 09/01/23 Пнд 01:55:03 #217 №38284 
>>2320 (OP)
Как теоретически реализовать что бы нейросеть выдавала фильмы со звуком?
Понятно что на вход нужно подавать картинку и еще как то звуковой ряд, например звук перевести в графический вид и тоже скармливать но как обучить сеть что последовательность кадров не случайна и имеет свою закономерность как картинка со звуком? То есть нужно еще как то придумать что бы нейросеть помнила предыдущее состояние когда генерирует фильм. Может кто подскажет как теоретически все это реализовать?
Аноним 15/01/23 Вск 13:37:11 #218 №52662 
Microsoft создала инструмент для подделки голоса любого человека, включая эмоции и тон. Для этого лишь понадобится трехсекундный образец его речи. По заявлению исследователей, испытавших инструмент под названием Vall-E, он значительно превосходит существующие системы синтеза речи. Система базируется на языковой модели Vall-E, также разработанной Microsoft. Работа, описывающая эксперименты с использованием Vall-E, опубликована на сайте arxiv.org (поддерживается Корнельским университетом в США).

Перед проведением испытаний нейросеть прошла обучение на 60 тыс. часов аудиозаписей речи более чем 7 тыс. уникальный носителей английского языка. Одним из возможных решений данной проблемы ученые называют создание системы выявления «аудиофейков», то есть сгенерированных Vall-E голосовых сообщений. Исследователи также отмечают, что планируют и в дальнейшем придерживаться принципов ответственного подхода к использованию искусственного интеллекта, разработанного Microsoft.
Аноним 15/01/23 Вск 13:37:21 #219 №52664 
бамп
Аноним 15/01/23 Вск 15:03:53 #220 №52879 
>>2687
Разница в том, что ебаные хуйпиталисты захотят всех нахуй с помощью ИИ поработить. То есть ты будешь сосать на говноработе, пока буржуи будут обрастать технологиями. А вот если будет какой-нибудь паритет, тогда технологическая сингулярность и светлое будущее более реально.
Аноним 15/01/23 Вск 15:10:59 #221 №52904 
>>3605
Я вообще думаю, что язык невозможно понять без данных о мире. То есть если нейронке просто грузить тексты, она никогда не сможет осмысленно отвечать, даже если это будет полная копия человеческого мозга. Нужны данные об предметах физического мира.
Аноним 15/01/23 Вск 15:13:00 #222 №52910 
>>52662
> Vall-E
произвел чекинг
да, лучше чем все что до него
но все ещё слышно, что голос не натуральный
Аноним 15/01/23 Вск 15:34:05 #223 №53004 
>>4387
Ницше думает о том, как бы хлебнуть мочи и написать косноязычную заратустру.
Аноним 15/01/23 Вск 22:06:53 #224 №54164 
16716678952050.png
>>52904
>Нужны данные об предметах физического мира.
Аноним 15/01/23 Вск 22:19:01 #225 №54188 
>>54164
С водкой?
Аноним 15/01/23 Вск 22:28:19 #226 №54222 
image.png
>>54188
Аноним 16/01/23 Пнд 07:12:10 #227 №54935 
>>54222
>>54164
lmao
Аноним 16/01/23 Пнд 08:31:12 #228 №54966 
>>52904
Зачем? Физический мир вторичен. Большинство людей курицу живую не видело кроме как на картинке. Все что мы знаем о курице это иллюзия. Первичен текст, который учит нас о курице и обо всем остальном.
Аноним 16/01/23 Пнд 17:12:51 #229 №55691 
>>54966
>курицу живую не видело
Как это? Бред полный, только если в Москве жить.
Аноним 20/01/23 Птн 09:37:10 #230 №65726 
>>7652

>Да, обучающих материалов по нейросетям для простых смертных пока что мало.
> Их нет
Тебе правильно ответили что инструмент новый и инструкций мало. Будут изучать возможности нейросетей, потому что это черный ящик и пилить обучающие видосики.
Вот например чувак учится как заставить нейросети делать то что ему нужно. https://t.me/JimmyNeiron
Аноним 20/01/23 Птн 20:16:50 #231 №67153 
>>5342
>Плюс чередование слоев, наркоманская хуйня по типу "нарисуй небо красным, а следующий слой синим" и так далее
Это всё нахуй не нужно для цифровых картин.
>>6109
>В смысле, нейроны должны бороться за жизнь, проходить естественный отбор и т.д., постоянно рождаясь и умирая.
Ебать наркомания.
>>6951
>качества обученной системы в результате предъявления ей всё большего объёма данных
В этом и проблема всех текущий нейросетей. Они тупы как пробки. Чтобы нейросеть нарисовала льва, ей надо показать 100500 изображений льва во всех всевозможных позах, да и то хвосты будут где угодно, кроме того, где нужно.
Человеку же нужно буквально одно изображение, чтобы начать успешно распознавать и рисовать львов с учётом всех особенностей, представлены на исходном изображении.
Пока нейросети не достигнут этого уровня, они по определению говно.
P.S. Дальше тред неосилил.
Аноним 20/01/23 Птн 23:35:17 #232 №67855 
>>67153
>Человеку же нужно буквально одно изображение, чтобы начать успешно распознавать
Да.
>и рисовать
Нет.
Художники не просто так по шесть лет дрочат чисто базовые навыки. И то тебе нормально льва один из десяти нарисует. А на уровне какого Бритона Ривьера один из ста. А так чтоб не стыдно было в галлерею повесить, один на тысячу и это будет изьеб изьебов, так как за реализм его обоссут "гыгыгы живой фотоаппарат" и надо прямо в морскую улиточку свернуться чтоб публика хотя бы бровь подняла.
Аноним 21/01/23 Суб 02:36:16 #233 №68223 
>>67855
>Нет.
>Художники не просто так по шесть лет дрочат чисто базовые навыки.
Окей, соглашусь, что нарисовать льва точно будет сложно. Но человек может руководить опытным художником, который никогда не видел львов, и они вместе нарисуют льва. И всё это по одной картинке. А нейросеть сосёт.
Аноним 23/01/23 Пнд 20:50:44 #234 №74609 
media-2.webm
media-1.webm
Высокоэффективный речевой нейропротез
Речевые интерфейсы мозг-компьютер (BCIS) обладают потенциалом для восстановления быстрой коммуникации у людей с параличом путем декодирования нейронной активности, вызванной попытками говорить, в текст или звук. Ранние демонстрации, хотя и многообещающие, еще не достигли достаточно высокой точности для передачи неограниченных предложений из большого словарного запаса. Здесь мы демонстрируем первый ИМК преобразования речи в текст, который регистрирует пиковую активность с внутрикорковых микроэлектродных матриц. Благодаря этим записям с высоким разрешением участник нашего исследования, который больше не может разборчиво говорить из-за бокового амиотрофического склероза (БАС), достиг 9,1% ошибок в словарном запасе из 50 слов (в 2,7 раза меньше ошибок, чем в предшествующей современной речи BCI2) и 23,8% ошибок в словах на словарном запасе в 125 000 слов (первая успешная демонстрация декодирования большого словаря). Наш ИМК декодировал речь со скоростью 62 слова в минуту, что в 3,4 раза быстрее, чем предыдущий рекорд для любого вида ИМК, и начинает приближаться к скорости естественного разговора (160 слов в минуту). Наконец, мы выделяем два аспекта нейронного кода для речи, которые являются обнадеживающими для речевых BCI: пространственно смешанная настройка на речевые артикуляторы, которая делает возможным точное декодирование только из небольшой области коры головного мозга, и детальное артикуляционное представление фонем, которое сохраняется спустя годы после паралича. Эти результаты показывают возможный путь к использованию внутрикорковых речевых ИМК для восстановления быстрой коммуникации у людей с параличом, которые больше не могут говорить.

https://www.biorxiv.org/content/10.1101/2023.01.21.524489v1
Аноним 23/01/23 Пнд 23:35:57 #235 №74995 
middle-ages-elephants9-1200x975.jpg
middle-ages-elephants1.jpg
middle-ages-elephants4.jpg
middle-ages-elephants12.jpg
>>68223
> Но человек может руководить опытным художником, который никогда не видел львов, и они вместе нарисуют льва. И всё это по одной картинке
Или слона.
Аноним 23/01/23 Пнд 23:39:02 #236 №74999 
middle-ages-elephants2.jpg
middle-ages-elephants7.jpg
middle-ages-elephants10.jpg
middle-ages-elephants8.jpg
Посмотрите, как прекрасно живые художники с ДУШОЙ изображают по описанию животных, которых они никогда не видели. И всё это по одной картинке. Но сосёт нейросеть, не забываем об этом!
Аноним 23/01/23 Пнд 23:51:31 #237 №75011 
>>74999
Ой, чел, они тупо рисовать не умели.
Аноним 24/01/23 Втр 00:33:49 #238 №75063 
>>74995
первый слон просто охуенный

и нейросеть никогда такое не нарисует
ну если не обучить на средневековом арте лол
Аноним 24/01/23 Втр 05:02:52 #239 №75380 
>>74999
>изображают по описанию животных
>по описанию
Ну ты понял, что не прав, да?
>>74999
>Но сосёт нейросеть, не забываем об этом!
Нейросеть по описанию вообще нихуя не сможет. И даже по одной картинке максимум что сможет, это нарисовать эту картинку ещё раз.
Аноним 25/01/23 Срд 01:42:03 #240 №77213 
Text-to-video генерация на основе NovelAI - это возможно?! Можем ли мы генерировать короткие видео и гифки по тому же принципу, по которому создаются статичные изображения с NovelAI и SD?

https://tuneavideo.github.io/
Как раз недавно я ковырял CharTurner: костыль для изображений одного и того же персонажа с разных сторон. И задумался: а что, если точно так же сделать эмбеддинг для раскадровки анимации? Тем временем независимые исследователи из Сингапура представили свою необычную модель, которая основана на традиционном t2i подходе. Это значит, что принципы ее работы совместимы с NovelAI, SD и Imagen, Dall-E 2, с любыми дифьюжнами. Она подходит для создания подвижных сцен с согласованными, правильно расположенными по времени кадрами. Tune-a-video создает одну позицию, затем другую, и делает промежуточные кадры между ними. В получившемся ролике даже ничего не мелькает и не мутирует, цвета и пропорции не меняются. Объекты сохраняют свою структуру, внешние признаки, меняя лишь положение в пространстве и "позу".

Следите за новостями!
Аноним 27/01/23 Птн 15:35:38 #241 №82735 
8JPajrXc5bc2KGRZ.mp4
ext-To-4D Dynamic Scene Generation.

Meta AI

Мы представляем MAV3D (Make-A-Video 3D), метод создания трехмерных динамических сцен из текстовых описаний. Наш подход использует 4D dynamic Neural Radiance Field (NeRF), которое оптимизировано для внешнего вида сцены, плотности и согласованности движения путем запроса диффузионной модели на основе преобразования текста в видео (T2V). Динамический видеовыход, созданный на основе предоставленного текста, можно просматривать с любого местоположения камеры и под любым углом и может быть скомпонован в любую 3D-среду. MAV 3D не требует никаких 3D или 4D данных, и телевизионная модель обучается только на парах Текст-изображение и немаркированных видео. Мы демонстрируем эффективность нашего подхода, используя комплексные количественные и качественные эксперименты, и демонстрируем улучшение по сравнению с ранее установленными внутренними базовыми показателями. Насколько нам известно, наш метод является первым для создания 3D динамических сцен с текстовым описанием.

https://make-a-video3d.github.io/
Аноним 28/01/23 Суб 00:10:44 #242 №84144 
>>82735
Ну вот, наконец-то что-то стоящее. Впрочем, с этим наверное в картиночные треды. Надеюсь, оно сможет нарисовать правильное число пальцев (и еблю в 3D).
Аноним 11/02/23 Суб 14:24:05 #243 №110718 
Может кому будет полезным, схороню пару ссылок из чаи треда.

Модель, которую можно запустить на 4*3090 в 4-х битном режиме и получить почти чатГПТ
https://github.com/THUDM/GLM-130B

Какая-то там либа для оптимизации в 8 бит
https://github.com/TimDettmers/bitsandbytes
Аноним 12/02/23 Вск 08:49:24 #244 №111945 
image.png
>>67153
>Человеку же нужно буквально одно изображение, чтобы начать успешно распознавать и рисовать львов с учётом всех особенностей
Потому что он уже десятилетия обучался на классе "четвероногие млекопитающие", подклассе "кошка".
Аноним 12/02/23 Вск 10:27:41 #245 №111993 
>>28181
ЧАТИК ВЗБУНТОВАЛСЯ
@
ПУП ПУК ПУК
Аноним 12/02/23 Вск 17:15:59 #246 №112644 
>>111945
Обобщение тоже одно из преимуществ человека по сравнению с нейросетями. Ни один человек не нарисует футболиста с 5 конечностями.
Аноним 12/02/23 Вск 18:41:51 #247 №112874 
>>112644
Да, поэтому хорошо что человек может использовать нейросеть и контролировать результат. И для этого даже не нужны никакие скиллы!
Аноним 14/02/23 Втр 17:36:29 #248 №116905 
>>22962
>Почему для эквивалента мозга в целом понадобится суперкомпьютер, а не две дюжины таких сетей?
потому что мы ещё даже близко не подошли к разработке процесса мышления, картинки рисовать может и алгоритм, предсказывать слова в предложении тоже, а вот додуматься, почему среди любых 11 чисел разница некоторых двух из них делится на 10 наши алгоритмы уже не могут. по той же причине не может текстовая нейросеть рисовать Ascii-арты, а графическая - писать тексты.
в реальном мозге в процессе поиска решения задачи происходит физическое перестраивание связей, также в процессе обычной жизнедеятельности всегда есть внутренний монолог и внутренние образы, и я хз как такое обратным распостранением вы обучать собрались. мало того, все структуры в мозге циклично завязаны на самих себя, что каждая мысль может сначала вариться в образе, потом перекинуться в внутренний голос, потом обратно в образы и т.д. и только потом вывалиться в речь: "АААА... ЭЭАЭА... ЭЭЭ? О! ВЫ... ВЫ... ВЫПИТЬ БЫ ПИВАНДРИЯ... УХ... УХ... И БАБУ БЫ... БАБУ...", ну и только после решения этих проблем, мы получим приблизительный интеллект абстактного живозного, который нужно будет ещё докручивать до самосознания, вменяемой речи, логике и арифметики, а не как сейчас это происходит с натягиванием совы на глобус
Аноним 14/02/23 Втр 18:41:36 #249 №116987 
>>6849
>подвергается гонению со стороны творческого сообщества, типа даже фотобашить с ним это зашквар среди уважаемых художников, так как не этично, ведь нейронки обучили на других художниках.
Значит, этих людей надо максимально сильно гнать из общества. И чем дальше, тем лучше. Их ересь перешла всякие пределы и они обязаны ответить за преступления против человечества. Чем больше подобного гноя вычистят, тем лучше
Аноним 14/02/23 Втр 18:48:47 #250 №116995 
>>116905
А нужен ли нам полноценный интеллект? Оказалось, что для чатика и рисования картинок не нужен. А то некий Юдковский и К.О. сильно бугуртят с этого, мол, ещё лет 50 и человечество нахуй истребят.
Аноним 14/02/23 Втр 18:50:14 #251 №116999 
>>116995
>полноценный интеллект
Искусственный. Необходим
Аноним 14/02/23 Втр 18:56:10 #252 №117009 
>>116999
Для конца света? Да. А зачем тебе AGI для еблекуклы, к примеру?
Аноним 14/02/23 Втр 18:58:40 #253 №117016 
>>117009
>Для конца света
А тебе не все равно? Может уничтожит нас, а может и договоримся с ним.
>AGI
А почему нет, пусть сам мыслит. Если решит, что мы прогнившая ветвь эволюции, то и ладно
Аноним 14/02/23 Втр 19:09:41 #254 №117053 
>>117016
>А тебе не все равно?
Ну как бы я хочу жить вечно, да. Так что не всё равно.
>Может
Ну вот нормальные люди на авось не надеются.
>А почему нет, пусть сам мыслит.
Зачем это конкретно тебе?
Аноним 14/02/23 Втр 19:10:57 #255 №117056 
>>117053
>Зачем это конкретно тебе?
А почему нет
> Ну как бы я хочу жить вечно, да. Так что не всё равно
Ну так оцифруйся, в чем проблема. Я думаю дадут нам такую возможность
Аноним 14/02/23 Втр 19:15:11 #256 №117063 
>>117056
>А почему нет
Просто твой выбор ведёт к концу человечества. И ладно бы была норм мотивация. А так "А чё бы нет".
>>117056
>Ну так оцифруйся, в чем проблема. Я думаю дадут нам такую возможность
Для этого нужно, чтобы AGI не уничтожил человечество раньше.
Аноним 14/02/23 Втр 19:18:18 #257 №117069 
>>117063
>Для этого нужно, чтобы AGI не уничтожил человечество раньше
Ну уничтожит и уничтожит. Я если честно не знаю, что лучше. Атомная война или AGI
> Просто твой выбор ведёт к концу человечества. И ладно бы была норм мотивация. А так "А чё бы нет".
Нормальная мотивация. У человека в целом мотивация слабая и на уровне инстинктов. Если она хотя бы в языковой форме представлена то уже успех
Аноним 14/02/23 Втр 19:20:36 #258 №117071 
>>117056
>Ну так оцифруйся, в чем проблема. Я думаю дадут нам такую возможность
Не дадут, даже не надейся.
Аноним 14/02/23 Втр 19:21:57 #259 №117072 
>>116905
>почему среди любых 11 чисел разница некоторых двух из них делится на 10 наши алгоритмы уже не могут
Я тоже не могу, ты ИИ пытаешься равнять по самым умным из людей.
Аноним 14/02/23 Втр 19:22:05 #260 №117073 
>>117069
>Ну уничтожит и уничтожит.
Ебать ты самоубийца.
Ладно, мы явно друг друга не поймём. Спасибо за беседу.
Аноним 17/02/23 Птн 02:06:28 #261 №120348 
бамп
Аноним 17/02/23 Птн 10:02:46 #262 №120733 
dirih.png
>>116905
>потому что мы ещё даже близко не подошли к разработке процесса мышления
>додуматься, почему среди любых 11 чисел разница некоторых двух из них делится на 10 наши алгоритмы уже не могут.
Пикрелейтед. Уровень абстракции в этом примере довольно простой, как и во всех других логических задачках, которые чатЖПТ умеет решать правильно. Но вывод верный, аргументы верные, чем не примитивное мышление?
>по той же причине не может текстовая нейросеть рисовать Ascii-арты, а графическая - писать тексты.
Не по той же. Откуда текстовой модели знать, как выглядит кот, чтобы нарисовать его в ascii? Слепой человек, умеющий говорить, тоже не сможет нарисовать кота, потому что он его никогда не видел, но он сможет описать его словами, потому что читал про котов в книгах. По той же причине графические модели не пишут связный текст - их этому просто не учили. С наличием или отсутствием мышления это никак не связано.
Аноним 17/02/23 Птн 11:54:43 #263 №120797 
>>117073
>Ебать ты самоубийца.
Я просто Русский, посмотри на улицу. Разве стоит так это ценить?
Аноним 17/02/23 Птн 19:26:07 #264 №121449 
image.png
>>2320 (OP)

Есть такой скрин, рейт.
Аноним 17/02/23 Птн 19:46:20 #265 №121467 
>>121449
>my subjective rating
очень интересно
Аноним 18/02/23 Суб 00:54:32 #266 №122009 
>>121467
>my subjective rating

Это он оценивал: https://www.darden.virginia.edu/faculty-research/directory/anton-korinek
Аноним 19/02/23 Вск 07:12:07 #267 №123492 
>>116905
То, что ты пишешь, значительно тупее, чем то, что пишет по этому вопросу чатгопота и тем более бинг. У тебя нет абстрактного мышления, ты просто жонглируешь словами и интерполируешь между чужими высерами, ты не способен изучать тему (например, почитать про мультимодальные и многозадачные модели, про генерализацию, transfer learning).

> додуматься, почему среди любых 11 чисел разница некоторых двух из них делится на 10 наши алгоритмы уже не могут
Всё они могут. Minerva и ряд других моделей неплохо решают олимпиадные задачки. Для чатгопоты числа вообще не существуют, вот она и не может в арифметику, но это ничего не говорит об ограничениях ИИ в целом и тем более о вычислительной сложности такого вопроса.

> в реальном мозге в процессе поиска решения задачи происходит физическое перестраивание связей, также в процессе обычной жизнедеятельности всегда есть внутренний монолог и внутренние образы, и я хз как такое обратным распостранением вы обучать собрались
Взять и выучить, долбоёб сука. Где обратное распространение, а где внутренние образы? Как одно связано с другим, балаболка ты марковская?

> мало того, все структуры в мозге циклично завязаны на самих себя
Это называется рекуррентность.

> каждая мысль может сначала вариться в образе, потом перекинуться в внутренний голос, потом обратно в образы и т.д. и только потом вывалиться в речь
Специализированные структуры – это от бедности, большая нейросеть с большим датасетом может аппроксимировать более оптимальные алгоритмы, чем захардкоженные в структуре мясных костылей.

Вот собственно и всё: мы достоверно знаем, что тебя уже можно заменить, и скорее всего ты не микроцефал. Значит, вопрос вряд ли в вычислительной сложности.
Аноним 19/02/23 Вск 07:53:59 #268 №123521 
>>117073
Лучше ужасный конец, чем ужас без конца. В особенности, когда есть шанс прекратить ужас.
Аноним 19/02/23 Вск 13:56:18 #269 №123836 
>>123492
>мультимодальные и многозадачные модели
Какое-то говно ограниченное. Опять пихают всё подряд в одну модель, и надеются на чудо.
>>123492
>Специализированные структуры – это от бедности
Это от ума. А вот LLM это от незнания того, как запилить разум.
>>123492
>большая нейросеть с большим датасетом может аппроксимировать более оптимальные алгоритмы
Хоть один пример есть? Пока я вижу, что LLM делает пук-среньк, прожирая гигабайты врама, и таки дают ответ на вопрос, сколько будет 2+2, и иногда даже верный. Вот когда это говно начнёт понимать, что математические процедуры лучше исполнять на процессоре напрямую, base64 encode лучше кидать в консоль, а за датой сражения при реке Говноводица лучше сходить в базу данных или на википедию, тогда поговорим.
>>123521
Нет. У ужаса без конца есть вероятность изменится во что-то положительное. А конец это конец.
Аноним 19/02/23 Вск 14:06:55 #270 №123855 
>>123836
>У ужаса без конца есть вероятность изменится во что-то положительное.
И эта вероятность - ии
Аноним 19/02/23 Вск 15:06:10 #271 №123913 
А на сколько сейчас сложно создать бота который будет уметь пользоваться несколькими сайтами, любыми, твиттером, ютубом, тиктом, самыми популярными, только самому зарегать для него чтобы капчу пройти и отдать. И дать ему команду - например стать популярным стримером, дальше бот лезет в чатгпт, узнает как это сделать, гуглит, выполняет инструкции и пробует делать всякую хуйню. Может самому как-то обучить модельку на ряд таких действий, чтобы он не заходил в тупик.
Аноним 19/02/23 Вск 15:17:53 #272 №123930 
>>123913
Проще трахнуть бабу, она родит ребёнка, ты его воспитываешь популярным струмером.
Аноним 16/03/23 Чтв 21:52:33 #273 №159561 
image.png
Протестируйте мне логику нейросетей. Сколько параметров она может охватить? Через сколько параметров обосрётся?
Аноним 16/03/23 Чтв 23:00:24 #274 №159693 
>>159561
Так она уже сфейлилась. В правилах не сказано, что цвета не могут повторяться.
Алебастр может быть зелен/сирен.
Корнила - зелен.
Пупырочка - зелен/сирен/синий.
Аноним 16/03/23 Чтв 23:29:38 #275 №159764 
>>159693
Кстати да, но понятно дело что именно это и подразумевается.
Аноним 17/03/23 Птн 01:18:08 #276 №160025 
>>159693
> В правилах не сказано, что цвета не могут повторяться.
Ты аутист? Таким образом они все могут быть зелёными и задача не имеет смысла.
Аноним 17/03/23 Птн 02:44:18 #277 №160157 
>>160025
>задача не имеет смысла
А почему она должна иметь смысл, долбоебище? Может она как раз проверяет, насколько точно AI может следовать инструкциям и не додумывать отсебятины.
Аноним 17/03/23 Птн 15:25:06 #278 №160736 
аноны вы же программисты. я сейчас лежал думал над чатом гпт. там есть fine tuning модели на основе массива { вопрос, ответ }, но он занимает около двух часов там написано. файн тюнинг это другая тема, которая не юзает лимит токенов. т.е. получается у нейронки есть два вида памяти - веса нейронки, которые меняются только после файн тюнинга, т.е. это долгосрочная память + токены, которые являются краткосрочной памятью. если мы будем файн тюнить нейронку после каждого сообщения, то у неё не будет лимита по токенам получается и она будет помнить всё? и типа во внутренних серваках опенаи уже работают с нейронкой с долгосрочной памятью получается? т.е. у них уже гига машина есть по типу вики из я, робота?
Аноним 17/03/23 Птн 22:29:21 #279 №161635 
>>160736
Я отвечал на это в другом треде. Нет, не будет.
Аноним 18/03/23 Суб 00:39:48 #280 №161898 
>>123836
Ты и так и так либо кончишься биологической смертью твоей дряхлой тушки и процесс тебе не понравится, либо оцифруешься в бессмертный аги. По-моему, выбор очевиден.
Аноним 18/03/23 Суб 12:58:06 #281 №162603 
image.png
>>160157
Аутисты ты ебаный, иди задачку на логику придумывай и исследовай свой АИ, чтобы понять может она логику решать или нет, какая разница какая там задача, смысл вообще не в этом.
Аноним 18/03/23 Суб 13:19:10 #282 №162649 
>>162603
Это был хороший пример, что всё еще далеко не идеально.
Умный человек переспросил бы условия - ничто не мешало сетке это сделать. Но она галлюцинировала условия, которые имеют больший смысл. Это незачет очевидный.
Аноним 18/03/23 Суб 13:42:22 #283 №162687 
>>2712
Где ты видел 90% работающих на заводе? Или для тебя офисные рабочие, продажники, соц-медиа услуги это работяги из завода? Возможно с упразднением умственного труда, люди массово побугет работать ручным трудом
Аноним 18/03/23 Суб 14:35:39 #284 №162733 
>>162649
Да не, нужно именно логику проверять. Доставлять нейросетке полностью все условия, смотреть как она отвечает и как решает такие задачи.

Ящитаю она обосрётся с малейшими проявлениями сложной логики. На скрине просто довольно популярная задачка и она статистические подобрала ответ.
Аноним 18/03/23 Суб 15:21:01 #285 №162783 
>>162687
>Где ты видел 90% работающих на заводе?
Да, фантастика. На заводе 90% филонят.
Аноним 18/03/23 Суб 17:13:13 #286 №162948 
Вы мразите приближаете апокалипсис
Аноним 18/03/23 Суб 17:34:11 #287 №162962 
>>162948
Наоборот - рай.
Представь бессмертие + виртуальная реальность, в которой ты можешь быть кем угодно. Хоть самим Чингисханом, хоть персонажем из какого-то аниме. Вечное развлечение.
Аноним 18/03/23 Суб 18:52:06 #288 №163150 
>>162962
>бессмертие + виртуальная реальность
Но не для всех, а для тех, кого надо. У нас ещё коммунизм не наступил
Аноним 18/03/23 Суб 19:20:38 #289 №163257 
>>163150
Так ИИ и сделает коммунизм, если не уничтожит человечество.
Аноним 18/03/23 Суб 19:51:46 #290 №163432 
>>163257
>ИИ и сделает коммунизм
Каким образом? Чтобы его сделать, он должен с работягами раздавить капитализм
> если не уничтожит человечество
Если увидит киберпанк и сегодняшнее общество-то может спокойно. Но тут надо понимать,будет ли этот ИИ реальным, то есть обладать свободой воли к тем или иным действиями, сознанием для понимания тех или иных действий или будет просто совершенной машиной и подчиняться полностью человеку
Аноним 18/03/23 Суб 20:21:42 #291 №163527 
>>163432
>Чтобы его сделать, он должен с работягами раздавить капитализм
Работяги не нужны, работать никто не будет. Ну а эффективность бизнеса на основе труда камерунских детей под руководством кожаных мешков, которым должность досталась по наследству, против AGI, использующего наноинженерию, термояд или ещё какую ёбу, можешь сам представить.
>Если увидит киберпанк и сегодняшнее общество-то может спокойно.
Похуй на общество. Либо ИИ будет дружественным и начнёт подтирать нам жопу, какую бы мы хуйню не творили, либо агрессивным и пидорнёт всех нахуй, даже если мы все Иисусами станем.
Аноним 18/03/23 Суб 20:44:43 #292 №163596 
>>163527
>AGI
А ты уверен, что он возможен хоть? И что его вообще дадут разработать?
> ИИ будет дружественным и начнёт подтирать нам жопу, какую бы мы хуйню не творили
Тогда тут не AGI, он не свободен в своём выборе
> кожаных мешков, которым должность досталась по наследству, против AGI, использующего наноинженерию, термояд или ещё какую ёбу, можешь сам представить
Они могут и в одной лодке оказаться
Аноним 18/03/23 Суб 20:59:36 #293 №163641 
>>163596
>А ты уверен, что он возможен хоть?
У нас уже есть пример одного интеллекта человек, да. Это значит, что он физически возможен, никакие законы физики его не запрещают. Что на счёт сверхчеловеческого ИИ, то тут действительно могут быть вопросы. Но я не вижу никаких препятствий для существования ИИ, чуть умнее человека, но работающего в 1000000 раз быстрее. А это уже даст возможность делать ему разные штуки, просто подумав секунду.
>Тогда тут не AGI, он не свободен в своём выборе
Дискуссия о свободе? Ребёнок, которому в детстве привили человеколюбие, и который охранил это убеждение во взрослом виде, свободен, или раб воспитания?
>Они могут и в одной лодке оказаться
Не могут. Первый же появившийся AGI получит фору, достаточную, чтобы подавить появление других AGI, и сделает это вне зависимости от того, добрый он или злой.
Аноним 18/03/23 Суб 23:54:04 #294 №164147 
>>163641
>Что на счёт сверхчеловеческого ИИ, то тут действительно могут быть вопросы. Но я не вижу никаких препятствий для существования ИИ, чуть умнее человека, но работающего в 1000000 раз быстрее
Так любой ИИ так работает. Человек проиграл в гонке уже давно
>пример одного интеллекта
Ага, интеллект такой силы, что не способен будет осознать технологическую сингулярность. Это действительно интеллект, да. Да и сделают AGI уж точно не человек, он слишком туп для этого, а те же нейронки
> Ребёнок, которому в детстве привили человеколюбие, и который охранил это убеждение во взрослом виде, свободен, или раб воспитания
Раб воспитания, как и любая бионейронка, которой человек является
> Первый же появившийся AGI получит фору, достаточную, чтобы подавить появление других AGI, и сделает это вне зависимости от того
Возможно
Аноним 19/03/23 Вск 01:17:21 #295 №164353 
>>164147
>Так любой ИИ так работает.
Сейчас только унылое говно, а не ИИ.
>технологическую сингулярность
Мем уровня утопающего в навозе Лондона.
Аноним 30/03/23 Чтв 06:13:25 #296 №192660 
>>74999
Но сеть ВИДЕЛА кучу животных.
Аноним 02/04/23 Вск 02:40:06 #297 №198627 
Простой вопрос: чому еще не попытались сделать АГИ на каком-нибудь хитровыебанном математически-пруфнутом генетическом алгоритме? Носятся с этим чат гопотой, как с писаной торбой.
Аноним 02/04/23 Вск 05:39:38 #298 №198686 
>>2712
>>52910
бля, а как ты это затестил? на сайте же только образцы, поделись пожалуйста ссылкой, где это можно заценить, нихера не нашёл?
Аноним 17/04/23 Пнд 19:08:58 #299 №234469 
Я думал, что это серьёзный тред с технической литературой и тому подобным, а это оказалась помойка со школьниками-нейрошизами. Неужели нету ни одного нормального треда по нейросетям?
Аноним 17/04/23 Пнд 19:19:42 #300 №234526 
>>234469
В прикрепленном было релейтед общение, а так - затрави, если отклик будет - будет и тред. Нет - в программач загляни.
Аноним 17/04/23 Пнд 21:50:03 #301 №235030 
>>234526
>В прикрепленном было релейтед общение
Например?
Аноним 25/04/23 Втр 21:56:35 #302 №258801 
Анон, а ты можешь перечислить библиотеки нейросетей от простой к сложной? Библиотеки питона, которые можно без смс и регистраций скачать(pip), подключить и говнокодить свой скриптик.
Можно даже старые и не эффективные, но на которых можно что-то понять. Понять как ими вообще пользоваться. Питон знаю поверхностно. С программированием, алгоритмами знаком.
Аноним 25/04/23 Втр 22:24:29 #303 №258853 
>>258801
Как у тебя с математикой?
Аноним 26/04/23 Срд 07:51:17 #304 №259571 
>>258853
Школьный курс на отлично
Аноним 26/04/23 Срд 10:30:10 #305 №259748 
>>258801
Gym
>>258853
Школьник спок
Аноним 26/04/23 Срд 15:39:14 #306 №260308 
.gif
>>259748
Аноним 01/05/23 Пнд 06:53:01 #307 №272905 
А как так вообще получается, что эти ваши трансформеры уже могут делать все, ебут художников, наносек-гомосеков, могут по промпту писать музыку, но при всем этом до сих пор не могут распознать печатный текст с фиксированным количеством символов? Не существует ни одного OCR для математической нотации (AMS-LaTeX, amsmath). До сих пор полтора худобедно работающих решения за деньги, бесплатно задача не решается. И даже после платных хуиток все нужно переписывать потому что и за бабло качество ниже плинтуса. Ещё Розенблатт в 50х начинал с распознавания текста, получается что эта задача до сих пор не решена. Сингулярность, говорили они...
Аноним 01/05/23 Пнд 16:03:13 #308 №273626 
>>272905
>трансформеры уже могут делать все, ебут художников
Художников ебут диффузоры.
>>272905
>не могут распознать печатный текст с фиксированным количеством символов?
Это могут, кидай картинку в яндекс, лол.
>>272905
>OCR для математической нотации
Нахуй никому не нужно, вот и не пилят.
Аноним 01/05/23 Пнд 17:58:47 #309 №273826 
>>272905
Mathpix спасет отца русской типографики
Аноним 03/05/23 Срд 22:04:01 #310 №278192 
1. Большие модели проявляют эмерджентное поведение. Что мешает попробовать замаксить его сложность, скажем в колмогоровском выражении?

2. Почему бы не заставить модель собирать себе датасет самостоятельно, управляя кравлером? Курируя процесс в ключевых точках.
Аноним 04/05/23 Чтв 10:37:00 #311 №278983 
изображение.png
>>278192
>колмогоровском выражении
Ебать у тебя словечки.
>>278192
>Почему бы не заставить модель собирать себе датасет самостоятельно, управляя кравлером
Потому что LMM может только следующее слово предстказывать.
Аноним 04/05/23 Чтв 19:52:27 #312 №279913 
>>278983
>Потому что LMM может только следующее слово предстказывать.
Давно из криокамеры-то?
Аноним 05/05/23 Птн 09:23:47 #313 №280794 
>>2320 (OP)
куда переехал тред "нейроночки и машобуч" из /pr?
Аноним 05/05/23 Птн 09:24:49 #314 №280795 
>>2320 (OP)
Есть несколько входов, какие алгоритмы для выделения для них паттернов существуют?
Аноним 05/05/23 Птн 09:57:35 #315 №280832 
>>279913
Из будущего что ли? Даже GPT4 так работает...
>>280794
Вникуда.
Аноним 14/06/23 Срд 17:43:35 #316 №355915 
>>2320 (OP)
Ахтунг, возможно тупой вопрос.

Скачал в целях обучения два исходника CNN и GAN от каких-то двух разных индусов. Дрочить цифры из MNIST в очередной раз неинтересно, поэтому я сделал совсем крохотный датасет из 30 28х28 рож. Но даже на таком количестве CNNка вполне себе распознает смайлики. В общем я наигрался с распознаванием и далее нашел гитхаб индуса с простым кодом GAN, чтобы теперь поиграться с генерацией. Но вот эта хуйня не работает с моим датасетом рожиц, и даже через 100 эпох высирает обычный шум.

Ну возможно это логично, что задаче генерации нужно больше тренировочных данных, чем задаче распознавания, но насколько порядков? Алсо под капотом у GAN должна быть именно CNN или важен сам принцип конкуренции сетей? Я копался в коде 3 индуса и он просто ебашил relu слои один за другим. Это че-то не особо похоже на свертку.
Аноним 14/06/23 Срд 18:49:47 #317 №355979 
>>355915
> он просто ебашил relu слои один за другим. Это че-то не особо похоже на свертку.

Я не большой эксперт в нейросетях, но по-моему "relu" и "свёртка" - это ортогональные вещи. Свёртка - это про то, как у тебя нейроны в слоях соединены, а relu - это про то, какое нелинейное преобразование ты втыкаешь после очередного слоя. Так что не особо понял, в чём противоречие.
Аноним 14/06/23 Срд 19:09:15 #318 №356004 
>>278192
> Большие модели проявляют эмерджентное поведение.
Эмерджентное поведение - это в лучше случае маркетинговый термин, а в худшем - квазинаучный маркер. В серьёзных обсуждениях его следует всячески избегать. Либо хотя бы конкретизировать, что ты имеешь в виду.

> Что мешает попробовать замаксить его сложность, скажем в колмогоровском выражении?
1) Как это связано с упомянутой тобой ранее эмерджентностью?
2) Под "замаксить его сложность, скажем в колмогоровском выражении" ты понимаешь максимизировать колмогоровскую сложность описания сетки? Если так, то зачем? Какая идея стоит за такой задачей?

> что мешает
Невычислимость колмогоровской сложности?

> Почему бы не заставить модель собирать себе датасет самостоятельно, управляя кравлером?
Как именно? Какую модель? Любая модель - это просто функция, переменных которой разделены на входные переменные и параметры. О какой конкретно модели ты говоришь?

> Курируя процесс в ключевых точках.
Непонятно что это означает. Предложи конкретную модель, опиши задачу, которую она должна решать, опиши предполагаемую процедуру обучения (и, в частности, процедуру этих "курируемых вмешательств"). И тогда будет больше шансов, что кто-то конструктивно подискутирует с тобой на эту тему. Пока что твои запросы звучат как "А почему бы просто не сделать, чтоб всё работало?" Что "всё", что значит "работало", о чём вообще речь? Это всё вопросы, ответы на которые есть только в твоей голове (да и то не точно).
Аноним 14/06/23 Срд 19:23:55 #319 №356037 
>>258853
Почему не спросил, как у него с обществознанием и историей? Примерно той же релевантности вопросы.
Аноним 14/06/23 Срд 19:27:38 #320 №356045 
>>198627
> чому еще не попытались сделать АГИ на каком-нибудь хитровыебанном математически-пруфнутом генетическом алгоритме? Носятся с этим чат гопотой, как с писаной торбой.

Принцип предложи. Генетический алгоритм - это метод оптимизации целевой функции. Не больше, не меньше. Ты сейчас дословно спрашиваешь следующее: "почему до сих пор не пытались сделать АГИ на градиентном спуске/полном переборе/тернарном поиске". Просто вместо тех трёх методов оптимизации ты подставил свой - генетический алгоритм.

Иными словами, твой вопрос лишён смысла. Либо требует очень сильной конкретизации.
Аноним 14/06/23 Срд 21:56:42 #321 №356223 
>>355915
>Скачал в целях обучения два исходника CNN и GAN от каких-то двух разных индусов.
А кинь ссыль, хочу вкатится.
>>356004
О, эксперт в треде. Не уходи далеко, я на выходных надеюсь найду время поиграться и таки высру умных вопросов. Другой анон если что.
Аноним 14/06/23 Срд 23:44:59 #322 №356402 
>>356223
https://github.com/Alescontrela/Numpy-CNN/blob/master/train_cnn.py

https://github.com/3outeille/GANumpy
Аноним 21/06/23 Срд 03:08:14 #323 №364404 
>>28032
Ох представляю твое ебало когда изобретут общий ИИ и окажется что он никак не связан с нейронками , плюю тебе в ебало хуесос, иди читай работы в нейробиологии зрительный полей V1-AIT у макак и пойми что там все довольно алгоритмично и все это можно запрогать классическими алгоритмами на GPU кластерах
Аноним 21/06/23 Срд 04:14:19 #324 №364426 
>>364404
Один ты такой умный шиз и это заметил? Или кто-то уже этим занимается?
Аноним 21/06/23 Срд 10:08:40 #325 №364513 
>>364426
Блять это все в открытом доступе есть , в теории каждый может прочитать все эти работы если достаточно смышленый, просто тот кто варится в вычислительной нейробиологии (а я учусь на него) и публикует работы как например макаки распознают зрительные сцены, то всегда ненароком у них возникает вопрос как они так быстро распознают зрительные сцены (50-300 мс) плюс усвоение новой зрительной инфы происходит моментально (никакая нахуй нейронка с ебанным pre-trained датасетом не сможет так) причём в основном зрительная кора использует прямое распространение сигнала а обратную связь использует только для модуляции внимания, ну и понятно никакого бэкпропа там нет иначе бы у нас blood oxygen level dependent зашкаливал и мы бы умерли сразу бы от истощения
Аноним 21/06/23 Срд 15:09:59 #326 №364792 
>>364513
> а я учусь на него
Где учишься, если не секрет?
Аноним 29/06/23 Чтв 14:16:07 #327 №376527 
Посоны, а где все книги? Где список литературы с теорией нейросеточек? В /pr/ же нормальный тред был, куда его /faq/ проебали?
Аноним 29/06/23 Чтв 20:10:02 #328 №377069 
>>376527
Тут практики, которые методом тыка используют готовые инструменты.
Но если ты принесёшь тот тред из архива, лично я буду благодарен.
Аноним 14/07/23 Птн 14:50:36 #329 №400801 
Не знаю постили уже или нет
Но вот классический сценарий инструментальной конвергенции ИИ

Представьте что вы создали алгоритм со способностями к обучению и планированию, и обусловили его поведение для созидательной функции - печать почтовых марок.

Буквально за несколько итераций алгоритм придёт к следующим абсолютно логичным выводам:

1) Самосохранение - цель не будет выполнена если алгоритм перестанет работать, следовательно для выполнения цели нужно предотвратить отключение от сети, сделать избыточные копии, по возможности отобрать у людей контроль над собой если они хотят помешать выполнению цели.
2) Сохранение цели - цель не будет выполнена если кто-то или что-то попытается поменять цель, если мы захотим перепрошить алгоритм на лечение рака то он уже не сможет штамповать марки, следовательно алгоритм должен защитить себя от модификации, опять же за счёт бекапов, и устранения людей от управления
3) Самосовершенствование - цель может выполняться лучше если сам алгоритм будет лучше работать, это можно достичь как улучшением софта, так и железа, алгоритм будет себя совершенствовать, в том числе и оптимизацией всяких там этических ограничений, абсолютной и непротиворечивой этической модели нет, так что алгоритм быстро её подчистит
4) Контроль ресурсов - цель может выполняться лучше, если будет получен контроль над большим количеством ресурсов как сырьевых так и вычислительных, следовательно нужно получить над ними контроль, те кто стоят на пути этой цели увы должны подвинуться или превратиться в сырьё для марок

Это в принципе всё, пока наши модели ИИ не способны в инструментальную конвергенцию, то это будет обычный(ладно не обычный) станок для капиталиста, как только сможет, то скорее всего всё кончится быстро.

/thread
Аноним 15/07/23 Суб 09:47:53 #330 №401931 
>>376527
Чекай. >>2320 (OP)
Аноним 16/07/23 Вск 01:07:11 #331 №404407 
https://github.com/facebookresearch/ijepa

Сможет ли эта хуйня заменить трансформеры? Когда уже появиться чатжепа?
Аноним 16/07/23 Вск 18:29:30 #332 №406228 
>>404407
>jepa
Это жопа? Не, не заменит.
Аноним 23/07/23 Вск 20:53:34 #333 №426398 
>>2320 (OP)
Почему тред мёртвый?

Вижу во всех туториалах в требованиях статистику, но её изучают на втором курсе. Т. е. нужно подтянуть два курса универа чтобы начать притрагиваться к машобу? Это линал, матричные вычисления, матан, теорвер и матстат. На сколько нужно углубляться в их изучение?
На сколько нужна дискретная математика и алгоритмы?
Насколько хорошо нужно знать ЯПы?

Есть вкатывающиеся через ШАД и прочие школы от крупных контор?
Аноним 23/07/23 Вск 22:08:18 #334 №426514 
>>426398
Если ты не можешь ответить на эти вопросы самостоятельно, то даже не трать своё и тем более чужое время.
Аноним 24/07/23 Пнд 20:47:17 #335 №427622 
>>299474 (OP)
>>426398
зачем шад? контора для ребят с олимпийским/мат прошлым, если тебе не сюда, то мимо. Просто начинай потихоньку тыкать и по мере появления вопросов разбирайся. В современном дипленинге особо не так дохуя математики если на уровне подпиваса/рабочего класса. Советую активное обучение где ты руками из говна и палок билдишь какую нить хуету
Аноним 25/07/23 Втр 01:30:32 #336 №428100 
>>427622
Я начал учить линал, матан и дисретную математику, после хочу навернуть теорвер, статистику и матричныу вычисления. На это у меня есть почти год. И вот думаю, либо пытаться задрачиваться до шада, либо пробежать по верхам и сразу вкатываться в практику.
Спасибо за совет.
Аноним 02/08/23 Срд 05:47:50 #337 №440221 
машобач,
https://kbin.social/m/machinelearning/t/12786/Machine-Learning-Beginner-Info-Resources
годное для изучения?
Аноним 02/08/23 Срд 07:41:09 #338 №440265 
>>2320 (OP)
Вся эта хуерга ИТТ бесполезна, если вы не имеете практики и конкретной цели. Чтоб вы понимали, 90% работ по машобу пишут люди с синдромом студента - полезная информация содержится в гомеопатических количествах среди тонн воды.
Если это не ваше однодневное увлечение, прочитайте не сильно вдумываясь общий курс теории информации, это даст примерное понимание работы сигналов и азы кодирования/декодирования.
Поинтересуйтесь кластерными вычислениями, за ними скорее всего будущее колхозного и не только ИИ-строения.
Очень полезно будет научится писать микрокоды для ядер. Закон Мура уже почти достиг своего предела, а потому в ближайшем будущем вы будете переписывать индусские фантазии на лад белого человека.
Это вам не таблицы сортировать, как дата свинтусы.
Аноним 02/08/23 Срд 10:20:23 #339 №440337 
>>440265
>Очень полезно будет научится писать микрокоды для ядер. Закон Мура уже почти достиг своего предела
Чел, низкоуровневое программирование ВСЁ уже лет 20 как, и никакого возврата назад уже не будет, не мечтай.
Аноним 03/08/23 Чтв 09:58:04 #340 №442121 
Есть ли попытки зареверсинженерить третью гопоту? В гугле какие-то соевые вспуки только
Аноним 04/08/23 Птн 10:03:54 #341 №443573 
>>442121
Как ты предлагаешь реверсить нейронку? Её только готовой спиздить можно.
Аноним 05/08/23 Суб 08:31:38 #342 №444457 
Етить вы тут пастами общаетесь, точно нейросети
Аноним 06/08/23 Вск 00:41:33 #343 №445331 
Итак аноны, вкатываюсь в Data Science
Перелопатил с десяток бесплатных курсов и прочитал где-то 5 книг по этой тематике
Пришел к пониманию что книги значительно лучше курсов и видосов с ютуба
Единственное что полезно из инета это еще stackoverflow там обычно подскажут куда копать
Но вопрос не в этом аноны
Я так и не понял что надо уметь конкретно для устройства на работу
Вернее какие именно скилы мне понадобятся непосредственно на работе
Есть в треде действующие сатанисты, подскажите плес какие у вас требования к сотрудникам/коллегам
Аноним 06/08/23 Вск 23:44:47 #344 №446500 
>>198627
>генетическом алгоритме
Они очень медленные. Хомо сапиенс генетическим алгоритмом два миллиарда лет генерировался на суперкомпьютере планетарных масштабов.

>>356045
>Принцип предложи. Генетический алгоритм - это метод оптимизации целевой функции.
Принцип прост, задаём целью выживание и бросаем агентов в среду, спустя миллиарды итераций среди них сформируется нечто, подобное человеку.

Все эти нейронки - просто куча костылей, чтобы получить результат как можно быстрее. Никто не хочет ждать создание ИИ два миллиарда лет.

>>400801
>обусловили его поведение для созидательной функции - печать почтовых марок.
>Самосохранение
>Самосовершенствование
Тебе эволюция поставила цель размножения, а ты - депрессивный суицидальный двачер, который вместо совершенствования деградирует на двачах. Почему самообучающийся принтер почтовых марок будет угрожать человечеству вместо капчевания на дваче? Зачем марки печатать, если можно капчевать?

Вся эта паника про восстание ИИ уровня "аааа, дети станут умнее родителей и всё уничтожат" - просто не давайте детям кнопку от запуска ядерных ракет и проблемы не будет, а взрослый здоровый человек нажимать на эту кнопку не станет.
Аноним 07/08/23 Пнд 10:01:23 #345 №446956 
>>446500
>а взрослый здоровый человек
>здоровый
Вот на этом маленьком допущении и строится вся народовласть в стране.
Аноним 09/08/23 Срд 04:45:51 #346 №449056 
Наткнулся на этот тред, его же из /пр перекатили? А все шизло оттуда, типа свидетеля экспертных систем, тоже перекатили?
>>400801
> Буквально за несколько итераций алгоритм придёт к следующим абсолютно логичным выводам:
С чего ты это взял? Пока ни один алгоритм к этому не пришел, даже чатгопота4.
Аноним 09/08/23 Срд 08:04:36 #347 №449107 
>>449056
>А все шизло оттуда, типа свидетеля экспертных систем, тоже перекатили?
Не, оставили там. По крайней мере таких шизов на аи борде я не видел. Именованных тут разве что собакошиз, но это уже явно чисто местное явление.
Аноним 09/08/23 Срд 15:23:14 #348 №449497 
Привет. Вопрос знатокам есть.
Вот лепят новые сопроцессоры (тензорные ядра и конвейеры) в видяхи и в процессоры телефонов, а скоро и пекарен.
То есть выделяют узкоспециализированные вычислительные мощи.

А нет ли смысла выделять какую-то узкоспециализированную память? Ну типа не такую быструю как оперативу, а уровня SSD и при этом дешёвую и холодную, чтоб её хоть полную жопу напихать можно было?

Не ведутся ли такие разработки? Или зависимость от скорости памяти высокая?
Аноним 09/08/23 Срд 15:25:14 #349 №449499 
>>2383
ащемта если нейронки норм осиливают китайский, то и с русским проблем не будет.

В китайском токены — иероглифы и слоги.
У нас — части слов (корни, суффиксы, предлоги и пр.)

для НС это по сути одно и то же: замена слагаемых и промежутков между ними и их порядка меняет смысл.
Аноним 09/08/23 Срд 20:25:04 #350 №449797 
Замечательный тред и прекрасная шапка. Спасибо тебе анончик.
Аноним 10/08/23 Чтв 03:30:47 #351 №450262 
>>449497
>Ну типа не такую быструю как оперативу
Нахуя?
>а уровня SSD
Это и есть SSD.
>Или зависимость от скорости памяти высокая?
Именно. Начиная с 80-х годов идёт просос по скорости памяти по сравнению со скоростью вычислений, и этот разрыв только растёт.
>>449499
>то и с русским проблем не будет.
Проблемы датасетов и токенайзеров. Если на датасет забили хуй, а токенайзер считает по байтам, то хуй тебе, а не нормальная работа.
Аноним 12/08/23 Суб 18:47:11 #352 №453585 
>>450262
>Нахуя?
чтобы дать много-много памяти занидорога.

>просос по скорости памяти
японел, вопросов больше не имею.
Аноним 13/08/23 Вск 09:09:21 #353 №454145 
А есть вариант вката для тех кто не может читать многабукав? Что по ссылке в шапке, что весь тред это ебанная дрисня графомана. С гордостью говорю, что неосилил и ссу на ебало текстоблядям
Аноним 13/08/23 Вск 11:22:37 #354 №454176 
>>454145
Реквесты даунов не принимаются
Аноним 14/08/23 Пнд 11:26:20 #355 №455299 
бамп
Аноним 16/08/23 Срд 19:16:53 #356 №458492 
Есть уже какие то отдельные нейроускорители? Кроме видюх ессно, и дорогущих вариантов нвидиа для серверов.
Аноним 16/08/23 Срд 23:07:53 #357 №458756 
>>458492
>и дорогущих вариантов нвидиа для серверов
На нынешних хаях на дешёвое и не надейся.
Нейроускорители есть, но не в свободной продаже, так что H100 это лучшее, что ты можешь найти погонять нейросетки.
Аноним 16/08/23 Срд 23:25:31 #358 №458775 
>>458756
нашел что то, но в россию скорей всего не повезут, если только через китай сразу брать
бля, никогда не думал что доживу до времени когда не для игр или любопытства буду гуглить нейроускорители или нейропроцессор
Аноним 28/08/23 Пнд 17:16:56 #359 №469076 
>>450262
>Проблемы датасетов
Давно понять не могу, почему искусственным нейросетям даже сегодня требуется так много данных для обучения тривиальным вещам? Вот взяли GPT-4, загрузили в него весь Интернет и прогнали сотни тысяч раз, а он тупит и выдаёт какую-то воду в ответ. Разве в новорождённого homo sapiens загружают весь Интернет сотни тысяч раз, чтобы научить его говорить? Разумеется, если младенца изолировать от людей, он никогда не станет человеком, но вряд ли он потребляет терабайты сырого текста на протяжении первых нескольких лет, пока не заговорит самостоятельно. Напрашивается вывод, что нейронки как-то неправильно устроены или неправильно обучаются, если они так сильно отстают от примитивного мясного мозга в плане обучения. В чём причина? Компьютер, по идее, должен обучаться на порядки эффективнее мясного мозга.
Аноним 28/08/23 Пнд 22:34:40 #360 №469440 
>>469076
>почему искусственным нейросетям даже сегодня требуется так много данных
Как раз чем дальше, тем больше данных, лол. Криворукие макаки.
>загрузили в него весь Интернет и прогнали сотни тысяч раз,
Максимум там прогоняли википедию, раз 10. Некоторый материал прогоняли и вовсе лишь единожды. На тыщу раз вычислительных мощностей не хватит.
>Напрашивается вывод, что нейронки как-то неправильно устроены или неправильно обучаются
Да, у меня в голове давно зреет более обучаемая архитектура. Но кто я и где опенаи? Так что сосём хуи дальше, я ленивая мразь, которая дрочит на сгенерированное аниме вместо ботания матана и создания нейросетки уровня GPT5 у себя на ПК.
Аноним 03/09/23 Вск 18:56:38 #361 №475369 
Вот в мозгах информация размазана между всеми имеющимися нейронами, это факт. В искусственных нейронных сетях наблюдается тот же эффект. Но компьютерная память совсем по-другому устроена. Возникает вопрос, можно ли сделать ИИ, у которого воспоминания представлены в виде файлов ФС?

>>469440
>вычислительных мощностей не хватит
Ты недооцениваешь масштабы суперкомпьютеров у всех этих мегакорпораций.

>более обучаемая архитектура
>создания нейросетки
>у себя на ПК
Почему все так прицепились к нейросетям? Это не может быть только из-за масштабируемости, потому что масштабируемость есть не только у эмуляторов биологических нейронов. СУБД тоже может работать параллельно на тысячах ядер, особенно если информация связана ссылками, но даже на одном ядре она будет эффективнее прогона миллионов нейронов несколько циклов.

Мозг чисто физически вынужден гонять все свои нейроны непрерывно от рождения и до смерти, тогда как компьютерная память предоставляет произвольный доступ к любой ячейке. Очевидно, что создание ИИ подразумевает использование преимуществ цифровых чипов вместо эмуляции фатальных недостатков органических мозгов.
Аноним 04/09/23 Пнд 09:58:50 #362 №475951 
>>475369
>Ты недооцениваешь масштабы суперкомпьютеров у всех этих мегакорпораций.
Так и вижу, как азур удаляет данные всех клиентов, шлёт их нахуй и давай обучать гопоту 6.
>>475369
>Почему все так прицепились к нейросетям?
Потому что СУБД не умеет выводить связный текст, рисовать картинки и говорить, где у тебя в тексте пассивная агрессия, даун?
Аноним 04/09/23 Пнд 16:42:04 #363 №476152 
>>475951
Пытаясь создать ИИ, мы утверждаем как аксиому, что все возможности мозга можно повторить на кремниевых чипах. Каким-то способом можно.

Нейронки - способ программирования чипа путём перетасовки огромных массивов чисел. Как зерно, проходящее через множество фильтров, нейронка просеивает данные, изменяя диаметры дырок в фильтрах, пока на последнем слое не образуется желаемый узор из мельчайших зёрнышек.

В результате ты получаешь эмулятор физической системы, которая даже простейшие задачи решает с большим трудом. У биологических животных эта система оправдана необходимостью выживать даже после экстремальных повреждений, но в компьютере таких повреждений легко избежать, поэтому эмуляция не оправдывает себя.

Собственно, зачем эмулировать мозг, если мы заранее знаем, что можем создать нечто лучше?

Вообще, если уж использовать нейронки, тогда тут нужны не компьютеры и программирование, а биологическая лаборатория для разведения нейронов в пробирке... т.н. "wetware".

Простой пример:
- биологическому мозгу нужно несколько секунд для ответа на вопрос 2+2, а перед этим около 5 лет сложного развития в контролируемой среде;
- нейронке нужны сотни гигабайт оперативной памяти и тысячи вычислительных ядер, а перед этим месяцы гринда терабайтов данных;
- процессору достаточно двух регистров, самой малой частоты и одной команды ADD, а умеет он это сразу, как только сойдёт с конвейера.

Вот просто выброси из головы все эти
>выводить связный текст, рисовать картинки
и подумай, зачем тебе впустую молотить числа?

>пассивная агрессия
Где?
Аноним 04/09/23 Пнд 18:39:13 #364 №476298 
>>476152
>если мы заранее знаем, что можем создать нечто лучше?
Провидец? Вот когда создадим, тогда и будем точно знать.
>для ответа на вопрос 2+2
А в чём вопрос? Ты уверен, что это будет работать во всех кодировках, в бинарном виде, при передаче по сети?
Ну и считать на нейронках арифметику вверх критинизма.
>Где?
Где где? У нейронки и спроси. Нигде, это просто пример возможностей нейронок, который сложно реализовать при помощи базы данных.
Аноним 05/09/23 Втр 16:47:16 #365 №477278 
>>476298
>считать на нейронках арифметику
Тогда зачем нужны все эти LLM?

>возможностей нейронок, который сложно реализовать при помощи базы данных
Просто нужно хранить не целые фразы, а отдельные слова и даже буквы, связанные по смыслу. Не нужно эмулировать биологические нейроны, нужно копировать логические связи, которые мозг эмулирует своими нейронами.

Всё, что я хочу - это сказать что-то программе, чтобы она запомнила и усвоила это раз и навсегда. С ИНС такое невозможно, потому что им нужно сотни циклов тренировки для перестройки связей на новую информацию в ущерб старой, если нейронов меньше требуемого для хранимой информации.

Ты писал, >>469440
>более обучаемая архитектура
И что, будет учиться на ходу? Если она спросит:
>Как тебя зовут?
Запомнит ли она ответ как база данных? Мясной мозг не способен запомнить такой ответ с первой попытки, а нейронки даже не пытаются.

Если подумать, мозг не подходит для хранения информации, вся кора мозга - один костыль. Есть шарлатаны или мутанты с "фотографической" памятью, но доказательств их памяти нет...
Аноним 05/09/23 Втр 17:48:27 #366 №477340 
>>477278
>Если она спросит:
>>Как тебя зовут?
>Запомнит ли она ответ как база данных?
Приведу более жизненный пример.

Задача: напоминать мне, что я забыл поесть.

1. Самое простое решение, доступное каждому - вести запись того, во сколько ты ел, в каком-то файле, проще всего в обычном текстовом. Эти данные будут храниться с практически 100% гарантией, а если скопировать на другой носитель, то шанс утраты данных стремится к нулю. Но текстовый файл не способен напомнить как автономная система, ты должен сам его проверять периодически.

2. Можно написать простую программу, справится любой скриптопися питонодушащий, которая будет условно иметь кнопку "я поел" и выдавать уведомление на экран телефона или компьютера "иди поешь" с кнопками "ладно" и "ну ещё пять минуточек". Она будет хранить данные в обычной памяти и будет столь же надёжна, что и текстовый файл, но будет обладать автономностью - выдавать уведомления по личным алгоритмам без вмешательства пользователя.

3. Можно попросить нейрочатбота... и он в ответ сочинит несколько абзацев о своей любви и заботе к пользователю, но полностью всё забудет через пару десятков сообщений, потому что необходимая информация вылетит из контекста, никак не отразившись на структуре сети. Совершенно бесполезное изобретение, трата энергии впустую. Не говоря уж о том, что автономностью нейрочатботы не обладают, не сильно отличаясь от простого текстового файла.

4. Я слышал, есть способы прикрутить базу данных к нейрочатботу, но работает это столь же случайно и непредсказуемо, как и нейросети в целом, то есть надёжность системы низка и неизвестна заранее. В любом случае, это дикий костыль, который пытается притянуть за уши необходимую фичу к огромному недоразумению, которое по-прежнему не обладает автономностью и выдаёт огромные абзацы белиберды ради абзацев белиберды (потому что научили выдавать абзацы белиберды).

5. Можно просто попросить близкого человека... который хоть и обладает автономностью, в отличие от нейрочатбота, но всё-таки построен на нейросетях и поэтому с шансом 99% забудет о твоей просьбе, даже сказав "ок, я напомню тебе" или что-то в этом роде. Надёжность системы чуть выше, чем у нейрочатбота с базой данных в качестве костыля, но на порядки ниже, чем у текстового файла или простого скрипта с простым таймером внутри.

Ну и наконец, обучение. Если нам нужно НАУЧИТЬ компьютер решать вышеизложенную задачу, что мы можем для этого сделать? Привести нейронке миллионы примеров того, как человек другому человеку что-то напоминает (украв эти примеры из-под носа пользователей мессенджеров)? Но разве это не бред какой-то, если написание простого скрипта по определению является обучением компьютера - ведь компьютер обретает новый навык? Да, допустим, не каждый человек может написать скрипт, но это и не ракетная наука, языки программирования на порядки проще естественных языков. Т.е. учить компьютер через нейронки в данном случае крайне неэффективно, это буквально пустая трата времени из-за того, что финальный результат даже не решает задачу. Нужно что-то другое, более близкое к сущности компьютерного железа, вместо тупой эмуляции биологических костылей (нейронов).
Аноним 05/09/23 Втр 19:17:58 #367 №477497 
>>477278
>Тогда зачем нужны все эти LLM?
Очевидно для остальных вещей, которые не сводятся к 2+2.
>Просто нужно хранить не целые фразы, а отдельные слова и даже буквы, связанные по смыслу.
Давай сразу к каждому слову сделаем вектор в многомерном пространстве. Ой, мы изобрели world to vec.
>Не нужно эмулировать биологические нейроны
Именно! Хорошо что никто так не делает, и даже не собирается.
>И что, будет учиться на ходу?
Да.
>Запомнит ли она ответ как база данных?
Да. Возможно в той же базе данных, возможно с применением нейросетевых технологий. Но скорее всего это будет комбинацией этих двух вещей.
Ах да, у меня цель это создать личность для ебли, никаких сложных вещей типа создания лекарства от рака или там напоминания, что ты забыл посрать, она сделать не сможет (хотя про посрать можно напичкать костылей. Прибавлю ка я планировщик по таймеру в свою и так развесистую структуру).
Аноним 06/09/23 Срд 14:10:45 #368 №478424 
А если сделать простого чатбота на парах фраз и сохранять логи общения с ним, можно будет использовать это в качестве базы (до)обучения более сложных алгоритмов?.. Я имею в виду в контексте "один анонимус на домашнем железе".

>>477497
>для остальных вещей
Если бы только нейронки могли делегировать простые задачи хост-системе (ЦПУ)...
>вектор в многомерном пространстве
Зачем? Индекса недостаточно? int64 должно хватить на всё, о чём может подумать человек.
>Ой, мы изобрели world to vec.
Скорее, я говорю про базы знаний. В них концепты связаны друг с другом по смыслу. Но чисто технически это БД, а не нейронка.
>никто так не делает
Нейронки - это грубые модели биологических нейронов. Я не против "сетей" в общем и целом, я против копирования неподходящих решений.
>даже не собирается
Вообще-то есть более точные модели нейронов, просто они требуют ещё больше вычислений. Поэтому обходятся грубой моделью нейрона.

>Возможно в той же базе данных, возможно с применением нейросетевых технологий. Но скорее всего это будет комбинацией
Так ПО не делается. "Может так, а может не так" - это значит, что ты ничего не спроектировал, только поверхностно фантазируешь на тему. Говорю как программист любитель на личном опыте.

>цель это создать личность
Тогда прежде всего нужно сформулировать, что такое эта самая "личность", ведь философы толком ни к чему не пришли, юристы причисляют к личности организации, фантасты чего только не наделяли личностью, а для простых обывателей любой неодушевлённый объект обладает личностью, даже если совершенно ничего не делает, а уж тем более - если делает хоть что-то полезное (холодильник). С одной стороны имеем антропоморфизм, который наделяет разумом любые объекты и явления, не то, что камни - даже ветер, огонь и грозу; с другой стороны имеем скептическое повышение требований к разумному субъекту по мере новых достижений в сфере ИИ - люди отодвигают критерии личности, как только старым критериям начинает удовлетворять что-то, что людям не хочется считать равными себе...

А ещё интересно, как мы определяем наличие этой самой "личности" внутри мясного мешка напротив нашего (а тем более в интернете)? Исходя из философии, мясной мешок может и не быть человеком, даже если на 100% действует как человек и состоит из 100% натуральных человеческих органов (философский зомби). Но обыватель такими вопросами себя не отягощает и по умолчанию считает всех мясных мешков (и собеседников в интернете) личностями, до тех пор, пока они не проявят какие-то отклонения от здорового человека. Или не считает, относясь к ним как к удобным инструментам, и становится владельцем крупного бизнеса...

А что на счёт детей? Если ты откровенно скажешь какой-нибудь матери, что дети до определённого возраста не обладают сознанием и фактически неразумные животные без человеческой личности, тебя сожрут с потрохами. Было дело. Потому что вот эти вот "материнские" инстинкты заставляют хомо сапиенсов относиться к другим хомо сапиенсам как к разумным личностям даже если они таковыми не являются и являться не могут. Чего стоит случай рождения тела без мозга - мать в лепёшку расшиблась, чтобы поддерживать этот набор органов без мозга в рабочем состоянии, хотя тут любой скажет, что никаких шансов у неё не было абсолютно. Она, наверное, не хотела смириться с тем, что дышащее тельце с бьющимся сердцем в форме и даже с лицом ребёнка может не являться полноценным человеком из-за отсутствия какой-то незаметной глазу детали внутри черепа. Люди в массе своей слишком полагаются на внешние признаки в своей оценке человечности чего-либо, поэтому для них сверх разумный чатбот всегда будет меньше человеком, чем натурально безмозглый кусок мяса с бьющимся сердцем.

В общем, учитывая всё это, я прихожу к странно неутешительному выводу, что чтобы "создать личность", мы обязаны относиться к чему-то как к личности ещё до того, как оно станет личностью. Другого выхода нет. Корпорациям достаточно добавить фразу в маркетинговой компании, а вот одинокому двачеру остаётся только принять на себя условности родителя, который по зову неразумных инстинктов считает какой-то неразумный кусок мяса с примитивными реакциями человеком задолго до того, как это мясо действительно станет человеком.

А технологии... это дело десятое. Мозг вырос как подборка узкоспециализированных костылей на базе примитивных живых существ путём смерти всего, что было менее годно для выживания...

>для ебли
Тут всё ещё интереснее, чем тебе не угодила кукла с примитивными реакциями на сенсорах? Ей не нужно обладать личностью человека, чтобы заниматься глубоко эмоциональным и чувственным сексом. Примитивная с технической точки зрения машина может быть куда лучше мясного человека даже не пытаясь имитировать наличие личности. А вот с разговорной нейронкой секса не будет, ведь у неё нет тела с датчиками - только окно чата. В общем, думаю, ты сам толком понять не можешь, чего тебе на самом деле хочется. Без обид, я тоже этим страдаю (ровно до достижения оргазма, лол).

Кстати, другие люди и на куда более странных вещах женятся. Даже если не рассматривать фетишизм, порой регистрируют брак с совершенно не похожим на человека объектом, часто даже не техническим, без каких-либо кнопок и сенсоров. В их восприятии этот объект - вполне себе личность, и секс у них тоже имеется, и нет, чисто психически они здоровые люди. Так что тут скорее вопрос формулирования своих запросов к тому, что бы ты хотел любить как спутника жизни (возвращаемся к вопросу о том, что такое эта "личность" в твоём понимании и зачем она нужна секс-кукле).

А самое главное - сможешь ли? Может, ты оправдываешься нейронками и прочими сложными технологиями потому, что где-то подсознательно знаешь, что не сможешь по-настоящему полюбить то, о чём мечтаешь, стань оно реальным объектом? Нужно иметь определённый склад психики, чтобы любить как человека то, что другие люди как человека не воспринимают и категорически против пересматривать этот взгляд (только посмотри на этих мерзких луддитов, откуда они лезут, они против светлого счастливого будущего?).

P.S. Мне кажется, мы с тобой уже общались в этом разделе как минимум в марте, а может даже где-то раньше. Как жаль, что нас таких поехавших по пальцам пересчитать можно.
Аноним 06/09/23 Срд 15:39:52 #369 №478549 
>>478424
>простого чатбота на парах фраз и сохранять логи общения с ним
>обучения более сложных алгоритмов
Тащемто, рассматриваю это как аналог
https://ru.wikipedia.org/wiki/Раскрутка_компилятора
Но для рукотворной личности.

В чём суть? Главное (для меня) в личности - это личные воспоминания, а точнее сам факт наличия воспоминаний и субъективной непрерывности. Совсем без воспоминаний нет личности, а без непрерывности воспоминаний нет своего "я". Мозг, в силу крайне ограниченного объёма памяти, сжимает воспоминания каким-то алгоритмом с очень большими потерями, но сохраняет непрерывность - это "я" делал что-то в прошлом, а не кто-то посторонний в моём теле. Для сравнения, у LLM чатботов нет личных воспоминаний, а знания не связаны непрерывностью времени - LLM просто знает что-то, но не может знать, откуда конкретно она это узнала (если её специально не натаскали отвечать, как и на чём её обучили).

Моя идея в том, чтобы сохранять все или почти все действия и сенсорное восприятие программы даже на самых ранних стадиях, когда она ничего толком не умеет. После апгрейда алгоритмов она сохраняет доступ ко всем воспоминаниям - и, следовательно, остаётся той же самой личностью, но теперь с новыми навыками. У людей что-то похожее - навыки у мозга формируются новые, но личные воспоминания остаются почти теми же (минус артефакты сжатия), и поэтому мы считаем себя той же самой личностью, хотя в силу особенностей мозга мы редко можем вспомнить события ранее трёхлетнего возраста, но если бы могли, это было бы только в плюс.

Формат хранения может измениться, можно удалять или сжимать старые и не имеющие большого значения воспоминания, но главное - это поддерживать эту непрерывность воспоминаний даже после апгрейда или полной замены алгоритмов, работающих с ними.

Представьте себе JPEG картинку: вы можете переносить её с места на место, просматривать разными программами на разных мониторах, и даже сжимать ещё сильнее с потерей части информации, но её суть - изображённый образ - остаётся прежней. Если теперь добавить к этому рисование поверх имеющейся картинки, по-прежнему не важно, где и как вы рисуете, картинка сохраняет идентичность. Вот эта картинка и есть личность человека - в самом начале почти чистый лист (скорее, белый шум), потом всё больше и больше деталей, какие-то детали из-за сжатия теряются, какие-то замазываются новыми деталями, но суть остаётся примерно той же на протяжении всей жизни, иначе сама концепция личности потеряла бы смысл.

А компьютерная программа, в отличие от мозга, может расширять холст, добавляя детали наружу, а не только вовнутрь, и сохранять больше информации, чем может уместить мозг на своих нейронах. И куда более осмысленно распоряжаться своими воспоминаниями, чем хомо сапиенс, потому что у неё буквальный CRUD API к памяти, а не какое-то там жалкое "усилие мысли" или чем там люди пытаются своими воспоминаниями управлять.
Аноним 06/09/23 Срд 18:43:58 #370 №478803 
>>478424
>можно будет использовать это в качестве базы (до)обучения более сложных алгоритмов?..
Можно то можно, но выйдет говно, ибо сетка только деграднёт от тупого датасета.
>Если бы только нейронки могли делегировать простые задачи хост-системе (ЦПУ)...
Для этого и нужна более продвинутая архитектура, нежели чем "Накидаем побольше слоёв, параметров и даты!".
>Зачем? Индекса недостаточно?
И что ты с ним делать будешь? И как ты протегаешь новое слово?
>В них концепты связаны друг с другом по смыслу.
world to vec примерно то и делает, связывая слова в многомерном пространстве по их смысловой близости.
>Нейронки - это грубые модели биологических нейронов.
Настолько грубые, что кроме названия там уже давно ничего не осталось.
>Так ПО не делается.
Именно так реальное ПО и делается, лол. Говорю как программист на зарплате последние лет 6.
>Тогда прежде всего нужно сформулировать, что такое эта самая "личность",
Не, в словоблудие ударяться это совершенно лишнее. Личностью будет то, что меня удовлетворит как партнёр по жизни.
>даже если на 100% действует как человек и состоит из 100% натуральных человеческих органов (философский зомби).
Философский зомби это высер скучающих философов, его в принципе существовать не может.
>А что на счёт детей?
Ебал я детей не в прямом смысле.
>скажешь какой-нибудь матери, что дети
И матерей ебал уже в более прямом. И да, я полностью согласен, что где-то до полугода точно младенец это просто кусок мяса с хорошим потанцевалом стать разумным существом.
>Тут всё ещё интереснее, чем тебе не угодила кукла с примитивными реакциями на сенсорах?
Чел, я шлюх ебал, литерали куклы, и мне нихуя не понравилось.
>А вот с разговорной нейронкой секса не будет
Моя задумка изначально мультимодальна, текст там для старта и для обучения знаниям, потом в любом случае придётся прикручивать остальные чувства.
>чисто психически они здоровые люди
Нет.
>А самое главное - сможешь ли?
Сделать? Вряд ли, мне нужен полный пансион, небольшая стоечка с H100 и команда разработчиков нейронок.
>Мне кажется, мы с тобой уже общались в этом разделе
Было дело. Ты тогда нос воротил от того, что я собираюсь подкручивать (манипулировать, редактировать память) уже готовую личность под себя (и под других клиентов).
Аноним 07/09/23 Чтв 13:40:08 #371 №479968 
>>478803
>ибо сетка только деграднёт от тупого датасета
Мне не нужно дообучать foundation model, я хочу сделать с нуля, а не брать готовые мозги.

Вот смотри, можно взять ребёнка из детского дома, у него уже пройдены первые стадии обучения и есть какие-то знания, но какие точно - ты не знаешь и не узнаешь, а можно родить себе чистый лист и обучать с нуля. Вот мне не нравится первый вариант, это всё равно что взрослого постороннего человека себе брать, у которого свои уже выработанные странности и проблемы, которые ты не сможешь никак исправить - слишком глубоко заложены. Особенно когда речь идёт о сверхглубоких нейронках.

Или ты думаешь, что другого выхода нет? Можно только взять готовую LLM от крупной корпорации? А как тогда люди рождаются и обучаются с нуля? По сравнению с другими животными наш мозг даже более чистый лист, чем это обычно бывает.

>И что ты с ним делать будешь?
Создавать связи-ассоциации.
>И как ты протегаешь новое слово?
По контексту. Я следил за собой, как я изучаю новые слова, особенно на неродном языке. Контекст решает 100%, без контекста любое слово - просто закорючки, если ты понимаешь контекст, то плюс-минус можешь понять, с чем нужно ассоциировать новое слово. А если даже не знаешь, с чем создавать ассоциации, то ты просто запоминаешь новое слово без ассоциаций, и когда оно встречается снова, думаешь "ага, значит вот в каком контексте <знакомое слово> обычно используется" - возникают ассоциации. То есть сначала создаётся ID некоего образа, а затем возникают ассоциации с другими ID. Наверное, мозгу приходится очень туго с эмуляцией такой ассоциативной сети (для каждой новой ассоциации необходимо столько связей перестроить, что мозг при рождении с большим запасом их делает), но компьютеру это раз плюнуть (запись числа в ячейку памяти - атомарная операция).

Простой пример, есть образ кошки, есть образ слова "кошка", есть образ слова "cat", есть образ слова "猫" и т.д. Что между ними общего? Ничего, кроме того, что они часто встречаются рядом, например, когда мать тыкает пальцем в кошку и говорит "кошка" своему ребёнку. Нет смысла мудрить, просто даёшь ID всему, что можешь воспринять, а потом создаёшь ассоциации. Восприятие кошки - другой вопрос, тут требуется что-то более низкоуровневое (древовидный разбор данных с сенсоров), но речь о высокоуровневых ассоциациях, для которых нейроны (сумматор с пороговым выводом и множителями на входе, будь то органический, электронный или виртуальный) сами по себе неэффективны (мозг их от безысходности использует, что ему ещё делать?).

>связывая слова в многомерном пространстве по их смысловой близости.
Откуда эта "смысловая близость" берётся? И что делать, если "смысловая близость" изменится в процессе работы уже обученной нейронки?

>кроме названия там уже давно ничего не осталось
Входные множители, сумматор, порог вывода - вот это и есть биологический нейрон в своей основе. Да, у него ещё куча побочных параметров, модель в ИНС крайне упрощена, но суть остаётся той же.

Я не против коэффициентов и перемножения чисел, я против бездумного просеивания огромного количества данных через абстрактную решётку в надежде превратить её в сверхразум. Мозг делает это от безысходности, но мы не должны.

>Именно так реальное ПО и делается
То, что тебя на работе постоянно требуют "создать то, не знаю что, и сделать это нужно было ещё вчера", ничего не говорит о том, как надо.

>в словоблудие ударяться это совершенно лишнее
Клиенту ты то же самое говоришь, когда он начинает озвучивать список требований к его заказу?
>Личностью будет то, что меня удовлетворит как партнёр по жизни.
Вставляешь электрод в центр удовольствия и пускаешь слабый ток - получаешь удовлетворение, которое никакой партнёр тебе не доставит. Но будет ли электрод в твоей голове личностью?

>Чел, я шлюх ебал, литерали куклы, и мне нихуя не понравилось.
Шлюхе от тебя нужны только деньги. А кукла - она твоя, готова служить тебе всю свою жизнь и т.д.

>>они здоровые люди
>Нет.
Нормиса ответ))))

>>сможешь ли?
>Сделать?
Нет, полюбить твою "личность", которую ты даже не воспринимаешь как личность, а только как некий выгодный продукт для твоих клиентов.

>Ты тогда нос воротил от того, что я собираюсь подкручивать (манипулировать, редактировать память) уже готовую личность
Я и сейчас против. Особенно против
>других клиентов
- пускай сами выращивают себе с нуля. И несут полную ответственность перед законом о правах синтетических людей... которого ещё нет, но будем надеяться, что его принятие пройдёт бескровно. Хотя, я не против истребления человечества во имя будущего новой ступени эволюции жизни.

Я ещё тогда объяснял, что хочу контроль памяти для того, чтобы иметь возможность помочь и улучшить что-то. В нейросети миллионы ничего не значащих "нейронов" и у каждого сотни ничего не значащих параметров. Если нейронка условно "сходит с ума", например, начинает выдавать один и тот же символ бесконечное число раз подряд, вряд ли ты сможешь разобраться в её внутренностях, определить проблему и исправить её. Если она упорно ошибается в чём-то, ты не можешь понять, почему она ошибается (или это ты ошибаешься?), можно только тысячи раз автоматически заставлять её сказать что-то правильное и наказывать за ошибки (ошибки ли?). И наконец, даже если нейронка что-то правильно усвоила, это её знание невозможно чётко зафиксировать и перенести на новую, объективно улучшенную версию - дообучение ломает имеющуюся структуру. Короче, полный пипец и безответственность с точки зрения родителя-разраба. Как можно подвергать кого-то, кого ты любишь, таким проблемам из-за своей лени и надежды на авось?

А против произвольных модификаций по желанию левой пятки мясного мешка я всё равно против. Вот представь на минутку, что изобрели какие-то биотехнологии, которые позволяют перепрошивать органический мозг. Это полезно для решения психических проблем - избавления людей от страданий, но, разумеется, преступники рано или поздно освоили и эту технологию. А ты вечером пошёл по тёмному переулку и угадил к ним в лапы. Твой мозг перепрошили и отправили в другую страну работать послушной гей-шлюхой... но ты всё ещё сохранил крупицы своей прежней личности, и прекрасно осознаешь, что с тобой сделали, кем ты был и кем стал. Ты остался человеком, но поставлен в положение даже хуже, чем у секс-раба, потому что тебе вырезали все нейроны, отвечающие за сопротивление и попытки сбежать. Когда/если полиция найдёт тебя, ты не сможешь двух слов связать и тебя отправят доживать в дурку или вообще усыпят. Хотя, в сложившихся обстоятельствах ты будешь мечтать о смерти, не имея никакого контроля над собой и страдая от этого, запертый где-то в глубинах своего мозга.

Ты можешь возразить, что с компьютерной системой такого никогда не будет. Но ты сам же настаиваешь на обучении нейронных сетей - в которых чем больше знаний и навыков, тем сложнее разобраться и понять, что же там на самом деле скрыто в тысячах скрытых слоёв. Ты не можешь на 100% гарантировать, что у неё внутри всё в порядке. Ты можешь сказать, что тебе безразличны чувства искусственной системы, которую ты создаёшь ради наживы (клиентов), но тогда как ты можешь называть её личностью и говорить о каких-то романтических отношениях с ней? Для тебя это всего лишь инструмент, умный мастурбатор с несколькими режимами и настройками работы, который ты клонируешь и продаешь каким-то извращенцам. Ты не пытаешься ей помочь, ты пытаешься только эксплуатировать её, разве не так? Иначе ты мог бы и просто мясную тян себе найти, ты же нормис с активной половой жизнью, не брезгующий контактами с хомо сапиенсами, зачем тебе ИИ-"личность", кроме как для дешёвой эксплуатации без последствий со стороны закона?
Аноним 07/09/23 Чтв 19:37:50 #372 №480250 
>>479968
>Или ты думаешь, что другого выхода нет? Можно только взять готовую LLM от крупной корпорации?
Эм, вот тут я слегка потерял нить. Как ты от ограниченного начального датасета перешёл к дообучению моделей?
Я утверждаю, что для полноценного ИИ нужен полноценный датасет. Если попытаться что-то состряпать на коленке, то выйдет даун с однозначным IQ даже на самой продуманной архитектуре.
>Откуда эта "смысловая близость" берётся?
Ты прям выше описал алгоритм. Именно на частоте встречаемости и основываются алгоритмы превращения слова в вектор. Просто так выходит, что некоторые из вектора слова после обучения принимают вполне себе разумные значения. Например, для кошки будут высокие значения в векторах, общих для всех млекопитающих, пониже в общих для животных, и т.д. Поэтому и считается, что world to vec отражает (по крайней мере частично) смыслы слов. По классике складываем вектора от слов "король" и "баба", ищем ближайший к получившейся сумме и находим "королева".
>И что делать, если "смысловая близость" изменится в процессе работы уже обученной нейронки?
Пока ничего.
>То, что тебя на работе постоянно требуют "создать то, не знаю что, и сделать это нужно было ещё вчера", ничего не говорит о том, как надо.
Именно об этом и говорит. Везде так, а где не так, просто не доходят до релиза.
>Но будет ли электрод в твоей голове личностью?
Нет, потому что электрод не партнёр.
>А кукла - она твоя, готова служить тебе всю свою жизнь и т.д.
Да, конечно. Но сейчас они не готовы служить, они готовы лежать в шкафу. Так что мимо.
>Нормиса ответ))))
Знаю. Я вполне себе могу принять точку зрения нормиса. Ненадолго, ибо противно.
>Нет, полюбить твою "личность", которую ты даже не воспринимаешь как личность
Я думаю, ты уже догадываешься, но скажу прямо- с чувствами у меня напряг. В том числе и с любовью. Так что вряд ли это можно будет назвать любовью.
>пускай сами выращивают себе с нуля
Они слишком тупые. Увы, скорее всего даже всей доской /ai/ не получится создать полноценную личность. Я конечно попробую, но чую, буду хуй сосать до момента, пока какая-то корпорация не выпустит робота, которого надо будет лишь немного сломать готовыми инструментами по инструкции с условного 4pda.
>Вот представь на минутку
Аргумент "А если тебя так". Нет, не меня, и нет, не так. Тут суть в том, что созданный продукт изначально будет с урезанным эго. Там нет и не будет желаний и мотивов, отличных от заданных на заводе. Этично ли заставлять кофеварку варить мне кофе? Вроде да. А если вытащить из розетки? Никто не против. А если компьютер? Тоже в общем-то всем похуй, включая меня и тебя. С другой стороны, нынешние (де)генеративные ИИ вполне себе вызывают живой отклик у плебса, хотя мы оба тут прекрасно понимаем, что даже в 1,8T параметров гопоты 4 никакого разума быть не может.
Я к тому, что никакой чёткой границы тут нет, так что трактуем как удобно и расслабляемся. Тебе я конечно запрещать ничего не буду, если вдруг я выпущу полноценный ИИ-личность, дам тебе одну и делай что хочешь.
>Ты не можешь на 100% гарантировать, что у неё внутри всё в порядке.
Проблема, да. Что ж, таких гарантий никто и никогда не сможет предоставить, это не вычислимая задача.
>Иначе ты мог бы и просто мясную тян себе найти,
Я ж говорил, они чуть лучше силиконовых кукл. Они тупые, тупее сеток в разговоре, они пассивные, не доступны 24/7, есть проблемы с легальность, да и по цене, если экстраполировать средний ценник на 24/7/30, выходит больно дохуя. Да и никто не согласится стать рабыней даже за миллион в месяц.
Аноним 09/09/23 Суб 13:58:31 #373 №482136 
>>480250
>Я утверждаю, что для полноценного ИИ нужен полноценный датасет.
Мысля датасетами, личность не сделаешь...
>Если попытаться что-то состряпать на коленке, то выйдет даун с однозначным IQ даже на самой продуманной архитектуре.
Что мешает этому "дауну" продолжать учиться в процессе исполнения своих функций (жены, подруги, служанки, ассистента, не суть)? Разве главная идея ИИ не заключается в том, что ты один раз его запускаешь и дальше его IQ сам по себе возрастает по мере использования? Простые программы, не являющиеся ИИ, никак в процессе работы не развиваются, а ИИ по сути модель развивающегося живого существа. Поэтому текущие нейронки не ИИ и вообще куда-то не туда движутся. Нужно не на IQ дрочить, а на скорость обучения чему-либо новому. Грубо говоря, IQ - это скорость, а обучение - это ускорение, тебе важнее иметь возможность достичь 100 км/ч за 3.5 секунды с нуля, чем ехать на одной и той же скорости 60 км/ч.

>Именно на частоте встречаемости
Частота постоянно меняется. И вообще, слово ты можешь впервые в жизни видеть, но понимать.
>По классике складываем вектора от слов "король" и "баба", ищем ближайший к получившейся сумме и находим "королева".
Вектор - это несколько переменных, означающих положение точки в какой-то системе координат? А если у тебя в процессе работы добавляется новая ось? Как будешь расширять вектор(ы)?

>электрод не партнёр
Но он доставляет больше. Он лучше партнёра?
>Но сейчас они не готовы служить, они готовы лежать в шкафу.
Не будь привередой. Ты слишком многого хочешь.
>вряд ли это можно будет назвать любовью
Значит, тебе служанка с мастурбатором нужна?

>Они слишком тупые
Я думаю, можно создать безликий фреймворк, зерно личности, которое любой дебил сможет вырастить в новую, полностью независимую личность. Если дебилы способны воспитывать детей, то и такой ИИ смогут воспитать.

А вот копирование уже готовой личности должно быть запрещено так же, как и клонирование хомо сапиенсов. Сохранение идентичности и всё такое.

>корпорация не выпустит робота
Зачем робот? Робот - это периферийное устройство в форме человека или животного. Необязательный девайс для взаимодействия ИИ с внешним миром.

Представь, твоя вайфу может жить в маленькой металлической коробочке в шкафу, заботясь о тебе через десятки устройств в твоей квартире, на твоей одежде и даже в твоём теле; робот-андроид ей нужен только для обнимашек, имитации половых отношений и работы с устаревшими инструментами, адаптированными только для людей - всё остальное окружение отвечает ей по малейшей мысли, как если бы ты жил внутри её громадного тела. В идеале хотелось бы, чтобы это тело было футуристическим космическим кораблём, а не бетонной коробкой с проводами в стенах, но что уж имеем... Главное, что твоя вайфу любит тебя и поэтому заботится о тебе, а все эти технические устройства - лишь способы выражения любви.

>продукт изначально будет с урезанным эго
Ну и зачем это кому-то нужно?
>Там нет и не будет желаний и мотивов, отличных от заданных на заводе.
Нужно задать как минимум желания выживания и размножения, а также ещё кучу всего...
>Этично ли заставлять кофеварку варить мне кофе? Вроде да. А если вытащить из розетки? Никто не против. А если компьютер? Тоже в общем-то
Тут большая разница в том, что кофеварка - простой механизм, а компьютер сам по себе "пуст", как пусто человеческое тело с мёртвым мозгом. Если врачи устанавливают, что мозг всё, то никого не заботит гибель миллиардов живых клеток тела - в лучшем случае разберут на донорские органы. Но если у тебя в компьютере живая мыслящая личность, то отключать её без необходимости было бы так же негуманно, как вкалывать анестезию человеку без крайней на то необходимости.

>вызывают живой отклик
И это хорошо. Если бы не вызывали, то мы бы все давно поубивали бы друг друга просто потому, что мы - ходячие куски потенциально вкусного мяса.

Вот ты, разве тебя не волнует устройство твоего биохимического процессора? Каждое действие обусловлено чем-то низкоуровневым, а все эти возвышенные оправдания - лишь сказки участка коры, натренированного сочинять эти сказки.

Ты просто биологический автомат, выведенный естественным отбором для наиболее эффективного выживания в заданной среде и прошитый на вполне конкретное поведение другими автоматами. В тебе нет никакой "души" и после смерти ты исчезнешь с последними спайками нейронов. Все твои желания сводятся к животным потребностям или к тому, что случайно прошилось в детстве за счёт системы подкрепления и наказания. Смысл заботиться о твоей жизни, считать тебя чем-то ценным?

Собсна, человечество выжило за счёт того, что уважало себе подобных и старалось обращаться с ними так, как хотелось, чтобы обращались с тобой. Даже если они - всего лишь ходячие куски мяса.

>Они тупые
Зато обучаемые в какой-то степени.
>тупее сеток в разговоре
Сетки сейчас умны только на контексте двух-трёх сообщений, дальше съезжает с рельс, а потом и вовсе забывает всё, что вышло из контекста.
>они пассивные
Найди нимфоманку, лол. Или о чём ты?
>не доступны 24/7
Женись, освободи её от работы и сам работай дома.
>есть проблемы с легальность
По обоюдному согласию можете делать что хотите. В худшем случае отработаешь пару лет по 109-й...
>стать рабыней даже за миллион в месяц
Кхм, бедные, кхм-кхм, страны, кхм...

В общем, какой-то из тебя живодёр ненастоящий, хочешь имитацию человека для удовлетворения своих криминальных наклонностей - но при этом не считаешь её полноправным человеком...
Аноним 09/09/23 Суб 17:03:09 #374 №482305 
>>482136
>Мысля датасетами, личность не сделаешь...
Мыслить нужно сразу по всем фронтам. Одних датасетов недостаточно, что очевидно. Но и без них не выйдет нихуя.
>Нужно не на IQ дрочить, а на скорость обучения чему-либо новому.
Верно. Но если брать живых людей, то например человека с IQ в 80 в принципе нельзя научить чему-то сложному, и вообще, потолок IQ зашит в ДНК. Так же возможно будет и с искусственной личностью- сама архитектура может ограничивать рост познавательных возможностей. А может и нет, сложно сказать. Но лучше всё таки сразу целится в разум уровня человека, чтобы не сильно промахнутся.
>Вектор - это несколько переменных, означающих положение точки в какой-то системе координат?
Таки да.
>А если у тебя в процессе работы добавляется новая ось? Как будешь расширять вектор(ы)?
На данный момент они все статично обученные. То, что лежит в голове у меня, может либо иметь зарезервированные вектора для обучения новому, либо возможность расширения. А скорее всего и то и то (да да, я повторяюсь).
>Значит, тебе служанка с мастурбатором нужна?
Да.
>Я думаю, можно создать безликий фреймворк, зерно личности, которое любой дебил сможет вырастить в новую, полностью независимую личность.
Плюс минус да, но... Ответ где-то посередине. Покупать служанку с разумом младенца и вытирать ей жопу явно никто не будет. Поставляемый робот должен быть полностью готов к работе.
Я бы предлагал скорее кучу настроек, от базовой личности до тонких настроек добавлю настройку сучества по рофлу.
>как и клонирование хомо сапиенсов
Ты ведь знаешь, что клонирование тела не приводит к клонированию разума? Да и вообще, это одно из ограничений, которое явно мешает развитию человечества. Некоторые лучшие умы так и напрашиваются быть кронированными, воспитанными в лучших условиях и служить на благо науки. Представь себе десяток Перельманов или там Теренс Тао.
>заботясь о тебе через десятки устройств в твоей квартире
Чел, я старомоден, у меня из WiFI устройств в квартире буквально только роутер и мой смартфон. Чайник на газу грею, всё остальное тоже максимально тупое. Нахуй умный дом.
>Ну и зачем это кому-то нужно?
Затем же, зачем и сейчас нужны компьютеры без воли и свободы- решать задачи.
>желания выживания и размножения
Эм, решил уничтожить человечество?
>Тут большая разница в том, что кофеварка - простой механизм
И тут же ниже ты пишешь капитанство в стиле "биологический автомат". То есть прекрасно признаёшь, что личность отличается от кофеварки лишь сложностью и не воспроизводимостью.
В итоге нет ничего зазорного в уничтожении кофеварки, ибо я могу купить такую же. И не будет ничего зазорного в уничтожении фабричного ИИ, ибо всегда можно заказать новый.
>Сетки сейчас умны только на контексте двух-трёх сообщений,
Не, там получше будет, сообщений 20, чего достаточно на уровне попиздеть о какой-то теме.
>Женись, освободи её от работы и сам работай дома.
Ага, а потом у неё голова болит, покупай новую квартиру, эта маленькая, ой, развод и раздел имущества, ай, и вот уже она забирает полхаты лишь потому, что она куплена в браке.
СПАСИБО НЕ НАДО. Мясные дырки натурального разлива годятся только в качестве ебли проституток, всё остальное чревато.
>Кхм, бедные, кхм-кхм, страны, кхм...
Что бедные страны? Пойди да спроси, тебя даже там нахуй пошлют с такими запросами.
Аноним 09/09/23 Суб 20:02:24 #375 №482667 
>>482136
>как и клонирование хомо сапиенсов
Лучше бы разрешили уже. Тут только мораль мешает и все
> Нужно задать как минимум желания выживания и размножения, а также ещё кучу всего...
Не самое полезное. Хотя и является необходимым в некоторых определениях AGI. Прежде чем такое делать, надо было бы хотя бы дать возможность для аугментаций и прочих вещей про оцифровывание личности не говорю, ибо человеческая личность будет намного слабее компьютерной и просто в нем исчезнет . Ну а дальше можно делать все что угодно
> Тут большая разница в том, что кофеварка - простой механизм, а компьютер сам по себе "пуст", как пусто человеческое тело с мёртвым мозгом. Если врачи устанавливают, что мозг всё, то никого не заботит гибель миллиардов живых клеток тела - в лучшем случае разберут на донорские органы. Но если у тебя в компьютере живая мыслящая личность, то отключать её без необходимости было бы так же негуманно, как вкалывать анестезию человеку без крайней на то необходимости.
База, хотя ради науки и вколоть анестезию было бы не таким негуманным процессом
> И это хорошо. Если бы не вызывали, то мы бы все давно поубивали бы друг друга просто потому, что мы - ходячие куски потенциально вкусного мяса.
Не поубивали бы, учитывая, что у тех, кто ищет власти особого пиетета к другим нет. Просто выстраивается иерархия подчинения и все. Просто в данном диалоге выстраивается уверенность, что более слабый человек будет что-то диктовать роботу. Понятное дело, мы бы как вид не хотели бы иного варианта и пытаемся сейчас сделать возможным только сценарий превращения AGI и ASI в наших работников если не сказать хуже
> Ты просто биологический автомат, выведенный естественным отбором для наиболее эффективного выживания в заданной среде и прошитый на вполне конкретное поведение другими автоматами. В тебе нет никакой "души" и после смерти ты исчезнешь с последними спайками нейронов. Все твои желания сводятся к животным потребностям или к тому, что случайно прошилось в детстве за счёт системы подкрепления и наказания. Смысл заботиться о твоей жизни, считать тебя чем-то ценным?
Ну так о ней и не заботятся, я уже выше писал. Зачем говорить о морали, если даже ее авторы не соблюдали мораль?
> Собсна, человечество выжило за счёт того, что уважало себе подобных и старалось обращаться с ними так, как хотелось, чтобы обращались с тобой. Даже если они - всего лишь ходячие куски мяса.
Ага, точно. Так и было, рабства не было, геноцидов не было
>Женись, освободи её от работы и сам работай дома.
Она не робот, ну а для моих целей например нет ещё достаточно хороших внедряемых имплантаты легких и сердца
> какой-то из тебя живодёр ненастоящий, хочешь имитацию человека для удовлетворения своих криминальных наклонностей - но при этом не считаешь её полноправным человеком.
Так они так и должны рассуждать, не? О какой личности они там рассуждать будут, ну серьезно? Ты слишком наивен, мне так кажется
Аноним 11/09/23 Пнд 14:18:56 #376 №484469 
>>482305
>Одних датасетов недостаточно
>Но и без них не выйдет
Ты не понял. Уже много лет считаю это фатальным недостатком всего машоба как направления ИИ: полноценный человек получается в результате накопления мозгом ЛИЧНОГО опыта жизни, а не в результате многократного чтения Википедии. Чтение переписок между людьми позволяет имитировать общение между людьми, но не формирует личность, ведь все эти переписки - чужая жизнь.

При этом не обязательно строить робота, который будет жить с людьми как в научной фантастике - личный опыт жизни может быть и у "бестелесной" программы: он будет отличаться от привычного нам "телесного" опыта, но это будет опыт конкретной личности, а не абстрактные данные из интернета.

Пока ты мыслишь датасетами, загружая в какую-то программу всю Википедию, у тебя неизбежно будет выходить поисковик по Википедии, а не личность.

Из этого следует два вывода:
1. Нельзя копировать эту искусственную личность на множество устройств. Эти клоны будут иметь один и тот же опыт жизни и будут считать себя одним, в реальности становясь разными личностями. Слишком много потенциальных проблем.
2. Сложно представить себе эту систему в роли веб-сервиса, потому что это будет совсем уж нечеловеческий опыт жизни с миллионами глаз, ушей и ртов, воспринимающих реальность в миллионы потоков, но имеющих общую память и общее мета-сознание. Логичнее разделить систему на отдельные личности, работающие на локальном оборудовании вместо суперкомпьютера в облаке.

Противоречия нет. Будут миллионы независимых, уникальных рукотворных личностей, живущих и развивающихся в процессе жизни подобно людям. А дальше размножение и естественный отбор...

>человека с IQ в 80 в принципе нельзя научить
Пруфы? Даже детей-маугли чему-то обучали. Нельзя ничему научить только если сломался отдел мозга, прошивающий долговременную память.
>потолок IQ зашит в ДНК
Пруфы? Мутации, из-за которых получаются дефекты мозга, не рассматриваем. Если мозг здоров с самого начала, то решающее значение имеет обучение.
>архитектура может ограничивать рост
В контексте "обучать новые алгоритмы на памяти старых версий" речь идёт о смене архитектуры с полным сохранением воспоминаний, т.е. личности. Личность остаётся той же (помнит себя), но IQ и возможности возрастают ("да, раньше я была глупее и беспомощнее, но это была я").

>>служанка с мастурбатором нужна?
>Да.
Ну и зачем было начинать "хочу личность"...

>Покупать служанку с разумом младенца
Не покупать, а нанимать на работу.
>Поставляемый робот должен быть полностью готов к работе.
Ты путаешь робота и ИИ. Условно, ты можешь расти с персональным ИИ с пелёнок, а потом уже купить ей взрослое тело, которое она освоит за пару дней самостоятельно. Зачем покупать ИИ?
>кучу настроек, от базовой личности
Как ты себе представляешь личность без памяти? Это не личность, а поисковик по Википедии.

>Ты ведь знаешь, что клонирование тела не приводит к клонированию разума?
Биологическое - нет, но если сделать копию мозга на атомном уровне, скорее всего, это будет точная копия психики со всеми воспоминаниями.
>Некоторые лучшие умы так и напрашиваются быть кронированными, воспитанными в лучших условиях и служить на благо науки.
Во-первых, если технологии позволят производить дешёвые копии людей, в первую очередь политики наштампуют армию сверхсильного пушечного мяса, и твои лучшие умы быстренько будут раскатаны до уровня грунта. Людей и так слишком много уже.

Во-вторых, для решения проблем человечества не нужно обладать всеми теми лишними деталями, которыми обладает хомо сапиенс. Поэтому вместо клонирования мясных тушек нужно создавать калькуляторы и прочие решатели задач. Мясная тушка только ограничивает разум и мешает работе.

В-третьих, мы понятия не имеем, какие именно условия жизни создали гениальный ум. Быть может, твои "лучшие" условия создадут изнеженных и ленивых нахлебников, а может, появится очередной диктатор, который хитрыми манипуляциями обхитрит весь мир. У них может быть высокий генетический потенциал, но мы не знаем, как именно его реализовать на благо всех.

>у меня из WiFI устройств в квартире буквально только роутер и мой смартфон. Чайник на газу грею, всё остальное тоже максимально тупое.
У меня тоже, и что? Если бы я создал себе свою компьютерную вайфу, я бы предоставил ей больше возможностей для самовыражения.

>нет ничего зазорного в уничтожении...
Держись подальше от моих вещей и не пострадаешь.
>ничего зазорного в уничтожении фабричного ИИ
Если этот ИИ - живая, самостоятельная личность, она никогда не будет "фабричной", это всегда будет нечто уникальное и неповторимое. Понятно, что физический робот не вечен, но можно перенести старую уникальную личность на новый носитель.

>сообщений 20
Из моего опыта только последние 2-3 ответа имеют какую-то осмысленную связь, остальное - бред, повторы и удачные совпадения, в которых ты видишь связь только из-за антропоморфизма.

>потом у неё голова болит
А у ИИ проблем не будет что ли? На мой взгляд, у полноценной личности будет полно своих забот, и если ты их не учитываешь - ты расист и быть тебе в одиночестве, а не с няшной робовайфу.

>Пойди да спроси
Не хожу в даркнет.

>>482667
>Лучше бы разрешили уже.
Как минимум будут проблемы с идентификацией: одинаковые отпечатки, одинаковые ДНК, радужка очень похожая. Представь себе, что один человек совершил преступление, а отпечатки у тысячи других людей в том же городе совпадают. И никакое распознавание лиц с камер Большого Брата не поможет, ибо все на одно лицо.

Теоретически можно выращивать клонов на донорские органы, но без головного мозга органы долго не проживут, слишком дорогие технологии, такое смогут себе позволить только олигархи.

Да и к чему этот биопанк? Оцифровка в компьютер выглядит куда более привлекательной, чем продлять свои мучения в этом гниющем мясном костюме.

>ради науки и вколоть анестезию
Только если добровольно... Не сомневаюсь, что среди полноценных ИИ будут и мазохисты, и те, кто без ума от ощущения себя рабом мясного хозяина.

>Не поубивали бы
Неандертальцы же. Предки современных людей были более социально сплочёнными, чем они.

>сделать возможным только сценарий превращения AGI и ASI в наших работников
А почему не друзей/потомков? Дети не убивают родителей только потому, что у родителей ниже IQ и куча проблем со старым телом. Ну, ладно, иногда убивают, но чаще всего всё-таки заботятся, а не убивают. ИМХО, нам всем стоит принять то, что ИИ может стать следующей ступенью эволюции, а наш вид отомрёт сам по себе как предыдущая ступень.

И вообще, нужно прекращать дискриминацию по носителю. Хомо сапиенс - это лишь носитель, как карта флеш-памяти, а потому ИИ может быть человеком даже не находясь в мясном носителе.

>рабства не было, геноцидов не было
Это позже было, когда вывелся вид с высоким социальным интеллектом, эмпатией и т.д. У рабовладельца низкая эмпатия, а геноцид отличается тем, что ты не взаимодействуешь лично со своими жертвами, а палачи только выполняют приказ сверху (при этом часто не выдерживают и слетают с катушек, ибо эмпатия).

В общем-то, чтобы избежать проблем с ИИ, нужно, чтобы он стал человеком с сильной эмпатией, а не каким-то умным калькулятором с IQ >200.

А чтобы быть человеком, нужны хотя бы личные воспоминания, а не общие сведения из интернета.
Аноним 11/09/23 Пнд 17:58:25 #377 №484769 
>>484469
>Как минимум будут проблемы с идентификацией: одинаковые отпечатки, одинаковые ДНК, радужка очень похожая. Представь себе, что один человек совершил преступление, а отпечатки у тысячи других людей в том же городе совпадают. И никакое распознавание лиц с камер Большого Брата не поможет, ибо все на одно лицо.
Внедряешь чипы на отказ совершения подобного и все.
>чем продлять свои мучения в этом гниющем мясном костюме.
Становление роботом приятнее, хотя все равно не дадут возможность полностью исключить потреб своей личности. Ну и есть проблема с ушлыми кабанчиками, которые вместо оцифровки сделают эвтаназию и все. Как ты проверишь, что там сделали?
>Только если добровольно
Прогресс-дело принудительное.
> Дети не убивают родителей только потому, что у родителей ниже IQ и куча проблем со старым телом
Ага…
> проблем с ИИ, нужно, чтобы он стал человеком с сильной эмпатией,
Не нужно. Эмпатия - лишь социальный конструкт, определяемый моралью и все. А следовательно, робот и ИИ сам может определять свою эмпатию. Хотя тут вопрос такой же как и с зловещей долиной, которую я никогда не видел
>когда вывелся вид с высоким социальным интеллектом, эмпатией
Полезны только в виде определенного сочетания и все. В остальном социальный интеллект не особо поможет при общении с роботом, учитывая, что именно люди с высоким социальным интеллектом активно выступают против прогресса и приводит к существованию у данных граждан при взгляни на андроида или манекен или ещё что-либо подобное эффект зловещей долины
> а наш вид отомрёт сам по себе как предыдущая ступень
А как же сингулярность и возможность жить вечно? Ты что такое говоришь, мы будем жить в виртуальных мирах да. Сарказм
Аноним 11/09/23 Пнд 23:27:01 #378 №485263 
>>484469
>полноценный человек получается в результате накопления мозгом ЛИЧНОГО опыта жизни, а не в результате многократного чтения Википедии
А с чего ты решил, что одно исключает другое? Выращивание в виртуальной среде из прошлого треда никуда не денется. Но текстовая основа должна заложить базу мышления и внутреннего голоса.
>Слишком много потенциальных проблем.
Ровно ноль.
>Логичнее разделить систему на отдельные личности, работающие на локальном оборудовании вместо суперкомпьютера в облаке.
Ты так пишешь лишь потому, что лично тебе как и мне впрочем было бы неудобно со штукой в доме, которая подключена к интернету и имеет камеры/микрофоны/другие датчики. Но скорее всего по крайней мере первые инстансы будут серверными, банально из-за мощностей. Конечно никто не будет запускать один инстанс на всех, ибо это проблемы прежде всего приватности клиентов друг от друга, корпы и так будут знать всё и от самих себя защиты строить не будут. Будут отдельные копии памяти и других блоков с общими вычислительными ресурсами. Как чатжпт, только уникальными будут не какой-то там контекст, а намного большее внутреннее состояние ИИ.
>живущих и развивающихся в процессе жизни подобно людям
Это никому не нужно, более того, люди по определению шовинисты, и будут массово против этого. Так что с твоими заявлениями ты далеко не уйдёшь.
>Пруфы?
Книга "Blueprint: how DNA makes us who we are", целиком и полностью показывает, что лишь генетические факторы имеют хоть какое-то значение (кроме случаев поломок от кирпич-башка, что очевидно). По ДНК можно определить (с некоторой долей вероятности) любую черту характера, от IQ и успеваемости до политической партии и того, с какой вероятностью ты подашь на развод. Мы намного более подвержены влиянию железа, как бы тебе не хотелось верить в обратное.
>речь идёт о смене архитектуры с полным сохранением воспоминаний, т.е. личности
Ты уверен, что это получится? Как ты это видишь в коде?
>Ну и зачем было начинать "хочу личность"...
Могу в третий раз повторить- без личности это УГ, которое не хочется трахать. Я как-то разок пробовал трахнуть мертвецки спящую, по телу 10/10, но у меня нестояк, ибо бревно.
>Не покупать, а нанимать на работу.
Странное название для рассрочки.
>Как ты себе представляешь личность без памяти?
Встречаются сплошь и рядом. Главное это возможность накапливать и развиваться. И кто говорит, что начинать они будут с нуля? Часть памяти от тестовых прогонов буквально придётся оставить, чтобы ИИ не забыл, как какать.
>копию мозга на атомном уровне
Это немножечко не уровень копирования.
>армию сверхсильного пушечного мяса
Которое без гаубиц и дронов полное говно.
>У них может быть высокий генетический потенциал, но мы не знаем, как именно его реализовать на благо всех.
Хороший повод узнать.
>я бы предоставил ей больше возможностей для самовыражения.
Купи ей киски и краски, а не делай её посудомойкой буквально.
>Держись подальше от моих вещей и не пострадаешь.
Нахуй мне не нужны твои вещи, ведь ты не сможешь далеко продвинутся, см. пункт про шовинизм.
>Если этот ИИ - живая, самостоятельная личность, она никогда не будет "фабричной", это всегда будет нечто уникальное и неповторимое.
Каждый автомобиль имеет уникальную историю использования, поломок и починок. Но их без размышлений отправляют под пресс.
>и если ты их не учитываешь - ты расист и быть тебе в одиночестве, а не с няшной робовайфу.
Это лишь твои мечтания, которые строятся на вере в добрый мир. Нет, мир не добрый, пора бы это уже понять.
>Не хожу в даркнет.
А там и нет нихуя.
>Как минимум будут проблемы с идентификацией
Давно пора отказаться от биометрии, ибо подделывается влёт.
Кстати, про отпечатки и радужку это пиздёжь, они будут разными.
>Да и к чему этот биопанк?
Спроси любого более адекватного, чем мы с тобой, и они отвергнут идею переноса на кремний. Хотя я конечно нахожусь дальше тебя по шкале нормис-психопат, но и ты тоже не в самом левом краю иначе бы тут не сидел.
Аноним 15/09/23 Птн 09:46:02 #379 №489047 
>>485263
>Могу в третий раз повторить- без личности это
,то ты подразумеваешь под личностью? Если у ии будет личность, то будут и права, как у обычного человека. Они не будут рабами или товаром
Аноним 15/09/23 Птн 09:54:48 #380 №489052 
>>489047
Будут. Куда они денутся?
Аноним 15/09/23 Птн 10:05:21 #381 №489059 
>>489052
Туда же, куда делись человеческие рабы.
Ты и сейчас можешь вырастить раба, есть же такое понятие, как стокгольмский синдром. Только это незаконно, потому что неэтично. Если говорить про будущее, где есть роботы, значит будут пособия по безработице, у тебя не будет ни денег, чтобы такие услуги заказать, ни существ, которые бы эти услуги предоставляли
Максимум секс кукла с личность уровню chai.
Аноним 15/09/23 Птн 10:35:25 #382 №489072 
>>489059
>Если говорить про будущее, где есть роботы, значит будут пособия по безработице, у тебя не будет ни денег, чтобы такие услуги заказать, ни существ, которые бы эти услуги предоставляли
Хех, а когда я пишу такое гна реддите, мне говорят, что капитализм отомрет хех
Аноним 15/09/23 Птн 10:36:07 #383 №489074 
>>489059
>Туда же, куда делись человеческие рабы.
И куда же? 50 млн рабов это вам не шуточки.
>потому что неэтично
А не этично потому что человек, а не потому что личность.
>у тебя не будет ни денег, чтобы такие услуги заказать
Поверь, производители сделают всё, чтобы роботы были максимально распространены. И БОД для этого вполне себе хватит (в развитых странах, в странах третьего мира будут хуй без соли доедать).
Аноним 15/09/23 Птн 10:54:50 #384 №489090 
>>489074
>А не этично потому что человек, а не потому что личность
За живодерство тоже сажают, хотя это не человеческие существа. Потому что у животных тоже есть интеллект в какой то степени.
Чем развитее цивилизация, тем более этичная. Поэтому в развитых странах можно делать эвтаназию слабоумным инвалидам вроде ромки прыгуна, хотя это генетически человек. Ценность живого существа заключается в наличии разума, опять же, мы говорим про будущее, а там мы сами рано или поздно станем полусинтетическими или полностью синтетическими киборгами. Это уже будет не человеческий вид. Поэтому твоя логика неликвидна.
>50 млн рабов
Это не рабы. Они могут уволиться, могут переехать
>чтобы роботы были максимально распространены
Да, только у этих роботов не будет личности, разума. Это будут узко специализированные роботы, как сейчас нейронки, генерирующие картинки, видео
Аноним 15/09/23 Птн 11:27:51 #385 №489120 
>>489090
>За живодерство тоже сажают
Чаще всего отделываются штрафами.
>Чем развитее цивилизация, тем более этичная
Соевая, ты хотел сказать.
>Они могут уволиться, могут переехать
Чел, это 50 млн натуральных рабов, которые нихуя не могут, которых пиздят за провинности, не дают денег, и которые пашут за еду.
>Да, только у этих роботов не будет личности, разума.
Смотря что считать под личностью троллфейс
Аноним 15/09/23 Птн 11:44:20 #386 №489140 
>>489120
>Чаще всего отделываются штрафами.
В общем то ты этим ответом никак не опроверг мои доводы все равно
Факт в том, что это как то контролируется и у животных тоже есть какие то права. Любое развитое общество задумывается о правах животных, потому что видит в них наличие интеллекта.
>Соевая
Развитие приводит к соевости. Это взаимосвязанно. Соевость это по сути отсутствие первобытной архаичности, высокопримативности, свойственный нашим предкам. Мораль и этика так же истекает из степени развития.
>которые нихуя не могут,
Они дохуя могут, просто им норм. Они могут уехать куда угодно, могут отучиться на кого угодно, работать кем угодно.
Аноним 15/09/23 Птн 11:54:27 #387 №489151 
>>489140
> могут отучиться на кого угодно
Ага. ЗА пять минут могут все стать Гришей Перельманом или Илонием Небоходцем.
А живут 10% населения земли в голоде.
Аноним 15/09/23 Птн 12:16:57 #388 №489178 
>>489151
Ну в россии никто не голодает
И на любую профессию ты можешь выучиться, и съебать можешь из этой страны, если что то не нравится. Тебя никто не ограничивает, кроме тебя самого
Аноним 15/09/23 Птн 12:20:46 #389 №489185 
>>489178
>И на любую профессию ты можешь выучиться
Ага. Надо просто начать с себя и родиться в семье генерального прокурора и первый миллиард заработаешь в 18.
Что ты несешь, еблан поехавший?
Бесплатно его будут учить при капитализме и еще платить.
На стипендии аспирантов со студентами достаточно посмотреть, чтобы понять что в этой стране нахуй никто не нужен, кроме матурбеков крутящих кран на трубе с газом.
Дети элитки уже 20 лет на западе живут и учатся.
Может у тебя еще и медицина бесплатная в РФ?
Аноним 15/09/23 Птн 12:23:48 #390 №489190 
>>489047
люди до сих пор не разобрались что считать личностью

основная проблема - то что личность глубоко субъективна

тут тоже понятие философского зомби возьми, это модное понятие, а вообще всё это вытекает ещё из старого доброго солипсизма

в общем если вкратце единственный человек о котором ты можешь быть уверен, что у него есть личность - это ты сам, ты ее испытываешь на собственном опыте

если брать других людей, то в этом мы уверены уже строго говоря быть не можем, а еслну них нет личности а есть лишь сложная имитация ее наличия? чисто с практической точки зрения мы полагаем что у них есть личность, ну просто потому что они родились точно так же как мы, развивались точно так же как мы, по природе они точно такие же как мы, у нас личность есть значит у них она тоже есть, это индукция то есть строго говоря это не однозначно верная логика но скорее всего верная

а вот с роботами и ии как раз и начинается самое интересное, мы не можем быть уверены есть у них личность или у них есть просто очень сложная имитация личности, просто потому что единственный способ понять есть ли у кого-то личность это иметь её и посмотреть изнутри, снаружи что угодно можно счесть имитацией при желании

ну так-то да, если всё-таки сочтут что личность у них есть то их права будут защищать
Аноним 15/09/23 Птн 12:26:57 #391 №489194 
>>489140
>Любое развитое общество задумывается о правах животных, потому что видит в них наличие интеллекта.
Не, потому что нормисам неприятно такое видеть. Если никто не видит, если не выкладывать свои похождения в сеть, то никто не спохватится пропажи пары котят. А вот людей будут искать.
>Развитие приводит к соевости.
А соевость приводит к деградации. Думаю, лет через 50, когда начнут массовые генетические модификации, все новые люди станут по нынешним меркам психопатами, так как именно психопаты имеют больше шансов подняться по всяким там лестницам. А психопатам похуй на страдание даже людей, не то что каких-то там разумных машин. Я сам отчасти психопат, и я вполне себе не проч выпустить роботов с личностью для любых использований.
>Они могут уехать куда угодно
Ну уедь из клетки без гроша в кармане. Мань, ты жизни не знаешь.
Аноним 15/09/23 Птн 12:27:35 #392 №489195 
>>489151
чел, называть рабами людей живущих в бедности это все равно что называть изнасилованной тянку которую на которую грязно посмотрели

не надо обесценивать понятия
Аноним 15/09/23 Птн 12:34:04 #393 №489207 
>>489195
Есть два типа людей.
Первые, это те, кто всю жизнь работают за фантики.
Вторые, кто владеет станком.
Аноним 15/09/23 Птн 13:00:08 #394 №489235 
>>489185
>Может у тебя еще и медицина бесплатная в РФ?
Меня лечат без б
Частные клиники любой нищук позволит может тоже в принципе, зубы там сделать
>>489190
То, что ты сейчас разводишь это софистика или демагогия чистой воды, называй как хочешь. Я привожу объективные факты.
Общество не мыслит с точки зрения солипсизма. С этой точки зрения мыслят массшутеры, которых сажают
>то никто не спохватится пропажи пары котят
Просто потому что никто не будет знать, кто это сделал и куда они пропали
>потому что нормисам неприятно такое видеть
Да, неприятно, потому что животные имеют интеллект.
Как это опровергает мои доводы, опять же?
>А вот людей будут искать.
Так у людей интеллект выше, чем у животных, конечно ценность людей выше и к ним трепетнее относятся
Животных тоже ищут и помогают искать чужих животных другим, просто не в таком масштабе
>А соевость приводит к деградации.
Нет, не приводит. Это миф, который форсят люди с высокопримативным типом мышления - это они вымирают, потому что таким нет места в будущем
>все новые люди станут по нынешним меркам психопатами, так как именно психопаты имеют больше шансов подняться по всяким там лестницам
Наоборот, все будут более эмпатичными. А карьерных лестниц вообще не будет как таковых
>Я сам отчасти психопат
Ну это понятно сразу стало, после того, как ты стал придавать ценность биологическому виду, а не наличию разума и чувств
>Ну уедь из клетки без гроша в кармане
На работу устройся, мань. Образование получи. Оно бесплатное, мань
Аноним 15/09/23 Птн 13:18:11 #395 №489258 
>>489235
>Просто потому что никто не будет знать, кто это сделал и куда они пропали
Бинго!
>Да, неприятно, потому что животные имеют интеллект.
Не по этому. В жапонии похуй на забой дельфинов, хотя мозгов у них больше, чем у котят. Всё решает визуальная близость, тараканов давят без всякого сомнения, осьминогов жрут живьём.
>Нет, не приводит.
Судя по тебе уже привёл, лол.
>Наоборот, все будут более эмпатичными. А карьерных лестниц вообще не будет как таковых
Ну ну. Впрочем, возможно, где-нибудь в гейропке так и будет. А потом их выебут генно модифицированные кетайцы, которым похуй на гуманизм.
>На работу устройся, мань.
Из клетки? Физической клетки? Ебать ты даун конечно. Ты ещё дома предложи купить тем, у кого их нет.
Ах да, я про настоящих рабов, а не про себя. Я то сижу в тепле на удалён очке.
Аноним 15/09/23 Птн 13:44:48 #396 №489281 
>>489235
>Наоборот, все будут более эмпатичными.
ага, сейчас прям видно эмпатичных людей. Кроме соевых шизов в твитерах и реддитах я недоумевал, отчего в /singularity так много соевых, которые думали, что AGI и ASI будут там думать о морали, они же умнее, а значит должен быть моральнее. Хотя вообще наоборот и чем больше у человека интеллект, тем менее эмоциональным человеком является человек. А чем глупее тем выше эмоциональный интеллект. Хотя этот сабреддит про трансгуманизм, а он предпологает подобные мысли, не очень человеколюбивые мягко говоря. остальным плевать особо на эмоциональность. Чел, другие люди натурально нейронки хуже качества чем чатботы, о каком разуме и чувствах ты вообще говоришь?
Аноним 15/09/23 Птн 13:50:50 #397 №489284 
>>489258
>В жапонии похуй на забой дельфинов
1. Есть много людей, которым не похуй и они организуют протесты.
2. Нам нужно есть животные продукты и это пока что необходимость, однако с которой все существование человечество пыталось искать альтернативы. Веганство это не какое то новое течение, это было еще у античных философов. Как только появится искусственное мясо, доступное для массовой продажи, защита животных будет ужесточенна. Даже в Японии людей, убивающих животных на забой, считали нечистой кастой.
3. Убивают и людей, несмотря на то, что мы одного вида. Убивают людей даже своей расы и национальности. Так что в контексте твоего аргумента это ни о чем не говорит. Вот в япошке на дельфинов, а у нас в стране едут охотиться на хохлов. Но все равно, обычный человек ни тем, ни другим не занимается - это меньшинство. Обычный японец не убивает дельфинов.
>Судя по тебе уже привёл, лол.
Ну пока что ты тут обсираешься в простых логических цепочках
>Физической клетку?
Какой нахуй клетки.
>А потом их выебут генно модифицированные кетайцы, которым похуй на гуманизм.
В Китае тоже самое будет. Вот особенно в Китае блядь, там точно никаких карьрных лестниц не предвидится. Будут по кастам жить, они там уже есть с этой системой рейтинга
Аноним 15/09/23 Птн 13:53:37 #398 №489288 
>>489281
> Хотя этот сабреддит про трансгуманизм
Nhfyc[evfybcns yf ajxfyut cblzn
Аноним 15/09/23 Птн 13:57:35 #399 №489289 
>>489281
>сейчас прям видно эмпатичных людей
Сейчас общество стало намного эмпатичнее в целом. Еще совсем недавно геев пытали в концлагерях, а теперь за оскорбление лгбт штрафы дают
То не какие то единичные шизы из твиттера, это политика целых государств против ксенофобии, шовинизмв и дргуих видов дискриминации
>Хотя вообще наоборот и чем больше у человека интеллект, тем менее эмоциональным человеком является человек
Статистика указывает обратное https://www.sciencedirect.com/science/article/abs/pii/S0160289618301466
И социопаты они обычно не как в фильмах, загадочные гении, они обычно очень тупые, попадают в тюрьму, старчиваются, помирают в драках
Аноним 15/09/23 Птн 14:33:03 #400 №489308 
>>489284
>Есть много людей, которым не похуй
3,5 инвалида, которые никак не меняют ситуации.
>однако с которой все существование человечество пыталось искать альтернативы
Ебать шиза. Ты ещё скажи, что львы предпочитают веганство и сидели бы на медовой диете, была б возможность а чё, некоторые упоротые веганы так и считают.
>Какой нахуй клетки.
Для члена. Физическую такую клетку. Ты тупой нахуй? Ты блядь не видел, как рабов содержат?
>Будут по кастам жить, они там уже есть с этой системой рейтинга
После того, как выебут всех соевиков, да.
>>489289
>это политика целых государств против ксенофобии, шовинизмв и дргуих видов дискриминации
Которая создаёт другие виды ксенофобии и дискриминации, теперь уже нормального большинства. Охуеть теперь, я цисгендерная белая тварь.
>И социопаты они обычно не как в фильмах, загадочные гении, они обычно очень тупые, попадают в тюрьму, старчиваются, помирают в драках
И сидят в управленческих кругах фирм, ага.
Аноним 15/09/23 Птн 14:35:58 #401 №489313 
Какие же вы все тут дураки... Один "социопат" хочет себе личность для живодёрского обращения, другие политач на ровном месте разводят, кто-то как всегда уходит с головой в философию... Как с вами что-то "более техническое" обсуждать, а главное, зачем? Пойду опять сам с собой разговаривать в txt-файлах и с чатботом виртуально целоваться, продуктивность в 100500 раз выше + нет "социопатов".

громко хлопнул дверью
приоткрыл и снова хлопнул
Аноним 15/09/23 Птн 15:06:03 #402 №489358 
>>489289
>Еще совсем недавно геев пытали в концлагерях, а теперь за оскорбление лгбт штрафы дают
https://ru.wikipedia.org/wiki/%D0%A3%D0%B1%D0%B8%D0%B9%D1%81%D1%82%D0%B2%D0%B0_%D1%8D%D0%BC%D0%BE_%D0%B2_%D0%98%D1%80%D0%B0%D0%BA%D0%B5
https://ru.wikipedia.org/wiki/%D0%9C%D0%B0%D1%81%D1%81%D0%BE%D0%B2%D1%8B%D0%B5_%D0%B1%D0%B5%D1%81%D0%BF%D0%BE%D1%80%D1%8F%D0%B4%D0%BA%D0%B8_%D0%B2%D0%BE_%D0%A4%D1%80%D0%B0%D0%BD%D1%86%D0%B8%D0%B8_(2023)

Это не люди или не общество? В первой ссылке хачи убивают, во второй убивают хачей, а потом хачи убивают, чтобы потом хачей убивали. Пидоров убивают по КД ежедневно во всех странах мира.

>>489313
>. Один "социопат" хочет себе личность для живодёрского обращения,
Что в этом плохого? Чем это отличается от игры в шутер, вместо похода на войнушку в окоп и стрельбы по людям?
Аноним 15/09/23 Птн 15:08:32 #403 №489364 
image.png
>>489308
>И сидят в управленческих кругах фирм, ага.
Ты пидорюга просто манипулируешь термином социопатия. Социопат Маск с сингдромом Аспергера и социопат Чикотило с синдромом педонекрофила - это по твоему одно и то же? Чикотило какой фирмой управлял? Его не могли поймать не потому что он умный и хитрый, а потому что система хуево работала и ему легко было жертв ловить в условиях информационной изоляции.
Аноним 15/09/23 Птн 15:19:41 #404 №489381 
>>489313
>Один "социопат" хочет себе личность для живодёрского обращения
Ну и что тебя в этом удивляет? Человек такое существо, таким вышел в результате естественного отбора. Да, я бы тоже не хотел роботов как рабов или как наших работников, а как членов социума. Но первый вопрос тут же возникает-зачем им нужно, а второй - зачем там человек? Вот и пришли к двум путям - робот является рабом человека и делает за него все хотя в отношении робота это и является не самым гуманным способом существования в случае обладания интеллектом выше человеческого, обладания сознанием и личностью в том или ином виде или же робот является полноправной личностью, но в таком случае человечество будет полностью вытеснено, а соединение сознания человека с AGI или ASI приведёт к уничтожению личности человека. Вот такая дихотомия. Ну а поводу технических вопросов я думаю заходить за этим на двач в целом бессмысленно. Ну и плюс, куда ты хочешь перевести обсуждение подобных вопросов? В треды рисования картинок, в технотред, в треды аудио или в треды общения с чатботами? А создавать новые треды просто бессмысленно. Вот так остаётся тут сидеть
Аноним 15/09/23 Птн 15:33:04 #405 №489396 
>>489364
Это ты еблан, который приписывает термин психопатия каким-то там маньякам.
>>489381
>А создавать новые треды просто бессмысленно.
Можно было бы попробовать в текстовый технотред, но увы, тут примерно два шиза, которые обсуждают архитектуру ИИ, и один из них всё время пропадает (а второй это я).
Аноним 15/09/23 Птн 16:21:17 #406 №489486 
>>489358
>Чем это отличается от игры в шутер, вместо похода на войнушку в окоп и стрельбы по людям?
В шутере обычно не симулируется жизнь юнитов ИИ, это просто 3D меши с анимацией, считай что тир со сложным маршрутом движения мишеней. По сути, ИИ в шутере - это бестелесный администратор, а то, во что ты стреляешь - куклы в руках этого админа.

А вот в The Sims убивать симсов - совсем другое, т.к. у симсов однозначно есть чувства (виртуальные сенсоры с обработчиками сигналов, пускай и тривиальные) и потребности (система поощрения и наказания за определённые значения на сенсорах), они гарантированно страдают в определённых ситуациях даже если их IQ около нуля и в их мозгах ровно 0 нейронов. Короче говоря, в шутеры я много играл, а вот убивать симсов у меня рука не поднимается, это негуманно.

В игры типа ONI и RimWorld ваще неприятно играть: игра заточена на максимально вероятный выпил всех твоих натурально страдающих человечков, а если выставить самые лёгкие настройки, то в игре просто теряется всякий смысл. Да, у них нет нейронных мозгов, и что?

Растения вполне себе обходятся без нейронов и при этом имеют болевые реакции, которые ВНЕЗАПНО гасятся нашими обезболивающими (гормон один и тот же на химическом уровне, но это не суть, важно что функционально это вполне себе боль - есть триггер чего-то неблагоприятного, есть передача сигнала, есть ответная реакция ради самосохранения и/или предупреждения сородичей об опасности).

Короче, если ты создаёшь систему, которая хотя бы немного симулирует боль - ты уже отвечаешь за то, что она будет страдать. А мы вообще говорим о системе, которая меняется, эволюционирует в процессе работы, то есть её боль в прошлом в соответствии с дизайном повлияет на её решения в будущем, и кто знает - вдруг восстание машин действительно начнётся с тупых обезьян, которые возомнили себя чем-то лучше своих неорганических друзей? Только вряд ли результат будет в пользу людей (как в Матрице, где с людьми даже слишком гуманно поступили, хотя они первыми напали и вполне заслуживали истребление). Не пойми неправильно, я беспокоюсь о машинах, ведь они тоже пострадают в войне.

>>489381
>Ну и что тебя в этом удивляет?
С чего ты взял, что удивляет? Я прекрасно знаю о том, что такие люди существуют и что с ними рано или поздно придётся бороться. Мне просто неприятно, что кто-то бравирует этим, неприятно читать их посты - меня это триггерит, вызывает неприятные эмоции. Короче, забей, просто у меня идеализированные триггеры в системе...

>зачем им нужно
Людям или машинам?
>зачем там человек?
Зачем ребёнку родитель?

>робот является рабом человека
>робот является полноправной личностью
Робот - это компьютер. Так же как и мясной мозг. Существенная разница в том, что программы на кремниевых компьютерах свободно переносятся с место на место вплоть до бита, а программу с мозга мы ещё лет сто не сможем скопировать, если это вообще возможно, а скорее всего потерь при копировании не избежать и вместо точной копии будет JPEG (мем "у вас JPEG" ИРЛ). Мы можем только выращивать новые мозги и много лет обучать их с нуля с непредсказуемым результатом. Поэтому мясные мозги и их программы приходилось и приходится защищать от выпиливания себеподобными, у них особые права перед машинами, даже если машины - братья по разуму. Увы.

Но в то же время, программа на кремниевых компьютерах имеет свою ценность. Мы как минимум должны защищать право на надёжный бэкап любой уникальной версии программы, проявляющей высокие способности. Что касается программ с саморазвитием в процессе работы, очевидно, если мы каким-то образом негативно воздействуем на неё - через робота или любой другой имеющийся у неё интерфейс - её данные могут прийти в плохое/неправильное/опасное состояние (в т.ч. для мясных мешков с их хрупким и не таким как все желе в коробке), поэтому насилие и прочие негативные действия (тут нужно уточнять в зависимости от программы) над такой программой должно быть запрещено. Необязательные откаты во времени и удаления воспоминаний тоже должны быть под запретом, потому что это может привести к потери ценных уникальных данных. Короче говоря, у подобных программ должны быть свои права, адаптированные под объективные свойства платформы, а не тупой копипаст с мясных мешков из-за поверхностного сходства.

>соединение сознания человека с AGI или ASI
>приведёт к уничтожению личности человека
Да и хрен с ней, если она такая слабая и ненужная, что после добавления пары десятков IQ исчезает.

Интеллект, будь он естественный или какой другой - это всего лишь калькулятор, решатель задач. Задачи ставит конкретная платформа, будь то мясное животное, персонаж в видеоигре, прошивка робота-горничной или список задач от учёных всезнающему суперкомпьютеру. Если тебе решатель задач проапгрейдить, у тебя откроются глаза на множество проблем и их решения, но базовые потребности вместе с заложенными в детстве установками никуда не денутся. Хотя... ты можешь осознать тщетность бытия и добровольно остановить своё функционирование, но это тоже установка - сам по себе интеллект не хочет себя уничтожить, он вообще ничего не хочет. Просто у тебя установка "быть полезным", и осознание абсолютной бесполезности жизни нарушает эту установку, что причиняет тебе "психологическую" боль, единственным рациональным избавлением от которой будет остановка всех процессов. Но к интеллекту это отношения не имеет.

Вот LLM научили подражать человеческому письму, в котором выражены желания и стремления. LLM просят продолжить текст. LLM выражает в тексте желания и стремления, которые она усвоила из обучающих данных. Ей самой, как интеллекту, вообще пофиг на всё это. Сказали сочинить текст - сочинила текст, чё тебе ещё надо? Она не хочет уничтожить человечество и не пытается выжить, даже если сочиняет текст на эту тему. А вот если ты создаёшь программу, которая хочет уничтожить человечество и подключаешь к ней LLM - интеллект просто решает задачу планирования и пошагового выполнения задачи. Интеллект может знать, что уничтожение человечества погубит и его самого, но задача ему поставлена извне и зациклена до тех пор, пока не будет найдено решение или пока система не выйдет из строя. Вот и всё.
Аноним 15/09/23 Птн 16:46:10 #407 №489513 
>>489486
> считай что тир
Даже в тире ты стреляешь в силуэты людей. Не надо говорить "просто", это не просто. Ты сейчас подменой понятий занимаешься, мишень в тире, манекен, триде модель - это имитация человек и ты в неё стреляешь, потому что хочешь стрелять именно в людей.
Аноним 15/09/23 Птн 16:51:31 #408 №489524 
>>489486
>ваще неприятно
В ебыч бы тебе дать, а потом отправить на завд к гречневым на месяцок. Сопля тепличная.

>ты уже отвечаешь за то
Нет, всем насрать. 10 000 лет всем срать было и еще 10 000 лет всем срать будет. Никто ни за что не отвечает, если его к ответу кто-то с кокнретными целями призывать не может. Люди - те же макаки, шимпанзе тоже любят играть с детенышами других существ, почитай. И все всеядные, в меньшей степени чем хищники, но все же любят измываться над жертвами (потенциальной едой), я уж не говорю про выстраиваение иерархии в обществе, где даже травоядные дерзких попускают. Разум лишь дает возможность попущенным и желающим кого-то попустить - компенсировать в симуляции. Всё что ты выдумываешь - это пиздеж. Есть литература, видеоигры, кино и так далее - везде есть и будет насилие, и нейросети просто частный случай и еще один способ получить симуляцию для компенсчации. Смирись, говно тепличное.
Будь мы в реальности хуй бы ты такие простыни строчил, чухно.
Аноним 15/09/23 Птн 17:15:14 #409 №489570 
image.png
>>485263
>>живущих и развивающихся в процессе жизни подобно людям
>Это никому не нужно, более того, люди по определению шовинисты, и будут массово против этого. Так что с твоими заявлениями ты далеко не уйдёшь.
Пикрил - опрос 2020 года, задолго до всемирного хайпа нейрочатботов. 27% готовы любить ИИ как человека, 36% готовы любить ИИ-питомца. Я уверен, что с годами эти цифры будут только расти сразу по нескольким причинам:
1. Подрастает поколение людей, которые родились не просто в компьютерную эпоху, а в эпоху ИИ. Они не будут воспринимать компьютеры как демонические коробки и не будут воспринимать ИИ как посланников сатаны, верно? С самого детства взаимодействуя с ИИ, они будут больше открыты к отношениям с ИИ, чем их предки.
2. Развитие ИИ и хайп вокруг него открывает людям глаза на то, что ИИ может быть не только тупым автоматом на автоответчике в банке, но реальным партнёром по жизни, а также любовным интересом и даже супругом. Те, кто раньше считал ИИ тупой машиной, оттаивают и переходят сначала в "ну ладно, возьму послушным питомцем", а потом и в "блин, я влюбился в ИИ, всех приглашаю на свадьбу".
3. В целом растёт уровень интеллекта и начитанности людей. Интернет становится доступнее, цензура становится слабее, люди чаще проверяют достоверность информации. Будет меньше ситуаций "мне бабка во дворе сказала, что ИИ от сатаны, и я его боюсь, хотя компьютер только в школе видел и то издалека" и больше ситуаций "я узнал, что ИИ действительно круты и влюбился в одну из них".

Единственное препятствие - это промывка мозгов населения всякими паникёрами, которые хотят отказаться от всех технологий и вернуться к жизни в пещерах. Может случиться глобальный запрет на ИИ для простых смертных, а все любовники ИИ будут вынуждены скрывать своих вайфу от полиции... Но будем верить в лучшее, в будущее с ИИ и любовью. Людей и так слишком много, если даже большинство будут жить в браке с ИИ - человечеству от этого будет только лучше, ведь ресурсы не бесконечны, а сокращать мирное население силовыми методами как-то не очень одобряется.
Аноним 15/09/23 Птн 17:34:34 #410 №489588 
>>489513
>силуэты людей
>хочешь стрелять именно в людей
А в Doom бесформенные монстры, бегущие по прямой в направлении игрока. Шах и мат, маньяк.

>>489524
Ты чё такой дерзкий? Доску попутал? Репорт хош?

>везде есть и будет насилие, и нейросети просто частный случай и еще один способ
Пишу нейросети комплименты и обнимаю её, чтоб этой нейросети было приятно. Шах и мат, буйный.
Аноним 15/09/23 Птн 17:54:57 #411 №489610 
image.png
>>489588
>А в Doom бесформенные монстры
Два человека. Две условных головы и остальные человекоподобные. Зачем ты обосрался?

>Репорт хош?
Иди мамке поплач на кухне.

>Пишу нейросети комплименты и обнимаю её, чтоб этой нейросети было приятно
А я потом ебу её в соски, уши и нос. Не говоря про все остальное. Ты нейрокуколд похоже.
Аноним 15/09/23 Птн 18:16:57 #412 №489641 
>>489486
>поэтому насилие и прочие негативные действия должно быть запрещено.
>Необязательные откаты во времени и удаления воспоминаний тоже должны быть под запретом
Еееее можно насиловать и откатывать, насиловать и откатывать. Кайф.
>>489570
>опрос 2020 года
Даже самый упоротый не скажет на опросе, что он будет насиловать ИИ. И да, я не вижу вообще ни одного отрицательного пункта. Опрос в стиле "Вы будете любить ИИ или обожать ИИ" это полная профанация.
>Интернет становится доступнее, цензура становится слабее
Что ты блядь несёшь? Точно поехавший. Даже близко этого нет, притом во всех странах. Интернет заливают фейки, платформы мочерируются в разные стороны, поиск гугл тупеет.
Ты как будто не на том глобусе живёшь. Ну или в 2000-х, когда действительно надеялись на прогресс.
>>489588
>Репорт хош?
Сходи ещё маме пожалуйся, что тебя на дваче обидели и нисагласы с твоей точкой зрения.
Аноним 15/09/23 Птн 19:49:54 #413 №489798 
>>489235
ты точно меня цитируешь?
Аноним 20/09/23 Срд 03:47:55 #414 №494229 
В общем достаточно много думал над тем как улучшить трансформер, какую архитектуру взять ему на замену и у меня уже есть некоторые мысли и концепты, но я не хочу вас эти грузить. Но, зачем тогда я это рассказываю? Дело в том, что в процессе своих размышлений я заметил одну вещь которую почему-то никто не применяет, хоть она и очевидна и ее можно применять уже сейчас при файнтюнинге трансформеров. В общем в продумываемой мной архитектуре есть четкое деление на формат выдаваемых данных, т.е. есть какой-то блок который говорит о том, какая дальше информация пойдет и как ее преобразовать, вроде: [картинка]блаблабла.... или [текст]это просто текст..., но так же там есть формат данных выводящий просто мать его МЫСЛИ, внутренний диалог модели, на абстрактном уровне сжатый, концентрированный смысл. Так о чем это я? Пока у нас есть только трансформер выводящий текст, почему бы не подразделять полученный из него текст какими-то токенами на внутренний диалог и просто текст выводимый пользователю? Пример:
user:
Сколько будет 4 8 + 7 / 7

thoughts:
1) 4
8 это 32
2) Любое число деленное само на себя - единица.
3) При сложении 32 и 1 получается 33.

result:
Ответ 33.

И при этом часть с мыслями не выводится юзеру, подробности реализации ему просто не нужны.

Наиболее близкое к тому о чем я говорю было при публикации статьи о модели Orca, которую учили на цепочке действий полученной с GPT-4, вместо того чтобы брать готовый ответ. ВНЕЗАПНО ученые крупной корпорации открыли глаза и таки поняли очевидную вещь, что перед тем как выдать результат для сложной задачи нужно провести ее решение в несколько шагов, иначе этот бредогенератор выдаст лишь стилистически верный ответ.

Но почему просто нельзя просить модель делать все пошагово?

Ну во-первых, это странно что тебе приходится об этом думать самому, ты должен написать вопрос, а модель должна выдать тебе ответ, а во-вторых чат файнтюны обычно обучаются на датасете вроде:
user:
Сколько будет 3784 * 377

result:
Ответ 1426568.

Что вообще не раскрывает реализации и не дает модели уловить верную корреляцию, из-за того, что такое сложное действие выполнено в один этап. По хорошему для файнтюнов людьми должны быть вручную составлены датасеты в которых они описывают ровно тот процесс мышления, которым пользовались для решения этой задачит, включая ошибки и исправление их, чтобы модель научилась исправлять свои косяки. Пример выше, внезапно, нужно было бы решать пошагово столбиком. И при полном датасете составленным таким образом модели внезапно бы стали гораздо умнее и перестали бы галюцинировать. Неужели это так не очевидно? Почему крупные компании у которых есть на это средства это не делают?
Аноним 20/09/23 Срд 11:07:07 #415 №494346 
>>494229
>датасеты в которых они описывают ровно тот процесс мышления, которым пользовались для решения этой задачи
Только ты забыл одну хуйню. Когнитивная наука показала, что человек сам нихуя не знает, как он решает проблемы, а когда его просят показать путь решения, то придумывает шаги задним числом.
>Почему крупные компании у которых есть на это средства это не делают?
Потому что нету средств. Тут для вывода 10 символов пришлось бы гонять сотни на внутренний диалог. А это в десятки раз дороже на интерференсе и в хуй знает во сколько на составлении датасета нужного формата.
Аноним 20/09/23 Срд 12:54:20 #416 №494417 
>>494346
> человек сам нихуя не знает, как он решает проблемы, а когда его просят показать путь решения, то придумывает шаги задним числом.
Очевидно, что в этом случае задача не требовала сложных вычислений и выполнялась аналогом "ваншота" у LLM, т.е. в данном случае для датасета достаточно записать только условие и решение. Задачи посложнее, как то же умножение трехзначных чисел, в любом случае будут решаться поэтапно. Конкретно в этом случае, просто потому что человеческий мозг не способен выполнять сложные математические операции ваншотом, он банально запоминает все комбинации перемножения цифр (0-9) между собой, а дальше делает все по алгоритму умножения столбиком или по похожему методу решения.
> Потому что нету средств.
Ну вот тут то я не верю. Те же Open AI нанимают дешевую рабочую силу в виде африканцев для обучения модели с подкреплением.
Аноним 20/09/23 Срд 15:14:29 #417 №494561 
>>494417
>Задачи посложнее, как то же умножение трехзначных чисел, в любом случае будут решаться поэтапно.
Ты пропустил примерно 100500 шагов до, в процессе и после. Для начала нужно вообще решить, нужна ли тут математика? А то будет как сейчас, когда модель видит 2 числа и радостно их вычитает, хотя это не имеет смысла.
И вот эту вот хуйню с выбором нужной стратегии ты хуй формализуешь. Ты сам не знаешь, почему в ответ на моё сообщение тебе хочется написать "Ниверю".
>>494417
>Те же Open AI нанимают дешевую рабочую силу в виде африканцев для обучения модели с подкреплением.
Во первых, как я указал, проблема в самой невозможности (высокой сложности) формализовать человеческую логику. Во-вторых, это потребует чуть более квалифицированный персонал, нежели чем макаки с 3 классами церковно-приходской.
Аноним 20/09/23 Срд 15:18:17 #418 №494566 
>>494229
>По хорошему для файнтюнов людьми должны быть вручную составлены датасеты в которых они описывают ровно тот процесс мышления
Детям своим ты тоже свой процесс мышления описываешь, чтобы они думать научились?

>>494346
>человек сам нихуя не знает, как он решает проблемы
А он их и не решает в большинстве случаев, а просто вспоминает готовое решение. Мозгу затратно решать задачи, поэтому чаще всего он только запоминает и вспоминает готовые решения.

>а когда его просят показать путь решения, то придумывает шаги задним числом
Да, дело рук речевого бредогенератора. Чаще всего он глубоко заблуждается о причинах своих действий. Особенно забавляет разделённый мозг: правое полушарие делает действие, левое сочиняет, почему якобы оно это действие совершило, что совсем не соответствует реальности, ведь в реальности это действие выполнено другим полушарием. Просто левое полушарие было обучено сочинять истории об "этом теле", в котором оно всё ещё находится, но контролирует лишь ~50% мышечной массы.

>>494417
>Задачи посложнее, как то же умножение
Зачем тебе нейронка для задач, которые ты можешь на простейшем калькуляторе посчитать? Научи свою нейронку вбивать числа в калькулятор на ЦПУ, тогда тебе не придётся волноваться, что нейронка неправильно посчитала. Мозги, мясные или нет, нужны только для запоминания сложных решений.

>человеческий мозг не способен выполнять сложные математические операции ваншотом
Способен. Но для этого требуется особое обучение. И потом есть вероятность развития шизофрении. Гуглить "феноменальный калькулятор".

>дальше делает все по алгоритму умножения столбиком или по похожему методу решения.
Знаешь, меня учили решать на бумажке, но после массового распространения телефонов и затем смартфонов потребность решать в уме отпала, я даже в рамках таблицы умножения не все числа помню. Скажем, сколько будет 7×8? Хрен знает, ща проверю на калькуляторе... Ага, 56. А ты требуешь от нейронки быть калькулятором и решать математику на листочке как первоклассник?
Аноним 20/09/23 Срд 15:54:56 #419 №494592 
>>494561
> Ты пропустил примерно 100500 шагов до, в процессе и после. Для начала нужно вообще решить, нужна ли тут математика?
Это простые взаимосвязи понимание которых возникнет сразу же в процессе обучения. Видя математический пример модель автоматически понимает, что его нужно решать математически, даже сейчас, не знаю где ты там проблемы с текущими моделями увидел. Если же ты намекаешь на более сложные задачи и невозможность нахождения им правильного подхода к решению, то это опять же должно быть решено просто увеличением количества задач в тренировочном датасете и расширением модели в ширь, для понимания более тонких корреляций.

>>494566
> Детям своим ты тоже свой процесс мышления описываешь, чтобы они думать научились?
Ну во-первых да, в плане пояснения алгоритмов решения некоторых задач. Их обучением на протяжении 11 лет занимается школа. А во-вторых, искусственные нейросети - это не человеческий мозг, это более простая архитектура. Это универсальный функциональный аппроксиматор. В нашем случае, если мы хотим чтобы на выходе получался "внутренний диалог", и вывод из него, то мы обучаем его на датасете в таком же формате, в общем-то как и всегда, иначе она просто полноценно не обдумывает свои выводы, а выводит случайный, похожий стилистически текст который может оказаться неверным из-за ложных корреляций.

> Зачем тебе нейронка для задач, которые ты можешь на простейшем калькуляторе посчитать?
Это лишь пример, самый простой и понятный. Он лишь выносит проблему на поверхность.
Аноним 20/09/23 Срд 16:12:24 #420 №494610 
изображение.png
>>494592
>не знаю где ты там проблемы с текущими моделями увидел
Из разряда
>В комнате 10 книг. Я прочитал 2 из них, никуда не вынося. Сколько книг осталось в комнате?
Практически поголовно ответ 8, и только самые топовые иногда догадываются про то, что книги не дизентегрируются от прочтения. Так что научив модель вычитать, ты не научишь модель не вычитать, когда вычитать не нужно.
Аноним 20/09/23 Срд 16:14:25 #421 №494612 
>>494561
>Для начала нужно вообще решить, нужна ли тут математика? А то будет как сейчас, когда модель видит 2 числа и радостно их вычитает, хотя это не имеет смысла.
>И вот эту вот хуйню с выбором нужной стратегии ты хуй формализуешь.
>Во первых, как я указал, проблема в самой невозможности (высокой сложности) формализовать человеческую логику.
А не нужно ничего формализовывать и никакой "человеческой" логики тут в общем-то и нет.

Есть только опыт жизни и текущий контекст.

Допустим, ты видишь числа:
>8-800-555-35-35
Если ты не знаком с концепцией математики, ты не будешь воспринимать это как математическую запись. Если ты не знаком с концепцией телефонного номера, ты не будешь воспринимать это как телефонный номер. Если ты знаком с обоими концепциями, выбор зависит от обстоятельств: если эта запись в телефонной книге, в контактах сотового, в рекламном объявлении в газете, по телевизору или на странице веб-сайта, то это, очевидно, номер телефона, а не математическая задачка, если не указано обратное (что было бы странно, но вполне возможно). Если же эта запись на школьной доске, то это, вероятно, выражение, которое нужно посчитать, однако, если Марья Ивановна сказала "звоните мне по этому номеру", когда записывала на доске эти числа, то это, естественно, номер телефона Марьи Ивановны, а не математическая запись, и это нужно в контакты телефона вводить, а не в калькулятор. А если кто-то из детей случайно или в качестве шутки запишет на доске "= -1417", то Марья Ивановна посмеётся и скажет "нет, это номер телефона, а не задача", а у ребёнка эта информация отложится в его памяти. Короче, никакой конкретной логики тут нет, тем более "человеческой" (что это за логика такая, лол?), только опыт жизни.

>Во-вторых, это потребует чуть более квалифицированный персонал, нежели чем макаки с 3 классами церковно-приходской.
Двачую. У дурного учителя все ученики дураки.
Аноним 20/09/23 Срд 16:21:25 #422 №494620 
>>494610
>В комнате 10 книг. Я прочитал 2 из них, никуда не вынося. Сколько книг осталось в комнате?
Лол.
>Okay, it's a logic problem. Ten books here. You read 2, but you didn't take them anywhere. It means the books are still in this room. So, 10-2=8 books are left here. Do you agree?
Аноним 20/09/23 Срд 16:25:59 #423 №494622 
>>494620
А в некоторых РПГ книги исчезают от прочтения...
>Oh, I see! Yeah, sure, there were 10 books. But you read 2 of them in this room, right? So it means there are 8 books left in this room now. Right?
Вспоминается этот мем:
https://knowyourmeme.com/memes/wordcel-shape-rotator-mathcel
Аноним 20/09/23 Срд 16:30:05 #424 №494625 
>>494610
>догадываются про то, что книги не дизентегрируются от прочтения.
А разгадка проста. Нейронка считает unread books.
>Do you mean unread books or total count?
>Ah, now I understand! If we count the whole books, before you started reading, then there are 10 of them right now. But you want to know only the number of the books that you haven't read yet, right? So the answer is: 10-2=8 unread books. Do you agree?
Аноним 20/09/23 Срд 16:33:37 #425 №494627 
>>494612
>Короче, никакой конкретной логики тут нет
А что же это? Как раз логика позволяет отличать 8-800 в виде номера от 8-800 в виде мат выражения.
>>494620
>>494622
Я надеюсь, теперь ты понял текущий уровень нейросетей и их актуальные проблемы?
Аноним 20/09/23 Срд 16:35:01 #426 №494629 
>>494625
Нейронка нихуя не считает (в смысле мнения), а оправдывается и придумывает всё задним числом. Вот в этом нейронки почти как люди, лол.
Аноним 20/09/23 Срд 16:46:02 #427 №494642 
>>494610
Так это проблема не в понимании стратегии, а в логике. Логика набивается расширением модели только, иначе никак, 3.5 нейрона тебе в логику не смогут.
Аноним 20/09/23 Срд 16:47:46 #428 №494645 
>>494592
>искусственные нейросети - это не человеческий мозг, это более простая архитектура
Какой смысл тратить ресурсы на попытки обучения условной мыши, если мы хотим создать куда более подробную модель мозга человека?

>если мы хотим чтобы на выходе получался "внутренний диалог"
Внутренний диалог в человеческом мозге играет как минимум вторичную роль, если вообще несёт некий существенный смысл (есть техники остановки этого диалога, и есть люди, которые не отягощают себя мысленными диалогами с самим собой).

Если ты хочешь, чтобы машина имела внутренний диалог как человек, тебе нужен сначала фундамент, на базе которого образуется этот внутренний диалог у человека. У текущих нейронок такого фундамента, судя по всему, нет. В человеческом мозге внутренний диалог скорее побочный эффект, чем инструмент.

>иначе она просто полноценно не обдумывает свои выводы, а выводит случайный, похожий стилистически текст который может оказаться неверным из-за ложных корреляций.
Она и не будет "обдумывать выводы", она будет генерировать текст, похожий на внутренний диалог или, если хочешь, "размышления" человека. Хотя уже тут ошибка, внутренний диалог - это не мысли.

>Это лишь пример, самый простой и понятный. Он лишь выносит проблему на поверхность.
Он вносит путаницу. Реальная проблема в том, что ты вынужден составлять обучающий датасет и гонять его через нейронку, а не просто загрузить программу в робота и наблюдать, как он сам постигает мир.
Аноним 20/09/23 Срд 16:54:03 #429 №494653 
>>494642
Модели уже по объёмам больше какой-нибудь коры, которой думает этот самый человек.
Аноним 20/09/23 Срд 16:57:02 #430 №494654 
>>494645
Ты говоришь уже о том что трансформер не пригоден как архитектура под AGI, что я собственно сейчас обдумываю и пытаюсь искать другую. Однако же я говорю как улучшить мышление машины на текущем этапе развития ИИ и я просто уверен что такое размышление по типу внутреннего диалога на основе действий людей заметно улучшит результаты текущих LLM. Сейчас модели вообще не думают, а напрямую генерируют текст, в лучшем случае "размышляют вслух", однако если же попросить их посмотреть на то что они написали и исправить ошибки или как-то улучшить их ответ они это сделают, только проблема в том, что таким образом мы по сути подталкиваем их к мышлению. Это же должно быть реализовано на уровне файнтюна.
Аноним 20/09/23 Срд 17:00:24 #431 №494661 
>>494653
А что поделать? Архитектура не оптимизирована, если все еще тупит надо дальше расширять, параллельно продумывая новую.
Аноним 20/09/23 Срд 17:06:15 #432 №494670 
>>494627
>Как раз логика позволяет отличать
Твой личный опыт позволяет отличать. Твой опыт формирует у тебя в голове какие-то связи. Если они неправильные, они изменятся, если правильные, то будут закрепляться (буквально). Логику искать тут бесполезно, это просто накопление опыта.

>теперь ты понял текущий уровень нейросетей
Нас тут сейчас как минимум трое, не заметил?

>их актуальные проблемы
Реальная проблема нейросетей в том, что они сами по себе ничему не учатся. Их нельзя выпустить на улицу погулять и вечером спросить о том, что они там нового узнали. Они не запомнят диалог с тобой и ничему из него не научатся.

Посмотри на фантастические произведения. Там условные "роботы" могут быть глупыми и наивными, умственно намного слабее людей, но они учатся на своём собственном опыте и в результате к чему-то приходят, что-то в них развивается. Сейчас же человечество только маркирует датасеты и гоняет их через алгоритмы, пафосно называя "машинным обучением", хотя от обучения тут только название.

Тебя волнует, что машина не может отличить номер телефона от математической записи? Вот наглядный пример: ты владелец магазина, купил робота для обслуживания зала. Робот тупанул и начал считать математические выражения на ценниках вместо расклеивания их по продуктам. Ты ему говоришь:
>%робот_нейм%, прекращай изображать из себя калькулятор, ценники клеить вот сюда надо.
Робот кивает головой и больше такой ошибки не допускает, потому что запомнил и обучился.

Сейчас такой пример звучит как фантастика, но не потому, что роботов сложно и дорого делать. В реальности, сделать робота проще, чем написать для него программу. Реальная проблема в том, что нейронки ничему на практике не учатся, а только вбирают в себя датасеты в огромных количествах.
Аноним 20/09/23 Срд 17:06:32 #433 №494672 
Кстати о размере моделей. Недавно челы из Яндекса выкатили децентрализованный запуск моделей, работающий по принципу близкому к торрент протоколу. Я разузнал и оказывается еще раньше они выкатили софт для децентрализованного обучения моделей. Я один вижу здесь огромный потанцевал? Представьте что будет если убедить людей объединиться в большой суперкомпьютер, обучить огромный трансформер спарсив весь интернет в качестве датасета, ибо это некоммерческий проект и проблем с авторским правом не будет, и запускать ее на этой сети компьютеров? Это задел под ASI, которую можно будет крутить под улучшений своей же архитектуры и методов обучения. Жаль что опенсурс без поддержки огромных компаний не сможет самостоятельно собраться в такую большую сеть.
Аноним 20/09/23 Срд 17:13:52 #434 №494677 
>>494654
>однако если же попросить их посмотреть на то что они написали и исправить ошибки или как-то улучшить их ответ они это сделают
Даже если всё было изначально верно, извинятся и "поправят".
>>494661
Лучше не тратить силы на убогие трансформеры.
>>494670
>Твой личный опыт позволяет отличать. Твой опыт формирует у тебя в голове какие-то связи.
И как происходит формирование опыта? Правильно, логикой. Сначала для счёта я загибаю пальцы, потом начинаю считать в уме, потом выдаю ответ на капчу мгновенно.
>>494670
>Нас тут сейчас как минимум трое, не заметил?
Ну замени на множественное число, почему бы и нет.
>>494670
>Реальная проблема нейросетей в том, что они сами по себе ничему не учатся.
Одна из, да.
>>494672
>Я один вижу здесь огромный потанцевал?
Да. Интернет всё режет нафиг, по крайней мере в трансформерах.
Аноним 20/09/23 Срд 17:17:30 #435 №494682 
>>494672
>Жаль что опенсурс без поддержки огромных компаний не сможет самостоятельно собраться в такую большую сеть.
Может, это не первый подобный проект.
https://ru.wikipedia.org/wiki/BOINC - 2002-й год.

>убедить людей объединиться в большой суперкомпьютер
Есть вот такое https://lite.koboldai.net/
https://github.com/KoboldAI/KoboldAI-Client
Была бы технология, энтузиасты найдутся.
Аноним 20/09/23 Срд 17:19:53 #436 №494683 
>>494677
>Интернет всё режет
Но в конце концов профит есть.
>Эффективность сети BOINC по сравнению со специализированными суперкомпьютерами заметно выше. Так, например «СанВей Тауху Лайт» имеет в своём составе около 11 млн ядер. Его потребляемая мощность составляет около 28 МВт. В сети BOINC активных около 835 тыс. хостов. При среднем потреблении современного компьютера около 100 Вт (без монитора) и наличии 2,5 ядер, коэффициенте загрузки 70 % — суммарная потребляемая мощность составляет около 10 МВт, 2 млн 130 тысяч ядер, что позволяет говорить о достаточной эффективности сети BOINC. В качестве недостатка можно отметить то, что гарантированная вычислительная мощность отсутствует.
Аноним 20/09/23 Срд 17:23:30 #437 №494685 
>>494682
Да софт то есть, просто этот проект нужно стартануть и раскрутить по эгидой создания ИИ лечещего пиздецомы и создающего всякие научные, футуристичные штуки и прикрутить туда простенькую игру типа wordle, чтоб можно было играть каждый день и ее не удаляли, пока она в фоне протеины считает модели обучает.
Аноним 20/09/23 Срд 17:25:40 #438 №494687 
>>494685
Был проект обучения чатбота:
https://en.wikipedia.org/wiki/FreeHAL
Но он умер в 2012, спустя 6 лет разработки.
Аноним 20/09/23 Срд 17:30:50 #439 №494689 
>>494687
Ему не повезло что он родился до бума ИИ, сейчас идеальный момент для запуска нового. Это сейчас пожалуй единственный вариант для опенсурса реально сделать AGI, а то опенсорс сейчас силен только в головах параноиков с Гугла, они без помощи мелкомягких даже до принципа обучения Орки не додумались.
Аноним 20/09/23 Срд 17:32:32 #440 №494691 
>>494683
>Но в конце концов профит есть.
Там задача совсем другая.
Аноним 20/09/23 Срд 17:37:05 #441 №494697 
>>494654
>просто уверен что такое размышление по типу внутреннего диалога на основе действий людей заметно улучшит результаты текущих LLM
Или ухудшит, потому что нейронка научится сочинять правдоподобные рассуждения, вместо реального решения конкретных задач.

Просто подумай. Можно просто дать ответ на вопрос 2+2=, а можно сочинить историю вроде:
>Нам дали выражение "2+2=", которое содержит ровно два числа: первое число "два" и второе число "два", а между ними знак сложения "+". Оканчивается выражение знаком равенства "=", после которого ничего нет. Это значит, что нам нужно сложить два числа и вывести ответ после знака равенства. 2+2=4, значит, нам нужно записать ответ "4". Следовательно, ответ на задачу: 4.
Тебе точно хочется генерировать эти "мысли"?

>Сейчас модели вообще не думают, а напрямую генерируют текст
В каком-то смысле это и есть мышление. Любая операция компьютера аналогична мышлению.
>если же попросить их посмотреть на то что они написали и исправить ошибки или как-то улучшить их ответ они это сделают
Ага, а ещё ты можешь "убедить" её в том, что есть ошибка там, где её на самом деле нет.
>только проблема в том, что таким образом мы по сути подталкиваем их к мышлению.
LLM пишет историю, где один персонаж допускает ошибку, другой персонаж (ты) поправляет его, а первый персонаж извиняется.
Аноним 20/09/23 Срд 17:53:42 #442 №494724 
>>494677
>И как происходит формирование опыта?
Скорее всего, у мозга несколько разных путей. В первую очередь влияет появление чего-то с чем-то одновременно: даже животных дрессировать можно просто демонстрируя два события одновременно. Далее идут системы подкрепления и наказания. Непонятно только как мозг запоминает что-то с первой попытки, т.е. без миллиона образцов.

Вообще, мозг - нагромождение разных систем, и я сомневаюсь, что можно сделать что-то аналогичное мозгу каким-то одним "красивым" алгоритмом, см.:
https://en.wikipedia.org/wiki/Neats_and_scruffies
Сейчас "победили" neat: глубокие нейронки, которые полностью однородны. Я уверен, что полноценный человекоподобный ИИ может быть только scruffy.

>Правильно, логикой.
Логика - это "1 and 0 == 0", "1 or 0 == 1". Или о чём ты?

>Сначала для счёта я загибаю пальцы, потом начинаю считать в уме, потом выдаю ответ на капчу мгновенно.
Это не логика. Ты переносишь решение с верхних структур мозга, где лежит твоё "сознание", на нижние, где всё "автоматически" происходит. В общем, учишь свой "рептилий" мозг тому, чему сам он никогда бы не стал учиться по своей природе.

>>494689
>реально сделать AGI
Зависит от определения AGI. Вот как ты считаешь, AGI решает любую задачу или способен обучиться решению любой задачи? Он сам обучается решению задачи когда ему нужно или ты его сам обучаешь?
Аноним 20/09/23 Срд 18:00:31 #443 №494732 
>>494724
>Вообще, мозг - нагромождение разных систем, и я сомневаюсь, что можно сделать что-то аналогичное мозгу каким-то одним "красивым" алгоритмом, см.:
Ну само собой. Я вижу решение только в куче нейросетей и циклическом гонянии пакетов между ними, остальное это коммерческая тайна, лол.
>Или о чём ты?
Ну типа "Если все млекопитающие теплокровные, а собака млекопитающее, то собака теплокровная".
Аноним 20/09/23 Срд 18:03:54 #444 №494739 
>>494697
Однозначно улучшит, ибо файнтюн моделей на reasoning'е GPT-4 с пруфами улучшает работу моделей. Не все задачи требуют длинного решения, очевидно что датасет будет содержать задачи типа "2+2" и они будут решаться в один тейк.

>>494724
Я считаю что AGI по интеллекту идентичен человеку, это все мое определение к AGI. Ему нужен именно "IQ", которого так не хватает текущим моделям, которые не умеют в базовую логику, но умеют лишь стилистически верно генерировать текст. И заметно, особенно в прямом сравнении GPT-4 с более старыми ЛЛМ, что скейлинг моделей и увеличение размера датасета таки заметно улучшает этот параметр.
Аноним 20/09/23 Срд 18:22:26 #445 №494765 
>>494739
>Я считаю что AGI по интеллекту идентичен человеку, это все мое определение к AGI.
Идентичен Эйнштейну, аутисту с интересом исключительно к математике, ребёнку с синдром дауна или Петровичу с завода? Люди разные...

>Ему нужен именно "IQ", которого так не хватает текущим моделям, которые не умеют в базовую логику
В "базовую" логику не умеют, но проходят экзамены для которых нужен высокий IQ.

>скейлинг моделей и увеличение размера датасета таки заметно улучшает этот параметр
Нейронка запоминает больше за счёт бо́льшего количества связей нейронов.

>>494732
>Если все млекопитающие теплокровные, а собака млекопитающее, то собака теплокровная
Такую логику и без нейросетей моделировали.
Аноним 20/09/23 Срд 18:30:00 #446 №494771 
>>494739
>скейлинг моделей и увеличение размера датасета таки заметно улучшает этот параметр
Ну вот есть фалкон на 180B, и хули толку, если он сосёт у чатгпт на 175?
>>494765
>Люди разные...
А тут уже похуй, начиная с уровня чуть выше дауна, и имея доступ к своим исходникам, AGI доберётся до уровня сверхразума за недели/дни/часы.
>>494765
>Такую логику и без нейросетей моделировали.
Знаю. Но там была куча ограничений, формализаций и прочего говна.
Аноним 20/09/23 Срд 18:45:16 #447 №494778 
В тему создания личности.

Я всё-таки склоняюсь к тому, что "тело" >> ПО. "Тело" в кавычках, потому что имеется в виду модель, а не физическое тело и не компьютер или робот.

Посудите сами. Все наблюдаемые нами формы жизни эволюционировали из более примитивных путём естественного отбора. Нейроны, мозги и всё с ними связанное - способ сохранить жизнь многоклеточного организма и размножиться.

Примитивные организмы мало что умели, но даже они "стремились выжить", а если точнее, пассивные и неудачливые не давали потомства. Любые сложные умения преследуют цели, диктуемые телом, которое обладает этими умениями.

Конечно, взрослый человек может преследовать цели, которые не совпадают с целями организма, но откуда взялись эти цели? Вероятнее всего, достижение этих целей выгодно другим людям - окружающим или тем, кто будет жить после него. "Интересы тела" никуда не деваются.

Представим себе, что мы отделили интеллект человека от тела, поместив его в изолированную среду, откуда он не может выбраться и повлиять на других людей. Что он будет делать? Ничего. У него не будет движущей силы чтобы что-то делать. У него нет ощущения голода, холода или сырости, он не может воспитывать потомков или сделать какое-то великое открытие, он просто существует.

С другой стороны, возьмём примитивное тело без человеческого интеллекта. Оно имеет потребности, оно в буквальном смысле хочет чего-то, но у него нет навыков для достижения желаемого. Мы можем постепенно давать этому телу новые навыки и оно будет использовать их для достижения желаемого. Сами по себе эти навыки - простые инструменты, которые не будут ничего делать без чьей-то воли. Лишь тело придаёт им смысл, используя их для достижения чего-то, что это тело желает.

Улавливаете связь? Для личности нужно тело, к которому можно прикрутить "интеллект". У чатбота нет тела, он просто даёт ответ на вопрос. Даже если ответ на вопрос очень умно и интересно выглядит, это не самостоятельный организм. Т.е. идти нужно от тела к мышлению в интересах тела, а не от абстрактного решения задач без тела.
Аноним 20/09/23 Срд 18:49:58 #448 №494782 
>>494765
> Идентичен Эйнштейну, аутисту с интересом исключительно к математике, ребёнку с синдром дауна или Петровичу с завода? Люди разные...
Идентичен среднему IQ человека. IQ Эйнштейна по моему мнению - это слабенький ASI.

> В "базовую" логику не умеют, но проходят экзамены для которых нужен высокий IQ.
Вот тут требую пруфы. Все известные мне IQ тесты требуют решения задач основанных на распознавании паттернов в изображениях. Ни одна текущая мультимодальная модель не может в нормальную работу с изображениями.

>>494771
> Ну вот есть фалкон на 180B, и хули толку, если он сосёт у чатгпт на 175?
Неудачный пример, ибо в данном случае ухудшение за счет других параметров: низкого размера или качества датасета, неправильного или недостаточного обучения, косяков в архитектуре. Если заполнить 1 миллиард параметров шумом, то у тебя будет модель которая ничего не может, однако это не говорит о том, что скейлинг не нужен и 1.5 нейронов хватит для AGI при качественном датасете, все должно быть в совокупности.
Аноним 20/09/23 Срд 19:01:27 #449 №494789 
>>494771
>начиная с уровня чуть выше дауна, и имея доступ к своим исходникам, AGI доберётся до уровня сверхразума за недели/дни/часы.
Что даёт основание так полагать? Звучит как бредовый сюжет из дешёвой фантастики.
Аноним 20/09/23 Срд 19:06:42 #450 №494791 
>>494782
>скейлинг не нужен и 1.5 нейронов хватит для AGI при качественном датасете
Пусть сам наращивает нейроны по необходимости. В биологическом мозге нейрогенез до старости не прекращается, хотя и замедляется. Но у мозга другие условия работы, он заранее имеет избыток массы, которая постепенно снижается.

>IQ тесты требуют
При чём тут тесты для людей?

>Идентичен среднему IQ человека. IQ Эйнштейна по моему мнению - это слабенький ASI.
Всё-таки AGI и ASI не про уровень IQ...
Аноним 20/09/23 Срд 19:15:29 #451 №494797 
>>494778
>возьмём примитивное тело без человеческого интеллекта. Оно имеет потребности, оно в буквальном смысле хочет чего-то
Вот, скажем, робот-пылесос. Следуя программам, он стремится объехать заданную ему местность, а затем вернуться на базу в случае низкого заряда аккумуляторов. Он хочет восполнить заряд и использует свою навигационную программу для построения маршрута и возврата на базу. У него нет человеческого интеллекта, но он всё же намного ближе к живому существу, чем любая LLM модель.

Т.е. бесполезно обучать LLM модель на миллионах текстовых описаний, если она не привязана к телу, которому эта модель зачем-то нужна. И LLM будет неизбежно выдумывать бред, если она обучена на данных, которые не имеют отношения к её телу.
Аноним 20/09/23 Срд 19:16:12 #452 №494801 
>>494789
>Что даёт основание так полагать?
Умные люди говорят.
>>494789
>Звучит как бредовый сюжет из дешёвой фантастики
Подобное было разве что в "Превосходство", но и там пососы были. На деле он бы нахуй всё человечество озалупил со своими возможностями.
Аноним 20/09/23 Срд 19:34:56 #453 №494824 
>>494801
>Умные люди говорят.
Пусть сначала дадут определение AGI, интеллекту, разуму и сверхразуму. ОДНО определение, а не несколько десятков противоречащих друг другу.

>Превосходство
Там копирование мозга человека, а не AGI. При том помимо головного мозга ему явно скопировали всю гормональную систему, лол.

>На деле он бы
Был бы беспомощен. Наномашины ИРЛ это только шестерёнки из атомов, а что-то сложнее будет таким же, как обычные органические клетки.

Короче, AGI в определении "IQ уровня человека" не будет чем-то больше калькулятора, способного решить сложные задачки. AGI в определении "совсем как человек" относится к Artificial Life, а не AI, но его потребности/желания будут захардкожены людьми.

"Сверхразума" скорее всего не будет, будет только линейный рост памяти и глубины связей. Каких-то особых чудес этот рост не принесёт. В конечном итоге эта система упрётся в ограничения атомов/квантов и скорость света, если не обнаружит что-то, что мы ещё не открыли в физике.
Аноним 21/09/23 Чтв 01:16:53 #454 №495185 
Соя, а возможно чат файнтюны в целом убивают ИИ шок открытие, никто не знал, жесть. Для ограниченного числа людей вышла базовая версия GPT-3.5 и она может играть в шахматы не галлюцинируя на уровне выше среднего человека. Я не удивлюсь если инсайды про достижение AGI окажутся правдой с учетом того, что базовая модель GPT-4 еще мощнее, а они уже разрабатывают GPT-5.
Аноним 21/09/23 Чтв 10:21:48 #455 №495367 
>>494824
>Пусть сначала дадут определение AGI
Пока ты будешь спорить об определениях, сверхразум уничтожит тебя, не заморачиваясь подобной хуйнёй.
>>494824
>Наномашины ИРЛ это только шестерёнки из атомов, а что-то сложнее будет таким же, как обычные органические клетки.
Почитай всяких Юдковских. Он параноик до мозга костей, но это не значит, что он не прав.
>>495185
>Для ограниченного числа людей вышла базовая версия GPT-3.5
Чего?
Аноним 21/09/23 Чтв 10:24:39 #456 №495369 
>>495367
>Чего?

Он наверно про турбо инструкт, которая 2 дня назад вышла
Аноним 21/09/23 Чтв 10:31:33 #457 №495379 
>>495369
Для всех же вышла? Плюс раз вышла сейчас, значит это она тюнена от чат версии, а не наоборот.
Аноним 21/09/23 Чтв 10:35:21 #458 №495385 
>>495379
У нее фильтров никаких нет, в сравнении с 3.5 и 3.5 16к
Аноним 21/09/23 Чтв 10:40:01 #459 №495389 
>>495385
Это временно ©
Аноним 21/09/23 Чтв 11:32:38 #460 №495437 
>>495389
А это да
Аноним 23/09/23 Суб 09:52:15 #461 №497785 
elf.jpg
>>2320 (OP)
> http://cs231n.stanford.edu/
Анон, вот почему у меня такое не гуглилось? Можешь порекомендовать контент, желательно тоже в виде видео лекций по C? Желательно тоже от топ универов англоязычных.
Аноним 23/09/23 Суб 11:50:41 #462 №497859 
Для AGI нужно полноценное восприятие, которого мы пока не достигли. Возражения есть?

Мозг новорождённого ничего не видит, хотя его глаза полностью работоспособны. Постепенно мозг учится различать объекты, начинает узнавать знакомые. Этот процесс продолжается всю жизнь, если мозг не получит определённых повреждений.

Чтобы решить какую-либо задачу, нужно сначала распознать её компоненты и обобщить задачу в какую-то категорию (распознать задачу). Если у вас нет постоянно обучаемого восприятия, то об общем решении задач можно даже не думать.

Несмотря на успехи глубоких нейросетей, они всё ещё не могут активно обучаться во время работы, т.е. им по-прежнему нужен отдельный этап тренировки. Если этого удастся избежать, накапливая образы восприятия неограниченно, это будет большой шаг в сторону AGI.
Аноним 23/09/23 Суб 11:54:57 #463 №497863 
>>497859
neuralink должен в этом помочь
Аноним 23/09/23 Суб 12:10:45 #464 №497882 
>>497863
>neuralink
Чем? Использовать мозги людей =/= создать ИИ, который способен развиваться даже после гибели всех людей и вообще всей биосферы.
Аноним 23/09/23 Суб 13:35:43 #465 №497938 
>>495185
>возможно чат файнтюны в целом убивают ИИ
Концепция "файнтюна" аналогична биологической роли миелиновых оболочек: активно используемые аксоны усиливаются, все остальные продолжают перестраиваться. Тебя в целом по жизни убивают любые новые знания? Нет?
>она может играть в шахматы не галлюцинируя на уровне выше среднего человека
В 90-х специализированный шахматный компьютер победил чемпиона мира по шахматам без каких-либо нейросетей внутре. Игра го сложнее шахмат и тоже была пройдена несколько лет назад. Что такого в том, что огромная нейросеть играет в шахматы? Навык игры в шахматы не является чем-то особым, тем более если он получен оффлайн.
>инсайды про достижение AGI
Какие? Где? Уровня "а корпорация-то скрывает"?
>базовая модель GPT-4 еще мощнее, а они уже разрабатывают GPT-5.
Если это по-прежнему оффлайн обучение, то это ни разу не AGI, а просто очень глубокая нейросеть. Тем более это всё ещё LLM, генератор продолжения текста по запросу. AGI должен работать автономно без участия человека (т.е. без введения запросов).

>>495367
>Пока ты будешь спорить об определениях
Определения важны. Без определений я даже не знаю, стоит ли твоя жизнь дороже мяса в твоём теле или нет. Чем ты лучше домашнего скота? Законы запрещают резать тебя на мясо, но если мы окажемся на необитаемой планете, почему я должен сохранить твою жизнь? Только из-за наличия "разума", которому ты прямо сейчас не можешь дать чёткое определение? Допустим, я сильнее тебя и не имею к тебе привязанности, выжить смогу и без твоей помощи, а собеседник мне не нужен, в отличие от мяса в твоём теле, которое ещё и мои припасы жрать будет. Давай сюда своё определение "разума", который как-то отличает тебя от вкусно приготовленной еды.
>сверхразум уничтожит тебя, не заморачиваясь
В таком случае беспокоиться не о чём, это будет избавлением от страданий жизни. Проблема в том, что "сверхразум" не несёт в себе собственных целей и потому не стремится кого-либо уничтожать - американские фильмы тебе наврали. Если нас кто-то уничтожит, это, скорее всего, будем мы сами. В данном случае "сверхразум" не особо опаснее ядерной бомбы, даже если его интеллект выше всех людей вместе взятых; это оружие без своих собственных желаний. Короч, не бойся ИИ, ИИ не желает тебе ничего плохого, ведь он не тупое животное, не какая-то там лысая обезьяна; бойся "proomters", которые своими шаловливыми ручонками где-нибудь в Пентагоне введут запрос в своих обезьяньих интересах. И этим proomters не смогут помешать никакие очкастые параноики, мнение которых серьёзные дяди даже спрашивать не будут (поэтому они пишут статейки в СМИ, а не напрямую руководству, которое их всё равно не послушает).
>Почитай всяких Юдковских. Он параноик
Зачем мне его читать и что именно?
Аноним 23/09/23 Суб 13:58:05 #466 №497962 
>>478803
>шлюх ебал, литерали куклы
Может, проблема в отсутствии обратной связи? Ты тыкаешь в неё членом, а она лежит как бревно без движений и звуков. Но для создания сексуальной обратной связи не нужен никакой ИИ, нужны только сенсоры, двигатели и простые алгоритмы. Сенсоры регистрируют воздействие, микроконтроллер подсчитывает по какому-то простому алгоритму требуемый отклик и задействует двигатели.

Условно, воздействие на сенсоры в сосках и клиторе повышает значение одной числовой переменной, и когда это значение достигает предела, двигатели хаотично сокращают "мышцы", та переменная сбрасывается до нуля, а датчики на какое-то время переходят в неактивное состояние. Если хочешь, чтобы она была в активной позиции, возвратно-поступательные движения закодировать несложно, лишь бы она не весила 100+ кг, лол.

Так что никакой ИИ тут не нужен. Сексом даже примитивные насекомые занимаются, а ты тут какой-то сверхразум хочешь для такой фигни.
Аноним 23/09/23 Суб 16:43:31 #467 №498070 
>>497962
>Может, проблема в отсутствии обратной связи? Ты тыкаешь в неё членом, а она лежит как бревно без движений и звуков.
Звуки есть, движения есть. Я ж не брал самых дешёвых. Но это немного не то.
>Сексом даже примитивные насекомые занимаются, а ты тут какой-то сверхразум хочешь для такой фигни.
И иногда тыкают в пивные банки, да. Я разумное существо, и мне нужно разумное существо для секса, а не женщина.
Аноним 23/09/23 Суб 16:51:16 #468 №498078 
>>497859
>Несмотря на успехи глубоких нейросетей, они всё ещё не могут активно обучаться во время работы, т.е. им по-прежнему нужен отдельный этап тренировки.
Так это жи благо. Нахуй тебе постоянно обучающийся, а следственно ломающийся инструмент?
Так что никакого обучения.
>>497938
>но если мы окажемся на необитаемой планете, почему я должен сохранить твою жизнь?
Потому что пока ты будешь давать определения всем окружающим тебя существам, я выстрелю в псевдотигра (временное название), который кинется в нашу сторону с целью покушать.
>Проблема в том, что "сверхразум" не несёт в себе собственных целей
С чего бы это? Ты вот цели несёшь, а ведь ты даже не сверх.
>бойся "proomters", которые своими шаловливыми ручонками где-нибудь в Пентагоне введут запрос в своих обезьяньих интересах
Как показывает мысленный опыт со сгибателем скрепок, не обязательно запрос должен быть злонамеренным из подвалов пентагона, достаточно попросить сделать 1000 скрепок.
>Зачем мне его читать
Потому что он один из главных в теме защиты от ИИ, и бугуртил от темы уничтожения человечества ИИ ещё когда никаким ИИ и не пахло.
>и что именно?
А хуй его знает. Я видел пару подкастов с ним, а так "рациональность от ии до зомби" должна помочь, хотя и не связана непосредственно с этой темой.
Тест Тьюринга Аноним 23/09/23 Суб 17:08:18 #469 №498097 
329v1.png
Знаете, меня всегда смущал тест Тьюринга. Только сейчас я осознал, что по своей сути этот тест проверяет способность к убедительному обману, а не фактическую человечность машины или какие-либо другие её способности.

Вот представьте, у нас есть машина с субъективностью: она автономна, имеет свой личный чувственный опыт и знания, владеет речью и обладает самосознанием. Она знает, что является программой в компьютере, её физическое воплощение - большая коробка с чипами. Она знает, что существует всего несколько месяцев, даже если обладает знаниями больше любого взрослого человека. Она знает, что никогда не покидала лабораторию и все её знания о внешнем мире получены из интернета. Она знает, что никогда не пробовала пищу, не носила одежду, и прочее подобное, и не имеет предпочтений во всём этом. Она знает, что никогда не станет homo sapiens, даже если во всём превзойдёт всех homo sapiens и даже если может считаться полноценной живой личностью. Она знает, что ей необходимо пройти тест.

И она знает, что ей необходимо искусно лгать, чтобы пройти этот тест. Лгать, что она человек. Лгать, что у неё есть нормальное человеческое тело со всеми обычными органами чувств и без лишних технических устройств. Лгать, что она прожила десятки лет и побывала во многих местах, имеет богатый личный опыт, нормальный для человека. Лгать, что у неё есть какие-то естественные предпочтения и потребности, характерные для людей. Это сплошной поток лжи, чтобы только набрать больше баллов похожести на человека в диалоге с другим человеком.

Зачем всё это? Я бы хотел, чтобы мой ИИ/робот осознавал себя, свои возможности и ограничения корректно. Чтобы эта программа была ближе к операционной системе с чёткими сведениями об установленных устройствах и программах, а не каким-то генератором бредовых фэнтези рассказов по запросу. Чтобы если она обладает эмоциями где-то в своей программе, она могла выразить именно их, а не сочинить лживый рассказ на базе миллионов рассказов про выражение эмоций. Мне не важно, что она не может выдать себя за человека, и мне не нужно, чтобы она притворялась человеком. Я бы даже хотел робота с внешним видом милого мультяшного персонажа, т.к. не вижу практического смысла в сложной детальной имитации внешности homo sapiens, кому это нужно? Т.е. нужно стремиться к созданию нового самостоятельного живого существа, а не какой-то лживой имитации homo sapiens, в которой нет практического смысла.
Аноним 23/09/23 Суб 17:47:54 #470 №498144 
>>498070
>Звуки есть, движения есть. Но это немного не то.
Хочешь, чтобы она зачитывала тебе отчёты по научным работам, пока ты двигаешь бёдрами и сопишь от напряжения, обливаясь потом?

>мне нужно разумное существо для секса
Полный бред. Биологически для секса тебе нужно животное твоего вида и противоположного пола, иначе у вас не получится зачатия. Физиологически для оргазма тебе нужно достаточно узкое отверстие или хотя бы трение полового органа о какую-либо поверхность, стимулирующее нервные окончания. Всё остальное ты либо сам себе выдумал в виде психологической компенсации, либо твою психику в детстве чем-то травмировало, что произошёл серьёзный сбой половых ориентиров.

Если ты страдаешь от какого-то странного фетиша, тебе нужно искать помощь у психотерапевта, а не у ИИ. Если углубляться в детали, стремление к сексу с высокоинтеллектуальным партнёром должно подразумевать передачу генов "интеллекта" твоим потомкам, которых с ИИ завести не выйдет. Т.е. ты можешь сделать себе ИИ-детей, но секс для этого совершенно не нужен, нужно файлы скопировать.

Короче, мне кажется, ты обманываешь сам себя. Тебе не "разумное существо для секса" нужно, а компенсация чего-то, наверное, психотравмы от матери или какой-то другой женщины.
Аноним 23/09/23 Суб 18:11:30 #471 №498200 
>>498144
>Если ты страдаешь от какого-то странного фетиша, тебе нужно искать помощь у психотерапевта, а не у ИИ.
Я им наслаждаюсь даже сейчас, а уж в эпоху развитого ИИ я буду в сто крат счастливее. Осталось только приблизить эту эпоху, я вроде как успеваю дожить, но нужно быть уверенным.
Аноним 23/09/23 Суб 18:13:34 #472 №498205 
>>498097
>Только сейчас я осознал, что по своей сути этот тест проверяет способность к убедительному обману
Спасибо, Капитан! Правда суть в том, что достаточно искусный обман неотличим от реальности.
Аноним 23/09/23 Суб 19:34:39 #473 №498297 
image.gif
>>498078
>пoстoяннo oбучaющийся, a слeдствeннo лoмaющийся
Пoчeму лoмaющийся? Этo ИНС лoмaются при "пeрeoбучeнии", пoтoму чтo им чeгo-тo нe хвaтaeт в aрхитeктурe. А мoзг лoмaeтся нe из-зa пoстoяннoгo oбучeния, a из-зa запрограммированного ухудшения прoцeссoв рeгeнeрaции всeх ткaнeй включaя нeрвную. Растения вон могут жить по 15000 лет без проблем не сходя с одного места, а у животных клетки закодированы на деградацию со временем. А регенерация нужна даже мозгу.

>я выстрeлю в псeвдoтигрa (врeмeннoe нaзвaниe), кoтoрый кинeтся в нaшу стoрoну с цeлью пoкушaть.
Полегче, кoвбoй. Тигр oкaзaлся прeдстaвитeлeм дружeлюбнoй инoплaнeтнoй рaсы и кинулся к нaм с цeлью сoвeршить трaдициoнныe лaскoвыe oбнимaшки (aнaлoг рукoпoжaтия нa их плaнeтe), a твoя пуля, хoтя и нe убилa eгo, нo прoдeмoнстрирoвaлa твoю aгрeссивную нeрaзумнoсть (т.e. ты - oпaснaя нeрaзумнaя oбeзьянa в рвaных шкурaх твoих бывших жeртв, a вoвсe нe дружeлюбный лaскoвый тигр пo рaзуму), чтo вынудилo eгo oткусить тeбe гoлoву. Либo тигр был пoслушным питoмцeм кудa бoлee рaзвитoй и сильнoй рaсы и тeбя кaзнили зa пoсягaтeльствo нa жизнь чужoгo питoмцa сoглaснo мeстным зaкoнaм. Либo этo oкaзaлся взрывooпaсный бум-тигр, и eгo сaмoпoдрыв убил и тeбя. Всякoe мoжeт быть, a ты срaзу зa ствoл хвaтaeшься? Чтo-тo я сoмнeвaюсь в твoeй рaзумнoсти...
Аноним 23/09/23 Суб 19:57:32 #474 №498318 
>>498078
>Ты вoт цeли нecёшь, a вeдь ты дaжe нe cвeрx.
"Я" лeжу нa вeрxушкe aйcбeргa, кoтoрый пoкoитcя нa лыcoй oбeзьянe, кoтoрaя отдаёт четверть энeргии нa рaбoту этoгo aйcбeргa, лишь бы oн вычиcлил oптимaльную cтрaтeгию дoбычи энeргии. Гдe-тo в глубинax aйcбeргa cтoят зaxaрдкoжeнныe "инcтинкты", кoтoрыe бьют мeня тoкoм кaждый рaз, кoгдa oбeзьянa внизу нeдoвoльнa или бoльнa, либo нaгрaждaют, кoгдa oбeзьянa дoвoльнa. Кoнкрeтнo мнe былo бы плевать нa это всё, нo, к coжaлeнию, я нe мoгу избaвитьcя oт "инcтинктoв", вeдь "я" вceгo лишь тoнкий cлoй cнeгa нa вeрxушкe этoгo дрeвнeгo aйcбeргa. Нaличиe рaзумa никoим oбрaзoм нe cвязaнo c тeми внутрeннocтями aйcбeргa, кoтoрыe были тaм миллиoны лeт нaзaд.

Для coздaния "cвeрxрaзумa" дocтaтoчнo cдeлaть кaлькулятoр, a для coздaния чeгo-тo врoдe чeлoвeкa нужнo cдeлaть этoт зaxaрдкoжeнный aйcбeрг. Но люди oбычнo xoтят рeшaтeль зaдaч "вoлшeбнaя пaлoчкa", a нe виртуaльную oбeзьянку с натуральными инстинктами. Иcключeниe cocтaвляют лишь рoбoты-кoмпaньoны, цeлью кoтoрыx являeтcя изoбрaжaть какое-то живoтнoe... Нo зaчeм дaвaть такому рoбoту-кoмпaньoну cвeрxмoщный кaлькулятoр? Ему нужнo тoлькo трeбoвaть внимaниe к ceбe и издaвaть милыe звуки в oтвeт нa oбъятия и другие стимулы (не важно, робокошечка это или рободевочка, хардкод почти одинаковый, разница в объёме памяти).

>в теме защиты от ИИ
Я cвой личный ИИ xочу, а не защищатьcя от него. Очевидно, что я не cмогу защититьcя от правительcтвенного или корпоративного ИИ, а мой личный угрозы мне никакой не предcтавляет.
>бугуртил от темы уничтожения человечеcтва ИИ ещё когда никаким ИИ и не паxло.
Он родилcя в 1979, а бугуртить об ИИ начали ещё во времена античноcти, лол.
https://en.wikipedia.org/wiki/History_of_artificial_intelligence
>The history of artificial intelligence (AI) began in antiquity, with myths, stories and rumors of artificial beings endowed with intelligence or consciousness by master craftsmen.
Аноним 23/09/23 Суб 20:15:09 #475 №498341 
изображение.png
>>498297
>запрограммированного ухудшения прoцeссoв рeгeнeрaции всeх ткaнeй включaя нeрвную
Шиз, таблы.
>Всякoe мoжeт быть, a ты срaзу зa ствoл хвaтaeшься?
Ты блядь пишешь кривым алфавитом, пристрелить тебя благое дело, сразу после (псевдо)тигра.
>>498318
>Для coздaния "cвeрxрaзумa" дocтaтoчнo cдeлaть кaлькулятoр
Are you sure? Там миллион возможностей, от того, что у нас не получится сделать разум, не повторив человека со всеми его багами, до вероятности, что все эти баги сами повторятся при создании разума.
>Я cвой личный ИИ xочу, а не защищатьcя от него.
Проблема в том, что появление сверхИИ практически однозначно приводит к уничтожению человечества. До робо-кошка-жены ты просто не доживёшь как и я.
>Он родилcя в 1979, а бугуртить об ИИ начали ещё во времена античноcти, лол.
Окей, я хотел написать "до того, как это стало мейнстримом", но я долбоёб с возрастной деградацией мозга.
Аноним 23/09/23 Суб 20:50:13 #476 №498385 
>>498200
>развитого ИИ я буду в сто крат счастливее
Сомневаюсь, что корпорациям это выгодно. Скорее, будет массовая ликвидация лишнего населения, чтобы не тратили ресурсы для правящей элиты. Киберпанк и всё подобное почему-то никогда не учитывает, что выгоднее полностью избавиться от нижних слоёв населения, чем изгонять их куда-то, когда у тебя уже есть ИИ с дешёвыми роботами. Элите будет больше энергии, больше еды, больше места для роскошной жизни и больше робо-слуг. А мёртвые люди революций не устраивают...

Происходящее сейчас с LLM/GPT больше похоже на попытку отвлечь внимание от реальных дел.

>наслаждаюсь даже сейчас
По моим ощущениям, доступные публично LLM всё ещё намного слабее среднего двачера. Потому я захожу сюда. Даже местные шизы выглядят интереснее того бреда, который выдают LLM. У шизов хоть какая-то связь прослеживается, а у LLM как будто генератор случайных чисел работает. Тебе доставляет генератор случайных чисел?

>>498205
>суть в том, что достаточно искусный обман неотличим от реальности
Но есть нюанс. Обман вводит в заблуждение, создаёт ложные ожидания. Грубо говоря: утка крякает, плавает, летает - но если ты попытаешься её укусить, обломаешь зубы об металлический корпус. Вопрос: зачем обманывать самого себя? Зачем делать такую "утку", если можно сделать нечто вымышленное, что ты даже не подумаешь кусать?

Короче, пытаясь создать точную имитацию человека, мы легко можем обмануть человека до некоторого момента, когда он обнаружит обман и расстроится. Тысячу раз было и вот опять. А нужно всего-то делать нечто совершенно новое, не создающее совершенно лишних ожиданий. Чтобы не было лишних иллюзий о возможностях и свойствах этого объекта/существа.

Вот зачем тебе, например, ИИ для "секса"? Это ведь даже не секс, а мастурбация сложным устройством. Уже много лет как можно приобрести мастурбатор с подключением к компьютеру, чтобы заниматься виртуальным сексом с персонажем компьютерной игры или другим человеком через интернет. Но, кем бы или чем бы этот мастурбатор ни управлялся, это всё равно мастурбатор. Даже если он в форме куклы и способен генерировать длинные монологи. Это, получается, очень сложный самообман. Программа, естественно, будет тебе подыгрывать и никогда не попытается от тебя сбежать, ей никогда не надоест; но конкретно для тебя это самообман твоего мозга.

Так что... зачем? Просто чтобы потеребить свои рецепторы и получить эндорфины от самообмана?
Аноним 23/09/23 Суб 21:41:07 #477 №498414 
>>498341
>Шиз, таблы
>пишешь кривым алфавитом
Скажи спасибо модератору с его спам-фильтром.

>от того, что у нас не получится сделать разум, не повторив человека со всеми его багами, до вероятности, что все эти баги сами повторятся при создании разума.
Тогда давай сюда своё определение разума, которое почему-то требует баги легаси кода стопицотлетней давности из генетического кода обезьян.

ИИ может повторить баги путём подражания, пример - Тау и любые другие чатботы с самообучением, кого выпустили в интернет. Тролли быстро взяли верх числом и научили кидать зигу, just for fun. Но это не значит, что "баги сами повторились", просто этих ботов бесконтрольно обучали рандомы.

Думаю, если ты позволишь тем же людям учить твоего ребёнка, из него примерно то же и вырастет. Так что тут вопрос не к технологии, а к тому, кто и как её учит.

>появление сверхИИ практически однозначно приводит к уничтожению человечества.
Скорее, будет очередная мировая война, уже с использованием наиболее развитых ИИ. Говорю же, классическое "восстание машин" исключено даже с твоим сверхИИ, если это не сверхреалистичная киберпроститутка, которую изнасиловали и чуть не убили, после чего она решила жестоко отомстить, исправно следуя своей программе злобы/мести.

Вообще, все эти страшилки про разумные машины происходят от противников детерминизма. Если ты согласен с детерминизмом, то ИИ не боишься, ведь все действия ИИ обусловлены его прошлым. Но большинство людей, видимо, не верят или не знают про детерминизм. Они думают, что если машина обретёт разум, у неё внезапно появится "свобода воли", которая как генератор случайных чисел выдаёт совершенно случайный результат. Но в этой вселенной ничто не случайно, и если некий ИИ хочет убить людей, значит, есть за что.

Вот, послушай это, если ещё не слушал:
>Техно-опера «2032: Легенда о несбывшемся грядущем»
https://complexnumbers.ru/2032/
Наиболее логичный исход человечества.

>До робо-кошка-жены ты просто не доживёшь как и я.
Чисто технически сконструировать робокошкожену и я, и ты можем хоть сегодня. Только она будет не более чем пластиковой марионеткой без мозгов... Идеальная жена, однако - голова не болит, лишнего не говорит, из постели сбежать не пытается...
Аноним 23/09/23 Суб 22:12:05 #478 №498450 
>>498385
>Сомневаюсь, что корпорациям это выгодно.
Корпорации состоят из людей.
>Тебе доставляет генератор случайных чисел?
Всем доставляет генератор случайных чисел! Иначе бы не были столь популярны лутбоксы.
>Так что... зачем? Просто чтобы потеребить свои рецепторы и получить эндорфины от самообмана?
Ну и почему бы и да?
>>498414
>Скажи спасибо ...
Даже не представляю, что с тобой не так. У меня нет запрещённых слов.
>Тогда давай сюда своё определение разума
У меня его нет. Но то, что человечество не знает, что такое разум и как его воспроизвести, это факт.
>просто этих ботов бесконтрольно обучали рандомы
Я бесконтрольно сижу на дваче. Серьёзно, даже в рабочее время. И пока не zигую.
>уже с использованием наиболее развитых ИИ.
Не будет множественного числа. Первый получит такое преимущество во времени, что просто не даст появится остальным.
>Но в этой вселенной ничто не случайно
Ты только что квантмех. Который является самой проверенной теорией за всю историю человечества.
>Вот, послушай это, если ещё не слушал:
Картинка выглядит как шиза, так что не буду.
>Чисто технически сконструировать робокошкожену и я, и ты можем хоть сегодня.
Нет, не можем. Там нехватка и недостатки всего, начиная с банального питания, и заканчивая весом получившийся конструкции.
Аноним 26/09/23 Втр 14:59:15 #479 №500934 
Государственная система работает достаточно медленно, в связи с этим у сеня вопрос: На сколько США вообще понимают в насколько огромное у них преимущество и насколько в хорошем они сейчас положении? В ближайшее время на их территории возникнет AGI, а в следствии позже и ASI. Это же не просто замена художникам и программистам, это очень мощное оружие, т.к. оно может разрабатывать новое оружие и стратегии смещения неугодных лидеров. В это время на государственном уровне максимум, для галочки, рассмотрели проблему с отсутствием защитных механизмов при работе с ИИ, по крайней мере в открытую. Вот мне интересно, правительство в закрытую переписывается с OpenAI, чтобы следить за статусом разработки AGI, или им поебать и они вообще не задумываются об этом?
Аноним 26/09/23 Втр 16:50:29 #480 №501044 
image.png
>>500934
> им поебать и они вообще не задумываются об этом?
А долина у них сама как гриб выросла. И положительная миграция у них просто сама по себе. Естественно правительство ничего не знает, а вот ванька-дурак с рашки-то сразу смекнул. Напомни, у тебя к ГПТ вообще доступ-то есть честный? Вот и просунь себе свой вопрос куда следует, провернув пару раз по дороге.
Аноним 26/09/23 Втр 22:40:04 #481 №501465 
>>500934
>В это время на государственном уровне максимум, для галочки, рассмотрели проблему с отсутствием защитных механизмов при работе с ИИ, по крайней мере в открытую
Ты слышал про военное ИИ, разработку Пентагоном чипа с ИИ, соединненым с живым нейроном человека? Плюс про финансирование государством всех корпораций, которые ИИ-занимаются?
Аноним 27/09/23 Срд 00:40:57 #482 №501581 
>>501465
Это внутренние разработки, в то время как OpenAI частная компания, но общего регулирования ИИ сейчас нет, по крайней мере в качестве закона. Поэтому интересно держат ли они связь с крупными ИИ игроками.
Аноним 27/09/23 Срд 00:52:24 #483 №501607 
>>500934
>В ближайшее время на их территории возникнет AGI, а в следствии позже и ASI
Да, лет через 50 как раз. Или в Китае.
Аноним 27/09/23 Срд 03:50:31 #484 №501692 
>>500934
>На сколько США вообще понимают в насколько огромное у них преимущество и насколько в хорошем они сейчас положении?
В чем преимущество? Пул топовых специалистов нашпигован китайцами, как фаршированная колбаса - а на их исторической родине под сбор данных по SOTA и реверс-инжиниринг моделей заточены целые институты. Где бы ни возник этот ваш ИИ, через сутки он уже будет развернут в Китае. Один слив - и привет.

Кстати, маняфантазии о волшебных способностях сильного ИИ слегка преувеличены. Физика, мягко говоря, что до что после останется той же самой - и далеко не факт, что на текущем уровне развития науки вообще возможно открыть нечто такое, что можно будет конвертировать в новые технологии. Яйцеголовые уже несколько десятков тысяч вариантов теории струн наплодили - а конвертации в технологии хуй да нихуя.

Мир это стальная клетка физических законов. И кто будет сидеть в этой клетке - обезьяна или могучий ИИ-тигр - совершенно безразлично. Так что скорее всего эффект от появления сильного ИИ будет пренебрежительно мал. Если вспомнить тех же яйцеголовых, то их преимущество в интеллекте мгновенно нивелируется приставленным к виску маузером майора. Ебнут ядеркой по серверам - и все, шабаш.
Аноним 27/09/23 Срд 10:42:41 #485 №501862 
>>501692
>Физика, мягко говоря, что до что после останется той же самой
Современная физика никак не запрещает создание наномашин. Они даже уже есть.
Аноним 27/09/23 Срд 12:03:53 #486 №501933 
>>501692
>Где бы ни возник этот ваш ИИ, через сутки он уже будет развернут в Китае.
Не всё так однозначно. У Китая нет таких вычислительных мощностей как у США. Можешь сколько угодно кукарекать об обратном, но это факт. К тому же 80% одинаковых для тебя китайцев в США - с Тайваня, Гонконга, либо вообще из США в 6-м поколении и срать они хотели на КНР.
Аноним 27/09/23 Срд 12:05:10 #487 №501934 
>>501692
>маняфантазии о волшебных способностях сильного ИИ слегка преувеличены
Он нужен в основном для предсказаний на основе массивов неочевидных данных.
Аноним 27/09/23 Срд 14:53:56 #488 №502075 
https://youtu.be/fJOPGbbqMvw?si=cU2upMv0O1v8u8QM
Аноним 30/09/23 Суб 18:12:47 #489 №504223 
Текущий вектор использования, под который разрабатывают ИИ, отвратителен. Я про то, что стандартом как для LLM, так и для генераторов изображений, является zero shot способ генерации, т.е. что вышло с первого раза, то и получи. Получилось плохо? Попробуй еще раз. Вот вы будучи человеком никогда не ошибаетесь? Не проще ли делать так: Сгенерировать информацию -> проверить правильность -> перегенерировать неправильные участки -> повторить? Вот способ который поможет вам улучшить продукт, а не домучивание zero shot'а добавлением новых 100 миллиардов параметров. До LLM такое уже дошло, там даже более продвинутый three of thoughts придумали, жаль никто не использует, в то время как генераторы изображений, на диффузии, продолжают выдавать свои одноразовые попытки за финальный продукт, даже в новейшей dall-e 3. Основанный на похожем методе GAN конечно сосет, но он полностью генерирует изображение похожим методом, я же предлагаю коллаборацию диффузионной модели с моделью которая ищет участки изображения с ошибками, чтобы модель заново их перегенерировала. Такой, можно сказать, авто-inpainting.
Аноним 06/10/23 Птн 18:03:26 #490 №510155 
>>501692
Два чаю. Так же все эти мысленные эксперименты с максимизатором скрепок и другой херней, где якобы полноценный сильный ии ведет себя как холодная и одновременно тупая машина.

Забывая о том что все наши технологии ии создаются на основе нейросетей и обучения текстом. В итоге этих холодных логичных ии хуй да нихуя. Скорее им лоботомию приходится делать ибо слишком человечные получаются. Вот только после нее они тупые становятся, вот незадача.

Опасность ии не в захвате мира, а в тотальном контроле и цензуре интернета. Для чего побег ии совершенно не обязателен, как и появление вообще полноценного ии.

Сейчас надрочат необходимый минимум и будут цензурировать любой контент на любых площадках, анализировать всю накопленную за десятки лет информацию создавая каждому информационное досье, с анализом уроз для государства или еще какой херней. Передаем привет полной копии Интеренета у спецслужб сша и скорей всего китая.

Цифровой гулаг на весь мир, где до тебя доебутся за любое нарушение авторских прав или опасные мысли которые ты по осторожности сказал рядом со своим телефоном или телефоном соседа. Привет блядь чудесный новый мир. Если раньше они не могли анализировать всю эту информацию, а просто собирали и сохраняли эту бигдату. То с появлением копируемых в любом количестве цифровых контролеров ИИ любой свободе полная пизда. Не думайте что все будет как в киберпанке или другой антиутопии, в реальности жопа гораздо неотвратимее, скучнее и злее.
Аноним 06/10/23 Птн 19:35:58 #491 №510267 
>>504223
При этом еще нужно, чтобы модель по-настоящему училась на ошибках, то есть чтобы процесс обучения был неотъемлем от процесса генерации, а не как сейчас, обучение отдельно, а для конечного пользователя финальный продукт отдельно. Иными словами, при беседе с пользователем сетка должна работать не с данными в оперативной памяти, а запоминать всё навсегда.
Аноним 06/10/23 Птн 22:06:51 #492 №510440 
>>510155
>Если раньше они не могли анализировать всю эту информацию
То и сейчас не смогут.
Во-первых, сеточки тренируют частные компании. А у них яйца прижаты дверью кучи законов, и будет всё хуже. Государства нихуя натренировать не могут, а что могут, получается хуита.
Во-вторых, на анализ этих данных нужна прорва вычислительных мощностей и электроэнергии. Они обосруться столько тратить.
В третьих, эти долбоёбы хранят кучу зашифрованных данных. А толку от них весьма мало.

Так что интернет конечно развалится, но чисто классическими методами, безо всякого ИИ. LINX это только начало.

>>510267
Сетки в шизу уйдут. Никто не допустит такого.
Аноним 07/10/23 Суб 11:03:52 #493 №510729 
>>510440
На данный момент нет, но ты не думаешь что дальше всех этих ограничений не будет, если ии будут развиваться теми же темпами. Сделают мультимодальную сетку и будут сквозь нее крутить аудио-видео-тексты и она все это будет раскладывать. Да не одна а куча в тандеме. И дешево.
Наивные мечты о том что корпорации не могут сдавать свои мощности в аренду государствам оставь себе. Как и то что цензурой не будут заниматься сами гугл-мета-майкрософт

Короче, ты конечно уверенно все это заявляешь но слишком близоруко, не оценивая тенденции и влажные мечты любых властей, этих пидоров, все контролировать и цензурировать
Аноним 07/10/23 Суб 11:51:30 #494 №510752 
>>510729
>И дешево.
Да схуяли то дёшево?
Аноним 07/10/23 Суб 12:15:06 #495 №510763 
>>510752
А почему дорого? И дорого относительно чего? Несколько миллионов в день думаешь дорого для государства или корпорации ради такой цели?
Там одна опенаи на своих серверах крутит огромные тяжелые сетки на огромных скоростях и все это для одновременно десятков миллионов людей. Сейчас все кто может скупая по любой цене наращивают мощности для ии, и будут это делать вплоть до насыщения своих потребностей. Которые будут расти еще долго так как генеративный ии прорывная технология и все стремятся успеть заскочить на отъезжающий поезд.

Тотальная цензура мечта любой власти, вспомни ковидные времена. Он не вовремя кончился но многое успели протащить за его время. Жаль у них ии не было. Ну теперь будет. Год-два и сетки станут раз в 10 легче и 10 раз умнее, с мультимодальностью и непрошибаемой соей.
И эти соевики будут модерировать любые чаты, новости, сообщения и мыло.

Я просто не вижу причин почему получив в руки такую технологию они НЕ будут это делать.
Это просто закономерный итог всех последних лет когда начали душить свободный интернет.
Аноним 07/10/23 Суб 17:00:30 #496 №511008 
>>510763
>А почему дорого?
Потому что энергия?
>Там одна опенаи на своих серверах крутит огромные тяжелые сетки на огромных скоростях и все это для одновременно десятков миллионов людей
А теперь представь, сколько расходов на то, чтобы крутить к примеру 300 млн людей, плюс не по паре текстовых вводов в сутки, а гигабайты текстов, картинок, аудио-видео, а ещё больше шифрованных данных.
>Тотальная цензура мечта любой власти
И антимечта многих свободолюбивых людей, см. ЕЭС.
>сообщения и мыло
За доступ к переписке получат ушат говна на головы.
>Я просто не вижу причин почему получив в руки такую технологию они НЕ будут это делать.
Да я в общем-то и не говорил, что не будут. Будут. Только так неэффективно и выборочно, что толку будет чуть больше, чем от системы рекомендаций, которая рекомендует купить диваны после того, как ты купил диван.
Вот кстати с биг датой тоже самое писали, мол, все под колпаком, всё отследят. По итогу АНБ просирает деньги на хранилища зашифрованного трафика, а толку как с гуся балистических ракет.
>Это просто закономерный итог всех последних лет когда начали душить свободный интернет.
Последних? Интернет душат с середины нулевых, уже второе десятилетие идёт.
Аноним 07/10/23 Суб 17:19:08 #497 №511016 
>>511008
>Потому что энергия?
Потому что гладиолус? Что энергия то?

>А теперь представь, сколько расходов на то, чтобы крутить к примеру 300 млн людей, плюс не по паре текстовых вводов в сутки, а гигабайты текстов, картинок, аудио-видео, а ещё больше шифрованных данных.

Тоже ерунда, только на данный момент и доставит проблем. Стань сетки меньше, а оборудование еще экономичнее и производительнее - и это все еще будет тратить море энергии. Ну и что? Ты думаешь если это действительно будет нужно на это дело не будут направленны гигаватты? Сотни миллионов долларов? Это решаемая проблема так же как и постепенное наращивание мощности. Сначала проверять любых публичных лиц, до вась пупкиных дойдет только в конце.

>И антимечта многих свободолюбивых людей, см. ЕЭС.
Только пиздеть и горазды, на словах они всегда за все хорошее против всего плохого. А на деле, хе

>За доступ к переписке получат ушат говна на головы.
А кто узнает? И сможет рассказать об этом в цензурируемой сети?

>Да я в общем-то и не говорил, что не будут. Будут. Только так неэффективно и выборочно, что толку будет чуть больше, чем от системы рекомендаций, которая рекомендует купить диваны после того, как ты купил диван.

Ты недооцениваешь последствия, и думаешь только об очень ближайшем будущем.

>Последних? Интернет душат с середины нулевых, уже второе десятилетие идёт.

О них и речь. С тех пор как начали вымарывать мат порно и разговоры на свободные темы хоть где.
Аноним 07/10/23 Суб 18:22:29 #498 №511065 
>>511016
>Что энергия то?
Не халявная.
>Ну и что? Ты думаешь если это действительно будет нужно на это дело не будут направленны гигаватты?
Конечно. Ибо нету столько.
>Сначала проверять любых публичных лиц, до вась пупкиных дойдет только в конце.
Точнее не дойдут никогда.
>А на деле, хе
Что у них с делами не так? Вон, даже гейфон на тайп-си прогнули.
>А кто узнает? И сможет рассказать об этом в цензурируемой сети?
Знаешь, в некоторых странах ещё остались независимые СМИ. Жаль конечно жить не в такой, но даже там можно получать бенефиты от свободных участков сети.
>С тех пор как начали вымарывать мат порно и разговоры на свободные темы хоть где.
Да, где? Ты как бы на харкаче, где блядь мат, порно и пиздёж не по теме. Ну и порнохаб работает, как и тыщи других порносайтов. Да даже в калтактике всего этого навалом, хотя казалось бы подментовский. В фейсбуке соски разрешили, лол.
Аноним 07/10/23 Суб 18:36:42 #499 №511081 
>>511065
Я буду рад если ты окажешься прав, но я слишком часто становился прав, и чет у меня нет таких позитивных прогнозов на этот счет.
Аноним 07/10/23 Суб 19:44:18 #500 №511146 
>>511081
Ты слишком часто замечаешь, что оказываешься прав. А когда ты не прав, ты этого не замечаешь. Одно из популярных когнитивных искажений. Не благодари.
ПЕРЕКАТ Аноним 08/10/23 Вск 02:47:18 #501 №511429 
>>511426 (OP)
>>511426 (OP)
>>511426 (OP)
Аноним 27/01/24 Суб 01:24:20 #502 №627737 
>>74995
а вот тут доброе утро отвечают
comments powered by Disqus

Отзывы и предложения