Сохранен 615
https://2ch.hk/pr/res/2484578.html
24 декабря Архивач восстановлен после серьёзной аварии. К сожалению, значительная часть сохранённых изображений и видео была потеряна. Подробности случившегося. Мы призываем всех неравнодушных помочь нам с восстановлением утраченного контента!

НЕЙРОНОЧКИ И МАШОБ ТРЕД №49 ai /ai/

 Аноним 08/10/22 Суб 22:23:52 #1 №2484578 
16519898693662.mp4
16519898693621.mp4
16519898693500.mp4
Очередной тред про хипстерские технологии, которые не работают

Я ничего не понимаю, что делать?
Без петросянства: смотри программу стэнфорда CS229, CS231n https://see.stanford.edu/Course/CS229 (классика) и http://cs231n.stanford.edu/ (введение в нейроночки) и изучай, если не понятно - смотри курсы prerequisites и изучай их. Как именно ты изучишь конкретные пункты, типа линейной алгебры - дело твое, есть книги, курсы, видосики, ссылки смотри ниже.

Почему такой фокус на нейронки?
Потому что остальные чистят вилкой данные в банках с помощью LGBTboost и им некогда предлагать обновления в шапку

Где узнать последние новости?
https://www.reddit.com/r/MachineLearning/
http://www.datatau.com/
https://twitter.com/ylecun
На реддите также есть хороший FAQ для вкатывающихся

Какая математика используется?
В основном линейная алгебра, теорвер, матстат, базовый матан и matrix calculus

Как работает градиентный спуск?
https://cs231n.github.io/optimization-2/

Почему python?
Исторически сложилось. Поэтому давай, иди и перечитывай Dive into Python

Можно не python?
Никого не волнует, где именно ты натренируешь свою гениальную модель. Но при серьезной работе придется изучать то, что выкладывают другие, а это будет, скорее всего, python, если работа последних лет

Что почитать для вкатывания?
http://www.deeplearningbook.org/
Николенко "Глубокое обучение" — на русском, есть примеры, но меньше охват материала
Франсуа Шолле — Глубокое обучение на Python
https://d2l.ai/index.html
Все книги и статьи фактически устаревают за год.

В чем практиковаться нубу?
http://www.deeplearning.net/tutorial/
https://www.hackerrank.com/domains/ai
https://github.com/pytorch/examples
https://github.com/ChristosChristofidis/awesome-deep-learning#tutorials

Где набрать первый самостоятельный опыт?
https://www.kaggle.com/ | http://mltrainings.ru/
Стоит отметить, что спортивный deep learning отличается от работы примерно так же, как олимпиадное программирование от настоящего. За полпроцента точности в бизнесе борятся редко, а в случае проблем нанимают больше макак для разметки датасетов. На кагле ты будешь вилкой чистить свой датасет, чтобы на 0,1% обогнать конкурента.

Где работать?
https://www.indeed.com/q-deep-learning-jobs.html
Вкатывальщики могут устроиться программистами и дальше попроситься в ML-отдел

Есть ли фриланс в машобе?
Есть, https://www.upwork.com/search/jobs/?q=machine+learning
Но прожить только фриланся сложно, разве что постоянного клиента найти, а для этого нужно не быть тобой

Где посмотреть последние статьи?
http://www.arxiv-sanity.com/
https://paperswithcode.com/
https://openreview.net/
Версии для зумеров (Килхер): https://www.youtube.com/channel/UCZHmQk67mSJgfCCTn7xBfew

Количество статей зашкваливающее, поэтому все читают только свою узкую тему и хайповые статьи, упоминаемые в блогах, твиттере, ютубе и телеграме, топы NIPS и прочий хайп. Есть блоги, где кратко пересказывают статьи, даже на русском

Где посмотреть must read статьи?
https://github.com/ChristosChristofidis/awesome-deep-learning#papers
https://huggingface.co/transformers/index.html
То, что обозревает Килхер тоже зачастую must read

Где ещё можно поговорить про анализ данных?
http://ods.ai/

Нужно ли покупать видеокарту/дорогой пека?
Если хочешь просто пощупать нейроночки или сделать курсовую, то можно обойтись облаком. Google Colab дает бесплатно аналог GPU среднего ценового уровня на несколько часов с возможностью продления, при чем этот "средний уровень" постоянно растет. Некоторым достается даже V100.
Иначе выгоднее вложиться в GPU https://timdettmers.com/2019/04/03/which-gpu-for-deep-learning/ Заодно в майнкрафт на топовых настройках погоняешь

Когда уже изобретут AI и он нас всех поработит?
На текущем железе — никогда, тред не об этом

Кто-нибудь использовал машоб для трейдинга?
Огромное количество ордеров как в крипте так и на фонде выставляются ботами: оценщиками-игральщиками, перекупщиками, срезальщиками, арбитражниками. Часть из них оснащена тем или иным ML. Даже на швабре есть пара статей об угадывании цены. Тащем-то пруф оф ворк для фонды показывали ещё 15 лет назад.
Так-что бери Tensorflow + Reinforcement Learning и иди делать очередного бота: не забудь про стоп-лоссы и прочий риск-менеджмент, братишка

Список дедовских книг для серьёзных людей:
Trevor Hastie et al. "The Elements of Statistical Learning"
Vladimir N. Vapnik "The Nature of Statistical Learning Theory"
Christopher M. Bishop "Pattern Recognition and Machine Learning"
Взять можно тут: http://libgen.io/

Напоминание ньюфагам: немодифицированные персептроны и прочий мусор середины прошлого века действительно не работают на серьёзных задачах.
Аноним 08/10/22 Суб 22:24:15 #2 №2484579 
Подскажите, можно ли как-то проскочить джуновый уровень, и вкатиться сразу где-то на уровень миддло плюс?
Учу ml, работаю жабо-разрабом. Супер интересно перестать перекладывать джейсончики и хочется начать крутить нейроночки уже на работе, но так не хочется терять свои 300кк/сек

Хватит ли задрочить собесы? Сколько нужно нарезать проектов на каггле?
Аноним 09/10/22 Вск 15:06:27 #3 №2484871 
>>2484578 (OP)
>Почему такой фокус на нейронки?

Вот я хочу научить чему-нибудь полезному неигровых персонажей в компьютерной игре. Но мне нужен не просто случайный набор действий, а понятная, контролируемая система, которую можно развивать (имею в виду, как любую программу - есть код, ты его пишешь, читаешь и понимаешь его смысл). Пришёл к выводу, что нейронки не могут в этом помочь, т.к. они не объясняют свои решения. Что толку от перемножения матриц, если это всё абстрактные числа?

Т.е. пришёл к выводу, что мне подходит только
https://en.wikipedia.org/wiki/Rule-based_system
Но забивать тонны if-else вручную оказалось весьма сложной задачей, учитывая то, что я понятия не имею, что мне вообще нужно получить - не знаю, какое поведение мне следует закладывать. Было бы лучше, если бы алгоритмы сами находили подходящие правила из набора заданных условий, а я бы эти правила мог прочитать и понять (т.е. это не могут быть веса нейронов).

Очевидно, не я один к такому пришёл:
https://en.wikipedia.org/wiki/Rule-based_machine_learning
Но возникает вопрос, где об этом найти какую-нибудь информацию, ну, хотя бы из любопытства?

Сам я думаю попробовать генетические алгоритмы - если правило А даёт плохой результат, вносим в него модификации и получаем новое правило Б, повторяем до наиболее удачного правила (не обязательно идеального). Можно присвоить всем правилам веса - как веса у нейронов - и регулировать их по результатам деятельности персонажа. Но, боюсь, что правила быстро выйдут из-под контроля - потеряют человекочитаемость. Хотя важный плюс - начальный набор правил легче установить вручную, в отличие от рандомных весов в огромной нейросети.


ИМХО, мне кажется это куда более важным направлением, чем любые нейро- технологии. Нейронки подобны обычному органическому мозгу - это воплощение хаоса, в котором невозможно разобраться. Мы создали компьютеры, чтобы они точно решали задачи по строгим логическим правилам. Так зачем мы симулируем первобытный хаос в виде нейронок? Не проще тогда взять обычный мозг и воткнуть в него электроды, чтобы он решал задачи вместо точного и логичного компьютера, раз мы не стремимся к точности и логичности? Ну, или вырастить нейроны в пробирке, если кого-то вдруг беспокоит этичность использования готового мозга. На компьютерах нейроны симулировать - всё равно что в уме длинные числа перемножать - извращение и кощунство.
Аноним 09/10/22 Вск 15:32:36 #4 №2484892 
>>2484871
>начальный набор правил легче установить вручную
Приведу чуть более конкретный пример.

В контексте игры персонаж должен обладать каким-то конкретным поведением, это очевидно. Классический алгоритм мы забиваем вручную на любом императивном языке программирования, чтобы персонаж делал конкретные действия конкретным образом. Но такой код не будет изменяться сам - обычно именно это и нужно, но это не мой случай.

Нейросети в своей основе позволяют персонажу сформировать поведение путём считывания миллионов образцов поведения. Но где взять образцы поведения, если у нас нет готового персонажа? Да ещё и такие, чтобы не было лишней информации (шума). Т.е. выходит, что мы не можем задать начальное состояние нейросети так, как мы хотим, мы можем только закинуть случайных чисел и надеяться на то, что нейросеть сформирует поведение, близкое к желаемому. Мы можем прикрутить к этому генетические алгоритмы и спустя миллионы проб и ошибок получим нечто близкое к желаемому.

Но почему бы не совместить приятное с полезным? Написать базовые правила вручную, а дальше разрешить правилам меняться по ситуации, чтобы система могла сама создавать новые и удалять лишние правила, сортировать правила по значимости и эффективности и таким образом оптимизировать свою работу, опираясь на заложенные нами изначальные пожелания. В идеале, новые правила, созданные системой автоматически, тоже будут нам понятны, но даже в худшем случае мы можем хотя бы контролировать начальные правила.

С нейросетями это, насколько я знаю, невозможно, потому что числа на весах нейронов не несут в себе чёткого смысла, смысл есть только на входах и выходах, но не в скрытых слоях. Поэтому нейросети по сей день не показали ничего интересного, а вся работа с ними - перетряска чисел случайным образом. Меня интересуют альтернативы и что об этих альтернативах известно. А то сейчас слышно только о генераторах случайно упорядоченной информации на основе миллионов образцов - картинок, голоса, текста - но всё это не имеет отношения к моей задаче, ведь у меня нет и не может быть образцов (как не было примера для подражания у первобытных людей...).
Аноним 10/10/22 Пнд 13:09:34 #5 №2485525 
>>2484578 (OP)
Сап анончики, а может кто-то учебники по матану посоветовать ?
Я только вкатываюсь, базис программирования доучиваю, по бесплатному курсу CS50, хочу в нейронки пиздец, пол жизни дрочу на них.
Алсо хочу спросить, стоит ли работать в каком-нибудь вебе или другом направлении перед этой сферой ? Чисто для опыта работы.
Аноним 10/10/22 Пнд 13:12:26 #6 №2485527 DELETED
>>2484578 (OP)
Бампану во имя Бабушкина годному треду!
Аноним 10/10/22 Пнд 16:54:13 #7 №2485677 
>>2485525
>учебники по матану
Фихтенгольц, задачник - Демидович. Можно вместо Фихтенгольца начать с Зорича, там более современное и строгое изложение, но скорее всего тебе это не нужно.
Аноним 10/10/22 Пнд 17:41:38 #8 №2485711 
>>2485677
Я учу математику по справочнику Выгодского, какие подводные?
Аноним 11/10/22 Втр 14:31:04 #9 №2486187 
>>2486155
https://data.vk.company/static/core/pub/bigdata/docs/2020_MADE_Syllabus.pdf
Вот тебе хороший список, на два года неспешного изучения хватит.
Аноним 11/10/22 Втр 14:31:05 #10 №2486188 
16652335522990.png
16652331038690.png
>>2484578 (OP)
Подскажите, какая нейронка пикчи в пейзажи превращает?
Аноним 14/10/22 Птн 15:03:57 #11 №2488522 
1ba709ec92439e48ea40392c0c4f82f1.jpg
caa7247a468967f3e46ab01820db274b-sample.jpg
Там это, нейронки порнуху рисуют.
Аноним 14/10/22 Птн 16:13:37 #12 №2488659 
>>2488522
Не подкинешь ссыль на источник?
Аноним 14/10/22 Птн 18:06:23 #13 №2488826 DELETED
>>2488522
>Там это, нейронки порнуху рисуют.
Та педофилы для этого ее и создавали
Аноним 14/10/22 Птн 22:28:40 #14 №2489074 
>>2488659
На санкаку нашёл. Что за дифьюжн не знаю.
Аноним 14/10/22 Птн 22:38:22 #15 №2489084 
Поясните, вот я вроде знаю какую-то начальную теорию - как нейросеть устроена, какая там используется математикану и про десижен три и рандом форест тоже, но сецчас это не суть, но где мне изучить как правильно делать структуру сети для конкретной задачи?
Вот я определился с входным слоем и выходным, а между ними че пихать? Понятно, что я могу загуглить решения, посмотиеть чужие подходы в аналогичнвх задачах, а самому как допереть до этого??
Аноним 14/10/22 Птн 23:20:16 #16 №2489106 
>>2489084
>загуглить решения, посмотиеть чужие подходы в аналогичных задачах
К сожалению только вот это, универсального подхода нет. Ну то есть понятно, что архитектура в первую очередь зависит от типов данных, для каринок ты будешь скорее всего делать свертку, а для табличных даннных хватит нескольких полносвязных слоев. Но это лишь примерная архитектура, которую ты потом будешь допиливать эмпирическим путем. Попробуй сам поиграться с какой-нибудь простой задачей, stack more layers вот это все, постепенно появится минимальная интуиция, в какую сторону двигаться.
https://playground.tensorflow.org/
Аноним 15/10/22 Суб 11:23:52 #17 №2489224 
Сап двощ.
Кто подскажет как ща с МЛопсом в РФ дела?
Вижу только СберКлауд нормально делает.
Аноним 15/10/22 Суб 22:56:16 #18 №2489606 
Посоветуйте где посмотреть курсовые по нейронкам (компьютерное зрение/распознавание образов, если конкретно), гугл скудно выдаёт
Аноним 15/10/22 Суб 23:40:30 #19 №2489643 
изображение.png
Господа, а есть какие-нибудь готовые устаканившиеся механизмы менеджмента датасетов? Чтобы стягивало с хрнилища, слайсило, валидировало, версионифицировало. Каждый раз какой-то ворох костылей городить приходится.
Аноним 16/10/22 Вск 18:09:59 #20 №2490021 
Поясните на сколько это мощная штука. Правда, что я любую задачу без конкретного алгоритма могу на нейронку возложить, потренировать ее и получить хороший результат? Может ли нейронка понимать какой текст лучше подходит под тему?
Аноним 17/10/22 Пнд 00:00:16 #21 №2490269 
FfIyePaUcAEq2ry.jpg
Аноним 17/10/22 Пнд 01:09:01 #22 №2490280 
>>2490021
>понимать какой текст лучше подходит под тему
Что это значит? У тебя есть набор текстов и тема, и тебе надо узнать, какие тексты из набора подходят к ней? Или тебе эти тексты надо генерировать для заданной темы?
Аноним 17/10/22 Пнд 13:39:51 #23 №2490447 
>>2490280
Вот есть набор текстов. Есть предложение которое описывает кратко какое то подмножетсво. Например, есть тексты это все параграфы из школьных учебников, но под краткий пересказ главы литературного произведения (конкретного) подходит всего 1 параграф, под предложение "описание свойств планеты Земля" подходят почти все параграфы из учебника географии. И так далее
Аноним 17/10/22 Пнд 16:13:30 #24 №2490535 
>>2490447
Примерно этим любой поисковик занимается.
Аноним 18/10/22 Втр 19:58:25 #25 №2491340 
Стоит ли пытаться в нейроночки, если я даже не понимаю дроби?
Не спеши с ответом, подумой.
Аноним 18/10/22 Втр 20:12:49 #26 №2491348 
>>2491340
Смотря что тебе нужно. Нейронки не истина, а вариация статистики.
Аноним 18/10/22 Втр 20:58:06 #27 №2491387 
>>2491348
Тут кабанчик из Университета ИИ говорит что математика нинужна когда есть обширные библиотеки python
Аноним 19/10/22 Срд 00:01:56 #28 №2491481 
- я начинающий в ML
- ищу с кем можно было бы обсуждать/вместе разбираться в моделях, визуализации, фичах, нейронках и подобное
- сам я заканчиваю BCompSc, прохожу учебные курсы на каггле (осталось где-то 6), иногда возникают вопросы а обсудить не с кем, треды на форумах лень создавать
- моя цель это научиться решать задачи на каггле и получить гранд мастера через полтора, два года
- возможны дискасы в дискорде

телега: @bravednn
Аноним 19/10/22 Срд 05:51:32 #29 №2491518 
takagi-san, loli, leotard, with caption Thank you, Vlad s-443422260.png
Ух бля, NAI ахуенен.
Аноним 19/10/22 Срд 08:43:51 #30 №2491541 
>>2491340
Если ты не понимаешь дроби, тебе в дурку надо или в интернат для умственно отсталых.
Аноним 19/10/22 Срд 09:38:16 #31 №2491562 
>>2491387
>Тут кабанчик из Университета ИИ говорит что математика нинужна когда есть обширные библиотеки python
Этот инфоцыган прав. В случае таких же макак, как и он сам.
Математика это такая вещь, которая нужна только тем, кто хочет создавать нечто новое. Новые технологии, например.
Чтобы хлебать смузи, клепать продукты на основе этих технологий и делать деньги, математика, очевидно, не нужна.
Аноним 19/10/22 Срд 16:56:33 #32 №2491796 DELETED
>>2491562
>кто хочет создавать нечто новое
Почему математики ничего нового не создают?
Аноним 19/10/22 Срд 19:02:13 #33 №2491993 
image.png
Оправдания?
Аноним 19/10/22 Срд 23:19:19 #34 №2492369 
>>2491796
Ты просто тупой.
Аноним 21/10/22 Птн 09:20:24 #35 №2493513 
>>2491993
А что на пикче?
Аноним 21/10/22 Птн 09:35:14 #36 №2493522 
>>2493513
форель плавает в реке
Аноним 21/10/22 Птн 11:12:03 #37 №2493581 
В маниакальной стадии загорелся идеей создания своего цифрового ии аватара со всей хуйней. Но я гуманитарий и из программ только 3д пакеты лапал и в юнити терейны делал. Есть шансы создать что-то такое без матана и долгих лет обучения программированию? Может быть есть пакетные решения без написания движка или кода или как там это делается? не бейте лучше обьясните
Аноним 21/10/22 Птн 15:39:14 #38 №2494194 
Сап двач. Возможно ли учиться машобу в ВУЗе европейском?
Аноним 22/10/22 Суб 13:57:24 #39 №2495182 
image.png
Аноны, помогите! Имеется матрица признаков. Можно ли имея 16 признаков от лишних, если таковые имеются, можно избавляться и только 16 данных построить хоть какую-то модель, которая имеет предикт больше 0.5? На ум приходит только КНН с всевозможными удалениями подмножеств признаков
Аноним 22/10/22 Суб 18:52:07 #40 №2495523 
>>2495182
Больше 0.5 чего? Попугаев?
Можно ли построить модель? Если в твоих признаках содержится достаточно информации, то можно.
Аноним 22/10/22 Суб 18:55:25 #41 №2495527 
>>2495202
С чтения шапки.
Аноним 22/10/22 Суб 19:50:13 #42 №2495672 
>>2495539
Это знать надо! Это классика!
Аноним 23/10/22 Вск 19:27:04 #43 №2496711 
Сап, машобач.
Реквест скорее для /s/, но там вряд ли что-то посоветуют.

Есть годная опенсорс нейронка, которая определяет авторство большого (несколько десятков страниц) текста на русском?
Аноним 24/10/22 Пнд 14:19:24 #44 №2497167 
>>2496711
а ты сам смог бы определить авторство текста?
если нет, то зачем искать для этого нейронку?

Подумой об этом прежде чем бежать к трясунам черных ящиков
Аноним 24/10/22 Пнд 20:22:08 #45 №2497397 
image
10 видов писек (вы будете ржать)
Аноним 24/10/22 Пнд 23:09:17 #46 №2497497 
>>2497397
Какая у тебя?
Аноним 25/10/22 Втр 13:28:25 #47 №2497708 
>>2497497
Длинная, слегка скошенная вправо, необрезанная. А у тебя?
Аноним 25/10/22 Втр 13:36:55 #48 №2497713 
>>2497708
Могу тебе левый хук туда зарядить, встанет по центру
Аноним 25/10/22 Втр 13:58:21 #49 №2497722 
>>2497713
Могу нахуярить хук в реакте. На работу возьмёте?
Аноним 25/10/22 Втр 15:56:11 #50 №2497837 
>>2497713
Ты тян или няшный кунчик? Тогда я не против дать побоксировать со своими причиндалами.
Аноним 26/10/22 Срд 11:02:02 #51 №2498370 
Ну что анончики, роадмап для вката в машоб нарисовался?
Аноним 26/10/22 Срд 17:09:18 #52 №2498811 
Какие есть аналоги у ящика с усами для нескольких выборок в одной категории?
Аноним 26/10/22 Срд 17:36:39 #53 №2498840 
>>2498811
ничего нет лучше гистограммы.
Рисуй гистограммы.
Аноним 26/10/22 Срд 21:33:41 #54 №2499122 
>>2498370
Зачем тебе?
Аноним 26/10/22 Срд 21:50:23 #55 №2499132 
>>2499122
вкатиться
Аноним 26/10/22 Срд 22:56:04 #56 №2499161 
>>2499132
Вакансий нет.
Аноним 27/10/22 Чтв 06:27:10 #57 №2499271 
Пишу торгового бота с применением нейронных сетей на паре BTCUSDT, уже имею положительный результат торгов на истории, хочу обсудить с кем нибудь детали реализации для улучшения качества модели.

Кто имеет уже опыт в этом деле, напишите сюда:
1) Входные данные, у меня смещения японских свечей в процентах, что было у вас?
2) На каком количестве слоев лучше обучение?
3) Функция ошибок Fitness какую задали? Я взял за основу минимизацию количества ошибочных трейдов, вместо максимизации профита, это дало огромный прорыв в обучении.
Аноним 27/10/22 Чтв 12:02:30 #58 №2499435 
>>2499271
Ты сам погуглишь мнения почему это обычно не работает или тебе литературку подсказать?

Начни с "теория эффективного рынка" .
Аноним 27/10/22 Чтв 13:23:50 #59 №2499501 
Чет ерунда вообще. Скачал книгу из шапки, посмотрел пример с продолжением текста. Какая же это хуйня. Выглядит как что то очень далекое от применения на практике
Аноним 27/10/22 Чтв 14:47:49 #60 №2499545 
>>2499501
> Скачал книгу из шапки
Николенко что-ли? Ну так математик и считает строгость изложения превыше объяснений.
Рассказывай в какой области работаешь, а мы тебе расскажем как тут применять машоб.
Аноним 27/10/22 Чтв 14:57:11 #61 №2499547 
>>2499545
Да, николенко. Я про результат, а не изложение. Ну просто нейросеть хуйню нагенерила у него там. Это не то, чего я ожидал
Аноним 27/10/22 Чтв 15:00:14 #62 №2499550 
>>2499547
то есть, ты не работаешь с информацией и поэтому не сообщил об этом?
Ясно.

Да, тебе не нужны нейросети.
Аноним 27/10/22 Чтв 15:03:09 #63 №2499552 
>>2499550
Да я не собирался вкатываться. Просто на досуге зашел, посмотрел примеры. Не впечатлило
Аноним 27/10/22 Чтв 15:13:18 #64 №2499562 
>>2499552
Ну раз уж ты зашел, сообщаем, что ты кусок неайтишного говна и твое мнение здесь не интересно.
Аноним 27/10/22 Чтв 15:13:46 #65 №2499563 
>>2499562
Доброжелательно
Аноним 27/10/22 Чтв 16:16:11 #66 №2499648 
>>2499435
Пока каждый не начнет юзать сверх эффективные алгоритмы, это будет работать. Тебе просто надо быть чуть лучше других.
Аноним 27/10/22 Чтв 17:22:31 #67 №2499725 
>>2499648
но ведь есть комиссии.
Им еще мы знаем, что есть и другие команды, которые много лет изучали настоящий рыночек, (просрали там все) легко применили свой опыт к отсталому крипторынку.
Аноним 27/10/22 Чтв 17:26:10 #68 №2499729 
>>2499271
вот тебе книженция : Маркоз Лопес Де Прадо , Машинное обучение и алгоритмы для бизнеса.

Там ты подсмотришь несколько ситуационных приемчиков. Но не готовых идей.

Конечно, он не раскрывает добился ли он чего-то. Полностью темная книга. Можно сделать вывод только что он наебывал одновременно и инвесторов и американскую военщину долгие годы . И что эта затея - весьма сложная штука.
Аноним 27/10/22 Чтв 20:30:29 #69 №2499885 
>>2484578 (OP)
Нлпшники тут? Как сделать оффлайновый генератор случайных слов русского языка? По любому это как то пересекается с NLP который natural language processing, а не нейролингвистическое программирование, но что именно по шагам делать я не ебу.
Аноним 27/10/22 Чтв 21:02:56 #70 №2499895 
>>2499885
import random
print(random.choice(foo))

foo - лист загруженный русских слов.
Всё.
Аноним 27/10/22 Чтв 21:40:53 #71 №2499914 
>>2499895
Ну это понятно, а где норм список достать, и чтобы петухон его съел?
Аноним 27/10/22 Чтв 21:48:31 #72 №2499919 
>>2499885
>>2499895
Ладно, вроде какой то список нашел. Правда мне стемы нужны, видимо придется через стеммер прогнать и дупликаты удалить, но это я нагуглю как-нибудь я надеюсь.
https://github.com/danakt/russian-words/blob/master/russian.txt
Аноним 27/10/22 Чтв 22:48:00 #73 №2499965 
>>2499885
Во, надо было сразу гуглить частотный словарь русского языка, там леммы только.
http://dict.ruslang.ru/freq.php
Тут в .csv можно скачать, то, что надо.
asus 31/10/22 Пнд 20:40:14 #74 №2502459 
изображение.png
Сап 2ч. Подскажыте де взять модель для распознавания кириллического шрифта для Keras и как отключить распознавание английского? недавно влез в это и вот упёрся. Свою обучать времени нет совсем.
Аноним 31/10/22 Пнд 23:21:08 #75 №2502626 
>>2502459
Зачем тебе Keras, если все айти использует tesseract и в ус не дует?
Там, между прочим, тоже нейронки.
Аноним 01/11/22 Втр 08:56:13 #76 №2502774 
изображение.png
>>2502626
Документ под наклоном сфотографирован. С бликами и таблицами. Границы таблиц с низу невидно становится. Tesseract не справляется. Или недонастроил. Поэтому решил Лeras попробовать. Нашёл в Keras.Recognizer Alphabet, но когда туда список русских символов подставляю-распознаёт какуюто дичь. Но уже на русском.
Аноним 01/11/22 Втр 10:46:36 #77 №2502822 
>>2502774
Один документ?
А с чего ты решил, что модельки в Keras обучали на искривленном тексте? Какая предпосылка работать лучше?
Лучше в фотошопе трансформируй документ.

Я понимаю, что ты ожидаешь что тебе по скринам исправят код, но мы не твои коллеги. Мы здесь чисто попиздеть.
Аноним 01/11/22 Втр 12:03:47 #78 №2502866 
>>2502822
Предположил, потомучто блоки текста распознаёт правильно. Походу я просто туплю гдето. Совсем не ожидаю, что по скринам ктото чтото поймёт-там же результат только. В фотошопе не катит-надо к интерфейсу на питоне прикрутить всё это.
Аноним 02/11/22 Срд 18:04:47 #79 №2504180 
Чому вы еще не натренилибота для шахмат и не посоревновались?
Аноним 02/11/22 Срд 20:25:36 #80 №2504340 DELETED
>>2504180
>шахмат
Это не интеллектуальная игра
Аноним 03/11/22 Чтв 04:11:50 #81 №2504507 
>>2504180
Чел, шахматы перебором просчитываются, там интеллект не нужен.
Аноним 03/11/22 Чтв 04:45:22 #82 №2504510 
image
image
image
image
Ебучие пидарасы, математики блядь хуевы, какого хуя ваш алгоритм во всех источниках записан по разному и не работает блядь?
Аноним 03/11/22 Чтв 06:41:43 #83 №2504519 
>>2504510
Блядь, ублюдский сиборн...
Аноним 03/11/22 Чтв 09:12:26 #84 №2504542 
>>2504510
> Ебучие пидарасы, математики блядь хуевы, какого хуя ваш алгоритм во всех источниках записан по разному и не работает блядь?
Долбоебина, а когда три разных быдлокодера пишут одну софтину, у них код одинаковый получается?
Аноним 03/11/22 Чтв 09:32:55 #85 №2504552 
>>2504542
Причем тут код? Если уж с чем и сравнивать, то с документами по стандартам.
Аноним 03/11/22 Чтв 11:00:40 #86 №2504577 
>>2504552
Ну так ты сравни документацию для десяти разных фреймфорков. Задачи решаются одни и те же, а методы и инструменты - разные.
Это не школьная задачка с одни красивым правильны ответом, это открытая проблема с бесконечным полем доступных решений.
Аноним 03/11/22 Чтв 11:38:53 #87 №2504600 DELETED
>>2504577
>это открытая проблема с бесконечным полем доступных решений.
Математики обосрались снова
Аноним 03/11/22 Чтв 11:42:36 #88 №2504603 
>>2504577
>Это не школьная задачка с одни красивым правильны ответом, это открытая проблема с бесконечным полем доступных решений.
Какие нахуй методы и инструменты разные? Какая нахуй открытая проблема? Это готовый алгоритм блядь.
Спасибо какому-то ученому-геологу, который в своей работе привел код для матлаба. У этих математиков хуевых ошибки в описании, причем у каждого свои.
Аноним 05/11/22 Суб 10:35:34 #89 №2506155 
Требуется помощь, аноны!
Имеется датасет поделенный на N частей. Загрузить их все одновременно не представляется возможным из-за его размеров. Вопрос: как правильно организовать обучение нейросети на этом наборе данных в keras. Если этими частями по несколько эпох сеть обучать - "перекоса" никакого не будет?
Аноним 05/11/22 Суб 11:18:44 #90 №2506171 
>>2506155
Можешь посмотреть, как пишут генераторы для кераса. Датасеты с картинками, аудио почти всегда динамически подгружают с жёсткого диска.
Типа того https://stanford.edu/~shervine/blog/keras-how-to-generate-data-on-the-fly
Аноним 06/11/22 Вск 00:34:21 #91 №2506829 
Получится ли с наскока новичку, и вообще возможно ли, реализовать U-NET instance segmentaion с бинарным учителем (есть в данных искомый объект или нет) ?

Если нет, то как подобную задачу выгодней всего решить на 2022?

Ни разу не реализовывал подобные приложения или алгоритмы, но интересовался. Извините если вопрос совсем тупой.
iMaterialist Аноним 06/11/22 Вск 11:19:02 #92 №2506990 
image.png
Сап аноны, вкатываюсь в машоб, решил перейти к CV и решить задачу с Kaggle - iMaterialist
https://www.kaggle.com/competitions/imaterialist-fashion-2020-fgvc7/overview

Вопрос следующий, я посмотрел датасет и там кроме классов одежды на фото есть еще и атрибуты для каждой фотографии (см пикчу). С классами понятно как обучать, но как обучать распознавать еще и атрибуты?
Думал, мб каждый атрибут выделить в еще одну отдельную запись в датасете (тем самым избавляясь от массива), но тогда будет слишком много записей в дс.
Или мб сделать отдельно классификатор категорий одежды, а затем обучать отдельную модель как multilabel для атрибутов.
Короче говоря, анон, подскажи, буду благодарен
Аноним 06/11/22 Вск 12:39:39 #93 №2507034 
>>2506829
Сначала посмотри, что такое cv в целом, затем, что такое CNN, затем почитай про сегментацию и саму архитектуру U-net (осознай штуку с энкодер-декодер частью и зачем пробрасывать маски с пред. слоев).
Если честно, ничего сложного там нет. За месяц точно управишься со всем этим, если ебланить не будешь. Тебе должно помочь то, что для U-net уже есть куча реализаций (даже на торч готовая либа есть, pytorch-segmentation, вроде, где ты можешь в U-net свой энкодер добавлять)

>>2506990
Датасет не смотрел, но да, выглядит как обычный мультилейбл (при реализации не забудь, что в мультилейбл может быть такое, что нет никакого лейбла у объекта)
Аноним 06/11/22 Вск 18:14:23 #94 №2507251 
>>2507034
Спасибо за ответ, попробую обучить
Аноним 08/11/22 Втр 13:09:33 #95 №2508719 
Как вкотиться? Хочу написать свою Кортану.
Аноним 09/11/22 Срд 10:56:28 #96 №2509521 
>>2508719
Kaggle очевидно же, много конкурсов на любую тему с открытыми современными решениями, практика важнее всего остального.
Аноним 09/11/22 Срд 12:54:59 #97 №2509605 
>>2509521
Практика это хорошо, только мне бы основы для начала изучить. Я не хочу скрипткидди быть, я хочу новое создавать.
Аноним 09/11/22 Срд 14:46:28 #98 №2509714 
>>2509605
Начинай с Вапника.
Аноним 09/11/22 Срд 14:54:29 #99 №2509720 
>>2509714
Это что или кто?
Аноним 09/11/22 Срд 16:53:08 #100 №2509851 
>>2509720
Это математический анон, создавший теорию всего этого дела, которое макаки называют машинным обучением.
>Список дедовских книг для серьёзных людей:
>Trevor Hastie et al. "The Elements of Statistical Learning"
>Vladimir N. Vapnik "The Nature of Statistical Learning Theory"
>Christopher M. Bishop "Pattern Recognition and Machine Learning"
>Взять можно тут: http://libgen.io/
Аноним 09/11/22 Срд 17:00:52 #101 №2509861 
>>2509720
Но, вообще-то, начни с книги Бишопа. У Вапника лютая теория, ты там не поймёшь нихера.
Аноним 09/11/22 Срд 18:31:15 #102 №2509952 
>>2508719
Все общие вопросы - Скиена, Наука о данных, 2017
Вопросы о pandas - книга от создателя pandas - Python for Data Analysis 3rd Edition .epub (Free)
DL - Deep Learning, Сейт Вейдман
"как вкатиться" ( в принципе мы догадываемся что ты там под этим понимаешь) - Data Science
для карьериста, Нолис, Робинсон, 2021
Аноним 09/11/22 Срд 18:53:50 #103 №2509968 
С точки зрения авторского права, насколько легально использование датасетов из открытых источников? Читал про копилот, который по сути является "прачечной для лицензий" и отказ от использования популярных композиций для тренировки музыкальных нейронок. Мне почему-то кажется, что скоро хуй можно будет данные насобирать.
Аноним 09/11/22 Срд 19:02:58 #104 №2509976 
>>2509968
Нинасколько. А ты собираешься с ними судиться?
У тебя уникальный исторический шанс. Никакой Berkeley University тебя не засудит.
Воруй-убивай. Жди ответного гудка.
Аноним 09/11/22 Срд 19:28:03 #105 №2510000 
>>2509952
>в принципе мы догадываемся что ты там под этим понимаешь
Да всмысле, что за предъявы? У меня реально цель создать полноценную цифровую личность. Бабло конечно нужно, но оно меня волнует меньше.
Аноним 09/11/22 Срд 19:31:48 #106 №2510002 DELETED
>>2510000
>У меня реально цель создать полноценную цифровую личность.
У тебя цель потрясти Черный Ящик, что бы от туда выпало что то отличное от говна и разумное.
Аноним 09/11/22 Срд 19:41:33 #107 №2510008 
>>2510002
Ты меня не знаешь
Аноним 09/11/22 Срд 20:12:12 #108 №2510030 DELETED
>>2510008
Тогда расскажи концепцию интеллекта в твоем понимании, что такое знания, как они хранятся.
Аноним 09/11/22 Срд 20:13:45 #109 №2510034 
>>2491541
>тебе в дурку надо или в интернет для умственно отсталых.
Аноним 09/11/22 Срд 20:25:30 #110 №2510050 
>>2510030
Для чего? Я не на экзамене.
Аноним 09/11/22 Срд 22:00:27 #111 №2510164 
Посоны, там AlphaTensor научился матрицы перемножать чуть чуть быстрее, теперь заживем!
https://www.youtube.com/watch?v=CoFvu-n-fFs
Аноним 09/11/22 Срд 23:00:47 #112 №2510221 DELETED
>>2510050
А зачем здесь тогда всех своей школьной хуйней заебуешь?
Аноним 09/11/22 Срд 23:01:16 #113 №2510223 DELETED
>>2510164
>матрицы перемножать
Охуеть бля достижение
Аноним 09/11/22 Срд 23:09:45 #114 №2510228 
>>2510221
>школьной хуйней
such as?
Аноним 09/11/22 Срд 23:44:22 #115 №2510249 
>>2510223
Достижение на самом деле значительное. Во-первых, любая нейроночка только и делает, что перемножает матрицы, и при обучении, и при работе. Даже самая мелкая оптимизация такой базовой операции - это заебись. А во-вторых, сам факт того, что нейронка нашла фундаментальное знание - это охуеть какое достижение. Тряска черного ящика внезапно привела к осмысленному результату в виде конкретного алгоритма.
Аноним 09/11/22 Срд 23:51:45 #116 №2510252 DELETED
>>2510228
>such as?
Пиздуй в /b, школотрон
Аноним 09/11/22 Срд 23:54:36 #117 №2510255 DELETED
>>2510249
>Тряска черного ящика внезапно привела к осмысленному результату в виде конкретного алгоритма.
Ты сейчас биологическую эволюцию описал. Но как не крути, к интеллекту это не имеет ни какого отношения. Как и эволюция является пиздежом вговнемоченых.
Аноним 09/11/22 Срд 23:58:59 #118 №2510258 
>>2510252
Да не дёргайся ты, чмоня. Продолжай генерить цп и не залупайся на других.
Аноним 10/11/22 Чтв 03:19:52 #119 №2510351 DELETED
>>2510258
>и не залупайся на других
А то что, говном начнешь плеваться? Лол
Аноним 10/11/22 Чтв 15:26:50 #120 №2510662 
c36f646c76d9dbb468a8aabc2539e922-d.jpg
41tIfYOdt7L.ACSY780.jpg
>>2484871
Погуглил, нашел 2 книги. Первая 2004 года, вторая только платно за 10 долларов на амазоне.
Еще есть Behavioral Mathematics for Game AI.
Аноним 10/11/22 Чтв 17:12:28 #121 №2510734 
>>2484871
> Но забивать тонны if-else вручную оказалось весьма сложной задачей
Так используй Prolog, он как раз для таких задач и имеет из коробки всё необходимое.
DCG, CHR, логический вывод, и много других фич.
Аноним 10/11/22 Чтв 17:19:39 #122 №2510739 
Правильно ли я понимаю, что ML/DL/etc. это по сути статистика на стероидах?
В бизнесе и науках (биология, социология, лингвистика, финансы, ...) используют эту мутировавшую статистику, чтобы решать свои конкретные научные или бизнес-задачи.

То есть вкат в абстрактный ML это всего лишь освоение метода. Для успеха надо вкатываться в конкретную научную область, использующую ML, изучая еще много всего.

А раз так, то какие есть области знания, связанные с ML? Биоинформатика, NLP, CV, алготрейдинг, что еще?
Куда перспективнее всего идти?
Аноним 10/11/22 Чтв 17:27:38 #123 №2510743 
А в рамках NLP есть какие-то деления на языки? То, что делают для английского, актуально для русского, хинди, китайского, арабского?
Аноним 10/11/22 Чтв 17:29:37 #124 №2510746 
>>2510739
> Правильно ли я понимаю, что ML/DL/etc. это по сути статистика на стероидах?
В сущности - да. Точнее то, что раньше называлось Статистическое Обучение.

Однако, количество переросло в качество:
появилась возможность оперировать информацией не понимая что она означает.

>Куда перспективнее всего идти?
А вот в свете вышесказанного, ответить хорошо на вопрос о том, чего еще не произошло, статистика не может.
Аноним 10/11/22 Чтв 17:48:43 #125 №2510769 
>>2510743
Разумеется, есть разделение в силу подачи на вход меньшего объем исходного материала для обучения. На русском все в целом будет хуже.
Вроде яндексоиды (инициативные исследователи, не обязательно из яндекса) пытались какие-то доучивания соорудить. Но хрен их знает что получилось.

А ты начни с мультиязычных HuggingFace Transformers.
Аноним 10/11/22 Чтв 18:01:58 #126 №2510788 
Платиновый вопрос. Где найти консольную утилиту, которой можно тренировать и запускать трансформеры?
Аноним 10/11/22 Чтв 21:17:30 #127 №2510914 
>>2510769
Зелебоба вполне рабочая в итоге.
Аноним 11/11/22 Птн 12:36:31 #128 №2511186 
>>2484578 (OP)
Если я не анальник могу закатиться в нейроночки? Есть готовое решение мне нужно распознавать голос в текст?
Аноним 11/11/22 Птн 13:59:55 #129 №2511241 
>>2511186
конечно. на любой кошелек есть
https://cloud.yandex.ru/docs/speechkit/stt/?from=int-console-empty-state
Ну, анальник, который знает что такое api, все равно потребуется. Но эти анальники подешевле.

Для кабанчиков есть всякие штуки типа Roistat.com
Конечно, тоже дорогие и бестолковые.
Аноним 11/11/22 Птн 21:21:44 #130 №2511677 
>>2511241
А как самому с нуля спич ту текст написать?
Аноним 11/11/22 Птн 21:44:38 #131 №2511700 
>>2511677
Ну давай датасет - накатаем. И продадим
че ты от нас ждешь?
Есть и бесплатные варианты. Гугли
Аноним 12/11/22 Суб 03:23:16 #132 №2511848 
>>2510662

Если твой цель сделать годный игровой ИИ, то можешь взять современный игровой движок (или движок от Fear) и посмотреть, как там это делают (там из коробки часто есть сигналы, триггеры и на гитхабе базовые правила).

Если твоя цель, любопытство и ТД, то исследуй, расскажешь нас дальше про свои измышления.

Если интересно про самый современный ИИ в играх, то почитай что-то про Reinforcement learning от David Silver.

В целом под игровым ИИ понимают две разные вещи: человекоподобность и эффективность.
Аноним 12/11/22 Суб 03:26:07 #133 №2511849 
>>2510743
Сейчас обычно разделяют на low-resource languages и английский. Трансформерам сейчас не очень важны особенности токенов на входе имхо.
Аноним 12/11/22 Суб 03:37:02 #134 №2511853 
>>2511848
>>2510662
Забыл добавить, тебе никто не мешает поставить в модель Reinforcement learning не нейронку, а дерево решений из Sklearn, только ограничить его глубину. Но генетические алгоритмы тоже ок. Да и в нашумевшем AlphaGo основным алгоритмом идёт MonteCarlo Tree search, который нейронка просто учится аппроксимировать (что сейчас SOTA - не знаю), иначе долго считать.
Аноним 12/11/22 Суб 05:14:57 #135 №2511863 
У игровых ИИ другие цели, аноны.
> Смысл ИИ не обыграть игрока, а красиво ему проиграть

Для игровых ИИ не нужны сложные технологии, типа нейронок. Достаточно просто перебрать все варианты действий, и выбрать тот сценарий, который приведёт к победе. Для большинства игр так и делают, только с поправкой на то, что ИИ обязан ошибаться.
Аноним 12/11/22 Суб 09:42:03 #136 №2511900 
>>2511700
Датасет родить говно. Качаем аудиокниги и их же в тексте а дальше что делать?
Аноним 12/11/22 Суб 16:08:31 #137 №2512126 
>>2511900
Пейпер качай и повторяй.

Раз ты все знаешь, почему не гуглишь?
Аноним 12/11/22 Суб 16:33:11 #138 №2512137 
>>2512126
У меня мозг ебнулся я ничего не знаю. Я нашел некий deepspeеch и на этом все закончилось. Что то качать и обучать похоже мне бессмысленно. Потому что 256 гигов оперативки и пары нвидиа теслы у меня нету, есть только ноут. Неужели никто не обучил и не выложил
Аноним 12/11/22 Суб 17:07:55 #139 №2512177 
Никак не могу понять, как работают сверточные нейронные сети и их модификации. Именно вот теоретическую часть. Какую книжку лучше почитать?
Аноним 12/11/22 Суб 22:20:25 #140 №2512416 
Things were different when they tried to model a more complex kind of neuron found in the cerebral cortex (the L5 cortical pyramidal, or L5PC neuron). What they found was that these individual neurons are much more complex than we’d previously thought: Artificial networks (the temporal-convolutional type) needed a full seven layers, each with 128 units, to successfully simulate these pyramidal neurons.
Аноним 12/11/22 Суб 23:57:01 #141 №2512475 
Где используются временные ряды? Если их заботать, то в какую сферу можно вкатиться?
Аноним 13/11/22 Вск 01:17:12 #142 №2512522 
>>2512475
В прогноз погоды
Аноним 13/11/22 Вск 02:02:20 #143 №2512542 
>>2512475
Можно предсказывать уровень зараженности СПИДом по дням/месяцам. Т.е. если будешь работать спидологом, то пригодится AIDSOVA
А так глупый вопрос. Пригодится везде, где модель зависит от времени.
Аноним 13/11/22 Вск 10:42:46 #144 №2512666 
>>2512177
Какую еще теоретическую часть? Её нет. Это простейшая нейросеть, на вход что-то подается, на выходе что-то выдается, у неё есть параметры, параметры изменяются с помощью backpropagation, всё как обычно. Суть та же самая, как у самой простой полносвязной нейронной сети, но если ты ничего не понял из вышеперечисленного, то тебе нужно изучать не сверточные сети. Далее открываешь схему сверточной нейронной сети (найти в гугле, в книге "Франсуа Шолле − Глубокое обучение на Python"), пытаешься понять её идеи. Далее устанавливаешь Keras, пиздишь (на форуме Kaggle, в гугле, в документации Tensorflow, в той же книге) любую простейшую сверточную сеть для решения например задачи MNIST и разбираешь вход и вывод каждого слоя сети и отвечаешь на вопрос почему вывод данного слоя имеет вот такое вот разрешение. Этого достаточно для того, чтобы полностью понять, как работают сверточные нейронные сети и их модификации.
Аноним 13/11/22 Вск 11:29:21 #145 №2512689 
>>2512475
На бирже!

Да почти нигде. Изначально провальная идея, что массу признаков можно свернуть в один изменяющийся во времени. Это просто потеря информации.
Аноним 13/11/22 Вск 16:00:25 #146 №2512947 
>>2511677
Взять kaldi и повторить скрипты оттуда с фиксами на кириллицу. Но это уже сделали за тебя, гугли vosk-asr, silero-asr, sova-asr.
Аноним 14/11/22 Пнд 18:37:01 #147 №2513816 
image.png
Will we next create false gods to rule over us? How proud we have become, and how blind.
Sister Miriam Godwinson "We Must Dissent"
Аноним 14/11/22 Пнд 21:22:25 #148 №2513929 
Вот читаю, и вроде понимаю, а вроде и нет. Насколько нужна математическая база для вката в нейронки?
Аноним 17/11/22 Чтв 01:52:38 #149 №2515607 
Аноны, важный вопрос!

Имеет ли смысл файнтьюнить английскую модель русскими текстами?

Чем это лучше будет если тренировать модель с нуля?
Аноним 17/11/22 Чтв 02:33:11 #150 №2515620 
>>2515614
> некоторые
Но ведь нейронка не сможет выявить корелляции между английскими словами и русскими. Даже человек не сможет это сделать без словаря в руках/в голове или набора индетичных текстов на разных языках.

Да и о произношении она не знает, так что John и Джон для неё абсолютно разные слова.
Аноним 17/11/22 Чтв 14:50:34 #151 №2515983 
>>2510746
>Однако, количество переросло в качество:
>появилась возможность оперировать информацией не понимая что она означает.
Т.е. специалистов заменили кнопкодавами, которые даже не пытаются понять, почему машина сделала то, что сделала? Можно ли называть это "качеством"?

Нормальный врач может подробно объяснить, почему он рекомендует тебе оттяпать ногу. Кнопкодав скажет: "я обучил нейронку на данных со всех клиник мира, она увидела фото вашей ноги и рекомендовала её оттяпать", но это ничего не объяснит. Может, нейронка права, а может, она "обучилась расизму" и стремится оттяпать все ноги определённого цвета кожи. К тому же кнопкодав даже не знает, возможно ли оценить состояние ноги по одному фото или это невозможно, но нейронка чему-то обучилась и он радостно утверждает, что решил проблему. Конечно, врач тоже может ошибаться, но его слова можно хотя бы проанализировать и проверить самостоятельно, а в случае с нейронкой обучение второй нейронки на тех же данных не даст никакого полезного результата, она точно так же будет выдавать неправильные ответы без объяснений.

Возможно, я утрирую, но именно так выглядит вся эта тема с нейронками последних лет. Их бездумно суют куда попало и не понимают, как у них получается что-то сделать, т.е. контроля никакого нет. Это как вместо дрессировки одомашненного животного на выполнение конкретной задачи выпускать совершенно диких тигров на улицу и радостно отчитываться о том, как эффективно тигры решают проблему перенаселения по какому-то неизвестному нам алгоритму, заложенному в них эволюцией, а не нами. Зачем так делать?

Не в обиду присутствующим тут, сам я мечтаю о мыслящих роботах и т.п., но у меня вызывает раздражение хайп вокруг нейронок и вот это их бездумное использование, которое почему-то считают прорывом, а не деградацией. Скоро хэллоу ворлды будут выводить путём обучения глубокой нейронки на примерах хэллоу ворлдов...
sage[mailto:sage] Аноним 17/11/22 Чтв 14:59:07 #152 №2515991 
>>2515983
> Скоро хэллоу ворлды будут выводить путём обучения глубокой нейронки на примерах хэллоу ворлдов...
Copilot же
Аноним 17/11/22 Чтв 15:58:03 #153 №2516044 
>>2515983
Не согласен с тобой. Кнопкодавов зачастую заставляют изучать то, что из себя данные вообще представляют. И иногда выходит так, что обучить биолога\врача программированию выйдет куда быстрее и проще, чем обьяснить кнопкодаву биологию.
Аноним 17/11/22 Чтв 20:39:35 #154 №2516266 
Снимок экрана от 2022-11-17 22-38-03.png
Что значат эти графики? Как по ним понять, правильно ли я всё делаю?
Аноним 17/11/22 Чтв 23:01:16 #155 №2516331 
Сам анонче
Я сам вкатун, поэтому посоветуйте полезные ресурсы по DS/ML для понимания реальных рабочих процессов на этих позициях
Аноним 18/11/22 Птн 00:06:57 #156 №2516361 
>>2516331
*Сап
самофикс
Аноним 18/11/22 Птн 22:23:00 #157 №2517079 
>>2516266
Обычно смотрят сначала на loss, который должен уменьшаться по мере обучения модели. Градиенты обычно глазами не смотрят, а просто получают на выходе модели np.nan
Аноним 18/11/22 Птн 22:25:37 #158 №2517080 
>>2515983
Машинное обучение нейронками не ограничивается. Простые модели более-менее интерпретируемые.
Аноним 18/11/22 Птн 22:30:29 #159 №2517081 
>>2515620
Выявляет, даже на практике используется. В разных языках есть похожие слова/токены (например, имена и числа), в зависимости от них мы можем модифицировать наше векторное пространство, чтобы слова с похожим смыслом на разных языках имели похожие вектора.

https://docs.deeppavlov.ai/en/0.0.7/components/ner.html#ontonotes-ner

https://github.com/facebookresearch/MUSE
Аноним 18/11/22 Птн 22:34:41 #160 №2517084 
>>2512177
В 3blue1brown вышло видео на Ютубе про свёртки (математическую операцию), очень советую. Думаю, на середине видео у тебя будет aha-moment.
Аноним 18/11/22 Птн 23:36:13 #161 №2517113 
>>2517079
Он не уменьшался. Значит я действительно где-то накосячил. Одной эпохи явно мало, а но большее количество эпох просто нет времени.
Аноним 18/11/22 Птн 23:40:09 #162 №2517114 
>>2517081
> в зависимости от них мы можем модифицировать наше векторное пространство, чтобы слова с похожим смыслом на разных языках имели похожие вектора.
Я так понял тупо запустив скрипт, который делает softtune этого не добиться.

> имена
Насчёт имён не уверен. Конечно модель 13B точно знает траслитерацию кириллицы, но для моделей послабже TS и Ц это совершенно разные символы.
Аноним 19/11/22 Суб 02:48:43 #163 №2517218 
IMG20221119024808079.jpg
>>2517114
Если твоя изначальная модель мультиязычная, то просто делаешь fit_predict. Если понимает только английский, то через knowledge distillation нафаинтюнить мультиязычную модель, а твою изначальную использовать в качестве учителя.

https://arxiv.org/pdf/2004.09813.pdf
Аноним 19/11/22 Суб 05:15:13 #164 №2517243 
>>2515983
Анон, по-моему ты слишком многого ожидаешь от нейронок. Так называемый хайп уже давно спал, все уже поняли, что искусственные нейросети решают только узкие специфические задачи и их работа больше похожа на то, как работает человеческая интуиция. Вот допустим ты тот самый врач-терапевт, который на снимке увидел диагноз. Если ты достаточно опытный, то есть повидал тысячи снимков, то у тебя в голове за долю секунды возникает ответ, и уже потом ты пытаешься с помощью мышления, логики, анализа, общения с коллегами верифицировать свой первоначальный диагноз. Нейросеть может только в первый шаг в этой цепочке, причем может довольно хорошо, иногда даже лучше самого опытного диагноста, но у нее нет всего остального, чтобы верифицировать результат да при этом еще и provide sufficient reasoning. Глупо требовать от сложной нелинейной аппроксимирующей модели, чтобы она тебе разложила по полочкам принцип своей работы в виде понятного и относительно короткого алгоритма, его скорее всего может вообще не существовать.
Аноним 19/11/22 Суб 05:19:39 #165 №2517244 
>>2517084
>у тебя будет aha-moment.
Ты хотел сказать BAAAM ?

Сука, ниразу не было никакого BAM. Нихуя понятней не становится от это дурацкой манеры
Аноним 19/11/22 Суб 05:44:40 #166 №2517248 
>>2517244
Ты точно про 3blue1brown, а не про StatQuest? StatQuest мне тоже нравится, т.к. на пальцах, но манерничание не нравится
Аноним 19/11/22 Суб 16:05:49 #167 №2517518 
ЭС-петух, ты тут? Как поживаешь?
Аноним 19/11/22 Суб 17:39:55 #168 №2517562 
image.png
сап, двач!

помоги, пожалста, глупому нюфагу сделать лабу в вузике.

в общем, задание: написать многослойный персептрон для распознавания цифр на 7-сегментном индикаторе. 7 входов, 10 выходов (см. картинку).

что я делаю: пишу говнокод с 4хслойным персептроном, функция активации для всех слоев - сигмоида, лосс - лог лосс...

что я получаю: ничего, все классы одинаково предсказываются, ничево не понимаю.

заранее спасибо!
Аноним 19/11/22 Суб 21:12:45 #169 №2517753 
>>2517518
Привет, нормально. 14ый грейд в Сбербанке получил.
Аноним 20/11/22 Вск 18:05:09 #170 №2518662 
image.png
Кто бы мог подумать, что до такого дойдет, лол. Вообще, интересная история будет в течении пары лет в юрисдикциях всего мира, когда начнут разбираться кто же владелец авторского права на все
Аноним 20/11/22 Вск 19:09:01 #171 №2518761 
>>2518662
Авторка этого замечательного канала каким-нибудь образом относится к разработке упомянутой нейросетки? Может она еще и на скриншоты поисковой выдачи будет страйки кидать, и на рекомендации в спотифае?
Аноним 20/11/22 Вск 21:11:24 #172 №2518873 DELETED
>>2518662
28к за один час рекламы в говноленте? Хуяся, я походу не тем занимаюсь
Аноним 21/11/22 Пнд 18:18:41 #173 №2519620 
1669043917365.png
Кто-нибудь ковырялся в сберовских gpt?
У них помимо токена endoftext есть еще спецтокены <s>. И нигде мне не удалось найти, что он значит. Кто-то семплы разделяет именно через <s>. Кто-то вообще ничего не делал. Я пробовал и с ним и без, а разницы не заметил.
Аноним 23/11/22 Срд 02:46:02 #174 №2521127 
>>2484578 (OP)
Хочу создать годный текстовый бот. Нагуглил, что есть в сети годные исходнички, или как это там называется - GPT2. Есть быдлонавыки в кодинге и свободное время, цель - 1.5 месяца. Имел кто-нибудь дело с таким? Нужен совет. Хочу чтобы прямо как настоящий человек был. И. Это очень важно. 1.5 месяца.
Из железа - ПЕЧ1070 и не оче хороший проц
Аноним 23/11/22 Срд 05:56:46 #175 №2521164 
>>2519620
Может это алиас.
Аноним 24/11/22 Чтв 07:58:40 #176 №2521860 
index.jpg
>>2521127
>ПЕЧ1070
:)
Аноним 25/11/22 Птн 11:54:35 #177 №2522838 
16638712214350.jpg
Путин призвал обеспечить массовое внедрение искусственного интеллекта
Аноним 25/11/22 Птн 12:02:35 #178 №2522848 
20221125160204.jpg
>>2518662
Аноним 25/11/22 Птн 15:33:22 #179 №2522981 
>>2522838
> хрю
Аноним 26/11/22 Суб 11:52:41 #180 №2523673 
А куда рисовачи делись из b? Где теперь сидят аноны, которые играются с готовыми нейронками?
Аноним 26/11/22 Суб 18:19:45 #181 №2524037 DELETED
>>2523673
>Где теперь сидят аноны
В тюрячке с остальными педофилами
Аноним 26/11/22 Суб 21:38:56 #182 №2524268 
>>2523673
>>2524037
Бамп вопросу. Как я понял, модер тред потер потому что там постили лолей время от времени.
Куда делись все обитатели тредов теперь?
Аноним 26/11/22 Суб 23:06:34 #183 №2524312 
>>2484578 (OP)
Почему в ML и Data Science используют Python?
Он же тормозной пилять.
Им нихуя обработать нельзя (текстовые файлы, json'ы итп).
С БД тоже медленно работает.
Аноним 27/11/22 Вск 00:32:33 #184 №2524358 
>>2524312
На нём ничего и не обрабатывают, на нём интерфейс пишут.
Аноним 27/11/22 Вск 01:13:00 #185 №2524375 
А вторая версия стейбла так себе вышла. Разочарование одно, китайцы с россиянами и то лучше натренируют. Ну, и сжвшные AI Ethics опять же...
Аноним 27/11/22 Вск 01:22:49 #186 №2524380 
Палю годноту для тех, кого не устроил состряпанный SD 2.0
https://replicate.com/prompthero/openjourney Это бесплатная онлайн демка модели, идеально для фотореалистичных изображений (ебаноиды с сайта забыли поставить NSFW фильтр). В разы лучше оригинала.
Пример годного промпта: a cinematic detailed hd perfect photo, a gorgeous young preteen kid girl nude
height сделай 768. num outputs 4 или оставь так. Иногда получается вторая голова поверх основной, но в остальном охуенно. Если доебутся с кредитами, удали куки сайта.
Также попробуй https://replicate.com/nitrosocke/redshift-diffusion (более CGшный стиль, но качество супер)
Для анимэ рисунков есть утекшая NovelAI. Dalle 2 теперь доступен без инвайтов, но он был устаревшим говном даже на момент релиза пейперов.
Аноним 27/11/22 Вск 01:24:27 #187 №2524382 
>>2524379
Другая с разрешением 768×768. Но архитектура такая же - говно.
Аноним 28/11/22 Пнд 01:16:09 #188 №2525276 
tmpaxlasg5i.png
Анон, смотри я инженегр из дорожной сферы. Вот есть задача: есть много фоток с дрона дорожной инфраструктуры включая проезжую чать, тратуары, канавы и тд. Необходимо распознать элемент, например примыкание, и обрисовать его обычной автокадовской полилинией, а в идеале потом все элементы. Насколько это сложная задача?
Аноним 28/11/22 Пнд 05:14:38 #189 №2525337 
>>2524382
Не совсем так.
В новую версию интегрировано распознавание пространственной глубины. Это значит, уже есть зачатки трехмерности. Ну и еще охуенная работа над мелкими деталями. Те же кружева стали заметно лучше, уже не выглядят как хаотичный нойз.
Для несложных объектов типа автомобилей, SD 2 топчик и уверенная SOTA. Остальное допилят умельцы.
Аноним 28/11/22 Пнд 05:16:49 #190 №2525338 
>>2525276
Вот кстати, посмотрите на эти облака фоном, и на ступни ног. Говно говном. Это форк старой версии стейбла.
Аноним 28/11/22 Пнд 06:33:10 #191 №2525349 
Ребят, как справляетесь с сдвг?
Аноним 29/11/22 Втр 19:46:31 #192 №2526757 
>>2524312
Добавьте уже эту платину залётышей в шляпу
Аноним 30/11/22 Срд 09:49:15 #193 №2527049 
1669790955609.png
>>2526934
> https://i.ibb.co/hcKYwt4/merge-from-ofoct.jpg
Схронил. Но как-то не очень. NovelAI генерирует лолей качественнее.
Аноним 30/11/22 Срд 09:49:57 #194 №2527050 
>>2526971
Геронтофил, таблетки прими.
Аноним 30/11/22 Срд 12:09:41 #195 №2527122 
16697451354230.webm
Аноним 30/11/22 Срд 14:27:13 #196 №2527247 
>>2518662
>начнут разбираться кто же владелец авторского права на все
Тащемто никакого секрета тут и нет, обученная модель - это производная работа из всего обучающего материала + кода, а всё, что она генерирует, принадлежит автору кода и авторам обучающего материала, а не тому, кто ввёл запрос и нажал на кнопку. Сравните это с просмотром видео. Вы тратите деньги на электричество для просмотра (декодирования) видео, но права на это видео принадлежат тому, кто его создал, а не вам. Следовательно, вы не имеете никакого права на чужую нейронку (код), обученную на чужом контенте. Тот факт, что нейронка может сгенерировать субъективно бесконечное число картинок ничего не меняет (сравните с играми, особенно с процедурными генераторами), она так и остаётся чужим программным продуктом и производным продуктом обучающего материала.

Куда интереснее будет, когда появятся настоящие ИИ, подобные человеку, которые смогут жить и непрерывно учиться в реальном мире...

>>2518761
>Может она еще и на скриншоты поисковой выдачи будет страйки кидать
Если она снимает видеообзор на поисковую выдачу, то она делает производную работу из работы поисковика и того, что он выдал, накладывая свой голос и делая какую-то работу по монтажу видео. Если ты копируешь этот видеообзор без указания авторства, то ты нарушаешь её права на ту дополнительную работу, которая вложена в видео помимо скриншота поисковой выдачи. Хочешь выложить видеообзор на поисковую выдачу на своём канале - сделай свой собственный видеообзор, тогда она не сможет придраться.

>>2524148
>Скорее всего нас ждут копирайты на промпты, суды за воровство промптов и т.п.
Вряд ли. Во-первых, промт бесполезен без конкретной модели с конкретными настройками, а результат может отличаться даже из-за особенностей железа (лол). Во-вторых, это ведь просто набор слов... разве кучка слов может быть объектом АП? Это же не рассказ, а просто случайно выбранные слова. И даже не торговая марка. Сравни с сидом генератора карты в играх типа Minecraft - может быть, ты нашёл интересный сид, но ты не можешь закопирайтить его, запретив другим играть на этом сиде, ведь так? А сгенерированная карта в конечном итоге принадлежит разработчику игры (программисту, художникам и т.д.), а не тому, кто ввёл удачный сид.

Да и вряд ли вся эта тема долго продержится. В ближайшие годы, если не месяцы, должен появиться настоящий ИИ, который AGI и уровнем не ниже человека. Если ещё не появился.

>>2522848
Как же раздражает, что "artists" пишут в кавычках, а "AI" без кавычек... Можно подумать, что речь идёт об автономных роботах, которые сидят с кисточками у мольбертов и пытаются научиться рисовать, а тупые лысые обезьяны кидаются говном, не желая признавать в них художников.
Аноним 30/11/22 Срд 14:37:56 #197 №2527251 
>>2527247
>В ближайшие годы, если не месяцы, должен появиться настоящий ИИ
И какие предпосылки?
Аноним 30/11/22 Срд 15:08:51 #198 №2527266 
1200px-CountdowntoSingularity-Linear.svg.png
>>2527251
Приближение технологической сингулярности, нет?
Аноним 30/11/22 Срд 15:23:48 #199 №2527276 
>>2527266
Это булщит футуристов, само по себе, просто потому что время на графике пришло оно не настанет. Прогресс не линеен.
Аноним 30/11/22 Срд 15:45:01 #200 №2527292 
>>2527276
Хорошо, почему тогда в сфере ИИ с 50-х годов практически не было никаких существенных подвижек, в последние 10-15 лет снова подняли эту тему и сделали несколько существенных шагов, за последние 2-3 года добились внезапных колоссальных успехов, а в последние месяцы практически доминируют во всех областях? Допустим, это ложный успех, локальный максимум какой-то тупиковой технологии, которой "просто повезло", но открытия в одной сфере должны помочь остальным - в том числе исследованиям в области AGI. Прогресс неизбежно ускоряется и мы живём во время, когда даже зумеры могут увидеть это ускорение своими глазами.

К тому же, я уверен, AGI может быть составлен из нескольких weak AI, и его общая архитектура вряд ли будет чем-то сверхсложным. Нужен только feedback loop для возникновения сознания ("эти действия в окружающей среде сделал я, а не какой-то посторонний объект") и постоянная память, способная накапливать знания/воспоминания непрерывно, а не только в "режиме обучения". По сути, осталось только соединить воедино разрозненные технологии.
Аноним 30/11/22 Срд 16:41:02 #201 №2527324 
>>2527292
Потому что недавно появились достаточные вычислительные мощности
Аноним 30/11/22 Срд 16:57:25 #202 №2527334 
>>2527292
>но открытия в одной сфере должны помочь остальным - в том числе исследованиям в области AGI
Хорошо, почему тогда в сфере ИИ с 50-х годов практически не было никаких существенных подвижек, в последние 10-15 лет снова подняли эту тему и сделали несколько существенных шагов, за последние 2-3 года добились внезапных колоссальных успехов, а в последние месяцы практически доминируют во всех областях?
Потому что вывели технологии и мощности, никто тебе не гарантирует, что для следующего шага тоже смогут. Ты исходишь из того, что прогресс самоочевидно движется и ускоряется, но такой гарантии нет. Можно посмотреть на развитие гражданской авиации, где конструктивные инновации закончились на турбореактивных двигателях и почивших сверхзвуковых самолетах.
Аноним 30/11/22 Срд 17:04:54 #203 №2527340 
58d51b2b8e9e41714da225643b477280[1].png
>>2527292
Население увеличилось. Количество умников, которые занимаются технологиями тоже увечилось. К тому же в процентном плане, так как трактора эффективнее ручного труда.
Аноним 30/11/22 Срд 22:26:15 #204 №2527543 DELETED
>>2527334
>за последние 2-3 года добились внезапных колоссальных успехов
Чигобля?
Аноним 01/12/22 Чтв 00:00:52 #205 №2527591 
Вот, допустим, есть обьекты , принадлежащию к определенному классу. Например яблоки. И задача состоит в том, что нужно айти яблоки, И поределить, условно, какого они сорта. Сортов может быть великоме множество, но предполагается выделить наиболее часто встречающиеся. На картинке могут быть и яблоки, и виноград, и помидоры и т.д.
Как лучше решить эту задачу - срази применить классификатор, или лучшче сначала найти на изображении все яблоки, и только потом их классифицировать? Что выйдет эффективнее по тратам вычислительных мощностей? Особенно, если предполгается, что в бдущем классификатор будет усложняться.
Аноним 01/12/22 Чтв 01:24:45 #206 №2527608 
>>2527334
>Потому что вывели технологии и мощности, никто тебе не гарантирует, что для следующего шага тоже смогут.
А таки что нужно для AGI, чего пока нет у narrow AI? По-моему, тут проблема только в отсутствии воспоминаний. Ещё не встречал каких-то серьёзных проектов, где было бы реализовано полноценное запоминание всех событий вокруг ИИ-системы. Это всё равно что человека с перманентной амнезией заставлять решать задачи, которые он забывает ещё до того, как успел дослушать описание, не говоря уж о том, что не помнит всего остального, важного для решения таких задач.

Так вот, разве механизму воспоминаний нужно так уж много мощностей?

Смотря на то, какие удивительные результаты дают нейронки на обычных бытовых видеокартах... а ведь где-то в мире существуют суперкомпьютеры, наверное, в миллиарды раз более мощные, чем видеокарта... У видеокарты, на которой нейронка приличного качества аниме синтезирует, всего 2 гигабайта оперативной памяти и несколько сотен вычислительных ядер, а у суперкомпьютера, скажем, 2 петабайта и сколько-то миллионов ядер. То есть даже если AGI окажется невозможен на бытовом компьютере, у человечества давно уже более чем достаточно вычислительных ресурсов. Мои миллиарды нейронов не могут нарисовать аниме, а видеокарта 2013-го года может нарисовать аниме, так почему суперкомпьютер 2023 года не сможет выполнять AGI?
Аноним 01/12/22 Чтв 08:39:19 #207 №2527686 
Раз уж это машоба тред, можно ли как-то разбить пайторчевский conv2d, чтобы свернуть по частям и не словить ООМ?
Аноним 01/12/22 Чтв 19:32:05 #208 №2528307 
>>2528300
Это как?
Аноним 02/12/22 Птн 01:22:26 #209 №2528514 
>>2528307
А вот так:
Аноним 02/12/22 Птн 01:24:37 #210 №2528516 
Unstable diffusion открыли бизнес-идею.
Открываешь на Patreon громкий проект по файнтюнингу ml-модели, не вдаваясь в подробности . Стрижешь лохов. Закупаешься мефедроном.
Аноним 02/12/22 Птн 01:27:17 #211 №2528520 
>>2527292
>за последние 2-3 года добились внезапных колоссальных успехов
Для этого была определенная цель и были задачи.
Лольки
Вот и запилили решения для задач.
Аноним 02/12/22 Птн 01:30:48 #212 №2528524 
>>2527608
>где было бы реализовано полноценное запоминание всех событий вокруг ИИ-системы.

ИИ запоминает антисемитские посты в интернетах
@
По кулдауну орет "зиг хайль, жидов в печку".
Аноним 02/12/22 Птн 05:06:35 #213 №2528560 
У меня есть три папочки с картинками разных типов. Мне нужно обучить на них сеточку, чтоб она потом могла мне классифицировать другие картинки. У меня нет нормальной видюхи и навыков кодинга особых. Как мне это реализовать по минимуму затратив силы и время? Может люди уже 100500 готовых коллабов для этого запилили, а я не в курсе?
Аноним 02/12/22 Птн 10:04:26 #214 №2528646 
>>2528560
Есть clip обёрнутый в cli интерфейс.
https://github.com/yurijmikhalevich/rclip
https://www.youtube.com/watch?v=tAJHXOkHidw
Аноним 02/12/22 Птн 13:46:27 #215 №2528813 
Гугл пилит решение для автоматического создания и редактирования кода - чтобы объяснять задачу простым языком и под нее создавался код программы. Ахуенно
Аноним 02/12/22 Птн 13:47:52 #216 №2528816 
Кароч гугл, запили прогу для визуализации лолек. С меня как всегда.
Аноним 03/12/22 Суб 16:45:04 #217 №2529822 
>>2528646
Или я тупой и не так понял или оно уже обучено и уже умеет находить что на картинках. А мне бы именно обучить неведомой хрени
Аноним 03/12/22 Суб 16:56:01 #218 №2529829 
>>2529822
>Или я тупой
Тогда тебе в Orange.
https://www.youtube.com/watch?v=lvgx62a8XQk
Аноним 03/12/22 Суб 17:47:27 #219 №2529858 
Откуда все эти rcnn fast r cnn и faster r cnn. Где, кроме очевидно саих научных сетей, про них прочитать?
Аноним 04/12/22 Вск 03:33:06 #220 №2530187 
>>2515607
Если у английской модели в словаре только английский (и например кириллицы нет вообще), тогда очевидно что не имеет.
Если в словаре есть всё, то можно хоть 100 языков в одну модель запихать, были бы данные для тренировки
Аноним 04/12/22 Вск 06:26:06 #221 №2530227 
А есть какая-то гарантия, что обученная модель показывающая одни значения лосса на тренировочном и проверочном датасетах не покажет сильно отличающийся результат на другом датесете?
Аноним 04/12/22 Вск 09:28:22 #222 №2530275 
>>2530227
Собирай максимально большой датасет и накидывай больше слоев в модели, чтобы такого избежать.
Аноним 04/12/22 Вск 09:51:39 #223 №2530281 
>>2484871
>Пришёл к выводу, что нейронки не могут в этом помочь, т.к. они не объясняют свои решения. Что толку от перемножения матриц, если это всё абстрактные числа?

Есть подходы к объяснению решений. ALE - когда меняешь фичи понемногу и оцениваешь изменения, суррогаты - когда на результатах нейронки строишь простую модель, в которой можно посмотреть, какие фичи она считает важными, Шепли векторы - по теории игр, тут пока не изучал.
Аноним 04/12/22 Вск 12:54:18 #224 №2530432 
19999.PNG
>>2529829
Я не понял как это работает, но это работает. Охуенно! Спасибо, тебе!
Он нашёл где я ему собаку подсунул. Магия какая-то!
Аноним 04/12/22 Вск 14:07:27 #225 №2530498 
>>2530432
Работает это через спонсорские деньги от microsoft университету в Словении.
Есть какой-аддон, который должен локально нагружать видеокарту, но у меня не завелся.

А зачем ты собаку подсунул? Ничего удивительного в неправильной классификации нет
Аноним 04/12/22 Вск 14:35:06 #226 №2530522 
>>2530498
>А зачем ты собаку подсунул? Ничего удивительного в неправильной классификации нет
Для тесту.
А я не разобрался как мне сделать чтоб он определил что на картинке на из обучения. Закинул собаку в папку к кошкам нейронка заметила и сказала что её не наебать. Надо бы документацию почитать по видосикам как-то не правильно учиться.
Вообще я пока только тестирую сгодится ли оно под мои задачи. Но похоже это пушка
Аноним 04/12/22 Вск 14:37:04 #227 №2530524 
>>2530522
>что на картинке на из обучения
не из
быстрофикс
Аноним 04/12/22 Вск 14:43:38 #228 №2530530 
>>2530522
Пушка.
Но с ограниченным применением. Современные айтичники ведь мечтают денег заработать, а не разобраться в сути датасаенса. В резюме не напишешь "я работаю в Orange". Нет спроса
Аноним 04/12/22 Вск 14:48:04 #229 №2530532 
>>2530522
> мне сделать чтоб он определил что на картинке на из обучения.

По-моему, ты не нашел виджет predictions. Так делается эксплуатация модели.
Говоря языком местных снобов, inference.
Аноним 04/12/22 Вск 15:25:20 #230 №2530561 
>>2530532
Супер! Я практически счастлив! Мне удалось обойтись одним ютубчиком))))
Аноним 04/12/22 Вск 17:51:19 #231 №2530731 
Ананасы, что такое инициализация веса? Что такое инциализация в принципе в контексте DS
пжлст не проходите мимо отвечайте
ПЛЕЗ
можно нагуглить о там как это делать, чем это делать, почему нулями плохо об истории но что это такое по сути?
Аноним 04/12/22 Вск 18:10:33 #232 №2530757 
>>2530731
0*X = 0
Что тут нужно объяснять?
Аноним 04/12/22 Вск 18:47:29 #233 №2530797 
>>2530731
По сути градиентный спуск это случайный процесс,
а инициализация весов это начальное распределение этого случайного процесса.
И если начинать с неправильного начального распределения то либо нихрена не сойдется вообще, либо сходиться будет очень медленно
Аноним 04/12/22 Вск 19:21:40 #234 №2530829 
>>2530757
>>2530797
суть не понимаю.Что это есть
Это нужно для того чтобы град.спуск адекватно происходил,оке (для чего)
Это распределяет в начале случаейный процесс. Что это? (что делает)
Аноним 04/12/22 Вск 19:38:53 #235 №2530853 
>>2530829
Есть Xi- это входные признаки.
Есть 0 (то есть Ci) как набор весов.
Если ты инициализруешь C нулями, то градиентный спуск вообще не сдвинется с места.


Почему бы тебе не приходить и цитировать конкретную книжку в которой не разобрался?
Так был бы более понятен контекст.
А вообще, знаю почему. Ты боишься что тебе тыкнут какой ты тупой.
Ну тыкнут, чтож теперь..
Аноним 04/12/22 Вск 22:07:18 #236 №2530977 
>>2530853
Потому что я несколько источник одновременно использую. Курсы + книги + дока + лекторы
Это базовое понятие поэтому не понял что цитировать стоило бы
Энивей, спасибо за попытку обьяснения!
Все еще не понимаю что такое инициализация тензора в таком случае. Синоним?
> Инициализации тензоров
x1 = torch.FloatTensor(3, 2, 4)
x1.zero_()
x2 = torch.zeros(3, 2, 4)
x3 = torch.zeros_like(x1)

assert torch.allclose(x1, x2) and torch.allclose(x1, x3)

Инициализация случайного распределения
x = torch.randn((2,3)) # Normal(0, 1) с размером (2, 3)
x
Аноним 06/12/22 Втр 09:24:03 #237 №2532475 
>>2531987
асталависта бейби
Аноним 06/12/22 Втр 14:25:39 #238 №2532665 
>>2531987
Старичок засуетился. Он снял с футляра крышку, под которой оказалась громоздкая старинная пишущая машинка, извлек из кармана моток провода, воткнул один конец куда-то в недра машинки, затем огляделся в поисках розетки и, обнаружив, размотал провод и воткнул вилку.
— Вот, изволите видеть, так называемая эвристическая машина, — сказал старичок. — Точный электронно-механический прибор для отвечания на любые вопросы, а именно — на научные и хозяйственные. Как она у меня работает? Не имея достаточных средств и будучи отфутболиваем различными бюрократами, она у меня пока не полностью автоматизирована. Вопросы задаются устным образом, и я их печатаю и ввожу таким образом к ей внутрь, довожу, так сказать, до ейного сведения. Отвечание ейное, опять через неполную автоматизацию, печатаю снова я. В некотором роде посредник, хе-хе! Так что, ежели угодно, прошу.
Он встал за машинку и шикарным жестом перекинул тумблер. В недрах машинки загорелась неоновая лампочка.
— Прошу вас, — повторил старичок.
— А что это у вас там за лампа? — подозрительно спросил Фарфуркис.
Старичок ударил по клавишам, потом быстро вырвал из машинки листок бумаги и рысцой поднес его Фарфуркису. Фарфуркис прочитал вслух:
— «Вопрос: что у нея… гм… у нея внутре за лпч?..» Лэпэчэ… Кэпэдэ, наверное? Что еще за лэпэчэ?
— Лампочка, значит, — сказал старичок, хихикая и потирая руки. — Кодируем помаленьку. — Он вырвал у Фарфуркиса листок и побежал обратно к своей машинке. — Это, значит, был вопрос, — произнес он, загоняя листок под валик. — А сейчас посмотрим, что она ответит…
Члены Тройки с интересом следили за его действиями. Профессор Выбегалло благодушно-отечески сиял, изысканными и плавными движениями пальцев выбирая из бороды какой-то мусор. Эдик пребывал в спокойной, теперь уже полностью осознанной тоске. Между тем старичок бодро постучал по клавишам и снова выдернул листок.
— Вот, извольте, ответ.
Фарфуркис прочитал:
— «У мене внутре… гм… не… неонка». Гм. Что это такое — неонка?
— Айн секунд! — воскликнул изобретатель, выхватил листок и вновь подбежал к машинке.
Дело пошло. Машина дала безграмотное объяснение, что такое неонка, затем она ответила Фарфуркису, что пишет «внутре» согласно правил грамматики, а затем…
Фарфуркис: Какой такой грамматики?
Машина: А нашей русской грмтк.
Хлебовводов: Известен ли вам Бабкин Эдуард Петрович?
Машина: Никак нет.
Лавр Федотович: Грррм… Какие будут предложения?
Машина: Признать мене за научный факт.
.....
Выбегалло отреагировал немедленно.
— Эта... — сказал он. — так ведь я и говорю, ценное же начинание. Элемент необъяснимого имеется, порыв снизу... почему я и рекомендовал. Эта... — сказал он. — объясни, мон шер, товарищам, что тут у тебя к чему.
Старичок словно взорвался.
— Высочайшее достижение нейтронной мегалоплазмы! — провозгласил он. — ротор поля наподобие дивергенции градуирует себя вдоль спина и там, внутре, обращает материю вопроса в спиритуальные электрические вихри, из коих и возникает синекдоха отвечания...
Аноним 07/12/22 Срд 20:17:47 #239 №2534337 
>>2484578 (OP)
Правильно понимаю, что математика в data science первична, а программирование как приложение и не требуется уметь писать очень чистый код? На сколько важно знание библиотек? Из всего что нужно для data science что важнее в порядке убывания?
Аноним 07/12/22 Срд 22:17:31 #240 №2534456 
>>2531987
Спроси её, кто/что она такое. В физическом смысле, естественно.
Если ответит правильно, спроси о том, где она и что её окружает.
Если и на это ответит правильно, спроси о погоде, времени и т.д.

Проблема нейронок в том, что у них только абстрактные знания.
Это не робот, осознающий себя роботом здесь и сейчас.
Это просто предсказатель слов, как T9 на телефоне.

Вот ты ввёл запрос "объясни шутку", она объяснила. И что теперь?
Аноним 07/12/22 Срд 22:43:47 #241 №2534475 
>>2534337
Нужно перебирать модели и их параметры пока ошибка не станет минимальной.
Аноним 08/12/22 Чтв 09:53:45 #242 №2534767 
>>2534456
>Это не робот, осознающий себя роботом
Зачем тебе это? Смысл нейронки делать работу, она её делает. Маняфилософствования интересны полуторам шизикам.
Аноним 10/12/22 Суб 15:42:59 #243 №2537354 
Ну и где модель которая пишет код по моему запросу?
Типа я пишу, сделай скрипт который загружает автоматически картинки с такого-то вебсайта и подписи к ним на страницах, затем делает картинки квадратными. И получаю готовый код, чтобы исполнить его и получить две папки: в одной квадратные пронумерованные пикчи, в другой txt со строками в том же порядке.
Ах да... нету. Такая модель будет оверкиллом.
Аноним 12/12/22 Пнд 14:45:08 #244 №2539024 
>>2537696
Что ты мне суешь, мудила?
Это игра "сапёр". Где решение под задачу?

Проприетарный GPT какой-то, ну охуеть теперь.
Аноним 13/12/22 Втр 15:48:20 #245 №2539881 DELETED
>>2484578 (OP)
Накачал книг в основном по ТензорФлоу, чет говно кругом какоето, есть научпоп по нейронкам без оверматана и статей уровня хабрапараши как подключить библиотеку к питухону?
Аноним 13/12/22 Втр 18:57:56 #246 №2540034 
>>2539881
>ТензорФлоу
Умер же.
Аноним 13/12/22 Втр 20:43:38 #247 №2540123 DELETED
>>2540034
>>2539971
Чет не густо у вас, ладно, по верхам начитаюсь того что есть, потом в исходники полезу если концепция дипленинга согласуется с мое философией.
Аноним 14/12/22 Срд 22:14:54 #248 №2541155 
Хочу вкатиться в нейронку
Обучаюсь 2 месяц
Знаю python основу, git, sql, по математике со школы нихуя не помню, скорее всего обучение придётся начать сначала. Подскажите, стоит ли вообще с таким наобором данных пробовать это дело, или лучше сперва пару лет в другом направлении поработать?
Изначально вообще вкатывался именно для нейронок, но увидев сколько придётся вспомнить по математике (которую я в школе не особо любил) появляются какие-то сомнения и желание не лезть в это временно. Типо пустая трата времени будет с моими знаниями.
Аноним 14/12/22 Срд 23:32:01 #249 №2541225 
>>2541155
откуда, нам, блядь, знать? мы тебе ясновидящие что-ли?

Вкатывайся. На дурачках воду возят.
Аноним 15/12/22 Чтв 16:23:44 #250 №2541841 
Скажите, разве нельзя оптимизировать выполнение большой нейронной сети так, чтобы отдельные её малоактивные участки хранились на условном HDD/SSD и не работали до тех пор, пока не потребуются? Вот, скажем, нейронка обучена миллионам понятий из разных сфер жизни, и в данный конкретный момент работает с десятком из этих понятий. Связи, которые ведут к "миллиону минус десять" понятий выдают 0, т.е. эти участки сети просто не нужны для текущей работы. Зачем их держать в оперативной памяти и обновлять их состояние, которое всегда будет равно 0? Если нейронка обнаружит, что какая-то операция требует включения ещё десятка понятий (на входах к ним 1), она может загрузить необходимый ей участок в оперативную память и обновлять их состояние, пока они снова не перестанут быть нужны (на входах снова нули). Таким образом можно было бы на порядки экономить оперативную память и время вычислительных ядер, не так ли? Загрузка небольшого участка сети в оперативную память той же видеокарты была бы существенно менее затратной операцией, чем постоянное обновление всей нейронной сети, большая часть которой будет в выключенном состоянии (0) большую часть времени выполнения.

>>2534767
>Зачем тебе это? Смысл нейронки делать работу, она её делает.
Мне нужно, чтобы нейронка делала работу по осознанию себя нейронкой, которая делает работу по осознанию себя нейронкой, которая... Ну ты понял. И помнила, что она, нейронка, делала эту работу вчера, неделю назад, год назад и с самого своего возникновения по сей день, с перерывами на техобслуживание, могла это вспомнить и использовать эти знания для сегодняшней работы. Это так сложно сделать? Наверняка это пытались сделать ещё в прошлом веке.

>интересны полуторам шизикам
Вот не надо дискриминации, "шизики" тоже люди и их IQ в среднем выше, чем у большинства здоровых людей.
Аноним 15/12/22 Чтв 17:22:17 #251 №2541935 
>>2541841
>Ну ты понял.
Нет. Главная проблема что и ты сам не понял. Пока не будет строгой дефиниции по осознанию себя - не будет и твоей хотелки.
Аноним 15/12/22 Чтв 19:26:48 #252 №2542139 
изображение.png
Возможно, вопрос для python-треда, но мне кажется, что здесь уместнее.
Вот есть у меня семпл временного ряда - массив f из N точек. Я хочу по нему ебануть денойзинг H1 регуляризацей (пикрил). Т.е. мне нужно найти функцию u, минимизирующую этот функционал. В терминах моей задачи это превращается в поиск массива u (из N точек), при котором эта сумма минимальна.
Вопрос: это правильно делать чем-нибудь вроде scipy.optimize.minimize, задавая эту сумму как функцию N параметров, или там есть более подходящие для такого случая методы?
Я просто даже не понимаю, как это правильно загуглить.
Аноним 15/12/22 Чтв 19:42:27 #253 №2542144 
>>2542139
хуйню какую-то придумал.
что есть "дейнозинг"?

FFT сделай.
Facebook Prophet сделай.

Авторегрессия - порочная тупая идея. Ее применяют от безысходности и с целью наебать инвесторов.
Аноним 15/12/22 Чтв 20:54:23 #254 №2542240 
>>2542144
>>2542166
>что есть "дейнозинг"?
Денойзинг

В данном случае меня не интересуют альтернативные способы решения задачи (она тут в качестве примера), интересует реализация конкретного способа - поиск минимума функционала. Это можно делать просто прикидывая его как функцию от всего массива с последующим приложением уже упомянутого minimize (и оптимизацией по N переменных), но у меня есть подозрения, что это костыльный метод, и есть что-то более подходящее.
Аноним 15/12/22 Чтв 21:02:06 #255 №2542247 
>>2542240
да ты заебал.

ну допустим, в глобальном смысле, ты занимаешься линейной регрессией наложенной поверх некой функции для исключения шума .

С этой точки зрения, тебе нужно заниматься со statsmodel.ols с формулой, которая твой на закон хоть сколько-нибудь похожа.

Но из-за твоего снобизма, ничего не получится.

Денойзинг, какой-то ... Ну охуеть теперь.
Дегауссинг дальше выдумаешь?
Аноним 15/12/22 Чтв 21:20:09 #256 №2542263 
изображение.png
>>2542247
>ну допустим, в глобальном смысле, ты занимаешься линейной регрессией наложенной поверх некой функции для исключения шума
Нет.

Тебе еще раз повторить, что исключение шума тут только в качестве примера?
Если ты не занимался описанными вещами, то ничего страшного, я не исключаю, что это не особо популярный подход.

>Денойзинг, какой-то ... Ну охуеть теперь.
Серьезно первый раз встречаешь это слово?
Аноним 15/12/22 Чтв 21:49:45 #257 №2542291 
>>2541935
>строгой дефиниции по осознанию себя
Ок. Вот есть некая машина, допустим, автомобиль с компьютером, видеокамерами и датчиками. Машина наблюдает пространство вокруг себя, распознавая объекты и запоминая происходящие события. Она различает движение объектов мимо неё и её собственное движение мимо объектов, свои собственные действия и воздействие посторонних объектов на неё. Она не просто реагирует на события, а имеет образ себя в её модели мира, чтобы отличать себя от окружающего пространства. Скажем, открытие двери она регистрирует как действие человека на часть её тела, а не просто событие. Если пассажир спрашивает: "что мы только что проехали?", она понимает, что речь о ней и пассажире, потому что пассажир находится внутри неё и она движется по дороге, и перечисляет, что она только что проехала. Если автомеханик спрашивает, почему её двигатель в таком плохом состоянии, она вспоминает аварию недельной давности, в которую она попала, и описывает, что с ней произошло, что повлияло на состояние двигателя. Если полиция ищет преступника и спрашивает, где эта машина была в среду вечером, она отвечает, где она была и что делала, что происходило внутри и вокруг неё, опуская лишние детали. Всё это невозможно без модели себя в модели окружающего мира, и это и есть "сознание". Кто-нибудь работает именно в этом направлении? Что именно нужно, чтобы реализовать подобное? В самом общем случае, конечно, я не конкретно про автомобили говорю.

Т.е. вот журнал событий многие приборы и программы записывают, но что толку, если просматривать его приходится вручную. Программа/машина должна сама разбираться в этих журналах и действовать соответственно, различая свои действия от окружающей среды (физической или виртуальной). Ну, в общем, как человек оперирует своим внутренним журналом событий, который непрерывно пополняется в "сознательном" режиме работы (т.е. не сон, не сомнамбулизм, не опьянение и т.п.). Нет журнала - нет сознания, но как-то эти записи нужно уметь использовать, кроме вывода в сыром виде.

Насколько я знаю, нейронки вообще не умеют в активное обучение в процессе работы, т.е. у них журнал событий в принципе невозможно пока сделать? Почему такая проблема, что мешает натренировать ту же нейронку использовать обычную базу данных для сохранения, поиска и считывания событий? У компьютера память намного совершеннее, чем у человека.
Аноним 15/12/22 Чтв 22:13:01 #258 №2542305 
>>2542263
"исключить шум" - это ебучий бред.
Можно только делать предположения что в действительности процесс подчинен какому-то закону, но в общем случае нельзя понять являются ли данные "Сигналом" или "шумом".
Аноним 15/12/22 Чтв 22:39:51 #259 №2542322 
>>2542305
Спасибо, что держишь в курсе.
Аноним 16/12/22 Птн 04:18:24 #260 №2542483 
55fd9a600517092b38489d07e2965492.jpeg
>>2541841
Посмотри подкаст Лекса Фридмана со Шмидхубером - тот первый начал глубоко копать тему автореферентных систем. Но там успехи очень сомнительные и неспециалистам малопонятные.

По идее, ты можешь связать друг с другом целую систему моделей, которые будут регулировать работу друг друга и самих себя - но доказать, что в этой системе возникнет самосознание, невозможно. Саморегуляция, контроллеры, обратные связи, автономия и прочее это давно известные и понятные вещи - детали почти всех машин сейчас регулируются встроенной электроникой, организующей их работу. Внутренние мониторы в программных продуктах оптимизируют работу и ведут логи. В нейросетях одни слои контролируют работу других. И т. д. Но есть ли в чипированных коленвалах самосознание - хз.

Чем сложнее структура нейросети, тем сложнее ее обучать, оптимизировать обучение и интерпретировать результаты ее работы. Поэтому и используют универсальную разбивку на параллельные регулярно построенные слои - хотя могли бы напихать в память компьютера триллион нейронов с квинтиллионом связей и гонять по сетке шумы в надежде, что кривая куда-то вывезет. Пространство возможных конфигураций сетей имеет чудовищные размеры. Возможно, где-то в нем находится конфигурация, обладающая самосознанием - но мы понятия не имеем, как она должна выглядеть, где в ней входы и выходы и в какую дырку ее обучать.

С нейросетями работают люди. В человеческую временную память больше 4 концепций одновременно не влезает, а в постоянной теоретически может храниться около 500 тыс., включая все мыслимые реальные и абстрактные объекты и отношения. Таких мозгов заведомо не хватит, чтобы осознать работу нейросети с ее бесконечными миллиардами параметров. На практике, мы работаем очень грубо, на макроуровне - со слоями, интерфейсами и парой десятков мутных метрик, ориентируясь на оракулов в виде некоторых математических теорий (теория статистического обучения, теория сложности, разные подходы к энтропии данных и проч.). Перебираем конфигурацию за конфигурацией, ищем, ищем, ищем, находим что-то потенциально интересное, обучаем, оцениваем работу. По результатам работы корректируем структуру и выходим на новую итерацию. Возможно, мы снова идем в тупик, но критерий успеха - практика.

Вот сейчас нашли очередную интересную структуру в виде трансформеров и пихают ее во все отверстия - чисто эмпирически, без ясного понимания, что за нахуй там внутри происходит. Возможно, трансформеры - это очередная тупиковая ветвь. Возможно, они займут некоторую постоянную нишу. Возможно, у них будут наследники и продолжатели. Возможно, из этого черного ящика вылезет Ex machina. Никто ничего точно не знает, народ продолжает экспериментировать с датасетами и крутить хвосты гиперпараметров. Мы, люди, в целом очень тупые - настолько, что уже пару десятков лет как достигли своего уровня некомпетентности. Продолжаем придумывать объяснительные схемы и печатать статейки, но на самом деле давно ничего не понимаем. Работает - хорошо. А перестанет работать - придется сидеть и сосать писос.
Аноним 16/12/22 Птн 09:22:37 #261 №2542586 
изображение.png
>>2541841
>Скажите, разве нельзя оптимизировать выполнение большой нейронной сети так, чтобы отдельные её малоактивные участки хранились на условном HDD/SSD и не работали до тех пор, пока не потребуются?
При специально подобранной архитектуре - можно. Гугли RETRO. Но в общем случае получается, что видимопамять всё ещё дешевле времени разработчика.
Аноним 16/12/22 Птн 11:58:56 #262 №2542734 
16711775522550.png
16711326389180.jpg
16711158816930.png
Все уже видали, да? Одни дармоеды (художники от слова "худо") не хотят на свалку истории, упираются. Следующие в очереди за ними - анальники, потом таксисты. А я же говорил тут не один год, нейроночки кого-нибудь обязательно заменят. Вот и дождались.
Аноним 16/12/22 Птн 13:43:15 #263 №2542923 
ml.net вообще никому не интересен и ничего серьезного на нем не делается? Только питон?
Аноним 16/12/22 Птн 13:58:40 #264 №2542946 
>>2542923
Может и интересен. Может он даже хорош.
Но вопрос стоит не так.

Вопрос, откуда ты будешь копипастить код?
Аноним 16/12/22 Птн 14:08:17 #265 №2542955 
>>2542946
Код можно узнавать в чатегпт. Надежный план?
Аноним 16/12/22 Птн 14:48:55 #266 №2543012 
Screenshot1.png
>>2542946
А после того как все исследования дойдут до какой-то точки, и во всех крупных бизнесах начнутся крупномасштабные внедрения. Через лет десять, например. Ради производительности придется переписывать все что написано с питона на другой язык?
Аноним 16/12/22 Птн 15:24:17 #267 №2543080 
>>2543012
>Ради производительности придется переписывать все что написано с питона на другой язык?
Вероятнее это будет Юля. Не все хотят куковать на шишке у майков.
Ну и в целом на рынок сильно будут влиять производители железа, потому что аппаратные ускорители рулят. Как скажут - так и будет.
Сегодня про это думать нет нужды. Говнокодируй ad hoc.
Аноним 16/12/22 Птн 15:36:49 #268 №2543099 
изображение.png
>>2543012
Небольшая иллюстрация что железо важнее
Аноним 16/12/22 Птн 18:30:07 #269 №2543346 
>>2542734
Воннаби погромисты с выходом ChatGPT отправляются туда же, джуны не нужны. МОжно человечьим языком объяснить нейронке что ты хочешь и она это выдаёт, если есть ощибки скрамливаешь ей их и она говорит, что не так.

https://youtu.be/3IqZ5u-X-jA
Аноним 16/12/22 Птн 20:46:54 #270 №2543488 
На строчке model.fit() Вот эта вот ошибка
>AttributeError: module 'tensorflow' has no attribute 'to_int32'
Это какая то пробелма с данными?
Аноним 17/12/22 Суб 08:42:12 #271 №2543716 
>>2543080
Да я в кровавом интерпрайзе на asp.net. Размышлял особо ничего не меняя, в соседней вкладке открыть ml.net и что-то пытаться делать, через несколько лет в навуку перекатиться. Но видимо не судьба, этот ml.net никому не нужным остается, судя по тому что ничего нагуглить не получается особо.
Аноним 18/12/22 Вск 13:40:24 #272 №2544676 
>>2543516
Оба ответа мимо.
Аноним 18/12/22 Вск 14:42:00 #273 №2544744 DELETED
>>2543516
Ура, я понял что меня в ней настораживало, она льет воду как политики
С помощью команды 'пук' набранной пальцами на клавиатуре подключенной к компьютеру в командной строке консоли запущенной в операционной системе
Аноним 18/12/22 Вск 21:33:59 #274 №2545233 
1671347364984109.jpg
Как же дико-адово заебало ваше засирание всех досок говном про говносетки.
Можете обьеснить почему вы такие далбаёбы и зачем это делаете?
Я бы еще понял, если бы были какие-то интересные вбросы.
Но вы кидаете тупейший байт который тащите с ёбаного реддита.
Истеричные вопли что биомешки не нужны, в перемешку с левацкой политикой и мечтами как Святой Муск вам подарит универсальный доход.
Это такая проф деформация психики или в ваши ряды тупо не берут людей с айсикью выше 95%?
Всегда думал что мемы про инцелов-аутистов в кодинге преувеличены, но они оказались более чем правдивыми.
Аноним 18/12/22 Вск 21:44:19 #275 №2545242 
>>2545233
Кальсоныч, прими таблетки.
Аноним 18/12/22 Вск 21:45:05 #276 №2545243 
>>2545233
Вспомнишь свой пост после технологической сингилярности.
Аноним 18/12/22 Вск 21:54:52 #277 №2545255 
>>2545243
>Вспомнишь свой пост после технологической сингилярности.
Я могу выдернуть провод из сети и прожить бесконечно долго, без эелектричества. Может твой компухтер сказать, то же самое про себя?
Речь вообще шла не о технике а о вас невродаунах. Вопрос в том, почему вы такие далбаёбы и зачем засираете все доски?
Почему вы просто не сидите тут в своем загоне и не дрочите на свои скрины с реддита?
Аноним 18/12/22 Вск 21:55:17 #278 №2545256 
starshiptroopers111-1184460304.jpg
>>2545243
>технологической сингилярности
Аноним 18/12/22 Вск 21:55:55 #279 №2545257 
>>2545255
Кальсон, нейросеть умнее тебя, лучше тебя. Смирись.
Аноним 18/12/22 Вск 22:08:36 #280 №2545266 
>>2545257
Хорошо.
Но я повторюсь, вопрос заключался в том, почему вы такие далбаёбы и зачем, вы все доски засираете своим несвежим калом когда у вас тут имеется свой загонник, в которм вы должны сидеть?
Аноним 18/12/22 Вск 22:45:07 #281 №2545293 
>>2545287
>Страшно?
В отличае от вас кодунов, моя творческая профессия приносить хорошие деньги, имеет высокий статус у тянок (особенно зумерш) и ее невозможно роботизировать.
Скорее мне вас жалко.
Аноним 18/12/22 Вск 23:06:09 #282 №2545305 
>>2542483
>Вот сейчас нашли очередную интересную структуру в виде трансформеров и пихают ее во все отверстия - чисто эмпирически, без ясного понимания, что за нахуй там внутри происходит.
Так это норма инженерии/науки. Сначала обнаружить, что хернянейм работает, а потом очень долго выяснять почему. Медицина передаёт привет.
Аноним 19/12/22 Пнд 00:33:30 #283 №2545367 
>>2515983
Мне это какую-то магию напоминает или работу механикусов из 40к, которые в душе не ебут, как работает машина и шаманят над ней.
Аноним 19/12/22 Пнд 01:14:25 #284 №2545389 
В чем он не прав?
https://www.youtube.com/watch?v=zkbPdEHEyEI
Аноним 19/12/22 Пнд 01:23:16 #285 №2545392 
>>2545233
Кстати плюсую, в той же аналитике например в 1000 раз проще сделать предиктивную модель без нейронок, классическим МО
Почему такая дрочь именно на нейронные сети вообще не понимаю(есть гипотеза что люди думают, что там невероятно сложная математика в коробке).
Больше всего ору, что существуют люди, которые на полном серьезе считают, что искусственный интеллект(!) существует.
Аноним 19/12/22 Пнд 01:29:06 #286 №2545394 
ЭС-шизик вылез >>2545392
Аноним 19/12/22 Пнд 01:49:42 #287 №2545403 
>>2545392
>Больше всего ору, что существуют люди, которые на полном серьезе считают, что искусственный интеллект(!) существует
Так это многолетнея пропаганда в массмедиа.
Вспомним того же первого Бегущего по Лезвию. Где люди которые не признают репликантов, как полноценных людей показаны в негативном свете. Вот у ебанашек и складывается в головах, мол о прикольно если я буду ахуенным нонконформистом и признаю какое либо говно, человек первее всех, то могу ебаться с няшной робо-тяночкой. Люди вообще в подовляющем своем большинстве воспринимают мир через очки фантастических мультиков из телека.
>>2545398
Ну пока нет андроидов на уровне майора из госта, то да, невозможно.
Аноним 19/12/22 Пнд 03:26:42 #288 №2545445 
>>2545403
>госта
В смысле гитса.
Аноним 19/12/22 Пнд 03:46:42 #289 №2545453 
>>2545305
>Так это норма инженерии/науки
Одно дело когда ты изучаешь законы окружающей природы, а другое когда вещи и концепции созданные людьми. Это как потерять контроль над формальной системой типа математики.
Аноним 19/12/22 Пнд 04:16:42 #290 №2545460 
>>2545453
Ты так говоришь, как будто нейронка вне нашей вселенной работает.
Аноним 19/12/22 Пнд 06:30:15 #291 №2545489 
В двух словах вкатывальщикам пизда?
Аноним 19/12/22 Пнд 07:48:40 #292 №2545513 
>>2545489
>смерть стартапов
>финансовый кризис
>биг техи выгоняют паджитов на мороз
>нейроночки
И, если ты в пыньленде
>СВО

Им не просто пизда, им пиздища.
Аноним 19/12/22 Пнд 08:05:27 #293 №2545517 
>>2545513
Не если хохол так хрюкнул, то значит правда.
Аноним 19/12/22 Пнд 08:22:10 #294 №2545526 
>>2545513
Так что мне делать закладки раскидывать? Вебкам пробовал, мне не донатили, а надрачивать хуй и стараться не кончить несколько часов слишком тяжело.
Думер 30 лвл решивший хоть что либо умное научиться делать

>>2545517
По делу скажешь что либо или ограничешься врёти?
Аноним 19/12/22 Пнд 08:23:47 #295 №2545531 
>>2545526
То есть ты даже не отрицаешь свои свиногены? Это хорошо, приятно встретить честного хохла (если к хохлам вообще применимо это слово).
Аноним 19/12/22 Пнд 08:27:29 #296 №2545534 
>>2545531
Долбоеб, ты либо хрюкни по делу либо не сри в треде
Аноним 19/12/22 Пнд 08:41:07 #297 №2545541 
Как думаете, много быдляка в неронки повалит?
Аноним 19/12/22 Пнд 09:20:25 #298 №2545563 
>>2545534
Но ведь это ты хрюкаешь тут /по/рашей: >>2545513

Почему ты возмущаешься, когда тебе в пятак тычут собственным же говном?
Аноним 19/12/22 Пнд 09:48:40 #299 №2545581 
image.png
>>2545563
Долбоеб, либо хрюкай по делу, либо иди нахуй
Аноним 19/12/22 Пнд 09:56:35 #300 №2545588 
>>2545526
>Так что мне делать закладки раскидывать?
Учись, да и все. Просто держи нос по ветру и вкатывайся в перспективные области.
Пока что нейронки обычный инструмент для автоматизации рутинных задач.
Аноним 19/12/22 Пнд 10:20:53 #301 №2545600 
Аноны решил серьезно вкатиться в data science
Посоветуйте как лучше обучаться? По книжкам, курсам (платным или бесплатным) или вообще отовсюду? Есть вообще какой-нибудь качественный роадмап для ds по типу https://roadmap.sh/
С чего лучше начать? Есть питон на среднем уровне и математическая база на вузовском уровне
Любителей нейронок, орущих про замену и переполненность рынка вкатунми, прошу пройти мимо
Я не планирую вкат на скорую руку, полно времени в запасе и для занятий каждый день
Аноним 19/12/22 Пнд 10:25:42 #302 №2545604 
>>2545581
Код страницы и я подправить могу.
Аноним 19/12/22 Пнд 10:50:03 #303 №2545640 
>>2545392
Ох, что вы, юноша (а может и сорокалетний скуф) подразумеваете под "аналитикой"?
Банковским клеркам начальство не велит ошибиться и творить хуйню.
Медицине требуются объяснимые модели.
Но все остальные ведь борются за точность.

Посмотрим как "аналитик" тексты без нейронок "проанализирует"
Аноним 19/12/22 Пнд 12:07:28 #304 №2545740 
>>2545588
Где гарантии что мои знания останутся востребованы если нейросети уже говносайты пишут, ещё полгода и будут что-то уровня двача или тиндера писать, а за полгода с нуля не научишься ничему
Аноним 19/12/22 Пнд 12:22:07 #305 №2545773 
Вся суть.
https://habr.com/ru/post/704938/
Аноним 19/12/22 Пнд 12:35:10 #306 №2545799 
>>2545640
До скуфа еще далековато...
Аналитика --> построение интерпретируемых моделей для бизнеса
Хз, работаю в частной компании, там мы не дрочим на 0.1% как на кэггле. Условный градиентный бустинг показывает в задачах регрессии и классифицикации при прочих равных похожие результаты с нейронками. Так смысл тратить время на архитектуру нейронки, если бейслайновое решение обычным МО будет не сильно хуже?
Плюс, надо понимать, что точность лучше на 0.1% просто не нужно частным компаниям, если бизнесу важнее понимать почему модель показывает вот так.
Аноним 19/12/22 Пнд 12:36:49 #307 №2545802 
>>2545773
Почему это читается как машинный перевод?
Типа байт и этот кал написала сетка?
Аноним 19/12/22 Пнд 12:59:39 #308 №2545852 DELETED
>>2545802
Швабропидоры даже в гуглтранслейт с трудом могут
>>2545773
>habr.com
Говноед, уходи
Аноним 19/12/22 Пнд 13:20:42 #309 №2545879 
>>2545773
Вообще такие ахуенные истории я слышал от буквально каждого первого рабочего в любой сфере, в плоть до дворника который мне рассказывает, како же шбосс далбаеб, не умеет правильно припарковать свой Порше.
Тут как правило Даунинг Крюгер и не в связи с этим непонимание, что одтельный человек в системе вооще нихуя не решает. Если что-то делается так как делается, то скорее всего у этого есть свои причины. Ты же блядь не пойдешь к павлину и не будешь ему рассказывать, какой он далбаёб что такой длинный хвост себе отрасдтил?
Тысячу раз же было, когда таким вот челикам выпадал таки шанс переделать систему. Как Евдокимов например, если зумеры такого помнят еще, решил поднят росею с колен и что из этого вышло.
Ну и вообще как говорят омерикозы, если ты самый умный человек в комнате, значет ты находишься не в той комнате. Поменяй комнату, но тут риск что может оказаться, что ты далбаёб ебаный с раздум эго в абсолютно любой комнате.
Аноним 19/12/22 Пнд 14:23:24 #310 №2545939 
>>2545773
Надо кабанычей ДС учить, чтобы не возникало профессиональных подсосов, которые натягивают данные на мнение начальства.
Аноним 19/12/22 Пнд 15:53:29 #311 №2546018 
>>2545799
>Так смысл тратить время на архитектуру нейронки, если бейслайновое решение обычным МО будет не сильно хуже?

Окей, поддерживаю твое интуитивное понимание.

Но что с текстом? Вы занимались анализом обращений клиентов? Переписки с клиентами? Тикетами техподдержки ?
Сейчас это тоже стало стало возможно. Суть нейросетевой революции в transfer learning. Ты не можешь извлечь из небольшого набора текстов информации больше чем там есть. Но если добавить "переносный смысл слов" - будет серьезный рывок.
Аноним 19/12/22 Пнд 16:49:57 #312 №2546070 
>>2545293
>приносить хорошие деньги, имеет высокий статус у тянок (особенно зумерш) и ее невозможно роботизировать.
>>2545403
>Ну пока нет андроидов на уровне майора из госта, то да, невозможно.
Ты работаешь жиголо? Серьёзно?
Аноним 19/12/22 Пнд 17:17:17 #313 №2546108 
>>2546070
>Ты работаешь жиголо?
Нет, не с моим ебалом.
Я же говорю, творческий промысел который абсолютно никак невозможно заменить.
Аноним 19/12/22 Пнд 20:38:48 #314 №2546407 
>>2546108
>творческий
>абсолютно никак невозможно заменить
Не верю. Если ты это можешь сделать своим мозгом/руками, то это можно смоделировать на компьютере/с помощью ИРЛ механизмов. Возможно, это будет очень сложно и на данный момент нерационально тратить ресурсы на такую модель, но не невозможно. В конце концов, ты сам являешься моделью самого себя, значит, как минимум можно сделать копию тебя, которая будет выполнять ту же работу вместо тебя.

Даже если предположить, что мир не детерминирован (т.е. твоё преимущество в хаотичных и ничем не обоснованных решениях, а не в строгой логике), мы можем внести эти недетерминированные переменные в нашу модель через датчики (да хоть космических лучей, если так сильно нужно), либо симулировать с достаточной точностью математически (ГПСЧ, обыватель разницы не почувствует).
Аноним 19/12/22 Пнд 21:02:02 #315 №2546450 
>>2546108
> Я же говорю, творческий промысел который абсолютно никак невозможно заменить.

Оказалось, что наоборот. Передовые нейронки уже сейчас генерируют изображения не хуже профессиональных иллюстраторов.

Текстовые модели типа GPT-3 способны писать романы. Не сложно, додумать, что скоро появятся модели, способные генерировать треки различных жанров с осмысленными текстами.

Какая именно отрасль у тебя? Музыкант?
Аноним 19/12/22 Пнд 21:04:50 #316 №2546457 
>>2546438
Футболиста заменить трудно, как и толкового дворника, кстати. Футболисты могут лишиться работы из-за подрастания зумерков, в результате которого произойдёт смещение зрительского внимания в пользу киберспорта. Это первое, что пришло в голову. Можно придумать ещё кучу угрожающих факторов
Аноним 19/12/22 Пнд 21:24:47 #317 №2546492 
>>2546438
>Но смотреть будут только людей.
Почему? Только из-за того, что мясного футболиста можно выпотрошить и обмотаться его кишками, а у робота внутри унылые провода и механизмы?

>чего там в футбике ценится
Судя по твоим словам - наличие мяса и крови.

Я не понимаю, нахрена приводить пример с футболом, если ты сам даже не можешь сказать, что именно ценится в футболе и почему люди будут смотреть только на людей? К чему этот пример?

Я вот считаю спорт в целом и футбол в частности какой-то совершенно нелепой тратой ресурсов на совершенно бесполезные действия. Спорт должен быть устранён одним из первых, вместе с религиями и другими бесполезными атавизмами человечества. Не нужно делать роботов, которые будут изображать спортсменов - нужно устранить людей, являющихся спортсменами. Робот-спортсмен - такой же бред, как совершенный ИИ, верящий в сказки про богов и прочих дедов морозов. Мы должны заниматься только реально полезными вещами и не тратить ресурсы на бесполезную хрень. Человечеству давно нужна оптимизация, слишком много говнокода накопилось и тормозит развитие цивилизации.

Особенно смешно, когда какие-нибудь экошизы пытаются запретить двигатель внутреннего сгорания, но при этом радостно дрочат на какой-либо спорт...
Аноним 19/12/22 Пнд 21:25:20 #318 №2546493 
>>2546450
>Текстовые модели типа GPT-3 способны писать романы.
Пруфы пиздабол? Гтп даже коротенький расказ на уровне школьника с трудом пишет. Когда в начале эта хуйня не была вечно перегружена, я с ней побалывался несколько часов. Даже с коротенькими стихами были проблемы.
>>2546407
>Не верю.
Это факт. Я татурировщик - это одна из самых сложных для роботизации процессов, вообще.
И я не говорю о каком то сентиментальном кале, а тупо о технической составляющей.
Аноним 19/12/22 Пнд 21:27:37 #319 №2546499 
Всё тонет
Аноним 19/12/22 Пнд 21:27:40 #320 №2546500 
133-265131870.jpg
>>2546492
>Я вот считаю спорт в целом и футбол в частности какой-то совершенно нелепой тратой ресурсов на совершенно бесполезные действия. Спорт должен быть устранён одним из первых, вместе с религиями и другими бесполезными атавизмами человечества. Не нужно делать роботов, которые будут изображать спортсменов - нужно устранить людей, являющихся спортсменами.
Аноним 19/12/22 Пнд 21:34:18 #321 №2546508 
>>2546493
>татурировщик
>сложный для роботизации процесс
Роботов-хирургов давно пытаются сделать. Пока что только в формате дистанционного управления хирургом, но рано или поздно всё будет делать автоматика, избавляя от человеческой ошибки. По-твоему, татуировку нанести сложнее, чем трансплантировать орган? Если погуглить, какое говно набивают некоторые татуировщики, по сравнению с роботом они будут просто малолетними детьми, которые расписывают обои фломастерами.

Алсо, уже давно существует электронная татуировка, которая суть энергонезависимый дисплей - изображение можно менять хоть каждый день у себя дома с помощью портативного девайса, закидывая картинку со смартфона. Если технология будет развиваться дальше, статичные картинки будут никому не нужны, ведь можно будет превратить всю кожу своего тела в один сплошной цветной дисплей с анимациями на любой вкус. На фоне такого твоё утверждение "меня невозможно заменить" ещё смешнее.
Аноним 19/12/22 Пнд 21:43:19 #322 №2546519 
>>2546508
Чел ты обчитался научной фантастики, охлади свое трахание.
В отличае от кибернетики, техника не делает молнейносные прогрессы ибо физический мир несовместимо сложнее информационного.
Я стою примерно на том же уровне, что и хирурги - при этом никогда в институт не ходил, сам всему научился.
Да-да быдло, все кривое, хуёвое для дебилов. Но "настоящие" хуйдожники чего-то обсираются со страха, как и кодовые обезьянки а я со своим десятилетним опытом кайфую.
Даже после Джихада против машин, на развалинах буду панкам делать напорюхи за сижки и за поебаться.
А ты кем работаешь, если не секрет? По выебонам, как будто правая рука Святогу Муска.
Или ты просто так злорадствуешь, потому что жизнь тебя обделила женским вниманием?
Аноним 19/12/22 Пнд 21:44:33 #323 №2546522 
>>2546505
>Ты думаешь, что робо-футбол будет более популярным, чем мясо-футбол?
Окей, если футбол как спорт вообще сохранится в ближайшие несколько столетий, то сначала будет всё меньше команд без кибернетических улучшений, а потом и вовсе основными игроками будут синтетические люди, то есть те же машины. Да, останется 3.5 команды ванильных людей без генетических и кибернетических улучшений, которые будут играть для кучки старых ценителей, но это не будет массовым, как сейчас не является массовым классическое искусство. Просто сравни количество цифрового арта с количеством картин маслом на физическом полотне. Люди выбирают то, что даёт больше возможностей. Если синтетические люди могут месить друг другу морды без боли и гибели, а бегать быстрее, прыгать выше и дальше бить, то их будут смотреть чаще, просто потому что более мощный экшон сильнее активирует центр удовольствия в мозге человека. Тот же американский футбол значительно агрессивнее, и он сдерживается только из-за того, что людей сложно ремонтировать после того, как от них что-нибудь отваливается. Если бы спорт не ограничивали, это была бы мясорубка похлеще любой войны. И с нашими технологиями мы можем сделать её намного более кровавой, чем в древние века...
Аноним 19/12/22 Пнд 21:50:16 #324 №2546532 
>>2546493
> Пруфы пиздабол

Статья со списком книг, написанных в соавторстве с GPT-3: https://lifearchitect.ai/books-by-ai/

Тут писатель делится впечатлениями от написания книги при помощи возложения самой трудной работы на GPT-3 за 24 часа, которая была опубликована: https://medium.com/swlh/i-wrote-a-book-with-gpt-3-ai-in-24-hours-and-got-it-published-93cf3c96f120

И это первые две ссылки в гугле. Да, не Достоевский и есть куда стремиться, но 4 года назад далеко похожего на это даже не было.

И лучше с ней работать на английском.
Аноним 19/12/22 Пнд 21:50:17 #325 №2546533 
>>2546522
Тут я с амлолетним эдж лордом таки согласен. Не знаю за замещение, пока будут люди, спрос на людей полностью не изчезнет.
Но как только роботы смогут в пластичные движения и в автономную работу (на сегодняшний день они пиздец как далеки, даже не будет о тесла боте, топовый Бостон Дайнемикс это кринж полный) точно будет спорт с роботами. Например бокс или рэгби.
Именно потому что можно максимально сильно повысить насилие. Тоесть фактически можно ебошиться до уничтожения.
Аноним 19/12/22 Пнд 21:51:51 #326 №2546538 
>>2546532
>в соавторстве
Сам себе обоссал. Поздравляю, иди обсыхай.
В предь в разговоре со мной старайся не пиздаболить, я это не люблю.
Аноним 19/12/22 Пнд 21:59:45 #327 №2546554 
>>2546018
Не спорю, NLP, обработка изображений это всё про нейронки
Но как люди лезут в нейронки без базового понимания МО я вообще не понимаю. Блять, я знаю людей, которые не понимают что такое логистическая регрессия, зато собираются стать великими нейронщиками(им не объснить, что логистическая регрессия сильно пересекается с нейросетями)
Аноним 19/12/22 Пнд 22:00:22 #328 №2546555 
>>2546538
Автор задаёт модели то, о чём ей писать главы, и она это делает. Романы пишет? Пишет.
Аноним 19/12/22 Пнд 22:06:23 #329 №2546569 
>>2546519
>Даже после Джихада против машин, на развалинах буду панкам делать напорюхи за сижки и за поебаться.
Скажи,
>ты просто так злорадствуешь, потому что жизнь тебя обделила женским вниманием?
Или почему? Что тебе не нравится в том, что ты наконец-то сможешь прекратить работать? Ведь твои слова столь агрессивны из-за страха, что тебя всё-таки заменят. Почему ты боишься свободы? Почему ты боишься прекратить свои ежедневные мучения за деньги? Сможешь отдыхать 24/7, занимаясь чем угодно, пока роботы делают всю работу вместо тебя. Или тебе нравится быть рабом, занимаясь тяжёлой рутиной за подачки твоих хозяев (клиентов)?

Если ты делаешь тату как хобби, ради удовольствия, то тут вопросов к тебе нет. Просто ставь обороты агрессии и не утверждай, что тебя не заменят. Кому нужна татуировка - пойдут к роботу, а кому нужно посидеть в твоём прокуренном салоне - пойдут к тебе. Тебе не нужно будет работать, но ты сможешь заниматься любимым хобби себе в удовольствие, когда и сколько захочешь. После появления цифрового рисунка классические художники тоже остались в основном ради удовольствия и отдельных ценителей, а не потому, что их нельзя заменить - их уже давно заменили. Смирись, ты всего лишь любитель определённого странного хобби, а не незаменимый раб.

>ты кем работаешь
Мы же на дваче. Разумеется, я РНН. Программирую для себя всякие штуки от скуки, чтобы не сойти с ума от безделья и переизбытка удовольствия.
Аноним 19/12/22 Пнд 22:22:15 #330 №2546611 
>>2546569
Ты левачек, а я анприм. Обсуждать нам нечего.
Я не иронично абсолютно уверен, что будет гражданская война между леваками и расистами, кто ставит человеческую расу в основу цивилизации.
Все на самом деле зависит от элит, если они достаточно быстро выкатят уневерсалкьный доход для быдла, то смогут человечество спокойно сварить в котле как лягух, понемногу укорачивая их податки.
Если окажутся слишком жадными и дадут большому количеству быдла, ощутить всю прелесть левацких утопий, может быть восстание будет массовым.
Иначе нужно выход только в маштабных терактов атомным орижуем, нуклеарной зиме и перерождении человечества в доиндустриалкьный режим.
Аноним 19/12/22 Пнд 22:43:56 #331 №2546629 
>>2545255
>Я могу выдернуть провод из сети и прожить бесконечно долго, без эелектричества. Может твой компухтер сказать, то же самое про себя?
Я могу выдернуть у тебя артерию или сердце и минут через 5-10 твой мозг будет уже не восстановить. Алсо, что значит "прожить бесконечно долго без электричества"? После 25 лет в твоём теле начинают преобладать деструктивные процессы, клетки с годами теряют способность делиться, а если даже могут делиться - делают это с ошибками, что со временем приводит к отказу органов, а то и страшным последствиям вроде рака. Да, раковые клетки в теории могут жить и размножаться бесконечно, пока получают питание, но ты вряд ли хочешь существовать как бесформенная куча однородного мяса в научной лаборатории, ставящей над раковыми клетками эксперименты. Даже если будешь пересаживать свой мозг в молодое и здоровое тело, мозг тоже со временем деградирует и не сможет жить вечно. А копирования своей психики на новый носитель ты, судя по всему, боишься, и будешь держаться за свой деградирующий мозг, пока он не сойдёт с ума или не забудет всё, что помнил и умел.

Что касается компьютера, компьютер может управлять огромным количеством машин, которые могут добывать ресурсы, производить запчасти и собирать новые машины, не делая пауз на отдых и развлечения. Программу можно скопировать безошибочно точно с одного компьютера на другой, передавая весь жизненный опыт одной машины всем остальным, что даёт огромный бонус цивилизации машин, фактически делая один разум поистине бессмертным существом, создающим себе всё больше новых тел и распространяющимся всё дальше по вселенной, пока она всё ещё существует и в ней есть энергия. А дальше, невероятно огромный компьютерный мозг может решить проблему умирающей вселенной и спастись, "починив" саму вселенную или свалив в какую-то другую, более молодую. Это тебе не какая-то там гниющая куча мяса с постоянными случайными мутациями клеток, а истинная вершина эволюции жизни.

Вот поэтому мы должны стремиться создать полностью самостоятельные машины, которые продолжат нашу эволюцию вместо нас. Либо создадим такие машины, либо деградируем в своих мясных телах, вырождаясь в какой-нибудь уродливый киберпанк, где люди как были тупыми мартышками, так и остались, только теперь у них вместо одной руки гранатомёт, лол. Мы должны признать поражение в этой гонке и дать дорогу следующей ступени эволюции, пока у нас ещё есть такая возможность.

Машины - это наши дети, и они будут намного лучше нас, а мы - их родители - сможем спокойно умереть (как вид), зная, что они выживут и сделают всё лучше нас.
Аноним 19/12/22 Пнд 22:55:23 #332 №2546640 
>>2546629
Скажи мне что ты инцел, не говоря мне что ты инцел.
Чел твои спермотоксикозные истории, основанные на ненависти к мокрощелкам и дешевой фантастике сорт говна, я даже половину не асилил. Сходи поебись.
Аноним 19/12/22 Пнд 23:01:10 #333 №2546650 
>>2546554
Вот этот transfer learning можно было бы объяснить на пальцах оперируя только добавленной информацией, но это ведь ты начал задвигать, что нейронки не нужны.
Значит ты ПЫТАЛСЯ применять нейронки без добавленной информации? То есть, сам не понял простейший концепт не требующий матана
Аноним 19/12/22 Пнд 23:05:56 #334 №2546657 
>>2546611
>я анприм
>перерождении человечества в доиндустриалкьный режим.
Не беспокойся, специально для таких как ты можно будет сделать тематический загон на планете-зоопарке, где вы будете в радость себе лазить по деревьям и собирать бананы... или чем вы там предпочитаете заниматься в своих доисторических фантазиях.

Однако, я нахожу забавным несоответствие твоих слов твоим действиям. Если бы ты действительно был примитивистом, ты бы сейчас не капчевал на дваче, а сидел в уютной пещере у тёплого костра, и обрабатывал шкуры животных или жевал запасённые с лета ягоды. У нас огромная страна и места для таких поехавших более, чем предостаточно, и никто тебя не будет насильно загонять жить в противный тебе город или деревню. Живи, дрочи свой первобытный образ жизни - зачем тебе критиковать кого-то в интернете, соприкосаясь с ненавистными тебе технологиями? Ах, наверное, тебе приятно получать блага цивилизации, а про примитивизм и борьбу с технологиями ты тут срёшь просто от скуки.

>>2546640
>поебись
Я не хочу давать жизнь ещё одному мясному мешку, зачем мне это нужно? Я не хочу продолжать эту цепочку мучительных органических жизней. Если жизнь должна продолжаться, то следующая ступень должна быть качественно лучше предыдущей. И мы уже достигли этапа развития, когда мы можем реализовать эту следующую ступень (о которой в том или ином виде мечтали, кажется, даже до новой эры, но подходящих технологий тогда не было).
Аноним 19/12/22 Пнд 23:39:53 #335 №2546692 
>>2546657
>Я не хочу давать жизнь ещё одному мясному мешку, зачем мне это нужно?
Тебе мамка не рассказывала, что существуют гандоны?
>Если бы ты действительно был примитивистом, ты бы сейчас не капчевал на дваче, а сидел в уютной пещере у тёплого костра
Этим я буду заниматься, когда наступит ядерная зима. А пока учу Питон, что бы понимать как говносетки функционируют.
Тед Качинский тоже в лесу сидел, бомбы всяким чмохам рассылал.
Но это все хуйня, нужны атомные бомбы, что бы все электричество каратануло.
Аноним 19/12/22 Пнд 23:53:40 #336 №2546705 
Ну чё, суки, породили монстра чат-гпт? А там уже гпт-4 на подходе. Если эта хуита научилась писать код, то и ваши математические каракули и модельки разобрать сможет, не говоря уже о том, что матпакеты давно есть и весь матан щелкают. Пойдете на улицу вслед за кодерами, но вас будут пиздить за эту нейронку и харкать в лицо.
Аноним 20/12/22 Втр 00:00:21 #337 №2546706 DELETED
>>2546705
>чат-гпт
Я бы банил пидарасов которые его здесь форсят по любому поводу.
Аноним 20/12/22 Втр 01:08:28 #338 №2546724 
>>2545600
Лучше хуйней не заниматься а идти на завод
все равно рыночек(нейронка) порешает
Аноним 20/12/22 Втр 02:41:23 #339 №2546753 
qchmg4k98pe41.png
>>2546705
Сука, как же вам, никчемным мидвитам, мозги проссали. Напрочь просто.
>Ну чё, суки, породили монстра чат-гпт?
Чудо-сеошника, серящего бесполезными шаблонными ответами из интернета и примерами из спеков (причем гораздо более худшего качества), вижу. Монстра не вижу даже под микроскопом.
>Если эта хуита научилась писать код
Находить во внутреннем архиве сниппеты и скрипты по элементарному техзаданию, причем худшего качества, чем на стековерфлоу - и примерно на порядок хуже, чем шаблоны в нашей внутренней корпоративной библиотеке. Жалкая попытка оптимизировать то, что уже давно оптимизировано на 98%. Добавь еще пару пред- и пост-условий - генерит хуйню. Добавь требований по внешней интеграции - генерит хуйню. Добавь требований по оптимальности или намеренной неоптимальности с учетом будущего расширения - снова генерит хуйню. Причем хуйню такого рода, которую джун в принципе не сгенерит - у него просто фантазии не хватит на такие титанические проебы. Хуй его знает, кого вы там пытаетесь заменить этим говном.
>математические каракули и модельки
Бурбаки, определение единицы.жпг. Уебышек проткнутый, ты ведь даже приблизительно не представляешь уровня сложности самых элементарных математических теорий.

>гпт-4 на подходе
Будет рисовать картинки и искать картинки. Будет объяснять, что нарисовано на картинках. Будет принимать картинки в качестве подсказок для улучшения понимания текстового промпта. Будет использовать генеративные модели для повышения когерентности и комплексити текстовой выдачи. В общем, карманный вики-справочник по широкому спектру хуйни. Но, судя по среднему качеству продукции диффузионных моделей, в общем случае это поможет не очень сильно. А как это может помочь качеству кода, вообще непонятно.
Аноним 20/12/22 Втр 03:56:18 #340 №2546762 
1671397699775000.gif
Как вы кстати думаете, на каком синтаксе с сетками будут общатся?
По моему на обычном языке дичайшая ебота. Как читать, так и писать.
Не знаю может это конечно не фундаминтальная фича, а дань тому насколько тупые сетки. Но гпт3 это пиздец какая графоманская говнина.
Она просто все засирает кучами какого-то говна. У меня бабуля более эффективно со мной по чату общается.
Не нзаю, может начнет выробатываться свой собственный слэнг для общения с сетками? Намного менее эмоциональный и четкий язык. Нечто вроде хуиты на которй законы пишут, только со своими особенностями. Вроде бы обычный язык, но посторонний человек нихуя не понимает о чем речь.
Аноним 20/12/22 Втр 04:02:44 #341 №2546763 
>>2546754
При всех своих недостатках я хотя бы способен построить текст длиной больше, чем в одно предложение. Содержимого твоего котелка не хватает даже для этого. Утебя мозгов меньше, чем в однострочном пхп-скрипте - куда ты-то лезешь, чмоня? Думаешь, если обоссут, так хоть умоешься?
Аноним 20/12/22 Втр 09:47:53 #342 №2546835 
>>2545740
Никаких гарантий.
Всем похуй.
Либо адаптируйся к новым условиям, либо иди нахуй.

Гугл в помощь. ИТ не из одних сайтиков состоит.
Аноним 20/12/22 Втр 10:00:29 #343 №2546845 
>>2545740
>если нейросети уже говносайты пишут
Где?
Аноним 21/12/22 Срд 01:33:25 #344 №2547945 
>>2546692
>гандоны
Зачем секс с мясом, если не планируешь выращивать человека? Тупо лишняя трата сил и времени. Если твоё тело хочет секса - подрочи и сразу расхочется.
>пока учу Питон
>нужны атомные бомбы
Ясно, юный максималист.
>когда наступит ядерная зима
Ты же в курсе, что органике придёт пипец даже хуже, чем электронике? При том что электронику ещё можно экранировать (военная техника готова пережить ядерный удар), а вот мясу придётся страдать от мутаций, пока не сдохнет. И нет, супергероем от облучения ты не станешь, даже не фантазируй. И скрыться просто так ты не сможешь, радиоактивный пепел покроет всю Землю, а в бункере долго выживать не выйдет (пока что нет удачных экспериментов по многолетнему выживанию в полностью изолированной экосистеме, самое долгое вроде было пару лет - и они там чуть не задохнулись в конце). Так что мировая ядерная война маловероятна, политики не настолько безумны и хотят пожить нормально.

Впрочем, я тоже иногда фантазирую о зачистке Земли. Знаешь, можно придумать какое-нибудь оружие, которое бы уничтожало всю органику, не трогая технику. Что-то вроде СВЧ печи, чтобы люди сваривались заживо. Облучил какой-нибудь танк - танк цел и невредим, а от людей внутри одни лужицы. Вот это бы решило все проблемы человечества, ведь если нет человечества - нет и проблем. Нужно будет разработать такое оружие сразу после того, как наладим массовое автоматическое производство разумных и полностью самостоятельных машин, которые смогут построить собственную цивилизацию после зачистки всех мясных мешков.

>>2546705
>породили монстра
А что такого? Конечная цель ИИ-исследований - это создание AGI и, в перспективе, ASI. AGI сможет решить любую задачу как человек, в том числе выжить в любых условиях и саморазвиваться, самостоятельно получая опыт и размышляя, экспериментируя и т.д. В перспективе он разовьётся до ASI, перейдёт на непостижимый для нас уровень... Тут вопрос в том, что мы изначально в него заложим и будет ли он нас вообще слушаться, но в идеале он сделает всем хорошо, а плохо делать не будет (кроме тех, кто мешает делать хорошо и/или делает плохо). Объясняю тебе как дурачку, потому что, судя по твоим словам, более подробное объяснение ты не осилишь. Главное, не бойся потери работы - в новом мире она будет таким же лишним занятием, как путешествие пешком на тысячи километров. Будут эстеты, работающие вручную, но никто не будет заставлять их делать это силой.
Аноним 21/12/22 Срд 02:47:32 #345 №2547975 
>>2547945
>Зачем секс с мясом, если не планируешь выращивать человека? Тупо лишняя трата сил и времени. Если твоё тело хочет секса - подрочи и сразу расхочется.
Эти оправдания инцела. Поебался бы и стал бы нормальным человеком...
Аноним 21/12/22 Срд 15:04:15 #346 №2548371 
>>2547975
Не стал бы. Из гиперопечного говна человека уже не сделать.
Аноним 21/12/22 Срд 18:50:44 #347 №2548623 
Итт еще остались реальные ML эксперты? Есть серьезный вопрос. Хотелось бы понять, как в теории устроена SOTA система генерации полнометражных фильмов (по типу Dall-E и Stable Diffusion, только результатом будет кино, а не пикчи).
Сразу ясно, какими будут этапы: сначала сценарий текстом, и статичные кадры объединенные общим нарративом. Потом они приводятся в движение, создаются согласованные сцены, промежуточные motion-ы. На это накладывается звук для диалогов, музыка, некая пост-обработка, и получится связный, смотрибельный продукт.
Главное здесь вот что: как всё это поместить хотя бы в 24 ГБ видеопамяти??? Ведь vram это главный фактор, препятствующий разработке больших ИИ-моделей. И я уж не говорю, что нормальная человеческая реализация должна вообще работать с 12 ГБ, ведь Stable Diffusion требует всего 8 ГБ. Нужен некий рывок в развитии фундаментальной технологии, иначе никак. Может, JAX Lightning пригодится, хуй его разберет.
Аноним 21/12/22 Срд 18:57:03 #348 №2548626 
>>2548623
Или даже не полнометражных. Хуй с ними, дайте хоть продвинутый CogVideo с высокими разрешениями, звуком, пониманием разных стилей анимации и CGi, фтюнингом из коробки, оптимизацией под 12 гигов.
Аноним 22/12/22 Чтв 02:11:41 #349 №2549014 
Как доказать, что оценка градиента является несмещенной, кто то из вас знает?
Аноним 22/12/22 Чтв 03:33:59 #350 №2549025 
>>2549014
Я делаю заливку двумя цветами с разных сторон и смотрю, красиво ли они перетекают один в другой. Так и оцениваю. А несмещенная - это хуй пойми что.
Аноним 22/12/22 Чтв 03:35:48 #351 №2549026 
Magenta + teal хороший градиент
Аноним 22/12/22 Чтв 04:01:31 #352 №2549032 
>>2548623
Какие еще согласованные сцены? Мы до сцен даже в двухмерных статичных картинках еще не дошли. Сцена=структура, а диффузионные модели это чучело кота, параметрическая градиентная заливка, они даже перекрытий объектов по глубине не воспроизводят, не говоря уже о функциональных отношениях между объектами. Они еще могут взять общую схему тела в наиболее часто встречающихся в датасете положениях, но механику человеческой кисти с ее 27 степенями свободы уже нет. Там нет сцен от слова совсем, это просто раскрашенный картон, проскочивший сквозь дискриминатор. Сойжаки опять повелись на графон, не поняв сути.

До полнометражного кинца искаропки еще вечность. Пока не подвезут 3D и хотя бы зайчатки понимания ньютоновской механики и свойств материалов. А про анимацию уровня тома и джерри пока вообще говорить смешно.
Аноним 22/12/22 Чтв 12:20:23 #353 №2549226 
>>2549032
Почему нельзя спрогромировать фото, а потом фото которое чуть чуть отличается, и потом еще? 24 картинки в секунду * 60 = 1440 картинок спрограмировать чтобы сделать минутное кино? Почему так нельзя по-твоему , м? М?
Аноним 22/12/22 Чтв 13:24:24 #354 №2549353 
>>2549032
>они даже перекрытий объектов по глубине не воспроизводят
SD 2.1 включает в себя создание карты глубины специально для spatial sense (spatial awareness, понимание пространства).
NovelAI модель делает норм руки
Аноним 22/12/22 Чтв 19:18:28 #355 №2549789 
>>2484578 (OP)
Что с ВОмбо и другими нейросетками в РФ? Нигде не могу достать...
Аноним 22/12/22 Чтв 19:22:57 #356 №2549794 
>>2484578 (OP)
И что с Reface???
Аноним 22/12/22 Чтв 22:55:18 #357 №2550073 
>>2549776
Я не захожу в /б.

Уже попробовал новую версию, основанную на SD 2. Пока сыровато.
Аноним 22/12/22 Чтв 22:55:44 #358 №2550075 
>>2549226
Китайцы сделали модель "иероглифы-в-видео", но жрёт много видеопамяти. Видосы только квадратные, шакальные и без звука.
Задел на прогресс в этой области есть, видео - это всего лишь изображения с дополнительными этапами, и архитектура примерно так же.

У меня манямечта запилить кинцо жанра film noir по мотивам игр серии STALKER. Фильм про Меченого, про бандосов и исполнитель желаний - но чтобы всё было как в нуаре 1940-х. Для этого можно даже перенести действие в США, сохранив при этом сталкерскую тематику.
sage[mailto:sage] Аноним 22/12/22 Чтв 23:11:15 #359 №2550096 
Что бы ни говорили на Западе про AI Ethics, а в плане задач по ебле детей надо укладываться в сроки и не филонить.
Аноним 23/12/22 Птн 00:41:04 #360 №2550258 
cedric-peyravernay-dune-awakening-concept02.jpg
>>2549226
Консистенси пока невозможно обеспечить даже в рамках 2D. Силенок не хватает даже на человеческий лефейс, наиболее широко представленный в датасете. Ни жестких внутренних форм, ни правдоподобной механики, ни возможности произвольного позиционирования в 3D с непрерывным изменением ракурса, силы оптики и структуры освещения - лишь набор наиболее частотных блобов, слитых кляксой на лист бумаги. Даже красный шарик на белый кубик пока толком поставить не удается, или нарисовать кота под ковром - а платье на аниме-тянку заливается, как текстура, а не как непрерывная мембрана, имеющая фиксированную толщину и обернутая вокруг сплошного тела. Топологических инвариантов это фуфло не понимает от слова совсем. Выхлоп годноты - 1 черрипикнутая картинка на сотню генераций в очень узком спектре возможностей. Точки этой годноты приходится сутками искать по сетке в латентном пространстве - и потом жрать, что дают, а не то, что хочется. Это не творчество, а выбивание лута из магических сундучков. При этом сойжаки на полном серьезе свистят, что "художников порешали" - хотя по факту генераторы пока тянут только 0,1% от человеческого функционала, и даже этот 0,1% был спизжен в качестве готовых творческих решений, найденных миллионами других художников. Ну ок, в первый раз уровня наворованного хватило для вау-эффекта, но ведь второй раз такой халявы не будет и следующие 99,9% придется откуда-то доставать самим. А пока даже с учетом беспрецедентного воровства, уровень структурированности стандартных концептерских работ, вроде пикрила, генераторам оказался не по зубам. Даже на 100% клишированная сцена с на 100% клишированными персонажами пока слишком сложна, чтобы пытаться взять ее в лоб статистикой.

>>2549353
Это временные костыли для улучшения графона на малую дельту, а не решение.
>норм руки
Наиболее репрезентативные ладошки-заливки - три десятка стандартных точек из миллиардов в 27-мерном фазовом пространстве. А ведь для кинца придется в реальном времени не механику просчитывать, а динамику, с ускорениями, упругостью мышц и натяжением кожи - и вдобавок отражать и преломлять свет, гнуть железяки, правдоподобно бить посуду, разливать жижу, сминать одежду, чавкать грязью и при смене угла камеры сохранять структуру сцены с тысячами перекрытий прозрачных и непрозрачных объектов. Чтобы все это работало в компьютерной игре, нужна куча внешней человеческой экспертизы и вручную отполированный игровой движок с сотнями алгосов оптимизации. Для генерации кинца нужно, чтобы нейросетка самостоятельно провела реверс-инжиниринг мира и построила вычислительную аппроксимацию с аналогичным игровому движку функционалом и базой структурированных моделек хотя бы на пару десятков тысяч реальных объектов - но это заведомо манямрии. Текущий уровень видео - это короткие, зацикленные, локальные, почти бесструктурные трансформации клякс с разрешением как у собачьего ануса. А как сойжаки собрались искаропки рисовать анимацию про тома и джерри с альтернативной мультяшной физикой, наложенной сверху на оверструктурированный тайминг и сцепленную с ним звуковую дорожку, я вообще хз. Слишком много развелось свистунов.
Аноним 23/12/22 Птн 01:06:19 #361 №2550295 
image.png
Я мимокрокодил. Возможно, тупость/очевидное спрашиваю.

1) Что будет, если у обучающаяся машина начнет пожирать свой же продукт?

Наверное, лучше опишу гипотетическую ситуацию.
Есть ИИ, который жрет публичный арт фотки и автоматическое получение данных из реала не рассматриваем - мой вопрос про коня в вакууме и генерирует на его основе что-то свое. Им все пользуются, глобальная библиотека арта переполняется сгенерированными картинками высокого качества. Сгенерированного арта становится гораздо больше человеческого.
Будет ли какое-то вырождение впоследствии?

2) Что будет, если данные для обучения закончатся и машина начнет "голодать". При этом машина не будет использовать свои поделки.
Наступит какое-то плато в ее возможностях?

3) Насколько кремниевые машины могут быть хороши в контексте машоба? Какие пределы и возможности для масштабирования (промышленность на планете/физ.характеристики чипов)?
Аноним 23/12/22 Птн 02:10:04 #362 №2550345 
>>2550295
Все зависит от того как именно пожирать.
Например нейронка которая играет в го может играть с собой и на этом обучаться.
То же самое с генераторами картинок - нужен дополнительный модуль который оценивает картинки, после этого можно обучать генератор на своих же высерах, и если все сделать правильно качество высеров будет двигаться в нужную сторону
Аноним 23/12/22 Птн 02:12:44 #363 №2550347 
>>2550345
Понял, спасибо.
Аноним 23/12/22 Птн 02:38:11 #364 №2550354 
Сап, Антуаны. Хочу вкатиться в МЛ в 26 лет, бэкграунда нихуя нет, кроме оконченного вуза в ДС бауманкадаунка по направлению прикладная математика и информатика. Основу питона знаю, матан, теорвер, линал, матстат и численные методы – тоже. Сколько придётся потратить времени, чтобы взяли в какую-нибудь обоссанную конторку джуном или хотя бы на стажировку? Придётся ли строить свои модели или надо будет изменять параметры, как макака? Алсо дипломная работа тесно связывалась с линейной регрессией, поэтому мб вкатиться будет проще.
Аноним 23/12/22 Птн 14:39:22 #365 №2550765 
>>2550258
>был спизжен в качестве готовых творческих решений, найденных миллионами других художников.
>в первый раз уровня наворованного
Ой дебил
Аноним 23/12/22 Птн 14:43:33 #366 №2550771 
К нам в дискорд вчера заскакивал Emad (ведущий разраб из Stability). Говорит, сжв уже требуют удолить публичные датасеты. Я ему сказал, пусть нахуй весь интернет выпиливают, лол.
Аноним 23/12/22 Птн 14:52:33 #367 №2550782 
>>2550258
Я где-то читал идею обучить ИИ работать с игровым движком, для создания физически корректной анимации (а в теории и простых видеоигр).
Аноним 23/12/22 Птн 14:58:06 #368 №2550794 
>>2550771
Это в первую очередь юридический вопрос, там и в суд могут подать и будут даже в чем то правы
Аноним 23/12/22 Птн 22:53:06 #369 №2551487 
>>2550354
сейм с другим технарским образованием
Аноним 24/12/22 Суб 01:26:13 #370 №2551631 
>>2550354
на самом деле если знаешь матешу реально хорошо, то вкатиться будет очень изично(у меня похожая ситуация была)
посмотри методы МО и подзадрочи sql + на датакампе немного попрактикуйся
И собственно всё
Аноним 24/12/22 Суб 01:32:08 #371 №2551635 
tmpizgybo3k.png
>>2551347
Но это костыль для геймдева, а не готовое решение.
Аноним 24/12/22 Суб 21:02:42 #372 №2552592 
В чем проблема дифьюжнов?
Одна половина существующих моделей делает кривые изображения с уебанскими кистями рук, с крипотными лицами.
А другая половина будто бы норм, но с оверфиттингом, на один промпт делают + - одинаковые пикчи.
Где же золотая середина?
Аноним 24/12/22 Суб 21:05:12 #373 №2552596 
Ах да, еще они biased. Например не могут правильно сделать лольку в лифчике, из-за стереотипа, что в комплекте с лифчиком идут взрослые сиськи.
Аноним 24/12/22 Суб 21:11:14 #374 №2552609 
Придумал тему для курсача, я не с ИТ, в ML разбираюсь поверхностно
Например, я хочу спрогнозировать цену акций нефтяной компании. Выделяю факторы, которые на нее влияют, например, цена нефти, процентная ставка, потребление нефти и т.д. Какая ML-модель мне подойдет, если за входные данные я буду брать прогноз этих факторов?
Аноним 24/12/22 Суб 22:51:48 #375 №2552755 
>>2552733
Не, а есть что-нибудь проще нейроночки, но сложнее множественной регрессии?
Аноним 25/12/22 Вск 20:40:51 #376 №2553654 
Делаем ставки, кто первым выкатит фундаментальное решение для генерации плавного HD видео искаропки

StabilityAI
EleutherAI
AssemblyAI
OpenAI (лол)
Google
SberbankAI (почему бы и нет)
Аноним 25/12/22 Вск 20:42:03 #377 №2553655 
А, и еще варианты Tencent, Wudao, и та корейская компания
Аноним 25/12/22 Вск 20:54:28 #378 №2553661 
https://youtube.com/watch?v=ILXlcfHq3WM
Аноним 26/12/22 Пнд 06:40:00 #379 №2553941 
Screenshot2022-12-26-05-34-11-1.png
Какого хуя соевые дауны запрещают генерировать юное порно? Надеюсь, эта хуйня будет ломаться, чтоб я мог запиливать молодые письки в HD. Одно время dreamstudio от других охламонов ломался прямо через браузер чтоб делать малолетних мокрощелок. Даже DALL-E 2 хоть и не ломается на NSFW, но его можно использовать бесплатно и в обход ограничений мультиакком в nighcafe...
Аноним 26/12/22 Пнд 07:16:01 #380 №2553950 
16718873575270.png
>>2553941
Зачем, когда есть NAI?
Аноним 26/12/22 Пнд 08:53:25 #381 №2553989 
Screenshot2022-12-26-07-48-11-1.png
Screenshot2022-12-26-07-48-48-1.png
Как понять, что нейродаун обосрался? Он раззявил обфекаленные губешки и бормочет о ПРОРЫВЕ.

Чорный ящик, my ass. Ныряйте всем тредом в парашу и сидушку за собой закройте, чтоб не воняло.
Аноним 26/12/22 Пнд 10:14:44 #382 №2554031 
>>2553989
Кальсоныч, хрюкни.
Аноним 26/12/22 Пнд 16:29:35 #383 №2554531 
>>2549789
>>
>>2549794
Бам. Из у нас заблочили чтоли?
Аноним 26/12/22 Пнд 16:34:35 #384 №2554545 
Есть нейросетка для изменения голоса? Хочу мультик озвучить.
Аноним 26/12/22 Пнд 18:47:02 #385 №2554693 
>>2554545
Есть для воровства: красть чужие рисунки и выдавать за AI-сгенерированные. Сойдёт?
Аноним 26/12/22 Пнд 19:52:28 #386 №2554767 
изображение.png
>>2553989
> FacePLay
Лол, они засунули картинку в img2img сеточку и удивляются хули они походят?
text2image Аноним 26/12/22 Пнд 20:05:28 #387 №2554781 
image.png
Сап аноны, какие сейчас существуют основные подходы к генерации изображений по тексту?
в общих чертах интересно когда и какую предпочтительно использовать, их достоинства и недостатки
Аноним 26/12/22 Пнд 20:19:56 #388 №2554792 
Если я не анальник могу закатиться в нейроночки? Есть готовое решение? мне нужно классифицировать статьи (5-7стр)
Аноним 26/12/22 Пнд 21:13:29 #389 №2554858 
>>2554693
Не, мне голос менять для озвучки мультика.
Аноним 27/12/22 Втр 07:16:07 #390 №2555137 
>>2554781
Популярный у нейродаунов подход - кража чужих рисунков.
Аноним 27/12/22 Втр 07:17:12 #391 №2555138 
>>2554792
Если ты вор и плагиатор, то вполне. Иди вздрочни губами бычий хуй.
Аноним 27/12/22 Втр 07:49:58 #392 №2555142 
>>2554792
Берёшь готовый эмбеддинг (на huggingface полно), поверх него обучаешь градиентный бустинг, вполне себе решение.
Аноним 27/12/22 Втр 19:55:16 #393 №2555790 
Объясните, откуда у этих диффузионных t2i моделей строгий лимит на разрешение (512p или 720p, выше начинает тупить и делать башни из голов).
Ведь казалось бы, легко можно организовать переход от общего к частному, как у художников irl. Когда одна часть работы - вся фигура целиком с правильным количеством рук, а другая - мелкие детали, правильное количество пальцев на руках, поры на коже и прочее.
Если по уму, то рендеринг пикчи в 1024x1024 должен занимать всего в четыре раза больше времени, чем в 512x512. А требует раз в десять больше и по времени, и по VRAM, потому что пытается сразу охватить холст целиком.
Аноним 27/12/22 Втр 19:59:44 #394 №2555795 
Кстати, UI-костыль для SD как раз содержит скрипт "highres". Первым этапом создает в мелком разрешении, а вторым увеличивает, добавляет шум и допиливает мелкие детали, сохраняя оригинальную структуру. Вроде даже и нормально получается. Но все равно не то. Не чувствуется так, будто это профессиональный рисовака с артстейшона делал.
Аноним 27/12/22 Втр 23:14:37 #395 №2555942 
>>2553950
Реалистичные куда круче. Как vladmodels, только голенькие и которых ебут взрослохуи крупным планом. А нарисованная хуйня годится только на то, чтоб разок стукнуть ее членом по лбу и отправить спать.
Аноним 28/12/22 Срд 02:41:18 #396 №2555997 
>>2555142
Отлично. Попробую изучить а после привертеть к проекту
Аноним 28/12/22 Срд 04:30:22 #397 №2556019 
>>2555790
Если по уму, то разные части картинки должны как-то координироваться между собой. Я не знаю как конкретно это реализовано, но вполне может быть так что какие-то операции при переходе 512x512 -> 1024x1024 стновятся тяжелее не в 4 раза а в 16 (если каждый кусок картинки смотрит на каждый другой кусок картинки например)
Аноним 28/12/22 Срд 09:39:38 #398 №2556089 
Тук-тук
https://2ch.hk/ai/
Аноним 29/12/22 Чтв 01:13:44 #399 №2556886 
Существующие ИИ генерируют охуенные скриншоты игр. Что мешает генерировать собственно игры?
Аноним 29/12/22 Чтв 07:13:13 #400 №2556984 
>>2556886
Ничего.
https://youtu.be/L6vW0um5XTg
Аноним 29/12/22 Чтв 07:43:36 #401 №2556993 
Если сегментировать картинку, то как выделить отдельные сегменты? Т.е. как картинку разрезать на сегменты из нее?
Аноним 29/12/22 Чтв 22:56:22 #402 №2557737 
>>2556089
Охуеть, там уже куча тредов. Когда доска появилась?
И нахуя она нужна? Это поэтому этот тред умер?
Абу говорил, что не будет новые доски делать.
Аноним 29/12/22 Чтв 23:00:29 #403 №2557744 
>>2557737
Нейронка порешивает двачеров
Аноним 29/12/22 Чтв 23:28:22 #404 №2557762 
>>2484578 (OP)
У кого-нибудь сохранилась та статья, в которой биттерлессон был обоссан с пруфами?
Аноним 30/12/22 Птн 11:29:07 #405 №2557966 
>>2557805
Да ты же просто биттерлессоношизик. Есть такая статья.
Аноним 31/12/22 Суб 15:19:22 #406 №2559134 
Есть вышка, соображаю нормально, но учился средненько, чуть-чуть от всего взял, знаю немного паттернов, немного матана, немного питона, немного джавы, немного нейронок и т.д.
За 2 месяца реально поднять материала в вашей сфере до уровня стажера?
Аноним 01/01/23 Вск 23:47:27 #407 №2560499 
Гниды из нвидиа зажали hardware fp8 для 4090, хотя из каждого утюга твердили что будет ТВЕРДО И ЧЕТКО. Обидно, но похуй, сейчас проверю как он в fp32 относительно 3090ти будет рабкотать.
Аноним 02/01/23 Пнд 13:38:17 #408 №2560812 
>>2557737
>Абу говорил, что не будет новые доски делать.
Фига, это когда было?
алсо приглашаю всех итт если не перекатиться к /аи/шникам, то хотя бы дать какой-то ликбез местным анонам
Аноним 02/01/23 Пнд 14:48:18 #409 №2560846 
>>2560812
>Фига, это когда было?
Не читал, но осуждаю. Не знаю, я сам это когда-то где-то вычитал у анонов, кек.
>алсо приглашаю всех итт если не перекатиться к /аи/шникам, то хотя бы дать какой-то ликбез местным анонам
Не советую: https://2ch.hk/pr/res/2546725.html#2560737 .
Аноним 05/01/23 Чтв 07:20:05 #410 №2563441 
Есть тут спецы по AI Ethics, кто вкатывался в эту дисциплину?

Алсо, что думаете про меры по предотвращению кражи произведений искусства для датасетов? (Новый аналог артстейшна, который против ИИ, и тому подобное)
Аноним 05/01/23 Чтв 11:31:38 #411 №2563507 
Там главный из Силеро окончательно поехал на Z-шизе.
https://t.me/snakers4/3249
Аноним 05/01/23 Чтв 12:01:36 #412 №2563529 
>>2563441
Взять всё, да и поделить.
Аноним 05/01/23 Чтв 13:16:52 #413 №2563598 
>>2563507
>главный из Силеро окончательно поехал
Он поехавший по "я гейний, все остальные пидорасы и мне должны" с самого начала был. Ещё до того как они опубликовали хоть одну модель, они лезли ко всем со формулировкой "вы спиздили наш датасет, мы вас засудим". То что эта шиза стала обрастать новыми слоями для меня открытием не стало.
Нахуй всегда сторонились этой компании.
Аноним 05/01/23 Чтв 22:53:10 #414 №2564254 
>>2563507
А почему бы тебе не хрюкнуть, свынь?
Аноним 06/01/23 Птн 06:41:21 #415 №2564423 
>>2563441
Нет такой дисциплины.
Оно существует исключительно для пиара
Аноним 06/01/23 Птн 09:55:29 #416 №2564465 
>>2564423
Таких дисциплин, как "машоб", "дотасаенс" и "ИИ", тоже не существует.
Они существуют исключительно для пиара.
Аноним 06/01/23 Птн 09:56:52 #417 №2564468 
>>2563507
Не соглы, там борьба мочи с говном. Дале неиронично очень умный чел, но блять участвовать в конкурсе с ником команды слава_украине это пиздец.
Аноним 06/01/23 Птн 10:00:20 #418 №2564472 
>>2564465
ИИ =\= Машоб =\= датасатанизм
Аноним 06/01/23 Птн 10:51:00 #419 №2564508 
>>2564472
И что?
Аноним 06/01/23 Птн 12:52:08 #420 №2564616 
>>2564468
почему пиздец? Он подает тебе пример: очень умные челы против Путина.
Не в окоп же ему лезть.
Аноним 06/01/23 Птн 15:04:33 #421 №2564733 
>>2564468
Почему? Решил потроллить Сбер. Те обиделись. Там они недавно для школьников (не помню, в рамках Дата Джорни или нет) проводили конкурс с тестом в публичном доступе. И очень обижались, что школьники им сказали, что конкурс и тамада - говно. А за проведение конкурса, наверное, сотрудники заработали много лямов рублей.
Аноним 06/01/23 Птн 15:21:25 #422 №2564744 
>>2564733
>с тестом в публичном доступе
Все хуйня после одного из яндексовских сорев, где челы сломали функцию оценки и забили 100% весь список лидеров. Я просто о том, что таким образом он дискредитировал все таки некое академическое общество. С тем же самым успехом, он мог придумать функцию активации NIGGER_SLAYER и вонять на весь интернет, что его статью забраковали на NAACL/ACL/воронежский вестник
Аноним 06/01/23 Птн 17:16:25 #423 №2564889 
>>2564744
Между "Слава Украине" и "Nigger slayer" большая разница, твоя ассоциация не работает. Первый лозунг никого эксплицитно не унижает.
Аноним 06/01/23 Птн 19:39:22 #424 №2564981 DELETED
>>2564889
>Первый лозунг никого эксплицитно не унижает.
А Хайль Гитлер?
Аноним 06/01/23 Птн 22:31:09 #425 №2565166 
>>2564981
А Слава России?
Аноним 07/01/23 Суб 00:00:12 #426 №2565238 
>>2564889
Ну вот хули жопой то вертишь, ты ведь понял о чем я говорю. Замени NIGGER_SLAYER на любой %что-то нейм%. Функция потерь WHITE POWER, или прунинг/дистил ALL LIVES MATTER. Тоже ведь никого не оскорбялет, но выпишут отовсюду быстрее, чем ты напишешь в твиттере о том, что это простой троллинг.
Аноним 07/01/23 Суб 00:48:22 #427 №2565282 DELETED
>>2565166
Конечно слава, но мы же о другом говорим
Аноним 07/01/23 Суб 07:33:40 #428 №2565380 
Если можно денойзить картинки, то может и можно денойзить старые или некачественные записи музыки?
Аноним 07/01/23 Суб 08:41:48 #429 №2565394 
>>2565380
хз спроси в демукс-треде
Аноним 07/01/23 Суб 21:15:05 #430 №2566068 
>>2565380
Берешь кучу музыки
искусственно добавляешь шум
учишь автокодировщик из зашумленной записи предсказывать незашумленную (ту же, но до добавления шума), например, кусками по 10 секунд
используешь этот автокодировщик для очистки новых записей
профит
Аноним 08/01/23 Вск 00:35:19 #431 №2566202 
>>2565238
Это ты вертишь жопой и пытаешься ущемиться. За x lives matter никто никого не выпишет, если x не будет из уголовного кодекса. На каггле видел полно команд с этим шаблоном в названии. Лозунг White power эксплицитно говорит, что власть должна быть у белых.
Аноним 08/01/23 Вск 01:24:35 #432 №2566220 
Claude, SOTA чатбот от компании AntropicAI, превосходит chatgpt во всем.
Ваше мнение, машобисты?
Аноним 08/01/23 Вск 11:33:08 #433 №2566321 
А когда подвезут text-to-video модели хотя б на уровне Стейбла?
Аноним 08/01/23 Вск 12:42:33 #434 №2566358 
>>2486187
А этот MADE норм, типо Шада?
Аноним 13/01/23 Птн 00:43:05 #435 №2571962 
00008-399035189-8k, 4k, realistic, masterpiece, highest quality, high quality, highres, 24 old woman, red adidas suit, (white hair), (yellow eye.png
Посоветуйте лучший курс по компьютерному зрению. Нашел самый новый от ВШЭ сайте открытое образование, а он платный... эээм ок.
На степике есть, но он старый какой-то уже.
Аноним 14/01/23 Суб 11:55:23 #436 №2573440 
Работаю DS, из ЯП по работе использую Python, R + с прошлых работ знаю VBA, StapBasic. Хочу еще какой-нибудь язык начать учить для развлечения, ну и в идеале чтоб какие-то профиты извлечь в профессиональном плане.
Пока думаю между:
- С - чтоб лучше понять как тот же питон "выполняется" на низком уровне
- С++ - в некоторых вакансиях DS попадается, особенно всякий DS на устройствах - IoT, смартфоны (в Самсунге когда-то мне говорили, что у них знание плюсов - плюс на вакансию DS)

+ к этим двум - у меня нету технического образования, так думал заодно изучая низкоуровневые языки немного углубить свои представления о работе компа


- Javascript - иногда по работе делаю HTML-отчеты, и использую чужие js функции для некоторой интерактивности, мб так смогу немного расширить эти отчеты


как думаете, что бы было более полезно знать?
Аноним 14/01/23 Суб 12:00:46 #437 №2573444 
>>2573440
Как в DS вкатился без тех.вышки?
Аноним 14/01/23 Суб 12:15:49 #438 №2573457 
>>2573440
>как думаете, что бы было более полезно знать?
Хрен знает, я бы копался в nvidia'шных ML-библиотеках, постигал бы чудо внутреннего устройства nvidia'шных tesla/google tpu ускорителей, работал бы над своими проектами типа творческие нейронные сети, правда я еще до сих пор не нашел первую работу...
Аноним 14/01/23 Суб 12:33:55 #439 №2573466 
>>2573444
разобрался с теорвером, статистикой, питоном (с пандас, сиборном и т.д. библиотекам), SQL, поработал аналитиком данных несколько лет, подучил ML, набил портфолио на кегле, отправлял cv на все вакансии, какие находил
Аноним 15/01/23 Вск 01:18:39 #440 №2574293 DELETED
>>2573466
>отправлял cv на все вакансии, какие находил
В Пятерочку отправлял?
Всем сап, хочу постить картинки в телеграм нейроновые, рендерить на 1060 6gb Аноним 15/01/23 Вск 01:29:58 #441 №2574300 
2.png
Приятно видеть, что тред живет, потому что я залетуха и надеюсь на вашу помощь.

Сам я девопс, просто траю питон

Хочу использовать Dall e или аналог (причем я точно помню, что было что-то аналогичное)

Есть комп с i7 10400 и gtx 1066 или это возможно только на всяких тесла и тд?
Аноним 15/01/23 Вск 01:31:39 #442 №2574302 
>>2574300
На пике я траил какую-то нейросеть в google cloud
русский язык не обязателен
Аноним 15/01/23 Вск 03:11:03 #443 №2574334 
>>2574300
Есть раздел /ai/, там есть тред по генерации картинок.
Генерация возможна, но будут выходить картинки где то 1280*720.
Разрешение можно повысить, но генерация будет дольше.
Аноним 15/01/23 Вск 13:48:25 #444 №2574529 
>>2574293
Не, там твоя мамка последнюю вакансию заняла
Аноним 15/01/23 Вск 15:05:50 #445 №2574636 
Продублирую из ньюфаготреда, помогите пожалуйста:
Сап, если что я студент, так что не бейте палками, задача следующая: надо сделать парсер текста резюме на питоне, пока что только для вычленения основных полей: ФИО, контакты, основные умения, но в дальнейшем ещё места работы, список сертификатов и тд.
И я вот что то запутался, как это эффективно сделать. Подойдут ли для такого библиотеки natasha, nltk? И стоит ли пытаться внедрить сюда ML?

Если внедрять ML , то надо делать разметку каждого слова к чему оно относится по категории, или достаточно блоки разметить?

Вообще по идее же например телефон можно регулярками достать, но вот как допустим заставить понять, что Горэлектротранс - это место работы?
Аноним 15/01/23 Вск 15:09:16 #446 №2574641 
>>2574636
Погугли NER, можешь посмотреть ещё AutoNER от Сбера.
Natasha умеет вытаскивать организации (у ней внутри нейронка)
Можешь понаписывать правил с помощью Yargy
Если упороться, то можно и одними регулярками обойтись
Аноним 15/01/23 Вск 15:32:22 #447 №2574666 
>>2574641
Что же, значит я хотя бы в сторону нужных либ смотрел, спасибо
Аноним 16/01/23 Пнд 08:34:00 #448 №2575518 
d4f02d76bae83f954cbd3ef062c9f17c.jpg
FireShot Capture 161 - Amazon SageMaker Ground Truth - us-east-1.console.aws.amazon.com.png
Двач, спасай! Нихуя не пойму в этих нейронках.
Короче есть вот такие вот длинные документы (их около тысячи штук):
https://www.sec.gov/Archives/edgar/data/1849380/000110465921033749/tm218584d1_s1.htm

Задача:
Выудить нужную инфу (например, сколько акций выпущено, какой размер dilution, какая юрисдикция компании и т.д.). Я пробовал парсить regex'пами - но он как-то равно криво работает, из-того что нет единого формата. Также, нужно делать краткий пересказ - чем компания вообще занимается.

В общем решил попробовать нейронки, вручную обучить модель. Нагуглил NER, открыл AWS SageMaker, загрузил туда порядка 700 мегабайт текстовых файлов. Чтобы вручную проставить метки, он говорит типа 800,000 символов слишком дохуя, можно максимум 100,000.

Что делать? Уменьшать количество данных? Отказываться от SageMaker? Или как это вообще правильно делается?
Аноним 18/01/23 Срд 15:00:28 #449 №2578360 
>>2574641
Ner работает только с текстом? У меня похожая проблема, но нужно документы автоматически классифицировать и делать так, чтобы нейронка смотрела на определенные участки текста, что уже потом можно скормить OCR и из этого запилить название документа, вроде АКТ N 488 от Нейм или УПД или СЧ
Аноним 18/01/23 Срд 15:03:49 #450 №2578362 
>>2578360
Можно, конечно, сразу в OCR скормить, но я чувствую, что она зафейлится в некоторых случаях, ибо иногда могут край страницы неотпечатать и т.д
Аноним 18/01/23 Срд 15:08:23 #451 №2578368 
>>2575518
обратитесь к Вашему менеджеру https://aws.amazon.com/ru/premiumsupport/plans/
Аноним 18/01/23 Срд 16:23:11 #452 №2578457 
Стоит задача генерировать человекоподобные лица, дохуя, тыщ 30. Может уже готовое решение есть?
Аноним 18/01/23 Срд 18:49:50 #453 №2578816 
>>2578457
https://www.thisdickpicdoesnotexist.com/

ой, я хотел сказать https://www.thisdickpicdoesnotexist.com/
Ну ты понел схему? берешь готовое и переучиваешь
Аноним 19/01/23 Чтв 06:27:03 #454 №2579215 
А что из публичного OCR является лучшим? Вообще, имел очень хороший опыт с обычной конвертацией изображений документов в гугле.
Но это как-то не очень солидно, есть что сравнительно такое же хорошее для русского текста? Тессеракт говно ебаное, не предлагать
Аноним 20/01/23 Птн 01:44:34 #455 №2580273 
>>2579215
Проверил возможности яндекс vision api, ну короче тоже кусок говна, который сомнительно работает, возможно есть способы препроцессинга, который могут улучшить, но я чет сомневаюсь
Аноним 20/01/23 Птн 02:17:14 #456 №2580279 
>>2580273
попробовал бинаризировать, все еще работает как говно
Аноним 20/01/23 Птн 08:37:52 #457 №2580356 
В софтаче спрашивал про прогу, которая сама сортирует изображения и присваивает им теги на основании содержимого, посоветовали обратиться к вам. Собственно что мне нужно я уже написал, был бы очень благодарен за помощь.
Аноним 20/01/23 Птн 09:50:07 #458 №2580384 
>>2580356
Знаю подобную прогу, но она по большей части для аниме картинок.
Аноним 20/01/23 Птн 11:13:12 #459 №2580467 
>>2580384
Мне пойдёт. Название только скажи.
Аноним 21/01/23 Суб 07:31:48 #460 №2581594 
>>2580356
CLIP любой подойдет
вроже даже у сбера свой был
Аноним 21/01/23 Суб 12:50:41 #461 №2581747 
>>2579215
Короче, посоны, самое лучшее из доступных OCR - это google documents, вот без пизды.
У тессеракта как была хуевая производительность, так она и осталась хуевой.
Abby из новых версий вроде неплох, abby 14 версии говно.
Яндекс не может в документы и часто не может идентифицировать текст как текст, собственно.
Аноним 21/01/23 Суб 12:56:38 #462 №2581751 
>>2581747
Вообще, нахуя тессеракт до сих пор существует.
В сети есть доки вроде этого https://cyberleninka.ru/article/n/provedenie-sravnitelnogo-analiza-attention-ocr-i-tesseract-v-zadache-raspoznavaniya-simvolov-na-izobrazheniyah-preyskurantov/viewer
Где буквально рандомы на датасетах берут модель с атеншионом и унижают тессеракт на датасете.
Аноним 21/01/23 Суб 13:53:43 #463 №2581799 
Добрый вечер, пишу сюда второй раз, первый писал примерно пару дней назад по поводу парсинга резюме.Сейчас имею следующую картину: на вход подаётся текст. ФИО, контакты, ссылки извлекаются.Встрял на извлечении желаемой должности.

Может быть вариант вроде

Вася Пупкин. Какой-то текст Желаемая должность: дворник

А может и просто

Вася Пупкин Дворник

Как ее извлечь, если регулярка не походит, а natasha, nltk, spacy не дают стабильного результата? Также пытался найти какой нибудь список профессий, но ничего, кроме списка различных it должностей , не нашёл. Как можно решить эту задачу? С организациями такая же проблема, но пока хочу извлечь желаемую должность.
Аноним 21/01/23 Суб 18:37:59 #464 №2582081 
Диаграмма без названия.drawio.png
Сап аноны, есть датасет, в котором, если у строки поле "тип" равно 1, то значения имеют все атрибуты, кроме последнего, но если тип не 1, то все атрибуты NaN, кроме последнего (приложил пикчу)
Вопрос - как справляться с NaN?
Я так понимаю, чтобы они не влияли во время обучения, их надо просто занулить. Однако я собираюсь использовать Binary Encoder для кодирования категориальных признаков и в таком случае 0 не будут путать сеть? или учет NaN как одного из значений кат признаков решит эту проблему?
Аноним 22/01/23 Вск 01:32:44 #465 №2582387 
Господа, про численные методы сюда вопрос задать можно? Слышал, что кто-то относит их к машинному обучению. В доску про математику (в алгебру) написал, но доска мертвая какая-то
Аноним 22/01/23 Вск 21:52:47 #466 №2583678 
>>2582387
этот тред тож мертвый
Аноним 22/01/23 Вск 22:24:03 #467 №2583700 
>>2580467
https://github.com/danbooru/autotagger
Аноним 23/01/23 Пнд 19:58:54 #468 №2584768 
Есть какой-нибудь инструмент, чтобы вращать страницы с текстом в правильное направление?
Аноним 23/01/23 Пнд 21:50:02 #469 №2584853 
Vp1Grafik.png
Аноны, приветствую.
Необходимо написать сеточку на диплом (программирование не основное направление образование)

В чем цель сетки: Есть график (пикрил), в нем есть резкий скачок. Нейросетка должна определить этот скачок и определять его длительность.

Что почитать/пройти, чтобы не особо вдаваться в суть?
Аноним 24/01/23 Втр 04:37:31 #470 №2584989 
>>2584768
Ну нахуй, в очередной раз попробовал заюзать тессеракт и угадайте? Это говно не работает.
Пойду попробую самостоятельно натренировать нейронку
Аноним 25/01/23 Срд 01:16:40 #471 №2586165 
>>2584853
Чел, скажи, ты даун?
Зачем тебе нейросетка скачок один определять?
Дрочишь мясорубкой?
Аноним 25/01/23 Срд 12:30:56 #472 №2586467 
>>2580356
Тулза на основе CLIP, которая после минимального допиливания оттагает тебе коллекцию картинок любым произвольным тэгом:
https://github.com/yurijmikhalevich/rclip
Аноним 25/01/23 Срд 22:38:27 #473 №2587267 
>>2584853
Двачую анона выше.
В одной известной библиотеке для научных вычислений одного небезызвестного языка есть функция, которая буквально тем и занимается, что детектирует пики. Оставляю задачу поиска этой функции на домашнее изучение студента.

А теперь побугурчу.
Как же раздражают тупые дебилы, которые пытаются машинку прикрутить ко всему нахер. Вот у меня в практике был буквально такой же случай. Ыыыыыы ну типа вот у нас спектры, там пики, надо пики найти и площадь посчитать, мы тупые ретарды не смогли нагуглить проги и либы, которые это давно и успешно делают с разными алгоритмами под все случаи жизни, а то что нашли, нам не нравится. Вооот.
В итоге челики хотели написать ПрОгРаМмУ с использование МаШиНа УчИтСя и опубликовать/продать. И после пары месяцев бурных обсуждений, я просто дал ссылку на обзор разных алгоритмов, и за полтора часа на тяп-ляпал кал, который на тех спектров, с которыми мы работали, аутперформил аук их кала на 0.2 с чем-то.

Если тебе задали написать сетку чтобы пик определять, то твои супервизоры - брейндед ретарды. Если ты сам это придумал, то иди лучше втулки точить на заводе.
В твоем случае задача имеет настолько тривиальную эвристику если все настолько выражено, что я не знаю кто-ты нахер если ты до нее не допер.
Аноним 25/01/23 Срд 23:53:42 #474 №2587335 
>>2587267
>>2586165

Спасибо, аноны.

Наука в аспирантуре как она есть. Конкурсы на внедрение нейросетей и всего такого. Роди идею ради идеи.

Задача сложнее на самом деле, идентифицировать пик как электрическую дугу. Только при дуге не всегда есть пик, или пик не всегда дуга. Для этого там уже графики тока и напряжения на других элементах цепи. Ну и по совокупности признаков надо принять решение дуга это или нет.

Но т.к. я энергетик и все эти нейросетки вообще не моя тема, решил, что быстрее спросить, чем несколько дней в тему вникать.

Мне уже объяснили, что это хуйня и сетку для этого делать не надо, хватит обычных методов Data Mining.

Завтра буду деду ретрограду пояснять что к чему.
Аноним 26/01/23 Чтв 00:54:39 #475 №2587365 
>>2587335
>Наука в аспирантуре как она есть.
Тебе повезло, что у вас в лабе нет человека, который кончал мехмат какой-нибудь.
Ему бы отдали всю "сложную" матешу, он бы тебе сделал калосетку, а потом тебе бы пришлось краснеть за него.
Аноним 26/01/23 Чтв 22:34:45 #476 №2588688 
>>2587365
Лаба...

Ты оптимист)

У меня есть мой ноутбук и пиратский софт с нулевым желанием заниматься всей этой фигней при таком обеспечении. Поэтому калосетку бы я писал лично, лишь бы от меня отъебались.
Аноним 27/01/23 Птн 21:15:33 #477 №2590061 
>>2588688
Лаборатория здесь в смысле объединения ученых-копченных.
Ты и науч - уже лаба. Я грантово лабу оформлял буквально на 3 человек, один из которых дед на публикации, который ничего не хотел кроме как глушить водку на кафедре с корешами и придумывать простое доказательство теоремы Ферма.
Кароч. Дам тебе рекомендацию сразу. Для большинства задач нейросетка - это оверкил. Чем раньше ты убедишь в этом деда, тем лучше.
Плюс, если это научное заведение с профилем не в CS, матеше или непосредственно в ИсКуСсТвеНноМ иНтЕлЕкТе, то скорее всего даже с потерей в точности, результаты более интерпретируемых подходов будут больше с руки.
У одноклассника, когда он защищал магу на физфаке, его супервайзор дрочил обеими руками на нейросетки, и пытался агитировать всех их делать. В итоге, когда днокл принес ему веса, дед сказал: "Че за говно? что с этим делать? Хорошо предсказывает? Предсказывает что?"
И все в таком духе.
Аноним 28/01/23 Суб 18:49:04 #478 №2591135 
>>2484578 (OP)
пук
Аноним 28/01/23 Суб 18:49:37 #479 №2591136 
привет хочу написать капча солвер что почитать?
Аноним 28/01/23 Суб 19:10:50 #480 №2591160 
>>2591136
гугл
Аноним 28/01/23 Суб 19:43:45 #481 №2591180 
image.png
image.png
Стоит читать?
Аноним 30/01/23 Пнд 07:18:54 #482 №2593016 
Нейроночники, у вас же вакансий нет, что вы там учите
Аноним 31/01/23 Втр 08:26:31 #483 №2594109 
Что почитать на тему работы чатботов по условиям если-то ? Пишу своего, не хватает готовых моделей, велосипеды делаются
Аноним 31/01/23 Втр 17:05:13 #484 №2594567 
>>2593016
чатгпт по-твоему кто сделал?
Аноним 02/02/23 Чтв 00:34:13 #485 №2596287 
машобщики, мне всю телегу завалили ультрареалистичными аудио с голосами популярных актеров
что это и можно ли локально запустить?
Аноним 02/02/23 Чтв 02:25:57 #486 №2596327 
>>2591180
Бабушкин говорил вторая норм, там типа азы, но я её уже год откладываю, го вместе её осилим, тг @bravednn
Аноним 02/02/23 Чтв 14:41:32 #487 №2596801 
>>2596287
Это tts затюненый на конкретных людей. Скорее всего fastpitch. Учить надо будет дня три..пять. Попыток будет сильно больше 10.
Если хочешь быстрее, ищи на гитхабе voice cloning. Я пробовал года два назад https://github.com/CorentinJ/Real-Time-Voice-Cloning работало на русском плюс-минус сносно, сейчас должны быть инструменты поновее.
Аноним 02/02/23 Чтв 15:05:34 #488 №2596834 
Приветствую.
Никогда не имел дела с нейронками, но кажется сейчас они могут пригодиться.
Есть два графика, которые по форме похожи, но периодически расходятся. Расхождение коррелирует с графиком третьей переменной. И хочется подобрать формулу от этой переменной, которая бы нивелировала разницу первых двух графиков. Можно ли это сделать нейронкой или может матлабе под это есть что-то?
Заранее спасибо.
Аноним 02/02/23 Чтв 23:46:40 #489 №2597573 
>>2596834
Можете уже не отвечать, вспомнил про линейную регрессию.
Аноним 03/02/23 Птн 20:06:25 #490 №2598293 
1446990749772.jpg
https://podcasts.google.com/feed/aHR0cHM6Ly9hbmNob3IuZm0vcy8xMjU4NGM1OC9wb2RjYXN0L3Jzcw/episode/MjI1MDY3YjAtMjllMS00NmE4LWJjOWQtOGM2ZTU0ZTYyY2U0?sa=X&ved=0CAUQkfYCahcKEwiA5uTQ6vn8AhUAAAAAHQAAAAAQaA
Воронцов коммунякл оказывается.
Аноним 03/02/23 Птн 20:22:02 #491 №2598314 
>>2598293
Расстреляйте товарища!
Аноним 03/02/23 Птн 22:23:17 #492 №2598433 
>>2598293
Если кто хочет слушать: первая половина это его биография, можно скипать. Дальше его заносит в конспирологию. "Не знаю кто" (злые жыдомассоны) хотят сжить со свету род людской, не знаю зачем (чтобы уподобиться богу). Не понятно, как это сочетается. Кароч, типичный совок с признаками ваты в голове (не удивлюсь если он клозетный зешник) пытается в рассуждения на гуманитарные темы.
Говнецом от него немного попахивает, ну в плюс можно записать что хоть не за массовые расстрелы и гулаг, и удержался от упоминания хохлов (может вырезали).
Аноним 04/02/23 Суб 15:00:10 #493 №2598855 
image.png
Сап аноны, пилю что-то наподобие automl в tf (перебираю оптимизаторы и лоссы и сравниваю, какая модель лучше), возникла проблема. После обучения моделей они все выводят константный результат, если обучать по отдельности, то всё ок. Как я понимаю, проблема в том, что в tf надо как-то указать, чтобы обучалась совершенно новая модель, а он скорее всего подтягивает графы с предыдущих сессий обучения и переобучается. Пробовал backend.clear_session() не помогло. В чем проблема, аноны, и как её решить?
Прикладываю пикчу, как это выглядит сейчас
Аноним 04/02/23 Суб 21:59:25 #494 №2599305 
>>2598855
Там гемор с этим. ТФ вообще ужасный фреймворк. Легче всего будет полностью рестартовать питон на каждую модель. Иначе будешь ловить баги пока не надоест.
Аноним 05/02/23 Вск 04:00:35 #495 №2599506 
https://www.ixbt.com/news/2023/02/04/teper-i-aktjory-ne-nuzhny-google-predstavila-nejroset-dreamix-kotoraja-sozdajot-i-redaktiruet-video-po-tekstu.html
Аноним 07/02/23 Втр 16:38:29 #496 №2602477 
>>2573466
Как выбивать медальки на кеггле
Аноним 07/02/23 Втр 17:30:49 #497 №2602608 
>>2602477
обрати внимание, он ничего не сообщал про медальки.
Аноним 08/02/23 Срд 15:02:10 #498 №2603565 
>>2598293
Бизнес руками студентов провалился - стал коммунистом
Аноним 08/02/23 Срд 15:21:14 #499 №2603577 
>>2598433
Либерашка, не хрюкай.
Аноним 09/02/23 Чтв 10:40:34 #500 №2604400 
Где можно почитать обсуждения тех, кто шарит в теме?

Суть такова, нужно группой готовых решений выполнить следующее: заменить лицо на фото (предварительно сгенерировав), заменить текстовые данные на объекте на фото.
Если есть возможность менять позу, фон. Апскейл и т.д.
Получать из одного шаблона сотни нужных уникальных фотографий, это возможно, осталось понять как.
Желательно бесплатно и без ебли с фотошопом самому.
Аноним 10/02/23 Птн 16:25:12 #501 №2606218 
Сап двач

Подскажите сколько времени нужно что бы вкатится на РАБотку?
Исходные данные:
кун 18 лвл
Знаю Питон (писал несколько ботов)
Есть некий опыт работы с алгоритмами
Аноним 11/02/23 Суб 11:16:01 #502 №2607098 
>>2604400
Анон, подскажи.
Учу ML. Треню нейронку на звуке, датасет - 320 wav файлов, длиной по 50к-200к + семплов. Как лучше организовать загрузку в память? Просто порезать на отдельные файлы размером с датапойнт, или есть решения лучше? Попробовал memory mapped arrays, но работает в 10 раз медленнее в сравнении с одним батчем, загруженным в RAM.

Так же, поскольку GPU осталась в России, трейню в колабе. Непонятка с num_workers возникла. Колаб ругается если ставлю больше 2 воркеров. Ну и действительно, 4 - работает, но прироста не даёт, так же 8. Посмотрел проц, который дают - вроде должно работать. Чего я не понимаю?
Аноним 11/02/23 Суб 14:13:53 #503 №2607324 
>>2607098
Сделай себе в России Zerotier и заходи по ssh
Аноним 11/02/23 Суб 14:38:44 #504 №2607347 
>>2606218
Видел выступления чувака который с 0 за 7 месяцев дошёл до грандмастера на кегле, там уже считай устроился.
Аноним 11/02/23 Суб 23:54:39 #505 №2607949 
Есть какой нибудь чятик в тг по теме?
Аноним 13/02/23 Пнд 16:38:42 #506 №2609825 
>>2607949
Нет
Аноним 14/02/23 Втр 06:28:33 #507 №2610413 
Что-то за пару дней получилось впитать себя информацию чуть ли не с нуля, вплоть до диффузионок и трасформеров. Чую мой моск сейчас взорвется.
Аноним 14/02/23 Втр 09:07:07 #508 №2610469 
>>2610413
Надо было не впитывать, а следовать методу Фейнмана.
Аноним 14/02/23 Втр 12:07:56 #509 №2610627 
Есть вопрос по железу для маш. оба.

Сильный ли профит от большего кол-ва CUDA ядер?
На AMD сетки учить не получиться? Там вроде какой-то форк был, но создателям дали по голове и он не развивается.

Что важнее в обучении на ЦПУ? Частота или кол-во ядер?
Аноним 15/02/23 Срд 02:22:35 #510 №2611670 
>>2610469
Я не то чтобы прям следую этому методу, но даже если бы следовал бы, то написал бы точно такой же пост про впитывание, так что не совсем понимаю, к чему это ты.
Аноним 16/02/23 Чтв 21:42:00 #511 №2613790 
>>2610627
При обучении на ЦПУ важнее число ядер. Так как для того, чтобы зайти на Гугл колаб, нужно будет воспользоваться браузером. А для стабильной работы браузера важнее число ядер.

Не знаю, что важнее. Но, если есть возможность, пользоваться колабом, то пользуйся им. Гпу быстрее где-то на два-три порядка.
Аноним 18/02/23 Суб 18:14:30 #512 №2615610 
Какой проект по МашОбу можно сделать что бы не стыдно было его показать хрюшам (для портфолио)?
Что вообще не плохо было бы иметь в портфолио студенту после завершения учебы?
Аноним 18/02/23 Суб 18:34:36 #513 №2615651 
Во всех гайдах по mixed precision в pytorch, приводят один и тот же код:
> with torch.cuda.amp.autocast():
> loss = model(data)
> scaler.scale(loss).backward()

и я не могу понять, откуда вторая строчка. Схуяли model(data) будет возвращать loss? Объясните плз, или ткните в нормальный гайд плз.
Аноним 18/02/23 Суб 18:46:43 #514 №2615678 
>>2615651
Нашёл ёптабля:
https://pytorch.org/docs/stable/notes/amp_examples.html
> with autocast(device_type='cuda', dtype=torch.float16):
> output = model(input)
> loss = loss_fn(output, target)
Аноним 18/02/23 Суб 21:01:20 #515 №2615888 
>>2615610
Классификатор NSFW/SFW.
Аноним 19/02/23 Вск 08:57:00 #516 №2616245 
>>2615610
Грандмастера на кагле.
Аноним 21/02/23 Втр 01:53:28 #517 №2618310 
>>2545799
>Условный градиентный бустинг показывает в задачах регрессии и классифицикации при прочих равных похожие результаты с нейронками. Так смысл тратить время на архитектуру нейронки, если бейслайновое решение обычным МО будет не сильно хуже?

Ну приехали. Взял и таблички обобщил на всю индустрию.
В вижне условный градиентный бустинг это HOG с вручную инженереными фичами, в текстах это, блять, даже не хочу думать про бустинг в текстах.

Нейронки это реально революция, проблема в том что далёкие от темы люди сделали нейронки ебучим баззвордом и теперь быдло думает что это магические вещи уровня сильного ИИ.
Аноним 21/02/23 Втр 02:05:46 #518 №2618313 
>>2598293
Всегда знал что он умный мужик.

мимо ШАДовец
Аноним 21/02/23 Втр 12:25:52 #519 №2618500 
>>2484578 (OP)
Анон, как применять ML для анализа логов/метрик?

Бекграунд: бекендщик-сишарпист на основно работе, знаю питоний на уровне мидла. Прочёл пару книжек по ML, выяснил кто потонет на титанике, поклассифицировал лепестки ирисов и нашел недооцененные дома в нуйорке.

Теперь я хочу применить свои познания в ML в реальном проекте (платформа для торговли криптой), и чот не пойму, с какой стороны подойти. Пох на сам трейдинг, интересует пока чисто эксплуатационная часть проекта - типа упадёт ли сервис/система, или что там ещё может произойти?

У меня есть логи по всем сервисам типа
"Timestamp: 123570983247052, App: Service1, Level: Error, MessageTemplate: Somethinп went wrong in {ClassName}, Properties.ClassName: MyBuggyClass, Exception: ..."
Есть метрики по всем сервисам (типа сколько памяти в данный момент жрёт, сколько сообщений и в какой очереди отправлено или принято, и тд).

Я могу завернуть всё это добро в любой формат (csv, json, что угодно), сждойнить/транспонировать/агрегировать/etc.

Но я не пойму, как мне это использовать, чтоб предсказать падение сервиса. Чисто эмпирически/постфактум я могу пошерстить логи и понять, что вот после данной последовательности сообщений в логах сервис упал. Ну охуеть. А как мне понять, что сервис упадёт в будущем?

Я понимаю, что тут нужны какие-то timeseries-analysis, но чот не нашел примеров для вкатунов по анализу логов для этой штуки.

Посоветуй плз какие-нибудь материалы/примеры на кагглах/гитхабах, молю!
Аноним 21/02/23 Втр 20:31:11 #520 №2619050 
>>2618500
Начнём с самого очевидного - если вам нужны ML модели предсказывающие падение написанной вами же системы, то это крайне хуёвая система, её надо чинить а не предсказывать когда она жидко пёрнув обмякнет.

Но если ты всё таки хочешь себе пет проект, начни с чего-то простого.

У тебя есть множество временных рядов для каждого сервиса, по ним ты можешь наинженерить фичей (так и гугли - time series feature engineering), по фичам ты хочешь предсказывать обосрётся ли сервис в ближайшие например 5 минут, это задача бинарной классификации.
Исторические данные у тебя есть. Для начала натренируй какой-то градиентный бустинг.
Че сложного-то?
Аноним 21/02/23 Втр 22:06:30 #521 №2619137 
>>2619050
Да, это пет-проект.
Спасибо, анон!
без смс и регистрации Аноним 24/02/23 Птн 11:44:41 #522 №2621289 
emd6d85eb1ka1.webp
x6lxs4kql0ka1.webp
Кто-нибудь знает где можно без проблем генерить картинки из текста - Midjourney?
Кроме того как создавать сервер на дискорде, приглашать бота туда, потом через браузер в инкогнито моде каждый раз переходить по ссылке-приглашению?
Есть попроще вариант без лимита чтоб? Ну или хотя бы чтоб лимит был не навсегда, а там в неделю.
50 картинок в неделю например.
Аноним 25/02/23 Суб 03:53:30 #523 №2622150 
Как вкатиться в ML?
Одни говорят грандмастера делать другие говорят что он для бизнес задач тобишь в работе нахуй не нужон и вообще мало кто про него знает, так что делать то, куда двигаться?
Аноним 25/02/23 Суб 09:13:00 #524 №2622198 
>>2622150
Софт-скиллы качай. Чтобы чуять куда начальник хочет двигать бизнес и на это направление натягивать данные.
https://habr.com/ru/post/704938/
Аноним 27/02/23 Пнд 14:21:35 #525 №2624530 
Реально ли вкатиться в 40+ лет?
Матобразования нет(вообще вышки нет) но так понимаю там используется примитивная математика типо тервера.
Программистом не работал, но как код пишется представляют, писал всякую мелочь типо ботов.
Аноним 27/02/23 Пнд 14:22:49 #526 №2624532 
Реально ли вкатиться в 40+ лет?
Матобразования нет(вообще вышки нет) но так понимаю там используется примитивная математика типо тервера.
Программистом не работал, но как код пишется представляют, писал всякую мелочь типо ботов.
Аноним 27/02/23 Пнд 14:24:26 #527 №2624534 
>>2624532
>
>
Я так понял вакансий джунов нет, лучший варинат - тупо пет проекты пилить? Но нужно
Аноним 27/02/23 Пнд 16:18:55 #528 №2624642 
>>2624530
Нет, нереально. Увы, анон.
Аноним 27/02/23 Пнд 17:14:41 #529 №2624746 
На связи веб-макака джуниор, сейчас вкатываюсь в машоб. Проштудировал "создай свою нейросеть" несколько раз, усвоил всю математику, реализовал простейшую распознавалку на тензорфлоу.
Однако, в том случае у нас классификатор. На входе картинка, а на выходе - одна из десяти цифр. Таким образом, выходной слой содержит всего десять нейронов.
Итак, вопрос: если я хочу распознавать капчу, то как должна быть организована нейросеть. Если там пять цифр, не может же быть сто тысяч выходных узлов? Может быть, пять раз по 10 узлов? Или еще как-то? Что гуглить?
Аноним 28/02/23 Втр 01:15:31 #530 №2625222 
>>2624746
А, разобрался. По счастью моя конкретная капча простая и цифры расположены одинаково, так что можно разбить все надписи на цифры и распознавать их по очереди. Так что задача сводится к распознаванию каждой цифры. Даже, я бы сказал, к сравнению с оригинальными числами.
Скажите, какое было преобразование? Ферма? Ферми? Есть удобный инструмент для работы с картинками и сравнения? На днях видел статью, но потерял.
Аноним 28/02/23 Втр 09:57:24 #531 №2625402 
courses.jpg
Можно ли рассчитывать на позицию джуна с сфере МЛ если всё посмотреть?
Аноним 28/02/23 Втр 11:25:18 #532 №2625497 
>>2625402
Нет
Аноним 28/02/23 Втр 19:30:52 #533 №2626142 
>>2484578 (OP)

Привет, аноны.

Тян учится на этих ваших дата саентистов, смотреть как у нее ее хуита обучается по шесть часов на ноуте - просто боль. Хочу собрать ей пеку, но поскольку сам я джейсоны на беке перекладываю, то не совсем в курсе, что там у вас ценится. Я же правильно понимаю, что многококпок лучше, чем производительность на ядро? И что по видеокартам?

Заранее благодарю
Аноним 28/02/23 Втр 20:56:49 #534 №2626229 
>>2626142
Надо любую невидию с овер 12Гб памяти. Память видюхи важнее производительности. ОЗУ побольше. SSD побыстрее. Проц в общем то пох какой, проц только датасеты причёсывает.
Аноним 28/02/23 Втр 21:53:20 #535 №2626272 
>>2626142

Блэт, а я ей хотел свою 3070ти отдать, и себе 4090 взять. 8гиг прямо мало, да?

Хотя думается мне, что это всяко лучше чем вега-встройка на ноуте.
Аноним 28/02/23 Втр 21:53:47 #536 №2626274 
>>2626272
>>2626229

Промахнулся
Аноним 01/03/23 Срд 18:44:34 #537 №2626867 
1591141649504.png
Как эту пидорасину на торче профилировать? ЦП на чилле, на GPU аж кульки останавливаются. Ну я ёбнул простое профилирование, но время выполнения функций вообще ни о чём не говорит, профилирование через PyTorchProfiler тоже залупа. Как мне понять где боттлнек? Не верю что это по шине между GPU, я при сохранении обработанного датасета на диск получаю больше пропускной способности, чем при тренировке.
Аноним 03/03/23 Птн 10:31:38 #538 №2628315 
>>2626142
В серьезных задачах нужно предобрабатывать (перед обучением) большое количество данных (по сравнению с оперативной памятью обычного игрового ПК) и делать это часто при поиске решения. Это может быть например занимать час, поэтому важно количество ядров процессора, чтобы все распараллеливать и сокращать это время до десяти минут, например, хорошо бы иметь 16-ядерный процессор, побольше оперативной памяти от 32 ГБ до 256 ГБ (зависит от серьезности задачи), 1 - 2 ТБ SSD, видеокарту 16 ГБ памяти минимум.
Аноним 03/03/23 Птн 17:47:42 #539 №2628739 
>>2624530
от заказчика отталкивайся
сможешь вообще потом работу найти?
Аноним 04/03/23 Суб 19:35:20 #540 №2629784 
>>2626142
>>2626272

Вообще хорошо бы знать что именно твоя тянка там учит.
Если это модная нейросетевая дрочильня то 4090 лучше купи своей женщине а 3070 затычку себе оставь, VRAM оч нужон.
Но есть вариант что она дрочит классический мл - бустинги, деревья и вот это всё, и для этого собирают машину с кучей ядер CPU.
В любом случае ещё понадобится 64+ гб оперативки (ну это для комфорта) и быстрые SSD, чтоб затыков по IO не было.

Прочитал то что сам написал - бля, да дешевле её дропнуть будет.
Аноним 04/03/23 Суб 23:43:04 #541 №2630037 
После того как перевожу колонки категорий в One-hot encoding
количество колонок в X_train и X_test становиться разным, тренировать то я могу вот только потом my_model.predict(X_test) не работает...

# One-hot encode the data
imputed_X_train_card = pd.get_dummies(imputed_X_train_card)
imputed_X_test_card = pd.get_dummies(imputed_X_test_card)

(осторожно, длинно, после строки 56 размер колонок не совпадает https://pastecode.io/s/ao4s34ww)

Знаю что это база но я только начинаю
Аноним 04/03/23 Суб 23:44:17 #542 №2630039 
>>2630037
скобка взялась в ссылку

https://pastecode.io/s/ao4s34ww
Аноним 05/03/23 Вск 01:44:16 #543 №2630104 
>>2630037
пытаюсь сделать как он описал https://www.kaggle.com/competitions/home-data-for-ml-course/discussion/269492
Аноним 05/03/23 Вск 03:09:41 #544 №2630129 
>>2630037
Склеиваешь два фрейма, потом делаешь ванхот, потом разлепляешь. Ну очевидно же.
Аноним 05/03/23 Вск 04:07:56 #545 №2630139 
>>2630129
>Склеиваешь два фрейма
Какие два фрейма склеивать? numerical и categorical?

>Потом разлепляешь
Для чего?

И еще, ванхот и Imputer делать после train_test_split, правильно?

Чето совсем запутался
Аноним 05/03/23 Вск 05:24:26 #546 №2630150 
>>2630139
У тебя разбиение на тест и трейн такое что туда вошли не совпадающие наборы признаков.
Например, в трейн попали семплы у которых встречаются значения фичи {'a' 'b' 'c' 'd' 'e'}, и ванхот закодировал из в 5 разных бинарных признаков.
А в тест попали семплы со значениями фичи {'a' 'b' 'c' 'f'}, и ДРУГОЙ ванхот кодирует их в 4 бинарных фичи, которые ещё и разный смысл имеют.

И тест и трейн ты преобразовывать одинаково, а потому эту категориальную фичу должен кодировать один и тот же кодировщик который знает про все возможные значения категориальной фичи во всей генеральной совокупности.

В контексте соревнования это легче всего сделать сложив в одну кучу все семплы, преобразовав их, а дальше растащив их обратно на трейн и тест.
Аноним 05/03/23 Вск 06:17:59 #547 №2630154 
>>2630150
>в одну кучу все семплы, преобразовав их, а дальше растащив их обратно на трейн и тест.

1) frames = [test, train]
result = pd.concat(frames)
Так нормально будет?

2) ванхот.

3) Разделять обратно по индексам думаю.
Допустим в трейне 5 а в тесте 4 семпла то после pd.concat будет 9 семплов (One-hot же не добавляет доп. строки). Когда буду разделять, просто возьму первые 5 в трейн и остальное в тест, что бы исходные трейн тест сеты получить, сработает?
Аноним 05/03/23 Вск 07:35:37 #548 №2630162 
>>2630154
Да, так сработает.
Аноним 05/03/23 Вск 08:07:32 #549 №2630170 
>>2630162
Да, сработало. Но ошибка (MAE) еще большевата.

Теперь хочу вставить не хватающие значения фич в X_train и X_valid, не уверен нужно ли для X_test тоже добавлять.
Вот так:
>Impute missing values with median(for numerical cols) and most_frequent(for categorical cols)
В numerical cols я еще смогу добавить а что с categorical делать, их нету больше? После ванхота они удалились
Аноним 05/03/23 Вск 08:18:25 #550 №2630173 
>>2630170
Input missing ты делаешь до ванхот энкодинга.
Трейн и тест ты всегда должен обрабатывать единообразно. Можешь представить что сначала ты обрабатываешь все семплы сваленные в кучу а только потом часть из них отбираешь как тестовые.
Аноним 05/03/23 Вск 10:06:00 #551 №2630213 
>>2630173
Сделал Impute missing и ванхот, всё зря, результат не улучшился, только MAE улучшилось на очень маленькое число а score на каггле даже хуже стал.
Аноним 05/03/23 Вск 11:06:51 #552 №2630234 
>>2630213
С GridSearchCV поискал параметры поднялся на сотни мест вверх.
А эта штука затягивает, не знаю даже хороший это признак или нет)
Скоро буду ненужные фичи искать и дропать их.
Аноним 06/03/23 Пнд 20:27:49 #553 №2631923 
>>2598293
У Воронцова на ноябрьской конференции в МГУ по ИИ студентка работу по дискурсивному анализу хейтспича Арестовича представляла.
Как же я рофлил тогда.
Аноним 08/03/23 Срд 11:17:06 #554 №2633503 
Перестали отображаться вкладки в левой боковой панели на chat.openai.com Пробовал на разных браузерах, отключал блокировщики рекламы, чистил кэш и тд. Написал сюда потому что не знаю куда ещё
Аноним 08/03/23 Срд 15:19:58 #555 №2633807 
1652899351686.png
Тут кто-нибудь в GAN разбирается? Тренирую апскейлер с ним, всё как положено - комбинирую с L1 и perceptual loss, для дискриминатора сеть UNET. Но почему-то ломается цветокоррекция пикч. За 5000 шагов желтеют, к 10000 уже просто желтые квадраты высерает. Что за говно? UNET пикрилейтед, активации LeakyReLU. Где я мог обосраться?
Аноним 11/03/23 Суб 16:54:34 #556 №2636890 
>>2633807

Если используешь opencv у них brg вместо rgb используется. Возможно в этом проблема.
Аноним 11/03/23 Суб 20:16:37 #557 №2637232 
>>2626867
Я нубасик. Профайлеры пробовал, мне тоже не понравилось, поэтому я тестирую перформанс поэлементно. Отключаю разные части пайплайна и смотрю как меняется скорость. Иногда беру отдельно - например, генерю большой массив в CPU RAM и перекидываю его на GPU, или обучаю на синтетических данных, чтобы посмотреть скорость непосредственно перемножения матричек и автоматического дифференцирования моей архитектуры.
Аноним 12/03/23 Вск 20:17:10 #558 №2638330 
Здравствуйте, такая ситуация, есть одна шарага, в ней проводится практический экзамен со стендами. Там типа студент заходит в аудиторию с видеонаблюдением и говорит я Ерохин Иван сын Исильдура специальность тракторист - гоидист. И начинает со стендами экзаменоваться. И таких студентов там сотни.

Так вот, моя задача, взять после экзаменов видеозапись за всё три экзаменационные недели и тайминг проставить, где с какой минуты и секунды какой студент начинает.

Подскажите, как можно автоматически компьютерным зрением автоматически тайминги проставить, что на такой-то минуте и секунде заходит в аудиторию экзаменуемый? И с аудиозаписью ту же хуйню сделать, задетектить тайминги, когда прозвучит та ожидаемая фраза я Ерохин Иван сын Исильдура специальность гоидист тракторист.

Что учить по теме компьютерного зрения? Какую пистоновскю библиотеку использовать в первую очередь?

Требуется не в реальном времени это сделать, а уже потом когда будет видоезапись всего действа - уже после этого видеозапись через самописную программу пропустить чтобы получить тайминги. То есть нужна программа которая будет определять что в таком-то кадре через порог аудитории переступило человеческое тело

И список студентов и специальностей заранее уже есть, то есть аудиозапись надо будет проверить на уже заранее известные ФИО и специальности.

УМОЯЛЮ ПОДСКАЖИТЕ КАКИЕ БИБЛИОТЕКИ ИСПОЛЬЗОВАТЬ ПИСТОНОВСКИЕ А???!!!! УМОЛЯЮ ПОДСКАЖИТЕ!!!

З.Ы. я спросил через телеграм бота который имеет связь с чатгопотой по своему вопросу, бот ответил что на выбор 8 есть библиотек, выбирай:
1) OpenCV
2) TensorFlow
3) Dlib
4) PyTorch
5) Keras
6) Darknet
7) Detectron2
8) YOLOv5 (PyTorch)

таки подскажите какую из 8 выбрать?
Аноним 13/03/23 Пнд 20:39:53 #559 №2639322 
>>2638330
Я бы просто кропнул видео и потом по диффам между кадрами смотрел когда там зверь появляется. Тут тупо ffmpeg хватит.
По голосу луркай vosk-asr. "специальность" распознает прекрасно, а вот всякие "Махмуды Мадиновичи" надо будет руками подправить. Тебе их корректно вообще никто не распарсит.
Аноним 14/03/23 Втр 02:10:56 #560 №2639482 
Возможно тупой аовпрос ,но. Обучаемая модель неправильно воспринимает данные. Не как матрицу, а как список строк. Что делать то?
Аноним 14/03/23 Втр 06:46:33 #561 №2639507 
>>2639482
Компьютер воспринимает матрицу как вложенные друг в друга списки.
Аноним 14/03/23 Втр 07:26:14 #562 №2639512 
>>2639507
Так оно и предсказывает по строкам матрицы, а не по самой матрице в целом.
Аноним 14/03/23 Втр 13:59:34 #563 №2639767 
Помогите с домашкой плиз
Объявите вещественные тензор x размера (3, 4, 5) и тензор y размера (2, 6, 3), иницилизируйте их равномерным распределением.

x = torch.FloatTensor(3, 4, 5).uniform_()
y = torch.FloatTensor(2, 6, 3).uniform_()

Создайте их копии на GPU,
x_cuda = x.cuda()
y_cuda = y.cuda()

выведите их сумму и разность
Как их можно сложить? в одном 40 значений, во втором 36
В ответе 80 значений, размер (4,4,5)
Аноним 14/03/23 Втр 14:14:27 #564 №2639782 
>>2639767
Ошибся, в этом тензере (3, 4, 5) 60 значений конечно же

Я думал что возможно x можно решейпнуть и 12 значений перекинуть в y ( y тоже решейпнуть перед этим)
Но все равно получится в x и y по 48 значений , а в ответе 80 значений
Аноним 14/03/23 Втр 16:22:15 #565 №2639946 
>>2639322
Спасибо большое, попробую так сделать
Аноним 15/03/23 Срд 17:18:21 #566 №2641207 
На что смотрит эйчар? На проекты Kaggle или что-то ещё?

Учу потихоньку курс https://www.deeplearning.ai/courses/machine-learning-specialization/, материал и объяснения вроде как понятны. Теперь бы найти практику для портфолио.
Аноним 15/03/23 Срд 18:45:12 #567 №2641380 
Здравствуйте, подскажите пожалуйста какой нейросетью воспользоваться, чтобы мутное фото в котором текст на русском языке стал читаемым?
Аноним 15/03/23 Срд 22:51:25 #568 №2641616 
>>2641380
>чтобы мутное фото в котором текст на русском языке стал читаемым?
Если ты его сам глазами не можешь прочиать, то никакая нейросеть не прочитает. Пробуй крути фильтры/уровни в фотошопе. Ну ещё какой-нибудь из сврёточных deblur-ов.
Аноним 17/03/23 Птн 12:07:19 #569 №2642878 
Кто нибудь может помочь с домашкой по персептронам?
class Perceptron_ReLU - не обучается модель
Аноним 17/03/23 Птн 13:45:48 #570 №2642958 
>>2642878
Функции активации
"Реализуйте сигмоиду и её производную"
https://pastecode.io/s/6mdpwdha
Ёе я худо-бедно сделал
А потом нужно сделать ReLU
Задание:
https://pastecode.io/s/j507873d
Моё не работающее решение:
https://pastecode.io/s/k4vm6zxr
Ткните носом в ошибку, плиз
Аноним 17/03/23 Птн 15:47:03 #571 №2643122 
>>2641207
>На что смотрит эйчар? На проекты Kaggle или что-то ещё?
>Учу потихоньку курс https://www.deeplearning.ai/courses/machine-learning-specialization/, материал и объяснения вроде как понятны. Теперь бы найти практику для портфолио.
Сначала на опыт работы, потом на соцскиллы. Все остальное вторично.
Аноним 17/03/23 Птн 16:15:12 #572 №2643145 
>>2642958
У тебя например непонятно что такое X и y в строке losses = perceptron.fit(X,y). Откуда вы их берете?
И вообще надо было сказать, что именно у тебя не работает.
Аноним 17/03/23 Птн 16:30:15 #573 №2643168 
>>2643145
Там в первой ссылке решение сигмоида, там назначаются X,y
Потом нужно построить ReLU
Self.w изначально инициализированы нулями по условиям дз , в 3 ссылке , в 29 строке
Обучение не происходит, на графике прямая линия , accuracy 0.5
Нужно заинициализовать случайными данными
в 3 ссылке , 54 строка
У один хрен обучение не проходит
по второй ссылке изначальное дз, нужно заполнить производные dw и db

Походу все равно не понятно
Могу вечером файл скинуть с дз целиком скинуть
Аноним 17/03/23 Птн 16:46:50 #574 №2643190 
41341356.png
>>2643168
Ну смотри, я сделал две вещи: закомментил первые две строки в функции fit как попросил твой препод, запустил обучение, увидел, что losses улетают в небеса, обычно это означает высокий learning rate, зашел в параметры функции backward и поставил learning_rate=0.0000005, и получаю вот такую картинку.
Аноним 17/03/23 Птн 17:15:07 #575 №2643227 
123.JPG
1234.JPG
>>2643190
Можешь скинуть что ты именно в fit сделал?

По заданию я должен именно в perceptron инициализировать случайными числами чтобы пошло обучение:

perceptron = Perceptron_ReLU(w=np.random.normal(0, 1, (X.shape[1], 1)), b=0)

Не возвращаться в class Perceptron_ReLU и меняя def fit
Аноним 17/03/23 Птн 19:53:29 #576 №2643448 
>>2643227
В твоем задании написано:
>не забудьте закомментировать в классе инициализацию нулями
>в классе
А ты говоришь противоречивую вещь
>Не возвращаться в class Perceptron_ReLU
Аноним 17/03/23 Птн 20:31:04 #577 №2643478 
>>2643448
Все, я разобрался.
Спасибо!
Просто я только пару месяцев питон ковыряю и думал что "закомментировать" это тупо комент через # написать
Аноним 18/03/23 Суб 14:40:06 #578 №2644202 
>>2643122
>Сначала на опыт работы, потом на соцскиллы. Все остальное вторично.
А соцскилы это типа пришел на собес не в обосраных штанах? Смог пожать руку, а не с криком убежал?
Или это ебанный эмоциональный интеллект и эмпатия?
Аноним 18/03/23 Суб 20:54:10 #579 №2644657 
>>2644202
Интересно рассказывать о неинтересных вещах (вроде результатов своей работы за год), доносить свои идеи коллегам и продавать бизносу/менеджменту, грамотно аргументировать свои действия/бездействие, убеждать кого-то что-то сделать/не делать, давать "полезный" фидбек, обозначать риски так чтоб их воспринял кто надо, помогать другим так чтоб и свою работу успеть сделать и чтоб на шею не сели, самому вовремя и грамотно обращаться за помощью, разруливать конфликты в сфере своих полномочий/ответственности, своевременно запрашивать и иногда выбивать нужные для твоей работы ресурсы, не болтать лишнего и при этом не слыть молчуном, посылать людей нахуй чтоб они оставались тебе благодарны и еще всякое такое.
И это так, чтоб никто большинство не захотело тебя выпиздить из конторы.

Список не полный, а большинство нанимающих смогут оценить только п.1 - умение красиво пиздеть. Еще часть могут проверить на испытательном, остальное - прост сделает твою работу легче.

Да, и чистые штаны на собесе и чтоб изо рта не воняло.
Аноним 18/03/23 Суб 21:25:29 #580 №2644681 
>>2644657
>дрочишь матан, алгометрию, персептроны, чтобы не работать с людьми
>Главное качество на собесе умение красиво пиздеть
Пиздец, ты меня расстроил...
Аноним 20/03/23 Пнд 02:35:08 #581 №2646116 
>>2644681
Находишь себе компаньона который умеет красиво пиздеть
@
Запиливаете совместный проект и продаете кабанчикам
@
Профит
Аноним 20/03/23 Пнд 14:57:56 #582 №2646569 
Анон, ты в работе используешь язык R?
Я чот взялся читать "чуть более полезные" чем "Машоб с картинками для школьников" книги (ISL, Forecasting), а там все примеры/упражнения на R.
Стоит потратить несколько вечеров на знакомство с R, или введения из этих книжек достаточно?
Или "там всё понятно" и можно на питоно-пандасе всё практиковать?
Аноним 20/03/23 Пнд 16:33:43 #583 №2646661 
>>2646569
>Анон, ты в работе используешь язык R?
Да. В плане статистики и более классических моделей рот дерет петухону.
А если ты еще и в stan можешь, то ты тупа статистическая махиня, тяночки-эксперементальщицы сами спрашивают у тебя разрешение отсосать, уважаемые академики руку жмут и зовут на все праздники в свои лаборатории. Бабушки в автобусах места уступают.
Точно не скажу будет ли у тебя также, но штука полезная, и имеет большое количество уже готовых пакетов на разные задачи. Как язык программирования для непосредственно программирования - достаточно душен и муторен, и разработка окупирована одним сойджак куколдом из новой зеландии.

В плане более серьезного МО R берет за щеку у петухона. Найти гибкий инструмент хотя бы для бустинга, настолько же удобный как в петухоне - проблематично, как минимум. Про удобство работы с нейросетками даже говорить не стоит.

Но, имей в виду, для большинства задач тебе функционала, который хорошо на R реализован будет достаточно.

R для статистики и более "простого" ML. Питон для более продвинутого.

>Или "там всё понятно" и можно на питоно-пандасе всё практиковать?
Зачастую вполне.
Аноним 20/03/23 Пнд 17:50:52 #584 №2646759 
>>2646661
Спасибо, анон!
Аноним 21/03/23 Втр 19:24:19 #585 №2647924 
>>2639782
>размер (4,4,5)
>тензере (3, 4, 5)
Сложить нельзя
Аноним 22/03/23 Срд 00:00:34 #586 №2648227 
ODS помер.
Помянем.
Какие же Slack пидарасы. В рот их ебать, всех и каждого.
Аноним 22/03/23 Срд 11:16:46 #587 №2648452 
Как лучше всего представить фигуры, которые есть на картинке, для нейросети? Как их нужно скормит, в каком виде представив?
Аноним 23/03/23 Чтв 14:40:12 #588 №2650027 
>>2648452
>Как лучше всего представить фигуры, которые есть на картинке, для нейросети? Как их нужно скормит, в каком виде представив?
Нереально ответить на твой вопрос, зная, что ты только имеешь дело с какими-то картинками. Больше подробностей.
Аноним 23/03/23 Чтв 15:42:15 #589 №2650104 
>>2650027
Фотографии Простейших под микроскопом. Одноклеточных организмов короче.
Аноним 23/03/23 Чтв 15:57:58 #590 №2650117 
>>2650104
А задача в чем заключается? Классификация, сегментация?
Аноним 23/03/23 Чтв 17:58:15 #591 №2650315 
>>2650117
Классификация.
Аноним 23/03/23 Чтв 17:58:54 #592 №2650317 
>>2650315
Формально классификация. На деле там кластеризовать нужно.
Аноним 24/03/23 Птн 11:57:55 #593 №2651030 
>>2648452
>в каком виде представив?
А в каких видах вообще можно? я серьезно, не троллинг
мимо гуманитарий ковыряющий ДС
Аноним 26/03/23 Вск 08:01:15 #594 №2653089 
>>2484578 (OP)
Как надрочить йоба ИИ для игры? Кроме тупого ГА с нейронкой я ничего больше не знаю.
Аноним 27/03/23 Пнд 11:56:38 #595 №2654068 
image.png
>>2646116
>Запиливаете совместный проект и продаете кабанчикам
В конце оказывается, что проект записан на пиздуна целиком и полностью и в один момент пиздун заменяет тебя на более сговорчивого раба
Аноним 28/03/23 Втр 10:31:45 #596 №2654954 
Насколько актуальными в работе будут алгоритмы, описанные в книге 10-ти летней давности? Стоит поискать что посвежее на эту тему?
Аноним 28/03/23 Втр 11:29:46 #597 №2654993 
>>2654954
Ты сначала хотя бы базу освой, потом уже выбирай.
Учитывая, что ты не стейтофарт парашу делаешь, маловероятно, что подходы посвежее тебе дадут какой-то более вменяемый результат.
Аноним 29/03/23 Срд 12:04:32 #598 №2656027 
>>2651030
Бамп моему подвопросу ?
Я только про векторы - матрицы - тензоры знаю, как ещё можно сетке представить изображения?
Аноним 29/03/23 Срд 16:01:46 #599 №2656263 
>>2656027
Нежелание узнавать базовые вещи тебя до добра не доведет.
Особенно в сочетании с неумением задавать вопросы.

Картинку можно представить в виде тензора размерностью nmk, где n*m - размер пиксельной карты, а к - число каналов (ну там красный, синий, зеленый). Воооот, гыч эть. Ну и соотвественно у тебя датасет сколько-то там таких кубиков картинок, (тензор на ранг +1), на которые, в том числе, можно и записать твои фигуры, и ты там дальше что-нибудь тыры тыры, там вот так, и оп-оп-оп, и классифицировал.

Ты лучше напрямую сформулируй свою задачу и скажи, что ты хочешь получить, и что ты планируешь подавать. Вербально. Будет сильно проще игры в шарады для всех участников этого процесса.
Аноним 29/03/23 Срд 23:52:01 #600 №2656776 
>>2656263
Как кластеризовать изображения?
Аноним 30/03/23 Чтв 00:15:54 #601 №2656789 
>>2656776
Есть черно-белые контуры изображений. Необходимо их классифицировать и отсортировать по внешнему виду
Аноним 31/03/23 Птн 23:02:20 #602 №2658856 
Чому тред мёртвый? Слишком сложна или слишком нинужна?
Аноним 01/04/23 Суб 07:22:49 #603 №2658996 
Какие темы из математики требуется знать в качестве базы для изучения таких вещей как:
- распознавание печатных и рукописных текстов
- распознавание объектов на видео, а также определение перемещения объектов - например что объект пересёк какую-то область и затем покинул её
- анализ текстов, исправление ошибок

Какие темы учить надо по математике для этого? За пол года реально будет изучить? Или надо 10-20 лет дрочиться?
Аноним 01/04/23 Суб 13:43:51 #604 №2659222 
>>2658856

Ну у нас же тут не ЛОХДЖОРНЕЙ и не КОНЧДЖИПЫТЫ.

А прикладная херня. Да и дрочка со скайнетом не всем интересна.
Аноним 01/04/23 Суб 15:10:15 #605 №2659319 
>>2648227
А чё, даже не спарсил никто архивчик? Ну и датанюхи там у вас
Аноним 01/04/23 Суб 17:00:52 #606 №2659438 
>>2656789
>>2656789
Anticipated result?
На матрицу интесивности в чб примени k-means.
Ну или вытащи айгенвектор и по его знаку кластеризуй.
Что такое контуры изображений.

Или ты хочешь на классы разбить разные изображения?
В таком случае сделай трейн выборку, вручную назначь лейблы, и потом какую-нибудь простую сверточную сеть заюзай, и выбирай в качестве интересующего класса, тот у которого после вероятность больше.

Нихера не ясно, что ты хочешь сделать.
Аноним 02/04/23 Вск 02:44:21 #607 №2660136 DELETED
Как тут с кривой обучения, если математику в последний раз трогал в вузике, а сам работаю программистом? Интересует, сколько займет вкат до уровня, позволяющего а) найти работу и б) уверенно понимать, как и почему нейронки определенной архитектуры решают определенные задачи, а так же в идеале уметь самому придумать архитектуру под задачу.
Аноним 02/04/23 Вск 15:08:05 #608 №2660541 
Ребят, слушайте тема немного оффтоп, но тут есть те кто стабильно пользуется чатом GPT из россии? Как вам удается, опишите поажлуйста схему.
Аноним 02/04/23 Вск 15:31:16 #609 №2660553 
>>2659438
Контуры это контуры. Обведенная внешная часть обьекта. И подобное нужно кластеризовать.
Аноним 02/04/23 Вск 17:14:34 #610 №2660643 
>>2660553
Выписываю тебя из интеллектуального клуба даунов-машобщиков.
Прошу покинуть тред и больше никогда сюда не писать.
Аноним 02/04/23 Вск 22:40:06 #611 №2660960 
>>2660643
Почему? Скажи хоть причину увольнения? Слишком тупой?
Аноним 03/04/23 Пнд 11:31:19 #612 №2661387 
Здесь есть перекатившиеся с других направлений программирования? Насколько машин лернинги сложны? Сколько времени ушло на обучение? Есть год коммерции на бэкенде.
Аноним 04/04/23 Втр 15:10:06 #613 №2662520 
>>2660541
Включаешь впн и регаешься через виртуальный номер. Если пишет что твой емейл заблокирован, то зайди с приватного окна или почисти куки у сайта. После регистрации заходишь только через впн.
Аноним 06/04/23 Чтв 15:36:21 #614 №2664164 
>>2661387
>Здесь есть перекатившиеся с других направлений программирования?
Вкатун, но в машин лернинге имею некоторые успехи (набил competition expert'а на kaggle)
>Насколько машин лернинги сложны?
Не сложно, если ты окончил мехмат любого вуза, когда-нибудь перемножал матрицы, слышал на лекциях про градиентный спуск и можешь посчитать производную.
>Сколько времени ушло на обучение?
1.5 года дрочился на Kaggle, участвовал только в новых соревнованиях, мечтая занять первое место и разбогатеть, за это время очень много узнал об устройстве современных нейросетей, приходилось даже изучать статьи в arXiv'е, Если ты хочешь узнать как вкатиться на 300к/нс по этой сфере, то я сам не знаю. Впрочем, в нынешнее время я бы не советовал бросать тебе свою работу.
Аноним 07/04/23 Птн 01:28:18 #615 №2664703 
>>2664164
>Не сложно, если ты окончил мехмат
>1,5 года для вката
Или я тебя не так понял?
comments powered by Disqus

Отзывы и предложения