24 декабря Архивач восстановлен после серьёзной аварии. К сожалению, значительная часть сохранённых изображений и видео была потеряна. Подробности случившегося. Мы призываем всех неравнодушных помочь нам с восстановлением утраченного контента!

НЕЙРОНОЧКИ И МАШОБ ТРЕД №?.4

 Аноним 15/05/18 Втр 11:44:02 #1 №1190173 
2.jpg
1.jpg
3.jpg
Очередной тред про хипстерские технологии, которые не работают.
Продолжаем выяснять, кто двигает ноуку: толпы смузихлёбов или фундаментальные деды.

FAQ:
Я ничего не понимаю, что делать? Либо в тупую import slesarflow as sf по туториалам, либо идти изучать математику курсы MIT тебе в помощь. Не нужно засирать тред вопросами типа "что такое сигма?".
Какая математика используется? В основном линейная алгебра, теорвер и матстат, базовый матан calculus многих переменных.
Что почитать для вкатывания? http://www.deeplearningbook.org/
В чем практиковаться нубу? http://www.deeplearning.net/tutorial/ | https://www.hackerrank.com/domains/ai | https://github.com/pytorch/examples
Где набрать первый самостоятельный опыт? https://www.kaggle.com/ | http://mltrainings.ru/ | https://www.general-ai-challenge.org/
Где работать? https://www.indeed.com/q-deep-learning-jobs.html
Где узнать последние новости? https://www.reddit.com/r/MachineLearning/ | http://www.datatau.com/ На реддите также есть хороший ФЭК для вкатывающихся
Где посмотреть последние статьи? http://www.arxiv-sanity.com/
Где ещё можно поговорить про анализ данных? http://ods.ai/
Нужно ли покупать видеокарту/дорогой пека? Если хочешь просто пощупать нейроночки или сделать курсовую, то можно обойтись облаком. Иначе выгоднее вложиться в 1080Ti или Titan X.

Список дедовских книг для серьёзных людей:
Trevor Hastie et al. "The Elements of Statistical Learning"
Vladimir N. Vapnik "The Nature of Statistical Learning Theory"
Christopher M. Bishop "Pattern Recognition and Machine Learning"
Взять можно тут: http://libgen.io/

Напоминание ньюфагам: персептроны и прочий мусор середины прошлого века действительно не работают на серьёзных задачах.

Архивач:
http://arhivach.cf/thread/340653/
http://arhivach.cf/thread/355442/
http://arhivach.cf/thread/360889/

Там же можно найти треды 2016-2017 гг. по поиску "machine learning" и "НЕЙРОНОЧКИ & МАШОБЧИК"

Предыдущий тред: >>1176320 (OP)
Аноним 15/05/18 Втр 11:51:24 #2 №1190188 
Какие-нибудь новые статьи про понимание нейроночек не появлялись в последнее время? А то я не следил.
Аноним 15/05/18 Втр 12:57:25 #3 №1190247 
https://www.youtube.com/watch?v=lXUQ-DdSDoE

Как называются такие диалоговые системы? Как их тренируют или это не НС ?
Аноним 15/05/18 Втр 13:04:37 #4 №1190251 
>>1190247
Индус же говорит, что это диплернинх спич рекогнишен.
Аноним 15/05/18 Втр 13:13:22 #5 №1190256 
>>1190251
>спич рекогнишен.
Я спрашиваю не про распознавание речи, а обработке текста и выдачи ответа.
Аноним 15/05/18 Втр 13:20:53 #6 №1190262 
>>1190256
> а обработке текста и выдачи ответа.
Маркетинговое говно, на нормальных вопросах оно засыпится. У ИБМ есть Ватсон, но про него тебе не расскажут.
Аноним 15/05/18 Втр 13:55:21 #7 №1190289 
15263807332551.webm
>>1190251
Такой?
Аноним 15/05/18 Втр 14:38:09 #8 №1190303 
>>1190289
Аноны, вы тут за новостями следите? Я веб-макака и мне интересно, кто-нибудь занимается нейронками для оптимизиации orm'ов, что бы они могли выдавать более эффективные запросы в базу
Аноним 15/05/18 Втр 14:38:37 #9 №1190304 
>>1190303
Упс, это не тебе ответ, а вопрос всему треду
Аноним 15/05/18 Втр 15:13:18 #10 №1190319 
>>1190289
Чет в голосяндру, хотя конечно это грустно.
Аноним 15/05/18 Втр 15:21:15 #11 №1190322 
>>1190303
Чет в голосяндру, хотя конечно это грустно.
Аноним 15/05/18 Втр 15:22:55 #12 №1190324 
Мартышка к старости слаба мозгами стала;
А у людей она слыхала,
Что это зло еще не так большой руки:
Лишь надо применить нейронОчки.

Все модные нейронОчки себе она достала;
Вертит нейронОчки и так и сяк:
То тренирует их, то стопицот слоев нанижет,
То их в ансамбль соберет, а то полижет;
НейронОчки не действуют никак.

"Тьфу пропасть! — говорит она, — и тот дурак,
Кто на ютубе смотрит врак:
Всё про нейронОчки индусы мне налгали;
А проку на-волос нет в них".
Мартышка тут с досады и с печали
Делитом так хватила их,
Что только файлы засверкали.
Аноним 15/05/18 Втр 15:34:19 #13 №1190332 
Что посоветуете обобщенно по теме ИИ? Что бы иметь представление не на уровне киберпанка и фильмов.

Т.е проблематика создания, основные концепции разработки, история, инструменты, и тд
Аноним 15/05/18 Втр 15:42:56 #14 №1190340 
Анон, хочу сделать прогу/модуль к intellege idea, который будет искать программные закладки. В какую сторону двигаться? Что посмотреть, почитать?
Аноним 15/05/18 Втр 15:52:09 #15 №1190346 
>>1190340
>программные закладки
С травой? Составь список функций и переменных и ищи аномалии.
Аноним 15/05/18 Втр 16:26:28 #16 №1190373 
>>1190322
>Чет в голосяндру
Я не понял. Почему?(
Аноним 15/05/18 Втр 16:34:25 #17 №1190380 
>>1190373
Потому что смешно что никакие хитровыебаные алгоритмы не смогут сравниться с масс датасетом.
Аноним 15/05/18 Втр 16:46:46 #18 №1190395 
>>1190188
Читай ватника лол. Хипстер тупорылый
Аноним 15/05/18 Втр 17:07:11 #19 №1190410 
>>1190332
Кибернетика
Аноним 15/05/18 Втр 17:13:03 #20 №1190420 
>>1190188
Ну ты соня. Уже Искусственный Интеллект изобрели и наступила технологическая сингулярность.
Аноним 15/05/18 Втр 17:28:42 #21 №1190441 
А умеет ли matplotlib в 32 бита на канал?
Аноним 15/05/18 Втр 17:44:34 #22 №1190456 
>>1190441
Первый серьезный вопрос ИТТ, ура! Не знаю, я бы не расчитывал на это. Он вообще довольно наколенный.
Аноним 15/05/18 Втр 18:08:14 #23 №1190467 
>>1190441
>Matplotlib plotting can handle float32 and uint8, but image reading/writing for any format other than PNG is limited to uint8 data
Вообще, взял да и запустил для проверки сам.
Аноним 15/05/18 Втр 18:43:41 #24 №1190488 
Сколько стажёру в яндексе плотят?
Аноним 15/05/18 Втр 18:53:31 #25 №1190497 
>>1190332
> Т.е проблематика создания, основные концепции разработки, история, инструменты, и тд
Что угодно по теме когнитивистики
Аноним 15/05/18 Втр 19:00:45 #26 №1190500 
>>1190488
99 рублей за два километра в эконом, и 199 рублей если комфорт.
Аноним 15/05/18 Втр 19:05:30 #27 №1190503 
>>1190500
А если за дадут порулить и бибикнуть?
Аноним 15/05/18 Втр 19:16:06 #28 №1190507 
>>1190503
Только если на коленках у дяди Егора.
Аноним 15/05/18 Втр 19:33:52 #29 №1190529 
>>1190507
Само сабой
Аноним 15/05/18 Втр 22:53:37 #30 №1190680 
>>1190497
>>1190410

а конкретнее
Аноним 15/05/18 Втр 23:59:24 #31 №1190720 
>>1190488
Тысяч тридцать где-то.
Аноним 16/05/18 Срд 12:01:02 #32 №1190893 
earthchan.jpg
Аноны, есть что по perspective-invariant feature matching?
В гугле результатов овердохуя, глаза разбегаются. В каком направлении лучше копнуть?
Аноним 16/05/18 Срд 13:32:11 #33 №1190957 
а может ли матплотлиб визуализировать нампи у которого шейп (28, 28, 4). То бишь покабутке пиксель с ARGB значениями визуальнуть а не просто чб? ыыыыыыыы
Аноним 16/05/18 Срд 20:50:29 #34 №1191178 
>>1190173 (OP)
Без высшего математического в сфере делать нечего? Платина
Аноним 16/05/18 Срд 21:26:19 #35 №1191202 
>>1190262
Watson еще более маркетинговое говно, на хакерньюз бывшее прогеры айбиэм говорили
Аноним 16/05/18 Срд 21:43:07 #36 №1191211 
>>1191178
В исследованиях нехера, в макакинге много чего.
Аноним 16/05/18 Срд 22:35:50 #37 №1191261 
>>1191202
>на хакерньюз бывшее прогеры айбиэм говорили
х.з. инфы о Ватсонре мало, но там иисайенсйоба
Аноним 17/05/18 Чтв 08:01:56 #38 №1191421 
>>1191211
Что реального в машоб принесли исследования?
Аноним 17/05/18 Чтв 11:22:42 #39 №1191458 
>>1191421
> Что реального в машоб принесли исследования?
Все вообще. Весь машоб это результат исследований.
Аноним 17/05/18 Чтв 11:50:44 #40 №1191460 
>>1191458
Маняматика это тупые бесполезные неработающие алгоритмы типа регрессии и СВМ.
Все более-менее приличное (случайные леса, баггинги, сеточки), изобрели нормальные люди. Придумать "Ну как кароч человек думает" или "Смешаем все подряд и заебись станет" долбоеб-задротик не мог, он обмазывается малосвязанными с действительностью гомотопиями/гомологиями/деткими рисуночками/любой другой хуйней.

Как же у них горит, наверное, что все их "доказанные" методы (доказательства которых занимает десяток страниц) ирл не стоят выделенного яйца.
Аноним 17/05/18 Чтв 12:06:37 #41 №1191464 
>>1191458
>Весь машоб это результат исследований
Можно конкретный пример, что было исследовано (а не найдено методом тыка) со времен Розенблатта?
Аноним 17/05/18 Чтв 12:30:14 #42 №1191468 
>>1191460
> неработающие алгоритмы типа регрессии и СВМ.
Дальше можно не читать тупня.
>>1191464
> Можно конкретный пример, что было исследовано (а не найдено методом тыка) со времен Розенблатта?
SVM, да все статистическое обучение Вапника, включая бустинг. Сверточные сети созданы на основе зрительного анализатора кошки (Нобелевская премия Хьюбела и Визеля), вся нечёткая логика, все векторное квантование, да и все остальное, достаточно почитать пейперы, нигде не написано "тип я потыкал и нашел", такого почти нет. Ну разве что т н магический коэффициент в проекции Сэммона, это да, методом тыка обнаружили.
Аноним 17/05/18 Чтв 12:55:30 #43 №1191474 
>>1191468
То есть свёрточная сеть настолько сильно радикально отличается от полносвязной, что нужно было исследовать кошку чтобы её открыть, а не просто играясь с полносвязками? Которые ещё давно придумали?
Аноним 17/05/18 Чтв 13:18:42 #44 №1191488 
>>1191468
>Сверточные сети созданы на основе зрительного анализатора кошки
Пиздос наркоманы. И какой там у ней анализатор? Я вот про ос читал, как им мозг ебали и изменяли ландшафт, так ваши сети даже близко не стоят к тому, какой анализ проводит оса.
Аноним 17/05/18 Чтв 13:22:51 #45 №1191492 
>>1191474>>1191488
Ты дебилок, правда. Просто прими это как факт. Тот факт, что ты не можешь в причинно-следственную связь, сам по себе не может быть доказательством правильности твоих школьных суждений.
Аноним 17/05/18 Чтв 13:25:43 #46 №1191494 
>>1191492
Заебись, а то я думал шизики закончились у нас.
Аноним 17/05/18 Чтв 13:31:57 #47 №1191497 
>>1191468
>Сверточные сети созданы на основе зрительного анализатора кошки
Во-первых, это нейрофизиологические исследования. Во-вторых, это открытие было сделано случайно, даже в википедии описано. В чем тут заслуга математиков? Ну придумали перцептрон, доказали сходимость - ок. Дальше чем они занимались, ждали, пока кошке башку распилят? Даже не попробовали добавить инвариантность к сдвигу? (из этого логически вытекает сверточная сеть).
>нигде не написано "тип я потыкал и нашел", такого почти нет.
Читаю пейперы по нейронкам, там точно так и написано.
Аноним 17/05/18 Чтв 13:45:18 #48 №1191501 
Чуваки, помогите макаке. Какие слои в каком порядке нужно расположить, чтобы на входе принимала битмап а на выходе отдавала 4 координаты. Позязя, я макака.
Аноним 17/05/18 Чтв 14:32:52 #49 №1191536 
Кому не сложно, взгляните, пожалуйста. Могу ли я взять эту сеть и натренировать своим датасетом и получить на выходе четыре координаты с битмапа? Нит или да?
https://github.com/fizyr/keras-retinanet
Аноним 17/05/18 Чтв 14:47:35 #50 №1191546 
>>1191536
Можешь, только возьми их претренированную модель, и дотренируй на своем датасете.
Аноним 17/05/18 Чтв 22:50:39 #51 №1191887 
>>1191497
> Во-первых, это нейрофизиологические исследования. Во-вторых, это открытие было сделано случайно, даже в википедии описано. В чем тут заслуга математиков?
В том, что создали математическую модель. Пиздец, каким надо быть деревянным, чтобы такие вопросы вообще задавать. Что вообще значит "случайное открытие"? Если над какой-то темой работали целенаправленно, то о какой случайности вообще может идти речь? Даже если получили результат, который не ожидали, причём тут случайность? Вот почти везде пишут, что Хофманн случайно LSD вымутил. Да с каких хуев-то случайно, он делал средство для остановки маточного кровотечения, он его и сделал. Диэтиламид он делал тоже не случайно, а по аналогии с диэтиламидом никотиновой кислоты, который эта контора, сандоз, выпускала массово. Даже то, что вещество оказалось 5ht2a-агонистом это не случайность, просто в те времена об этом ничего не знали. Но исследования на то и нужны, чтобы узнавать что-то новое.
Аноним 18/05/18 Птн 00:28:46 #52 №1191982 
>>1191460
>Придумать "Ну как кароч человек думает" или "Смешаем все подряд и заебись станет"
Так это "работает" в том же смысле в котором танцы с бубном "работают" для вызывания дождя.
Аноним 18/05/18 Птн 08:41:14 #53 №1192056 
>>1191494
>я думал шизики закончились у нас
Нет, ты вовсе не закончился.
Аноним 18/05/18 Птн 09:08:06 #54 №1192063 
mex.jpg
>>1191887
>Что вообще значит "случайное открытие"?
Они занимались какой-то хуйней, и обнаружили, что нейрон активируется на определенную часть изображения (наклонную линию). Каким надо быть деревянным, чтобы самому не додуматься до декомпозиции?
А судя по тому, что для функции активации сначала использовали сигмоид ("патамушта хуйзнаит так в нийроне"), а потом ReLU ("патамушта болие лучше"), о вменяемой математической модели говорить не приходится.
Аноним 18/05/18 Птн 11:41:04 #55 №1192109 
>>1191887
>случайно LSD вымутил.
Маня, не случайно, это когда ты сел за стол, прчесал репу и на основании известгых тебе фактов и правил скрафтил йобу, а когда ты примерно знаешь вектор и рендомно смешиваешь всякие йобы, то это случайно. И да, большинство открытий происходит случайно, потому, что так работает ноосфера и сознание, все ответы витают в воздухе.
Аноним 18/05/18 Птн 11:56:10 #56 №1192111 
>>1192109
> потому, что так работает ноосфера
> ноосфера
Лайно с богоскопом, залогинься.
Аноним 18/05/18 Птн 12:00:43 #57 №1192112 
>>1192063
>сигмоид ("патамушта хуйзнаит так в нийроне"), а потом ReLU ("патамушта болие лучше")
Всё правильно. Шах и мат, шизик.
Аноним 18/05/18 Птн 12:02:23 #58 №1192113 
>>1192111
Есть другие варианты? Ноосфера кстати менее безбашенное объяснение работы сознания. А вот манятеории матанопетушни, это да.
Аноним 18/05/18 Птн 12:04:10 #59 №1192114 
>>1192113
> Ноосфера кстати менее безбашенное объяснение работы сознания
Для безграмотного опуща, не слышавшего о работах даже Павлова, безусловно.
Аноним 18/05/18 Птн 12:04:14 #60 №1192115 
>>1192113
Варианты всегда есть, маня.
Аноним 18/05/18 Птн 12:06:39 #61 №1192116 
>>1192114
>Павлова
Ого, ну давай обясни, что там Павлов наработал
Аноним 18/05/18 Птн 12:07:11 #62 №1192117 
>>1192115
Поделись хоть одним
Аноним 18/05/18 Птн 12:09:52 #63 №1192118 
>>1192117
Почитай Кастанеду перед сном. Мы живём в непостижимом мире. И только ЧСВ мешает нам это принять и понять.
Аноним 18/05/18 Птн 12:17:01 #64 №1192119 
>>1192118
Чем идеи этого наркомана отличны от ноосферы Вернандского? Ну или Брахмы.
Аноним 18/05/18 Птн 12:18:43 #65 №1192120 
>>1192119
> ноосферы Вернандского
Как будто ты читал хотя бы Вернадского, деградант. Ты не поверишь, что он имел в виду под ноосферой.
Аноним 18/05/18 Птн 12:22:03 #66 №1192121 
>>1192119
А у него вообщем-то нету идей. Есть некие тезисы, но в большинстве случаев просто фактический пересказ событий.
Аноним 18/05/18 Птн 12:22:54 #67 №1192123 
>>1192120
>Ты не поверишь, что он имел в виду под ноосферой
И что же?
Аноним 18/05/18 Птн 12:23:53 #68 №1192124 
>>1192123
Почитай его, маня.
Аноним 18/05/18 Птн 13:19:10 #69 №1192135 
>>1192124
Мать твою ебал.
Аноним 18/05/18 Птн 13:20:33 #70 №1192136 
Возможен ли ИИ на нейронке?
Аноним 18/05/18 Птн 13:25:01 #71 №1192140 
>>1192136
Нахуй иди, говно.
Аноним 18/05/18 Птн 13:25:43 #72 №1192141 
>>1192140
Да я-то пойду, я ж в этой хуйне не шарю, но интересно же.
Аноним 18/05/18 Птн 14:12:17 #73 №1192158 
>>1192135
> Мать твою ебал.
Тебе твоя-то не даст, лол. Ты насмотрелся всяких первых каналов с такими же икспердами по газификации луж, и как и остальные дегенераты, считаешь, что Вернадский что-то за какую-то шизотерику пиздел. У тебя даже не хватило ума усомниться, как это было возможно для ученого при его жизни без того, чтобы при этом не перестать быть ученым? У меня вот хватило. Насчет Павлова - все проблемы нейрофизиологии (основы которой в ее нынешнем виде он и заложил), в том, что почти все маняученые часто отказываются от его подхода к изучению высшей нервной дейтельности. Он таких при жизни обоссывал в любой речи на любой конференции, но что один человек может против толп дегенератов. Даже сейчас находятся темные долбаебы, верующие что вся нервная деятельность не сводится к взаимодействию нейронов. Ты-то ладно, но такие и в науке есть.
Аноним 18/05/18 Птн 15:49:38 #74 №1192194 
>>1192136
Нет, невозможен. Все дело в том, что любые компьютерные программы все-равно выполняются на бездушной железке, в то время как мозги людей подключены невидимым коннектом к магической сфере знаний, т.н. ноосфере.
Аноним 18/05/18 Птн 16:01:14 #75 №1192201 
>>1192158
>>1192194
Два дебила - это сила.
Аноним 18/05/18 Птн 17:50:02 #76 №1192258 
>>1192158
>Даже сейчас находятся темные долбаебы, верующие что вся нервная деятельность не сводится к взаимодействию нейронов.
А вот дохтора биологических наук оказываются темные долбоебы.
з.ы. почему ты такой ебаный грубиян, ты Шариков?
https://youtu.be/dAF9J-NejcY

Аноним 18/05/18 Птн 17:52:57 #77 №1192262 
>>1192258
> А вот дохтора биологических наук оказываются темные долбоебы.
Сплошь и рядом. Только таких при жизни Павлова на заседаниях академии наук хуесосили (читал пример в избранных трудах), а потом скатились. Эта баба поди и в боженьку верует, о чем тут говорить вообще.
Аноним 18/05/18 Птн 18:00:28 #78 №1192264 
>>1192262
>таких при жизни Павлова на заседаниях академии наук хуесосили
Тото я смотрю современная медицина пробила дно. Грип то лечить научились?
Аноним 18/05/18 Птн 18:35:36 #79 №1192299 
ВНИМАНИЕ ОБНАРУЖЕНА ПРОТЕЧКА /ССЫ КОД 21 КОД 21
ИТТ вводится карантин. Режим омега-4. Воздержитесь от постинга в течение следующих 72 часов. Следите за дальнейшими указаниями.
Аноним 18/05/18 Птн 18:35:45 #80 №1192301 
можно ли сделать себе нейротяночку? на платформе с колёсами и рукой чтобы могла мне дрочить и пиво из холодильника носить?
Аноним 18/05/18 Птн 18:36:25 #81 №1192302 
>>1192264
> Тото я смотрю современная медицина пробила дно. Грип то лечить научились?
Какой грипп, какая медицина, маня? Разговор о нейрофизиологии, ферштейн, нихт? Портфель иди собирай.
Аноним 18/05/18 Птн 18:37:51 #82 №1192303 
>>1192301
да, можешь даже сделоть механической, аки шарманка, ну и обезьянку к ней
Аноним 18/05/18 Птн 18:39:33 #83 №1192305 
>>1192303
обезьянку-то зачем
Аноним 18/05/18 Птн 18:43:39 #84 №1192306 
15148389150360.png
>>1192301
> с колёсами и рукой чтобы могла мне дрочить и пиво из холодильника носить?
Для современных хипстерских нейроночек нет строгих доказательств сходимости, например, функций Ляпунова, критерия Попова итд. Поэтому эту хуйню на производстве никто использовать не будет, ибо хуй её знает, что она выкинет. Так что смотри, если нейротянка тебе письку оторвет и бутылку с пивандрием в анус вставит, сам будешь виноват.
Аноним 18/05/18 Птн 18:43:46 #85 №1192307 
>>1192302
>нейрофизиологии
Ок, озвуч неебаца прорыв в этой области, на который ты тилибонькаешь, ну там сращивание нервов и все такое, глаз искусственный, таблетку от Альцгеймера
Аноним 18/05/18 Птн 18:44:59 #86 №1192309 
>>1192305
>обезьянку-то зачем
Ты крутишь ручку, механотянка тебе дрочит, обезьянка охуевает
Аноним 18/05/18 Птн 18:51:03 #87 №1192313 
>>1192306
>бутылку с пивандрием в анус вставит
а я и не против
sageАноним 18/05/18 Птн 18:55:32 #88 №1192315 
>>1192262
>при жизни Павлова на заседаниях академии наук хуесосили
Господин прав, в том что наука скатилась в ёбаное говно и засилие никчёмных учёных. Ну это началось ещё в 80-е годы паралельно с упадком левого движения. А в 60-х был расцвет, когда реально хуесосили всяких долбоёбов на научных конференциях и правильно делали. Но хусосили, с уважением, не скатываясь до матерных слов.
Аноним 18/05/18 Птн 19:02:10 #89 №1192316 
>>1192306
>нет строгих доказательств сходимости, например, функций Ляпунова, критерия Попова итд. Поэтому эту хуйню на производстве никто использовать не будет
Получается кто первее отменит эти маразматические стандарты из глубины веков тот и рванёт вперёд? Ну то что это точно будет не наш совок к гадалке не ходи.
Аноним 18/05/18 Птн 19:14:18 #90 №1192322 
>>1192316
>кто первее отменит эти маразматические стандарты
Там на кону репутация матанопетушни, им хоть в глаза ссы, непозволят
Аноним 18/05/18 Птн 19:16:08 #91 №1192324 
>>1192316
> Получается кто первее отменит эти маразматические стандарты из глубины веков тот и рванёт вперёд?
Это не маразматические стандарты. Негров распознавать и котиков под Пикассо рисовать этот одно, а если контроллер доменного процесса сожгет пол завода или поезд в метро со всей дури в тупиковую призму уедет с сотней жертв, это совсем другое. Отвечать за это не хочет никто. А гарантировать, что такого не будет можно только если есть доказательства устойчивости модели. Где-то даже читал, что это обязательно должно входить в пакет документации алгоритма для внедрение на производство.
Аноним 18/05/18 Птн 19:22:06 #92 №1192327 
>>1192324
>Отвечать за это не хочет никто.
Это еще в 70х обосали, на заре Экспертных Систем, я вот считаю, что ЭС и закопали специально, подсунув нейронные сети. Рептилоидам спокойно, поскольку тупик очивиден, но и иллюзию работоспособности тоже можно показать. А вот то, что например диагностическая медицина на ЭС могла развится с 70х, это да, человечество проебалось...
Аноним 18/05/18 Птн 20:44:18 #93 №1192379 
>>1192327
А вот гудфеллоу в начале диплёрнинг книжки своей пишет что хуёво эс работали. Пиздит, хипстер?
Аноним 18/05/18 Птн 22:16:12 #94 №1192421 
>>1192379
Основное преимущество ЭС в том, что каждую ошибку можно воспроизвести и пофиксить, нейронки в это не могут
Аноним 18/05/18 Птн 23:04:11 #95 №1192440 
>>1192299
Чет 72 часа это слишком много. Как без нейроночек родненьких то жить...
Аноним 19/05/18 Суб 04:43:56 #96 №1192518 
Керас. Загружаю модель, загружаю веса, загружаю параметры чтобы сконпелять модель, делаю фит несколько раз и получаю разные результаты в пределах едва ли не целого процента. ЧЯДНТ?
Аноним 19/05/18 Суб 06:11:23 #97 №1192533 
>>1192518
> делаю фит несколько раз и получаю разные результаты в пределах едва ли не целого процента
Это норма для нейроночек.
Аноним 19/05/18 Суб 06:31:41 #98 №1192534 
>>1192440
>72 часа это слишком много.
та ладно, в опенцв йоба неделю тренировалась на сотне фоточек
Аноним 19/05/18 Суб 06:42:54 #99 №1192537 
>>1192518
Random seed проебал?
>в пределах процента
Это мало.
Аноним 19/05/18 Суб 07:30:53 #100 №1192542 
>>1192518
model.fit(shuffle=False)?
Аноним 19/05/18 Суб 12:30:12 #101 №1192607 
Минуточку. А как по одной и той же карте одни и те же нейроны вначале могут добегать до разных эндпоинотов?
Аноним 19/05/18 Суб 12:31:14 #102 №1192608 
n.png
Картинка отклеилась.
Аноним 19/05/18 Суб 12:33:39 #103 №1192611 
Как может получаться что при большем количестве итераций RandomizedSearchCV только ухудшается результат?
Аноним 19/05/18 Суб 13:02:16 #104 №1192626 
Мы предлагаем исследование искусственного интеллекта сроком в 2 месяца с участием 10 человек летом 1956 года в Дартмутском колледже, Гановер, Нью–Гемпшир. Исследование основано на предположении, что всякий аспект обучения или любое другое свойство интеллекта может в принципе быть столь точно описано, что машина сможет его симулировать. Мы попытаемся понять, как обучить машины использовать естественные языки, формировать абстракции и концепции, решать задачи, сейчас подвластные только людям, и улучшать самих себя. Мы считаем, что существенное продвижение в одной или более из этих проблем вполне возможно, если специально подобранная группа учёных будет работать над этим в течение лета.
Аноним 19/05/18 Суб 13:19:47 #105 №1192638 
>>1192626
Идея правильная, но задача эта неподьемная в такой постановке.
Аноним 19/05/18 Суб 14:50:35 #106 №1192690 
>>1192626
>летом 1956 года
коков результат?
Аноним 19/05/18 Суб 15:20:29 #107 №1192706 
>>1192690
Никто не выжил.
Аноним 19/05/18 Суб 16:00:17 #108 №1192735 
Керас
Объясните, пожалуйста. Что такое input_size?
Вот я строю плотную сеть. На входе два нейрона, скрытый слой из трёх нейронов, и на выходе один нейрон.
model = Sequential()
densein = Dense(2, input_shape = (2, 1))
densehide = Dense(3)
denseout = Dense(1)
model.add(densein)
model.add(densehide)
model.add(denseout)
компиляем
model.compile(optimizer='rmsprop', loss='binary_crossentropy')
потом я хочу чтобы сеть получала массив из двух элементов и выдавала мне одно значение.
собираю банч на вход в сеть.
array = np.array([8, 4])
предикчю
result = model.predict(array)
И эта сука выдаёт мне такую хуйю:
Error when checking : expected dense_13_input to have 3 dimensions, but got array with shape (2, 1)
Какова хуя, когда в документации для Dense сказано:
The most common situation would be a 2D input with shape (batch_size, input_dim).
То есть батч сайз у меня 2, а input_dimension каждого семпла в батче 1!
Обьясни мне, дорогой, анон. что такое input_dim. И прав ли я что размер моего батча 2?
Вся надежда только на тебя, дорогой, мой милый анончик.
Аноним 19/05/18 Суб 19:45:09 #109 №1192851 
>>1192735
Короче я понял блять. Спасибо что помогли. В input_shape = (2, 1) мы вводим шейп нашего семпла. Какого хуя у Кераса такая кривая документация? Не понятно нихуя, пидоры.
Аноним 20/05/18 Вск 12:42:53 #110 №1193143 
Пацаны. А есть кто работает в компьютерно зрении?
Посоветуйте как вкатиться?
У само 2 года опыта в вебе пайтон и немного шарю С++.
В универе пердолился с ним, но времени четко заботать не было.
Аноним 20/05/18 Вск 12:44:50 #111 №1193146 
>>1190332
Любой курс на курсере. От стэнфорда или Яндекса.
Аноним 20/05/18 Вск 12:55:42 #112 №1193153 
Предположим я хочу кластеризовать посты в треде на двоще. Мне нужно взять посты, заменить ссылки, знаки препинания и пр., стеммером выделить корни. Получается количество слов = количесто feature. Вот только посты содержат разное количество слов. Как поступить?
sageАноним 20/05/18 Вск 12:57:48 #113 №1193155 
>>1193143
Тащемата ничего сложного в этом нет. У тебя есть Питон. У питона есть куча инструментов, которые перегоняют битмапы в нампи. Перегоняй битмапы и прогоняй по сеточкам.
Аноним 20/05/18 Вск 13:01:24 #114 №1193162 
>>1193153
Вспомнил, погуглив.
>Choose a set of "feature" words that will be included in your vector. This should exclude extremely common words (aka "stopwords") like "the", "a", etc.
Аноним 20/05/18 Вск 13:05:03 #115 №1193168 
>>1193155
Это ок. Я и на С++ могу.
Меня больше интересует, что от собесов ждать.
Аноним 20/05/18 Вск 13:14:16 #116 №1193176 
>>1193168
Тебе дадут ленту по которой едет картошка. Тебе надо приделать сверху него камеру и тречить картошку и запоминать на какой секунде едет бракованный корнеплод.
Аноним 20/05/18 Вск 13:22:10 #117 №1193190 
>>1193176
lol, звучит весело.
А сам то где работаешь?
Если связан, расскажи, что да как в сфере плз.
Аноним 20/05/18 Вск 13:26:45 #118 №1193201 
ead65623-b397-45bf-b0d9-cc25fc59d3c5jpg620x1000x-Falseq85.jpg
>>1193190
>А сам то где работаешь?
Департамент ИИ и Компьютерного Зрения в Крошке-Картошке. Старший Научный Сотрудник.
Аноним 20/05/18 Вск 13:40:56 #119 №1193234 
>>1193201
Понятно. А я думал ты в мдк работаешь над рекурентными нейронками для генерации текстов своих пиздатых шуток.
Аноним 20/05/18 Вск 13:51:05 #120 №1193263 
ва.png
>>1193201
> Компьютерного Зрения
Аноним 20/05/18 Вск 14:08:42 #121 №1193297 
Ладно блять. Вернёмся к нашим бараном. Объясните мне, пожалуйста такую элементарную хуйню по Керасу. Вот я строю модель:
n [7]: model = Sequential()
...: densein = Dense(2, input_shape = (2,))
...: densehide = Dense(3)
...: denseout = Dense(1)
...: model.add(densein)
...: model.add(densehide)
...: model.add(denseout)
In [8]: model.compile(optimizer='rmsprop', loss='binary_crossentropy')
То есть как я понимаю, сеть сейчас состоит из 6 нейронов. Два на входе, 3 в скрытом слое и один на выходе. То есть должно быть 9 весов. Но когда я прошу у модели веса:
In [18]: weights = model.get_weights()
In [20]: len(weights)
Out[20]: 6
Она отдаёт мне что их всего блять 6 КАРЛ
Где я проебался? ЧЯДНТ?
Аноним 20/05/18 Вск 14:16:56 #122 №1193311 
>>1193297
размерность весов посмотри
Аноним 20/05/18 Вск 14:19:46 #123 №1193317 
>>1193297
Картошечку детектишь?
Аноним 20/05/18 Вск 14:30:05 #124 №1193326 
>>1193311
Спасибо. Каждый вес размерностью (2,2). А нахуя их так много-то?
Аноним 20/05/18 Вск 14:31:48 #125 №1193329 
>>1193326
А, то есть не каждый вес. Последний размерностью (3,1). Дело начинает проясняться.
Аноним 20/05/18 Вск 15:28:57 #126 №1193369 
>>1193297
Ты бы хоть попытался осмыслить, что ты вообще делаешь. Я не знаю, схему бы в пейнте нарисовал, прикинул бы что, как и зачем оно вообще делает.
Аноним 20/05/18 Вск 15:44:33 #127 №1193383 
sdfsdf.png
>>1193369
Ну, во первых, я изначально и нарисовал схему. Хочу чтобы из двух значений сетка мне лепило одно.
Аноним 20/05/18 Вск 18:16:57 #128 №1193482 
Двач, правильно ли я все понимаю?
Вот есть у меня набор картинок 20x20 пикселей с изображением цифры два, например, черно-белые. Мне нужно натренировать сеть для их распознавания. Я делаю из картинок матрицы с нулями и единицами, подаю на вход обычному перцептрону. Теперь мне нужно аппроксимировать решение уравнения
Σ (от 1 до 400) wi * xi + b = 2?
Аноним 20/05/18 Вск 18:53:21 #129 №1193514 
>>1193482
То что ты написал это формула линейной регрессии.
Ты про линейную функцию от нее забыл.
Аноним 20/05/18 Вск 23:08:55 #130 №1193711 
Как так может быть? Я запускаю RandomizedSearchCV на 10 итераций и результаты получаются лучше чем на 100 итераций и гораздо лучше чем на 500.
Аноним 21/05/18 Пнд 03:23:14 #131 №1193807 
>>1193711
Переобучение
Аноним 21/05/18 Пнд 04:45:52 #132 №1193813 
>>1193711
Переобучение. Классификация вырождается в идентификацию. Значения обучающей выборки становятся единственным, что сеть принимает.
Аноним 21/05/18 Пнд 10:29:34 #133 №1193871 
>>1193807
>>1193813
Где там может быть переобучение? Я говорю про итерации самого поиска гиперпараметров.
cv = 7, и я просмотрел в cv_results_, чем больше итераций, тем хуже перфоманс у лучшего набора гиперпараметров.
Аноним 21/05/18 Пнд 13:01:59 #134 №1193966 
Наткнулся на зашибенного чувака. От регрессии до конволюции по порядку. Относительно свежее и всё в одном месте.
https://brohrer.github.io/blog.html
Аноним 21/05/18 Пнд 13:11:04 #135 №1193975 
>>1193966
Не может быть! Прямо как в любом учебнике!
Аноним 21/05/18 Пнд 13:12:36 #136 №1193976 
>>1193975
Там есть видево
Аноним 21/05/18 Пнд 13:14:44 #137 №1193978 
1.png
>>1193966
> Наткнулся на зашибенного чувака.
>эталонный хипстер из палаты мер и весов.
Почему я не удивлен?..
Аноним 21/05/18 Пнд 13:15:56 #138 №1193979 
>>1193978
Ну какой же это хипстер. Это няша.
Аноним 21/05/18 Пнд 13:31:34 #139 №1193988 
tired.gif
>поехавшие и петросяны
>любители хипсторов
>секта вапника
>секта хейторов математики
>нюфани, которые не могут осилить документацию
Аноним 21/05/18 Пнд 13:39:56 #140 №1193991 
37246.jpg
>>1193988
>поехавшие и петросяны
>любители хипсторов
>секта вапника
>секта хейторов математики
>нюфани,
А ты один весь в белом, да? Сам-то чьих будешь?
Аноним 21/05/18 Пнд 13:41:10 #141 №1193995 
>>1193988
У тебя есть девушка? Оставь свою почту, няш.
Аноним 21/05/18 Пнд 13:54:20 #142 №1194009 
>>1193991
Я оп-хуй. Летаю снаружи всех фракций, нейтральная сторона.
Аноним 21/05/18 Пнд 15:00:46 #143 №1194052 
Пацаны оцените мой интелект пытаюсь обучать глубокую нейронку на ноуте за 250$ 2011 года
Аноним 21/05/18 Пнд 15:05:14 #144 №1194057 
>>1194052
Хватит ныть, скоро будешь в гулаге на кластере из краденных телефонов считать свои загнивающие западные нейронки.
Аноним 21/05/18 Пнд 15:06:07 #145 №1194058 
>>1194057
Не буду я живу в процветающей Беларуси
Аноним 21/05/18 Пнд 15:12:30 #146 №1194064 
>>1194057
>на кластере из краденных телефонов
А ведь есть MMPI для этих целей, лол
Аноним 21/05/18 Пнд 15:26:04 #147 №1194070 
С программированием знаком достаточно базово пара курсов вуза, в нейронках мне делать нечего?
Аноним 21/05/18 Пнд 15:45:12 #148 №1194083 
>>1194070
Если умеешь и не брезгуешь макачить, то есть чего.
Аноним 21/05/18 Пнд 16:39:33 #149 №1194147 
>>1194083
А если я хочу перекатиться в нейронки, потому что мне надоело макачить?
Аноним 21/05/18 Пнд 16:41:01 #150 №1194150 
152018451712706580.jpg
>>1194147
Должен попросит богословения у Короля Обезьян.
sageАноним 21/05/18 Пнд 16:41:09 #151 №1194151 
>>1194147
Тогда ты перекатываешься туда куда нужно. Так как здесь опыт макакства сослужит тебе прекрасную службу.
Аноним 21/05/18 Пнд 16:50:05 #152 №1194158 
>>1194150
На Вапника похож.
Аноним 21/05/18 Пнд 16:56:17 #153 №1194165 
>>1194158
> Вапника похож.
Морковка?
Аноним 21/05/18 Пнд 17:16:32 #154 №1194177 
>>1193988
>>поехавшие и петросяны
А он не шутил
Аноним 21/05/18 Пнд 18:18:12 #155 №1194198 
scr1.jpg
Как придумывают архитектуру нейросетей без понимания, что внутри? "Хуяк-хуяк, и - ебана, ПОБЕДИЛИ"?
Аноним 21/05/18 Пнд 18:35:26 #156 №1194209 
>>1190957
Да.
``
import numpy as np
import matplotlib.pyplot as plt
A = np.random.rand(28,28,4)
plt.imshow(A);plt.show()
``
В imshow подают числа из отреза [0,1]
Аноним 21/05/18 Пнд 18:40:15 #157 №1194210 
>>1194209
Спасибо ананас. Макака благодарна тебе.
Аноним 21/05/18 Пнд 21:59:19 #158 №1194324 
>>1194198
ты думашь шутки про негров и обезьян это просто так?
Аноним 21/05/18 Пнд 22:46:49 #159 №1194372 
>>1190173 (OP)
>>2.jpg
Это же реально похоже на вентилятор
Аноним 21/05/18 Пнд 22:50:48 #160 №1194380 
>>1194198
Я по причине нейросетей уже боюсь искать в гугле по картинке.
Аноним 21/05/18 Пнд 23:22:07 #161 №1194399 
>>1194372
https://medium.com/artists-and-machine-intelligence/perception-engines-8a46bc598d57
Аноним 21/05/18 Пнд 23:54:20 #162 №1194427 
>>1194198
Покупают одну метасетку, обученную генерировать сетки.
Аноним 22/05/18 Втр 11:02:39 #163 №1194582 
>>1194427
И тут я проснулся
Аноним 22/05/18 Втр 11:08:29 #164 №1194585 
Что думаете об этой статье, ананасы?
http://cs231n.github.io/convolutional-networks/
Если я её прочитаю я превращусь из неосилятора в помидора машоб-боярена?
Аноним 22/05/18 Втр 12:53:48 #165 №1194638 
Можно тренировать нейроночку, потом остановить и перебросить вообще на другой сервер, тренировать дальше?
Аноним 22/05/18 Втр 13:11:02 #166 №1194648 
>>1194585
С вероятностью 0,500000
Аноним 22/05/18 Втр 16:37:42 #167 №1194808 
>>1190173 (OP)
Накидайте литературы/курсов по математическим дисциплинам, чтобы был хороший бэкграунд для вкатывания.
Аноним 22/05/18 Втр 16:38:03 #168 №1194810 
>>1194648
Хотел сказать: "С вероятностью 500%"?
Аноним 22/05/18 Втр 16:40:07 #169 №1194811 
>>1194808
https://www.khanacademy.org/math/calculus-home отсюда и до упора.
Аноним 22/05/18 Втр 16:52:14 #170 №1194818 
>>1194810
Да
Аноним 22/05/18 Втр 18:46:00 #171 №1194909 
Такс. Выделение автомобильных номеров я сделал. Как лучше будет организовать распознавание самого номера? Стоит ли искать угол поворота а потом только распознавать? Или можно тем же детектором натренировать на поиск символов и так будет даже лучше, потому что будет универсальней? Жаль только в таком случае номера придется скорее всего генерировтаь самому, а подделать помехи(грязь на номере и т.д.) проблематично.
Аноним 22/05/18 Втр 18:56:17 #172 №1194931 
>>1194638
Можно, конечно))) но осторожно :D

Дело в том, что при переносе может произойти туннелирование квантовых векторов по принципу ватника-червячникуса, что приведет к неизбежному образованию канцероподобных тел в головных нейронах субъекта производящего перенос, что не есть хорошо
Аноним 22/05/18 Втр 19:03:14 #173 №1194935 
lplate.jpg
>>1194909
Возьми любую веб-камеру с улицы, и будут тебе номера - и с грязью, и со шторками, и с прочими пидорахинскими приблудами
Аноним 22/05/18 Втр 19:21:29 #174 №1194950 
1525811697148477081.gif
>>1194931
Джвачую, все так и есть
Аноним 22/05/18 Втр 19:24:00 #175 №1194952 
>>1194909
Дак эта уже не сложно. Яб сделал две нейронки. Одной посылаешь хай контраст номер, где капли изведены до точек, а второй нормальный в случае если номер чистый. Гораздо серъезней проблема если номер сфотографирован под уголом. тут повидимому понадобится серъезный препроцессинг изображение с тем чтобы номер задисторить до состояния плоскодонки.
По поводу самой распознавалке, думаю по классике в финале вываодится на 33 + 10 полносвязку с размерностью (2,), где первое значение номер символа, а втооое его индекс от начала.
Аноним 22/05/18 Втр 19:25:32 #176 №1194954 
>>1194950
Что происходит на гифке? Напомнило историю из детсва, когда одна собака стояла поперек другой и когда первая шагала, вторая шагала за ней. Я сначала подумал, что они прилипли друг к другу.
Оказалось, что это они так "неловко" сношались.
Аноним 22/05/18 Втр 19:29:09 #177 №1194956 
>>1194954
почти как в твоем детстве
Аноним 22/05/18 Втр 19:36:18 #178 №1194961 
>>1194952
В том то и дело, что не хочется так, потому что препроцессинг нужен, а потом ввод значения для обучения. Я же вот думаю, может сделать детектирование символов, как это было с табличкой? Правда разметка займет уйму времени, потому что минимум, думаю, 10к картинок надо будет разметить. А на это месяц уйдет.
Аноним 22/05/18 Втр 19:50:48 #179 №1194970 
>>1194961
я думаю в пропооцессинге ничего сложного нет. Должны быть на питоне либы которым посылаешь битмап и 4 координаты, а она отдает выровненную картинку. Не очень понимаю что ты имеешь ввиду под табличками. Есть какой либо пример?
Аноним 22/05/18 Втр 21:02:46 #180 №1195026 
>>1194970
>ты имеешь ввиду под табличками.
Номер машины на табличке нарисован же. Вот как размечал таблички, так размечать символы. Тогда можно будет распознавать не только 6-тизначные номера но если обучать дальше и набрать больше табличек, можно будет обучить и европейским номерам.
Аноним 22/05/18 Втр 21:08:27 #181 №1195031 
>>1195026
Блять для меня табличка эта таблица типа Ексель, теперь я понял что под табличкой ты подразумеваешь саму досточку на которой напечатан номер.
Аноним 22/05/18 Втр 22:20:42 #182 №1195055 
share-2082788612.jpg
>>1194808
Аноним 23/05/18 Срд 00:24:24 #183 №1195133 
Добрый день. У меня превосходный математический бекграунд, опыт промышленной разработки и базовые знания питона.
Посоветуйте что почитать на русском языке про мл.
Аноним 23/05/18 Срд 01:46:52 #184 №1195150 
>>1195133
> превосходный математический бекграунд
> опыт промышленной разработки
> на русском языке
Читай шапку и учи английский, макака.
Аноним 23/05/18 Срд 02:02:12 #185 №1195155 
1525811697148477081.gif
>>1195150
Аноним 23/05/18 Срд 02:20:39 #186 №1195160 
>>1195150
Тож кекнул с превосходного меметического быкграунда.
Аноним 23/05/18 Срд 02:26:27 #187 №1195162 
origin1.jpg
https://crypko.ai/#/
AI
Blockchain
Anime

When GAN meets Ethereum, we meet Crypko --- the next generation cryptocollectible game.
Аноним 23/05/18 Срд 07:51:41 #188 №1195189 
>>1195150
>>1195160
Я не хочу учить английский, твари.
Презираю вас.
Аноним 23/05/18 Срд 08:33:31 #189 №1195198 
15267330136680.png
>>1195189
> Я не хочу учить английский, твари.
В 21 веке не могущий читать на английском то, что ему интересно - неграмотен. Это факт. В любой современной науке / области знаний нехуй делать без знания английского. Вот даже с таким слесарством и второкультурным явлением как машобчик ты соснул, ибо на русском по теме нет нихуя интересного. И везде так же. Так что либо учи человеческий, либо сасай кудасай.
Аноним 23/05/18 Срд 08:37:08 #190 №1195201 
>>1195198
Зато я ебал твою мамашу.
Аноним 23/05/18 Срд 09:27:00 #191 №1195215 
>>1195198
как максимально быстро поднять английский до уровня чтения технической литературы?

мимо-анон
Аноним 23/05/18 Срд 09:30:29 #192 №1195216 
Хочу натренировать нейросеть, чувствительную к одному какому-то цвету. На входе RGB. Сколько минимально нужно слоев? Ответьте, математики.
Аноним 23/05/18 Срд 09:32:59 #193 №1195218 
>>1195215
Дуолинго пройди, тебя там как нейроночку обучают. Хотя, возможно, для технического есть методы попроще.
Аноним 23/05/18 Срд 09:36:01 #194 №1195219 
>>1195215
>до уровня чтения
Просто непрерывно читай, сначала можно с подстрочником.
Аноним 23/05/18 Срд 09:40:24 #195 №1195221 
>>1195215
"Academic vocabulary in use". Вообще, со знанием предмета довольно легко читать, если у тебя хотя бы B1.
Аноним 23/05/18 Срд 09:46:48 #196 №1195222 
>>1195216
Один.
Аноним 23/05/18 Срд 10:00:57 #197 №1195224 
>>1195221
>>1195218
>>1195219
благодарю
Аноним 23/05/18 Срд 10:17:21 #198 №1195229 
>>1195222
Нет, не один. Допустим, мне нужно активацию только на салатовом, как один слой с линейной функцией мне это даст?
Аноним 23/05/18 Срд 12:17:25 #199 №1195296 
>>1195198
> В любой современной науке / области знаний нехуй делать без знания английского
Слишком утрированно, 99,9% англовысеров семантический шум
Аноним 23/05/18 Срд 12:24:46 #200 №1195299 
>>1195229
> салатовом
Да Вы, батенька, эстет-с.
Аноним 23/05/18 Срд 12:35:30 #201 №1195308 
>>1195296
> Слишком утрированно, 99,9% англовысеров семантический шум
Хуйню несешь. Английский де-факто официальный международный язык науки. Зная его, ты можешь не только читать о последних достижениях, но и общаться с исследователями. Похуй, чех это, голландец, француз или азиат, на английском ты с ним всегда пообщаешься. А на русском только эта подмывальня да алкаши у подъезда.
Аноним 23/05/18 Срд 13:03:21 #202 №1195348 
>>1195308
>Зная его, ты можешь не только читать о последних достижениях, но и общаться с исследователями.
Это не журнал Наука и Жизнь где печатались ноухау советских ученных, это говно написанное, поскольку пиндоховской ученой петушне в обязаловку нужно публиковаться. Если это работоспособно и охуенно, оно не публикуется, а закрывается патентами и стрижется бабло. Опровергни.
Аноним 23/05/18 Срд 13:07:17 #203 №1195359 
>>1195348
А вот и залетная лахта.
Тред сваливших утонул - так оно тут всплыло.
Аноним 23/05/18 Срд 13:07:21 #204 №1195360 
>>1195348
> Если это работоспособно и охуенно, оно не публикуется, а закрывается патентами и стрижется бабло. Опровергни.
Да весь машоб опровержение твоих фантазий. Покажи мне закрытые патентами ML проекты, на которых стрижется бабло.
Аноним 23/05/18 Срд 13:09:21 #205 №1195364 
>>1195360
>закрытые патентами ML проекты, на которых стрижется бабло.
Например все.
Аноним 23/05/18 Срд 13:21:20 #206 №1195381 
>>1195364
Друг мой, прочитай про лицензии хотя бы немножк. Что бы что-то закрыть патентом надо обязательно это опубликовать. В общев в АЙТИ хуета не работает. Ты внатуре Лахта какая-то. Без обид. Все мы тут Лахты.
Аноним 23/05/18 Срд 13:23:32 #207 №1195383 
>>1195381
А пруфоф так и нет.
Ссылочку на .рт, пожалуйста.
Аноним 23/05/18 Срд 13:26:05 #208 №1195388 
>>1195383
Пруфы чего именно тебе нужны?
Аноним 23/05/18 Срд 13:28:08 #209 №1195391 
>>1195388
Пруфы всего >>1195381
Аноним 23/05/18 Срд 13:31:17 #210 №1195395 
>>1195229
Ну же, матаны? Сколько нужно Титанов слоев нейроночки для простого color detection?
Аноним 23/05/18 Срд 13:31:38 #211 №1195396 
>>1195391
Не буду тебя кормить, зелень.
Аноним 23/05/18 Срд 13:32:38 #212 №1195400 
>>1195395
Да.
Аноним 23/05/18 Срд 13:33:18 #213 №1195403 
>>1195381
>В общев в АЙТИ хуета не работает.
Что не работает? Публикация в общих чертах, без открытия техдеталей и приправленная пиздежом, этого достаточно. Для патента никакие публикаций не нужны.
Аноним 23/05/18 Срд 13:33:34 #214 №1195404 
20150303e8b7b166b1aed597424608837ed35673.jpg
>>1195396
>Не буду тебя кормить
>Не буду
А ты быстр :3
Аноним 23/05/18 Срд 13:35:02 #215 №1195406 
>>1195381
> Что бы что-то закрыть патентом надо обязательно это опубликовать.
>>1195403
>Для патента никакие публикаций не нужны.
 
Мнения разделились.
В любом случае как минимум один из вас - пидор.
Решайте кто именно.
Аноним 23/05/18 Срд 13:35:08 #216 №1195407 
>>1195403
Ты Лахта, смирись с этим. Найди работу за бугром, поживи там маленько, и поймёшь какой каменный век у нас тут.
Аноним 23/05/18 Срд 13:39:19 #217 №1195414 
Ладно я пидор. Следующий вопрос.
Кун Что бы что-то закрыть патентом надо обязательно это опубликовать.
Аноним 23/05/18 Срд 13:43:56 #218 №1195423 
>>1195407
>век у нас тут.
Пан хохол, не надоело семенить?
Аноним 23/05/18 Срд 13:45:26 #219 №1195426 
>>1195423
Всё, всё, я пидор. Дальше
Аноним 23/05/18 Срд 13:47:06 #220 №1195429 
>>1195407
>>1195414
>>1195423
>>1195426
Вы еще поебитесь тут.
Аноним 23/05/18 Срд 14:37:11 #221 №1195467 
Пилять, никак не могу понять как происходит обучение фильтров в Conv слоях. Если с настройкми весов во время обучения в полносвязных слоях все интуитивно понятно. То как обучаются фильтры - нет.
Аноним 23/05/18 Срд 14:42:06 #222 №1195474 
slap.gif
>>1195308
>подмывальня
Скотина, ты охуел? Не трогай мой уютный тредик с шизиками. Пошёл вон.
Аноним 23/05/18 Срд 14:47:59 #223 №1195478 
>>1195474
И то правда, какая же это подмывальня.
Скорее параша для дебилов, неудачников и русских.
Аноним 23/05/18 Срд 15:47:45 #224 №1195494 
44.png
Что значит маленькая буква i под сигмой?
Аноним 23/05/18 Срд 15:50:11 #225 №1195496 
>>1195494
Да.
Аноним 23/05/18 Срд 15:51:05 #226 №1195497 
>>1195496
Тянки с вконтача ответ.
Аноним 23/05/18 Срд 16:11:10 #227 №1195507 
>>1195494
> Что значит маленькая буква i под сигмой?
Суммирование по всем i. Выше же постили йобаматематику для машоба, там наглядно нарисовано.
Аноним 23/05/18 Срд 16:12:19 #228 №1195509 
>>1195494
Индекс Суммирования.
Подразумевается что w и x имеют одинаковые размеры, и их можно не указывать (Долго печатать, не важно и т. д.)
Аноним 23/05/18 Срд 16:17:08 #229 №1195514 
Всем спасибо, я потестил свою нейроночку для политача. Как вам?
Аноним 23/05/18 Срд 16:59:02 #230 №1195546 
15263738430292.jpg
хаха, я понял эту картинку
Аноним 23/05/18 Срд 17:26:10 #231 №1195573 
>>1195514
Да.
Аноним 23/05/18 Срд 18:07:36 #232 №1195601 
1527088052940.jpeg
Как научить CNN работать с изображениями разных разрешений и разных соотношений сторон? Что ещё используют для этого кроме zero padding?
Аноним 23/05/18 Срд 18:39:06 #233 №1195620 
>>1195494
Божественный вопрос, ничего не скажешь.
Аноним 23/05/18 Срд 19:42:10 #234 №1195672 
>>1195601
На вскидку:
1. Scaling, Crop'ы. и прочая
2. Обрабатывать как есть и потом декодировать RNN-кой или механизмом внимания.
Аноним 24/05/18 Чтв 09:45:13 #235 №1195971 
Как правильно произносить ROC AUC?
Аноним 24/05/18 Чтв 09:47:54 #236 №1195973 
>>1195971
рокаук
Аноним 24/05/18 Чтв 09:53:13 #237 №1195976 
>>1195973
Как правильно произность это на английском перед белыми людьми?
Аноним 24/05/18 Чтв 09:56:47 #238 №1195977 
>>1195976
ар-оу-си эй-ю-си
Аноним 24/05/18 Чтв 11:08:11 #239 №1195993 
>>1195977
рок эй-ю-си
100%
Аноним 24/05/18 Чтв 11:53:02 #240 №1196009 
>>1195993
Спасибо, ты меня убедил, я вся твоя.
Аноним 26/05/18 Суб 21:32:13 #241 №1197364 
Где же вы, нейраны?
Аноним 26/05/18 Суб 23:42:26 #242 №1197415 
Никто не хочет поучавствовать совместно в kagel, какие-то весьма тривиальные испытания поделать для портфолио, да и просто развлечения?
Аноним 26/05/18 Суб 23:47:42 #243 №1197419 
>>1197415
Я сейчас там частицы тречу в коллайдерах.
Аноним 27/05/18 Вск 00:08:31 #244 №1197433 
>>1197415
>kagel
это чо?
Аноним 27/05/18 Вск 00:14:59 #245 №1197436 
>>1197433
Серьезно?
Площадка по соревнованию в анализе данных.
Аноним 27/05/18 Вск 00:33:30 #246 №1197448 
>>1197436
Mauricio Raúl Kagel was a German-Argentine composer

ну а ссыла где?
Аноним 27/05/18 Вск 00:37:22 #247 №1197453 
>>1197448
https://www.kaggle.com/
Аноним 27/05/18 Вск 00:40:13 #248 №1197456 
>>1197453
чет хуйня какая то по nlp, автономус вехиклс ваще нет, или там одна хипстота?
Аноним 27/05/18 Вск 10:54:57 #249 №1197589 
>>1197456
Там вообще все на любой вкус.
И как бы за топ модели платят бабло.
Аноним 27/05/18 Вск 15:04:45 #250 №1197701 
>>1197589
>топ модели платят бабло
Ай хитрецы
Аноним 27/05/18 Вск 15:20:34 #251 №1197710 
Киньте подборку классических гиперпараметров для гридсерча моделей из sklearn, пожалуйста. Регрессия, деревья, knn, вот это вот все, хочу сравнить с моим диплернинх-велосипедом.
Аноним 27/05/18 Вск 22:38:59 #252 №1198017 
>>1197415
Давай, только я ничё не умею и с некроноутом сижу
Аноним 28/05/18 Пнд 02:24:33 #253 №1198109 
Зачем в гуглГозеро дерево решений? Нельзя ли обойтись простым автоэнкодером?
Аноним 28/05/18 Пнд 09:38:44 #254 №1198145 
>>1197456
https://www.kaggle.com/c/youtube8m-2018
ты эту хипстоту даже скачать не сможешь
Аноним 28/05/18 Пнд 11:39:50 #255 №1198203 
Поясните, как сделать регрессию или ее аналог, если в датасете, для которого нужно получить y = f(x1,x2,...,xn) y и x сами по себе многомерные векторы?
Аноним 28/05/18 Пнд 14:28:47 #256 №1198267 
>>1198203
Пизда короче. Эта задача известна как 15-я проблема Ватника. Сможешь решить - получишь миллион порций смузи и гироскутер от всемирной ассоциации искусственного интеллекта
Аноним 28/05/18 Пнд 14:34:13 #257 №1198269 
>>1198267
В принципе, она элементарно решается двунаправленными картами Кохонена. Но я хочу что-то менее экзотическое, желательно вообще элементарное - регрессию там, минимальные квадраты.
Аноним 28/05/18 Пнд 16:42:13 #258 №1198362 
Посаны, а есть новая профессия - генерация данных для машинлернинга из движков ГТА5 и UnrealEngine ?
Аноним 28/05/18 Пнд 17:39:19 #259 №1198385 
>>1198362
У нас на работе используют Unreal Engine для тестировантия нашей реализации SLAM. Но это больше работа для content artists, а не для программистов.
Аноним 28/05/18 Пнд 17:39:55 #260 №1198386 
>>1198145
А я и не хочу, нахуй таким говном заниматься?
Аноним 28/05/18 Пнд 20:32:06 #261 №1198468 
Посоны, недавно видел статью на тему того, что в нейроночках есть ошибка распознавания, типа, если немного изменить фото, то нейроночка уже не справляется и это считают чуть ли не критической ошибкой.
Не помню, на русском или английском она была.
Аноним 28/05/18 Пнд 20:39:00 #262 №1198470 
>>1198468
https://arxiv.org/abs/1802.08195
>на русском
Ага, на русском.
Аноним 28/05/18 Пнд 21:00:45 #263 №1198484 
>>1198468
А все, нашёл, это про adversial examples.
Аноним 28/05/18 Пнд 21:01:50 #264 №1198485 
>>1198470
Это опечатка.
Аноним 28/05/18 Пнд 21:12:06 #265 №1198492 
>>1198485
А не, не опечатка же.
Аноним 28/05/18 Пнд 23:32:47 #266 №1198564 
>>1198362
Да, у нас внезапно наняли левел дизойнера как раз для этих целей, потому что с реальными данными гемор из-за юристов ебаных.

мимо работаю в компании-производителе дверных звонков
Аноним 28/05/18 Пнд 23:44:28 #267 №1198567 
Анончики, помогите, пожалуйста, советами по архитектуре глубоких нейронок.

tl;dr: какую архитектуру глубокой нейронной сети выбрать для распознавания людей?

В общем есть две взаимосвязанные задачи. Существует система, которая высирает видео с камеры. На этом видео нужно распознавать людей. В самой системе можно включить детекцию объектов по движению (1-й вариант работы), но нужно классифицировать объекты, является ли объект человеком. То есть сделать классификатор на нейронной сети, который будет поглощать вот эти обрезки по рамкам объектов и говорить про класс объекта с доверительностью. Тут обрезки эти могут получаться в низком разрешении.

Если детекцию в системе не включать, то в классификатор будет отправляться весь кадр в нормальном разрешении. Это второй вариант работы. Тут соответственно тоже нужно распознавать людей.

И вот нужно взять на выбор несколько архитектур, посмотреть как оно пойдет. Сейчас присматриваюсь и тестирую YOLO, пока вроде нормально, но интересны и другие варианты.

Вопрос заключается в том, какие архитектуры предпочтительнее выбрать для каждого из вариантов работы системы?

Пытался курить следующие статьи:
https://arxiv.org/pdf/1611.10012.pdf
https://arxiv.org/pdf/1803.09386.pdf
Но что-то оно плохо курится.

В любом случае буду благодарен за любые советы.
Аноним 29/05/18 Втр 00:28:40 #268 №1198587 
>>1198567
Работай с йолой, остальное нинужно.
Аноним 29/05/18 Втр 02:04:10 #269 №1198612 
image.png
>>1195198
> машобчик
> на русском по теме нет нихуя интересного
> ето факт
Аноним 29/05/18 Втр 02:08:54 #270 №1198613 
>>1195360
> Покажи мне закрытые патентами ML проекты, на которых стрижется бабло.

Любой адекватный алгоритм ранжирования поисковой выдачи.
Любой адекватный финансовый скоринг.
Любая сота в прогнозировании временных рядов.

Не то чтоб обмазанное патентами, но вполне себе закрытое.

мимо-проходил
Аноним 29/05/18 Втр 02:34:28 #271 №1198614 
>>1195296
Это не отменяет того, что не знать английского и пытаться что-то поймать с передка науки это нонсенс. Сейчас на норм факультете не знающего английский из магистратуры погонят ссаными тряпками.
Аноним 29/05/18 Втр 02:50:08 #272 №1198616 
>>1198613
>Любой адекватный алгоритм ранжирования поисковой выдачи.
Ну компании типа гугла могут держать большие R&D и что-то придумывать принципиально новое и держать это закрытым. Тут примерно верю, хотя уверен, что общие принципы (и конкретные алгоритмы) хорошо известны.
>Любой адекватный финансовый скоринг.
Что ты имеешь в виду? Подбор весов и слагаемых в известный алгоритм, который считает одно, блять, число?
>Любая сота в прогнозировании временных рядов.
Тут сложнее, хуй знает. Мне кажется тут вопрос только в хорошем знании предметной области за временным рядом и подбор метода и параметров под это знание.

Кароче звучит так будто принципиальные схемы хорошо известны/публикуются, а в секрете держат только конкретный код и свободные параметры.
Аноним 29/05/18 Втр 09:45:42 #273 №1198684 
>>1198613
> Любой адекватный алгоритм ранжирования поисковой выдачи.
> Любой адекватный финансовый скоринг.
> Любая сота в прогнозировании временных рядов.
Хотя бы по одному примеру приведешь?
Аноним 29/05/18 Втр 10:05:57 #274 №1198695 
>>1198614
Откуда в России норм факультеты?
Аноним 29/05/18 Втр 12:55:20 #275 №1198809 
15274767292080.jpg
Ну так что вы тут, хипстеры? Вот так >>1198203 сделать никак нельзя без векторного квантования? Диплернинх не интересует, там задача с вещественнозначными векторами из 100 значений, негров и котиков распознавать не требуется.
Аноним 30/05/18 Срд 09:47:40 #276 №1199277 
>>1190173 (OP)
>Напоминание ньюфагам: персептроны и прочий мусор середины прошлого века действительно не работают на серьёзных задачах.

Блин а я думал, что-то понимаю в нейросетях. А как же сети петри, всякие многослойки с каким-то градиентным вычислением весовых коэффицентов? Это тоже все для школьников или используется в серьезных задачах?

Мимо хиккан 26 лвл, когда-то проходивший курс по искусственному интеллекту на инженерной специальности.
Аноним 30/05/18 Срд 09:59:41 #277 №1199284 
>>1199277
> Блин а я думал, что-то понимаю в нейросетях. А как же сети петри, всякие многослойки с каким-то градиентным вычислением весовых коэффицентов? Это тоже все для школьников или используется в серьезных задачах?
Что ты этих латентных сойбоев слушаешь? Вон, постом выше задача, вроде все просто аки 3 копейки, а кроме некоторых разновидностей карт Кохонена и применить нечего. Мусор середины прошлого века не нужон, говорили они, диплернинх все порешает, говорили они...
Аноним 30/05/18 Срд 11:49:36 #278 №1199317 
>>1199277
>>1199284
Сука, пидоры, в предыдущем треде такой же мудила был. Это добавили, потому что постоянно закатываются унтерменши из шараг, которые пытаются навертеть миллиарды линейных слоёв, а потом воют, что нихуя не работает.
Аноним 30/05/18 Срд 13:18:20 #279 №1199362 
>>1199317
> Это добавили, потому что постоянно закатываются унтерменши из шараг, которые пытаются навертеть миллиарды линейных слоёв, а потом воют, что нихуя не работает.
Написал хуйню и рад. Как это связано с хуетой в оп-хуй посте про перцептроны?
Аноним 30/05/18 Срд 13:44:00 #280 №1199369 
Серъёзные задачи это коты и нигры с гориллами, я так понимаю?
Аноним 30/05/18 Срд 15:04:06 #281 №1199418 
>>1199369
ну если учитывать, что ОКР для какого нибудь деванагари это нерешаемый пиздец, то да
Аноним 30/05/18 Срд 16:29:56 #282 №1199465 
Как писать нейроночки в состоянии ощущения полной бессмысленности, уныния, безнадёжности и суицидальных наклонностей?
Аноним 30/05/18 Срд 16:53:17 #283 №1199476 
>>1199465
Поставить себе цель написать нейроночку, симулирующую работу реального психотерапевта.
Аноним 30/05/18 Срд 17:57:10 #284 №1199516 
>>1199465
Напиши нейроночку, оценивающую шансы на смерть после приема определенной дозы каког-нибудь вещества. И тренируй ее, собирая данные на себе.
Аноним 30/05/18 Срд 20:38:48 #285 №1199630 
deep learning.jpeg
Какое же это охуенное чувство, когда после трёх дней борьбы с размерами тензоров, несовместимыми форматами данных между Numpy, OpenCV и Scipy, допиливанием кастомных хуков для tf, твоя модель наконец-то начинает делать то, что должна.


Как же мне не хватает статической типизации и нормального дебаггера для tf...
Аноним 30/05/18 Срд 20:46:35 #286 №1199639 
>>1199630
а что пилил?
Аноним 30/05/18 Срд 21:54:07 #287 №1199697 
>>1199639
Котов идентифицировал на картинках.
Аноним 30/05/18 Срд 21:54:27 #288 №1199698 
>>1199639
цифру по изображению.
Аноним 30/05/18 Срд 21:59:04 #289 №1199703 
>>1199639
NDA не позволяет обсуждать, просто хотел поделиться радостью.

>>1199697
>>1199698
Человек-анекдот, пощади.
Аноним 31/05/18 Чтв 01:19:11 #290 №1199792 
>>1199630
У numpy и scipy одинаковый формат, opencv это некролиба, а в размерах тензоров путаются только нубские лалки. В остальном рад за тебя.
Аноним 31/05/18 Чтв 01:26:07 #291 №1199795 
>>1199792
> opencv это некролиба
И что же используют смузихлебы?
Аноним 31/05/18 Чтв 01:56:18 #292 №1199800 
>>1198109
бамп вопросу
Аноним 31/05/18 Чтв 05:19:00 #293 №1199813 
>>1199800
Это два вопроса настолько глупых, что отвечать на них бессмысленно.
Аноним 31/05/18 Чтв 13:44:47 #294 №1199935 
>>1199813
Если их задают, значит отвечать на них смысленно. Не все разбираются в тонкостях. А подбор архитектуры так и не регламентирован.
Аноним 31/05/18 Чтв 13:55:10 #295 №1199941 
>>1199418
Почему?
Аноним 01/06/18 Птн 12:48:09 #296 №1200511 
Привет, анон
Расскажи, как в методе ближайшего соседа kNN находится/выбирается k? И какова общая суть этого метода?
Аноним 01/06/18 Птн 18:58:32 #297 №1200817 
Такой вопрос, машинисты-педагоги, сколько требуется на вкатывание? От "я нашел все учебные материалы" до "теперь можно посылать резюме в гугол". Так-то уже лет десять как вкатился в айти, но хочется новых горизонтов. Да и робо-кошко-девочки сами себя не сделают лол.
Аноним 01/06/18 Птн 19:01:17 #298 №1200820 
>>1200817
10-15 лет.
Аноним 01/06/18 Птн 19:02:03 #299 №1200823 
>>1200820
Обоснуй.
Аноним 01/06/18 Птн 20:35:56 #300 №1200887 
>>1200823
Подготовка к ПхД 3-5 лет по "всем учебным материалам", либо получение магистра по специальности, ПхД 5 лет, 1-2 постдока 3-5 лет. Теперь можешь подаваться в Гугл Брейн, или если сильно повезет то в Дипмайнд, на исследовательские позиции. Все остальное это унылый макакинг, чистка данных, подготовка инфраструктуры для господ исследователей.
Аноним 01/06/18 Птн 20:51:45 #301 №1200902 
>>1200887
И они ещё говорят про какие-то возможности.
Аноним 01/06/18 Птн 21:34:48 #302 №1200935 
>>1200902
Гугл это топ1 в мире по нейроночкам, если что. Там работают только суперзвезды, производя статьи пачками. Они гребут как на галерах и получают миллионы. На топовых нейроконференциях сотни статей оттуда каждый год. Этот вопрос равносилен "сколько требуется времени чтобы поехать в Голливуд сниматься в главных ролях в самых высокобюджетных фильмах?" Только в Голливуд попасть попроще чем в Гугл.
Аноним 01/06/18 Птн 22:02:54 #303 №1200962 
1527444542179578012.png
>>1200935
>Гугл это топ1 в мире по нейроночкам
Прям вижу как их гугломобиль отсасывает у гаражных васянов.
Аноним 01/06/18 Птн 22:03:08 #304 №1200963 
image.png
А какие есть удобные инструменты для рисования структуры сети? Не хуйню из тензорборда же вытаскивать и в статью вставлять. Вручную в tikz рисовать тоже влом. Подскажите что-нибудь, пожалуйста.
Аноним 01/06/18 Птн 22:40:36 #305 №1201002 
>>1200963
На реддите обсуждали, поищи по старым темам.
Аноним 01/06/18 Птн 22:45:58 #306 №1201006 
>>1200962
Людям, работающим над differentiable neural computer, и дела нет до автомобилей и прочей инженерной мути. И естественно, кузьмичи во многих вещах могут превзойти гигакорпорацию с десятками тысяч сотрудников, это вообще ни к селу ни к городу. Рынок они никогда у гугла не заберут, предел их мечтаний это продать свои наработки подороже. Гугл только выигрывает от этого.
Аноним 01/06/18 Птн 22:56:21 #307 №1201016 
>>1200935
Толко у меня всё равно слетает загрузка видосов с ютуба при перемещении на более раннюю точку видео. Что скажешь на это, гугл? Алсо гугл реально нихуя не сделал кроме инкубирования технологических решений и криков на весь мир, что он всемогущь.
Аноним 02/06/18 Суб 04:09:49 #308 №1201196 
>>1201006
>прочей инженерной мути
ах ну да, автономус вехикалс это же говно, вот бибизяна vs негр на пикче это огого, эгеге
Аноним 02/06/18 Суб 04:31:28 #309 №1201203 
15273662841820.png
>>1201196
> ах ну да, автономус вехикалс это же говно,
Вот нейроночки для этого точно говно, т.к нет строгих доказательств их устойчивости. Я думаю, что и никогда не будет, ибо сойбои не осилят для всей этой ебалы сделать хотя бы функцию Ляпунова. А без этого не будет никакого внедрения, т.к нет желающих отвечать за последствия, если этот автономус вехикал кого-нибудь размажет по пешеходному переходу.
Аноним 02/06/18 Суб 04:44:48 #310 №1201205 
>>1201203
>автономус вехикал кого-нибудь размажет по пешеходному переходу.
Так вроде уже
Аноним 02/06/18 Суб 07:57:58 #311 №1201226 
pedestrian.JPG
>>1201203
>если этот автономус вехикал кого-нибудь размажет по пешеходному переходу
Уже куча трупов в США. Но юристы автопроизводителей похоже оценили жизнь пешеблядей в 2 цента и будут сбивать их пачками. До момента пока не собьют селебрити. А там зомбоящик промоет мозги муриканцам и эти авто запретят нахуй.
Аноним 02/06/18 Суб 09:23:45 #312 №1201234 
>>1201203
>А без этого не будет никакого внедрения,
Недавно новость была, убер сбил тян, приняв её за мусор.
Аноним 02/06/18 Суб 09:51:20 #313 №1201236 
А, ну так тем более. Уже есть трупы, оказывается. А ведь давно известно, что нельзя внедрять алгоритмы без доказательств их устойчивости, что для всяких мутных нейроночек вообще нереально. Енджой хипсторпрогресс.
>>1201234
> Недавно новость была, убер сбил тян, приняв её за мусор.
В хиджабе была штоле?
Аноним 02/06/18 Суб 11:03:07 #314 №1201259 
>>1201226
>system software classified the pedestrian as an unknown object, as a vehicle, and then as a bicycle
Нейроночка соснула на частично освещенном объекте, какая неожиданность! (нет)
>According to Uber, emergency braking maneuvers are not enabled while the vehicle is under computer control
Нахер она тогда нужна без тормозов?
Аноним 02/06/18 Суб 12:10:21 #315 №1201301 
>>1201236
>что нельзя внедрять алгоритмы без доказательств их устойчивости
Внедряют то, что модно и молодежно, а не эти ваши устойчивости
Аноним 02/06/18 Суб 13:39:53 #316 №1201356 
>>1201301
> Внедряют то, что модно и молодежно, а не эти ваши устойчивости
Куколды одни и внедряют. Им-то хуле, от одного бабаха на грузовике или чёрной бабы (проектировавшей рухнувший мост без технического образования) пропагандирующей что математика - это инструмент угнетения белыми мразями негров, ущерба больше чем от всех нейроночек на убере. А вот у людей все иначе. В Японии когда делали автоматический поезд метро на нечетких контроллерах, с 1978 по 87 годы одних испытаний в реальных условиях было больше 3000, не считая всего остального. То, что теоретически все было строго обосновано, я вообще не говорю, это само собой разумеется.
Аноним 02/06/18 Суб 13:50:26 #317 №1201365 
>>1201356
>математика
Нахуй она нужна при строительстве моста?
>Японии
Хуевый пример, пездоглазы технологическое дно.
Аноним 02/06/18 Суб 14:02:31 #318 №1201378 
>>1201365
Если у тебя начались каникулы, это не значит что ты можешь гадить в интернетах, иди делай домашку на лето.
Аноним 02/06/18 Суб 14:04:29 #319 №1201381 
>>1201378
Анимедаун, плез. Пездоглазы даже в атом не могут.
Аноним 02/06/18 Суб 14:11:36 #320 №1201384 
>>1201381
У тебя Чернобыль бомбанул, ариец.
Аноним 02/06/18 Суб 14:22:20 #321 №1201398 
>>1201384
Да, ошибка из которой сделали выводы. Пездоглазы же ничего не сделают.
Аноним 02/06/18 Суб 14:30:20 #322 №1201412 
>>1201203
>А без этого не будет никакого внедрения, т.к нет желающих отвечать за последствия, если этот автономус вехикал кого-нибудь размажет по пешеходному переходу.
>>1201205
>Так вроде уже
>>1201234
>Недавно новость была, убер сбил тян, приняв её за мусор.

1. Нейронные сети, если в каком-то виде и присутствую в кибернетическим автотопозках, то за принятие решений не отвечают 100%.

2. Нейронные сети таких дурацких ошибок как тот убер не делают.

3. С помощью нейронки можно сделать некий алгоритм, и постфактум мдоказать все что угодно. Подкрутив руками если нужно параметры.
Или наоборот, взять готовый алгоритм, и докрутить ему нейронкой оптимальные параметры.
Аноним 02/06/18 Суб 21:35:12 #323 №1201707 
Посоветуйте книг по терверу и статам дауносаинтисту, чтоб там были были задачки, а не чистые формулы.
Аноним 02/06/18 Суб 21:36:29 #324 №1201709 
>>1201707
Вентцель, "Теория вероятностей"
Аноним 02/06/18 Суб 22:45:14 #325 №1201731 
>>1201236
>нельзя внедрять алгоритмы без доказательств их устойчивости
Может гугл поэтому и не пустил в массовое производство что-то подобное, а всяким уберам похуй.
https://habr.com/post/225095/
Аноним 03/06/18 Вск 08:23:38 #326 №1201833 
246x0w.jpg
>>1201236
>нельзя внедрять алгоритмы без доказательств их устойчивости
Людей же внедряют, а для них тоже нет никаких доказательств устойчивости
Аноним 03/06/18 Вск 15:23:26 #327 №1202018 
Признавайтесь, где пиздите пейперы?
Аноним 03/06/18 Вск 21:37:05 #328 №1202163 
ниче не понимаю, то ли метод монтекарлотирисерч не находит оптимальных ходов в крестикинолики, то ли я чего-то не понимаю.
Аноним 03/06/18 Вск 23:42:02 #329 №1202224 
>>1202163
>монтекарлотирисерч
че
Аноним 03/06/18 Вск 23:58:07 #330 №1202229 
>>1202224
MCTS . Но я обучаю рандомными ходами.
Аноним 04/06/18 Пнд 00:06:13 #331 №1202235 
>>1202229
Я похоже не совсем правильно понял принцип поиска оптимального хода. Т.е. уже на моменте обучения(игры меду двумя ботами) уже как-то надо использовать дерево, а я только и делаю что хожу рандомно и увеличиваю счетчики при выиграшном результате.
Аноним 04/06/18 Пнд 01:29:22 #332 №1202270 
>>1202235
Там же дерево капец маленькое. На простом неглубоком дэнсе даже можно решить.
Аноним 04/06/18 Пнд 02:18:27 #333 №1202291 
>>1202270
Это понятно, но я сейчас другое проверяю же. Можно и перебором делать.
Аноним 04/06/18 Пнд 03:21:57 #334 №1202306 
>>1202229
Что ты обучаешь? В МКТС ничего не обучается, это просто алгоритм игры, вроде альфа-бета поиска. Или ты с АльфаГо/АльфаЗеро перепутал?
Аноним 04/06/18 Пнд 03:29:13 #335 №1202307 
>>1202306
Алгоритм поиска оптимальных ходов, тогда уже, если для игры рассматривать. Когда мы настраиваем НС, то там тоже идет поиск оптимума.
Аноним 05/06/18 Втр 12:43:59 #336 №1203234 
Это норм?

https://github.com/llSourcell/Learn_Machine_Learning_in_3_Months
Аноним 05/06/18 Втр 18:22:11 #337 №1203443 
>>1200817
Решаешь Демидовича за каникулы и вкатываешься без задней мысли.

>https://youtu.be/MI83NiZbsFw
Аноним 05/06/18 Втр 18:42:02 #338 №1203448 
>>1203443
>Демидович
>для машинки
Лол. Это слишком жирно. Макака разочаруется ещё, что его макакство настолько лёгкое по сравнению даже с математикой 19-го века.
Аноним 05/06/18 Втр 19:17:01 #339 №1203470 
>>1203448
Что может быть сложного в конкретно изложенных примерах, если нет необходимости воссоздавать алгоритм?
Аноним 05/06/18 Втр 19:33:05 #340 №1203474 
>>1203470
Я не говорю, что Демидович сложен, я говорю, что там уровень выше. Не говоря уже о том, что он вообще слабое отношение к машобу имеет
>Что может быть сложного
Некоторым банально сложно привыкнуть к матану, не хватает усидчивости или сообразительности.
Аноним 05/06/18 Втр 19:35:53 #341 №1203475 
>>1203470
Демидович - это же залупа на угадывание, не? Весь челлендж - придумать хитровыебанное преобразование, которое сведёт пример к одному из каноничных типов
Аноним 05/06/18 Втр 19:41:03 #342 №1203478 
>>1203475
Ну да. Там есть задачи, которые сводятся к предыдущим задачам из него же. Он чисто на выдрочку матана направлен. Когда в универе решаешь сам, потом очень долгое время тебя хуй удивишь чем-то этаким на практике.
Аноним 05/06/18 Втр 19:43:56 #343 №1203481 
Если где то появляется маняматик, то это сразу превращается в говно.
Первая аксиома программирования
Аноним 05/06/18 Втр 19:44:19 #344 №1203482 
>>1203478
Хз, мне как раз из-за этого не вкатило. То ли я дурак, то ли фантазия не в ту сторону работает, но помнить наизусть все преобразования из тригонометрии, разложения рядов и ещё какую-только угодно залупу только для прорешивания задач мне не вкатило. Я семестр попердолился с ним, а потом на решебники перешёл.
Аноним 05/06/18 Втр 19:57:00 #345 №1203486 
>>1203474
>Не говоря уже о том, что он вообще слабое отношение к машобу имеет
В смысле? Там есть много значков суммы и интеграла.
Аноним 05/06/18 Втр 19:57:21 #346 №1203487 
>>1201412
>3. С помощью нейронки можно сделать некий алгоритм, и постфактум мдоказать все что угодно. Подкрутив руками если нужно параметры.
>Или наоборот, взять готовый алгоритм, и докрутить ему нейронкой оптимальные параметры.
Начнём с того, что ты не понимаешь смысла слова "доказать".
Аноним 05/06/18 Втр 19:58:14 #347 №1203488 
Может кто-то объяснить как работает градиентный спуск в нейронных сетях?
Аноним 05/06/18 Втр 20:08:22 #348 №1203496 
>>1203488
Прекрасно работает.
Аноним 05/06/18 Втр 20:14:50 #349 №1203501 
>>1203496
Как? Как, блять, эта ебола работает? Как найти градиент? Из чего? Является ли пространство размерностью колличества измерений выходного вектора скалярным пространством градиента? Пожалуйста помогите.
Аноним 05/06/18 Втр 20:18:50 #350 №1203504 
>>1203234
ну чекните а, норм чине? :C
Аноним 05/06/18 Втр 20:18:49 #351 №1203505 
>>1203501
Делай базу.
Аноним 05/06/18 Втр 20:19:33 #352 №1203507 
>>1203505
Какую базу?
Аноним 05/06/18 Втр 20:22:00 #353 №1203508 
>>1203504
Курсы MIT - ок, 3blue1brown хороший канал, но хз как в плане обучения чему-либо. Индус на втором месяце - странный выбор, видел пару его роликов, не сказал бы, что он прям охуенен для новичков. 3 месяц - нахуй, читай шапку.
Аноним 05/06/18 Втр 20:29:03 #354 №1203511 
>>1203507
В шапке все.
Аноним 05/06/18 Втр 20:38:46 #355 №1203519 
>>1203511
Шапка здесь бесполезна.
Аноним 05/06/18 Втр 20:43:19 #356 №1203523 
>>1203519
Как скажешь, дарагой! Медитацию попробуй.
Аноним 05/06/18 Втр 20:53:00 #357 №1203525 
>>1203508
а шо скажешь за курс по ML старого чела andrew ng? Сейчас еще в мете?
Аноним 05/06/18 Втр 20:56:35 #358 №1203529 
>>1203525
Про машоб не знаю, но смотрел несколько видео из курса Ына по диплёрнингу - по-моему, доходчиво объясняет.
Аноним 05/06/18 Втр 20:58:11 #359 №1203531 
image.png
>>1190173 (OP)
Вопрос по SDL 2. Юзаю Eclipse IDE с Mingw для крестов, но это не важно.

Крч, в SDL 1,2 можно было засунуть файлик динамической либы в папку сисвов64 и можно забить хуй, спокойно запуская приложения после билда, а не засовывать длл в каждый проект.

Я решил так же сделать с 2й версией SDL, но у меня вылезает пикрелейтед. Я чёт подустал и залипаю с шаманством, и мне интересно, ЧЯДНТ? Мне хочется по старинке. Есть предположение, что я юзаю 32битные либы SDL и засунул SDL2.dll в папку SysWoW64. То есть мне нужно или закидывать просто в system32 или менять разрядность либ, как я понял.

Вообще, поясните за необходимость юзания 32 и 64 битных либ. Есть какие-то нюансы, что юзают и на что идёт приоритет в разработках? Или можно забить хуй и спокойно юзать 64 битные?
Аноним 05/06/18 Втр 20:59:53 #360 №1203533 
>>1203531
В tf попробуй сделать.
Аноним 05/06/18 Втр 21:02:13 #361 №1203535 
>>1203501
Чем тебя не устраивает объяснение на педивикии? Один из простейших методов для поиска минимума, его студентам на 1-2 курсах дают.
Аноним 05/06/18 Втр 21:16:30 #362 №1203541 
>>1203535
Всем не устраивает. Не понимаю.
Аноним 05/06/18 Втр 22:03:22 #363 №1203585 
>>1203541
Что делать, значит ты просто слишком тупой.
Аноним 05/06/18 Втр 23:09:00 #364 №1203632 
>>1203585
Мне это все говорят, но это не правда. Я попросил объяснить. Наверное, надо было добавить что простым языком.
Аноним 05/06/18 Втр 23:11:34 #365 №1203634 
>>1203632
>Мне это все говорят, но это не правда.
как заорал

извини
Аноним 06/06/18 Срд 00:30:48 #366 №1203664 
>>1203487
>Начнём с того, что ты не понимаешь смысла слова "доказать".
Какие еще интимные подробности моей жизни известны школьному телепату?
Аноним 06/06/18 Срд 09:39:41 #367 №1203795 
Делаю Искусственный Интеллект. Нужно научить нейросеть считать. Как это лучше организовать?
Аноним 06/06/18 Срд 09:55:24 #368 №1203812 
>>1203795
Какой тебе ИИ, ты про регрессию не слышал, раз такие вопросы задаешь.
Аноним 06/06/18 Срд 10:01:02 #369 №1203821 
>>1203812
В чём смысл твоих высказываний? А если, например, нужно для тренировки своих навыков такое писать?
Аноним 06/06/18 Срд 10:02:25 #370 №1203824 
>>1203821
То соси хуй, быдло
Аноним 06/06/18 Срд 10:05:13 #371 №1203826 
>>1203824
Как передовая разработка идёт?
Аноним 06/06/18 Срд 10:07:18 #372 №1203828 
>>1203821
> В чём смысл твоих высказываний?
Каких конкретно? Твой вопрос >>1203795 сводится к регрессии, если ты этого не видишь, даже не знаю, о каком ИИ вообще может идти речь в твоем случае.
Аноним 06/06/18 Срд 10:07:23 #373 №1203830 
>>1203826
Просто охуенно идет, готовься.
Аноним 06/06/18 Срд 10:10:19 #374 №1203836 
>>1203828
Я мимо проходил. И нет, этот вопрос не всегда сводится к регрессии.
Аноним 06/06/18 Срд 10:20:02 #375 №1203845 
>>1203836
> этот вопрос не всегда сводится к регрессии.
Всегда сводится, солнышко. Вот только вы тута настолько дремучие деграданты, что не зная самых азов лезете пердолить слои в керас. Проблема только в построении адекватного задаче датасета. Даже семантику текстов можно свести к линейной алгебре и в итоге к регрессии, что было показано Миколовым в виде т.н. лингвистических регулярностей.
Аноним 06/06/18 Срд 10:22:23 #376 №1203846 
>>1203845
Маняматика ненужна, нахуй иди.
Аноним 06/06/18 Срд 10:25:40 #377 №1203849 
>>1203845
Ты рили дебил, если хочешь составлять адекватный датасет для такой задачи.
Аноним 06/06/18 Срд 10:28:28 #378 №1203850 
>>1203849
>>1203846
Это ты дебил, потому что не понимаешь вообще нихуя в том, куда пытаешься лезть. Использовать свое незнание как аргумент в споре - признак дегенерата.
Аноним 06/06/18 Срд 11:03:11 #379 №1203857 
>>1203850
Зато я ебал твою мамашу.
Аноним 06/06/18 Срд 11:13:32 #380 №1203865 
>>1203541
Да блять потихоньку меняешь веса в ту сторону, где ошибка убывает
Аноним 06/06/18 Срд 11:14:53 #381 №1203866 
>>1203845
>не зная самых азов лезете пердолить слои в керас
лол, это про меня
Аноним 06/06/18 Срд 13:02:11 #382 №1203909 
>>1203865
Каким образом? Для этого необходимо найти градиент. Но как можно найти градиент, если неизвестно где ошибка убывает?
Аноним 06/06/18 Срд 13:34:08 #383 №1203924 
>>1203909
>неизвестно где ошибка убывает
>градиент
Значение знаешь?
Аноним 06/06/18 Срд 13:36:20 #384 №1203925 
>>1203909
Ну ты када ошибку посчитал - вычисляешь веса, чтобы ошибка ноль была, потом вычитаешь эти веса из текущих - получается градиент. Делаешь так много раз - градиент накапливается.
Аноним 06/06/18 Срд 13:49:34 #385 №1203932 
>>1203909
А ты вообще понимаешь, что такое "градиент"? Не в машобчике, а вообще в принципе?
Аноним 06/06/18 Срд 13:55:56 #386 №1203936 
>>1203924
>>1203925
>>1203932
Идите нахуй, маняматики.
Аноним 06/06/18 Срд 14:00:18 #387 №1203939 
1527481281094.jpg
Когда мне становится грустно, я захожу почитать как пригорает у тупых макак которым надо объяснить простыми словами ненужную математику, потому что из-за такого пустяка не получается быстро перейти уже к воплощению гениальных идей о создании ИИ.
Аноним 06/06/18 Срд 14:03:40 #388 №1203940 
>>1203936
Тебя в детстве препод матана циркулем через Демидовича изнасиловал? Зачем ты так рвёшься каждый тред при любом упоминании математики?
И интересно, ты один, или вас несколько.
Аноним 06/06/18 Срд 14:09:06 #389 №1203941 
дебилыиматематика.jpg
>>1203940
Очевидно же.
Аноним 06/06/18 Срд 15:43:54 #390 №1203979 
>>1203939
>Отвечай мои вопросы
Вопрос то где?
Аноним 06/06/18 Срд 16:04:20 #391 №1203989 
>>1203924
Ну ёба. Я говорю тебе. Как градиент найти?
>>1203925
Ну охуеть. А какое заклинание чтобы веса правильные получались?
>>1203932
Что оно и есть. Сраный вектор, показывающий на локальный максимум скалярного пространства.
Аноним 06/06/18 Срд 16:06:37 #392 №1203990 
>>1203989
>локальный максимум функции в точке скалярного пространства
фикс
Аноним 06/06/18 Срд 16:28:50 #393 №1204003 
>>1203989
>А какое заклинание чтобы веса правильные получались?
Ну там есть какая-то умная формула, но на практике на нее забили хуй и считают упрощенно:
градиент=вход*ошибка
Аноним 06/06/18 Срд 17:00:40 #394 №1204028 
Насчет градиента.

Я правильно понимаю, что, когда его усредняют (для тысячи обучающих примеров например), то, усредняют именно дельты весов?
Ну то есть вот матрица, с усредненным градиентом, она равна матрице весов? И так для каждого слоя?
Аноним 06/06/18 Срд 17:25:22 #395 №1204043 
>>1204028
Усредняют градиенты одного батча, умножают на learning rate, и прибавляют к весам.
Аноним 06/06/18 Срд 17:47:30 #396 №1204055 
>>1204043
>Усредняют градиенты одного батча, умножают на learning rate, и прибавляют к весам.

Градиенты имеют ту же размерность что и веса?

То есть, нужно в 2раза больше памяти, и для весов, и для градиентов?
Аноним 06/06/18 Срд 17:59:52 #397 №1204064 
>>1203941
Просто математику преподают бездари.
Аноним 06/06/18 Срд 18:05:52 #398 №1204072 
Есть тут кто из тех, кто изучает машоб в вузах? Имеет смысл поступать в какой-нибудь Сколтех в магу?
Аноним 06/06/18 Срд 18:05:55 #399 №1204073 
>>1204064
Так и педагогов нет, если подумать. Я даже не уверен, есть ли такая специальность как педагогика для ВУЗов.
Аноним 06/06/18 Срд 18:17:27 #400 №1204092 
>>1204055
>Градиенты имеют ту же размерность что и веса?
да
>нужно в 2 раза больше памяти
лол, хочешь свой фреймворк написать для нейроночек?
Аноним 06/06/18 Срд 19:52:18 #401 №1204189 
sibo.jpg
>>1204092
>лол, хочешь свой фреймворк написать для нейроночек?
Может быть.
А что?
Аноним 06/06/18 Срд 20:20:32 #402 №1204212 
>>1204092
Подожжи. Градиенты имеют ту же размерность, что и веса одного нейрона или весь тензор весов всех нейронов?
Аноним 06/06/18 Срд 23:53:39 #403 №1204355 
>>1204189
На чём пишешь?
Аноним 07/06/18 Чтв 00:55:41 #404 №1204370 
>>1204355
>На чём пишешь?
Под OpenCL хочу.
Аноним 07/06/18 Чтв 02:14:06 #405 №1204386 
>>1204370
>OpenCL
Хех. Тебе случайно не за 50?
Аноним 07/06/18 Чтв 06:45:12 #406 №1204421 
>>1204212
всех весов
Аноним 07/06/18 Чтв 06:48:50 #407 №1204423 
>>1204386
Может, у него АМуДе и Винда. Я тоже думал такое написать, да чот лень.
Аноним 07/06/18 Чтв 09:39:36 #408 №1204461 
>>1204421
Тогда ещё больше непонятно как его вычислить.
Аноним 07/06/18 Чтв 10:05:53 #409 №1204473 
sibo01.png
>>1204386
>Хех. Тебе случайно не за 50?
А что?

Объясни пожалуйста.
OpenCL устарело и не модно?
Аноним 07/06/18 Чтв 10:09:16 #410 №1204475 
>>1204461
я тебе выше дал формулу, два числа перемножить >>1204003
Аноним 07/06/18 Чтв 10:12:36 #411 №1204478 
>>1204475
Ты же понимаешь, что это ну совсем не годится? Помимо того есть и другие формулы вычисления, гораздо более точные, чем просто ошибку со входом перемножить. Это же не только статистику убивает, но и весь функционал по пизде пойдёт.
Аноним 07/06/18 Чтв 10:13:25 #412 №1204479 
>>1204473
Да, пиши на крестах.
Аноним 07/06/18 Чтв 10:39:12 #413 №1204494 
077af93024f9b131137cdf046db9d1ea.jpg
>>1204461
>Тогда ещё больше непонятно как его вычислить.
https://ru.m.wikipedia.org/wiki/%D0%94%D0%B5%D0%BB%D1%8C%D1%82%D0%B0-%D0%BF%D1%80%D0%B0%D0%B2%D0%B8%D0%BB%D0%BE
Наркоман.
Аноним 07/06/18 Чтв 10:41:33 #414 №1204498 
1511285996164288166.jpg
>>1204479
>Да, пиши на крестах.
Из крестов как-то можно напрямую видеокарту использовать?
Аноним 07/06/18 Чтв 10:42:15 #415 №1204499 
>>1204498
Ну естественно. Даже на питоне можно.
Аноним 07/06/18 Чтв 11:08:57 #416 №1204513 
>>1204499
>Ну естественно. Даже на питоне можно.

Дай ссылочку щитоле, или объясни как гуглить.
Аноним 07/06/18 Чтв 11:23:22 #417 №1204518 
>>1204478
>есть и другие формулы вычисления, гораздо более точные
Ты поумничать решил, или что? Считай тогда по своим охуенным формулам, а нормальные люди считают как я описал
Аноним 07/06/18 Чтв 11:30:44 #418 №1204525 
>>1204513
C++ AMP, CUDA
Аноним 07/06/18 Чтв 11:38:06 #419 №1204529 
sibobydecepticoin-d9758nn.jpg
>>1204525
>CUDA
И причем тут C++?
И в чем отличие от OpenCL?

>AMP
И в чем отличие от OpenCL?
Кроме того, что это виндовс онли микрописька? Да еще протухшая 10 раз.

Ты потроллить решил?
Аноним 07/06/18 Чтв 11:41:19 #420 №1204531 
>>1204518
>а нормальные люди
По подьездам с пивандрием сидят и с таких как ты мобилы трясут.
Аноним 07/06/18 Чтв 11:51:22 #421 №1204532 
>>1204529
>причем тут C++
Потому что с её помощью можно писать на плюсах?
>в чем отличие от OpenCL?
Нет проёбов вроде того, как когда опенсиэль при встрече со сферическим объектом работает медленнее CPU. Нормально оптимизировано. Родная для невидии.

>протухшая 10 раз
Если АМП протухла 10 раз, то сколько раз уже протухла опенсиэль? В твоём фреймворке на древних иероглифах поди адаптивности для неподходящих под видеокарту команд нету?
Аноним 07/06/18 Чтв 13:46:01 #422 №1204642 
>>1204525
>C++ AMP
А на нём кто-то пишет? По бенчмаркам он вроде хуже OpenCL и CUDA был, да и люди начали носами воротить, мол, говно какое-то, как будто для APU сделано.
Аноним 07/06/18 Чтв 13:47:56 #423 №1204644 
135256006733.jpg
>>1204532
>Потому что с её помощью можно писать на плюсах?
Что ты несешь?

В куде свой сиподобный язык, как и в OpenCL
С++ причем? Зачем он?

В чем именно ты противопоставляешь C++ и OpenCL?
Ты понимаешь что C++ это ЯП, а OpenCL CUDA - это API?

>то сколько раз уже протухла опенсиэль?
Stable release
2.2-7 / May 12, 2018; 20 days ago

>В твоём фреймворке на древних иероглифах поди адаптивности для неподходящих под видеокарту команд нету?
Что сказать то хотел, юродивый?
Аноним 07/06/18 Чтв 13:48:15 #424 №1204645 
Кек, взял в шараге диплом с фильтром Калмана, а комиссия нос воротит - непонятно. Хотя разжёвано до мелочей, объяснения брал из MIT курса по cognivite science
Аноним 07/06/18 Чтв 13:53:40 #425 №1204652 
>>1204645
И в чем научная новизна твоего диплома?
Аноним 07/06/18 Чтв 13:58:09 #426 №1204657 
>>1204652
Там навигация по аскелерометру+камере, без предолингов с BLE/Wi-Fi и магнетометрами
Аноним 07/06/18 Чтв 13:58:53 #427 №1204659 
>>1204644
>20 days ago
Стоит полагать уже двадцать раз.
Аноним 07/06/18 Чтв 14:04:36 #428 №1204660 
>>1204657
Нот бэд. Зачем тогда в шараге учился? Будешь поступать на пхд?
Аноним 07/06/18 Чтв 14:13:53 #429 №1204668 
>>1204660
Я хочу в робототехнику, ИИ, вот это вот всё, но не знаю как подступиться. Местные клубы тупо склеивают китайские запчасти и копипастят питонокод. Я решил такую вот йобу попытаться сделать. Сначала чутка обосрался, потому что Xamarin - какое-то говнище ебаное, поэтому пришлось перекатиться на десктопный прототип, который пока будет работать по записанным данным. А тут ещё шарага проебала сроки оплаты и матлаб отвалился.
Аноним 07/06/18 Чтв 15:04:02 #430 №1204721 
>>1204645
>фильтр Калмана
А чего они? Это же один из инженерных стандартов.
>>1204668
>тупо склеивают и копипастят
Ну а ты что думал, у нас очень туго с этим хотя вонь про ии, робототехнику и цифровую экономику со всех щелей, мда. Либо дуй в топ вуз спб/мск, либо в европку, либо хуй соси.
Аноним 07/06/18 Чтв 15:17:04 #431 №1204728 
>>1204721
>стандарт инженерный
А кафедра математического моделирования. Обычно узкоспециализированные темы прокатывают, если у тебя какой-нибудь йоба-профессор из местного отделения РАН, но тут таким не занимаются, пришлось из молодых-шутливых аспирантов рецензента искать, лол.
>Либо дуй в топ вуз спб/мск, либо в европку
На европку я бы ещё собрал шекелей для магистратуру, но изначально в топ вуз я бы хуй поступил - в математике тупенький, олимпиады не задрачивал никогда.
Аноним 07/06/18 Чтв 15:33:47 #432 №1204743 
>>1204073
Закончили колледж и сразу идут учить математике.
Аноним 07/06/18 Чтв 15:39:01 #433 №1204750 
>>1204728
>тупенький
Ты уверен? Калман это не особо простая штука. Насколько помню, там и диффуры с устойчивостью знать надо, и в теорвере разбираться. Если ты, конечно, правда разобрался.
>олимпиады
Не нужны. В том же СПбГУ, если правильно помню, на матмехе есть кафедра кибернетики, а на примате - теории управления. Знакомые и без олимпиад поступали, 250-260 баллов, потом всегда можно перевестись на более крутое направление, сдав разницу тем более кафедра не зависит от направления обычно.
Аноним 07/06/18 Чтв 16:00:17 #434 №1204781 
>>1204750
>не особо простая штука
Хз, всё в той же работе из курса по Cognitive Science у MIT довольно просто объяснено. Там он конечно примитивный - том плане, что ориентиры рассматриваются по одному и до внесения новых в вектор состояния, но для начала - почему бы и нет?
>250-260
хехмда, у меня 181, если математика-русский-информатика и 193 если математика-русский-английский, так что я в любом случае в пролёте.
Аноним 07/06/18 Чтв 17:36:35 #435 №1204862 
>>1204668
> матлаб
Сам виноват что подсел на проприетарщину. Стандарт в области это питон или R, будущее может быть за джулией.
>>1204728
Есть куча стипендий, тем более для магистратуры. Университетские или из частных фондов (особенно если ты тян и пытаешься в STEM, тогда тебя ими просто завалят), если у тебя хорошие оценки, проекты и всякие участия в хакатонах от разных фирм (за лето вполне реально набить на десяток строк резюме) то с этим проблем не будет. Если проблемы будут, после поступления можно сказать что ты из нищей страны и тебе сделают скидку вплоть до полной суммы обучения. Всегда есть смысл пытаться в европку.
Аноним 07/06/18 Чтв 17:47:19 #436 №1204866 
Есть Один SVC из sklearn и он имеет привычку во время гридсерча нормально считаться до какого-то момента, а потом внезапно зависать на случайных параметрах и.. все, никаких подвижек, хотя все ядра процессора полностью загружены, оперативки достаточно. Что с ним не так?
Аноним 07/06/18 Чтв 18:25:57 #437 №1204880 
>>1204866
Нашел ответ https://datascience.stackexchange.com/questions/989/svm-using-scikit-learn-runs-endlessly-and-never-completes-execution
Аноним 07/06/18 Чтв 18:54:41 #438 №1204897 
>>1204880
Там нет единственно правильного ответа:
>2к 18
>SVM
Аноним 08/06/18 Птн 02:52:30 #439 №1205216 
>>1204897
Ещё одна жертва сойбойства от машоба. Что не так с svm? Вапник без бороды?
Аноним 08/06/18 Птн 20:39:52 #440 №1205892 
Где теорию по нейроночкам почитать? не по машобу, а конкретно по инс, а то на дипломе будут ебать.
Аноним 08/06/18 Птн 20:55:28 #441 №1205899 
>>1205892
Бишоп, "Neural networks for pattern recognition". Я на неё ссылался.
Аноним 08/06/18 Птн 21:05:59 #442 №1205902 
Где можно узнать про модели предсказания на рекурентных нейросетях?
Аноним 08/06/18 Птн 21:16:26 #443 №1205907 
>>1205902
В сети "Интернет".
Аноним 08/06/18 Птн 22:37:33 #444 №1205987 
15278523184280.jpg
>>1205892
> Где теорию по нейроночкам почитать? не по машобу, а конкретно по инс, а то на дипломе будут ебать.
Вся суть образованца. Пишет диплом по нейроночкам @ спрашивает, что почитать по теории.
Аноним 08/06/18 Птн 23:18:25 #445 №1206014 
>>1205987
Услышал в курилке, что другие студенты обсуждают нейроночки, решил что это круто, надо быть в тренде. Но разбираться, книжки какие-то там читать, я вам че батан чтоле? Голова не казенная, забивать ее всякой мутью. Код - 100 строк на тф - спастил из интернета, а теперь главное термины немного вызубрить, чтоб не завалили на защите.
Аноним 09/06/18 Суб 00:42:08 #446 №1206067 
loss.wtf.png
Что за хуйня у меня с лоссом? Почему он выглядит как будто туда прокрался ёбаный Зорро?
Аноним 09/06/18 Суб 01:11:35 #447 №1206077 
3463457.mp4
>>1206067
Аноним 09/06/18 Суб 07:27:56 #448 №1206108 
Ононче, какие там йобадостижения у нейроблядей за прследние полгода? Хочу почитать.
Аноним 09/06/18 Суб 07:54:14 #449 №1206112 
>>1206108
https://deepmind.com/blog/differentiable-neural-computers/
Аноним 09/06/18 Суб 17:18:00 #450 №1206424 
>>1206014
Олег Леонидович это вы?
Аноним 10/06/18 Вск 02:07:49 #451 №1206859 
sampleintersection.PNG
sampleintersectionregions.png
Привет, хипстерки коворкинговые.
Начал я тут задачу вот такую решать. Грубо говоря, выделить все все прямоугольники и их пересечения (могут и не пересекаться вовсе, а в разных частях располагаться + шум + разная жирность и контраст контуров и пр)

По началу на OpenCV ковырял: dilation, Hough transform, edge detection, medial axis, дальше топология и прочее старье.
Но попался на глаза Yolo и заставил задуматься. Пытаюсь понять, подойдет ли он тут вообще. Его тогда надо будет на тех кусках, что я красным выделил тренировать или еще как-то (меня эти части больше всего интересуют)? С учетом того, что корреляция между кусками может быть приличной, не будет ли слишком близкой вероятность обнаруженных регионов, так что и отличит их сложно будет?
Практики в ML пока 0, но всякие си с крестами и питонами пилил в продакшене годами. Глянул, что darknet их доступен, да и аналоги на tensorflow имеются.
В ту я вообще сторону смотрю или смузи в голову ударил просто?

Аноним 10/06/18 Вск 03:17:46 #452 №1206874 
>>1206859
Да тут вроде задача решается в лоб простым алгоритмом.
Находишь пересечения и углы, и по этому выводишь где там прямоугольник у тебя.

Раз у тебя там шум, и контуры, то вначале убираешь шум и боке.

Выкручиваешь в общем контраст, прогоняешь через филтр шарпнеса.

Ну а дальше тривиально.
Аноним 10/06/18 Вск 03:34:08 #453 №1206878 
>>1206859
Нейроночки помогут справиться с шумом и разной толщиной, правильно найти углы. Остальное лучше закодить.
Аноним 10/06/18 Вск 03:40:06 #454 №1206879 
>>1206874

Стоит отметить, что я упростил постановку. Там еще немало других типов объектов может появляться и не хочется для каждого искать свои features, крутить пороговые значения и пр.
Подумал, что тренить было бы проще, чем постоянно самому через эти тернии и по мере расширения датасета разных примеров отгрузить это все на откуп обучению.
Т.е. для начал бы хотелось пощупать нейросети на практике, но не уверен, что стоит тратить время на этой задаче. За сим ищу совета
Аноним 10/06/18 Вск 03:47:31 #455 №1206881 
edge1.PNG
edge2.PNG
edge3.PNG
edge4.PNG
>>1206878

Т.е. грубо говоря, мне тренировать на вот таких регионах (+ нагенерить разного масштаба для симуляции толщины + шума)?
Не будет ложных классификаций типа feature с учетом того, что у отдельных фрагментов высокая корреляция?
Аноним 10/06/18 Вск 04:05:01 #456 №1206885 
>>1192113
>манятеории матанопетушни
шизик на этих манятеориях твои интернетики и пекарни работают.
Аноним 10/06/18 Вск 04:08:37 #457 №1206886 
>>1192158
>Насчет Павлова
тото в совке так дрочили на Павлова что в открытие гемато-энцефалического барьера не верили. А ученую которая открыла засрали.
Аноним 10/06/18 Вск 04:11:48 #458 №1206887 
>>1206885
>шизик на этих манятеориях твои
Матанопетух, плез
Аноним 10/06/18 Вск 04:32:23 #459 №1206891 
un-apunte-en-torno05.jpg
>>1206879
>Стоит отметить, что я упростил постановку. Там еще немало других типов объектов может появляться и не хочется для каждого искать свои features, крутить пороговые значения и пр.
>Подумал, что тренить было бы проще, чем постоянно самому через эти тернии и по мере расширения датасета разных примеров отгрузить это все на откуп обучению.
>Т.е. для начал бы хотелось пощупать нейросети на практике, но не уверен, что стоит тратить время на этой задаче. За сим ищу совета

Ну ты бы определился нормально с задачей для начала.

Что у тебя там за волшебные объекты другие.

Если ты делаешь управление для пром процесса, то отдавать все на откуп нейронке не стоит.

Вот этот верно говорит. >>1206878

И тебе не очень то и нейронка нужна.
Обычный фильтр попиксельно прогонять.


>>1206881
>Т.е. грубо говоря, мне тренировать на вот таких регионах (+ нагенерить разного масштаба для симуляции толщины + шума)?
>Не будет ложных классификаций типа feature с учетом того, что у отдельных фрагментов высокая корреляция?

Ну ты что, хочешь чтобы было лучше человека?
Если там информации нет, так тебе никто кроме Аллаха не скажет угол там или черти православные.

Научись определять толщину в конце концов и уровень шума.

Если для тебя все это слишком сложно, попробуй обратится к кому-то для кого нет.

Готового всем известного решения для твоей конкретной задачи - нет.
Используй индукцию и придумывай свой алгоритм.

Аноним 10/06/18 Вск 08:56:14 #460 №1206910 
15272115924151.jpg
Как так получилось, что полно простейших задач, с которыми сойбойские технологии не справляются? Чуть в сторону от негров и котов и все, приехали.
Аноним 10/06/18 Вск 10:19:38 #461 №1206917 
>>1206910
>Как так получилось
Лол, рабочии технологии не выгодны буржуазии, ну это типа как водородный двигатель, альтернативная энергия и все такое.
Аноним 10/06/18 Вск 10:48:58 #462 №1206926 
>>1206910
Надо обучать нейроночкостроению в колледжах, тогда будет норм.
Аноним 11/06/18 Пнд 09:03:21 #463 №1207583 
https://arxiv.org/abs/1805.12177
Еще про обобщение CNN.
Аноним 11/06/18 Пнд 14:47:55 #464 №1207695 
Аноны, а как нормально сопоставить точки по дескриптору SURF? Быстрее, чем за O(N3) то есть. Даже с учётом знака лапласиана что-то пиздец долго получается - идём по первому списку, ищем лучшее соответствие из второго, а потом для лучшего соответствия надо проверить, нету ли уже ему лучшего соответствия из первого списка.
Аноним 11/06/18 Пнд 15:35:54 #465 №1207717 
image.png
Аноним 11/06/18 Пнд 17:46:38 #466 №1207810 
>>1207695
Скорее всего, тот алгоритм, который ты пытался описать, не работает. Идеальное сопоставление это задача присваивания, решается венгерским алгоритмом за О(N^3). Тебе скорее всего подойдет жадный алгоритм, каждый раз выбирающий лучшее присваивание, это О(N^2).
Аноним 11/06/18 Пнд 21:16:38 #467 №1207973 
>>1207810
>венгерским алгоритмом
Мне кажется тут немного другая задача - мало того, что матрица получилась бы неквадратной, так ещё и не гарантировано, что есть хоть одна пара.
Аноним 11/06/18 Пнд 22:25:11 #468 №1208006 
>>1207973
>матрица получилась бы неквадратной
Добавляй строки и/или столбцы, соответствующие отсутствию матча.
>не гарантировано, что есть хоть одна пара
Ограничивай вес совпадения снизу. Еслидва дескриптора совпадают меньше порогового значения - ставь вес меньше, чем вес отсутствия совпадения, чтобы эта пара никогда не была выбрана.
Аноним 12/06/18 Втр 07:57:30 #469 №1208139 
>>1208006
Блядь, какой же я дебил. Вместо перебора можно ведь и правда ебануть матрицу со всеми расстояниями между дескрипторами. Мозги уже совсем того, пора в крошку-картошку уже.
Аноним 12/06/18 Втр 11:43:25 #470 №1208231 
Имеет смысл сейчас читать книги по машобчику типа Бишопа, или уже устарело и трата времени?
Аноним 12/06/18 Втр 12:15:40 #471 №1208258 
15273662841820.png
>>1208231
> Имеет смысл сейчас читать книги по машобчику типа Бишопа, или уже устарело и трата времени?
Вы заебали со своим "устарело". Что там блять может устареть вообще? Вот с такими идеями, не зная даже линейной регрессии, сразу начинаете с сойбойского прохода в диплернинх и закономерно сасаете, т.к не имеете ни малейшего представления что вообще происходит.
Аноним 12/06/18 Втр 13:01:45 #472 №1208284 
>>1208258
Вопрос имеет ли смысл углубляться в классическое машинное обучение вместо дип лернинга. Так-то основы машобчика есть в книге из шапки, а я даже в градиентный спуск умею.
Аноним 12/06/18 Втр 14:43:28 #473 №1208331 
>>1208284
Зависит от задачи, порой диплернинг тащит, порой нет. Модель это тоже гиперпараметр.
Аноним 12/06/18 Втр 17:47:10 #474 №1208465 
>>1208284
В деталях разбирать устаревшее говно вроде SVM нет никакого смысла. Линейную регрессию неплохо бы разобрать. Бишоп устарел на 90%, сейчас он нужен только ради каких-то специфичных тем, вроде вероятностных моделей (на практике они не используются, впрочем). Никаких мифических "основ машобчика" там нет. Из старых моделей единственное что выжило это градиентный бустинг, про него в Бишопе нет ни слова.
Аноним 12/06/18 Втр 17:51:06 #475 №1208469 
>>1208465
Что тогда читать?
Аноним 12/06/18 Втр 17:54:14 #476 №1208470 
>>1208469
А что ты хочешь? После диплернингбук никаких откровений больше не будет. Читай статьи по интересующей тебя теме, если хочешь прям до переднего края доползти.
Аноним 12/06/18 Втр 17:55:57 #477 №1208474 
>>1208470
То есть можно только диплернинг буком обойтись? Перед этим читать ничего не надо (математику уже знаю)?
Аноним 12/06/18 Втр 17:56:10 #478 №1208475 
>>1208469
> Что тогда читать?
Что хочешь читай, кроме бреда от местных дуриков типа предыдущего оратора >>1208465 и диплернинхпука.
> устаревшее говно вроде SVM
Назовешь хоть один альтернативный SVM неасимптотически-эффективный алгоритм машоба?
Аноним 12/06/18 Втр 18:00:09 #479 №1208483 
>>1208474
Никакой особой "подготовки" к DLB не нужно, если ты об этом. Там даже в первой главе немного мат. аппарат описывают (недостаточно, конечно, но если ты два года хотя бы отучился в вузе, ты уже все необходимое знаешь).
Аноним 12/06/18 Втр 18:03:42 #480 №1208486 
>>1208483
>два года
>всё
Нет, теорвер и матстат чаще на третий курс пихают.
Аноним 12/06/18 Втр 21:02:12 #481 №1208605 
image.png
Объясните мне, в какой последовательности здесь выполняются
>application of the sum and product rules of probability
чтобы получилась вот такая формула:
Аноним 12/06/18 Втр 21:26:11 #482 №1208619 
>>1208605
Очевидно же. p(t|x, w)p(w|x,t) - умножение, а интеграл - суммирование, само уравнение записано в виде функционала.
Аноним 12/06/18 Втр 21:44:31 #483 №1208628 
>>1208619
Я примерно так и думал, но
>p(t|x, w)p(w|x,t) - умножение
Тут умножения в упор не вижу. Возможно мне трудо адаптировать классическую формулу P(A, B) = P(A|B)P(B) для многомерного случая.
Аноним 12/06/18 Втр 21:47:12 #484 №1208629 
>>1208628
> Тут умножения в упор не вижу
А так - p(t|x, w) * p(w|x,t) ?
Аноним 12/06/18 Втр 21:48:26 #485 №1208630 
>>1208629
Ебать ты тралебасер.
Аноним 12/06/18 Втр 23:56:42 #486 №1208730 
AI создал свой первый фильм, и это фильм ужасов

https://habr.com/company/pochtoy/blog/413867/
Аноним 13/06/18 Срд 00:18:50 #487 №1208745 
>>1208730
Имхо фейк. Сцены они надергали сами, "сюжет" тоже, прошлись рандомно по кадрам дипфейком.
Аноним 13/06/18 Срд 08:51:57 #488 №1208837 
>>1208628
p(t|x,w)p(w|X,T) = p(t,w|x,X,T), так как w зависит только от X и T.
Аноним 13/06/18 Срд 08:53:58 #489 №1208838 
>>1208629
Как ты звёздочку поставил?
Аноним 13/06/18 Срд 13:06:57 #490 №1208929 
>>1208628
>>1208838
Вы что, троллите? Знак умножения часто просто опускают, оно по умолчанию подразумевается.
Аноним 13/06/18 Срд 13:38:30 #491 №1208964 
>>1208929
> Знак умножения часто просто опускают, оно по умолчанию подразумевается.
К слову, этот факт еще в средней школе проходят. Это к вопросу уровня развития большинства тутошних горемык.
Аноним 13/06/18 Срд 13:41:58 #492 №1208971 
>>1208964
>оно по умолчанию подразумевается.
наркоман
Аноним 13/06/18 Срд 13:42:48 #493 №1208972 
>>1208838
>Как ты звёздочку поставил?

/
\

/*
Аноним 13/06/18 Срд 13:43:10 #494 №1208973 
школьник.webm
>>1208971
Класса до 5го доучишься, расскажут.
Аноним 13/06/18 Срд 13:43:23 #495 №1208974 
>>1208972
//
\\

//*
Аноним 13/06/18 Срд 13:43:41 #496 №1208976 
>>1208974
Аноним 13/06/18 Срд 13:45:24 #497 №1208981 
>>1208976
()(*)
Аноним 13/06/18 Срд 13:45:40 #498 №1208984 
>>1208981
*
Аноним 13/06/18 Срд 13:46:19 #499 №1208986 
>>1208973
vps - где умнажения а где vp или ps или vps?
Аноним 13/06/18 Срд 13:46:30 #500 №1208987 
>>1208838

звездочка три раза парсер лох пацаны нагибай макаку наебай.
Аноним 13/06/18 Срд 13:48:45 #501 №1208989 

*
Аноним 13/06/18 Срд 13:51:38 #502 №1208994 
>>1208745
Ты недооцениваешь мощь нейросетей.
Аноним 13/06/18 Срд 14:21:29 #503 №1209022 
Хотел, было, разжевать это опускание умножения, но такое уныние накатило от того, что надо объяснять такие вещи, пиздец просто.
Аноним 13/06/18 Срд 14:46:09 #504 №1209040 
>>1209022
правильно, вся эта маняматическая поебота нинужна
Аноним 13/06/18 Срд 15:55:36 #505 №1209086 
Новый тред? Новый тред.
Абу, блядина мразотная, я не пощу "слишком быстро"

ПЕРЕКАТ
>>1209084 (OP)
>>1209084 (OP)
>>1209084 (OP)
Аноним 14/06/18 Чтв 09:23:05 #506 №1209568 
>>1190173 (OP)
Вопрос к знатокам.

Хочу использовать colab не для обучения игрушечных моделей на mnist-е, а для чего-то более приближенного к реальности.

Соответственно, есть проблема: надо уместить датасет с фотографиями 224224 в количестве около 2 миллионов в этот самый cloab...

Как это сделать?

На ум приходят только генеративные модели...

Насколько реально воспользоваться DCGAN-ом для генерации изображений для подачи на вход обучаемой модели?

Есть ли предобученные GAN-ы, которые могут выдать что-то вроде imagenet в разрешении 224
224?
Аноним 14/06/18 Чтв 09:23:43 #507 №1209569 
>>1209568
Сук разметка поехала
Аноним 09/08/18 Чтв 20:14:07 #508 №1243766 
>>1192307
>таблетку от Альцгеймера
Внезапно, ЛСД
comments powered by Disqus

Отзывы и предложения