24 декабря Архивач восстановлен после серьёзной аварии. К сожалению, значительная часть сохранённых изображений и видео была потеряна. Подробности случившегося. Мы призываем всех неравнодушных помочь нам с восстановлением утраченного контента!

НЕЙРОНОЧКИ & МАШОБЧИК #12

 Аноним OP 19/02/17 Вск 20:27:20 #1 №936522 
148.jpg
evol.png
книги
Pattern Recognition and Machine Learning, Bishop.
Information theory, inference & learning algorithms, MacKay http://www.inference.phy.cam.ac.uk/itila/
Machine Learning: A Probabilistic Perspective, Murphy

Introduction to Statistical Learning ( http://www-bcf.usc.edu/~gareth/ISL/ISLR%20Sixth%20Printing.pdf )
Elements of Statistical Learning ( http://statweb.stanford.edu/~tibs/ElemStatLearn/printings/ESLII_print10.pdf )
Foundations of Machine Learning, أشهد أن لا إله إلا الله وأشهد أن محمد رسول الله. http://www.cs.nyu.edu/~mohri/mlbook/

Fundamentals of Neural Networks: Architectures, Algorithms, and Applications, Fausett L.

А. Пегат, "Нечёткое моделирование и управление"

другое
http://libgen.io / http://bookzz.org/ - здесь можно одолжить ^ книги и не только
http://arxiv.org/find/all/1/all:+nejronochki/0/1/0/all/0/1
https://www.reddit.com/r/MachineLearning/wiki/index

https://vk.com/deeplearning и http://deeplearning.net/reading-list/
https://www.kadenze.com/courses/creative-applications-of-deep-learning-with-tensorflow/info тюториал по slesarflow
http://rgho.st/8g68fTCSx две брошюры по deep learning для слесарей.

http://kaggle.com - весёлые контесты. денежные призы
https://www.hackerrank.com/domains/ai/machine-learning/difficulty/all/page/1 - олимпиадки

курс от китаёзы
http://videolectures.net/mlss09uk_cambridge/

яп
1. http://julialang.org/
2. https://www.microsoft.com/en-us/research/project/infernet/
3. https://www.r-project.org/
4. питухон и так все знают
5. idris/coq - модные яп для формально верифицированных нейроночек с тренировкой на этапе компиляции

ПЛАТИНА
Книги хорошо, но с чего начать практический вкат?
Во-первых, вам нужна любая unix-based система. На Windows возможно запустить нижеперечисленное, но ждите пердолева с настройкой и неодобрительных взглядов анонимуса. Кроме того, в компаниях, так или иначе связанных с разработкой йоба-ПО и machine learningом, Linux/OS X является стандартом. Привыкайте.
Во-вторых, определитесь с языком. Python и C++ наиболее мейнстримовые инструменты, с ними вы без еды не останетесь. Есть еще R, на котором пацаны живут статистикой и анальными пакетами. Некоторые инструменты являются языко-независимыми (Vowpal Vabbit, XGBoost), но обвязывать их вы все равно будете из какой-либо среды.
На Java разработано много production-ready инструментов для бигдаты и если вы угораете по терабайтам данных, то имеет смысл посмотреть в её сторону. Впрочем, лучше это делать уже потом, когда прийдет осознание потребностей.
В-третих, выбирайте себе задачу. Что угодно: распознать качпу, обнаружить ботов по логам, найти раковых больных. Список можно посмотреть, например, на kaggle.com. После чего приступаете к решению выбранной задачи.

Не прийдется ли мне потом с таким наборищем знаний идти в макдак работать?
Несмотря на хайп вокруг ML, далеко не во всех IT компания есть необходимость в ML и понимание круга задач, которые можно решить этими методами. Но поверьте, в 2017 компетентный специалист будет востребован. В России потребителями ваших знаний могут стать: Яндекс, Mail.ru, Вконтакте, Rambler, Касперский, Билайн, Связной, ABBYY, Хуавэй. В биоинформатике есть определенный спрос, можно поскролить http://blastim.ru

Здорово, но я так и не понял чем же вы занимаетесь в IT компаниях?
Попытаюсь ответить со своей колокольни и сразу хочу предупредить, что это едва ли консенсуальное мнение.
ML-специалист - это такое зонтичное определение для человека, способного увидеть проблему, выгрепать кучу логов и данных, посмотреть на них, придумать решение проблемы и врезать это решение его в продакшн. По сути, это кодер, решающий не чисто технические, а, в некотором роде, человеческие проблемы.
Имхо, мы все же остаемся в первую очередь разработчиками.

Что такое TensorFlow?
TensorFlow - опенсорсный гугловый инструмент для перемножения тензоров и оптимизации функционалов. Опенсорсный - потому что даже важные куски типа параллелизации уже выкачены в паблик. Если вам все ещё непонятно что это, значит это вам и не нужно, сириусли. Google перестарался с рекламой и теперь люди думают, что TF - это серебряная пуля и затычка для каждой бочки. До TF был Theano, который выполнял свою работу не хуже. И, в отличии от TF, он уже находится в стабильной фазе.

будет ли ML нужен в ближайшие 10 лет, или это просто хайп?
будет. хайп.

смогу найти работу?
Яндекс, мейлру, касперский, несколько биоинформатических компаний (iBinom, можно еще blastim.ru поскролить на тему работы), билайн (они с НГ целое подразделение открыли под ML и биг дату), связной. Ну и западные аутсорсы, если готов рачить за валюту.

нужна математика?
для начинающего ничего особого знать не нужно
https://www.amazon.co.uk/Calculus-Michael-Spivak-x/dp/0521867444
https://www.amazon.co.uk/dp/0534422004/ref=pd_lpo_sbs_dp_ss_2?pf_rd_p=569136327&pf_rd_s=lpo-top-stripe&pf_rd_t=201&pf_rd_i=0980232716&pf_rd_m=A3P5ROKL5A1OLE&pf_rd_r=3TZ38AZ2BY28R19H4SA5
https://www.amazon.co.uk/Calculus-Several-Variables-Undergraduate-Mathematics/dp/0387964053
https://www.amazon.co.uk/Introduction-Probability-Dimitri-P-Bertsekas/dp/188652923X
"основы теории вероятностей" Вентцель

поясните за нейроночки
нейроночка - массив

шад)))
Нет там ничего ML-специфичного, знание матана и теорвера на уровне заборостроительного вуза. Теорвер проходится на третьем курсе, как раз 20 лет.
Рандомный хрен туда не сможет поступить, потому что планка намеренно задрана, а не потому что там такая охуенно сложная программа. Это традиционная наебка "элитных учебных заведений", в которой учат так же хуево, как и везде, но за счет отбора поступающих якобы формируются неебовые успехи, которые объясняются именно качеством преподавания.
Иными словами, у тех, кто способен поступить, и так в жизни проблем с трудоустройством не будет.

Тред #1: https://arhivach.org/thread/147800/
Тред #2: https://arhivach.org/thread/170611/
Тред #3: https://arhivach.org/thread/179539/
Тред #4: https://arhivach.org/thread/185385/
Тред #5: https://arhivach.org/thread/186283/
Тред #6: https://arhivach.org/thread/187794/
Тред #7: https://arhivach.org/thread/196781/
Тред #8: https://arhivach.org/thread/209934/
Тред #9: https://arhivach.org/thread/223216/
Тред #10: https://arhivach.org/thread/234497/
Тред #11: https://arhivach.org/thread/240332/
Аноним 19/02/17 Вск 20:30:44 #2 №936525 
Как создать ИИ?
Аноним OP 19/02/17 Вск 20:32:27 #3 №936529 
>>936525
сначала надо выбрать хороший приор
Аноним 19/02/17 Вск 20:35:59 #4 №936532 
>>936529
Я в монахи могу уйти.
Аноним 19/02/17 Вск 21:04:46 #5 №936555 

Оп пиздатый)
Аноним 19/02/17 Вск 21:15:45 #6 №936560 
А где YOBA ML?
Аноним 19/02/17 Вск 21:57:33 #7 №936619 
Подскажите, что почитать по статистике, чтобы понимать картинку (правую) с оп-пика.
Аноним 19/02/17 Вск 22:12:20 #8 №936642 
>>936619
https://www.amazon.co.uk/Introduction-Probability-Dimitri-P-Bertsekas/dp/188652923X
Аноним 20/02/17 Пнд 13:20:02 #9 №937011 
>1ый пик
Оп-хуй, SVM и RVM - это теория статистического обучения, а у тебя они в разных местах.
Аноним 20/02/17 Пнд 13:23:36 #10 №937014 
>>937011
ну так подвинь
Аноним 20/02/17 Пнд 16:22:28 #11 №937114 
коско.jpg
Раз тут триггерятся с Коско, запощу крайнюю работу сенсея http://sipi.usc.edu/~kosko/FCM-jdms-January-2017.pdf моделирование с помощью динамических нечетких когнитивных карт. На предмет выявления процессов в обществе, приводящих к поддержке населением повстанцев и террористов (на примере алькайды и т.п. басмачей). Чувствуете размах мысли, черви? Это вам не утопленников с титаника классифицировать.
Аноним 20/02/17 Пнд 16:25:12 #12 №937119 
112560.jpg
>>937114
Чувствуем :D
Аноним 20/02/17 Пнд 16:30:02 #13 №937126 
1001826351.jpg
>>937114
>>937119
Шизофреники из СССР.
Аноним 20/02/17 Пнд 16:32:05 #14 №937127 
blob
гуманитарий какой-то. писатель-юрист
а по мл есть чего? нейроночки там, рандомфорест?
Аноним 20/02/17 Пнд 16:48:14 #15 №937132 
>>937127
>гуманитарий какой-то.
Наркоман? Математик он, ученик Заде (создатель теории нечеткизх множеств).
>по мл есть чего?
Разумеется. Статьи http://sipi.usc.edu/~kosko/publications.html Книги конкретно мо МЛ: http://gen.lib.rus.ec/book/index.php?md5=BC1EC0F44F2E619AB46D6FD0B7088514 http://gen.lib.rus.ec/book/index.php?md5=CCC0771774E761EB91EE2019A244305B http://gen.lib.rus.ec/book/index.php?md5=032DFEB66357FA8EA32545E271375CE6
Аноним 20/02/17 Пнд 17:14:04 #16 №937144 
blob
>>937132
ну ты понел
Аноним 20/02/17 Пнд 17:23:56 #17 №937152 
>>937144
Я в курсе, что он что-то типа систем наведения ракет для военных разрабатывал, есть у него работы, спонсировавшиеся то ли НАСА, то ли пентагоном, не помню. Возможно, в тридцать с небольшим лет директором исследовательского института его посадили не просто так, а за некоторые успехи в этом направлении. И что, это что-то плохое?
Аноним 20/02/17 Пнд 22:17:21 #18 №937299 
Вот вы жесткие парни, хочу быть как Вы!!
Аноним 20/02/17 Пнд 23:43:19 #19 №937329 
>>937126
Что не так с книгой на пике? Хочу почитать, но руки никак не доходят.
Аноним 21/02/17 Втр 00:07:55 #20 №937343 
Только начинаю вкатываюсь в ML/Deep learning. Пишу диплом по задаче ABSA (Aspect Based Sentiment Analysis). И сейчас возникла сложность с входным слоем нейронной сети. Существует ли способ подачи входных данных переменной длины? Или же остается довольствоватся вектором полученным моделью doc2vec.
Аноним 21/02/17 Втр 00:34:36 #21 №937351 
>>937343
Гугли recurrent neural network.
Аноним 21/02/17 Втр 18:57:17 #22 №937768 
Аноны, хочу вкатиться в МЛ, сейчас 3-й курс Боуманки. прошел курс Эна, Байесовской вероятности, еще один курс по МЛ, запилил пару ноутбуков по заданиям с кеггла, распознавания изображений и бота с ЛСТМ.
Что делать дальше? Пилить еще или искать работу?
И где вообще искать работу? На ХХ одни вакансии для сениоров и мидлов, а для студентов ничего нету, только один Тинькофф и одна консалтинговая компания.
Аноним 21/02/17 Втр 19:04:47 #23 №937774 
чегоблядь.webm
>>937768
>запилил пару ноутбуков по заданиям с кеггла,
Аноним 21/02/17 Втр 19:11:45 #24 №937780 
>>937774
kaggle.com
https://ipython.org/notebook.html
Аноним 21/02/17 Втр 19:18:03 #25 №937785 
>>937768
смогу найти работу?
Яндекс, мейлру, касперский, несколько биоинформатических компаний (iBinom, можно еще blastim.ru поскролить на тему работы), билайн (они с НГ целое подразделение открыли под ML и биг дату), связной. Ну и западные аутсорсы, если готов рачить за валюту.
Аноним 21/02/17 Втр 23:15:49 #26 №938080 
DL bingo.png
C пылу с жару бинго по моим впечатлениям о Deep Learning Book (на восьмой главе пока).
Аноним 21/02/17 Втр 23:24:00 #27 №938089 
>>938080
а как же классика "the proof is left as an exercise to the reader"?
Аноним 21/02/17 Втр 23:27:16 #28 №938093 
>>938089
Этого нет, обычно пишут вывод формулы.
Аноним 21/02/17 Втр 23:42:19 #29 №938106 
>>937343
можно просто найти самое длииное предложение, а остальное забить словами-филлерами (<Null> какой-нибудь)
Аноним 22/02/17 Срд 14:29:01 #30 №938451 
blob
https://cloudplatform.googleblog.com/2017/02/GPUs-are-now-available-for-Google-Compute-Engine-and-Cloud-Machine-Learning.html
Аноним 22/02/17 Срд 14:42:36 #31 №938458 
Снимок.PNG
еврей4.jpg
Ясно-понятно, зачем форсится вся эта диплернинг-хуитка с конскими системными требованиями. Ну а кому кластеры впаривать, если алгоритмы можно гонять хоть на тостере.
Аноним 22/02/17 Срд 14:49:14 #32 №938463 
>>938458
нос, пощади!
Аноним 22/02/17 Срд 15:11:57 #33 №938472 
>>938458
В смысле? Ты раскрыл тайный замысел Nvidia в том, чтобы продать побольше карточек? А то, что у тебя после долгого обучения запускать сеточки можно на тех же тостерах тебя не смущает? Я уж и не говорю, что нейронки решают свой спектр задач достаточно эффективно.
Аноним 22/02/17 Срд 15:18:01 #34 №938474 
Снимок.PNG
https://hh.ru/vacancy/19212127
Смотрите, что я нашел
Аноним 22/02/17 Срд 15:42:30 #35 №938490 
>>938474
Чет требования какие-то не охуевшие даже. Тыщи полторы заявок будет. Как на стипендию Фулбрайт в США, только место одно, а не 30. Ну может два, если "команде понравишься".
Аноним 22/02/17 Срд 15:43:47 #36 №938493 
>>938474
Но яндекс все равно ни во что кроме рекламы не может. Какие беспилотные автомобили, к чему этот цирк?
Аноним 22/02/17 Срд 15:49:13 #37 №938500 
>>938493
Убер делает, Гугль делает, а Яндекс чем хуже? Типа в Яндекс-такси заюзать можно. Даже если и не взлетит (все-такие ученые делятся на два типа, первые - автономные машинки через 5 лет везде и всюду, вторые - полная 100% автономия при жизни ваших внуков. Ближе к их старости. Если повезет.), то побочные результаты неплохие будут. Можно даже кому-нить подать, тому же Уберу, например.
Аноним 22/02/17 Срд 15:54:49 #38 №938507 
>>938474
Чуваки, не изобретайте заново Robotic Operating System.
Аноним 22/02/17 Срд 17:44:32 #39 №938574 
>>938500
>Гугль делает, а Яндекс чем хуже?
Ты сам-то понял, что пытаешься сравнить, лол? Сколько сделал гугл по МЛ, а сколько яндекс?
Аноним 22/02/17 Срд 20:23:48 #40 №938700 
>>938574
Не исключаю, что Яндекс сделал несколько годных МЛ спецов. Которые ушли в гугл.
Аноним 22/02/17 Срд 20:24:39 #41 №938701 
Суп! Есть ли тут NLP-аноны? Поясните за GATE. Нужна ли эта хуйня сейчас, когда есть куча готовых встраиваемых библиотек?
Аноним 22/02/17 Срд 23:26:33 #42 №938835 
Йоу, приветики!!!
Хочу спросить про эти курсы ->

https://www.coursera.org/learn/vvedenie-mashinnoe-obuchenie

https://www.coursera.org/learn/neural-networks

Норм курсы? Отпишитесь кто проходил, а то я нюфажек((((
Аноним 22/02/17 Срд 23:52:31 #43 №938860 
>>938835
на курсере есть спецуха по мл от мфти - яндекса

а в введении нихуя не поймешь
Аноним 23/02/17 Чтв 00:17:14 #44 №938884 
>>938701
NLP-дебил в треде, сам не юзал, но думаю, что не хуже всяких распиаренных spacy.io и прочего, так как все библиотеки довольно-таки ерундовые.
Аноним 23/02/17 Чтв 03:22:10 #45 №938980 
14641285437781.jpg
Через неделю иду на собеседование в контору, где на C++ херачат нейронки. Что могут спросить? Какие знания нужны в первую очередь?
Меня интересуют в первую очередь C++related вопросы, а не вопросы на общее знание нейронок.
Аноним 23/02/17 Чтв 06:42:19 #46 №939003 
>>938980

Иди нахуй, тупарь.
Аноним 23/02/17 Чтв 10:54:42 #47 №939060 
>>938980
std::algorithm и что-то из буста.
Аноним 23/02/17 Чтв 11:05:56 #48 №939072 
>>938884
Не, я имею в виду, зачем вообще юзать такие программы с графическим интерфейсом, если все задачи а ля NER решаются встраиванием в код библиотек?
Аноним 23/02/17 Чтв 11:09:54 #49 №939076 
Алсо читаю про машинный перевод и не могу понять, в чём разница между RBMT (основанный на правилах подход) и деревом решений. То есть почему Decision Tree это классификатор, машоб и всё такое, а применение всяких лексиографических паттернов это не машоб, хотя суть одна и та же?
sageАноним 23/02/17 Чтв 13:32:42 #50 №939177 
>>939076
> RBMT
забиваешь правила в ручную

а деревце само выводит правила

деревце - искуственный интеллект а рбмт - нет
деревце тебя заменит а рбмт - врядли
Аноним 23/02/17 Чтв 13:33:05 #51 №939179 
Аноним 23/02/17 Чтв 13:59:51 #52 №939213 
Как школьнику начать вкатываться в ваш ML?
Аноним 23/02/17 Чтв 14:00:42 #53 №939216 
>>939177
Спасибо, понел. Только ведь придётся каждый раз для нового правила обучающую выборку размечать, да и ветви отсекать кому-то надо - без работы не останусь.
Аноним 23/02/17 Чтв 14:02:04 #54 №939221 
я вам вакансию на мачин лернинг принес.
матан матан, кругом матан
https://moikrug.ru/vacancies/1000031944
Аноним 23/02/17 Чтв 14:15:33 #55 №939239 
>>939221
И где ты там матан увидел?
Аноним 23/02/17 Чтв 14:17:29 #56 №939243 
>>939239
тройной интеграл в конце страницы же
Аноним 23/02/17 Чтв 15:58:37 #57 №939339 
>>939060
Буст для нейронок активно юзается?
Аноним 23/02/17 Чтв 16:09:23 #58 №939347 
183372b4[1].jpeg
Котаны, есть одна нейронка. Имплементацию алгоритмов обучения писал сам (там обычный Back Prop и Resilient Back Prop/Rprop ).
Сеть должна выполнять классификацию, то есть один из выходных нейронов равен 1, остальные 0.
Алгоритм старательно уменьшает RMSE, отдавая на всех выходах 0 (т.е. RMSE будет sqrt(1/N) ). Как с этим бороться?

Back Prop ведёт себя точно также. На Rprop перешёл, потому что думал, что он избавит меня от такой ерунды.
Аноним 23/02/17 Чтв 16:20:29 #59 №939353 
>>939347
>Имплементацию алгоритмов обучения писал сам
скорее всего ты где-то обосрался с реализацией
Аноним 23/02/17 Чтв 16:24:26 #60 №939355 
чегоблядь.webm
>>939347
>RMSE будет sqrt(1/N)
С какой стати? Там же считается ошибка между фактическим выходом и тем, что считает нейроночка при текущих параметрах. Исходя из чего параметры правятся. Этот прав походу >>939353
Аноним 23/02/17 Чтв 16:25:56 #61 №939356 
>>939353
Допустим, я мог обосраться с RProp. Но как можно обосраться с обычным обратным распространением ошибки, которое скоро даже в школах начнут преподавать, настолько оно простое?
Аноним 23/02/17 Чтв 16:28:49 #62 №939357 
>>939355
> С какой стати?
Ну вот смотри. У тебя есть собаки, кошки и гуси.
Собака — 1й нейрон
Кошка — 2й
Гусь — 3й

Я подаю входные параметры. Для собаки и 1 на 1й нейрон и нули на 2й и 3й. Нейронка, обучившись, подаёт на все три выхода нули. Получаем
sqrt((sqr(1 - 0) + sqr(0 - 0) + sqr(0 - 0)) / 3 ) = sqrt(1/3)

Нет, я не картинки пытаюсь классифицировать, задача другая, это просто пример
Аноним 23/02/17 Чтв 16:31:25 #63 №939360 
>>939213
bump
Аноним 23/02/17 Чтв 16:32:16 #64 №939361 
>>939360
Слушай других школьников https://www.youtube.com/watch?v=bvZnphPgz74
Аноним 23/02/17 Чтв 16:37:51 #65 №939366 
>>939356
баг, опечатка, невнимательность
ты давно программируешь?
Аноним 23/02/17 Чтв 16:38:39 #66 №939367 
>>939366
14 лет
Аноним 23/02/17 Чтв 16:40:05 #67 №939368 
>>939367
а покажи код?
Аноним 23/02/17 Чтв 16:44:34 #68 №939373 
>>939368
http://pastebin.com/BLcNtuSF
На специфику типа HyperTan и SoftMax не обращай внимания, они тут временно, я с эталоном пытаюсь сравнить.
На error_index тоже. И на то, что у меня malloc в C++ коде
Аноним 23/02/17 Чтв 16:56:06 #69 №939379 
>>939373
Посмотри, как на сях нейроночки писали http://www.ibiblio.org/pub/academic/computer-science/neural-networks/programs/Aspirin/quickprop1.c
Аноним 23/02/17 Чтв 17:11:00 #70 №939393 
>>939361
Хотелось бы с нуля начать вкатываться. Тем более воспринимать устную речь на ангельском очень тяжело.
Аноним 23/02/17 Чтв 17:29:53 #71 №939408 
>>939393
в шапке полно, собранных потом и кровью, ресурсов для нюфагов
бери, читай, смотри
нет блять
> Как школьнику начать вкатываться в ваш ML?
Аноним 23/02/17 Чтв 17:30:02 #72 №939409 
Это, а есть какое-то строгое обозначение нейроночек? Типа не романтическое "там же нейроны, как в мозгу", а с графиками и всем этим. Но при этом дабы для новичков.
Аноним 23/02/17 Чтв 17:41:43 #73 №939420 
>>938980
красивая писечка
Аноним 23/02/17 Чтв 17:48:34 #74 №939425 
>>939409
https://habrahabr.ru/post/322392/
Аноним 23/02/17 Чтв 17:55:58 #75 №939432 
>>939409
нейроночка - массив
Аноним 23/02/17 Чтв 17:57:16 #76 №939434 
Я таки не понял. Когда нейроночка уже обученная и готовая к использованию, то при своем использовании она будет жрать не так уж и много ресурсов?
Аноним 23/02/17 Чтв 17:57:55 #77 №939435 
>>939434
да
Аноним 23/02/17 Чтв 18:00:48 #78 №939440 
Вот забыл термин для такой задачи, как прогнозирование следующего слова в тексте. Конечно, можно и статически, но не используют ли для этого крутые нейроночки и так далее? Как называется такое прогнозирование следующего слова?
Аноним 23/02/17 Чтв 18:09:22 #79 №939448 
blob
>>939440
predicting next word in text
Аноним 23/02/17 Чтв 18:40:27 #80 №939472 
>>939440
n-gram prediction
Аноним 23/02/17 Чтв 18:49:23 #81 №939479 
>>939373
Мдэ. В общем, где-то очень хитрый баг, который сложно аллоцировать. У меня с оригиналом на C# не сходится. Пошагово отлаживал.

Но на back prop это поведение с занулением выходов всё равно остаётся, там негде ошибиться
Аноним 23/02/17 Чтв 19:00:00 #82 №939481 
Lsi9qYI.jpg
>>938980
Я смотрю тут охуенные спецы по МЛ сидят. Никто даже не знает что используется для нейронок на практике.
Аноним 23/02/17 Чтв 19:03:26 #83 №939485 
Так что по поводу этого курса?
https://www.coursera.org/learn/neural-networks
Аноним 23/02/17 Чтв 19:08:14 #84 №939490 
>>939481
>нейронок на практике
а от этого нейроговна рзве есть практичаская польза?
Аноним 23/02/17 Чтв 19:11:05 #85 №939492 
1432255009001.png
>>939490
От говна в твоей голове нет пользы, а от нейронных сетей есть.
Аноним 23/02/17 Чтв 19:16:23 #86 №939495 
>>939492
и где же?
Аноним 23/02/17 Чтв 19:21:01 #87 №939500 
Так, что никто не знает почему именно такие числа в массиве с нейроночками, а не другие?
Аноним 23/02/17 Чтв 19:29:52 #88 №939508 
>>939408
Там же математики много сложной, а я даже не знаю, что такое производная.
Аноним 23/02/17 Чтв 19:31:31 #89 №939510 
>>939500
всем похуй, нейронки хуйня без задач
Аноним 23/02/17 Чтв 19:34:50 #90 №939513 
>>939508

Ты дебил?
для начинающего ничего особого знать не нужно
https://www.amazon.co.uk/Calculus-Michael-Spivak-x/dp/0521867444
https://www.amazon.co.uk/dp/0534422004/ref=pd_lpo_sbs_dp_ss_2?pf_rd_p=569136327&pf_rd_s=lpo-top-stripe&pf_rd_t=201&pf_rd_i=0980232716&pf_rd_m=A3P5ROKL5A1OLE&pf_rd_r=3TZ38AZ2BY28R19H4SA5
https://www.amazon.co.uk/Calculus-Several-Variables-Undergraduate-Mathematics/dp/0387964053
https://www.amazon.co.uk/Introduction-Probability-Dimitri-P-Bertsekas/dp/188652923X
"основы теории вероятностей" Вентцель

А лучше уйди, нейронки это не твое, блять, ТЫ ДАЖЕ ШАПКУ ПРОЧИТАТЬ НЕ МОЖЕШЬ)))) Куда ты лезешь блять.
Аноним 23/02/17 Чтв 19:36:50 #91 №939514 
>>939508
Ты же блять хуй положишь на мл сразу после того как откроешь любую из выше предложенных книг,
ибо сука, ТЫ ЛЕНИВОЕ ХУЙЛО.
Аноним 23/02/17 Чтв 19:39:33 #92 №939515 
>>939513
>Слушаешь посанов на двачах
>Решаещь вкатиться
>Открываешь Бишопа
>Охуевашь только от первых джвух глав.
>Откладываешь Бишопа на потом.
Аноним 23/02/17 Чтв 19:45:35 #93 №939519 
Это конечно здорово, но почему нет ИИ?
Аноним 23/02/17 Чтв 19:47:12 #94 №939521 
>>939519
>Это конечно здорово, но почему нет ИИ?
о5 на связь выходишь
Аноним 23/02/17 Чтв 20:11:33 #95 №939540 
>>939521
Возможно.
Аноним 23/02/17 Чтв 21:05:45 #96 №939574 
Хочу запилить классификатор для тематического моделирования. Буду использовать word2vec. Как лучше измерять расстояние между векторами: косинусной мерой или Евклидовой/Манхеттенской метрикой?
Аноним 23/02/17 Чтв 21:50:00 #97 №939623 
То есть я могу сделать следующее: 1) взять сложный по ресурсам алгоритм, вычислить заранее 2) обучить нейросеть на многих входных данных и многих результатах. Оно там найдет скрытые закономерности 3) Я смогу просто добавить в готовую программу массив и небольшой код, таким образом сделав хитрую оптимизацию?

Или нет?

И как я понимаю никакого debug'а сделать нельзя и таким образом будет сделан черный ящик, который хитро непонятно умножает входные данные получая результат?
Аноним 24/02/17 Птн 00:34:13 #98 №939759 
>>939574
Начни с Евклидовой, а там переходи на
http://ojs.pythonpapers.org/index.php/tppsc/article/view/135/144
Аноним 24/02/17 Птн 00:37:46 #99 №939763 
>>939623
Кто мешает достать массив синапсов после обучения?
%Или я не понял вопроса вообще...%
Аноним 24/02/17 Птн 01:22:53 #100 №939790 
>>939485
говно. И там преподают только back prop
Аноним 24/02/17 Птн 01:22:59 #101 №939791 
>>939623
да
может быть удобно для приближения всяких сложноебучих непрерывных численных функций
на дискретной хуите типа сортировок особо работать не будет
у нечёткого петуха на этот счёт могут быть другие соображения
Аноним 24/02/17 Птн 02:23:54 #102 №939824 
>>939485
мне нравится, я думаю, вкатиться не смогу, так как ленивый и старый, но тут все классно разжевано для тупых и без всякой болтологии, и после этого я сам могу в тетрадочке производные считать, до него бился очень долго бился в конвульсиях, так как, чтоб прочитать бишопа, нужно выучить кучу всего другого, а когда открываешь советский учебник по линалу, они меня насилуют гомологиями колец
Аноним 24/02/17 Птн 04:13:39 #103 №939868 
>>939347
https://habrahabr.ru/post/155235/
> Эта модель актуальна при задаче классификации, когда необходимо получить на выходе нейросети вероятности принадлежности входного образа одному из не пересекающихся классов. Очевидно, что суммарный выход сети по всем нейронам выходного слоя должен равняться единице (так же как и для выходных образов обучающей выборки)
Аноним 24/02/17 Птн 06:40:10 #104 №939894 
>>939759
Спасибо, годная статья!
Аноним 24/02/17 Птн 06:42:33 #105 №939895 
>>939623
настройка гиперпараметров и есть дебаг. любой алгоритм надо настраивать под свои данные
Аноним 24/02/17 Птн 11:20:22 #106 №939969 
В человеческом мозгу обучение с подкреплением или еще что?
Аноним 24/02/17 Птн 16:28:34 #107 №940152 
>>939969
в мозгу это по-другому работает. Там есть нейромедиаторы и всякое такое
Аноним 24/02/17 Птн 17:16:46 #108 №940186 
Мозг - массив?
Аноним 24/02/17 Птн 17:34:10 #109 №940196 
Мне показалось, или в этой теме КИТАЙЦЫ, КИТАЙЦЫ ЭВРИВЕА?
Аноним 24/02/17 Птн 19:44:54 #110 №940259 
>>940196
不是!设立没有中国人们!
Аноним 24/02/17 Птн 20:04:45 #111 №940272 
Собственно, если у меня какая-то психболезнь, я могу как-то помочь во всем этом?
Аноним 24/02/17 Птн 20:24:04 #112 №940287 
>>940272
Нейронные сети, которые здесь обсуждаются - математические объекты, которые были изобретены в 60-х на основе исследований реальных нейронов и их способности кооперироваться, на основе попыток дать этому явлению математическое описание. К биологическим нейронам это теперь никакого отношения не имеет.
Помочь (своей болезнью?) может и можно, но это к людям, изучающим мозг.
Аноним 24/02/17 Птн 20:32:45 #113 №940298 
Граница. Видят русские по утру: китайцы картошку сажают. Вечером выкапывают.
- Новый сорт скороспелый?
- Нет, отсень кусать хосется
Аноним 24/02/17 Птн 21:00:00 #114 №940322 
>>940298
Ну, знаешь, кем я только ни работал! Я и санитаром могу, и строчка ровная получается. Еще мальчиком, бывало, стульчик мастерил и с профессором Банщиковым вместе обходы делали. Все вот так сидят, а я говорю, и конгруэнтно все получается. А потом в мавзолее все таскали тюки, тяжелые такие. Я в гробу лежу, руки вот так держу, а они все таскают и складывают. Все говорят: мол, заграница нам поможет, а я и здесь работать акушером могу. Столько лет уже в парке Горького роды принимаю… ну, там мальчики, девочки… Плодики вынимаем и складываем. А то, что повара делают, это тоже нужно, ведь наука — это величайший путь к прогрессу...
Аноним 24/02/17 Птн 21:17:39 #115 №940332 
Подкиньте схемы мозга
Аноним 24/02/17 Птн 22:04:21 #116 №940376 
>>940332
ау вась тебе к когнитивистам
Аноним 24/02/17 Птн 23:18:03 #117 №940402 
>>940332
оп пик
Аноним 24/02/17 Птн 23:53:07 #118 №940437 
>>940332
у сибя в сраке смотри, хех
Аноним 25/02/17 Суб 12:56:38 #119 №940660 
>>939623
Если использовать именно нейроночки, то да, черный ящик получишь. Если черный ящик не нужон, а требуется именно понимание работы идентифицируемой системы, т.е. каким образом в ней выходы зависят от входов, то нужны более другие подходы. Их много, реально. Как сторонник нечетких методов, могу сказать что связка "универсальный нечеткий аппроксиматор + представление готовой модели в виде, доступном для экспертной оценки человеком" один из лучших вариантов, есть даже готовые решения, например https://sourceforge.net/p/guajefuzzy/wiki/Home/ вообще, финграммы крайне недооцененный метод, статья про них например https://pdfs.semanticscholar.org/15bc/80fdd1ce2293ebebae031c099be8587a755d.pdf
Аноним 25/02/17 Суб 14:09:31 #120 №940717 
hqdefault[1].jpg
>>940660
> более другие
Аноним 25/02/17 Суб 18:53:36 #121 №940918 
>>938860
Двачую Воронцов просто математикой валит на убой.

Как стать слесарем то?
Аноним 25/02/17 Суб 19:06:38 #122 №940928 
>>940918
>Как стать слесарем то?
Очевидно же - игнорировать всяких воронцовых. По делу у него все равно хуй да нихуя. Я еще раз спрошу - с какой стати считать что яндекс может в МЛ? Ни одной причины для этого просто нет.
Аноним 25/02/17 Суб 19:19:39 #123 №940935 
>>940660
что это еще за кал от испанских недоучек? неужели среди всего разнообразия действительно толковых работ, ты нашел именно это амно.. печаль
Аноним 25/02/17 Суб 19:21:35 #124 №940936 
>>940935
>среди всего разнообразия действительно толковых работ, ты нашел именно это амно
Ты знаешь аналоги такого?
Аноним 25/02/17 Суб 19:24:11 #125 №940938 
>>940928
ну они там что-то делали с генерацией стихов Летова (сдержанный смех). Еще можешь посмотреть конфу, где они приглашали аж самого Миколова. Вопросы в конце конфы доставили ппц, в яндексе походу аутисты работают
Аноним 25/02/17 Суб 19:26:21 #126 №940939 
>>940936
нет, но я знаю еще одну гавнотеорию, которую пушат в нашем вузе, однако что-то не вижу ажиотажа.
Читать надо людей, работы которых используются на практике ну или тех, кто на слуху. Миколоф, Сутскевер, Голдберг, Леви, Карпатый, Янг, Чен нутыпонел
Аноним 25/02/17 Суб 19:29:40 #127 №940941 
>>940939
>Читать надо людей, работы которых используются на практике ну или тех, кто на слуху.
Я тебя понял, распиаренное значит лучшее.
Аноним 25/02/17 Суб 19:47:17 #128 №940959 
>>940941
ты сам такой вывод сделал, если ты считаешь основоположников современных нероночек распиаренными, то флаг в тебе в руки.
Аноним 25/02/17 Суб 19:53:38 #129 №940966 
>>940959
Ты ж сам это пишешь.
>если ты считаешь основоположников современных нероночек распиаренными, то флаг в тебе в руки.
Речь шла об интерпретируемости модели, полученной в процессе идентификации системы. Что об этом пишут распиаренные основоположники современных нейроночек (сверточных, т.е., единственных из известных местному большинству)?
Аноним 25/02/17 Суб 20:07:01 #130 №940977 
>>940966
а, сорян, "посмотрел в книгу, увидел фигу".
я думал о другом.
Аноним 25/02/17 Суб 21:23:03 #131 №941025 
>>939508
Иди на академию хана, там все объясняют на видео, для совсем олигофренов, весь школьный калькулюс, векторный калькулюс университетский - вообще всё. Прослушаешь - сможешь давать всем на клык на матане, вплоть до третьего семестра универа.
Аноним 25/02/17 Суб 21:55:52 #132 №941040 
>>940928
У дипломников воронцова из пистеха вполне неплохие дипломные работы.
Аноним 26/02/17 Вск 14:24:54 #133 №941455 
https://www.youtube.com/watch?v=AZG0j0pNY-4
ААА зачем я это посмотрел. Все эти "хьюмэн брэйн, нейроночка решает идти на ПАТИ или нет" я блюю от этого всего.

Дайте теперь тогда книжку с жестким матаном, но дабы там было абсолютно все о нейросетях.
Аноним 26/02/17 Вск 14:49:21 #134 №941483 
Не могу понять простейшую вещь, объясните пожалуйста - зачем данные делятся на три выборки?
Тренировочная выборка - это понятно. Мы подаем ее данные на вход и выход, изменяются веса сети, т.е. выборка непосредственно влияет на сеть.
Дальше validation стадия - для чего она? Пишут, что мы с ее помощью выбираем самую удачную модель из нескольких - имеется в виду, после каждой итерации? Где-то сказано, что валидационная выборка влияет на выбор гиперпараметров обучения - каких именно, и как влияет?
Затем используется выборка test, для определения ошибки итоговой модели. Почему для нее нельзя использовать данные валидационной выборки? Ведь сеть её не запоминала?
Аноним 26/02/17 Вск 15:13:09 #135 №941495 
Где можно почитать об обратном распространении ошибки в сверточных нейронных сетях?
Аноним 26/02/17 Вск 15:20:39 #136 №941500 
>>940928
С того, что почти все вещи, от того, какую рекламу крутить кому и заканчивая тем, как тебе искать в сети требуют этого. Есть вполне работающий бустинг на деревьях + какие-то сетки, которые используются пока в-основном как факторы бустинга.
source: работаю там.
Аноним 26/02/17 Вск 15:28:08 #137 №941506 
Снимок.PNG
>>941483
Без внешних выборок по отношению к тренировочной, ошибка на тренировочной выборке просто упадет до нуля и все. При этом тестовые данные будут классифицироваться вообще никак, при том что соответствуют той же системе, что и тренировочные. Что соответствует переобучению (oferfitting).
>>941500
>Есть вполне работающий бустинг на деревьях + какие-то сетки, которые используются пока в-основном как факторы бустинга.
Враппер под хгбуст, в лучшем случае. Ни сам бустинг, ни что угодно другое, относящееся к бустингу, не было создано в яндексе.
Аноним 26/02/17 Вск 15:35:45 #138 №941516 
>>941483
Вот смотри: пусть у нас три подвыброки train, validation и test. Когда ты кормишь свой алгоритм трейном, он подбирает какие-то свои параметры (веса для нейроночек, по каким факторам бить для деревьев, например), но кроме тех параметров, которые алгоритм может подобрать сам есть еще гиперпараметры. Гиперпараметры - все, что есть вокруг модели, даже саму модель можно считать гиперпараметром, они по сути отличают несколько конкретных моделей из одного семейства (пару нейронок по количеству слоев, например). Для примера: в нейроночках ты можешь менять количество слоев, их размер, их типы, learning rate, regularisation rate, количество шагов до остановки (early stopping) - это все гиперпараметры, которые сама модель не подбирает, а подбираешь ты на основе validation подвыборки.
Так как ты когда выбираешь гиперпараметры сам отталкиваешься только от train и validation подвыборок, то ошибка, которую ты будешь получать на этих подвыборках будет занижена (на train - алгоритм может переобучиться, на validation - ты сам, когда будешь подбирать гиперпараметры под него), потому чтобы узнать настоящую точность алгоритма тебе нужна последняя подвыборка test, которую ты трогаешь только в самом конце и поэтому не можешь на ней переобучиться.
Аноним 26/02/17 Вск 15:43:38 #139 №941526 
>>941483
А вообще, все же есть в педивикии https://en.wikipedia.org/wiki/Overfitting
Аноним 26/02/17 Вск 15:44:33 #140 №941527 
>>941506
Судя по вики, первый релиз xgboost в 2014 году, первые коммиты в местные деревья я нашел в 2009 (учитывай тоже, что в Я были переезды с контролем версий и т.п.). Категоричность твоих убеждений удивляет и огорчает меня.
Аноним 26/02/17 Вск 15:53:53 #141 №941542 
>>941527
Значит, не конкретно под хгбуст. Про бустинг Вапник еще в 1995 году писал, ссылаясь на пейпер 1990 года. "Казалось бы, при чем тут Лужков яндекс" как говорится.
>Категоричность твоих убеждений удивляет и огорчает меня.
Ну извини уж, что вижу то и пишу. Рекламу от яндекса вижу ежедневно чуть ли не в каждом утюге, а вот про какое-то МЛ-специфичное ПО от них даже не слышал (полтора враппера на гитхабе - не показатель).
Аноним 26/02/17 Вск 16:02:42 #142 №941555 
>>941542
> Про бустинг Вапник еще в 1995 году писал
Ты наркоман что ли? Я не говорю, что в Я изобрели бустинг (xgboost тоже хорош не статьей, а тем, что он открытый и работающий), я говорю, что в Я есть реализация работающая быстро и без переобучения с простым интерфейсом: залил пулы с данными - получил классификатор.
> вот про какое-то МЛ-специфичное ПО от них даже не слышал (полтора враппера на гитхабе - не показатель).
Все ПО, которое тебе что-то саджестит (поиск, реклама, Дзен) использует внутри себя МЛ достаточно активно. То что в опенсорс не выкладывается связано с политическими (в Я это не поддерживается потому что тратит время и не приносит прибыль) и техническими (все ПО написанное завязано на внутренние библиотеки) причинами.
Аноним 26/02/17 Вск 16:14:59 #143 №941567 
>>941555
>То что в опенсорс не выкладывается связано с политическими (в Я это не поддерживается потому что тратит время и не приносит прибыль)
Приносит на самом деле. Просто в вашей конторе менталитет уровня прошлого века, "нельзя впарить = не приносить прибыли". Стал бы Маск релизить gym и universe, а Брин выкладывать в паблик Слесарьфлоу, если бы это было простой потерей времени и не приносило пользы? Нет, конечно. Просто они умные и понимают, что прибыль можно получить не только впариванием, но и более хитрыми многоходовочками (выложил свободную МЛ-библиотеку, пропиарил ее - с ней ознакомились полтора миллиарда индусов - несколько из них активно коммитят и развивают проект нахаляву + пишут работы в тему, набивая тебе индекс цитирования + защитились на пхд и к тебе же пришли работать, уже зная тему вдоль и поперек, итого ценные кадры в годные прибыльные стартапы).
Аноним 26/02/17 Вск 16:40:45 #144 №941581 
>>941567
Ты забываешь, что компании бывают разными. OpenAI - финансируется и не торгуется на бирже, Google - тратит деньги и овладевает новым рынком, Я так не может (банально денег сильно меньше). Задачи Я - делать продукты и воевать на уже существующих рынках в других странах, а не глобальная экспансия и миллионы индусов (подумай, сколько придется потратить на маркетологов только). Про опенсорс и привлечение людей Бобук кстати в предпоследнем Радио-Т говорил тоже на примере MS.
Аноним 26/02/17 Вск 16:53:13 #145 №941588 
>>941506
>>941516
Это все мне понятно. Если на тренировочной выборке ошибка упала до нуля - значит сеть обучилась, или же запомнила картинки (что, в принципе, одно и то же, но разный уровень генерализации).
Затем мы подаем валидационную выборку. Получаем некое значение ошибки, естественно, бОльшее, чем при тренировке. Дальше что с ним делаем? Точнее, что делает с ним фреймворк?
Например, я экспериментирую с caffe. Архитектура модели (число слоев и т.п) в процессе обучения не меняется. learning rate и алгоритм его изменения задается на запуске (фиксированный, экспонента, и другие). Количество шагов остановки - это число итераций, да? Вроде там фиксированное всегда.
Насчет regularisation rate только не уверен. Вот и спрашиваю, как используется validation loss.
Аноним 26/02/17 Вск 17:05:29 #146 №941601 
>>941588
Как я понимаю, ты подкручиваешь гиперпараметры и смотришь, упал или поднялся validation loss. Когда достиг минимально возможной, то смотришь окончательную оценку модели на тестовой выборке.
Аноним 26/02/17 Вск 17:09:46 #147 №941609 
>>941581
А зачем Яндекс выложил в опенсорс Томиту?
Аноним 26/02/17 Вск 17:12:01 #148 №941612 
>>941588
Параметры модели настраиваются до тех пор, пока ошибка на тренировочной выборке не начинает расти (что свидетельствует о переобучении). На картинке >>941506 же вся суть. Первая кривая это и есть validation loss. Там показан момент оптимальной остановки дальнейшей настройки параметров.
Аноним 26/02/17 Вск 17:14:23 #149 №941615 
>>941612
Теперь понял, спасибо
Аноним 26/02/17 Вск 17:23:58 #150 №941621 
>>941609
Мне сложно сказать, также как зачем выложили ClickHouse, но общая политика Я - не выкладывать.
Аноним 26/02/17 Вск 18:32:34 #151 №941696 
Господа, кто-нибудь работал с датасетами movielens?
Попытался сделать регрессионную модель для предсказания оценок (через SVM), получил MAE ~ 0.86, что довольно хреново (столько же дает обычная user-based коллаборативная фильтрация).
Вопрос в модели, что нужно брать собственно за X_i.
Я брал вектор, который представляет собой конкатенацию юзер признаков и муви признаков, вроде
пол + возрастная категория + профессия + наиболее_нравящиеся_жанры + жанры фильма.
Все признаки кодировал через битовые вектора, напр, пол для мужчин 1 0 для женщин 0 1 и т.д.
Где я сильно неправ?
Для мувиленса хорошая MAE - ниже 70, вроде.
Аноним 26/02/17 Вск 18:43:52 #152 №941709 
>>941696
Попробуй deepboost'ом каким-нибудь.
Аноним 26/02/17 Вск 19:26:50 #153 №941770 
>>941696
А почему ты используешь конкатенацию? Мне кажется, какие-то признаки более значимы, а какие-то менее значимы, и надо присваивать им веса.
Аноним 26/02/17 Вск 19:28:28 #154 №941775 
>>941770
По идее, веса будут присвоены во время обучения.
Аноним 26/02/17 Вск 19:47:33 #155 №941810 
>>941495
ПОЧЕМУ НИКТО НЕ ОТВЕЧАЕТ НА МОЙ ОТВЕТ?
Аноним 26/02/17 Вск 19:51:19 #156 №941817 
>>941810
Потому что у тебя ответ какой-то наркоманский. Очевидно же, что почитать можно там же, где и про сверточные сети вообще. Лекуна читай.
Аноним 27/02/17 Пнд 08:58:22 #157 №942121 
>>936522 (OP)
котаны, добавьте в шапку http://neuropro.ru/

там хорошие статьи на русском есть. Причем там не переводы, а авторские статьи.
http://neuropro.ru/mypapers/krasnneu04_4.pdf вот например "РЕДУКЦИЯ РАЗМЕРОВ НЕЙРОСЕТИ НЕ ПРИВОДИТ К ПОВЫШЕНИЮ ОБОБЩАЮЩИХ СПОСОБНОСТЕЙ"
http://www.neuropro.ru/memo17.shtml О пригодности любой нелинейной функции нейронов


http://se.math.spbu.ru/SE/YearlyProjects/2014/YearlyProjects/2014/344/344-Korystov-report.pdf и вот эта курсовая тоже прикольная
Аноним 27/02/17 Пнд 11:38:40 #158 №942169 
>>942121
>Это сайт Виктора Царегородцева − здесь я предлагаю услуги по анализу данных
Пиар параши. Впрочем, как и шад, но всем похуй почему-то.
Аноним 27/02/17 Пнд 13:23:05 #159 №942218 
Поясните, пожалуйста, за всякие там AIXI и машины Геделя простым языком.
Аноним 27/02/17 Пнд 14:35:11 #160 №942254 
>>942169
ну окей, тогда я ещё и это закину

https://www.youtube.com/channel/UCKFojzto0n4Ab3CRQRZ2zYA
https://www.youtube.com/channel/UCNuItlOR3qXZBtMRwb4GoBg

на обоих есть про машинное обучение
Аноним 27/02/17 Пнд 15:20:36 #161 №942293 
Brouwer.jpg
>>942218
>простым языком.
Подход к машобчику с единственно верной стороны, а именно - конструктивной математики. Колмогоровская сложность, вероятность Мартин-Лёфа, индукция Соломонова, вот это все. Пикрелейтед еще в 1907 году пояснил, почему вычислимая математика на основе построимых математических объектов - единственный путь не скатиться в кризисы и парадоксы. Нет, не хотим. Хотим веровать во всякую невычислимую хуету а-ля закон исключенного третьего. В итоге вне конструктивного подхода кризис оснований до сих пор не победили, но до некоторых таки дошло, что без конструктивизма и правда никуда, в итоге таки начали работу над конструктивными основаниями - НоТТ. В машинном обучении та же история - еще в 60х годах кукарекали, что нужно немного потерпеть и будет ИИ. Напридумывали кучу алгоритмов, а толку - хуй. Картинки кое-как научились классифицировать, к 2017-то году. И опять понемногу приходит понимание, что без конструктивизма никуда. Ну, лучше поздно, чем никому. Глядишь, так и победят.
Аноним 27/02/17 Пнд 15:36:02 #162 №942300 
>>941817
Я что-то не понял, обратное распространение ошибки на сверточном слое происходит также как и в обычном слое нейросети?
Аноним 27/02/17 Пнд 17:17:37 #163 №942365 
> конструктивной математики
нахуй сьебируй
Аноним 27/02/17 Пнд 17:20:35 #164 №942367 
>>942365
Но все алгоритмы как явление вообще - это конструктивная математика.
Аноним 27/02/17 Пнд 17:23:51 #165 №942371 
>>942367
даже аллах математика, лол. как же матанопитухи заебали все своей петухатикой обмазывать.
Аноним 27/02/17 Пнд 17:26:13 #166 №942373 
>>942371
Аллах как раз не математика. А насчет алгоритмов - смирись, это математика в чистом виде. Все машинное обучение в частности.
Аноним 27/02/17 Пнд 17:27:25 #167 №942375 
>>942367
з.ы. напиши мне алгоритм распознования геометрических фигур, петухатику ты знаешь, матаппаратом владеешь, удачи.
Аноним 27/02/17 Пнд 17:28:19 #168 №942376 
>>942373
то то нихуя я смотрю там не работает
Аноним 27/02/17 Пнд 17:31:58 #169 №942377 
>>942373
>алгоритмов - смирись, это математика в чистом виде
рецепт яичницы тоже математика?
Аноним 27/02/17 Пнд 17:44:55 #170 №942387 
>>942377
А то. Конструктивная функция как она есть, подаем на вход ингредиенты, производим над ними необходимые действия, получаем на выходе продукт.
Аноним 27/02/17 Пнд 18:44:49 #171 №942430 
>>942387
а что тогда не матан? почему кулинария не раздел математики? понапридумали наук всяких
Аноним 27/02/17 Пнд 19:11:20 #172 №942450 
loss.jpg
Элементарно же все, хуяк хуяк и сошлось
Аноним 27/02/17 Пнд 20:53:13 #173 №942493 
Я решил сначала написать мини игру, а потом в ее мирке тренировать сети. Ибо познавать сети на примере абстрактной хуеты типа распознавания картинок мне влом
Аноним 27/02/17 Пнд 21:14:57 #174 №942510 
>>942293
В чем суть конструктивной математики? Только без баззвордов.
Аноним 27/02/17 Пнд 22:32:13 #175 №942550 
Ну хуй знает аноши, что-то я приуныл, не осиливаю я. Что делать? Продолжить изучать для души, или дропать?
Может разжую еще...
Блять блять, сложна нахуй.
Аноним 27/02/17 Пнд 23:17:33 #176 №942593 
11902-n19.png
У меня есть 2 вопроса:
1. Я провожу кластеризацию на реальных данных, как мне оценить качество кластеризации? Я нашел пейпер, в котором сводка всяких оценочных статистик, но там приводится слишком много разных вариантов, дайте самый мейнстримный.
2. Я провожу кластеризацию на тестовом наборе данных, где уже есть референсный столбец с разбиением на классы, как в таком случае быстро оценить качество?
Аноним 28/02/17 Втр 01:45:32 #177 №942697 
blob
blob
blob
blob
>>942510
нельзя доказывать по индукции/от противного
лишние ограничения
секта короче
Аноним 28/02/17 Втр 01:54:03 #178 №942700 
>>942593
байесовские методы есть простой фреймворк со встроенной оценкой моделей методами современной теории вероятностей (вместо устаревших методов нечёткой логики)
в бишопе в 10 главе есть пример кластеризации с вариационным бейсом
алсо инклюдед автоматический вывод количества кластеров

>>942550
дропай, нахуй тебе это?
Аноним 28/02/17 Втр 09:01:23 #179 №942780 
Посоны, есть какие-то на гитхабе может готовые решения чтобы особо не вникая создать что-то вроде парсера фотографий и страниц в вк на основе нейросетей?
Хочу простенький скрипт для себя сделать для создания базы тянучек которые мне нравятся для дальнейшего спама им в личку с целью поебаться.
Знаю таких проектов кучу было, раньше натыкался на обсуждения подобного.
Аноним 28/02/17 Втр 12:10:43 #180 №942884 
Нейраны, посоветуйте, пожалуйста, метод для кластеризации, который позволяет самостоятельно найти оптимальное количество кластеров, а не задавать их в качестве начальных данных.
Я так понимаю, что мне нужно деревьями обмазываться?
Аноним 28/02/17 Втр 12:11:54 #181 №942885 
>>942780
Воловиц, залогинся.
Аноним 28/02/17 Втр 12:26:42 #182 №942888 
Попытался въехать в тему интереса ради. Без математики нехуй ловить.
В школе я ебланил, институт не профильный, а самому изучить можно, но уж больно дохуя: освежить функции, теорию пределов, дифференцирование, итегральная поеботина как минимум.
Фееричная расстановка точек над глубоким обучением Аноним 28/02/17 Втр 12:53:56 #183 №942905 
deeplearning.jpg
Блё, аноны, зачем вы пытаетесь вкатиться в это болото ебаное? Сам два года на работе обучаю нейросетки (компьютор вижн), уже сил нет читать псевдонаучные статьи с тремя формулками и ссылками на гитхаб с неработающим говнокодом (каффе с кастомными слоями сам себя не построит, построил, построй еще раз). От фразы Deep Learning, произнесенной с индусским акцентом, уже передергивает. Чувтсвую, что за это время очень сильно отупел, как в плане каких-то математических знаний, так и в CS в целом.
Аноним 28/02/17 Втр 13:14:47 #184 №942919 
>>942884
-> >>942700

>>942888
>>942905
кул стори бро
Аноним 28/02/17 Втр 14:36:40 #185 №942970 
NLP-аноны, почему вообще бутстрэппинг работает? Разве от такой хуйни не будет переобучения? Зачем тогда использовать классическое обучение с огромными размеченными документами, если можно просто дать маленькую выборку, и классификатор сам найдёт нужные признаки?
Аноним 28/02/17 Втр 15:19:51 #186 №943003 
>>942780
С помощью openface за ночь сделал автолайкер для тиндера. В целом идея простая, openface представляет возможность преобразовать фотку в feature vector, то есть сам найдет лицо на картинке, пропустит его через нейроночку и выдаст тебе набор цифр. Далее этот вектор уже можно использовать как хочешь, например, каждое новое лицо проверять на близость к тем, что есть в базе, можно скормить PCA или t-SNE и смотреть на кластеры того, что тебе нравится.
Вот код докерфайла и скрипта, который позволяет получать representation vector с помощью HTTP API: http://pastebin.com/9gaP2iwW
Остальную обработку можно вести вне докерфайла.

Чтобы запустить надо вызвать /root/openface/demos/web/start-servers.sh внутри контейнера, далее запрашивать API как-то так.

def get_rep(image):
img_str = base64.b64encode(image)
data = {'image': img_str}
r = requests.post("http://localhost:8000/search", data=data)
return r.json()

Проблема в том, что это не работает. Потому что вектор находится в пространстве похожих лиц, но если лицо похоже на красивое, это не значит, что оно само по себе красивое. Проверить просто, залей фото любой красивой тян на файндфейс и посмотри, нравятся ли тебе матчи. Ты найдешь дохуя всратых и жирных тян, похожих на твою богиню.

Я вижу тут два варианта, или сделать мелкую нейроночку feature vector -> оценка и обучить на своей базе, или же обучать end-to-end, лицо -> оценка. Первое реально сделать допилив openface, а вот для второго база нужна поздоровее, и на гитхабе я не видел, хотя статьи есть (и база с азиатками, лол https://arxiv.org/abs/1511.02459 )

В целом такой стартап взлетит.
Аноним 28/02/17 Втр 16:34:10 #187 №943057 
>>942905
>каффе с кастомными слоями сам себя не построит
проиграл, у меня их уже больше десятка веток, собираю с закрытыми глазами
Аноним 28/02/17 Втр 18:07:48 #188 №943166 
Я, кароч, хочу стать слесарем и по этому изучил обратное распостранение ошибки. Но там говориться типа, мол в начале для нейросети в связи выбираются случайные значения (хоть вроде и есть согласования как их выбирать), но почему именно такие и случайные? Когда я еще не дошел, то мне казалось, что в начале должны быть, кхм, одинаковые значения связей, а дальше уже корректировать, а не от случайного.
Аноним 28/02/17 Втр 18:25:06 #189 №943194 
>>943166
выбираешь случайные
@
прогоняешь SGD
@
повторить 100500 раз
@
берёшь лучшие веса
@
продаёшь массив и выкатываешься
Аноним 28/02/17 Втр 18:48:02 #190 №943215 
>>943194
Но почему случайные-то, а не просто от единицы и ноля, например?
Аноним 28/02/17 Втр 18:53:46 #191 №943221 
blob
>>943215
так чуть больше шанс найти нормальный максимум - ты градиентный спуск/подьём скорее всего будешь несколько раз прогонять, каждый раз от новой точки
Аноним 28/02/17 Втр 19:21:46 #192 №943250 
>>943003
надо сделать, чтобы по размеру сисек лайкал. Вот где полезная функция
Аноним 28/02/17 Втр 19:26:07 #193 №943259 
>>943250
Надо вложить десяток тысяч рублей во фрилансеров из /wrk/, чтобы разметили базу, тогда можно и по сиськам сортировать.
Аноним 28/02/17 Втр 19:31:54 #194 №943264 
>>943215
> Но почему случайные-то, а не просто от единицы и ноля, например?
Если ты везде поставишь вес 1 и смещение 0, то у тебя нейроны будут выдавать все одни и те же значения => capacity модели как у одного нейрона
>>943221
> так чуть больше шанс найти нормальный максимум
это неправда, обычно не переносится информация между запусками => если ты найдешь минимум какой-то, не факт, что ты на нем остановишься
Аноним 28/02/17 Втр 19:33:30 #195 №943266 
>>943264
> capacity модели как у многих слоев, где каждый слой из одного нейрона
быстрофикс
Аноним 28/02/17 Втр 19:34:26 #196 №943267 
>>943264
Как ты сложно объясняешь... Короче, если установить одни и те же параметры у нейронов, они будут обучаться в одну сторону, а нам нужно, чтобы нейроны вычленяли разные признаки, поэтому и инициализируются они по-разному.
Аноним 28/02/17 Втр 19:35:19 #197 №943270 
>>943259
>>вкладывать во фрилансеров с двача
а ты шутник
Аноним 28/02/17 Втр 19:45:10 #198 №943276 
>>943270
У меня удачный опыт, меньше ебли мозга, чем у успешных хохлов с бирж, с учетом того, что все объясняется на словах, выходит дешевле толоки или амазона. Минус только распиздяйство, но это решается более грамотным менеджментом с моей стороны. На самом деле на бордах дохуя хикканов из провинции, готовых работать за копейки, при этом довольно вменяемых и компьютерно грамотных.
Аноним 28/02/17 Втр 23:14:14 #199 №943521 
>>939623
https://www.youtube.com/watch?v=BgBrYpihvLY
Аноним 01/03/17 Срд 11:43:13 #200 №943775 
>>942510
>В чем суть конструктивной математики? Только без баззвордов.
Суть - вычислимость. В конструктивной математике все вычислимо, ни во что веровать не надо. Петушок >>942697 не шарит, его можно не слушать.
>>942593
Существует, мягко говоря, хуева туча методов оценки качества кластеризации. Из чего уже можно заключить, что какого-то одного и универсального решения нету. Например, в R есть готовые решения такого рода - кластеризация с оценкой по наиболее используемым критериям и окончательное решение, сколько именно кластеров адекватно представляют данный датасет. https://cran.r-project.org/web/packages/clValid/index.html
>>942884
https://cran.r-project.org/web/packages/clValid/index.html
>>942970
Бутстраппинг - онанизм в чистом виде. К каждому имеющемуся примеру добавляются от балды искусственные, нормально распределенные относительно имеющегося. В итоге данных становится тупо больше и алгоритмы уже могут что-то выдать более осмысленное. Вообще, таким методом есть смысл пользоваться только когда все совсем плохо.
Аноним 01/03/17 Срд 12:18:35 #201 №943792 
R-петух еще и поехавший шизик? Удивительно даже.
Аноним 01/03/17 Срд 13:03:29 #202 №943809 
>>943775
Короче это картофанные дауны, для которых выражение является истинным, если сцаная машина тьюринга может его посчитать, я правильно понял? Так все этих интуиционситов ещё при Гильберте в очко ебали и с тех пор они у параши потешно кукарекуют только, разве нет?
Аноним 01/03/17 Срд 13:08:04 #203 №943812 
>>943809
>я правильно понял?
Нет.
Аноним 01/03/17 Срд 13:49:47 #204 №943825 
Стоит ли идти, как думаете?
https://cs.hse.ru/dpo/bigml
Аноним 01/03/17 Срд 13:56:35 #205 №943828 
>>943775
>Бутстраппинг - онанизм в чистом виде. К каждому имеющемуся примеру добавляются от балды искусственные, нормально распределенные относительно имеющегося. В итоге данных становится тупо больше и алгоритмы уже могут что-то выдать более осмысленное. Вообще, таким методом есть смысл пользоваться только когда все совсем плохо.

Я вот и не понимаю, почему расширение обучающей выборки за счёт обучающей выборки не приведёт к дикому переобучению.
Аноним 01/03/17 Срд 14:13:53 #206 №943829 
>>943828
Переобучению относительно чего? Если у нас выборка - это 3,5 примера, а больше от этой системы все равно ничего нет (в противном случае бутстрап не нужон).
Аноним 01/03/17 Срд 14:18:50 #207 №943831 
Ыыы, а можно ли использовать одну нейросеть для решения другой задачи? Как искать такие эксперименты?
Аноним 01/03/17 Срд 16:23:00 #208 №943880 
>>942300
Я не понял, я прав или нет? Скиньте статью, где все для дебилов понятно объяснено.
Аноним 01/03/17 Срд 17:10:10 #209 №943898 
>>943880
http://bfy.tw/ANCi
Аноним 02/03/17 Чтв 12:16:36 #210 №944363 
Есть ли русскоязычное обозначение для transductive learning?
Аноним 02/03/17 Чтв 18:45:13 #211 №944644 
На самом деле, не знаю куда спросить. Реально ли сейчас построить симуляцию всего артикуляционного аппарата? Можно ли и рационально ли будет использовать для этого наработки нейросетей по чтению по губам (и как приспособить их для обратной задачи)? Может кто-то это уже делал? Хочу проверять эффект Буба-Кики.
Аноним 02/03/17 Чтв 18:46:26 #212 №944646 
>>936522 (OP)

ЯП

1) Джулия, да, заточка под математику, но зачем нам Джава, с Скалами и Джулиями, если у нас есть Питон? К тому же под Джулию ещё и фремворков на каждый случай нет, а состыковывать как? А Джава вообще в плане математики сосёт. Учить узкоспециализирвоанный язык, это как учить машинный кодинг под конкретный проц.
Нужно быть полным идиотом.

2) Весь .Net сразу идёт на хуй, за причинами в Гугл. А инфернет и тем более, где он вообще применяется на деле? Только в паре маленьких проектов от Майкрософт? Вы будете учить Раст, чтобы программирвоать только Фаерфокс? И я нет. Я бы с большим успехом взялся бы за ЛУА. Но зачем Луа, когда есть Питон.

3) R сдох, теперь везде только Питон.

4) Питон, да, этот язык стоит учить.

5) Хипстерские ЯП, коих хрен знает сколько и которые рождаются каждый год, не нужны по вышеуказанным причинам.

Итого, остаётся учить только Питон.

Сразу видно, что ОП - полный мудак.

Остальную часть его высера даже читать не стал.
Аноним 02/03/17 Чтв 18:53:59 #213 №944650 
>>944644
https://www.youtube.com/watch?v=dD_NdnYrDzY
Что-то такое, но в виде программы с детализацией и дабы выдавало более совершенный набор звуков. Точнее, более точно бы повторяло голосовые связки и тд человека.
Аноним 02/03/17 Чтв 18:55:40 #214 №944651 
>>944650
https://www.youtube.com/watch?v=1dwXX9LmSDg

Программу реально сделать? И если да, то как? Только чтоб там детально рассматривалось движение губ и тд
Аноним 02/03/17 Чтв 19:11:03 #215 №944666 
А на чём пишут фреймворки NN C или C++ (имеется ввиду основная часть)?
Аноним 02/03/17 Чтв 19:11:33 #216 №944668 
>>944651
лолблядь
готовтесь к ИИ программистишки
Аноним 02/03/17 Чтв 21:38:25 #217 №944873 
>>936522 (OP)
Аноны, стоит ли в резюме писать про курсы на курсере? Я только студент и опыта работы вообще нету, проектов больших тоже нету, только несколько поделий, типо seq2seq и всяких распознаваний изображений.
Аноним 02/03/17 Чтв 21:44:34 #218 №944877 
>>944668
о да, шевелящиеся проводками маски меня испугали.
Аноним 02/03/17 Чтв 21:56:51 #219 №944897 
>>936522 (OP)
>Information theory, inference & learning algorithms, MacKay
Читаю эту книгу. В начале даны несколько роадмапов для разных задач:

Pages vii–x show a few ways to use this book. First, I give the roadmap for
a course that I teach in Cambridge: ‘Information theory, pattern recognition,
and neural networks’. The book is also intended as a textbook for traditional
courses in information theory. The second roadmap shows the chapters for an
introductory information theory course and the third for a course aimed at an
understanding of state-of-the-art error-correcting codes. The fourth roadmap
shows how to use the text in a conventional course on machine learning.

Получается, для обучения машинному обучению (в чём я заинтересован) лучше идти по четвёртому пути? Или стоит с криком "Кембридж крута" пойти по первому? В принципе, четвёртый путь является подмножеством первого + несколько глав по нейросетям.
Аноним 02/03/17 Чтв 22:39:20 #220 №944934 
А я люблю обмазываться свежими нейросетями и дрочить. Каждый день я хожу по земле с черным мешком для мусора и собераю в него все нейроночки которое вижу. На два полных мешка целый день уходит. Зато, когда после тяжёлого дня я прихожу домой, иду в ванну, включаю горячую воду…ммм и сваливаю в нее свое сокровище. И дрочу, представляя, что меня поглотил единый организм нейросети. Мне вообще кажется, что нейросети, умеют думать, у них есть свои семьи, города, чувства, не смывайте их в унитаз, лучше приютите у себя, говорите с ними, ласкайте их…. А вчера в ванной, мне преснился чудный сон, как будто я нырнул в море, и оно прератилось в нейросеть, рыбы, водоросли, медузы, все из нейронов, даже небо, даже Аллах!.
Аноним 02/03/17 Чтв 23:09:28 #221 №944969 
1488401653001.jpg
Падажжите, то есть поиском по сетке недостаточно определять лучшую модель, обязательно ещё проверять гипотезы?
Аноним 03/03/17 Птн 01:23:58 #222 №945035 
>>944897
осиль первые 4-5 глав, если кодирование не интересует то дaльше читай тoлько млшные главы, вроде 19 первая или 20
Аноним 03/03/17 Птн 02:29:15 #223 №945046 
ae3101b2ca4fba7385a4b8a0c7967f9d.gif
Как сделать ИИ, который себя реально осознаёт?

Хочу создать Бога из Машины.
Аноним 03/03/17 Птн 02:58:39 #224 №945055 
>>945046
сначала надо прочесть все книги из шаппки тренделя
Аноним 03/03/17 Птн 04:32:34 #225 №945062 
как оптимизировать линейную регрессию для увеличения параметра log loss?
Аноним 03/03/17 Птн 05:08:12 #226 №945067 
>>945046
Никак. Это невозможно. По крайней мере пока.
Аноним 03/03/17 Птн 10:34:27 #227 №945141 
>>945062
Если для увеличения, то тебе градиентный подъем надо, лол. Но обычно уменьшают.
Аноним 03/03/17 Птн 11:08:07 #228 №945157 
Советую всем грезящим о "боге из машины" послушать последний выпуск радио-т, где происходит расстановка точек (впрочем, довольно очевидная) над текущим прогрессом в машинном обучении.
Аноним 03/03/17 Птн 11:23:42 #229 №945169 
homo bayesians.png
Сделал для дебичей типа меня шпаргалку по оп-пику.
Аноним 03/03/17 Птн 11:34:00 #230 №945175 
Day1681426193874.jpg
>>936522 (OP)
Sup, /pr/отаны.
Я упрощу задачу, но просто смысл не в ней. Предположим есть 2d клеточный лабиринт. Программа двигается по нему видя только на одну клетку впереди себя. Если встречает объект (стену), то двигаться через нее не может, запоминает это событие и идет в другую сторону. Со временем, сталкиваясь со стенами, программа составляет цепочки событий и сравнивая их выводит правило, что пытаться пройти сквозь стену бессмысленно.

Вопрос такой, если перебор и сравнение цепочек будет реализовано с помощью нейронных сетей это ближе к ИИ, чем реализация с помощью стандартных функций если-то?

Т.е. я могу сам написать код для сравнения цепочек, но тогда это будет просто код программы, а можно каким-то образом подавать эти цепочки на нейронную сеть и получать результат, пока не знаю как.
Просто ИИ нужен функционал анализа своих действий, но где грань между ИИ и обычной программой? Под ИИ подразумевается просто самообучающаяся программа прохождения лабиринта, которая может учиться взаимодействовать с разными объектами на пути.
Аноним 03/03/17 Птн 11:35:27 #231 №945177 
Так, у меня вопрос. Чувствительны ли сверточные нейросети к паразитной засветке картинки цветным источником света? Как с этим бороться?
Аноним 03/03/17 Птн 11:41:04 #232 №945182 
>>945175
>где грань между ИИ и обычной программой?
Её нет. По мне, так простейший логический элемент "НЕ" с одним входом и одним выходом - уже ИИ, так как он получает на вход какие-то данные, производит решение и выводит другие данные.
Аноним 03/03/17 Птн 12:23:19 #233 №945200 
>>945182
Даже функция f(x) = x*x ИИ получается?
Аноним 03/03/17 Птн 12:27:08 #234 №945202 
>>945067
Почему невозможно сейчас, но станет возможно когда-то? Какие трудности?
Аноним 03/03/17 Птн 12:32:30 #235 №945204 
>>945200
Почему нет? Результат детерминирован, и чтобы его получить, нужно выполнить ряд логических операций
Аноним 03/03/17 Птн 12:39:50 #236 №945207 
>>945202
По качану, нужна новая математика и компьютеры на ней.
Аноним 03/03/17 Птн 12:48:22 #237 №945209 
>>945207
Кокая такая "новая математика"?
Аноним 03/03/17 Птн 13:19:14 #238 №945217 
>>945209
новый школьный курс
https://en.wikipedia.org/wiki/New_Math
Аноним 03/03/17 Птн 17:27:41 #239 №945353 
>>945175
Ты пытаешься изобрести велосипед. Открой для себя deep reinforcement learning, все уже украдено до нас. Вопрос неблохо проработан с теоретической стороны + есть готовые реализации.
>где грань между ИИ и обычной программой?
Сильный ИИ - это осознающая себя машина. Такого пока нет. Слабый ИИ - алгоритмы, которые могут в то, что обычно считается возможностью человека. Такой хуйни полно.
Аноним 03/03/17 Птн 17:31:54 #240 №945359 
>>945217
видео с lehrer ом скинь
Аноним 03/03/17 Птн 17:37:06 #241 №945370 
>>945175
Ты пытаешься изобрести велосипед, для поиска путей есть уже давно алгоритмы, тупые, которые уперлись в стенку и ищут новое направление. ИИ мог бы помочь с ситуациями где мы видим стенку , но еще не уперлись. Но тут опять увы и ах, такие оптимальные алгоритмы упреждающего поиска путей уже тоже есть, и они быстрее чем ИИ.
Аноним 03/03/17 Птн 18:04:30 #242 №945396 
>>945207
полную херню несёшь, сбацаю на питоне и стандартном ПК
Аноним 03/03/17 Птн 18:05:19 #243 №945397 
>>945359
ты о чём? о человеке-математике? а что за видео?
Аноним 03/03/17 Птн 18:28:10 #244 №945409 
Арнольд-Шварценеггер-знаменитости-Кристанна-Локен-Дон-Бёрдж[...].gif
>>945353
>>945370
Спасибо за ответ, но я не занимаюсь поиском пути.

Постараюсь объяснить в двух словах.
Главная задача моего ИИ - включить музыку в клеточном лабиринте просто дойдя до кнопки включения музыки. Пока света нет, ИИ может двигаться вверх, вправо, влево, вниз и получать имена объектов вокруг себя и двигаться на одну клетку вперед. Но вот тут самое главное - ИИ не знает, что такое стена, у него нет, разумеется слуха и зрения. То, что музыка играет, ИИ узнает от внешней программы "Слух", которая просто проверяет переменную в бинарном файле.
Поэтому он и пытается пройти сквозь стену несколько раз, при каждой попытке он просто не получает результата. И выводит правило вроде такого: сверху объект W, справа объект W, влево объект W, движение вверх - нет результата.
Такое правило перегружено в начале, которое со временем можно упростить до "сверху объект W, движение вверх - нет результата".
Это можно сделать кодом напрямую сравнивая с новыми цепочками действий или трахать этими цепочками нейронные сети. Вот мне интересно, какой подход был бы ближе к человеческому мышлению? Как бы с одной стороны нейронки, но ведь в человеке на каком-то уровне тоже можно представить некий хард код, который работает одинаково у всех в мозгах.
Аноним 03/03/17 Птн 18:30:30 #245 №945411 
>>945409
такая тупая хуйня решается обычным алгоритмом поиска в глубину, твой ИИ тут не нужен.
Аноним 03/03/17 Птн 18:37:11 #246 №945414 
>>945411
может, он именно для ИИ и делает
Аноним 03/03/17 Птн 18:37:36 #247 №945415 
>>945409
>правило вроде такого: сверху объект W, справа объект W, влево объект W, движение вверх - нет результата.
Ну я жи говорю, deep RL. Для этого результат придется как-то выразить в набранных очках или вроде того (плюс и минус) и поставить цель максимизировать результат. Уже сейчас в таких условиях алгоритмы сами с нуля учатся играть во всякие понги, арканоиды и т.п. хуитку. Изначально никаких правил игры не получая, просто обучение действиям по динамике скриншотов и итоговому результату - набранным очкам. Если интересно - гугли openai universe и gym.
Аноним 03/03/17 Птн 18:40:55 #248 №945418 
>>945414
А я хочу ФИ, это финансовый интеллект, каждый раз по 100 бачей мне кидает, и не нужно никого просить повестись на эту хуйню с ИИ и потом заплатить.
Аноним 03/03/17 Птн 18:43:55 #249 №945422 
>>945418
тебе финансовый бот нужен, миллион готовых, и там куча своей хуйни

мне он тож нужен
Аноним 03/03/17 Птн 18:47:25 #250 №945426 
>>945422
Естественно, мы то знаем как это хуйня работает, въебем парочку исследований, а там как пойдет. ИИ всех победит и окупит.
Аноним 03/03/17 Птн 18:48:52 #251 №945427 
>>945426
так сейчас у всех боты, и много кто пытается полноценные ИИ уже сделать, с ними не поконкурируешь, если ты не знаешь секретов только
Аноним 03/03/17 Птн 19:08:39 #252 №945445 
Я раскрою вам секрет, который маловероятно, но возможно сделает вас даже миллиардером!
Или миллионером, но с гораздо большей вероятностью.
Всё бесплатно и без смс. И это не лохотрон.
Итак, вы готовы?
Секрет прост и проще некуда.
Секрет: "Все - Идиоты!".
Да, именно, все люди - идиоты. Большинство населения планеты вообще полные идиоты, а дальше на графике, чем они умнее, тем их меньше, там даже функция не линейная. Умных меньше в десятки раз. Реально умных 5%, идиотов 15%, а полных идиотов 80%. Но даже эти "реально умные" во многих ситуациях оказываются идиотами, если не полными, ведь они такие же люди, как и все остальные.
А самое интересное - среди этих 80% полных идиотов полно богатых людей и людей разрбрасывющихся деньгами, и вообще в сумме они богаче кого бы то ни было. К тому же, здесь ещё и половина среднего класса.
Ну так вот, вы делаете деньги на этих 80% полных идиотах и строите свой бизнес соответствующим образом.
Почему я сам давно не миллиардер и почему я делюсь такими секретами? Просто потому, что я нихуя не делаю и мне не жалко.
А ты, как предприниматель, должен предпринимать определённые действия и через ряд неудач тебе повезёт. Ты сам создаёшь своё будущее, планируй и действуй! Будь наглым и просто делай, делай, делай. И даже если ты сам полный идиот, ты тупо методом перебора рано или поздно найдёшь свою золотую жилу!
Аноним 03/03/17 Птн 19:39:28 #253 №945478 
>>945445
>Все - Идиоты!
И утверждение ты это делаешь на каком основании?
p < 0.05?
Аноним 04/03/17 Суб 02:00:04 #254 №945740 
>>945478
Наверное The Bell Curve.

мимокрокодил
Аноним 04/03/17 Суб 21:41:09 #255 №946434 
https://www.youtube.com/watch?v=J2lAIt2rd1g
Аноним 05/03/17 Вск 05:30:22 #256 №946594 
>>944646
Питон тормозной, он тупо ненужен. Бери С++.
Аноним 05/03/17 Вск 05:33:56 #257 №946595 
>>946594
Это только потому что он интерпретируемый... Но однако есть и компиляторы и для него...
Аноним 05/03/17 Вск 05:43:12 #258 №946596 
Антохи а GPU обязательно надо?

>>946595
Не только, динамическая типизация это рак, а еще нет толкового перехода на новые версии, 2_7 до сих пор юзается, и 3_6 не может в старый код, я хоть и против обратной совместимости, но дохера чего не переписано и это раздражает.
Аноним 05/03/17 Вск 06:07:16 #259 №946600 
>>946596
>динамическая типизация это рак
Бляха, ну что за фашизм? Для серьёзного проекта, понятное дело, кресты, но как подручный инструмент для набросков-черновиков охуенно же, от псевдокода минимум отличий. Есть задача построить небоскрёб и скворечник, под задачу и инструмент подбирать.
Аноним 05/03/17 Вск 06:30:56 #260 №946602 
>>946600
Выйдет новая версия питона - чисти говно и переписывай, тоже самое и с плюсами, но они будут работать и так, а если в новом стандарте 2017 наконец вычистят вилкой легаси парашицу и совместимость нарушится то достаточно передать компилятору используемую версию плюсов.
Аноним 05/03/17 Вск 06:35:30 #261 №946604 
>>946602
Да я типа про то, что ты больше будешь с крестами ебаться. А так взял, хуйнул по-быстрому, мысли чисто набросать, посмотрел как оно всё будет выглядеть, потом на чистовик уже на крестах можно переписать, если скорость/надёжность нужна.
Аноним 05/03/17 Вск 06:41:20 #262 №946607 
>>946604
На плюсах примерно столько-же времени пишется, Есть хорошие инструменты для дебага, если скомпилировалось без ворнингов значит уже заебись, а есть и дебагеры с анализаторами.
А пистон же может запустится даже если критическая ошибка есть, приходится пердолится с линтерами и бог знает чем.
Можно собрать статический stripped бинарник, который будет работать и на собаке, а можно ебатся с питонами и зависимостями.
Аноним 05/03/17 Вск 07:19:32 #263 №946613 
>>946607
>>946607
>На плюсах примерно столько-же времени пишется
Ну хз, может дело привычки, так-то кресты топ.
>А пистон же может запустится даже если критическая ошибка есть
Вот это, конечно, пиздец тот ещё, да.
Аноним 05/03/17 Вск 07:32:56 #264 №946617 
>>946613
Вообще хз, всегда ощущалось, что на пистоне пишется быстрее гораздо. Как бы единственная причина, по которой стоит использовать что-то кроме плюсов и если этого прироста нет, то смысл вообще в других яп, если один хуй любой интерпретатор на си же и написан, по сути обёртка над с/c++. Хз, короче. Ну ещё типа ради автоматической работы с указателями, типа безопаснее, но для меня не аргумент, так как когда нет возможности руками работать с памятью это скорее небезопасно, так как в случае какой-то редкой критической ошибки разработчика, которую словила именно ваша компания именно тогда, когда это нанесёт больше всего ущерба ты можешь только беспомощно ждать и считать убытки. Хотя на практике, наверное, это довольно редкие случаи, кирпич тоже иногда на голову падает.
Аноним 05/03/17 Вск 15:39:26 #265 №946934 
44d0e60aa3596c7c9476555ef73dbc7e.jpg
Вы не понимаете сути МЛ, а без понимания никогда не уйдете дальше слесарства уровня import slesarflow as sf. В МЛ Дзи (определения в пасте ниже) это датасет, полученный например измерением параметров некоей системы, техника работы этой системы. Соответственно, Ри - это фунция или функции зависимостей выходов системы от ее входов. Принцип работы этой системы, ее суть. Смысл МЛ в том, чтобы восстановить (аппроксимировать) такие функции по имеющемуся датасету, т.е. идентификация систем. Для этого и служат алгоритмы МЛ, это инструмент. Инструмент так же может быть хорошим и плохим, подходящим и неподходящим. И тут так же важно понимание принципа по которому должен работать такой инструмент. Вот этого почти нигде и нет, по-сути, теория статистического обучения - единственное изложение таких принципов, все остальное - простой пердолинг вслепую.

Путь охватывает все вещи, и поэтому, постигнув одну вещь, вы овладеваете всеми остальными. Некоторые люди утверждают, что, достигнув совершенства на каком-то одном Пути, человек является мастером всех Путей. Хотя он мудрец, он может, например, не уметь ездить на лошади. Действительно, в таких рассуждениях есть доля истины, но мы не должны забывать, что все проявления реальности имеют два аспекта, дзи и ри.

Все здесь не так просто, как может показаться. Дзи — это техника, ри — это принцип. Тот, кто знает принцип, может не практиковать искусство и все же обладать некоторым пониманием его сути. Так, человек может быть хорошим наездником, но не уметь подчинить себе лошадь. Он может знать, как следует обращаться с лошадью, но при этом плохо согласовывать свое намерение с намерением лошади. Если же вы можете достичь гармонии с лошадью, она всегда будет слушать вас. Дополняя безукоризненную технику пониманием принципа, вы становитесь безупречным, и тогда в искусстве верховой езды никто не сравнится с вами.

Скульптор создает произведения с помощью резца, но сам резец изготовлен кузнецом. Скульптор знает, хороший или плохой у него резец, можно ли этим резцом обрабатывать дерево или только бамбук, но один только кузнец может сказать, в чем различие между процессами изготовления резца по дереву и резца по бамбуку. Таким образом, кузнец знает принцип, а скульптор – технику. Человеку, который овладел техникой и постиг принцип, нет равных.
Аноним 05/03/17 Вск 19:27:32 #266 №947057 
>>946934
Пытался обмазаться МЛ чтобы заработать баблица, прошел 1,5 курса на курселе от Яндека, понимаю что теряю суть темы, вообще интерес пропадает. Формулы блять формулы, бесконечный поток говна...

Как блять денег то на это ебале заработать. Чувствую что дропну скоро.
Аноним 05/03/17 Вск 19:41:51 #267 №947065 
>>947057
>Как блять денег то на это ебале заработать.
Попилить и откатить, что тут такого-то?
Аноним 05/03/17 Вск 23:35:48 #268 №947258 
>>936522 (OP)
Ребят, как дела обстоят с индуктивным программированием? Просто я думаю , что пизже строить АЛГОРИТМ, чем сложную формульную ебалу, параметры которой находить решая задачу оптимизации
Аноним 06/03/17 Пнд 00:02:48 #269 №947281 
>>939339
Срамота!
Аноним 06/03/17 Пнд 01:13:19 #270 №947316 
Аноны, поясните за нейроночки. Почему вокруг них столько хайпа ?
Нет я ничего против них не имею, для решения определенных задач они хорошо подходят. Но почему адепты нейронок уверены, что с их помощью человечество скоро все проблемы зарешает и создаст супер-ИИ.

Разве обучение на основе большого кол-ва наблюдений не является лишь одной из функций нашего сознания. А как же, например, способность выводить сложные теории на основе базы простых фактов. Это ведь скорее к логическому программированию и прочим подобным методам.

Алсо, поясните за natural language processing. Какой ныне прогресс в области. Когда уже ИИ сможет в человеческие языки ?
Аноним 06/03/17 Пнд 01:23:51 #271 №947325 
>>946613
>C++ top
No, C11.
Аноним 06/03/17 Пнд 01:38:09 #272 №947331 
>>947316
Аноны, поясните за PDF и HTML. Почему вокруг них столько хайпа ?
Нет я ничего против них не имею, для решения определенных задач они хорошо подходят. Но почему адепты лазерных принтеров уверены, что с их помощью человечество скоро все проблемы зарешает и создаст супер-принтер.

Разве рисование руками кисточкой не является лишь одной из функций нашего сознания. А как же, например, способность выводить сложные рисунки на основе базы простых фактов. Это ведь скорее к логическому программированию и прочим подобным методам.

Алсо, поясните за HyperText Transfer Protocol. Какой ныне прогресс в области. Когда уже HTML сможет в передачу по проводам ?
Аноним 06/03/17 Пнд 01:47:24 #273 №947336 
>>946594
У меня жизни не хватит с моей тормознутостью написать всё, что я хочу на плюсах.

К тому же я нервный, а плюсы мои нервы во время разработки не берегут.
Аноним 06/03/17 Пнд 01:51:26 #274 №947339 
>>947336
>У меня жизни не хватит с моей тормознутостью написать всё, что я хочу на плюсах.
>
>К тому же я нервный, а плюсы мои нервы во время разработки не берегут.

Чем конкретно тебя так плюсы нервируют ?
Аноним 06/03/17 Пнд 01:52:37 #275 №947341 
>>946596
Тебе явно нужна Джава.
Аноним 06/03/17 Пнд 01:58:42 #276 №947343 
>>946604
А на питоне надёжности нет что ли?
Аноним 06/03/17 Пнд 02:13:11 #277 №947347 
>>946607
На плюсах тормознее разработка и чем сложнее проект, тем ещё тормознее, всё же суммируется. Начнёшь что-нить, а потом бросишь, если зп не получаешь, конечно, на питоне ты больше проектов доделаешь до конца. Легче обновлять, переделывать, всё проще. Всё проще, удобнее и быстрее в разработке.
Ты заебёшься делать большие проекты на плюсах.

И сама разработка на плюсах сложнее, больше головной боли, больше напрягов и опять больше время и других ресурсозатрат. Нужно думать о вещах, о которых ты на питоне даже не слышал никогда.
Больше проблем с библиотеками. Мне кажется, что даже на изучение библиотек и на практику работы с ними на плюсах больше времени уйдёт и трудозатрат больше. Это всё утомляет.

А то, что ты говоришь, это касается только маленьких простеньих вещей, которые на том же питоне и нужно делать.

Ещё питон даёт кроссплатфоменность, а на плюсах ты заебёшься, да ещё все эти компиляции, опять мозголомания при поиске и правке ошибок, да на хуй надо.


Плюсы нужны там, где нужна высокая скорость работы, это единственный плюс плюсов :) в срвнении с питоном, в этом питон просто сосёт.
А с компиляциями итд опять ебатьни итд, и получается, что в данном случае лучше уже сразу плюсы взять.
Аноним 06/03/17 Пнд 02:14:13 #278 №947348 
>>946617
Да не слушай ты его, он их даже сравнить реально не может, несёт какую то чушь.
Аноним 06/03/17 Пнд 02:19:54 #279 №947350 
>>946617
Смысла в других нет?
Для денег нужно учить джаву и вебдевелопинг, а только в конце плюсы и то нах.

Для математики плюсы не подходят.
Сайты писать плсы не подходят. Везде, где нужен скриптовый язык не подходят. И ещё мно где.
Аноним 06/03/17 Пнд 02:30:03 #280 №947355 
Плюсы из эры и мира Си, Ассемблера и Машинных Кодов.
Там нечего ловить.
С уже додыхает, все переходят на плюсы, но и время плюсов когда-нибудь пройдёт.
Аноним 06/03/17 Пнд 02:38:43 #281 №947358 
>>947355
И на чем тогда будут писать ОСи, embedded, гарбедж коллекторы, etc ???
Аноним 06/03/17 Пнд 02:58:33 #282 №947362 
>>947358
создам отдельную тему
Аноним 06/03/17 Пнд 04:07:32 #283 №947381 
>>947358
C
Аноним 06/03/17 Пнд 10:30:51 #284 №947473 
>>947336
>>947339
>>947341
>>947343
>>947347
>>946617
>>947355
>>947358
Все ЯП - частные случаи типизированной лямбды. В т.ч. все потенциально возможные ЯП. Из чего прямо следует, что лучше тот, который лучше выполняет конкретную задачу.
Аноним 06/03/17 Пнд 10:36:27 #285 №947477 
Блядь, школьники, хули вы засрали МЛ ТРЕД языкосрачем. Ебанутым нет покоя.
Аноним 06/03/17 Пнд 11:28:08 #286 №947507 
14878656007070.jpg
>>947316
С вопросами про научную ценность в /sci. Местные мартышки считают себя умными, но могут только гуглить алгоритмы, корчить рожицы и бросаться дерьмом, а два слова по делу связать не могут.
Аноним 06/03/17 Пнд 15:12:37 #287 №947639 
>>947507
Я в шараге проходил регрессионный анализ, когда dsp учил. ОТЛИЧНО
Еще бредогенератор делал на цепях маркова. ОТЛИЧНО
Еще принятия решений матодом ELEKTE пробовал. ХОРОШО
Я могу тусить в єтом треде?
Аноним 06/03/17 Пнд 15:39:45 #288 №947660 
>>947473
Нет, всё это нули и единицы.
Аноним 06/03/17 Пнд 15:40:40 #289 №947661 
>>947639
мы тут ИИ пишем, а не твои шкальные говноподелки.
Аноним 06/03/17 Пнд 15:44:24 #290 №947663 
>>947473
Нет, ты не прав. ЯП выбирают по библиотекам прежде всего.

Алсо, у тебя много разных задач, а ты учишь для решения каждой новый ЯП, ну молодец, все бы так.

"А то, что каждая вещь для своего дела" это дети ещё в первом классе проходят.
Аноним 06/03/17 Пнд 15:45:25 #291 №947665 
>>947473
вон там
https://2ch.hk/pr/res/947374.html
про лучший ЯП
Аноним 06/03/17 Пнд 15:46:04 #292 №947666 
>>947663
А то, что "каждая вещь для своего дела"
fixed
Аноним 06/03/17 Пнд 15:49:05 #293 №947668 
>>947663
"Все профессии важны, все профессии нужны."

Прямо как сейчас помню.
Аноним 06/03/17 Пнд 15:49:29 #294 №947669 
>>947639
Сколко учился лет и на кого конкретно?
Аноним 06/03/17 Пнд 22:17:40 #295 №948004 
Двач, читал кто "Машинное обучение. Наука и искусство построения алгоритмов, которые извлекают знания из данных",если да то есть смысл?
Аноним 06/03/17 Пнд 22:21:08 #296 №948007 
>>948004
Какого года эта книга? Сейчас фреймворки каждый месяц появляются, зачем читать устаревшее и на русском?
Аноним 06/03/17 Пнд 23:37:42 #297 №948059 
Как этой штукой пользоваться?

http://playground.tensorflow.org
Аноним 06/03/17 Пнд 23:49:21 #298 №948071 
>>948007
Блять, какая разница с какой скоростью фреймворки появляются, если все они юзают одну и ту же теорию ?
Аноним 07/03/17 Втр 00:27:40 #299 №948086 
>>948007
2015
Аноним 07/03/17 Втр 14:38:10 #300 №948429 
>>942905
двачую.

для псевдоинтеллектуалов, которые хотят математику прикрутить, которую они учили в шараге 5 лет.
Аноним 07/03/17 Втр 15:18:25 #301 №948454 
>>948093
пиздец, ты пидор
Аноним 07/03/17 Втр 15:57:54 #302 №948478 
>>948454
этот анацефал до всех зэкотредов добрался походу
Аноним 07/03/17 Втр 17:41:02 #303 №948517 
>>944646
Боже, какой же ты фанбой. Хотел бы с тобой аргументированно посраться, но питон действительно охуенен, слишком люблю его.
Аноним 07/03/17 Втр 18:18:28 #304 №948555 
Поясните за Тьюринг-полные нейроночки. Как их обучают вообще? Или это больше программирование? Как вообще?
Аноним 07/03/17 Втр 19:05:00 #305 №948631 
https://ru.wikipedia.org/wiki/%D0%AD%D0%B2%D1%80%D0%B8%D1%81%D1%82%D0%B8%D1%87%D0%B5%D1%81%D0%BA%D0%BE%D0%B5_%D0%BE%D0%B1%D1%83%D1%87%D0%B5%D0%BD%D0%B8%D0%B5
Такое можно сделать?
Аноним 07/03/17 Втр 21:37:53 #306 №948751 
>>947639
ты для этого слишком крутой, тут одни философствующие школьники, вообще сосач - тупое болото
Аноним 07/03/17 Втр 22:33:56 #307 №948783 
Кто готов зафрилансить проджект связанный с ml пишите свои телеги.
Аноним 07/03/17 Втр 22:46:07 #308 №948792 
>>948751
А где крутые собираются?
Аноним 07/03/17 Втр 23:12:16 #309 №948805 
Пацаны, там в Google Translate запилили нейро-перевод для русского языка. Айда тестировать

https://translate.google.com/

Аноним 07/03/17 Втр 23:35:01 #310 №948817 
>>937329
>почитать
>цисп
Взоржал с лоха лапатнова, ббббббббгеееееее.
Аноним 07/03/17 Втр 23:52:19 #311 №948826 
>>947355
ocaml
Аноним 08/03/17 Срд 01:19:07 #312 №948875 
>>948805
Хуёво чёт как-то.

Англ --> Русс
Gain a fundamental understanding of Python’s syntax and features with this up–to–date introduction and practical reference. Covering a wide array of Python–related programming topics, including addressing language internals, database integration, network programming, and web services, you’ll be guided by sound development principles. Ten accompanying projects will ensure you can get your hands dirty in no time.

Получите фундаментальное понимание синтаксиса и функций Python с помощью этого современного введения и практической ссылки. Охватывая широкий спектр связанных с программированием на Python тем, включая адресацию внутренних языков, интеграцию баз данных, сетевое программирование и веб-службы, вы будете руководствоваться принципами разумного развития. Десять сопутствующих проектов гарантируют, что вы можете замарать руки в кратчайшие сроки.
Аноним 08/03/17 Срд 02:16:55 #313 №948901 
У веб-кодера без знаний матана есть шансы в нейронках? Или там везде жестокий матан и тыкаться бесполезно? Неужто от матана еще не абстрагировались фреймворками?
Аноним 08/03/17 Срд 02:34:02 #314 №948907 
>>948901
>кодера
У кодеров вообще шансов 0
Аноним 08/03/17 Срд 03:12:09 #315 №948914 
Я вернулся! Сегодня до 10 на работке формы клепал.
>>947661
Так я спрашиваю, можна здесь потусить. Прикоснуться к таким гениям как вы.
>>947669
5 лет. Кафедра у меня на dsp помешана, профессора такое задвигают что у меня временные ряды непрогнозируюся. Больше и нечего рассказывать, кроме того что дипломная работа у меня был по SEO
>>948751
Да, не я даун. В руме кстати какие-то шкальники на джупитете какие-то графики хуячат и на скале говнокод. Я хочу идти около них и говоорит "линейная регрессия" или "метод наименьших квадратов", чтобы взяли в свою тусу смузи с ними пить.
Аноним 08/03/17 Срд 05:23:42 #316 №948938 
>>948901
Там любой дегенерат разберётся.
Аноним 08/03/17 Срд 05:30:05 #317 №948943 
Вообще всё просто. Любая сверхсложная система на самом деле элементарна. Проблема заключается в человеческом мозге и понимании.

И когда ты знаешь об этом, тебе всё начинает даваться, не сразу, но даётся и ты каждый раз убеждаешься, что всё на самом деле элементарно. Просто пшик и всё.

Нужно лишь затратить время и разобраться в энном количестве информации, это не сложно, это бывает долго, но выполнимо.
Аноним 08/03/17 Срд 08:36:39 #318 №948971 
>>940196
А ты из своей КОМНАТЫ выходил, сыч?
Аноним 08/03/17 Срд 08:57:55 #319 №948972 
>>948971
Нет, я только интернеты читаю. Все новые пейпы пишут китайцы, в голландский научный журнал пишут китайцы, на гитхабе все засрали китайцы
Аноним 08/03/17 Срд 10:37:00 #320 №948998 
>>948972
Давно все индусы пишут, какие китайцы.
эмулятор слесаря Аноним 08/03/17 Срд 13:44:07 #321 №949127 
Снимок.PNG
>>948059
Вот эту кнопачку жмакай))
Аноним 08/03/17 Срд 14:56:32 #322 №949199 
>>949127
Чо такое ReLU и почему оно так эффективно?
эмулятор слесаря Аноним 08/03/17 Срд 15:22:43 #323 №949216 
>>949199
Это функция активации нейрона, используется вместо сигмоида или гиперболического тангенса. Ректифайед линеар юнит штоле. Выгода в том, что это ненасыщаемая функция и у нее нет бесконечно убывающих участков, на которых сходимость часто надолго застревает. https://en.wikipedia.org/wiki/Rectifier_(neural_networks)
Аноним 08/03/17 Срд 15:36:07 #324 №949226 
Такая стори, купил в январе специализацию на курсере от яндекса и мфти, прошел первый курс, получил сертификат, прохожу второй курс, уже больше половины, я понял что меня от этой херни тошнит просто. Хочу дропнуть.
Но жаба душит, 20 к отдал, думаю может дотянуть... С другой стороны нахера тратить время на то что меня не интересует... Реально просто не хочу это изучать, не интересно. Просто говно какое то...

Чтобы вы сделали? Просто дропнули и хер с ними с деньгами. Или же дотянули и получили сертификаты?

Вообщем больше склоняюсь к дропу.
Аноним 08/03/17 Срд 15:57:10 #325 №949235 
>>949226
Ну и долбоеб.
Аноним 08/03/17 Срд 16:02:26 #326 №949239 
>>949226
>Но жаба душит, 20 к отдал, думаю может дотянуть... С другой стороны нахера тратить время на то что меня не интересует... Реально просто не хочу это изучать, не интересно. Просто говно какое то...
>
Я дропнул один курс, так потом корил себя за это. Лучше пройти, можешь даже в инете искать ответы, но лучше пройди.

Аноним 08/03/17 Срд 16:09:33 #327 №949248 
>>949239
Ну вот будет этот ворох сертификатов, дальше что? ХЗ...
Я только время трачу, все равно работать не смогу по этому направлению, слишком сложно для меня.
Аноним 08/03/17 Срд 16:29:44 #328 №949266 
>>949248
Не ленись.
Аноним 08/03/17 Срд 17:55:36 #329 №949317 
>>949248
Никто не рождается умным/умелым, сложно - в космос полететь, ML тебе по силам, няша.
Аноним 08/03/17 Срд 19:11:56 #330 №949365 
>>949317
В космос полететь легче, чем освоить математику. В космос и собака полетит.
Аноним 08/03/17 Срд 19:26:01 #331 №949380 
>>949365
В практическом ML очень мало математики. В этом сила и слабость образования в РФ, пичкают математикой, пока не треснешь, а потом выходишь на работу и оказывается, что все совсем не так и ценится другое. Поэтому жри говно, как диды жрали, а потом будет легко и приятно.
Аноним 08/03/17 Срд 20:01:36 #332 №949408 
>>949317
>>949266
>>949239
Какие вы сегодня добрые, обычно говном польют, дауном обзовут.

Ну вообщем я снова сел за курс. Не знаю на сколько меня хватит. Надо что то почитать по интересную работу, прикладной характер, про истории успеха, мотивации нет. Вот идут задачи формулы, а мотивации нет....
Аноним 08/03/17 Срд 21:54:24 #333 №949528 
>>949226
>прошел первый курс
Поздравляю, первый курс там представляет из себя введение в python и школьную статистику.
>прохожу второй курс, уже больше половины, я понял что меня от этой херни тошнит просто. Хочу дропнуть.
4-й ты просто не осилишь никогда
Аноним 08/03/17 Срд 21:57:58 #334 №949530 
>>949408
>интересную работу, прикладной характер, про истории успеха
Лучше сразу вернись к пабликам про стартапы.
Аноним 08/03/17 Срд 22:01:18 #335 №949532 
>>949226
Бросай это дело к хуям, иди лучше дворником
Аноним 08/03/17 Срд 22:22:48 #336 №949545 
>>949532
Почему то уверен что у тебя длинные волосы и ты никогда не трахался с тян. Я угадал?
Аноним 08/03/17 Срд 22:31:27 #337 №949554 
>>949530
Хочешь сказать что это все на уровне хобби, и вкатиться не реально? Если так то я дропаю это говно! Мне деньги нужны а не интегральчики под картофанчик.
Аноним 08/03/17 Срд 22:41:45 #338 №949561 
>>949554
честно говоря, мл - это не самое денежное место, что-то уровня бортпроводника в самолете, машиниста поезда или там маркетолога среднего звена, а задрачивать нужно в разы больше.
Аноним 09/03/17 Чтв 05:49:38 #339 №949763 
>>949226
>жаба душит дропнуть
Вот в этом и плюс оплачиваемых курсов, так бы давно уже забил. Не надо дропать, анон, ты просто переутомился и мозг тебя наёбывает "нахуй это скучное говно!", ведь не зря же ты вообще запарился на обучение, наверное интересно было? Сделай перерыв на пару-тройку дней, соскучься.
Аноним 09/03/17 Чтв 07:42:00 #340 №949770 
>>949408
Я вообще мимокрок, но сука не сдавайся, потом сильнее пожалеешь. Если сдашься через три месяца все забудешь и нужно будет заново изучать.
Аноним 09/03/17 Чтв 13:08:49 #341 №949892 
Screenshot from 2017-03-09 15-03-16.png
Вот такие нынче петухи занимаются машобом.
Аноним 09/03/17 Чтв 13:24:55 #342 №949895 
>>949892
Читал хоть что постишь? Он же сам говорит, что похвастаться ему нечем, просто мимоинтересующийся. Хотя проблема есть, да. Когда-то МЛ занимались академики, сейчас индусы и тупая пизда с оп-пика.
Аноним 09/03/17 Чтв 13:24:59 #343 №949896 
>>936522 (OP)
> НЕЙРОНОЧКИ
Охуенно. Хочу прикрутить сабж к своей игрушке ради эксперимента, чтобы самолетики летали не через друг друга, а как-нибудь интересно собирались и вели себя как живые. Это нужно генетические алгоритмы пердолить, или НС получится? Меня смущает то, что в большинстве пример в НС разбираются какие-нибудь пиксели, а с трехмерными векторами они ничего общего не имеют
Аноним 09/03/17 Чтв 13:32:50 #344 №949898 
>>949896
В это задаче можно обойтись и без машоба. Гугли swarm и boids.
Аноним 09/03/17 Чтв 14:01:22 #345 №949907 
>>949898
> boids
Уже имплементировал себе подобный этому алгоритм, но так не интересно же.
Аноним 10/03/17 Птн 10:22:24 #346 №950411 
Кто-то занимается обучением с подкреплением?
Аноним 10/03/17 Птн 10:35:23 #347 №950413 
> 5. idris/coq - модные яп для формально верифицированных нейроночек с тренировкой на этапе компиляции

Их кто-то использует для МЛ? Само слово "модные" в контексте idris/coq даже пугает
Аноним 10/03/17 Птн 11:24:42 #348 №950426 
>>950413
Да никто их для МЛ не использует. Полторы реализации нейроночек на хачкеле от каких-то поехавших типа https://gist.github.com/mrkgnao/a45059869590d59f05100f4120595623 да книжка по анализу данных на том же хачкеле, не более.
Аноним 10/03/17 Птн 12:22:02 #349 №950453 
plot.png
graph-run=.png
Ананасы, что может быть не так с cnn ?
Ошибка почти сразу скатывается вниз, но ниже 4.6 не падает, а точность нулевая. Я сначала думал может андерфит, добавил размерностей свертки, но ничего не поменялось. Датасет - cifar100, но даже на cifar10 что-то работает не так и различий особых нету.

https://gist.github.com/anonymous/ec88ea7c5fc1f17f08ebdedd2d79b5e5
Аноним 10/03/17 Птн 12:24:23 #350 №950455 
За сколько времени можно написать альтернативу tensorflow и openai gym на своем любимом языке?
Аноним 10/03/17 Птн 13:18:58 #351 №950502 
>>950455
Зачем?
Аноним 10/03/17 Птн 15:18:42 #352 №950592 
можно ли написать najtiElementVMassive на нейроночках?
Аноним 10/03/17 Птн 15:59:30 #353 №950617 
>>950502
Чтобы чик клеить.
Аноним 10/03/17 Птн 16:01:44 #354 №950621 
>>950617
Эй чика, я хика, хочешь посмотреть на мой тензорфлоу в брейнфаке?
Аноним 10/03/17 Птн 16:06:14 #355 №950625 
Зачем погромисты пишут ИИ? Вы же тогда останетесь без работы, поехавшие.
Аноним 10/03/17 Птн 16:09:46 #356 №950628 
8577237887dcae8b60f7b.jpg
>>950625
Они без всякого ИИ безработными останутся. Любую программу любого назначения по заданной спецификации можно просто экстрактить из инфинити-групоида в виде типизированной лямбды и компилить в код на любом языке программирования (т.к. все они частный случай типизированной лямбды). Для этого даже ИИ не нужон, достаточно MLTT и н-р, генетического программирования все на той же типизированной лямбде.
Аноним 10/03/17 Птн 16:12:59 #357 №950629 
>>950628
Почему не так делают?
Аноним 10/03/17 Птн 16:13:18 #358 №950630 
>>950621
Хочу, Он хотя бы не требует столько зависимостей
Аноним 10/03/17 Птн 16:24:04 #359 №950637 
>>950628
Даже генетические алгоритмы не нужны, большинство веб-макак, например, можно заменить обычным конечным автоматом.
Аноним 10/03/17 Птн 17:32:20 #360 №950680 
>>950453
На последнем слое не нужен релу
Аноним 10/03/17 Птн 18:00:25 #361 №950710 
>>950625
Тот кто первый напишет - не останется
Аноним 10/03/17 Птн 19:03:59 #362 №950759 
>>939479
В общем я просто взял заведомо рабочую имплементацию на Шарпе и переписал её на человеческий.
https://github.com/nokitakaze/ResilientBackProp вот, если кому нужно будет ещё одно решение RProp на C#
Аноним 11/03/17 Суб 13:42:17 #363 №951152 
Кто вкатился в МЛ и работает по этой специальности?
Тут есть реальные примеры? Или это очередной форс типо хаскеля?
Аноним 11/03/17 Суб 15:06:39 #364 №951215 
Есть одна задача на классификацию. Сеть уходит в переобучение (RMSE на train становится очень маленьким, а на test либо не меняется либо немного увеличивается). Неизвестно решаема ли задача в принципе.

Как бороться с переобучением?
Аноним 11/03/17 Суб 16:23:40 #365 №951252 
>>951215
>RMSE

Классификация с RMSE? Почему такой выбор?

Какой объем данных? Какой размер сеточки?

Либо сеть слишком большая, попробуй увеличить параметр регуляризации, уменьшить сеть или увеличить число данных
Аноним 11/03/17 Суб 17:14:58 #366 №951324 
big1443713059image[1].jpg
>>951252
> Почему такой выбор?
<---

Accuracy я тоже использовал. Для обучающей 99%, для тестовой 40% (там 40% принадлежит одному из классов, поэтому сеть просто спамит один и тот же класс).
> Какой объем данных?
На вход 30k, на скрытом слое 3 (прописью три) нейрона, на выходе три нейрона.
> сеть слишком большая
Да, я её уменьшал и уменьшал. Если поставить на скрытом слое 2 нейрона, то уже не сходится.

> увеличить число данных
Выборка не бесконечная. Сначала беру 1k данных, вся выборка 70k данных. На 70k ситуация точно такая же
Аноним 11/03/17 Суб 17:23:29 #367 №951334 
А можно сделать 3D-нейрон, как в мозгу?
Аноним 11/03/17 Суб 17:59:06 #368 №951356 
>>951324
Снизил количество входящих данных. Всё равно каждый кусок (вхождение, datum) слишком персонализирован и работает как отпечатки пальцев, поэтому сеть учится отдавать результаты конкретной выборке, а не абстрактной совокупности признаков (feature)
Аноним 11/03/17 Суб 18:32:21 #369 №951389 
380px-PerceptronXORtaskv2.svg.png
Может у кого найдется время реализовать вот такой персептрон для XOR на языке Scheme? https://repl.it/languages/scheme Что-то вечно мне не хватает. Буду очень благодарен.
Аноним 11/03/17 Суб 18:48:39 #370 №951405 
>>951389
Ух ты ж епта, я чуть не начал изобретать рекурентную нейросеть для такой задачи. Покажите, пожалуйста, как надо.
Аноним 11/03/17 Суб 18:53:43 #371 №951411 
Я делаю вывод что тут одна школота и студентота, все дрочат нейроночки по приколу, никто и рубля не заработал на этом.

Нахуй вас психи, я ухожу, потому что хочу жрать!
Аноним 11/03/17 Суб 19:09:17 #372 №951423 
>>951411
Вообще да. Нейронки очень специфичные. В "реальной жизни" классификация тебе может понадобиться для оценки клиентов. Допустим, кому дать кредит, а кому нет. На практике таких задач меньше 1%. Это нормально. Хочешь реальных использований нейронок, иди в Яндекс или Мейл Ру. Или в Лабу Касперского
Аноним 11/03/17 Суб 19:27:29 #373 №951435 
Держите
https://vk.com/wall49817193_310
Аноним 11/03/17 Суб 19:53:50 #374 №951449 
>>951411
>тут одна школота и студентота, все дрочат нейроночки по приколу, никто и рубля не заработал на этом
срыв покровов ITT
Аноним 11/03/17 Суб 21:36:19 #375 №951518 
>>951324
>Accuracy я тоже использовал. Для обучающей 99%, для тестовой 40%
Я вообще в первую очередь подумал про кросс-энтропию, но если у тебя только 2 класса, то я бы F1 метрику юзал, но это очень странно что у тебя сеть спамит один класс.

>На вход 30k, на скрытом слое 3 (прописью три) нейрона, на выходе три нейрона.
Ебануться, 30к, Я даже не знаю какой объем данных должен быть для таких входных данных.
Попробуй уменьшить размерность или использовать не нейроночки.

>Да, я её уменьшал и уменьшал. Если поставить на скрытом слое 2 нейрона, то уже не сходится.
Обычно на скрытых слоях лучше делать нейронов больше чем на входном, но в твоем случая я хз даже что делать

>Выборка не бесконечная. Сначала беру 1k данных, вся выборка 70k данных. На 70k ситуация точно такая же
Для 30к входных параметров датасет маленький, либо датасет увеличивай во много раз, либо размерность входа уменьшай

Аноним 11/03/17 Суб 22:50:53 #376 №951576 
У меня вопрос по ML для laba1. Задача кластеризации.
Есть вещь у которой 4 свойства.
a) распределить вещи по группам(кластерам), если мы можем:
1. Мы можем сказать, по какому конкретно критерию выполняется кластеризация(от одного до четырёх).
2. Мы можем выделить минимальное и максимальное количество групп (это необязательно, можно этого и не делать)
б) Критерии не известны. Мы не знаем по какому свойству должна выполнятся кластеризация, количество кластеров неизвестно.
Мы можем:
1. Указывать количество возможных свойств, по которым происходит кластеризация (1 <= n <= 4), а можем этого и не делать.
Суть в том, что если предметы почти не отличаются по трём свойствам, а разница присутствует только в одном из свойств, то алгоритм должен определить, что кластеризация произойдёт конкретно по этому свойству.

Посоветуйте алгоритм. Рассматриваю любые предложения.
Аноним 12/03/17 Вск 00:53:30 #377 №951650 
>>951411
Я 450 баксов за вчера заработал. При чем удобно, сеть обучается, а ты двачуешь.
Аноним 12/03/17 Вск 03:10:03 #378 №951681 
>>951518
> у тебя только 2 класса
там хитро. Мне нужна классификация по нескольким разным критериям, и конечная сеть, собранная из нескольких сетей, будет давать мне именно разные критерии. Пример:
1. На фото изображен: заяц / белка / машина / человек
2. Как сделана картинка: фото, обработка фото или рисунок (картина)
3. Руке какого мастера принадлежит картина: Ван Гог, Дали, да Винчи

Все три сразу обучить нет вариантов, потому что не все входные данные содержат сразу все критерии. Поэтому я хочу обучить по каждому критерию отдельно, а потом соединить сети. Но хер-то там

> какой объем данных должен быть для таких входных данных
Там не все пермутации возможны. И, да, если бы я мог достать все необходимые пермутации, зачем бы мне была нужна сеть? Я снизил с 30k до 1k. Проблема сохраняется — переобучение. Каждое вхождение (запись) слишком специфично, и по нему можно просто построить finger print. Там в абсолютном большинстве случаев просто на нейронах нули. В 97% у 99.5% нейронов нули, а значение имеют лишь оставшиеся 0.5%, которые и служат finger print'ом

Ладно, завтра попробую уменьшить 1k до 200, но тогда там вообще почти везде нули будут
Аноним 12/03/17 Вск 03:23:22 #379 №951685 
Снимок.PNG
>>951681
> завтра попробую уменьшить 1k до 200
Нет, хер там. Получилось 886 выборов для learn и ~200 для test. Причем в каждой выборке не менее 20 нейронов имеют вес не равный нулю. Всё равно в переобучение уходит.

Сейчас попробую сделать выборку не из 7 000 изначальных данных, а из 70 000. И не менее 40 нейронов имеют вес не равный нулю
Аноним 12/03/17 Вск 03:26:44 #380 №951686 
>>951685
нет, тоже никакой реакции. Буду думать как данные передавать как-то по-другому
Аноним 12/03/17 Вск 08:55:26 #381 №951743 
audio-image-text[1].png
>>951685
>>951681

Ну с первым пунктом, я думаю, вопросов нету, это все уже 10 раз описано, если тебе сегментация не нужна.

В третьем пункте можно использовать style extract как в модных ПРИЗМАХ и других приложений
https://arxiv.org/pdf/1508.06576.pdf


Со вторым пунктом я уже хз, но откуда разряженые фичи? Там же картинка обычная, там даже 90к будут очень плотные


>>951681
>Там не все пермутации возможны. И, да, если бы я мог достать все необходимые пермутации, зачем бы мне была нужна сеть? Я снизил с 30k до 1k. Проблема сохраняется — переобучение. Каждое вхождение (запись) слишком специфично, и по нему можно просто построить finger print. Там в абсолютном большинстве случаев просто на нейронах нули. В 97% у 99.5% нейронов нули, а значение имеют лишь оставшиеся 0.5%, которые и служат finger print'ом

То что все нули, это странно, но если у тебя 30к разряженых фич у тебя должен быть просто огромный датасет.
Разряженные фичи редко встречаются, для слов используют word2vec, может для твоего случая тоже что-то придумали.

Так что уменьшать число фич -- единственный вариант у тебя

Аноним 12/03/17 Вск 11:40:55 #382 №951811 
>>951743
> Ну с первым пунктом, я думаю, вопросов нету
Задача не та, которую я описал. Я лишь пример пример разных классификаций одного объекта

> уменьшать число фич
Да, я переформулирую задачу, чтобы на вход подавалось 13 и 20 нейронов (две разные сети)
Аноним 12/03/17 Вск 11:58:40 #383 №951817 
Подскажите научную статью где было о том, как сделать из n-мерных объектов объекты в других измерения. Ну, из трехмерного куба четирехмерный гиперкуб и тд Все это на нейроночках, конечно
Аноним 12/03/17 Вск 12:23:52 #384 №951829 
flat-world,-sci-fi-160890.jpg
>>951817
Наркоман?
Аноним 12/03/17 Вск 12:27:23 #385 №951831 
>>951817
Короче я окончательно убедился какие люди в этом треде сидят. Пиздец.
Аноним 12/03/17 Вск 13:12:32 #386 №951851 
>>951829
>>951831
А что я не так написал? Вы никогда не рисовали проекцию четирехмерного куба? Нейросети могут даже и круче
Аноним 12/03/17 Вск 13:16:27 #387 №951854 
>>951576
SOM. Анализ результата - по компонентной плоскости, соответствующей той переменной, по которой различаются кластеры.
Аноним 12/03/17 Вск 13:19:07 #388 №951855 
>>951851
И правда наркоман. Зачем для этого нейросети-то?
Аноним 12/03/17 Вск 13:23:36 #389 №951858 
>>951817
Ну йобана, прям так и гуглится же
neural network dimensionality reduction и там первая статья
Аноним 12/03/17 Вск 13:50:57 #390 №951867 
>>951854
>SOM
Спасибо. Сейчас буду изучать
Я вот с утра пораньше сделал
https://en.wikipedia.org/wiki/DBSCAN
но он классифицирует некоторые данные как noize, что не очень(
Аноним 12/03/17 Вск 16:35:04 #391 №951983 
Нужно естественный язык переводить в SQL команды. Подскажите пожалуйста, какие библиотеки использовать, какие книги прочитать ?
В Natural Language Processing with Python, есть пример, где с помощью формальной грамматики реализуются простые SELECT запросы, но я даже не представляю как можно таким образом описать сложные 2 - 3х этажные union и join конструкции.
Аноним 12/03/17 Вск 16:47:49 #392 №951992 
>>951867
>>951854
Я так понимаю SOM даёт мне точки в двумерном пространстве, а далее я уже должен применить любой стандартный алгоритм кластеризации?
Аноним 12/03/17 Вск 17:04:08 #393 №952000 
>>951992
Нет, он проецирует многомерный датасет на двумерное пространство. Если в самом датасете содержатся кластеры (в виде нескольких разных классов объектов), то они будут видны на 2д карте. Суть такой карты можно понять по компонентным плоскостям, например (т.е. почему 2д карта выглядит именно так). Вообще, если нужна именно классификация, м.б. стоит попробовать что-то еще из векторного квантования - нейронный газ там, LVQ. Вот опорные векторы, полученные этими алгоритмами, можно и дальше обрабатывать, в т.ч. всякой кластеризацией.
Аноним 12/03/17 Вск 17:24:16 #394 №952014 
>>951576
kmeans конечно же, проще некуда
Аноним 12/03/17 Вск 17:33:36 #395 №952021 
>>952014
Не очень. Как cmeans так и kmeans требуют количество кластеров в качестве параметра
Аноним 12/03/17 Вск 17:35:32 #396 №952023 
>>952021
Вообще, есть жи методы, которые сами определяют оптимальное количество кластеров для данного датасета. Конкретно в R есть пакет ClValid.
Аноним 12/03/17 Вск 19:45:07 #397 №952110 
Двач, мне кажется я недопонимаю само естество процесса выбора модели. Если модель А показывает себя лучше на тестовой выборке, чем модель Б, но при этом у А 99.9999% точности на train и огромный разрыв между train и test, в пользу какой модели мне стоит делать выбор?

Зачем рисуются кривые обучения? Они используются только в педагогических целях, для наглядной демонстрации процесса обучения, или из них можно достать что-то полезное, решая реальную задачу?
Аноним 12/03/17 Вск 20:07:05 #398 №952122 
>>952023
А можно подробней и как для дебилов, я просто совсем зелёный первак. R/python/matlab недоступны, нужно самому на c# сделать. Что за алгоритм для определения оптимального кол-ва кластеров. В инете внятного ответа не нашел
Аноним 12/03/17 Вск 20:21:18 #399 №952133 
>>952122
>Что за алгоритм для определения оптимального кол-ва кластеров
Это не один алгоритм, а целая куча всяких индексов, критериев и т.д., разработанных разными людьми в разное время. Суть в том, что есть показатели, по которым косвенно можно судить о качестве кластеризации. В кратце тут https://cran.r-project.org/web/packages/clValid/vignettes/clValid.pdf с формулами и ссылками на оригинальные работы. Конечно, можно и самому сделать, но заебешься. Далее все просто: берем датасет, берем любой алгоритм кластеризации, хоть k-means. Выбираем от балды число кластеров, скажем 2, замеряем индексы качества кластеризации. Потом берем 3, замеряем качество... В итоге получаем результат типа "количество кластеров - оптимальность по набору критериев качества кластеризации", суть в том, что при данном датасете эти индексы будут оптимальными при выборе кластеров, наилучшим образом кластеризующих данный датасет.При числе кластеров больше или меньше оптимального, индексы будут хуже оптимума. Как-то так, если в 3х словах.
Аноним 12/03/17 Вск 22:21:11 #400 №952208 
>>952133
Спасибо. А не подскажешь, имеет ли смысл использовать k-means на мономерном, трёх и четырёхмерном датасетах?
Аноним 12/03/17 Вск 23:28:44 #401 №952240 
>>951576
Начни с каминса, хуле.
С неизвестным количеством кластеров хорошо справляется Affinity Propagation - сам группирует особей.
Аноним 12/03/17 Вск 23:33:09 #402 №952242 
>>952240
>каминса
Это что такое? гугл не нашел
Аноним 12/03/17 Вск 23:46:35 #403 №952249 
>>952242
k-means
Аноним 13/03/17 Пнд 00:48:43 #404 №952286 
>>951983
мб, не совсем в тему
вот есть пример для работы с SQL для nltk

http://www.ling.helsinki.fi/kit/2009s/clt231/NLTK/book/ch10-AnalyzingTheMeaningOfSentences.html#discourse-semantics

а так, мб, парсинг какой-нибудь поможет (боттом-топ какой-нибудь, там с конца запроса начинать, и вкладывать потихоньку в верхние ноды), он тоже в нлтк-бук описан, или банальные регулярочки

Аноним 13/03/17 Пнд 00:49:52 #405 №952287 
>>952110
ты переобучился, гугли overfitting, underfitting, cross-validation
Аноним 13/03/17 Пнд 01:22:46 #406 №952296 
>>952110
>>952287

Этими терминами я владею (и загуглил на всякий)

Вопрос был немного в другом: можно ли вообще ожидать что реальное качество переобученной (или недообученной) модели будет похоже на то, что я вижу на кросс-валидации, или сам факт того что модель переобучена (или недообучена) делает её автоматически непригодной к использованию?

Дополнительный вопрос, как вообще получить какое-то численное представление надёжности модели (т.е гарантию что её качество на новых данных будет похоже на кросс-валидацию)?
Я вот видел теорию по VC-dimension-у, но никак не могу поверить что это можно юзать на практике КАК ПОСЧИТАТЬ VC для xgboost???.

Аноним 13/03/17 Пнд 01:33:41 #407 №952301 
>>952110
>Если модель А показывает себя лучше на тестовой выборке, чем модель Б, но при этом у А 99.9999% точности на train и огромный разрыв между train и test, в пользу какой модели мне стоит делать выбор?
Ты не сказал ничего о Б, но если Б показывается себя на test лучше, то Б.

>Зачем рисуются кривые обучения? Они используются только в педагогических целях, для наглядной демонстрации процесса обучения, или из них можно достать что-то полезное, решая реальную задачу?
Да это самая важная хуйня.
Рецепты от слесаря Николаича.
На кривой должны быть результаты на training и validation множествах. Через N итераций они у тебя нарисуют кривые. Смотришь на них.
1. Первым делом training должна рисовать сходящуюся кривую. Если она у тебя скачет, алгоритм не сходится, попробуй уменьшить шаг градиента, сменить алгоритм, по-другому инициализировать, сделать whitening данных и тому подобное.
2. Validation должна рисовать сходящуюся кривую. Если этого не происходит, значит у твоих множеств сильно разные фичи. Если ты делил training и validation сам из какого-то датасета, скорее всего датасет слишком маленький.
3. В идеале кривые training и validation должны сходится к одной величине, при этом эта величина должна быть лучше, чем тебе требуется. Как только они начинаются расходиться, можешь останавливаться - лучше уже не будет. И тут может быть две проблемы.
High variation - это когда training у тебя уже ушел в пол, а validation плетется где-то вверху. Нужно или больше данных, или упростить алгоритм.
High bias - это когда training и validation близки, но точность тебя не устраивает. Значит модель слишком тупая. STACK MORE LAYERS
Аноним 13/03/17 Пнд 08:34:50 #408 №952436 
>>952286
Конкретно про этот пример я и говорил, он описан в книге. Но как от него прийти к чему-то более сложному я не имею ни малейшего представления.
Аноним 13/03/17 Пнд 10:10:12 #409 №952488 
>>952296
>сам факт того что модель переобучена (или недообучена) делает её автоматически непригодной к использованию?
This. Используй дропаут и l2 regularization.
>Дополнительный вопрос, как вообще получить какое-то численное представление надёжности модели (т.е гарантию что её качество на новых данных будет похоже на кросс-валидацию)?
Выдели из training set 15% и сформируй validation set. На нем и проверяй. А кросс валидация сильно много жрет, сильно много...
Аноним 13/03/17 Пнд 10:43:33 #410 №952502 
Как себя чувствует affinity propagation на датасете, отличном от двумерного. Я не нашел прямого ответа на свой вопрос.
Аноним 13/03/17 Пнд 11:43:08 #411 №952539 
>>936522 (OP)
Привет. Тут посмотрел первые четыре лекции курса "Машинное обучение от Yandex". Так то понятно, но терминов много и формул, которые объясняют в общем то простые вещи на практике, но постоянно заставляют останавливаться на паузу и доходить, что происходит на слайде. Универ я закончил пару лет назад, и классификацию объектов проходил, но это не помогает. Как улучшить понимание и чтение формул? Как не путаться в терминах?

inb4:бросай, ты слишком туп
Аноним 13/03/17 Пнд 12:57:04 #412 №952638 
>>952539
Хуета этот ваш яндекс. Есть нормальные книги, нормальные курсы.
sageАноним 13/03/17 Пнд 14:14:25 #413 №952765 
>>952638
Советуй, не стесняйся.
Аноним 13/03/17 Пнд 14:39:44 #414 №952782 
1010732604.jpg
>>952765
1) пикрелейтед.
2) оп-пост треда.
Аноним 13/03/17 Пнд 14:50:16 #415 №952791 
>>951983
Мне кажется, можно погуглить на тему Named Entity Recognition, но прописывать правила и эвристики для всех хитровыебанных конструкций ты ебанёшься. Размечай датасет, хуярь классификатор.
Аноним 13/03/17 Пнд 15:17:35 #416 №952814 
14889985080471.jpg
>>936522 (OP)

релейт https://www.youtube.com/watch?v=4DMm5Lhey1U
Аноним 13/03/17 Пнд 22:02:27 #417 №953053 
>>936522 (OP)
Боже как уебищно объясняется дискретная математика на степике, просто пиздец. чет мямлит а потом НУ ВОТ ВАМ ЗААЧУ РЕШАЙТЕ ОХУЕВАЙТЕ
Аноним 13/03/17 Пнд 22:19:25 #418 №953078 
Посоны, есть нейросеть для распознования лиц, на уровне findface
как можно применить?
Аноним 13/03/17 Пнд 22:20:57 #419 №953081 
>>953078
распознавать лица
Аноним 13/03/17 Пнд 22:34:59 #420 №953089 
>>952436
мне казалось, что это можно даже на регулярочках сделать
да и я бы скорее искал уже готовый парсер sql, а от него плясал, компьютер же все равно парсит весь этот текст хотя бы в машинный код, как первый ответ тут предлагает https://stackoverflow.com/questions/16890718/sql-queries-to-their-natural-language-description
Аноним 13/03/17 Пнд 22:38:52 #421 №953093 
>>953089
или
https://github.com/search?utf8=%E2%9C%93&q=sql+parser
Аноним 13/03/17 Пнд 23:55:33 #422 №953154 
>>953081
ебать ты умен, я спрашиваю как это можно применить?
второй файндфейс запилить?
Аноним 14/03/17 Втр 00:31:51 #423 №953175 
>>953154
в аэропорте террористов распознавать, везде вместо пропуска, в кафешках и магазинах вместо дисконтки, логин на очередной бесполезный сайт. Везде, где нет соблазна подставлять фотку вместо лица.
Аноним 14/03/17 Втр 01:04:44 #424 №953192 
>>936522 (OP)
> поясните за нейроночки
> нейроночка - массив
То есть я просто строю там какой-то охуенно длинный линейный многочлен с коэффициентами из массива и решаю его 60 раз в секунду? Поясните мне вот тут.
Аноним 14/03/17 Втр 01:05:32 #425 №953193 
>>953175
Двачую, еще можно сделать систему контроля опозданий на работу.
Аноним 14/03/17 Втр 01:40:50 #426 №953205 
>>953192
нет, это матрицы, а не массивы. Если в матане не шаришь - то иди нахуй просто
Аноним 14/03/17 Втр 01:42:16 #427 №953207 
>>953193
эту систему можно еще десятью способами запилить.
sageАноним 14/03/17 Втр 02:00:22 #428 №953213 
>>953205
матрица - массив
Аноним 14/03/17 Втр 07:39:45 #429 №953316 
>>953078
где взял модель?
Аноним 14/03/17 Втр 09:04:00 #430 №953353 
>>953089
>>952791
Получается к каждой БД нужно размечать и обучать свой датасет ? Размечать названия таблиц, полей и возможны данных внутри. Разве что общими для всех могут быть стандартные инструкции
Аноним 14/03/17 Втр 10:52:34 #431 №953393 
>>951831
Я тебе больше скажу, их со всего двача сюда манит, потом по тематике тонким словом размазываются. Детектятся по НЕЙРОНАЩХАМ на раз-два. А внутре у ней нейронка!
Аноним 14/03/17 Втр 11:19:04 #432 №953416 
>>953353
не думаю, зачем, можно определять тип переменной (ну, название и тд). Хотя забыл, это же тред про нейронки, так что зря мозги тебе морочу, так что мне кажется, что тут даже голый seq2seq отлично сработает без каких-то особых манипуляций (только токенизировать данные и сделать словарь из всех слов). Можно даже синонимичные фразы делать (а еще можно на вход word2vec подсовывать).
https://github.com/google/seq2seq или какая-нибудь другая реализация, там отличная документация.
Аноним 14/03/17 Втр 11:44:16 #433 №953435 
>>953393
Ты против нейросетей внутри которой работают нейросети, в которой внутри нейросети, в которой внутри пушкин в которой внутри нейросеть...?
Аноним 14/03/17 Втр 11:44:36 #434 №953436 
>>953435
Рекурсивных, то есть.
Аноним 14/03/17 Втр 12:09:48 #435 №953457 
Вы такие умные, где все охуенные программы и алгоритмы, которые вы пишете?
Аноним 14/03/17 Втр 12:23:23 #436 №953465 
>>953213
>>953316
обучил
Аноним 14/03/17 Втр 12:29:43 #437 №953468 
>>953416
Спасибо тебе большое добрый человек. Скажи пожалуйста, давно ты этим делом занимаешься ? Я в данный момент можно сказать "вкатываюсь". Читаю книги до которых доходят руки, прохожу небезизвестный курс от яндекса, но пока с трудом себе представляю как можно от этого всего перейти к реальным прикладным задачам.
Аноним 14/03/17 Втр 12:30:27 #438 №953469 
Что скажите за Leaf на расте?
Аноним 14/03/17 Втр 12:47:52 #439 №953475 
>>953468
уже года два-три лениво вкатываюсь, но безуспешно, было два заказа на апворке, но я не могу работать без палки и фейлю их.
Аноним 14/03/17 Втр 12:54:08 #440 №953479 
>>953475
В основное время чем занимаешься? Учишься/работаешь?
Аноним 14/03/17 Втр 21:23:08 #441 №953884 
Может кто-нибудь нормально пояснить почему тут гнобят нечекопетуха? Не особо разбираюсь в ваших млях, хотя основа кое-какая есть, так вот интересно это тупой двачефорс типа углепетухов, шульгиных, бутылок, пидарашек, ТНН, еотов, членодевок, аниме, хаскеля, фриленсеров 300к\с или там реально хуета? Нечеткая логика так то намного лучше применима к реальному миру чем примитивное бинарное черное-белое истинно-ложно. Или такое двуклеточное мышление больше соответствует обитателям?
Аноним 14/03/17 Втр 21:23:35 #442 №953885 
>>953884
>нечетко
фикс
Аноним 14/03/17 Втр 21:31:46 #443 №953891 
>>953884
>двуклеточное мышление больше соответствует обитателям
Это.
Аноним 14/03/17 Втр 22:02:48 #444 №953914 
>>953479
учусь (если это можно так назвать) в аспирантуре, работаю 20 часов преподом за скромную оплату, двачую капчу, предаюсь гедонизму
Аноним 15/03/17 Срд 03:13:58 #445 №954069 
Короч, учу питон с целью обучиться ML
Я добоёб и не то нагуглил?
Или Питон норм?

до этого только вводную часть с++ учил
Аноним 15/03/17 Срд 04:42:47 #446 №954105 
madskills.png
Ребят , я тут свою первую в жизни нейроночку пилю
(на питоне, который знаю на уровне студента совсем_даже_не_программиста, которым и являюсь, так что всё печально),
и вот что нужно:

Есть дохуя картинок в папке , нужно их объединить в единый датасет (для библиотеки keras, но , думаю, это не принципиально).

Причём на вход сетке должно подаваться сразу две картинки.
Как их так вместе попарно собрать? И как потом загрузить в единый файл ну или хотя бы в саму сетку?

Во всех уроках только Cifar10 и mnist, которые библиотеками загружаются автоматически, а про кастомные датасеты чёт инфы мало.

По идее, в каждой строке моего двумерного массива по два массива с картинками , разложенными на RGB,

пикрил, каждая img- массив из пикселей в трёх каналах

но как это библиотеке объяснить, да и просто что с чем перемножать нампи такие вложенные массивы не хочет понимать, если совсем простую сетку делать,- вообще не понимаю.

никогда ничего не делал с массивами, которые вложены в другие массивы

Помогите , пожалуйста!

С меня нихуя, как обычно

всем добра :3
Аноним 15/03/17 Срд 04:44:44 #447 №954107 
>>954069
А я пытаюсь дрочить нейросети, с целью изучить питон, лол
Иначе мотивации нет

мимошкольник
Аноним 15/03/17 Срд 05:03:04 #448 №954114 
Такой вопрос, имеются данные с перемешанными numeric(около 10) и dummie(13) переменными. Нужно построить регрессионные модели. Но для начала очевидно провести отбор переменных.

Так вот загвоздка в том, что я не могу найти/вспомнить такой алгоритм, который готов прожевать кашу из numeric и dummie и вывести в итоге удобоваримый резульат.

Из опробованных и успешно зафейленых методов имеются:
LASSO, RFE, ridge, elastic, tree, boruta

Существует ли такой метод в принципе? Не выбирать же из ~30 переменных вручную. Также неплохо было бы если бы модель еще по ходу дела определила их совместную значимость.

П.С. Все это делается в R
Аноним 15/03/17 Срд 05:23:31 #449 №954115 
>>953914
Аспирантура российская? ДС/ДС2? Занимаешься именно NLP, или дата саенсом в целом?
Аноним 15/03/17 Срд 05:31:55 #450 №954119 
>>954105
def read_jpeg(path):
im = Image.open(path).convert('L')
X = list(im.getdata())
X = np.array(X)
return X

for i in imgs:
x_train.append(read_jpeg(i))

x_train это у тебя массив. Не забудь преобразовать в нампи массив и нормализовать.
Аноним 15/03/17 Срд 09:03:52 #451 №954146 
>>954069
Всю жизнь хейтил питон, но ради ML пришлось его выучить все равно ебанутый язык%
Аноним 15/03/17 Срд 10:49:02 #452 №954180 
>>954119
спасибо!
сейчас попробую
Аноним 15/03/17 Срд 12:32:25 #453 №954260 
>>954069
Если из МЛ интересуют только сверточные нейроночки и deepRL, то пистон норм выбор. Из остального МЛ в пистоне полтора алгоритма и тогда R предпочтительнее.
Аноним 15/03/17 Срд 12:57:21 #454 №954282 
>>954069
Выучи питон, потом R, это не сложно. Если осилил петухон, то и рку осилишь. Тут в треде какие-то чмони разводят языкосрачи. Я еще понимаю если бы языки дохуя отличались типа haskell vs c vs какой-нибудь lustre. А с такими кордеанальными отличиями как у питуха и рмакакс, при знании одного, второй осиливается за неделю.
Аноним 15/03/17 Срд 15:41:01 #455 №954400 
Я тут мимопрокачусь со своим ebuchikursach.py
Если мы хотим распознать несколько объектов на пикче с помощью сверточной, нам ведь не сильно необходима предварительная сегментация? Она, как я понимаю, обучается находить какие-то признаки, и по ним давать вероятность что на пикче есть объект конкретного класса; а значит если будет два объекта, то найдет оба?
sageАноним 15/03/17 Срд 17:23:10 #456 №954478 
>>954400
> предварительная сегментация
нинужно

просто debug свой глаз
Аноним 15/03/17 Срд 17:23:32 #457 №954479 
Аноним 15/03/17 Срд 17:37:22 #458 №954486 
Cx9qqohVQAABAQH.jpg
>>954282
>>954260
Большое спасибо
Аноним 15/03/17 Срд 18:47:11 #459 №954551 
Я заинтересовался ML и нейронными сетями, прочитал несколько книжек и статьи иногда чекаю, но никогда не доходили руки до практики. И я решил что для диплома надо взять что-то связанное с сетями.
Мне нужно создать что-то подобное:

https://github.com/karpathy/neuraltalk2
http://www.stat.ucla.edu/~junhua.mao/m-RNN
http://demo.caffe.berkeleyvision.org

Однако, чтобы на выходе не предложения были, а просто тэги, связанные с этими изображением.

Но проблема в том, что я не могу начать это делать. Граница между теорией и практикой слишком большая. Может кто посоветовать, что делать?
Аноним 15/03/17 Срд 19:38:18 #460 №954585 
>>954551
from slesarflow import *
Аноним 15/03/17 Срд 19:39:13 #461 №954586 
>>954478
>просто debug свой глаз
Что, простите?
Аноним 15/03/17 Срд 21:32:41 #462 №954686 
>>954115
ДС, скорее НЛП, но пытаюсь все хоть чуть-чуть понимать
Аноним 16/03/17 Чтв 02:14:51 #463 №954825 
Продолжение >>954114

Запускаю следующий код из fscaret для R:

fsMod <- c("gbm", "treebag", "ridge", "lasso", "Boruta", "glm")
myFS<-fscaret(train.sleepDF, test.sleepDF, myTimeLimit = 40, preprocessData=TRUE, Used.funcRegPred = 'fsMod', with.labels=TRUE, supress.output=FALSE, no.cores=2)

При запросе myFS$VarImp выдает list()

В чем может быть проблема, что делать?
Аноним 16/03/17 Чтв 04:21:42 #464 №954837 
Я так понял, что если так много кода мо машинлернингу на питоне, то мне нужно будет делать сервак и общаться с ним по 127.0.0.1:порт ? Чтобы распознавать всякие передовые свистоперделки с основной программы написанной на джаве или сии или не важно на чем короч.
Аноним 16/03/17 Чтв 05:12:15 #465 №954840 
>>954686
Аспирантура по специальности? Тоже хочу легитимно вкатиться и изучать НЛП в няшном вузике. Ты есть в датасаенс-чате?
Аноним 16/03/17 Чтв 23:17:54 #466 №955377 
firegod.jpg
Подскажите наиболее эффктивные алгоритмы реализации нечеткой арифметики на ПК. Пилю сейчас ANFIS, при представлении нечетких чисел в виде гистограмм все виснет, треугольные числа не дают требуемой точности. Альфа-срезы я пока не осилил, дайте пейпер годный по ним.
Аноним 16/03/17 Чтв 23:20:09 #467 №955381 
>>952539
> Машинное обучение от Yandex
в первый раз вижу. Спасибо. Завтра обязательно посмотрю
Аноним 16/03/17 Чтв 23:24:38 #468 №955390 
>>954840
Не совсем, у меня так себе в этом плане вуз. В датасайенс-чате нет, это на слаке который, там нормально или не очень? Есть знакомые магистры и аспиранты, там целыми группами делают различный машин лернин, чуть ли не все.
Аноним 17/03/17 Птн 11:16:46 #469 №955645 
LotfiZadehBerkeleyc.jpg
>>955377
>Пилю сейчас ANFIS
Наиболее неудачная нейрофаззи-модель, м.б. потому что исторически первая. Чанг в свое время ее аж на Крее гонял из-за конских системных требований, если интересно - вот его оригинальный код http://www-cgi.cs.cmu.edu/afs/cs.cmu.edu/project/ai-repository/ai/areas/fuzzy/systems/anfis/ Квадратно-гнездовое разбиение входов и выходов безо всякой предварительной оптимизации реально нужного для этого количества нечетких множеств и прочий мрак.
>Подскажите наиболее эффктивные алгоритмы реализации нечеткой арифметики на ПК
Как сторонник R могу порекомендовать https://cran.r-project.org/web/packages/sets/index.html https://cran.r-project.org/web/packages/FuzzyNumbers/index.html (если нужна именно арифметика), если таки системы нечеткого вывода, то https://cran.r-project.org/web/packages/frbs/index.html и https://cran.r-project.org/web/packages/anfis/index.html (последнее - довольно годная реализация ANFIS со множественными входами и выходами).
>Альфа-срезы я пока не осилил, дайте пейпер годный по ним.
https://cran.r-project.org/web/packages/FuzzyNumbers/vignettes/FuzzyNumbersTutorial.pdf даже с картинками. Но альфа-срезы не нужны же, они только в нечеткой арифметике используются, в системах нечеткого вывода для них нет задач.
Аноним 17/03/17 Птн 11:59:09 #470 №955660 
Кто-то занимается вероятностным программированием? И как оное?
Аноним 17/03/17 Птн 12:42:39 #471 №955678 
201.jpg
>>955645
Благодарю за помощь.
>Наиболее неудачная нейрофаззи-модель
То есть я не смогу её гонять на среднестатистическом нищепека (16 памяти) или она будет постоянно застревать в локальных минимумах? Если все плохо, то какую нейрофаззи сеть посоветуешь для реализации на плюсах для студента?
Аноним 17/03/17 Птн 13:29:22 #472 №955702 
н2.PNG
>>955678
>я не смогу её гонять на среднестатистическом нищепека (16 памяти)
Сможешь. Сейчас комплюктеры пободрее, чем в 1993 году. Просто она реально медленно работает, у меня в вышеупомянутом пакете для R - frbs, на одном и том же датасете разница в скорости между anfis и др. нейрофаззи моделями была раз в 50.
>какую нейрофаззи сеть посоветуешь для реализации на плюсах для студента?
Они все примерно одинаковы, суть-то одна - настройка свободных параметров нечеткой модели с помощью бэкпропагейшна или чего-то в этом роде. Не считая некоторых хитрых моделей типа DENFIS-а Касабова и FLEXNFIS-ов Рутковского а-ля пикрелейтед, http://gen.lib.rus.ec/book/index.php?md5=1AE4B0938189187AD7783F5F43F85D87
Аноним 17/03/17 Птн 13:32:47 #473 №955703 
>>955678
А, ну еще Пегат же, А. Пегат, "Нечёткое моделирование и управление" у него эта тема годно разобрана.
Аноним 17/03/17 Птн 15:39:42 #474 №955759 
Сейчас на первом курсе втуза
Хотел бы вкатиться в МЛ
Планирую в первую очередь взяться за линалгебру/общую алгебру, затем матан. Некст - английский и с++ добить. Имею представление обо всём, о чем написал выше, но энивей углубиться нужно. Дальше по плану идёт теорвер/матстат
Далее уже браться за книжки по МЛ
По алгебре взял "Введение в алгебру" Кострикина, по матанализу "Математический анализ" Зорина, по теорверу/матстату "Теория вероятностей и математическая статистика. Базовый курс" Кибзуна, по плюсам - базовый курс Шилдта,
по английскому - "essential grammar in use" Рэймонда Мёрфи.
Анон, рейт эту всю хуйню и укажи на недостатки. Чего не хватает/что заменить етц
Аноним 17/03/17 Птн 15:45:28 #475 №955761 
>>955759
Кресты вообще не в тему, пистон учи. Линал/матан/теорвер да, пригодится. Учебник, лучше он или хуже, но он и в Африке учебник. Так что не парься, вкатывайся.
Аноним 17/03/17 Птн 15:53:53 #476 №955772 
>>955759
>Анон, рейт эту всю хуйню и укажи на недостатки
Ты не осилишь. Инфа 146%.
Аноним 17/03/17 Птн 16:01:09 #477 №955778 
>>955759
от Кострикина охуеешь, особенно после первого тома
Аноним 17/03/17 Птн 16:11:57 #478 №955786 
А под каким редактором и какой набор инструментов используя вы кодируете это машинное обучение?
Аноним 17/03/17 Птн 16:18:04 #479 №955787 
>>955761
в шапке про плюсы написано же. Да и к тому же, это единственный яп, акромя школьного паскаля, с которым я знаком на уровне олимпиадных консольных задач.
Общая алгебра нужна?
>>955778
Имею знания по линалгебре с первого семестра, общая алгебра идёт атм. Соответственно некоторую базу имею, да и обратиться в случае чего есть к кому за помощью.
Энивей, анон, подскажи замену, если действительно не осилю. На русском языке, в английский на уровне технической литературы/документации пока не могу.
Аноним 17/03/17 Птн 16:22:22 #480 №955789 
>>955787
>Общая алгебра нужна?
Нет. Линейная - на уровне манипуляций с векторами, матрицами и т.д.
Аноним 17/03/17 Птн 16:29:39 #481 №955792 
>>955789
А по плюсам всё-таки что? Непригодны вообще?
Аноним 17/03/17 Птн 16:35:32 #482 №955794 
>>955792
Для крутого разрабоччика МЛ-софта пригодны, тот же xgboost и MXNet на крестах сделаны. Для рядового слесаря-пользователя точно без надобности.
Аноним 17/03/17 Птн 16:37:45 #483 №955796 
>>955794
Спасибо, анон
Аноним 17/03/17 Птн 20:24:19 #484 №955933 
>>955792
Свои слои для caffe пилить если только.
Аноним 18/03/17 Суб 19:17:49 #485 №956471 
>>955786
vim
tensorflow
AWS
Аноним 18/03/17 Суб 19:18:27 #486 №956472 
Что там насчет курсеры? Стоит проходить?
Аноним 18/03/17 Суб 19:50:34 #487 №956486 
>>956472
можно, но книжки читать всёравно придётся
курсера ориентирована на массовое потребление поэтому курс оче разбавлен
лучше бишопа/макая (RIP) читни, если ещё не читнул
Аноним 18/03/17 Суб 21:41:25 #488 №956542 
Где-нибудь есть формула для примерного вычисления количества записей (datum) в learn set для сети на N нейронов на входном слое так, чтобы сеть реально обучилась и не уходила в переобучение? 500k записей на ~3500 нейронов мне, например, хватило идеально. Само собой все зависит от задачи, я знаю. Но хоть какие-то способы расчёта есть?
Аноним 18/03/17 Суб 21:49:48 #489 №956549 
>>956542
да, эту формулу можно вывести простой регрессией нейроночкой
берёшь много пар чисел (#записей, #нейронов) и подгноняешь нейроночку к этому датасету
Аноним 18/03/17 Суб 21:54:12 #490 №956554 
>>956549
для этого мне нужно много примеров сетей, которые заведомо работают
Аноним 18/03/17 Суб 23:25:15 #491 №956610 
>>951576
>>952014
>>952240
>>951854
Выбрал для себя Affinity propagation. Хоть алгоритм и медленный по сравнению со многими алгоритмами кластеризации(это также из-за моих кривых рук первака), но делает именно то, что мне нужно.
Спасибо всем, я довольно много гуглил и изучал этот вопрос, но именно здесь я получил наиболее дельные советы)
Аноним 19/03/17 Вск 01:37:15 #492 №956658 
Чёт мне кажется, что всё это хуйня ебаная. Дрочить 3 или 5 лет матан и прочую хуйню без какого-либо выхлопа и без каких-либо прикладных скилов, чтобы потом найти работу только в универе. Охуенная перспектива.
А без хорошего математического образования погроммитсам вообще бессмысленно вкатываться. Можно, конечно, изучить scikit за пару месяцев и уметь вызывать кнн или к минс, но только потом как интерпретировать полученные результаты?
И кому это нахуй надо? Только каким-нибудь совсем уж большим корпорациям, у которых офисы где-нибудь в Лондоне, Нью-Йорке или Сан-Франциско.
Аноним 19/03/17 Вск 01:39:56 #493 №956660 
1489314622001.jpg
>>956658
Это инересно, во-первых; во-вторых, сингулярность. СИНГУЛЯРНОСТЬ
Аноним 19/03/17 Вск 02:31:39 #494 №956687 
>>956542
Переобучение никак не зависит от размера датасета.
Аноним 19/03/17 Вск 05:40:37 #495 №956729 
>>956542
https://bratan.org/325
Аноним 19/03/17 Вск 10:32:18 #496 №956771 
>>956660
Далеко не всем в ML/Deep learning нужна математика в больших объемах. Есть фреймворки, где все нужные функции уже написаны. Ты вполне можешь использовать готовые примеры и строить годные модели, вернее ты обязан использовать готовое, т.к. придумыванием новых методов занимаются на теоретическом уровне в основном учёные. В нормальных местах, где серьёзно занимаются этой темой, отдельно существуют инженеры, которым не нужно куча лет математики, и исследователи
Аноним 19/03/17 Вск 14:01:36 #497 №956876 
>>956658
пoдростковый максимализм, или просто толстота зелёная?
сколько тебе лет?
Аноним 19/03/17 Вск 14:05:00 #498 №956879 
>>955759
сразу читай бишопа, нахуй твою алгебру жидовскую
Аноним 19/03/17 Вск 14:16:37 #499 №956884 
>>956658
>Можно, конечно, изучить scikit за пару месяцев и уметь вызывать кнн или к минс, но только потом как интерпретировать полученные результаты?
Посмотреть эти ебаные слайды Ына по поводу high variance и high bias. И все. Занятие реально слесарское, разница только в том, что приходится знать как билдить caffe и приготовить датасет в скриптовом языке. Ну и платят раз в 10 больше, чем слесарю-сантехнику.
Аноним 19/03/17 Вск 14:44:43 #500 №956905 
https://2ch.hk/pr/res/956903.html
https://2ch.hk/pr/res/956903.html
https://2ch.hk/pr/res/956903.html
https://2ch.hk/pr/res/956903.html
https://2ch.hk/pr/res/956903.html
https://2ch.hk/pr/res/956903.html
https://2ch.hk/pr/res/956903.html
https://2ch.hk/pr/res/956903.html
Аноним 19/03/17 Вск 19:45:04 #501 №957026 
urfin2.jpeg
>>955703
Большое спасибо за Пегата. Уже прочел первую треть, заходит легко, как китайские комиксы про кошкодевочек.
Аноним 19/03/17 Вск 22:03:43 #502 №957118 
>>956876
он прав как бэ
Кем вы видите себя через 5 лет? Аноним 30/03/17 Чтв 00:36:08 #503 №963365 
PYATILETKA-4.jpg
Как вообще вы видите своё развитие (деградацию) в следующие 5 лет в области мл?
Вкатился, что-то изнутри всё не так радужно. Одна из больших проблем: не знаю как развиваться и что вообще считать развитием. Пробовал читать умные книжки из ОП-поста (и не только), всё как бы понятно, что с этим делать непонятно. Куда вообще пихать глубокие знания мл алгоритмов я же не на кафедре стэнфорда?
Аноним 23/04/17 Вск 19:06:56 #504 №978623 
>>936522 (OP)
Где можно почитать подробно, про сверточные нейронные сети?
Аноним 20/05/17 Суб 00:35:11 #505 №993586 
>>936522 (OP)
Анон. Тупой вопрос. Как заставить нейронку рисовать? Тупой ньюфаг в этой сфере, да. Запилил лишь самую базовую (банальный массив х на у с пересчетом нейронов и обучением).
Как нейронке потенциально скармливать что-то и как получать на выхоод что-то? Что юзать и что прикручивать? Куда копать?
comments powered by Disqus

Отзывы и предложения