Сохранен 82
https://2ch.hk/sci/res/305292.html
24 декабря Архивач восстановлен после серьёзной аварии. К сожалению, значительная часть сохранённых изображений и видео была потеряна. Подробности случившегося. Мы призываем всех неравнодушных помочь нам с восстановлением утраченного контента!

НЕЙРОТРЕД

 Аноним 19/10/15 Пнд 14:38:44 #1 №305292 
14452547244320.jpg
Итак, тута у нас будет нейротред, тред про нейросети и все такое. Без срачей, школьников, хейтеров-неосиляторов, верунодебилов и прочего быдла. Проявления таковых имитаций жизни предлагается игнорировать. В качестве затравки предлагаю ознакомиться с лекцией Бернарда Уидроу, одного из пионеров этого направления.
Собственно, лекция Мастера в двух частях:
http://www.youtube.com/watch?v=hc2Zj55j1zU
http://www.youtube.com/watch?v=skfNlwEbqck
Несмотря на 82-х летний возраст (на момент записи видео), очень грамотно, вкратце, по делу и с примерами поясняет за свои изобретения - адалайны (разновидность искусственных нейронов) и механизм их обучения - LMS. Поехали!
Аноним 19/10/15 Пнд 14:52:03 #2 №305297 
14452555234440.png
Если ты с этого говна мамонта решил начать, то пока ты дойдешь до современной ситауции, уже технологическая сингулярность наступит.
Аноним 19/10/15 Пнд 14:57:48 #3 №305300 
>>305297
С современной ситуацией вполне знаком. Но, что интересно, почти у всей современной ситуации ноги растут примерно оттуда. Невозможно нормально понимать что-то не понимая самых азов.
Аноним 19/10/15 Пнд 16:18:50 #4 №305330 
>>305292 (OP)
Кружка на пике клевая, как сделать?
Аноним 19/10/15 Пнд 20:37:30 #5 №305385 
14452762506990.jpg
>>305292 (OP)
Поясняю что делает формальный нейрон.
Используя пороговую функцию он вычисляет степень сходства запомненного изображения и изображения на входе (при этом запомненное не хранится в самом нейроне, а может храниться отдельно, зато обязательно будет иметь с нейроном связь) на основании которой(степени) получается выход 0 - не похоже и 1 - похоже. Сигмоидальная функция и прочие представляют собой более плавные вариации пороговой, создающие в качестве выходов значения в диапазоне от 0.0 до 1.0, где решать уровень порога для них задача исследователя. В перцептронах сязи настраиваются вручную, в ИНС с обратным распространением ошибки - автоматически.

Собственно вернёмся к классификации.
Простое объяснение функции формального нейрона можно дать на следующем примере:
Представьте себе, что память нейрона это изображение. Обучение нейрона происходит путём проявления обучающей выборки на этом изображении, что и показывает нам пик релейтед. Многи могут возразить: "Кококо, там нет ни где картинок!" и будут правы, по тому что вместо пикселей в ИНС значения пикселов представляют собой связи входов с нейроном.
Аноним 19/10/15 Пнд 20:44:54 #6 №305386 
>>305385
Преимущества аппаратной реализации ИНС в том, что может быть одновременно выполнено множество сравнений входов с памятью, это даёт неоспоримое преимущество в скорости поиска информации для нейрокомпьютера, но не более - нет гибкости в выборе и количестве ресурсов.

Реализация на обычном компьютере же требует неимоверно больших объёмов памяти, 90% которой займут только связи, а простые запросы будут обрабатываться минуты, к тому же, реакция ИНС неуправляема, так как на случайной обучающей выборке предсказать её невозможно.

Что то ещё я умного сказать хотел, да забыл. Ну и хуй с ним.
Аноним 19/10/15 Пнд 20:47:29 #7 №305389 
>>305386
Как там в 1995?
Аноним 19/10/15 Пнд 20:48:12 #8 №305390 
>>305386
А, точно, за множество слоёв.
Дополнительные слои обобщают поступающую информацию. Давайте снова напряжём воображение. Если первый слой хранит усреднённые изображения, то что будет хранить второй слой - усреднённые усреднения в лучшем случае, в худшем - усреднённое состояние отдельных нейронов, что приведёт к полнейшей рефлексии второго слоя. Он не будет классификатором изображений, он будет классификатором степеней активности отдельных нейронов.
Аноним 19/10/15 Пнд 20:48:37 #9 №305391 
>>305389
Нормально в 95-м, как раз тогда я няшил твою мамку.
Аноним 19/10/15 Пнд 20:48:59 #10 №305392 
>>305391
Я думаю, ты тогда еще не родился.
Аноним 19/10/15 Пнд 20:49:13 #11 №305393 
>>305392
Взаимно.
Аноним 19/10/15 Пнд 20:49:38 #12 №305394 
>>305393
Я 1988 года рождения.
Аноним 19/10/15 Пнд 20:50:04 #13 №305395 
>>305394
Ты пиздабол, а не 1988 года рождения.
Аноним 19/10/15 Пнд 20:54:47 #14 №305397 
14452772878630.jpg
>>305395
Если бы. Сижу на школоборде со школотонами, проспавшими deep learning революцию, и тралю лалок.
Аноним 19/10/15 Пнд 21:00:31 #15 №305400 
>>305397
При мне ни один взрослый человек а тем более мужчина не называют слова "троль", "тролить", "лалка", "лал" и "лол", никогда. Понимаешь? Эти слова активно используются школотнёй, очень активно, они в каждом чате их как мантру повторяют в отличии от уже взрослых молодых людей, которым эти слова обсолютно чужды и тут ты, нихуясебе дядя 27 лет "тралит лалок" в школоборде. Ты не просто ведёшь себя как школьник, ты на столько эргономично с ними сливаешься, что из общей массы тебя уже ни что не выдляет.
Аноним 19/10/15 Пнд 21:11:28 #16 №305404 
>>305400
Я спросил тебя, как там в 1995, потому что твои знания, они того, слегка устарели. Нейросети сейчас считают на GPU, которые дают баланс между скоростью и гибкостью. При этом задача классификации изображений сейчас по сути решена (перформанс выше того, что может человек). А ты такой пришел и пишешь >>305391 азазаза, ну ты лол вообще.
Аноним 19/10/15 Пнд 21:15:28 #17 №305406 
Вообще, печаль беда, сидишь, двачуешь капчу, год, два, а потом тебе ананимас пишет 'ни один взрослый человек а тем более мужчина не называют слова "троль", "тролить", "лалка", "лал" и "лол"'. И ведь правда, вроде и зарплата есть, и жена, и мир повидал, а все равно в формат взрослого человека не вписываюсь.
Аноним 19/10/15 Пнд 21:16:34 #18 №305407 
>>305404
Тут ты батинька просрались, по тому как мои устаревшие знания тянутся из 70-х годов, если бы вы чистали википедию, то знали бы это и с тех пор нейросети миллиарды раз обсчитали и без GPU, а основная задача нейросетей это не классификация, они создавались как новое направление в исследовании или даже создании искуственного интеллекта, что из этого вышло мы видим прямо сейчас - школьник на школоборде "тралит лалку", рассказывая мне про GPU.
Аноним 19/10/15 Пнд 21:26:54 #19 №305409 
14452792142110.png
>>305407
С 70-х годов до середины нулевых тянулось очень много вредных заблужений. Например то, что много слоев - это бесполезно (>>305390 - вот это пиздец какой-то), что активаторная функция с насыщением - это хорошо, что backpropagation не универсален и т. д. и т. п. Поэтому моя мотивация заключается в том, чтобы ты изучил современное положение вещей, чтобы не тратить время на говно мамонта. Вот тебе раз: http://goodfeli.github.io/dlbook/ вот тебе два: http://cs231n.github.io/ . Удачи.
Аноним 19/10/15 Пнд 21:31:18 #20 №305410 
>>305409
Зачем мне это изучать, если и так понятно - ИИ нет, а к закрытым, хорошо финансируемым исследованиям проводимым настоящими учёными ни кого не подпустят.
Аноним 19/10/15 Пнд 21:32:16 #21 №305412 
14452795370230.jpg
>>305300
>С современной ситуацией вполне знаком
знаешь есть такой парадокс невежда считает что он компетентен во всем, специалист же наоборот считает что не достаточно обучен.

>>305386
>Реализация на обычном компьютере же требует неимоверно больших объёмов памяти
полный бред пишешь, может когда были диски на 2 гига и оперативы на 2 мбайта то это и требовало неимоверных обьемов, сейчас же даже если ты миллион нейронов соединишь каждый с каждым то значения обьемов памяти не привысят терабайтов.
На обычном компьютере главная проблема это то, что процесс пересчета происходит неодновременно, и именно процессорного времени потребуется много, но и эта проблема решаема т.к. процесс легко распараллелить.

Ну и треду нехватает явного упоминания современных разработак в этом направлении, хотя бы упомянуть чипы, которые полностью придерживаются модели.

В IBM neurosynaptic chips, модель 2014 года имеет миллион программируемых нейронов и 256 миллионов синапсов.
Немаловажным фактором является экономичность таких чипов т.к. один чип потребляет всего 4 Киловатт электричества.
Соответственно суперкомпьютер на основе таких чипов уже сейчас может вполне иммитировать модель мозга человека. Главной же проблемой остается разумеется постановка задач и обучение этой модели.
Видео релейтед по теме, там уже звучат несколько другие цифры, ну и там стенд собран уже с участием этих чипов
http://www.youtube.com/watch?v=tAtmNYBObkw
Аноним 19/10/15 Пнд 21:37:52 #22 №305414 
>>305412
>Соответственно суперкомпьютер на основе таких чипов уже сейчас может вполне иммитировать модель мозга человека.
Не может, человеческий нейрон соответствует мини-нейросети тех простых моделей нейронов, которые обсчитывает этот чип. Это не считая разных рецепторов в мозге и тому подобного. Мы на самом деле не знаем, как работает мозг.
Аноним 19/10/15 Пнд 21:39:37 #23 №305415 
>>305412
>полный бред пишешь, может когда были диски на 2 гига и оперативы...
Да нет же, я подсчитать пытался. Выглядело просто бешано, примерно сотня терабайт на 10 млрд нейронов, где каждый связан с каждым, а связь представляет собой не бит а структуру содержащую несколько переменных типов, которые не по байту занимают, чтобы нулевой нейрон соединился с террабайтным, ему нужен 40 чтоли битный указатель.
Аноним 19/10/15 Пнд 21:39:53 #24 №305416 
>>305414
>иммитировать модель мозга человека
понимаешь? не сам мозг, но тебе главное вставить пять копеек что Бог накажет, и нельзя ничего сделать.
Аноним 19/10/15 Пнд 21:40:25 #25 №305417 
>>305415
зачем тебе 10 млрд нейронов?
Аноним 19/10/15 Пнд 21:40:39 #26 №305418 
>>305415
Зачем каждый связывать с каждым? Мозг так не работает. Ты даже о сверточных сетях не в курсе?
Аноним 19/10/15 Пнд 21:41:37 #27 №305419 
>>305417
Неокотекс столько содержит
Аноним 19/10/15 Пнд 21:42:02 #28 №305420 
>>305418
Статичная система влечёт за собой меньше ошибок
Аноним 19/10/15 Пнд 21:43:32 #29 №305421 
>>305420
Нет. Такую систему очень легко переобучить. Важно грамотно сократить число связей - не ради экономии вычислительной мощности, а ради того, чтобы нейросеть обощала входные данные, а не переобучалась.
Аноним 19/10/15 Пнд 21:43:54 #30 №305422 
>>305415
к тому же у тебя некоторые пробелы в построении алгоритмов, можно вполне использовать меньше имея больше.
если будут значения не 1 а 10 байт, то это максимум увеличит обьемы в 10 раз понимаешь?
что за 40 бит? это 8 байт всего
Аноним 19/10/15 Пнд 21:45:44 #31 №305423 
>>305422
4 байта = ~4 000 000 000
8 байт = ~4 10^19
Террабайт = 1
10^12
Аноним 19/10/15 Пнд 21:45:52 #32 №305424 
>>305419
>Неокотекс
ну а зачем каждый с каждым соединять?
есть же основные модели
Аноним 19/10/15 Пнд 21:46:37 #33 №305425 
>>305423
если ты оп, то я удаляюсь из треда неуча.
Аноним 19/10/15 Пнд 21:47:33 #34 №305426 
>>305424
Пилишь такой ИИ, он значит за год захватывает мир, началась утопия роботов и тут ХУЯК! у ии сбой, закончилась память, по тому что разраб не учёл экспотенциальный рост числа потенциальных связей при увеличении числа нейронов.
Аноним 19/10/15 Пнд 21:47:50 #35 №305427 
>>305425
уходи, мне похуй

Аноним 19/10/15 Пнд 21:49:26 #36 №305428 
>>305426
ИИ захватил весь мир, но настолько тупой что не знает как сам устроен? и не сможет сам допилить и усовершенствовать себя, не говоря уже просто вопрос нахуя ему просто так увеличивать кол-во нейронов в пределах одной железки.
Аноним 19/10/15 Пнд 21:50:28 #37 №305429 
>>305428
А какая разница, ему же нужно будет как то сообщаться с остальными нейронами
Аноним 19/10/15 Пнд 21:53:17 #38 №305430 
>>305421
Забавно, что мое сообщение по существу было проигнорировано.
Аноним 19/10/15 Пнд 21:54:24 #39 №305431 
>>305429
через интерфейс, в котором используется фиксированное число нейронов, и не добавляя в свою конструкцию новых, не?
ты вообще вкурсе как новая информация поступает в нейронную сеть, и что происходит в итоге с той информацией что была и новой?
По твоему нужны новые нейроны? лол
Аноним 19/10/15 Пнд 21:55:12 #40 №305432 
>>305431
Ты вроде собирался уйти?
Аноним 19/10/15 Пнд 21:56:23 #41 №305433 
>>305421
>>305430
Забавно что экономишь вычислительную мощность удаляя синапсы, хоть в нейрочипах экономия вообще будет не существенной
Аноним 19/10/15 Пнд 21:57:20 #42 №305436 
>>305433
Вот ебанат-то. Важно грамотно сократить число связей - не ради экономии вычислительной мощности
Кому писал, какой жопой ты меня читаешь.
Аноним 19/10/15 Пнд 21:58:15 #43 №305437 
У тебя твои триллиарды параметров нейросети приведут к тому, что обучить ее будет невозможно, потому что чем больше у тебя параметров, тем хуже у тебя с обобщением и предсказанием.
Аноним 19/10/15 Пнд 22:00:57 #44 №305439 
>>305437
по твоему один нейрон тогда способен выполнять все задачи самостоятельно
если-нет-то-тогда-сколько.jpeg
Аноним 19/10/15 Пнд 22:09:15 #45 №305441 
>>305439
А это называется оптимальный подбор гиперпараметров нейросети (числа слоев, нейронов, структуры связей между ними и т. п.).
Аноним 19/10/15 Пнд 22:32:46 #46 №305447 
Ну это пиздец, что ты мне принёс? Я, кстати, заметил интереную вещь в выходцах из российских вузов - им Machine Learning преподают, похоже, по учебникам 70-х или 80-х годов. Из алгоритмов знают 1)перцептрон 2)наивный Баес 3)лог.регрессию и 4)наипростейшую нейронку с парой скрытых слоёв, причём это считается чем-то очень навороченным. ВСЁ. Как будто прямиком из 1985. Причём у человека бумажка, согласно которой он, блядь, инженер-разработчик программного обеспечения. Знаний в статистике, современных алгоритмах, теории обучения - просто нет. Я ей-богу лучше с людьми с улицы, прошедшими онлайн-курс бы работал.
Прочтите, накатило.
Аноним 19/10/15 Пнд 22:36:27 #47 №305450 
>>305447
Это где в России преподают Machine Learning?
Аноним 19/10/15 Пнд 22:38:28 #48 №305451 
>очень грамотно, вкратце, по делу и с примерами поясняет за свои изобретения - адалайны (разновидность искусственных нейронов) и механизм их обучения - LMS
Видос не смотрел, на Вики написано, что это эквивалентно линейной регрессии, предполагая Гауссовский шум, это так?
Аноним 19/10/15 Пнд 22:41:02 #49 №305453 
>>305450
В любой шараге, готовящей погромистов, есть курс вроде "Основы нейронных сетей" или как-то так, вот оттуда они и лезут.
Аноним 19/10/15 Пнд 22:41:06 #50 №305454 
>>305451
adaline - это, очевидной, адаптирующийся лайн, т.е. линейный классификатор допотпных времен до открытия backpropagation.
Аноним 19/10/15 Пнд 22:46:27 #51 №305455 
>>305454
Тебя по русски писать учить чтоли нужно? Какого хуя ты по английски выражаешься.
Аноним 19/10/15 Пнд 23:01:06 #52 №305457 
>>305455
По-русски. Что ли. По-английски. Кого тут учить нужно - не знаю.
"Лайн" я написал, чтобы была видна этимология слова adaline. Backpropagation - потому что 1) "метод обратного распространения ошибки" - звучит громоздко, а более удачного термина не завезли, 2) чтобы человек знал, что гуглить.
Аноним 19/10/15 Пнд 23:01:46 #53 №305458 
>>305454
Ясно, я так и думал. А в чём дидактическая ценность этого метода?
Аноним 19/10/15 Пнд 23:04:46 #54 №305460 
>>305458
Я тоже не знаю, зачем ОП его принес. Мое мнение тут: >>305297
Аноним 19/10/15 Пнд 23:19:43 #55 №305468 
Если следовать твоей логике, то математики должны объяснять свои мысли исключительно формулами, ибо формализм, знания, по выпендриваться в знании формализмов, а не разговаривать по русски.
Ну да ладно.
>>305457
1) Похуй как звучит, зато понятно и более полно по смыслу, если сравнить с переводом backpropagation - сокращай.
2)Действительно, нахуя своими словами описывать, всё же прекрасно гуглится - накидал терминов, так чтобы даже хокинг охуел и заебись, ни кто не понял, ну и хуй с ним.
Аноним 20/10/15 Втр 00:45:15 #56 №305505 
>>305292 (OP)

И щас прям все школьники и хейтеры такие: "Ой, блин, ну ок, пойду поем."?

Про тиристорные системы слышно что-нибудь?
Аноним 20/10/15 Втр 14:21:26 #57 №305615 
Суть адалайнов и LMS например, в том, что такие модели позволяют понять смысл гораздо более сложных алгоритмов, занимающихся тем же - регрессией и классификацией. В этом смысле крайне полезны даже старые совковые книги Вапника с Червоненкисом.
Простой пример - в чем суть использования гиперплоскостей в алгоритмах классификации или идентификации систем? В случае классификации гиперплоскость y=ax+b можно приравнять к 0, и тогда она будет разделять в соответствующем ей подпространстве все что меньше 0 от всего что больше 0. А в случае аппроксимации функций, например моделью Такаги-Сугено, гиперплоскости в консеквентах правил будут наоборот аппроксимировать распределение в случае приближения к главным компонентам системы, которой принадлежит тестовое распределение точек. Потом, еще вопрос, почему в качестве производной лучше именно квадратичная функция? Потому что это параболоид, который в силу своей формы имеет единственный глобальный оптимум.
>>305397
>проспавшими deep learning революцию,
И в чем же там революция? В том, что подобные сети, сколько-либо пригодные для практических целей, по месяцу сходятся на 8-процессорных теслах? Хайп на ровном месте вижу, революцию не вижу.
Аноним 20/10/15 Втр 15:24:18 #58 №305646 
>>305615
> моделью Такаги-Сугено
О-хо-хо. Не, чувак, еще раз я тебе писать то, что уже писал, не буду.
Аноним 20/10/15 Втр 16:05:55 #59 №305669 
>>305646
Помню, что писал ты примерно что нимодно, нипапацански, вообще прошлый век, да и авторы пиздоглазые. По существу предъяв против TS не припоминаю. На предложение привести в пример что-то поновее, написал PSO. А я тебе ответил, что рой частиц - для оптимизации, и в отличие от, для идентификации систем бесполезен. Вроде бы на этом и закончили?
Аноним 20/10/15 Втр 18:30:36 #60 №305723 
>>305669
Ну вот смотри, задача - распознавание речи, на какой стул сам сядешь, на какой мать посадишь?
Аноним 20/10/15 Втр 18:42:08 #61 №305725 
>>305723
>задача - распознавание речи,
Кохонен еще в 80-е годы этим успешно занимался. В его монографии немало примеров распознавания как отдельных фонем, так и слитной речи. Алгоритмы - LVQ, SOM.
Аноним 20/10/15 Втр 18:49:01 #62 №305728 
>>305725
Ну иди нахуй тогда, диванный теоретик.
Аноним 20/10/15 Втр 18:58:16 #63 №305729 
>>305728
>диванный теоретик.
Ты наркоман или наркоман? Какие теории, пакет lvq_pak, созданный Кохоненом - http://www.cis.hut.fi/research/lvq_pak/ там в исходниках в качестве примера файлы ex1.dat и ex2.dat, как раз распознавание фонем, описанное в монографии.
Аноним 20/10/15 Втр 18:59:52 #64 №305730 
14453567920600.jpg
>>305729
Он триличная сволочь.
Аноним 20/10/15 Втр 19:06:35 #65 №305732 
>>305729
Ну да, распознавание уровня 80-х годов. Буквально. Диван и есть диван.
Аноним 20/10/15 Втр 19:12:21 #66 №305734 
>>305732
>распознавание уровня 80-х годов.
Ну давай, расскажи, чем распознавание уровня 80-х годов отличается от какого-то другого уровня? Опять же, сославшись на Кохонена, более 96% фонем слитной речи распознаются правильно, причем, не требуется даже специального железа, все работало в рилтайме на тех еще камплюхтерах. Расскажи, недиван, намного ли лучше дела обстоят сейчас? И сколько гугловских суперкомпьютеров для этого нужно?
Аноним 20/10/15 Втр 19:16:11 #67 №305743 
>>305734
Ну да, а жидорептилоиды скрывают.
Аноним 20/10/15 Втр 19:16:53 #68 №305746 
>>305734
Возможно я ошибаюсь, но он "на школоборде тралит лалку".
Аноним 20/10/15 Втр 19:40:15 #69 №305750 
>>305743
>ВРЕТИ!!111
Ага, скрывают. Настолько скрывают, что все в открытом доступе и даже с переводом на русский. Распознавание речи сводится к векторному квантованию, это медицинский факт.
>>305746
Тогда ладно.
Аноним 20/10/15 Втр 19:46:36 #70 №305751 
>>305750
Тогда почему ты до сих пор не миллионер? Сделал бы стартап без гугловских суперкомпьютерах на статьях тридцатилетней давности, победил бы state of art, мамке бы дачу купил.
Аноним 20/10/15 Втр 20:37:39 #71 №305764 
>>305751
Я бы и тебе дачу купил
Аноним 20/10/15 Втр 20:39:10 #72 №305765 
>>305751
>>305764
а тут ты чавкая мне отвечаешь: "И фапатьку."
Аноним 20/10/15 Втр 22:15:43 #73 №305783 
Привет. С какой книги я могу начать обмазываться физикой, что бы считать себя в данном направлении где-нибудь на уровне "Любитель -"? В Интернете нашел, с виду, неплохую книгу "Введение в физику" Китайгородского. Какого чёрта в вашей тематике нет треда новичков?
Аноним 20/10/15 Втр 22:18:12 #74 №305784 
>>305783
http://mults.info/mults/?id=1906
Аноним 20/10/15 Втр 22:19:25 #75 №305785 
>>305784
Ты уверен, что это даст мне необходимые знания для перехода к более сложным, глубоким разделам физики?
Аноним 20/10/15 Втр 22:20:04 #76 №305786 
>>305785
Канешна!
Аноним 20/10/15 Втр 22:22:43 #77 №305787 
>>305786
Хорошо! Но если знания, которые может дать мне этот мультфильм, ниже моих нынешних познаний в физике, то ты - мужской детородный орган.
Аноним 20/10/15 Втр 22:23:49 #78 №305788 
>>305787
Это не важно, ведь твои познания ниже тех, которые может дать этот мультфильм.
Аноним 20/10/15 Втр 23:05:07 #79 №305792 
>>305783
Вот он этот тред http://2ch.hk/sci/res/305539.html
Аноним 20/10/15 Втр 23:28:43 #80 №305794 
>>305788
Я посмотрел твой мульт. Теперь дай мне книгу.

>>305792
Спасибо. Он не совсем активен, похоже.
Аноним 20/10/15 Втр 23:36:04 #81 №305797 
>>305794
Это вся доска такая, но люди туда заходят.
Аноним 20/10/15 Втр 23:54:25 #82 №305799 
>>305797
Хорошо. Тогда отпишусь там как-нибудь, в следующий раз. Добра.
comments powered by Disqus

Отзывы и предложения