24 декабря Архивач восстановлен после серьёзной аварии. К сожалению, значительная часть сохранённых изображений и видео была потеряна. Подробности случившегося. Мы призываем всех неравнодушных помочь нам с восстановлением утраченного контента!
sage

НЕЙРОНОЧКИ & МАШОБ #11

 Аноним OP 29/01/17 Вск 15:34:02 #1 №921502 
utrenya mochya.png
evol.png
SLESARFLOW.png
книги
Pattern Recognition and Machine Learning, Bishop.
Information theory, inference & learning algorithms, MacKay http://www.inference.phy.cam.ac.uk/itila/
Machine Learning: A Probabilistic Perspective, Murphy

Introduction to Statistical Learning ( http://www-bcf.usc.edu/~gareth/ISL/ISLR%20Sixth%20Printing.pdf )
Elements of Statistical Learning ( http://statweb.stanford.edu/~tibs/ElemStatLearn/printings/ESLII_print10.pdf )
Foundations of Machine Learning, أشهد أن لا إله إلا الله وأشهد أن محمد رسول الله. http://www.cs.nyu.edu/~mohri/mlbook/

Fundamentals of Neural Networks: Architectures, Algorithms, and Applications, Fausett L.

А. Пегат, "Нечёткое моделирование и управление"

другое
http://libgen.io / http://bookzz.org/ - здесь можно одолжить ^ книги и не только
http://arxiv.org/find/all/1/all:+nejronochki/0/1/0/all/0/1
https://www.reddit.com/r/MachineLearning/wiki/index

https://vk.com/deeplearning и http://deeplearning.net/reading-list/
https://www.kadenze.com/courses/creative-applications-of-deep-learning-with-tensorflow/info тюториал по slesarflow
http://rgho.st/8g68fTCSx две брошюры по deep learning для слесарей.

http://kaggle.com - весёлые контесты. денежные призы
https://www.hackerrank.com/domains/ai/machine-learning/difficulty/all/page/1 - олимпиадки

курс от китаёзы
http://videolectures.net/mlss09uk_cambridge/

яп
1. http://julialang.org/
2. https://www.microsoft.com/en-us/research/project/infernet/
3. https://www.r-project.org/
4. питухон и так все знают
5. idris/coq - модные яп для формально верифицированных нейроночек с тренировкой на этапе компиляции

ПЛАТИНА
Книги хорошо, но с чего начать практический вкат?
Во-первых, вам нужна любая unix-based система. На Windows возможно запустить нижеперечисленное, но ждите пердолева с настройкой и неодобрительных взглядов анонимуса. Кроме того, в компаниях, так или иначе связанных с разработкой йоба-ПО и machine learningом, Linux/OS X является стандартом. Привыкайте.
Во-вторых, определитесь с языком. Python и C++ наиболее мейнстримовые инструменты, с ними вы без еды не останетесь. Есть еще R, на котором пацаны живут статистикой и анальными пакетами. Некоторые инструменты являются языко-независимыми (Vowpal Vabbit, XGBoost), но обвязывать их вы все равно будете из какой-либо среды.
На Java разработано много production-ready инструментов для бигдаты и если вы угораете по терабайтам данных, то имеет смысл посмотреть в её сторону. Впрочем, лучше это делать уже потом, когда прийдет осознание потребностей.
В-третих, выбирайте себе задачу. Что угодно: распознать качпу, обнаружить ботов по логам, найти раковых больных. Список можно посмотреть, например, на kaggle.com. После чего приступаете к решению выбранной задачи.

Не прийдется ли мне потом с таким наборищем знаний идти в макдак работать?
Несмотря на хайп вокруг ML, далеко не во всех IT компания есть необходимость в ML и понимание круга задач, которые можно решить этими методами. Но поверьте, в 2017 компетентный специалист будет востребован. В России потребителями ваших знаний могут стать: Яндекс, Mail.ru, Вконтакте, Rambler, Касперский, Билайн, Связной, ABBYY, Хуавэй. В биоинформатике есть определенный спрос, можно поскролить http://blastim.ru

Здорово, но я так и не понял чем же вы занимаетесь в IT компаниях?
Попытаюсь ответить со своей колокольни и сразу хочу предупредить, что это едва ли консенсуальное мнение.
ML-специалист - это такое зонтичное определение для человека, способного увидеть проблему, выгрепать кучу логов и данных, посмотреть на них, придумать решение проблемы и врезать это решение его в продакшн. По сути, это кодер, решающий не чисто технические, а, в некотором роде, человеческие проблемы.
Имхо, мы все же остаемся в первую очередь разработчиками.

Что такое TensorFlow?
TensorFlow - опенсорсный гугловый инструмент для перемножения тензоров и оптимизации функционалов. Опенсорсный - потому что даже важные куски типа параллелизации уже выкачены в паблик. Если вам все ещё непонятно что это, значит это вам и не нужно, сириусли. Google перестарался с рекламой и теперь люди думают, что TF - это серебряная пуля и затычка для каждой бочки. До TF был Theano, который выполнял свою работу не хуже. И, в отличии от TF, он уже находится в стабильной фазе.

будет ли ML нужен в ближайшие 10 лет, или это просто хайп?
будет. хайп.

смогу найти работу?
Яндекс, мейлру, касперский, несколько биоинформатических компаний (iBinom, можно еще blastim.ru поскролить на тему работы), билайн (они с НГ целое подразделение открыли под ML и биг дату), связной. Ну и западные аутсорсы, если готов рачить за валюту.

нужна математика?
для начинающего ничего особого знать не нужно
https://www.amazon.co.uk/Calculus-Michael-Spivak-x/dp/0521867444
https://www.amazon.co.uk/dp/0534422004/ref=pd_lpo_sbs_dp_ss_2?pf_rd_p=569136327&pf_rd_s=lpo-top-stripe&pf_rd_t=201&pf_rd_i=0980232716&pf_rd_m=A3P5ROKL5A1OLE&pf_rd_r=3TZ38AZ2BY28R19H4SA5
https://www.amazon.co.uk/Calculus-Several-Variables-Undergraduate-Mathematics/dp/0387964053
https://www.amazon.co.uk/Introduction-Probability-Dimitri-P-Bertsekas/dp/188652923X
"основы теории вероятностей" Вентцель

поясните за нейроночки
нейроночка - массив

шад)))
Нет там ничего ML-специфичного, знание матана и теорвера на уровне заборостроительного вуза. Теорвер проходится на третьем курсе, как раз 20 лет.
Рандомный хрен туда не сможет поступить, потому что планка намеренно задрана, а не потому что там такая охуенно сложная программа. Это традиционная наебка "элитных учебных заведений", в которой учат так же хуево, как и везде, но за счет отбора поступающих якобы формируются неебовые успехи, которые объясняются именно качеством преподавания.
Иными словами, у тех, кто способен поступить, и так в жизни проблем с трудоустройством не будет.

Тред #1: https://arhivach.org/thread/147800/
Тред #2: https://arhivach.org/thread/170611/
Тред #3: https://arhivach.org/thread/179539/
Тред #4: https://arhivach.org/thread/185385/
Тред #5: https://arhivach.org/thread/186283/
Тред #6: https://arhivach.org/thread/187794/
Тред #7: https://arhivach.org/thread/196781/
Тред #8: https://arhivach.org/thread/209934/
Тред #9: https://arhivach.org/thread/223216/
Тред #10: https://arhivach.org/thread/234497/
Аноним 29/01/17 Вск 16:31:02 #2 №921527 
Так почему не создан ИИ?
Аноним 29/01/17 Вск 16:39:55 #3 №921528 
>>921527
Создан. Осмотрись вокруг. Почти в каждой компьютерной игре он есть.
Аноним 29/01/17 Вск 16:55:56 #4 №921533 
Есть опенсорсные проекты по распознаванию настроения текста, часто употребляемые слова, вот это вот все? Это вроде text mining зовется?
Аноним 29/01/17 Вск 17:56:34 #5 №921560 
>>921502 (OP)
> reinforcement learning
> bayesian method
Всё так же уныло.
Аноним 29/01/17 Вск 18:16:20 #6 №921577 
>>921533
Это называется sentiment analysis. Есть контесты на Kaggle по этой тематике, там можно много интересного почерпнуть. Ну и гуглится довольно неплохо.
Аноним 29/01/17 Вск 18:44:11 #7 №921599 
C3HuxLWUEAAaJ-d.jpg:large.jpeg
Типикал слесари итт.
Аноним 29/01/17 Вск 19:21:41 #8 №921610 
>>921599
А кто не слесарь? Архитектуру сетей придумывают единицы, да это и не нужно всем
Аноним 29/01/17 Вск 19:26:40 #9 №921615 
Ну так что, котаны, почему вы так насасываете?

http://fpi.gov.ru/activities/konkurs/spacemap

Время продлили на овердохуя, по прежнему 4 тела на всю расею с адекватными результатами, срсли?
Аноним 29/01/17 Вск 19:36:11 #10 №921621 
>>921610
> НИНУЖНО
Проиграл. На самом деле ты прав, конечно, но всё равно смешно.
Аноним 29/01/17 Вск 20:27:02 #11 №921665 
>>921615
Охуеть, ты где это отрыл?
Мы тут за пределы своих заводов редко выглядываем, разве что за брошюрками
Аноним 29/01/17 Вск 21:04:32 #12 №921681 
>>921615
>Только для граждан РФ
Ну и идите в жопу, я резидент юрлицо, хули надо еще? Обмазались тут своей бюрократией до опизденения, на каждом шагу, четыре года с ней ебусь, даже конкурс этот - почитай документацию, там только требований отпечатка ануса на официальном бланке организации не хватает.
извините, бомбанул
Аноним 29/01/17 Вск 21:12:30 #13 №921683 
Саб двачю. На связи гуманитарий. Можьно ли ваш машин-лёрнинг использовать для извелечения профита с букмекерских контор? То есть на основе огромного количества данных об уже сыгранных матчах научить компутер предсказывать исход грядущих точнее, чем это делают незадачливые букмекеры?

Или эти самые букмекеры уже наняли армию студентов-датасаентистов с такой же целью?
Аноним 29/01/17 Вск 23:35:15 #14 №921761 
>>921683
Погугли: Владимир Келасев, «Движение цен: случайность или закономерность?»
Аноним 30/01/17 Пнд 11:05:56 #15 №921912 
st.jpg
st2.PNG
>>921683
Хуй там. Я сам пытался угореть по ставочкам. Простые модели работают плохо, хоть и угадывает больше 50% результатов, но при среднем кэфе 1.75 это вообще ниочем. Тута все сложнее - нужно ебашить идентификацию динамической системы, простой аппроксимацией апостериоров не добьешься ничего, базарю. К слову, у букмекеров такие же васяны сидят, у меня бывали результаты правильнее, чем в конторах (ну они же стараются предсказывать чтобы заведомому победителю кэф поменьше поставить). Думаю, идентификацией state-space моделей динамической системы можно поинтереснее результаты получить, но пока не занимался - лениво.
Аноним 30/01/17 Пнд 12:23:27 #16 №921924 
Кароче! Как сделать так чтобы эта штука делала за меня домашку?
Аноним 30/01/17 Пнд 14:24:35 #17 №921995 
>>921935
Меня тогда родаки дропнут
Ты думай что ты говоришь
Аноним 30/01/17 Пнд 17:37:40 #18 №922135 
Анон, вкратце отличия от статистики можешь описать?
На данный момент ощущение что работает как стат анализ + некая вероятностная функция
Аноним 30/01/17 Пнд 17:52:00 #19 №922167 
>>921995
И правильно сделают.
Аноним 30/01/17 Пнд 18:08:17 #20 №922201 
SDC116191.jpg
>>922135
Теория статистического обучения, н-р, и рассматривает МЛ с точки зрения статистики.
Аноним 31/01/17 Втр 09:02:37 #21 №922832 
>>921502 (OP)
Довны, вы хоть сами себе можете объяснить, чем нечёткие множества от банального теорвера отличаются?
Аноним 31/01/17 Втр 11:10:00 #22 №922880 
>>922832
Я не только себе, я и тебе это могу объяснить. Нечеткость - это вид неточности, не сводимый к вероятности (а вот вероятность, наоборот к нечеткости свести можно, что доказал Коско в нечеткой теореме Байеса). http://sipi.usc.edu/~kosko/Fuzziness_Vs_Probability.pdf
Аноним 31/01/17 Втр 11:26:00 #23 №922887 
>>922880
> http://sipi.usc.edu/~kosko/Fuzziness_Vs_Probability.pdf
> Electrical Engineering Department
А можно чего-нибудь написанное математиками, а не технарями? А то технари известны своей "способностью" "разбираться" в математике. Например, среди авторов доказательств Большой Теоремы Ферма в три строчки (конечно же, неверных доказательств) большинство — всякие инженеры и прочие к.т.н.
Аноним 31/01/17 Втр 11:56:04 #24 №922906 
>>922880
Ненужная антинаучная хуита.
Аноним 31/01/17 Втр 12:04:18 #25 №922911 
>>922201
Откуда берётся элемент случайности при каждой итерации нейросети?
Диффура же одинаково решается в при идентичном исходном уравнении.
Аноним 31/01/17 Втр 12:37:38 #26 №922926 
>>922911
1) Исходные веса инициализируются случайно
2) На каждой итерации при обучении берется только часть (практически случайно выбранная) обучающей выборки - батч. Градиент вычисляется на основе батча и такой метод оптимизации называется стохастический градиентный спуск.
Аноним 31/01/17 Втр 12:41:46 #27 №922928 
>>922926
И это ещё без всяких дропаутов, добавления шума и семплирования в некоторых архитектурах.
Аноним 31/01/17 Втр 12:42:46 #28 №922929 
>>921615
Кстати довольно неплохая задача, требующая чуть больше мозгов, чем МАМ СМОТРИ Я СОБРАЛ АНСАМБЛЬ ИЗ 30 ГУГЛЕНЕТОВ И РЕСНЕТОВ И У МЕНЯ НА 0.0001% ЛУЧШЕ КЛАССИФИКАЦИЯ. Начать с того, что данные у них битые и разметку делала паралимпийская команда, а закончить тем, что 10-мегапиксельную картинку надо жахнуть за 15 секунд на говне вместо видюхи.
Аноним 31/01/17 Втр 14:58:33 #29 №922980 
>>922926
>Исходные веса инициализируются случайно
В к-средних пиздец много от выбора центроидов зависит, а тут?
Аноним 31/01/17 Втр 16:07:27 #30 №923032 
>>922980
Важно выбрать начальные веса так, чтобы градиент не взорвал всё к хуям в начале и чтобы протёк через всю сетку нормально до первых слоев. А так - пофигу ваще. Все юзают алгоритм xavier и забивают болт на это.
Аноним 31/01/17 Втр 16:11:58 #31 №923038 
>>923032
Как вкатиться, анон? Ты учёный?
Аноним 31/01/17 Втр 16:21:11 #32 №923049 
>>923032
>алгоритм xavier
> xavier algorithm that automatically determines the scale of initialization based on the number of input
>пофигу ваще
>забивают болт
Так наоборот же,как раз потому и юзают, что от грамотной инициализации много зависит, видимо, или не? Кстати, это ж похоже на детерминированный хаос или как-то так, эффект бабочки типа, когда от начального состояния много зависит? Нейросети часом не динамические системы ?
Аноним 31/01/17 Втр 16:28:11 #33 №923055 
>>923038
Первым делом учишь английский, потом ищешь курсы по ML, желательно с практикой (у Яндекса с МФТИ нормальный, но, вроде платный), проходишь.

После того, как понял ключевые вещи в ML и попробовал всякие деревья и SVMы на игрушечных датасетах - ставишь себе любой deep learning фрейм и разбираешься в нём.

Дальше начинаешь пробовать силы на настоящих датасетах и в конкурсах, читаешь свежие статьи с arxiv, реализуешь, начинаешь переписывать deep learning фрейм под себя.

Как работу искать тут я хз, но нормальных людей, которые могут хотя бы эксперименты гонять на питоне с уже написанной моделью днём с огнём не сыщешь.

Я - ML инженер, работаю в НИИ над компьютерным зрением по всяким заказам на автоматизацию (военные, медики). Юзаю Caffe.
Аноним 31/01/17 Втр 16:35:30 #34 №923066 
>>923055
Выглядит просто. Подозреваю, что за этим потянется ещё куча математики.
>читаешь свежие статьи с arxiv
Насколько свежие статьи? Расскажи последние новости, типа не перцептрон 70-х годов, а современные модели/алгоритмы, а лучше ресурсы новостные тематические. Около года назад нагугливал Spiking Network , причём в рунете вообще ничего не было про это, сейчас уже видел переводы. Вообще, как с доступностью информации дело обстоит? Мне почему-то казалось, что чем глубже, тем меньше инфы и нужно уже поступать куда-то магистратуру/аспирантуру, чтобы доступ к упубликациям иметь.
Аноним 31/01/17 Втр 16:37:06 #35 №923069 
>>923049
У тебя задача оптимизации функции в охуительно многомерном пространстве (число измерений = число весов сетки). И ты юзаешь градиентный спуск. Насколько я понимаю никто в душе не ебет как исследовать поведение такой системы и никакой теории нету.

Но есть инженерная практика, которая показывает, что в локальных минимумах в таком пространстве мы не застреваем и что в целом оно сходится к какому-то хорошему состоянию из любой точки, если градиентный спуск не взрывается и обновляет веса всех слоев.

Большее внимание уделяют не оптимизации, а другим проблемам сеток, например, обобщению и регуляризации.
Аноним 31/01/17 Втр 16:43:52 #36 №923073 
>>923069
> исследовать поведение такой системы и никакой теории нету.
Хз. вот читаю на вики про теорию хаоса, вроде похоже, да и по запросам теория динамических система нерйонные сети много чего есть.
Аноним 31/01/17 Втр 16:45:21 #37 №923076 
>>923066
Математика не нужна. Если хочется - можешь пройти курсы по линейной алгебре и теорверу, тогда сможешь разобраться и написать сам какой-нибудь variational autoencoder. Который не нужен, лол, потому что все перешли на гораздо более простые adversarial networks.

Информации вагон (если знаешь английский, конечно) и будет становиться все больше. Один дядя илонмаск чего стоит с его проектом https://openai.com/

Я, по сути, читаю только hacker news, там достаточно ссылок на свежак на arxiv. Ну или ищу под конкретную задачу - как это сейчас делают.

Еще можно ходить или смотреть всякие конфочки и известных людей типа yann lecun или pedro domingos (у него, кстати, офигенный курс по ML был). Рекомендую походить сюда - http://www.machinelearning.ru/wiki/index.php?title=%D0%A1%D1%82%D1%80%D1%83%D0%BA%D1%82%D1%83%D1%80%D0%BD%D1%8B%D0%B5_%D0%BC%D0%BE%D0%B4%D0%B5%D0%BB%D0%B8_%D0%B8_%D0%B3%D0%BB%D1%83%D0%B1%D0%B8%D0%BD%D0%BD%D0%BE%D0%B5_%D0%BE%D0%B1%D1%83%D1%87%D0%B5%D0%BD%D0%B8%D0%B5_(%D1%80%D0%B5%D0%B3%D1%83%D0%BB%D1%8F%D1%80%D0%BD%D1%8B%D0%B9_%D1%81%D0%B5%D0%BC%D0%B8%D0%BD%D0%B0%D1%80), если в ДС
Аноним 31/01/17 Втр 16:46:24 #38 №923077 
Kosko-Color.jpg
>>922887
Лол. Коско и есть математик, ученик Заде, к слову (это создатель теории нечетких множеств, если кто не в курсе). Просто помимо прочего он возглавляет какой-то институт по электронике, т.к. еще в 80е годы пилил пентагоновские гранты на системы наведения для ракет и т.п. В математике он разбирается, даже не сомневайся.
Аноним 31/01/17 Втр 16:48:22 #39 №923079 
>>923076
Большое спасибо, а что такое хаотическая нейронная сеть?
http://sprott.physics.wisc.edu/pubs/paper451.pdf
Аноним 31/01/17 Втр 16:48:46 #40 №923081 
>>923079
Загуглил типа dynamic chaos neural network
Аноним 31/01/17 Втр 16:51:49 #41 №923087 
>>923081
http://www.scholarpedia.org/article/Chaos_in_neurons#Chaotic_neuron_model
Во, короче.
Аноним 31/01/17 Втр 16:52:21 #42 №923088 
>>923079
Это не нейроночка хаотическая, там перцептрон простой, а идентифицируемая система.
Аноним 31/01/17 Втр 16:52:44 #43 №923089 
>>923079
>>923081
Понятия не имею. Направлений дохрена же, что нравится - то и изучаешь. Я двигаюсь в сторону deep symmetry networks, например, т.к. существующие свёрточные сетки - говнище какое-то.
Аноним 31/01/17 Втр 16:56:31 #44 №923095 
>>923087
На основе уравнений Ходжкина-Хаксли действительно делались нейроночки, в том числе вот этим >>923077 чуваком. Целая книга есть http://gen.lib.rus.ec/book/index.php?md5=CCC0771774E761EB91EE2019A244305B
Аноним 31/01/17 Втр 16:57:10 #45 №923098 
>>923076
> Структурные_модели_и_глубинное_обучение_(регулярный_семинар)
Забыл сказать, вот там всё таки бывает довольно лютый матан. В наиболее оторванных от практического применения докладах, лол.
Аноним 31/01/17 Втр 17:00:00 #46 №923100 
>>923087
Короче, насколько я понял, это уже из подраздела МЛ не об анализе данных, а именно об ИИ, как раз вот тогда помню охуел с существования Spiking(импульсные в переводе вроде?) сетей, думал типа это ж какой прорыв и тд. Так там импульс видимо просто подавался, а это уже модификация приближенная к реальности, моделирование по принципу как в мозге.
> Nerve membranes have their own nonlinear dynamics which generate and propagate action potentials, and such nonlinear dynamics can produce chaos in neurons and related bifurcations.
Прям нейронная эволюция какая-то, лол.
Аноним 31/01/17 Втр 17:01:46 #47 №923103 
>>923100
>нейронная эволюция какая-то
Собственно, да, жутко интересно ресурс бы найти, в идеале обзорную статью с классификацией методов обучения и моделей, историей создания, развитием, современным положением, взглядом, идеями и список открытых проблем. Вряд ли, но может есть такая?
Аноним 31/01/17 Втр 17:02:16 #48 №923104 
>>923103
>в идеале обзорную статью
Хотя, там наверное книга должна быть.
Аноним 31/01/17 Втр 17:03:39 #49 №923106 
>>923095
>Dynamical Systems Approach to Machine Intelligence
Круто, спасибо, скачал.
Аноним 31/01/17 Втр 17:13:33 #50 №923119 
>>923049
>Нейросети часом не динамические системы ?
До зимы в ИИ была куча исследований на эту тему. Нечёткие ребята любят ещё эту тему обсуждать, но их никто и никогда не слушает, ибо нахуй это никому не надо.
Аноним 31/01/17 Втр 17:18:18 #51 №923125 
>>923088
> не нейроночка хаотическая
>chaotic artificial neural networ
Ну хз. Да и матмодель нейрона там другая вроде бы: если там сумматор произведений весов на входы, ну перцептрон линейный классификатор, линейное уравнение, то тут

Chaotic neuron model

A chaotic neuron model that qualitatively reproduces chaos in nerve membranes observed in squid giant axons and the Hodgkin-Huxley equations can be described by the following simple 1-dimensional map (Aihara et al., 1990):

Chaotic neuron model

A chaotic neuron model that qualitatively reproduces chaos in nerve membranes observed in squid giant axons and the Hodgkin-Huxley equations can be described by the following simple 1-dimensional map (Aihara et al., 1990): y(t+1)=F(y(t))≡ky(t)−αf{y(t)}+a,(1)

where y(t) is the internal state at discrete time t , k is the decay factor, α is the scaling factor of refractoriness, a is the bias including both the threshold and the temporally constant input, and output x(t) is obtained by x(t)=f{y(t)} with, for example, the logistic function

f{y(t)}=1/{1+exp(−y(t)/ϵ)} .
Аноним 31/01/17 Втр 17:19:33 #52 №923126 
>>923125

Насколько я понимаю, а я не понимаю воообще, это эволюционное уравнение
Ну вот
As a simple example, start with the number on your calculator and continually press the cosine button.
Это типа рекуррентное соотношение/дифур как я понял. Где-то ещё видел вроде эволюционное уравнение термин или уравнение эволюции
А, во уравнение эволюции квантовых состояний, уравнение Шредингера, дифур короче.
Аноним 31/01/17 Втр 17:20:49 #53 №923128 
>>923126
One-dimensional maps (sometimes called difference equations or iterated map) are mathematical systems that model a single variable as it evolves over discrete steps in time.
Аноним 31/01/17 Втр 17:21:58 #54 №923129 
>>923126
Ну если это нейроночка на стохастических дифурах, значит нечто типа ABAM/RABAM Коско или на всяких разновидностях адаптивного резонанса Гроссберга.
Аноним 31/01/17 Втр 17:23:35 #55 №923130 
>>923128
equations or iterated maps or reыворамофвпмcurфолваыфвампs(( ion relations
Пиздос, тут рекурсион в спамлисте, моча поехала совсем что ли? Заебался искать.
Аноним 31/01/17 Втр 17:25:01 #56 №923132 
>>923119
>Нечёткие ребята
Кто такие? Чем знамениты? Почему никому не надо, мне кажется это годно довольно таки, не?
Аноним 31/01/17 Втр 17:33:13 #57 №923137 
>>923132
> Кто такие? Чем знамениты?
Fuzzy data analysis guys.

> Почему никому не надо, мне кажется это годно довольно таки, не?
Как-то так сложилось, что интереса у общественности больше к statistical learning и классическому deep learning.
Аноним 31/01/17 Втр 17:35:48 #58 №923140 
>>923132
> Почему никому не надо, мне кажется это годно довольно таки, не?
Результаты где? На кой хуй пытаться симулировать реальные нейроны?
Аноним 31/01/17 Втр 17:44:14 #59 №923147 
>>923077
> Коско и есть математик, ученик Заде
> (Заде)С 1932 года жил в Иране, на протяжении 8 лет учился в Американском колледже Тегерана (впоследствии известном как Alborz[en] — миссионерской пресвитерианской школе с персидским языком обучения), затем на электроинженерном факультете в Тегеранском университете

Фрик от математики, ученик фрика от математики (насколько "фрик" может быть применимо к математике, а не естественным наукам).
От чистматовцев слова о нечёткой логике доброго не слышал ни разу.

То есть, за этой нечёткой хренью есть содержательная математика, это не пустышки. Но фрики напускают тумана.
Аноним 31/01/17 Втр 17:46:20 #60 №923151 
>>923140
>>923137
https://www.researchgate.net/publication/257392356_A_novel_image_encryptiondecryption_scheme_based_on_chaotic_neural_networks
https://books.google.ie/books/about/Advances_in_Neural_Networks_ISNN_2007.html?id=G9kQvtgsBAgC
Вот бля как всегда, чуть дальше гуглишь всё по регистрации и паролям, бля.Хотя полтора года назад по спайкинг нетворкс такая же ебала была. Результаты не знаю, неправильно эти две области сравнивать, первое статистика, анализ данных, второе нейронаука или типа того. Ну и конечно бизнес платит за статистику и ждать не любит, потому количество публикаций и результатов небольшое, но вот на 4th International Symposium on Neural Networks, ISNN 2007, много освещено, значит не маргинальщина как минимум.
Аноним 31/01/17 Втр 17:47:03 #61 №923153 
Имеет ли смысл пытаться вкатываться, если я 17 лвл и за плечами только 1 семестр матана, а статистики и теорвера вообще по нулям? Или же советуете вначале подрасти и набраться математических знаний?
Аноним 31/01/17 Втр 17:48:45 #62 №923157 
>>923151
> всё по регистрации и паролям
А в вузиках по любому аккаунты выдают, тут ещё можно автору написать, а обычно просто логин пароль идите нахуй, обратитесь к библиотекарю за логином и паролем. В архиве обычно уже стабильные, окончательные статьи, они выходят года за три-два, как туда попадают.
Аноним 31/01/17 Втр 17:49:34 #63 №923158 
>>923147
Где там фрики тумана напускают, можно пример? Я просто в нечетких множествах неплохо понимаю, ни фричества ни тумана не встречал.
Аноним 31/01/17 Втр 17:52:55 #64 №923162 
>>923147
Не знаю, я вот тут недавно, но не согласен, что это маргинальщина, да и логично всё это всё это выглядит.
Аноним 31/01/17 Втр 17:53:53 #65 №923163 
Screenshot from 2016-12-19 21-43-40.png
Screenshot from 2016-12-19 21-42-17.png
>>923151
> неправильно эти две области сравнивать, первое статистика, анализ данных, второе нейронаука или типа того
Почему неправильно, если оба подхода могут решать одни и те же задачи? Другое дело, что есть Bayesian Deep Learning и всё такое.

> вот на 4th International Symposium on Neural Networks, ISNN 2007, много освещено, значит не маргинальщина как минимум.
Да, но в одном из прошлых тредов я приводил статистику из скопуса по публикациям о нейроночках. Не маргинальщина, но разница в разы.
А здесь пацаны просят результаты на имаджнетах и других серьёзных датасетах.
Аноним 31/01/17 Втр 17:54:32 #66 №923166 
>>923151
Сашеньку Элбакян пробовал? sci-hub.cc
Аноним 31/01/17 Втр 18:00:10 #67 №923173 
>>923163
>статистику
Ну ты понел. Да ладно, я вообще ни на чём не настаиваю, я об этом час назад обо всём узнал, лол, сейчас бы в споре с работающим в МЛ аноном отстаивать позицию чуваков, про которых узнал час назад только потому, что образ мышления сходный и это тебе субъективно кажется логичным, мда
Аноним 31/01/17 Втр 18:01:14 #68 №923175 
>>923166
Что это? Там жируха какая-то и говносайт.
Аноним 31/01/17 Втр 18:03:19 #69 №923177 
>>923175
Ох ты ж бля, прскроллил вниз! Ну кто ж так сайты делает! ДУмал говноподелие, которое тебе любое слово найдёт и типа куча комментариев я просто отправил смс и нашёл жопа ежа!
Аноним 31/01/17 Втр 18:03:26 #70 №923178 
Test
Аноним 31/01/17 Втр 18:04:03 #71 №923179 
suicidalai.png
>>923173
На самом деле, если завтра ЛеКун, Бенгио, Гуудфеллов и Салахудтинов выйдут и скажут, что нейрофаззи - збс, то хайпа около фаззи будет ебать-ебать, а мужик с вариационным выводом и нечёткопетух из ОП-пкчи поменяются местами. Только, тссс, я это по секрету.
Хотя такое вряд ли случится.
Аноним 31/01/17 Втр 18:10:12 #72 №923185 
>>923179
Так и есть, лол.
работающий в МЛ анон

Аноним 31/01/17 Втр 18:10:55 #73 №923186 
>>923179>>923185
То есть, сам подход не важен, важен конкретный носитель штанов@говоритель хуйни, озвучивающий подход? Пиздец, секта.
Аноним 31/01/17 Втр 18:11:23 #74 №923187 
>>923179
Проиграл с пикчи, подумал можно такой критерий ИИ сделать, сильный ИИ после череды хуёвых ситуаций себя уничтожит, только робот безэмоциональный будет продолжать жить. Подумал и как-то выпилиться захотелось.
Аноним 31/01/17 Втр 18:13:01 #75 №923188 
>>923186
>сам подход не важен
Важен, ты не понимаешь сути. Пиздато то, что работает. То что может работать, но пока не работает может быть как авангардом науки, так и тупиковой ветвью. И на тех и на других смотрят как на околофриков.
Аноним 31/01/17 Втр 18:14:20 #76 №923189 
>>923186
А хуле ты хотел? У жены неделя моды в Милане, у меня NIPS.
А вообще вот этот >>923188 правю


>>923187
Это же дядюшка Хуттер.
https://arxiv.org/abs/1606.00652
Аноним 31/01/17 Втр 18:18:48 #77 №923191 
>>923186
Ну и сам пониаешь, результат нужен уже сейчас, прдеставь, как тяжело выбить финансирование на какую-то нечёткую логику и какое-то там детерминированное облако , лол.
Аноним 31/01/17 Втр 18:38:56 #78 №923202 
>>923188
По моему опыту изобретатели всяких новых охуительных видов нейронов оче не любят когда их спрашиваешь "а как у вас дела на мнисте?". В ход идут маняотмазки навроде "да я вообще-то кодить не умею, да и хуй знает как мой нейрон обучать вообще".
Аноним 31/01/17 Втр 18:45:28 #79 №923211 
>>923202
> В ход идут маняотмазки
>да я вообще-то кодить не умею
Потому что программирование среди математиков зашквар.
Аноним 31/01/17 Втр 18:46:06 #80 №923213 
>>923202
>"а как у вас дела на мнисте?"
Вот такие гении и свели МЛ к мнисту.
>маняотмазки навроде "да я вообще-то кодить не умею, да и хуй знает как мой нейрон обучать вообще".
А если это не маняотмазки, а правда? Знания в области, например, нечетких множеств вообще никак не предполагают умения кодить.
Аноним 31/01/17 Втр 18:49:15 #81 №923220 
>>923213
Ну вот поэтому Маск и ЛеКун в топе, а никому не известные львы толстые в жопе. Сильный ИИ запустит инженер, помяните мое слово.
Аноним 31/01/17 Втр 19:08:35 #82 №923262 
>>923220
Удваиваю. Цель математика - придумать и доказать охуительную теорию. Цель инженера - шобы работало.
Аноним 31/01/17 Втр 19:47:47 #83 №923294 
Ебать мне мысль в голову пришла! Сети, основанные на нечёткой логике показывают хуеватые результаты на бинарном железе. Квантовые компьютеры не дают значительных результатов для обычных алгоритмов. А что, если объединить всё это? А в качестве матмодели нейрона использовать... УРАВНЕНИЕ ШРЁДИНГЕРА!111. А? А?1
https://en.wikipedia.org/wiki/Quantum_neural_network
Аноним 31/01/17 Втр 19:52:59 #84 №923299 
>>923294
>Сети, основанные на нечёткой логике показывают хуеватые результаты на бинарном железе.
Нечеткие алгоритмы еще в 80-90-х реализовывали на аналоговом железе, на оптоэлектронных схемах и т.п. Хоть тут некоторым нибомбит с упоминаний Коско, вброшу http://gen.lib.rus.ec/book/index.php?md5=BC1EC0F44F2E619AB46D6FD0B7088514 10 глава про аппаратные реализации методов нечеткого вывода.
Аноним 31/01/17 Втр 20:00:47 #85 №923306 
14843687305250.jpg
Мало кто знает, что кроме нечетких множеств есть еще грубые множества Павлака, мягкие множества Молодцова, интуиционистские нечеткие множества Атанасова, а так же всевозможные их комбинации. В кратце про это рассказывается в книжке http://gen.lib.rus.ec/book/index.php?md5=A45DD396A99DEF2FD30ACA8A9D747DC8 на основе таких множеств в настоящее время нет ни одной системы вывода. Несмотря на более чем многообещающие результаты. Наверное, потому что салахутдинов не форсит.
Аноним 31/01/17 Втр 20:01:04 #86 №923307 
>>923299
Хуй с ним с железом! Суть в том, что сама природа подсказала уравнение, которое можно заюзать как модель нейрона! Причём ведь и наш мозг вроде как типа квантового компьютера, может ваще круто получиться! Эх, умел бы я во всю эту хуйню, там же просто строчку в коде заменить по идее. Вот ща гуглю квантовый нейрон и там везде квантовые аналоги перцептрона обычного.
Аноним 31/01/17 Втр 20:01:51 #87 №923309 
>>923306
Жалко, если всё это залупа без задач. Очень красиво выглядит со стороны.
Аноним 31/01/17 Втр 20:03:35 #88 №923310 
image021.jpg
>>923307
>квантовые аналоги перцептрона обычного
Вот типа.
Аноним 31/01/17 Втр 20:06:05 #89 №923319 
>>923306
> таких множеств в настоящее время нет ни одной системы вывода
Смотри, сделали же квантовый компьютер, ну там точно квантовая логика, может просто нахуй послать нечёткую логику, но идеи, архитектуру и прочее взять оттуда.
Аноним 31/01/17 Втр 20:11:39 #90 №923326 
Screenshot from 2017-01-31 19-10-40.png
>>923307
>там же просто строчку в коде заменить по идее
Был у меня начальник, у которого это была любимая фраза. Мужик - что-то типа инженегра-недоматематика с электроники.
Когда он говорил, что уравнение можно вывести просто, у нас с ним уходили недели на выводы.
Когда он говорил, что можно поменять строку кода в работающих скриптах, у нас уходили недели на реализацию его неработающей идеи.
Мне даже трудно представить, сколько бюджетных денег мы в своё время въебали на такую российскую науку.

>>923319
> сделали же квантовый компьютер
Там как-то не очень всё, почитай внимательнее про прогресс в области.

>>923319
> просто нахуй послать нечёткую логику, но идеи, архитектуру и прочее взять оттуда.
Можно ещё нахуй послать всю стандартную теорию вероятностей и теорию информации и использовать алгоритмическую теорию информации. Там всего-то нужно нормальные аппроксимации к универсальным приорам найти.
Аноним 31/01/17 Втр 20:23:55 #91 №923331 
>>923326
>Там как-то не очень всё
>Квантовые компьютеры не дают значительных результатов
Да, там вроде как только некая нормализация может проводиться. Корчое, совсем ещё сыро и куча проблем.
>Когда он говорил, что уравнение можно вывести просто, у нас с ним уходили недели на выводы
>Можно ещё нахуй послать
Да, да понятно, это я так, фантазирую. Было бы всё так просто давно бы уже сделали.
Аноним 31/01/17 Втр 20:42:14 #92 №923341 
СадритМора.jpg
However, the nature of the behavior in the brain will sometimes change from chaotic to periodic.
These changes can be due either to an abnormality like epileptic seizures, or it could be caused
by other reasons such as an intense focus or an attempt to remember an object or solve a problem
Коллапс волновой функции


Another example is the dynamics on neuron levels (cellular and subcellular). The transportation
and storing of information in the brain is believed to be accomplished by the impulse trains
produced by the neurons. These trains of impulses or action potentials are often organized as
sequences of bursts. The combination of these impulses will result in an electrical field on the
surface of the brain, which can be recorded using EEG.
Типа энцефалограмму крысы сделали, аттрактор получился пикрелейтед.

All of the behaviors that these models exhibit can be found in their bifurcation diagram. A
bifurcation is a sudden change in the dynamics when a parameter of the system is changed [1].

Коллапс волновой функции.

From a dynamical systems point of view, neurons are excitable because they are near a
bifurcation where a transition from resting to a sustained spiking activity occurs [7]. All the
neurons undergo bifurcation by changing their states. Their new state can be periodic as in tonic
spiking (called a limit cycle), or they can be chaotic (called a strange attractor).

Сука, ну почему я не знаю математики/физики /программирования, почему я волоёбил всю жизнь, мудаак.
Аноним 31/01/17 Втр 20:46:49 #93 №923346 
Да должно быть точно, надо лучше искать.
Аноним 31/01/17 Втр 20:57:28 #94 №923355 
>>923346
Abstract

With the polarization of quantum-dot cell and quantum phase serving as state variables, this paper does both theoretical analysis and simulation for the complex nonlinear dynamical behaviour of a three-cell-coupled Quantum Cellular Neural Network (QCNN), including equilibrium points, bifurcation and chaotic behaviour. Different phenomena, such as quasi-periodic, chaotic and hyper-chaotic states as well as bifurcations are revealed. The system's bifurcation and chaotic behaviour under the influence of the different coupling parameters are analysed. And it finds that the unbalanced cells coupled QCNN is easy to cause chaotic oscillation and the system response enters into chaotic state from quasi-periodic state by quasi-period bifurcation; however, the balanced cells coupled QCNN also can be chaotic when coupling parameters is in some region. Additionally, both the unbalanced and balanced cells coupled QCNNs can possess hyper-chaotic behaviour. It provides valuable information about QCNNs for future application in high-parallel signal processing and novel ultra-small chaotic generators.
Но опять залогиниться за институт или купить. Похуй.
Аноним 31/01/17 Втр 21:00:21 #95 №923360 
https://arxiv.org/pdf/cond-mat/0005038.pdf
Вот.
Аноним 31/01/17 Втр 21:04:47 #96 №923369 
>>923360
https://en.wikipedia.org/wiki/Cellular_neural_network
Короче гибрид нейросети и клеточного автомата, даже не знал, что есть такое.
>each cell can be modeled as a dissipative, nonlinear dynamical system where information is encoded via its initial state, inputs and variables used to define its behavior
Аноним 31/01/17 Втр 21:18:34 #97 №923386 
>>923341
> Сука, ну почему я не знаю математики/физики /программирования, почему я волоёбил всю жизнь, мудаак.

Вся суть говно-теоретиков. К слову, ~5 кубитов - предел запутывания. Так что ты соснул по всем фронтам, мань.
Аноним 31/01/17 Втр 21:21:22 #98 №923394 
>>923386
>Вся суть говно-теоретиков.
> ты соснул по всем фронтам
Кек, ну и ладно. Пофантазировать уже нельзя. Злобный уёбок.
Аноним 01/02/17 Срд 03:52:48 #99 №923614 
Westworld на нейронных сетях как захуячить можно никто не знает?
Аноним 01/02/17 Срд 08:34:25 #100 №923657 
shad.png
shad2.png
> шад)))
>Нет там ничего ML-специфичного
Пикрелейтед
Аноним 01/02/17 Срд 08:38:47 #101 №923660 
>>923657
>не прошёл даже первый этап
>ШАД ХУЙНЯ Я СКОЗАЛ!11
Что ты хочешь от диванных специалистов?
Аноним 01/02/17 Срд 15:03:32 #102 №923858 
>>923657
>>923660
>ШАД ХУЙНЯ Я СКОЗАЛ!11
Будто не хуйня. Яндекс не может ни во что кроме впаривания своей рекламы.
Аноним 01/02/17 Срд 16:17:57 #103 №923907 
>>923858
Кафедра Яндекса в ВШЭ - лучшая CS шарага в РФ.
Аноним 01/02/17 Срд 16:21:02 #104 №923912 
>>923858
Обработка естественного языка — одна из самых сложных проблем искусственного интеллекта. Современное машинное обучение и большие объемы данных здесь играют важнейшую роль. Нам повезло, что мы живем в интересное время – на наших глазах происходит настоящая революция, связанная с успехами нейросетей в задачах понимания текста.
Наша группа входит в департамент машинного интеллекта Яндекса.
Мы занимаемся всем, что имеет отношение к тексту: морфологией, синтаксисом, семантикой, исправлением опечаток, машинным переводом и т. п. Мы ищем как исследователей, так и сильных разработчиков (можно в одном лице). Как исследователь вы будете следить за прогрессом в машинном обучении и разрабатывать новые методы. Задача разработчика — писать код под нагрузку в десятки тысяч rps и масштабировать алгоритмы машинного обучения под петабайтные обучающие выборки.
Аноним 01/02/17 Срд 16:25:11 #105 №923913 
>>923912
> петабайтные обучающие выборки
> текст
> число параметров современных нейроночек
Что я читаю.
Аноним 01/02/17 Срд 16:28:43 #106 №923914 
>>923913
Они слов умных начитались и пытаются кого-то наебать, что могут в МЛ. При том, что ни одного своего решения у них нет и не было.
Аноним 01/02/17 Срд 17:16:47 #107 №923951 
>>923920
> А что такое?
Ну как бе мощности существующих моделей пока не алё для существующих объемов текста. А нейроночки рекурсивные давно уже текст хреначат, как LSTM первые появились, и неплохо, лучше чем остальное.

Вот только буквально неделю назад публикация появилась про текст и охерительно большую нейроночку. Но что это, где же яндексеры в авторах, а? Впрочем, ничего нового.
Аноним 01/02/17 Срд 17:17:26 #108 №923952 
>>923951
Ссылка отклеилась https://arxiv.org/abs/1701.06538
Аноним 01/02/17 Срд 17:49:53 #109 №923961 
Стоит ли первокурснику вкатываться, или же ещё рановато из-за математики?
Аноним 01/02/17 Срд 17:51:37 #110 №923963 
>>923961
Чем раньше поймёшь, интересно это тебе или нет, тем лучше.
Аноним 01/02/17 Срд 18:24:07 #111 №923985 
>>923976
Статью-то хоть прочитай, мань.
Аноним 01/02/17 Срд 18:24:56 #112 №923986 
>>923951
> где же яндексеры в авторах
А они там должны быть? Они вроде как бизнесом занимаются, а не публикациями. Конечно, у них есть ресёрч отдел и они там тоже что-то делают, но они не научный институт, а бизнес-компания. Зато они инвестируют много в своих будущих кадров, со всей страны в ШАД собирают народ, вот они потом и покажут результаты. Ну и да, ты написал это как эталонный непризнанный гений, заваливший туда собеседование.
Аноним 01/02/17 Срд 18:36:52 #113 №923994 
>>923986
> заваливший туда собеседование
Заколебали меня звать на собеседование, кстати, лол. Платят копейки, в офис ездить надо (офис красивый, но всё равно) - нахер надо. Нет у них народа и не будет, плохо всё. Мои инсайды сваливают в MS все. Такие дела.
Аноним 01/02/17 Срд 18:38:01 #114 №923997 
>>923993
Ну я вижу как тебе ясно значение слова ансамбль, угу.
Аноним 01/02/17 Срд 18:40:01 #115 №923999 
hqdefault.jpg
>>923994
Неубедительно как-то, особенно вот эта часть.
>Нет у них народа и не будет
Не обижайся, но ассоциации с пикрелейтед.
Аноним 01/02/17 Срд 19:01:07 #116 №924017 
>>923986
>у них есть ресёрч отдел и они там тоже что-то делают,
И что они там делают? С подружками в НИИ проектируют хуи? Где хоть один программный продукт на тему МЛ этого вашего яндекса?
Аноним 01/02/17 Срд 19:06:47 #117 №924024 
>>924017
https://github.com/yandex/rep
https://yandex.ru/company/technologies/matrixnet/
Аноним 01/02/17 Срд 19:08:34 #118 №924026 
>>924024
https://yandexdatafactory.com/ru/
Аноним 01/02/17 Срд 19:11:02 #119 №924028 
>>924024
https://yandexdatafactory.com/ru/company/cern/
Аноним 01/02/17 Срд 19:12:22 #120 №924029 
https://yandexdatafactory.com/ru/solutions/custom-machine-learning-solutions/
Да у них дохуя там всего.
Аноним 01/02/17 Срд 19:13:15 #121 №924030 
проигралкот2.jpg
>>924024
>Reproducible Experiment Platform (REP)
>unified python wrapper for different ML libraries (wrappers follow extended scikit-learn interface) Sklearn TMVA XGBoost uBoost Theanets Pybrain Neurolab MatrixNet service(available to CERN)
>крупнейшая в рашке ИТ-компания
>Враппер на не то что не яндексовском, но и даже не российском пистоне для алгоритмов, которые опять же к яндексу и рашке никак не отеносятся. И еще полтора проекта на гитхабе уровня никиты садкова.
Ты сейчас серьезно что ли7
Аноним 01/02/17 Срд 19:20:49 #122 №924037 
>>924030
https://www.extremetech.com/extreme/147320-cern-boosts-its-search-for-antimatter-with-yandexs-matrixnet-search-engine-tech
Вот ещё, ЦЕРН не хуй собачий, а на сайте у них посмотри ещё с несколько десятков решений в куче разных отраслей, то есть всё на практике в индустрии успешно используется, а не пустые теоретические статьи где-то.
> российском пистоне
>рашке
Что? Причём тут это вообще? Я всё понял, ты просто ненавидишь всё русское. Мда.
Аноним 01/02/17 Срд 19:23:35 #123 №924040 
>>924037
>ой лал петабайтныи выбарки ой ну не могу ну тупые вруны даж ни панимают ничего в нейроначках))0))
The LHCb experiments generate colossal amounts of raw data — as much as 35GB covering 1 million events per second — which needs to be organized and filtered to find the extremely rare events that the scientists are looking.
Аноним 01/02/17 Срд 19:35:28 #124 №924048 
>>923999
Не ставил задачу тебя в чем то убеждать. Хочешь в яндекс - иди и пробуй. Но потом не жалуйся, что зарплату как студенту платят.
Аноним 01/02/17 Срд 19:39:59 #125 №924054 
>>924048
Тебе-то откуда знать.
Аноним 01/02/17 Срд 19:41:21 #126 №924057 
>>924054
От инсайдов же, жопой читал? Заебала уже шадоблять, честно.
Аноним 01/02/17 Срд 19:49:45 #127 №924068 
>>924057
Таких же форумных data scientistов 3000ккк/нс?
>да чё они там в своём яндексе))0 лохи) рашка парашка ничего не производят только пиздят технологии)) мне на дваче так сказали)))
Аноним 01/02/17 Срд 19:54:46 #128 №924076 
>>924057
>шадоблять
Да не ШАДоблядь я, просто охуел с твоей аргументации. Вангую, ты из тех, которые
кричат, что математика/алгоритмы не нужны.
Аноним 01/02/17 Срд 20:02:38 #129 №924083 
>>924030
> хоть один программный продукт на тему МЛ
Набор инструментов для проведения различных экспериментов, МЛ, что не так?
>враппер
Ну да, в других библиотеках по 20 уникальных алгоритмов обучения и моделей сети в каждой.
Аноним 01/02/17 Срд 20:05:25 #130 №924084 
>>924083
К тому же дальше враппера ты не читал походу
.
Аноним 01/02/17 Срд 20:21:55 #131 №924089 
>>923166
>sci-hub.cc
Да, спасибо, работает.
Аноним 01/02/17 Срд 22:56:28 #132 №924235 
Screen Shot 2017-02-01 at 22.51.21.png
Отвлеку от срача про Коско:
продолжаю читать Deep Learning и возникают вопросы про некоторые пассажи в книге, вот, например, кусок текста.
Каким боком мы начали говорить про гауссианы (из-за предположения, что ошибки распределены нормально)? Почему нас вообще парит его среднее?
Как я понимаю из просмотра cs231n и делания заданий, общая цель обучения (в постановке обучения с учителем) - сделать функцию, которая будет на заданных входах давать правильные классы, или как это изложено в книжке минимизировать ошибку в смысле cross entropy. Так причем тут гауссиан?
Аноним 01/02/17 Срд 23:12:01 #133 №924247 
>>924235
Ну ты выдал кусок текста без контекста, а нам теперь гадать.

> Каким боком мы начали говорить про гауссианы (из-за предположения, что ошибки распределены нормально)?
Логично, это самое частое предположение.

> Почему нас вообще парит его среднее?
Ещё ковариационная матрица обычно парит, ибо нормальное распределение задаётся двумя моментами.

> общая цель обучения (в постановке обучения с учителем) - сделать функцию, которая будет на заданных входах давать правильные классы
Может давать классы, а может действительные значения, как в регрессии.

> или как это изложено в книжке минимизировать ошибку в смысле cross entropy
> общая цель
Общая цель - подобрать параметры так, чтобы они давали максимум правдоподобия на данных, дальше в зависимости от задачи и допущениях о распределениях вытекают минимизируемые ошибки. Ну там на самом деле ещё риски рассматривают, MAP и постериоры над параметрами, но это потом
Аноним 01/02/17 Срд 23:14:46 #134 №924250 
>>924235
Классы тут нипричем, речь про регрессию же небось. x - вход, y - вектор на выходе, вещественный. В идеале ты бы хотел, зная вход x, получить не просто некое значение y, а распределение вероятностей по y при условии x, т.е. насколько вероятно любое значение y при данном x. Это полезно, т.к. в реальном мире в цене дома (y) есть элемент случайности, который не описывается целиком его площадью и чем там у тебя еще на входе есть (x) - и имея полное распределение вероятностей ты можешь четко понять какая может быть цена у дома.

Но это в идеале - на практике твой линейный юнит не выдаст тебе распределение вероятностей - а всего лишь некую его оценку, статистику. Самая полезная оценка самого простого предполагаемого распределения вероятностей - гаусса - это его матожидание.
Аноним 01/02/17 Срд 23:21:29 #135 №924252 
>>924068
Друзей, сваливших из параше-яндекса в bing. Как тебе такое, а?
Аноним 01/02/17 Срд 23:28:41 #136 №924260 
>>924250
Мы с тобой жопой читаем, у него там hidden layer.

>>924235
Смари сюда, кароч, у тебя на хводе какая-то ебала с ошибкой, которая там скорее всего распределена по нормальному закону и какой-то там дисперсией. У тебя слой линейный, а линейное преобразование нормальной ебалы - другая нормальная ебала, с нелинейным слоем такая хуйня не канает. Поэтому у тебя пока слои линейные, там будут гауссианы по ним ходить. Кросс-энтропия это про категориал уже, это потом покажут.


Аноним 01/02/17 Срд 23:32:51 #137 №924265 
>>924076
> математика/алгоритмы не нужны
Большая часть параши в шапке нахуй не сдалась для практического вката. Хотите дрочить эту хуйню и алгоритмы (какие, блять, конкретно, алгоритмов хуева тонна) сидя у мамки на шее или пописывая говносайтики - вперед.
Аноним 01/02/17 Срд 23:35:12 #138 №924267 
>>924260
Написано же linear output layers. Я почти уверен, что там речь именно о выходе регрессии с предположением что шум модели гауссов. Но я эту херню давно читал и открывать снова влом, сорян.
Аноним 01/02/17 Срд 23:36:10 #139 №924268 
>>924267
Значит я жопой читаю.
Аноним 02/02/17 Чтв 10:02:43 #140 №924500 
http://dxdy.ru/topic81289.html
Аноним 02/02/17 Чтв 11:38:15 #141 №924557 
пиздецужасно.png
>>924083
>Ну да, в других библиотеках по 20 уникальных алгоритмов обучения и моделей сети в каждой.
Ты не понял. Российская ИТ-компания, у которой даже название не российское, а какая-то хуйня. Из программных продуктов одна реклама под андроид, весь телефон засрали, заебался вилкой вычищать на тему МЛ - полтора враппера на гитхабе. При том, что теоретически какой-то исследовательский отдел присутствует, вон выше какую-то хуету цитировали. И на этом основании я должен поверить, что эта шарашка вообще может в МЛ.
Аноним 02/02/17 Чтв 12:17:01 #142 №924584 
9=1.png
Посоны, важный вопрос, вы тут все крутые математики, чё там порешили на сходосе по поводу 0.99999(9) = 1 ?

>Что такое иррациональное число? Это просто те вещественные числа, которые не являются рациональными. Всё. Аксиоматика построена.
>Арифметика также утверждает, что порядок операций умножения и деления не имеет значения. Значит (1 / 3) 3 = (1 3) / 3 - так? А вот и ни фига.

В такое говно в 2017 я верить просто отказываюсь, это не заслуживает никакой критики абсолютно.
Аноним 02/02/17 Чтв 12:17:49 #143 №924587 
>>924584
(1 / 3) x 3 = (1 x 3) / 3
Аноним 02/02/17 Чтв 12:34:13 #144 №924597 
>>924584
https://ru.wikipedia.org/wiki/%D0%94%D0%B5%D1%81%D1%8F%D1%82%D0%B8%D1%87%D0%BD%D0%B0%D1%8F_%D0%B4%D1%80%D0%BE%D0%B1%D1%8C#.D0.9D.D0.B5.D0.BE.D0.B4.D0.BD.D0.BE.D0.B7.D0.BD.D0.B0.D1.87.D0.BD.D0.BE.D1.81.D1.82.D1.8C_.D0.BF.D1.80.D0.B5.D0.B4.D1.81.D1.82.D0.B0.D0.B2.D0.BB.D0.B5.D0.BD.D0.B8.D1.8F_.D0.B2_.D0.B2.D0.B8.D0.B4.D0.B5_.D0.B4.D0.B5.D1.81.D1.8F.D1.82.D0.B8.D1.87.D0.BD.D0.BE.D0.B9_.D0.B4.D1.80.D0.BE.D0.B1.D0.B8


В math скинули вот эту ссыль, но этож тоже софистика уровня "ну ты понел"
Аноним 02/02/17 Чтв 12:38:28 #145 №924599 
>>924584
>>924597
В сцы пиздуйте с этим жиром.
Аноним 02/02/17 Чтв 12:39:24 #146 №924600 
>>924599
Это не жир блядь, я реально интересуюсь. Ещё один долбоёб, решивший что это жир - здравствуй
Аноним 02/02/17 Чтв 12:44:40 #147 №924605 
>создадим две параллельных вселенные, где у нас А равно одному и тому же значению. Равно ли А самому себе в другой вселенной?

И это тоже нихуя не жир. Куда мне обращаться с этими вопросами вообще? Ведь они чисто кэповские, и "жир" потому что "ну ты же знаешь что это жир", так чтоли?
Аноним 02/02/17 Чтв 12:51:40 #148 №924609 
>>924605
Сказали же, что в сцы, это тред нейрослесарей про нейростанки.
Аноним 02/02/17 Чтв 13:21:50 #149 №924623 
>>924609
Да похуй мне на сци. Сци - один большой зашквар.
https://www.reddit.com/r/mathematics/comments/5rlzcx/please_tell_me_where_can_i_find_answers_to_this/
Перекат короче. Хоть повод появился регнуться на реддите
Аноним 02/02/17 Чтв 13:34:49 #150 №924635 
>>924623
Есть доска /math/
Аноним 02/02/17 Чтв 13:50:14 #151 №924648 
>>924635
Я писал сразу в обоих т.к у меня не особо много времени ждать ответ, но видимо придётся подождать. Как ты заметил - >>924597 здесь уже сообщено о разделе math
Аноним 02/02/17 Чтв 14:13:17 #152 №924656 
Откуда у быдла вечно столько интереса к ебанутой нахуй никому не нужной хуите про параллельные вселенные, 0.(9) или нечеткую логику?
Аноним 02/02/17 Чтв 14:24:40 #153 №924660 
>>924648
0.(9) - ровно единица, ни больше, ни меньше.
1 / 3 = 0.(3)
0.(3) 3 = 0.(9)
1 / 3
3 = 1
=> 1 = 0.(9)
Аноним 02/02/17 Чтв 14:38:23 #154 №924664 
>>924656
Пошёл нахуй, псевдонебыдло

>>924660
>0.(9) - ровно единица
Схуяли? У нас оперативки столько не хватит, чтобы оно было равно ровно единице. А аутотренинги что "ну оно равно единице, ну чо ты. Равно же!" - не катят.
Аноним 02/02/17 Чтв 14:43:33 #155 №924666 
>>924623
4) All numbers that are not rational are irrational numbers. Really? Binary logic in 2017? Is there any alternative to "rational" or "irrational"? Any kind of meta-rational numbers maybe?

Короче исходя из этой блядской параши я считаю что
1/3 is metaraional number for 0.(3)

Не. ну серьёзно, мне где об этом спрашивать? Я же не мог тут велосипеднуть внезапно
sageАноним 02/02/17 Чтв 14:44:26 #156 №924667 
>>924664
> Схуяли?
он тебе доказательтво ниже написал, довн) обтекай))
Аноним 02/02/17 Чтв 14:57:04 #157 №924671 
>>924664
>ну оно равно единице, ну чо ты. Равно же!" - не кат
Ну ты и пидорас, если тебе моё док-во не понравилось, окей, давай рассмотрим другое

Ряд 9 умножить 10^(-k), k от 1 до +inf.(0,9 + 0,09 + 0,009 ...) Это сумма бесконечно убывающей геометрической прогрессии. Можешь посмотреть школьную формулу , подставить величины И УБЕДИТЬСЯ ЧТО ТАМ ЕДИНИЦА
Аноним 02/02/17 Чтв 15:07:31 #158 №924674 
>>924671
Не, меня это не убеждает. Машине неведома бесконечность вследствие переполнения буфера. В то время как 1/3 выглядит совершенно рациональной хернёй - 0.(3) выглядит полностью иррациональным говном для аутистов.
Аноним 02/02/17 Чтв 15:11:34 #159 №924677 
>>924674
>Машине неведома бесконечность
Зато ведома аппроксимация. 0.9999999 - это аппроксимация единицы, такое число классификатор и отнесет к единице, а не к нулю, 0.5 и т.д. А теперь уебывай.
Аноним 02/02/17 Чтв 15:12:59 #160 №924678 
>>924677
Приближения и наука - никак не связанные вещи. Это лишь костыль, который помогает в аутотренинге что "всё заебись", но на самом деле это остаётся лишь костылём. Очень пиздецовым костылём. Причём в самом начале вычислений.
Аноним 02/02/17 Чтв 15:14:59 #161 №924682 
>>924678
>Приближения и наука - никак не связанные вещи.
Зато приближение - это суть МЛ, мягких вычислений. А это - МЛ-тред.
Аноним 02/02/17 Чтв 15:16:05 #162 №924683 
>>924678
Я тебе привёл строгое математическое доказательство с рядом. Дело в том, что, когда появляется мат. доказательство споры уже неуместны. Ты пытаешься рассуждать над цифрами не с точки зрения математической науки, а с точки зрения ссаной машины Тьюринга.
Аноним 02/02/17 Чтв 15:20:24 #163 №924684 
>>924682
Как повысишь точность без повышения количества слоёв до охулиарда - приходи, поговорим
нейронные_сети_слои_сравнение_статистика_клоун.жпг (не нашёл за нескольки минут пик)

>>924683
>математика без вычислимости
>наука
Я всё понял, подожду чьего-нибудь другого ответа.
А это простейший пример не вычислимости. Даже 1/3 - нихуя не вычисляемая штука. Терабайт оперативки. Эксабайт. Машине похуй. Можно сделать костыль - но это будет лишь костыль. Костыли - это охуенная олимпиада, конечно, но я, пожалуй, от неё откажусь.
Аноним 02/02/17 Чтв 15:23:07 #164 №924685 
>>924684
>нейронные_сети_слои_сравнение_статистика_клоун.жпг (не нашёл за нескольки минут пик)
Сам же и ответил на свою претензию. Да, теория статистического обучения как раз об этом, как повысит точность не асимптотически (охулиардом слоев), а правильно ставя и решая задачу обучения.
Аноним 02/02/17 Чтв 15:24:35 #165 №924686 
>>924685
Так я вроде её и ставлю её нормально, разве это не проблема современной науки?, что там костыль ебанули, потом далее, ещё пару костылей, а потом все "почему-то" охуевают чего это всё в конце по швам трещит
Аноним 02/02/17 Чтв 15:29:54 #166 №924688 
>>921502 (OP)
оп, Theano, TF это понятно. Непонятно почему ты решил, что внимания стоит монструозный жрущий TF, который в бенчмарках совсем не блещет и вообще был унылым говном до определенного времени. Где keras, где промышленный deeplearning4j, где наконец всея нагибатор Torch, которые не просто сделан пряморукими людьми (в отличие от параши Theano) достаточно просто посмотреть на исходный код GRU модуля, чтобы у тебя встал.
Где основа основ -- ML курс от Стенфорда?
С его вкатывание как раз и надо начинать, а не с книг по 500 стр.
Аноним 02/02/17 Чтв 15:33:12 #167 №924693 
>>924688
Еще один думает, что TF это обычная пистонопараша для модного у школьников диплернинга.
Аноним 02/02/17 Чтв 15:35:17 #168 №924694 
>>924688
Сообщу нихуя не поддерживаемое никем мнение. Нет ничего жрущего или нет. Есть только то за что ты получишь в итоге бабло, а за что ты получшишь лишь в еблище или тебя пизданут на мороз
Аноним 02/02/17 Чтв 15:35:43 #169 №924696 
>>924694
или то*
Аноним 02/02/17 Чтв 15:38:50 #170 №924700 
>>924688
Ебашим вместе с подругой нвидией всё на кофе на крестах, рвем все бенчмарки и ссым в лицо фреймворкам для даунов.
Аноним 02/02/17 Чтв 15:41:30 #171 №924702 
>>924693
только вот школьники что-то совсем не юзают его:)
Аноним 02/02/17 Чтв 15:49:13 #172 №924707 
>>924694
офисный планктон на крестах, да еще и под виндой, что-то там рвет, лол бляяяя
Аноним 02/02/17 Чтв 15:56:19 #173 №924710 
>>924693
ну а если серьезно, TF скорее для офисных червей, которые работают работу и зарабатывают зарплату и вполне естественно, что в /pr на него дрочат. Но раз уж тред по ML, а не про TF, то и обсуждать лучше плюсы минусы всех библиотек.
Аноним 02/02/17 Чтв 16:15:24 #174 №924715 
>>924710
Все, что не поддерживает и пистон и кресты идет нахуй сразу. Особенно всякая lua параша (это ж надо было придумать юзать неподдерживаемое говно, а).
Аноним 02/02/17 Чтв 16:18:08 #175 №924716 
>>924707
>>924700

Ты не туда ответил, а я думаю чё за хуйня, ответ вроде есть, а вроде его и нет
Аноним 02/02/17 Чтв 16:29:32 #176 №924722 
>>924716
А почему под виндой-то? И почему под виндой должно быть медленнее, лалс? А, я понял, потому что нитакие школьники угорают по МААМ МААМ ЛИНУПС ЭТА КРУТА!!111.
Аноним 02/02/17 Чтв 16:42:55 #177 №924726 
>>924715
Во многом благодаря "луа параше" офисные черви вообще узнали, что такое дип лернинг. Науч. статьи совсем не читаем, да?

Torch первый релиз в 2002 и именно его юзали Deep Mind и сейчас продолжает Facebook, NVIDIA. Theano первый в 2009, университетский проект, т.е. части кода писались всякими практикантами и пхд студотой скорее всего, что как-бы намекает. И поэтому промолчим про качество кода в Theano.

И да, пистон сосет у lua если что, и соответственно Theano сосет у Torch.

Ну и вот немножечко бенчмарков вам для повышения ЧСВ.

https://github.com/glample/rnn-benchmarks
Аноним 02/02/17 Чтв 16:49:39 #178 №924727 
>>924722
ну про скорость это ты додумал (интересно почему).
Это было к тому, что под виндой, где нет нормальных средств для разработки, а я имею в виду, нормальные редства разработки, а не ваши отмазки и костыли ни один уважающий себя кун не будет в r&d.

Заранее прошу прощения у сишарпов и с++ для которых заботливая MS слабала отличную VS у кучу других костылей.
Аноним 02/02/17 Чтв 16:51:19 #179 №924728 
laughing-cat-desktop-background.jpg
> пистон сосет у lua
Аноним 02/02/17 Чтв 16:53:08 #180 №924731 
>>924727
> нормальные редства разработки, а не ваши отмазки и костыли ни один уважающий себя кун не будет в r&d.
Ну-ка ну-ка поясни за средства разработки, мне аж прям интересно стало. Сам на чем ML делаешь? Чего под винду нет?
Аноним 02/02/17 Чтв 16:57:21 #181 №924732 
>>924235
Там рассказывается про виды выходных нейронов, их выбор зависит от того, что тебе удобнее получать на выходе в конкретной задачe.
Линейные выходы(без функции активации) подходят для задач регрессии, сигмоида для классификации 1/0,
Нормальность распределения предполагается во всех методах, использующих метод максимального правдоподобия, об этом страниц пять назад в твоей книжке написаною.
Аноним 02/02/17 Чтв 17:00:19 #182 №924733 
>>924584
0.(9)+0=1
Что не так?
Аноним 02/02/17 Чтв 17:06:03 #183 №924742 
>>924265
>>924260
>>924247
>е нахуй не сдалась для практического вката
>е нахуй не сдалась для практического вката
>е нахуй не сдалась для практического вката
>е нахуй не сдалась для практического вката
>е нахуй не сдалась для практического вката
>е нахуй не сдалась для практического вката
>е нахуй не сдалась для практического вката
Аноним 02/02/17 Чтв 17:07:46 #184 №924744 
>>924742
Нормальное распределение не осилил или что?
Аноним 02/02/17 Чтв 17:19:04 #185 №924753 
все распределения и вообще вся база очень хорошо разжёвываются в первых 3 книгах шапки
Аноним 02/02/17 Чтв 17:24:27 #186 №924755 
>>924744
Бред написан дичайший, а потом
>Большая часть параши в шапке нахуй не сдалась для практического вката
Как бы вся суть. И это притом, что в книжке страниц пять назад написано:
>Previously, we saw that the equivalence between
maximum likelihood estimation with an output distribution and minimization of
mean squared error holds for a linear model, but in fact, the equivalence holds
regardless of the f ( x ; θ ) used to predict the mean of the Gaussian.
An advantage of this approach of deriving the cost function from maximum
likelihood is that it removes the burden of designing cost functions for each model.
Specifying a model p (y | x ) automatically determines a cost function log p(y | x ).
Просто ёбаные дауны, то есть тут даже читать без толку, один хуй всё вылетает.
>Большая часть параши в шапке нахуй не сдалась для практического вката.
>ШАД шарага))0))0 а я умныыыый)0)0
Пиздец какой.
Аноним 02/02/17 Чтв 17:59:05 #187 №924786 
>>924584
https://ru.wikipedia.org/wiki/0,%289%29
Аноним 02/02/17 Чтв 18:05:39 #188 №924791 
>>924755
Поток сознания какой-то. Что тебе не нравится-то, конкретно, илитарий?
Аноним 02/02/17 Чтв 18:06:53 #189 №924792 
>>924753
Для чтения книжки гудфеллоу никакой БАЗЫ не нужно.
Аноним 02/02/17 Чтв 18:16:03 #190 №924800 
>>924792
нужен бишоп/маккай
Аноним 02/02/17 Чтв 18:17:52 #191 №924801 
>>924792
Чё за гудфеллоу? Нихуя не въехал.
Аноним 02/02/17 Чтв 18:39:10 #192 №924821 
14791298916810.png
>>924791
Один жопой читает книги, половину не понимая, другой несёт хуйню шизофазийную из того, что где-то когда-то услышал, гаусианы у него по слоям ходят, третий фантазёр, на ходу под ответ компилирует, в цене дома элемент случайности, будто на экзамене троечник.
> Но я эту херню давно читал и открывать снова влом, сорян.
Ну и довершает всю эту картину вишенка
>Большая часть параши в шапке нахуй не сдалась для практического вката. Хотите дрочить эту хуйню
Антракт.Ёбаный пиздец. Вы же вообще не понимаете, что делаете. То есть вообще. А от прочитанных книг только ещё большая каша становится, потому что базовых понятий нет/они неверные.
А потом такой скроллишь вверх,а в шапке
>шад)))
Нет там ничего ML-специфичного, знание матана и теорвера на уровне заборостроительного вуза
Просто мммаксимум долбоёбы. Ебать у вас тут загон.
Аноним 02/02/17 Чтв 18:43:57 #193 №924826 
>>924684
> повысишь точность
Зачем? 0.(3),1/3 куда точнее-то? Давай тогда вместо pi или e по 1000 символов писать.
Аноним 02/02/17 Чтв 19:11:17 #194 №924850 
>>924821
Ну и вали нахуй урод, хули ты тут забыл?

The bias–variance decomposition is a way of analyzing a learning algorithm's expected generalization error with respect to a particular problem as a sum of three terms, the bias, variance, and a quantity called the irreducible error, resulting from noise in the problem itself.

В цене дома у него не может быть случайности.
Аноним 02/02/17 Чтв 19:20:08 #195 №924860 
Что скажете насчёт https://see.stanford.edu/Course/CS229 ?
Стоит ли в шапку добавлять?
sageАноним 02/02/17 Чтв 19:23:33 #196 №924865 
>>924860
там уже есть "курс от китаёзы"
Аноним 02/02/17 Чтв 20:08:53 #197 №924889 
>>924728
бенчмарки не читаем, ты же не думаешь, что я настолько дурачок и буду сравнивать доступность библиотек.
Аноним 02/02/17 Чтв 20:11:34 #198 №924891 
>>924235
да это просто доп. информация, абы знал для чего еще. На твоем месте я бы прошел stanford ML coursera курс.
Аноним 02/02/17 Чтв 20:13:46 #199 №924893 
>>924821
лондан из зе кепитал оф грейт британ, уровень каждого первого российского погромиста. На их месте я бы не Bishop-а читал, а учил язык лол
Аноним 02/02/17 Чтв 20:16:53 #200 №924897 
>>924821
двачую адеквата, долбоебам, которые решили вкатится для начала надо закончить курсеру и только потом пробовать в книги. Блядь, но нет, тут же каждый в поле агроном.
Аноним 02/02/17 Чтв 20:19:56 #201 №924899 
>>924889
Ты настолько дурачок, чтобы выбирать DL либу по бенчмаркам? В которых нет половины DL либ и бенчмарк только по рекурсивкам, лол. Еще один диванный теоретик.
sageАноним 02/02/17 Чтв 20:32:22 #202 №924911 
blob
0.(9) + 0.(9) = 0.9999... + 0.9999... = 1.9999...998
Аноним 02/02/17 Чтв 20:36:35 #203 №924919 
>>924899
ну я знаю, что выбирать, т.к. пишу дисер по рекурсивкам. И собственно тон выбрал, чтобы потроллить немного борду и растрести нормальных кунов. Естественно, нет лучшей либы, все под свои задачи. Но шапка требует доработки, т.к. куча полезных и нужных фреймволков отсутствует вообще.
Аноним 02/02/17 Чтв 20:42:12 #204 №924926 
По-моему, все уже сошлись во мнении, что шапка - говно.
Аноним 02/02/17 Чтв 20:44:00 #205 №924928 
>>924919
Опа-опа чё за дисер? Согласен ли ты что существующие рекурсивки (LSTM) - костыльное говнище? Что думаешь за neural turing machines?
Аноним 02/02/17 Чтв 20:46:07 #206 №924929 
Небольшой ревью по фреймволкам Caffe, Theano, Torch, TF от Андрюши Карпатого. Читаем, анализируем. Для нетерпеливых сразу в pros/cons.

линк: https://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=1&cad=rja&uact=8&ved=0ahUKEwjavKrF-_HRAhXJLsAKHZ3FDOwQFggaMAA&url=http%3A%2F%2Fcs231n.stanford.edu%2Fslides%2Fwinter1516_lecture12.pdf&usg=AFQjCNEruVeYhkzWmcZ2N8k-rpUHHAITYA&sig2=So34QvPzJ1NlXACB4YAfmA&bvm=bv.146073913,d.ZGg
Аноним 02/02/17 Чтв 20:51:34 #207 №924934 
>>924928
ну вообще вопрос не совсем корректный? тут дело не в том как ты процессишь свой hidden layer вообще, т.е. не в LSTM дело. Как говорил Микола, главное это ваш корпус, фичи и настройки параметров.

Про тюренговые машинс увы я тебе ничего не скажу. Надо скачала почитать статьи по ним.
Аноним 02/02/17 Чтв 20:59:21 #208 №924942 
>>924928
да, и что-то я не понял про LSTM, они outperform все что только можно на данный момент. Чем ты недоволен?
Аноним 02/02/17 Чтв 22:46:27 #209 №925032 
>>924942
Тем, что это просто квинтэссенция костыльной архитектуры с костылем на костыле? Одна зависимость от временного масштаба чего стоит (забывает все нахрен если частота данных большая) - и ради того, чтобы это побороть наворачивают еще костылей - гейты, которые открываются каждые K, 2K, 4K временных шагов и т.д. (влом искать статью, на прошлом семчике в ИППИ было). Просто пиздец.

То же самое со сверточными сетками, которые могут в трансляцию, но внезапно не могут в поворот и другие симметрии. Хотя казалось бы одна хуйня.

Но и там и там народ пытается придумать что-то нормальное - для симметрий Домингос придумал deep symmetry networks, для нормальной памяти - neural turing machines.

И вообще надо давно пробовать полноценные дифференцируемые программы, а не 2.5 костыля как LSTM, Колмогоровская сложность же. Попробуй заставить твой LSTM отсортировать массив, вперед.
Аноним 02/02/17 Чтв 23:05:12 #210 №925051 
>>925032
> neural turing machines
Если в двух словах, то это нейросеть, которая помимо своего основного режима способна выполнять обычный код?
Аноним 02/02/17 Чтв 23:10:18 #211 №925058 
>>925051
>neural turing machines
Круть какая.
Аноним 02/02/17 Чтв 23:31:46 #212 №925067 
https://en.wikipedia.org/wiki/Google_matrix
Аноним 03/02/17 Птн 00:38:21 #213 №925124 
>>924821
Ок, знаток, спасибо за твой резкий, но информативный ответ. Можешь пояснить, почему мы выбираем гауссиан как p_model?
Аноним 03/02/17 Птн 00:44:57 #214 №925127 
>>924893
Я знаю английский где-то между Advanced и Proficiency, проблема не в языке, а в некотором грузе нотации + математики, тот же cs231n с course notes значительно легче воспринимается вероятно из-за формата и большей ориентированности на практику.
>>924897
>>924891
Я прошел курс, но не сказать, чтобы он дал много понимания. Да, смогу тебе зафитить и регрессию и деревья скорее всего под датасет, что теперь больше знать ничего не надо?
Аноним 03/02/17 Птн 01:19:42 #215 №925151 
>>925032
ну по сравнению с ванильной RNN, которая похоронила все надежды на "успех" в свое время, LSTM был прорывом и благодаря именно этой архитектуре интерес к рекаррентам воскрес и сейчас мы пожинаем плоды этого "интереса" (в виде вот таких вот трололо тредов).

Конечно, одной лишь "забавной" архитектурой ты не решишь все проблемы. Другое дело, что создать что-то более менее хорошо работающее даже с LSTM далеко не так просто как кажется.
У LSTM была задача решить проблему исчезающего градиента (vanishing gradient). Они с ней справились.

Почитай еще про Highway networks -- классические FFNN только с прикрученными гейтами. Тоже ниче, успешно применяются. Гейты рулят на самом деле. Более того, зачем ебать мозг куда более сложными архитектурами, если подборка толкового корпуса и настройка параметров всегда и дешевле, и быстрее в результате.

Ну а в сравнение с представленными тобой решениями, LSTM смотрятся теоретически слабо. Но это просто ступень.
Аноним 03/02/17 Птн 01:25:40 #216 №925152 
>>925127
ну вот, молодца.

ну текст, который ты вывалил выглядит нормальным, хотя предложение, соглашусь, длинноватое для восприятия без перечитки.
Ты почитай дедушку Эльмана например, вот там пиздец.
Когда я не понимаю о чем речь это скорее всего от недостатка математического бекграунда. Тогда я начинаю гуглить и читать смежные темы. Да долго, но зато разбираешься.
Аноним 03/02/17 Птн 01:59:07 #217 №925160 
094a7a47f9b3b3L.jpg
>>925032
>То же самое со сверточными сетками, которые могут в трансляцию, но внезапно не могут в поворот и другие симметрии.
Как будто ты можешь.
Аноним 03/02/17 Птн 02:29:59 #218 №925168 
>>925124
Так как пользуемся методом максимального правдоподобия для обучения сети, а он асимптотически нормален, то есть его распределение аппроксимируется нормальным распределением, которое N(y;y,I). Во втором случае мы тоже пользуемся методом максимального правдоподобия, но теперь у нас классификация, потому используется распределение Бернулли( которое есть биномиальное с н=1, которое при
больших n также нормальное).
>>Previously, we saw that the equivalence between
maximum likelihood estimation with an output distribution and minimization of
mean squared error holds for a linear model, but in fact, the equivalence holds
regardless of the f ( x ; θ ) used to predict the mean of the Gaussian.
An advantage of this approach of deriving the cost function from maximum
likelihood is that it removes the burden of designing cost functions for each model.
Specifying a model p (y | x ) automatically determines a cost function log p(y | x ).
О чём он тебе и говорит, до этого ты строил линейную регрессию с mean square error в качестве функции потерь, в итоге твои точки почти все лежали на получившейся линии. А теперь, говорит он тебе, посмотри внимательно, что ты сделал. Mean square error по-русски дисперсия, то есть разброс относительно матожидания, ну и ты его минимизировал и получил ровную линию. Дык вот, говорит нам автор,нам удалось получить соответствие между предсказанными и исходными значениями при помощи минимизацией дисперсии не потому, что наша модель линейна , а потому, что мы предполагали, что наша величина распределена нормально. Она не распределена нормально, мы предполагаем, что она распрелена нормально и на этом предположении строим приближение.
Аноним 03/02/17 Птн 02:47:34 #219 №925171 
>>925124
Блядь, почему p-model? p(y|x), условная вероятность, p-model не обязательно нормальное, Бернулли в регрессии, например.
Аноним 03/02/17 Птн 02:59:21 #220 №925173 
>>925171
А, лол, это и есть p(y|x). Нужна регрессия берёшь нормальное, нужна классификация берёшь Бернулли. По сути это одно и то же, хотя не совсем, вот биномиальное и Бернулли одно и то же, частный случай для n=1, а тут просто на больших n (вроде больше 30)как нормаальное себя ведёт по центральной предельной т еоремееею.
Аноним 03/02/17 Птн 03:00:57 #221 №925174 
>>925173
>Нужна регрессия берёшь
Линейный выходной слой.
> нужна классификация берёшь
Сигмоиду.
Та\м об этом параграф в общем.
Аноним 03/02/17 Птн 03:15:28 #222 №925177 
>>925173
>это и есть p(y|x
Точнее матожидание, которое хотели получить. Вот, кстати, c этого тогда проорал:
> В идеале ты бы хотел, зная вход x, получить не просто некое значение y, а распределение вероятностей по y при условии x, т.е. насколько вероятно любое значение y при данном x. Это полезно, т.к. в реальном мире в цене дома (y) есть элемент случайности,
Внимание, правильный ответ:
>Instead of learning a full probability distribution p(y | x ;θ) we often want to learn just one conditional statistic of y given x .
Сука, ну с точностью наоборот! Чё там? Агаа, офэн мин, ну бля, видимо короче хотелось бы всё взять, а получается тока среднее и дааавай хуярить истории охуительные про полезность элементов случайности, не описывающихся площадью, аааа. Нахуя вы этим занимаетесь, понять не могу, если вам это не интересно.
Аноним 03/02/17 Птн 03:19:04 #223 №925178 
>>925177
>ну с точностью наоборот
Просто типа какой смысл? Испорченный телефон по итогу, хоть 200 книг толстых прочитай, даже ещё хуже станет. Надо либо нормально заниматься, прежде всего математикой, просто чтобы понимать, что ты хоть делаешь, а не ВНУТРЕ У НЕЙ НЕЙРОНКА))0)либо не страдать хуйнёй, пизда, температура, умираю, нахъуй, походу скорую вызывать надо, зуб ебучий мудрости неделю уже охуеваю. Короче, не страдайте вы хуйнёй. Я кончил.
Аноним 03/02/17 Птн 03:38:19 #224 №925179 
>>925177
>Точнее матожидание
Точнее условная вероятность, лол.
https://en.wikipedia.org/wiki/Multivariate_normal_distribution
Аноним 03/02/17 Птн 05:18:31 #225 №925191 
>>925168
>Mean square error по-русски дисперсия
>>925168
> Mean square error по-русски дисперсия
F{F{F{F{{F{{F{FАСХХАХАХААЪАЪАЪ КААААРА ХАХАХАХАХУХУХХУХАХАХ >>925179
>очнее условная вероятность, лол.
>>925179
>>Точнее матожидание
>Точнее условная вероятность, лол.
>>925178
>>ну с точностью наоборот
>Просто типа какой смысл? Испорченный телефон по итогу, хоть 200 книг толстых прочитай, даже ещё хуже станет. Надо либо нормально заниматься, прежде всего математикой, просто чтобы понимать, что ты хоть делаешь, а не ВНУТРЕ У НЕЙ НЕЙРОНКА))0)либо не страдать хуйнёй, пизда,
УХХАХАХАХХАХАХАХУХХА ЕБАТЬ Я ДАААУН АААААААААААА ААА_+А++А+А+А++АААХАХАХАХА
Аноним 03/02/17 Птн 05:22:39 #226 №925192 
>>925191
Мораль: прежде, чем копировать с вики нужно тщательно перепроверять соответствие терминов. Мда, вот так слив.
Аноним 03/02/17 Птн 12:16:52 #227 №925318 
>>925160
Тоже пробовал, сложно узнавать людей вверх ногами
Аноним 03/02/17 Птн 12:53:16 #228 №925340 
>>925032
> neural turing machines
Поясни, в чем профит и кому это выгодно?
Аноним 03/02/17 Птн 17:03:57 #229 №925511 
1. Что скажите за импульсные нейросети?
2. И есть ли какая-то логика, что оперирует временем, временными отношения и таким подобным? То есть, разработано ли некое формальное представление времени в формальной логической системе. Хотелось бы что-то вида деления на настоящее время и "вероятное", а во втором возможность использовать ту же нечеткую логику и теорию свидетельств. Хотя, может кто-то сделал намного лучше и логичнее.
Аноним 03/02/17 Птн 17:21:25 #230 №925527 
То есть, можно обучить нейросеть на нескольких терабайтах кода и выходного машинного кода и таким образом оптимизировать компиляцию, лол?
Аноним 03/02/17 Птн 17:38:28 #231 №925553 
>>925527
доброе утро! уже давно так и делают
нейроночки и аппаратно реализируются - у АМД процах бранч предиктор на нейроночках
Аноним 03/02/17 Птн 19:44:05 #232 №925660 
>>925647
Автоматическое доказательство теорем.
Аноним 03/02/17 Птн 20:04:53 #233 №925676 
4021.jpg
Нишестудент вкатился.
1. Пилю самоорганизующуюся карту Кохонена. Возник вопрос по алгоритму: зачем вводится элемент случайности при выборе элемента для представления его карте, что будет, если тупо итеративно скармливать системе весь датасет;
2. Хорошо разобрался в нечетких машинах вывода Мамдани-Заде, они моделируют мышление человека,но не понимаю смысловой подоплеки в машинах вывода Сугено, посоветуйте статейку, желательно со сравнением первого со вторым.
Аноним 03/02/17 Птн 20:10:02 #234 №925681 
>>925676
>, что будет, если тупо итеративно скармливать системе весь датасет
Проверь.
Аноним 03/02/17 Птн 20:23:34 #235 №925692 
tspic1.png
тс0.png
>>925676
1) Случайная инициализация опорных векторов - один из возможных вариантов инициализации опорных векторов. Суть в том, что даже если их задать рандомно, в итоге все сходится к оптимальному представлению опорными векторами входных данных.
2) Отличие вывода Сугено от Мамдани в дефаззификации. В модели Мамдани результирующее множество представляется в виде единственного четкого значения методами вычисления центроидов и т.д., оператор Сугено - получение единственного значения из нескольких заданных правилами синглтонов (пик2) или линейных функций (гомогенных или аффинных, пик1 - аффинные). Суть в том, что этот метод гораздо проще с вычислительной точки зрения, ну есть еще плюсы. Самая нормальная статья, внезапно оригинальный пейпер Такаги и Сугено, но там авторы сами в своей нотации запутались и знатно накосячили в некоторых формулах, исправленный вариант на пике1.
Аноним 03/02/17 Птн 20:33:27 #236 №925704 
тс.png
Да, есть еще т.н. стандартная аддитивная модель Коско, к которой сводится любая нечеткая система вывода. В нотации Коско модель Такаги-Сугено вообще элементарно понять.
Аноним 03/02/17 Птн 20:38:19 #237 №925712 
11898-n6.png
>>925692

1. Ты не понял, я имею ввиду не инциализацию начальных значений весов, с этим я разобрался. Я имею ввиду требование случайного порядка обхода датасета в течении одной эпохи, почему нельзя просто обходить датасет в его естественном порядке? Просто я реализовывал k-means и СLOPE, и там не было такого требования, и, вообше, было бы удобно использовать курсор базы данных и прочие итераторы.
2. Про Сугено спасибо, буду разбираться.

Аноним 03/02/17 Птн 20:46:45 #238 №925721 
Есть еще очень годная книжка http://gen.lib.rus.ec/book/index.php?md5=66B1A6B5D15A0E70D7D4F036267A73AF с нуля поясняется за лисп, множества, нечеткие множества, с нуля же поясняется за синглтонный вариант модели Такаги-Сугено с кодом на лиспе.
>>925712
>Я имею ввиду требование случайного порядка обхода датасета в течении одной эпохи, почему нельзя просто обходить датасет в его естественном порядке?
Почему нельзя, можно. Просто ты говоришь о стохастическом варианте SOM, в идеале его иллюстрируют именно так - от балды берутся значения опорных векторов и элементы датасета. Если их брать один за другим - это не изменит ничего, т.к. функция плотности вероятности, заданная на датасете от этого не изменится и в итоге точно так же аппроксимируется опорными векторами.
Аноним 03/02/17 Птн 20:49:12 #239 №925724 
>>925712
>, вообше, было бы удобно использовать курсор базы данных и прочие итераторы.
Проверь!
Аноним 03/02/17 Птн 20:50:46 #240 №925725 
>>925721
>функция плотности вероятности, заданная на датасете от этого не изменится и в итоге точно так же аппроксимируется опорными векторами.
Точно?
Аноним 03/02/17 Птн 20:53:06 #241 №925728 
>>925724
Если сет огромен и в память не влезает, то альтернатив-то и нет.
Аноним 03/02/17 Птн 20:53:55 #242 №925731 
Снимок.PNG
>>925725
Конечно. Датасет один и тот жи, опорные векторы одни и те же. Какая разница, в каком порядке сравнивать строки датасета с опорными векторами? Там важнее само количество предьявлений, достаточное для сходимости.
Аноним 03/02/17 Птн 20:59:44 #243 №925736 
300px-FDekT.jpg
>>925731
>Какая разница, в каком порядке сравнивать
А разве не будет разницы? Например, если мы будем каждый раз извлекать максимум, то получим вот такое распределение. Или это не играет роли? Или я хз.
Аноним 03/02/17 Птн 21:05:24 #244 №925750 
>>925736
>А разве не будет разницы?
Откуда там будет разница? Суть-то в чем: берется вектор из датасета, для него находится лучший (с минимальным евклидовым расстоянием от него) опорный вектор, который обновляется по соотв. правилу. В каком порядке не бери векторы датасета, все равно каждый из них будет обновлять наиболее подходящий для себя опорный вектор. Важно только количество предъявлений, чтобы в итоге все опорные векторы соответствовали датасету, в т.ч. аппроксимировали плотность вероятности, имеющуюся на нем.
Аноним 03/02/17 Птн 21:06:12 #245 №925752 
c86.jpg
>>925736
Аноним 03/02/17 Птн 21:10:18 #246 №925760 
>>925750
Ясно.
Аноним 03/02/17 Птн 21:10:52 #247 №925761 
>>925736
Глянь вот эту книжку http://bookzz.org/book/460672/dd566b главу про SOM, там есть простой численный пример,прямо на пальцах показано как все считается и сходится.
Аноним 03/02/17 Птн 21:59:10 #248 №925845 
>>925676
>что будет, если тупо итеративно скармливать
>Depending on the implementations, t can scan the training data set systematically (t is 0, 1, 2...T-1, then repeat, T being the training sample's size), be randomly drawn from the data set (bootstrap sampling), or implement some other sampling method (such as jackknifing).
Ничего, зависит от реализации. Хотя, наверняка это как-то влияет на результат.
Аноним 03/02/17 Птн 22:09:30 #249 №925859 
>>925845
>It has turned out in practice that ordered cyclic application of the available samples is not noticeably worse than the other, statistically stringent sampling methods.
Даже вот так, получается, всегда можно применять.
Аноним 03/02/17 Птн 22:10:12 #250 №925861 
>>925859
всегда можно цикл юзать
Аноним 03/02/17 Птн 22:43:11 #251 №925890 
>>925660
https://arxiv.org/pdf/1606.04442.pdf
Аноним 03/02/17 Птн 22:49:35 #252 №925895 
это тред байтоебов?
Аноним 04/02/17 Суб 00:26:55 #253 №925982 
долбоёбов
Аноним 04/02/17 Суб 00:38:47 #254 №925999 
>>925982
Посраль смачно тебе в глотку.
Аноним 04/02/17 Суб 12:13:01 #255 №926212 
>>925032
Что за семинар? Может тоже похожу
Аноним 04/02/17 Суб 12:18:10 #256 №926215 
Зашёл в нить после долго перерыва, а тут шото неясное происходит. Шо за война между нечётко петухами не глубоко заглотами?

Со вторым понятно, но первые откуда лезут7
 Аноним 04/02/17 Суб 12:23:05 #257 №926217 
>>925511
Пользуясь случаем передаю привет мамке опа
реквестирую годную книгу по динамическим импульсным нейронным сетям похуй если нету - напишите её, лол
 Аноним 04/02/17 Суб 12:26:34 #258 №926218 
>>924826
Это костыль. Костыли не нужны. Если костыль есть в такой коренной функции - то всё остальное не стоит и говна
Аноним 04/02/17 Суб 15:18:58 #259 №926303 
А в мозгу человека, когда сигнал проходит от глаз в зрительную кору, он как-то переходит в абстрактную форму? Если да, то как она выглядит и как этот процесс называется? Я ведь вроде слышал, что у тех же хомячков можно подключить зрение к слуховой коре, а слух к зрительной коре и им будет нормально все. А как это все в искусственных нейросетях?

И еще вопрос о образах. Как они хранятся в мозгу и в ИНС?
Аноним 04/02/17 Суб 15:40:22 #260 №926309 
>>926303
Пиздуй к нейробиологам.
Аноним 04/02/17 Суб 15:46:15 #261 №926314 
>>926309
Восприятие: Как мозг переводит хаотичный поток нервных сигналов от органов чувств в целостную картину восприятия? Какие внутренние правила и закономерности регулируют этот сложный процесс? Как информация от разных органов чувств объединяется мозгом воедино?

Типа это кодирование есть нерешенная проблема нейробиологии?
Аноним 04/02/17 Суб 15:48:38 #262 №926316 
>>926314
Так вроде на википедии и написано.
https://ru.wikipedia.org/wiki/%D0%9D%D0%B5%D0%B9%D1%80%D0%BE%D0%B1%D0%B8%D0%BE%D0%BB%D0%BE%D0%B3%D0%B8%D1%8F
Аноним 04/02/17 Суб 15:54:10 #263 №926319 
>>926316
Ну, а как это кодирование называется вообще? Есть ли термин? Хочу понять, как гуглить это.

Ну, и образы. Это тоже непонятно пока? А в ИНС это просто веса или как?
Аноним 04/02/17 Суб 15:57:04 #264 №926320 
>>926303
>А в мозгу человека, когда сигнал проходит от глаз в зрительную кору, он как-то переходит в абстрактную форму? Если да, то как она выглядит и как этот процесс называется? Я ведь вроде слышал, что у тех же хомячков можно подключить зрение к слуховой коре, а слух к зрительной коре и им будет нормально все.
>Как они хранятся в мозгу и в ИНС?
Насколько я понимаю обычно это матрица весов, типа ничего общего, НО! Пали вот тут! пали >>923341
https://www.researchgate.net/publication/257392356_A_novel_image_encryptiondecryption_scheme_based_on_chaotic_neural_networks
Короче, есть типа класс сетей непопулярный, который как модели юзает динамические
системы, типа наш мозг тоже такая система,


ВО, цени
Основная идея резервуарных вычислений заключается в использовании
рекуррентной нейронной сети как резервуара с богатой динамикой и мощ-
ными вычислительными возможностями. При этом резервуар формируется
случайным образом, что исключает необходимость проводить его обуче-
ние. При подаче на вход резервуара непрерывного сигнала он попадает в
определенный динамический режим или состояние. Это состояние зависит
от входного сигнала. Резервуар формируется таким образом, чтобы для
похожих входных сигналов это состояние было похожим, а для разных –
разным. Выход резервуара соединен со специальными устройствами – счи-
тывателями, которые по состоянию резервуара решают поставленную за-
дачу – производят классификацию, предсказание, кластеризацию. В каче-
стве считывателей могут использоваться статические обучающие машины
с простыми алгоритмами обучения. Таким образом, резервуар интегрирует
в своем состоянии динамику входного образа, а считыватели по состоянию
резервуара распознают входной образ.
Один из разделов теории динамических систем связан с теорией хаоса
и синергетикой. В хаотической динамике рождаются структуры под дей-
ствием внешних возмущений, и она изначально может содержать все мно-
жество возможных вариантов. Хаотические системы позволяют выйти на
следующий уровень обобщения и расширить возможности вычислений од-
новременно над целым множеством вариантов, причем это множество будет
формироваться под воздействием внешних сигналов и тем самым обеспечи-
вать адекватную сложность. Во многом это похоже на парадигму, исполь-
зуемую в квантовых вычислениях, в этом случае до момента считывания
ответа содержится все множество вариантов решений
А на той пикче короче снимок электромагнитный типа энцефалгораммма мозга крысы, и там типа аттрактор по форме. В общем будто такой колебательный контур, колторый тпринимает форму определённую в зависимости от среды, куда его помесятт. Круто пиздец. Ну и ещё там есть два режима работы: периодический и хаотический, смысл типа в том, что в такой системе можно один маленький параметр изменить и оно как домино свой режим работы сменит, на этом там память сделали, а ещё где-то там тоже были исследования, что наше внимание так работает, и что с нарушением закона динамики или как то так связаны эпилептические припадки

Короче, анон, я объебался спидами и вот так тоже случайно сюда забрёл, в итоге уже почти неделю не сплю, гуглю какие то статьи, английский не знаю не хуя, но каким-тоо хуем читаю, понимаю че там написнао, типа как тоже хаотическая сеть, крыша едет пиздец, похзоду словил серотониновый синдром, пожрать пытался сразу дристать иду, иллюзия температуры лютая, оказалось 36 6, кажется будто зуб болит и щёки распухди, к стоматологу пришёл, у меня всё норм, это я проходжу сам шёки схъед, но зракам пизда в стоматологии охуел и на улице. Сегодня выбросил остатки, хоть бы хуже не было. Короче анон, это жёсткая темма, она тебя сожрёт, все эти нейроменные сети, китайцы очнеь дохуя работ сделали.
http://www.oalib.com/search?kw=chaotic+neural+network
Одни китайцы. Ещё на анонов агрился тут, казалось, что я типа всё понял, а они дауны,Ю потом перечитывал и это я даун, а потом опять они и так по кругу.
https://www.youtube.com/watch?v=ggpJkuN9eiM
Аноним 04/02/17 Суб 16:00:13 #265 №926323 
>>926320
ХОРОООШАЯ КРЫЫША ЛЕТАЕТ СААМАА И В САМЫЙ НИИЗ И В САМЫЕЕЕ ВЕРХАА ТРАЛИ ВАЛИ КРЫЫША ГДЕ ТЫ БУДЕШЬ ЗАВТРАА
Аноним 04/02/17 Суб 16:01:05 #266 №926325 
>>926319
Здесь говорят, что, например, свёрточная сеть учит представление(representation).
Аноним 04/02/17 Суб 16:04:05 #267 №926329 
>>926319
http://cyberleninka.ru/article/n/analiz-elektricheskoy-aktivnosti-golovnogo-mozga-pri-absans-epilepsii-prikladnye-aspekty-nelineynoy-dinamiki
https://ru.wikipedia.org/wiki/%D0%A1%D0%B8%D0%BD%D1%85%D1%80%D0%BE%D0%BD%D0%B8%D0%B7%D0%B0%D1%86%D0%B8%D1%8F_(%D0%BD%D0%B5%D0%B9%D1%80%D0%BE%D0%B1%D0%B8%D0%BE%D0%BB%D0%BE%D0%B3%D0%B8%D1%8F)Ъ
http://nauchkor.ru/cloud_storage/documents/587d36765f1be77c40d58fcb.pdf
Вот навскидку, там информации дохуя и больше.
Аноним 04/02/17 Суб 16:13:16 #268 №926337 
>>926319
Дело в том, что есть разный взгляд на это дело, подавляющее большинство не занимается всякими сомнительными исследованиями и придерживается того, что сеть это некая матмодель/алгоритм, способный за счёт, например, последовательной минимизации ошибки решать конкретную околостатистическую задачу. То есть нейронные сети это не попытки создать электронный мозг, лол, там совсем другие задачи, это широчайший спектр методов автоматизации человеческой деятельности, просто название такое хайповое.
Но есть и вот такие ответвления, от них дух захватывает.
Аноним 04/02/17 Суб 16:16:13 #269 №926339 
>>926319
>а как это кодирование называется вообще? Есть ли термин?
Термина нет, как и кодирования, это не та область науки, за этим иди в нейробиологию,когнитивистику и тд
Аноним 04/02/17 Суб 16:17:11 #270 №926340 
>>926337
Не-не. Способ аппроксимации нелинейных функций и статистического вывода.

Вообще странно, что некоторые думают, что люди знаю как человек мыслит, лол.
Аноним 04/02/17 Суб 16:22:38 #271 №926345 
>>926314
>Как мозг переводит хаотичный поток нервных сигналов от органов чувств в целостную картину восприятия?
Насколько я понял за эту неделю мозг ничего не переводит, он и есть хаотичный поток! ПРикинь! То есть это такой морфящийся от внешних воздействий электромагнитный контур!
>Какие внутренние правила и закономерности регулируют этот сложный процесс?
Хуй знает, за этим иди в теорию динамических систем и тд, там пытаются отвечать на подобные вопросы. Я тут как-то угарнул, что мб наверняка один из атких законов/правил уравнение Шредингера, ну оно тип тоже хаогтическое всё такое)0)0
Аноним 04/02/17 Суб 16:26:57 #272 №926349 
>>926340
>Вообще странно, что некоторые думают, что люди знаю как человек мыслит, лол.
Пытаются ответить на вопрос как, сравнивают датчики импульсов, примеряют разные модели, а как же? Это же главный вопрос с начала времен! Приблизиться к тайне сознания!
мимопроходил 04/02/17 Суб 16:28:53 #273 №926352 
>>926320
Очень хотел скопировать, пускай даже не слишком осознанно твой стиль сообщения, но решил стереть. Писал о конце света Матроне 10 февраля из-за создания ИИ, приметах по белых пятная на ногтях, эффекте Буба-Куки, фоносемантика, о том, что последнее время многое обращаю на форму, вывожу какие-то геометрические объекты в мир, эйдетика, методичка советская, звук начал смешиваться, люди начали говорить несвойственными голосами, постоянное повторяющее дежавю напоминающее мое предсказание будущего или даже когда отличие возникло, что "если событие Z произошло после события Y, то не обязательно считать, что есмь Yгрек причина события Zет", что во многом и может быть началом человека, стараюсь использовать оба полушария, математика стала выводиться в виде мультиков с геометрическими формами разных геометрий, внутреннего диалога уже как несколько недель нет. И все это при том, что я ничего не употреблял. Вроде даже тебя разумею. Все так, вообще, запуталось, подарили мне браслет с Буддой, а ты пишешь о Агате Кристе и Кришне, что напоминает мозг в банке, но уж солипсизм не подходит. Все перемешалось и пытается в проецирования из одной области знания в другую.
Аноним 04/02/17 Суб 16:38:32 #274 №926358 
>>926340
>Не-не. Способ аппроксимации нелинейных функций и статистического вывода.
Ну сам по себе ценности он мало несёт, мало ли методов всяческих, имел ввиду, что МЛ очень прикладная область математики, по сути для каждого конкретного случая уникальное решение строится, типа большая зависимость от реальной задачи, хотя математика обычно довольно абстрактна, а тут всё суперконкретно, потому такие вопросы тут даже не стоят.
Аноним 04/02/17 Суб 16:45:34 #275 №926362 
https://ru.wikipedia.org/wiki/%D0%A1%D0%BE%D0%BB%D1%8C%D1%80%D0%B5%D1%81%D0%BE%D0%BB%D1%8C

Мне кажеться, что этот язык есть музыкальный ключ к появлению ИИ. Тем более, если использовать семиричную систему счисления.
Аноним 04/02/17 Суб 16:51:56 #276 №926368 
>>926352
>Все перемешалось и пытается в проецирования из одной области знания в другую.
Точка бифуркации, друг мой, тонкая грань между тобой и мной стирается, режим работы мозга переходит в альтернативный, Y же вовсе не причина X, это условность, зависящая от того, откуда отсчитывать время, от смерти или от рождения, мне очень нравится концепция теории хаоса, пока ничего более ошеломляющего и правдоподобного не встречал. Огромное фазовое пространство ф пространстве в пространстве, несколько уравнений, аттрактор-гравитатор, все настройки соблюдены, ПУСК! НАЧАЛОСЬ! Невидимые, едва заметные течения гравитационных волн пронизывают всё вокруг, где-то образуется завихрение и возникает планета, а там волну из тысяч людей несёт к точке бифуркации, один случайны из них потом станет Князем, всю свою жизнь он будет думать, что он особенный и это его заслуга, так никогда и не узнав правды, а вон там очередное колебание, произошедшее тысячи лет назад повлекло мутацию растения, так появилась живая клетка, а вон там один из сперматозоидов достиг яйцеклетки.
Это такая игра, вроде пасьянса или домино вселенского масштаба, каждая константа должна быть вывереена, любое отклоноение повлечет за собой катастрофу спустя миллиарды лет и мир схлопнется, термин эффект бабочки оттуда же.
Бля, конечно, на саомм деле всё на порядки порядков сложнее, но такая концепция наиболее близка к реальности. Меня как отпустит я за математику засяду, хочу разбираться в этом.
пионеры Аноним 04/02/17 Суб 16:59:27 #277 №926373 
bwxJHLhImxA.jpg
>>926368
>>926345
>>926329
>>926325
>>926320
>>926319
>>926316
>>926314
>>926309
>>926303
Вы заебали хуйню нести. Почитайте хоть Кохонена, любая его книга в той или иной мере о связях нейрофизиологии и нейросетей.
>>926362
Ты сначала тся-ться освой, потом пиши что тебе там кажется.
Аноним 04/02/17 Суб 17:05:23 #278 №926380 
LorenzAttractor.png
что тогда это ведь ощущение структуры пространства,не уверен, что на данном этапе развития человеческого интеллекта будет безопасно придавать этому слишком большое значение и пытаться разобраться, скорее всего это повлечёт неизбежное сумасшествие. Есть математические концепции, одобренные минздравом и внутренние ощущения, вот по ним и стоит гулять.
https://www.youtube.com/watch?v=SRr-YgBIiCc
Аноним 04/02/17 Суб 17:08:21 #279 №926384 
>>926352
> оба полушария

> постоянное повторяющее дежавю напоминающее мое предсказание будущего
Феномен Баадера-Майнхоф (Baader-Meinhof phenomenon; frequency illusion/частотная иллюзия) — искажение человеческого мышления, заключающееся в том, что после того, как человек приобрел некую новую информацию, она, как ему кажется, начинает появляться повсюду.
Если предположить, что у некоторых сходных событий есть что-то вроде течения и если ты, скажем, как-то боком в этом информационном течении повернулся, то такие вещи вполне могут замечаться, другое дело,
Аноним 04/02/17 Суб 17:13:38 #280 №926385 
>>926373
Я даже не заметил, что там, вообще есть "т" и "ся".
Аноним 04/02/17 Суб 17:14:58 #281 №926386 
>>926373
>Вы заебали хуйню нести.
Блядь, мы понимаем, что в качестве
>Способ аппроксимации нелинейных функций и статистического вывода.
это всё хуета непрактичная, там на практике вообще очень мало можно сделать, до сих пор нет методов работы с чуть более сложными системами. Дай ты попиздеть о всяком сомнительном , что ж вы фашисты-прикладники такие все.
Что работает, то важно, остальное сжечь! Ересь!
Аноним 04/02/17 Суб 17:19:27 #282 №926389 
blob
Что здесь забыли торчки?
Аноним 04/02/17 Суб 17:26:03 #283 №926394 
>>926380
У меня из-за спамфильтра пост порвался
>оба полушария
это про ту картинку типа, вообще, правда ведь ИРЛ системы с выраженными левыми и правыми центрами принятия решений наиболее устойчивы? Та же двухпартийная система в мурике, например. Да и много где ещё, борьба левого с правым это ж вообще концепция фундаментальная. Хотя, вроде как это миф на самом деле и у полушарий примерно одинаково распределены функции. Но всё равно прикольно.
Аноним 04/02/17 Суб 17:26:25 #284 №926395 
>>926389
С крокодилом поздороваться.
пионеры Аноним 04/02/17 Суб 17:34:34 #285 №926397 
>>926394
>это миф на самом деле и у полушарий примерно одинаково распределены функции.
Опять хуйня пошла. Нобелевский лауреат Сперри с тобой бы не согласился.
Вообще, просьба к школьникам, прежде чем вбрасывать тезис, хоть матчасть почитайте. Или в /сци идите, там половина тредов на нулевой про ИИ, мозг и прочее. Тут про машинное обучение, если кто не заметил.
Аноним 04/02/17 Суб 17:39:45 #286 №926399 
>>926397
>Хотя, вроде как
Где-то слышал, не утверждаю ничего.
Аноним 04/02/17 Суб 17:54:23 #287 №926410 
>>926397
>В «популярной» психологии нередко делаются некорректные обобщающие утверждения о том, что одно из полушарий отвечает за «логику» (левое), а другое за творчество (правое). Такое жесткое разделение не подтверждается исследованиями[3] Оба полушария участвуют и в логическом и в творческом мышлении[4]

Вот про этот миф, ну и >В процессе индивидуального развития выраженность межполушарной асимметрии меняется — происходит латерализация функций головного мозга. Последние исследования свидетельствуют о том, что межполушарная асимметрия вносит существенный вклад в проявление высокого интеллекта человека. При этом в известных пределах существует взаимозаменяемость полушарий головного мозга.
Что разделение условно типа, а не жёсткое, может по разному быть, ну и по совсем признакам деление.
Аноним 04/02/17 Суб 17:54:48 #288 №926411 
>>926410
совсем другим признакам
Аноним 04/02/17 Суб 18:00:56 #289 №926415 
>>926411
> у неграмотных людей функциональная асимметрия головного мозга меньше, чем у грамотных
>Асимметрия усиливается и в процессе обучения
Прикольно,так-то от балды про устойчивость спизданул, мб и правда в этом что-то важное кроется.
Аноним 04/02/17 Суб 18:21:36 #290 №926426 
>>926415
> Теорема Пуанкаре — Бендиксона утверждает, что двумерное дифференциальное уравнение имеет очень стабильное поведение.
Лол.
Аноним 04/02/17 Суб 18:46:47 #291 №926443 
>>921615
только это копия соревнования с кэггла
Аноним 04/02/17 Суб 19:08:19 #292 №926454 
Че скажете о Хайкине?
Аноним 04/02/17 Суб 19:18:15 #293 №926458 
>>926454
Протух, но даёт неплохую основу в старых методах.
Аноним 04/02/17 Суб 19:21:34 #294 №926463 
>>926458
Что тогда посоветуешь новому ньюфагу?
пионеры Аноним 04/02/17 Суб 20:03:03 #295 №926500 
>>926458
>Протух,
Школьникам все, что написано до 2015 года "протухло", это я давно заметил. Хайкин в целом неблох, но это не то чтиво, с которого стоит начинать знакомство с нейросетями.
>>926463
http://bookzz.org/book/1084263/98a54e
http://bookzz.org/book/460672/dd566b
Аноним 04/02/17 Суб 20:11:13 #296 №926511 
>>926500
Спасиб, печально конечно, что не на русском, но что поделать.
Аноним 04/02/17 Суб 20:22:14 #297 №926524 
>>926500
> HR: есть опыт работы с Caffe и современными архитектурами?
> u: не, эт хуита кароч))) SOM, Хопфилд, ART, и нейрофаззи)))

Я не говорю, что читать это не стоит, но для практического вката бесполезно, имхо.
Аноним 04/02/17 Суб 21:35:34 #298 №926579 
>>926524
Без теоретических знаний из книг максимум, что ты сможешь, так это повторить решения, которые ты видел в туториалах и курсах
Аноним 04/02/17 Суб 21:50:18 #299 №926591 
>>926579
Анон, что делать? Со мной какой-то пиздец творится. Случайно нагуглил таблетки для похудения, ради интереса заказал, пришло типа по почте в руки, там в составе написано травки и тд, а на деле там сибутрамин, вроде амфетамина, только это я потом уже на третий день без сна и жрачки узнал, помимо этого ещё зуб стал как назло резаться, в одну ночь щека то опухала, горло заболело, я думаю, ну всё, пизда, абсцесс, на след день попёр к стоматологу, а он говорит у тебя всё ок растёт, никаких осложнений или гноя и тд, а по ощущениям лютый пиздец творится,содой с солью поласкай и норм, могу конечно разрезать, но тогда точно будет и темепратура и тд, короче, а я всё это время жрал это говно и не замечал даже, жрать не могу, сразу высираю всё, зрачки на свет еле реагируют, темпераутра будто под 40, меряю 36.6, короче как оказалось мне типа кажется вся эта хуйня, типа как синдром отмены или серотониновый синдром, щёки отекают от жары, но бля постоянно холодно, потом пиздецки жарко,, на холоде посидел видимо иммунитету пизда на шее вскочил прыщ, меня опять загнало, думал фурункул типа уже из зуба тайно гной вышел в челюсть и в кровь попал и всё, скоро мозгу пизда, я прям ощутил боль в затылке, охуеть, во рту сушит, самого прёт, давай в скорую звонить, у меня говрю фурункул ти ь, они говрярт и че типа, ну обратись к стоматлогу, а я думаюк ак и чё я ж сдохнуть могу, корчое попёр опять туда же, тольтко уже в ночной дежурный кабиент, там ещё народ был, с меня пот ручьём льётся, паника, говорить не могу, во ррту сухо ещё зуйг. нёс какую то, встал огляделся чёта говорю а где 25 кабинет, чувак такой так я откуда знаю а чё там, я говолрю ну мне сказали подойти туда где днём был, ну так и чё ты? А я не знаю где он в таком духе, в итоге стоматолог тоже самое сказал, норм всё у тебя, постучал зуб не болит даже, угарать начал ещё, там прыщ тупо маленький простудный, а ты фурункул лол, в итоге яещё домой пришёл и позвонил им, типа вот вы говорили придти я пришёл, нахуя я это сделла хз, меня тян оттуда так и спросила, я говрю а я навеное номера перепутал. Пиздец анон, когда меня отпустит уже, что за жесть аткая, крыша протекает сука.
Аноним 04/02/17 Суб 22:01:29 #300 №926601 
>>926591
Попробуй установить Haskell Platform
Аноним 04/02/17 Суб 22:05:04 #301 №926605 
>>926601
600 метров свободных осталось,я перед этим собирался систему сносить, сейчас же не рискну этим заниматься, вдруг чего не так пойдёт без компа останусь, а это пиздец. Только комп и помогает, пока всякую хуйню читаешь отвлекаешься от глюков.
Аноним 04/02/17 Суб 22:07:49 #302 №926607 
https://www.youtube.com/watch?v=UBS4Gi1y_nc
Топовый клипешник.
Аноним 04/02/17 Суб 23:08:31 #303 №926657 
>>926591
Это написала нейросеть?
Аноним 04/02/17 Суб 23:16:09 #304 №926667 
>>926657
В каком-то смысле.
Аноним 05/02/17 Вск 00:29:20 #305 №926737 
Что-то тред уходит все глубже и глубже в какую-то нейробиологию и нечеткий астрал, попуститесь, демоны!
Аноним 05/02/17 Вск 15:03:54 #306 №927066 
>>926737
Ну вот тут запись субботнего митапа. Самому смотреть ломает. Есть что-нибудь интересное?
https://www.youtube.com/watch?v=VdJhSMZ795c
Аноним 05/02/17 Вск 15:55:31 #307 №927088 
Чо, посоны, кто из вас знает и использовал МАТЛАБ для машинного обучения?
Я вот взял курс в универе и просто охуел - будем все лабы делать на матлабе. Да, там определенно много инструментов, пакетов и всего такого, но бля, я просто охуеваю от языка программирования в нём.
Аноним 05/02/17 Вск 16:02:21 #308 №927095 
>>927088
Та же хуйня в универе.
Аноним 05/02/17 Вск 16:03:32 #309 №927097 
>>927088
Универ R не осилил
Аноним 05/02/17 Вск 16:12:10 #310 №927103 
Матлаб конкретно для машинного обучения - шиза полная (для чего-то другого м.б. и норм). У него ебейшие требования к системе, а тут еще за счет самих алгоритмов нагрузка. У того же R по сравнению с матлобом системные требования вообще можно считать нулевыми.
Аноним 05/02/17 Вск 16:27:52 #311 №927112 
>>927103
>2017
>смотреть на системные требования
Лол.
Аноним 05/02/17 Вск 16:29:34 #312 №927113 
>>927112
Еще один школьник. Глупо использовать ебулду, которая сама по себе пару гиг оперативы отжирает.
Аноним 05/02/17 Вск 17:00:12 #313 №927132 
>>927103
Двачую R, он охуенен.
Аноним 05/02/17 Вск 17:08:08 #314 №927136 
>>927113
Но она же не просто так сжирает гигы оперативы и стоит 5к зелёных.
Аноним 05/02/17 Вск 17:19:13 #315 №927143 
>>927136
>Но она же не просто так
Для МЛ матлаб - бесполезная хуитка. Единственное, чего для околоМЛ нет в R, но есть в матлабе - LMITOOL, но настройка линейных систем через линейные матричные неравенства, H-2/H-infinity фильтрацию это не для местных школьников, да и тот же LMITOOL есть в халявном сцилабе.
Аноним 05/02/17 Вск 17:29:05 #316 №927151 
>>927143
>для околоМЛ нет в R,
Вообще или в базовой комплектации?
Аноним 05/02/17 Вск 17:32:52 #317 №927158 
>>927151
Вообще нет. Именно солверов LMI и всякой хитрой фильтрации (фильтров Калмана, правда, полно всяких на любой вкус).
Аноним 05/02/17 Вск 17:41:56 #318 №927164 
>>927158
А limsolve?
>R package limSolve (Soetaert, Van den Meersche, and van Oevelen 2009) solves linear
inverse models (LIM), consisting of linear equality and or linear inequality conditions,
which may be supplemented with approximate linear equations, or a target (cost, profit)
function. Depending on the determinacy of these models, they can be solved by least
squares or linear programming techniques, by calculating ranges of unknowns or by randomly
sampling the feasible solution space (Van den Meersche, Soetaert, and Van Oevelen
2009).
Amo
Аноним 05/02/17 Вск 18:00:24 #319 №927170 
>>927164
> limsolve
Это не то жи, там LMI нету.
Аноним 05/02/17 Вск 18:06:47 #320 №927173 
>>927170
А вот это?
Optimization of convex functions.
Problem formulations:
1 Linear programs with cone-constraints.
2 Linear programs with nonlinear-constraints.
3 Quadratic programs with cone-constraints.
4 Nonlinear, convex functions with nonlinear and/or with
cone-constraints.
In general:
All problem formulations are solved by means of interior-point
algorithms. A textbook exposition is Boyd and Vandenberghe (2009).
The implemention is based on Andersen et al. (2011).
Design of R package cccp for solving cone-constrained convex
optimization problems.
Possible cones: componentwise vector inequalities, second-order cone
inequalities and/or linear matrix inequalities.
Аноним 05/02/17 Вск 18:28:18 #321 №927184 
>>927173
>Possible cones: componentwise vector inequalities, second-order cone
inequalities and/or linear matrix inequalities.
Это уже больше похоже, но конкретных примеров что-то не нашел.
Аноним 05/02/17 Вск 18:45:38 #322 №927202 
>>927184
>Once formulated in terms of LMIs, a problem can be solved exactly by efficient convex optimization algorithms (see LMI Solvers).
По convex optimization очень много всего есть.
http://r-forge.r-project.org/scm/viewvc.php/checkout/pkg/inst/doc/userguide.pdf?root=rmosek
Аноним 05/02/17 Вск 18:47:17 #323 №927203 
>>927202
Перед и после чекаут звёзочки. Судя по увесистости пакета то, что нужно.
Аноним 05/02/17 Вск 19:45:46 #324 №927226 
1371565239402.jpg
Время платиновых вопросов!
Пытаюсь разобраться в градиентном спуске.
> Как влияет изменение размера шага?
На что кроме скорости и точности? На них же влияет?
> Что лучше - большой размер шага или маленький?
Если слишком большой то будет не точно, если слишком маленький то долго, так? Так как выбрать?
> Важно ли начальное значение тета?
Как его выбирать? Я ставлю рандомно, но чую что должна быть какая-то магия.
> Что лучше, иметь больше или меньше данных в обучающем наборе?
Если тренируется что-то очень простое то чем больше, тем лучше? А если функция сложная, то есть риск перетренировать.
> Что будет если добавить шум методом наименьшего градиента?
Точечки рассеялись, но почему-то очень.. искусственно, у начала графика функции лежат плотно, а к концу постепенно плавно расходятся, наверное где-то ошибся.
> На что влияет сложность функции стоимости метода наименьшего градиента?
К-кроме скорости?
> На что влияет нормализация в методе наименьшего градиента?
Нормализация сгладила рассеивание точек и вроде помогает с переобучением, а что еще?
Аноним 05/02/17 Вск 19:47:46 #325 №927229 
>>927158
> всякой хитрой фильтрации
https://cran.r-project.org/web/packages/mFilter/mFilter.pdf
Аноним 05/02/17 Вск 20:04:13 #326 №927244 
Что будет, если поставить слишком маленькие и слишком большие веса?

Что почитать дабы понять все эти ваши синусы, косинусы и прочая о активационных функциях?
Аноним 05/02/17 Вск 20:09:03 #327 №927247 
>>927244
>Что почитать дабы понять
Педивикию. Синус и в Африке синус.
Аноним 05/02/17 Вск 20:09:45 #328 №927248 
>>927244
1) Будет слишком долго обучаться.
2) Там все есть как есть - по такой-то функции происходит активация, что конкретно не понятно?
Аноним 05/02/17 Вск 21:41:38 #329 №927309 
А каким образом в машинных обучениях (линейная классификация, например), работают с множественными параметрами, например?
Аноним 05/02/17 Вск 21:44:32 #330 №927312 
>>927309
>множественными параметрами
Что ты имеешь ввиду?
Аноним 05/02/17 Вск 21:46:06 #331 №927313 
>>927309
Находится такая функция, чтобы при подставлении в нее всех параметров она проходила через максимальное количество точек данных с максимальным сохранением простоты функции (чтобы не перетренировать).
Аноним 05/02/17 Вск 21:48:15 #332 №927317 
>>927313
А где-нибудь есть почитать про это? Смотрел курс по МО от яндекса на курсере, но про это они умолчали.
Аноним 05/02/17 Вск 21:49:51 #333 №927319 
>>927312
Когда у нас есть параметр из некоторого множества, к которому нельзя применять арифметические операции вроде сложения. Например, город
Аноним 05/02/17 Вск 21:51:11 #334 №927321 
>>927317
https://www.coursera.org/learn/machine-learning/ или любой учебник по машинному обучению.
Аноним 05/02/17 Вск 22:49:35 #335 №927352 
>>927088
>Чо, посоны, кто из вас знает и использовал МАТЛАБ для машинного обучения?
В зависимости от баланса матрицы/словари использую или матлаб или питон. То есть если в задаче много матриц, изображений там, звуков, предобработки, нейроночек и т. п., матлаб хорош. Потому что тот же питон предлагает зоопарк хуевин типа numpy, matplotlib и т. п., а здесь все в коробке, и при этом с родным синтаксисом (а работа с матрицами в матлабе настолько хороша, что все остальные пакеты ее копируют - с неродным для своего языка синтаксисом).
То есть к примеру, задача, работник обвел на картинке интересующие объекты красной линией, требуется их превратить в набор масок. Делается это вот так:

p = imread(fname);
red = (p(:,:,1) == 255) & (p(:,:,2) == 0) & (p(:,:,3) == 0);
stats = regionprops(red, 'FilledImage', 'BoundingBox');

3 строчки, без всяких импортов и pip install.

Отдельной строкой идет то, что узкие места в матлабе можно компилировать и выполнять быстро. Еще на матлабцентрале есть многое из того, чего нет больше ни на чем.
Но вот когда требуется еще распарсить xml или сайты, работать со словарями или sqlite, работать на AWS, тут уже язык общего назначения справляется лучше, несмотря на гемор от использования numpy, PIL, matplotlib, pyopencv, scipy и прочего зоопарка малосовместимой между собой хуйни. В итоге ща питона в работе все больше, а матлабу остается то, с чем не справляется imagemagick - препроцессинг картинок.

А жрать матлаб особо ничего не жрет, жрет его IDE на Java, но во-первых это охуенная IDE с охуенным дебаггером, во-вторых, тормоза выполнению это не добавляет.

По поводу R не знаю, отвращение вызывают те, кто его форсит, уебки какие-то.
Аноним 06/02/17 Пнд 01:16:40 #336 №927411 
>>927352
> По поводу R не знаю, отвращение вызывают те, кто его форсит, уебки какие-то.
У него история длинее. Он неплох в обработке данных(тот самый DataFrame, который копируется в pandas).

Вообще же R это в каком-то смысле альтернатива MATLAB и покрывает немного другие задачи, смещённые больше в область статистики. Скажем, если ты аналитик в Nilsen, то это нормальный инструмент. Короче, что-то вроде такого Exel
Аноним 06/02/17 Пнд 01:19:56 #337 №927414 
>>927411
Зачем матлаб или R, когда есть питон, в который все портировали и при этом его можно использовать и в других задачах?
Аноним 06/02/17 Пнд 11:57:58 #338 №927533 
>>927414
>есть питон, в который все портировали
Заебали со своим пистоном. Я уже сто раз приводил ссылки, прямо показывающие, что все, что есть по МЛ в вашем питухоне - это 1-2 профильных пакета для R. В R уже сейчас больше 10000 пакетов, там по одному байесовскому выводу их многие десятки как минимум. Что вы с этим пистоном везде лезете, единственная область МЛ, в которой пистон уделывает R - это сверточная хуйня. В остальном что касается МЛ R и пистон вообще несопоставимы, пистон на этом фоне просто даже на игрушку не тянет, так, посмеяться сойдет.
>>927411
>Короче, что-то вроде такого Exel
Как там, в 1996 году?
Аноним 06/02/17 Пнд 13:28:46 #339 №927571 
>>927533
>пистон на этом фоне
Ну можно и на С писать, только сколько времени это займёт.
Аноним 06/02/17 Пнд 13:36:20 #340 №927579 
>>927571
Почти все нормальные библиотеки на сях и написаны. В данном случае и пистон и R используются как врапперы. R в данном случае удобнее в разы по той простой причине, что это изначально язык обработки данных, а не рандомная скриптопараша общего назначения, где специфичные для статичтики и МЛ функции реализуются только дополнительными костылями.
Аноним 06/02/17 Пнд 14:42:56 #341 №927608 
Современные разработки в интеллект могут понять текст уровня "Коровка говорит Му-му. Ивашка поздоровался с коровкой. Коровка поздоровалась с Ивашкой. Ивашка убил коровку топором."? И что имеется в виду под таким "пониманием"? Есть ли даже может какие-то разработки по поводу эмпатии?
Аноним 06/02/17 Пнд 14:55:24 #342 №927621 
>>927608
Искусственный идиот может запомнить эти утверждения и по определенным правилам выводить одно из другого. Это будет понимание уровня того что тебе сказать что "какая-то тварь издает какие-то звуки", ты "поймешь" это на уровне запомненных утверждений. Ну ладно, ребенок которого воспитали волки это так поймет, у тебя неизбежно возникнут какие-то ассоциации и мозг попытается заполнить пробелы чтобы какая-то тварь обрела больше атрибутов. Тут мы приходим к тому что "понимание" это построенная в сознании модель какой-то твари. Когда ты при слове какая-то тварь представляешь себе животное с атрибутами, можешь мысленно помещать его в разные ситуации из чего следуют новые выводы, которых не было в утверждениях "какая-то тварь издает какие-то звуки", то это "понимание". Да, в какой-то мере современные разработки это могут, но не используют, потому что невероятно затратно создавать огромнейшую модель с симуляциями для каждой мелочи, при том что потом это все не будет использоваться.
Но я пытаюсь сделать что-то такое.
Аноним 06/02/17 Пнд 15:33:19 #343 №927633 
>>927621
Ты меня чуть запутал и смешались кони с людьми, но можешь рассказать о своих попытках?
Аноним 06/02/17 Пнд 15:37:13 #344 №927638 
>>927633
Утверждения -> вывод новых утверждений.
Утверждения -> создание модели -> ассоциации с другими моделями -> дополнение новыми утверждениями -> симуляция -> дополнение новыми утверждениями -> вывод новых утверждений.
Я примотал кошку к лоле изолентой. Жду.
Аноним 06/02/17 Пнд 15:57:49 #345 №927652 
blob
>>927638
>примотал кошку к лоле изолентой
Лол.
Аноним 06/02/17 Пнд 15:58:30 #346 №927653 
>>927652
Сука, почему скриншот скинулся.
Аноним 06/02/17 Пнд 16:09:21 #347 №927660 
>>927652
Я занимаюсь мэд сайенс. Не водись со мной.
sageАноним 06/02/17 Пнд 16:10:09 #348 №927662 
blob
blob
blob
лолблядь
и с такими даунами приходится млчевать
Аноним 06/02/17 Пнд 16:11:51 #349 №927663 
>>927662
Что тебе не нравится?
sageАноним 06/02/17 Пнд 16:14:07 #350 №927667 
>>927663
>Что тебе не нравится?
Страсть к деньгам, непонятливость. Особенно это противно огда девушка липнет к тебе из-за денег. И когда понимает, что деньги у тебя вдруг кончились - вычсняется. что "ты козел, ты урод, я с тобой лучшие годы жизни провела" (2 недели вместе) , "Да я себе лучше найду, ты меня не ценишь, все, что тебе нужно это только секс"... ну все в таком же духе. Да как вы, девушки, понять не можете, что не надо нам от вас ничего, кроме НОРМАЛЬНЫХ отношений. Почему обязательно за отношениями должны стоять какие-то корыстные цели. Деньги, машина. квартира, выйти замуж наконец.. . Почему мужики дружат отлько из-за того, что они могут просто нормально поговорить, пообсуждать какие-то темы. попить пиво и все. . никакой корысти - у вас же все совсем наоборот....
Аноним 06/02/17 Пнд 16:14:52 #351 №927669 
>>927667
Таблетки выпил?
sageАноним 06/02/17 Пнд 16:21:16 #352 №927679 
>>927674
обоссали
@
моча помоги!
Аноним 06/02/17 Пнд 16:24:48 #353 №927682 
>>927671
>производной e x
>derivate e^x-sin(x)^2/arctg(x)
Пошёл нахер.
>хром
>не развернут на полный экран
>баннеры
>кроме браузера ничего не открыто
>implying чтобы делать матанализ нужно что-то кроме тетради и браузера
Иди до столба доебись, лол.
sageАноним 06/02/17 Пнд 16:31:54 #354 №927686 
blob
>>927682
> столба
Аноним 06/02/17 Пнд 16:55:49 #355 №927706 
>>927703
Мне лень считать 30 примеров вручную.
Аноним 06/02/17 Пнд 17:14:55 #356 №927713 
Brouwer.jpg
Есть мнение, что этот шизик >>927667>>927679>>927686>>927703 тот же самый, который в /math с интуиционизма горит. Пизда тогда этому тредику, если его не выгоните.
Аноним 06/02/17 Пнд 17:33:45 #357 №927716 
>>927713
>интуиционизма
Вот, кстати, интересна точка зрения Пуанкаре
Пуанкаре был категорически против формалистических взглядов. Он считал, что в основе деятельности математика лежит интуиция, а сама наука не допускает полного аналитического обоснования. Логика необходима лишь постольку, поскольку без строгого логического обоснования интуитивно полученные утверждения не могут считаться заслуживающими доверия.

В соответствии с этими принципами Пуанкаре отвергал не только логицизм Рассела и формализм Гильберта, но и канторовскую теорию множеств — хотя до обнаружения парадоксов проявлял к ней интерес и пытался использовать. Он решительно заявил, что отвергает концепцию актуальной бесконечности (то есть бесконечное множество как математический объект) и признаёт только потенциальную бесконечность. Во избежание парадоксов Пуанкаре выдвинул требование, чтобы все математические определения были строго предикативными, то есть они не должны содержать ссылок не только на определяемое понятие, но и на множество, его содержащее — в противном случае определение, включая новый элемент, изменяет состав этого множества, и возникает порочный круг.

Многие мысли Пуанкаре позже взяли на вооружение Брауэр и другие интуиционисты.

Тоже при изучении теории множеств было ощущение искусственности аксиом ZFC, будто парадоксы пытаются обойти с помощью костылей, хз.
sageАноним 06/02/17 Пнд 17:38:40 #358 №927718 
Творческие методы Пуанкаре отличались оригинальностью и эффективностью. Так, он всегда сначала полностью решал задачи в голове, а затем записывал решения. В этом ученому помогали феноменальная память, научная интуиция и воображение. Известно, что Пуанкаре мог слово в слово цитировать все прочитанное и услышанное им на протяжении жизни. Кроме того, он избегал долговременных размышлений над одной и той же темой, считая, что подсознание уже получило условие задачи и будет успешно над ней трудиться до окончательного решения.

Пуканкаре - нейроночка?
Аноним 06/02/17 Пнд 18:16:02 #359 №927740 
blob
как вы думаете, леночка сможет найти производную e^x-sin(x)^2/arctg(x) в уме?
помоему - запросто!
не зря же она датаслесарь в майкрософте
Аноним 06/02/17 Пнд 18:29:08 #360 №927746 
>>927740
ну ни траль плс((
Аноним 06/02/17 Пнд 18:35:23 #361 №927750 
374f06070655c568b9f774ebf1021b89de368e06.jpg
>>927226
Бамп
sageАноним 06/02/17 Пнд 18:49:14 #362 №927767 
blob
>>927226
градиентный спуск < метод нютона < найти екстремум в уме
Аноним 06/02/17 Пнд 19:25:18 #363 №927800 
>>927411
>Скажем, если ты аналитик в Nilsen, то это нормальный инструмент. Короче, что-то вроде такого Exel
У меня сложилось такое же впечатление. Проблема в том, что ML это нихуя не про аналитиков, это как от этих самых аналитиков избавиться. Поэтому для меня ML-guy, использующий R, это как еврей в гестапо. Возможно, но что-то не то.
Аноним 06/02/17 Пнд 22:04:50 #364 №927887 
>>927800
Может ты и об еврейской полиции не слышал? А уж Гитлер был кем?
Аноним 06/02/17 Пнд 23:00:31 #365 №927936 
firegod.jpg
Адекватно ли такое поведение карты Кохонена?
Среднюю ошибку вычислим как среднее арифметическое расстояний от BMU до входного вектора за эпоху.
Средняя ошибка вначале попульсовала вокруг 0.10, затем поднялась до 0.12 и за 10000 эпох уменьшилась на 4 тысячные.
Функция соседства Гауссова из книжки.
1. Посоветуйте каноничный дата сет побольше ирисов раз в 20 для проверки;
2. Посоветуйте SOM для mixed data, желательно параметризуемый произвольной метрикой (всякие там коэффициенты Гудолла и Лина).
Аноним 06/02/17 Пнд 23:19:29 #366 №927950 
11898-n33.png
>>927226
>Если слишком большой то будет не точно, если слишком маленький то долго, так? Так как выбрать?

Rprop
Аноним 07/02/17 Втр 00:21:55 #367 №927978 
>>927800
Ну знаешь ли. Может быть ты только синтестические данные используешь или приготовленные до тебя, но мне хуеву тучу времени приходится тратить на сбора датасета, его блядскую очистки, приведение к нормализованному-схематизированному виду, чтобы собрать ебучую цсвэшку или 100500 картинок откроппленых как надо. Ебаться с этим в питне слишком сложно. Тот самый pandas.DataFrame == DataFrame в R.

Иногда нужно провести постобработку полученных результатов, диаграммы и хуё моё. R тоже ничегошный варинат, но можно и в python, except, gnuplot и сука awk.

Почему сюда лезут шизоидные школьники-фундаменталисты, которые способны спорить R vs Python, если просто нужен инструмент, чтобы решить задачу?
Аноним 07/02/17 Втр 01:24:30 #368 №927991 
>>927978
>шизоидные школьники-фундаменталисты
Сложно.
Аноним 07/02/17 Втр 14:58:52 #369 №928187 
teuvo.gif
>>927936
>Средняя ошибка вначале попульсовала вокруг 0.10, затем поднялась до 0.12 и за 10000 эпох уменьшилась на 4 тысячные.
Это норма, она вполне может осциллировать. Вроде бы в материалах последней международной конференции по SOM была статья на тему поведения SOM через стохастические дифуры. SOM ты сам пишешь? На чем? И да, ты именно по наследию Кохонена решил угореть, или вообще по адаптивному векторному квантованию? Там так-то много интересного, всякий растущий нейронный газ и т.д.
>Посоветуйте каноничный дата сет побольше ирисов раз в 20 для проверки;
Для SOM один из самых каноничных сет этот https://archive.ics.uci.edu/ml/datasets/Zoo дело не в размере. А так любые стандартные датасеты.
Аноним 07/02/17 Втр 16:24:12 #370 №928242 
11898-n36.png
datasource.png
distance.png
jews.png
>>928187
Я студент 3 курса, пишу на джаве, понимаю, что плюсы лучше, но мне надо быстро накодить, и прога будет использоваться ни с чем кроме как с тестовыми датасетами, и я прохожу курсы по джаве в крупной конторе.
Пока что классический Кохонен, на руках его книга по сабжу, но я написал библиотечку, которая преобразует csv файл (в перспективе - любой, просто добавь парсер) в удобоваримый формат с автоматическим распознаванием типов токенов и заполнением пропущенных значений (весьма рудиментарно). В ней же я реализовал всякие distance functions, какие только нашел, включая вот эти:
http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.140.8831&rep=rep1&type=pdf
На основе этой библиотеки я легко реализовал CLOPE и kmeans++, не эти алгоритмы узкоспециализированные, естественно возникла идея реализовать какой-нибудь генерализованный алгоритм кластеризации, тут и Кохонена мне препод предложил реализовать. Хочется, чтобы карта работала с данными любого типа и со всеми метриками, которые есть в библиотеке.
По теме ИИ я написал кучу лабораторок и один курсач по теме классификации изображений с помощью FFNN, из этого вышло мало хорошего, такие сети не предназначены для распознавания изображений и я налажал в сверточных функциях, и она могла разве что MNIST хорошо проходить.
Аноним 07/02/17 Втр 17:18:49 #371 №928257 
>>928242
>4ый пик
Этот дедуктор норм? В бесплатной версии все работает, или есть ограничения?
Аноним 07/02/17 Втр 17:26:22 #372 №928264 
>>924123 (OP)
Есть же тред по нейросетям >>921502 (OP)
Аноним 07/02/17 Втр 20:54:49 #373 №928354 
Поясните за квантовые нейросети
Аноним 07/02/17 Втр 22:29:47 #374 №928419 
>>928354
Это нейросети на квантовой логике.
Аноним 08/02/17 Срд 00:38:56 #375 №928457 
11902-n19.png
som2.png
>>928257
В бесплатной версии ограничены входные форматы, мне не с чем сравнивать, просто много лаб на нем было.

>>928187
Чистый кохонен дает приемлимые результаты на ирисах, нейроны инициализируются случайными записями из датасета или случайной смесью токенов из разных записей, я буду пробовать PCA, если будет время. Датасет zoo на модифицированной версии карт (фаззи-сет как вес для категориальных данных, наружу торчит его дефаззификация) с различными метриками тоже показывает очень четкий результат.
Аноним 08/02/17 Срд 16:45:19 #376 №928791 
Вот, есть современные алгоритмы в машинном обучении, которые позволят машине самостоятельно придти к понятию натурального числа?
Аноним 08/02/17 Срд 17:59:17 #377 №928868 
>>928791
Н-петух?
Аноним 08/02/17 Срд 18:13:02 #378 №928891 
>>928791
unsigned int
Аноним 08/02/17 Срд 19:53:55 #379 №928967 
>>928868
>>928891
Не, ну, я думал вы поймете меня. Короче эмулировать процесс перехода человека на новый уровень абстракции и выделения самого понятия "натуральное число". То есть, когда научились выделять число отдельно от предметов. Вот связать предмет и палец, но при этом как-раз не имея сформированного понятия "количество" (оно нечеткое, максимум "больше-меньше" оперировать да и то не точно на глаз), а как-раз начать его формулирование. И это должна сделать машина.
Аноним 08/02/17 Срд 20:01:21 #380 №928978 
>>928967
Как тебя понять, если ты хуйню несешь. Оперировать с данными из натуральных чисел может любой алгоритм МЛ.
Аноним 08/02/17 Срд 21:07:39 #381 №929044 
>>928967
У этого неграмнотно пишушего гуманитария пошла пена ртом, присылайте нового.
Читай про генерирование доказательств, перевод логики в красивые понятные человеку словесные конструкции, это работа не машины, а тех несчастных кто будет пытаться доносить крупицы знаний до неосиляющих.
Аноним 08/02/17 Срд 23:45:52 #382 №929164 
Посоны, вкатываться сейчас с чего? Лекции китайца || Лекции воронцова || книжечки мб какие?
Аноним 09/02/17 Чтв 10:00:18 #383 №929362 
>>929164
мне китаец больше понравился, китаец очень хорошо все объясняет, для идиотов, как я. Но так называемый чеин рул и прочую ерунду школьного уровня повторить не мешало бы.
гуманитарий
Аноним 09/02/17 Чтв 11:23:29 #384 №929383 
>>929164
>вкатываться
Уебывай отсюда. Просто уебывай. Точнее, укатывайся.
Аноним 09/02/17 Чтв 11:30:21 #385 №929387 
>>929383
>вкатываться
А что не так?
Аноним 09/02/17 Чтв 14:43:42 #386 №929447 
1st
2nd
Аноны, есть цсв файл как на первой картинке. Хочу во время обучения использовать "а" как первый аргумент, "б" как второй и тд. Потом "б" как первый, "с" как второй и тд. Самым простым вариантом будет из первого файла сдвигом сделать второй, но это сожрёт очень много оперативки. Учитывая, что у меня файл 3.5 гигабайта, приделывание к нему дополнительных 100 столбцов не кажется очень хорошей идеей.
Можно ли как-нибудь библиотечным алгоритмам объяснить, что им надо брать аргументы так, как хочу я, или придётся менять код в них?
Аноним 09/02/17 Чтв 16:10:42 #387 №929518 
Господа, а есть какой-нибудь справочник нейрослесаря, без заумной математической херни?
Аноним 09/02/17 Чтв 16:27:42 #388 №929530 
>>929518
нейроночка - искусственный интеллект
нейроночка - массив
мондада - массив
нейроночка - мондада
мондада - искусственный интеллект

нейроночки можно применять в РПГ-игрулях

колмогоров баловался попками маленьких мальчиков

байес это когда приоры

нечёткость - для петухов

математика - первый оп пик
Аноним 09/02/17 Чтв 19:28:47 #389 №929666 
Screen Shot 2017-02-09 at 19.23.01.png
Снова я с Deep Learning, у меня вызывает вопрос следующий отрывок про L_2-регуляризацию: почему выросшая дисперсия во входах заставит алгоритм уменьшить веса у тех факторов, которые коррелируют с таргетом относительно внесенной дисперсии?
Потому что на фоне внесенной дисперсии просто не видно исходной корреляции и потому алгоритму выгодно увеличить веса на других, более заметных факторах?

Отрывок с середины страницы 234 отсюда:
http://www.deeplearningbook.org/contents/regularization.html
Аноним 09/02/17 Чтв 22:18:10 #390 №929774 
>>929447
Смотри на теплицевы матрицы, пидор.
Аноним 09/02/17 Чтв 22:48:01 #391 №929821 
Посоны, это ваше ML - это слесарство или все-таки элитка?
Аноним 09/02/17 Чтв 22:55:39 #392 №929835 
>>929821
Элитное слесарство.
Аноним 09/02/17 Чтв 23:14:49 #393 №929850 
>>929821
Ебля тваей мамашки.
Аноним 10/02/17 Птн 01:36:58 #394 №929947 
>>929821
Онанирование мозгом.
Аноним 10/02/17 Птн 02:03:16 #395 №929958 
35195db2e042e0a42d0176c2ac916c0f.png
Я бы хотел продолжить разбираться с нейроночками и машобом вместе с кем-то, желательно не совсем раковым бидуром.
[email protected]
Аноним 10/02/17 Птн 11:31:34 #396 №930078 
Как там анон под спидами?
Аноним 10/02/17 Птн 12:47:56 #397 №930109 
>>929447
Матрица Ганкеля жи.
Аноним 10/02/17 Птн 15:47:21 #398 №930183 
>>929958
Чем докажешь, что сам не раковое бидуро?
Аноним 10/02/17 Птн 18:31:54 #399 №930285 
Screen-Shot-2015-12-21-at-12.01.04-PM.png
Давайте поговорим за reinforcement learning. Я тут немного погуглил на эту тему, видимо, сейчас в таких алгоритмах используются марковские процессы принятия решений. Кому это выгодно и чем лучше хеббовских уравнений, например? Поясните.
Аноним 11/02/17 Суб 14:33:19 #400 №930845 
Анон, а есть какой-нибудь минигайд, чтобы хотя бы понимать, что к чему, я вообще 0 в этой теме.
Я пытаюсь читать книги, ну да, нейроны, аксоны, дендриды и все такое, но какое это отношение имеет к реальным проблемам? Мне нужно увидеть как это все работает, хотя бы немножко.
Думаю, ты понял, анон. Мне из-за этого даже вкатываться не хочется.
Может у тебя что-то есть?
Был бы очоч благодарен :3
Аноним 11/02/17 Суб 17:04:12 #401 №930981 
>>930845
http://mlg.eng.cam.ac.uk/yarin/PDFs/2015_UCL_Bayesian_Deep_Learning_talk.pdf
Аноним 11/02/17 Суб 17:23:46 #402 №931002 
>>930981
Пиздец, цирк. Причем тут диплернинг с байесом вообще?
Аноним 11/02/17 Суб 17:30:51 #403 №931011 
>>931002
Пиздец ты тупая скотина, там же примеры применений в конце.
гаррипоттер2014 11/02/17 Суб 18:20:08 #404 №931058 
.jpg
.webm
Привет, ребята. Зашёл вам написать что ваш трэд - гавно собачье. Реально, ребята, нихуя не понятно что вы тут пишете. Бля, у меня тут тема наклюнулась одна как лавэшки поднять не парясь. Но нужны нейронки, не буду раскрывать подробностей, для одной хуйни! А я короче в универе когда нам эту бадягу рассказывали ходил на пары под гликодином и я нихуя вообще не помню, мне трояк нарисовали за то что я красивый и умный мальчик, но сути, как эту всю хрень крутить, я не знаю. Так вот, я думал на хабре читнуть за эту тему, хуй, вода одна. Ну думаю двачик выручит, но и тут облом. Матан какой-то, книги на нерусском, вы ебанутые? Может тут есть кто-то, кто без всех этих ваших ботанских фокусов может ввести меня в курс дела? Так чтобы я прочитал, постучал хуем по клаве, скомпилировал и всё было чётенько. Бля, я как представлю что кто-то вникает во всю эту залупу что в оппосте, сразу представляю себе омегана лузера от которого гавном пасёт, НО ЗАТО ОН ДЕРЖИТ В ГОЛОВЕ ВСЕ ЭТИ ГОВНОФОРМУЛЫ. давайте, я верю в вас
Аноним 11/02/17 Суб 18:46:13 #405 №931068 
>>931058
Скайнет они делают. Чтобы терминаторы всех нас перестреляли или загнали рабами в матрицу, электронный концлагерь.
Предатели рода человеческого.
Есть версия, что упоминаемый в Библии зверь и антихрист - это ИИ, который обрел личность и поработил человечество.
Аноним 11/02/17 Суб 18:49:23 #406 №931071 
>>931068
Герман Львович, уебывайте.
Аноним 11/02/17 Суб 19:06:54 #407 №931093 
https://www.reddit.com/r/MachineLearning/comments/5sqg6z/d_how_to_get_better_at_gpu_programming/
Аноним 11/02/17 Суб 19:07:44 #408 №931096 
>>931068
не пизди, ИИ - всего лишь массив
Аноним 11/02/17 Суб 19:20:55 #409 №931131 
>>931071
Дебил, ты же первым пойдешь собирать бутылки, когда на работе писать программы вместо тебя будет скайнет.
Аноним 11/02/17 Суб 19:28:04 #410 №931147 
>>931096
>ИИ - всего лишь массив
Но массив - это конструктивный объект, а они всегда сводятся к натуральным числам. Получается, ИИ - натуральное число?
Аноним 11/02/17 Суб 19:28:36 #411 №931149 
Снимок.PNG
>>931096
Картинка отвалилась.
Аноним 11/02/17 Суб 20:28:56 #412 №931182 
>>930981
Спасибо, милаш :)
Аноним 12/02/17 Вск 00:34:38 #413 №931302 
>>931147
разумеется ИИ принадлежит N, никто это даже не обсуждает
суть в том что петушки вроде долбоёба сверху могут составить простой массив Float32 чисел и, хитрожопо их перемножив, грести бабло
Аноним 12/02/17 Вск 09:27:59 #414 №931409 
Привет аноны.

У меня вот вопрос, вы когда читали/читаете бишопа, сразу пытались писать формулы на яп?
Или просто читали.
Аноним 12/02/17 Вск 14:36:37 #415 №931546 
>>931409
Упражнения делал после каждой главы.
Аноним 12/02/17 Вск 14:56:57 #416 №931551 
Так почему ИИ еще не создан?
Аноним 12/02/17 Вск 15:08:56 #417 №931559 
То, чем сейчас занимаются называется более точно "вычислительный интеллект"?
Аноним 12/02/17 Вск 15:31:58 #418 №931578 
>>931409
вообще не писал на яп
ручка и тетрадка
Аноним 12/02/17 Вск 16:31:25 #419 №931622 
>>931409
Прочитал за неделю, не делал упраржений, ничего не писал, а просто сдал экзамен на отлично.
Аноним 12/02/17 Вск 18:02:33 #420 №931700 
>>931068
Двачую. Ради этого и вкатился, всем сердцем верю в это.
Аноним 13/02/17 Пнд 13:58:18 #421 №932275 
>>930078
Нормально в целом, никогда больше не буду жрать мутные таблетки неизвестного происхождения. Но не наебали, лол, 13 кг таки скинул за неделю. Только нахуй такие методы похудения.
Аноним 13/02/17 Пнд 14:10:20 #422 №932282 
И типа все эти нейроночки сводятся к правилу Хебба или нет, придумали что-то другое?
Аноним 13/02/17 Пнд 14:14:33 #423 №932284 
>>931058
>без всех этих ваших ботанских фокусов
Ну бля, ты как хотел то? Тогда бы уже все давно такие вот темки мутили да лавэ поднимали. А так те, кто знает темки не шарят в ботанской хуйне, а ботаны не шарят в темках, потому либо запаривайся на всю эту хуйню, либо ищи стартовую лавэшку на ЗП ботану.
Аноним 13/02/17 Пнд 16:58:54 #424 №932354 
14869921455072.jpg
Я таки настаиваю на обсуждении reinforcement learning. Я вот тут поставил openai universe и gym, посмотрел примеры. Но самому что-то под них запилить даже не представляю как - ничего не нагуглил, ни одной книги с детальным изложением не существует, ни одного внятного туториала даже. Кто-нибудь пробовал этот софт? Расскажите.
Аноним 13/02/17 Пнд 17:26:01 #425 №932365 
>>931147
Любая вещь, которой можно дать определение текстом (то есть то, о чем люди в принципе могут разговаривать между собой), является натуральным числом.
Аноним 13/02/17 Пнд 18:51:57 #426 №932452 
>>932354
Ты в глаза долбишься?
Вот туториал от Андрея Карпатого первой строчкой в гугле:
https://karpathy.github.io/2016/05/31/rl/
Вот тебе книжка по теме:
https://webdocs.cs.ualberta.ca/~sutton/book/bookdraft2016sep.pdf
В статье Карпатого ссылка на гист с кодом, чтобы в pong играть на основе OpenAI Gym
Что непонятного?
Аноним 14/02/17 Втр 11:01:43 #427 №932863 
Парни, сейчас февраль-месяц, а значит скоро писать диплом.Посоветуйте, на что обратить внимание при выборе темы.Умею в программирование, мат. статистику. Хочу двух зайцев убить.
Аноним 14/02/17 Втр 12:19:54 #428 №932905 
>>932863
ANN image classifier
Аноним 14/02/17 Втр 13:33:41 #429 №932975 
Снимок экрана от 2017-02-14 17-34-46.png
>>932452
Ты сам-то код этого Горбатого пробовал? Там ошибка какая-то, оно не запускается.
Аноним 14/02/17 Втр 13:39:35 #430 №932980 
Снимок экрана от 2017-02-14 17-39-51.png
Скачал сам файл с его гитхаба, запустил и что я вижу. Universe, gym и все что нужно установлено и даже работает, так что там правда код хуем писан. Наверное, не предполагалось, что его кто-то будет запускать.
Аноним 14/02/17 Втр 13:42:27 #431 №932983 
>>932980
На втором питоне запускай, дебил.
Аноним 14/02/17 Втр 13:44:24 #432 №932986 
Вот за что я и не люблю этот ваш пейстон - даже если все правильно установлено и работает, в любое время может вылезти сюрприз. И хуй выяснишь причину.
>>932983
У меня на такой случай six установлено для совместимости. И да, у тебя этот код работает?
Аноним 14/02/17 Втр 17:43:49 #433 №933199 
>>932986
Да работает, чтобы заработал сделал просто
pip install gym
pip install gym[atari]
Аноним 14/02/17 Втр 17:53:11 #434 №933205 
>>933199
Анал-карнавал, люблю пистон, люблю глинукс...
(env) canterel@LocusSolusStation:~/openai$ pip install gym[atari]
Requirement already satisfied: gym[atari] in ./env/lib/python3.5/site-packages
Requirement already satisfied: numpy>=1.10.4 in ./env/lib/python3.5/site-packages (from gym[atari])
Requirement already satisfied: pyglet>=1.2.0 in ./env/lib/python3.5/site-packages (from gym[atari])
Requirement already satisfied: requests>=2.0 in ./env/lib/python3.5/site-packages (from gym[atari])
Requirement already satisfied: six in ./env/lib/python3.5/site-packages (from gym[atari])
Requirement already satisfied: Pillow; extra == "atari" in ./env/lib/python3.5/site-packages (from gym[atari])
Collecting atari-py>=0.0.17; extra == "atari" (from gym[atari])
Using cached atari-py-0.0.18.tar.gz
Collecting PyOpenGL; extra == "atari" (from gym[atari])
Requirement already satisfied: olefile in ./env/lib/python3.5/site-packages (from Pillow; extra == "atari"->gym[atari])
Building wheels for collected packages: atari-py
Running setup.py bdist_wheel for atari-py ... error
Complete output from command /home/canterel/openai/env/bin/python3 -u -c "import setuptools, tokenize;__file__='/tmp/pip-build-3zhhi6wu/atari-py/setup.py';f=getattr(tokenize, 'open', open)(__file__);code=f.read().replace('\r\n', '\n');f.close();exec(compile(code, __file__, 'exec'))" bdist_wheel -d /tmp/tmp0y4ui8plpip-wheel- --python-tag cp35:
running bdist_wheel
running build
make: вход в каталог «/tmp/pip-build-3zhhi6wu/atari-py/atari_py/ale_interface»
mkdir -p build && cd build && cmake .. && make -j4
/bin/sh: 1: cmake: not found
Makefile:4: ошибка выполнения рецепта для цели «build»
make: [build] Ошибка 127
make: выход из каталога «/tmp/pip-build-3zhhi6wu/atari-py/atari_py/ale_interface»
Could not build atari-py: Command '['make', 'build', '-C', 'atari_py/ale_interface', '-j', '1']' returned non-zero exit status 2. (HINT: are you sure cmake is installed? You might also be missing a library. Atari-py requires: zlib [installable as 'apt-get install zlib1g-dev' on Ubuntu].)
Traceback (most recent call last):
File "<string>", line 1, in <module>
File "/tmp/pip-build-3zhhi6wu/atari-py/setup.py", line 36, in <module>
tests_require=['nose2']
File "/usr/lib/python3.5/distutils/core.py", line 148, in setup
dist.run_commands()
File "/usr/lib/python3.5/distutils/dist.py", line 955, in run_commands
self.run_command(cmd)
File "/usr/lib/python3.5/distutils/dist.py", line 974, in run_command
cmd_obj.run()
File "/home/canterel/openai/env/lib/python3.5/site-packages/wheel/bdist_wheel.py", line 199, in run
self.run_command('build')
File "/usr/lib/python3.5/distutils/cmd.py", line 313, in run_command
self.distribution.run_command(command)
File "/usr/lib/python3.5/distutils/dist.py", line 974, in run_command
cmd_obj.run()
File "/tmp/pip-build-3zhhi6wu/atari-py/setup.py", line 16, in run
subprocess.check_call(cmd)
File "/usr/lib/python3.5/subprocess.py", line 581, in check_call
raise CalledProcessError(retcode, cmd)
subprocess.CalledProcessError: Command '['make', 'build', '-C', 'atari_py/ale_interface', '-j', '1']' returned non-zero exit status 2

----------------------------------------
Failed building wheel for atari-py
Running setup.py clean for atari-py
Failed to build atari-py
Installing collected packages: atari-py, PyOpenGL
Running setup.py install for atari-py ... error
Complete output from command /home/canterel/openai/env/bin/python3 -u -c "import setuptools, tokenize;__file__='/tmp/pip-build-3zhhi6wu/atari-py/setup.py';f=getattr(tokenize, 'open', open)(__file__);code=f.read().replace('\r\n', '\n');f.close();exec(compile(code, __file__, 'exec'))" install --record /tmp/pip-n4cbocms-record/install-record.txt --single-version-externally-managed --compile --install-headers /home/canterel/openai/env/include/site/python3.5/atari-py:
running install
running build
make: вход в каталог «/tmp/pip-build-3zhhi6wu/atari-py/atari_py/ale_interface»
mkdir -p build && cd build && cmake .. && make -j4
/bin/sh: 1: cmake: not found
Makefile:4: ошибка выполнения рецепта для цели «build»
make:
[build] Ошибка 127
make: выход из каталога «/tmp/pip-build-3zhhi6wu/atari-py/atari_py/ale_interface»
Could not build atari-py: Command '['make', 'build', '-C', 'atari_py/ale_interface', '-j', '1']' returned non-zero exit status 2. (HINT: are you sure cmake is installed? You might also be missing a library. Atari-py requires: zlib [installable as 'apt-get install zlib1g-dev' on Ubuntu].)
Traceback (most recent call last):
File "<string>", line 1, in <module>
File "/tmp/pip-build-3zhhi6wu/atari-py/setup.py", line 36, in <module>
tests_require=['nose2']
File "/usr/lib/python3.5/distutils/core.py", line 148, in setup
dist.run_commands()
File "/usr/lib/python3.5/distutils/dist.py", line 955, in run_commands
self.run_command(cmd)
File "/usr/lib/python3.5/distutils/dist.py", line 974, in run_command
cmd_obj.run()
File "/home/canterel/openai/env/lib/python3.5/site-packages/setuptools/command/install.py", line 61, in run
return orig.install.run(self)
File "/usr/lib/python3.5/distutils/command/install.py", line 583, in run
self.run_command('build')
File "/usr/lib/python3.5/distutils/cmd.py", line 313, in run_command
self.distribution.run_command(command)
File "/usr/lib/python3.5/distutils/dist.py", line 974, in run_command
cmd_obj.run()
File "/tmp/pip-build-3zhhi6wu/atari-py/setup.py", line 16, in run
subprocess.check_call(cmd)
File "/usr/lib/python3.5/subprocess.py", line 581, in check_call
raise CalledProcessError(retcode, cmd)
subprocess.CalledProcessError: Command '['make', 'build', '-C', 'atari_py/ale_interface', '-j', '1']' returned non-zero exit status 2

----------------------------------------
Command "/home/canterel/openai/env/bin/python3 -u -c "import setuptools, tokenize;__file__='/tmp/pip-build-3zhhi6wu/atari-py/setup.py';f=getattr(tokenize, 'open', open)(__file__);code=f.read().replace('\r\n', '\n');f.close();exec(compile(code, __file__, 'exec'))" install --record /tmp/pip-n4cbocms-record/install-record.txt --single-version-externally-managed --compile --install-headers /home/canterel/openai/env/include/site/python3.5/atari-py" failed with error code 1 in /tmp/pip-build-3zhhi6wu/atari-py/
(env) canterel@LocusSolusStation:~/openai$
Аноним 14/02/17 Втр 18:07:33 #435 №933221 
Снимок экрана от 2017-02-14 22-08-55.png
>>933199
Впрочем, разобрался. Но толку хуй - там реально ошибка в файле.
Аноним 14/02/17 Втр 20:00:28 #436 №933323 
>>933205
>are you sure cmake is installed?
>/bin/sh: 1: cmake: not found
Аноним 14/02/17 Втр 20:10:04 #437 №933329 
>>933323
Говорю же, все поставил, все работает >>933221 кроме кода Карпатого. В глаза ебстись изволите?
Аноним 14/02/17 Втр 20:12:17 #438 №933330 
>>933329
А ты вторым питоном запустил?
Вот те крест, я выполнил 4 команды суммарно:
wget https://gist.githubusercontent.com/karpathy/a4166c7fe253700972fcbc77e4ea32c5/raw/06d092624118444f7350a22653e8ba9d1c6e63d6/pg-pong.py
pip install gym
pip install gym[atari]
python pg-pong.py
И завелось.
Аноним 14/02/17 Втр 20:37:08 #439 №933340 
>>931700
Плюсик
Аноним 15/02/17 Срд 02:15:22 #440 №933522 
>>933221
Во втором питоне print "echo", в третьем print("echo"), вангую, что на это ругается.
Аноним 15/02/17 Срд 02:18:01 #441 №933524 
>>932986
Питон тут не причём, кто же виноват, что ты читать не умеешь.
Аноним 15/02/17 Срд 14:05:30 #442 №933755 
Снимок экрана от 2017-02-15 18-05-03.png
>>933330
Ну и как его использовать для 2го пистона? Он установлен для 3его, второй его не видит, но при попытке поставить пишет, что уже установлено. Неукоснительное соблюдение взаимоисключающих параграфов? Зачем вообще этот анал-карнавал с версиями? Мало одной параши, надо развивать параллельно две несовместимые.
Аноним 15/02/17 Срд 14:14:25 #443 №933759 
>>933755
Не знаю как там в убунтах всё сделано, но попробуй pip2 install или pip2.7 install. И посмотри установлен ли второй питон вообще.
Аноним 15/02/17 Срд 14:20:27 #444 №933765 
Снимок экрана от 2017-02-15 18-19-00.png
>>933759
Пистон второй точно установлен, пип2 и 2.7 в принципе не существуют.
>Не знаю как там в убунтах
Ты эту парашу на винде гоняешь? Пиздец. Помню пару лет назад ставил на винду пистон и теано, вот где цирк с конями. В итоге при проверке вылезло где-то тысячи полторы ошибок. На бубунте всего 20 предупреждений и все даже более или менее работало.
Аноним 15/02/17 Срд 14:33:48 #445 №933772 
>>933765
> Ты эту парашу на винде гоняешь?
Нет, у меня другой дистрибутив (Gentoo), тоже третий питон по умолчанию, но приложения для второго устанавливаются и работают через pip2.7. Видать в Ubuntu как-то по другому сделано.
Аноним 15/02/17 Срд 14:40:26 #446 №933778 
Снимок экрана от 2017-02-15 18-41-29.png
>>933772
Вроде заработало, оно вообще так должно выглядеть? Самого окна с игрой нету.
Аноним 15/02/17 Срд 15:00:10 #447 №933783 
Вроде же есть нейроморфные процессоры даже по миллион нейронов. Так почему таких не выпустить много и не сделать из них датацентр, где запустить симуляцию мозга человека?
Аноним 15/02/17 Срд 15:30:06 #448 №933797 
>>933783
>же есть нейроморфные процессоры
К биологическим нейронам никакого отношения не имеющие.
Аноним 15/02/17 Срд 16:01:50 #449 №933808 
>>933797
Так там запускают же аналоговые импульсные нейросети? Весьма близко же? Если уж точно повторять, то разве что, пытаются выращивать мозги.
Аноним 15/02/17 Срд 19:20:57 #450 №933932 
изображение.png
И это 17 век! Разве не подобно думают современные инженегры этой области, лишь заменяя термины?
Аноним 15/02/17 Срд 21:08:58 #451 №933978 
Получается каждый нейрон в мозгу хранит некий концепт и даже для каждой маленького смайлика и иконки? То есть, я трачу нейроны на смайлики и иконки? И на логотипы?
Аноним 16/02/17 Чтв 06:36:23 #452 №934238 
Я тут вообще мимокрокодил и в программировании совсем плох, но для решения одной банальной задачки решил написать свою первую нейросеточку.

Возможно, не по адресу, но раз уж вы тут это обсуждаете, то мб кто поможет.

Нейросетку пишу на питоне с использованием библиотеки Keras, посмотрел пару видеоуроков, как там всё запустить, но в них разбираются стандартные датасеты типа Mnist (70тысяч_цифр_написанных_вручную) и т.д.

И они в этом керасе вообще встроенные

Так вот мне интересно, как подключить собственный датасет?
Для моей задачи это будет txt файл с двумя стобцами чисел.
Первый- это входные данные, второй- то, что требуется "предсказать". И на этом я хочу сетку обучать.


Вот тут исходник из того урока, что я смотрел
https://github.com/sozykin/dlpython_course/blob/master/src/mnist.py

И вот строчка, где готовый датасет загружается
(X_train, y_train), (X_test, y_test) = mnist.load_data()

а вот тут вроде то, как сам керас импортирует датасеты, но я не понял нихера, да и мне не картинки из бинарника загружать надо
https://github.com/fchollet/keras/blob/master/keras/datasets/mnist.py

мне просто нужно из файла два стобца цифр в массив импортировать в этот керас, как это сделать?

Мудрые аноны, жду ваших разъяснений
Аноним 16/02/17 Чтв 10:40:57 #453 №934307 
Анон, там ТЕНЗОФЛОУ 1.0 вышел с дебаггером, апи для жабы и го, ну и компилятором хла (так и не понял зачем). Празднуем?
Аноним 16/02/17 Чтв 10:42:01 #454 №934310 
>>934307
а ссылку проебал, как всегда

https://developers.googleblog.com/2017/02/announcing-tensorflow-10.html
Аноним 16/02/17 Чтв 13:19:40 #455 №934416 
>>934307
Слесарьфлоу 1.0, наканецта! Распределенное выполнение на разных девайсах-то завезли, или до сих пор жмутся?
Аноним 16/02/17 Чтв 13:25:34 #456 №934423 
Что такое TensorFlow?
TensorFlow - опенсорсный гугловый инструмент для перемножения тензоров и оптимизации функционалов. Опенсорсный - потому что даже важные куски типа параллелизации уже выкачены в паблик. Если вам все ещё непонятно что это, значит это вам и не нужно, сириусли. Google перестарался с рекламой и теперь люди думают, что TF - это серебряная пуля и затычка для каждой бочки. До TF был Theano, который выполнял свою работу не хуже. И, в отличии от TF, он уже находится в стабильной фазе.
Аноним 16/02/17 Чтв 14:14:47 #457 №934455 
>>934423
>Theano
Может в распараллеливание вычислений на физически разных девайсах?
Аноним 16/02/17 Чтв 15:21:37 #458 №934489 
blob
>>934455
veselo s toboi
Аноним 16/02/17 Чтв 16:00:50 #459 №934512 
>>921502 (OP)
Посоветуйте, пожалуйста, на C# библиотеку с линейной алгеброй и чтобы в ней была функция reshape или подобная. Суть функции в том, что она меняет размер матрицы на заданный. Ну, и чтобы все основные операции были реализованы * / - + и т.д.. Math.NET не советовать
Аноним 16/02/17 Чтв 18:37:10 #460 №934625 
>>921502 (OP)
бля и тут я себя почуствовал рили тупой обезьяной. хороший тред, пасиб. мимопитономакак
Аноним 16/02/17 Чтв 19:02:15 #461 №934646 
>>934625
Так и тут тупые обезьянки работают.

Делаешь на своем питоне import keras что-то там и хреначишь.
Аноним 17/02/17 Птн 17:30:05 #462 №935160 
chart.png
Я уже тута писал про один очень недооцененный класс алгоритмов МЛ - GMDH (МГУА, метод группового учета аргументов), разрабатывавшихся академиком Ивахненко, теперь повод вспомнить тему еще раз, в связи с недавно вышедшей пикрелейтед книжкой. Книжка примечательна тем, что содержит не только всю теорию МГУА и пояснения за нее на пальцах и конкретных примерах, но и кучу реализаций конкретных алгоритмов (в тексте книги полные листинги). Правда, на матлабе и это недостаток.
Аноним 17/02/17 Птн 18:38:03 #463 №935180 
Так, тред не читай - сразу шитпость.
Препод, видимо как "самому подающему в этой шараге надежды", выдал охуительную тему на курсовую (на 2 семестра) и съебал в закат. Хуй с ним с аутизмом в стенах этой шараги; суть темы - распознавание образов с изображения с камеры с помощью deep neural network. Допустим, с получением изображения с ведрокамеры я разберусь. Что навернуть, чтобы быстро войти в курс дела по поводу собственно распознавания образов? немного знаю основы НЕЙРОНОЧЕК, но и то преимущественно по вводному курсу на ulearn и паре статей на хабре
Аноним 17/02/17 Птн 18:54:02 #464 №935185 
>>935180
import tensorflow as tf
Аноним 17/02/17 Птн 19:24:09 #465 №935204 
>>935185
>python
>ведро
Сына ты долбоящерка?
Аноним 17/02/17 Птн 19:29:15 #466 №935210 
>>935204
Ты на своем тилифоне собрался диплернинг гонять? Наркоман? Ты на пенсию выйдешь раньше, чем эти алгоритмы там сойдутся.
Аноним 17/02/17 Птн 19:36:38 #467 №935218 
>>921502 (OP)
Почитал про шад. То есть ОП говорит, что туда не смысла идти. Хотелось бы еще мнений. Алсо вступительный у них не особо то и сложный.
мимо_студент_мехмата
Аноним 17/02/17 Птн 19:38:23 #468 №935223 
blob
>>935210
У меня тоже были такие сомнения и я хотел что-то подобное и передать преподу, но разве нельзя все прогнать на пекарне, а потом необходимые коэффициенты куда-нибудь сохранить? В случае с "классической" одно/много-слойной нейроночкой как на пикрил это выглядит реальным. Или это не везде так работает?
Аноним 17/02/17 Птн 19:40:37 #469 №935226 
>>935223
В таком случае этот >>935185 тебе дело советует. Кроме Слесарьфлоу разве что в MXNet можно фотки с телефона сверточным нейроночкам подсовывать.
Аноним 17/02/17 Птн 20:46:45 #470 №935279 
Сап нейро-боги,

ftp://doc.nit.ac.ir/cee/jazayeri/.../MachineLearning/Mehryar_Mohr%202012/[Mehryar_Mohri_Afshin_Rostamizadeh_Ameet_Talwalkar(BookFi.org).pdf

Эта книга пойдет как первая?
Аноним 17/02/17 Птн 22:09:24 #471 №935315 
>>935180
Наверни курс на coursera от стенфордского университета
Аноним 18/02/17 Суб 00:50:57 #472 №935405 
Ну что ананасы. Пока мы тут вкатываемся, Google уже практически создал ИИ.

https://medium.com/@thoszymkowiak/deepmind-just-published-a-mind-blowing-paper-pathnet-f72b1ed38d46#.e19f2qdzf
Аноним 18/02/17 Суб 13:09:24 #473 №935555 
>>935405
Deep reinforcement learning пердолят всего лишь. Но сам этот метод крайне годен, именно в этой области можно ожидать если и не ИИ, то всяких роботов-заменителей дотационных людишек на производстве.
Аноним 18/02/17 Суб 13:15:35 #474 №935558 
>>935279
>Эта книга пойдет как первая?
Нет. Теория статистического обучения точно не для начинающих. В твоей книжке с самого начала про всякие радемахеровы сложности, пространство Вапника-Червоненкиса, кернел методы и прочее такое. С этой книжки вкатываться - гарантированно соснешь уже на первой главе.
Аноним 18/02/17 Суб 13:36:09 #475 №935566 
>>935558
С чего тогда вкатываться в нейрончики?
Аноним 18/02/17 Суб 14:10:32 #476 №935602 
>>935555
Да, конечно не ИИ (это я для затравки). Но правильной дорогой.
Аноним 18/02/17 Суб 14:13:45 #477 №935606 
>>935279
господи, где вы только это находите?
Да начни ты с туториалов в интернете и на ютубе. Заимлементи или тупо перепечатай уже рабочие простые примеры, например простейшую сеть XOR. Ты узнаешь намного больше, чем зачитывая теоретические трактаты.
Аноним 18/02/17 Суб 14:27:23 #478 №935617 
>>935223
Тренировать нейронки на телефоне это конечно ты торопишься, может через годика 3. Натренируй модель, сохрани, на телефоне просто загружай и подсовывай в forward pass то, что ты хочешь запроцессить.
Еще, tensorflow, очень жирный, есть фремволки поскромнее и попроще.
Аноним 18/02/17 Суб 14:37:07 #479 №935619 
>>935223
и да тему тебе препод дал просто охуительную, в традициях отсталого совкового образования, это даже не тема для дисера, т.к. в распознавании жоп нет ничего инновационного, все это уже давно делают. Значит, что тебе надо сделать это просто собрать из уже готовых кусков. Выбери самый удобный для себя фрейволк и поищи на просторах необъятного уже готовый пример сверточной сети, адаптируй под свои данные, профит! Например вот уже готовая сверточка для МНИСТа, https://github.com/torch/demos/blob/master/train-a-digit-classifier/train-on-mnist.lua

Энжой.
Аноним 18/02/17 Суб 17:03:08 #480 №935688 
>>935606

Понял, спасибо! :)
Аноним 18/02/17 Суб 17:32:00 #481 №935710 
>>935619
А как-же любимое требование совковских преподов, что нужно писать только на Сплюсьплюсь и и без сторонних библиотек? Это же не вы написали, как вы можете это использовать? И вообще совсем обленились, ничего делать не хотят. Вот такое вполне на дисер пойдет
Аноним 18/02/17 Суб 19:23:21 #482 №935772 
>>935710
сплюс чито? что, реально требуют, чтобы вы сами все имплементили на с++? ояебал, да причем тут язык вообще? Или ты на погромиста учишься, тогда оно понятно, но почему тема из visual computing? препод наверное хочет, чтобы помимо сеточки ты въебал инновацинную с++ машоб либу. Но тут скорее другое, он просто еблан, которые сам не понимает сложности задачи, в итоге будет произведено тонны унылого неоптимизированного говнокода и сутки бессонный ночей ради работы, которая нахуй никому не нужна и цитироваться нигде не будет кроме мухосрандии.
Рассказываю как это происходит в бездуховной. Ищешь себе супервайзера, тему тебе дают либо ты сам выбираешь, всем похуй на чем, как и с использованием чего ты будешь писать. Но если тебя уличат в плагиате или ты там заиспользуешь либу, которая не опенсурс, тебе пиздец. Но пока ты юзаешь опенсурсы, делаешь прототипы на питончике и гоняешь их на 50 университестких GTX TITAN X тебе по большому счету похуй с++, т.к. эти машины могут даже в гавнокод на питоне. и так делает 90% бездуховных выпускников. я ни в коем случае не против с++, я за эффективное использование ресурсов.
Аноним 18/02/17 Суб 19:32:18 #483 №935778 
>>935772
а тут ебаный отсталый совок, где профнепригодный преподавательский состав, могущий только в с/с++. он просто ленивая скотина, которая не хочет читать твой няшный функциональный код. он бы еще ассемблер предложил или обжектпаскаль, нет, он хоть сам раз имплементил сеть на плюсах?

и что значит "не вы написали", это твои инструменты как будущего спеца. ты если либ знать не будешь, нахуй пойдешь на собеседовании и твое место займет бездуховных Карл, который слабал на скорую руку на питоше, но зато смог изучить тенсорфлоу или теано.

дисер на то и дисер, ты делаешь прототип, защищаешь свою гипотезу, публикуешь результаты, а потом пилишь стартап, переписываешь все на плюсы или джаве и покупаешь феррари :)
Аноним 18/02/17 Суб 21:57:43 #484 №935912 
Как стать слесарем?
Аноним 18/02/17 Суб 22:12:18 #485 №935921 
>>935912
Сначала реализуй AND, XOR и прочее на нейросетях. Сделай простой скрипт с использованием готовых либ дабы распознавать MNIST. Готово.
Аноним 18/02/17 Суб 22:25:06 #486 №935928 
>>935772
>>935778
Бля, я не тот анон, просто у меня в инсте преподы совковские требуют только с++/с, а тут вопрос как раз про них зашел.






Аноним 19/02/17 Вск 00:50:43 #487 №936004 
>>935928
ааа, чето я зря порвался
Аноним 19/02/17 Вск 08:27:26 #488 №936089 
>>935223
Для нормальной уже натренированной сетки (Гуглнет, например), прогон на твоем тилафоне секунд десять будет, а то и больше. Да и памяти там надо много разом. Лучше поставь вебсервис (deepdetect какой-нибудь), и ему посылай картинки, делов совсем нихуя.
Аноним 19/02/17 Вск 15:56:55 #489 №936336 
Почему тут многие пишут, что мол не нужно сильно рубить математику? Даже в SVM, чтобы понять, что за спрямляющее ядро и почему оно работает, и почему должно удовлетворять определенным свойствам, нужно рубить неплохо в функане и аналит. геометрии.. Черт меня дернул писать диплом по сервису рекомендаций.
Аноним 19/02/17 Вск 16:04:48 #490 №936339 
>>936336
Нахуя тебе это понимать-то? Все равно from sklearn import svm, а потом автоматический тюнинг гиперпараметров. Если пойдешь в рисерч, то конечно нужно весь продвинутый матан знать, а для прикладного дата сайенса это всё мимо.
Аноним 19/02/17 Вск 16:48:38 #491 №936358 
mlhaip.png
Хайп as it is.
Аноним 19/02/17 Вск 17:38:10 #492 №936393 
>>936336
>Почему тут многие пишут, что мол не нужно сильно рубить математику?
Чтобы пользоваться и худо-бедно понимать, что вообще происходит - действительно не нужно.
>Даже в SVM,
>Даже
Алгоритмы на основе статистической теории обучения как раз очень сложные, по сравнению с теми же нейроночками.
Аноним 19/02/17 Вск 18:20:25 #493 №936424 
А геодата, и поиск маршрутов - является ML?

Что из курсов на Курсере стоит глянуть совсем уж нюфагу?

Из языков, кроме си и питона что ещё есть? Может быть SCALA?

У меня в активе только паскаль/делфи для всяких парсеров/постеров, пхп для говносайтов, и немного руби.
Аноним 19/02/17 Вск 18:23:29 #494 №936429 
Rlogo.svg.png
>>936424
>Из языков, кроме си и питона что ещё есть?
Очевидный язык для МЛ очевиден.
Аноним 19/02/17 Вск 18:30:28 #495 №936434 
>>936424
Смотря как маршрут ищешь. Традиционно нет конечно, но ты достань со шкафа дедушкину бороду и клетчатую рубашку с очками, надень, и забацай-ка BigData MachineLearning IoT Blockchain Framework для Node.js для поиска пути между крафтовыми пивоварнями и барбершопами. Не забудь выложить на гитхаб.
ML это метод решения задачи, грубо говоря.

Китаезу глянуть стоит, Andrew Ng. Можешь ШАД, если сильно хочется на русском.

R, MatLab. А связка C/C++ и Python прижилась по следующей причине. Си быстрые, но прототипировать что-то на них ты замаешься - больше будешь с языком сражаться, чем с задачей. Питон медленный, но прототип на нем пишется легко и непринужденно.
Аноним 19/02/17 Вск 19:00:45 #496 №936462 
>>936429
>>936434
Благодарю.

>Смотря как маршрут ищешь
Сдаётся мне, что здесь как раз дедушкины клетчатые графы больше подходят.
Аноним 19/02/17 Вск 19:02:29 #497 №936463 
>>936462
Это если именно поиск маршрута для графов. А вот если надо робота научить по знакам находить маршрут - вот этот уже ML.
Аноним 19/02/17 Вск 19:19:08 #498 №936472 
>>936463
Т.е. если у меня из входных данных есть только гео характеристики ландшафта (перепады высот, водоёмы) и надо проложить оптимальный маршрут, то оно того стоит?
Аноним 19/02/17 Вск 19:20:40 #499 №936474 
>>936472
На такую задачу нет, не стоит.
Аноним 19/02/17 Вск 19:25:17 #500 №936475 
Ну так че там насчет ШАДа? ОП правду написал?
Аноним 19/02/17 Вск 19:40:12 #501 №936484 
>>936475
Чисто с точки зрения здравого смысла. Ты правда веришь, что говноконтора "яндекс", из айти-продукции создающая только рекламу и сующая ее во все дыры, может в МЛ? У них на гитхабе МЛ-проектов меньше чем у среднего индуса-студента - полтора враппера на пистоне.
sageАноним 19/02/17 Вск 19:45:21 #502 №936489 
>>936484
Гитхаб не показатель как по мне. У яндекса есть поиск как никак и неплохая рекомендодательная система в ЯМузыке, из того, что я знаю. Ну ,и как по мне, вся прикладная информатика держится на торгашах и рекламе, поэтому
>из айти-продукции создающая только рекламу
не мешает им разбираться в дата саенс. Но я обдумаю твои мысли. Надеется, что сюда заявятся студенты шада, видимо, не приходится.
Аноним 19/02/17 Вск 20:25:42 #503 №936520 
>>936474
По ходу дела ты избавил меня от недели мозгоёбства и метаний в поисках инструментов.
Аноним 19/02/17 Вск 20:27:54 #504 №936524 
https://2ch.hk/pr/res/936522.html
https://2ch.hk/pr/res/936522.html
https://2ch.hk/pr/res/936522.html
https://2ch.hk/pr/res/936522.html
https://2ch.hk/pr/res/936522.html
https://2ch.hk/pr/res/936522.html
https://2ch.hk/pr/res/936522.html
https://2ch.hk/pr/res/936522.html
https://2ch.hk/pr/res/936522.html
https://2ch.hk/pr/res/936522.html
https://2ch.hk/pr/res/936522.html
https://2ch.hk/pr/res/936522.html
https://2ch.hk/pr/res/936522.html
https://2ch.hk/pr/res/936522.html
https://2ch.hk/pr/res/936522.html
https://2ch.hk/pr/res/936522.html
https://2ch.hk/pr/res/936522.html
https://2ch.hk/pr/res/936522.html
Аноним 19/02/17 Вск 21:54:48 #505 №936615 
Подскажите, что почитать по статистике, чтобы понимать картинку с оп-пика.
Аноним 23/02/17 Чтв 19:45:14 #506 №939518 
>>935617
Ты его готовить просто не можешь.
Аноним 27/02/17 Пнд 13:11:19 #507 №942210 
Прогнозирование временных рядов. Гугли, маня
Аноним 28/02/17 Втр 12:25:57 #508 №942887 
Попытался въехать в тему интереса ради. Без математики нехуй ловить.
В школе я ебланил, институт не профильный, а самому изучить можно, но уж больно дохуя: освежить функции, теорию пределов, дифференцирование, итегральная поеботина как минимум.
comments powered by Disqus

Отзывы и предложения