24 декабря Архивач восстановлен после серьёзной аварии. К сожалению, значительная часть сохранённых изображений и видео была потеряна. Подробности случившегося. Мы призываем всех неравнодушных помочь нам с восстановлением утраченного контента!
ПЛАТИНА Книги хорошо, но с чего начать практический вкат? Во-первых, вам нужна любая unix-based система. На Windows возможно запустить нижеперечисленное, но ждите пердолева с настройкой и неодобрительных взглядов анонимуса. Кроме того, в компаниях, так или иначе связанных с разработкой йоба-ПО и machine learningом, Linux/OS X является стандартом. Привыкайте. Во-вторых, определитесь с языком. Python и C++ наиболее мейнстримовые инструменты, с ними вы без еды не останетесь. Есть еще R, на котором пацаны живут статистикой и анальными пакетами. Некоторые инструменты являются языко-независимыми (Vowpal Vabbit, XGBoost), но обвязывать их вы все равно будете из какой-либо среды. На Java разработано много production-ready инструментов для бигдаты и если вы угораете по терабайтам данных, то имеет смысл посмотреть в её сторону. Впрочем, лучше это делать уже потом, когда прийдет осознание потребностей. В-третих, выбирайте себе задачу. Что угодно: распознать качпу, обнаружить ботов по логам, найти раковых больных. Список можно посмотреть, например, на kaggle.com. После чего приступаете к решению выбранной задачи.
Не прийдется ли мне потом с таким наборищем знаний идти в макдак работать? Несмотря на хайп вокруг ML, далеко не во всех IT компания есть необходимость в ML и понимание круга задач, которые можно решить этими методами. Но поверьте, в 2017 компетентный специалист будет востребован. В России потребителями ваших знаний могут стать: Яндекс, Mail.ru, Вконтакте, Rambler, Касперский, Билайн, Связной, ABBYY, Хуавэй. В биоинформатике есть определенный спрос, можно поскролить http://blastim.ru
Здорово, но я так и не понял чем же вы занимаетесь в IT компаниях? Попытаюсь ответить со своей колокольни и сразу хочу предупредить, что это едва ли консенсуальное мнение. ML-специалист - это такое зонтичное определение для человека, способного увидеть проблему, выгрепать кучу логов и данных, посмотреть на них, придумать решение проблемы и врезать это решение его в продакшн. По сути, это кодер, решающий не чисто технические, а, в некотором роде, человеческие проблемы. Имхо, мы все же остаемся в первую очередь разработчиками.
Что такое TensorFlow? TensorFlow - опенсорсный гугловый инструмент для перемножения тензоров и оптимизации функционалов. Опенсорсный - потому что даже важные куски типа параллелизации уже выкачены в паблик. Если вам все ещё непонятно что это, значит это вам и не нужно, сириусли. Google перестарался с рекламой и теперь люди думают, что TF - это серебряная пуля и затычка для каждой бочки. До TF был Theano, который выполнял свою работу не хуже. И, в отличии от TF, он уже находится в стабильной фазе.
будет ли ML нужен в ближайшие 10 лет, или это просто хайп? будет. хайп.
смогу найти работу? Яндекс, мейлру, касперский, несколько биоинформатических компаний (iBinom, можно еще blastim.ru поскролить на тему работы), билайн (они с НГ целое подразделение открыли под ML и биг дату), связной. Ну и западные аутсорсы, если готов рачить за валюту.
шад))) Нет там ничего ML-специфичного, знание матана и теорвера на уровне заборостроительного вуза. Теорвер проходится на третьем курсе, как раз 20 лет. Рандомный хрен туда не сможет поступить, потому что планка намеренно задрана, а не потому что там такая охуенно сложная программа. Это традиционная наебка "элитных учебных заведений", в которой учат так же хуево, как и везде, но за счет отбора поступающих якобы формируются неебовые успехи, которые объясняются именно качеством преподавания. Иными словами, у тех, кто способен поступить, и так в жизни проблем с трудоустройством не будет.
>>921533 Это называется sentiment analysis. Есть контесты на Kaggle по этой тематике, там можно много интересного почерпнуть. Ну и гуглится довольно неплохо.
>>921615 >Только для граждан РФ Ну и идите в жопу, я резидент юрлицо, хули надо еще? Обмазались тут своей бюрократией до опизденения, на каждом шагу, четыре года с ней ебусь, даже конкурс этот - почитай документацию, там только требований отпечатка ануса на официальном бланке организации не хватает. извините, бомбанул
Саб двачю. На связи гуманитарий. Можьно ли ваш машин-лёрнинг использовать для извелечения профита с букмекерских контор? То есть на основе огромного количества данных об уже сыгранных матчах научить компутер предсказывать исход грядущих точнее, чем это делают незадачливые букмекеры?
Или эти самые букмекеры уже наняли армию студентов-датасаентистов с такой же целью?
>>921683 Хуй там. Я сам пытался угореть по ставочкам. Простые модели работают плохо, хоть и угадывает больше 50% результатов, но при среднем кэфе 1.75 это вообще ниочем. Тута все сложнее - нужно ебашить идентификацию динамической системы, простой аппроксимацией апостериоров не добьешься ничего, базарю. К слову, у букмекеров такие же васяны сидят, у меня бывали результаты правильнее, чем в конторах (ну они же стараются предсказывать чтобы заведомому победителю кэф поменьше поставить). Думаю, идентификацией state-space моделей динамической системы можно поинтереснее результаты получить, но пока не занимался - лениво.
>>922832 Я не только себе, я и тебе это могу объяснить. Нечеткость - это вид неточности, не сводимый к вероятности (а вот вероятность, наоборот к нечеткости свести можно, что доказал Коско в нечеткой теореме Байеса). http://sipi.usc.edu/~kosko/Fuzziness_Vs_Probability.pdf
>>922880 > http://sipi.usc.edu/~kosko/Fuzziness_Vs_Probability.pdf > Electrical Engineering Department А можно чего-нибудь написанное математиками, а не технарями? А то технари известны своей "способностью" "разбираться" в математике. Например, среди авторов доказательств Большой Теоремы Ферма в три строчки (конечно же, неверных доказательств) большинство — всякие инженеры и прочие к.т.н.
>>922911 1) Исходные веса инициализируются случайно 2) На каждой итерации при обучении берется только часть (практически случайно выбранная) обучающей выборки - батч. Градиент вычисляется на основе батча и такой метод оптимизации называется стохастический градиентный спуск.
>>921615 Кстати довольно неплохая задача, требующая чуть больше мозгов, чем МАМ СМОТРИ Я СОБРАЛ АНСАМБЛЬ ИЗ 30 ГУГЛЕНЕТОВ И РЕСНЕТОВ И У МЕНЯ НА 0.0001% ЛУЧШЕ КЛАССИФИКАЦИЯ. Начать с того, что данные у них битые и разметку делала паралимпийская команда, а закончить тем, что 10-мегапиксельную картинку надо жахнуть за 15 секунд на говне вместо видюхи.
>>922980 Важно выбрать начальные веса так, чтобы градиент не взорвал всё к хуям в начале и чтобы протёк через всю сетку нормально до первых слоев. А так - пофигу ваще. Все юзают алгоритм xavier и забивают болт на это.
>>923032 >алгоритм xavier > xavier algorithm that automatically determines the scale of initialization based on the number of input >пофигу ваще >забивают болт Так наоборот же,как раз потому и юзают, что от грамотной инициализации много зависит, видимо, или не? Кстати, это ж похоже на детерминированный хаос или как-то так, эффект бабочки типа, когда от начального состояния много зависит? Нейросети часом не динамические системы ?
>>923038 Первым делом учишь английский, потом ищешь курсы по ML, желательно с практикой (у Яндекса с МФТИ нормальный, но, вроде платный), проходишь.
После того, как понял ключевые вещи в ML и попробовал всякие деревья и SVMы на игрушечных датасетах - ставишь себе любой deep learning фрейм и разбираешься в нём.
Дальше начинаешь пробовать силы на настоящих датасетах и в конкурсах, читаешь свежие статьи с arxiv, реализуешь, начинаешь переписывать deep learning фрейм под себя.
Как работу искать тут я хз, но нормальных людей, которые могут хотя бы эксперименты гонять на питоне с уже написанной моделью днём с огнём не сыщешь.
Я - ML инженер, работаю в НИИ над компьютерным зрением по всяким заказам на автоматизацию (военные, медики). Юзаю Caffe.
>>923055 Выглядит просто. Подозреваю, что за этим потянется ещё куча математики. >читаешь свежие статьи с arxiv Насколько свежие статьи? Расскажи последние новости, типа не перцептрон 70-х годов, а современные модели/алгоритмы, а лучше ресурсы новостные тематические. Около года назад нагугливал Spiking Network , причём в рунете вообще ничего не было про это, сейчас уже видел переводы. Вообще, как с доступностью информации дело обстоит? Мне почему-то казалось, что чем глубже, тем меньше инфы и нужно уже поступать куда-то магистратуру/аспирантуру, чтобы доступ к упубликациям иметь.
>>923049 У тебя задача оптимизации функции в охуительно многомерном пространстве (число измерений = число весов сетки). И ты юзаешь градиентный спуск. Насколько я понимаю никто в душе не ебет как исследовать поведение такой системы и никакой теории нету.
Но есть инженерная практика, которая показывает, что в локальных минимумах в таком пространстве мы не застреваем и что в целом оно сходится к какому-то хорошему состоянию из любой точки, если градиентный спуск не взрывается и обновляет веса всех слоев.
Большее внимание уделяют не оптимизации, а другим проблемам сеток, например, обобщению и регуляризации.
>>923069 > исследовать поведение такой системы и никакой теории нету. Хз. вот читаю на вики про теорию хаоса, вроде похоже, да и по запросам теория динамических система нерйонные сети много чего есть.
>>923066 Математика не нужна. Если хочется - можешь пройти курсы по линейной алгебре и теорверу, тогда сможешь разобраться и написать сам какой-нибудь variational autoencoder. Который не нужен, лол, потому что все перешли на гораздо более простые adversarial networks.
Информации вагон (если знаешь английский, конечно) и будет становиться все больше. Один дядя илонмаск чего стоит с его проектом https://openai.com/
Я, по сути, читаю только hacker news, там достаточно ссылок на свежак на arxiv. Ну или ищу под конкретную задачу - как это сейчас делают.
>>922887 Лол. Коско и есть математик, ученик Заде, к слову (это создатель теории нечетких множеств, если кто не в курсе). Просто помимо прочего он возглавляет какой-то институт по электронике, т.к. еще в 80е годы пилил пентагоновские гранты на системы наведения для ракет и т.п. В математике он разбирается, даже не сомневайся.
>>923079 >>923081 Понятия не имею. Направлений дохрена же, что нравится - то и изучаешь. Я двигаюсь в сторону deep symmetry networks, например, т.к. существующие свёрточные сетки - говнище какое-то.
>>923076 > Структурные_модели_и_глубинное_обучение_(регулярный_семинар) Забыл сказать, вот там всё таки бывает довольно лютый матан. В наиболее оторванных от практического применения докладах, лол.
>>923087 Короче, насколько я понял, это уже из подраздела МЛ не об анализе данных, а именно об ИИ, как раз вот тогда помню охуел с существования Spiking(импульсные в переводе вроде?) сетей, думал типа это ж какой прорыв и тд. Так там импульс видимо просто подавался, а это уже модификация приближенная к реальности, моделирование по принципу как в мозге. > Nerve membranes have their own nonlinear dynamics which generate and propagate action potentials, and such nonlinear dynamics can produce chaos in neurons and related bifurcations. Прям нейронная эволюция какая-то, лол.
>>923100 >нейронная эволюция какая-то Собственно, да, жутко интересно ресурс бы найти, в идеале обзорную статью с классификацией методов обучения и моделей, историей создания, развитием, современным положением, взглядом, идеями и список открытых проблем. Вряд ли, но может есть такая?
>>923049 >Нейросети часом не динамические системы ? До зимы в ИИ была куча исследований на эту тему. Нечёткие ребята любят ещё эту тему обсуждать, но их никто и никогда не слушает, ибо нахуй это никому не надо.
>>923088 > не нейроночка хаотическая >chaotic artificial neural networ Ну хз. Да и матмодель нейрона там другая вроде бы: если там сумматор произведений весов на входы, ну перцептрон линейный классификатор, линейное уравнение, то тут
Chaotic neuron model
A chaotic neuron model that qualitatively reproduces chaos in nerve membranes observed in squid giant axons and the Hodgkin-Huxley equations can be described by the following simple 1-dimensional map (Aihara et al., 1990):
Chaotic neuron model
A chaotic neuron model that qualitatively reproduces chaos in nerve membranes observed in squid giant axons and the Hodgkin-Huxley equations can be described by the following simple 1-dimensional map (Aihara et al., 1990): y(t+1)=F(y(t))≡ky(t)−αf{y(t)}+a,(1)
where y(t) is the internal state at discrete time t , k is the decay factor, α is the scaling factor of refractoriness, a is the bias including both the threshold and the temporally constant input, and output x(t) is obtained by x(t)=f{y(t)} with, for example, the logistic function
Насколько я понимаю, а я не понимаю воообще, это эволюционное уравнение Ну вот As a simple example, start with the number on your calculator and continually press the cosine button. Это типа рекуррентное соотношение/дифур как я понял. Где-то ещё видел вроде эволюционное уравнение термин или уравнение эволюции А, во уравнение эволюции квантовых состояний, уравнение Шредингера, дифур короче.
>>923126 One-dimensional maps (sometimes called difference equations or iterated map) are mathematical systems that model a single variable as it evolves over discrete steps in time.
>>923126 Ну если это нейроночка на стохастических дифурах, значит нечто типа ABAM/RABAM Коско или на всяких разновидностях адаптивного резонанса Гроссберга.
>>923128 equations or iterated maps or reыворамофвпмcurфолваыфвампs(( ion relations Пиздос, тут рекурсион в спамлисте, моча поехала совсем что ли? Заебался искать.
>>923132 > Кто такие? Чем знамениты? Fuzzy data analysis guys.
> Почему никому не надо, мне кажется это годно довольно таки, не? Как-то так сложилось, что интереса у общественности больше к statistical learning и классическому deep learning.
>>923077 > Коско и есть математик, ученик Заде > (Заде)С 1932 года жил в Иране, на протяжении 8 лет учился в Американском колледже Тегерана (впоследствии известном как Alborz[en] — миссионерской пресвитерианской школе с персидским языком обучения), затем на электроинженерном факультете в Тегеранском университете
Фрик от математики, ученик фрика от математики (насколько "фрик" может быть применимо к математике, а не естественным наукам). От чистматовцев слова о нечёткой логике доброго не слышал ни разу.
То есть, за этой нечёткой хренью есть содержательная математика, это не пустышки. Но фрики напускают тумана.
Имеет ли смысл пытаться вкатываться, если я 17 лвл и за плечами только 1 семестр матана, а статистики и теорвера вообще по нулям? Или же советуете вначале подрасти и набраться математических знаний?
>>923151 > всё по регистрации и паролям А в вузиках по любому аккаунты выдают, тут ещё можно автору написать, а обычно просто логин пароль идите нахуй, обратитесь к библиотекарю за логином и паролем. В архиве обычно уже стабильные, окончательные статьи, они выходят года за три-два, как туда попадают.
>>923151 > неправильно эти две области сравнивать, первое статистика, анализ данных, второе нейронаука или типа того Почему неправильно, если оба подхода могут решать одни и те же задачи? Другое дело, что есть Bayesian Deep Learning и всё такое.
> вот на 4th International Symposium on Neural Networks, ISNN 2007, много освещено, значит не маргинальщина как минимум. Да, но в одном из прошлых тредов я приводил статистику из скопуса по публикациям о нейроночках. Не маргинальщина, но разница в разы. А здесь пацаны просят результаты на имаджнетах и других серьёзных датасетах.
>>923163 >статистику Ну ты понел. Да ладно, я вообще ни на чём не настаиваю, я об этом час назад обо всём узнал, лол, сейчас бы в споре с работающим в МЛ аноном отстаивать позицию чуваков, про которых узнал час назад только потому, что образ мышления сходный и это тебе субъективно кажется логичным, мда
>>923175 Ох ты ж бля, прскроллил вниз! Ну кто ж так сайты делает! ДУмал говноподелие, которое тебе любое слово найдёт и типа куча комментариев я просто отправил смс и нашёл жопа ежа!
>>923173 На самом деле, если завтра ЛеКун, Бенгио, Гуудфеллов и Салахудтинов выйдут и скажут, что нейрофаззи - збс, то хайпа около фаззи будет ебать-ебать, а мужик с вариационным выводом и нечёткопетух из ОП-пкчи поменяются местами. Только, тссс, я это по секрету. Хотя такое вряд ли случится.
>>923179 Проиграл с пикчи, подумал можно такой критерий ИИ сделать, сильный ИИ после череды хуёвых ситуаций себя уничтожит, только робот безэмоциональный будет продолжать жить. Подумал и как-то выпилиться захотелось.
>>923186 >сам подход не важен Важен, ты не понимаешь сути. Пиздато то, что работает. То что может работать, но пока не работает может быть как авангардом науки, так и тупиковой ветвью. И на тех и на других смотрят как на околофриков.
>>923186 Ну и сам пониаешь, результат нужен уже сейчас, прдеставь, как тяжело выбить финансирование на какую-то нечёткую логику и какое-то там детерминированное облако , лол.
>>923188 По моему опыту изобретатели всяких новых охуительных видов нейронов оче не любят когда их спрашиваешь "а как у вас дела на мнисте?". В ход идут маняотмазки навроде "да я вообще-то кодить не умею, да и хуй знает как мой нейрон обучать вообще".
>>923202 >"а как у вас дела на мнисте?" Вот такие гении и свели МЛ к мнисту. >маняотмазки навроде "да я вообще-то кодить не умею, да и хуй знает как мой нейрон обучать вообще". А если это не маняотмазки, а правда? Знания в области, например, нечетких множеств вообще никак не предполагают умения кодить.
Ебать мне мысль в голову пришла! Сети, основанные на нечёткой логике показывают хуеватые результаты на бинарном железе. Квантовые компьютеры не дают значительных результатов для обычных алгоритмов. А что, если объединить всё это? А в качестве матмодели нейрона использовать... УРАВНЕНИЕ ШРЁДИНГЕРА!111. А? А?1 https://en.wikipedia.org/wiki/Quantum_neural_network
>>923294 >Сети, основанные на нечёткой логике показывают хуеватые результаты на бинарном железе. Нечеткие алгоритмы еще в 80-90-х реализовывали на аналоговом железе, на оптоэлектронных схемах и т.п. Хоть тут некоторым нибомбит с упоминаний Коско, вброшу http://gen.lib.rus.ec/book/index.php?md5=BC1EC0F44F2E619AB46D6FD0B7088514 10 глава про аппаратные реализации методов нечеткого вывода.
Мало кто знает, что кроме нечетких множеств есть еще грубые множества Павлака, мягкие множества Молодцова, интуиционистские нечеткие множества Атанасова, а так же всевозможные их комбинации. В кратце про это рассказывается в книжке http://gen.lib.rus.ec/book/index.php?md5=A45DD396A99DEF2FD30ACA8A9D747DC8 на основе таких множеств в настоящее время нет ни одной системы вывода. Несмотря на более чем многообещающие результаты. Наверное, потому что салахутдинов не форсит.
>>923299 Хуй с ним с железом! Суть в том, что сама природа подсказала уравнение, которое можно заюзать как модель нейрона! Причём ведь и наш мозг вроде как типа квантового компьютера, может ваще круто получиться! Эх, умел бы я во всю эту хуйню, там же просто строчку в коде заменить по идее. Вот ща гуглю квантовый нейрон и там везде квантовые аналоги перцептрона обычного.
>>923306 > таких множеств в настоящее время нет ни одной системы вывода Смотри, сделали же квантовый компьютер, ну там точно квантовая логика, может просто нахуй послать нечёткую логику, но идеи, архитектуру и прочее взять оттуда.
>>923307 >там же просто строчку в коде заменить по идее Был у меня начальник, у которого это была любимая фраза. Мужик - что-то типа инженегра-недоматематика с электроники. Когда он говорил, что уравнение можно вывести просто, у нас с ним уходили недели на выводы. Когда он говорил, что можно поменять строку кода в работающих скриптах, у нас уходили недели на реализацию его неработающей идеи. Мне даже трудно представить, сколько бюджетных денег мы в своё время въебали на такую российскую науку.
>>923319 > сделали же квантовый компьютер Там как-то не очень всё, почитай внимательнее про прогресс в области.
>>923319 > просто нахуй послать нечёткую логику, но идеи, архитектуру и прочее взять оттуда. Можно ещё нахуй послать всю стандартную теорию вероятностей и теорию информации и использовать алгоритмическую теорию информации. Там всего-то нужно нормальные аппроксимации к универсальным приорам найти.
>>923326 >Там как-то не очень всё >Квантовые компьютеры не дают значительных результатов Да, там вроде как только некая нормализация может проводиться. Корчое, совсем ещё сыро и куча проблем. >Когда он говорил, что уравнение можно вывести просто, у нас с ним уходили недели на выводы >Можно ещё нахуй послать Да, да понятно, это я так, фантазирую. Было бы всё так просто давно бы уже сделали.
However, the nature of the behavior in the brain will sometimes change from chaotic to periodic. These changes can be due either to an abnormality like epileptic seizures, or it could be caused by other reasons such as an intense focus or an attempt to remember an object or solve a problem Коллапс волновой функции
Another example is the dynamics on neuron levels (cellular and subcellular). The transportation and storing of information in the brain is believed to be accomplished by the impulse trains produced by the neurons. These trains of impulses or action potentials are often organized as sequences of bursts. The combination of these impulses will result in an electrical field on the surface of the brain, which can be recorded using EEG. Типа энцефалограмму крысы сделали, аттрактор получился пикрелейтед.
All of the behaviors that these models exhibit can be found in their bifurcation diagram. A bifurcation is a sudden change in the dynamics when a parameter of the system is changed [1].
Коллапс волновой функции.
From a dynamical systems point of view, neurons are excitable because they are near a bifurcation where a transition from resting to a sustained spiking activity occurs [7]. All the neurons undergo bifurcation by changing their states. Their new state can be periodic as in tonic spiking (called a limit cycle), or they can be chaotic (called a strange attractor).
Сука, ну почему я не знаю математики/физики /программирования, почему я волоёбил всю жизнь, мудаак.
With the polarization of quantum-dot cell and quantum phase serving as state variables, this paper does both theoretical analysis and simulation for the complex nonlinear dynamical behaviour of a three-cell-coupled Quantum Cellular Neural Network (QCNN), including equilibrium points, bifurcation and chaotic behaviour. Different phenomena, such as quasi-periodic, chaotic and hyper-chaotic states as well as bifurcations are revealed. The system's bifurcation and chaotic behaviour under the influence of the different coupling parameters are analysed. And it finds that the unbalanced cells coupled QCNN is easy to cause chaotic oscillation and the system response enters into chaotic state from quasi-periodic state by quasi-period bifurcation; however, the balanced cells coupled QCNN also can be chaotic when coupling parameters is in some region. Additionally, both the unbalanced and balanced cells coupled QCNNs can possess hyper-chaotic behaviour. It provides valuable information about QCNNs for future application in high-parallel signal processing and novel ultra-small chaotic generators. Но опять залогиниться за институт или купить. Похуй.
>>923360 https://en.wikipedia.org/wiki/Cellular_neural_network Короче гибрид нейросети и клеточного автомата, даже не знал, что есть такое. >each cell can be modeled as a dissipative, nonlinear dynamical system where information is encoded via its initial state, inputs and variables used to define its behavior
>>923858 Обработка естественного языка — одна из самых сложных проблем искусственного интеллекта. Современное машинное обучение и большие объемы данных здесь играют важнейшую роль. Нам повезло, что мы живем в интересное время – на наших глазах происходит настоящая революция, связанная с успехами нейросетей в задачах понимания текста. Наша группа входит в департамент машинного интеллекта Яндекса. Мы занимаемся всем, что имеет отношение к тексту: морфологией, синтаксисом, семантикой, исправлением опечаток, машинным переводом и т. п. Мы ищем как исследователей, так и сильных разработчиков (можно в одном лице). Как исследователь вы будете следить за прогрессом в машинном обучении и разрабатывать новые методы. Задача разработчика — писать код под нагрузку в десятки тысяч rps и масштабировать алгоритмы машинного обучения под петабайтные обучающие выборки.
>>923920 > А что такое? Ну как бе мощности существующих моделей пока не алё для существующих объемов текста. А нейроночки рекурсивные давно уже текст хреначат, как LSTM первые появились, и неплохо, лучше чем остальное.
Вот только буквально неделю назад публикация появилась про текст и охерительно большую нейроночку. Но что это, где же яндексеры в авторах, а? Впрочем, ничего нового.
>>923951 > где же яндексеры в авторах А они там должны быть? Они вроде как бизнесом занимаются, а не публикациями. Конечно, у них есть ресёрч отдел и они там тоже что-то делают, но они не научный институт, а бизнес-компания. Зато они инвестируют много в своих будущих кадров, со всей страны в ШАД собирают народ, вот они потом и покажут результаты. Ну и да, ты написал это как эталонный непризнанный гений, заваливший туда собеседование.
>>923986 > заваливший туда собеседование Заколебали меня звать на собеседование, кстати, лол. Платят копейки, в офис ездить надо (офис красивый, но всё равно) - нахер надо. Нет у них народа и не будет, плохо всё. Мои инсайды сваливают в MS все. Такие дела.
>>923986 >у них есть ресёрч отдел и они там тоже что-то делают, И что они там делают? С подружками в НИИ проектируют хуи? Где хоть один программный продукт на тему МЛ этого вашего яндекса?
>>924024 >Reproducible Experiment Platform (REP) >unified python wrapper for different ML libraries (wrappers follow extended scikit-learn interface) Sklearn TMVA XGBoost uBoost Theanets Pybrain Neurolab MatrixNet service(available to CERN) >крупнейшая в рашке ИТ-компания >Враппер на не то что не яндексовском, но и даже не российском пистоне для алгоритмов, которые опять же к яндексу и рашке никак не отеносятся. И еще полтора проекта на гитхабе уровня никиты садкова. Ты сейчас серьезно что ли7
>>924037 >ой лал петабайтныи выбарки ой ну не могу ну тупые вруны даж ни панимают ничего в нейроначках))0)) The LHCb experiments generate colossal amounts of raw data — as much as 35GB covering 1 million events per second — which needs to be organized and filtered to find the extremely rare events that the scientists are looking.
>>924057 Таких же форумных data scientistов 3000ккк/нс? >да чё они там в своём яндексе))0 лохи) рашка парашка ничего не производят только пиздят технологии)) мне на дваче так сказали)))
>>924030 > хоть один программный продукт на тему МЛ Набор инструментов для проведения различных экспериментов, МЛ, что не так? >враппер Ну да, в других библиотеках по 20 уникальных алгоритмов обучения и моделей сети в каждой.
Отвлеку от срача про Коско: продолжаю читать Deep Learning и возникают вопросы про некоторые пассажи в книге, вот, например, кусок текста. Каким боком мы начали говорить про гауссианы (из-за предположения, что ошибки распределены нормально)? Почему нас вообще парит его среднее? Как я понимаю из просмотра cs231n и делания заданий, общая цель обучения (в постановке обучения с учителем) - сделать функцию, которая будет на заданных входах давать правильные классы, или как это изложено в книжке минимизировать ошибку в смысле cross entropy. Так причем тут гауссиан?
>>924235 Ну ты выдал кусок текста без контекста, а нам теперь гадать.
> Каким боком мы начали говорить про гауссианы (из-за предположения, что ошибки распределены нормально)? Логично, это самое частое предположение.
> Почему нас вообще парит его среднее? Ещё ковариационная матрица обычно парит, ибо нормальное распределение задаётся двумя моментами.
> общая цель обучения (в постановке обучения с учителем) - сделать функцию, которая будет на заданных входах давать правильные классы Может давать классы, а может действительные значения, как в регрессии.
> или как это изложено в книжке минимизировать ошибку в смысле cross entropy > общая цель Общая цель - подобрать параметры так, чтобы они давали максимум правдоподобия на данных, дальше в зависимости от задачи и допущениях о распределениях вытекают минимизируемые ошибки. Ну там на самом деле ещё риски рассматривают, MAP и постериоры над параметрами, но это потом
>>924235 Классы тут нипричем, речь про регрессию же небось. x - вход, y - вектор на выходе, вещественный. В идеале ты бы хотел, зная вход x, получить не просто некое значение y, а распределение вероятностей по y при условии x, т.е. насколько вероятно любое значение y при данном x. Это полезно, т.к. в реальном мире в цене дома (y) есть элемент случайности, который не описывается целиком его площадью и чем там у тебя еще на входе есть (x) - и имея полное распределение вероятностей ты можешь четко понять какая может быть цена у дома.
Но это в идеале - на практике твой линейный юнит не выдаст тебе распределение вероятностей - а всего лишь некую его оценку, статистику. Самая полезная оценка самого простого предполагаемого распределения вероятностей - гаусса - это его матожидание.
>>924250 Мы с тобой жопой читаем, у него там hidden layer.
>>924235 Смари сюда, кароч, у тебя на хводе какая-то ебала с ошибкой, которая там скорее всего распределена по нормальному закону и какой-то там дисперсией. У тебя слой линейный, а линейное преобразование нормальной ебалы - другая нормальная ебала, с нелинейным слоем такая хуйня не канает. Поэтому у тебя пока слои линейные, там будут гауссианы по ним ходить. Кросс-энтропия это про категориал уже, это потом покажут.
>>924076 > математика/алгоритмы не нужны Большая часть параши в шапке нахуй не сдалась для практического вката. Хотите дрочить эту хуйню и алгоритмы (какие, блять, конкретно, алгоритмов хуева тонна) сидя у мамки на шее или пописывая говносайтики - вперед.
>>924260 Написано же linear output layers. Я почти уверен, что там речь именно о выходе регрессии с предположением что шум модели гауссов. Но я эту херню давно читал и открывать снова влом, сорян.
>>924083 >Ну да, в других библиотеках по 20 уникальных алгоритмов обучения и моделей сети в каждой. Ты не понял. Российская ИТ-компания, у которой даже название не российское, а какая-то хуйня. Из программных продуктов одна реклама под андроид, весь телефон засрали, заебался вилкой вычищать на тему МЛ - полтора враппера на гитхабе. При том, что теоретически какой-то исследовательский отдел присутствует, вон выше какую-то хуету цитировали. И на этом основании я должен поверить, что эта шарашка вообще может в МЛ.
Посоны, важный вопрос, вы тут все крутые математики, чё там порешили на сходосе по поводу 0.99999(9) = 1 ?
>Что такое иррациональное число? Это просто те вещественные числа, которые не являются рациональными. Всё. Аксиоматика построена. >Арифметика также утверждает, что порядок операций умножения и деления не имеет значения. Значит (1 / 3) 3 = (1 3) / 3 - так? А вот и ни фига.
В такое говно в 2017 я верить просто отказываюсь, это не заслуживает никакой критики абсолютно.
>создадим две параллельных вселенные, где у нас А равно одному и тому же значению. Равно ли А самому себе в другой вселенной?
И это тоже нихуя не жир. Куда мне обращаться с этими вопросами вообще? Ведь они чисто кэповские, и "жир" потому что "ну ты же знаешь что это жир", так чтоли?
>>924635 Я писал сразу в обоих т.к у меня не особо много времени ждать ответ, но видимо придётся подождать. Как ты заметил - >>924597 здесь уже сообщено о разделе math
>>924660 >0.(9) - ровно единица Схуяли? У нас оперативки столько не хватит, чтобы оно было равно ровно единице. А аутотренинги что "ну оно равно единице, ну чо ты. Равно же!" - не катят.
>>924623 4) All numbers that are not rational are irrational numbers. Really? Binary logic in 2017? Is there any alternative to "rational" or "irrational"? Any kind of meta-rational numbers maybe?
Короче исходя из этой блядской параши я считаю что 1/3 is metaraional number for 0.(3)
Не. ну серьёзно, мне где об этом спрашивать? Я же не мог тут велосипеднуть внезапно
>>924664 >ну оно равно единице, ну чо ты. Равно же!" - не кат Ну ты и пидорас, если тебе моё док-во не понравилось, окей, давай рассмотрим другое
Ряд 9 умножить 10^(-k), k от 1 до +inf.(0,9 + 0,09 + 0,009 ...) Это сумма бесконечно убывающей геометрической прогрессии. Можешь посмотреть школьную формулу , подставить величины И УБЕДИТЬСЯ ЧТО ТАМ ЕДИНИЦА
>>924671 Не, меня это не убеждает. Машине неведома бесконечность вследствие переполнения буфера. В то время как 1/3 выглядит совершенно рациональной хернёй - 0.(3) выглядит полностью иррациональным говном для аутистов.
>>924674 >Машине неведома бесконечность Зато ведома аппроксимация. 0.9999999 - это аппроксимация единицы, такое число классификатор и отнесет к единице, а не к нулю, 0.5 и т.д. А теперь уебывай.
>>924677 Приближения и наука - никак не связанные вещи. Это лишь костыль, который помогает в аутотренинге что "всё заебись", но на самом деле это остаётся лишь костылём. Очень пиздецовым костылём. Причём в самом начале вычислений.
>>924678 Я тебе привёл строгое математическое доказательство с рядом. Дело в том, что, когда появляется мат. доказательство споры уже неуместны. Ты пытаешься рассуждать над цифрами не с точки зрения математической науки, а с точки зрения ссаной машины Тьюринга.
>>924682 Как повысишь точность без повышения количества слоёв до охулиарда - приходи, поговорим нейронные_сети_слои_сравнение_статистика_клоун.жпг (не нашёл за нескольки минут пик)
>>924683 >математика без вычислимости >наука Я всё понял, подожду чьего-нибудь другого ответа. А это простейший пример не вычислимости. Даже 1/3 - нихуя не вычисляемая штука. Терабайт оперативки. Эксабайт. Машине похуй. Можно сделать костыль - но это будет лишь костыль. Костыли - это охуенная олимпиада, конечно, но я, пожалуй, от неё откажусь.
>>924684 >нейронные_сети_слои_сравнение_статистика_клоун.жпг (не нашёл за нескольки минут пик) Сам же и ответил на свою претензию. Да, теория статистического обучения как раз об этом, как повысит точность не асимптотически (охулиардом слоев), а правильно ставя и решая задачу обучения.
>>924685 Так я вроде её и ставлю её нормально, разве это не проблема современной науки?, что там костыль ебанули, потом далее, ещё пару костылей, а потом все "почему-то" охуевают чего это всё в конце по швам трещит
>>921502 (OP) оп, Theano, TF это понятно. Непонятно почему ты решил, что внимания стоит монструозный жрущий TF, который в бенчмарках совсем не блещет и вообще был унылым говном до определенного времени. Где keras, где промышленный deeplearning4j, где наконец всея нагибатор Torch, которые не просто сделан пряморукими людьми (в отличие от параши Theano) достаточно просто посмотреть на исходный код GRU модуля, чтобы у тебя встал. Где основа основ -- ML курс от Стенфорда? С его вкатывание как раз и надо начинать, а не с книг по 500 стр.
>>924688 Сообщу нихуя не поддерживаемое никем мнение. Нет ничего жрущего или нет. Есть только то за что ты получишь в итоге бабло, а за что ты получшишь лишь в еблище или тебя пизданут на мороз
>>924693 ну а если серьезно, TF скорее для офисных червей, которые работают работу и зарабатывают зарплату и вполне естественно, что в /pr на него дрочат. Но раз уж тред по ML, а не про TF, то и обсуждать лучше плюсы минусы всех библиотек.
>>924710 Все, что не поддерживает и пистон и кресты идет нахуй сразу. Особенно всякая lua параша (это ж надо было придумать юзать неподдерживаемое говно, а).
>>924716 А почему под виндой-то? И почему под виндой должно быть медленнее, лалс? А, я понял, потому что нитакие школьники угорают по МААМ МААМ ЛИНУПС ЭТА КРУТА!!111.
>>924715 Во многом благодаря "луа параше" офисные черви вообще узнали, что такое дип лернинг. Науч. статьи совсем не читаем, да?
Torch первый релиз в 2002 и именно его юзали Deep Mind и сейчас продолжает Facebook, NVIDIA. Theano первый в 2009, университетский проект, т.е. части кода писались всякими практикантами и пхд студотой скорее всего, что как-бы намекает. И поэтому промолчим про качество кода в Theano.
И да, пистон сосет у lua если что, и соответственно Theano сосет у Torch.
Ну и вот немножечко бенчмарков вам для повышения ЧСВ.
>>924722 ну про скорость это ты додумал (интересно почему). Это было к тому, что под виндой, где нет нормальных средств для разработки, а я имею в виду, нормальные редства разработки, а не ваши отмазки и костыли ни один уважающий себя кун не будет в r&d.
Заранее прошу прощения у сишарпов и с++ для которых заботливая MS слабала отличную VS у кучу других костылей.
>>924727 > нормальные редства разработки, а не ваши отмазки и костыли ни один уважающий себя кун не будет в r&d. Ну-ка ну-ка поясни за средства разработки, мне аж прям интересно стало. Сам на чем ML делаешь? Чего под винду нет?
>>924235 Там рассказывается про виды выходных нейронов, их выбор зависит от того, что тебе удобнее получать на выходе в конкретной задачe. Линейные выходы(без функции активации) подходят для задач регрессии, сигмоида для классификации 1/0, Нормальность распределения предполагается во всех методах, использующих метод максимального правдоподобия, об этом страниц пять назад в твоей книжке написаною.
>>924265 >>924260 >>924247 >е нахуй не сдалась для практического вката >е нахуй не сдалась для практического вката >е нахуй не сдалась для практического вката >е нахуй не сдалась для практического вката >е нахуй не сдалась для практического вката >е нахуй не сдалась для практического вката >е нахуй не сдалась для практического вката
>>924744 Бред написан дичайший, а потом >Большая часть параши в шапке нахуй не сдалась для практического вката Как бы вся суть. И это притом, что в книжке страниц пять назад написано: >Previously, we saw that the equivalence between maximum likelihood estimation with an output distribution and minimization of mean squared error holds for a linear model, but in fact, the equivalence holds regardless of the f ( x ; θ ) used to predict the mean of the Gaussian. An advantage of this approach of deriving the cost function from maximum likelihood is that it removes the burden of designing cost functions for each model. Specifying a model p (y | x ) automatically determines a cost function log p(y | x ). Просто ёбаные дауны, то есть тут даже читать без толку, один хуй всё вылетает. >Большая часть параши в шапке нахуй не сдалась для практического вката. >ШАД шарага))0))0 а я умныыыый)0)0 Пиздец какой.
>>924791 Один жопой читает книги, половину не понимая, другой несёт хуйню шизофазийную из того, что где-то когда-то услышал, гаусианы у него по слоям ходят, третий фантазёр, на ходу под ответ компилирует, в цене дома элемент случайности, будто на экзамене троечник. > Но я эту херню давно читал и открывать снова влом, сорян. Ну и довершает всю эту картину вишенка >Большая часть параши в шапке нахуй не сдалась для практического вката. Хотите дрочить эту хуйню Антракт.Ёбаный пиздец. Вы же вообще не понимаете, что делаете. То есть вообще. А от прочитанных книг только ещё большая каша становится, потому что базовых понятий нет/они неверные. А потом такой скроллишь вверх,а в шапке >шад))) Нет там ничего ML-специфичного, знание матана и теорвера на уровне заборостроительного вуза Просто мммаксимум долбоёбы. Ебать у вас тут загон.
The bias–variance decomposition is a way of analyzing a learning algorithm's expected generalization error with respect to a particular problem as a sum of three terms, the bias, variance, and a quantity called the irreducible error, resulting from noise in the problem itself.
>>924821 двачую адеквата, долбоебам, которые решили вкатится для начала надо закончить курсеру и только потом пробовать в книги. Блядь, но нет, тут же каждый в поле агроном.
>>924889 Ты настолько дурачок, чтобы выбирать DL либу по бенчмаркам? В которых нет половины DL либ и бенчмарк только по рекурсивкам, лол. Еще один диванный теоретик.
>>924899 ну я знаю, что выбирать, т.к. пишу дисер по рекурсивкам. И собственно тон выбрал, чтобы потроллить немного борду и растрести нормальных кунов. Естественно, нет лучшей либы, все под свои задачи. Но шапка требует доработки, т.к. куча полезных и нужных фреймволков отсутствует вообще.
>>924928 ну вообще вопрос не совсем корректный? тут дело не в том как ты процессишь свой hidden layer вообще, т.е. не в LSTM дело. Как говорил Микола, главное это ваш корпус, фичи и настройки параметров.
Про тюренговые машинс увы я тебе ничего не скажу. Надо скачала почитать статьи по ним.
>>924942 Тем, что это просто квинтэссенция костыльной архитектуры с костылем на костыле? Одна зависимость от временного масштаба чего стоит (забывает все нахрен если частота данных большая) - и ради того, чтобы это побороть наворачивают еще костылей - гейты, которые открываются каждые K, 2K, 4K временных шагов и т.д. (влом искать статью, на прошлом семчике в ИППИ было). Просто пиздец.
То же самое со сверточными сетками, которые могут в трансляцию, но внезапно не могут в поворот и другие симметрии. Хотя казалось бы одна хуйня.
Но и там и там народ пытается придумать что-то нормальное - для симметрий Домингос придумал deep symmetry networks, для нормальной памяти - neural turing machines.
И вообще надо давно пробовать полноценные дифференцируемые программы, а не 2.5 костыля как LSTM, Колмогоровская сложность же. Попробуй заставить твой LSTM отсортировать массив, вперед.
>>924893 Я знаю английский где-то между Advanced и Proficiency, проблема не в языке, а в некотором грузе нотации + математики, тот же cs231n с course notes значительно легче воспринимается вероятно из-за формата и большей ориентированности на практику. >>924897 >>924891 Я прошел курс, но не сказать, чтобы он дал много понимания. Да, смогу тебе зафитить и регрессию и деревья скорее всего под датасет, что теперь больше знать ничего не надо?
>>925032 ну по сравнению с ванильной RNN, которая похоронила все надежды на "успех" в свое время, LSTM был прорывом и благодаря именно этой архитектуре интерес к рекаррентам воскрес и сейчас мы пожинаем плоды этого "интереса" (в виде вот таких вот трололо тредов).
Конечно, одной лишь "забавной" архитектурой ты не решишь все проблемы. Другое дело, что создать что-то более менее хорошо работающее даже с LSTM далеко не так просто как кажется. У LSTM была задача решить проблему исчезающего градиента (vanishing gradient). Они с ней справились.
Почитай еще про Highway networks -- классические FFNN только с прикрученными гейтами. Тоже ниче, успешно применяются. Гейты рулят на самом деле. Более того, зачем ебать мозг куда более сложными архитектурами, если подборка толкового корпуса и настройка параметров всегда и дешевле, и быстрее в результате.
Ну а в сравнение с представленными тобой решениями, LSTM смотрятся теоретически слабо. Но это просто ступень.
ну текст, который ты вывалил выглядит нормальным, хотя предложение, соглашусь, длинноватое для восприятия без перечитки. Ты почитай дедушку Эльмана например, вот там пиздец. Когда я не понимаю о чем речь это скорее всего от недостатка математического бекграунда. Тогда я начинаю гуглить и читать смежные темы. Да долго, но зато разбираешься.
>>925124 Так как пользуемся методом максимального правдоподобия для обучения сети, а он асимптотически нормален, то есть его распределение аппроксимируется нормальным распределением, которое N(y;y,I). Во втором случае мы тоже пользуемся методом максимального правдоподобия, но теперь у нас классификация, потому используется распределение Бернулли( которое есть биномиальное с н=1, которое при больших n также нормальное). >>Previously, we saw that the equivalence between maximum likelihood estimation with an output distribution and minimization of mean squared error holds for a linear model, but in fact, the equivalence holds regardless of the f ( x ; θ ) used to predict the mean of the Gaussian. An advantage of this approach of deriving the cost function from maximum likelihood is that it removes the burden of designing cost functions for each model. Specifying a model p (y | x ) automatically determines a cost function log p(y | x ). О чём он тебе и говорит, до этого ты строил линейную регрессию с mean square error в качестве функции потерь, в итоге твои точки почти все лежали на получившейся линии. А теперь, говорит он тебе, посмотри внимательно, что ты сделал. Mean square error по-русски дисперсия, то есть разброс относительно матожидания, ну и ты его минимизировал и получил ровную линию. Дык вот, говорит нам автор,нам удалось получить соответствие между предсказанными и исходными значениями при помощи минимизацией дисперсии не потому, что наша модель линейна , а потому, что мы предполагали, что наша величина распределена нормально. Она не распределена нормально, мы предполагаем, что она распрелена нормально и на этом предположении строим приближение.
>>925171 А, лол, это и есть p(y|x). Нужна регрессия берёшь нормальное, нужна классификация берёшь Бернулли. По сути это одно и то же, хотя не совсем, вот биномиальное и Бернулли одно и то же, частный случай для n=1, а тут просто на больших n (вроде больше 30)как нормаальное себя ведёт по центральной предельной т еоремееею.
>>925173 >это и есть p(y|x Точнее матожидание, которое хотели получить. Вот, кстати, c этого тогда проорал: > В идеале ты бы хотел, зная вход x, получить не просто некое значение y, а распределение вероятностей по y при условии x, т.е. насколько вероятно любое значение y при данном x. Это полезно, т.к. в реальном мире в цене дома (y) есть элемент случайности, Внимание, правильный ответ: >Instead of learning a full probability distribution p(y | x ;θ) we often want to learn just one conditional statistic of y given x . Сука, ну с точностью наоборот! Чё там? Агаа, офэн мин, ну бля, видимо короче хотелось бы всё взять, а получается тока среднее и дааавай хуярить истории охуительные про полезность элементов случайности, не описывающихся площадью, аааа. Нахуя вы этим занимаетесь, понять не могу, если вам это не интересно.
>>925177 >ну с точностью наоборот Просто типа какой смысл? Испорченный телефон по итогу, хоть 200 книг толстых прочитай, даже ещё хуже станет. Надо либо нормально заниматься, прежде всего математикой, просто чтобы понимать, что ты хоть делаешь, а не ВНУТРЕ У НЕЙ НЕЙРОНКА))0)либо не страдать хуйнёй, пизда, температура, умираю, нахъуй, походу скорую вызывать надо, зуб ебучий мудрости неделю уже охуеваю. Короче, не страдайте вы хуйнёй. Я кончил.
>>925168 >Mean square error по-русски дисперсия >>925168 > Mean square error по-русски дисперсия F{F{F{F{{F{{F{FАСХХАХАХААЪАЪАЪ КААААРА ХАХАХАХАХУХУХХУХАХАХ >>925179 >очнее условная вероятность, лол. >>925179 >>Точнее матожидание >Точнее условная вероятность, лол. >>925178 >>ну с точностью наоборот >Просто типа какой смысл? Испорченный телефон по итогу, хоть 200 книг толстых прочитай, даже ещё хуже станет. Надо либо нормально заниматься, прежде всего математикой, просто чтобы понимать, что ты хоть делаешь, а не ВНУТРЕ У НЕЙ НЕЙРОНКА))0)либо не страдать хуйнёй, пизда, УХХАХАХАХХАХАХАХУХХА ЕБАТЬ Я ДАААУН АААААААААААА ААА_+А++А+А+А++АААХАХАХАХА
1. Что скажите за импульсные нейросети? 2. И есть ли какая-то логика, что оперирует временем, временными отношения и таким подобным? То есть, разработано ли некое формальное представление времени в формальной логической системе. Хотелось бы что-то вида деления на настоящее время и "вероятное", а во втором возможность использовать ту же нечеткую логику и теорию свидетельств. Хотя, может кто-то сделал намного лучше и логичнее.
Нишестудент вкатился. 1. Пилю самоорганизующуюся карту Кохонена. Возник вопрос по алгоритму: зачем вводится элемент случайности при выборе элемента для представления его карте, что будет, если тупо итеративно скармливать системе весь датасет; 2. Хорошо разобрался в нечетких машинах вывода Мамдани-Заде, они моделируют мышление человека,но не понимаю смысловой подоплеки в машинах вывода Сугено, посоветуйте статейку, желательно со сравнением первого со вторым.
>>925676 1) Случайная инициализация опорных векторов - один из возможных вариантов инициализации опорных векторов. Суть в том, что даже если их задать рандомно, в итоге все сходится к оптимальному представлению опорными векторами входных данных. 2) Отличие вывода Сугено от Мамдани в дефаззификации. В модели Мамдани результирующее множество представляется в виде единственного четкого значения методами вычисления центроидов и т.д., оператор Сугено - получение единственного значения из нескольких заданных правилами синглтонов (пик2) или линейных функций (гомогенных или аффинных, пик1 - аффинные). Суть в том, что этот метод гораздо проще с вычислительной точки зрения, ну есть еще плюсы. Самая нормальная статья, внезапно оригинальный пейпер Такаги и Сугено, но там авторы сами в своей нотации запутались и знатно накосячили в некоторых формулах, исправленный вариант на пике1.
Да, есть еще т.н. стандартная аддитивная модель Коско, к которой сводится любая нечеткая система вывода. В нотации Коско модель Такаги-Сугено вообще элементарно понять.
1. Ты не понял, я имею ввиду не инциализацию начальных значений весов, с этим я разобрался. Я имею ввиду требование случайного порядка обхода датасета в течении одной эпохи, почему нельзя просто обходить датасет в его естественном порядке? Просто я реализовывал k-means и СLOPE, и там не было такого требования, и, вообше, было бы удобно использовать курсор базы данных и прочие итераторы. 2. Про Сугено спасибо, буду разбираться.
Есть еще очень годная книжка http://gen.lib.rus.ec/book/index.php?md5=66B1A6B5D15A0E70D7D4F036267A73AF с нуля поясняется за лисп, множества, нечеткие множества, с нуля же поясняется за синглтонный вариант модели Такаги-Сугено с кодом на лиспе. >>925712 >Я имею ввиду требование случайного порядка обхода датасета в течении одной эпохи, почему нельзя просто обходить датасет в его естественном порядке? Почему нельзя, можно. Просто ты говоришь о стохастическом варианте SOM, в идеале его иллюстрируют именно так - от балды берутся значения опорных векторов и элементы датасета. Если их брать один за другим - это не изменит ничего, т.к. функция плотности вероятности, заданная на датасете от этого не изменится и в итоге точно так же аппроксимируется опорными векторами.
>>925725 Конечно. Датасет один и тот жи, опорные векторы одни и те же. Какая разница, в каком порядке сравнивать строки датасета с опорными векторами? Там важнее само количество предьявлений, достаточное для сходимости.
>>925731 >Какая разница, в каком порядке сравнивать А разве не будет разницы? Например, если мы будем каждый раз извлекать максимум, то получим вот такое распределение. Или это не играет роли? Или я хз.
>>925736 >А разве не будет разницы? Откуда там будет разница? Суть-то в чем: берется вектор из датасета, для него находится лучший (с минимальным евклидовым расстоянием от него) опорный вектор, который обновляется по соотв. правилу. В каком порядке не бери векторы датасета, все равно каждый из них будет обновлять наиболее подходящий для себя опорный вектор. Важно только количество предъявлений, чтобы в итоге все опорные векторы соответствовали датасету, в т.ч. аппроксимировали плотность вероятности, имеющуюся на нем.
>>925676 >что будет, если тупо итеративно скармливать >Depending on the implementations, t can scan the training data set systematically (t is 0, 1, 2...T-1, then repeat, T being the training sample's size), be randomly drawn from the data set (bootstrap sampling), or implement some other sampling method (such as jackknifing). Ничего, зависит от реализации. Хотя, наверняка это как-то влияет на результат.
>>925845 >It has turned out in practice that ordered cyclic application of the available samples is not noticeably worse than the other, statistically stringent sampling methods. Даже вот так, получается, всегда можно применять.
А в мозгу человека, когда сигнал проходит от глаз в зрительную кору, он как-то переходит в абстрактную форму? Если да, то как она выглядит и как этот процесс называется? Я ведь вроде слышал, что у тех же хомячков можно подключить зрение к слуховой коре, а слух к зрительной коре и им будет нормально все. А как это все в искусственных нейросетях?
И еще вопрос о образах. Как они хранятся в мозгу и в ИНС?
>>926309 Восприятие: Как мозг переводит хаотичный поток нервных сигналов от органов чувств в целостную картину восприятия? Какие внутренние правила и закономерности регулируют этот сложный процесс? Как информация от разных органов чувств объединяется мозгом воедино?
Типа это кодирование есть нерешенная проблема нейробиологии?
>>926303 >А в мозгу человека, когда сигнал проходит от глаз в зрительную кору, он как-то переходит в абстрактную форму? Если да, то как она выглядит и как этот процесс называется? Я ведь вроде слышал, что у тех же хомячков можно подключить зрение к слуховой коре, а слух к зрительной коре и им будет нормально все. >Как они хранятся в мозгу и в ИНС? Насколько я понимаю обычно это матрица весов, типа ничего общего, НО! Пали вот тут! пали >>923341 https://www.researchgate.net/publication/257392356_A_novel_image_encryptiondecryption_scheme_based_on_chaotic_neural_networks Короче, есть типа класс сетей непопулярный, который как модели юзает динамические системы, типа наш мозг тоже такая система,
ВО, цени Основная идея резервуарных вычислений заключается в использовании рекуррентной нейронной сети как резервуара с богатой динамикой и мощ- ными вычислительными возможностями. При этом резервуар формируется случайным образом, что исключает необходимость проводить его обуче- ние. При подаче на вход резервуара непрерывного сигнала он попадает в определенный динамический режим или состояние. Это состояние зависит от входного сигнала. Резервуар формируется таким образом, чтобы для похожих входных сигналов это состояние было похожим, а для разных – разным. Выход резервуара соединен со специальными устройствами – счи- тывателями, которые по состоянию резервуара решают поставленную за- дачу – производят классификацию, предсказание, кластеризацию. В каче- стве считывателей могут использоваться статические обучающие машины с простыми алгоритмами обучения. Таким образом, резервуар интегрирует в своем состоянии динамику входного образа, а считыватели по состоянию резервуара распознают входной образ. Один из разделов теории динамических систем связан с теорией хаоса и синергетикой. В хаотической динамике рождаются структуры под дей- ствием внешних возмущений, и она изначально может содержать все мно- жество возможных вариантов. Хаотические системы позволяют выйти на следующий уровень обобщения и расширить возможности вычислений од- новременно над целым множеством вариантов, причем это множество будет формироваться под воздействием внешних сигналов и тем самым обеспечи- вать адекватную сложность. Во многом это похоже на парадигму, исполь- зуемую в квантовых вычислениях, в этом случае до момента считывания ответа содержится все множество вариантов решений А на той пикче короче снимок электромагнитный типа энцефалгораммма мозга крысы, и там типа аттрактор по форме. В общем будто такой колебательный контур, колторый тпринимает форму определённую в зависимости от среды, куда его помесятт. Круто пиздец. Ну и ещё там есть два режима работы: периодический и хаотический, смысл типа в том, что в такой системе можно один маленький параметр изменить и оно как домино свой режим работы сменит, на этом там память сделали, а ещё где-то там тоже были исследования, что наше внимание так работает, и что с нарушением закона динамики или как то так связаны эпилептические припадки
Короче, анон, я объебался спидами и вот так тоже случайно сюда забрёл, в итоге уже почти неделю не сплю, гуглю какие то статьи, английский не знаю не хуя, но каким-тоо хуем читаю, понимаю че там написнао, типа как тоже хаотическая сеть, крыша едет пиздец, похзоду словил серотониновый синдром, пожрать пытался сразу дристать иду, иллюзия температуры лютая, оказалось 36 6, кажется будто зуб болит и щёки распухди, к стоматологу пришёл, у меня всё норм, это я проходжу сам шёки схъед, но зракам пизда в стоматологии охуел и на улице. Сегодня выбросил остатки, хоть бы хуже не было. Короче анон, это жёсткая темма, она тебя сожрёт, все эти нейроменные сети, китайцы очнеь дохуя работ сделали. http://www.oalib.com/search?kw=chaotic+neural+network Одни китайцы. Ещё на анонов агрился тут, казалось, что я типа всё понял, а они дауны,Ю потом перечитывал и это я даун, а потом опять они и так по кругу. https://www.youtube.com/watch?v=ggpJkuN9eiM
>>926319 Дело в том, что есть разный взгляд на это дело, подавляющее большинство не занимается всякими сомнительными исследованиями и придерживается того, что сеть это некая матмодель/алгоритм, способный за счёт, например, последовательной минимизации ошибки решать конкретную околостатистическую задачу. То есть нейронные сети это не попытки создать электронный мозг, лол, там совсем другие задачи, это широчайший спектр методов автоматизации человеческой деятельности, просто название такое хайповое. Но есть и вот такие ответвления, от них дух захватывает.
>>926319 >а как это кодирование называется вообще? Есть ли термин? Термина нет, как и кодирования, это не та область науки, за этим иди в нейробиологию,когнитивистику и тд
>>926314 >Как мозг переводит хаотичный поток нервных сигналов от органов чувств в целостную картину восприятия? Насколько я понял за эту неделю мозг ничего не переводит, он и есть хаотичный поток! ПРикинь! То есть это такой морфящийся от внешних воздействий электромагнитный контур! >Какие внутренние правила и закономерности регулируют этот сложный процесс? Хуй знает, за этим иди в теорию динамических систем и тд, там пытаются отвечать на подобные вопросы. Я тут как-то угарнул, что мб наверняка один из атких законов/правил уравнение Шредингера, ну оно тип тоже хаогтическое всё такое)0)0
>>926340 >Вообще странно, что некоторые думают, что люди знаю как человек мыслит, лол. Пытаются ответить на вопрос как, сравнивают датчики импульсов, примеряют разные модели, а как же? Это же главный вопрос с начала времен! Приблизиться к тайне сознания!
>>926320 Очень хотел скопировать, пускай даже не слишком осознанно твой стиль сообщения, но решил стереть. Писал о конце света Матроне 10 февраля из-за создания ИИ, приметах по белых пятная на ногтях, эффекте Буба-Куки, фоносемантика, о том, что последнее время многое обращаю на форму, вывожу какие-то геометрические объекты в мир, эйдетика, методичка советская, звук начал смешиваться, люди начали говорить несвойственными голосами, постоянное повторяющее дежавю напоминающее мое предсказание будущего или даже когда отличие возникло, что "если событие Z произошло после события Y, то не обязательно считать, что есмь Yгрек причина события Zет", что во многом и может быть началом человека, стараюсь использовать оба полушария, математика стала выводиться в виде мультиков с геометрическими формами разных геометрий, внутреннего диалога уже как несколько недель нет. И все это при том, что я ничего не употреблял. Вроде даже тебя разумею. Все так, вообще, запуталось, подарили мне браслет с Буддой, а ты пишешь о Агате Кристе и Кришне, что напоминает мозг в банке, но уж солипсизм не подходит. Все перемешалось и пытается в проецирования из одной области знания в другую.
>>926340 >Не-не. Способ аппроксимации нелинейных функций и статистического вывода. Ну сам по себе ценности он мало несёт, мало ли методов всяческих, имел ввиду, что МЛ очень прикладная область математики, по сути для каждого конкретного случая уникальное решение строится, типа большая зависимость от реальной задачи, хотя математика обычно довольно абстрактна, а тут всё суперконкретно, потому такие вопросы тут даже не стоят.
>>926352 >Все перемешалось и пытается в проецирования из одной области знания в другую. Точка бифуркации, друг мой, тонкая грань между тобой и мной стирается, режим работы мозга переходит в альтернативный, Y же вовсе не причина X, это условность, зависящая от того, откуда отсчитывать время, от смерти или от рождения, мне очень нравится концепция теории хаоса, пока ничего более ошеломляющего и правдоподобного не встречал. Огромное фазовое пространство ф пространстве в пространстве, несколько уравнений, аттрактор-гравитатор, все настройки соблюдены, ПУСК! НАЧАЛОСЬ! Невидимые, едва заметные течения гравитационных волн пронизывают всё вокруг, где-то образуется завихрение и возникает планета, а там волну из тысяч людей несёт к точке бифуркации, один случайны из них потом станет Князем, всю свою жизнь он будет думать, что он особенный и это его заслуга, так никогда и не узнав правды, а вон там очередное колебание, произошедшее тысячи лет назад повлекло мутацию растения, так появилась живая клетка, а вон там один из сперматозоидов достиг яйцеклетки. Это такая игра, вроде пасьянса или домино вселенского масштаба, каждая константа должна быть вывереена, любое отклоноение повлечет за собой катастрофу спустя миллиарды лет и мир схлопнется, термин эффект бабочки оттуда же. Бля, конечно, на саомм деле всё на порядки порядков сложнее, но такая концепция наиболее близка к реальности. Меня как отпустит я за математику засяду, хочу разбираться в этом.
что тогда это ведь ощущение структуры пространства,не уверен, что на данном этапе развития человеческого интеллекта будет безопасно придавать этому слишком большое значение и пытаться разобраться, скорее всего это повлечёт неизбежное сумасшествие. Есть математические концепции, одобренные минздравом и внутренние ощущения, вот по ним и стоит гулять. https://www.youtube.com/watch?v=SRr-YgBIiCc
> постоянное повторяющее дежавю напоминающее мое предсказание будущего Феномен Баадера-Майнхоф (Baader-Meinhof phenomenon; frequency illusion/частотная иллюзия) — искажение человеческого мышления, заключающееся в том, что после того, как человек приобрел некую новую информацию, она, как ему кажется, начинает появляться повсюду. Если предположить, что у некоторых сходных событий есть что-то вроде течения и если ты, скажем, как-то боком в этом информационном течении повернулся, то такие вещи вполне могут замечаться, другое дело,
>>926373 >Вы заебали хуйню нести. Блядь, мы понимаем, что в качестве >Способ аппроксимации нелинейных функций и статистического вывода. это всё хуета непрактичная, там на практике вообще очень мало можно сделать, до сих пор нет методов работы с чуть более сложными системами. Дай ты попиздеть о всяком сомнительном , что ж вы фашисты-прикладники такие все. Что работает, то важно, остальное сжечь! Ересь!
>>926380 У меня из-за спамфильтра пост порвался >оба полушария это про ту картинку типа, вообще, правда ведь ИРЛ системы с выраженными левыми и правыми центрами принятия решений наиболее устойчивы? Та же двухпартийная система в мурике, например. Да и много где ещё, борьба левого с правым это ж вообще концепция фундаментальная. Хотя, вроде как это миф на самом деле и у полушарий примерно одинаково распределены функции. Но всё равно прикольно.
>>926394 >это миф на самом деле и у полушарий примерно одинаково распределены функции. Опять хуйня пошла. Нобелевский лауреат Сперри с тобой бы не согласился. Вообще, просьба к школьникам, прежде чем вбрасывать тезис, хоть матчасть почитайте. Или в /сци идите, там половина тредов на нулевой про ИИ, мозг и прочее. Тут про машинное обучение, если кто не заметил.
>>926397 >В «популярной» психологии нередко делаются некорректные обобщающие утверждения о том, что одно из полушарий отвечает за «логику» (левое), а другое за творчество (правое). Такое жесткое разделение не подтверждается исследованиями[3] Оба полушария участвуют и в логическом и в творческом мышлении[4]
Вот про этот миф, ну и >В процессе индивидуального развития выраженность межполушарной асимметрии меняется — происходит латерализация функций головного мозга. Последние исследования свидетельствуют о том, что межполушарная асимметрия вносит существенный вклад в проявление высокого интеллекта человека. При этом в известных пределах существует взаимозаменяемость полушарий головного мозга. Что разделение условно типа, а не жёсткое, может по разному быть, ну и по совсем признакам деление.
>>926411 > у неграмотных людей функциональная асимметрия головного мозга меньше, чем у грамотных >Асимметрия усиливается и в процессе обучения Прикольно,так-то от балды про устойчивость спизданул, мб и правда в этом что-то важное кроется.
>>926579 Анон, что делать? Со мной какой-то пиздец творится. Случайно нагуглил таблетки для похудения, ради интереса заказал, пришло типа по почте в руки, там в составе написано травки и тд, а на деле там сибутрамин, вроде амфетамина, только это я потом уже на третий день без сна и жрачки узнал, помимо этого ещё зуб стал как назло резаться, в одну ночь щека то опухала, горло заболело, я думаю, ну всё, пизда, абсцесс, на след день попёр к стоматологу, а он говорит у тебя всё ок растёт, никаких осложнений или гноя и тд, а по ощущениям лютый пиздец творится,содой с солью поласкай и норм, могу конечно разрезать, но тогда точно будет и темепратура и тд, короче, а я всё это время жрал это говно и не замечал даже, жрать не могу, сразу высираю всё, зрачки на свет еле реагируют, темпераутра будто под 40, меряю 36.6, короче как оказалось мне типа кажется вся эта хуйня, типа как синдром отмены или серотониновый синдром, щёки отекают от жары, но бля постоянно холодно, потом пиздецки жарко,, на холоде посидел видимо иммунитету пизда на шее вскочил прыщ, меня опять загнало, думал фурункул типа уже из зуба тайно гной вышел в челюсть и в кровь попал и всё, скоро мозгу пизда, я прям ощутил боль в затылке, охуеть, во рту сушит, самого прёт, давай в скорую звонить, у меня говрю фурункул ти ь, они говрярт и че типа, ну обратись к стоматлогу, а я думаюк ак и чё я ж сдохнуть могу, корчое попёр опять туда же, тольтко уже в ночной дежурный кабиент, там ещё народ был, с меня пот ручьём льётся, паника, говорить не могу, во ррту сухо ещё зуйг. нёс какую то, встал огляделся чёта говорю а где 25 кабинет, чувак такой так я откуда знаю а чё там, я говолрю ну мне сказали подойти туда где днём был, ну так и чё ты? А я не знаю где он в таком духе, в итоге стоматолог тоже самое сказал, норм всё у тебя, постучал зуб не болит даже, угарать начал ещё, там прыщ тупо маленький простудный, а ты фурункул лол, в итоге яещё домой пришёл и позвонил им, типа вот вы говорили придти я пришёл, нахуя я это сделла хз, меня тян оттуда так и спросила, я говрю а я навеное номера перепутал. Пиздец анон, когда меня отпустит уже, что за жесть аткая, крыша протекает сука.
>>926601 600 метров свободных осталось,я перед этим собирался систему сносить, сейчас же не рискну этим заниматься, вдруг чего не так пойдёт без компа останусь, а это пиздец. Только комп и помогает, пока всякую хуйню читаешь отвлекаешься от глюков.
Чо, посоны, кто из вас знает и использовал МАТЛАБ для машинного обучения? Я вот взял курс в универе и просто охуел - будем все лабы делать на матлабе. Да, там определенно много инструментов, пакетов и всего такого, но бля, я просто охуеваю от языка программирования в нём.
Матлаб конкретно для машинного обучения - шиза полная (для чего-то другого м.б. и норм). У него ебейшие требования к системе, а тут еще за счет самих алгоритмов нагрузка. У того же R по сравнению с матлобом системные требования вообще можно считать нулевыми.
>>927136 >Но она же не просто так Для МЛ матлаб - бесполезная хуитка. Единственное, чего для околоМЛ нет в R, но есть в матлабе - LMITOOL, но настройка линейных систем через линейные матричные неравенства, H-2/H-infinity фильтрацию это не для местных школьников, да и тот же LMITOOL есть в халявном сцилабе.
>>927158 А limsolve? >R package limSolve (Soetaert, Van den Meersche, and van Oevelen 2009) solves linear inverse models (LIM), consisting of linear equality and or linear inequality conditions, which may be supplemented with approximate linear equations, or a target (cost, profit) function. Depending on the determinacy of these models, they can be solved by least squares or linear programming techniques, by calculating ranges of unknowns or by randomly sampling the feasible solution space (Van den Meersche, Soetaert, and Van Oevelen 2009). Amo
>>927170 А вот это? Optimization of convex functions. Problem formulations: 1 Linear programs with cone-constraints. 2 Linear programs with nonlinear-constraints. 3 Quadratic programs with cone-constraints. 4 Nonlinear, convex functions with nonlinear and/or with cone-constraints. In general: All problem formulations are solved by means of interior-point algorithms. A textbook exposition is Boyd and Vandenberghe (2009). The implemention is based on Andersen et al. (2011). Design of R package cccp for solving cone-constrained convex optimization problems. Possible cones: componentwise vector inequalities, second-order cone inequalities and/or linear matrix inequalities.
>>927173 >Possible cones: componentwise vector inequalities, second-order cone inequalities and/or linear matrix inequalities. Это уже больше похоже, но конкретных примеров что-то не нашел.
>>927184 >Once formulated in terms of LMIs, a problem can be solved exactly by efficient convex optimization algorithms (see LMI Solvers). По convex optimization очень много всего есть. http://r-forge.r-project.org/scm/viewvc.php/checkout/pkg/inst/doc/userguide.pdf?root=rmosek
Время платиновых вопросов! Пытаюсь разобраться в градиентном спуске. > Как влияет изменение размера шага? На что кроме скорости и точности? На них же влияет? > Что лучше - большой размер шага или маленький? Если слишком большой то будет не точно, если слишком маленький то долго, так? Так как выбрать? > Важно ли начальное значение тета? Как его выбирать? Я ставлю рандомно, но чую что должна быть какая-то магия. > Что лучше, иметь больше или меньше данных в обучающем наборе? Если тренируется что-то очень простое то чем больше, тем лучше? А если функция сложная, то есть риск перетренировать. > Что будет если добавить шум методом наименьшего градиента? Точечки рассеялись, но почему-то очень.. искусственно, у начала графика функции лежат плотно, а к концу постепенно плавно расходятся, наверное где-то ошибся. > На что влияет сложность функции стоимости метода наименьшего градиента? К-кроме скорости? > На что влияет нормализация в методе наименьшего градиента? Нормализация сгладила рассеивание точек и вроде помогает с переобучением, а что еще?
>>927309 Находится такая функция, чтобы при подставлении в нее всех параметров она проходила через максимальное количество точек данных с максимальным сохранением простоты функции (чтобы не перетренировать).
>>927088 >Чо, посоны, кто из вас знает и использовал МАТЛАБ для машинного обучения? В зависимости от баланса матрицы/словари использую или матлаб или питон. То есть если в задаче много матриц, изображений там, звуков, предобработки, нейроночек и т. п., матлаб хорош. Потому что тот же питон предлагает зоопарк хуевин типа numpy, matplotlib и т. п., а здесь все в коробке, и при этом с родным синтаксисом (а работа с матрицами в матлабе настолько хороша, что все остальные пакеты ее копируют - с неродным для своего языка синтаксисом). То есть к примеру, задача, работник обвел на картинке интересующие объекты красной линией, требуется их превратить в набор масок. Делается это вот так:
Отдельной строкой идет то, что узкие места в матлабе можно компилировать и выполнять быстро. Еще на матлабцентрале есть многое из того, чего нет больше ни на чем. Но вот когда требуется еще распарсить xml или сайты, работать со словарями или sqlite, работать на AWS, тут уже язык общего назначения справляется лучше, несмотря на гемор от использования numpy, PIL, matplotlib, pyopencv, scipy и прочего зоопарка малосовместимой между собой хуйни. В итоге ща питона в работе все больше, а матлабу остается то, с чем не справляется imagemagick - препроцессинг картинок.
А жрать матлаб особо ничего не жрет, жрет его IDE на Java, но во-первых это охуенная IDE с охуенным дебаггером, во-вторых, тормоза выполнению это не добавляет.
По поводу R не знаю, отвращение вызывают те, кто его форсит, уебки какие-то.
>>927352 > По поводу R не знаю, отвращение вызывают те, кто его форсит, уебки какие-то. У него история длинее. Он неплох в обработке данных(тот самый DataFrame, который копируется в pandas).
Вообще же R это в каком-то смысле альтернатива MATLAB и покрывает немного другие задачи, смещённые больше в область статистики. Скажем, если ты аналитик в Nilsen, то это нормальный инструмент. Короче, что-то вроде такого Exel
>>927414 >есть питон, в который все портировали Заебали со своим пистоном. Я уже сто раз приводил ссылки, прямо показывающие, что все, что есть по МЛ в вашем питухоне - это 1-2 профильных пакета для R. В R уже сейчас больше 10000 пакетов, там по одному байесовскому выводу их многие десятки как минимум. Что вы с этим пистоном везде лезете, единственная область МЛ, в которой пистон уделывает R - это сверточная хуйня. В остальном что касается МЛ R и пистон вообще несопоставимы, пистон на этом фоне просто даже на игрушку не тянет, так, посмеяться сойдет. >>927411 >Короче, что-то вроде такого Exel Как там, в 1996 году?
>>927571 Почти все нормальные библиотеки на сях и написаны. В данном случае и пистон и R используются как врапперы. R в данном случае удобнее в разы по той простой причине, что это изначально язык обработки данных, а не рандомная скриптопараша общего назначения, где специфичные для статичтики и МЛ функции реализуются только дополнительными костылями.
Современные разработки в интеллект могут понять текст уровня "Коровка говорит Му-му. Ивашка поздоровался с коровкой. Коровка поздоровалась с Ивашкой. Ивашка убил коровку топором."? И что имеется в виду под таким "пониманием"? Есть ли даже может какие-то разработки по поводу эмпатии?
>>927608 Искусственный идиот может запомнить эти утверждения и по определенным правилам выводить одно из другого. Это будет понимание уровня того что тебе сказать что "какая-то тварь издает какие-то звуки", ты "поймешь" это на уровне запомненных утверждений. Ну ладно, ребенок которого воспитали волки это так поймет, у тебя неизбежно возникнут какие-то ассоциации и мозг попытается заполнить пробелы чтобы какая-то тварь обрела больше атрибутов. Тут мы приходим к тому что "понимание" это построенная в сознании модель какой-то твари. Когда ты при слове какая-то тварь представляешь себе животное с атрибутами, можешь мысленно помещать его в разные ситуации из чего следуют новые выводы, которых не было в утверждениях "какая-то тварь издает какие-то звуки", то это "понимание". Да, в какой-то мере современные разработки это могут, но не используют, потому что невероятно затратно создавать огромнейшую модель с симуляциями для каждой мелочи, при том что потом это все не будет использоваться. Но я пытаюсь сделать что-то такое.
>>927633 Утверждения -> вывод новых утверждений. Утверждения -> создание модели -> ассоциации с другими моделями -> дополнение новыми утверждениями -> симуляция -> дополнение новыми утверждениями -> вывод новых утверждений. Я примотал кошку к лоле изолентой. Жду.
>>927663 >Что тебе не нравится? Страсть к деньгам, непонятливость. Особенно это противно огда девушка липнет к тебе из-за денег. И когда понимает, что деньги у тебя вдруг кончились - вычсняется. что "ты козел, ты урод, я с тобой лучшие годы жизни провела" (2 недели вместе) , "Да я себе лучше найду, ты меня не ценишь, все, что тебе нужно это только секс"... ну все в таком же духе. Да как вы, девушки, понять не можете, что не надо нам от вас ничего, кроме НОРМАЛЬНЫХ отношений. Почему обязательно за отношениями должны стоять какие-то корыстные цели. Деньги, машина. квартира, выйти замуж наконец.. . Почему мужики дружат отлько из-за того, что они могут просто нормально поговорить, пообсуждать какие-то темы. попить пиво и все. . никакой корысти - у вас же все совсем наоборот....
>>927671 >производной e x >derivate e^x-sin(x)^2/arctg(x) Пошёл нахер. >хром >не развернут на полный экран >баннеры >кроме браузера ничего не открыто >implying чтобы делать матанализ нужно что-то кроме тетради и браузера Иди до столба доебись, лол.
Есть мнение, что этот шизик >>927667>>927679>>927686>>927703 тот же самый, который в /math с интуиционизма горит. Пизда тогда этому тредику, если его не выгоните.
>>927713 >интуиционизма Вот, кстати, интересна точка зрения Пуанкаре Пуанкаре был категорически против формалистических взглядов. Он считал, что в основе деятельности математика лежит интуиция, а сама наука не допускает полного аналитического обоснования. Логика необходима лишь постольку, поскольку без строгого логического обоснования интуитивно полученные утверждения не могут считаться заслуживающими доверия.
В соответствии с этими принципами Пуанкаре отвергал не только логицизм Рассела и формализм Гильберта, но и канторовскую теорию множеств — хотя до обнаружения парадоксов проявлял к ней интерес и пытался использовать. Он решительно заявил, что отвергает концепцию актуальной бесконечности (то есть бесконечное множество как математический объект) и признаёт только потенциальную бесконечность. Во избежание парадоксов Пуанкаре выдвинул требование, чтобы все математические определения были строго предикативными, то есть они не должны содержать ссылок не только на определяемое понятие, но и на множество, его содержащее — в противном случае определение, включая новый элемент, изменяет состав этого множества, и возникает порочный круг.
Многие мысли Пуанкаре позже взяли на вооружение Брауэр и другие интуиционисты.
Тоже при изучении теории множеств было ощущение искусственности аксиом ZFC, будто парадоксы пытаются обойти с помощью костылей, хз.
Творческие методы Пуанкаре отличались оригинальностью и эффективностью. Так, он всегда сначала полностью решал задачи в голове, а затем записывал решения. В этом ученому помогали феноменальная память, научная интуиция и воображение. Известно, что Пуанкаре мог слово в слово цитировать все прочитанное и услышанное им на протяжении жизни. Кроме того, он избегал долговременных размышлений над одной и той же темой, считая, что подсознание уже получило условие задачи и будет успешно над ней трудиться до окончательного решения.
>>927411 >Скажем, если ты аналитик в Nilsen, то это нормальный инструмент. Короче, что-то вроде такого Exel У меня сложилось такое же впечатление. Проблема в том, что ML это нихуя не про аналитиков, это как от этих самых аналитиков избавиться. Поэтому для меня ML-guy, использующий R, это как еврей в гестапо. Возможно, но что-то не то.
Адекватно ли такое поведение карты Кохонена? Среднюю ошибку вычислим как среднее арифметическое расстояний от BMU до входного вектора за эпоху. Средняя ошибка вначале попульсовала вокруг 0.10, затем поднялась до 0.12 и за 10000 эпох уменьшилась на 4 тысячные. Функция соседства Гауссова из книжки. 1. Посоветуйте каноничный дата сет побольше ирисов раз в 20 для проверки; 2. Посоветуйте SOM для mixed data, желательно параметризуемый произвольной метрикой (всякие там коэффициенты Гудолла и Лина).
>>927800 Ну знаешь ли. Может быть ты только синтестические данные используешь или приготовленные до тебя, но мне хуеву тучу времени приходится тратить на сбора датасета, его блядскую очистки, приведение к нормализованному-схематизированному виду, чтобы собрать ебучую цсвэшку или 100500 картинок откроппленых как надо. Ебаться с этим в питне слишком сложно. Тот самый pandas.DataFrame == DataFrame в R.
Иногда нужно провести постобработку полученных результатов, диаграммы и хуё моё. R тоже ничегошный варинат, но можно и в python, except, gnuplot и сука awk.
Почему сюда лезут шизоидные школьники-фундаменталисты, которые способны спорить R vs Python, если просто нужен инструмент, чтобы решить задачу?
>>927936 >Средняя ошибка вначале попульсовала вокруг 0.10, затем поднялась до 0.12 и за 10000 эпох уменьшилась на 4 тысячные. Это норма, она вполне может осциллировать. Вроде бы в материалах последней международной конференции по SOM была статья на тему поведения SOM через стохастические дифуры. SOM ты сам пишешь? На чем? И да, ты именно по наследию Кохонена решил угореть, или вообще по адаптивному векторному квантованию? Там так-то много интересного, всякий растущий нейронный газ и т.д. >Посоветуйте каноничный дата сет побольше ирисов раз в 20 для проверки; Для SOM один из самых каноничных сет этот https://archive.ics.uci.edu/ml/datasets/Zoo дело не в размере. А так любые стандартные датасеты.
>>928187 Я студент 3 курса, пишу на джаве, понимаю, что плюсы лучше, но мне надо быстро накодить, и прога будет использоваться ни с чем кроме как с тестовыми датасетами, и я прохожу курсы по джаве в крупной конторе. Пока что классический Кохонен, на руках его книга по сабжу, но я написал библиотечку, которая преобразует csv файл (в перспективе - любой, просто добавь парсер) в удобоваримый формат с автоматическим распознаванием типов токенов и заполнением пропущенных значений (весьма рудиментарно). В ней же я реализовал всякие distance functions, какие только нашел, включая вот эти: http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.140.8831&rep=rep1&type=pdf На основе этой библиотеки я легко реализовал CLOPE и kmeans++, не эти алгоритмы узкоспециализированные, естественно возникла идея реализовать какой-нибудь генерализованный алгоритм кластеризации, тут и Кохонена мне препод предложил реализовать. Хочется, чтобы карта работала с данными любого типа и со всеми метриками, которые есть в библиотеке. По теме ИИ я написал кучу лабораторок и один курсач по теме классификации изображений с помощью FFNN, из этого вышло мало хорошего, такие сети не предназначены для распознавания изображений и я налажал в сверточных функциях, и она могла разве что MNIST хорошо проходить.
>>928257 В бесплатной версии ограничены входные форматы, мне не с чем сравнивать, просто много лаб на нем было.
>>928187 Чистый кохонен дает приемлимые результаты на ирисах, нейроны инициализируются случайными записями из датасета или случайной смесью токенов из разных записей, я буду пробовать PCA, если будет время. Датасет zoo на модифицированной версии карт (фаззи-сет как вес для категориальных данных, наружу торчит его дефаззификация) с различными метриками тоже показывает очень четкий результат.
>>928868 >>928891 Не, ну, я думал вы поймете меня. Короче эмулировать процесс перехода человека на новый уровень абстракции и выделения самого понятия "натуральное число". То есть, когда научились выделять число отдельно от предметов. Вот связать предмет и палец, но при этом как-раз не имея сформированного понятия "количество" (оно нечеткое, максимум "больше-меньше" оперировать да и то не точно на глаз), а как-раз начать его формулирование. И это должна сделать машина.
>>928967 У этого неграмнотно пишушего гуманитария пошла пена ртом, присылайте нового. Читай про генерирование доказательств, перевод логики в красивые понятные человеку словесные конструкции, это работа не машины, а тех несчастных кто будет пытаться доносить крупицы знаний до неосиляющих.
>>929164 мне китаец больше понравился, китаец очень хорошо все объясняет, для идиотов, как я. Но так называемый чеин рул и прочую ерунду школьного уровня повторить не мешало бы. гуманитарий
Аноны, есть цсв файл как на первой картинке. Хочу во время обучения использовать "а" как первый аргумент, "б" как второй и тд. Потом "б" как первый, "с" как второй и тд. Самым простым вариантом будет из первого файла сдвигом сделать второй, но это сожрёт очень много оперативки. Учитывая, что у меня файл 3.5 гигабайта, приделывание к нему дополнительных 100 столбцов не кажется очень хорошей идеей. Можно ли как-нибудь библиотечным алгоритмам объяснить, что им надо брать аргументы так, как хочу я, или придётся менять код в них?
Снова я с Deep Learning, у меня вызывает вопрос следующий отрывок про L_2-регуляризацию: почему выросшая дисперсия во входах заставит алгоритм уменьшить веса у тех факторов, которые коррелируют с таргетом относительно внесенной дисперсии? Потому что на фоне внесенной дисперсии просто не видно исходной корреляции и потому алгоритму выгодно увеличить веса на других, более заметных факторах?
Давайте поговорим за reinforcement learning. Я тут немного погуглил на эту тему, видимо, сейчас в таких алгоритмах используются марковские процессы принятия решений. Кому это выгодно и чем лучше хеббовских уравнений, например? Поясните.
Анон, а есть какой-нибудь минигайд, чтобы хотя бы понимать, что к чему, я вообще 0 в этой теме. Я пытаюсь читать книги, ну да, нейроны, аксоны, дендриды и все такое, но какое это отношение имеет к реальным проблемам? Мне нужно увидеть как это все работает, хотя бы немножко. Думаю, ты понял, анон. Мне из-за этого даже вкатываться не хочется. Может у тебя что-то есть? Был бы очоч благодарен :3
Привет, ребята. Зашёл вам написать что ваш трэд - гавно собачье. Реально, ребята, нихуя не понятно что вы тут пишете. Бля, у меня тут тема наклюнулась одна как лавэшки поднять не парясь. Но нужны нейронки, не буду раскрывать подробностей, для одной хуйни! А я короче в универе когда нам эту бадягу рассказывали ходил на пары под гликодином и я нихуя вообще не помню, мне трояк нарисовали за то что я красивый и умный мальчик, но сути, как эту всю хрень крутить, я не знаю. Так вот, я думал на хабре читнуть за эту тему, хуй, вода одна. Ну думаю двачик выручит, но и тут облом. Матан какой-то, книги на нерусском, вы ебанутые? Может тут есть кто-то, кто без всех этих ваших ботанских фокусов может ввести меня в курс дела? Так чтобы я прочитал, постучал хуем по клаве, скомпилировал и всё было чётенько. Бля, я как представлю что кто-то вникает во всю эту залупу что в оппосте, сразу представляю себе омегана лузера от которого гавном пасёт, НО ЗАТО ОН ДЕРЖИТ В ГОЛОВЕ ВСЕ ЭТИ ГОВНОФОРМУЛЫ. давайте, я верю в вас
>>931058 Скайнет они делают. Чтобы терминаторы всех нас перестреляли или загнали рабами в матрицу, электронный концлагерь. Предатели рода человеческого. Есть версия, что упоминаемый в Библии зверь и антихрист - это ИИ, который обрел личность и поработил человечество.
>>931096 >ИИ - всего лишь массив Но массив - это конструктивный объект, а они всегда сводятся к натуральным числам. Получается, ИИ - натуральное число?
>>931147 разумеется ИИ принадлежит N, никто это даже не обсуждает суть в том что петушки вроде долбоёба сверху могут составить простой массив Float32 чисел и, хитрожопо их перемножив, грести бабло
>>930078 Нормально в целом, никогда больше не буду жрать мутные таблетки неизвестного происхождения. Но не наебали, лол, 13 кг таки скинул за неделю. Только нахуй такие методы похудения.
>>931058 >без всех этих ваших ботанских фокусов Ну бля, ты как хотел то? Тогда бы уже все давно такие вот темки мутили да лавэ поднимали. А так те, кто знает темки не шарят в ботанской хуйне, а ботаны не шарят в темках, потому либо запаривайся на всю эту хуйню, либо ищи стартовую лавэшку на ЗП ботану.
Я таки настаиваю на обсуждении reinforcement learning. Я вот тут поставил openai universe и gym, посмотрел примеры. Но самому что-то под них запилить даже не представляю как - ничего не нагуглил, ни одной книги с детальным изложением не существует, ни одного внятного туториала даже. Кто-нибудь пробовал этот софт? Расскажите.
>>931147 Любая вещь, которой можно дать определение текстом (то есть то, о чем люди в принципе могут разговаривать между собой), является натуральным числом.
Парни, сейчас февраль-месяц, а значит скоро писать диплом.Посоветуйте, на что обратить внимание при выборе темы.Умею в программирование, мат. статистику. Хочу двух зайцев убить.
Скачал сам файл с его гитхаба, запустил и что я вижу. Universe, gym и все что нужно установлено и даже работает, так что там правда код хуем писан. Наверное, не предполагалось, что его кто-то будет запускать.
Вот за что я и не люблю этот ваш пейстон - даже если все правильно установлено и работает, в любое время может вылезти сюрприз. И хуй выяснишь причину. >>932983 У меня на такой случай six установлено для совместимости. И да, у тебя этот код работает?
>>933199 Анал-карнавал, люблю пистон, люблю глинукс... (env) canterel@LocusSolusStation:~/openai$ pip install gym[atari] Requirement already satisfied: gym[atari] in ./env/lib/python3.5/site-packages Requirement already satisfied: numpy>=1.10.4 in ./env/lib/python3.5/site-packages (from gym[atari]) Requirement already satisfied: pyglet>=1.2.0 in ./env/lib/python3.5/site-packages (from gym[atari]) Requirement already satisfied: requests>=2.0 in ./env/lib/python3.5/site-packages (from gym[atari]) Requirement already satisfied: six in ./env/lib/python3.5/site-packages (from gym[atari]) Requirement already satisfied: Pillow; extra == "atari" in ./env/lib/python3.5/site-packages (from gym[atari]) Collecting atari-py>=0.0.17; extra == "atari" (from gym[atari]) Using cached atari-py-0.0.18.tar.gz Collecting PyOpenGL; extra == "atari" (from gym[atari]) Requirement already satisfied: olefile in ./env/lib/python3.5/site-packages (from Pillow; extra == "atari"->gym[atari]) Building wheels for collected packages: atari-py Running setup.py bdist_wheel for atari-py ... error Complete output from command /home/canterel/openai/env/bin/python3 -u -c "import setuptools, tokenize;__file__='/tmp/pip-build-3zhhi6wu/atari-py/setup.py';f=getattr(tokenize, 'open', open)(__file__);code=f.read().replace('\r\n', '\n');f.close();exec(compile(code, __file__, 'exec'))" bdist_wheel -d /tmp/tmp0y4ui8plpip-wheel- --python-tag cp35: running bdist_wheel running build make: вход в каталог «/tmp/pip-build-3zhhi6wu/atari-py/atari_py/ale_interface» mkdir -p build && cd build && cmake .. && make -j4 /bin/sh: 1: cmake: not found Makefile:4: ошибка выполнения рецепта для цели «build» make: [build] Ошибка 127 make: выход из каталога «/tmp/pip-build-3zhhi6wu/atari-py/atari_py/ale_interface» Could not build atari-py: Command '['make', 'build', '-C', 'atari_py/ale_interface', '-j', '1']' returned non-zero exit status 2. (HINT: are you sure cmake is installed? You might also be missing a library. Atari-py requires: zlib [installable as 'apt-get install zlib1g-dev' on Ubuntu].) Traceback (most recent call last): File "<string>", line 1, in <module> File "/tmp/pip-build-3zhhi6wu/atari-py/setup.py", line 36, in <module> tests_require=['nose2'] File "/usr/lib/python3.5/distutils/core.py", line 148, in setup dist.run_commands() File "/usr/lib/python3.5/distutils/dist.py", line 955, in run_commands self.run_command(cmd) File "/usr/lib/python3.5/distutils/dist.py", line 974, in run_command cmd_obj.run() File "/home/canterel/openai/env/lib/python3.5/site-packages/wheel/bdist_wheel.py", line 199, in run self.run_command('build') File "/usr/lib/python3.5/distutils/cmd.py", line 313, in run_command self.distribution.run_command(command) File "/usr/lib/python3.5/distutils/dist.py", line 974, in run_command cmd_obj.run() File "/tmp/pip-build-3zhhi6wu/atari-py/setup.py", line 16, in run subprocess.check_call(cmd) File "/usr/lib/python3.5/subprocess.py", line 581, in check_call raise CalledProcessError(retcode, cmd) subprocess.CalledProcessError: Command '['make', 'build', '-C', 'atari_py/ale_interface', '-j', '1']' returned non-zero exit status 2
---------------------------------------- Failed building wheel for atari-py Running setup.py clean for atari-py Failed to build atari-py Installing collected packages: atari-py, PyOpenGL Running setup.py install for atari-py ... error Complete output from command /home/canterel/openai/env/bin/python3 -u -c "import setuptools, tokenize;__file__='/tmp/pip-build-3zhhi6wu/atari-py/setup.py';f=getattr(tokenize, 'open', open)(__file__);code=f.read().replace('\r\n', '\n');f.close();exec(compile(code, __file__, 'exec'))" install --record /tmp/pip-n4cbocms-record/install-record.txt --single-version-externally-managed --compile --install-headers /home/canterel/openai/env/include/site/python3.5/atari-py: running install running build make: вход в каталог «/tmp/pip-build-3zhhi6wu/atari-py/atari_py/ale_interface» mkdir -p build && cd build && cmake .. && make -j4 /bin/sh: 1: cmake: not found Makefile:4: ошибка выполнения рецепта для цели «build» make: [build] Ошибка 127 make: выход из каталога «/tmp/pip-build-3zhhi6wu/atari-py/atari_py/ale_interface» Could not build atari-py: Command '['make', 'build', '-C', 'atari_py/ale_interface', '-j', '1']' returned non-zero exit status 2. (HINT: are you sure cmake is installed? You might also be missing a library. Atari-py requires: zlib [installable as 'apt-get install zlib1g-dev' on Ubuntu].) Traceback (most recent call last): File "<string>", line 1, in <module> File "/tmp/pip-build-3zhhi6wu/atari-py/setup.py", line 36, in <module> tests_require=['nose2'] File "/usr/lib/python3.5/distutils/core.py", line 148, in setup dist.run_commands() File "/usr/lib/python3.5/distutils/dist.py", line 955, in run_commands self.run_command(cmd) File "/usr/lib/python3.5/distutils/dist.py", line 974, in run_command cmd_obj.run() File "/home/canterel/openai/env/lib/python3.5/site-packages/setuptools/command/install.py", line 61, in run return orig.install.run(self) File "/usr/lib/python3.5/distutils/command/install.py", line 583, in run self.run_command('build') File "/usr/lib/python3.5/distutils/cmd.py", line 313, in run_command self.distribution.run_command(command) File "/usr/lib/python3.5/distutils/dist.py", line 974, in run_command cmd_obj.run() File "/tmp/pip-build-3zhhi6wu/atari-py/setup.py", line 16, in run subprocess.check_call(cmd) File "/usr/lib/python3.5/subprocess.py", line 581, in check_call raise CalledProcessError(retcode, cmd) subprocess.CalledProcessError: Command '['make', 'build', '-C', 'atari_py/ale_interface', '-j', '1']' returned non-zero exit status 2
>>933330 Ну и как его использовать для 2го пистона? Он установлен для 3его, второй его не видит, но при попытке поставить пишет, что уже установлено. Неукоснительное соблюдение взаимоисключающих параграфов? Зачем вообще этот анал-карнавал с версиями? Мало одной параши, надо развивать параллельно две несовместимые.
>>933759 Пистон второй точно установлен, пип2 и 2.7 в принципе не существуют. >Не знаю как там в убунтах Ты эту парашу на винде гоняешь? Пиздец. Помню пару лет назад ставил на винду пистон и теано, вот где цирк с конями. В итоге при проверке вылезло где-то тысячи полторы ошибок. На бубунте всего 20 предупреждений и все даже более или менее работало.
>>933765 > Ты эту парашу на винде гоняешь? Нет, у меня другой дистрибутив (Gentoo), тоже третий питон по умолчанию, но приложения для второго устанавливаются и работают через pip2.7. Видать в Ubuntu как-то по другому сделано.
Вроде же есть нейроморфные процессоры даже по миллион нейронов. Так почему таких не выпустить много и не сделать из них датацентр, где запустить симуляцию мозга человека?
Получается каждый нейрон в мозгу хранит некий концепт и даже для каждой маленького смайлика и иконки? То есть, я трачу нейроны на смайлики и иконки? И на логотипы?
Я тут вообще мимокрокодил и в программировании совсем плох, но для решения одной банальной задачки решил написать свою первую нейросеточку.
Возможно, не по адресу, но раз уж вы тут это обсуждаете, то мб кто поможет.
Нейросетку пишу на питоне с использованием библиотеки Keras, посмотрел пару видеоуроков, как там всё запустить, но в них разбираются стандартные датасеты типа Mnist (70тысяч_цифр_написанных_вручную) и т.д.
И они в этом керасе вообще встроенные
Так вот мне интересно, как подключить собственный датасет? Для моей задачи это будет txt файл с двумя стобцами чисел. Первый- это входные данные, второй- то, что требуется "предсказать". И на этом я хочу сетку обучать.
Что такое TensorFlow? TensorFlow - опенсорсный гугловый инструмент для перемножения тензоров и оптимизации функционалов. Опенсорсный - потому что даже важные куски типа параллелизации уже выкачены в паблик. Если вам все ещё непонятно что это, значит это вам и не нужно, сириусли. Google перестарался с рекламой и теперь люди думают, что TF - это серебряная пуля и затычка для каждой бочки. До TF был Theano, который выполнял свою работу не хуже. И, в отличии от TF, он уже находится в стабильной фазе.
>>921502 (OP) Посоветуйте, пожалуйста, на C# библиотеку с линейной алгеброй и чтобы в ней была функция reshape или подобная. Суть функции в том, что она меняет размер матрицы на заданный. Ну, и чтобы все основные операции были реализованы * / - + и т.д.. Math.NET не советовать
Я уже тута писал про один очень недооцененный класс алгоритмов МЛ - GMDH (МГУА, метод группового учета аргументов), разрабатывавшихся академиком Ивахненко, теперь повод вспомнить тему еще раз, в связи с недавно вышедшей пикрелейтед книжкой. Книжка примечательна тем, что содержит не только всю теорию МГУА и пояснения за нее на пальцах и конкретных примерах, но и кучу реализаций конкретных алгоритмов (в тексте книги полные листинги). Правда, на матлабе и это недостаток.
Так, тред не читай - сразу шитпость. Препод, видимо как "самому подающему в этой шараге надежды", выдал охуительную тему на курсовую (на 2 семестра) и съебал в закат. Хуй с ним с аутизмом в стенах этой шараги; суть темы - распознавание образов с изображения с камеры с помощью deep neural network. Допустим, с получением изображения с ведрокамеры я разберусь. Что навернуть, чтобы быстро войти в курс дела по поводу собственно распознавания образов? немного знаю основы НЕЙРОНОЧЕК, но и то преимущественно по вводному курсу на ulearn и паре статей на хабре
>>921502 (OP) Почитал про шад. То есть ОП говорит, что туда не смысла идти. Хотелось бы еще мнений. Алсо вступительный у них не особо то и сложный. мимо_студент_мехмата
>>935210 У меня тоже были такие сомнения и я хотел что-то подобное и передать преподу, но разве нельзя все прогнать на пекарне, а потом необходимые коэффициенты куда-нибудь сохранить? В случае с "классической" одно/много-слойной нейроночкой как на пикрил это выглядит реальным. Или это не везде так работает?
>>935223 В таком случае этот >>935185 тебе дело советует. Кроме Слесарьфлоу разве что в MXNet можно фотки с телефона сверточным нейроночкам подсовывать.
>>935405 Deep reinforcement learning пердолят всего лишь. Но сам этот метод крайне годен, именно в этой области можно ожидать если и не ИИ, то всяких роботов-заменителей дотационных людишек на производстве.
>>935279 >Эта книга пойдет как первая? Нет. Теория статистического обучения точно не для начинающих. В твоей книжке с самого начала про всякие радемахеровы сложности, пространство Вапника-Червоненкиса, кернел методы и прочее такое. С этой книжки вкатываться - гарантированно соснешь уже на первой главе.
>>935279 господи, где вы только это находите? Да начни ты с туториалов в интернете и на ютубе. Заимлементи или тупо перепечатай уже рабочие простые примеры, например простейшую сеть XOR. Ты узнаешь намного больше, чем зачитывая теоретические трактаты.
>>935223 Тренировать нейронки на телефоне это конечно ты торопишься, может через годика 3. Натренируй модель, сохрани, на телефоне просто загружай и подсовывай в forward pass то, что ты хочешь запроцессить. Еще, tensorflow, очень жирный, есть фремволки поскромнее и попроще.
>>935223 и да тему тебе препод дал просто охуительную, в традициях отсталого совкового образования, это даже не тема для дисера, т.к. в распознавании жоп нет ничего инновационного, все это уже давно делают. Значит, что тебе надо сделать это просто собрать из уже готовых кусков. Выбери самый удобный для себя фрейволк и поищи на просторах необъятного уже готовый пример сверточной сети, адаптируй под свои данные, профит! Например вот уже готовая сверточка для МНИСТа, https://github.com/torch/demos/blob/master/train-a-digit-classifier/train-on-mnist.lua
>>935619 А как-же любимое требование совковских преподов, что нужно писать только на Сплюсьплюсь и и без сторонних библиотек? Это же не вы написали, как вы можете это использовать? И вообще совсем обленились, ничего делать не хотят. Вот такое вполне на дисер пойдет
>>935710 сплюс чито? что, реально требуют, чтобы вы сами все имплементили на с++? ояебал, да причем тут язык вообще? Или ты на погромиста учишься, тогда оно понятно, но почему тема из visual computing? препод наверное хочет, чтобы помимо сеточки ты въебал инновацинную с++ машоб либу. Но тут скорее другое, он просто еблан, которые сам не понимает сложности задачи, в итоге будет произведено тонны унылого неоптимизированного говнокода и сутки бессонный ночей ради работы, которая нахуй никому не нужна и цитироваться нигде не будет кроме мухосрандии. Рассказываю как это происходит в бездуховной. Ищешь себе супервайзера, тему тебе дают либо ты сам выбираешь, всем похуй на чем, как и с использованием чего ты будешь писать. Но если тебя уличат в плагиате или ты там заиспользуешь либу, которая не опенсурс, тебе пиздец. Но пока ты юзаешь опенсурсы, делаешь прототипы на питончике и гоняешь их на 50 университестких GTX TITAN X тебе по большому счету похуй с++, т.к. эти машины могут даже в гавнокод на питоне. и так делает 90% бездуховных выпускников. я ни в коем случае не против с++, я за эффективное использование ресурсов.
>>935772 а тут ебаный отсталый совок, где профнепригодный преподавательский состав, могущий только в с/с++. он просто ленивая скотина, которая не хочет читать твой няшный функциональный код. он бы еще ассемблер предложил или обжектпаскаль, нет, он хоть сам раз имплементил сеть на плюсах?
и что значит "не вы написали", это твои инструменты как будущего спеца. ты если либ знать не будешь, нахуй пойдешь на собеседовании и твое место займет бездуховных Карл, который слабал на скорую руку на питоше, но зато смог изучить тенсорфлоу или теано.
дисер на то и дисер, ты делаешь прототип, защищаешь свою гипотезу, публикуешь результаты, а потом пилишь стартап, переписываешь все на плюсы или джаве и покупаешь феррари :)
>>935223 Для нормальной уже натренированной сетки (Гуглнет, например), прогон на твоем тилафоне секунд десять будет, а то и больше. Да и памяти там надо много разом. Лучше поставь вебсервис (deepdetect какой-нибудь), и ему посылай картинки, делов совсем нихуя.
Почему тут многие пишут, что мол не нужно сильно рубить математику? Даже в SVM, чтобы понять, что за спрямляющее ядро и почему оно работает, и почему должно удовлетворять определенным свойствам, нужно рубить неплохо в функане и аналит. геометрии.. Черт меня дернул писать диплом по сервису рекомендаций.
>>936336 Нахуя тебе это понимать-то? Все равно from sklearn import svm, а потом автоматический тюнинг гиперпараметров. Если пойдешь в рисерч, то конечно нужно весь продвинутый матан знать, а для прикладного дата сайенса это всё мимо.
>>936336 >Почему тут многие пишут, что мол не нужно сильно рубить математику? Чтобы пользоваться и худо-бедно понимать, что вообще происходит - действительно не нужно. >Даже в SVM, >Даже Алгоритмы на основе статистической теории обучения как раз очень сложные, по сравнению с теми же нейроночками.
>>936424 Смотря как маршрут ищешь. Традиционно нет конечно, но ты достань со шкафа дедушкину бороду и клетчатую рубашку с очками, надень, и забацай-ка BigData MachineLearning IoT Blockchain Framework для Node.js для поиска пути между крафтовыми пивоварнями и барбершопами. Не забудь выложить на гитхаб. ML это метод решения задачи, грубо говоря.
Китаезу глянуть стоит, Andrew Ng. Можешь ШАД, если сильно хочется на русском.
R, MatLab. А связка C/C++ и Python прижилась по следующей причине. Си быстрые, но прототипировать что-то на них ты замаешься - больше будешь с языком сражаться, чем с задачей. Питон медленный, но прототип на нем пишется легко и непринужденно.
>>936463 Т.е. если у меня из входных данных есть только гео характеристики ландшафта (перепады высот, водоёмы) и надо проложить оптимальный маршрут, то оно того стоит?
>>936475 Чисто с точки зрения здравого смысла. Ты правда веришь, что говноконтора "яндекс", из айти-продукции создающая только рекламу и сующая ее во все дыры, может в МЛ? У них на гитхабе МЛ-проектов меньше чем у среднего индуса-студента - полтора враппера на пистоне.
>>936484 Гитхаб не показатель как по мне. У яндекса есть поиск как никак и неплохая рекомендодательная система в ЯМузыке, из того, что я знаю. Ну ,и как по мне, вся прикладная информатика держится на торгашах и рекламе, поэтому >из айти-продукции создающая только рекламу не мешает им разбираться в дата саенс. Но я обдумаю твои мысли. Надеется, что сюда заявятся студенты шада, видимо, не приходится.
Попытался въехать в тему интереса ради. Без математики нехуй ловить. В школе я ебланил, институт не профильный, а самому изучить можно, но уж больно дохуя: освежить функции, теорию пределов, дифференцирование, итегральная поеботина как минимум.
Pattern Recognition and Machine Learning, Bishop.
Information theory, inference & learning algorithms, MacKay http://www.inference.phy.cam.ac.uk/itila/
Machine Learning: A Probabilistic Perspective, Murphy
Introduction to Statistical Learning ( http://www-bcf.usc.edu/~gareth/ISL/ISLR%20Sixth%20Printing.pdf )
Elements of Statistical Learning ( http://statweb.stanford.edu/~tibs/ElemStatLearn/printings/ESLII_print10.pdf )
Foundations of Machine Learning, أشهد أن لا إله إلا الله وأشهد أن محمد رسول الله. http://www.cs.nyu.edu/~mohri/mlbook/
Fundamentals of Neural Networks: Architectures, Algorithms, and Applications, Fausett L.
А. Пегат, "Нечёткое моделирование и управление"
другое
http://libgen.io / http://bookzz.org/ - здесь можно одолжить ^ книги и не только
http://arxiv.org/find/all/1/all:+nejronochki/0/1/0/all/0/1
https://www.reddit.com/r/MachineLearning/wiki/index
https://vk.com/deeplearning и http://deeplearning.net/reading-list/
https://www.kadenze.com/courses/creative-applications-of-deep-learning-with-tensorflow/info тюториал по slesarflow
http://rgho.st/8g68fTCSx две брошюры по deep learning для слесарей.
http://kaggle.com - весёлые контесты. денежные призы
https://www.hackerrank.com/domains/ai/machine-learning/difficulty/all/page/1 - олимпиадки
курс от китаёзы
http://videolectures.net/mlss09uk_cambridge/
яп
1. http://julialang.org/
2. https://www.microsoft.com/en-us/research/project/infernet/
3. https://www.r-project.org/
4. питухон и так все знают
5. idris/coq - модные яп для формально верифицированных нейроночек с тренировкой на этапе компиляции
ПЛАТИНА
Книги хорошо, но с чего начать практический вкат?
Во-первых, вам нужна любая unix-based система. На Windows возможно запустить нижеперечисленное, но ждите пердолева с настройкой и неодобрительных взглядов анонимуса. Кроме того, в компаниях, так или иначе связанных с разработкой йоба-ПО и machine learningом, Linux/OS X является стандартом. Привыкайте.
Во-вторых, определитесь с языком. Python и C++ наиболее мейнстримовые инструменты, с ними вы без еды не останетесь. Есть еще R, на котором пацаны живут статистикой и анальными пакетами. Некоторые инструменты являются языко-независимыми (Vowpal Vabbit, XGBoost), но обвязывать их вы все равно будете из какой-либо среды.
На Java разработано много production-ready инструментов для бигдаты и если вы угораете по терабайтам данных, то имеет смысл посмотреть в её сторону. Впрочем, лучше это делать уже потом, когда прийдет осознание потребностей.
В-третих, выбирайте себе задачу. Что угодно: распознать качпу, обнаружить ботов по логам, найти раковых больных. Список можно посмотреть, например, на kaggle.com. После чего приступаете к решению выбранной задачи.
Не прийдется ли мне потом с таким наборищем знаний идти в макдак работать?
Несмотря на хайп вокруг ML, далеко не во всех IT компания есть необходимость в ML и понимание круга задач, которые можно решить этими методами. Но поверьте, в 2017 компетентный специалист будет востребован. В России потребителями ваших знаний могут стать: Яндекс, Mail.ru, Вконтакте, Rambler, Касперский, Билайн, Связной, ABBYY, Хуавэй. В биоинформатике есть определенный спрос, можно поскролить http://blastim.ru
Здорово, но я так и не понял чем же вы занимаетесь в IT компаниях?
Попытаюсь ответить со своей колокольни и сразу хочу предупредить, что это едва ли консенсуальное мнение.
ML-специалист - это такое зонтичное определение для человека, способного увидеть проблему, выгрепать кучу логов и данных, посмотреть на них, придумать решение проблемы и врезать это решение его в продакшн. По сути, это кодер, решающий не чисто технические, а, в некотором роде, человеческие проблемы.
Имхо, мы все же остаемся в первую очередь разработчиками.
Что такое TensorFlow?
TensorFlow - опенсорсный гугловый инструмент для перемножения тензоров и оптимизации функционалов. Опенсорсный - потому что даже важные куски типа параллелизации уже выкачены в паблик. Если вам все ещё непонятно что это, значит это вам и не нужно, сириусли. Google перестарался с рекламой и теперь люди думают, что TF - это серебряная пуля и затычка для каждой бочки. До TF был Theano, который выполнял свою работу не хуже. И, в отличии от TF, он уже находится в стабильной фазе.
будет ли ML нужен в ближайшие 10 лет, или это просто хайп?
будет. хайп.
смогу найти работу?
Яндекс, мейлру, касперский, несколько биоинформатических компаний (iBinom, можно еще blastim.ru поскролить на тему работы), билайн (они с НГ целое подразделение открыли под ML и биг дату), связной. Ну и западные аутсорсы, если готов рачить за валюту.
нужна математика?
для начинающего ничего особого знать не нужно
https://www.amazon.co.uk/Calculus-Michael-Spivak-x/dp/0521867444
https://www.amazon.co.uk/dp/0534422004/ref=pd_lpo_sbs_dp_ss_2?pf_rd_p=569136327&pf_rd_s=lpo-top-stripe&pf_rd_t=201&pf_rd_i=0980232716&pf_rd_m=A3P5ROKL5A1OLE&pf_rd_r=3TZ38AZ2BY28R19H4SA5
https://www.amazon.co.uk/Calculus-Several-Variables-Undergraduate-Mathematics/dp/0387964053
https://www.amazon.co.uk/Introduction-Probability-Dimitri-P-Bertsekas/dp/188652923X
"основы теории вероятностей" Вентцель
поясните за нейроночки
нейроночка - массив
шад)))
Нет там ничего ML-специфичного, знание матана и теорвера на уровне заборостроительного вуза. Теорвер проходится на третьем курсе, как раз 20 лет.
Рандомный хрен туда не сможет поступить, потому что планка намеренно задрана, а не потому что там такая охуенно сложная программа. Это традиционная наебка "элитных учебных заведений", в которой учат так же хуево, как и везде, но за счет отбора поступающих якобы формируются неебовые успехи, которые объясняются именно качеством преподавания.
Иными словами, у тех, кто способен поступить, и так в жизни проблем с трудоустройством не будет.
Тред #1: https://arhivach.org/thread/147800/
Тред #2: https://arhivach.org/thread/170611/
Тред #3: https://arhivach.org/thread/179539/
Тред #4: https://arhivach.org/thread/185385/
Тред #5: https://arhivach.org/thread/186283/
Тред #6: https://arhivach.org/thread/187794/
Тред #7: https://arhivach.org/thread/196781/
Тред #8: https://arhivach.org/thread/209934/
Тред #9: https://arhivach.org/thread/223216/
Тред #10: https://arhivach.org/thread/234497/