24 декабря Архивач восстановлен после серьёзной аварии. К сожалению, значительная часть сохранённых изображений и видео была потеряна. Подробности случившегося. Мы призываем всех неравнодушных помочь нам с восстановлением утраченного контента!
Очередной тред про хипстерские технологии, которые не работают. Продолжаем спрашивать очевидные вещи, о которых знает любой индус, прочитавший хоть одну книгу по машобу.
Список дедовских книг для серьёзных людей: Trevor Hastie et al. "The Elements of Statistical Learning" Vladimir N. Vapnik "The Nature of Statistical Learning Theory" Christopher M. Bishop "Pattern Recognition and Machine Learning" Взять можно тут: http://libgen.io/
Напоминание ньюфагам: немодифицированные персептроны и прочий мусор середины прошлого века действительно не работают на серьёзных задачах.
>>1281102 >А как же нейроны перцептроны, все вот это. ты по верхам нахватался какой-то хуйни. ну нельзя сделать стол, если не понимаешь и не умеешь работать с деревом, инструментами и тд. так и тут.
>Trevor Hastie et al. "The Elements of Statistical Learning" Читал кто-нибудь? Мне кажется, он издевается над теми, кто пытается прочитать эту книжку самостоятельно. Почти за каждым знаком равно в любой формуле у него скрывается около страницы преобразований через свойства матожиданий и интегралов, а он даже никакими пояснениями не сопроваждает. Просто >исходная формула >= уже близкая к конечной промежуточная формула >= конечная формула Я должен ему верить на слово и пропускать или просто туповат и нормальным пацанам все очевидно, они раскрывают и преобразовавают за секунды в уме?
>>1281193 Общепринятая практика. Если это не какое-то новое исследование, то обходятся без выкладок, иначе книги были бы раза в полтора толще. >Я должен ему верить на слово и пропускать Хочешь - верь, не хочешь - проверяй. >нормальным пацанам все очевидно Смотря что. Большая часть хуйни про преобразования выветривается напрочь уже через год, после того как ты её в вузике надрочил.
>>1281193 Цитирую первую главу (Introduction): >Who Should Read this Book >We expect that the reader will have had at least one elementary course in statistics, covering basic topics including linear regression. >As statisticians, our exposition will naturally reflect our backgrounds and areas of expertise.
>>1281200 >We expect that the reader will have had at least one elementary course in statistics У нас в униче была статистика. И регрессия, и оценки параметров, и проверки гипотез. Проблем особо не было. Но если я взгляну на какую-нибудь из простых формул, то уже не вспомню, как мы ее выводили на семинаре. А тут еще сложнее, потому что не какие-то популярные свойства выводятся, а специальные формулы для определенных задач.
>>1281193 Ты туповат, потому что не умеешь абстрагироваться. Представь себе обезьяну, которая видит в тексте что-то типа 31334*43434=1360960956 и начинает это всерьез проверять, и не может читать текст, не поняв, а почему 4х4 это 6 и 1 в уме. Вывод формул это вообще последнее, что нужно в книжках.
>>1281214 Ну да, чтобы закончить мысль: важнее понимать, что значат цифры 31334 и 43434 в моем примере, а дальше поверить на слово про вывод и понять уже, что следует из 1360960956. Промежуточные этапы уже не нужны.
>>1281202 ну почти всегда от того что ты увидишь КАК произвели длинную цепочку преобразований с матрицами тебе легче не станет очень хочется -- сядь сам их произведи, там ничего сложного не бывает, когда идею показали
Анон, помоги советом, не совсем по теме, но очень близко. Попытался читать MIT'шную книгу Deep Learning на ангельском. Мой уровень B1-B2, но это ужасно долго выходит. На 5 страниц введения ушло 35 минут, так как раньше никакой литературы на английском не читал (пробовал Гарри Поттера от скуки, после страниц 10 забросил из-за недостатка прилагательных, коих в русском хоть голыми руками ешь). Так вот вопрос. Вкатываться в дипльонинх особо не собираюсь, просто попробовать, лежит к этому душа или нет, так что во времени я не ограничен, но стоит ли начинать читать книги на чужом языке, прыгая прямо в машоб с головой? Может мне все же улучшить язык сперва, а потом уже переходить к таким вещам? Пока читал, много раз ловил себя на мысли, что я перевожу целое предложение, и на это тратилось больше времени, чем когда я просто читал и думал на английском. Рефлекторно как-то оно выходило, когда встречал незнакомое слово и начинал его гуглтранслейтить. Может это через страниц 100 пропадет и я зря переживаю? В общем дайте совет, чтобы я лишнее дело не делал, практика в английском посредством изучения машоба адекватное решение или я обосрусь и ничего не пойму?
>>1281252 Ну я в далеком 2007 был слабым киберкотлетом и общался с англоязычным комьюнити на форумах и в тимспике. Потом на собеседованиях проходил тесты, которые давали, там и показало Upper-Intermediate. Так вот и получилось. А по поводу художественной литературы ну очень не понравилось читать без родной описательной воды. Также часто читаешь, переводишь то, что непонятно, в словаре и думаешь: "Они сложили два слова и получилось новое, при том с другой, хоть и близкой, смысловой нагрузкой. И как мне это теперь понять, это далеко от привычного мне английский-хуиский, тут в разы сложнее конструкции." Также этот геморрой с временами. Видел классный сайт (metod12.com), там алгоритмически расписано построение предложений англичанами, но на автомате я так делать никогда не умел, всю жизнь строил простые предложения и не мучал свои мозги, хотя это уже немного вдаль от моего вопроса. И все же спасибо за ответ, постараюсь пересилить себя. Боюсь, что в начальных главах с математикой буду беспомощно болтыхаться, так как я её уже давно забыл, а каким образом её понимать на чужом языке я вообще понятия не имею.
>>1281261 Я только первую часть хотел прочесть, чтобы необходимые штуки из математики вспомнить/выучить. Дальше думал выбрать что-то другое. После того, как впитаю вышеуказанное, попробую следовать твоему совету, спасибо! Или лучше сразу пробовать cs231n?
Ну вот китайцы впихнули Instance Normalization в ResNet и улучшили на процент. https://github.com/XingangPan/IBN-Net Это что, наука? Нет, это пляски с бубном.
>>1281076 (OP) Что делать, если мне не нравится машинное обучение, а "классическое" программирование? За машобом будущее, все остальные программисты очень скоро станут не нужны. И что же мне делать, если я не хочу заниматься машинным обучением?
>>1281304 > За машобом будущее, все остальные программисты очень скоро станут не нужны. Бред же. > И что же мне делать, если я не хочу заниматься машинным обучением? Страдай.
>>1281303 >Это что, наука? Нет, это пляски с бубном. Ой блядь, еще один верующий в науку, в непогрешимость и святых ученых, а сейчас людишки-то не те пошли. А потом появляются посты про "настоящие исследования", в которые ты не попадешь.
Наука так и устроена, прикинь. Вот блядь ровно так. Ты просто первый раз в жизни с ней столкнулся.
>>1281168 >Перцептрон это последовательность многомерных линейных регрессий, связанных между собой через нелинейное преобразование Получается, сеть из перцептронов, это что то вроде полиномиальной регрессии? Можешь привести пример там где используется линейная регрессия и полиноминальная и где нужны нейронки уже с их бэкпропом, а то я чет не понимаю.
>>1281321 >Наука так и устроена, прикинь Сейчас больше уклон в теоретику, профиты от этого матанопетушня давно пользует, а вот всякие физики относительно недавно.
>>1281325 > Получается, сеть из перцептронов, это что то вроде полиномиальной регрессии? А каждый нейрон с двумя входами представляет частную функцию от полного полинома. Потому что полином любой степени можно представить через суперпозицию частных функций от двух переменных. Это ещё в 50е годы доказали Арнольд и Колмогоров. А теперь мне тут рассказывают про то, что современный машобчик это дохуя новые технологии. Да все это статистика максимум середины прошлого века.
Не понял с чего вкатываться лучше: с http://www.deeplearningbook.org или с Pattern Recognition and Machine Learning. Вроде как в шапке написано что с первой, но ведь deep learning это подмножество ML, не логичнее начать с более широкой книги, а потом углубляться? Или я что-то не так понимаю?
>>1281370 Как это частная функция от полинома? Ведь как правило у нейрона просто функция активации, которая на выходе дает 0/1. Или ты про какие то другие функции нейрона без активации? Я не понимаю как из нескольких нейронов можно сделать полиноминальную функцию.
>>1281325 >Получается, сеть из перцептронов, это что то вроде полиномиальной регрессии? Нет. Линейная регрессия - это y=A x У тебя есть набор входов x, набор выходов y и матрица (линейное преобразование), которая связывает вход с выходом. Задача по x и y найти A.
Полиномиальная регрессия это y=A f(x), где f - функция вектор->вектор (возможно большей размерности), которая, что важно, не имеет внутренних параметров, которые мы настраиваем. Поэтому посчитав z=f(x), мы сводим нашу линейной регрессию к y=A z и считаем в два этапа, сначала, зная x, находим z, потом умножаем на матрицу и находим y. Если не понятно в обобщенном формате, вот на практике: У тебя есть координаты точек x и y, ты можешь вычислить z1=x^0, z2=x^2, z3=x^3 и решать уже эту регрессию, как будто z1,z2,z3 и т. д. это точки в более многомерном пространстве.
Перцептрон - это y=h(W1 h(W2 x) ), где h - это функция активации, W1, W2 - параметры, которые нам нужно найти. 1. Зачем нужна функция активации? Потому что без нее было бы y=W1 W2 x, а произведение матриц является матрицей, то есть y = A x, где A = W1 W2. Иными словами, персептрон без нелинейной функции между слоями не имеет смысла, это все та же линейная регрессия. 2. Как это говно обучать? Находить производную и спускаться градиентным спуском. Способ поиска производной называется бэкпропом и недалеко ушел от школьной формулы f(g(x))=f'(g(x))*g'(x)
То есть, отвечая на твой вопрос, если моделируемая тобой функция линейная, то ты используешь линейную регрессию, если сводима к линейной через вручную заданное преобразование входных координат - полиномиальную, а если ты не хочешь и самое преобразование задавать, то нужна нейронка, каждый слой которой как-то преобразовывает пространство, облегчая задачу для следующего слоя.
>>1281532 С Бишопа, конечно. Но там процентов 80 уже устарело и не нужно, ты вряд ли сумеешь понять что актуально, а что нет. Да и фиг с ним - читай все, знания лишними не будут.
>>1281591 Трафик - он же в оптоволокне. Как машина может ехать в оптоволокне, она же слишком большая, а волокно жесткое? Не говоря уже о том, что трафик это световые импульсы в волокне, в которых вообще непонятно как можно ехать.
>>1281321 >Наука так и устроена Поправочка: так устроены хуёвые науки, служащие просто для отращивания хирша ораве дармоедов на деньги налогоплательщиков. Если их убрать, человечество не проиграет.
>>1281214 Ты зашел в противоположную крайность. Тяжело следовать твоему совету, когда в уме связь между двумя выражениями, записанными через равно, не прослеживается.
>>1281642 Впрочем, я не хочу продолжать этот дискурс. Я искал в интернете вывод некоторых формул. Они нетривиальные и часто помимо применения свойств матожидания/матриц/интегралов содержат банальные, но хитрые арифметические фокусы, сводящие их к виду, в котором эти свойства можно применить. То есть если читать их в раскрытом виде, все просто и понятно, но они изначально не были рассчитаны на анализ читателем и понимание.
>>1281645 Вполне возможно, что тебе просто не хватает опыта, и очевидное для всех преобразование уровня sinx^2 + cosx^2 = 1 тебя ставит в тупик, потому что тебе надо его выводить из определения синуса и косинуса, потому что ты ничего не знаешь.
>>1281641 Ага, ненастоящий шотландец. Нет, все науки так устроены. Там, где наука устроена не так, например, изобретен какой-то нетривиальный метод, типа открытия таблицы Менделеева, случается быстрая революция, но после этого все опять возвращается к случайному поиску, на которых кладут жизнь phd.
>>1281645 Просто и понятно что? Ты, кажется, не понимаешь смысл формул. Формулы нужны тебе, не чтобы понимать их вывод. Более того, иногда даже саму формулу помнить не нужно. Достаточно помнить, что есть способ, что она есть, ее вход и ее выход. Точно так же, как в программировании - если бы я читал исходники всех библиотек, которым я пользовался, я бы охуел с сомнительным итогом. Я полистал эту книжку, мне не понравилась, потому что мало того, что помогает интуиции. Слишком сжато. Лучше взять книжку по каждой теме и почитать отдельно.
>>1281812 Ну это примерно как судить о музыке по битлз, что вот есть звезды, они двигают науку, про них фильмы снимают. А остальные не нужны, их же никто не слушает. Не от большого ума.
Аноны, нужна помощь. Есть задача. Есть пары файлов с данными в виде массивов с числами. В 1 файле- массив размером 1000 на 10, во втором файле такие же числа+ в некоторых местах внесен паттерн путем сложения. С помощью какого алгоритма можно научиться определять в каких местах этого массива был введен этот паттерн и соответственно как его применить на неизвестные файлы?С помощью каких библиотек и функций сделать это в пайтоне?
>>1281737 >Ага, ненастоящий шотландец. Нет, все науки так устроены. Скорее угандиец, который претендует на то чтобы называться шотландцем. "Так" это с одним и тем же процентом карьеристов марающих бумагу бесполезной ерундой, которую никто никогда не прочитает кроме рецензентов? Это неправда, процент везде разный: например, в гендер стадис и в машобе таких людей в разы больше чем в топологической k-теории или физике лазеров.
>>1281834 >"Так" это Нет. Так - это когда множество ученых работает над тем, чтобы улучшить результат на процент, в том числе (и в основном) нелюбимым тобой методом проб и ошибок. Потому что если бы у них в руках был другой метод, они бы его использовали и случилась революция. Но для революции нужен набор накопленных фактов, революции на пустом месте не появляются. >например, в гендер стадис и в машобе таких людей в разы больше чем в топологической k-теории или физике лазеров. Ты просто веруешь в это.
>>1281863 Ты как-то слишком серъёзно всю эту куновскую историю воспринял, на деле же успех этого твоего "метода проб" зависит от изначальной разумности всей этой деятельности. >Ты просто веруешь в это. Проверяется наблюдением за носителями.
Здравствуйте, мне нужно для МухГу научную статейку накатать. Уровень сложности, наверное, наилегчайший для знатока машинного обучения. Для МухГУ там накодить околонаучные результаты уровня Мухосранской науки.
Так вот подскажите, пожалуйста, если обратиться к какому-нибудь наемному программисту по машинному обучению для создания научной статьи, то сколько будет, примерно, стоить час работы такого умельца?
>>1282024 P.S. Сам я хуй знает, но думаю за 10 часов такой умелец должен управиться. Ибо результаты он может даже из головы взять, главное чтобы они были хоть немного похожи на правду для старых МухГУшников.
Ну что, кто-нибудь уже вкатился без топового математического образования? Логично, что нет, чо за хуета вообще, в датасаенс нельзя вкатиться, не проучившись 4 года в мгу/мфти/вше/спбгу
Поэтому срочно бросайте ваши шараги и всеми силами стремитесь поступить в топы
>>1282048 Фууу, шаражник. У нас на работе таких очень сильно не любят. Практически весь коллектив закончил МГУ/МФТИ/ВШЭ, а к таким как ты очень презрительно относятся.
>>1282054 >а остальное ерунда, тьфу, было бы кого бояться Ну уж нет, лол. Когда в коллективе к тебе относятся как говну, не очень приятно, согласись. А тут ребятки все в основном учились в топовых физматшколах, а потом в топвузах, поэтому у них и чсв не хилое. Я сам шаражник, попал в такую контору дс, так меня травили в коллективе просто не из-за чего, называли тупым и всячески оскорбляли.
>>1282080 Да ладно, это ты просто успешных альфачей математиков не видел. У нас трое таких было. Один вообще при этом был спортсменом и спокойно мог прописать в ебыч кому угодно, тянки к нему липли как мухи. И при этом еще успешно выступал на олимпиадах по математике, которые ему потом дали льготу на поступление в вуз без экзаменов.
Но большая часть (половина класса) была аутистами-хикканами вроде меня и моих знакомых.
Господа, помогите, пожалуйста, оценить, сколько часов займет серьезный вкат в машоб? Бекграунд: помидор-разработчик, а знаний математики хватит на поступление в шад.
Поступать в шад не хочу, потому что обучение будет длиться долго и не все курсы мне нужны. К тому же не хочу работать 70 часов в неделю.(40 часов на работе и 30 - в шад)
Суть плана в том, чтобы дропнуть работу и фуллтайм учиться. Но пока непонятно, сколько это может занять. Нужны ваши оценки. Я прикинул, что уйдет на это около 1000 часов. Оценка основана на загруженности шадовцев.
Всё верно, курсы нахуй. Зачем вообще курсы нужны? Это чистый развод на бабки маминых бизнесменов. Если появилась такая мысль, то я бы не задумывался дропнул ворку и вкатывался.
По каналу 2х2 сказали ,что наши отечественные прогроммисты с помощью нейросетей обновили разрешение (качество) старых советских мультов. Насколько это сложно и примерно как это делается?
>>1282091 Ну-у-у, ты что, когда он выебывался на тебя, то тебе надо было схватить его за грудки и сказать так: "Ты кто такой? Встреваешь тут? Или бабки мне хочешь поставить!? Кто ты такой чтобы запрещать мне нервничать!? Кто ты такой? Пришел тут, базаришь. Ты не авторитет для меня, понял? Я знаю где ты живешь, сколько ты зарабатываешь, где живет твоя жена. Я завалю тебя, понял. Душонка ты коммерсантская! Все базар окончен. Тьфу".
Я не понимаю, вы траллите или где? В нейроночках чуть ли не школьный матан? (Возможно уже школьный, сейчас вроде в старшей школе добавили некоторые разделы, которые раньше только в вузах шли).
>>1282137 Тебя настолько не устраивает текущая работа, что ты готов потратить год на машоб? Ты ведь осознаёшь, что твой восторг довольно быстро пройдёт, и ты поймёшь, что это такая же рутинная область, как и другие? Так-то за год вполне реально, я так с основ вроде линейной агрессии до ганов и прочей хуитки дошёл. Но у меня бакалаврская в ПМИ >>1282144 >Насколько это сложно Не очень. Я в универе подобную фигню для курсача делал. >>1282171 Хуеретики. Во-первых, нашёл дурачков работать за идею, во-вторых, особо интереса для более-менее нормального спеца делать очередную распознавалку-детехтор нет, а направление куда копать ему указали.
Анон, выручай! Хочу вкатиться в диплернинг, писать код умею, базы данных знаю, но вот теоретических знаний 0. Где можно подтянуть матан? Какие книги читать?
>>1282177 Сейчас идет прямая трансляция от Яндекса, там сказали, что зарплата у джуна в ml до 120к. 80-120. Средняя зп в ml 200-250к. У всяких тех. лидов могут быть свыше 600-800к.
>>1282180 Если они работают 4 недели в месяц, 5 дней в неделю по 8 часов, то выйдет 160 часов. Возьму между 80-120 тыс. у джуна, то есть 100 тыс. Делю 100 тыс. на 160 часов, выходит 625 рублей в час.
>>1282180 >80-120 Какой-то гнилой пиздёж. Это у низ там внутри компании такие зп? Обычно такие вакансии максимум до 40, притом ты будешь ручным газонюхом, размечающим данные вручную и пишущим вспомогательные скриптики для взрослых дядь.
>>1282184 Он ответил что в целом везде так. Потом его спросили что должен уметь джун, он ответил, что джун должен знать теорию, писать код на питоне, чтобы он хотя бы работал и знать sql.
>>1282188 Фуллтайм не конвертируется в почасовую работу. Как минимум прибавь 40% налогов, которые ты будешь платить (или не платить) сам. Затем учти отсутствие отпуска и больничных. Короче, 1200 проси но тебе не дадут
>>1282194 На специальных людей, возможно на удаленке. Я студентов в воркаче находил, а в идеале я бы нанял РСП, которая с такой непыльной работы хуй уйдет куда. 40к вполне норм. В любом случае наличие говновакансий в стиле "повар-унитазочист" не опровергает того, что человек с обязанностями повара должен получать больше, и что бежать от таких говновакансий нужно сразу, как только ты такую увидел.
>>1282173 >Ты ведь осознаёшь, что твой восторг довольно быстро пройдёт, и ты поймёшь, что это такая же рутинная область, как и другие? Осознаю. Но я нахожу эту сферу в целом более полезной обществу, чем, например, очередное бизнес деливери говно, которое декомиснется внутри компании через 2 года.
>>1282173 >во-вторых, особо интереса для более-менее нормального спеца делать очередную распознавалку-детехтор нет Нихуя у тебя ЧСВ, математик чтоли? Я не видел ни одной приемлемой распознавалки-детектора, помню распознавание деталюшек на транспортерной ленте была практически нерешаемой задачей. Хуйня этот ваш дипленинх.
>>1282173 >особо интереса для более-менее нормального спеца делать очередную распознавалку-детехтор нет, а направление куда копать ему указали Научились писать скрипты в десять строчек на питоне, и кичитесь своими знаниями, хуже байтоебов
>>1282200 Что тебе нужно-то? Распознавать объекты? Кури компьютерное зрение, real-time object detection. Tenserflow/opencv/yolo/keras в помощь. Не забудь прихватить нормальную видеокарту. Инфы на англ. источниках более чем достаточно.
>>1282190 >>1282193 Не, я не просить. Я наоборот хочу наблатыканного вкатывальщика нанять часов на 10 для простой псевдонаучной псевдозадачи. Я знаю таких парней в ВУЗике, парни шарят, но не работают в машинном обучении, просто учатся. Хочу примерно представить сколько это может стоить. До тогда как обсужу с кем-нибудь из них цену, если они согласятся.
>>1282198 >>Ты ведь осознаёшь, что твой восторг довольно быстро пройдёт, и ты поймёшь, что это такая же рутинная область, как и другие? >Осознаю. Зря ты ему поверил. Машоб намного менее рутинный, чем простой кодинг. Просто потому что тебе всегда есть, что автоматизировать, а полную рутину можно спихнуть кому-то неквалифицированному. Фактически, как только твоя работа превращается в рутину, она начинает делаться автоматически - типа подбора гиперпараметров, который ты сначала пилишь руками, а потом открываешь для себя байесовскую оптимизацию. С кодингом так не получится. Еще хуже с этим делом в инженернии, где тебе чертить нужно.
>>1282212 Лол, так бы сразу и сказал. Студентов можно наебывать как хочешь, особенно когда ты их нашел, а не они тебя. 500 в час это даже многовато, можно на 300 остановиться.
>>1282211 >Tenserflow/opencv/yolo/keras в помощь А ты смешной, это говно не работает, совсем-совсем. Хотя круг от треугольника через неделю обучения отличить сможет, да.
>>1282213 > Еще хуже с этим делом в инженернии, где тебе чертить нужно. Я мимопроходил. Я в ранней молодости, пока учился в ВУЗике работал на заводе и чертил чертежи. Все время туда сюда ногами ходишь, спрашиваешь, а как тут начертить, а как тут? Потому что это как понятия. Неписанный закон как чертить. А понятия - неписанные законы знают только те, кто понятия имеет. Идешь к авторитету, который знает понятия. И он говорит вот здесь так черти, вот тут так. Все время надо было куда-то ходить к разным авторитетам, которые знают как разрулить твою задачу и попутно навешивают еще задачи.
Я в той юности был молодой и красивый. На Джастина Бибера был похож. Я когда увольнялся, то там одна тяночка, которая была несколько старше чем я, сильно расстроилась, она, наверное, думала, что я там надолго и найду ключ к лизанию ее пипирки. А я - дурак, думал, что я молодой и перспективный, найду работу лучше, чем на этом умирающем заводе.
>>1282212 >из них цену, если они согласятся Просто если они смогут использовать эту работу как диплом или еще как, то можно и бесплатно. Детей обманывать не тяжело.
>>1282215 >>1282218 Ну они работающие студенты. Реакт, пхп, все дела. Наверное, нормально заплатить надо. Просто я тут узнать хотел, сколько денег заготовить надо. Перед тем как их спросить, чтобы опорное число в голове было.
>>1282228 > Как ты предотвратишь утечку? Никак. Имел ввиду, что просто деньги заплачу. А отдавать результаты в дипломы не планирую. Типа так договорюсь на словах.
>>1282235 Потому что эта псевдонаучная фигня пойдет в сорт оф диплом мне. Как-то не айс будет, что все будут использовать в диплом одно и тоже. К тому же там ебаный стыд, они себе получше найду задачу.
>>1282232 Мало читаю. Смысл? По моей теме выходит не так много статей, а пытаться объять всё не вижу смысла. Ближайший год я точно не буду заниматься каким-нибудь машинным переводом, ну и нахуя мне все эти RNN. Только когда у меня есть конкретная тема, я читаю по ней все доступные статьи, и их, как правило, около пары десятков. Читаю абстракт-результаты (секунд за 30), узнаю, что на 0.1% улучшен state of art двухлетней давности, который делается в 10 строчек на керасе, забиваю. Гораздо важнее гитхабы чекать с опенсорсными реализациями. Вот это заебывает, да, знать 100500 фреймворков и их особенности, чтобы прочекать, как оно будет работать на моем датасете. Самая подстава, когда в результатах статьи утверждаются какие-то чудеса, а на гитхабе нет реализации, и ты вынужден пилить ее сам. И шансов на успех мало, и гемора куча. Вот это заебывает - когда потратил неделю на статью, которая делает совсем не то, что заявляется, и ты не знаешь, то ли статья говно, то ли ты что-то не учел. Поэтому я стараюсь без опенсорсной имплементации вообще статьи не читать - здоровье дороже.
Кстати, а почему автопилоты пытаются запилить на чистом компутер вижине? Почему бы не чипировать машины для лучшего детектирования софтом? Например тогда можно будет сосредоточится на распознавании живых существ и местности в целом.
>>1282261 А потом на дороге появляется дядя Вася из колхоза и всем пизда. При том, что машину детектировать не очень сложно. То есть ты потратишь кучу денег на одну из самых легких задач.
>>1282252 >Кстати, а почему автопилоты пытаются запилить на чистом компутер вижине? Потому что это очень дешево. Так-то лучшее, что нужно для автопилота - лидар и немного вижна для знаков, поворотников, и прочей поеботы, но лидары очень дорого стоят (хотя наверное могут и дешевле при растущем спросе - хули там, лазер и детектор).
Здравствуйте, подскажите, пожалуйста, фреймворки для нейронных сетей, которые поддерживают ускорение на GPU. Чтобы можно было на Google Colaboratory узреть ускорение.
Я тупой и так и не понял Keras поддерживает или нет ускорение на GPU? Или Keras без тензорфлоу бэкенда так не может?
>>1282266 При наличии достаточно большого датасета можно добиться точности, выше человеческой. Соответственно делаешь примерно 10000 фоточек помидоров, нанимаешь в воркаче в толока-треде раба, который тебе это разметит, далее берешь сетку, могующую в object detection с гитхаба, обучаешь. В общем-то и все.
>>1282263 Так причем тут дядя Вася? Я имею ввиду, как дополнительную меру въебать в машину френдли чип, который будет сигнализировать софту на другой машине данные: координаты, точную скорость и прочее. Компутер вижн же не может точно определить расстояние, скорость и прочие хр-ки. Например чип в машинах полиции/скорой помощи будет сигнализировать об их важности и давать какой-то приоритет на дороге итп. Конечно для такого еще рано, но думаю, что будущие автопилоты должны обязательно иметь средства для взаимодействия друг с другом.
Как правильно скомбинировать классический машинлёрнинг с задизайненными фичами, которые вроде как можно выделить но которых явно недостаточно, и RE чтобы из них новые фичи вывести?
>>1282274 При том, что рассчитывать автопилот нужно на то, что на дороге будет дядя Вася. Даже если со временем будет стандарт на взаимодействие между компьютерными ИИ, дяди Васи никуда не денутся.
>>1282276 Возмущаюсь почему нет обсуждения этой проблемы. Например: 2 машины на автопилотах встретились лоб в лоб и остановились, обе не едут, потому что видят перед собой другую машину. Без взаимодействия проблема не решается.
>>1282283 Дядя Вася человек или что ты имеешь ввиду? Так он будет компутер вижином обрабатываться и как раз зондирование поможет сделать основной акцент на детектировании живых существ. Я же писал выше. Я не предлагаю полностью отказаться от компутер вижина, а предлагаю использовать гибридные технологии, которые будут взаимодействовать друг с другом.
>>1282296 В моем представлении зондирование обязательная мера. Если уж такой индивид появился, то опять же, компутер вижин его обрабатывает, но без учета точных хр-к. + вызывает полицию и сообщает о нарушение, ведь зондирование, обязательно!.
>>1282308 Они не будут подключены к какой-то глобальной сети тогда мамины хакеры и фбр начнут ахуевать, а будут сканировать пространство вокруг себя на наличие данных.
Пиздец, поступил на пми, думал, что тут будет машоб, а на деле какая-то хуита: матан, дискран, алгебра и тч, геометрия и топология. Ботаю до усрачки, еле успеваю. Статистика будет аж на 3 курсе, да и то, про датасаенс там нихуя не будет скорее всего. И что теперь с этим всем делать? Пытаться начать делать что-то самому?
>>1282334 >Успеешь наверно только содержание за три когда по каждому направлению прочитать. Ну конкретно в моем месте ебут довольно сильно, поэтому приходится подробно изучать все это. Но там потом статистика пойдет, я вот думаю, можно ли как-то ее применить в машобе?
>>1282330 А ты думал тебя на 1 курсе научат нейроночки деплоить? Пиздец необучаемые, зачем вы лезите в эту универопарашу в 2018 году? Даже курсы на всяких гикбрейнс информативней.
>>1282341 >зачем вы лезите в эту универопарашу в 2018 году? хуй знает, отсрочка от армии и способ съебаться из мухосрани и от мамки ну и математика всегда немного интересовала не скажу, что мне сейчас хуево и неитересно, просто тяжело немножко >>1282343 мм спбгу
>>1282213 в обычном софтевейа инжиниринг никогда не работал, но мне лично больше нравится просто аутировать и писать скрипты, чем решать машобские задачи
>>1282766 в машобе такие же зарплаты, что и у обычных разработчиков. Что в рашке, что в Microsoft. И машоб в любой компании идет бонусом к знаниям-cs. Так что стив мейн - просто обиженка.
>>1282735 Потому что https://en.wikipedia.org/wiki/AI_effect ML работает неебически охуенно, просто всегда будут пидорахи с когнитивными искажениями, которые будут ныть о том, что это все не то
>>1281304 >> все остальные программисты очень скоро станут не нужны
Что натолкнуло тебя на эту мысль? Ты же понимаешь, что если "нейроночки" разовьют до того, что они смогут писать бизнес код, то они смогут делать и многое другое, и тогда все по сути станут не нужны (кроме гей-пидаров, конечно)
Никого не слушай, братан, вкатывайся. Сам сейчас стараюсь вырвать момент на заебавшей бизнес-параше с перекладыванием одних скриптов на другие чтобы посмотреть кусочек курса по диплёрнинху
>>1282834 >Естественного интеллекта не хватает. Ну они же могут сказать "стоп, мы обосрались, возвращаемся"? Или это как в физике, релятивисты начинают городить ебаную поебень, лишь бы не признать наличие эфира?
>>1282836 > Или это как в физике, релятивисты начинают городить ебаную поебень, лишь бы не признать наличие эфира? Воу. Так антиэмельщик еще и кефирщик. Впрочем, неудивительно.
>>1282838 То, что всегда найдутся шизики, у которых "так, эту проблему решили, но это НЕНАСТОЯЩАЯ ПРОБЛЕМА. Ой, и эту проблему решили? Ща... А, это тоже ненастоящая проблема. Ой, и эту проблему решили? Ща... А, это тоже ненастоящая проблема. Ой, и эту проблему решили? Ща... А, это тоже ненастоящая проблема. Ой, и эту проблему решили? Ща... А, это тоже ненастоящая проблема" И так далее. Типичный AI effect.
>>1282839 >Впрочем, неудивительно. За эл. заряд пояснишь, ну или за скорость распросстранения гравитации? >>1282844 >проблему решили Ты до сих пор не показываешь, какую такую проблему вы уже ришили?
>>1282847 >Ты до сих пор не показываешь, какую такую проблему вы уже ришили? Потому что шизика можно только обоссать, очевидно же. Чем скорее ты съебешь из этого треда, чем лучше.
>>1282851 Ой блядь испугал. Сколько вас таких шизиков было, от золотца с его "покажи мне бесконечность", до кефирщиков в /sci/. Борды таких привлекают - ведь сообщения анонимные и можно прикинуться человеком ради небольшого внимания. До очередного детектирования. Это просто момент гигиены, видишь шизика - обоссы его, чтобы нормальные люди отошли подальше от носителя вони.
>>1282836 >"стоп, мы обосрались, возвращаемся" Куда возвращаться? Машоб не в тупике, прогресс есть небольшой, нет понимания, куда двигать дальше. >релятивисты начинают городить ебаную поебень Ну в общем да, я тоже не считаю их теорию самой удачной.
>>1282865 >Куда возвращаться? Разве альтернатив не было? Я вот за ЭС топлю, даже думаю, что факты можно автоматически генерировань на основе статистики.
>>1282865 >Машоб не в тупике, прогресс есть небольшой, нет понимания, куда двигать дальше. Нихуя себе нет понимания. В других бы науках не было такого понимания. Как ты вообще себе представляешь это понимание? Типа, сидят 20000 ученых, и у них есть понимание. Ну окей. Они, правда, нихуя не делают (если сделают, то понимания уже не будет), но хули, вот и сидят. Наука по определению работает с чем-то непонятным, иначе это не наука.
Что касается того, куда двигаться дальше - в one shot learning прежде всего. Потому что задачи, требующие больших датасетов - уже инженерия. И модные нынче ГАНы это как раз шаг в сторону one shot learning.
>>1282874 Ну понятно , что есть два пути - менять архитектуру, менять алгоритм обучения. Менять архитектуру - как? Пробуют слои какие-то вставлять, и так и эдак, у кого-то получается иногда. Каждый китаец по разу ткнет, глядишь и получится что-то. Гугл перебором генерировал. Тоже сомнительный метод. Алгоритм обучения - что с ним делать? backpropagation мусолят уже столько лет. То регуляризаторы покрутят, то лосс, то оптимизатор. Результат не сказать, чтобы радикально отличался. Как оно в мозгу обучается, кто знает? one shot learning - это просто более высокий уровень. Прогнали через энкодер, запомнили фичи, проиндексировали - вот и все. Но перед этим нормальный энкодер нужно сделать, и тут возвращаемся к исходной проблеме.
>>1282892 Потому что ЭС это нейронка на ручном обучении. Рэндома, статистики, черного ящика нет, потому что ты её готовыми фичами кормишь. А логика внутри всех нейронок есть.
>>1282886 >Менять архитектуру - как? Пробуют слои какие-то вставлять, и так и эдак, у кого-то получается иногда. Каждый китаец по разу ткнет, глядишь и получится что-то. Гугл перебором генерировал. Ну, допустим, завтра изобретут какой-то революционный метод. Перформанс улучшится. Уже послезавтра ты начнешь ныть, что нихуя нового не изобретают. И так по кругу. Тут претензии к китайцам, потому что вы долбоебы натуральные. Прикол IBN-Net же не в "0.2%" перформанса, а в том, что "When applying the trained networks to new domains, e.g. from GTA5 to Cityscapes, IBN-Net achieves comparable improvements as domain adaptation methods, even without using data from the target domain." То есть чуваки решают ровно ту задачу, о которой тут принято плакаться, а именно, как обучать сетки без гигантских датасетов. А маньки видят 0.2% и все, маньякам ничего не интересно. Ведь они у мамы самые умные, а китайцы, хули, обезьяны, которые слепо тычутся и не видят, что МАЩИНЛЕНИНГ В ОПАСНОСТИ. ИДЕТ НЕ ТУДА. ЗАСТОЙ.
>Тоже сомнительный метод. Сомнительный для кого? Практически вся наука, будь то разработки новых материалов, технологий и т. д. - это ровно такой метод. Был какой-нибудь кевлар, какой-нибудь китаец нашел способ получить кевлар немного прочнее и сэкономить, например, миллион долларов. За десятилетия копится прогресс - вроде бы айрбас похож на ил-86, однако на илах уже не летают - невыгодно. Потому что время революций в большинстве наук прошло еще лет 100 назад. Нам повезло жить во время революции в ML (а до этого - железа, интернета и сотовой связи). Но рано или поздно она остановится. Но пока - нет. Пока лично я не успеваю имплементировать все то охуенное, что делается в сообществе. По сути моя сетка это год 2016 примерно.
>То регуляризаторы покрутят, то лосс, то оптимизатор. >Результат не сказать, чтобы радикально отличался. Ну нихуя себе. С дивана да, не отличается. А на практике ты обучешь сетку не 24 часа, а час, перейдя с SGD на какой-нибудь AdamW. Прогресс "всего лишь" в 24 раза. Но маньки скорее повесятся, чем признают, что где-то есть прогресс без их любимых. Та же хуйня со способами инициализации. Грамотная инициализация из свежего пейпера может сократить мне время обучения на пару порядков. Но тебе, как маньке с дивана, этого видно не будет, потому что ты дрочишь только на циферки перформанса на попсовом датасете, шовинистически относишься к китайцам и являешься долбоебом и с других сторон.
>one shot learning - это просто Ну раз просто, то вперед, пиши пейперы. Мне вот не просто.
>>1282925 >значит ты не понял нейронки Я их и не понимал и не собираюсь, предпочитаю заниматься тем, что работает. Но полагаю, ты хочешь сказать, что нейронки это статистические выведенные правила? Если так, то опять к ЭС это не относится.
>>1282928 Очевидно, у нас разные взгляды на научные открытия. Для меня это - физические законы, подтвержденные теории, закономерности, какие-то новые факты об устройстве мира. То, что дает понимание и новые знания. А не "мы сделали чо-то и улучшили на процент". Почему так, а не иначе? А как оно работает? Это оптимальный метод, или можно еще улучшить? А не повлияет ли этот метод негативно в других условиях? Может он имеет какие-то ограничения и недостатки? Нужно как макака, просто повторять, и не задавать вопросов? Я согласен, что делать что-то надо, хотя бы рашить, и нужно делиться опытом. Дрочить на этот процент, выдавать его за его изобретение - твое право, но я не буду, я перфекционист с дивана, да. Про китайцев и шовинизм вообще мимо, шутка была что их много, а так-то в каждом первом пейпере китайские фамилии. Они еще раньше людей ИИ сделают.
>>1282974 Очень хорошие, но я в области НЛП, там такой пиздец, что приходится велосипедить простейшие вещи, поскольку ученые-в говне моченые не хотят делится своими наработкамипидоры
>>1282976 >Очевидно, у нас разные взгляды на научные открытия. Потому что ты потребитель, и взгляд у тебя сытого бюргера. Дайте мне все и сразу, как в седьмом классе было. И взгляды у тебя человека, который никогда банальной историей науки не интересовался. Физические законы? Ок. Возьмем тяготение. Сначала Тихо Браге годами наблюдал за звездами, потом Кеплер вывел эмперические законы (вот оно так, а почему - хуй знает), потом Ньютон обобщил их до чего-то более-менее приемлемого. И все это время существовал ты - сначала, пиздел, что Тихо Браге тупо проедает государственные харчи и вообще тупой лжеученый (много ли надо ума цифры записывать?), потом что Кеплер на самом деле нихуя не понимает и записал какую-то хуйню про площади секторов у эллипсов, а потом, что Ньютон, который свел все в элегантную формулу, виноват в том, что так и не объяснил, откуда берется гравитация, а значит вся его работа бесполезная хуйня, не то, что Библия, где все в первых нескольких абзацах написано (в атестическом настоящем вместо Библии - религия под названием "наука", со святыми учеными в прошлом и меркантильными пидарасами в настоящем, которые тупо проедают харчи, нихуя не понимают и вообще ни одной проблемы не решили). И это еще более-менее хорошая история. Вот есть наука химия, она в теории сводится к квантовой механике. Но 1. Химия была и до квантовой механики. То есть глубинных процессов не понимали, а химия была. И ты ныл о том, что химики сами не знают, что делают. 2. Решать химические задачи через квантовую механику - оверкилл, так никто не делает. То есть все знают, что оно должно получаться, но на самом деле никто не проверял, точное решение есть только для водорода, численные решения непомерно сложны. И ты до сих пор ноешь, что новые модели аккумуляторов медленно появляются. Хотя казалось бы - в отличие от ML, все нужные теории есть, бери и предсказывай без опытов, но оказывается, что теории настолько сложны, что натурные эксперименты проще.
>То, что дает понимание и новые знания. А не "мы сделали чо-то и улучшили на процент". Так в пейпере написано очень много по этому поводу. Если ты этого не видишь, кто в этом виноват? Вся мякотка в том, что люди думали, анализировали статистики разных слоев, и придумали, и ход их мыслей интереснее результата. А ты думаешь, что "Пробуют слои какие-то вставлять, и так и эдак, у кого-то получается иногда". Ну типа, не могут же люди быть не то, что умными, а умнее тебя. Точно рандомом тыкают, макаки эдакие, и вообще у них там заговор тупых.
>Дрочить на этот процент, выдавать его за его изобретение - твое право, но я не буду, я перфекционист с дивана, да. Что значит - дрочить? У меня есть нейронка, которая делает свою работу лучше всех в мире и решает проблему, которая несколько лет назад считалась нерешаемой. Это несложно, благо революция случилась пару лет назад и сейчас ты просто берешь и адаптируешь подход к чему угодно, и он выстреливает. Если я попробую добавить их подход, возможно она станет еще лучше.
>>1282829 >Бородатый мужик в очках >РЯЯЯЯ СОЙБОЙ Заебала эта мода среди ебланов. Каждый первый обмудок с пидарской бородкой и в очках. Я ни одного нормального человека не знаю с такой внешностью, пикрелейтед лук - 100% детектор долбаеба. Естественно, ни один учёный так выглядеть не может, я к этому веду.
>>1282998 Так значит, я многого хочу? Возможно, что и так. Но сейчас такие благоприятные условия для науки - глобализация, информационная сеть. Это же не средние века, когда веками смотрели в трубу на звезды. Я рад, что ты из этих пейперов видишь ход мыслей их авторов. Я вижу только введение, одну-две формулы с пространными объяснениями, сравнение метода с конкурентами, пару графиков и картинок, конклюжн, и всё. Одно из двух - либо я тупой, либо там никакой теории и анализа нет. Часто бывает, что появляется новый метод, и старые тут же становятся неактуальными, про них все забывают. А ведь это тоже был чей-то труд, и когда-то считался открытием. Я не умаляю заслуг ученых. Накопление информации для анализа - тоже наука, даже такая, как запись движения звезд, или смешивание говна с мочой в пробирке. Но если машоб сейчас на уровне Тихо Браге в астрономии - это очень печально, так как это самое начало пути.
Невозможно что-то доказать шизику. Это из той же обоймы, которые в медицине будут доебывать: "А чёй-то вы рак ещё не вылечили? Ну подумаешь выживаемость повысили на 1% и риск заболевания на 5%, но не победили значит БЕСПОЛЕЗНЫМ говном занимаетесь, нет бы сразу всё ррррряяяя!"
>>1283246 Вот не надо примазываться к медицине. У них там исследования стоимостью в миллиарды, и огромный накопленный опыт. А нейронки задрачивать может каждый китаец. Я год назад пробовал делать InstanceNormalization, вставлял куда придется, и даже что-то начало получаться, но я забил. Мне не хватило ума/настойчивости/везения, а кому-то хватило. Никакого бугурта по этому поводу не испытываю, но и наукой не считаю.
>>1282819 ты даже статью не смог прочитать, которую прикрепил. > Some language models should not be blindly trained on input data without first taking all the nuances of the language into account. Сначала лемматизируешь все с rnnmorph, затем на этом обучаешь fasttext, и будут нужные результаты, где леммы алкогольных напитков будут близки. Просто нельзя забивать гвозди одним и тем же микроскопом, не подкручивая параметров.
>>1283229 >Но сейчас такие благоприятные условия для науки - глобализация, информационная сеть Это благоприятные условия для науки, а не для ученых. Все происходит очень быстро, быстрее, чем может переварить человек. Вообще ML это прежде всего отказ от долгой публикации к пользу препринтов на архиве. Например, пока эта статья https://ieeexplore.ieee.org/document/7444187 публиковались (где-то год), вышло несколько препринтов, которые сделали ее не очень полезной, например, они проспали ResNet. Это немного демотивирует, как и то, что любая твоя идея скорее всего имплементирована и проверена кем-то. Просто по закону больших чисел. Но науке - заебись. А ученому выгодно противоположное. Ему выгодно быть председателем какого-нибудь королевского общества, чтобы вокруг не было конкурентов, а он один сидел такой умный и красивый и работал годами над идеей не спеша. Отсюда растет феномен лженауки - в науке большая конкуренция, значит я создам свою, настоящую науку со шлюхами и блекджеком.
>Одно из двух - либо я тупой, либо там никакой теории и анализа нет. И из двух теорий 1. Ты - тупой, как минимум - недостаточно опытный 2. В мире имеется заговор, а именно сотни ученых пользуются незаслуженной славой, деньгами и т. д., а призаваемые ими результаты - не результаты. Ты выбираешь второе. В ней ты умнее 99.9998% людей. Или честнее 99.9998% людей. Мм, и какова вероятность этого?
>Я вижу только введение, одну-две формулы с пространными объяснениями, сравнение метода с конкурентами, пару графиков и картинок, конклюжн, и всё. Так любой пейпер устроен. Пейперы устроены одинаково, чтобы ты мог легко парсить их мозгом, так как их много, а тебя мало. Если точнее, мудаки, которым важно опубликоваться, а не создать знание, вместо пространных объяснений пишут просто пару формул и все, ебитесь как хотите. (и это не значит, что у мудаков нет результата). Но этот пейпер хороший, там разжевано все для самых тупых типа меня. Главное там: >IN provides visual and appearance invariance, while BN accelerates training and preserves discriminative features. >IN is preferred in shallow layers to remove appearance variations, whereas its strength in deep layers should be reduced in order to maintain discrimination >component of IBN-Net can be used to re-develop many recent deep architectures То есть, как видно, за главное - это мысль, что IN нужно располагть повыше, а BN поглубже, потому что IN лучше регуляризует абстрактные фичи, а BN лучше maintain discrimination, ну а еще то, что это универсальный метод, а не просто подгон под конкретный датасет. Хорошая статья, хороший результат.
>>1283229 >Но если машоб сейчас на уровне Тихо Браге в астрономии ML сейчас на уровне Кеплера - есть эмпирические законы без хорошей подлежащей фундаментальной теории. Но законы при этом рабочие. Но, в общем-то, когда ее найдут, будет как с химией, в которой открытие квантовой механики надобность в химии не отменила. Я уверен, что будут копать в сторону manifold hypothesis, изучат свойства этого самого многообразия, докажут, ну и заебись. Легче от этого не станет. Мы так и останемся химиками. >это очень печально, так как это самое начало пути. Это охуенно и мечта ученого. Печально - это поиски "теории всего" в физике.
>>1283315 > ML сейчас на уровне Кеплера - есть эмпирические законы без хорошей подлежащей фундаментальной теории. Есть теория, только сойбои в неё не могут, потому что сложно. Проще наебенить слоёв без понимания, нахуя все это.
>>1283123 >Каждый первый обмудок с пидарской бородкой и в очках. Нет, чувак, пидорство - это бриться каждый день, еще большее пидорство - это ходить в барбершопы. А это самый непидорский лук, который можно придумать. Нормальный человек по своей воле часто бриться не будет - от этого нихуя, кроме раздражения кожи, не получишь. Раньше общество было более тоталитарным, были корпоративные правила и требовалось соблюдать дресскод - костюм, галстук, выбритое лицо. Барбершопы еще более ебанутая вещь, для господ из 19 века, которым совершенно нехуй делать было. Сейчас такого нет, люди одеваются в удобный и универсальный casual и имеют удобную растительность на лице. А очки - ну блядь, охуенная предъява вообще, ты чо, очкарик)))
Все нормальные белые мужчины так и выглядят. Не выглядят так азиаты или индусы, у которых борода просто не растет. Прикол в том, что это тестостерон как раз - ты мужик и у тебя растет борода, но нет, жирные школьники с форчана с гинекомастией выдумали каких-то сойбоев.
То, что они при этом выглядят как говно, а не как Клинт Иствуд, и нарушают твои эстетические чувства - ну так может ты и есть пидор, что тебя ебет, как выглядят мужики? Или ты любитель тоталитарного сапога в жопе, ходить строем и быть гладко выбритым? Короче, это с тобой что-то не так, если ты в принципе видишь в этом какую-то моду.
>>1283337 Сойбойство не во внешности, а в головах. Просто так завелось, что сойбои выбирают именно такую внешность - короткая стрижка/лысина, борода, очки.
Основная суть сойбойства - почитание навязанных обществом трендов. Что угодно, лишь бы не казаться аутсайдером. Нинтендо свитч, современные сериалы с нетфликса, использование ультрамодных джаваскрипт-фреймворков - настоящее сойбойство. Внешние признаки - большая вероятность того, что человек сойбой (потому что нормальные люди никогда не захотят быть спутанными с одним из них).
>>1283259 читал несколько статей по медицине Выглядят они еще хуже чем по машобу описывают больного не слишком подробно говорят лечили вот этой хуйней и помогло Ну это та парочка статей что я по своей болезни читал ясное дело что есть и лучше.
>>1283355 >Сойбойство не во внешности, а в головах Ну кому ты пиздишь. Вот поциент: https://twitter.com/smaine Нинтендо свитч? Мимо. Современные сериалы с нетфликса? Мимо. Жаваскрипт фреймворки? Мимо. Что остается. Борода блядь и очки. И уверенность, что у этого мужика борода и очки не потому что бриться лень, а в линзах за монитором сохнут глаза, а потому что "лишь бы не казаться аутсайдером". >почитание навязанных обществом трендов >нормальные люди никогда не захотят быть спутанными с одним из них Вот это божественная ирония. Общество: форчан, knowyourmeme и прочие места тусовок нитакихкакфсе школьников навязывает тренд: не любить людей с бородой и очками, а за кривляние на камеру просто убивать И ты ему следуешь. Но при этом ты считаешь, что это ты нормальный человек. Лалка, воистину кого Юпитер хочет погубить, того лишает разума.
Нормальные люди подобным не заморачиваются, нормальные люди не бреются, не стесняются очков, если у них плохое зрение, и, о ужас, могут купить себе свитч, ведь у каждого первого миллениала в детстве была NES или ее клон.
>>1283381 >И ты ему следуешь Ай-яй-яй. Вот тут ты промахнулся. Не нужно вешать на меня ярлыки за то, что я описал, как выглядят и чем увлекается типичный сойбой. Я не принадлежу ни к одной социальной группе, но очень люблю их критиковать.
>нормальные люди не бреются Нормальные люди что хотят, то и делают, а не слушаются анонов на дваче, дабы соответствовать определённому образу.
>не стесняются очков, если у них плохое зрение Носить очки из-за плохого зрения - нормально. Носить очки без диоптрий, чтобы казаться умным, потому что это модно - долбоебизм.
>могут купить себе свитч Не вижу вообще никакого смысла в покупке устройства, предназначенного только и исключительно для игр (если ты под эту платформу не собираешься ничего разра). Вернуть этим NES-детство всё равно не получится.
>>1283396 >Ай-яй-яй. Вот тут ты промахнулся Нет. Если бы ты написал как выглядит сойбой, это одно (хотя сама по себе замороченность по их поиску уже о многом говорит). Но ты еще добавил: "потому что нормальные люди никогда не захотят быть спутанными с одним из них". А это уже диагноз.
>Я не принадлежу ни к одной социальной группе Ха-ха-ха-ха. Ты принадлежишь к социальной группе "озлобленный на весь мир анонимус" как минимум. И у этой группы тоже есть тренды. Пик релейтед. А вообще ты пересечение разных социальных групп - от своей семьи и группы русскоязычных до научных фриков.
Все это вместе составляет некий многомерный вектор и это собственно позволяет не очень умным людям, подверженным когнитивным искажениям, доебываться, как они хотят. Можно найти тысячи параметров, по которым ты будешь совершенно средним представителем своей группы. А можно найти что-то уникальное у каждого. Как, собственно, озлобленные анонимусы и поступают, они берут один критерий, в котором они считают, что лучше других людей, и дальше ранжируют этих самых людей по этому критерию. Типа, мужик из Сиэтла с хорошим образованием и работой, неплохо устроившийся в жизни и живущий как хочет. Чем он хуже меня, живущего с мамкой в проперженном совковом интерьере нищука? А, у него пидорская бородка. И все - жизнь прекрасна, гиперплоскость проведена, ты на стороне классных пацанов, остальные - сойбои.
>Носить очки из-за плохого зрения - нормально. Носить очки без диоптрий, чтобы казаться умным, потому что это модно - долбоебизм. На твоем пике у всех очки с диоптриями.
>Не вижу вообще никакого смысла в покупке устройства, предназначенного только и исключительно для игр Это типичная позиция для людей из твоей социальной группы.
Адепты нейроноговна скатились в защиту бородок, лол. >>1283229 Паперы пишут для того, чтобы со степухой и грантами не пидорнули, только долбоеб будет это бесполезное говно читать. >>1283315 >в которой открытие квантовой механики надобность в химии не отменила Химики шлют нахуй квантовую механику и топят за эфир
>>1283410 >Но ты еще добавил: "потому что нормальные люди никогда не захотят быть спутанными с одним из них". А это уже диагноз А ты знаешь, почему они никогда не захотят? Или ты мыслишь лишь домыслами?
Я отвечу тебе, друг мой. Потому что судят по одёжке. Потому что в сознании людей бородка и очки == сойбой (и пост >>1282823 это подтверждает как нельзя кстати). Точно так же, как в сознании людей кепка и треники == гопник. Если ты своей внешностью похож хоть на какой-то стереотипный образ, то это нехорошо. Нужно любой ценой избегать собственного стереотипирования. Поэтому нормальные люди никогда не захотят быть спутанными с сойбоями. Если тебя спутали - значит, ты выглядишь стереотипно.
>Ты принадлежишь к социальной группе "озлобленный на весь мир анонимус" как минимум Ммм, угу, угу, а с чего ты сделал такие выводы? Или же ты проецируешь? У меня есть работа и я люблю гулять - это отличает меня от группы "озлобленный анонимус". Всё, стрелочка больше не поворачивается, она сломалась.
>ты на стороне классных пацанов, остальные - сойбои И опять ты оказался в ловушке проекций своего ограниченного мышления. Для тебя существует только две половинки мира, не так ли? Свои и чужие, классные пацаны и сойбои, на кого ещё у вас там модно делить мир? Всё так в твоём представлении, верно? И ты не можешь даже представить, что что-то может быть по-другому?
Видишь ли, быть на любой стороне - что "классных пацанов", что сойбоев, противно самой моей природе. Любая принятая сторона, на которой есть хоть ещё 1 человек, по определению вредна. Не так это работает. У меня всегда найдётся запас отличительных признаков от любой социальной группы, к какой бы ты ни пытался меня причислить.
>На твоем пике у всех очки с диоптриями Что не значит, что люди так не делают из-за моды.
>Это типичная позиция для людей из твоей социальной группы Ещё раз прочитай это - я не принадлежу ни к какой социальной группе. Нет такой вещи, как "моя социальная группа". Не нужно подгонять моё поведение под какие-то стандарты, а потом пытаться ожидать от меня чего-то в соответствии с этими стандартами.
>>1283421 >Нужно любой ценой избегать собственного стереотипирования. Можно, если хочешь напугать омегана, который ссыт гопника, то можно таки нацепить мохнатую кепочку восьмиклинку, нанести малобаром разовые татухи, сфотографироваться с пистолетом или с битой в руках, пригласить создать фон быдлоклассников, которые колоритно выглядят.
>>1283456 Если есть пара-тройка имплементаций на гитхабе - то хорошо. Одна от автора - ну такое. Если нет - то, может хорошо, а может и нет. Не трать время. А так arxiv-sanity это начальная точка. Ну и твиттеры-хуиттеры, реддиты и прочее говно.
>>1283246 >Ну подумаешь выживаемость повысили на 1% и риск заболевания на 5%, Ахахахахахаха, аж до слез >>1283233 Нет конечно, глупо отрицать наличие эфира >>1283294 >Сначала лемматизируешь все с rnnmorph Ахахахахахаха, аж до слезповторюсь
>>1283462 Тогда имплементация будет или на том же гитхабе (при чем тут возраст статьи вообще), в scipy, в матлабе (как в пользовательском файловом архиве, так и как часть тулбокса), в R, Mathematica или, в самом пиздецовом случае, на фортране каком-нибудь. И можно даже ранжировать по степени годности. Вероятность того, что твоя статья никем в паблике не имплементирована и при этом годна крайне мала.
>>1283421 >А ты знаешь, почему они никогда не захотят? Конечно знаю. >Я отвечу тебе, друг мой. Потому что судят по одёжке. Yep. В этом и заключается мой диагноз - у тебя комплесы из разряда "что люди подумают".
>Если ты своей внешностью похож хоть на какой-то стереотипный образ, то это нехорошо Почему?
>Ммм, угу, угу, а с чего ты сделал такие выводы? Или же ты проецируешь? У меня есть работа и я люблю гулять - это отличает меня от группы "озлобленный анонимус".
Вообще, не удивительно, что ты в ML не можешь. Ты даже посыл моего поста не понял. Я просто взял и препарировал тебя тем же методом, которым ты препарируешь других.
Фишка-то в чем. Сойбоев не существует. Потому что каждый из них может сказать "у меня всегда найдётся запас отличительных признаков от любой социальной группы, к какой бы ты ни пытался меня причислить". Равно как и не существует "озлобленных анонимусов". Ровно по той же причине. Каждый человек уникален, как уникальны его отпечатки пальцев. Однако социальные группы существуют. Как так получается? Ну, довольно просто - из уникальности человека не следует, что люди не кластеризуются. Даже в случае полностью равномерного распределения признаков люди находят паттерны - например, созвездия это поиск паттернов в достаточно равномерном 2д-распределении звезд. А у нас, естественно, распределение не равномерно.
Мы сначала кластеризуем людей, потом усредняем признаки, и дальше считаем норму между человеком и "средним человеком из данной социальной группы". Меньше какого-то порога - ярлык навешен. Поэтому то, что у тебя есть работа, не отрывает тебя от группы "озлобленный анонимус", потому что по совокупности других признаков ты являешься озлобленным анонимусом. Более того, это было бы крайне невероятным, если бы у тебя таких признаков не было. Я об этом писал выше - "Можно найти тысячи параметров, по которым ты будешь совершенно средним представителем своей группы. А можно найти что-то уникальное у каждого".
>И опять ты оказался в ловушке проекций своего ограниченного мышления.
Нет, я оказался в ловушке твоего ограниченного мышления.
>Ещё раз прочитай это - я не принадлежу ни к какой социальной группе. Это будет решать социум, мой дорогой квир.
>>1283471 >Yep. В этом и заключается мой диагноз - у тебя комплесы из разряда "что люди подумают" М, нет. Люди - лишь индикатор того, что с тобой что-то не так. Но при этом индикатор довольно точный и очень глупо им не пользоваться.
>Почему? Потому что чтобы прожить свою собственную жизнь, нужно, чтобы она была твоей собственной. Стереотипность образа - верный признак того, что твоя жизнь - не больше чем одна из готовых моделей.
>Вообще, не удивительно, что ты в ML не можешь Это тот самый ML, который на картинке с гориллой находит барсука, если к картинке добавить совсем небольшой шум?
Вот оно, собственно - ты узник своей модной технологии и пытаешься подогнать весь мир под неё. Три года назад ты задрачивал облака, потом веб-фреймворки, а сейчас задрачиваешь ML. Ты не больше чем стереотипная пустышка. Таких, как ты - миллионы и все вы проживёте свою жизнь одинаково. И не важно даже, хорошо ли вы её проживёте или нет. Важно, что одинаково.
>Сойбоев не существует >Равно как и не существует "озлобленных анонимусов" Существуют. До тех пор, пока они подходят под определённые критерии и не стараются впоследствии их избегать, они существуют.
>Мы сначала кластеризуем людей, потом усредняем признаки, и дальше считаем норму между человеком и "средним человеком из данной социальной группы" Тут вот в чём дело. Если всю жизнь мерить по ML, то можно подобрать абсолютно любой набор признаков, по которым любого человека можно причислить к любой группе. Просто меняя признаки и объём выборки. Понимаешь, к чему я клоню? Реальная жизнь сложнее твоей математической модели. Модель можно обмануть, жизнь - нет.
>Это будет решать социум, мой дорогой квир Нет уж, это решаю я. Социум - это индикатор, он не может ничего решать.
>>1281076 (OP) >>1281076 (OP) Столкнулся с такой проблемой: Предположим, что наша дата - это покупки в онлайн магазине. Там много feature, в том числе город. Скорее всего, нордические воины не будут часто заказывать себе солнечные очки, а южане не купят ушанку. Как поступить в этой ситуации? Можно разделить людей по областям и рассчитывать индивидуально, но тогда не будет учитываться общая картина. Можно выбросить из даты города вообще.
Или я чего-то не понимаю и проблемы тут нет - просто юзать деревья и оно там как-нибудь само..?
>>1283539 >Или я чего-то не понимаю и проблемы тут нет - просто юзать деревья и оно там как-нибудь само..? А то. Только просто город как фича не очень, можно добавить географические координаты хотя бы. А так в конкурсе от авито как только не изъебывались
вечер в хату! дано: 1. 30 лвл 2. вроде бы хорошо помню весь необходимый матан с универа 3. могу в питон 4. могу в простой английский (то есть в хорошо поставленную, не быструю речь) 5. непосредственно с нейронками и машобом дела ранее не имел 6. сложилась ситуация, что могу обучаться этому в рабочее время.
Ищу годных курсов или записей лекций по машрбу, дабы по пацанский разъяснили что да как. желательно на английском что бы и его подкачать. желательно с tensorflow и keras.
существуют такие?
на крайняк возможны русскоязычные курсы, тодько блджад без всякой воды и с нормальным преподом.
Хэлп. Не относится к маш об или нейронкам, но все же тема близка к компьютер вжену. Препод в универе дал задачку. Дано: фото риса рассыпного на столе Требуется: Посчитать количество рисинок на фото Проблема: Если на фото есть слипшиеся рисинки, я не знаю как посчитать их количество в этой слипшейся кучке.
Наркоманушки, этот тред про машоб или про сойбоев? Совсем вы ебнулись пидоров обсуждать. Лучше скажите, почему в NLP так не любят алгоритмы для работы с фразами? В том же fasttext'е выпилили word2phrase от оригинального word2vec. Кто-нибудь пробовал StarSpace? Вроде оно может в разные элементы текста, не только отдельные слова.
>>1284007 Отлюбили уже, тот же статистический машинный перевод это как раз сплошные нграмы. А нейронкам оно не заходит - скорее всего потому что слов мало, а их сочетаний - много.
>>1283665 Тоже об этом думал. Скорее всего так и придется делать, но проблема в том что на фото все рисинки могут оказаться в комках. Спасибо за ответ.
>>1284015 > А нейронкам оно не заходит - скорее всего потому что слов мало, а их сочетаний - много. Если бы ты знал что такое skipgram например, то знал бы и то, что оно работает только с теми сочетаниями, которые есть в анализируемой корпусе. Но это для тебя наверное слишком сложно, да? Сойбои проще. >>1284034 > ниработает? кто бы мог подумать, лол Голова-то твоя? А чему там работать, это ж кость.
Можно ли как-то представить строку в виде числа? Я работаю с multi step forcasting и у меня единичным элементом-токеном является строка то есть грубо говоря есть время (сколько секунд прошло с момента появления предыдущей строки), последовательнсть строк определенной длины и следующая такая строка 0 abc dfc jkf 10 abd hgj ? 20 ? jdff few ...итд
вопрос состоит в том, как представить строку в виде числа, для того что бы можно было к такой табличке применять методы, применяемые для обычного Multi-Stеp Timе Seriеs Forеcasting
>>1284526 Информация не должна теряться, нужно натравить какой-нибудь fasttext и конвертнуть в строки в какие-то полезные фичи. Пайплайн зависит от самих строк.
ВЫБИРАЕМ КУРС ПОДГОТОВКИ ВСЕМ ДВАЧЕМАноним26/10/18 Птн 01:02:34#357№1284617
Цель - подобрать материалы, чтобы аноны могли пройти путь от самого дна до повелителей ML за кратчайшее время.
Что лучше: deeplearningbook или ШАД, Coursera или "The Elements of Statistical Learning"? А как насчет Nanodegree от Udacity? Или гарвардские курсы на EdX? А может быть лучше deeplearning.ai?
ГО
Кто-нибудь, пожалуйста, объясните, нахуя ВШЭ и хуяндекс сделали англоязычные курсы с рашнакцентом на курсере? Они реально думают, что англоговорящий анон будет проходить их курс, а не гарвардский???
>>1284617 >Они реально думают, что англоговорящий анон будет проходить их курс, а не гарвардский??? И проходят, кстати. В околонауке и ML вообще немало людей из самых разных стран с далеко не идеальным английским. Если тебя это триггерит, ты просто пока молодой и глупый. >Цель - подобрать материалы. Всё уже давно есть, просто надо немного уметь в гугл. >за кратчайшее время Земля тебе пухом.
>>1284624 >И проходят, кстати. В околонауке и ML вообще немало людей из самых разных стран с далеко не идеальным английским. Если тебя это триггерит, ты просто пока молодой и глупый. Субтитры? Не, не слышал
>>1284617 >Что лучше: deeplearningbook или ШАД deeplearningbook >Coursera или "The Elements of Statistical Learning" Второе - червь-пидор Вообще нет ничего хуже статистиков, держись от них подальше >А может быть лучше deeplearning.ai Ын? Должно быть что-то хорошее. Но времени не было посмотреть что там
>>1284674 > Петуха забыли спросить Тебя если и забыли, так ты сам вылезешь. Весь машоб, и супервайзед и нет, сводится к expectation maximization, я на эту тему даже цитаты приносил. Только клованы вроде тебя могут верить, что индусы с сойбоями двигают науку и что-то новое открывают.
>>1284698 > Для начала Воронцова почитай. Воронцов соснул концов. Не надо его читать, в статье про SVM он столько всего нахуевертил, ну его. В ISLR в разы проще все объясняется.
>>1284699 >Весь машоб, и супервайзед и нет, сводится к expectation maximization Каким надо быть шизиком, чтобы из теоретической сводимости одного алгоритма к другому делать выводы такого уровня. Ты тупее и вреднее самого тупого индуса. На, почитай https://www.nature.com/articles/nmeth.4642 , впрочем нет, ты не читай, пусть другие читают. Ты под шконку лезь.
>>1284751 > Каким надо быть шизиком, чтобы из теоретической сводимости одного алгоритма к другому делать выводы такого уровня. Какого уровня? Что машоб это статистика? Так это факт, реальность, а не мой вывод. Ты же пытаешься с этого факта съехать на мою личность. И кто тупой после этого?
Как сделать миниманалог шазама? Нужно, чтобы лежало песен 100. И чтобы я спел в микрофон: "Смяка оло но фо. Смяка гими само. Смяка ту ю гет со Смяка о-о-о-о-о". И чтобы самописная программа нашла эту песню среди 100.
>>1284668 >Мань, а откуда алгоритм эти сочетания брать должен Из твоего ануса. Ты там вобще поехал нейроблядок, машоб лол, данные найди, данные подготовь, и пусть теперь нейропараша поковыряется в них и соберет штатистику хотябы за неделю работы на 100500 топнвидиа йоб, ох лол
>>1284884 Дегродушка, нормальным алгоритмам не нужны видюхи. Skipgram итд как раз нормальные алгоритмы здорового человека, а не параша сойбоя курильщика хуев, которая на суперкластере будет сходиться месяц. Ты ж не в теме вообще, куда ты лещешь, чучело?
>>1284904 Какого цвета трава? 0.980484: Какого цвета машина? 0.978484: Какого цвета волосы? 0.977465: Какого цвета костюм? 0.977016: Какого цвета глаза? 0.975344: Какого цвета хоть? 0.97237: Какого цвета пламя? 0.955668: Какого цвета волосы? Длинные или короткие? 0.955133: Какого цвета туфли подойдут? DONE.
>>1284931 > Бестолковое говно твой пихво2век. Пока что я вижу что ты бестолковое говно и даже не понимаешь, что и зачем пытаешься сделать. Впрочем, что ещё ожидать от дегенерата, басня Крылова "мартышка и очки" как раз про тебя и тебе подобных.
Анон, работаю программистом несколько лет, шлёпаю себе круды.
Посматриваю на сабж. В нём не понимаю ничего. Можешь хотя бы в двух словах описать, насколько это сложно: нужно быть кандидатом наук для которого матан и функан не пустой не звук или сабжевая работа это что-то типа подбора переменных в готовые формулы, пока результат не устроит заказчика?
Антоны, я не пойму, что за штука такая: Иерархическая временная память? Не пойму, эта модель вообще рабочая и в чем ее преимущества перед обычной рекуррентной сетью?
Но если ты не настолько удачливый Карлсон-математик, то ты берешь рандомный алгоритм, вроде подходящий под задачи, рандомно берешь коэффициенты, учишь модель и оказывается, что она или не работает на невиданных данных, либо не работает не так, как нужно заказчику. Дальше если ты не знаешь матан и как все работает под капотом, то игра окончена, вы проиграли!
>>1285072 >ты не знаешь матан и как все работает под капотом Как анон, знающий как все работает может сдерживать смех и с умным видом крутить пимпочки?
>>1285078 А вот шлепать круды, это нужно быть кандидатом наук для которого реляционная алгербра не пустой звук, или рандомно писать ключевые слова из жс, пока результат не устроит заказчика?
>>1285481 Теоретики, а не практики. Хотя вроде недавно весьма серьёзная статья была по практической примеромости. Но ещё далеко, можешь поспособствовать.
>>1285516 Я где-то видел статью, где ее сравнивали с глубокой сетью доверия и она выиграла. Много про нее почитал, но так и не понял, кто определяет там количество регионов и памяти, что выделяется на каждый, она сама или я должен это делать? Надо, видимо, ручками ее потискать, а не задавать вопросы Анонам Пока писал пост, таки нашел статью: http://www.measurement.sk/M2013/doc/proceedings/023_Valentin-1.pdf
>>1285557 >Надо, видимо, ручками ее потискать, а не задавать вопросы Анонам А ты не такой уж и глупый, тут джва с половиной практика один вот этот >>1285516 понимает что к чему и почему не работает, а второй я.
>>1285557 Это статья 2013 года, которую писали еще раньше - до Словакии AlexNet, видимо, долго доходила. Сейчас использовать подобные вещи для классификации листьев немного странно, что 56%, что 66% - это очень плохо.. Поищи что-то поновее.
Сверточные сети нужны пока еще только для автоматического выделения фич, с самими этими фичами они работают не лучше чего угодно. И очень хороший вариант для работы с этими фичами - встраивание их в векторное пространство слов, фраз, документов по типу word2vec. Есть StarSpace, там уже реализовано такое встраивание фич от картинок вместе с текстом. Я давно говорил, что подобные модели дальше будут развиваться в сторону встраивания в единое векторное пространство разномодальных данных, и вот пейсбукаиресерш это уже реализовали. Могу сказать, что будет дальше. Найдётся метод выделения фич негров получше чем сверточная хуитка, причём, все будет работать без графических ускорителей, для нормальных алгоритмов они и нахуй не нужны, пример те же word2vec и StarSpace. И весь этот соевый хайп закончится, а владелец нвидия Сунь Хуй Чай потеряет миллиарды.
>>1285775 >Сверточные сети нужны пока еще только для автоматического выделения фич Про генерацию забыл. >И весь этот соевый хайп закончится, а владелец нвидия Сунь Хуй Чай потеряет миллиарды. Хорошо начал, но закончил все равно шизой. У тебя денег на 1080 Ti нет что ли? Сверточные сети появляются там, где у у тебя есть данные, которые инварианты относительно сдвига. Это изображения и звуки прежде всего. Сущности, которые весят по несколько мегабайт и при этом очень избыточны, то есть так или иначе тебе нужно уменьшить число измерений. Будет у тебя "метод выделения фич негров получше", какой-нибудь SIFT на стероидах, допустим, он все равно будет ускоряться с помощью GPU, потому что GPU - это более эффективное для распараллеливания использование площади кристалла, они никуда не денутся, пока есть параллелящиеся задачи. Сложно придумать алгоритм обработки изображений, который не ускорялся бы на GPU, если только специально не стараться.
>>1281076 (OP) Добрый день. Пытаюсь в DCGAN, но он нихуя толкового не генерирует. Изначально хотел арт погенерировать, потому подумал, что данные слишком разные и решил mnist погенерить. На mnist тоже ВООБЩЕ ничего нужного не получается.
Что делать ? Что почитать ? У кого был подобный опыт ?
DCGAN же работает сразу в большом разрешении и поэтому там нужно филигранно настраивать мощу дискриминатора и генератора. Но для минста ты можешь и готовый код на гитхабе найти и плясать уже от него.
>>1285869 Машоб использует в т.ч. матстат и довольно близко стоит к вычислительной статистике (statistical computing), но это архаизм - термин только совсем динозавры используют. В любом случае она - не раздел статистики, а мост между ней и информатикой.
Есть ли где-нибудь, на каком-нибудь ЯП библиотека, которая вскармливается некоторыми изображениями, находит в них нечто общее, и это нечто общее рисует в новое изображение? Т.е на основе некоторых изображений создаёт похожее изображение.
Хотел бы я нейросеточку, которая генерировала арты с Аквой-сама.
>>1285812 Ну классические алгоритмы не особо для видео подходят. Да и вдруг мне нужно моделировать поведение какого-то обьекта? Например, хочу реалистичную симуляцию ткани какой-нибудь.
>>1286194 У меня в универе ни QR ни SVD вообще не было. Вся третья глава охуенна, потому что дает дохуя интуиции именно по всей линейщине и МНК -- но читать надо очень вдумчиво, это да.
Задачи сложные именно потому что требуют интуиции о том что все это значит.
>>1286200 Есть смысл серьезно вкладываться и долго думать над каждым упражнением, которое я не могу решить быстро? Я посмотрел пару решений для таких в интернете, они кажутся мне очень нетривиальными.
>>1286204 Дык там же даже есть значок с "Ужоснахом", где автор говорит что по-первой лучше не лезть. Я ее третью главу всю, наверное, с третьего захода осилил...
>>1286194 Посиди над каждой минут сорок, если вообще ноль, смотри ответы. По сути это продолжение книги, только тебе дают возможность допереть самому и вырасти таким образом.
>>1286284 Полных ответов в открытом доступе не видел. Официального мануала нет, а решения, публикуемые в интернете, как минимум не покрывают все задания (после где-то пятой главы уже только единицы упражнений решены), а зачастую ещё и с ошибками. В этом, пожалуй, один из главных недостатков книги.
>>1286116 >Ну классические алгоритмы не особо для видео подходят. Почему? Structure from motion для видео с дронов (облетаешь на дроне ангар и получаешь его 3д модель) сейчас довольно горячая тема.
>>1286200 >Задачи сложные именно потому что требуют интуиции о том что все это значит.
Нихуя не понял построение предложения. "О том, что все это значит" может требоваться знание. Интуиция - это догадка, озарение. Ты точно не кальками с английского разговариваешь?
>>1286306 Ты не слышал про математическую интуицию? Надо в голове иметь целый багаж аналогий, чтобы чувствовать математические объекты, а не просто заниматься символьными преобразованиями. Научить этому сложно, а способность к этому сильно зависит от твоего IQ.
>>1286306 > Нихуя не понял построение предложения. Нихуя не верю что ты не понял о чем я. Ты просто до семантики доебываешься потомучто попоболит.
> Интуиция - это догадка, озарение. Интуиция - это когда тебе говорят SVD, а ты сразу представляешь: мультинорманльное расперделние, гиперплоскость на резиночках, таблицу расстояний между городами, отображающиеся эллипсоиды и, внезапно, W бозоны с кварками.
>>1286520 После. На PhD уже. Причем именно со стороны статистики и обработки эксперимента. Потом фрилансил датасаентистом - баезовы сетки вязал. Нейронные серъезно не трогал.
Двач, функция правдоподобия даёт вероятность что х был правильно классифицирован при параметре w? А в функции макс правдободобия я подбираю w при котором эта вероятность наибольшая?
Как мне написать на этом ебучем TensorFlow простейшую LSTM структуру вида:
network = architect.Perceptron(636, 35, 35, 2)
Почему в Neataptic это делается одной строкой, а в TensorFlow непонятно вообще что делать, какие то горы текста с ебучими СОКРАЩЕННЫМИ названиями (как будто компилированный JS, блять, разбираешь)?
Просьба не троллить.
Сейчас, возможно налетит байтоёбская ЭЛИТА, которой "в кайф" (на самом деле нет, я знаю что это пиздёжь) ебаться с этими "структурами". Но факт остаётся фактом: от Angular, как и от TensorFlow можно только блевануть (тем не менее вопрос о создании простейшей структуры не отменяется).
Это мне нужно исключительно потому что Neataptic не поддерживает GPU, иначе я бы это говно вообще не трогал.
>>1286666 Функция правдоподобия к задаче классификации относится опосредованно. Логистическую регрессию разбираешь?
Функция правдоподобия - это следующее: есть данные X, которые, как предполагается, распределены по закону F(x; z), известному с точностью до параметра z. Функция правдоподобия L(w) - это вероятность получить эти данные X при z = w: L(w) = p(X; w). (точнее, не вероятность, а плотность вероятности - вероятность-то там для непрерывных распределений будет 0)
В простейшем случае X - это просто выборка x1, x2, ..., xn независимых и распределённых по закону F(x; z); тогда L(w) = p(x1; w)p(x2; w)...p(xn; w).
Если это логистическая регрессия, то данные - это обучающая выборка - набор пар (xi, yi) (объект - ответ), а распределение выглядит так: p(x, y; w) = p(y | x; w) p(x) (p(x) - распределение объектов в пространстве, от параметров не зависит). Делается предположение, что p(y = 1 | x; w) = 1 / (1 + exp(-a(x))). Опять же, функция правдоподобия - это вероятность получить обучающую выборку, если параметр распределения равен w.
Функции максимального правдоподобия нет. Есть функция правдоподобия, для которой можно решать задачу максимизации. Это называется задача максимизации правдоподобия. Да, это задача подбора такого значения параметра w, при котором вероятность получить обучающую выборку наибольшая.
>>1286665 > Тут все комплексуют Нет, ты один тут такой, попандопуло жизнью обиженное. Лечись иди, пока не поздно. В окно же выйдешь или мамку свою ебнешь из-за остывшего борща.
Output [0->1, 0->1] это какая loss функция? Output может быть: нулевой (при некоем условии, это вычисленно в данных), либо приводиться к вероятности от нуля до единицы.
>>1286979 >>1286984 Вообще похоже либо на логлосс, либо кросс-энтропия. Но я вс ё равно не понял задачу. "При некотором условии" - это "если для объекта выполнено условие, то ответ гарантированно 0, в остальных случаях считать вероятность"?
>>1286991 Ага, то есть в обучающей выборке ответы - это числа из [0, 1), так? А алгоритм что должен выдавать? Тоже числа из этого интервала? Или из {1, -1}? В первом случае можно попробовать статистические расстояния (расстояния между распределениями, https://en.wikipedia.org/wiki/Statistical_distance). Во втором, возможно, подойдёт всё тот же логит.
Нейранончики, авотскажите -- года два-три назад я обмазывался RNNками и все только и говорили что об LSTM. Потом мне не до всего этого было и я особенно не следил. Сейчас вернулся глянуть какой прогресс на этом поприще, а про длиннокороткопамять ни слова -- одни автокорелляторы, да attention networks какие-то. Что LSTM не пошла?
Дописываю вот ии, и такое дело. Допустим в гипотетическом ии есть стиль коррекции ошибок. Ии что-то делает. И возникает ошибка. И тут, вроде бы, два варианта: вычислять дальше/дольше/по-другому, в надежде на более точный результат, жертвуя временем. Либо изначально вычислять недолго, с хуёвыми результатами, но брать количеством и получать больше фидбека от окружения, корректируя итоговую нейронку тупо числом неудач. Это кагбе качество против числа. // я не программер, просто не знаю где спросить Какие ещё стили коррекции ошибок могут быть у ии, чтобы не жертвовать скоростью выдачи результата?
>>1287286 Я не программист(1), и как мог переделал вопрос под нейронки, потому что машинное обучение это ближайшая тема к моей задаче. Не знаю пока как спросить нормально, в основном сам отвечаю на собственные вопросы. В моём манямирке ии это самообучающаяся нейронка с железом которым она может рулить, у которой могут быть свои стратегии работы основанные на фидбеке от внешнего мира, и которая может грабить корованы. Если допустить что процесс обучения такой нейронки будет протекать беспрерывно и предположить что эти стратегии основаны на коррекции ошибочных действий при принятии решений, то можно сходить нахуй сделать вывод о предположительной возможости двух стратегий принятия решений во время беспрерывного обучения. Подумать дольше, потом сделать. Или делать до охуения, с ошибками, до момента пока нейронка не сформируется в степени достаточной для принятия решения с процентом точности овер сколько_то_там%процентов. Ну то есть мир типа не совершенен, окружение не будет ждать пока нейронка достигет, пусть даже этих, 96% точности. Требуются стратегии принятия решений при большом количестве ошибок ещё нихуя не готовой нейронки.
>>1287327 Ну ёб твою мать, я не знаю как нормально объяснить. Можно чистить картошку ножом, резать пальцы, но забивать на это хуй, до тех пор пока пальцы новые не отрастут и не сформируется навык чистки картошки. Будет большее количество проходов, навык сформируется быстрее Можно чистить картошку ножом, медленно чистить, жертвуя скоростью принятия решений, не забивать хуй на порезанные пальцы, но навык сформируется неизвестно когда, и сформируется ли он вообще. Вот какой-то такой выбор стоит, их вроде всего два, но не может быть такого чтоб не было третьего.
>>1287335 > Ну ёб твою мать Симметрично. Ты слова пишешь, которые, сразу видно, что вообще не понимаешь что значат. Тебе вон советуют Q-learning. Я еще могу бандитов, эксплорейшен/эксплуатейшен и всякие эпсилон-greedy подкинуть. Но тебе это все рано-же.
так или иначе, глянул это всё, оно слишком относится к элементарным алгоритмам, микро-уровню, из которых строится макро, далеко они от решения макро-проблемы.
>>1286998 Если я буду обычный softmax использовать для loss функции - она будет учитывать тот факт, что probability в output data где-то в более, чем 70% = 0?
history = model.fit(training_set_input, training_set_output, validation_data=(validation_set_input, validation_set_output), epochs=10, batch_size=32)
////////////////////////////////////
File "network.py", line 85, in train history = model.fit(training_set_input, training_set_output, validation_data=(validation_set_input, validation_set_output), epochs=10, batch_size=32) File "/usr/local/lib/python3.5/dist-packages/tensorflow/python/keras/_impl/keras/models.py", line 920, in fit validation_steps=validation_steps) File "/usr/local/lib/python3.5/dist-packages/tensorflow/python/keras/_impl/keras/engine/training.py", line 1592, in fit batch_size=batch_size) File "/usr/local/lib/python3.5/dist-packages/tensorflow/python/keras/_impl/keras/engine/training.py", line 1431, in _standardize_user_data exception_prefix='input') File "/usr/local/lib/python3.5/dist-packages/tensorflow/python/keras/_impl/keras/engine/training.py", line 144, in _standardize_input_data ' dimensions, but got array with shape ' + str(array.shape)) ValueError: Error when checking input: expected lstm_1_input to have 3 dimensions, but got array with shape (300, 636)
>>1287440 У тебя keras принимает работу над батчами на себя, поэтому когда ты пишешь model.add(tf.keras.layers.LSTM(35, activation='sigmoid', input_shape=(300, 636))), фактически твоя модель ожидает тензор размерностью (число_батчей, 300, 636), где число батчей произвольное, что и обозначается как None.
Перед Dense сделай Flatten, Dense не работает с 2д
>>1287428 >model.add(tf.keras.layers.LSTM(35, activation='sigmoid', input_shape=(300, 636))) А, понял. Ты пишешь 300, 636, так как 300 размер твоего трейнинг сета, а выглядит это так как будто ты имеешь инпут картинкой. Керасу не нужно это. Пиши model.add(tf.keras.layers.LSTM(35, activation='sigmoid', input_shape=( 636))) И все.
Продолжаем спрашивать очевидные вещи, о которых знает любой индус, прочитавший хоть одну книгу по машобу.
FAQ:
Я ничего не понимаю, что делать? Либо в тупую import slesarplow as sp по туториалам, либо идти изучать математику курсы MIT тебе в помощь. Не нужно засирать тред вопросами типа "что такое сигма?".
Какая математика используется? В основном линейная алгебра, теорвер и матстат, базовый матан calculus многих переменных.
Что почитать для вкатывания? http://www.deeplearningbook.org/ | Николенко и др. "Глубокое обучение" На русском, есть примеры, но уже охват материала
В чем практиковаться нубу? http://www.deeplearning.net/tutorial/ | https://www.hackerrank.com/domains/ai | https://github.com/pytorch/examples
Где набрать первый самостоятельный опыт? https://www.kaggle.com/ | http://mltrainings.ru/
Где работать? https://www.indeed.com/q-deep-learning-jobs.html
Где узнать последние новости? https://www.reddit.com/r/MachineLearning/ | http://www.datatau.com/ На реддите также есть хороший ФЭК для вкатывающихся
Где посмотреть последние статьи? http://www.arxiv-sanity.com/
Где ещё можно поговорить про анализ данных? http://ods.ai/
Нужно ли покупать видеокарту/дорогой пека? Если хочешь просто пощупать нейроночки или сделать курсовую, то можно обойтись облаком. Иначе выгоднее вложиться в 1080Ti или Titan X.
Список дедовских книг для серьёзных людей:
Trevor Hastie et al. "The Elements of Statistical Learning"
Vladimir N. Vapnik "The Nature of Statistical Learning Theory"
Christopher M. Bishop "Pattern Recognition and Machine Learning"
Взять можно тут: http://libgen.io/
Напоминание ньюфагам: немодифицированные персептроны и прочий мусор середины прошлого века действительно не работают на серьёзных задачах.
Архивач:
http://arhivach.cf/thread/396055/
Остальные в предыдущих тредах
Там же можно найти треды 2016-2017 гг. по поиску "machine learning" и "НЕЙРОНОЧКИ & МАШОБЧИК"
Предыдущий тред: