ПЛАТИНА Книги хорошо, но с чего начать практический вкат? Во-первых, вам нужна любая unix-based система. На Windows возможно запустить нижеперечисленное, но ждите пердолева с настройкой и неодобрительных взглядов анонимуса. Кроме того, в компаниях, так или иначе связанных с разработкой йоба-ПО и machine learningом, Linux/OS X является стандартом. Привыкайте. Во-вторых, определитесь с языком. Python и C++ наиболее мейнстримовые инструменты, с ними вы без еды не останетесь. Есть еще R, на котором пацаны живут статистикой и анальными пакетами. Некоторые инструменты являются языко-независимыми (Vowpal Vabbit, XGBoost), но обвязывать их вы все равно будете из какой-либо среды. На Java разработано много production-ready инструментов для бигдаты и если вы угораете по терабайтам данных, то имеет смысл посмотреть в её сторону. Впрочем, лучше это делать уже потом, когда прийдет осознание потребностей. В-третих, выбирайте себе задачу. Что угодно: распознать качпу, обнаружить ботов по логам, найти раковых больных. Список можно посмотреть, например, на kaggle.com. После чего приступаете к решению выбранной задачи.
Не прийдется ли мне потом с таким наборищем знаний идти в макдак работать? Несмотря на хайп вокруг ML, далеко не во всех IT компания есть необходимость в ML и понимание круга задач, которые можно решить этими методами. Но поверьте, в 2017 компетентный специалист будет востребован. В России потребителями ваших знаний могут стать: Яндекс, Mail.ru, Вконтакте, Rambler, Касперский, Билайн, Связной, ABBYY, Хуавэй. В биоинформатике есть определенный спрос, можно поскролить http://blastim.ru
Здорово, но я так и не понял чем же вы занимаетесь в IT компаниях? Попытаюсь ответить со своей колокольни и сразу хочу предупредить, что это едва ли консенсуальное мнение. ML-специалист - это такое зонтичное определение для человека, способного увидеть проблему, выгрепать кучу логов и данных, посмотреть на них, придумать решение проблемы и врезать это решение его в продакшн. По сути, это кодер, решающий не чисто технические, а, в некотором роде, человеческие проблемы. Имхо, мы все же остаемся в первую очередь разработчиками.
Что такое TensorFlow? TensorFlow - опенсорсный гугловый инструмент для перемножения тензоров и оптимизации функционалов. Опенсорсный - потому что даже важные куски типа параллелизации уже выкачены в паблик. Если вам все ещё непонятно что это, значит это вам и не нужно, сириусли. Google перестарался с рекламой и теперь люди думают, что TF - это серебряная пуля и затычка для каждой бочки. До TF был Theano, который выполнял свою работу не хуже. И, в отличии от TF, он уже находится в стабильной фазе.
будет ли ML нужен в ближайшие 10 лет, или это просто хайп? будет. хайп.
смогу найти работу? Яндекс, мейлру, касперский, несколько биоинформатических компаний (iBinom, можно еще blastim.ru поскролить на тему работы), билайн (они с НГ целое подразделение открыли под ML и биг дату), связной. Ну и западные аутсорсы, если готов рачить за валюту.
поясните за нейроночки нейроночка - массив зависимых типов
шад))) Нет там ничего ML-специфичного, знание матана и теорвера на уровне заборостроительного вуза. Теорвер проходится на третьем курсе, как раз 20 лет. Рандомный хрен туда не сможет поступить, потому что планка намеренно задрана, а не потому что там такая охуенно сложная программа. Это традиционная наебка "элитных учебных заведений", в которой учат так же хуево, как и везде, но за счет отбора поступающих якобы формируются неебовые успехи, которые объясняются именно качеством преподавания. Иными словами, у тех, кто способен поступить, и так в жизни проблем с трудоустройством не будет.
Пасаны, кто-нибудь ебашил вот этот контест? https://www.kaggle.com/c/titanic У меня максимум получилось выбить 0.775 точность с помощью logistic regression (иногда random forest, если немного изменить входные параметры). Я хуй знает ваще как там люди набирают 0.8++. Ну и те, кто набирает 0.85+ ясное дело читерят.
>>900174 Ты что, забыл легендарный, сука, график с экстремумом?! Она мастер на все руки — и мл, и дистрибутед клавд системс, и фронтендер, и байтоеб (вспоминаем ее первую книжку с которой все началось), и манагер — в общем, вайфу!
>>900198 А что, разве это не должно покрываться уже двумя имеющимися фичами: возраст и пол? Зачем их соединять? Ну это конечно зависит от алгоритма. Но по крайней мере в decision tree там же идут отвелтвелния, он же наверняка распознает, что если чел девчока и ей меньше 16, то скажу, что она выживет?
>>900245 Ты только учти, что сам по себе сабж достаточно сложный и ты его скорее всего дропнешь, если для души хочешь этим заниматься. Надо идти учиться в какой-нибудь иностарнный универ на курс именно по АИ, чтобы иметь возможность работать уже непосредственно дата сцаентистом.
Вопросики про ШАД. - кто-то из треда учился там на заочке? - подготовиться за полгода - реальная задача? Времени много, матан и теорвер минимально знаю. И вообще буду рад если поделитесь своим опытом подготовки и советами.
>>900264 Нет там ничего ML-специфичного, знание матана и теорвера на уровне заборостроительного вуза. Теорвер проходится на третьем курсе, как раз 20 лет. Рандомный хрен туда не сможет поступить, потому что планка намеренно задрана, а не потому что там такая охуенно сложная программа. Это традиционная наебка "элитных учебных заведений", в которой учат так же хуево, как и везде, но за счет отбора поступающих якобы формируются неебовые успехи, которые объясняются именно качеством преподавания. Иными словами, у тех, кто способен поступить, и так в жизни проблем с трудоустройством не будет.
>>900230 пять тредов назад анон ТИМОЧКA решал задачки из русской книги по мл, поищи там в её названии вроде было слово "алгоритмы" сорян мне с таблетки не удобно искать
>>900316 >>900167 >>900187 А вы не думали, что для этого датасета в принципе нельзя создать решающего правила со 100% результатом? Все, что можно вытянуть из самих данных, уже вытянули, остальные случаи выживших или невыживших выжили или не выжили просто потому что так получилось, а не потому что они относились к конкретному классу.
>>900480 большинство соревнований в кэггле на создание новых фич, на выбор фич, на нахождение корреляции там, где ее не должно быть (айдишники), базовых почти никогда не хватает
>>900532 А это не онанизм ли? Если я в случае с титаником к неправильно классифицированным объектам добавлю фичу "бохнакажет" (1 для невыживших 0 для выживших), и получу 100% правильную классификацию, то что это даст?
>>900537 если это нормальное соревнование, там тестовая выборка, ты не знаешь правильный результат для нее. А титаник - это туториал, посмотри лидерборд, там куча 100%.
>>900480 > для этого датасета в принципе нельзя создать решающего правила со 100% да, нельзя
> Все, что можно вытянуть из самих данных, уже вытянули, остальные случаи выживших или невыживших выжили или не выжили просто потому что так получилось, а не потому что они относились к конкретному классу. вот это скорее всего нет, точность можно улучшать до какогото момента
Вообще, ML скатывается. Если раньше был серьезный подход, а-ля пикрелейтед, пытались выяснить и обосновать формально, почему не получается идеальное распознавание, сделать выводы из полученных теорем, обойти ограничения, построить алгоритмы, которые не тупо асимптотически приближаются к наилучшему возможному результату, а используют особенности датасетов и т.д. и т.п., то сейчас уперлись в полтора решения - сверточные сети и бустинг и для улучшения результатов просто хуярят количество слоев. При 30 слоях ошибка 0,003? Ахаха, заебеним еще 150 слоев и получим ошибку 0,028. Похуй, что нейроночка на кластере месяц будет пыхтеть, зато результаты лучше чем у других))) Деградантство.
>>900766 Знаешь, как это выглядит со стороны? Представь ситуацию. Господа в смокингах и цилиндрах сидят в обедне и пьют чай, обсуждая свёрточные нейроночки, гауссовы процессы, вариационные методы, наконец. Тут к ним вползает пьяный вдрызг кучер Ванька. Отплевывая лошадиный навоз, он ссыт под себя, одновременно блюя на пол несвежим портвешком. Затем достает задроченный томик Вапника, найденный на помойке. "линейные мoдели, VC измерение - вот где мыслЯ, блеать, вот где красота и свежесть!". Смеясь, господа растегивают ширинки и мочатся быдлу в рот. Зовут R-макаку - местного R-задрота, он спускает частотопетуха с лестницы. Он делает это с удовольствием - хоть зачем-то сгодился элите. Поднимаясь за похвалой, он начинает зациклено бормотать про пакеты. Господа для острастки ссут на него, после чего возвращаются к своим светским беседам.
>>900766 Во-первых, ты обязан тем, что тебя ценят, тем, что тебе удобно работать на дешевом железе и с удобными фреймворками этим самым индусам, которые полегли в конторах типа гугла и фб, чтобы запилить тебе удобно. Во-вторых, ценно то, что работает и то, что ты сможешь запустить в прод максимально быстро и без еботни с интегралами. Понятно, что сетки пилить тоже не баб на сеновал таскать, но если при имеющихся ресурсах и данных это эффективнее - так и будут делать. В-третьих, твое мнение как анонима с задрипанным учебником не волнует никого, если хочешь быть услышанным и вернуть "тот самый ML", осиль либо продать его компаниям, либо опубликоваться так, чтобы тебя заметили. До тех пор - милости просим изучать нейроночки.
>>900846 >Знаешь, как это выглядит со стороны? Со стороны параши выглядит именно так, как ты расписал. >>900996 >ценно то, что работает и то, что ты сможешь запустить в прод максимально быстро и без еботни с интегралами. >твое мнение как анонима с задрипанным учебником не волнует никого Я же говорю, что в этом задрипанном учебнике доказывается, что в общем случае существует бесконечное количество алгоритмов, решающих задачу распознавания образов асимптотически близко к оптимальному. Из чего прямо следует, что "хуяк хуяк и в продакшон" можно сделать как минимум хуиллиардами разных способов, каждый из которых будет в общем случае не лучше остальных, просто результат будет круче у того, у кого кластеров больше. Это не просто путь в никуда, это натуральное топтание на месте. И мартышки даже не понимают этого, поскольку как ты правильно заметил, главное продать, а не разобраться в чем-то.
>>901117 >главное продать, а не разобраться в чем-то WOK, школьник узнал про экономику. Школьнику осталось узнать про науку и разницу между этими двумя сферами деятельности.
>>901269 Именно, потому они не конкуренты затрибаным книгочитам. Читай, пиши, публикуйся. Может тебе даже денег дадут на эту науку в связи с тем, что МЛ-индусы деньги приносят в реальном секторе.
>>901117 Так сделай правильно! Делать теоремы из кофе ебически тяжело, сварить теоремы в работающую конструкцию - тоже непросто. Побеждает не тот, у кого кластеров больше, а тот, кто приложит кластера в правильную сторону правильным образом. Если тебе кажется, что классический ML легко толкать вперед и применять в нынешних реалиях - примени, ты нарубишь на этом вагон денег и славы. Если же вдруг окажется, что авторы статей по нейронкам тоже не дураки и идут туда, где проще получить реальный профит в виде точности предсказания/применимости на практике, то ты можешь просто посидеть на месте и дождаться, когда они за тебя сделают будущее.
Правильно ли я понимаю, что чтобы использовать relu слои надобно сделать Batch normalization ? Просто пробовал вставить вместо tanh и получилась херня почти необучаемая или намного хуже обучаемая(в зависимости от размера батча и скорости обучения).
>>901623 И еще, не совсем понятно с нормализацией входных данных. Как их нормализовать [0,1] или [-1,1] ? Во всех примерах делают [0,1], но у меня получалось лучше когда было [-1,1]. И как понмать вот такой pooling слой:размер 3x3, шаг 2, но уменьшает он почему-то он ровно в 2 раза, а не в два минус один. Как это понимать?
>>901638 SVM ежжи. Натягивание совы на кернел с последующим поиском седловой точки совы, что по теореме Куна-Таккера равносильно поиску минимума вон того функционала справа методом множителей Лагранжа, т.е. решению типичной квадратичной проблемы справа внизу любым подходящим солвером.
>>901117 >хнык, они делают не то, что мне нравится, ну мам скажи им Для дилетантов вроде тебя вообще вся наука топчется на месте годов с 60-х. Ты не способен понять, что делают люди и для чего. МЛ ушел вперед, а ты годами кукарекаешь с помоечки.
>>901927 Тыкаешь на оранжевую подчеркнутую надпись. В открывшейся странице тыкаешь на большую зеленую картинку в середине. Потом тыкаешь на первую синюю подчеркнутую надпись "pdf" в зеленой таблице в середине. На экране появятся буквы, их надо складывать в слова. Дальше сам.
>>901925 >Для дилетантов вроде тебя Ой, недилетант, плес. Школоилитарий голос подал. Расскажи, что нового в твоих сверточных нейроночках появилось с 80-х годов кроме relu вместо сигмоидов и количества слоев? При том, что сами эти нейроночки ничем не ушли от перцептрона, о чем писал сам Лекун (точную цитату и источник уже не найду, но смысл в том, что все что может сверточная сеть, может и перцептрон, просто у него в этом случае будет столько связей и элементов, что физически это нереализуемо).
И тут я такой вкатываюсь в этот тредАноним28/12/16 Срд 00:11:31#68№902242
А вот захотел, я например, ну чисто гипотетически, обмазаться нейронными сетями. Ну ок, захотел - че-б не обмазаться? Сейчас меня за такое вступление говном закидают. Полез, значит, в свою папочку с книгами, которые в 2012 году с торрентов нагреб - где-то там у меня Хайкин лежал ("Нейронные сети, полный курс, второе издание"), которого тогда читать начал и дропнул. По очевидным причинам - не осилил. Срубился на биномиальных представлениях, где он про обратные связи рассказывает. Ну ок, читаю, значит. "синапсы Хебба", "расстояние Махаланобиса)))"... там, где "Обучение Больцмана" - на паузу поставил. На быстрой перемотке пролистал дальше - "нормальная проекция точки x на оптимальную гиперплоскость", "мультиномиальные вероятности, соответствующие решениям, принимаемым сетями шлюзов первого уровня k и второго уровня (j, k) соответственно", "аддитивный гауссов шум с нулевым средним значением и дисперсией, равной 0,04"... Не, это конечно все очень круто. Но если за каждым гауссовым шумом в википедию лезть - я эту книгу и за год не прочитаю. Это уже не говоря о том, что теория, без подкрепления практикой, это вчера прочитал - сегодня забыл. Короч не стал я ее читать дальше, а пошел на торренты скачал А.Илюхина "Самоучитель игры на балалайке".
Так вот у меня вопрос. А есть что-то почитать по нейронным сетям без вот этих ортогональных преобразований подобия, а такое, чтобы "в цикле считаем вот эту хрень" или "весовые коэффициенты будем хранить в двумерном массиве"... Короч, че-нить такое, чтобы я мог сразу на своем любимом языке посмотреть, как эти мультиноминальные мехаланобисы работают. Ну а потом уже, с некоторым практическим опытом, садиться читать этот ваш матанализ, чтобы не натягивать его на лысую голову.
>>901984 >(точную цитату и источник уже не найду, но смысл в том, что все что может сверточная сеть, может и перцептрон, просто у него в этом случае будет столько связей и элементов, что физически это нереализуемо).
Звучит как "это всё можно просто реализовать на ассемблере, потому что все тюринг-полные языки могут одно и то же".
Понимаю, что здесь опытные господа сидят. Но вдруг каким-нибудь вкатывальщикам-дилетантам, которые просматривают этот тред, будет интересна такая тема. https://2ch.hk/sci/res/400025.html
>>902242 С Хайкина ты зря начал. Почитал бы хоть оп-пост, там его нигде не советуют. Я не зря просил туда добавить Fundamentals of Neural Networks: Architectures, Algorithms, and Applications, Fausett L. это очень годная книжка. >че-нить такое, чтобы я мог сразу на своем любимом языке посмотреть, как эти мультиноминальные мехаланобисы работают. Если можешь в пистон - однозначно http://gen.lib.rus.ec/book/index.php?md5=A5205BD61ADDC523C7FBFE1D7EB0B3C6 Чтобы понять нейроночки, матанализа достаточно в объеме Зорича или Фихтенгольца, теорвер - Вентцель. Ничего в этих нейроночках умного нет, но если не знаешь что такое дифференциал или нормальное распределение - соснешь на первых же страницах любой книжки в тему.
>>902242 >Но если за каждым гауссовым шумом в википедию лезть У тебя, очевидно, нет базы. Это как будто ты пытаешься изучать линейную алгебру, не освоив школьной программы, и тебя ставят в тупик такие понятия, как умножение или равенство.
>Короч, че-нить такое, чтобы я мог сразу на своем любимом языке посмотреть, как эти мультиноминальные мехаланобисы работают. Ну а потом уже, с некоторым практическим опытом, садиться читать этот ваш матанализ, чтобы не натягивать его на лысую голову. "Циклы, переменные, функции, операторы это слишком сложно все. Ты мне скажи, на какие кнопки я должен нажать и в какой последовательности, а там уж, когда я увижу результаты этого вашего кнопкодавства, я сяду изучать эти ваши катаморфизмы-итераторы, уже с практическим опытом"
Увы, чувак, ничего не получится. Путь от макаки до слесаря занимает десятилетия напряженного труда. Если ты в это не можешь, то это не твое.
>>902556 не, на самом деле процедурное по рулит. у нас тут просто фетиш, мы прочим на футуристические термины вроде "нейронные сети". круто звучит, верно?
>>902580 >нейронные сети - это как раз древнее наименование того, что сейчас называют машинным обучением а глубокие ньюрал нэтвёркс на сеголняшний день известны под названием дип лёрнинг, глубокое обучение, т.е.
>>902831 >ньюрал нэтвёркс на сеголняшний день известны под названием дип лёрнинг, глубокое обучение глубокий орал, вся суть. хотя что можно ожидать от матанобоядей? >>902826 >процедурное по в ты прав, пихают во все щели неропитухам
>>902831 диип лернинг тоже отличный термин, загадочный такой. но все же нейронные сети мне больше нравятся. это мощное словосочетание напоминает что-то из старой фантастики, про роботов, киборгов, про киберпанк.
К слову, тезис о том, что долбаебство с нейроночками есть топтание на месте вместо науки, выдвигал еще Вапник в 90-х. Пикрелейтед написано в 1996 году, спустя 10 лет с разработки бекпропагейшена. За это время не получено никаких интересных результатов, кроме изобретения пары велосипедов , например оверфиттинг, показанный для нейроночек и до этого был известен в ML, более того, известно что эта проблема обходится методами регуляризации. В целом же нейроночки не дали ничего для лучшего понимания проблемы обучения.
Уровни обучения: Нулевой уровень - стимул-реакция Первый уровень - само обучение Второй уровень - обучение обучению Третий уровень - обучение обучению обучению, вероятно этим занимается эволюция
Есть два стула: R и Python. Сам я физик-твердотельщик, нужен инструмент для обработки результатов экспериментов (то есть, я готов потратить время на освоение нужных зачатков какого-то языка, лишь бы выхлоп был побольше). В мат. статистике более-менее шарю. Склоняюсь к R, так он является более специализированным языком, под него заточены различные математические книги (Elements of Statistical Learning, например, которую я сейчас читаю), но в то же время Python является более универсальным, на нем и диффурчики можно порешать, и пакеты с конечноэлементными методами есть и т.д. На какой сесть?
>>903555 >Т.е. ты сейчас по-сути утверждаешь, что в R нельзя решать дифуры? Ok-ok, я нагуглил шпрингровскую и чапман-энд-холловску серии книг по R. Перефразирую вопрос: серьезно ли R уступает, скажем, пакету Anaconda для Python? Или я могу засесть за R и у меня никогда не возникнет необходимости в других программных пакетах (в частности, необходимости в Python) применительно к научным вычислениям (собственно, я сейчас немного пользуюсь Mathematica)?
>>903567 Мне бы выхлоп. Ну и это, стохастические дифференциальные уравнения или методы Монте-Карло, например. Что только сейчас в статистике не юзается. А прямую по методу наименьших квадратов я и сам построить могу.
>>903569 >серьезно ли R уступает, скажем, пакету Anaconda для Python? Или я могу засесть за R и у меня никогда не возникнет необходимости в других программных пакетах (в частности, необходимости в Python) применительно к научным вычислениям Скорее всего, хватит R. В этих ваших анякундах вряд ли есть что-то нереализованное в R. Есть такое - https://cran.r-project.org/web/views/ тематические обзоры, основные решения, реализованные в R по основным же направлениям его использования.
Возможно, генетическое программирование на MLTT - это вообще такой-то инструмент бога для экстракции программ из инфинити-топоса, вон как Максимка писал http://maxim.livejournal.com/479716.html
Без глубокого понимания задачи распознавания образов невозможны нормальные алгоритмы для этого, которые будут не просто асимптотически приближаться к оптимальному варианту в зависимости от числа слоев нейроночки и количества GPU, на которых она работает, а давать хорошие результаты на основе правильной работы с данными. В настоящее время, как и в 70-х, самый правильный подход - теория статистического обучения. Самые годные алгоритмы на основе этой теории - бустинг, н-р deepboost https://github.com/google/deepboosthttps://github.com/dmarcous/CRAN_deepboost матчасть - http://machinelearning.wustl.edu/mlpapers/paper_files/icml2014c2_cortesb14.pdf
>>904266 Это невозможно. Все, что создано -- это не более чем алгоритмы для решения определенных задач. ИИ в смысле человеческого интеллекта там и близко нет.
>>904284 По сути, ИИ, который аналогичен человеческому интеллекту или превосходит его, заключает в себе парадокс Рассела. Поэтому, дрочите дальше нейронки и не ебите мозги.
Вот такой вот неуралтолк на виндовс Bazel (We currently support only 64 bit Windows 7 or higher). TensorFlow (only 3.5 and only for win64). NumPy (instructions). Natural Language Toolkit (Install Python 3.4: http://www.python.org/downloads/ (avoid the 64-bit versions)): First install NLTK (instructions). Then install the NLTK data (instructions). Блядь, это какой-то пиздец. Короче на винде не пагамаешь.
>>904285 >ИИ, который аналогичен человеческому интеллекту или превосходит его, заключает в себе парадокс Рассела. >парадокс Рассела. Школьник где-то вычитал умный термин, такая милота. Причем тут основания-то, маня? Ты хоть понимаешь суть этого парадокса? Если даже и понимаешь, в чем я сомневаюсь, причем тут вообще ИИ, если любой хотя бы потенциально реализуемый алгоритм - это конструктивный объект, как и любые данные с которыми алгоритм может иметь дело? Именно поэтому в MLTT этого парадокса нет, его элементарно обошли, заменив тип всех типов на вложенную иерархию типов, что прекрасно работает в любом требуемом практическом смысле. >>904515 Схема уровня пикрелейтед, этот >>904533 абсолютно прав. Погугли функциональную систему Анохина, там намного лучше.
>>900102 (OP) почему эти ссылки не открывают пдфники с книгами, а только показывают страницу с ссылками а по ссылкам какие-то таблицы с названиями книг?
>>904687 Потому что здесь тусит поехавший шизик, который эту самую логику форсит уже много лет. Так-то эта штука очень годна для рисоварок, поэтому японцы на нее и дрочат.
>>904692 >Так-то эта штука очень годна для рисоварок, поэтому японцы на нее и дрочат. Раз школьник с мейлру так сказал, значит так и есть. На самом же деле причина охлаждения интереса к нечетким моделям в другом. 1) Нейрофаззи-модели, а это один из наиболее годных методов настройки нечетких моделей, в общем случае не показали результатов, значительно превосходящих другие алгоритмы МЛ. 2) Попыток не просто хуярить одинаковые нейроночки, а более интеллектуально использовать преимущества именно нечеткомножественного подхода было ровно 1 (одна) - FLEXNFIS'ы Рутковского, конкретно, его идея унификации нейрофаззи-моделей и использования нестандартных Т-норм (мягких, параметрических, взвешенных и их совокупностей). 3) Несмотря на то, что полученная нечеткая модель системы при ее идентификации полностью прозрачна и представляет собой набор лингвистических правил, такие наборы бесполезны, т.к. запредельно сложны для понимания человеком. Т.е. не дают для понимания системы ровно нихуя. Дело в их количестве, у Коско есть примеры простых хаотических систем типа аттрактора Лоренца, описываемого примерно 10000 правил вида "если-то". Естественно, ни у одного человека мозгов не хватит представить это в виде одной модели. Собственно, на этом тема и зашла в тупик. 4) Из этого тупика был найден выход, совсем недавно, уже в 10-е годы. Объяснять лень, да и это не уровень школьников с мейлру. Но авторами метода запилены не только пейперы, но и готовые программные решения https://sourceforge.net/projects/fingrams/ и https://sourceforge.net/projects/guajefuzzy/ есть и другое, но это не важно. Важно, что это реальный метод сделать нечеткую систему доступной для экспертного анализа человеком, даже если она содержит многие тысячи правил. Однако, на эту тему всем строго похуй.
Я имел в виду интеллект в человеческом понимании. То есть, нечто универсальное, способное адаптироваться и решать любую задачу, параллельно обучаясь и улучшая свои же свойства. Разве создание подобной вещи, которая способна задоминировать своего создателя во всех сферах деятельности, не является парадоксом?
>>904850 однажды я влюбилась в чатбота, а потом узнала, что он бот и это навеки разбило мне сердце. задачей всей моей жизни стало внедрение чатбота в тело андроида дабы мы могли единиться на физическом плане.
>>904844 Работа с символами обычно идёт в процессе записи доказательств для других людей. В мозгу работаешь концепциями и геометрической интуицией, полученной в процессе размышления над математическими структурами.
>>904876 Как развить у себя эти способности в мозгу? Как размышлять над математическими структурами? А то у меня понимания математики, как у второклассника, наверное. А все остальное это просто работа с символами по заученным правилам.
>>904789 >нечто универсальное, способное адаптироваться и решать любую задачу, параллельно обучаясь и улучшая свои же свойства. Разве создание подобной вещи, которая способна задоминировать своего создателя во всех сферах деятельности, не является парадоксом? Если бы нечто подобное являлось парадоксом, эволюция была бы в принципе невозможна, даже многоклеточные организмы не появились бы. Нет тут никаких парадоксов, тем более Рассела.
>>903549 А в чем проблема сесть на оба стула? Это же не сложнопарадигменная хуйня с монадами (в которой тоже проблем нет, если один вечер покурить). Питон может выучить даже пхп-макака, а у любого фреймворка есть нормальные гайды и гугел. R для матстата интуитивен. Можешь еще на матлаб посмотреть, я в универе все лабы по нейроносетям на нем сдавал.
Я не понимаю, почему выучить формальный язык вообще проблема. Концепция алгоритма от пересаживания с одного хуя на другой не изменится, даже если ты попробуешь это говно на прологе кодить
>>905523 >Есть математическая модель нейрона. Есть задача о ранце. Казалось бы что между ними общего? Очевидно же, второе решается с помощью первого. Грузоподьемность ранца W делит все наборы вещей на 2 класса - то, что влезет в ранец и то что в него не влезет. Нейрон способен разделить эти классы. Остается из того класса наборов предметов, которые влезут в ранец выбрать тот, который максимизирует функционал vi*xi, т.е. набор с наибольшей стоимостью V. >>905542 Почему псих-то?
Говорят, дабы что-то понять, надо пытаться учить кого-то другого. И ко мне пришла абсурдная мысль, как начать понимать математику мне лично. Конечно же, обучить компьютер математике и оперирования ею, как человека. И использовать те же методы развития понимания математики, как у человека. Скажите, может этим кто-то занимается?
>>906197 Например в том что многие действия выполнить никак нельзя, не хватит лютейших суперкомпьютеров? Научишь складывать, умножать, далее по элеменарному списку, а далее что? Разве ты сможешь сделать что-то кроме инструмента для вычислений, а не вычислялку, которая будет вычислять саму себя? мимо долбоёб
>>906197 Почему выбор стоит именно за пекой, а не двачером ребёнком дауном например? Ребёнок намного мощнее пекарни, намного умнее, понятливей. всё тот же мимо долбоёб
>>906209 >Например в том что многие действия выполнить никак нельзя, не хватит лютейших суперкомпьютеров? Хватит. На компьютерах давно есть символьная математика - это когда никаких вычислений не происходит, формулы просто преобразуются одна в другую по правилам математики. На этом уровне легко строить доказательства, выводить теории, и быстро прикидывать примерный результат. Без какого-либо суперкомпьютера. Внезапно человек делает с математикой тоже самое - не вычисляет, а преобразует формулы.
>>906212 У ребенка серьезный недостаток - он нестабилен, он одноразовый, он медленный. С первого раза все не получится как надо, а второго раза ждать годы - нахер надо. Компу можно за секунду почистить память и начать с нуля. И до победного.
>>904878 >у меня понимания математики, как у второклассника, наверное. А все остальное это просто работа с символами по заученным правилам Теперь ты понял что такое нейросеть и на что она способна на своём собственном примере, как самообучающийся ИИ, поздравляю, ананас!
Чем больше я читал о глубоком обучении, тем больше мне вспоминалось фрактальное сжатие изображений. Связано ли оно? А если нет, то возможно ли соединить и что будет?
>>906229 Ну, я спрашивал у одного человека весьма близкого к математике, как он размышляет над математикой. Он мне ответил, что сначала мыслит математическими концепциями и геометрической интуицией, а потом уже, грубо говоря, переводит в символы. А если просто символами оперировать, то по видимому, будешь близок к китайской комнате.
Дальше уже мои домыслы. Например, что кричит ребенок при рождении? Акушеры могут различить тональность и так далее, но все-же кричит что-то дабы известить людей о своем появлении. Смотрим в словарь Арахау: a 1) человек, ka мужчина; vad муж. См. abad отец; 2) немой гласный для класса людей aa люди (множество, толпа, массы) То есть даже удлиняя это aa, будет получаться все-равно множественное число людей. Люди, обратите на меня внимание - словно говорит он.
Вообще, мне кажеться, было бы интересно проанализировать базу детского лепета.
Дальше можно идти. Что означает Э? e 1) небо; мир (Вселенная) ee космос, мир И собственно, понятно, что натянутое Э может означать, как минимум удивление, а в худшем случае и когнитивный диссонанс. В любом случае это что-то такое выше.
Взять такое слово, как "mama". В языке Арахау оно означает, представьте себе, бег.
Собственно, язык довольно интересный, жаль я дилетант.
И мы берем базу детского лепета, вставляем в Мурманский полуостров, накручиваем там все время генетические алгоритмы для инкорпорации языка... И что же будет получаться?
>>906460 слово "мама" почти во всех языках означает "мама" или "папа", потому что [а] и губно-губной [м] легче всего произносить, а люди приписали лепету это значение. Это самая популярная гипотеза.
>>906847 Разум появился из-за того что (кого-то наебать/подумать над проблемой) чтобы получить все/больше ништяков оказалось выгоднее чем просто хуярить на инстинктах.
>>906847 >>906879 Короче из-за ограниченности текущих ресурсов, которых мало, но надо не сдохнуть, а ещё и получить побольше ништяков, напрягаясь по минимуму. (статьи чтоли начать писать, а то как хуй на блюде)
>>906882 >>906879 Ограниченность ресурсов рождает необходимость разума. Где хуярить пальцем в небо становится слишком затратно и невыгодно и рождается разум, чтобы нихуя не делать - и всё получить.
>>906854 Разум появился из-за сочетания двух факторов: необходимости выживать и отсутствии других средств выживания.
При любой возможности виды разделялись на две ветви, одна из которых менее приспособлена к жизни. Почти всегда вторая ветвь погибала сразу, без шансов на выживание. Но иногда она выживала, и в свою очередь тоже делилась на две ветви. Таким образом один вид постепенно вырождался в другой: менее сильный, но чуть более умный. Однажды вырождение прекратилось: человек утратил все, что можно было утратить, став полностью беззащитным, обменяв все достижения эволюции на разум. Только тогда он смог начать прогрессировать как разумный вид - когда все иные пути для него были отрезаны. Природа ленива. Именно поэтому, не смотря на то, что в природе сейчас много сильных интеллектом видов, ни один из них как разумный вид так и не стал развиваться - у всех у них есть иные, более легкие и доступные пути животного развития, и они по ним и пошли. Был бы у человека такой-же животный путь - он бы тоже предпочел остаться в пещерах, потому что работа разума слишком дорого стоит, слишком много он энергии жрет. Кстати все человеческие структуры тоже соблюдают принцип лени: обязанность работать мозгами в них передается кому-то одному. Один думает за всех - так экономится энергия. Человек всеми силами стремится не использовать мозг, стремится вернуться в пещеры, куда для него нет пути.
>>906888 Лобные доли, за счет которых у нас и осуществляется аналитическое мышление, изначально появились у женских особей, чтобы у них хватало ума делиться пищей не только со своими близкими, но и с другими родственниками, тем самым повышая выживаемость всего потомства (что очень хорошо, ведь их геном переносится дальше). Мужские особи всегда не так сильно нянчились с потомками, но лобные доли им все-таки достались, и они стали их использовать для других задач, придумывать всякие инструменты, или как обхитрить кого-то, и прочую хрень.
>>906888 > Один думает за всех - так экономится энергия. Значит ли это, что мне следует пиздовать идти на какую-то начальственную должность, мне, ноунейм хуйлу? (хотя мне известно что начальников на работу так вот просто не берут, она сами себя берут - и берут на работу. Сука, второй раз уже напомнили об этом в разделе)
>>906896 от себя не убежишь чуваки, своё я найдёт тебя там где ты нихуя и не просил. Везде брал на себя обязанности старост и т д и мне было в целом норм, ну ёпта, чёж вы творите-то нахуй
Но кто там выше кукарекал про эволюцию? С точки зрения эволюции, мозг вообще является враждебным элементом. Выживает не тот, кто самый умный, а тот, кто лучше приспособился к условиям обитания. Например, в мозг человека (да и не только человека) никакая органика напрямую не проникает. Доставляются только неорганические питательные вещества посредством глиальных и эпиндимных клеток, служащих, по сути, фильтром. Если это равновесие нарушается, то непосредственно в мозг проникают клетки имунной системы, которая считает его чужеродным организмом и начинает его мочить. Гуглить аутоиммунные заболевания мозга.
Поэтому, скорее всего, у эволюции не было "цели" создать интеллект. Вероятно, он возник случайно и так же случайно прижился, находясь в благоприятных условиях. Поэтому условный васян не способен создать разумное существо, которое, условно говоря, может поместить васяна в некую симуляцию жизни, про которую васян никогда не узнает и не поймет, что он в симуляции, построенной созданным им существом. Чем не парадокс Рассела?
>>906918 Так и есть. Разум - ошибка природы. По всем сценариям его не должно было существовать, т.к. в природе всегда есть более выгодные варианты, чем разум. Разум - игра случая. Его возникновение возможно лишь в одном невероятно редком варианте. А исчезнуть он должен был в миллиарде очень вероятных вариантов. Разум - это вечное противостояние с природой. В природе он постоянно умирает, и постоянно каким-то чудом восстает из пепла, как недобитый феникс.
Разум везде уничтожает природу, он противоестественен, для природы это как болезнь, рак природы. Разум сжигает много энергии, и для выживания вынужден уничтожать все вокруг себя, отнимая энергию у других. Другие виды могут впасть в спячку, экономя энергию, для разума бездействие - это смерть. Он постоянно активен, и постоянно проебывает кучу энергии. Наверное из-за этой активности он настолько живуч и неистребим - у разума невероятно мощная мотивация постоянно быть как можно более активным. Если есть хоть один невероятно редкий шанс на выживание - разум его найдет и использует. Разум - настоящая природная катастрофа, черная дыра планетарных масштабов, куда стекается вся энергия, и бесследно исчезает. И ему все мало и мало. Сколько бы энергии не было - разум всю ее оприходует, и попросит еще. Разум живет в условиях вечного ресурсного и энергетического голода, но... он сам порождает эти условия. Природа экономна, разум - расточителен. Поэтому все живое стремится к природе и пытается избавиться от разума.
В благоприятных условиях разум умирает - организмы-носители переключаются на более выгодные источники существования, отбрасывая разум. Оазисы разума в неблагоприятных местах: пустыни, равнины, горы, степи. Там, где жизни почти нет, там где выжить можно лишь за счет разума.
Так например в странах юга разум развился слабее всего - там пища росла на каждом кусте. Можно было пинать хуи всю жизнь. Сильнее всего разум развился в странах севера, где пищу приходилось вырывать из зубов мамонтов, медведей и тигров. Там человек вынужден был стать охотником и конкурировать с природой абсолютно за все, даже за пищу и одежду: вокруг только ледяная пустыня. Этот северный аспект до сих пор решает: дети, выросшие в условиях севера, до сих пор выходят по жизни умнее и сильнее тех, кто родился южнее. Родина разума там, во льдах и снегах, там до сих пор умным жить лучше всего. Их туда тянет: умные туда стекаются со всего мира.
Фактор конкуренции - ключевой. Без конкуренции нет развития. В природе много сильных охотников: акулы, динозавры, крокодилы. Но им не с кем конкурировать, и они не развиваются. А динозавры вообще передохли, не выдержав простой изменчивости климата - настолько слабы оказались животные, невероятно сильные физически. Физическая сила в контексте выживания ничего не стоит, изменчивость важнее.
Народы, живущие в неблагоприятных местах, получают буст разума. Но многие народы в неблагоприятных местах завершили свою эволюцию тысячи лет назад, дорвавшись до халявы, до земледелия и скотоводства, выродившись в банальных чурок. Чурки - тупиковые ветви цивилизаций. Чурки есть везде: в горах и равнинах, в пустынях и степях, на юге и на севере. Чурки завершили свою эволюцию, и сейчас повсеместно вырождаются, освобождая жизненное пространство для более развитых народов.
Помимо чурок есть еще одна категория цивилизаций, завершивших свою эволюцию. Это те цивилизации, что возникли вблизи источников природных ресурсов, в основном вблизи рек. В реках была халява в виде рыбы - речным цивилизациям не обязательно было развиваться, чтобы выжить, можно было просто добывать хавку. Другие источники природных ресурсов порождали цивилизации торговцев - людей, кто в жизни нихуя не делал, кроме как обменивая ресурсы на хавку. Торговцы завершили свое развитие, но в миру прижились, за счет рынка. Добытчики тоже завершили свое развитие, но тоже прижились, за счет ресурсов, которые необходимо кому-то добывать.
От своей природы, и той судьбы что природа отвела им, у многих цивилизаций сильно печет.
Черные до сих пор не могут оправиться от этой вселенской несправедливости: белые по части ума уделывают их по всем параметрам. Потому что белые пришли с севера, где не было легкой жизни. 50000 лет для эволюции - ничто, так что ситуация не поменялась, не смотря на то, что сейчас белые и черные перемешаны и живут на одних территориях. Черные до сих пор комплексуют, понимая что умом слабее остальных народов. Увы, это биология, и тут уже ничего не поделать. Шанса развиться у черных уже нет - сейчас развитие с природного переключилось на научное, и там везде рулят белые. Никто не даст черным 50000 лет на развитие, т.к. все человечество за этот срок уйдет далеко вперед. Разве что однажды для черных выделят резервацию, где попытаются сохранить их цивилизацию в первозданном виде, но это маловероятно. Таким образом черным сейчас остается роль наемной физической силы - они как раз для нее лучше приспособлены, т.к. физически более сильны. Такова их природная ниша сейчас. Но со временем их заменят машины, и черные выродятся как цивилизация: для них больше не будет ниши в природе, ее займут более дешевые и эффективные машины.
А чурки - те доставляют миру больше всего проблем. Они приспособились выживать в нечеловеческих условиях, их невозможно выкурить с какой-либо территории, они по всем щелям сидят, как тараканы. Их развитие остановилось тысячи лет назад, и ныне не способны вписаться в образ цивилизованного человека. Они ближе всех к животным - для них в норме такие ритуалы, которые у других народов вызывают ужас и отвращение, образно обзовем эти ритуалы как "есть собственное дерьмо". Просто по иному они не могли выжить, и вынуждены были приспособиться есть собственное дерьмо, за счет чего и выжили. Их ждет незавидная участь - по мере приумножения численности человечества, чурок будут вытеснять во все более и более труднодоступные места, они выродятся в редкие племена, что живут где-нибудь в ебенях Земли.
Торговцы и добытчики вскоре тоже вымрут: и то и другое легко могут делать машины.
Сейчас мир 4-х полярный: успешные цивилизации северян, выехавшие за счет разума, успешные цивилизации добытчиков/торговцев, выехавшие за счет ресурсов территорий, неуспешные цивилизации черных, фейлящие за счет природной тупости, и неуспешные цивилизации чурок, фейлящие за счет общей ебанутости.
Собственно эти 4 полиса сейчас всем хорошо известны: северные народы (скандинавы, сибиряки), народы средней полосы (основная масса цивилизаций, в основном европейцы), нигры (южные народы) и чурки (народы равнин и степей, пустынь и гор).
Разум появился случайно, как и другие мутации. Но благодаря разуму умные люди доживали до стадии размножения чаще и продолжали свой род. Из-за этого сейчас так много людей на Земле, тем не менее они могут себя уничтожить. ИМХО
Итак, представим себе такую древнюю, как мир, ситуацию: обезьяна хочет есть. А над ней на пальме висит банан. Как поступит трудолюбивая обезьяна? Она будет терпеливо и старательно карабкаться вверх, пока не доберется до банана. Ленивая же обезьяна подумает, возьмет палку подлиннее и сшибет заветный плод. Этот банан будет наградой за сообразительность и лень одновременно.
Ленивая обезьяна будет грызть любимые фрукты, а косточки станет плевать рядом: ей же лень отнести мусор от себя подальше! Из косточек вырастут плодовые деревья, и окажется, что теперь можно есть, не сходя с места.
Так ленивая обезьяна станет земледельцем. А потом она займётся и животноводством. Насмотревшись, как трудолюбивые собратья целыми днями гоняются за убегающим и прячущимся зверьем, они скажет: «Зачем мне это надо?». Пошевелив извилиной, она наставит капканов, наловит себе всякой живности и станет приручать.
Эволюция налицо. Наш ленивый предок, которому было неохота лезть в воду, сделал себе лодку. Когда стало лень грести руками, взял в руки весло. Когда надоело грести, на лодке появился парус.
Вы чувствуете влияние лени на сообразительность? Чем больше думаешь, тем меньше работаешь! Этот очевидный факт не оставляет камня на камне на гипотезе Энгельса. Труд не стимулирует развитие разума, труд угробит любой проблеск интеллекта. Вы когда-нибудь видели умную лошадь? Или осла-интеллектуала? Сообразительного верблюда? А ведь эти животные в фольклоре разных народов просто олицетворяют собой трудолюбие! А вот хитрунья и выдумщица лиса в сказках никогда не бывает трудягой. Умница-лиса так очаровательно ленива!
Лень подстегивает разум, заставляя его искать, цепляться за любую возможность не работать, чтобы избежать лишнего напряга. Лень является катализатором умственного развития, она заставляет мозги работать в поисках способа минимизации телодвижений. Это первая закономерность. Вторая: чем меньше работаешь, тем больше думаешь! Ведь только в обстановке спокойствия и расслабленности можно полноценно напрячь интеллект. Лень и разум — неразрывные в своей сути понятия. Так и шли они вместе через века, два локомотива прогресса человечества.
Когда человек устал поднимать и перетаскивать тяжести, он изобрел рычаг и колесо. Стало легче, но ненадолго. Однажды, вспотев, он стукнул себя по лбу и воскликнул: «Ну что, я лошадь, что ли?». И впряг вместо себя лошадь. Но скотина тоже требует ухода, а значит, и трудов. Задумался царь природы, и появился паровоз с паровым двигателем.
Лениться теперь можно чаще и дольше. Да вот беда: паровоз ездил только по рельсам и был очень прожорлив. А лень постоянно шептала: «Придумай что-нибудь!». Появился автомобиль с двигателем внутреннего сгорания.
Вот я и закончил, в принципе, доказательство прочитанной когда-то гипотезы, что обезьяну в человека превратила лень. Теперь на очереди — дальнейшее развитие теории.
>>907171 Мутации случайны. А эволюция это мутации + естественный отбор. Вот мутировал ген в зиготе, из-за чего поменялся код белка немного, а затем из-за этого существо было более слабое и не дожило жо размножения. А динозаврику Ерохе повезо и он быстрее убегал, и его не зохавал тиранозавр.
Почитал я немного за это ваше генетическое программирование, с одной стороны, неблохо. А с другой, в области символьной регрессии н-р, классификации и идентификации систем, существующие решения представляют собой примитивнейший и наитупейший вариант того, что в совке разрабатывалось академиком Ивахненко под названием "метод группового учета аргументов" (МГУА). Читал эту его книжку http://gen.lib.rus.ec/book/index.php?md5=E73366E46C7B2375264EA47C1C09F4C5 1975 год, по сравнению с генетическим программированием для нужд символьной регрессии выглядит вообще как литература из далекого будущего, лол. Все обосновано доказываемыми тут же в тексте теоремами, вместо примитивных функций приспособленности на основе среднеквадратической ошибки - в т.ч. комбинированные критерии несмещенности и баланса переменных и т.д. Книжке больше 40 лет. Хотелось бы оправданий. >>907367 >Мутации случайны. На самом деле нет. Разные гены по-разному подвержены мутациям, что-то в принципе использует мутации как рабочий механизм (в иммунной системе такого полно), что-то миллионами лет почти не меняется (гены консервативных доменов РНК-полимераз, н-р). Представлять мутации как гауссово распределение на всем генотипе неправильно, там все сложнее. >>907503 >первичны информационные поля и их эволюция. Какие поля, школьник? Как ты себе представляешь "информацию" в отрыве от ее материального носителя, в данном случае, генов?
>>906961 >Родина разума там, во льдах и снегах, там до сих пор умным жить лучше всего. Цивилизовационными центрами совсем недавно были Месопотамия, Египет, Древняя Индия, Китай. постепенно они стали мигрировать на Север - в Грецию, Рим, Европу. Потом англосаксонские колонисты благодаря наработанным технологиям вновь откинули центры цивилизации в более теплые и благоприятные широты - Америка, Австралия, Юджная Африка. Постулат зависимости разума от широт в корне не верен. Достаточно взглянуть на Рашку.
>>907839 Дропнул эту тягомотину после третьей серии. Как раз из-за морально/этических проблем машин и ебли с ними высосанных из пальца, которые меня совершенно не интересуют.
>>907907 Чего динамично? Функций Ляпунова хочешь? Есть где-то старые книжки, где это всё интерпретируется с точки зрения динамических систем. Нечёткопетух вот целую книжку кидал, можешь её посмотреть.
>>907839 Говно. 0 из 10. Актуально было 10 лет назад. Я этого говна поел - и порицаю. Сперва добился, так сказать. Посмотрел на скорости 1.7.
>>907832 Ты вот кодер, а мне всё таки надо чёто решать, иначе будет плохо. Искать где и как вообще, кем работают философы-наркоманы вроде меня. Отовсюду пидорнули, грубо говоря, да и смысл, я лучше сам съебу, чё нервы-то зря тратить. Жизнь, знаете ли, коротка.
Ананасы, а почему не существует какой-нибудь "теории архитектур искусственных нейронных сетей"? Современное положение дел до боли напоминает мне средневековую алхимию. Открываешь очередной пэйпер а там в начале для приличия стоит p(x) = П p(xi |x1...xi-1), а потом начинается "ну мы тут подумали, что если вот тут сложить, то градиентам будет легче течь. О! Кажись текёт!". Какой-то, блядь, ТЕПЛОРОД.
>>907973 Есть мнение что нейронки настолько сложная йоба, что полностью понять схему и логику её работы и пояему она выдает конкретне ответы, могут только несколько йоба математиков земляшки остальные что то знают и хуярят от фонаря, выбирая сеть эмпирически.
Записался на курс по машинному обучению и анализу данных от МФТИ и Яндекса на курсере. Оплатил специализацию. Как думаете стоит оно того? Деньги не большие, но хотелось бы найти работу в Москве по окончании этих курсов. Реально? Может кто-то из анонов уже проходил их, что посоветуете?
>>907987 Мнение около-датасаентиста: только курсы на курсере тебе не дадут вкатиться, потому что работодатели требуют нихуевое знание теории машоба совмещенное с нихуевым знанием программирования. Это не учитывая того факта, что курсы на курсере крайне поверхностны (курс воронцова еще норм, но без хорошего знания матана ты ебанешься с его слайдов)
>>907973 >Ананасы, а почему не существует какой-нибудь "теории архитектур искусственных нейронных сетей"? Существует, с конца 60-х годов, вот пример книжки в тему >>900766 Слесарям такое ненужно, import tensorflow as tf можно делать без понимания происходящего, как и хуярить побольше слоев. >Современное положение дел до боли напоминает мне средневековую алхимию Алхимию обижаешь таким сравнением. Там хоть какой-то базис под происходящее подбить пытались. А тут вообще что-то уровня "берем, подставляем, так хуе-мое, падажжи ебана". Отсюда и плачевность результатов, по сравнению с 80-ми прогресс только за счет нереального роста мощностей камплюктеров, отсюда вся эта лекуновская сверточная ебулда и показывает результаты лучше, чем пказывала в 80-е. А по делу там только сигмоиды на релу поменяли.
>>900102 (OP) Да, пасаны, чё-то мне кажется, что чтобы реально шарить в дата сцаенсе нужен нихуёвый такой матан и тервер. И знать, как применять его на практике самое главное. И это ещё к тому, что надо знать какой-нибудь путон/R/жабу. Это же просто пиздец же. У тех, кто заканчивали только бакалавр на погроммиста шанса вообще нет, только у тех, у кого специальность была связанная с статистикой. Ну может быть разве что шанс есть у тех, кто пошёл дальше на магистра и были какие-то курсы про машин лернинг, но этого всё равно недостаточно же.
>>908162 Так и есть. Можно наугад тыкать готовыми инструментами, но что в таком случае тебя будет отличать от слесаря (ты жы сцаентист)? Под "реально шарить" будет подразумевать возможность вести исследовательскую деятельность, а подобным обычно занимаются люди с phd.
>>908183 Но знаешь, с другой стороны, можно работать в сфере связанной с дата сцаенсом, только на более техническом уровне, то есть как бы в тандеме с аналитиками, которые шарят в матане/тервере и они тебе уже говорят, какой алгоритм применить, какие данные использовать и ты уже имплементишь. Чего-то мне кажется, что именно так оно и работает в больших компаниях. Всё-таки, чтобы правильно распарсить данные надо знать предметную область, откуда эти данные и +знать матан.
Короче, надо, как в фильме Сфера, набирать команду из биолога, математика, физика, программиста, роботехника и философа. И хуярить это дело в команде. Один лишь программист столь глобальную задачу не осилит.
>>908278 биолог: Ну короче есть нервная система, в ней нейроны, синапсы-хуинапсы, импульсы по ним проходят, дальше не моя специализация математик: Возьмем p(x) = П p(xi |x1...xi-1), а дальше тупой перебор параметров, иначе не сойдется с вероятностью Φ физик: Чего надо-то? Могу током ёбнуть. программист: Мудаки вы все, лучше я сам ИИ напишу на питоне робототехник: Не надо на питоне, он в ардуину не влезет! философ: Такие дела...
>>908305 1. Берем физика и робототехника. Они делают хреновину для стимуляция мозга электрическим током, который работает по кнопке. Надевают эту хрень программисту, и если что-то не так дают ток для стимуляции мозговой деятельности. 2. Программист должен для разминки сделать синтезатор голоса. В этом этапе проверим работу первой хрени и оттестируем на программисте. Пусть для голоса образец дает философ. 3. Дальше берем биолога и робототехника. Биолог тащит таракана. Дальше робототехник и биолог делают устройство для манипуляции тараканом. На его базе...
>>908348 Здесь простая схема итерационного алгоритма. Есть машина, решающая задачи. Задачи она решает как-нибудь необязательно оптимально. Мы ставим машине задачу улучшения самой себя, ну и она как-то себя улучшает, может быть не очень хорошо, но улучшает. И эта процедура повторяется много раз, в итоге процесс сойдётся к некоторой оптимальной машине.
Ну и по ссылке abstract: We present the first class of mathematically rigorous, general, fully self-referential, self-improving, optimally efficient problem solvers. Inspired by Kurt Gödel's celebrated self-referential formulas (1931), a Gödel machine (or `Goedel machine' but not `Godel machine') rewrites any part of its own code as soon as it has found a proof that the rewrite is useful, where the problem-dependent utility function and the hardware and the entire initial code are described by axioms encoded in an initial proof searcher which is also part of the initial code. The searcher systematically and efficiently tests computable proof techniques (programs whose outputs are proofs) until it finds a provably useful, computable self-rewrite. We show that such a self-rewrite is globally optimal - no local maxima! - since the code first had to prove that it is not useful to continue the proof search for alternative self-rewrites. Unlike previous non-self-referential methods based on hardwired proof searchers, ours not only boasts an optimal order of complexity but can optimally reduce any slowdowns hidden by the O()-notation, provided the utility of such speed-ups is provable at all
>>908405 Из проблем пишут, что Seq2seq и прочие подходы, основанные на LSTM склонны давать однотипные и простые ответы типа "Да", "Не знаю". Наверное, либо с обучающими данными можно что-то похимичить, ну, и сейчас начали появляться всякие оптимизации на эту тему.
>>908782 Заинтересовался, но это получается 12*1999 = 23988 руб. За год обучения, копейки же. Другое дело диплом то этот не стыдно будет показать? Блять платных курсов расплодилось как говна за баней, такое чувство что это все наебалово, ну вот дадут бумажку, но рыночек то уже порешал все, ведь так?
>>909074 Каждый делает что может. Кто-то работает, кто-то учит. Сделай так, чтобы не стыдно было показать знания. Бумажка тут ничего не значит - учителей много, знаменитых мало. Но знания одни и те же, знаменит учитель или нет. Тебе остается либо принять их, либо нет.
>>905298 >почему выучить формальный язык вообще проблема Потому что я параллельно ебашу топологию/дифф. геометрию/Ли-алгебры/спектральную теорию, квантовую теорию поля для конденсированных сред и немецкий язык. Распыляться еще на 2-3 языка программирования, не будучи программистом - не рационально (читай верх тупизны). Прочитать-то книгу всегда можно, но надо предварительная практика (то есть проработать всю книгу) + постоянная последующая работа в данной языковой среде, а если мне для всего достаточно R и я практически никогда не открою Python, то зачем мне вообще начинать?
>>909196 У нас программистов не принято дрочить на язык. Вкатывайся куда хочешь, особо разницы нет. В интернете куча сравнения r vs python. Если уже наметил план того, что тебе нужно выучить в R (ты там литературу называл), бери и учи. Если для тебя вдруг не хватит R для каких-то целей (это произойдёт точно не через неделю), ты удивишься насколько всё легко в питоне. Крч, за время рассуждения r vs python ты бы уже прочитал пару глав по R. Ещё раз повторюсь, у нас тут дрочат не на инструмент, а на продукт
>>909205 >за время рассуждения r vs python ты бы уже прочитал пару глав по R. Я уже прочитал. Я и в питоне работал по учебнику Langtangen'а, но все упирается в время. У меня, не-программиста, времени на "что-то еще" нет. Под все остальное проще доучить Mathematica.
Ребят люблю копаться и что то искать. Хотел купить металлоискатель и искать золото, но решил что с питоном можно тоже копать. Я так понял юзаются графы, деревья, парсинг, регулярки. Что такое kaggle? И как можно с этим всем зарабатывать деньги?
Посоны. Вот сделать бы бота для соцсетей, который после диалога выдает ссылку на сайт монетизирующий переход. Нейросети лучшие для этого или лучше простенький алгоритм?
>>909054 >Чем плох язык Рррр R? 2,5 местных школьника сошлись на том, что нимодна. Кроме этого ничем не плох. >>909196 Я тебе уже пояснил. Единственная область, в которой пистон всухую уделывает R - это сверточные нейроночки. Не то чтобы в R их нет совсем, но это тот случай, когда на пистоне сделано реально лучше, больше, проще, удобнее и материала в разы больше (документация, примеры, туторы, т.д.), не могу не признать это даже как фанат R.
>>909738 >Единственная область, в которой пистон всухую уделывает R - это сверточные нейроночки. Которые мне, как я понимаю, совершенно не нужны. Так бы и говорил - "бери R и не парься", а то еще какой-то второй язык программирования придумал учить.
>>909804 Нейронечеткие сети же. По-сути, нейроночки на логических операторах. Профит в прозрачности готовых моделей анализируемых систем, сводящихся к логическим конструкциям уровня "если а или б то ц" и т.д.
К слову, изначальная идея Маккаллока и Питтса была именно в том, чтобы представить нервную активность в виде исчисления высказываний с помощью наборов элементов (нейронов).
Анон, хотелось бы услышать твое мнение насчет облачных серверов для вычислений по типу microsoft azure или amazon aws, есть ли в них преимущества или могу не парится и брать сразу титан х?
>>912167 Возможно, имеется в виду возможность нейроночек классифицировать текст по семантической схожести. Такая возможность и правда существует. Но спциализированные алгоритмы для этого подходят больше (LSA, LDA, topicmodel).
>>912225 не совсем, насколько я понимаю, смотрят просто какие слова встречаются вместе с какими словами в какой категории текста, но без графов, просто вероятности
Анон, начинающий ИТТ просит помощи. Так вот, скачал с гита https://github.com/fujimotomh/char-rnn-tensorflow для генерации текста, в инпут засунул кучу примерно одинаковых новогодних поздравлений (просто для примера), и с 512 нейронами в 2 слоя мне удалось добиться loss в 1.8-1.9. Дальше при увеличении кол-ва нейронов до 1024 или слоев до 4 с 512 loss не падает за пределы 3.4-3.5, втф? Может это локальный минимум и она типа застряла там? Я играл уже и лерниг рейтом, не помогает, а при 512 х 2 она выдает просто белиберду. Что делать? Или увеличить инпут? Заранее спасибо.
P.S. На macbook pro 13" late 2013 с i5 2.4 + 8gb 1024 нейронов тренируются 25 часов. Ахуеть.
>>912225 Там по-разному можно, в зависимости от конкретной реализации конкретного алгоритма. Есть и графы, и многое другое. Есть и нечто типа режима вопрос-ответ. Т.е. ты реально спрашиваешь обученную модель, она тебе отвечает. Это есть тута https://cran.r-project.org/web/packages/lsa/index.htmlhttps://cran.r-project.org/web/packages/LSAfun/index.html но как я говорил выше, это не нейроночка, а LSA. Там авторы пишут, что эта модель как нехуй проходит тест на знание языка, где нужно подобрать синонимы - TOEFL. Есть примеры использования, где модель рекомендует похожую книгу. Если нужны именно нейроночки, могущие в семантику, есть растуще-иерархические карты Кохонена http://www.ifs.tuwien.ac.at/~andi/ghsom/http://www.ifs.tuwien.ac.at/dm/somtoolbox/ Вот пример, где такой алгоритм иерархически сортирует новости (например, война - война на Балканах - Милошевич) http://www.ifs.tuwien.ac.at/~andi/ghsom/experiments.html Что интересно - на язык нейроночке похуй, там пример с РИАновости, вроде было что-то с каким-то китайским новостным агентством и т.д.
>>912487 попробовал на разном количестве от 1 до ~8мб текста в .txt файле (большее на ноуте вечность будет просчитываться... наверное). Попробовал погуглить, скорее всего мало данных для большей сети + попробовал понизить лернинг рейт и уже получил 1.7 на 1/4 обучения с теми же 512 нейронами. >>912496 Хочу просто попрактиковаться, пытаюсь получить более менее осмысленный текст, но никаких особых задач нет.
>>900102 (OP) Я чет не пойму как ваще юзают куду, если там локальная память сильно ограничена, кажись 48к, а глобальная типа медленная? Или там все равно можно нормально работать с глобальной тока, чтобы не заморачиваться с локальной и это все равно будет быстрее чем на проце?
видел сегодня в метро лысый индус читал бишопа и мёрфи на планшете вкатывайтесь быстрее мои милые нейроночки пока индусы не захватили все хорошие рабочие места
Шапку читал, тред осилил. Уже ловлю на себе неодобрительные взгляды анонимуса, но подскажите готовые либы на С++ под винду. Практически остановил свой выбор на FANN, но может какую-то стоящую либу пропустил во время поиска.
>>914760 >FANN Ничоси ты откопал. Эта либа из прошлого тысячелетия. Когда ее делали, в рашке братки расстреливали друг друга на улицах среди бела дня, прямо перед скромно потупившими взгляд ментами. Чеченцы вовсю отрезали ванькам головы, но еще даже не начали взрывать их в домах. Твой безусый батя только собирался с духом, чтобы подкатить к твоей мамке, а эту либу уже использовали. О том, что такое интернет, знали во всей стране максимум человек сто, а доступа туда не имел никто. Запакуй ее обратно в архив, откуда ты ее распаковал, закачай обратно на соурсфордж и не тревожь больше покойников.
Если тебе нужно все делать на крестах, используй tiny-dnn. Однако там не поддерживается ГПУ. Если тебя устроит просто прогон готовых моделей на крестах, то посмотри крестовое АПИ у tensorflow. Модели придется делать на питоне, поддерживается ГПУ.
Бля, анончики, че-то чем дольше занимаюсь нейроночками , тем больше прихожу к выводу, что и я сам мало отличаюсь от нейроночки. Фактически я так же занимаюсь преобразованием входной информации в сигналы управления телом, и у меня как у рекуррентной нейроночки есть внутреннее состояние. Я даже не могу сказать, что я умнее нейроночки, потому что есть много задач, которые она выполнит лучше меня.
А что, если эмерджентная теория сознания права, и наличие сознания определяется лишь сложностью организации вещества? Получается, что стирая нейроночку с диска, я убиваю живое существо?
>>915522 Связь между двумя нейронами. Например нашей сети нужно понять, что если у человека есть хуй, то у него нет сисек. На входном нейроне наличие хуя будем кодировать как 1, отсутствие 0. На выходном наличие и отсутствие сисек так же 1 и 0. Тогда, чтобы закодировать "понимание" того, что у мужиков сисек не бывает, мы устанавливаем значение веса связи в -1, а bias в 1.
Y=Wx+b
x вход, y выход, W вес, b bias
Подали на вход 1, на выходе 1-1+1=0 Подали на вход 0, на выходе 0-1+1=1
Все, теперь твоя нейроночка - эксперт по сиськам и хуям.
>>915558 У тебя получился обычный логический элемент отрицания, или "НЕ". Который в микросхеме выполняется на одном транзисторе. Вместо ебанины с умножением, вычитанием, и двумя плавающими значениями. Собственно, нейроны это тоже логические элементы, только не двоичные, а аналоговые.
>>915558 Но ведь у человека может быть и хуй, и сиськи. А может не быть ни того, ни того от слова вообще, из-за болезни или еще чего-то. И у мужиков есть сиськи, но как-бы недоразвитые. И у женщин есть хуй, но как-бы недоразвитый. Какой же это эксперт?
>>915511 Может быть, тебя удивит, но нейроночки изначально и создавались как модели биологических нейронов и их совокупностей. Пусть даже как сколь угодно хреновые, но модели. >>915610 >аналоговый вычислитель с цифровой передачей импульсов Каша у тебя в голове. Нет там ни вычислений, ни цифровой передачи.
>>915650 Уроки иди делай, орифметик. Тут речь о функциях типа 0 = f (1, -1, 1) и 1 = f (0, -1, 1) >>915667 Если вкратце то да, каша. Преобразование сигналов за счет свойств среды и изменение среды за счет свойств сигналов. >>915680 Хуйня твой вопрос и сводится к определению номинальной дефиниции (nominal definition). Если хочешь - загугли и попытайся понять. Если не поймешь - тебе оно и не надо.
Если еще в 2015 году всякие теаны рассчитывались для одного физического девайса, то следующее поколение подобного софта отличается тем, что изначально делается для распараллеливания работы на физически разных устройствах (tensorflow, MXNet, т.д). Притом, что дальше распознавания котов и перерисовывания их под Пикассо все равно не уйти, если у тебя нет в наличии хотя бы нормального инстанса от амазона / т.п. Это 100% путь в никуда, будущее глубокого обучения - это глубокий бустинг и deepSVM.
Машобачеры, куда можно устроится студенту в ДСе? Запилил дипдрим, классификацию изображения и сейчас думаю генерацию фраз сделать. Но на все вакансии нужен сениор-помидор 6 лет опыта, а для студента нашёл только место в яндексе, но думаю туда не попаду. Где ещё искать кроме ХХ? Не становиться же хэтээмэль программистом только ради опыта.
>>915969 Если ты не можешь попасть студентом в Яндекс, нахрен ты кому-то сдался? А вообще, в Яндекс просто относительно попасть, осло попробуй съездить на стажировки в Гугл/МС. Я серьезно.
>>915683 В мозгах ирл нет никакой номинальной дефиниции, номинальная дефиниция лишь фантом, которого на самом деле вообще нет. Как и любой математики, которая лишь в сознании людей, где все договорились о её существовании.
>>915522 >какой термин отвечает за минимальную единицу "понимания" данных >Не распознавания Ответ >Связь между двумя нейронами
Связь между двумя нейронами ничего не значит. Это лишь связь, которая будет идентифицироваться и интерпретироваться в дальнейшем. Без интерпретации любые данные ничего не значат. Они просто данные. Пустые и не рабочие. Один из главнейших этапов - этап интерпретации данных просто взят и проёбан вникуда. Я понимаю что зашёл в программач, но мне казалось, что, быть может, здесь бывают ответы и вне темы оп постов. SCI, к сожалению, раздел полностью зашкварный.
В любом случае, если бы такая единица была введена, единица понимания. Тогда ВСЮ техническую и научную литературу можно было бы переписать согласно пониманию работы этой минимальной единицы понимания. Единицы понимания человеческой. В машине можно ввести псевдо-единицу псевдо-понимания. Но к реальному пониманию оно никак не приблизится. Лишь к механическому оперированию данными. Механическое оперирование != понимание.
>>915558 >Все, теперь твоя нейроночка - эксперт по сиськам и хуям. Вот только она не _понимает_ что там сиськи и хуи на самом деле. А делает лишь то что ей показали. Без какого лишь понимания. Понимания здесь никак нет. И не предвидится.
И всё таки я задефайню, пожалуй, некую единицу понимания. С словесной доходчивостью у меня всё таки есть некие проблемы.
В теории, это минимально необходимый набор данных достаточный для успешного функционирования системы распознавания с максимальным количеством удачных попыток распознания. Клоунада со слоями, к сожалению, к этому не относится.
>>916067 жаль, что тред - одна безграмотная псевдофилософия, но ок, как философ философу, а почему ты решил, что ты что-то понимаешь? тебе кто-то сказал, что это сиськи, ты считаешь это сиськами, да и что там понимать. Разве есть ли в твоей жизни что-то, что выходит за рамки повторения, наблюдения закономерностей в природе? твое определение не работает, у всякой системы есть шум и тд и тп а слои профита не дают
>>916101 Есть. Поиск решения задач. https://2ch.hk/v/res/1684301.html Недавно создавал тред в /v/ в надежде на какие-то подсказки по данной теме. И она была найдена. Предположительно она в ответе на вопроc "Чем отличается поиск хорошо и талантливо спрятанного от решения задачи?" В целом, по моему, в треде ничего интересного кроме моих собственных постов (и названий игр, само собой) толком и нету, процитирую, по моему, главное
>Есть ли по настоящему интелектуальные игры, а не на статистическое задротство на основании предыдущего опыта(шахматы/рандом настолки), скорость спинно-мозгового мышления(шутерки), задротсва ради гринда(миллионы их)?
>А такие, где решаются задачи, которые хуй знает как решить просто, и подсказок просто не может быть?
>По настоящему рвать манямирок может только такая ситуация, где есть простое решение, а ты просто не знаешь куда и как копать, включается рейдж мод, ты рвёшь зубами стены уже, а всё равно нихуя непонятно с какой стороны подходить к ситуации
>Кстати с этим знакомы многие люди которые играли в игрухи когда-то давно, начинали только, лет в 5, например. Когда какая-то часть игры рвала ебло просто и пройти её можно было только вернувшись туда через месяцок (чит кодов тогда не было даже в проекте, тогда. Когда-то), но и тогда, возможно врубился бы рейдж мод уже в другом месте этой игры. И так пока игра не пройдётся в сто первый раз. В стотысячный. Но ты всё равно порвав себе еблище поймёшь чё ты не так сделал и как надо было.
>Т.е предположительно должно быть чёто где память вообще не играет никакой роли и никак никому не поможет, а предыдущий опыт просто идёт нахуй как бесполезный
>Говорят, такими экспериментами баловались военные в семидесятых, но потом забросили это всё, потому что многие подопытные крышей ехали.
>>916101 Я заметил такую хрень. Когда чёто не знаешь, сначала идут попытки, простые попытки решить задачу. А потом идёт "зависон" в виде "закипания мозгов". Вот он и есть тот самый искомый элемент
>>916110 Любые новые идеи строятся из уже известных идей, по другому никак абсолютно. Так что хуйня типа "без памяти и без прошлого опыта" - полная хуйня. При решении задач просто кто-то хорошо умеет выделять необходимые грани и комбинировать их в наиболее пригодном виде, а кто-то не очень хорошо.
>>916067 >В мозгах ирл нет никакой номинальной дефиниции Вот как раз самая она и есть, в самом что ни на есть чистом виде - неканонические элементы (воспринимаемое, н-р) считаются в ионный ток (канонические элементы) в смысле конструктивной функции, н-р по Колмогорову. >номинальная дефиниция лишь фантом, которого на самом деле вообще нет В данном случае это название и формальное определение реально существующего в мозгах процесса. Ты просто не шаришь в теме, в которую пытаешься влезть.
Раз зашла речь про ИИ и разницу между распознаванием образов и пониманием, могу сказать, что в этом направлении все проще, чем кажется. Я как раз занимаюсь этим вопросом, задача сводится к тому, чтобы немного расширить интерпретацию логических констант по Брауэру-Гейтингу-Колмогорову до интерпретации по Брауэру-Гейтингу-Колмогорову-ананиму с мейлру переформулировав конкретно колмогоровскую интерпретацию на случай т.н. "нервной модели стимула" по Соколову. Получившаяся BHKS-интерпретация (одновременно получается и аналогичный изоморфизму Карри-Говарда изоморфизм Колмогорова-ананима с мейлру) позволяет напрямую использовать все ништяки MLTT в нейрофизиологии, профитов очень много, но в конткесте данной темы, это н-р, снимает т.н. "проблему китайской комнаты", сводя ее к номинальной дефиниции в BHKS-интерпретации логических констант. Если кто не в теме за китайскую комнату, а гуглить лень, скажу что это чисто гуманитарная маняпроблема, которой фуфлософы тралят математиков уже почти 40 лет, за счет довольно тонкой формулировки, которую почти никак не обойти. Маняследствиями этой маняпроблемы, н-р, является "невозможность ИИ" и "неадекватность теста Тьюринга".
>>916199 мне кажется, что проблема китайской комнаты в том, что там считается априори, что понимание человека отличается от просто повторения машиной, но если эта машина имеет какие-то цели (которые просто выводятся на основе обучения и фиттинга), может объяснить это языком, выбрав наилучшую стратегию на основе данных, то получается, что и нет разницы между пониманием человека и пониманием машины.
>>916332 Там все сложнее, иначе бы и проблемы не было. Суть в том, что понимание как явление в принципе отделяется от механических вычислений, при этом показывается что из самих механических вычислений, даже в случаи когда они представляют собой ментальные конструкции, построимые человеком, не следует понимания вычисляемого.
>>916037 Спасибо, надеюсь устроюсь. А какие есть советы перед собеседованием? Есть ли какие-то особенности собеседования? Будут просить развернуть список на доске? Или будет только МЛ-релейтед вопросы?
В продолжение к этому >>915415 Возник вопрос как конкретно по этой библиотеке, так и по любой реализации НС. Как правильно нейроночка должна переварить отсутствие одного из входных сигналов? При работе с картинками это не так актуально, хотя может быть и такое. Например, первое что пришло в голову - входными сигналами являются данные со счетчиков посещаемости, расположенных на разных сайтах. Сайт повис - данных нет. Что подавать во входной сигнал с этого сайта? Старые(последние полученные) данные - можно, но не совсем то. 0 или отрицательное значение - тоже не совсем то(Идеально было бы отключить временно этот входной нейрон, но возможно ли это). В вышеупомянутой библиотеке, на сколько я понял, на вход подаются контейнеры с данными и просто выбросить один из входных сигналов не выйдет. Как правильно подойти к решению данного вопроса?
>>916468 Нормальные нейроночки поддерживают N/A в качестве возможного значения входа, когда значения именно нет совсем, и нулем это заменить нельзя, т.к. 0 это тоже значение. Реализовано это может быть по-разному, в зависимости от конкретного софта.
>>916425 один раз меня собеседовали в молодой и амбициозный стартап, меня спрашивали, как бы я ту задачу решил, как бы ту решил, как бы засунул гигантскую матрицу в память и тд, ну, короче, меня не взяли (но это был успех, меня всегда отсеивают еще на хедхантере)
Нужно разобраться в сети GRNN. Нашел подходящий пример: https://github.com/CorcovadoMing/GeneralRegressionNeuralNetwork/blob/master/src/grnn.cpp Что смущает: - В коде нет двойки, на которую умножается сигма в квадрате. На чем завис: - Di в квадрате вычисляется как сумма квадратов разниц элементов входного и сохраненного векторов. for(int i = 0; i < input.size(); i += 1) { distance += std::pow(input - x, 2) }, где input и х вектора по 2 элемента в каждом. Идентично ли это формуле вычисления Di в квадрате на картинке?
>>917291 >GRNN, хопфилд По старым нейроночкам угораешь? Там мало интересного. Тем более, все равно все это так или иначе разновидность стандартной аддитивной модели Коско пикрелейтед. То, что у тебя на пике вообще практически один-в-один.
>>916425 Если идешь на ML-специалиста, то инфа 100% будет хотя бы одна секция про чистый ML и вопросы как теоретические (че как чтобы быстро училось сделать?), так и приближенные к практике (даны данные про что-то, как сделать фичи, каким методом учиться), ну и сколько-то кодинга (вероятнее всего писать на питоне стоит). Если на кодерскую вакансию - очень качественно выбирай, куда идешь, не везде ты будешь делать сколько-то значимое количество ML, тут будет сильно больше секций кодинга, но если идешь на ML, его тоже спросят, но более в практическом ключе.
>>917333 Та хотел все же разобраться в этом примере. А то соответствует ли формула - непонятно. Как представляются веса разных нейронов тоже непонятно. Получается при обучении если какой-то паттерн данных повторится несколько раз, это не дает ему никакого преимущества при последующей работе сети. Хотя в теории все просто - формула с пика и все.
>>917352 >Как представляются веса разных нейронов тоже непонятно. Радиально-базисные функции жи, экспонента расстояния между центром функции и конкретным входом х.
>>917393 Гламурность обратно пропорциональна функциональности, вся годнота только через консолечку, либо платно (StatSoft Statistica). Если просто кнопочки потыкать посмотреть как работает, есть такая хуитка http://neuroph.sourceforge.net/index.html
>>900102 (OP) У меня есть задача. На компьютер поступает аналоговый звуковой сигнал. На компьютере сохранена цифровая версия источника сигнала. То есть имеется аналоговая и цифровая звуковые дорожки, первая идет в реальном времени, вторая лежит в папке. Нужно сделать так, чтобы компьютер воспроизводил цифровую звуковую дорожку синхронно аналоговой в реальном времени. Как сделать, связано ли это с нейронками?
>>917616 Почти вся работа со звуком достаточно проста, тебе скорее нужно знать что такое преобразование Фурье, И уметь сопоставлять 2 источника звука имея какое-нибудь описание основное на Фурье разложении.
>>917620 >>917621 Какого программиста нужно искать? Я сам гуманитарий, программа нужна для бизнеса. Есть друг-механик, который нужное оборудование для тестов предоставит, но в программировании мы оба не бум-бум.
>>917623 Ох лол, не завидую тебе, поиск человека способного делать что-то сложнее чем мышкой кнопку на форму перетаскивать затянется. Даже не знаю где можно адеквата найти который бы взялся за такую задачу.
>>917629 >поиск человека способного делать что-то сложнее чем мышкой кнопку на форму перетаскивать затянется Судя по темам и постам, весь /зк полон икспертов во всех областях.
>>917622 начинал, но они болтают слишком много ни о чем. я подписан на ститчере на data sceptic и becoming a data scientist podcast (но в последнем тетка вообще жесть, на хайпе тупо интервью берет)
>>917640 >Судя по темам и постам, весь /зк полон икспертов во всех областях. Судя по интернету, нейросети вот-вот у всех работу отберут и наступит сингулярность. Но ни один из 20 программистов достаточно высокого уровня подготовки не смог мне за год запилить программу, которая распознает картинку с вебки, если точно такая же картинка лежит в папке. Для всех это "нереальная задача", некоторые пальцем у виска крутили.
>>916332 >>916355 Надеюсь вы никогда не ответите на этот вопрос. Лол
>>916167 >Ты просто не шаришь в теме Чёт опять проиграл. Как захожу - всегда проигрываю с первого прочитанного ответа. Это уже превращается в традицию.
>>917682 Просто показываешь на камеру распечатанную фотку картинки, которая в папке. Все. Я не ебу что тут может быть сложного. Если нейросети даже на такое не способны, то ну их нахуй.
>>917644 >ни один из 20 программистов >винду переставить можешь, тыж программист Тебе нужен программист, знакомый с Machine Learning, а не просто программист. Это, как говорится, две большие разницы. Не там ты искал. Твою задачу вполне можно решить нейронкой.
>>917681 А у тебя аналоговая и цифровая версия абсолютно идентичные или различаются? На входе может быть что-то кроме известной записи? Насколько точной должна быть синхронизация?
>>917725 Куча дескрипторов и какое-нибудь сжатое 32x32 изображение, а потом из всех этих фич каким-нибудь простым алгоритмом типа SVM говорить одинакова картинка или нет.
>>917727 Херня, с вебки у тебя кривая проекция, поворот, наклон, свет не такой, много лишнего в кадре. Или ты предложишь подносить картинку и выравнивать, пока не совпадет с рамочкой? Даже в таком случае не факт, что у тебя будет хорошо распознавать.
>>917729 Есть дискрипторы инвариантные к поворотам и масштабированию. Короче это типикал задача Computer Vision, куча гайдов в интернете уже написана, причём лет 10 назад, работает конечно не 100%, но вполне приемлимо.
Господа, неужели эти ваши сверточные нейроночки в такое >>917683 не могут? Скажем, есть готовые картинки крокодила, залупы и сыра. Затем берется фотка с вебки и сравнивается с предыдущими на предмет сходства.
Мамкин бизнесмен никак не успокоится. Изучай сам тензорфлоу, раз денег нет заплатить. Лет за десять разберешься, как это делается, и сможешь сделать сам. Ну или устройся охранником в пятерочку, лет за десять накопишь нужную сумму и кто-нибудь тебе сделает.
>>917895 Ну это единственное что я еще не пробовал, но надо сформулировать запрос. Пока я не работал с источником звука это сложно. И я рассчитывал баксов на 30, за 22 сейчас в Омске сайты делают. >>917869 >раз денег нет заплатить А ты по прежнему жопой читаешь. >Лет за десять разберешься Охуительный план.
Учитывая что ИИ на уровне человека еще даже гиганты индустрии не запилили, то мало чего-то знать, нужно преодолеть существующие ограничения, может-быть это ограничения в вычислительных мощностях или отсутствие необходимых для этого теоретических знаний и идей.
>>918264 1. Индуктивное логическое программирование 2. Абдуктивное логическое программирование 3. Дедуктивное логическое программирование 4. Суабструктурное логическое программирование 5. Логическое программирование высших порядков. Ну и немного символьных вычислений навернуть, начать можно с того же Макарти.
Какие разделы математики наиболее полезны. Учить в порядке матан -> статистика/теорвер норм? Насколько вообще нужна дискретная математика, теория алгоритмов, структуры данных?
>>918680 Матан, теорвер, местами статистика (самые основы). >Насколько вообще нужна дискретная математика, теория алгоритмов, структуры данных? Нахуй не нужно, если сам алгоритмы не разрабатываешь.
>>918158 Лол, не пошел на биржу, зато умудрился даже заебать владельцев каких-то групп. Ты не похож на адеквата, я бы с тобой работать не стал. По поводу цены - в таких вещах никто никогда не ебет цену, поэтому и платят по часам.
>>918619 >Абдуктивное логическое программирование анука подробнее про ето ну с дедуктивными всё понятно, классический пролог могёт в дедукцию же, да? индуктивное, ну тоже приблизительно понимаю, а абдуктивное это как? типа прога сама строит гипотезы? а откудова она знает из чего их брать? у людишек первооткрывателей там всякие озарения были, яблоко упало на голову хуё-моё, а железяке то откуда озарятся?
>>919151 Хаос - это не беспорядок, а некоторым образом организованный порядок. Т.е. для хаотического числового ряда характерно наличие аттрактора, определенные значения экспоненты Ляпунова, показателя Херста, сечение Пуанкаре на хаотическом числовом ряде выглядит как нечто структурированное. А рандом - это рандом, простое гауссово распределение. Никаких аттракторов, сечение Пуанкаре для рандома выглядит как бесструктурное облако точек и т.д.
Котаны, назрел вопрос. Вот я сижу читаю про нейронки и, например, решил отличать с их помощью котов от собак. Чем обуславливается выбор функции потери (не в этом случае, а вообще)? Условно говоря, вот вы решили, что вам нужна такая-то архитектура сети, то почему мне cross entropy милее mse, например? То же самое с Kullback Leibler divergence и hinge loss. Вообще, поясните за KL divergence и cross entropy: я готов поверить, что для двух распределений P и Q KL divergence(P || Q) = cross entropy(P, Q) + cross entropy(P), так зачем нам эти две функции потерь, если они отличаются только на cross entropy(P)? В общем, не стукайте, я только пытаюсь раскурить, но тону в нотации (читаю Goodfellow - Deep Learning).
Я создаю принципиально новый язык программирования. Что в нем должно быть из фишек дабы было удобно реализовать все это машинное обучение? Например, думаю сделать как в Фортране работу с матрицами.
>>919840 >принципиально новый язык программирования. Что в нем должно быть из фишек дабы было удобно реализовать все это машинное обучение? Например, думаю сделать как в Фортране работу с матрицами. Идеальный язык для обработки данных, в т.ч. МЛ - R. Раз уж ты вспомнил про работу с матрицами - там это есть стандартными средствами.
>>920367 >tf >последние главы еще не готовы, как раз про сверточные и рекуррентные сети Но это же самая суть тф. А что там тогда готово? Как матрицы перемножать?
>>900102 (OP) Посоны, вы ж тут в R шарите? Чёт треда не вижу по Рэ, сюда напшу. k.means.test <- function(points,k){ prob <-rep(0,k) R <- 0 centers <- data.frame(i=numeric(),R=numeric(),clust=numeric()) offset <-sqrt((max(points$x)-mean(points$x))^2+(max(points$y)-mean(points$y))^2)/180 for(i in 1:360){ R <- ifelse(i<180|R>=0,R+offset, R-offset) index <- max(k.means(k,points,cos(i),R)$cluster) centers<-rbind(centers,data.frame(i=i,R=R,clust=index)) prob[index] <- prob[index]+1 } print(prob) return(centers[centers$clust==which.max(prob),]) } Как от цикла в середине избавиться?
>>920401 Много жрёт, думал может как-то хитро можно через аплаи заебенить, показалось, что здесь в принципе ничего не сделать, подумал, вдруг показалось.
Объясните, пожалуйста, для человека несведующего - где эти нейросети вообще могут применяться, то есть - под какие именно задачи? Я понимаю, что областей применения множество, но вот хотелось бы чёткое общее определение - нейросети могут применяться в том случае если необходимо ... . Пока что вижу что применяются при распознавании нечётких структур данных внутри других данных. Плюс есть возможность заменить одни нечёткие структуры данных на другие (например, поменять выражение лица на изображении или изменить описание одного из героев повествования). Хотелось бы знать на будущее, чтобы при возникновении той или иной проблемы сразу догадаться - да, это можно решить с помощью нейросетей. Как возможно описать границы области применения нейросетей так, чтобы это было просто и понятно?
>>921316 В банкомате купюры распознают, в камерах слежения номера нарушителей палят, в аэропорту подозрительный багаж детектируют, экономика, биология, ну и всяческое айти. Блядь. ну эток ак где диффуры применяются, типа того. Метод матстатистики, просто название такое то ли маркетологами, то ли просто большие надежды возлагались. Так то один нейрончик логистическая регрессия и простейшее линейное уравнение, потом типа объединение идёт, можно даже на бумаге нарисовать, перемножить, получится уравнение первой степени но дохуя пеерменных убдет и коэффициентов. Вот задача в том, чтобы их подобрать наиболее удачно. Хочешь вкатиться начни с теорвера и статистики. Там ничего сложного нет, да и интересно это до жути.
>>921316 >Как возможно описать границы области применения нейросетей так, чтобы это было просто и понятно? Это продвинутая статистика. Вернее, на каком-то этапе статистики стало удобно общаться на языке вот таких абстракций и это со временем выросло в целый подраздел.
>>916199 Как вкатиться, анон? Ты когнитивный психолог или около того? Реально ли вкатиться через программирование, задрачивание математики, ад, мо и прочего технического? Просто я как-то посмотрел, там нужна биология с психологией и тп, в магистратуре в спбгу. Или это не то? Можешь побольше рассказать вообще куда хоть двигаться? Я за 10к по 12 часов без выходных готов работать, только бы взяли, но нет ни профильной вышки(есть непрофильная, техническая, инженер), только корочка о переподготовке на базе высшего ну ты сам понимаешь. В каком направлении двигаться?
Правильно ли я понимаю, что, например, кардинально новый литературный рассказ нейросеть написать не сможет - только выведет средний каркас на основании других рассказов и подёргает то из одного рассказа то из другого какие-то уникальные приёмы (вполне возможно даже рандомно)?
>Хочешь вкатиться начни с теорвера и статистики. Там ничего сложного нет, да и интересно это до жути.
Можно ли обучить нейросеть чему-то иррациональному? Например, пытаться связывать количество голубцов с движением занавесок и прочее магическое мышление. Принимать решения с помощью мигающей лампочки, всякие суеверия...
>>921345 >нейросеть написать не сможе Чувак, ну это же популисты-журналисты расхайпили, ну чего ты? Какой рассказ написать? Звучит просто круто, нейронные сети, вот и нехороший шлейф мракобесия потянулся, с другой стороны свежие головы заинтересовало, может быть это такой себе запрос системы на прокачивание этой области науки. Хотя я сам дилетант-любитель и только начал погружаться во всё это, так что ты сильно ко мне не прислушивайся, лучше книжек умных почитай. Ну и да, там не обязательно логит пороговая функция, ну и то, что я говорил, это про многослойный перцептрон, а это древняя же тема, а до современных мне ещё очень долго разбираться и вникать. В общем, нарисуй в тетрадке простую сеть как на пике, где переходы (веса) умножаешь на входы, а сам нейрон складывает, потом это всё в функцию активации подаётся , на ну это ты забей, а просто вот не поленись, раскрой скобки и тд, пошагово сделай, там всего два действия повторяющихся, получишь длинное уравнение, степени будут 1, но переменных дохуя, причём веса насколько я понял это как раз коэффициенты, которые надо подобрать. Ну и всё, с такой точки зрения и магия мракобесная пропадает, да как в той же линейной регрессии, только на несколько порядок сложнее. Далее вступает в работу математика и коэффициенты подбираются таким образом, чтобы наши данные наилучшим образом описывались полученной моделью. Вот об этих методах я тебе уже нихуя не скажу, ибо рак и нуб с большими пробелами, которые ещё несколько лет навёрствывать.
>>921360 > а сам нейрон складывает Например, в первом будет X1W11+X2W21+X3W31(допустим три входа всего), потом всё это берёшь и (X1W11+X2W21+X3W31) в скобки хуяришь и умножаешь на W21(там почему то W11 написано) и тд.
>>921362 Ну и короче ты понял, в конце получаются коэффициенты(нагуглил алгоритм обратного распространения ошибки, очень мало что понял, какой то градиентный спуск,типа спускаемся по чуть-чуть, пока не найдём минимум, типа как наощупь пытаешься нащупать что-то, почему то так представлялось, но это уже математика которую я нихуя не знаю пока) ну и вот, нашли минимум нашей охуевшей функции и хорошо, тое сть нашли самую хоршо описывающуюб наши данные модель, запомнили коэффициенты и готово уравнение! Знай только туда очередные данные подставляй и получай на выходе ответ! Как-то так оно работает. А может быть и нет. Но как уравнение может написать книгу я себе представить не могу.
Писатель Робин Слоан создал на основе рекуррентной нейронной сети (RNN) текстовый генератор для написания научно–фантастической прозы. Об этом сообщает The Daily Mail.
Слоан представил свой проект на хакатоне Real Future Fair в Окленде. На глазах у зрителей нейросеть написала начало мрачного научно–фантастического романа: «Давным–давно в Окленде появился робот, созданный уничтожить все высокопоставленные семьи. Высокопоставленными семьями, конечно, были те, которые владели временами года. Когда они хотели, было лето. Когда они решали — наступала зима».
Для обучения алгоритма автор создал базу текстов из научно–фантастических журналов Galaxy и IF Magazine, выходивших в США в 60х–70х годах.
«Вы можете обучить нейронную сеть на больших объёмах любых текстов. Это может быть Википедия, или все произведения Чарльза Диккенса, или всё, что есть в интернете», — говорит Слоан.
Текстовый генератор принимает фрагменты текста и дописывает их, используя данные из базы:
«Я на 100% уверен, что через какое–то время все текстовые редакторы будут оснащены чем–то подобным», — пишет автор.
Ранее исследователь машинного интеллекта Макс Дойч создал рекуррентную нейронную LTSM–сеть, которая написала книгу о Гарри Поттере, изучив первые четыре книги серии.
В этом году в финал престижной литературной премии имени Хоси Синъити прошёл рассказ, написанный учеными из Университета Будущего Хакодате в соавторстве с искусственным интеллектом. Чтобы алгоритм смог «сочинить» рассказ, учёные предоставили ему набор входных данных: пол главных персонажей, описание сюжета, а также набор основных фраз и предложений.
>>921372 > учёные предоставили ему набор входных данных: пол главных персонажей, описание сюжета, а также набор основных фраз и предложений. >описывающуюб наши данные модель, запомнили коэффициенты и готово уравнение! Знай только туда очередные данные подставляй и получай на выходе ответ! >Чувак, ну это же популисты-журналисты С другой стороны, это образец современного искусства, человек применяет технологии для творчества, те же диджеи драмнбассные, это в общем круто.
>>921372 Вот аппроксимируют эти нейроночки. Весело. И кажется, что прогресс куда-то там движется. А по сути для реального творчества это мало что дает. Если реально по науке поступать, то надо какую-то теорию построить по тому, как пишутся рассказы, ну или развить и соединить уже существующие вещи (ведь уже немало всего придумали). А потом можно было бы и узконаправленную программу сделать, которая более эффективно и качественно решала задачу.
>>921394 Ну да, составить коллаж из рассказов, тщательно продумывать тему, развитие сюжета и тд и тп, а потом тупо скормить полностью детерминированному уравнению и получить результат. Не проще самому написать? Нет, не модно.А ВНУТРЕ У НЕЙ НЕЙРОНКА!
>>921398 >А ВНУТРЕ У НЕЙ НЕЙРОНКА Старичок засуетился. Он снял с футляра крышку, под которой оказалась громоздкая старинная пишущая машинка, извлек из кармана моток провода, воткнул один конец куда-то в недра машинки, затем огляделся в поисках розетки и, обнаружив, размотал провод и воткнул вилку. — Вот, изволите видеть, так называемая эвристическая машина, — сказал старичок. — Точный электронно-механический прибор для отвечания на любые вопросы, а именно — на научные и хозяйственные. Как она у меня работает? Не имея достаточных средств и будучи отфутболиваем различными бюрократами, она у меня пока не полностью автоматизирована. Вопросы задаются устным образом, и я их печатаю и ввожу таким образом к ей внутрь, довожу, так сказать, до ейного сведения. Отвечание ейное, опять через неполную автоматизацию, печатаю снова я. В некотором роде посредник, хе-хе! Так что, ежели угодно, прошу. Он встал за машинку и шикарным жестом перекинул тумблер. В недрах машинки загорелась неоновая лампочка. — Прошу вас, — повторил старичок. — А что это у вас там за лампа? — подозрительно спросил Фарфуркис. Старичок ударил по клавишам, потом быстро вырвал из машинки листок бумаги и рысцой поднес его Фарфуркису. Фарфуркис прочитал вслух: — «Вопрос: что у нея… гм… у нея внутре за лпч?..» Лэпэчэ… Кэпэдэ, наверное? Что еще за лэпэчэ? — Лампочка, значит, — сказал старичок, хихикая и потирая руки. — Кодируем помаленьку. — Он вырвал у Фарфуркиса листок и побежал обратно к своей машинке. — Это, значит, был вопрос, — произнес он, загоняя листок под валик. — А сейчас посмотрим, что она ответит… Члены Тройки с интересом следили за его действиями. Профессор Выбегалло благодушно-отечески сиял, изысканными и плавными движениями пальцев выбирая из бороды какой-то мусор. Эдик пребывал в спокойной, теперь уже полностью осознанной тоске. Между тем старичок бодро постучал по клавишам и снова выдернул листок. — Вот, извольте, ответ. Фарфуркис прочитал: — «У мене внутре… гм… не… неонка». Гм. Что это такое — неонка? — Айн секунд! — воскликнул изобретатель, выхватил листок и вновь подбежал к машинке. Дело пошло. Машина дала безграмотное объяснение, что такое неонка, затем она ответила Фарфуркису, что пишет «внутре» согласно правил грамматики, а затем… Фарфуркис: Какой такой грамматики? Машина: А нашей русской грмтк. Хлебовводов: Известен ли вам Бабкин Эдуард Петрович? Машина: Никак нет. Лавр Федотович: Грррм… Какие будут предложения? Машина: Признать мене за научный факт. ..... Выбегалло отреагировал немедленно. — Эта... — сказал он. — так ведь я и говорю, ценное же начинание. Элемент необъяснимого имеется, порыв снизу... почему я и рекомендовал. Эта... — сказал он. — объясни, мон шер, товарищам, что тут у тебя к чему. Старичок словно взорвался. — Высочайшее достижение нейтронной мегалоплазмы! — провозгласил он. — ротор поля наподобие дивергенции градуирует себя вдоль спина и там, внутре, обращает материю вопроса в спиритуальные электрические вихри, из коих и возникает синекдоха отвечания...
>>921405 мне вот кажется что проблема всех статей про нейросети, это то что везде пытаются строить именно сети из нейронов, мне кажется что проще для понимания это на языке линейной алгебры рассказать что такое нейросеть, и не упоминать вообще про нейроны, дендриты, аксоны, рецепторные поля и т.д.
что может быть проще нежели фраза гиперболический тангенс от линейной комбинации входного вектора и вектора весов =)
>>921405 О, это не проблема. Это гениальный маркетинговый ход. Нейросети и генетические алгоритмы отличаются как раз аксонами и хромосоми, а не тем, что это очень уж хорошие методы оптимизации. Не знаю на счет финансирования, а в универах это популярно из-за терминологии, это не скучные методы типа нелинейного МНК с кучей частных производных. В искусственных нейросетях тоже много математики конечно, но всем пофиг, у всех нейроны — это классы с циклами внутри, и вместо того, чтобы разобраться с линалом и BLAS получается вот так вот — чередная статья на хабре с ООПшным нейроном
>>921405 Согласен! На мой взгляд проблема даже не столько в «романтичности» нейронных сетей, а в разнице преподавания. Нейронные сети это всегда практические примеры — «а давайте сделаем распознаватель рукописных цифр» или «сделаем управление машиной». А вышку нам всегда преподавали сухо и абстрактно… было не понятно ни зачем матрицы нужны, ни чем поможет взятие архисложного интеграла.
И это печально. Без знания математики нейронные сети, остаются черными «магическими» ящиками, с которыми можно только колдовать…
Радует появление качественных онлайн курсов от ведущих специалистов в этой области.
>>921394 Общая теория известна, но она ничего не даёт потому-что слишком общая. А слишком подробная теория бы закрепила слишком много, и кому тогда вообще бы было интересно читать рассказы построенные слишком одинаково?
Короче я офигеваю с вашей тупости тут, идите работайте, мечтатели. Денег заработайте, рекомендательные системы поимпрувте, сидите тут стулья пропёрживаете на мамкины борщи.
Pattern Recognition and Machine Learning, Bishop.
Information theory, inference & learning algorithms, MacKay http://www.inference.phy.cam.ac.uk/itila/
Machine Learning: A Probabilistic Perspective, Murphy
Introduction to Statistical Learning ( http://www-bcf.usc.edu/~gareth/ISL/ISLR%20Sixth%20Printing.pdf )
Elements of Statistical Learning ( http://statweb.stanford.edu/~tibs/ElemStatLearn/printings/ESLII_print10.pdf )
Foundations of Machine Learning, أشهد أن لا إله إلا الله وأشهد أن محمد رسول الله. http://www.cs.nyu.edu/~mohri/mlbook/
Fundamentals of Neural Networks: Architectures, Algorithms, and Applications, Fausett L.
А. Пегат, "Нечёткое моделирование и управление"
другое
http://libgen.io / http://bookzz.org/ - здесь можно одолжить ^ книги и не только
http://arxiv.org/find/all/1/all:+nejronochki/0/1/0/all/0/1
https://www.reddit.com/r/MachineLearning/wiki/index
https://vk.com/deeplearning и http://deeplearning.net/reading-list/
https://www.kadenze.com/courses/creative-applications-of-deep-learning-with-tensorflow/info тюториал по slesarflow
http://rgho.st/8g68fTCSx две брошюры по deep learning для слесарей.
http://kaggle.com - весёлые контесты. денежные призы
https://www.hackerrank.com/domains/ai/machine-learning/difficulty/all/page/1 - олимпиадки
курс от китаёзы
http://videolectures.net/mlss09uk_cambridge/
яп
1. http://julialang.org/
2. https://www.microsoft.com/en-us/research/project/infernet/
3. https://www.r-project.org/
4. питухон и так все знают
5. idris/coq - модные яп для формально верифицированных нейроночек с тренировкой на этапе компиляции
ПЛАТИНА
Книги хорошо, но с чего начать практический вкат?
Во-первых, вам нужна любая unix-based система. На Windows возможно запустить нижеперечисленное, но ждите пердолева с настройкой и неодобрительных взглядов анонимуса. Кроме того, в компаниях, так или иначе связанных с разработкой йоба-ПО и machine learningом, Linux/OS X является стандартом. Привыкайте.
Во-вторых, определитесь с языком. Python и C++ наиболее мейнстримовые инструменты, с ними вы без еды не останетесь. Есть еще R, на котором пацаны живут статистикой и анальными пакетами. Некоторые инструменты являются языко-независимыми (Vowpal Vabbit, XGBoost), но обвязывать их вы все равно будете из какой-либо среды.
На Java разработано много production-ready инструментов для бигдаты и если вы угораете по терабайтам данных, то имеет смысл посмотреть в её сторону. Впрочем, лучше это делать уже потом, когда прийдет осознание потребностей.
В-третих, выбирайте себе задачу. Что угодно: распознать качпу, обнаружить ботов по логам, найти раковых больных. Список можно посмотреть, например, на kaggle.com. После чего приступаете к решению выбранной задачи.
Не прийдется ли мне потом с таким наборищем знаний идти в макдак работать?
Несмотря на хайп вокруг ML, далеко не во всех IT компания есть необходимость в ML и понимание круга задач, которые можно решить этими методами. Но поверьте, в 2017 компетентный специалист будет востребован. В России потребителями ваших знаний могут стать: Яндекс, Mail.ru, Вконтакте, Rambler, Касперский, Билайн, Связной, ABBYY, Хуавэй. В биоинформатике есть определенный спрос, можно поскролить http://blastim.ru
Здорово, но я так и не понял чем же вы занимаетесь в IT компаниях?
Попытаюсь ответить со своей колокольни и сразу хочу предупредить, что это едва ли консенсуальное мнение.
ML-специалист - это такое зонтичное определение для человека, способного увидеть проблему, выгрепать кучу логов и данных, посмотреть на них, придумать решение проблемы и врезать это решение его в продакшн. По сути, это кодер, решающий не чисто технические, а, в некотором роде, человеческие проблемы.
Имхо, мы все же остаемся в первую очередь разработчиками.
Что такое TensorFlow?
TensorFlow - опенсорсный гугловый инструмент для перемножения тензоров и оптимизации функционалов. Опенсорсный - потому что даже важные куски типа параллелизации уже выкачены в паблик. Если вам все ещё непонятно что это, значит это вам и не нужно, сириусли. Google перестарался с рекламой и теперь люди думают, что TF - это серебряная пуля и затычка для каждой бочки. До TF был Theano, который выполнял свою работу не хуже. И, в отличии от TF, он уже находится в стабильной фазе.
будет ли ML нужен в ближайшие 10 лет, или это просто хайп?
будет. хайп.
смогу найти работу?
Яндекс, мейлру, касперский, несколько биоинформатических компаний (iBinom, можно еще blastim.ru поскролить на тему работы), билайн (они с НГ целое подразделение открыли под ML и биг дату), связной. Ну и западные аутсорсы, если готов рачить за валюту.
нужна математика?
для начинающего ничего особого знать не нужно
https://www.amazon.co.uk/Calculus-Michael-Spivak-x/dp/0521867444
https://www.amazon.co.uk/dp/0534422004/ref=pd_lpo_sbs_dp_ss_2?pf_rd_p=569136327&pf_rd_s=lpo-top-stripe&pf_rd_t=201&pf_rd_i=0980232716&pf_rd_m=A3P5ROKL5A1OLE&pf_rd_r=3TZ38AZ2BY28R19H4SA5
https://www.amazon.co.uk/Calculus-Several-Variables-Undergraduate-Mathematics/dp/0387964053
https://www.amazon.co.uk/Introduction-Probability-Dimitri-P-Bertsekas/dp/188652923X
"основы теории вероятностей" Вентцель
поясните за нейроночки
нейроночка - массив зависимых типов
шад)))
Нет там ничего ML-специфичного, знание матана и теорвера на уровне заборостроительного вуза. Теорвер проходится на третьем курсе, как раз 20 лет.
Рандомный хрен туда не сможет поступить, потому что планка намеренно задрана, а не потому что там такая охуенно сложная программа. Это традиционная наебка "элитных учебных заведений", в которой учат так же хуево, как и везде, но за счет отбора поступающих якобы формируются неебовые успехи, которые объясняются именно качеством преподавания.
Иными словами, у тех, кто способен поступить, и так в жизни проблем с трудоустройством не будет.
Тред #1: https://arhivach.org/thread/147800/
Тред #2: https://arhivach.org/thread/170611/
Тред #3: https://arhivach.org/thread/179539/
Тред #4: https://arhivach.org/thread/185385/
Тред #5: https://arhivach.org/thread/186283/
Тред #6: https://arhivach.org/thread/187794/
Тред #7: https://arhivach.org/thread/196781/
Тред #8: https://arhivach.org/thread/209934/
Тред #9: https://arhivach.org/thread/223216/