ПЛАТИНА Книги хорошо, но с чего начать практический вкат? Во-первых, вам нужна любая unix-based система. На Windows возможно запустить нижеперечисленное, но ждите пердолева с настройкой и неодобрительных взглядов анонимуса. Кроме того, в компаниях, так или иначе связанных с разработкой йоба-ПО и machine learningом, Linux/OS X является стандартом. Привыкайте. Во-вторых, определитесь с языком. Python и C++ наиболее мейнстримовые инструменты, с ними вы без еды не останетесь. Есть еще R, на котором пацаны живут статистикой и анальными пакетами. Некоторые инструменты являются языко-независимыми (Vowpal Vabbit, XGBoost), но обвязывать их вы все равно будете из какой-либо среды. На Java разработано много production-ready инструментов для бигдаты и если вы угораете по терабайтам данных, то имеет смысл посмотреть в её сторону. Впрочем, лучше это делать уже потом, когда прийдет осознание потребностей. В-третих, выбирайте себе задачу. Что угодно: распознать качпу, обнаружить ботов по логам, найти раковых больных. Список можно посмотреть, например, на kaggle.com. После чего приступаете к решению выбранной задачи.
Не прийдется ли мне потом с таким наборищем знаний идти в макдак работать? Несмотря на хайп вокруг ML, далеко не во всех IT компания есть необходимость в ML и понимание круга задач, которые можно решить этими методами. Но поверьте, в 2017 компетентный специалист будет востребован. В России потребителями ваших знаний могут стать: Яндекс, Mail.ru, Вконтакте, Rambler, Касперский, Билайн, Связной, ABBYY, Хуавэй. В биоинформатике есть определенный спрос, можно поскролить http://blastim.ru
Здорово, но я так и не понял чем же вы занимаетесь в IT компаниях? Попытаюсь ответить со своей колокольни и сразу хочу предупредить, что это едва ли консенсуальное мнение. ML-специалист - это такое зонтичное определение для человека, способного увидеть проблему, выгрепать кучу логов и данных, посмотреть на них, придумать решение проблемы и врезать это решение его в продакшн. По сути, это кодер, решающий не чисто технические, а, в некотором роде, человеческие проблемы. Имхо, мы все же остаемся в первую очередь разработчиками.
Что такое TensorFlow? TensorFlow - опенсорсный гугловый инструмент для перемножения тензоров и оптимизации функционалов. Опенсорсный - потому что даже важные куски типа параллелизации уже выкачены в паблик. Если вам все ещё непонятно что это, значит это вам и не нужно, сириусли. Google перестарался с рекламой и теперь люди думают, что TF - это серебряная пуля и затычка для каждой бочки. До TF был Theano, который выполнял свою работу не хуже. И, в отличии от TF, он уже находится в стабильной фазе.
будет ли ML нужен в ближайшие 10 лет, или это просто хайп? будет. хайп.
смогу найти работу? Яндекс, мейлру, касперский, несколько биоинформатических компаний (iBinom, можно еще blastim.ru поскролить на тему работы), билайн (они с НГ целое подразделение открыли под ML и биг дату), связной. Ну и западные аутсорсы, если готов рачить за валюту.
шад))) Нет там ничего ML-специфичного, знание матана и теорвера на уровне заборостроительного вуза. Теорвер проходится на третьем курсе, как раз 20 лет. Рандомный хрен туда не сможет поступить, потому что планка намеренно задрана, а не потому что там такая охуенно сложная программа. Это традиционная наебка "элитных учебных заведений", в которой учат так же хуево, как и везде, но за счет отбора поступающих якобы формируются неебовые успехи, которые объясняются именно качеством преподавания. Иными словами, у тех, кто способен поступить, и так в жизни проблем с трудоустройством не будет.
Что за пиздец? Кроме питона, R и С++ в МЛ почти ничего не юзают. Потом будут в тред вкатываться Васи, которые идрис выучили, но работу найти не могут.
>Что такое TensorFlow? >TensorFlow - опенсорсный гугловый инструмент для перемножения тензоров и оптимизации функционалов. Опенсорсный - потому что даже важные куски типа параллелизации уже выкачены в паблик. Если вам все ещё непонятно что это, значит это вам и не нужно, сириусли. Google перестарался с рекламой и теперь люди думают, что TF - это серебряная пуля и затычка для каждой бочки. До TF был Theano, который выполнял свою работу не хуже. И, в отличии от TF, он уже находится в стабильной фазе.
Слесарьфлоу уже месяца 2 как релизнут, но и до этого он был стабильным и работал намного лучше Теано.
Двач, тебе не кажется, что существующие названия вакансий (и позиций), вроде Data Analyst, Data Scientist, ML engineer и пр. какие-то очень широкие, примерно как просто Developer, без привязки к языку, платформе etc, при этом каждая вторая контора считает своим долгом вставить свои 5 копеек в трактовку понятия? Появятся ли более мелкие, но точные названия в будущем?
Собственно говоря, в программе поступления в ШАД алгебра наиболее объемная: подстановки, комплексные числа, СЛАУ (отсюда матрицы & определители), векторы, линейные отображения/операторы, билилейные и квадратичные функции Это все имеет прикладной характер в МЛ? Или что-то можно скипнуть при самовкате?
>>957312 Это азы математики, которые должен знать любой образованный человек, проходится на первом курсе любого универа. Учи, не торопись. На ютубе 3blue1brown шикарные интуитивные анимации есть линейной алгебры.
>>957289 Каким был веб 15 лет назад? По моему, в МЛ все гораздо понятней и популярней, чем тогда.
Посмотрел в архиваче, пара анонов предлагали запилить чатик в телеграмчике. Я б с вами там тоже посидел, но я рачье и буду пиздеть в основном не по тематике
>>957516 Примерно так же, вместо того, чтобы делать дела, люди в основном борятся с несовершенными инструментами. Не, классический МЛ-то еще более-менее, но нейроночки пиздец вообще.
>>957523 Так тензорфлоу говно. Что-то более-менее для людей - это nvidia digits. В веб-интерфейсе сделал датасет, выбрал нейроночку, она обучилась и работает. Нет, чувак, ситуция как сейчас будет, когда основную долю рынка будут занимать CMS на PHP, а не гуглы для аутистов.
>>957552 >Что-то более-менее для людей - это nvidia digits Для обучения (человека, а не нейронки) - очень годная штука. Кнопочки тыц-тыц, мышей гуй потыкал, графики посмотрел, красота. Но, чуть что сложнее простой классификации (локализация объекта, например, или кастомный слой caffe) - и начинается глубокий пердолинг копания в сорцах. ML еще в самом зародыше, даже не родилось толком, и инструменты для него тоже.
>>955390 В чате годно. Есть куча каналов на разные темы (в т.ч. NLP), народ собирается на сходки, на вопросы отвечают. Алсо в каком вузе учишься, если не секрет?
>>957701 В телеграме можно только за котики пиздеть, код вставлять и прочее в слаке намного удобнее. Единственное, что бесит в слаке это инвайты, но это можно пережить, если грамотно автобота сделать.
Короче я не затащил специализацию от МФТИ и Яндекса. Не могу сделать задания по программированию на 2-ом курсе. Впизду дропаю. Хуита какая то. И еще я уверен что мимохуя со средней вышкой не по математике или прогерской. Без должного знания статистики и математики хуй возьмут на работу по мл. Я думаю мне не вкатиться, это просто трата времени. Всем спасибо, идите нахуй!
Я, в общем, решил серьезно подойти. Так что надо знать? Правильно ли я понимаю, что нужен следующий список: - Системный подход, теория систем и т.п - Дискретная математика - Теория типов - Теория распознавания образов - Анализ: математический анализ, функциональный анализ и прочая; статистика; теория хаоса; теория вероятностей, нечёткай логика, теория возможностей, теория очевидностей Демпстера-Шафера и прочая - Нейронные сети - Байесовская сеть, вероятностное программирование, дифференцируемое программирование
>>958081 >Системный подход, теория систем и т.п Гуманитарная чушь >Дискретная математика Лишнее >Теория типов Строго нахуй >Теория распознавания образов Прошлый век >Анализ: математический анализ, функциональный анализ и прочая Матан и линал нужен. Функан - на уровне определений. Matrix calculus нужен. Статистика и теорвер нужны. Теория хаоса нет. Нечеткие петухи не нужны.
Зная это (первые 3 курса математики в универе), можно приступать к переднему краю и доучивать пробелы в процессе.
>>958081 Все, что нужно - желание, видение проекта и, собственно, сам проект и пилить. Все остальное, если будешь не мочь, наберешь по ходу разработки твоей хуйты. Только так люди и набирают скилы и вкатываются во что угодно, кмк
>>958082 Видимо,можно писать спецификацию алгоритма, а идрис тебе выдаст скомпилированный алгоритм,соответствующий этой спецификации. Насколько мне известно, для мл никто ничего похожего не делал.
Раз уж заговорили о зависимых типах. Вот смотрите, у того же Вапника имеются общие требования для алгоритмов, эффективных более, чем просто асимптотически приближающиеся к оптимальному решению проблемы распознавания образов, бла-бла-бла. По-сути, это готовые спецификации, которые можно выразить в виде типов, зависимых в т.ч. Остается только найти программы, наиболее оптимально представляющие такие типы, методами program derivation в этих ваших Куках и прочих Идрисах, как вариано - генетическим программированием в типизированной лямбде с последующей проверкой в ЯП с зависимыми типами - program verification. В итоге получим нечто эффективнее SVM и всяких бустингов, в т.ч. глубоких. Если что-то подобное запилить и вылодить на гитхаб и отрастить бороду, есть вариант что в гугл РАБотать возьмут?..
Котаны, помогите запилить простецкий классификатор. Задача примерно как в типичном спам-классификаторе. Есть вероятность попадания элементов в классы 1 и 2. Есть уникальные элементы, которые встречаются только в 1 или только в 2. Т.е. допустим есть элемент А, который в классе 1 встречается с вероятностью 0.6 (в 60% случаев в обучающей выборке), а в классе 2 вероятность 0. А есть элемент Б, который в 1 с вероятностью 0, а в 2 с вероятностью 0.7.
И надо классифицировать образец, в котором есть и А, и Б.
Если запилить байесовский классификатор, то для обоих классов будет умножение на ноль.
>>956903 (OP) >нужна математика? >для начинающего ничего особого знать не нужно >список математической лит-ры Этот список и есть "ничего особого знать не нужно" или же все-таки действительно из метематики ничего особого знать не нужно в начале? А в середине, чтобы устоиться на работу, например?
>>958349 Ты можешь взять готовую библиотеку даже на том же пхп и что-то делать, но ты не будешь существенно двигать к созданию ИИ и сингулярности таким образом.
>>958368 Это не лаба. Помогите, плес. Я просто другим занимаюсь по жизни, а тут такая задача возникла. Я вот думаю, может, из прикладной статистики что-то поможет? Но даже не знаю, с какого конца взяться.
>>958426 Не, в образце для классификации будет и А, и Б встречаться, и ещё какие-то элементы (допустим: n1, n2, n3, которые с разной вероятностью есть в обоих классах). То есть там надо считать: P(1|A,Б,n1,n2,n3); P(2|A,Б,n1,n2,n3). Не?
>>958495 Какой курс? Просто в гугл вбей "матрицы учебник". Из всей математики, что была у нас в вузе, это самое элементарное, думаю. Проще только арифметика, даже школьная геометрия сложнее.
P(B|1) участвует в числителе и весь его перемножает на 0. Таким образом, классификатор игнорит все остальные признаки классифицируемого объекта. Меня это не устраивает.
>>958659 Может. Потому что невхождение Б в 1 - не значит, что наличие Б в образце автоматом этот образец делает чужеродным для 1. Считай, что это часть формулировки задачи классификации.
То есть мне надо посчитать, насколько образец похож на 1 и на 2, несмотря на все такие вот противоречивые вхождения А и Б.
>>958671 Вот да, я пришёл спросить, что пробовать-то теперь. Наивный байес явно не подошёл. Я пробовал вообще выкидывать элементы с нулевыми для вычисляемого класса вероятностями - получались значения вероятности >1. Может, ты ещё бы что-то назвал, что пробовать? Чтоб два раза не бегать.
А, ещё. В регрессии ж вектора значений. У меня, чтоб уточнить, каждый образец будет иметь разное количество фич (где-то есть только А и n2, например). Ну и классам принадлежит разное количество возможных фич. Например, 1 = А, n1; 2 = Б, n1, n2, n3.
>>958675 гауссов процесс попробуй, лол ещё рандом форест есть и SVM - только у этих двух не будет вероятность на выходе, сразу класс выплёвывают. незнаю насколько для тебя это критично эти 3 оче попсовые классификаторы, что-нибудь да подойдёт
>>958687 фичи неизвестны или совсем отсутствуют? можешь попытаться вывести неизвестные фичи чтоб всё было одной длины если фичи вещественны то нормализуй на [0; 1]. если дискретные то можешь использовать 1-of-К кодировку. будет длинный вектор нулей и единиц и по одному весу на каждое число
>>958693 Совсем отсутствуют. Вместо них можно нулей напихать? Веса это вероятности же будут, я полагаю. Пик в качестве благодарности, сотен нефти не нашлось.
Буду писать диплом на тему, связанную с распознаванием образов.Анон, посоветуй чего интересного можно пораспознавать и чтобы при этом не ахуеть, ибо времени не очень много остается.
>>958902 Можно на вход подавать не сырые данные, а обработанные. В том числе и вейвлетами. Можно это преобразование вкорячить в саму нейроночку, гугли wavelet neural network.
По поводу зависимых типов и Вапника. Поясню конкретнее, что я имел в виду чуть выше >>958317 в этом ИТТ тренде. 1) По Вапнику, задача обучения сводится к минимизации т.н. функционала риска, пик 1. 2) Конкретные примеры реализации этого принципа на пике 2, на место общей формулировки Q(zi, a) подставлены соответственно SSE и логарифм значения плотности распределения вероятности штоле, не суть. 3) Фишка предлагаемого метода в том, что все возможные варианты Q(zi, a) это функции, в общем случае - функционалы различной сложности. Само собой, все они сводятся к типизированной лямбде, т.к. имеют свой тип и представимы в виде конечного дерева из аппликаций, абстракций и чего там еще есть. 4) Задача, таким образом, сводится к нахождению оптимального функционала минимизации риска, что и возможно при представлении формулы 1.8 в виде спецификации для ЯП с зав.типами. Конкретно, нас интересует непустой тип с минимальными значениями R emp (a), зависимый от типа суммирования Q(zi, a) по всему датасету zi, точнее по самым разным таким датасетам. 5) Как было сказано выше, один из методов - генетическое программирование в типизированной лямбде, которое и подберет некоторое количество оптимальных вариантов функционала Q(zi, a), лучше других минимизирующего зависимый от него R emp (a). Что скажете?
Да, небольшое добавление к >>959210 все несколько сложнее, чем я описал. Там надо отдельно подбирать генетическим программированием собственно структуру функционала минимизации риска, и отдельно - параметры функционала, минимизирующего его для конкретного датасета. Что усложняет задачу, но технически это все равно реализуемо. >>959314 Дело не в типизированных лямбдах, а в генетическом программировании с использованием их. Обычные ЯП для такой задачи не подходят, т.к. там сложный синтаксис и практически получить осмысленный код уже при небольшом объеме программы за разумное время вычисления нереально, автор генетического программирования именно на этом и обосрался. А лямбда - то, что нужно, т.к. там полтора элемента для выражения любой сложности - аппликация с абстракцией и глубина дерева общего выражения, что элементарно и без всяких костылей кодируется в виде "хромосом" для генетического алгоритма. Тута https://eldorado.tu-dortmund.de/bitstream/2003/34162/1/Dissertation.pdf все по-хардкору изложено. Совершенно понятно, что общий смысл происходящего - "экстракция" программы из некоего большого типа, содержащего все используемые для данной задачи в типизированной лямбде типы, что-то уровня описанного Максимкой http://maxim.livejournal.com/479716.html
>>959322 До кода далеко, пока только гениальная идея - представить вапниковскую общую постановку проблемы МЛ в виде спецификации в MLTT с последующим автоматизированным нахождением лучших вариантов, удовлетворяющих условиям такой спецификации.
>>959474 Не совсем дебил, просто удивительно. Давай-ка пиздуй с этой параши, делать тебе здесь нечего - среди школодегенератов и просто дегенератов. Удачи.
Может кто-то подсказать с чего вкатываться в Natural Language Processing? Немного умею в матан + поизучал какие-то базовые вещи из ML (Регрессии, нейроночки). Интересуют именно фундаментальные знания.
>>959832 на курсере было два хороших курса Natural language processing, но сейчас их убрали, можно поискать где-то видео, один от Columbia university, там были марковские цепи и тд, другой от стэнфорда, что там - не помню. Можно попробовать поискать, на ютубе - один из них точно есть. Из книжек часто советуют Foundations of Statistical Natural Language Processing от Manning, не читал, но содержание выглядит прилично, и Speech and Language Processing от Jurafsky - мне не очень понравилось. Из нейроночек советуют курс http://cs224d.stanford.edu/ . Недавно хайпали этот курс https://github.com/oxford-cs-deepnlp-2017/lectures, но не смотрел.
>>959710 В диссере по ссылке полно примеров,как и в доках к соответствующему пакету для R - rgp, регрессия например. Зависимые типы отдельная тема, ес-но.
>>959850 >>959904 Спасибо, сохранил ссылки. Ещё вопрос, кстати. Как получить доступ к видео лекциям стенфорда? Я почитал у них на сайте какую-то информацию и сделал вывод, что доступ есть только у студентов стенфорда. Я не прав?
Анон, помоги. Хочу сгенерировать фильтры для СНН в виде двумерных массивов. Мозгов не хватает как это закодить, чтоб красиво было. Их же 15 должно быть в случае с разрешением из 4 элементов? (см. пикрелейтед)
Хочу написать распознавалку различных частей автомобиля(колёса, фары и т.д.).Умею в программирование и матан, опыта работы с OpenCV нет. Подскажи, дорогой анон, что изучать(будет особенно хорошо, если ты назовёшь конкретные источники) и насколько сложна такая задача?
>>961027 В 2017 эта задача выглядит как "скорми нейроночке 1000 образцов твоей хуйни, а она сама разберется". Используй Nvidia SLESARS чтобы собрать все нужное и запустить https://github.com/NVIDIA/DIGITS/tree/master/docs Только вместо lenet из gettingstarted используй alexnet.
Аноны, у меня большая проблема в понимании lse части алгоритма обучения классической ANFIS. Backpropagation часть я легко реализовал, а на этой сломался. Реквестирую детально разжеванное описание ANFIS, из которого легко понять, зачем это происходит, желательно с геометрическими аналогиями. И еще, поскольку это batch алгоритм, то как его применять, если на вход нейронечеткой системы управления подается временной ряд в реальном времени, и нет возможности вывести систему в оффлайн надолго и прокрутить такие затратные вычисления?
>>961958 > No Free Lunch Theorem Нечто уровня "теоремы Тарана / Пидорана" из /по. Эта твоя теорема касается алгоритмов с асимптотически близким к оптимальному решению. То, о чем говорю я, теория статистического обучения Вапника, как раз о том, как это обойти. Именно с ее помощью были построены алгоритмы, рвущие все остальные - градиентный бустинг, в т.ч. deepboost. И есть все основания считать, что это далеко не предел, сейчас уже делаются попытки построения глубоких SVM, опять же на основе вапниковской теории, в перспективе они обойдут глубокие нейросети. Там очень большой потенциал на самом деле, потому что подход к задаче МЛ правильный и обоснованный, а не как обычно "нахуярить побольше слоев)))". Фишка в том, что теория статистического обучения она не о каком-то одном подходе, а о решении задачи машинного обучения вообще, в принципе. О построении алгоритмов, эффективнее чем просто асимптотически приближающихся к оптимальному решению. И как раз это можно автоматизировать. >>962114 То, что у тебя на 2ом пике - это нахождение наименьших квадратов фильтром Калмана. Сама идея взята из оригинальной работы Такаги и Сугено, и т.к. ANFIS это по-сути, TS с адаптивной настройкой свободных параметров, видимо и была использована Чангом без изменения. Вообще, фильтрация в т.ч. всякими хитрыми алгоритмами типа Н-2/Н-инфинити для настройки параметров нечетких моделей - тема отдельная и крайне мутная, лучше туда вообще не лезть без особой нужды, вот пример книшки в тему не для слабонервных http://gen.lib.rus.ec/book/index.php?md5=4710323AE0A71E05902C358A4EAEDF45 настроить свободные параметры нечеткой модели можно и без всей этой мути, вариантов полно вплоть до генетических алгоритмов. Я ж говорил, что ANFIS не самая удачная модель и точно не то, с чего стоит вкатываться в нейрофаззи-моделирование.
>>962332 >Эта твоя теорема касается алгоритмов с асимптотически близким к оптимальному решению.
Вообще-то она утверждает, что для любого алгоритма бинарной классификации существует такое распределение на сэмплах и раскраска, что со строго положительной вероятностью эмпирический риск больше 1/10 или что-то около того (это если не ограничивать класс гипотез). Теория же статистического обучения (PAC Learnability) есть суть поиск условий на класс гипотез, для которого эмпирический риск с большой вероятностью близко оценивает реальный риск. Отсюда - в т.ч. ключевая теорема о PAC-лёрнабилити класса с конечным VC дименшион.
А про класс гипотез я как раз у тебя ничего не заметил. И именно поиск хорошего класса гипотез с конечной размерностью (или который суть объединение таковых если добавляем регуляризацию) есть основная проблема обучения.
Алсо, на практике в нейронках на теорию Ватника всем как раз похуй. Потому что VC дименшн нейронок очень хуёво оценивается, классическое правило большого пальца о 10 сэмплах на признак тоже не очень работает и т.п.
>>962337 >можешь предложить, с чего стоит вкатываться в нейрофаззи? Коско тута не любят вплоть до смищных картиночек в каждом оп-посте, но его стандартная аддитивная модель (SAM) - общий случай нечеткой модели, к которой сводятся все конкретные. То же самое по методам настройки свободных параметров, у него разобраны случаи бэкпропагейшена как пример обучения с учителем и кластеризация как настройка свободных параметров без учителя. 2ая глава вот этой книги http://gen.lib.rus.ec/book/index.php?md5=BC1EC0F44F2E619AB46D6FD0B7088514 Очевидно, что абсолютна любая нейрофаззи-модель - это частный случай SAM с настраиваемыми параметрами. Но опять же, с кондачка в эту теорию не въедешь, нужно немало медитировать. Простые примеры нейрофаззи-моделей, как и суть происходящего, рассмотрены у Пегата, причем с картинками и на русском. >>962348 >А про класс гипотез я как раз у тебя ничего не заметил. Класс гипотез - это конкретная форма функционала минимизации эмпирического риска? Или что? Конкретные формулы у Вапника покажи.
>>962414 >потолщу немного на тему генетической генерации алгоритма. ПРОБЛЕМА ОСТАНОВА Не, не потолстишь. В MLTT/CiC все функции вычислимы, это не тьюринг-полная система. Поэтому корректность программы в любом нормальном языке с зависимыми типами означает полную корректность, там иначе оно просто чекаться не будет.
Вопросец к тем кто делает что-то из машоба, нейронок и вот этого всего профессионально, то есть за деньги, то есть в какой-нибудь норм конторе, а не только посмотрел видео 10 минутное на ютубе что такое НС. Вот я сейчас занимаюсь изучением, пока не так далеко продвинулся - изучил линейные модели, деревья, разные регуляризации и т.д. немного в нейронки смотрю. Но есть такой момент, что мои знания математики хоть и не на нулевом уровне, вроде более менее знаю тервер, алгебру, матан и прочее, читать книжки вроде The elements of statistical learning или похожие такого уровня мне бывает достаточно тяжело и иногда просто упираюсь в то, что не знаю целого важного раздела математики достаточно хорошо. Собственно вопрос такой - как лучше всего подходить к этому и настолько ли важно знать хорошо прям все? То есть вам нормальные книжки из шапки давались легко или тоже вызывали жопную боль достатоно часто?
>>962674 Что тебя мотивирует этим заниматься? Почему-то стало интересно, что вообще может мотивировать в дрочке матриц людей, особенно сидящих на дваче, лол
>>962927 Я не он, но отвечу. Вышмат не знаю. Дрочкой матриц занимаюсь, потому что интересно. Такое странное ощущение возникает, что ты создаешь что-то полуживое, полуразумное. Я, конечно, в глубине понимаю, что это просто тупой перебор, аппроксимация и минимизация ошибки, но результат вдохновляет. Как много-много лет назад, когда написал первую программу на Бейсике.
>>962959 В контре можно например сделать бота что все время стреляет в голову, но тяжело с ним играть, а так чтобы с экспертов доучивались дальше, поможет плавно прокачать скилл.
>>962959 >интересно играть с такими наверно Когда знаешь, что это бот - нет. Ведь ты будешь понимать, что он может стрелять тебе точно в голову, и реагирует гораздо быстрее тебя, но его скилл искусственно занижен, чтобы ты, убогое протеиновое существо с ограниченными возможностями, не так остро ощущал свою ущербность.
>>962674 >читать книжки вроде The elements of statistical learning или похожие такого уровня мне бывает достаточно тяжело и иногда просто упираюсь в то, что не знаю целого важного раздела математики достаточно хорошо. Собственно вопрос такой - как лучше всего подходить к этому Медитируй до просветления. Нету там никаких важных разделов математики кроме матана, теорвера, линейной алгебры (на уровня всяких хуевертий с матрицами и векторами). Просто тема для тебя новая, только и всего. Такие книшки нужно не просто на сон грядущий почитывать, а перечитывать непонятные моменты, гуглить непонятное, местами даже конспектировать, выписывать формулы и прорешивать. Так и победишь.
>>963056 >The elements of statistical learning На самом деле довольно хуёвая книга. Многовато статистики, на которую всем вообще-то насрать на практике. Из-за этого часто возникает ситуация, что за деревьями не видно леса.
>>963080 >>963106 Не нужно повторять заученные мантры. ESL часто фокусируется на совершенно неважных вопросах. Например, в первой же главе дохуя болтовни про конфиденс интервалз для коэффициентов линейной регрессии. Что, много людей этим заморачиваются в практических задачах? Кажется, сам Вассерман - который "Всё о непараметрической статистике" - сказал, что Дэйта Сайнс есть суть смерть практической статистики. Потому что эта примордиальная ёботня с РАСПРЕДЕЛЕНИЕМ СТЬЮДЕНТА С 1488 СТЕПЕНЯМ СВОБОД и прочими ХИ КОКОКОКВОДРАТ ТЕСТОМ НА НЕЗАВИСИМОСТЬ реально никого не ебёт.
Те же лекции Нга, или книга Бишопа, или ещё дохуя материалов гораздо лучше написаны. А по стэйт-оф-зе-арт все равно нужно читать статьи и специализированные монографии.
>>963153 >дохуя болтовни про конфиденс интервалз для коэффициентов линейной регрессии. Что, много людей этим заморачиваются в практических задачах? Так тебе же суть объясняют происходящего. А ты ноешь, что "много буков, плохо сделали, тупо, вон у Ына лучше".
>>963157 >Так тебе же суть объясняют происходящего. А ты ноешь, что "много буков, плохо сделали, тупо, вон у Ына лучше". Ноуп. К теории обучения в смысле Вапника дрочево с конфиденс интервалз имеет очень слабое отношение. И, например, в доказательстве ключевых теорем ML всё это замшелое статистическое барахло не используется. А используется, например, неравенство Хёффдинга.
Такие дела. Читать эту муть (ESL) совершенно не рекомендую, уж если интересует теории Вапника - то и читать лучше оригинальную монографию Вапника. Чурка в видеолекциях тоже приемлемо объясняет.
Роджер Шэнк, один из основоположников идеи мыслящих компьютеров, о том почему нас ждёт застой в области ИИ. Я прямо согласен почти с каждым словом. Вообще меня прямо раздражает как последнее время люди все чаще применяют термин Искусственный Интеллект к штукам, не обладающими интеллектом. И да, виноваты в этом гугл и IBM, которые постоянно муссируют AI в смысле коммуникациях, остальным приходится принять правила игры.
The biggest difference I see between the communities is that statistics emphasizes inference, whereas machine learning emphasized prediction. When you do statistics, you want to infer the process by which data you have was generated. When you do machine learning, you want to know how you can predict what future data will look like w.r.t. some variable.
Of course the two overlap. Knowing how the data was generated will give you some hints about what a good predictor would be, for example. However, one example of the difference is that machine learning has dealt with the p >> n problem (more features/variables than training samples) since its infancy, whereas statistics is just starting to get serious about this problem. Why? Because you can still make good predictions when p >> n, but you can't make very good inferences about what variables are actually important and why.
ML подход в конечном счете оказался более успешным, потому что unsupervized learning (и сильный ИИ в конечном счете) возможен только в формате простых предсказаний.
>>963368 Не совсем так. Уже сейчас шломо шекельберг начал подозревать, что на одних нейроночках далеко не уедешь. Поэтому соавторша вапника уже возглавляет исследовательский отдел гугла и именно там интересуются последними достижкниями ваппниковской теории, гугли deepboost. Нейроночки уже приблизились к пределу своих возможностей, дальше просто никаких кластеров не хватит для тысяч слоев этого хлебушка. Поэтому будущее за глубоким бустингом и стыкованными svm.
>>961732 муахахаха, дада матджава против питона, которая без библиотек, без возможностей, без сообщества, без единого адекватного проекта; какой дегенерат картинку нарисовал?
Мне вот вообще интересно, как можно заработать в данной сфере простому человеку и как можно конкурировать с компаниями одному простому почти нищему человеку? Найс идиотизм, что за школьнек-мечтатель фуфлогон?
Тебе сколько там лет? Ещё 20 нет, тогда ты ещё неадекватный человек, не создавай темы до 25, не отнимай время.
>>963596 Производная - это там где секущая никогда не станет касательной и неопределённость 0/0 может не раскрыться? И ещё которая даёт неправильную мгновенную скорость в половине случаев?
>>963690 Короче, там очередное подтверждения моего тезиса, что сверточный нейроночки - далеко не единственный метод МЛ и в них все не уперлось. Суть там в том, что для настройки оптимального поведения в марковском процессе принятия решений (MDP) используют CMA-ES, это не совсем генетические алгоритмы. Авторы ссылаются на эту работу http://kyb.mpg.de/fileadmin/user_upload/files/publications/attachments/Neural-Networks-2010-Sehnke_%5b0%5d.pdf Такими темпами скоро распиаренные на ровном месте авторы типа Ilya Sutskever откроют для себя меметические алгоритмы, которые поинтереснее реализаций CMA-ES десятилетней давности. Эти алгоритмы интересны тем, что неплохо аппроксимируют даже тысячемерные функции и не требуют для своей работы многотысячепроцессорных гугловских кластеров.
Считаю, что все. что вышло после ЛеНета (алекснет, гугленет и тд) - говен, который по сути клон нейросети Яна Ле Куна. И помимо сверточных сетей, существует другое множество различных архитектур. Да и вообще, что можно со свертчной сетью делать - только матрицы препроцессить. Это ведь не единственная проблема человечества.
>>964486 Из-за хайпа вокруг сверточных сетей все как-то забыли, что МЛ гораздо более широкая тема. Многие области которой не развиваются из-за того, что не в моде. В частности, хуй капитально забит на fuzzy, intuitionistic fuzzy, rough, soft, neutrosophic - множества и их гибриды. Настолько капитально, что по большинству из них не существует ни одного алгоритма вывода в условиях неточности. Вообще, почему-то принято игнорировать, что вероятность - не единственная неточность из всех возможных. Дажк вапниковская теория статистического обучения касается только вероятности.
>>964572 Ленет - неюзабельное говнецо, автор которого за двадцать с хуем лет не догадался использовать нелинейности, не вырождающие градиенты. Я молчу об отказе от pooling слоев и residual сетях - это для этого пердуна вообще рокетсаенс, хотя казалось бы, за 20-то лет можно было хотя бы попытаться. Основная проблема как раз в том, что сообщество никогда не верило в нейронки (потому что бумаги по поводу них много не изведешь) и всегда страдало хуйней типа перечисленной тобой. И огромной ошибкой будет опять начинать это бумагомарание. Фуззи-хуюззи, 30 лет не могли решить задачу отличить кошку от собаки, но зато грантов попилено я ебал. "неплохо аппроксимируют даже тысячемерные функции" - ебанутый, тысяча измерений - это хуйня, у AlexNet 2562563-мерная функция и она не просто аппроксимирует training set - с этим вообще нет проблем, она предсказывает выход имея сраные 1000 образцов.
>>965024 Кошку от собаки еще ART сети в 80х отличали, только ты про них даже не слышал, свидетель алекснета. Я даже не буду гоыорить, чтоо распознавание котов не единственная задача мл, для школоты это слишком сложное заявление.
>>965237 >Кошку от собаки еще ART сети в 80х отличали ты пиздишь хуиту. >>965024 а ты прав. следующий хайп будет по вероятностным программам, уже виден кончик гигантского хуя это викинга. Но нужен датасет, который был бы непосилен обычным нейронкам.
Аноны, подскажите что делать - решается задача бинарной классификации, имеется выборка ~ 2к объектов и ~100 признаков, а классы очень сильно различаются по объему (примерно 10:1). Сначала пробовал логистическую модель c балансировкой классов, но там или выдавало константный классификатор, который тупо занулял (тогда была метрика accuracy), или ~0.25 на f1-score. В общем вопрос такой у меня - какой моделью лучше пользоваться для такой бинарной классификации и какую метрику юзать?
>>965938 Нигде, наверное. Слишком хайпнутая книженция. На ебеях от 2,5к рублей самые дешевые. А вот Вапника я у индусов покупал, вместе с доставкой вышло 900р. с чем-то. >>966049 Если русский не думает о хуях, значит думает о жопе.
>>966155 >говно говняное, а все юзаают Ага, все идут не в ногу, один школьник с мейлру в ногу. Все пидорасы, школьник с мейлру Дартаньян. Я тебя понял. Открою секрет - если лично тебе какая-то хуитка без задач понравилась, это не повод считать ее лучше нормальных инструментов.
>>966157 дерзкий пиздолиз-фанат юленьки. а юленька течёт как шлюшка >>966158 >ко-ко-пакеты как же макаку порвало, все на мейлаче сидим, а эту пакетную шмаль порвало. как раз таки р - говнище без задач, которое тормозит как твоя мать, которая 9 месяцев думала делать ли ей аборт
>>966189 Их не учить надо, а понимать. Толку от вызубренной линейной регрессии не будет, а вот если сам сделаешь, сложные места найдёшь, то толку будет в разы больше.
>>966189 Бамп вопросу Вот появилась недавно мысль, написал пару простых алгоритмов, ничего не получил нового в плане понимания. Что-то новое, чтоб работало лучше других не напишу - там толпы математиков-погромистов писали годами против меня - студента.
>>956903 (OP) поясните за idris. Где он вообще будет использоваться, будет ли вообще? Есть какой-нибудь реальный плюс использования такого, или это просто средство для становления псевдоинтеллектуалом 2 уровня?
>>966234 дифференцируемое программирование это имхо и есть НН. Посмотри на модели, там уже машины тьюринга, всякие модели с памятью и все такое. Но фишка в том, что чем сложнее модель, тем фиговее ее тренировать градиентом. А у вероятностных моделей в рукаве еще и монте-карло есть, когда градиент не работает.
>>966458 Все, что можно пояснить за идрис - это ЯП с зависимыми типами, причем не сказать чтобы лучший. Пояснять надо за зависимые типы, а точнее за MLTT - конструктивную теорию типов за авторством пикрелейтед.
>>965024 > у AlexNet 2562563-мерная функция и она не просто аппроксимирует training set - с этим вообще нет проблем, она предсказывает выход имея сраные 1000 образцов. Пруфы?..
>>966466 Сложность вычисления градиента растет примерно как o(n), а сложность монте-карло примерно как o(exp(n)). Поэтому не взлетит. Ровно как не взлетит идея с генетическим программированием - там точно такой же комбинаторный взрыв.
>>966804 >А что вообще можешь сказать об этом списке почти полный список, но стоит учитывать что через 10 лет будут доступны большие квантовые компьютера с 100-200 кубитами и методы обучения скорее всего поменяются на статистические. В других списках ко всему прочему есть еще объединение нс с баесовскими методами, чтобы вычислять интервал конфиденциальности и оценивать распределение предсказаний. + в других списках есть еще построение теорий нейронных сетей.
>>967112 >интервал конфиденциальности Это называется доверительный интервал, чурка. И нет, не взлетит, потому что нахуй не нужно, как все то, на что дрочат статистики.
>>967247 >>967253 По поводу бигдаты. Обычно школьники кукарекают что-то уровня "меньше экзабайта не бигдата" и т.д. На самом деле бигдата - это все, что нельзя просто загрузить в оперативу из-за размера. Именно на этом месте начинаются изъебства, причем если у тебя скажем 8 гиг оперативы, методы бигдаты для тебя начнутся гигабайт с 5 в лучшем случае. И они ничем не будут отличаться от работы с терабайтным датасетом.
>>967253 >Такой анализ данных, при котором в данных ищут что-то интересное. Не "что-то интересное", а знания, сиречь скрытые закономерности в этих данных.
Дата майнинг и датаанализ не так-то просто различить, тут нужен не гуглтранслейт, а просто гугл.
Ананасы, посоветуйте статей про выделение и отслеживание объектов (трекинг) на видео и распознавание эмоций с помощью нейронок. Алсо, хотелось бы почитать сравнение работы нейронок и обычных методов компьютерного зрения.
>>967675 Theano и tensorflow именно этим и занимаются, ты описываешь сетку в виде некоего графа средствами языка, далее этот граф оптимизируется и генерится уже быстрый код. Не хаскель, потому что хаскель нахуй никому не нужен, кроме распильных контор типа британских банков.
>>967676 Можно просто делать свопфайл на своем ссд.
>>956903 (OP) Кто-нибудь знаком с pegasos? Там формула через кернел заставляет меня хранить весь датасет.
Потому что весы посчитать можно только через ФИ. А вот при умножении весов на входящий вектор - получается кернел. А для высчитывания (x,w) приходится поднимать весь обучающий датасет. Какие есть способы не таскать его за собой? Есть же там какой-то online learning.
Я уже знаю, что анализ даты это только часть работы с датой. Хотел бы вкатить хоть куда на работу, но не знаю где с ней работают и что нужно знать для такой работы. На самую простую, для начала, работу с датой. Конечная цель - майнить.
>>967346 >Не "что-то интересное", а знания, сиречь скрытые закономерности в этих данных. Нет, не знания ниразу. Наркоман. Ищут ткнз скрытые переменные.
>Поясни, что такое 2? Да все что угодно может там быть. Это общие слова.
>>967268 >Где в Москве\России работают дата майнеры? Финансы медицина крупный бизнес.
>Какую, к примеру, работу выполняют? Пишут мартышкодерьмокод для анализа биржевых\медицинских\корпоративных данных.
>>968121 Статистика, на основе кучи всякого говна выбранного типа с гугл аналитикс или еще откуда, и делать из них таблички в икселе, находить зависимости, закономерности. Находишь зависимость, типа школота смотрит чаще на сайте айфоны, а нешколота смотрит самсунги, рисуешь красивый график показываешь начальству, и говоришь как на основе этих данных можно на сайте товары разместить и кому какую рекламу показывать. Хуета короче. Распознавание картинок это тоже статистика только в виде входящих данных - массив пикселей.
>>968220 Ну и разные численные методы для статистических параметрических моделей: вектор-машины, перцептроны, PCA для распознавания еблищ и прочая хуета.
>>968278 >Ну не только же их. Ну там еще выбросы можно детектить. Но лучше детектить выбросы когда у тебя есть скрытые переменные. Короче извлекать любую информацию которая может быть ценной.
>Но я же у мамы молодец, лол. Расскажи, будь добр, подробнее. Профильное это Это любой университет со сколь нибудь вменяемым уровнем аккредитации. This - > >>968303 >бакалавриат, как минимум по математике/computer science Но вообще, все хотят магистров. А если R&D то докторов, или хоть аспирантов.
Идешь в МГУ например, и берешь полных список всех направление по computer science, выбираешь то, что ближе всего к интересующей тебя теме.
Но вообще, если уже выкладываешься в подобное, то имеет смысл сделать академическую карьеру, и уехать в германии или швеции на этом поприще.
>>968369 >>968303 >>968302 Теперь я окончательно охуел. То есть или я заканчивю ВМК МГУ \ ВШЭ по компьютерным наукам, или шансов нет? >>ШАД? >What? Школа Анализа Данных при Яндексе. Даже это не избавит от академических мук?
>>968389 > друзья гулянки Если ты в шараге им. Сутра Опохмелидзе, то да. Если ты не в шараге, то тоже да, только ничего полезного для себя из такой "учёбы" не извлечешь. Т.е. либо ты ебашишь, сократив "друзьягулянки" до охуенного минимума, либо ты очередной хуесос, который не по специальности пойдёт УНИВЕР НИЧЕГО НЕ ДАЛ, виня в этом всех, кроме себя
>>968405 Глупое необоснованное мнение. Всего должно быть в меру. Что там в универе "ебашить" нужно, вообще непонятно. Учись в свое удовольствие. А друзья в универе, это основа всех твоих связей по жизни, которые дают социальные лифты.
>>968575 Глупое необоснованное мнение. Хочешь нормальных результатов в чём-то - никакого "всё в меру" не должно быть. "Ебашить" в смысле постоянно заниматься, по возможности изучая что-то интересное лично тебе сверх программы. Учился в своё удовольствие, ловил ни с чем не сравнимый кайф от учёбы. А друзья и знакомые из универа не для каждого основа связей по жизни, мне больше помогли связи с друзьями друзей, которых я ещё со школы знал. знакомая с параллельной группы, кстати, вообще на заправке, НА ЗАПРАВКЕ, блджад, с мат. образованием вуза дс2, работает, и таких примеров просто дохуя, зато в общажке весело бухала чуть ли не каждую неделю, сдавая экзамены тупой зубрёжкой, благо ещё преподы не очень жётские были
>>968581 >Глупое необоснованное мнение. Оукей... >Хочешь нормальных результатов в чём-то - никакого "всё в меру" не должно быть. Ох, ну как скажешь.
>знакомая с параллельной группы, кстати, вообще на заправке, НА ЗАПРАВКЕ, блджад, с мат. образованием вуза дс2 Такое повсюду в РФ, ценность ВО почти нулевая. И че? Все зависит от тебя. Кто-то уехал в Германию и стал там руководить лабораторией, а кто-то стал уборщицей, хотя окончил вуз с красным дипломом. Все дело в том, что ты для себя извлекаешь из вуза.
>зато в общажке весело бухала чуть ли не каждую неделю, сдавая экзамены тупой зубрёжкой, благо ещё преподы не очень жётские были И че?
>>968581 >Хочешь нормальных результатов в чём-то - никакого "всё в меру" не должно быть. Должно. В вузе примерно 70% знаний не нужно, можно на них забить, и распределить время как 35% на дроч в свое удовольствие, 35% на пьянки-гулянки, чтобы не выгореть нахуй.
>>968282 Реальность на таком уровне переменчива. >>968281 >Ну там еще Да читани ты сам, что такое датамайнинг в целом. Ты рассказываешь про то, в чём шаришь сам - это хорошо, но это не исчерпывающий ответ, неточный.
>>969030 >Да читани ты сам, что такое датамайнинг в целом. Ты рассказываешь про то, в чём шаришь сам - это хорошо, но это не исчерпывающий ответ, неточный. Ну так точных исчерпывающих ответов и не бывает (кроме школьных уроков математики). Потому всякий статистический анализ, и дата майнинг, и существуют.
Помню замечательную картинку-комикс, к статье о, по моему "достаточность доказательств". В старом журнале химия и жизнь, вроде.
Там были две крысы. Когда горит красная лампа их бьет током у кормушки, когда зеленая - можно есть.
Первый раз ударило током. крыса 1 - "ебана когда горит красный бьет током!" крыса 2 - "недостаточно фактов чтобы утверждать это, быть может сие было случайным"
Второй раз загорается красная лампа. крыса 1 отпрыгивает в ужасе. крысу 2 ебошит током. Крыса номер 2 говорит полуживая - "все еще мы не можем делать достаточно обоснованных выводов, быть может люди хотят обмануть нас, а быть может что-то совсем другое влияет на удар током"
Третий раз загорается красная лампа. краса 1 отпрыгивает. крыса 2 жарится. Дымится и бьется в конвульсиях, с трудом выдавливает из себя - "это не может считаться достаточным доказательством так как..." и в таком духе.
Ну вот, а я же говорил, что нейроночка это зависимый тип. К этому все и идет, вот >>969723 библиотека для МЛ на хачкиле, все этапы работы нейросети представлены функторами да мандадками. Скоро до кого-нибудь дойдет, что в нейросети вообще нет ничего кроме стрелок и котягорий. Или лямбда-термов, кому как нравится. И не только все нейросети ,но и все алгоритмы в МЛ проще, лучше и удобнее рассматривать с позиции типизированной лямбды, как я и предлагал >>959210 помимо прочего, такой взгляд на проблему предполагает и автоматизированное решение задачи построения алгоритмов МЛ генетическим программированием на типизированной лямбде.
Меня тут агитируют перекатываться из веба в машоб, даже курсы дали бесплатные от яндекса.
Я конечно трезво понимаю, что из веба нужно выкатываться и как можно скорее, потому что это въёбывание, тупое въёбывание, где конкуренция растёт с каждым годом, а вкатывальщиков всё больше и больше.
Вокруг машоба я не вижу хайпа, хайп надуман, курсы потребляет очень мало человек, реально учиться и вкатывается 3.5 человека.
Перспективно, но для тех, кто сейчас поступает в универ и будет искать работу через 4-6 лет. А вот мне щас, что делать? Отслушаю я месяц курсов, эт ос учётом того ,чт оу меня есть хорошая математическая база, а дальше куда? Живу в Воронеже, вакансий по машобу нет, какие-то свои проекты в одичноку я не потяну, только переезд в мск. В мск требуются специ за 300к, без опыта или с малым опытом есть, но всё очень мутно.
Что думатете по этому поводу, что мне делать? Жалко потраченного времени на веб, но уходить рано или поздно придётся, ибо отрасль умирает, к тому же я работаю на фрилансе у меня не будет пенсии и других соц гарантий и по своему здоровью я вижу, что в 40 лет уже не смогу работать программистом ,а в машобчеке можно и карьеру по административной лестнице сделать.
>>969998 В смысле блять? Ты просто идешь в контору на собеседование. Тебя не берут. Ты говоришь ну и хуй с вами дебилы набирайте дальше макак из ПОХАПЭ треда. Пиздуешь в следующую контору.
>>970004 Несёшь хуиту, в вакансиях нет ничего про образование, хватит бакалвриата/магистратуры Чтобы работать нужно иметь опыт работы в машоб, где его взять, если его нет?
Самый реальный вариант на мой взгляд - вакансии с опытом 1-3, где требуется какой-то смежный опыт, например бигдата, в бигдате можно получить опыт без опыта, просто выучить основы java/python и чуть чуть математики с первого курса любого технического факультета. Т.е. те, кто имеет опыт в смежных областях - могут вкатиться в машоб и т.п., а просто с улицы или из веба, как в моей ситуации, - хуй.
Пройдёт несколько лет, будут требоваться джуны, но сейчас нет. Я хочу вкатываться сейчас, а не через несколько лет.
>>970014 >чт оу меня есть хорошая математическая база >нет серьезной подготовки по математике и статистике Ещё раз, прошу тебя, научись читать.
И математика, по-моему опыту, это гораздо более понятная, приятная и простая сфера, нежели, чем веб. Потому что математика - это в первую очередь инструмент, который придумал человек для работы, для удобной работы под конкретные задачи. А веб - это организм, выросший на деструктивной деятельности человека, при этом часто лишённый логики.
>>970018 >Ну так вкатывайся, кто мешает? Страх проиграть. Жалость по тому, что было потрачено время на вкат в веб. Отсутствие вакансий без опыта. Я не могу бросить работу и полностью погрузиться в учёбу, параллельно с работой учиться тяжело.
>каждой заборостроительной конторе Миф, опять же по-моему опыту, большая часть мелкого и среднего бизнеса не хочет иметь сайты, потому что их устраивает объём заказов, который получают через сарафанное радио и объявления.
Во-вторых, типо решения вроде сайта-визитки, объявления, лендинга и даже магазина клепаются конструктором. Есть куча шаблонов, куча cms, куча решений дизайнерских и технических, многое из которого можно получить бесплатно. А работа веб-мастера сейчас - это сродни сборщику мебели икея. Всё уже готово к тому, чтобы это собрали, инструкция есть в картинках для самых маленьких.
Серьёзной веб-разработки для конкретных индивидуальны, не типичных проектов, относительно всего рынка не так много. Когда сайтостроение для крестьян станет доступным и автоматизированным, ну или хотя бы прост очень дешёвым, тысячи веб-разработчиклв побегут в более серьезную разработку, а там нет столько работы. 90% останется за бортом, и это случится при моей жизни.
Этим меня привлекает машоб, и вообще любые сложные вещи, которые на самом деле не сложные, просто считаются в народе сложными. Тут нет вкатывальщиков, есть перспективы.
>>970035 Ты академические работы читал? Цифры видел? Они же смешные, обучение без учителя это технология завтрашнего дня и бизнес за нее платить не будет.
>>956903 (OP) Был спор с аноном о том, как нужно общаться, чтобы нейросеть не могла идентифицировать твои тексты. Анон писал, что нужно изобретать свой язык с кодовыми фразами, короче, чтобы со стороны это выглядело как бред. А я думаю, что нужно наоборот писать без грамматических ошибок в общем стиле, тогда не будет понятно, где твой текст, а где не твой. Как вы думаете, кто из нас прав?
>>970015 короче, вкатываться просто. Ботаешь xgboost, python или R и идешь решать задачи на Кеглю. Переезжаешь в ДС, ходишь на всякие тусовки и хакатроны, обрастаешь знакомствами. Параллельно участвуешь в разных российских хакатронах и соревнованиях от банков. Это все займет макс месяцев 12. Потом работа сама тебя найдет.
>>970620 А я на днях вкатился в ML проект, чтоб разнообразить свои скиллы, вообще не зная ничего про ML =) Чисто за счет опыта работы с java, на которой написана система. Вообще, это частая связка, ML и java? Постоянно слышу про питон, R, скалу.
>>970472 исходя из теории вероятности, информации и прочей шелухи, тебе нужно писать, как все, чтобы энтропию повысить, а по уникальному языку тебя сразу различат, так как тексты на уникальном языке все равно содержат информацию, повторения и тд. Но на самом деле нет, тебе просто нужно зашифровать свой текст хорошим алгоритмом и одноразовым шифром, короче, это уже криптография.
>>970699 >тебе нужно писать, как все, чтобы энтропию повысить > а по уникальному языку тебя сразу различат, так как тексты на уникальном языке все равно содержат информацию, повторения и тд. Вот! Мерси, вот это была моя точка зрения, только таких умных слов не знаю, так и думал, короче. Ну не, про криптографию это уже не язык, получается, а шифровка, постоянно так общаться не выйдет.
>>971121 >Так разные Tensorflow, Theano вообще пихают вычислительные графы Я хз что это за звери, но нейросети это чистые матричные вычисления. От чего их так приятно гонять на GPU, и от чего они вызывают боль у CPU.
Причем там кроме умножения сложения и вычитания матриц ничего нет в мат аппарате.
Ну разве что функция активации может быть кокой интересной очень. Но обычно это квадратичное что-то.
>>971202 >их так приятно гонять на GPU Есть у меня 680 жифорсина, для того, чтобы как следует обучить сеть нужно говнять её ~ 30 часов. Сам я её давно не юзал, примерно полгода после покупки забил хуй на игры, хуигры и прочее говно, потому что-то очково её на 30 часов запускать. Она не сгорит, анон? Может ну его нахуй? У тебя у самого сколько обучение идёт? В общем вопрос такой, не страшно ли видюхе будет столько времени без перерыва работать?
>>971418 ну его нахуй, анон. ещё загорится лучше не лезь ты в этот мл, нахуй тебе эти нейроночки всёравно видюха старая, ещё хату спалишь, жена отпиздит, ненадо тебе это
>>971456 На паузу ставить типа? Или там есть опция сохранения состояния.Не за неделю, почему, по 5 часов можно вполне, да и 30 это я по максимуму взял, а так 20 где-то. >>971445 Погуглю, спс. А сами вы что юзаете? Или у всех теслы в сли стоят?
>>971210 >кул стори бро >пиши есчё Я серьезно. Нейросети суть параллельные вычисления. Там магии то никакой нет. Входной сигнал есть вектор. Он вумножается на матрицу весов. Полученный вектор поэлементно ебошим через функцию активации, вуаля.
>>971418 >потому что-то очково её на 30 часов запускать. Она не сгорит, анон? Может ну его нахуй? Зависит от охлаждения и настроек. Если очкуешь, запусти оверклакерскую утилиту и понизь частоту GPU. Производительность просядет немного, зато гораздо экономичнее и холоднее. Производительность с частотой растет линейно, а энергопотребление экспоненциально.
>У тебя у самого сколько обучение идёт? Зависит от. Можно и неделями считать. Если больше пары дней, то нужно искать железо помощнее.
>>971465 Ну да все так + идет настройка параметров, через обратное распространение ошибки все тем же векторным умножением, а нейронки маркетологи преподносят чуть ли не как искусственный мозг, который может все.
>>971467 А гугл клауд использовал? Он карту с телефоном просит. >>971466 tensorflow, это ты про сохранение прогресса? В общем, я понял, я скорее всего задачу выбрал тяжёлую, потому не стоит удивляться таким срокам. Главное, что мозгов хватило посоветоваться, так бы поставил сейчас на 30 часов крутиться и без видюхи остался бы. Спасибо.
>>971472 >А гугл клауд использовал? Он карту с телефоном просит. Ноуп.
Я не любитель облаков. Мне проще свой сервер сделоть. Или комп апгрейднуть.
Кстати говоря, у APUшек амудушных есть неплохой задел для нейрончиков, в виду общей для GPU и CPU памяти. Ну да есть ли там кокие фреймворки я не в курсе.
w1 = tf.Variable(tf.truncated_normal(shape=[10]), name='w1') w2 = tf.Variable(tf.truncated_normal(shape=[20]), name='w2') tf.add_to_collection('vars', w1) tf.add_to_collection('vars', w2) saver = tf.train.Saver() sess = tf.Session() sess.run(tf.global_variables_initializer()) saver.save(sess, 'my-model') # `save` method will call `export_meta_graph` implicitly. # you will get saved graph files:my-model.meta restore model:
sess = tf.Session() new_saver = tf.train.import_meta_graph('my-model.meta') new_saver.restore(sess, tf.train.latest_checkpoint('./')) all_vars = tf.get_collection('vars') for v in all_vars: v_ = sess.run(v) print(v_) >капитан Нет, мне было неочевидно. Спасибо ещё раз.
>>971475 Да есть уже нвидиа, специально покупать железо ради любопытства не хочется. Насчёт облаков хз, почитал, вроде годнота, но ни телефона ни карты нет, если даже в телеграмм хуй зарегаешься с фейковыми, то там и подавно, думаю. А жаль, позать гугложелезо было бы прикольно.
>>971484 >Нет. Ты анонимус очень, или какие причины? Сейчас без телефона же тяжело, ни родным позвонить, ни друзьям, ни скорую вызвать. А если там учится пойдешь, то унрил просто. Хелл мод. Купи телефончик то, и будет все хорошо.
>>971486 >ни родным > ни друзьям Ну ты понял. Учиться да, вот как отучился, так три года на полке и пылится. Если бы нужен был, то не пылился бы. А так какой смысл покупать, если всё равно не будешь пользоваться? Не, не анонимус, просто хз, так вышло, короче.
>>971487 >Ну ты понял. Учиться да, вот как отучился, так три года на полке и пылится. Если бы нужен был, то не пылился бы. А так какой смысл покупать, если всё равно не будешь пользоваться? Не, не анонимус, просто хз, так вышло, короче. А ты не из Украины?
>>971489 В Беларуси сижу, сам из РФ, за обслуживание с граждан РФ тут бешеные бабки, абонплата типа, короче не стоит того, ща вот разберусь, как модельки сохранять загружать и перед сном буду запускать, пусть себе обучается потихоньку.
Я считаю, что это было бы очень трудно убедить умного человека, что ток [Частотная] статистическая практика была разумной, но это было бы гораздо меньше трудностей с подходом через вероятности и теорему Байеса. - Джордж Коробка, 1962.
Поясните что именно читать, если требуется сначала грамотно промоделированная работа простейших нейронных сетей максимально диссоциировавшись от математики, и только после пояснений этой работы идут уже примеры конкретных реализаций моделей нейронных сетей, импульсных других пока не знаю и так далее. Имея ввиду тот факт, что сначала идут исследования по работе мозга, съём показаний, от этого строятся определённые выводы, и только отталкиваясь от этих исследований уже строятся простейшие математические модели.
>>972458 > промоделированная работа простейших нейронных сетей максимально диссоциировавшись от математики Ты поехавший. Пиздец.
>Имея ввиду тот факт, что сначала идут исследования по работе мозга, съём показаний, от этого строятся определённые выводы, и только отталкиваясь от этих исследований уже строятся простейшие математические модели. Я не понимаю тебя. Совсем.
Нейронные сети, в инф технологиях, имею такое же отношение к работе мозга, как реактивные двигатели в самолетах, к крыльям птицы.
>>972463 >как реактивные двигатели в самолетах, к крыльям птицы Прекрасно. Итак. Ты привёл в пример птицу и самолёт. В данном случае выполняющие одну и ту же задачу. Полёт из пункта а, в пункт б. Верно? Верно.
Отталкиваясь от этой информации, если учитывать тот факт, что исследования по работе мозга уже проводились и были выявлены основные закономерности по его работе, под какую именно задачу он лучше всего подходит? Выявлена ли эта задача? Не хуярят же программистишки с учёными чего-то там наобум, правильно?
>>972470 Выводы которые сделаны на основе снятия показаний о работе мозга, сравнимы с выводами о том, что хуйня светится, сделанными бабушкой, увидевшей айфон.
>>972479 > любый современный и модные алгоритмы, все основаны на брутфорсе, в них нет логики, они нюхают все зачуханные углы и находят что-то, что удовлетворяет искомому условию.
>>972470 >Прекрасно. Итак. >Ты привёл в пример птицу и самолёт. >В данном случае выполняющие одну и ту же задачу. Полёт из пункта а, в пункт б. Верно? Верно.
Ты в военкомате был? Там психиатр, задает вопросы "абитуриентам", чтобы выявить их годность. Популярный вопрос - "Чем птица отличается от самолета?". Если чел будет отвечать что-то вроде того, что ты написал, его пошлют скорее всего на обследование в психушку.
>Отталкиваясь от этой информации, если учитывать тот факт, что исследования по работе мозга уже проводились и были выявлены основные закономерности по его работе Да не особо. Вначале думали что оно вот так. Потом оказалось что оно вот сяк. Потом стали думать что оно вот этак. А с новыми инструментами и теориями посмотрели, и охуели совсем.
Ты русским языком объясни, чего тебе надобно? Ты лабу пишешь, или чего?
>под какую именно задачу он лучше всего подходит? Выявлена ли эта задача? Лучше всего он подходит для управления человеческими тушками. Но с математической точки зрения, если обобщить, то нелинейная оптимизация.
>Не хуярят же программистишки с учёными чего-то там наобум, правильно? Wrong.
>>972458 >Поясните что именно читать Из твоего сумбурного бреда, я так понимаю, тебя интересует КИБЕРНЕТИКА. Вот по ней книжки и читай.
> Чем птица отличается от самолета? птица живая, самолёт бесдушная груда металла птица кушает насекомых, самолёт заправляют бензой птица-самец + птица-самка = много птиц и птенцов, самолёт + самолёт = катастрофа и расчлёнёнка птицы эволюционировали из птеродактилей, самолёты из велосипедов
>>972494 >самолёт заправляют бензой А я вот тут недавно подумал, что эрудиция для человека - это не пустая бесполезная хуйня, как заявляют некоторые. Ну я и раньше это знал, но без доказательств. А тут прослеживается полная аналогия с нейросетью (что неудивительно, человек и есть нейросеть). На ограниченном наборе данных сеть может научиться выдавать правильное решение, но на незнакомых данных зафейлит. Чем больше датасет, тем лучше генерализация сети. "Узкая специализация" в образовании - это путь к деградации.
>>972507 >бортовые компьютеры самолёта порвут любую птицу Нет. Они во первых, даже твой смартфон не порвут. Во вторых ученый даже мозг червя пидора не могут победить. Вычислительная мощность птицы, это что-то около пары небоскребов плотно забитых видеокартами.
>>972507 Прежде всего птица, по сравнению с самолетом это идеал воздухоплавания, она может распознать сотни ситуаций которые помешают ей продолжить путешествие, у нее есть зрение, слух, обоняние. Самолет же это большая груда метала и говна, которое может рухнуть в любой момент из-за того, что переменная переполнилась и стала нулем или отрицательным значением, так в добавок там еще кто-то должен сидеть, с более продвинутым мозгом, чем птица, чтобы это хотя бы начло двигаться.
>>972530 > Вычислительная мощность птицы, это что-то около пары небоскребов плотно забитых видеокартами птица даже 2 и 2 не сложит самолёт 2 и 2 может сложить триллиарды раз в секунду
>самолёт 2 и 2 может сложить триллиарды раз в секунду Это не интегральный показатель вычислительных мощностей. Мозг птицы оптимизирован не для символьной арифметики. Видеокарта даже операцию условного перехода сделать не может, а CPU миллион раз в секунду такое провернуть может, и что?
>>972551 > Сложит. нет, она даже само понятие int не осилила
> Это не интегральный показатель вычислительных мощностей. > Мозг птицы оптимизирован не для символьной арифметики. птицы используют символьную тригонометрию для вычисления траектории полёта
> Видеокарта даже операцию условного перехода сделать не может может, я видел if в CUDA коде кернелов
>>972508 1. КПД. 2. Неопределенно. 3. Рассказал. Я использую при работе ленивые вычисления. Когда спросите конкретней тогда и попытаюсь ответить. 4. Вообще бывают. 5. Есть. 6. По массе одинаковы, но по плотности и тяжести на усредненной среднестатистической планете Земля по выборке зоны златоволоски кирпич тяжелее. 7. Ощущение пустоты бытия, бесконечности Вселенной, постоянные крутящиеся боли, плохое зрение и возникающие из-за этого зрительные иллюзии (видел улыбающегося еврея сделанного из куртки) и приятные запахи несоответствующие реальности. 8. Апеннинский полуостров, на сколько я понял. 9. Ракетных. 10. Пытался лечь ночью в сугроб и замерзнуть говоря с Богом.
Ыыыы, а есть какие-то работы по тому, чтобы нейросеть просто кушала данные, но сама выбирала алгоритм обучения? Типа не специальным алгоритмом обучать, а он внутри кароч
>>973215 ничего нейронки это говно на машине тьюринга принципиально невозможно сделать ИИ теперь дальше соси форс гуглопидаров как остальные школьники из этого даунотреда
>>968389 У старпера подгорело, лол. Чето блять заканчиваю 6 курс и ничего о чем ты говоришь у меня особо не было. А пивасик с друзьями попить всегда можно
Собираюсь к вам вкатиться. Какую видеокарту и проц брать для домашних опытов? Радеон, как я понял, не катит — нужна нвидиа. 1070 хватит? Или 1080 ощутимо лучше?
>>973425 >Это почему же на машине Тьюринга нельзя сделать ИИ? Потому что школьник на мейлру так сказал, очевидно же. Ты что, школьникам не веришь? >Считаешь, что в мозгу есть много всяких квантовых эффектов и непонятных штук? АТО! Вот взять счеты пикрелейтед. Они состоят из молекул, атомов, в конечном счете из квантов. Значит, это квантовый вычислитель. Шах и мат.
>>973487 > Сейчас мой сервис работает в Калининградском кризисном центре помощи женщинам, жертвам домашнего насилия. А я уж было почти поверил что статья правдива.
>>973557 >Почему я это все не смогу запилить на винде? Удивительно, но факт - большинство новомодных пистонопараш для МЛ в разы проще ставить и использовать на глинуксе. На винде даже ставить заебешься, как оно там будет работать, вообще одному Аллаху известно, не исключено что и никак. Это еще с теано пошло, если не раньше, там создатели прямо пишут, что основная версия - глинукс х64, остальные существуют просто чтобы было, жалобы на глюки есть смысл писать только на основную версию, т.к. работают только над ней. Пистон, в нем все дело. На глинуксе эту парашу с миллионом зависимостей гонять проще.
>>973619 При чем тут питон, просто очевидно, что работает лучше всего то, на чем работают все. А все работают понятно на чем - я бы посмотрел на человека, который использует винду на AWS.
Вот чтобы вкатиться в хадуп, спарк и компанию и писать на жабе/скале, для этого математика же не нужна? Мне интересны все эти штуки связанные с большими данными, машобом, нейронками, но с точки зрения разработки промышлненных систем, я так понимаю, в компании есть отдел дата сайнтистов, которые фигачат и оптимизируют алгоритмы и есть прогеры, которые их уже запускают в прод?
>>974076 >Также я провел исследовательскую работу «Прогнозирование валентности эмоционального отклика на графический контент с использованием нейроинтерфейсов и алгоритмов анализа данных». Штоблядь? Одноклассникам вставил провода в мозг и показывал мемасы?
>>974101 В лучшем случае КГР записал с помощью ардуины и резистора, потом кластерный анализ. Но в целом для 12 лет это очень даже, ИТТ в такое 95% местных шитпостеров не сможет.
>>973425 >Это почему же на машине Тьюринга нельзя сделать ИИ? Скорее всего можно.
>Считаешь, что в мозгу есть много всяких непонятных штук? Как работает мозг - науке непонятно. Известны только какие-то отдельные факты и некоторые закономерности.
>Считаешь, что в мозгу есть много всяких квантовых эффектов Недавно, обнаружили, что в нейронах есть особые белки, которые работают как кьюбиты. Тысячи их, в одном нейрончике. И даже до этого открытия, считалось, что один нейрон, по "мощности" скорее как мощный компьютер, а вовсе не простой нелинейный преобразователь.
>>973350 >Ага блять, я в 25 лет брошу работу и пойду обратно на шею к родакам садиться, чтобы еще джва года в вузе просрать. Накопить денег не вариант, ты же работаешь? И бросать необязательно, можно взять академический отпуск. Или договорится о неполной занятости.
Посоветуйте хороший учебник по линейной алгебре. Для начинающих. Проходя первый уровень курса от яндекса с мфти, обнаружил, что эта тема освещается лишь обзорно, чтобы уже имевшие дело с ней могли по-быстрому вспомнить. А мне половина материала не ясна. Что ещё за размерность векторного пространства?
>>974967 > ещё за размерность векторного пространства?
Размерность пространства – это максимальное число содержащихся в нем линейно независимых векторов. (тех, которые нельзя выразить через друг друга посредством сложения и умножения)
Как-то случайно открыл статью о нейролингвистическом программировании и долго втыкал что же это за модель нейросетей такая и где математические модели. Восхитительная история, правда?
>>956903 (OP) Вот вкатился, а тут всякие градиентные спуски. А я в мухосрансковузе решал типовые задачки и не понимал, зачем нужен градиент. Часто ли я буду встречаться с такими пробелами? Всегда ли их можно устранить прямо находу или лучше почитать калькулус?
>>977288 >Часто ли я буду встречаться с такими пробелами? Не очень, там в основном все крутится вокруг одних и тех же понятий. >Всегда ли их можно устранить прямо находу или лучше почитать калькулус? Всегда. Если ты уже матеше учился, тем более проще разбирать конкретно только то, что непонятно, а не перечитывать целиком учебники.
Вообще, если ты ебаный школьник или просто тупой, и не знаешь програмы по матану за первые 2 курса, вам лучше не травмировать свой мозг машинкой, а заняться чем то более подходящим: подготовкой к егэ например или изучением html
>>977376 >Вообще, если ты ебаный школьник или просто тупой, и не знаешь програмы по матану за первые 2 курса, вам лучше не травмировать свой мозг машинкой
Иронично конечно, но >програмы по матану за первые 2 курса Лежат параллельно компьютерным наукам и машинному обучению.
Анон, помоги советом. В общем надо решить что делать в дипломной. Суть вот в чём, есть 2 картинки, фото и разметка (пикрилы). Собственно задача в том, чтобы как-то такие картинки обрабатывать. К примеру, подсчитать количество машин/пешеходов, найти машину определённого цвета и т.п.
Так вот вопрос, что можно сделать такого, а главное что проще всего? Какое ПО и технологии использовать?
У ОПа очень негативное отношение к ШАДу. А почему так? Он там обучался или контачился с кем-то? Хотя я тоже не особо верю в ШАД, но хотелось бы конкретики.
>>977944 Это тоже отчасти верно. Матанопетухи понимают в матане, но совершенно не разбираются в человеке, а ведь нужно делать его функциональную имитацию
>>977984 Человечеству нужно. Его только антропоморфный ИИ устроит - с эмоциями, интонациями, мимикой, жестикуляцией сиськами и жопой. Чемодан с микросхемами людям нинужен, какой бы он умный ни был, его будут считать просто компуктером.
>>977831 Инженеры, кстати, - главная причина того, что Рашка в такой жопе, инженеры в науку не могут, а могут только чужие наработки применять, да и инженеры вообще тупые, даже самая современная физика отстала от настоящего матаппарата лет на 60
>>978308 быдло обнаружено поясняю: математический аппарат зачастую приходится разрабатывать "на ходу" при развитии теоретической физики. В первую очередь, математика отстает от физики
>>978308 Кекнул с дауна. Физика не обязана подстраиваться под маьематику. Физика должна подстраиваться под эксперимент, а математики должны развивать нужный мат аппарат по запросу физиков. Математики это как шлюхи по вызову. Как бухгалтерия. Их задача придумать адекватный и компактный способ записи тех знаний о мире, которые добыли физики
уравнения Навье — Стокса для турбулентных потоков — старая добрая классическая гидродинамика, двести лет отроду. За доказательство существования и гладкости решения (даже не за само решение!) дают миллион долларов
>>978440 Я к тому, что математики в своих исследованиях не ограничены реальным миром и вольны формализовать любые, даже самые наркоманские закономерности. Так что к моменту открытия физиками чего-то, в матеше уже есть все средства выражения этого чего-то.
Вот в курсе от мфти с яндексом даются некоторые знания по линейной алгебре? Этого объёма достаточно для работы? Или ещё надо будет что-то специально изучать?
>>978423 Вся современная физика описывается матаппаратом 9 класса нормальной школы, инженеродебилы (а в ДС нигде, кроме МГУ и ВШЭ других и нет) в институтах как раз заканчивают изучение математики на 2.5 курсе, так что нечего там открывать. А то, что физики не могут найти уравнение ни для чего - неудивительно, они умеют только определитель гауссианы в столбик считать
Лев Давидович резко критиковал преподавание математики на физфаках. Сохранилось его письмо ректору одного из московских вузов, в котором подробно излагаются взгляды на преподавание математики физикам:
"При всей важности математики для физиков, физики, как известно, нуждаются в считающей аналитической математике, математики же, по непонятной мне причине, подсовывают нам в качестве принудительнного ассортимента логические упражнения. В данной программе это прямо подчеркнуто в виде особого примечания в начале программы. Мне кажется, что давно пора обучать физиков тому, что они сами считают нужным для себя, а не спасать их души вопреки их собственному желанию. Мне не хочется дискутировать достойной средневековой схоластики мыслью, что путем изучения ненужных им вещей люди будто бы учаются логически мыслить.
Я категорически считаю, что из математики, изучаемой физиками, должны быть полностью изгнаны всякие теоремы существования, слишком строгие доказательства и т. д. и т. п. Поэтому я не буду отдельно останавливаться на многочисленных пунктах Вашей программы, резко противоречащих этой точке зрения. Сделаю только некоторые дополнительные замечания.
Странное впечатление производит историческое ввдение. Само собой разумеется, что сообщение интересных исторических фактов может только сделать лекции более интересными. Но непонятно, зачем это рассматривать как пункт программы. Я надеюсь, что, по крайней мере, не имеется в виду спрашивать это на экзаменах. Векторный анализ располагается между кратными интегралами. Я не имею чего-либо против такого сочетания, однако, надеюсь, что оно не идет в ущерб крайне необходимому формальному знанию формул векторного анализа.
Программа по рядам особенно перегружена ненужными вещами, в которых тонут те немногие полезные сведения, которые совершенно необходимо знать о ряде и интеграле Фурье. Курс так называемой математической физики я считал бы правильным сделать факультативным. Нельзя требовать от физиков-экспериментаторов умения владеть этими вещами. Надо также отметить, что эта программа тоже сильно перегружена. Необходимость в курсе теории вероятностей довольно сомнительна. Физики и без того излагают то, что им нужно, в курсах квантовой механики и статистической физики. Во всяком случае, представленная программа переполнена бесполезностями. Таким образом, я считаю, что преподавание математики нуждается в серьезнейшей реформе".
А вообще толсто. В современной физике применяется почти ВСЯ современная математика, более того, она и имеет смысл по большому счету только тогда, когда находит свое применение в физических теориях.
>>956903 (OP) Скопирую из старого треда, ибо я даун Анон. Тупой вопрос. Как заставить нейронку рисовать? Тупой ньюфаг в этой сфере, да. Запилил лишь самую базовую (банальный массив х на у с пересчетом нейронов и обучением). Как нейронке потенциально скармливать что-то и как получать на выхоод что-то? Что юзать и что прикручивать? Куда копать?
Pattern Recognition and Machine Learning, Bishop.
Information theory, inference & learning algorithms, MacKay http://www.inference.phy.cam.ac.uk/itila/
Machine Learning: A Probabilistic Perspective, Murphy
Introduction to Statistical Learning ( http://www-bcf.usc.edu/~gareth/ISL/ISLR%20Sixth%20Printing.pdf )
Elements of Statistical Learning ( http://statweb.stanford.edu/~tibs/ElemStatLearn/printings/ESLII_print10.pdf )
Foundations of Machine Learning, أشهد أن لا إله إلا الله وأشهد أن محمد رسول الله. http://www.cs.nyu.edu/~mohri/mlbook/
Fundamentals of Neural Networks: Architectures, Algorithms, and Applications, Fausett L.
А. Пегат, "Нечёткое моделирование и управление"
другое
http://libgen.io / http://bookzz.org/ - здесь можно одолжить ^ книги и не только
http://arxiv.org/find/all/1/all:+nejronochki/0/1/0/all/0/1
https://www.reddit.com/r/MachineLearning/wiki/index
https://vk.com/deeplearning и http://deeplearning.net/reading-list/
https://www.kadenze.com/courses/creative-applications-of-deep-learning-with-tensorflow/info тюториал по slesarflow
http://rgho.st/8g68fTCSx две брошюры по deep learning для слесарей.
http://kaggle.com - весёлые контесты. денежные призы
https://www.hackerrank.com/domains/ai/machine-learning/difficulty/all/page/1 - олимпиадки
курс от китаёзы
http://videolectures.net/mlss09uk_cambridge/
яп
1. http://julialang.org/
2. https://www.microsoft.com/en-us/research/project/infernet/
3. https://www.r-project.org/
4. питухон и так все знают
5. idris/coq - модные яп для формально верифицированных нейроночек с тренировкой на этапе компиляции
ПЛАТИНА
Книги хорошо, но с чего начать практический вкат?
Во-первых, вам нужна любая unix-based система. На Windows возможно запустить нижеперечисленное, но ждите пердолева с настройкой и неодобрительных взглядов анонимуса. Кроме того, в компаниях, так или иначе связанных с разработкой йоба-ПО и machine learningом, Linux/OS X является стандартом. Привыкайте.
Во-вторых, определитесь с языком. Python и C++ наиболее мейнстримовые инструменты, с ними вы без еды не останетесь. Есть еще R, на котором пацаны живут статистикой и анальными пакетами. Некоторые инструменты являются языко-независимыми (Vowpal Vabbit, XGBoost), но обвязывать их вы все равно будете из какой-либо среды.
На Java разработано много production-ready инструментов для бигдаты и если вы угораете по терабайтам данных, то имеет смысл посмотреть в её сторону. Впрочем, лучше это делать уже потом, когда прийдет осознание потребностей.
В-третих, выбирайте себе задачу. Что угодно: распознать качпу, обнаружить ботов по логам, найти раковых больных. Список можно посмотреть, например, на kaggle.com. После чего приступаете к решению выбранной задачи.
Не прийдется ли мне потом с таким наборищем знаний идти в макдак работать?
Несмотря на хайп вокруг ML, далеко не во всех IT компания есть необходимость в ML и понимание круга задач, которые можно решить этими методами. Но поверьте, в 2017 компетентный специалист будет востребован. В России потребителями ваших знаний могут стать: Яндекс, Mail.ru, Вконтакте, Rambler, Касперский, Билайн, Связной, ABBYY, Хуавэй. В биоинформатике есть определенный спрос, можно поскролить http://blastim.ru
Здорово, но я так и не понял чем же вы занимаетесь в IT компаниях?
Попытаюсь ответить со своей колокольни и сразу хочу предупредить, что это едва ли консенсуальное мнение.
ML-специалист - это такое зонтичное определение для человека, способного увидеть проблему, выгрепать кучу логов и данных, посмотреть на них, придумать решение проблемы и врезать это решение его в продакшн. По сути, это кодер, решающий не чисто технические, а, в некотором роде, человеческие проблемы.
Имхо, мы все же остаемся в первую очередь разработчиками.
Что такое TensorFlow?
TensorFlow - опенсорсный гугловый инструмент для перемножения тензоров и оптимизации функционалов. Опенсорсный - потому что даже важные куски типа параллелизации уже выкачены в паблик. Если вам все ещё непонятно что это, значит это вам и не нужно, сириусли. Google перестарался с рекламой и теперь люди думают, что TF - это серебряная пуля и затычка для каждой бочки. До TF был Theano, который выполнял свою работу не хуже. И, в отличии от TF, он уже находится в стабильной фазе.
будет ли ML нужен в ближайшие 10 лет, или это просто хайп?
будет. хайп.
смогу найти работу?
Яндекс, мейлру, касперский, несколько биоинформатических компаний (iBinom, можно еще blastim.ru поскролить на тему работы), билайн (они с НГ целое подразделение открыли под ML и биг дату), связной. Ну и западные аутсорсы, если готов рачить за валюту.
нужна математика?
для начинающего ничего особого знать не нужно
https://www.amazon.co.uk/Calculus-Michael-Spivak-x/dp/0521867444
https://www.amazon.co.uk/dp/0534422004/ref=pd_lpo_sbs_dp_ss_2?pf_rd_p=569136327&pf_rd_s=lpo-top-stripe&pf_rd_t=201&pf_rd_i=0980232716&pf_rd_m=A3P5ROKL5A1OLE&pf_rd_r=3TZ38AZ2BY28R19H4SA5
https://www.amazon.co.uk/Calculus-Several-Variables-Undergraduate-Mathematics/dp/0387964053
https://www.amazon.co.uk/Introduction-Probability-Dimitri-P-Bertsekas/dp/188652923X
"основы теории вероятностей" Вентцель
поясните за нейроночки
нейроночка - массив
шад)))
Нет там ничего ML-специфичного, знание матана и теорвера на уровне заборостроительного вуза. Теорвер проходится на третьем курсе, как раз 20 лет.
Рандомный хрен туда не сможет поступить, потому что планка намеренно задрана, а не потому что там такая охуенно сложная программа. Это традиционная наебка "элитных учебных заведений", в которой учат так же хуево, как и везде, но за счет отбора поступающих якобы формируются неебовые успехи, которые объясняются именно качеством преподавания.
Иными словами, у тех, кто способен поступить, и так в жизни проблем с трудоустройством не будет.
Тред #1: https://arhivach.org/thread/147800/
Тред #2: https://arhivach.org/thread/170611/
Тред #3: https://arhivach.org/thread/179539/
Тред #4: https://arhivach.org/thread/185385/
Тред #5: https://arhivach.org/thread/186283/
Тред #6: https://arhivach.org/thread/187794/
Тред #7: https://arhivach.org/thread/196781/
Тред #8: https://arhivach.org/thread/209934/
Тред #9: https://arhivach.org/thread/223216/
Тред #10: https://arhivach.org/thread/234497/
Тред #11: https://arhivach.org/thread/240332/
Тред #12: https://arhivach.org/thread/246273/