Machine Learning Advanced 1. Elements of Statistical Learning (http://statweb.stanford.edu/~tibs/ElemStatLearn/printings/ESLII_print10.pdf ) Сложность - 9 из 10. Шутки в сторону, можно читать годами. Если вы сможете полностью проработать эту книгу и прорешать упражнения, обязательно свяжитесь со мной - у меня найдется работа для вас. 2. Optimization for Machine Learning. Edited by Suvrit Sra, Sebastian Nowozin and Stephen J. Wright, MIT Press, 2012. Иногда from sklearn.linear_model import LogisticRegression перестает работать и тогда нужно все переписать. Оптимизация квадратичных приближений на больших объемах данных, разреженные модели, суррогатные оптимизации - вот это все тут есть. 3. http://www.cs.nyu.edu/~mohri/mlbook/ Как ESL, только слегка по-проще. Попробуйте, может зайти.
Misc 1. Telegram: @techsparks Подкаст про всякие гик-штуки.
F.A.Q По мотивам предыдущего треда. Эти ваши книжки стоят овер 9000 рублей, как быть? http://libgen.io Книги хорошо, но с чего начать практический вкат? Во-первых, вам нужна любая unix-based система. На Windows возможно запустить нижеперечисленное, но ждите пердолева с настройкой и неодобрительных взглядов анонимуса. Кроме того, в компаниях, так или иначе связанных с разработкой йоба-ПО и machine learningом, Linux/OS X является стандартом. Привыкайте. Во-вторых, определитесь с языком. Python и C++ наиболее мейнстримовые инструменты, с ними вы без еды не останетесь. Есть еще R, на котором пацаны живут статистикой и анальными пакетами. Некоторые инструменты являются языко-независимыми (Vowpal Vabbit, XGBoost), но обвязывать их вы все равно будете из какой-либо среды. На Java разработано много production-ready инструментов для бигдаты и если вы угораете по терабайтам данных, то имеет смысл посмотреть в её сторону. Впрочем, лучше это делать уже потом, когда прийдет осознание потребностей. В-третих, выбирайте себе задачу. Что угодно: распознать качпу, обнаружить ботов по логам, найти раковых больных. Список можно посмотреть, например, на kaggle.com. После чего приступаете к решению выбранной задачи. Не прийдется ли мне потом с таким наборищем знаний идти в макдак работать? Несмотря на хайп вокруг ML, далеко не во всех IT компания есть необходимость в ML и понимание круга задач, которые можно решить этими методами. Но поверьте, в 2016 компетентный специалист будет востребован. В России потребителями ваших знаний могут стать: Яндекс, Mail.ru, Вконтакте, Rambler, Касперский, Билайн, Связной, ABBYY, Хуавэй. В биоинформатике есть определенный спрос, можно поскролить http://blastim.ru Здорово, но я так и не понял чем же вы занимаетесь в IT компаниях? Попытаюсь ответить со своей колокольни и сразу хочу предупредить, что это едва ли консенсуальное мнение. ML-специалист - это такое зонтичное определение для человека, способного увидеть проблему, выгрепать кучу логов и данных, посмотреть на них, придумать решение проблемы и врезать это решение его в продакшн. По сути, это кодер, решающий не чисто технические, а, в некотором роде, человеческие проблемы. Имхо, мы все же остаемся в первую очередь разработчиками. Но ведь есть Machine Learning per se, чем он занимается? Действительно есть. Одаренная прослойка людей изобретает новые методы, но это правильнее называть просто математикой. Сейчас пищей для ума являются нейронные сети и их возможные архитектуры, но даже они двигаются рука об руку с практикой. Что такое TensorFlow? TensorFlow - часть гуглового инструмента для перемножения тензоров и оптимизации функционалов. Часть - потому что важные куски типа параллелизации еще не выкачены в паблик. Если вам все ещё непонятно что это, значит это вам и не нужно, сириусли. Google перестарался с рекламой и теперь люди думают, что TF - это серебряная пуля и затычка для каждой бочки. До TF был Theano, который выполнял свою работу не хуже. И, в отличии от TF, он уже находится в стабильной фазе.
>>790256 (OP) Сап, нейрооБоги. Я ньюфаг, посмотрел лишь пару десятков разных роликов на трубе на тему нейронных сетей. Понимаю, как они устроены примерно, но не понимаю, как это всё делается именно в коде. Посоветуйте простой хэллоуворлд, дабы разобраться в основах всего этого. ЯП не принципиален.
Кто-нибудь знает что есть такое dense prediction? Периодически попадается это словосочетание во всяких статейках по распознаванию образов на нейронках, но какого-то конкретного примера или определения или описания того, что именно это отличает от чего-то другого не находил. Еще иногда встречается фраза dense outputs.
Дайте гайд как развернуть какую-нибудь нейросеть. Или ответьте на следующие вопросы 1. На Windows полная хуйня, все на Linux? 2. Debian тоже не канает, нужна убунта?
Привет вам, терминаторы, я и дальше двигаюсь по книге. Задержался на повторение питона и кое в чем застрял. Что здесь делает self.weights, как оно влияет на activations?
>>791334 они скалярно умножаются на вход активация есть параметры ("веса") умножонные на вход активация потом пихается через нелинейную функцию активации
>>791357 И почему ничего не произошло после того, как я удалил часть с Confusion Matrix. Ууух, я наконец разобрался почти, как работает перцептрон. По идее тут нету сумматора?
Вот вы говорите, что подготовка данных занимает 95% времени, и что это скучно и неинтересно. Можете привести какой-нибудь конкретный пример датамайнинга из вашей практики, рассказать как это делается и есть ли специальные инструменты, которые упрощают процесс? А может даже есть вакансии на рынке для тех, кто не смог в матан и готовит данные для датасаентистов?
>>791297 >>791432 https://arxiv.org/pdf/1411.4038.pdf вот например. Там еще несколько не до конца ясных фраз, типа end-to-end training (гугл везде разное трактование end-to-end дает; один из синонимов я находил - сквозной, но хз на сколько это связано с обучением), еще patchwise training (patch - кусочек изображения, или одно изображение из целого набора?) Что-то связанное с полносвязным - мб. Хотя у меня была мысль, что это что-то связанное с тем, что в выводе сети - полная картинка, а не просто выбор класса из нескольких.
Было предложение поработать c tensorflow для начала за сотню баксов в неделю, после того как я вкачусь в ml, но вкатится не хватило знаний и времени, ибо в ml вообще ноль. Предложение было действительно интересным и работодатель был из штатов, если бы получилось был бы очень хороший опыт + строчка в резюме.
>>791472 Что за хуйня? Если ввожу вот так вот: inputs = np.array([[0,0,1],[0,1,0],[1,0,0],[1,1,0]]) targets = np.array([[0],[1],[1],[0]]) То не настраивается А если в targets будут единицы по краям, то сможет настроиться, что за хуйня?
>>791499 нарисуй другой вариант и нельзя будет настроить прямые через точки одного класса пересекаются, их не разделить параметры добавляются что бы зделать перцептрон более умным - чем больше параметров, тем более сложные функции он сможет моделировать
>>791470 Не обсуждал, было бы выше ну 150, 200, деньги не так важны в данном конкретном случае, главное получить и сделать работу, ведь область специфична и нова и интересна. >>791483 Связано с медициной. Надо было применить ml на данных, получаемых от пользователей системы.
>>791655 > было бы выше ну 150, 200, деньги не так важны в данном конкретном случае Средний рейт за вебдев фриланс что-то около 800 баксов в неделю ($20/hr). Даже если тебе лично не нужны деньги, работа за копейки плохо влияет на систему в целом. Нефиг демпингом заниматься, для этого и так всякие пакистанцы с индусами существуют.
То, что ты нихуя не умеешь не оправдание. Если клиент не доволен твоей работой, у него есть опция не платить или открыть диспут.
> ведь область ... и нова и интересна. Только так и работаю всегда иначе не получается увы, я не помню с какого рейта начинал, что-то вроде 400-500 баксов в неделю, но это тащем-то тоже мало.
>>791534 Завтра ищешь в интернете книжку "Neural networks for pattern recognition". Похуй если ничего не поймешь. Затем идешь на deeplearning.net и изучаешь библиотеку theano от корки до корки. Потом зубришь, именно, сука, вызубриваешь алгоритм обратного распостранения ошибки - чтоб от зубов отскакивало. Когда напишешь свою первую нейроночку, по пути поучавствовав в kaggle компетишенах, покупаешь и изучаешь нормальную видеокарту, рекомендую NVIDIA GTX1080. Как переделаешь нейроночку, чтобы выдавала по крайней мере 5 тысяч предсказаний в секунду, можешь идти дальше - тебя ждет увлекательный мир диплёрнинга. CNN, RNN, сверхглубокие машины больцмана, tensorflow. Отсос веб макак / просто неудачников типа нечётко-питуха или сёрло-хуесосов, которые сосут хуй по жизни не заставит себя ждать и уже через пол года ты будешь получать такие суммы, что любая баба будет течь при одном упоминании твоей зарплаты.
>>791814 видишь ли, TensorFlow - часть гуглового инструмента для перемножения тензоров и оптимизации функционалов. Часть - потому что важные куски типа параллелизации еще не выкачены в паблик. Если вам все ещё непонятно что это, значит это вам и не нужно, сириусли. Google перестарался с рекламой и теперь люди думают, что TF - это серебряная пуля и затычка для каждой бочки. До TF был Theano, который выполнял свою работу не хуже. И, в отличии от TF, он уже находится в стабильной фазе.
Аноны, поясните мне за Линейную Регрессию. Нахуй она вкупе с нейроночками нужна? И что она делает? Просто подбирает точки, которые наиболее близкие? Но я совершенно не понимаю, каким хуем это относится к этому >np.dot(np.dot(np.linalg.inv(np.dot(np.transpose(inputs),inputs)),np.transpose(inputs)),targets) В части np.dot(np.transpose(inputs),inputs) Мы берем наши входы, переворачиваем матрицу и перемножаем ее со входами? Дальше берем от этого обратную матрицу и еще раз умножаем на перевернутые входы? А после этого я нихуя не понял
>>792072 Или мы берем перевернутую матрицу , через np.dot перемножаем ее на входы и все это в конце перемножаем с целями? А нахуя? Чего из этого мы достигнем?
>>792072 Раскури матрицы и операции над матрицами. Раскури сам метод линейной регрессии. Раскури все формулы, которые используются в нейронках (сумматор, активационная функция, функции ошибки и т.д.). Потом найди взаимосвязи между ними. Это основы, это надо знать.
>>792081 Да как его раскуришь то? Я про сумматор, функцию активации знаю, узнал на примере пиздоновского кода. Но про эти матрицы и массивы не понимаю, а про Линейную регрессию пишут >Линейная регрессия — метод восстановления зависимости между двумя переменными И что мне это должно давать?
>>792082 Раскурить - не значит прочитать определение. Посмотри какие бывают модели регресии и как они выглядят математически. Как их в матричном виде можно записать. Посмотри что такое регрессионный анализ и какие методы там используются. В нормальный вуз не пошел - проебал всю базу, теперь надо нагонять самому.
>>792084 Да это же я, какой вуз? Я из шараги на 2 курс перехожу. И там такому не будут учить, а может и будут, мат.статистика будет. А зачем ждать вуза, если я сейчас хочу?
Выводится эта формула из того факта, что если тебе нужно минимизировать функцию Ax-b -> min, тебе нужно приравнять производную к нулю, далее она приравнивается и вычисляется и получается формула, что A'Ax=A'b. В школе ты не проходил вычисление производных для матриц, но это не суть. А суть в том, что это уравнение действительно дает правильный ответ (такую матрицу A, что Ax-b наиболее близко к нулю).
>(t − Xβ)T(t − Xβ) >Где β = (XT X)^(−1)XTt Аноны, зачем мы умножаем перевернутые входы на таргеты? В скобках мы ищем отрицательное значение от самого короткого расстояния между двумя точками? И эти транспонированные цели умножаем на то, что нам уже известно? Типа это средняя линия?
Пасаны, объясниет за всю хуйню с моментом и шагом. Шаг если взять маленький, то вроде как застрянет на локальных минимумах, если взять большой, то в конце обучения лучше достроить с маленьким? Некоторые берут для каждой эпохи уменьшают шаг в 0.99.
>>792329 > Пасаны, объясниет за всю хуйню с моментом и шагом. Шаг если взять маленький, то вроде как застрянет на локальных минимумах, если взять большой, то в конце обучения лучше достроить с маленьким? Некоторые берут для каждой эпохи уменьшают шаг в 0.99.
Так ведь он выступает как регуляризатор. Всё что связано с эффективным методами оптимизации это сплоная эмпирика. Просто постарайся запомнить эвристики и понять когда их надо применять.
>>790256 (OP) Аноны, накидайте байесовский моделей, где используются распредления отличные от Дирихле или Гауссовского, или её графовое представление имеет длинную цепочку узлов(больше >3.
>>792356 В учебнике это написано, что реализация линейной регресии. Типа мы сначала по теореме пифагора ищем самое короткое расстояние и минимизируем error function
>>792359 такая > (XT X)^(−1)XTt формула получится если взять производую первого выражения и приравнять к нулю производная = 0 необходимое условие для минимума что бы доказать что это минимум ты должен немного поебстись со вторыми производными теперь понятно?
>>792380 Ты вот про это хотел сказать? >Computing the smallest value of this means differentiating it with respect to the (column) parameter vector β and setting the derivative to 0, which means that XT (t − Xβ) = 0 Если B = 0, то и первое выражение равно нулю?
>>792389 да, производная равна нулю > XT(t − Xβ) = 0 дальше раскрываем скобки > XTt − XTXβ = 0 > XTt = XTXβ > β = (XTX)-1XTt вот и всё, что бы доказать что это минимум берём вторую производную > ХTХ что бы доказать что вторая производная положительа во все стороны надо доказать что ХTХ положительно-определенa иногда нет умнож с обоих сторон на вектор и транспонируй левую половину детали оставляются тебе в качестве упражения
Мне тут приходится буквально с боем отгрызать улучшения в настройке сети. Взял пример из искаженных цифр. Батчи почему-то не помогли. Уменьшил шаг в 10 раз, посмотрим что будет.
>>792418 >np.dot(np.dot(np.linalg.inv(np.dot(np.transpose(inputs),inputs)),np.transpose(inputs)),targets) Ну вот эта строка соответствует (XTX)^(-1)XTt Еще есть строка outputs >outputs = np.dot(inputs,beta) Что все равно,что X*((XTX)^(-1)XTt) И если взять таргеты(t), вычесть из этого output и возвести в квадрат, то получится сумма квадратов остатков регрессии? Сама линейная регрессия в строке с (XTX)^(-1)XTt ? И если данные не линейно делимые, то оно не сможет нихуя?
>>792443 Мне еще не совсем понятно, как сделать разделение на отдельные символы - сегментацию, я генерю капчу(цифры склеены и с шумами) чтобы провериь на сколько сетка хороша, ибо обычная задача: просто распознать отдельный символ на котором же и обучал - неинтересна. Обучил я пока вроде норм для распознавания, но вот как просегментировать- хз.
Аноны, а ведь чем больше у нейронной сети слоев, тем больше она может логически "или" поддерживать? Например, обычный перцептрон не сможет в XOR, ибо там нет логического OR и данные просто так нельзя поделить А если слоев больше, то сеть уже способна запомнить, как разделить эту XOR функцию, верно?
>>792488 Или можно сказать, что чем больше Слоев у сети, тем большее ее разрядность? В таком случае, если мы имеем что-то, имеющее множество исключений, то как нейронка такое обрабатывает?
>>792707 Завтра ищешь в интернете книжку "Neural networks for pattern recognition". Похуй если ничего не поймешь. Затем идешь на deeplearning.net и изучаешь библиотеку theano от корки до корки. Потом зубришь, именно, сука, вызубриваешь алгоритм обратного распостранения ошибки - чтоб от зубов отскакивало. Когда напишешь свою первую нейроночку, по пути поучавствовав в kaggle компетишенах, покупаешь и изучаешь нормальную видеокарту, рекомендую NVIDIA GTX1080. Как переделаешь нейроночку, чтобы выдавала по крайней мере 5 тысяч предсказаний в секунду, можешь идти дальше - тебя ждет увлекательный мир диплёрнинга. CNN, RNN, сверхглубокие машины больцмана, tensorflow. Отсос веб макак / просто неудачников типа нечётко-питуха или сёрло-хуесосов, которые сосут хуй по жизни не заставит себя ждать и уже через пол года ты будешь получать такие суммы, что любая баба будет течь при одном упоминании твоей зарплаты.
Антоши, можете пояснить за обозначения в этой сети? Это Forward фаза обучения мульти-перцептрона. N здесь - это output nodes, L - input nodes, Знаю, что вторая формула - это градиент, минимизация функции ошибки.
Сап, подскажите, будет ли ML нужен в ближайшие 10 лет, или это просто хайп, станущий ненужным через 2 года? Стоит ли вкатываться, останется ли работа через 2-3 года еще?
>>792758 А, все, кажется понял, у нас есть слой j представлен в виде греческой буквы Количество нейронов в слое N А i=0 - это начальное значение. v - это веса А x - это значение самого нейрона? Вторая формула - это пороговая функция. Все правильно? Только почему у нейрона 0, если у нас есть смещенный с показателем -1?
>>792805 Все, теперь осталось понять, как алгоритм сам использует это chain-rule для того, чтобы минимизировать функцию ошибок еще и дополнительных скрытых слоев и я специалист. Кстати, про градиентный спуск нихуя не понял кроме того, что это как шар, катящийся по поверхности вниз и он может застрять где-нибудь и минимизация функции ошибок и есть этот самый градиентный спуск
>>792809 >специалист Точнее смогу разобраться в коде, лол, таких тупых специалистов не существует. Решил, что надо понять сначала принцип и потом только лезть в код.
>>792778 Пиздишь как дышишь. Из свежих примеров Призма и Маскарад. В гос. заказе и технологии двойного названчения: системы управления дорожным трафиком, автопилоты для комбайнов, автобусов, трамваем, машин, танков.
>>792488 >обычный перцептрон не сможет в XOR Что значит "обычный" перцептрон? Есть еще необычные? В XOR не может однослойный перцептрон, который есть простая линейная модель.
>>792812 >>792813 >>792814 >>792822 Пока вы будете учиться меня игнорировать, я уже напишу свою многослойную сеть и смогу в обратное распространение ошибки. И матан выучу. Тогда вопросы уже не будут тупыми и фильтр не сработает.
>>792811 > В гос. заказе и технологии двойного названчения Бюджеты пилят сыночки генералов, реальные разработки опаздывают от рынка на лет пять, так? Или нет?
>>792861 Хуй знает. Знаю оптиков, работающих по военке, вот их оче часто заставляют подписывать документы о неразглашении. Тут похожая хуйня будет, скорее всего. Знаю, что некоторые компании порой заказывают у русских лаб некоторые разработки.
>>792871 >>792811 Реальных ML-продуктов в рашке нет. Даже уровня каких-нибудь самоделок от энтузиастов типа пакетов\библиотек с реализациями нейроночек, не говоря о продакшен решениях. То, что какие-то там васяны в НИИ проектируют хуи, общей ситуации не меняет.
Да, с забугорными монстрами соперничать трудно, но дело продвигается. На хабре давно была статья, как яндех помогал ЦЕРНу обрабатывать данные. Интересно было бы посмотреть обзор рынка ML в рашке.
чот проиграл с себя, когда писал "рынка ML в рашке"
Но предложения по работе на том же hh есть, хотя и не в тех количествах, как хотелось бы.
>>792931 Потому, что 90-ые добили рашкинскую науку для производства робототехники, если в СССР хоть пытались, но надорвались, в России же все пустили через хуй. Энджой йор быдло, которое готово наебать, и коррупция.
Бейсовский вывод на данный момент является наилучшим подходом для машинного обучения. Исключительная выразительность и простота позволят Вам быстро составлять элегантные и эффективные статистические модели. Подход еще не столь распространён. Пока ваши конкуренты используют устаревшие технологии на базе нечоткой логики или классического подхода с точечными оценками, вы сможете в разы поднять свою эффективность, задействовав EP - последнее достижение науки в области вариационных методов. Но это еще не всё. В жизни любого ML-проекта наступает момент, когда он превращается в продукт и сопровождению проекта привлекаются дополнительные разработчики. На этом этапе распространённость и доступность методов начинает играть решающую роль. Благодаря активной популяризации бейсотвкого вывода в среде коммерческих разработчиков, а также поддержке со стороны лидера разработки методов машинного обучения - университета Кембриджа, Вы можете быть уверены, что в будущем Вам не придется переписывать свой проект как это было с печально известной разработкой Нечётко-питуха. Бейс обеспечит вам гарантии успеха и стабильности Ваших начинаний. Выберите Бейсовский вывод сейчас и через несколько лет Вы сможете наслаждаться результатами своих трудов - успешным проектом, выполненным с учётом всех современных технологий и индустриальных стандартов. Бейс - Ваш проводник к успеху в мире машинного обучения. Выбирайте Бейсовский вывод.
>>792939 Двачую этого! Хоть кто-то понимает что значит байесовский вывод в методах машинного обучения. А ведь этот подхот столько ништяков даёт. Чего стоит хотя бы введение кастомных гиперприор на холодном старте.
>>792826 >>792829 Поднял размечалку на VPS'ке. Сделайте нормальную морду и придумайте название(сейчас рабочее filter2ch). На бэке стоит Jinja. Доверстаю и вброшу API'шку.
>>793066 бегло пробежался с начала, завтра посмотрю пару предыдущих тредов потом подчистить все тексты и можно уже что то думать
платина: Сап, нейрооБоги. Я ньюфаг, посмотрел лишь пару десятков разных роликов на трубе на тему нейронных сетей. Понимаю, как они устроены примерно, но не понимаю, как это всё делается именно в коде. Посоветуйте простой хэллоуворлд, дабы разобраться в основах всего этого. ЯП не принципиален.
Господа, есть ли что ловить мне, при условии, что в разные дифуры/матан не умею?
Дайте гайд как развернуть какую-нибудь нейросеть.
На каком языке лучше всего программировать нейросети? Хаскель? Лисп? Go? Erlang? Ассемблер?
Аноны, а ведь чем больше у нейронной сети слоев, тем больше она может логически "или" поддерживать?
Сап, подскажите, будет ли ML нужен в ближайшие 10 лет, или это просто хайп, станущий ненужным через 2 года? Стоит ли вкатываться, останется ли работа через 2-3 года еще?
Аноны, поясните мне за Линейную Регрессию.
хуятина: Кто-нибудь знает что есть такое dense prediction? Периодически попадается это словосочетание во всяких статейках по распознаванию образов на нейронках, но какого-то конкретного примера или определения или описания того, что именно это отличает от чего-то другого не находил. Еще иногда встречается фраза dense outputs.
Пасаны, объясниет за всю хуйню с моментом и шагом. Шаг если взять маленький, то вроде как застрянет на локальных минимумах, если взять большой, то в конце обучения лучше достроить с маленьким? Некоторые берут для каждой эпохи уменьшают шаг в 0.99.
Вот вы говорите, что подготовка данных занимает 95% времени, и что это скучно и неинтересно. Можете привести какой-нибудь конкретный пример датамайнинга из вашей практики, рассказать как это делается и есть ли специальные инструменты, которые упрощают процесс? А может даже есть вакансии на рынке для тех, кто не смог в матан и готовит данные для датасаентистов?
Мне еще не совсем понятно, как сделать разделение на отдельные символы - сегментацию, я генерю капчу(цифры склеены и с шумами) чтобы провериь на сколько сетка хороша, ибо обычная задача: просто распознать отдельный символ на котором же и обучал - неинтересна. Обучил я пока вроде норм для распознавания, но вот как просегментировать- хз.
>>793096 Ок. Итак, имеем метки: платина, хуятина, курятина и всё остальное. Ещё бы добавил дополнительные лейблы: школьник-нейроман, нечёткий логик, байесовский пидор, классик-миссионер.
>>793158 Делаешь вариационную аппроксимизацию, записываешь конволюцию с сигмоидом, потом уменьшаешь размерность интеграла (здесь поможет дельта функция дирака) как конволюция гауссовых распределений, и с обратной пробит-функцией маргинализируешься над постериором. Любой второкурсник справится. А если делать на МСМС — так задачка вообще на пять минут.
Backpropagation. Recall from the backpropagation chapter that the backward pass for a max(x, y) operation has a simple interpretation as only routing the gradient to the input that had the highest value in the forward pass. Hence, during the forward pass of a pooling layer it is common to keep track of the index of the max activation (sometimes also called the switches) so that gradient routing is efficient during backpropagation.
Пока вы, блять, будите лезть в этого говно, оно никогда не сдохнет. Я понимаю еще, человек написал: "Посоны, я угорел по бейсу, потому решил выучить вореции, чтобы написанные мною нейроночки летали! Посоветуйте годноту". А то пришел, ему видите ли "Нужен гайд как развернуть какую-нибудь нейросеть с бекропом", так пойди попробуй мелочи стрельнуть у бритых пацанчиков в шапках-годонках, они тебе объяснять по понятиям. Может выясниться, что тебе ни нейроночки ни бекпроп не нужны. Неужели, блять, так сложно прикинуть, за каким хуем ты вообше лезешь в отрасль. "рассчитано на грамотных людей" - уёбывай нахуй. Сколько вас таких тут было: "Хочу сдать датасаентистом! Какой книгу выбрать для начала?", "Хочу выучить модель %модель-name%. Посоветуйте литературы". Кто-то подрывается и отвечает вам, может даже по хардкору палит годноту. А вы, все те самые, которые поматросят и бросят. Дальше хелло-ворда дело не идет, не говоря уж о работе с нейроночками. Неужели вы и вправду думаете, что МЛ/бейс/датасаенс стильно-модно-молодежно и, того глядишь, на практике пригодится? Напряги свое серое вещество и подумай, нахуя тебе это. Просто оно тебе не надо, иначе бы ты не создавал здесь очередной хуёвый пост, а загуглил бы давно нашел статьи на реддите/рсдн/100_других_ресурсов. Люди составили тысячи подборок с описаниями, рецензиями - выбирай и читай. Но нет, блять, вместо этого очередной хуй припиздовывет в кодач и устраивает симуляцию деятельности. Нахуя, скажи блять, подбирать тебе книгу, если ты ее даже не прочтешь? Ф пизду вас, мудаков!
А мне наплевать на пидарасов и их парады. Они мне совершенно не мешают. А вот сёрло-питишков я ненавижу за то, что они, как православные и прочие угоревшие по религии, тормозят прогресс, сковывают производящие силы общества и делают мою жизнь хуже, снижают её качество. При этом сёрло-питушки - самая мерзенькая категория религиозных фанатиков и врагов прогресса. В той же категории находятся амиши, например. Но я сравниваю сёрло-питушков с пидарасами потому, что предполагаю, что такое сравнение для них обиднее, чем сравнение с амишами. Сам же я считаю, что сёрло-питушок - существенно хуже пидараса, более того - сравнение с сёрло-питушком скорее оскорбление для пидора, чем наоборот.
Аноны, как так получилось, что строка >deltah = self.hidden(1.0-self.hidden)(np.dot(deltao,np.transpose(self.weights2))) Настройка второго и так далее скрытых слоев, это просто (цели - выходы)*выходы Это потому что функция ошибки в данном случае общая для всех слоев и на отдельном слою больше быть не может?
>>793420 И вот это вот интересная вещь >np.transpose(self.weights2) Зачем нам переворачивать матрицу весов? Это 2-я линия, делящая наш датасет здесь должна проходить под углом 90 градусов?
НЕЙРОНОЧКА давно уже не модель. НЕЙРОНОЧКА - просто прилипчивое говно на ботинках анонимного эксперта, тонким слоем размазанное по всему /с/. Анононимный эксперт совершил ошибку, растоптав НЕЙРОНОЧКУ. Теперь мучается, пытаясь отчистить подошву от этой вонючей дряни. Засело крепко. Понимаешь, просто больше нечего добавить к тому, что уже было написано здесь. Нормальному человеку таких унижений достаточно, чтобы почувствовать всю ничтожность говна, которое он форсит. Но когда имеешь дело с нейрофанбоем — это совсем другой разговор. Он будет отравлять своей НЕЙРОНОЧКОЙ воздух еще долго после растаптывания. >>793431
Аноны, можно ли обойтись здесь без неконтролируемого обучения? Хочу настроить моба на нейронке, как понимаете, у него будет множество модулей. Например одна из целей - нанести удар с такой-то силой, одной цели - сила удара мне хватит? А все остальное, вроде локальных показателей различных модулей я помещу в массив.
>>793477 Или если все будет не так, а например, положение моба, скорость его модулей, инерция Если она конечно поддерживается движком и нейроночка для каждого из этих показателей должна увидеть закономерности и в зависимости от одних параметров настраивать другие так эффективно, как она только сможет. А в таргеты засунуть что-нибудь увеличивающееся и когда нейронка через n итераций уже не сможет сделать все эффективнее, то заканчивать обучение.
Как подобрать нужное число слоев в таком случае и как привести информацию в нормальный для нейроночки вид?
>>793481 > как подобрать нужное число слоев гугли bayesian model selection > как привести информацию в нормальный для нейроночки вид нанять школьников с одеска
Аноны, в прошлом или этом тренде кто-то говорил про фриланс. Можно те самые 300-350 долларов поднимать, какая нагрузка для этого нужна? За что лучше браться новичку?
Такс, нашел ошибочку в обучении сети - удалось еще немножко подучить моюсеточку-малолеточку. Посмотрим где она застопориться с обучением. Во второй модели, где макспулл обучение застопорилось на 0.5, видимо где-то неправильно чет я сделал, т.к. в питоне сетка вроде норм обучалась до 0.2 .
Не понимаю, зачем нам нужна softmax функция? Одна функция активации нужна для логических функций, линейная, насколько я понял, для проблемы регрессии. А softmax нахуя? Что значит это >the 1-of-N output encoding is used
>>794349 когда классов больше 2 - ебашишь софтмакс мотивация та же что и для сигмоида >>the 1-of-N output encoding is used способ кодировать классы векторами напр если 2 класса, то (1, 0) - первый класс (0, 1) - второй
>>794349 > Что значит это > the 1-of-N output encoding is used Число n просто представляется в виде вектора [0, ..., 1, ..., 0] с размерностью N и единицей на n-ом месте. https://en.wikipedia.org/wiki/One-hot
>>794349 >Что значит это >the 1-of-N output encoding is used Пиздец вопросы у тебя. Это классика блядь, это знать нада! кодирование "1 из N". Нужно для задания классов, например если тебе нужно закодировать для нейроночки разные объекты, скажем, волк коза и капуста. Если ты эти объекты задашь просто цифрами 1, 2 и 3, то для нейроночки коза будет чем-то средним между волком и капустой, а это абсурд. В случае кодирования 1 из N волк, коза и капуста представляются в виде 3хмерных векторов 001, 010 и 100.
>>794435 Дропаут — это один из разновидностей концовки пера вилки, куда устанавливается ось колеса. Благодаря дропауты вы легко можете снять колесо, не ослабляя цепь.
Все дропауты можно разделить на горизонтальные, вертикальные.
Горизонтальные дропауты — используют на велосипедах без заднего переключателя скоростей. Благодаря этому дропауту, можно легко менять положение колеса и натяжку цепи. Особенностью является то, что нужно сильно зажимать болты или эксцентрик, что бы колесо не скривилось, после натяжения цепи. Вертикальные дропауты используют для велосипедов, у которых есть задний переключатель скоростей. Дропаут не позволяет менять положение колеса и натяжку цепи, поэтому для натяжения нужно использовать переключатель с натяжителем, или внешний натяжитель. Так же на некоторые велосипеды с одной скоростью или велосипеды использующие внутреннюю трансмиссию ставят вертикальный дропаут вместе с эксцентриковой кареткой, что бы регулировать натяжение цепи. На современных велосипедах, которые оснащены системой переключения передач задний переключатель крепиться к держателю на заднем правом дропауте или на специальный накладной кронштейн — так называемы петух.
В зависимости от рамы, расстояние между дропаутами может меняться.
Так же дропауты разделяют на штампованные и кованные.
Вы все еще помните меня с моим шагоходом? Я наконец допетрил, как сделать так, чтобы он не дрожал и все, что пытались применить до этого - дерьмо. Ведь по сути у нас есть манипулятор, который хоть и работает аккуратно Хотя кому я пизжу, китайское говно, никто не может себе позволить, спасибо, что он хотя-бы сенсорный Но создает вибрацию, так вот, оказалось, что если взять материал, который намного больше вибрирует и просто минимизировать его вибрацию. Блджад, можно это запатентовать и продать пиндосам?
>>794468 И программа с обратным маятником хоть и была правильной, но легко аккумулировала вибрации, которые и наебывали робота. Да, нейронка может сделать так, что робот на обратном маятнике будет ходить нормально, но по сути она просто в определенный момент не даст вибрации наебать систему и будет дерганным и медленным, как сука. Также это заставляет подумать о том, что момент инерции вообще-то надо нивелировать и в качестве передаточного механизма использовать гидравлику.
>>794474 >>794468 Кстати, что привлекает школьников, которые даже матана нихуя не знает в нейронки? Они на что надеются, что они писать будут с ними, блядь?
>>794489 Думаю лютый хайп вокруг сеток и их мобильных приложений. Это как с батлерепом, теперь каждый второй школьник батлит хоть школьную литературу и не знает.
>>794494 То-есть временный хайп заставляет их идти изучать целую отрасль в науке? Охуеть. Кстати, что с процессорами под нейронки, когда уже будут нормальные, а не жрать дерьмо на дедике за 15к?
>>794497 Раньше бесплатно было. Телепортировал объяснение тебе за щеку.
Короче, слева от нуля функция равно константе(нулю), а её производная ноль. Справла там где максимум обращается в x производная равна единицы. Всё. Нелинейность это всё что НЕ линейность, а линейность имеет производную всюду равную однёрки. Проще, ReLu составляется из двух линий, а не из одной.
>>794496 Кстати, здесь есть ананимасы, которые вынуждены производить огромные вычисления, а не ебаные школьники, на чем вы гоняете свои нейронки? Я с шагоходом заебался, кстати, спасибо шапочке за ссылку где объясняется за квадратичные приближения с огромным объемом данных, полезно.
почему школьникам так нравятся нейроночки 1. клёвое название - роботы, захват мира, искусственный интеллект, етц 2. обучать их веселее чем другие модельки, итеративный градиентный спуск создаёт иллюзию что комп и вправду "учится" 3. легко усложнять модель до бесконечности - прост слоёв добавь))
>>794496 Думаю, так. Видишь ли они даже акценты не правильно расставляют: начинают ковыряться в нейронах, выбирать нелинейность, реализовывать персептрон, не смотря на то, что глубокое обучение завязано именно на глубины.
Вообще можно до этого >>794490 школьника доебаться.
>>794510 Можно, но на это поебать. Есть производные справа и слева, есть усреднённая производная, есть ещё всякое говно в p-адическом анализе и суперматематике. Одним словом это не важно.
>>794525 почему школьникам так нравятся нейроночки 1. клёвое название - роботы, захват мира, искусственный интеллект, етц 2. обучать их веселее чем другие модельки, итеративный градиентный спуск создаёт иллюзию что комп и вправду "учится" 3. легко усложнять модель до бесконечности - прост слоёв добавь)) 4. не нужно уметь в математику и статистику; достаточно быдлокодить; есть видеокарта для игор.
>>794525 Ну, по правде математика в самих нейронках и правда не очень нужна, обучить можно и обезьяну, в каких ситуациях что делать. Математика ведь будет нужна во всем остальном, там данные надо отсортировать, там подготовить обучающий сет, там оптимизировать вычисления, там можно использовать эффективнее не нейронки.
>>794529 В книжечке которая, кажется, зовется она Machine Learning an Algorithn матана вообще особо нету, а в том что есть используются условные обозначения и все можно понять просто из кода.
>>794529 Да, если говорить про инженерную составляющу. А ведь есть ещё такой важный пункт, как проектирование эксперимента так, чтобы можно было интерперетировать результаты и не охуевать. Во-вторых, есть ведь чисто математическая теория, которая сопрягается с граф-моделями, приорами, представлениями, EM, вариационным выводом и прочими интересными ништяками.
>>794533 Ну, в том, где сейчас используются нейронки оно особо и не нужно, заказчики сами о них хуй что знают и их смело наебывают все, кому не лень. Достаточно посмотреть заказов на фрилансе и убедиться в том, какая хуйня там. А в научных вычислениях или даже нашем шагоходе такая пиздецовая вакханалия творится, на кафедре 3 инженера и не один из них матана нормально не знает, а программисты физику не знают, вот и пытайся работать с такими, Сколково, блять.
>>794528 Странно как-то вы рассуждаете. Почему не в плане задач, возможных идей для проектов, для реализации которых требуется машинное обучение? Хочу сделать X, поэтому мне нужно изучить A, B, C, нет?
>>794549 >Почему не в плане задач, возможных идей для проектов, для реализации которых требуется машинное обучение? Перепиши еще раз, использовав синонимичные слова, более четко выразив смысл предложения
>>794589 >>794590 А прогнозы делает Бабка Нинка с рынка, вот она то нашего Антона и прокляла, что он теперь в свою фошисткую омерику хочет уехать, в загнивающий запад
The second variant is called randomized rectified linear unit (RReLU). In RReLU, the slopes of negative parts are randomized in a given range in the training, and then fixed in the testing. As mentioned in [5], in a recent Kaggle National Data Science Bowl (NDSB) competition, it is reported that RReLU could reduce overfitting due to its randomized nature. Moreover, suggested by the NDSB competition winner, the random αi in training is sampled from 1/U(3,8) and in test time it is fixed as its expectation, i.e., 2/(l+u)=2/11.
Наткнулся на то, что в лекция очень неаккуртно недоказывает изоморфиз граф-модели и класса распределений, а потом из этого ещё и алгебра строится. Хочу формальнее.
Кстати, в определении процедуры d-разделения стоит введение топологии порядка. Как это связано с топологией на классе вероятностей? Думаю, что можно построить какую-нибудь процедуру, которая бы ввела структуру порядка на сигма-алгебре.
Ещё была мысль вычитать Дафни Келлер, кажется. Она ведь тоже вроде стояла у истоков.
>>790256 (OP) Давно мечтаю запилить что-нибудь связанное с рисованием нейронными сетями. В итоге хочу запилить хуйцегенератор. Пользователь выбирает фотографию, а моя штука как бы перерисовывает её из хуйцов. Как Google DeepDream, только вместо машин, домов и собак будут хуйцы и, например, вагины. С чего мне начать? Какой ЯП для этого посоветуете? Какие готовые решения и фреймворки существуют?
>>795414 Да ни с чего, дебил, блять, нейронки - это тебе не хуета, раз-два, а месяца 2 изучения матана, месяц изучения питона и хуй знает сколько времени убьешь на то, чтобы научить сеть обрабатывать фото. В гугле на это убили сотни тысяч человекочасов, а ты в одиночку хочешь запилить, совсем дебил?
>>795417 Я уже учил теорию, так что не проблема, тем более я не собираюсь с нуля писать это всё, в пиздон и прочие популярные ЯП я умею. Я попросил именно или фреймворков или готовых решений или просто в какую сторону копать. Кто-то явно уже запилил как минимум одну библиотеку, упрощающую написание подобного.
>>795419 А книги в шапке чекнуть не судьба? Это топ уровень, тем более нейронки не привязаны к языку и реализовать их можно на чем-угодно, в гугле информации полно, хули ты сюда пришел? >Даун, плиз. 3 месяца это немного. Это если у тебя есть свободное время.
>>795425 Шапка не под эту задачу, всю шапку, все статьи и книги, которые в ней есть, долго читать. Не нашёл ничего тематического в гугле. А тут ответят как лучше, исходя ещё и из личного опыта. У меня есть свободное время, однако под мою задачу нужны конкретные библиотеки, а не изучение всего подряд.
>>795427 >все статьи и книги, которые в ней есть, долго читать Просто >У меня есть свободное время, однако под мою задачу нужны конкретные библиотеки, а не изучение всего подряд. Можешь съебать отсюда, а то подайте ему все на блюдечке с золотой каемочкой, нахуй всю статистику, ведь он у нас ЯП знает.
>>795430 Да и тем более мог почитать выше тред и поискать по прошлому, а не засорять новый, ничего лучше, чем книгу тебе никто и не даст, нейроночки - это тебе не Питон, порог вхождения высокий и из гугла не изучается за полчасика.
>>795431 Нейроночки — лишь подход к решению задач. Есть разные либы для различных частных случаев задач, решаемых ими. Я всего лишь спросил какую лучше всего использовать для моей. Так что сосни хуйца, даун.
>>795433 Нейроночка - это тебе не лопата, а целая теоретическая база, ядерная физика тоже подход к решению задач, может тебе и по ней также подсказать? Да и ты мог заметить, если бы прочитал тред, что никто тут этим не занимался.
>>795433 Двачую адеквата. Как гооврится гарбадже-ин-гарбедж-аут. >>795433 Сасай даун. Нужно хотя бы понимать, что выдаёт тебе эта библиотечка, и когда она применима, идиот.
>>795437 Мне не нужно знать не единой формулы из ядерной физики, если кто-то запилит готовую библиотеку для работы с ней. Да ладно? Не занимался? А вот мочератор /pr/ посчитал, что занимался и послал меня в этот тред.
>>795440 В нейроночках нужно знать принципы их работы. Numpy держи, вперед, пиши. >Да ладно? Не занимался? А вот мочератор /pr/ посчитал, что занимался и послал меня в этот тред. Он тебя послал в тред ML, а не говорил, что тут это разбирали и тебе помогут
>>795443 Да и нейроночка - это подход, верно, но он не состоит из чего-то готового. Вот дал я тебе Numpy, покопаешься ты в массивах и нихуя не поймешь. Это как игра на скрипке, хуй ты что сумеешь без знаний того, как оно устроено и работает. А то, что ты тут ведешь срач уже показывает тебя полностью, давно бы в гугле нашел или треды перечитал, но нет же, ждешь готового, а говна наверни, ублюдок.
>>795440 Нейроночки, также как и другие дисциплины, каким-то образом связанные с человеком, интеллектом (типа теория принятия решения, методы анализа нечеткой информации), недостаточно сформированы, и любая задача требует индивидуального подхода к ее решению (требуется подбор структуры сети, подбор функций, метода обучения и т.д.). И хоть у тебя есть библиотека со всеми этими структурами, функциями, методами обучения, ты нихуяшеньки не сможешь сделать толкового, не зная основ (что где вообще применяется в более общих случаях) и не изучая кучи дополнительной лит-ры с исследованиями по конкретным направлениям (какие новые методы и в каких конкретных задачах применяются).
>>795414 Завтра ищешь в интернете книжку "Neural networks for pattern recognition". Похуй если ничего не поймешь. Затем идешь на deeplearning.net и изучаешь библиотеку theano от корки до корки. Потом зубришь, именно, сука, вызубриваешь алгоритм обратного распостранения ошибки - чтоб от зубов отскакивало. Когда напишешь свою первую нейроночку, по пути поучавствовав в kaggle компетишенах, покупаешь и изучаешь нормальную видеокарту, рекомендую NVIDIA GTX1080. Как переделаешь нейроночку, чтобы выдавала по крайней мере 5 тысяч предсказаний в секунду, можешь идти дальше - тебя ждет увлекательный мир диплёрнинга. CNN, RNN, сверхглубокие машины больцмана, tensorflow. Отсос веб макак / просто неудачников типа нечётко-питуха или сёрло-хуесосов, которые сосут хуй по жизни не заставит себя ждать и уже через пол года ты будешь получать такие суммы, что любая баба будет течь при одном упоминании твоей зарплаты.
Кстати, а вот реально, поясните за tensorflow. Это же просто либа для машинного обучения, что в ней особенного? Во что такое может она, во что не нельзя написать на питоне в несколько строк кода?
>>795488 С её помощью можно быстро, практически без каких-либо знаний нейронных сетей, написать что-то типа гугл дипДрим, только со своими пикчами вместо собак.
>>795490 И что гугл от нее хотел, дабы хомяки сами освоили технологию? Кстати, кто работает в направлении нейронных сеточек? Есть тут фрилансеры, которые расскажут, что делают вообще?
Аноны, я просветлел, могу в нейронки, больше ваши фразы меня не пугают. Я прочел 1/4 книги, стоит ли читать дальше? Там вроде будет углубление по всем темам, рекуррентные сети, сверточные, распознавание образов. Но нахуя все это? Нет, сама нейронка в том виде, которая она нужна была мне и для моих целей у меня теперь есть. Стоит ли идти дальше, есть ли фриланс на нейронках или знаний питона и 1 книги недостаточно будет?
>>795743 А есть какой-нибудь список этих главных компонентов и что-то вроде "хеллоуворлдов", которые должен уметь написать любой человек, который работает в машинном обучении?
>>795749 Завтра ищешь в интернете книжку "Neural networks for pattern recognition". Похуй если ничего не поймешь. Затем идешь на deeplearning.net и изучаешь библиотеку theano от корки до корки. Потом зубришь, именно, сука, вызубриваешь алгоритм обратного распостранения ошибки - чтоб от зубов отскакивало. Когда напишешь свою первую нейроночку, по пути поучавствовав в kaggle компетишенах, покупаешь и изучаешь нормальную видеокарту, рекомендую NVIDIA GTX1080. Как переделаешь нейроночку, чтобы выдавала по крайней мере 5 тысяч предсказаний в секунду, можешь идти дальше - тебя ждет увлекательный мир диплёрнинга. CNN, RNN, сверхглубокие машины больцмана, tensorflow. Отсос веб макак / просто неудачников типа нечётко-питуха или сёрло-хуесосов, которые сосут хуй по жизни не заставит себя ждать и уже через пол года ты будешь получать такие суммы, что любая баба будет течь при одном упоминании твоей зарплаты.
>>795749 А то мне неохота идти в Джангу и писать сайтики за 300. >>795750 Найс паста, только где про графические библиотеки, работу с лингвистикой? Если посмотришь на апворке что-то связанное с машинным обучением вообще, то там везде что-то такое требуют.
>>795769 Теано шляпа. Самые новомодные библиотеки для диплернинга все рассчитаны на распределенные вычисления. MXNet, TensorFlow как вариант. В последнем пока жмутся полное распараллеливание плебеям выкладывать, а вот в MXNet все есть.
Вот еще какое дело. Тута принято хейтить R, покажите мне где еще есть столько готовых алгоритмов на все случаи жизни? https://cran.r-project.org/web/views/ это только вершина айсберга, более 8500 пакетов, во многих не по одному десятку алгоритмов и методов.
>>795798 R не умирает, но Python сделал много нашествий в тех областях, где R имело обыкновение быть единственным языком считается. Это довольно ужасный язык, так что, вероятно, продолжит медленно снижаться. Но, как Fortran, мы никогда не избавиться от него.
Аноны, какой все-таки смысл от soft-max функции, когда мы решаем проблему регрессии? Она типа аналогична сигмоидной функции, только поддерживает много классов? А классификация у нейронок после обучения - это просто выбор самого близкого?
>>796044 Вот смотрю, на чем пишут ИИ и прочий матан: MATLAB, R, Julia, Fortran, Python/NumPy. Всяких этих МОНАДОК нету. Так о какой научности своих языков пиздят борщехлебы?
>>796441 Да и вообще? Как получается так, что нейроночка должна из train = array[::2,0:4] сделать traint = target[::2] В одном же 4 элемента, а в другом 3, она их как-то сожмет? Как она распределит?
Аноны, поясните мне за классификацию у нейроночек, как они ее делают? У меня есть массивы данных с 4 столбцами. У меня есть таргеты с 3 столбцами. И причем, если число слоев меньше 4, то классификацию он отказывается производить и просто минимизирует функцию ошибки. Как это работает? Я прочитал книгу и ничего не понял, он на 1-м слою отдает по 1 input nodes на каждый вертикальный столб массива и между 3 слоями делит активацию?
>>796571 А нет, напиздел, производит он классификацию и с 3 слоями и с 2, но в таком случае я совсем нихуя не понимаю. Или он ставит только в выходном слое 3 нейрона и принимает все параметры от них? И тогда вот эта схема на пике правильная?
>>790256 (OP) Аноны, а все-таки объясните мне, каким образом нейронная сеть может что-то прогнозировать? Все что она может - это настраивать свои веса, если она проанализирует информацию о температуре за текущие 10 лет, то как она спрогнозирует информацию о температуре на следующий год? Она же по сути просто решила проблему регресии и может выдать нам сильно усредненные данные. Я понимаю, что она может спрогнозировать какую-нибудь функцию, где значения, например, синуса будут повторяться. Тут такой же принцип? Самое усредненное значение и выдается за прогноз?
>>797125 У меня не такой хороший уровень английского. А все-таки интересно, какой смысл пихать огромное количество данных на нейроночку? Вот в моей книге она пусть и проанализировала кучу данных, но прогноз то не выдала, каким образом это происходит? Нейроночка же заметит только самую общую тенденцию, типа положительной динамики по расширению очка у негритянских младенцев в течении последнего года по сравнению с предыдущим и покажет это на графике. Или мы даем сети какой-то один из параметров на вход, а она используя свои веса дает нам значение?
Аноны, можно ли представить все показания обратного маятника как временные ряды и из показателей положения и скорости вывести требуемые показатели мотора? То-есть сначала пытаемся гонять на подобии сегвея Причем учитывая только то время, когда он движется и через некоторое время такой езды узнаем показания мотора для различных положений С графиком, лол, заодно и будет видна зависимость от угловой и общей скорости Или можно указать положение аппарата в таргеты и дать сети, обученной решать проблему регрессии подбирать показания мотора?
>>796132 >C чего ты взял? Ничего там не жмутся. Там жи нет поддержки распараллеливания вычислений между физически разными девайсами. Или уже зарелизили?
Зачем ваш пейстон нужен, если там нет ни одной реализации нечетких моделей (нейро-нечетких, генетико-нечетких и т.п. и т.д.), только полторы библиотеки элементарных операций с нечеткими множествами уровня студенческих поделий. Сладкий хлеб, короче.
>>797474 Суть-то в том что на пистонах нихуя и нет кроме 1,5 распиаренных библиотек под модные глубокие нейроночки, которые все равно неработоспособны на реальных задачах (а не манядатасетах типа мниста) без нескольких видеокарт, каждая стоимостью с годовую зарплату твоей мамки. Остальной тамошний функционал есть даже в екселе.
Бейсовский вывод на данный момент является наилучшим подходом для машинного обучения. Исключительная выразительность и простота позволят Вам быстро составлять элегантные и эффективные статистические модели. Подход еще не столь распространён. Пока ваши конкуренты используют устаревшие технологии на базе нечоткой логики или классического подхода с точечными оценками, вы сможете в разы поднять свою эффективность, задействовав EP - последнее достижение науки в области вариационных методов. Но это еще не всё. В жизни любого ML-проекта наступает момент, когда он превращается в продукт и сопровождению проекта привлекаются дополнительные разработчики. На этом этапе распространённость и доступность методов начинает играть решающую роль. Благодаря активной популяризации бейсотвкого вывода в среде коммерческих разработчиков, а также поддержке со стороны лидера разработки методов машинного обучения - университета Кембриджа, Вы можете быть уверены, что в будущем Вам не придется переписывать свой проект как это было с печально известной разработкой Нечётко-питуха. Бейс обеспечит вам гарантии успеха и стабильности Ваших начинаний. Выберите Бейсовский вывод сейчас и через несколько лет Вы сможете наслаждаться результатами своих трудов - успешным проектом, выполненным с учётом всех современных технологий и индустриальных стандартов. Бейс - Ваш проводник к успеху в мире машинного обучения. Выбирайте Бейсовский вывод.
>>797511 Да везде. В отличие от нейроночек для нечетких контроллеров очень просто доказать глобальную и локальную устойчивость, что позволяет использовать ихв промышленности. Поезда на нечетких контроллерах в Японии с 1987 года ездят, сейчас уже и во многих развитых странах. Даже в Дубаях есть такое метро. Половина мирового производства цемента - это установки на нечетких контроллерах. Лень все перечислять, применений реально полно, фотоаппараты, рисоварки ,стиральные машинки и прочее. И все это уже непервое десятилетие. А вот нейроночками и то только сверточными толькогугл и занимается и то последние года 3.
>>797521 >Нейроночки активно развиваются. Ничего там не развивается, только слоев добавляют, да сигмоиды заменили на релу. А так все на уровне первых работ Лекуна, 80-е годы. Это сверточные нейроночки, остальное впрактических целях вообще малоприменимо или вообще неприменимо.
>>797528 Сверточные нейроночки могут заменить только сверточные нейроночки. Хуйня,которая по месяцу сходится на многопроцессорных теслах, не заменит нчечткий контроллер ,который можно реализовать на микроконтроллере и вкорячить в лбое устройство. Ну и я упомянул главную причину, почему нейроночки не использут в промышленности - они работают как аллах на душу положит, для них нет строгих доказательств устойчивости, а это обязательное требование для внедрения изделия в промышленности. Никто (в особенности из ответственных лиц) не одобрит изделие, которое теоретически может спалить ползавода или со всей дури посадить поезд метро с пассажирами на тупиковую призму.
>>797531 Ну видишь ли, это все только пока, в будущем будут и мультипроцессоры под них. Нейроночка хороша тем, что она по сути как волшебная палочка может выступать и делать все, что угодно.
>>797545 >Нейроночка хороша тем, что она по сути как волшебная палочка может выступать и делать все, что угодно. Для нечетких моделей давно доказаны универсальные аппроксимационные свойства. При этом, в отличие от нейроночек, знания представлены в интерпретируемой форме, а не как черный ящик, который вроде работает, а как - хуй его знает (а вдруг еще и хуй не знает).
>>797547 И кому это устаревшее дерьмо сейчас и здесь нужно? Те, кому оно нужно им уже давно пользуются, а не лезут сюда, ты бы еще залез к чувакам, которые новые двигатели делают и начал им про преимущества паровых рассказывать.
>>797548 А ВОТ НА ЭЛЕКТРО-ДВИГАТЕЛИ АККУМУЛЯТОРЫ ОГРОМНЫЕ НУЖНЫ, ИМИ ТОЛЬКО ОДНА КОМПАНИЯ ЗАНИМАЕТСЯ ЛАМПОЧКИ НЕ НУЖНЫ, СГОРАЮТ И ПОЛЬЗУЮТСЯ ИМИ ТОЛЬКО В БОЛЬШИХ ПОМЕЩЕНИЯХ, СВЕЧКИ НАМНОГО ЛУЧШЕ
>>797552 Ракеты не долетят до космоса, давайте пользоваться Дирижаблями Для Дирижабля подъем гарантирован Поэтому нечетко-петух должен съебать нахуй, дикарь.
Вы просто школьники и не понимаете простых вещей. Перцептроны появились в 1968, сама идея нейроночек - в 1943. И их промышленное применение до сих пор невозможно, я даже скажу, принципиально невозможно. Суть нейроночек - аппроксимационные свойства, что доказывается теоремами Колмогорова, Горбаня, Такенса и т.п. Все, что может нейроночка, может любая нечеткая модель, что опять же доказывается соответствущими теоремами об универсальных аппроксимирущих свойствах. Плюс к этому присуствует полная прозрачность происходящего и простота самих алгоритмов. Из нейроочек жеинтерес представляют только сверточные сети и только в узкой области использования.
>>797584 Я? Нисколько, но там, где участвовал, на первых местах всегда ебаные нейроночки, и никогда - твоя шизофрения. Хотя казалось бы. Миллионером стал бы.
>>797644 Говоришь, что применение принципиально невозможно, тут же говоришь, что суть нейронок - аппроксимационные свойства, и что они доказываются рядом теорем. К тому же теоремы, которые ты назвал, относятся к сходимости обучения системы (в т.ч. и нечетких моделей). Конкретно для перцептрона, например, уже доказана теорема сходимости. Не думаю, что для более сложных систем невозможно доказать нечто аналогичное как и для других систем; мб и потруднее будет, но нейронки все-таки развиваются, и через какое-то время обязательно все будет.
>>797654 >Говоришь, что применение принципиально невозможно, тут же говоришь, что суть нейронок - аппроксимационные свойства, и что они доказываются рядом теорем. Я писал, что применение нейроночек в промышленности невозможно из-за отсутствия возможостей доказать устойчивость и стабильность. До сих пор существут только общие советы по параметрам нейроночек для обеспечения нормальной сходимости. А нужны строгие доказательства устойчивости алгоритма при любом возможном режиме функционирования. Нейроночки слишком сложная ебань, чтобы существовали подобные доказательства для общего случая (любая нейроночка и любая задача). Даже если такое доказательство и возможно, оно будет слишком сложное, чтобы использоваться на практике. Тогда как те же поезда метро на нечетких контроллерах давно и успешно работают.
>>797667 Твои нечеткие модели не могут в искусство. А учитывая, что нейросетки это всего-лишь аппроксимационная модель, состоящая из множества однотипных простых узлов, объединенных в определенную структуру, и то что они могут извлекать нужные фичи из данных, а также порождать что-то новое, или по крайней мере какой-то "идеальный" образ, это создает еще больший интерес, и вообще говорит о многом. Ну и как тебя выше ткнули, нейросетки-таки мощнее во множестве задач.
Так, посаны, а что если я вместо последнего слоя в Ленет-5 сделаю не 10 выходов, а те же (12832)10(сколько классов), что у меня на входе, например. Вроде тогда сеточка должна научиться находить положение цифры. Непонятно еще какой выбрать порог, чтобы было понятно есть там реально цифра или это галюн сети.
Аноны, поясните мне за градиентный спуск в алгоритме обратного распространения ошибки Я до этого пользовался тем, что менял параметры для весов 1 слоя и всех остальных скрытых, все выглядело вот так вот: deltah = self.hiddenself.beta(1.0-self.hidden)(np.dot(deltao,np.transpose(self.weights2)))
updatew1 = eta(np.dot(np.transpose(inputs),deltah[:,:-1])) + self.momentumupdatew1 updatew2 = eta(np.dot(np.transpose(self.hidden),deltao)) + self.momentum*updatew2 self.weights1 -= updatew1 self.weights2 -= updatew2 А как этот код обновить в согласии с градиентным спуском?
>>798191 А причем тут жесткий диск? Речь о том, что для перцептрона на крестах не нужны 1-2 гига только пистона со всеми зависимостями. Это же 100% детектор индусского кода и быдлокодеров-авторов. Даже в наше время, вот есть библиотека для диплернинга https://github.com/dmlc/mxnet от автора любимого всеми школьниками xgboost'а. с врапперами под все нормальные ЯП. Меньше 2 мб. Пистон поддерживается, но не обязателен как во всяких теанах.
Да автор этой книги охуел, объяснил алгоритм обратного распространения ошибки, но не объяснил, как его реализовать на питоне, я сам догадаться что-ли должен? Почему не дать код, чтобы все понятно было?
Аноны, а как в алгоритме обратного распространения ошибки с градиентным спуском осуществляется деление ошибки между скрытыми слоями? Я понимаю, что если скрытый слой 1, то совсем похуй, или в случае с дополнительными скрытыми слоями считать как для входного слоя? В книге написано, что: >Note that we can do exactly the same computations if the network has extra hidden layers between the inputs and the outputs. It gets harder to keep track of which functions we should be differentiating, but there are no new tricks needed.
>>798387 Лол, ты всерьез считаешь, что ведешь серьезный диалог с кем-либо? Никому не интересно твое говно здесь разбирать, а вот поугарать над нечетко-петухом - весело. Да и ты сам виноват.
>>798395 Мне кажется тут весь тред чувак поехавший типа золотца сам с собой разговаривает притворяясь то нормальным, то мелкобуковкой, я уже второй тред этот пиздец наблюдаю, изредка люди заходят с вопросами как вкатиться, видят шизика и убегают
Есть у меня влажная мечта - разрабатывать системы анализа финансовых рынков. Валютная биржа нынче полностью автоматизирована. Программы, которые умею делать прогнозы в краткосрочной перспективе (несколько секунд) стоят сотни миллионов долларов.
Также я интересуюсь криптовалютами. Думаю, с них начать изучение этой темы было бы намного проще - не нужно ни лицензий, ни больших вложений (благодаря высокой степени делимости всех криптовалют, так повелось ещё с биткоина).
Насколько я понимаю, основная работа таких программ - анализ финансовых новостей из множества источников, т.е. обработка текста на естественных языках.
Может кто подсказать, с чего начать? Как решить, какие источники рассматривать? Какие именно характеристики текста нужно вычислять?
По машинному обучению смотрел лекции ШАДа и курс от Стендфорда (ml class), но практикой не могу себя заставить заняться - хочется реальных задач, а не абстрактных. Понятно, что потом всё равно нужно будет решать абстрактные задачи чтобы интуитивно уже чувствовать, какой алгоритм может быть применим в конкретной ситуации. Но начинать с этого нет совершенно никакой мотивации - это не даёт никакой общей картины.
>>798410 Вот это подойдёт как источник новостей? Как часто он присылает письма при конфигурации "Частота отправки: По мере появления результатов"? Что делает фильтр "Количество: только лучшие результаты"? Убирает дубликаты (копирайт)?
>>798410 я думаю, что машинное обучение не так много используется в торговле, потому что торговля на самом деле не что-то легко формализуется как проблема машинного обучения, несмотря на что, будучи нелогичным к компьютеру ученого.
>>798395 >ты всерьез считаешь, что ведешь серьезный диалог с кем-либо? Для серьезного диалога нужно чтобы оппонент что-то понимал в предмете. Этого я не вижу, поэтому говорить можно только о серьезном монологе.
>>798432 >Три аксиомы технического анализа >Движения цен на рынке учитывают всю информацию >Согласно этой аксиоме вся информация, влияющая на цену товара, уже учтена в самой цене и объёме торгов и нет необходимости отдельно изучать зависимость цены от политических, экономических и прочих факторов. Достаточно сосредоточиться на изучении динамики цены/объёма и получить информацию о наиболее вероятном развитии рынка. Согласно этому постулату, анализ новостей вообще не имеет смысла. Но, тем не менее, он проводится многими. Значит, меня интересует именно фундаментальныйанализ?
>>798447 Если ты сделаешь фундаментальный анализ в виде, пригодном для использования в алгоритмах машинного обучения, его можно и совместить с техническим. Как представить новости и т.п. в виде набора векторов? Тут надо смотреть в сторону латентного семантического анализа (LSA), ящитаю. Я немного думал в этом направлении, но решил, что особого смысла в этом нет, т.к. колебания показателей (цен, объемов, показания индикаторов и т.п.) отражают в т.ч. и новости, как и написано в твоей пасте.
Заебись, mlp и была с обратным распространением ошибки как в последней главе, а я целый день убил на то, чтобы понять, как эта хуета работает, заебись.
>>798553 Да. >>798543 Лол, короче задрочил все формулы, решил переписать уже имеющуюся нейроночку, начал тыкаться, сверять, а там уже все правильно, ну заебись.
>>798556 > Да. Хм, я не читал ничего из ОП-поста, но помню вузовский курс по НС и прочёл несколько статей по генетическим алгоритмам, и мне кажется что ничего сложного в этом нет. Я сильно заблуждаюсь?
>>798582 >Хм, я не читал ничего из ОП-поста, но помню вузовский курс по НС и прочёл несколько статей по генетическим алгоритмам, и мне кажется что ничего сложного в этом нет. Ну а ты попробуй.
>>798790 Если мои предположения подтвердятся, то я буду глупо себя чуствовать потому что вложил время в проверку очевидного. Если не подтвердятся, то потому что ошибался.
Есть 3d уровни из игры, представляющий собой обычные текстовики с перечисленными объектами, их свойствами и положением (грубо говоря).
Цель, используя нейросети поиграться со всеми этими объектами. Создавать уровни на основе других уровней, применять стиль одного уровня к форме другого, ну и всё такое прочее.
Какой тут лучше всего взять язык, фреймворки, библиотеки? Ну и если кто шарит в теме нейросетей, можете дать общих советов?
>>799018 Нейросети надо показать цели. Видишь ли, нейросеть - это аппроксиматор функции, она с некоторой ошибкой будет делать то, что ты от нее потребуешь. Если ты хочешь, чтобы она перемещала кирпичики - то можно дать ей форму и она как-нибудь заполнит пространство. Можешь попробовать сделать так, чтобы нейросеть из твоих набросков понимала, как уровень устанавливать. Но фантазировать нейронная сеть не умеет, она не геймдизайнер, ты можешь ей выставить требования к чему-либо и она по ним построит.
Аноны, а кто юзал нейронную сеть в анализе поиска пути? Мне интересно написать аркадку для начала, где нейронная сеть будет на 2д карте на технике бороться с людьми. И я не знаю, как сеть реализовать, тут ведь несколько подходов, но в основном все же будет зависеть от скорости, положения. Я могу применить оценочный алгоритм? То есть хочу, чтобы сеть выбирала наилучшее из положений и запоминала его, используя наиболее часто, прямо как люди, лол. Кстати, такое где было реализовано?
>>799159 Не умеет, это никакая не фантазия, нейронная сеть ищет элемент на 1-й картинке, который соответствует элементу на второй и перемещает его. >>799164 Это другой подход, тебе для твоих карт нужны некоторые принципы.
>>799159 Это не фантазии, а поиск и усиление по выбранным свойствам. Обычная машинная работа без привлечения сознания, фантазирует лишь оператор, выбирая как настраивать эту машину.
>>799171 Хотя по идее распределение приоритета можно выделить тоже нейронной сети, верно? То-есть, если при подходящих условиях выстрелить по 5 точкам лучше, чем по 1, хоть и вероятность попасть - меньше, то машина так и сделает, верно?
>>799169 >>799170 Вы типа знаете как на самом деле работает фантазия и в чем ее "биологическая" сущность? Может быть это и есть фантазирование, просто для такой небольшой машины она несколько примитивна. Кто знает до чего доберутся нейросети.
>>799178 Знаем, фантазия работает вовсе не так, у человека в голове есть подобный алгоритм, но никаким боком к фантазии он не относится. Нейросеть может написать лучший сценарий для аниме из всех, что ты видел в текущем жанре. Но нового жанра она не создаст.
>>799180 Хотя нейронная сеть может кое-чему научиться. Если бы мы могли наблюдать за полным выбросом эндорфинов и реакции у людей, то ничего не запрещает нейронной сети оценивать все точно так же, как и людям.
>>799180 Любая новая идея, придуманная человеком - комбинация уже известных идей. Это всегда так и по другому не может работать; человек не может оперировать тем, что он никогда не видел. Например: как выглядит иная вселенная, не подобная нашей? Хуй знает. Она может выглядеть так, как мы и не представляем, и никогда не сможем представить. Единственное что мы можем - это только отталкиваясь от идей нашей вселенной видоизменить их каким-то образом и как бы выдумать другую вселенную, якобы не такую как у нас.
>>799186 >комбинация уже известных идей А это хоть и правда, но число таких комбинаций бесконечно, ибо в мире уже дохуя всего, чего в природе и во вселенной ты не найдешь.
>>799188 >К этому алгоритму это не относится. >нейронная сеть ищет элемент на 1-й картинке, который соответствует элементу на второй >Это не фантазии, а поиск и усиление по выбранным свойствам >>799189 >число таких комбинаций бесконечно В этом и суть творчества/изобретательства, поиск каких-то особенных деталей в изначальном образе, которые при композиции с другими деталями/идеями дадут что-то новое.
>>799195 Под такое определение творчества подходит вообще любой перебор данных. Этот алгоритм просто сопоставляет элемент с 1-й картинки с элементом со 2-й. Для творчества у него нету оценочного восприятия, например, как появится - так и будем говорить о реальном творчестве.
>>799215 Ну, правда еще можно научить ее классифицировать оценки критиков по критериям и прочему дерьму и суметь в перебор классов, тогда уже может выйти нечто более интересное.
>>799237 >наверное надо всё таки C++ Если юзаешь какой-то фреймворк, то бывает можно вообще питон юзать, на нем по сути просто пишешь скрипт для прогона сетки, а сама сетка, например, на плюсах написана. Примерно так происходит в Caffe. Про другие фреймворки/движки не знаю, но их целая куча есть.
Вкатился в арчик. В шапке написано: Во-первых, вам нужна любая unix-based система. На Windows возможно запустить нижеперечисленное, но ждите пердолева с настройкой и неодобрительных взглядов анонимуса. Кроме того, в компаниях, так или иначе связанных с разработкой йоба-ПО и machine learningом, Linux/OS X является стандартом. Привыкайте.
Со вторым пунктом всё понятно. Поясните за первый. Ну, поставил бы я себе студию или QtCreator без проблем и вкатывался бы в сабж под Windows. В чём была бы проблема?
Поставил CodeLite. Сижу читаю первую книжку из шапки с переводчиком Google.
(Так-то у меня ещё были причины ставить линукс, но вот тут поясните..)
>>800020 Продвинутые люди используют движки и фреймворки, в которых рутина уже сделана за них. А они в свою очередь разрабатывались как раз под линухами и тестировались под ними же.
Аноны, что-то я иду дальше по книге и уже перестаю вкуривать суть, можно ли пропустить всякий линейный дискриминантный анализ, если я хочу использовать только нейроночки для своих задач? Ну совсем мне неинтересна вся эта хуйня про анализ данных, ибо нинужно. А то мне кажется, что я изучаю хоть и полезную хуйню, но мне она совсем не нужна.
Тред #2: https://arhivach.org/thread/170611/
Тред #3: https://arhivach.org/thread/179539/
Тред #4: https://arhivach.org/thread/185385/
Machine Learning 101:
1. Introduction to Statistical Learning ( http://www-bcf.usc.edu/~gareth/ISL/ISLR%20Sixth%20Printing.pdf )
Читается легко, неплохая разминка перед ESL
2. Pattern Recognition and Machine Learning, Bishop.
3. Bayesian Methods for Hackers. Введение в байесовские методы, годно.
4. http://neuralnetworksanddeeplearning.com
Введение в нейронные сеточки для самых маленьких. Написано простым английским.
5. https://yandexdataschool.ru/edu-process/courses - базовые курсы ШАДа.
Machine Learning Advanced
1. Elements of Statistical Learning (http://statweb.stanford.edu/~tibs/ElemStatLearn/printings/ESLII_print10.pdf )
Сложность - 9 из 10. Шутки в сторону, можно читать годами. Если вы сможете полностью проработать эту книгу и прорешать упражнения, обязательно свяжитесь со мной - у меня найдется работа для вас.
2. Optimization for Machine Learning. Edited by Suvrit Sra, Sebastian Nowozin and Stephen J. Wright, MIT Press, 2012.
Иногда from sklearn.linear_model import LogisticRegression перестает работать и тогда нужно все переписать. Оптимизация квадратичных приближений на больших объемах данных, разреженные модели, суррогатные оптимизации - вот это все тут есть.
3. http://www.cs.nyu.edu/~mohri/mlbook/
Как ESL, только слегка по-проще. Попробуйте, может зайти.
Дальше вас ждет дикий и необузданный мир. Два маяка https://vk.com/deeplearning и http://deeplearning.net/reading-list/ осветят дорогу: это списки литературы и обзоры статей для прощупывания пульса индустрии.
яп
1. http://julialang.org/
2. https://www.microsoft.com/en-us/research/project/infernet/
3. https://www.r-project.org/
4. питухон и так все знают
Misc
1. Telegram: @techsparks
Подкаст про всякие гик-штуки.
F.A.Q
По мотивам предыдущего треда.
Эти ваши книжки стоят овер 9000 рублей, как быть?
http://libgen.io
Книги хорошо, но с чего начать практический вкат?
Во-первых, вам нужна любая unix-based система. На Windows возможно запустить нижеперечисленное, но ждите пердолева с настройкой и неодобрительных взглядов анонимуса. Кроме того, в компаниях, так или иначе связанных с разработкой йоба-ПО и machine learningом, Linux/OS X является стандартом. Привыкайте.
Во-вторых, определитесь с языком. Python и C++ наиболее мейнстримовые инструменты, с ними вы без еды не останетесь. Есть еще R, на котором пацаны живут статистикой и анальными пакетами. Некоторые инструменты являются языко-независимыми (Vowpal Vabbit, XGBoost), но обвязывать их вы все равно будете из какой-либо среды.
На Java разработано много production-ready инструментов для бигдаты и если вы угораете по терабайтам данных, то имеет смысл посмотреть в её сторону. Впрочем, лучше это делать уже потом, когда прийдет осознание потребностей.
В-третих, выбирайте себе задачу. Что угодно: распознать качпу, обнаружить ботов по логам, найти раковых больных. Список можно посмотреть, например, на kaggle.com. После чего приступаете к решению выбранной задачи.
Не прийдется ли мне потом с таким наборищем знаний идти в макдак работать?
Несмотря на хайп вокруг ML, далеко не во всех IT компания есть необходимость в ML и понимание круга задач, которые можно решить этими методами. Но поверьте, в 2016 компетентный специалист будет востребован. В России потребителями ваших знаний могут стать: Яндекс, Mail.ru, Вконтакте, Rambler, Касперский, Билайн, Связной, ABBYY, Хуавэй. В биоинформатике есть определенный спрос, можно поскролить http://blastim.ru
Здорово, но я так и не понял чем же вы занимаетесь в IT компаниях?
Попытаюсь ответить со своей колокольни и сразу хочу предупредить, что это едва ли консенсуальное мнение.
ML-специалист - это такое зонтичное определение для человека, способного увидеть проблему, выгрепать кучу логов и данных, посмотреть на них, придумать решение проблемы и врезать это решение его в продакшн. По сути, это кодер, решающий не чисто технические, а, в некотором роде, человеческие проблемы.
Имхо, мы все же остаемся в первую очередь разработчиками.
Но ведь есть Machine Learning per se, чем он занимается?
Действительно есть. Одаренная прослойка людей изобретает новые методы, но это правильнее называть просто математикой. Сейчас пищей для ума являются нейронные сети и их возможные архитектуры, но даже они двигаются рука об руку с практикой.
Что такое TensorFlow?
TensorFlow - часть гуглового инструмента для перемножения тензоров и оптимизации функционалов. Часть - потому что важные куски типа параллелизации еще не выкачены в паблик. Если вам все ещё непонятно что это, значит это вам и не нужно, сириусли. Google перестарался с рекламой и теперь люди думают, что TF - это серебряная пуля и затычка для каждой бочки. До TF был Theano, который выполнял свою работу не хуже. И, в отличии от TF, он уже находится в стабильной фазе.