Список дедовских книг для серьёзных людей: Vladimir N. Vapnik "The Nature of Statistical Learning Theory" Trevor Hastie et al. "The Elements of Statistical Learning" Christopher M. Bishop "Pattern Recognition and Machine Learning"
Напоминание ньюфагам: персептроны и прочий мусор серидины прошлого века действительно не работает на серьёзных задачах
Так бля. Пацаны, нужна помощь ньюфагу полному. Знаю все необходимую матбазу из шапки. Умею немного в плюсы, знаю чуть-чуть теории из алгоритмов на больших объемах данных(т.е. получить что-то из огромной базы с высокой вероятностью), типа кластеризации или работы с разряженными матрицами. Рассказывали что-то про распарарллеливание и как это должно работать в хадупе, но ничего прикладного так и не сделали. Все, что умею мне нравится. Расскажите, куда катиться с такими начальными(в смысле мне это нравится) и куда не стоит. Хотелось бы чего-нубидь сложного и не с курсеры. Заранее спасибо за любой ответ отличающийся от >катиться к хуям
>>1162379 > куда катиться с такими начальными Душить змею, десу. В смысле, питон учить. И матрицы никто не разряжает. Их делают более рЕдкими. От этого они становятся разреженными.
>>1162392 А после питона то что? Алсо он мне не очень нравится, если для дело надо, то конечно, но просто так его учить не тянет. А про разреженные спасибо, мне тоже казалось, что так правильно, но я решил, что неправильно запомнил.
>>1162357 (OP) >сиридины Блять, как же я так проебался. >>1162379 У тебя очень широкий вопрос. Погугли, какие задачи дип лёрнинг решает, выбери интересную, книжку из шапки почитай, потом найди список свежих пейперов по теме и реализуй методы из них. >>1162425 В России скорее всего нет. Т.е. если ты чисто машобом хочешь, то нет.
>>1162426 Ну чувак на таком уровне, где геометрия сливается с математикой, и одним словом это можно назвать логика. Человеческая логика сейчас находится на уровне Перельмана. Именно так мы сейчас осмысливаем предметы вокруг себя.
>>1162443 >логика Я занимаюсь логикой и это очень далеко от диффуренциальных уравнений. Логика скорее похожа на самую слабую в смысле ограничений на объекты алгебру, но не более. >>1162497 Видеоуроки и платить еще за это предлагают. >>1162707 Еще раз, это вводные, чтобы объяснить что мне нравится, а что не особо. И что именно начинать на курсере то? Насколько я понял, то, что я описал это не машоб а просто работа с большими объемами информации. Или я не прав?
>>1162743 У тебя типичный вопрос из серии что мне делать со своей жизнью. Он не имеет смысла, как и твоя жизнь. Че хочешь, то и делай. Хочешь поступай на пхд, хочешь пускай krokodil по вене.
>>1162758 >статистика, r, julia >scala @ spark, clojure @ storm\onyx >катиться - в шад Спасибо, но это же все технологии или вообще языки, а статистику я вроде более менее знаю. В шад же меня не возьмут, да и в этом треде о нем нелестно отзывались. Да и там нужно выбрать одно из трех направлений, а в этом то вся проблема и заключается. А по поводу курсеры я так понял, там в зависимости от курса либо плата за сертификат, либо плата за сам курс, есть триальная 7дневная версия, но все не то. И в основном там видеоуроки в этих самых курсах, по крайней мере в тех, что я видел.
>>1162357 (OP) Как мне обучить нейросеть играть например в герои 6 не хуже человека, чтобы по тактике рвал, какую библиотеку скачать как начать обучения сети?
>>1162934 это очень сложно. Я думаю почти невозможно. Для начала нужно распилить игру. найти то место которое отвечает за инпут. Переделать инпут с мышки на процесс, в котором крутится нейронка. Дальше найти место которое отвечает за оутпут, в смысле то которое стоит перед оутпутом на видяху. Потому что там совсем мрак. Понять рендеры каких объектов ты видишь. Сделать мап этих обьектов в нейронку. Дальше нейронка запомианет паттерны движения этих объектов и учится. Проще конечно зареверсить движок, найти файлы которые отвечают за игровую механику, замапить их в нейронку. Потом обученная нейронка мапит свои оутпуты в апиху игры. но если ты такое сделаешь, можешь претендовать на нобелевскую премию в области нейросетей.
>>1162945 Наркоман? К какому-нибудь openai universe можно при делать любой вывод на экран и любые действия с клавой, мышкой итд. Там даже в примерах используются обычные игры, никто их не ковыряет. Другой вопрос, что научить нейроночку чему-то сложнее арканоида в домашних условиях вряд ли реально, мощности не те. Нужно как минимум поднимать всю эту ебулду на каком-нибудь амазоновском инстансе.
Секундочку. почему абсолютно дегенеративное обсуждение про нейроночки так оживлено идет, а мой резонный вопрос про деление машоба и вообще науки об информации, до сих пор без ответа? Я же точно помню, что оп первых тредов не был идиотом. Что произошло?
>>1163019 Во-первых, твой вопрос плохо сформулирован, и я не понимаю о чем он. Во-вторых, это место именно для дегенеративного обсуждения про нейроночки. За сириус бизнесом иди в реддит.
Чего-то за последний год прогресс как-то не прогрессирует, вы не находите? Все возятся с GAN и reinforcement learning, только результатов особых не видно.
>>1163880 Хайп спадает, теперь ждать пока деды от машинлернинга не придумают очередную хуитку, позволяющую повысить качество распознавания негров на 0,5%. >>1163937 >опубликован ТОП30 самых впечатляющих проектов по машинному обучению за прошедший год (v.2018) Единственная интересная вещь - fasttext, это да, очень круто. Остальное - распознавание негров а-ля пикрелейтед, нескучное автоматическое разрисовывание котиков в стиле Пикассо и анимешных девочек, костыли к слесарьплову, морфинг лошадей в зебр, изменение голоса и прочее говно из жопы.
>>1163019 >почему абсолютно дегенеративное обсуждение про нейроночки так оживлено идет, а мой резонный вопрос про деление машоба и вообще науки об информации, до сих пор без ответа? Единственное адекватное деление машоба на два стула было сделано еще в 60-е - асимптотически-оптимальные и конечно-оптимальные алгоритмы. Первый случай - нейроночки и прочее говнишко, над которым можно прыгать с бубном до японской пасхи в надежде, что десяток дополнительных видюх, новая борода из более модного барбершопа и совместное камлание на коворкинге приведет к увеличению качества еще на 0,05%. Второй случай - алгоритмы на основе теории статистического обучения.
Dropout это всего лишь навсего выбывший [из школы] (недоучка), но сообразительный малый Over-fitting это же теремок (сказка такая) или даже украинское "рукавичка", этот принцип дети учат очень рано
Всё дабы запутать простых людей. Даже думаю, что дети машинное обучение будут понимать намного проще. Примерно как со следующей задачей:
На книжной полке рядом стоят два тома Пушкина: первый и второй. Страницы каждого тома имеют вместе толщину 2 см, а обложка –– каждая –– 2 мм. Червь прогрыз (перпендикулярно страницам) от первой страницы первого тома до последней страницы второго тома. Какой путь он прогрыз?
Эту задача дети решают за 0,(9) секунды, а профессора за длинную эпоху тяжелых размышлений.
>>1164084 >Over-fitting это же теремок (сказка такая) или даже украинское "рукавичка", этот принцип дети учат очень рано Ну и в чем связь? >>1164102 >>1164107 3.98мм
>>1164107 Лол, ну так дело в том что мелкие пидорахи узко мыслят, поэтому и быстрее. Я сам обосрался, признаю, но как минимум взрослый человек если подумает над этой задачей больше 5 секунд поймет что книги могут стоять по разному, могут быть какие-то манякниги где первая страница в конце, маетматики могут еще в своих неэвклидовых гемоетриях позалипать. В общем хуита пример. И с теремком тоже. Специальные термины нужны т.к. им задают гораздо более узкий и точный смысл чем имеют привычные обывательске понятия, и потом дауны делают ошики из за недопонимания т.к. каждый понимает "манятеремок" или "сообразительный, но выбывший малый" по разному, либо делают акценты на разные характеристи этих мысленных объектов.
Короче очередной кукаерк в стиле "чейто энти ваши ученые там делают, лушеб коз выпасли или корову подоили, только деньхи наши тратят, дармоеды"
>>1164119 А ты небось думал что нейроночки и машобчик это так, месяцок позалипал на курсах\книжках и можно на легке хуячить все те охуительные идеи, которые ты придерживал до изобретения ии?
>>1164181 Нет, всякие phd десятилетиями этим занимаются и в лучем случае могут побить какой-нибудь порог точности на 5-10% в имажнете или мнисте. Любая крупная контора типа фейсбука, гугла, даже мейл ру имеют целые ресерч отделы, где лучшие в этом направлении люди за крупную зарплату каждодневно пытаются сделать что-то подобное. И тут такой вкатывается васян с двача после курсеры и мутит свой морфер изменятель голоса, бота для героев и прочих самореплецирующихся киборгов математиков.
>>1164193 >как только без нейронок голоса раньше меняли Питч двигали, гармоник добавляли, да хорус. Это детский лепет. Автотюн незаметный до сих пор не могут сделать, епта. >>1164194 >Есть куча синтезаторов голоса Начнем с того, что они такое говно, что даже глухой отличит их от живого человека. Под изменением голоса я понимаю качественный синтез, имитацию голоса конкретного человека, работу с интонацией.
>>1163972 >Единственное адекватное деление машоба на два стула было сделано еще в 60-е - асимптотически-оптимальные и конечно-оптимальные алгоритмы А можно поподробнее про второе? По каким запросам гуглить книги, что изучать.
>>1164209 Вот не пиздел бы, для всяких английских и испанских есть много годных синтезаторов, просто языки простые. Работа с интонацией заключается в определение семантики текста, а это NLP, там нейронки сосут в первую очередь.
>>1164199 Ты мыслишь ограниченно. >>1164182 Любым ЯП не получится сделать голос конкретного человека, например.>>1164209 >Под изменением голоса я понимаю качественный синтез, имитацию голоса конкретного человека Не, это перебор. Я еще в теорию кодирования голоса не вникал, но мне кажется, что просто покрутить параметры (с помощью ГА, например) для создания похожего голоса недостаточно, т.к. параметры будут единые для всего потока. Нейронка же, возможно, сможет адапитроваться к определенным патернам изменения голоса.
>>1164422 >Ты мыслишь ограниченно. Лол, ну давай, неограниченный наш, не забывай хорошо учиться и заполнять дневник, чтобы когда обосрешься с первой тренировкой нейроночки(если вообще до этого осилишь) хоть аттестат был.
>>1164493 Самое интересное, что в фантастических фильмах про будущее, голос искусственного интеллекта и суперкомпьютера сейчас изображает живая баба. А актеры, озвучивающие симпсонов, получают миллионы. Интересно, начнут ли они песдеть про авторские права и персональные данные, когда нейросетки их порешают? когда-нибудь
Мужики, назрел животрепещущий вопрос. Учусь в маге в неплохом тех.вузе нерезиновой, решил пошароебиться по собесам, есть оффер на неплохую стартовую должность аналитика в полуайти компании(небезызвестная платежная система для школьников и наркоманов) с возможностью дальнейшего переката в мл. Мат.база минимальная есть, прохожу курсы, вся хуйня. Собсна, вопрос: стоит ли бросать нахуй магу, если я уверен, что по специальности работать не буду, или же продолжить учебу ради корки магистра?
>>1164677 Траблос в том, что у меня уже 3 знакомых ( 2 мидла-кодера и один джун дс) ща работают в яндексе вообще без каких-либо корок, поэтому и назревает вопрос. А проебывать 2 года на хуйню, которой заниматься я не особо хочу, - вообще не радужная перспектива
>>1164691 Дак бля это будет магистр по ядерной физике и технологиям, от которых прост пиздец воротит. Насчет мля - не уверен, можно ж проходить курсы вышки, например
>>1164693 С чего такая уверенность? Один хуй корка будет не по компьютер сайнсу, а если наработать опыта и сдавать языковые экзы - думаю, шансов все равно больше
>>1164702 Наводнение рольнул. Не самый плохой вариант, чо. Шансы есть в течение месяца-двух. Изменение климата? Ахаах, выдумки китайцев, да мы же только выиграем, засеем тундру, ой чтбульбульбульбульбуль
При всем неуважении к рашке, не стоит забывать, что рашка точнее совок - родина настоящего машобчика. На гнилом жопаде одно шаманство, индусы и хипстеры-педерасты.
>>1164909 Ты подумал о настоящих причинах своей нездоровой тяги к мертвым, похороненным теориям? Думай. Думай об этом постоянно. Каждый раз, когда отвлечешься от мыслей об этом, возвращайся к ним, как только заметишь это. С утра проснулся - первая мысль: почему же я некрофил? Перед сном вспоминай, размышляй о тлене, разложении, почему тебя именно это привлекает. Когда ешь, визуализируй сгнившую, червивую, иссохшую еду перед тобой, задавайся вопросом, почему тебе это нравится. Отныне все твои мысли заняты только этим, ничто другое не имеет значения. Представляй себе свою собственную смерть, при каких обстоятельсвах она произойдет, как скоро.
>>1164947 > Ты подумал о настоящих причинах своей нездоровой тяги к мертвым, похороненным теориям? Лол, мань, статистикал лернинг живее любых нейроночек. Бустинг тот же.
Поцоны, есть ли тут кто-нибудь с опытом работы с нейросетками, применяемыми для создания диалоговых систем? Интересует следующая хуйня - можно ли, зная архитектуру, примерно понять, какими статистиками вроде объёма, частот слов, n-gram или ещё какой-нибудь хуйни должен обладать корпус диалогов для нормального обучения? Работаю в индустрии, делаю чатботов, а т.к датасетов на русском нихуя нет и данные мы сами собираем со всяких твиттеров, качество их хуй знает какое. Статей на эту тему не нашёл.
>>1165466 По вопросу ничего не могу сказать, но в ответ спрошу: а что такое чатботы, особенно в индустрии? Вообще что они делают, для чего там нейроночки? Я слышал в реддите про это, но только какое-то невнятное бормотание. Никаких примеров этого я не видел. В жизни, например, сталкивался с чатботом на техподдержке моего сотового провайдера, было довольно круто, мой вопрос был решен. Но там банальное дерево диалога, как в РПГ из 70-х годов, только сверху прикручено распознавание и синтез голоса. Последние два, видимо, на нейроночках, но это из другой области вещи, как я понял. Чатботы же это именно про содержание текста?
>>1165553 В моем случае чисто дерево диалога с выбором из вариантов. Единственное, можно было выбор сделать голосом, например что-то вроде: вам нужна техподдержка, проверка баланса или настройка голосовой почты? Говоришь техподдержка. Раньше надо было кнопками выбирать, очень неудобно. Но это явно не про те чатботы, о которых идет речь в посте выше. Или это они и есть? Тогда зачем там корпус твитов нужен?
>>1165554 >Или это они и есть? Тогда зачем там корпус твитов нужен? ну смотри, тех поддержка там все просто, все вероятные проблемы захардкожены, если бот типа болталки там можно собрать ответы на типичные фразы из инета/твитора, если добвить к ней некую реакцию получится ассистент. все это симуляция ии, хотя может выглядеть впечатляющи.
>>1165556 Что за бот типа болталки? Я совершенно не в теме, представления не имею, о чем идет речь. Это просто боты, отвечающие рандомными фразами, как Элиза из 66-го? Тогда какое отношение они имеют к индустрии? Или это индустрия развлечений какая-то, тогда где это все можно посмотреть? И что это за ассистент? Если это как сири в айфоне, то там все точно так же захардкожено по ключевикам. Шаг влево, шаг вправо и "here is what I found on the web on your request", тупо в гугл забивает твой запрос.
>>1165561 Имхо сири на 100% по ключевикам работает, т.е. это проверь почту кто-то там забил в БД руками, посмотрев список частых запросов, которые не удалось распознать другими ключевиками. Ну на самом деле я не знаю, может там и правда пупир нейтронные касмические квантовые технологии на блохчейне, но по тупости эта система в точности равна БД ключевых слов.
>>1165565 >что тот анон имел в виду. наверное. тому анону пора спускаться с небес и хотя бы понять, что даже синтаксический разбор предложения является нерешенной задачей в nlp, не говоря уж о семантике, а под капотам цири и алис скрывается паровой двигатель.
>>1165566 Да ведь на хабре все это как раз и описано. Там два варианта использования нейроночек: классификация текста по категориям, для чего глубокий разбор не нужен (по факту там просто несколько шаблонов распознается, т.е. можно сказать что нейроночка автоматически подбирает нужные ключевые фразы), и режим болталки где нет никаких гарантий, т.е. это классическая Элиза на модных технологиях. То, что нейроночка и близко не делает никакого разбора текста, их не особо волнует, оно им и не нужно. Конечно, сказать что у нас тут ПОМОЩНИК С ИИ НА НЕЙРОНОЧКАХ, или Я ДЕЛАЛ ДИАЛОГОВЫЙ ИИ В ИНДУСТРИИ - бесценно. Ну да хрен с ними, пусть делают. Все равно в НЛП застой уже лет 30, хуже не будет.
>>1165580 > Это ты про king - man + woman = queen? См. выше. Что там смотреть? Мнение очередного школьца? Алгебраические операции на пространствах векторных представлений текста уровня корпусов common crawl даёт огромные возможности, если уметь что-то кроме кукареканья. >>1165579 > не работоспособное говно Когда в голове прошлогоднее говнишко, то да. Но это проблема не word2vec, разумеется.
>>1165564 Если нужно сделать что-то, что будет. 1. Генерировать разнообразные ответы 2. Воспринимать больше, чем набор заготовленных фраз. То нейронки с этим справляются лучше других алгоритмов. Ещё нейросети являются расширяемым фреймворком, то есть решение проблемы часто получается не очень костыльным, например здесь - https://arxiv.org/abs/1603.06155 чуваки просто и эффективно решают проблему несвязности разных ответов друг с другом.
>>1165876 > Какой уровень знаний нужен для книги Vladimir N. Vapnik "The Nature of Statistical Learning Theory"? Матан, теорвер, линейная алгебра, основы вариационного исчисления. > И какой уровень будет после? Если осилишь - просветление. Поймешь, почему нынешний мейнстрим в машобе это путь в никуда и почему все кроме конечно-оптимальных алгоритмов в машобе это чистое шаманство.
>>1166114 > Будете на Байкалах нейроночки тренировать На луньсунях, ты хотел сказать. Это же пижженые китайские процы longson. А так, сразу было ясно, для чего гебне цензура. AWS интересен тем, что позволяет с common crawl работать, нейроночки нахуй не нужны.
>>1166417 Отлично работает (только если предложение не использует необычный синтаксис) (обычный синтаксис используют 3% предложений) (отлично значит приемлемо) (то есть результат можно отличить от выхлопа ГСЧ) (статистическая значимость отличия от ГСЧ 0.1 на выборке из 100000000 предложений)
Поясните за марковские процессы. Выглядит как какой-то математический наеб. Вот пишут что у них главное свойство в том, что чтобы перейти в следующий стейт достаточно знать текущий, типа они не зависят от истории. Но разве я не могу свести любой не марковский процесс к марковсому тупо записывая все что нужно в стейт? Т.е. если мне например нужно знать какую-то хуитку, которая была три состояния назад, я просто беру и в стейте держу дополнительную величину "хуйнянейм три стейта назад", в конце концов я же могу тупо всю историю состояний записывать в текущий стейт. Тогда нахуя они вообще нужны?
>>1167309 Можешь. Именно так и делают, если это возможно. Но это бывает невозможно реализовать на практике. Например, полное состояние может быть слишком большим, или содержать переменные к которым у тебя нет доступа.
>>1167404 Чего так нагрелся то? Агрессивный вапникофорсер eto ti? Во-первых, да не могу, иначе бы не спрашивал. Во-вторых ессно меня интересует то, что можно реализовать на компьютере, иначе я бы спрашивал у чистопетухов в матаче, а не в зекаче.
Читаю книжку по RL, там часто делается на это акцент, вот и стало интересно. Писали бы уже про какую-нибудь markov representation, а так только запутывает.
>>1167477 >меня интересует то, что можно реализовать на компьютере, иначе я бы спрашивал у чистопетухов в матаче, Они грязнопетухи на самом деле. То, что нельзя реализовать на кудахтере или что то же самое, в виде ментальных построений, нельзя реализовать никак. Это не математика, а аутизм.
>>1167563 Лучше сразу какой-нибудь прувер разбирай, непонятное догугливай. Когда будешь думать что понял, пробуй на нем написать что-нибудь из Барендрегта, "lambda calculi with types".
>>1166589 отлично - не хуже других NLP задач, где выше 90+% даже на простых задачах не получают/до недавнего времени не получали (типа несчастного определения частей речи)
и не очень понимаю проблем с нейронками и синтаксисом, задача почти не отличается от любых других задач, например, Named entity recognition и тд, да и проблемы те же самые
Решил написать простенькую нейроночку на питоне https://paste.ofcode.org/HyCrw8uaKDQPYGkjXAVGu9 Столкнулся с тем что было бы очень удобно получать элемент А по индексу A[index] если А - list, а не ndarray (index тоже list). Как-нибудь так можно?
>>1168016 есть опыт с скашечкой? я еще зелэный. ну вот хуй знает. типа надо подготовить трейнинг сет, например чтобы его таргеты были в виде вектора вот прикладываю скрин с туториала, 'y' это таргетсы из трейнинг сета
>>1168020 >>1168020 спасибо. То есть не обязательно чтоб таргетсы были по возрастающей? Просто у меня не правильно сработало. правда таргетсы были не 1, 2, 3 а соотвественно 650, 400, 820 и модель только одну 820 правильно предсказала.. а остальных цифр которые она выдала вообще не было в таргетсах, что типа 118 и 500
>>1168026 >>1168028 Блин, я вообще не очень понимаю что у тебя там с таргетсами. Разберись минимально и станет понятно. Ничего там возрастающим и убывающим быть не должно. У тебя данные обычно представлены матрицей mXn, т.е. m - количество строк - это все твои наблюдения т.е. к примеру если это фильмы то там будет строка со всеми характеристиками фильма типа название, жанр, длительность и т.д., n - количетство столбцов - это какие-то характеристики твоих данных т.е. в случае с фильмом первый столбец название, второй жанр, третий длительность и т.д. Если тебе к примеру нужно предсказать жанр(т.е. в твоем тренировочном наборе этот столбец будет, а в тестово нет), ты берешь все остальные столбцы как x т.е. будет матрица mX(n - 1), а столбец y - это жанр mX1. Главное чтобы они у тебя соответсвтвовали твоему иксу т.е. пятый элемент твоего столбца y относился к пятой строке матрицы X. Со своим датасетом можешь делать что хочешь, главное чтобы сохранялось это соответсвие. А когда ты наконец читанешь про numpy и pandas то поймешь что делать это элементарно и почему твой вопрос такое дно.
>>1168039 >ты берешь все остальные столбцы как x т.е. будет матрица mX(n - 1), а столбец y - это жанр mX1 спасибо, пояснил за регрешн, спасибо! но я пока на классификаторе сижу, до регрешина ещё не дошёл. Теперь вижу что те же яица вид сбоку как говорится
>>1168052 А ты не думал сперва почитать о том что ты делаешь? На заметку, если у тебя классификатор выдает в результате классы которых не было в трейнинг сете >>1168026 , то это внезапный регрессор.
Привет. Про tf. У меня есть матрица M (m x n) и массив целых чисел a длины k, такой что сумма по его элементам равна m. Мне нужно получить тензор T (k x p x n), следующим образом. Возьмем из M a[0] векторов, положим в первую строчку T, остальное дозабьем нулями, до размера p, потом возьмем ещё a[1] следующих элементов из M и так далее.
>>1168072 Я тебе даже больше скажу, тут не только написано сложновато, это вообще довольно сложные вещи, если ты рассчитываешь на что-то большее чем использование моделей из sklearn. Вероятно, тебе придется вообще всесторонне повышать уровень знаний, а твои вопросы и манера речи свидетельствуют о том что это будет долгий и тернистый путь. Зачем это тебе?
>>1168078 нет кроме моделей из sklearn ничего делать не собираюсь. хочу помаксимум с ними разобраться и использовать на благо своей макакской работы. Ну и для себя хочу попробовать написать AI который будет играть со мной в спейсфутбол. ну а на счёт манеры речи. да я неаккуратно пишу чёт ленюсь, извиняй
>>1168083 Я вовсе не агрессивен. Я максимально дружелюбен. Я засыпаю улыбаясь и обняв подушку, потому что представляю как нахожу друзей в тредике, с которыми обмениваюсь статьями и идеями, разбираю практические проблемы и штурмую PhD.
А можно ли представить нейронную в сеть в виде аналитической функции? Ну то есть в виде символьной записи. Ведь если в w1x1 + w2x2 + ... подставить вместо иксов функции второго слоя, и так далее, то можно выйти на символьную запись, не?
>>1167886 Более-менее привел код к рабочему виду, https://paste.ofcode.org/YZeyPTuk4wckpu9eU3G5k6 вроде оно иногда работает, но как-то странно Например на digits результаты сильно разные и иногда очень хуевые, если указать достаточно большой градиентный шаг (больше чем 0.01) то на digits обычно оно вообще нихуя не сходится. Как можно бороться со всем этим?
>>1168126 >если указать достаточно большой градиентный шаг (больше чем 0.01) >вообще нихуя не сходится >как можно бороться со всем этим Ставить меньше, очевидно. Если не сходится, значит перелетаешь минимум постоянно. Шаг 0.001 и меньше это норма так-то.
>>1168117 > Еще бы посмотреть на этот аналитический вид в общем случае (для сети из N слоев с Mi блоков в каждом слое). А то что-то не могу найти. Сам нарисуй схему и по ней выпиши, хуле ты. У прости господи Вапника перцептрон и SVM так описаны, да и вообще такая нотация на каждом шагу встречается.
>>1168225 >такая нотация на каждом шагу встречается Прочитал всю фундаментальную книжку из шапки и не нашел такой встречающейся на каждом шагу нотации.
>>1168226 > Прочитал всю фундаментальную книжку из шапки и не нашел такой встречающейся на каждом шагу нотации. Книжка в шапке хипстерская, фундаментальность там рядом не стояла. Поди даже не написано, зачем в нейроночках "нейроны", для чего вообще вход разбивать именно таким образом, из каких соображений это следует и что даёт.
Объясните на пальцах как делать imitation learning. Никак не могу понять, в лекции от беркеле ебут обобщенными формулами без особой конкретики. В пейперах еще больше математической дичи.
Вот допустим есть простая игра где бот двигается в 2d плоскости и может стрелять в других врагов. Наиграл я пару сотен матчей и насобирал данных, что дальше то?
Может кто подсказать. Есть 14 временных рядов, значения которых в реальном времени с определенной частотой приходит на сервер (т.е. каждые N мс на серваке получаю массив (1,14) ). Стоит задача сделать классификатор, который сможет распознать в определенном промежутке этих временных рядов какой-то класс. То есть классы описываются не одной строкой (1,14), а определенным набором строк, например (64,14). Выборка для обучения есть (записи). Я сейчас экспериментирую с MLP и LSTM сетями. Но вот не знаю как лучше делать свертку матрицы (64,14) в какую нибудь (1,M). Сейчас я считаю разные статистики для каждого ряда окна (там дисперсию, эксцесс и т.д.) и формирую вектор статистик, который и подаю на вход нейронке. Но результаты не очень. Есть ли какие нибудь другие методы/либы, которые позволят свернуть это двухмерное окно в одномерный вектор? И вообще для такой задачи какие нейронные сети лучше использовать? Стоит ли ковырять LSTM вообще?
>>1168307 LSTM это особая атмосфера, с ними надо пару лет плотно позаниматься, чтобы начать понимать как их эффективно использовать. Для твоей задачи, если тебя устроит ограниченное окно, рекомендую банальную 1д свертку по времени.
>>1168307 Вот я о чем и говорю. Вы прочитаете про полторы хипстерские нейроночки, и не понимая зачем они вообще, пытаетесь засунуть их везде. У тебя задача на кластеризацию. Вот есть у тебя фичи, полученные из 14 временных рядов в пределах окна из 64 значений. Казалось бы, собирай их в один вектор и подсовывай карте Кохонена, построенной на исторических данных, где ты можешь отметить векторы фич, ассоциированных с искомыми событиями. Все, дальше смотришь насколько близко тестовый вектор фич проецируется к нужному тебе. Потом, если у тебя есть помеченные наборы таких фич, можно их попробовать разделить на классы с помощью SVM, м.б этого будет достаточно. Зачем тут lstm вообще, ты же пол не болгаркой подметаешь.
>>1168318 Линейные классификаторы я тоже использовал, но они отработали хуже чем тот же двухслойный MLP. Как на сырых рядах, так и на статистических фичах. Скорее всего, это из-за данных, потому что у них очень неявное разделение на классы. Поэтому не факт, что мое решение с подсчетом статистических фич для окон явно описывает класс. Но нейронка в пределах 80-85% смогла распознать. Но хотелось бы конечно результат получше.
>>1168328 > Линейные классификаторы я тоже использовал, но они отработали хуже чем тот же двухслойный MLP. Но я про линейные классификаторы ничего не говорил. Как вариант, можешь ещё бустинг навернуть.
Здравствуйте, я туп как пробка, учился на тройки, но поступил в магистратуру, чтобы не сесть на бутылку. У меня следующий косяк - мне задали здание в магистратуре сделать так, чтобы с помощью регрессионных методов машинного обучения я взял точки и соединил их корреляционной линией. Как на приложенной картинке. Я взял sklearn и скормил ему точки, а в ответ он выдал мне требуемую линию. Все счастливы, все довольны.
Но потом меня обоссали и сказали, что регрессионные методы уже давно известны, ты втёр нам старьё, Вася! Делай тоже самое, но только нейронными сетями! БЫСТРА! ОДНА СУТКА ВРЕМЕНИ ТЕБЕ!
ПОЭТОМУ, ПОДСКАЖИТЕ, ПОЖАЛУЙСТА, КНИГУ НА РУССКОМ, ГДЕ ОПИСАН КАКОЙ-НИБУДЬ ФРЕЙМВОРК ИЛИ БИБЛИОТЕКА С НЕЙРОННЫМИ СЕТЯМИ, ЧТОБЫ МОЖНО БЫЛО ЕЙ СКОРМИТЬ ТОЧКИ И ЧТОБЫ НЕЙРОННАЯ СЕТЬ НАРИСОВАЛА КОРРЕЛЯЦИОННУЮ ЛИНИЮ
Прошу книгу на русском, так как осталась одна сутка. Пока ищу, не могу найти. Вроде, задачу регрессии не принято нейронными сетями решать.
Ну или хотя бы подскажите библиотеку, которая может сделать регрессию нейронными сетями
>>1168374 >А зачем? Да и действительно. А потом читари таких книжек приходят сюда и говорят, "а что нейроночку можно в виде функции записать?!?!", "а что, нейроночка может в регрессию????" итд.
>>1168373 вкатился в sklearn, сейчас перекатываюсь на TesorFlow. Подкупило макакское комьюнити впику научному sklearn. И то что это гугл, который умеет в макакское API
>>1168375 Вместо чтобы выебываться и шизить, быстрее бы привел запись нейронки в виде функции, если уж в твоих совкодрочерских книжках это на каждом шагу.
>>1168416 >в твоих совкодрочерских книжках это на каждом шагу. Это вообще в принципе на каждом шагу, почти в любой книжке или статье в тему. Соотв-но: однослойный перцептрон, многослойный перцептрон, SVM в виде двуслойной сети.
>>1168421 А теперь то же без реккурентной формы для отдельного нейрона. Для всей сети, как чисто аналитическую функцию от входов и весов для N-слойного перцептрона.
>>1168435 И? Подставляй нужные функции активации и сколько там тебе нужно слоев и нейронов в каждом слое и обрящешь. Можешь даже на бумаге посчитать. Это же общая формулировка, для любого случая. >>1168437 Пиздец. Значок суммы впервые видят, какие вам нейроночки, таблицу умножения выучите хоть...
>>1168447 Ты хочешь частный, конкретный случай для конкретной архитектуры сети и конкретных функций активации. В этой книжке http://b-ok.xyz/s/?q=AE6CE64B978DCC3E4C0623C70D6D5973&e=1 похожие примеры разбираются, она даже в шапке была когда-то по моему совету, но выпилили. Я пользуясь случаем, еще раз посоветую эту книжку.
>>1168334 Да пусть сидит уже, он стал своим, домашним. Как старый таракан. Все лучше чем времена нашествия дебильных шизиков из /ссы, бесконечно толкущих воду в ступе стенами словесного поноса про ишкуштвеный нтеллехт.
Что я могу сказать - читайте нормальную литературу, никакие хипстерские высеры а-ля то что в шапке вам никаких конкретных знаний по этой теме не дадут. И не надо кукарекать, что все типа как устарело, нихуя там не устарело, все, что есть сейчас - это продолжение работ тех самых дидов из 50-х (Арнольд, Колмогоров, Розенблатт), 60-х (Вапник) итд. Самые новомодные сверточные нейроночки - это просто фантазии на тему неокогнитрона + все того же перцептрона, ничего другого там нет и не было. И хуй вы поймете, как все это работает, если не знакомы с основами.
>>1168466 А по моему книга из шапки вполне так, если разобраться во всем что там написано то знать будешь куда больше большинства экспертов из этого треда.
>>1168476 Поддвачну. Тем более есть хороший русский перевод. Пока всякие недоснобы воротят нос, мол "мам, скажи им, читать на русском это никрута", другие ведут себя адекватно и вникают в интересные вещи.
>>1168477 Русек то тут причем? И это не снобство, одну книжку перевели, 1000 других не переведут. Про пейперы я вообще молчу + будешь путаться в терминологии + реддиты, стекоферфловы, кворы где можно задать вопрос или почитать развернутый ответ тебе тоже не доступны. Вкатываться в датасаенс не зная английского край тупости. Даже русскоязычные курсы постоянно ссылаются на англоязычные термины и статьи
>>1162617 плюсую. сам сперва купил видеокарту для этого. занялся обучением. хватает проца с головой. даже достаточно сложные на мой взгляд модели требуют минут десять. а карта манит себе спокойно
>>1168851 Проведи исследование, собери данные миллионов мужчин, затем данные о том кому дают тянки и кому не дают, найди наиболее оптимальный вектор развития к локальному экстремуму, далее вкладывай время-деньги пока не начнут давать.
>>1168853 Проанализировав данные о 12 826 322 мужчинах мне удалось доказать что в локальном максимуме, достижимом из моего текущего состояния, вероятность того что мне даст тянка не превышает q.7E-7
>>1168466 Арнольд, Колмогоров сложно пишут. Ты видел доказательство работы нейроночек у Колмогорова? Там очень не просто. Ну только если ты не выпускник матфака. Вапника не читал, не знаю, новерное все же стоит почитать.
boosting vs bagging?Аноним06/04/18 Птн 17:02:06#257№1169180
Няши, есть ли где-то исследования о: boosting vs bagging? Не является ли bagging более продвинутым алгоритмом (хотя он и проще) хотя бы потому что он не может уйти в редкие цепочки вида (A>N1)&(B<N2)&(B>=N3)&(...) ? Покрывает ли boosting всё алгебраическое множество, когда положительные результаты в диаметрально противоположных углах пространства? Например (A>0.95)&(B>0.95) и (A<0.05)&(B<0.05) ?
>>1169493 Я знаю, и это давно известно. Собственно, это очевидно из практики, даже если не углубляться в детали теории. Но моя ссылка вообще не об этом. Я люблю рассматривать радикально новые модели, а-ля всякие NTM и spiking networks, все-таки просто нейроночки уже мейнстрим и немного наскучили (хотя DNC и прочее еще нужно дорабатывать). У этого чувака прям совсем другая идея, интересно же. Хотелось бы статью обсудить с кем-то серьезно.
>>1169505 > Я люблю рассматривать радикально новые модели, а-ля всякие NTM и spiking networks, Все равно эти модели либо конечно-оптимальны либо асимптотически- оптимальны. Даже если там нахуевертили столько всего, что vc- размерность для этой мутоты заебешься высчитывать. С этих двух стульев машоб не слезет, кроме них там и нет ничего. То, что на датасете типа белого шума SVM не работает, ебать Америку открыли. Будто что-то другое сработает в условиях чистого рандома. Эти все "радикально новые модели" от хипстеров ничего нового не несут, максимум - взгляд с другой стороны на общеизвестные вещи.
Алсо, теория Вапника - не святое писание, а одна из возможных теорий, на базе которой можно строить алгоритмы машоба не вслепую. Естественно, могут быть созданы и другие, вот только пока ни у кого мозгов не хватило.
а вот предположим, я натренировал классификатор в sklearn на 200 семплах и юзаю его для предсказаний что это за цеке. Можно ли его теперь дотренировывать ещё (дальше)? мимокрокодил
>>1169525 >Все равно эти модели либо конечно-оптимальны либо асимптотически- оптимальны то есть не имеет смысл что то придумывать? имеет смысл брать модели из коробки как есть, и натренировывать их на датасетах под конкретную задачу (пиксели или лексика) та?
>>1169678 > то есть не имеет смысл что то придумывать? Придумывать можно по-разному. Нахуярить слоёв, непойми чего, а потом утверждать что Вапник хуй, потому что vc- размерность твоей ебулды подсчитать невозможно, это в любом случае не путь здорового человека. Алгоритм должен выводиться из математической постановки задачи обучения, а не из интуитивных представлений о том, "как нада".
>>1169686 правильно ли я понял, что в sklearn есть дохера разных оценителей для всех задач с которыми сталкивается машоб и нужно просто выбрать один из этих об]ектов и обучить его и и nакой естимитор обучится мгновенно. Нежели собрать свою модель из слоёв во всяких хипстерских машоблибах типа Keras?
>>1170123 > Ответ математика - правильный, но бесполезный Умный дохуя? Ответь полезнее. Нейроночки это изначально математика, тебе ответ пчеловода нужен?
Двощ. Объясни, почему если пидарашки такие дохуя умные, в этом списке нет хвалёного МФТИ или Бауманки со своей опенсорсной либой для бекенда нейросетей? Вот то-то поэтому хр выёбваться уже
>>1170168 >Пистех - та ещё помойка Обоснуй, пожалуйста. Я слышал, что в Физтехе зубодробительно сложно учиться, но при этом дают очень хорошую физмат-подготовку. Что там?
>>1170398 Погуглил учебный план по калькулусу, посмотрел пдфы. Что там такого сверхъестественного? Я как-то смотрел программу пистеха, там примерно то же было. мимо примат СПбГУ
>>1170398 Там лекции по матану наконец-то превратили в интерактивный порно квест, в котором теория преподается в виде стендап комедий с Джорждем Карлином как высказался >>1164951 ?
>>1170464 Я про видеолекции(калькулус, теорвер, линал, диффуры), после них можно свободно наворачивать любую современную книгу в которой предпологается знание соответствующего раздела матана. После постсовковых шаражек ты разве что можешь наворачивать ненужные упражнения на листочках, а понимания зачем все это нужно 0.
>>1170779 от книг зависит. У нас например тоже есть бодрые книги 60х годов. В то время у нас был расцвет науки. А потом в 80-е всё пришло в упадок и утонуло.
>>1170740 Ок, посмотрел пару лекций. Там просто приводят примерчики типа "используется в физике", "почему производная - скорость" и "что такое двойной интеграл". Ну охуеть, как будто в России преподы такого не дают. Где обещанная магия-то? Я и до этого мог современные книжки читать. недавно, например, по теории управления и теории информации книжки из нулевых читал
Я хотел взять ту же задачу, распараллелить её и выполнять в полотора-джва раза быстрее на нескольких ядрах. Я стал искать как же в Tensorflow/Keras делается параллельность на нескольких ядрах и нихрена не нашёл, нашёл только про подрубание GPU видеокарты.
Насколько мне показалось, в Tensorflow/Keras автоматически используется параллельность ядер.
НО! Узнать об этом точно у меня не получается, так как у меня всего два ядра. Я взял PyCharm в котором у меня код программы на Tensorflow/Keras, я и в диспетчере задач отрубил второе ядро, оставив только одно. И эта программа на Tensorflow/Keras выполнилась вдвое медленнее.
ПОЭТОМУ Я ХОЧУ СПРОСИТЬ, ПРАВИЛЬНО ЛИ Я ПОНЯЛ, ЧТО В ПРОГРАММЕ НА Tensorflow/Keras АВТОМАТИЧЕСКИ ИСПОЛЬЗУЮТСЯ ВСЕ ДОСТУПНЫЕ ЯДРА ДЛЯ УСКОРЕНИЯ НЕЙРОННОЙ СЕТИ?
>>1170882 Некоторые операции распараллеливаются, например умножение больших матриц. Но вообще ТФ это про ГПУ, там над ЦПУ производительностью никто не парится особо.
>>1171615 > Может ли быть так, чтобы был проёбан этап тренировки, но оставался этап воспроизведения? Нет. Тренировка это настройка параметров функции, аппроксимирующей зависимости выходов датасета от входов. Перед тренировкой эти значения инициализируются какими-либо числами, но без тренировки ответ сети никак не будет связан с текущим датасетом.
>>1171782 >>1171640 Сорре, парни, вопрос обновился: Воспроизведение рандома или пустоты это всё равно воспроизведение чего-то. Хотелось бы понять возможно ли оставить голую сущность "воспроизведение" без чего-то ещё.
>>1171789 Ты не зная что такое аппроксимация пытаешься родить вопрос "можно ли получить вывод из нейронки которая не обучалась"?. Ответ - можно. Подавай что-то на вход, после умножения на случайно сгенерированные веса ты получишь свой мусор на выход. Если копать еще глубже в "голую сущность", то можно вывести веса девственной нейронки, и это будет тот же мусор. Простая нейронка это результат умножения массивов, никаких лишних сущностей нет. Я просто надеюсь что ты еще учишься в средней школе и пытаешься найти свой путь в жизни, поэтому не тыкаю мордой в то какой ты биомусор.
>>1171850 Нет, парень, я спрашиваю как спрашиваю. Вопрос про воспроизведение. Голое воспроизведение без подразумеваемых в нём данных вообще. Продублировал вопрос также в философаче https://2ch.hk/ph/res/71196.html#71997
>>1171874 Если ты спрашиваешь так что тебя никто не может понять, то проблема на твоей стороне, учись формулировать мысли. Ты зачем-то упомянул нейронки в треде про машинное обучение, а оказывается имел ввиду абстрактные сущности. Если вопрос сугубо философский, можно ли воспроизводить пустоту, то ты ошибся тредом. Если вопрос научно-прикладной, то голым воспроизведением является функция воспроизведения, можешь не передавать в нее никаких данных, в контексте программы она является чистым и незамутненным воспроизведением.
>>1171874 Я другой анон, но тоже не могу вкурить твой вопрос. На вход нейронки подается некий сигнал, на выход - преобразованный сигнал. То, как он будет преобразован, зависит от исследователя, от того, как он построит сеть и как обучит ее. Всё. Если не настраивать нейронку под задачу, то она будет выдавать что-то рандомное и никому нахуй не нужное.
>>1171874 > Голое воспроизведение без подразумеваемых в нём данных вообще. Это тебе в лямбда исчисление. Там как раз такая нотация - голая абстракция функции любой сложности и структуры, в т.ч нейроночки конечно. Классика чтива - Барендрегт. Но ты не осилишь.
Сап нейронач Собираюсь вкатываться в тему не бейте лучше обоссыте, но есть проблема: у меня достаточно старый комп, к тому же видюха от амд, пробовал запускать примеры на керасе, все жутко тормозит, тензорфлоу естественно не считает на гпу. А я как раз собирался избавляться от десктопа в пользу ноутбука. И тут встал вопрос: стоит ли тратить дополнительные 20-30к за ноут с 1060? На буржуйских сайтах везде пишут, что практичнее будет купить ноут подешевле, разницу потратить на облако от Амазона. Но мне кажется, что это какой-то булшит: облако у Амазона стоит по несколько баксов в час, т.е. разницы в цене мне хватит примерно на 200-300 часов. Это же не очень много?
Вообще, на практике, насколько мне хватит 1060 для учебных заданий и своих проектов?
>>1172315 15 лет пользуюсь только ноутами, причем лежа на кровати. Никакого хондроза, шея говорит малацца, позвоночник воскрес. И никогда не вернусь на стационарный комп. Пиздец блять, 3018 год на дворе, а всё пользуются стационарными гробами.
Насколько вообще вкатившийся ценен на рынке труда? У меня есть 2 года опыта серверной разработки на сях, щас ботаю мл по специализации яндекса, потом планирую нейронок навернуть и быдлопроектик свой навелосипедить. Но я ведь просто червь-пидор по сравнению с ребятами из ШАД например, или даже просто профильных кафедр МФТИ/МГУ/ВШЭ. Кому я нужен то? Сам физик изи МИФИ, c матаном +- дружу.
>>1172387 >2 года опыта серверной разработки на сях >вкатывается в машоб Ты ведь понимаешь, что перекатываешься из условного НИИ жопоебли в песочницу к детям с синдромом дауна, чтобы жрать вместе с ними песок?
Анончик, как на основании истории прослушивания что рекомендовать?
user->items -> black box -> user -> must_to_see_items
Предполагаю что для начала нужно пользователей как то кластеризовать по схожести их историй просмотра, а затем из максимально близко расположенного выдавать пользователю рекомендации.
На ум приходит k-mean или там knn, но они как то слабо подходят, объектов для рекомендации порядка 100к.
>>1172506 SOM ежжи. Оно очень хорошо классифицирует музло по соотв. фичам, может само, без учителя, распознавать жанры. Примеры есть в этой книжке: http://gen.lib.rus.ec/book/index.php?md5=6F2C8128E2ADE1815E1967AEB57AA351 Analysing the Similarity of Album Art with Self-Organising Maps....Pages 357-366 Где-то видел даже готовый софт для автоматической экстракции фич из папок с мп3 в виде, пригодном для самоорганизующихся карт, сейчас нагуглить не могу. Но это вот они http://www.ifs.tuwien.ac.at/dm/somtoolbox/ делали. Суть рекомендаций в случае карт Кохонена - рекомендовать близкорасположенные к истории просмотра пейсни и даже жанры.
>>1172319 >Никакого хондроза, шея говорит малацца Сколько тебе лет, сынок? И что ты на кровати с ноутом делаешь? Дрочишь что ли? Люди вообще-то работают.
>>1172109 Ноут "все в одном" - хуевая идея. Надо сделать так: иметь СЕРВЕР, который дома будет пахать 24х7 и обучать нейронки. И любой ноут, через который ты будешь подключаться к серверу в режиме терминала - даже через банальный тимвьювер. При чем за сервер вполне может сойти твой днищекомп, оперативы только докупить. У меня, например, в компе 2012 года пашет 1080Ti и пашет примерно на 30% медленнее, чем его сосед с современным процессором и SSD. То есть на уровне 1080, а разница в цене между 1080 и 1080Ti - 10 тысяч рублей. То есть особой выгоды мне менять мой комп 2012 года на более новый нет. Но тот комп у меня довольно неплохой, шестиядреный феном с кучей оперативы и хорошим кулером процессора, не знаю, что у тебя там за дно.
Теперь, почему такой ноут - хуевая идея. 1. Это хуевое вложение средств, потому что они слабо апгрейдятся. Ну купишь ты 1060, через 2 года эта 1060 будет дном днищенским, в десктопе ты ее продашь, купишь новую и вставишь в тот же самый десктоп, а в ноуте что? Ноут только продавать и покупать новый. 2. Ноуты аналогичного железа сильно дороже. 3 У геймерских ноутов (а это будет геймерский ноут) проблемы с охлаждением, они не расчитаны работать 24х7 и что-нибудь у тебя поплавится, поведет от температуры, а еще есть шанс проблем с питанием. Если только не брать убер-ноут с оверпрайсом - а ноуты и так оверпрайснуты по сравнению с десктопным железом. 4. Допустим тебе надо куда-то поехать и ты берешь ноут с собой... В итоге ты стопоришь обучение, или едешь с печкой в портфеле. 5. Ноут больше 13" и временем работы меньше 8 часов - зашквар для колхозников и гастарбайтеров, видюхи, мощной понятное дело, в таком ноуте быть не может.
Что касается амазона, то стоит он не несколько баксов, а 20-30 центов за спот, но они уже очень тормозные и поэтому невыгодны (есть и более быстрые инстансы, но они дороже). Это или на недельку поиграться, или для бизнеса которому нужно запускать нейронки для комнсьюмера и они не хотят тратиться на свою серверную. А так очень невыгодно, и также неудобно, чем работа на своей машине.
>>1162357 (OP) Может тут кто знает. ставлю rpy2. Для этого поставил R последний, х64. У директории r\bin есть config.sh, который задействуется при установке R.exe CMD config, но выдаётся ошибка "sh не является программой/командой". В интернете пишут, что может быть проблема в прописанных путях в переменных окружения, но у меня вроде всё ок.
------------- C:\PROGRA~1\R\R-34~1.4\bin\R CMD config --ldflags "sh" не является внутренней или внешней командой, исполняемой программой или пакетным файлом. Traceback (most recent call last): File "C:\Python35\Scripts\rpy2-2.9.2\setup.py", line 374, in <module> ri_ext = getRinterface_ext() File "C:\Python35\Scripts\rpy2-2.9.2\setup.py", line 269, in getRinterface_ext ldf = shlex.split(' '.join(rexec.cmd_config('--ldflags'))) File "C:\Python35\Scripts\rpy2-2.9.2\setup.py", line 222, in cmd_config universal_newlines = True) File "C:\Python35\lib\subprocess.py", line 629, in check_output kwargs).stdout File "C:\Python35\lib\subprocess.py", line 711, in run output=stdout, stderr=stderr) subprocess.CalledProcessError: Command '('C:\\PROGRA~1\\R\\R-34~1.4\\bin\\R', 'CMD', 'config', '--ldflags')' returned non-zero exit status 1 -------------------
>>1172625 > выдаётся ошибка "sh не является программой/командой". Поди под глинукс собрано. Попробуй вместо простого R мокрософтовский r open. Как вариант, поставь пакет из исходников или вручную - скачай и распакуй в каталог libs.
>>1172665 Не дешевле. Возьмем комп на базе 1080TI. Сам тиай стоит тысяч 60, комп к нему - полноценный комп с 16 гб памяти, ssd (в т.ч. для свопа) и нормальным блоком питания, в днищекорпусе, может быть с похилее амд процессором - 40 тысяч. Итого за 100К ты имеешь dedicated машину, в которую при желании ты можешь добавить второй GPU. Жрать этот комп будет ватт 500, то есть 2 рубля в час, или 3 цента.
По AWS цены на инстансы on demand: G2.2x: 0.05 (сильно подешевели однако) G3.4x: 1.14 P2.1x: 0.9 P3.2x: 3.06
По перформансу имеем следующие коэффициенты из-за разной скорости: G2: 0.1 G3: 0.4 P2: 0.2 P3*: 1.0 Со звездочкой, потому что у P3 быстрее в 2 раза на float16, но трейнинг float16 это отдельная сложная тема.
Переводим в деньги: G2 - 0.5 в час, G3 - 2.85 в час, P2 - 4.5 в час, P3 - 3.06 в час.
А комп с тиаем нам достался за $1500. Значит после того, как он отработает 3000 часов (потратив 100 баксов на электричество), он будет работать в плюс. При этом заменять он будет 10 инстансов G2. Остальные же инстансы просто не конкуренты, P3 например вырабатывает цену нашего компа за каких-то 500 часов, то есть 20 дней, P2 и G3 просто нахуй не нужны за такие деньги.
То есть если ты планируешь нагрузить свой тиай больше, чем на 3000 часов, то амазон тебе менее выгоден, чем купить прекрасную машину, которая будет жужжать у тебя на балконе и с 0 мс доступом. А если ты вставишь шикарный тиай в свой днищепека, то и 2000 часов хватит.
Но - это был вопрос денег. А еще есть вопрос удобства. И одна быстрая карточка лучше, чем десять медленных. Во-первых, в нее влезет нейронка потолще, с батчсайзом побольше. Во-вторых, какая-нибудь байесова оптимизация гиперпараметров на ней будет более эффективной - вместо того, чтобы ждать 6 часов и получить 6 хуевых результатов, ты каждый час будешь уточнять свою модель. А у меня например модель тренируется часа 3, на g2 придется ждать сутки? Хуйня неудобная.
Короче амазон или для инференса на сервере (неизвестно сколько юзеров будет завтра и дешевые g2 подходят), для стартапов, которые не хотят вкладываться в железо до раунда инвестиций, для тех, кто кому результат нужен вчера. А для нормального исследователя-контрактора выгоднее иметь 2-4 топовых консьюмерских жпу, соединенных в локальную сеть и с синхронизацией файлов на них.
>>1172726 Ты вообще не о том. Если тебе надо натренировать 1000 моделей для подбора гиперпараметров (это примерно минимум для средней статьи в 2к 18), то у тебя есть три стула: - обсчитывать это 15 лет на своем домашнем пека; - собрать кластер за 100 миллионов долларов, что займет 3 года работы, и потом натренировать модели на нем за неделю; - натренировать за неделю на амазоне, заплатив несколько тысяч грина.
>>1172734 Я о том, просто ты туповатый какой-то и говоришь какие-то цифры с потолка. Какие нахуй 15 лет, какие нахуй 100 миллионов долларов. Берем инстанс P3. На $10000 ты можешь купить 3000 часов. В неделе 168 часов, то есть ты купишь на эти деньги 3000/168=18 инстансов.
Второй стул - это потратить $10000 на 4 компа с парой 1080TI. В этом случае ты будешь считать две с половиной недели. Не 15 лет, а две недели. Только в первом случае ты проебешь $10000 навсегда, а во втором будешь иметь 4 компа с двумя 1080TI. На которых, внезапно, свою следующую статью вообще бесплатно будешь считать. 5 компов - это не какой-то там высранный тобой кластер за 100 миллионов долларов, это меньше школьного компьютерного класса.
Твоя логика это что-то типа "квартиры за 6 млн. дорого, лучше буду снимать такую квартиру за 250 тысяч в месяц - это выгодно."
>>1172387 > Но я ведь просто червь-пидор по сравнению с ребятами из ШАД например, или даже просто профильных кафедр МФТИ/МГУ/ВШЭ. Кому я нужен то? Поверь, ты сильно переоцениваешь их.
Здравствуйте. У меня задача регрессии. Я хочу на нейронной сети сделать регрессию с двумя входными переменными. То есть по двум входным переменным предсказывать третью.
В начале я пытаюсь на Keras сделать регрессию с одной входной переменной, например, для синуса или параболы. Всё получается отлично программа предсказывает по точкам правильно и синус и параболу.
Дальше я увеличиваю размерность входных данных для двух переменных. И получается как на картинке. Вместо правильной синей линии программа строит очень грубую усредненную прямую.
ПОДСКАЖИТЕ, ПОЖАЛУЙСТА, КАК НА АНГЛИЙСКОМ ПРАВИЛЬНО ЗАГУГЛИТЬ ПРИМЕР НА Keras, ЧТОБЫ ТАМ ВМЕСТО РЕГРЕССИИ С ОДНОЙ ВХОДНОЙ ПЕРЕМЕННОЙ БЫЛО ДВЕ ВХОДНЫХ, КАК У МЕНЯ НА КАРТИНКЕ?
>>1173397 Иными словами, я имею ввиду, чтобы было не точь в точь как у меня, а только лишь чтобы было три переменные как на картинке. Какие-нибудь 'x1','x2' и третья которую предсказывают 'y'.
Здравствуйте. У меня задача регрессии. Я хочу на нейронной сети сделать регрессию с двумя входными переменными. То есть по двум независимым переменным предсказывать третью.
В начале я пытаюсь на Keras сделать регрессию с одной независимой переменной 'x' и второй переменной, которую предсказывают 'y', например, для синуса или параболы y=f(x). Всё получается отлично программа предсказывает по точкам правильно и синус и параболу.
Дальше я увеличиваю размерность входных данных для двух переменных z=f(x,y). И получается как на картинке. Вместо правильной зеленой линии программа строит очень грубую усредненную прямую - синюю линию.
ПОДСКАЖИТЕ, ПОЖАЛУЙСТА, КАК НА АНГЛИЙСКОМ ПРАВИЛЬНО НАПИСАТЬ ЗАПРОС ДЛЯ ГУГЛА, ЧТОБЫ НАЙТИ ПРИМЕР НА Keras С ДВУМЯ НЕЗАВИСИМЫМИ ПЕРЕМЕННЫМИ И С ТРЕТЬЕЙ ПЕРЕМЕННОЙ, КОТОРУЮ ПРЕДСКАЗЫВАЮТ?
>>1173403 >Я хочу Истинно говорят: источник всех человеческих страданий в желаниях. Стоит лишь тебе правильно сделать регрессию с двумя переменными, и ты тут же захочешь регрессию с тремя. Очевидно, это никогда не закончится, и ты проведешь жизнь в бесплодных страданиях, плача и стеная на форумах о том, как твоя регрессия строит неправильные линии. Избавление от страданий придет к тебе только после осознания, что регрессия тебе не нужна.
>>1173414 Это да, я изменил размерность массива х. Просто я для наглядности объяснил, что нужно вторую независимую переменную добавить z=f(x,y) вместо y=f(x).
А так да, лучше было бы объяснить, что нужно y=f(x1,x2) вместо y=f(x1)
>>1173449 Графики осей под подписей - молодец, ведь истинный специалист по ДЛ сразу поймет что у тебя там за хуйня. Если лосс растет при падении lr, значит lr падает недостаточно быстро.
>>1173403 >>1173414 Вопрос решился, не знаю, что конкретно помогло, но я уменьшил скорость обучения, уменьшил decay и наделал много слоев. И всё сразу по красоте сошлось.
lr - learning rate, да лосс по-русски называется функция потерь >>1173614 Decay (то есть спад скорости обучения со временем) по логике надо бы увеличить.
>>1173682 Ты какую-то совсем азбуку ML спрашиваешь. Математические функции ничего не делают, они вечны и находятся в пространстве идей. Все, что мы делаем, это подбираем с помощью оптимизатора ее параметры так, чтобы она была чем меньше, тем лучше. Допустим у тебя есть набор чисел x1, x2, x3, и y1, y2, y3 и ты хочешь найти такие k и b чтобы f(x)=kx+b было равно y как можно точнее для всех трех случаев. Это случится, когда мы подберем такие k и b, что loss(k, b) = (y1 - (kx1+b))^2+(y2 - (kx2+b))^2+(y3 - (kx3+b))^2 будет минимальным. Вот это и называется функцией потерь. Именно у нее мы найдем градиент dloss/dk и dloss/db и будем минимизировать. Как можешь заметить, чем меньше у тебя лосс, тем лучше ты моделируешь, чем больше лосс, тем хуже. С нейронками происходит то же самое, только вместо f(x) с параметрами k и b и скалярами x и y, у нас нейронка с миллиардами параметров, а вместо xi и yi - тренировочный датасет. Если лосс-функция минимизирует квадраты разности входа и выхода, это называется l2-loss, если модули разности - l1-loss, можно еще минимизировать еще как-то. И туда же обычно включают разного рода регуляризирующие ограничения на параметры.
>>1173736 > С нейронками происходит то же самое, только вместо f(x) с параметрами k и b и скалярами x и y, у нас нейронка с миллиардами параметров, а вместо xi и yi - тренировочный датасет. То же самое и в нейрон очках ваших, каждый нейрон считает частную функцию от двух аргументов, а через их суперпозицию получается полная функция от многих аргументов. И лосс так же можно посчитать частный от двух аргументов, а потом общий, через суперпозицию.
спасибо аноны >нейрон считает частную функцию от двух аргументов разве не просто складывает значения от базы двух нейронов предыдущего слоя помноженную на соответсвенно вес своего синопсиса? не ругайтесь позязя я есе мааенький а что такое суперпозиция?
Я делаю спонтанный сплит датасета трейн - 80/тест - 10/вал - 10 и стабильно получаю точность валидационного на 10% выше чем у тестового, насколько это здоровый результат? Вроде ошибок нет, но мне кажется что исходя из самого принципа валидации, точность должна быть близкой к точности тестового сета, так же?
>>1164181 Говорят школьник из из пятого класса нейронки за неделю выучит, это только доктора наук из США считают что нужно образование магистра в информационных технологиях, чтобы изучать эту тему.
>>1164432 >если вообще до этого осилишь Вот вот я уже 5 месяц учу разные алгоритмы и математические правила для нейронных сетей и это всё чтобы только научиться писать нейронки, не говоря о том что я уже два года провёл за программированием. Как только смогу на дваче тред открою с моей нейронкой или вкину в тему.
>>1173877 > Ну и как ты продолжишь последовательность чисел (1 5 9 13 ?) без нейросетей? Смотри, дебилок. Простая линейная регрессия на копеешном китайском калькуляторе, считаем весь твой числовой ряд попарно (х 1, у 5), (х 5, у 9), (х 9, у 13), затем вводим последний пример из твоего числового ряда, 13, получаем предсказанное значение 17. Угадал? И где твой бог теперь? Я ж говорю, вы ебонажки, не зная азы лезете в какой-то диплернинх.
>>1164199 Ой, да не неси хуйни. Эти моченые ученые 30 лет не могли допереть до того, чтобы вместо сигмоида использовать relu. Они с чем только не ебались, машины больцмана, энтропии-хуепии, DBN, а до такой простой вещи не додумались. А потом оказалось, что lenet с relu и дропаутом можно отмасштабировать и натренировать на мощностях, доступных на супермкомьютерах 90-х, и выиграть imagenet. Но для этого должна была случиться одна вещь - появились GPU, которые дали возможность тысячам васянов экспериментировать и пробовать комбинировать простые приемы, которые работают. А моченые ученые выдумывают неработающую хуйню типа капсульных сетей.
В нейронках грамотный датасет решает все. А у ученых такой роскоши нет, если кто-то напишет, что он дописал 10000 примеров к mnist и повысил распознавание цифр до 99.99997%, ему скажут, ну ок, а новизна где, на minst твой метод сосет. А васян может наращивать датасет сколько угодно, поэтому и разработать крутой прикладной продукт.
>>1172387 >бНо я ведь просто червь-пидор по сравнению с ребятами из ШАД например, или даже просто профильных кафедр МФТИ/МГУ/ВШЭ. Кому я нужен то? >Сам физик изи МИФИ, c матаном +- дружу. Пиздец с кем я на борде сижу. Меня в вузе только курсовые строчить немного научили да бумагу марать. Посколько я тогда был тупой ещё не сразу понял что мне пиздец, а потом я начал изучать питон, а потом data science, а сейчас когда я начал изучать machine learning я понимаю что моё образование дно и математику я не фига не знаю, понимаю 50-70% формул в machine learning. Ещё когда посмотрю какие задачи на олимпиадах студенты решают по программированию, то зависть берёт, я без гугла не одну олимпиадную задачу не решу.А у меня iq 108-114, а чувствую себя дауном, обидно.
>>1174038 Ходил как то в ШАД, могу сказать что из МГУ и МФТИ реалли очень умные ребята. Если ты в ПТУ вроде Бауманки ходишь, то да, там тебя научат бумагу марать и чужое говно впаривать.
На реддите поговаривают, что мол диплернинг, как научная область, уже стал больше физики по количеству занятых в ней людей. Всей. Физики. Вместе взятой.
>>1174055 Оно и объяснимо - чтобы накатать статейку по нейроночам, не нужно вообще ничего: взял датасет, накатал на керасе архитектуру от балды, ну и написал любой нужный вывод. Все равно это говно никто проверять и верифицировать не будет. Корчеватель во все поля.
>>1174055 > На реддите поговаривают, что мол диплернинг, как научная область, уже стал больше физики по количеству занятых в ней людей. Всей. Физики. Вместе взятой. И хули толку? Там одни хипстеры, причём ан масс индусы. Поэтому прогресс по-сути зависит от десятка человек типа лекуна. Остальные просто лгбт- балласт.
Насколько реально запилить хуйню, которая бы создавала уровни в 3д игре на основе уже созданных уровней другими людьми? Ну то есть нейросеть обучается на реальных картах и пытается высрать свою.
Если такой возможно, подскажите, куда копать? Может кто-то уже занимается подобными исследованиями?
>>1174132 Ты потратишь гораздо больше времени и сил на обработку данных и нейроночку, чем на то чтобы сделать карты руками. Хотя, что-то простое можно попробовать если ты скинешь мне описание карт таблицами [X, Y, Z, объект в этих координатах] или как-то так, ты лучше знаешь с чем работаешь, ну и конечно тебе нужно будет получив подобную сгенерированную таблицу сконвертировать ее обратно в карту.
тоже нубасный вопрос вот допустим у меня есть битмап как я понимаю нейронка может или сказать является ли этот битмап чем то или не является а может ли она сказать четыре координаты из этого битмапа, что между ними находится что-то, например кот?
>>1174265 В аналоге ЕГЭ через 10 лет будет закон божий, патриотическое воспитание и домострой. Байесовские методы - от лукаваго, в рашке такого не нужно.
>>1174085 Как может прогресс зависеть от лекуна, если он с открытия ленет занимался хуй пойми чем? Прогресс двигает как раз толпа, на arxiv-sanity.com постоянно охуенные результаты от нонеймов. А разгадка простая - отрасль экспоненциально взрывается и всем есть работа. Кроме тебя. Потому что ты тупой.
>>1174289 > Прогресс двигает как раз толпа, на arxiv-sanity.com постоянно охуенные результаты от нонеймов. Ты дурилка картонная просто и не понимаешь что несешь. Толпа никогда и ни в какой области прогресс не двигала. То, что у одной обезьяны из барбершопа результаты случайно вышли на 0.01% лучше, чем у остальных - это не прогресс. Прогресс - это новые парадигмы, алгоритмы, которые меняют облик всей отрасли.
>>1174320 А че, дип лернинг - это какие-то неебацо новые революционные алгоритмы? Да нихуя, просто комбинация из биг даты, возросшей вычислительной мощности и gpu.
>>1174435 >А че, дип лернинг - это какие-то неебацо новые революционные алгоритмы? Ну вообще, да. Даже до самых деревянных глубоких архитектур - стыкованных аутоэнкодеров и машин Больцмана нужно было додуматься. Ни один хипстер этого не сделал, хотя те же машины Больцмана известны с 80-х годов. Сверточные сети тоже никто до Лекуна не придумал, хотя неокогнитроны существовали до него, не говоря о перцептронах и работах Хьюбела и Визеля по структуре зрительной коры кошки (что и легло в основу). Борода не делает мудрецом, это еще в древней Греции понимали. И барбершоп мозгов так же не добавляет.
Здравствуйте, я хочу поиграться с n_jobs в scikit_learn. По умолчанию n_jobs=1, а при n_jobs=2 должно случиться ускорение выполнения линейной регрессии.
Я ставлю n_jobs=1 и код выполняется за 4 секунды. Ставлю n_jobs=2 и код тоже выполняется 4 секунды.
>>1174644 Для дииплернинга тоже нужно оборудование, а еще и датасеты. Вон гугл клепает статьи в промышленных масштабах, а все потому что у них есть и то, и другое. Почему теоретиков в физике достаточно, и сколько достаточно, а в нейроночках недостаточно?
>>1174320 Обезьян из барбершопа ты сам придумал. Дипленингом занимаются ученые, каждый из которых умнее тебя, и таких тысячи человек. Каждый выдумывает свою часть. А те, кого ты называешь, это, в основном, талантливые организаторы, чье имя по этой причине видно на куче статей.
>>1174692 Для дипленинга ничего особенного не нужно, даже на машине за $1500 можно прекрасно работать, а лаборатория для изучения automl будет стоить сраные по научным меркам $100000 - цена одного интерферометра. А в физике просто ничего хорошего и интересного не происходит, одно уныние.
>>1174730 > Обезьян из барбершопа ты сам придумал. Дипленингом занимаются ученые Ты их видел, этих т.н учёных? Хипстеры классические. Я понимаю, что сейчас такая мода ебанутая, но все равно смешно с деградантов. > , каждый из которых умнее тебя, Не умнее, доводилось переписываться в т.ч с топовыми специалистами. Первый раз слышат такие вещи, которые как по мне, каждая вторая собака знает. За пределами очень узкой специализации кругозора вообще 0, да и в своей области шаг влево - шаг вправо и ответ уровня "i have no idea what энныйтермин stands for", даже чисто на уровне загуглить. Ну и т.д.
>>1174033 >30 лет не могли допереть до того, чтобы вместо сигмоида использовать relu Я больше чем уверен, что и в нынешних нейронках еще дохрена путей улучшения. Лет через 10 допрут ну как допрут, случайно получится
>>1174822 >но все равно смешно с деградантов. И в чем заключается деградантство? Это ты похож на бабушку с подъезда или на гопника, которому лишь бы доебаться до внешности. >За пределами очень узкой специализации кругозора вообще 0, да и в своей области шаг влево - шаг вправо и ответ уровня "i have no idea what энныйтермин stands for", даже чисто на уровне загуглить. Ну и т.д. Это показатель уравновешенной личности, которая не боится сказать, что чего-то не знает, и не пытается казаться умнее. А вот когда человек начинает судорожно гуглить, чтобы произвести впечатление - тут начинается хуета.
>>1174824 Не, сейчас уже такого не будет, это было, когда в нейронки никто не верил и ими занимались 1.5 яйцеголовых. Сейчас проблема в другом, открытие может затеряться среди кучи говна. Например https://arxiv.org/abs/1802.05074 - говно или нет? Я попробовал, не сработало. Но мне кажется, что где-то там есть много хорошего.
>>1174835 Ты еще скажи что инсепшен говно. Наука не так работает. Например, я могу спокойно опубликовать 90% своих открытий, которые касаются дл в целом, но не буду публиковать 10% конкретно своей предметной области, чтобы не плодить конкурентов.
>>1174836 >10% конкретно своей предметной области, Тогда 90% нахуй не нужны. Наука в текущем виде это говно и этого говна особенно много в ИИ. Если ты притащил что то из открытого доступа, варианта джва и все они хуевые. >инсепшен В душе не ебу, что это такое
Вы вообще похоже не понимаете разницу между машобчиком как наукой и как макакингом. Ну неужели не очевидно, что применение готового, сколь угодно успешное и инновационное - это макакинг. Машоб как наука - это создание нового, чем занимаются хорошо если человек 20.
>>1174851 Ты тогда и строительство мостов макакингом обзовешь. Хули, сопромат ведь уже изобрели. В машобе есть фундаментальные исследователи, а есть прикладные. И фундаментальные не значит святые, зачастую они страдают соверешенно неудобоваримой хуйней, например, задрачивают свои методы для работы на популярных в науке датасетах. >чем занимаются хорошо если человек 20. Блядь, да открой месячный топ на arxiv-sanity и посмотри количество фамилий. То, что вы как говнари знаете только о существовании 3-4 фамилий говорит больше о вас, чем об отрасли.
>>1174904 >А я продолжу революцию творить. Ох, лол, кто тут у нас. Образованный, революционер. Вот только предыдущий оратор прав, примеров реального прогресса от ноунейм хипстеров нет, поэтому ты их не смог бы привсти, даже если бы захотел. Ты такой же неандерталец, как Карманов. Я вот тоже кое-что пилю на тему машобчика, и даже не имеющего аналогов и реально с собственными разработками, однако я прекрасно понимаю, что я нихуя не творец по сравнению с титанами мысли. А вот у тебя похоже, ЧСВ реально опухло
>>1174906 Так нонейм хипстеров вы придумали. Прогресс как и везде в науке делают работающие в университетах ученые и их далеко не 20 человек, да и эти "20 человек" зачастую работают как хабы, присваивающие в глазах толпы открытия, сделанные внутри их тусовки. А по поводу примеров "реального прогресса" - ты сначала define "реальный прогресс", а то я знаю логическую уловку "ненастоящий шотландец". А еще я знаю то, что многих после открытия перекупает из их нонейм университета гугл, и в итоге ща ты можешь сказать, что "ну вот он в гугле работаит, гугл прогресс!!!", а мне влом участвовать в этом манки-бизнесе. Если тебе это интересно, посмотри любой state of art на данный момент и изучи биографию авторов. Если ты меня на слабо хочешь взять - иди нахуй. И последнее, что я знаю, что качество открытия проверяется временем, поэтому если бы я знал самое важное открытие 2017, допустим, года, я бы не тут с тобой сидел, а продавал бы свой стартап за миллиард долларов.
>>1174692 Прикладников всегда на порядки больше чем фундаменталистов. Тем более учитывая демографический взрыв на планете. Нужно обслуживать потребности толпы.
>>1175061 если ты о каком нибудь V-Ray, то в принципе можно научить нейронку предсказывать отскок луча от поверхностей в общих случаях. Но это будет не рендер а гадание на кофейной гуще. Если шарик стоит тут а свет тут а камера тут. Засовываем в черный ящик, трясём получаем зелёный конус под столом
>>1175076 и что же в этом плохого? Хайп серьёзный. Технологические гиганты за последний год подняли рынок. Работы как правильно тут сказали на всех хватит. У кого есть время, ресурсы и заинтересованность не останется без дела.
ну это как посмотреть. Отскок одного - да. Но можно предсказывать отскок пачки. Денойзить Монтекарло тоже идея понятна. Но это уже больше умный шейдер, хотя без сомнения тоже рендер.
>>1175102 Да предсказывать отскок пачки тоже несложно и без нейронок. Проблема в том, что просчитать честно все равно быстрее. В пачке сколько лучей, ну тысячи, а при рендеренге речь идет как бы не о триллионах. Если денойзить монтекарло, но не по rgb, а добавить depthmap, то должен получиться очень хороший плагин. Напишу боссу об этом...
>>1173489 регрессии плохо работают на картинках (а если и работают, то без сверточек слишком вычислительно сложны), а в картинках основной хайп нейронок + рекурсивные данные и численные ряды (типа звука), а в банках и прочей ерунде и регрессий хватит капитан
>>1175317 СЖВ проблемы в машобчике, лол. Вот я об этом говорю. Ученый - это тот, кто создал word2vec, а бородатые сойбои-куколды со смузи - те, кто пытается вымутить какую-то хуйню, чтобы негров не распознавало как макак, или чтобы в выдаче "she" было выше, чем "he".
>>1175306 >обезьяны Пара точно будет. >резюме Я даже не знаю, что написать. Так и не выяснили до конца, кто хипстер-хуесос, а кто ноуку двигает. Всуну предложение про то, что мощный комплюхтер нужен, если ты собираешься много моделей тренировать, но можно обойтись амазоновскими инстансами, если тебе нейронки только для развлечения/курсовой/етц.
>>1175877 >We conclude that differentiable plasticity may provide a powerful novel approach to the learning-to-learn problem >2018 >уравнения Хебба из позапрошлого века >novel approach Как перестать орать с деградантов? К концу второго десятилетия 21 века хипстеры узнали про уравнение Хебба. Глядишь, лет через 50-70 нечеткую логику для себя откроют, такими-то темпами. Апплодирую стоя, так держать!
>tfw выкладываешь самые интересные статьи, надеясь на обсуждение, но получаешь единственный комментарий от поехавшего дебила, отвечающего на каждый пост ИТТ
>>1176205 И что ты хочешь обсудить? Да, уравнения Хебба - это охуенная тема, и я бы мог написать, что Коско еще в начале 90-х показал 4 возможных варианта таких уравнений, которые можно использовать для чего угодно, от нейроночек до адаптивного настраиваемого поведения агентов в виртуальной реальности. Только какой в этом смысл? Ну открыли эти хипстеры америку, и что? Я там ничего нового не увидел.
>>1176263 >тебе не наука интересна, Науку (настоящую, а не всякое говно из жопы) сливают в усиленном режиме, а вместо науки подсовывают всем смузи. Вот ты знал, что еще в 80-е были разработаны нейросети на основе осциллирующих аутокаталитических реакций типа Белоусова-Жаботинского, только на основе ферментов и т.п. полипептидов? А сейчас, спустя 30 лет, тебе вместо биочипов впаривают видюхи и прочий хлам, искусственно ограничивая использование не самого топового железа, чтобы ни в коем случае не пользовался чем-то дешевле 30-40 косарей. Что и порождает клоунов типа >>1173877 которые про линейную регрессию не слышали, зато твердо веруют, что без нейроночек никуда. Тьфу на вас, дегроды.
>>1176270 Ты сам клоун, точнее фрик. Сколько ты тут лет сидишь уже, и всегда один и тот же паттерн: сейчас открытия говно, а вот говно мамонта тридцатилетней давности - вот там головы были. Ну казалось бы, откопай это самое говно, отмасштабируй результат на GPU, разнеси всех на илсврц. Хотя бы тут идею запостил бы, тебе бы помогли. Однако почему-то ты почему-то продолжаешь токсично комментировать все по одному и тому же паттерну.
>>1176270 очевидно потому что биочипы не работают. Смысл компьюторных вычилений в том что они дают 100 процентов точный результат. соответсвенно принципы работы с бигдатой нельзя делать основной компьютерной архитектурой а лишь вспомогательным инструментом.
>>1162357 (OP) Я в машобе не секу, но по работе нужно просчитать как одна штука во временном ряде коррелирует с другой. Правильно-ли понимаю что если знать заранее что с чем должно коррелировать то именно машинное обучение здесь это overkill?
Какая математика используется? В основном линейная алгебра, теорвер и матстат, базовый матан calculus многих переменных.
Что почитать для вкатывания? http://www.deeplearningbook.org/
В чем практиковаться нубу? http://www.deeplearning.net/tutorial/
Где набрать первый самостоятельный опыт? https://www.kaggle.com/ https://halite.io/ https://www.general-ai-challenge.org/
Где работать? https://www.indeed.com/jobs?q=deep+learning&l=
Где узнать последние новости? https://www.reddit.com/r/MachineLearning/
Где посмотреть последние статьи? http://www.arxiv-sanity.com/
Список дедовских книг для серьёзных людей:
Vladimir N. Vapnik "The Nature of Statistical Learning Theory"
Trevor Hastie et al. "The Elements of Statistical Learning"
Christopher M. Bishop "Pattern Recognition and Machine Learning"
Напоминание ньюфагам: персептроны и прочий мусор серидины прошлого века действительно не работает на серьёзных задачах
Предыдущий тред: