Machine Learning Advanced 1. Elements of Statistical Learning (http://statweb.stanford.edu/~tibs/ElemStatLearn/printings/ESLII_print10.pdf ) Сложность - 9 из 10. Шутки в сторону, можно читать годами. Если вы сможете полностью проработать эту книгу и прорешать упражнения, обязательно свяжитесь со мной - у меня найдется работа для вас. 2. Optimization for Machine Learning. Edited by Suvrit Sra, Sebastian Nowozin and Stephen J. Wright, MIT Press, 2012. Иногда from sklearn.linear_model import LogisticRegression перестает работать и тогда нужно все переписать. Оптимизация квадратичных приближений на больших объемах данных, разреженные модели, суррогатные оптимизации - вот это все тут есть. 3. http://www.cs.nyu.edu/~mohri/mlbook/ Как ESL, только слегка по-проще. Попробуйте, может зайти.
Computer Science 1. Intoduction to Algorithms, Corman 2. The Art of Computer Programming, Knuth 3. Compilers: Principles, Techniques, and Tools. Разработчикам компиляторов и прочим авторам убийц питонов и крестов посвящается. 4. Введение в информационный поиск, Кристофер Маннинг. Как работает поиск с теоретической точки зрения.
Programming 1. Python Unlocked. Короткая книжка без соплей. В ней описаны метаклассы, дескрипторы, системы типов, шаблоны проектирования и TDD. Всего чуть больше 100 страниц концентрированной сути. 2. Code Complete (2nd), McConnel. Неплохая книга. Не то чтобы обдрочиться, но в голове всякие фишки по структуризации кода и его проектированию остались.
Misc 1. Telegram: @techsparks Подкаст про всякие гик-штуки.
F.A.Q По мотивам предыдущего треда. Эти ваши книжки стоят овер 9000 рублей, как быть? http://libgen.io Книги хорошо, но с чего начать практический вкат? Во-первых, вам нужна любая unix-based система. На Windows возможно запустить нижеперечисленное, но ждите пердолева с настройкой и неодобрительных взглядов анонимуса. Кроме того, в компаниях, так или иначе связанных с разработкой йоба-ПО и machine learningом, Linux/OS X является стандартом. Привыкайте. Во-вторых, определитесь с языком. Python и C++ наиболее мейнстримовые инструменты, с ними вы без еды не останетесь. Есть еще R, на котором пацаны живут статистикой и анальными пакетами. Некоторые инструменты являются языко-независимыми (Vowpal Vabbit, XGBoost), но обвязывать их вы все равно будете из какой-либо среды. На Java разработано много production-ready инструментов для бигдаты и если вы угораете по терабайтам данных, то имеет смысл посмотреть в её сторону. Впрочем, лучше это делать уже потом, когда прийдет осознание потребностей. В-третих, выбирайте себе задачу. Что угодно: распознать качпу, обнаружить ботов по логам, найти раковых больных. Список можно посмотреть, например, на kaggle.com. После чего приступаете к решению выбранной задачи. Не прийдется ли мне потом с таким наборищем знаний идти в макдак работать? Несмотря на хайп вокруг ML, далеко не во всех IT компания есть необходимость в ML и понимание круга задач, которые можно решить этими методами. Но поверьте, в 2016 компетентный специалист будет востребован. В России потребителями ваших знаний могут стать: Яндекс, Mail.ru, Вконтакте, Rambler, Касперский, Билайн, Связной, ABBYY, Хуавэй. В биоинформатике есть определенный спрос, можно поскролить http://blastim.ru Здорово, но я так и не понял чем же вы занимаетесь в IT компаниях? Попытаюсь ответить со своей колокольни и сразу хочу предупредить, что это едва ли консенсуальное мнение. ML-специалист - это такое зонтичное определение для человека, способного увидеть проблему, выгрепать кучу логов и данных, посмотреть на них, придумать решение проблемы и врезать это решение его в продакшн. По сути, это кодер, решающий не чисто технические, а, в некотором роде, человеческие проблемы. Имхо, мы все же остаемся в первую очередь разработчиками. Но ведь есть Machine Learning per se, чем он занимается? Действительно есть. Одаренная прослойка людей изобретает новые методы, но это правильнее называть просто математикой. Сейчас пищей для ума являются нейронные сети и их возможные архитектуры, но даже они двигаются рука об руку с практикой. Что такое TensorFlow? TensorFlow - часть гуглового инструмента для перемножения тензоров и оптимизации функционалов. Часть - потому что важные куски типа паралелизации еще не выкачены в паблик. Если вам все ещё непонятно что это, значит это вам и не нужно, сириусли. Google перестарался с рекламой и теперь люди думают, что TF - это серебряная пуля и затычка для каждой бочки. До TF был Theano, который выполнял свою работу не хуже. И, в отличии от TF, он уже находится в стабильной фазе.
Аноны, а вы можете пояснить, как генетический алгоритм будет приспосабливаться к разным показателям обратного маятника? Он что, просто подождет, пока маятник придет в норму и обратно восстановит баланс?
>>753340 Функция приспособленности для обратного маятника принимает свой максимум при 0 угле наклона и 0 дельте угла наклона, как-то так. Остальное - рандомный поиск в пространстве состояний угла наклона и его дельты. Но вообще говоря, стабилизировать обратный маятник генетическим алгоритмом - аутизм какой-то.
Я смотрю, половина постов ИТТ про обратный маятник. Вкину симулятор нечеткой модели для стабилизации такого маятника, вполне работоспособно под досбоксом, пикрелейтед 1. Суть метода в бвзе правил, пикрелейтед 2. Тета - угол наклона, дельта тета - скорость изменения угла, ячейки таблицы - скорость мотора. Все вместе - правила типа "если тета = ZE (зеро, ноль) и дельта тета = ZE, то скорость мотора, требующаяся для компенсации маятника = ZE". http://ftp.funet.fi/pub/sci/neural/cns-bbs/annsim/togai.lzh
Смотрите, как вариант с вирт. реальностью можно сделать. Типа два человека, подключенные к сети, надевают 3D очки, потом они как бы оказываются в гипер пространстве, где взаимодействуют. Только по факту физически каждый из них взаимодействует с роботом-манекеном, которым управляет оппонент на другом конце провода.
>>754123 Сначала бы с разрешением окулус рифта разобраться. Сначала бы нормальную анимацию в нем сделать. Сначала бы нормальную передачу движения сделать Сначала бы в нормальную нейронную сеть суметь хотя я не понял, зачем она тут Короче, мы не умеем ни во что из того, что ты хочешь
>>754127 Ведь это пиздец непросто. Знаешь, сколько конструкционных заморочек? А ведь надо заморочиться так, чтобы потом не заморачиваться. И когда делаешь что-то сам и впервые, то все по другому, тебе никто не скажет, почему у тебя тут нечеткая логика работает так, что сервопривод не доходит на 4 см, а по расчетам все вообще верно? Или как бы сделать ей систему торможения, чтобы ее не колбасило моментом инерции? Или как сделать нормальную амортизацию в коленных суставах и тазобедренном шарнире?
>>754125 А зачем нейросеть? Просто датчики на скафандре и манкене сканируют и передают те же движения манекену, а через окулус и манекен поступает инфа о расстоянии до тела.
>>754151 Есть же аналоги таких роботов, действующих по движениям. Я лично для себя подумал, что можно изменять угол сгиба скелета в трехмерном пространстве (т.е. три оси координат). И на его основании моделировать положение тела. Расстояние между манекеном и скелетом человека можно измерять с помощью датчиков, ну как на тачках, который расстояние до парковки измеряют лол. А там от какой-то одной точки выстраивается аналогичная модель скелета оппонента трехмерная.
>>754151 >какая архитектура, вид платы? Я вот не силен в роботехнике и компьютерных железках, я просто быдлокодерок, но наверняка серьезные фирмы запилят машину для такого устройства с соответсвующей платой-кодом-архитектурой. Может даже свой язык запилят под это дело.
Что-то тред правда не туда катится. Давайте-ка вскроем вот какую тему. В любых моделях, хоть нейросеточках, хоть кластерного анализа, хоть генетических алгоритмов, да хоть чего, используется довольно ограниченный набор критериев качества получаемой модели. Не сильно ошибусь, если скажу что это варианты среднеквадратичной ошибки и AIC для кластеризации еще есть понятие ошибки квантования. Но ведь еще в 70-х годах в совке были предложены целые классы подобных критериев - критерии несмещенности, баланса переменных, что интересно - комбинированные. Причем, их необходимость обосновывалась тем, что среднеквадратичная ошибка не дает большой точности, если модель делается для предсказания числовых рядов и т.п. Может быть, я чего-то не знаю и таки сейчас где-то используются более сложные критерии качества модели чем SSE?
>>754535 Для классификаторов сейчас используется почти исключительно кросс энтропия. Там через логарифмы пропускают выход.
Для НС крайне важно, чтобы функция цены имела хорошие производные. Абсолютно необходимо, чтобы цена от Х примеров была суммой цены по всем примерам, иначе и производную считать геморно, и на батчи не разложишь, т.е. это вообще ни в какие ворота. "Странные" функции, которые ты перечислил, по-моему этим свойством не обладают.
Кросс-энтропия, средние квадраты и еще несколько обладают всеми нужными свойствами. Однако см. также недавние работы по аутоэнкодерам, в частности variational autoencoder, generative adversarial networks. Там как раз борются со среднеквадратичной ошибкой, т.к. по ней выходит, что если у стола может быть она нога или четыре, то оптимально предсказывать 2.5. На эту тему много исписано, но думаю что в 70-х годах о таком еще никто и не подозревал.
Посоны? Никто не занимался вероятностными графическими моделями? Пытаюсь найти оценку апостериорного среднего Марковской сети, но нихуя не выходит. MCMC кормит меня хуями. В mean field не получается ввести сопряжённые приоры. Particle Loopy BP не сходится. Есть ещё какие-нибудь общеизвестные варианты? Мб, анон наставит на путь истинный?
>>755404 Ну всеравно это интереснее, чем быть макакой. Да и порог входа тут выше, хотя и требуется меньше.
Мойдодыр! Принимайте пополнение! Знаю что такое p.value, нормальное распределение, анализ выживаемости, могу в r сделать кластерный анализ, построить регрессию, немного могу knn, gbm, деревья классификации.
Где мне стелить? У окошка с авторитетами, на параше или к мужикам пока?
>>755405 >Где мне стелить? У окошка с авторитетами, на параше или к мужикам пока? Есть две НС. В одной 200 слоев по 50 нейронов, а в другой 50 слоев по 200 нейронов. Какую сам будешь использовать, какую матери отдашь?
>>755481 >>755481 > Что не так? С частым false positive. Почитай про критику p value. Некоторые журналы даже не принимают статьи, где они используются.
>>756817 > The difference between Adaline and the standard (McCulloch–Pitts) perceptron is that in the learning phase the weights are adjusted according to the weighted sum of the inputs (the net). In the standard perceptron, the net is passed to the activation (transfer) function and the function's output is used for adjusting the weights.
Я нашел еще одну, нормальную схему адалайна, предыдущий оратор >>756839 предположил, что разница в том, что у перцептрона ошибка считается после активации (н-р сигмоида), а у адалайна - до. Это не так, т.к. на схеме пикрелейтед и втором пике >>756837ручная электромеханическая конструкция адалайна и поправка вводится вручную после срабатывания активации. Т.е. ошибка таки считается после сигмоида или что там вместо активации, как у перцептрона. Но тогда вопрос >>756817 остается в силе. Неужели правда никто не знает?
>>757553 >как правильно делать сегментацию. В сверточных сетях и неокогнитроне она автоматически делается. А вообще, должно быть достаточно, если на картинке кроме самой цифры ничего нет.
>>757556 Я понимаю, что можно одну картинку прогонять с разной вырезкой по координате и найти ее оптимальное начало и длину и высоту, но есть же способ сразу получить их.
Скомпилил openblas.dll (там же создался openblas.a) под вин, там же появился, указал в настройках Theano путь к папке где эти 2 файла, вроде все подключилось. Удалил эти 2 файла, но Python почему-то не ругается на это и каким-то образом их находит. Ошибки начинаются только если я укжу другой путь к openblas где его нет.
>>758015 Ну смотри, на пикрелейтед "учитель" оценивает выход адалайна после активации, после чего правит в консерватории, если выход неправильный. Правятся-то веса модели, а не сам сигмоид. По второй ссылке одни общие фразы кроме >The only difference is that the adaline, after each iteration checks if the weight works for each of the input patterns; the perceptron just updates the weight after each new input pattern and does not go back and check.
>>757744 Ну хуй знает. Может быть вейвлеты какие-нибудь помогут, может быть главные компоненты, может быть аутоэнкодеры. Вряд ли есть способ сделать это проще чем в сверточных сетях.
Аноны, а нейронная сеть сама может находить взаимосвязи между поступающей в нее информации? Или например, вычислить формулу, по которой качаются качели?
>>760768 Да, может. Это называется идентификация системы. Только в нейросети результат непрозрачен, весовые коэффициенты тебе не дадут ничего. Интерпретируемый результат возможен при использовании например нечетких моделей. Вычислить формулу сложнее, но это тоже возможно. В совке еще был разработан такой метод как МГУА (метод группового учета аргументов, GMDH). Частный его случай - полиномиальная нейросеть. Подобными алгоритмами можно прямо восстанавливать формулы по входным-выходным данным системы, подробнее например http://gen.lib.rus.ec/book/index.php?md5=E73366E46C7B2375264EA47C1C09F4C5 там есть пример восстановления по данным т.н. соотношений Онзагера https://ru.wikipedia.org/wiki/%D0%A2%D0%B5%D0%BE%D1%80%D0%B5%D0%BC%D0%B0_%D0%9E%D0%BD%D0%B7%D0%B0%D0%B3%D0%B5%D1%80%D0%B0 но эти алгоритмы в своем изначальном (а не обрезанном) виде нигде не реализованы, и в массе своей существуют в виде еще совкового кода на фортране разной степени допиленности.
>>760776 Ну, вычислять формулу не надо, главное - искать взаимосвязи. А совковский код - очень даже интересно, в этом направлении еще никто не работал, если не ошибаюсь? Может себе дипломник взять по этой теме?
>>760780 >главное - искать взаимосвязи. Тогда идентификация систем. Аппроксимация функций зависимости выходов от входов. Тема известная и широкая. Основная проблема - интерпретируемость полученной модели, но тут тоже есть свои подходы. А эти совеццкие алгоритмы вещь вообще малоизвестная, сейчас смотрю даже сайт http://gmdh.net/ где весь код был выложен, помер.
>>760801 >чтобы идентифицируемую систему, нейронная сеть составила сама. Это как? Система - это некий реальный объект или их совокупность. Качеля та же. Есть некие действия (входы), на которые система отвечает (выходы). Допустим, нам не известны принципы ответа системы на внешние воздействия. Но есть возможность измерить как воздействия так и ответ системы. Вот по этим данным можно построить модель системы, что и составляет идентификацию.
>>760808 Я об этом и говорю. Любая такая взаимосвязь есть функция зависимости выходов от входов. Задача в том чтобы такие функции выявить. Это и есть идентификация системы. Которая решается с помощью универсальных аппроксиматоров функций.
>>760810 >функция зависимости Ты рили немного поехавший, лел. >Задача в том, чтобы такие функции выявить. Ну это понятно, но как такое реализовать? Может использовать несколько нейросетей? Или есть архитектура сети, умеющая в такое?
Ведь нужно искать не только взаимосвязь между данными, но и исключения.
>>760810 Эта задача НЕ РЕШАЕТСЯ с помощью универсальных аппроксиматоров. Может перестанешь кормить говном из своей головы ньюфагов? Заведи себе отдельный закон и флуди там.
>>760768 Ох, а правда. Как научить нейронную сеть считать упреждение? Как научить ее предсказывать точно колебания маятника? И платина: Может ли нейронная сеть научить шагоход ходить?
И чтобы сеть не имела изначально никакой информации, а сама все узнала, подбирая методы.
Аноны, а для сравнения и классификации у нейросети обязательно должни быть математические операторы, вроде <>=/*+- Есть ли сети, которые могут сравнивать и классифицировать информацию только потому, что в процессе обучения без учителя получают награждение, например?
>>760975 >а ты можешь держать равновесие двух длинных палок одновременно ? Могу, я же тоже нейронка, лел. >В меня сейчас будут кидаться немытыми хуями перельмана, но предлагаю порассуждать о нейронках с точки зрения психологии. Чистый вычислительный механизм. Порассуждай еще о синусе с точки зрения психологии, одно и тоже.
Для неофитов поясняю, мы берём некое пространство, и редуцируем его в пространство меньшей размерности с помощью автоэнекодера прости господи.
В результате получаем семантически сжатое пространство, вектора которого отражают вектора из пространства большей размерности. При том нам становятся доступны такие ништяки как интерполяция, векторные операции и сравнение векторов.
>>760996 я не эксперт в этих ваших кольцах и гомологиях, но что может быть проще и понятнее обычного вектора ? У нас есть вектор в n-мерном пространстве. Близкие вектора похожи. Над векторами можно проводить разные операции которые будут интуитивно понятно. Что предлагает ваш аппарат ?
>>761002 в векторном пространстве слишком много операций задано. Например, как интерпретировать скалярное произведение двух векторов? Сложение интерпретируется как аналогия. Имхо нужна по настоящему только одна операция, которая должна быть некомутативна (композиция слов) + одна комутативная (аналогия). Идеально для этого подходят кольца:
A ring is a set R equipped with binary operations[1] + and · satisfying the following three sets of axioms, called the ring axioms[2][3][4]
1. R is an abelian group under addition, meaning that
(a + b) + c = a + (b + c) for all a, b, c in R (+ is associative). a + b = b + a for all a, b in R (+ is commutative). There is an element 0 in R such that a + 0 = a for all a in R (0 is the additive identity). For each a in R there exists −a in R such that a + (−a) = 0 (−a is the additive inverse of a). 2. R is a monoid under multiplication, meaning that:
(a ⋅ b) ⋅ c = a ⋅ (b ⋅ c) for all a, b, c in R (⋅ is associative). There is an element 1 in R such that a ⋅ 1 = a and 1 ⋅ a = a for all a in R (1 is the multiplicative identity).[5] 3. Multiplication is distributive with respect to addition:
a ⋅ (b + c) = (a ⋅ b) + (a ⋅ c) for all a, b, c in R (left distributivity). (b + c) ⋅ a = (b ⋅ a) + (c ⋅ a) for all a, b, c in R (right distributivity).
>>761007 как интерпретировать скалярное произведение двух векторов? Для начала разберёмся с углом между векторами. Вот у нас есть пространство характеризующее пиструн, пусть это будет длина и ширина. Для каждого пиструна в мире можно задать длину и ширину. Допустим мы хотим узнать, на сколько похожи два пиструна. Соотвественно мы можем воспользоваться манхэттенским расстоянием, евклидовым и другими параметрами расстояния минковского. Померяли расстояние, получилось 15. И что из этого следует ? это много или мало ?
Заменим меру на угол, таким образом получим меру схожести. Если угол 90, то у нас есть два пиструна, один абсолютно толстый, но нисколько не длинный, а другой на оборот. Если угол 0, то мы сможем получить один пиструн умножив характеристики другого на одно число.
В случае множеств я думаю надо смотреть на расстояния Джаккарда.
Аноны, а как можно научить нейронную сеть классифицировать информацию? Например, есть рекуррентная сеть. Я хочу ее обучать математике, но, как мне дать ей понять, что цифры - это цифры? И что они выражают? Вместо тупого матана
>>761134 больной ублюдок, чем тебя обычный калькулятор не устраивает ? У людей за математикой стоят некие идеи, а математика это просто язык описания этих идей. Делать математические операции можно и с яблоками не зная вообще ничего о математике.
Если рассматривать математику как часть логики (мы же можем перевести всю математику в бинарное исчисление) то про обычный XOR на ИНС я говорить не буду, скажу что уже есть калькуляторы на нейронках и с недавних пор машины тьюринга. http://arxiv.org/abs/1511.06279
>>760812 >>760818 >но как такое реализовать? Может использовать несколько нейросетей? Или есть архитектура сети, умеющая в такое? >Эта задача НЕ РЕШАЕТСЯ с помощью универсальных аппроксиматоров. Пиздец, я реально не могу уже с вами. Сколько раз за последние года 3 я упоминал теорему Коско об универсальных нечетких аппроксиматорах - http://sipi.usc.edu/~kosko/FuzzyUniversalApprox.pdf - Аллаху одному ведомо. Вот даже целая книга на эту тему http://gen.lib.rus.ec/book/index.php?md5=BC1EC0F44F2E619AB46D6FD0B7088514 глава 2 особенно, И что? Ответ один - врети, поехавший, и т.д. >>760819 >в Картах Кохонена вроде реализовано, но они старые. А, ну ясно. Раз до 2015 года создано, значит старье. А много ли ты слышал о двунаправленных картах Кохонена с супервайзед обучением? https://cran.r-project.org/web/packages/kohonen/index.html Да, карты Кохонена могут в такую задачу, особенно XYF, Supersom и BDK. >>760830 Идентификация систем же. Маятник или что там у тебя, представляется в виде матрицы Ганкеля и подкладывается нейросети или чему угодно и все, профит. Гугли NARX/NARMAX если интересно подробнее. >>761134 Входы - любое выражение, выходы - правильные ответы.
Все-таки фрилансером, несмотря на мизерные копйки, хамское отношение заков и биржи, я ощущаю, что исполняю какую-то интеллектуальную работу, где нужно зарабатывать именно извилиной и элементарной грамотностью. Пусть даже у меня будет выходить всего косарь в месяц, а остальное время я буду прогать for free. Не могу представить, как можно работать каким-то официантом или подаваном-продаваном, пусть даже там ты общаешься с людьми, но ты ведь вообще ничего не создаешь, не выполняешь никакой полезной функции, не ощущаешь себя уникальным. Тобой просто забивают дыру в велфере, ну родился человек, нихуя не умеет, мозг ему дан просто, чтобы ложку мимо рта не пронести и не промахнуться, подтирая жопу. Не давать же им с голода дохнуть, вот тебе паек рядом с продажами, сиди и пинай хуи либо страдай ненужной хренью. Вот так вот они все думают, когда очередной васян с улицы просится в теплое местечко посидеть за зарплату. Вот так все это быдло и вьет себе кормушки возле продажных мест, где проходят денежные потоки, ничего по сути не делая, совершенно лишние люди, изображающие деятельность ради деятельности. Вся суть эпохи постмодернизма. Или вот взять каких-нибудь тупорылых зажиточных бизнесменов и нефтянников, многие ни писать, ни читать, ничего не умеют, а им и не нужно, им хватает того, что они чем-то денежным владеют, а за них все сделают задроты, которые всю жизнь жопу рвут и что-то изучают, чтобы попасть на это копеечное место, еще и конкурируют за него во всю. Вот мы тут думаем, напрягаемся, чтобы что-то написать или напрогать, используем мозг на полную катушку, а какой-нибудь васян или машка-продавщица сидят, принимают деньги и записывают в книжку товар по 8 часов в сутки, не напрягая ни одной извилины, и получают гораздо больше нас. Тупые ненужные люди получают больше умных, тех, кто зарабатывает мозгом и кому унизительно работать, как баба маша - затычкой в системе. Короче, всех их заменят скоро роботы и справедливость восторжествует. Вот к чему я, сори за простыню.
>хотел сделать прорыв в науке и изобрести ИИ >открыл pdf про backpropagation >не понимаешь линейной алгебры, формул и высшего матана ладно, пойду дальше круды шлепать.
>>761195 >работать, как баба маша - затычкой в системе. Короче, всех их заменят скоро роботы и справедливость восторжествует. Вот к чему я, Считаешь программизм дохуя интеллектуальной работой? Тогда у меня для тебя плохие новости, от бабы маши ты ничем не отличаешься. Ты про конструктивную теорию типов Мартин-Лёфа слышал? Читни http://maxim.livejournal.com/479716.html вот. В крации - любая возможная программа на любом языке программирования есть подмножество инфинити топоса, причем поддается экстракции оттуда.
>>761201 Интелелктуальный - это вообще избитый термин. Я бы сказал оптимальный, прогрессивный, современный. Один кодер накодит прогу для миллиона роботов, выполняющих функции продаванов. Смотри, какая КПД у кодера и какая у продаванов. У них ведь алгоритм: принять деньги, доставить товар покупателю. Тут даже нейросеть не нужна, этот простой алгоритм уже реализован в автоматах с кофе. Знаешь, мне вот кажется, что это натуральный заговор. да они уже бы смогли поставить везде такие автоматы с роботами (только больших размеров) в каждый магазин, в каждую аптеку, в каждую кафешку и забегаловку. Но нет, они хотят сохранить места для тупого и бесполезного быдла, не могущего в создание чего-то.
>>761201 а любой натюрморт - это просто набор трехмерных объектов, а теперь попробуй выстроить из рандомных объектов натюрморт, все дело в креативности и организации, которых нет у бидла.
>>752098 (OP) Аноны, а почему все только на компьютерах? Ведь нейронная сеть - это математическая модель.
Но почему она реализовывается только в виде кода? Ведь вычислять и сохранять в памяти умеют и шестереночные механизмы. Можно ли воссоздать нейронную сеть в виде шестереночного механизма?
>>761354 А так, как подобные механизмы теперь могут быть ОЧЕНЬ маленькими, то проблем с размерами теперь не будет. Но в чем будут проблемы? В скорости?
Интересно будет собрать нейронную сеть в аналоговом виде
>>761354 Можешь почитать про голографические нейросети. Эти поехавшие спят и видят, как они создают AGI на базе голографии. Но на практике там дикий обосрамс.
>>761365 Не, в голографию не хочу. А вот сделать что-нибудь забавное на базе шестеренок, игрушку, которая сама сможет чему-нибудь научиться - это забавно.
>>761354 >Можно ли воссоздать нейронную сеть в виде шестереночного механизма? Можно. Можно в виде химической реакции, оптических элементов, в виде чего угодно можно.
>>761374 Человеческий мозг более чем на 80% та же вода из унитаза. И никаких специальных алгоритмов в мозгу не реализовано, все работает только на свойствах среды. Никого не удивляет при этом, что человека можно научить разговаривать с другими людьми.
>>761412 Что? А попроще. На примере распознание рукописных цифр. Что эти 15 нейронов делают и почему их количество можно менять? 2 часа назад учить начал
такое ощущение, что вы обчитались умных книг и теперь повторяете про свои вектора и бэкпропагешены без понимания сути произносимых слов и реализации на практике, как попугаи.
>>761412 Прочитал. Ещё и в гугле определения незнакомым словам искал. А как эти функции, теоремы, радикалы, суперпозиции и прочая хуйня связана с скрытым слоем в той нейросети?
>>762215 А нужно найти самое популярно женское first name. Пробую так s[s.index('. ')+2:s.index(' ',s.index('. ')+2)] , но вдруг скобки имеют значение?
>>762150 Здесь кто-то ещё решал эти задачки? Знает кто ответы и решения на задачи с средним арифметическим возрастов и самым популярным женским именем?
НЕЙРОНОЧКИ Advanced 1. Elements of НЕЙРОНОЧКИ (http://statweb.stanford.edu/~tibs/ElemStatLearn/printings/ESLII_print10.pdf ) Сложность - 9 из 10. Шутки в сторону, можно читать годами. Если вы сможете полностью проработать эту книгу и прорешать упражнения, обязательно свяжитесь со мной - у меня найдется работа для вас. 2. Optimization for НЕЙРОНОЧКИ. Edited by Suvrit Sra, Sebastian Nowozin and Stephen J. Wright, MIT Press, 2012. Иногда from НЕЙРОНОЧКИ.НЕЙРОНОЧКИ import НЕЙРОНОЧКA перестает работать и тогда нужно все переписать. Оптимизация НЕЙРОНОЧКИ на больших объемах данных, НЕЙРОНОЧКИ, НЕЙРОНОЧКИ - вот это все тут есть. 3. http://www.cs.nyu.edu/~mohri/mlbook/ Как ESL, только слегка по-проще. Попробуйте, может зайти.
F.A.Q По мотивам предыдущего треда. Эти ваши книжки стоят овер 9000 рублей, как быть? http://libgen.io Книги хорошо, но с чего начать практический вкат? Во-первых, вам нужна любая unix-based система. На Windows возможно запустить нижеперечисленное, но ждите пердолева с настройкой и неодобрительных взглядов анонимуса. Кроме того, в компаниях, так или иначе связанных с разработкой йоба-ПО и НЕЙРОНОЧКEK, Linux/OS X является стандартом. Привыкайте. Во-вторых, определитесь с языком. Python и C++ наиболее мейнстримовые инструменты, с ними вы без еды не останетесь. Есть еще R, на котором пацаны живут НЕЙРОНОЧКАМИ и анальными пакетами. Некоторые инструменты являются языко-независимыми (Vowpal Vabbit, XGBoost), но обвязывать их вы все равно будете из какой-либо среды. На Java разработано много production-ready инструментов для бигдаты и если вы угораете по терабайтам данных, то имеет смысл посмотреть в её сторону. Впрочем, лучше это делать уже потом, когда прийдет осознание потребностей. В-третих, выбирайте себе задачу. Что угодно: распознать качпу, обнаружить ботов по логам, найти раковых больных. Список можно посмотреть, например, на kaggle.com. После чего приступаете к решению выбранной задачи. Не прийдется ли мне потом с таким наборищем знаний идти в макдак работать? Несмотря на хайп вокруг НЕЙРОНОЧКИ, далеко не во всех IT компания есть необходимость в НЕЙРОНОЧКИ и понимание круга задач, которые можно решить этими методами. Но поверьте, в 2016 компетентный специалист будет востребован. В России потребителями ваших знаний могут стать: Яндекс, Mail.ru, Вконтакте, Rambler, Касперский, Билайн, Связной, ABBYY, Хуавэй. В биоинформатике есть определенный спрос, можно поскролить http://blastim.ru Здорово, но я так и не понял чем же вы занимаетесь в IT компаниях? Попытаюсь ответить со своей колокольни и сразу хочу предупредить, что это едва ли консенсуальное мнение. НЕЙРОНОЧКИ-специалист - это такое зонтичное определение для человека, способного увидеть проблему, выгрепать кучу логов и данных, посмотреть на них, придумать решение проблемы и врезать это решение его в продакшн. По сути, это кодер, решающий не чисто технические, а, в некотором роде, человеческие проблемы. Имхо, мы все же остаемся в первую очередь разработчиками. Но ведь есть НЕЙРОНОЧКИ per se, чем он занимается? Действительно есть. Одаренная прослойка людей изобретает новые методы, но это правильнее называть просто математикой. Сейчас пищей для ума являются нейронные сети и НЕЙРОНОЧКИ, но даже они двигаются рука об руку с практикой. Что такое TensorFlow? TensorFlow - часть гуглового инструмента для перемножения тензоров и оптимизации функционалов. Часть - потому что важные куски типа паралелизации еще не выкачены в паблик. Если вам все ещё непонятно что это, значит это вам и не нужно, сириусли. Google перестарался с рекламой и теперь люди думают, что TF - это серебряная пуля и НЕЙРОНОЧКA для каждой бочки. До TF был Theano, который выполнял свою работу не хуже. И, в отличии от TF, он уже находится в стабильной фазе.
>>761201 Объясните, пожалуйста, зелёному студенту, почему из этого: >>любая возможная программа на любом языке программирования есть подмножество инфинити топоса, причем поддается экстракции оттуда. следует, что >>программизм не является дохуя интеллектуальной работой ?
Топос — тип категорий в теории категорий, по своим свойствам напоминающих и обобщающих категорию множеств. То есть выше утверждается,что любую программу можно формализовать, упростить и как следствие, автоматизировать?
>>762646 Это маняфантазии технофашистов. Любой текст на естественном языке тоже внезапно объект Set, и эти кукареки ничем не лучше утверждения о том, что Шекспир это обезьяна, которой дали перо и чернила.
>>762655 >>762658 Спасибо. А то я за это время подумал и уже было пришёл к согласию с тем, что, по аналогии с текстом произведений Шекспира, который >>на естественном языке тоже внезапно объект Set , текст программы, безусловно является тривиальным, но зато процесс поиска идеи и разработки в обоих примерах считается выдающимся, потому что пока что недостаточно изучен. В общем, загнался.
>>762842 Прочитал, но не нашёл ни слова про интеллект. Причина того, что, по мнению >>761201 , программистов рано или поздно заменят роботами, понятна без ссылки. Не понятно высказывание про интеллект. По-моему, дело в том, что слово выбрано неверно, как выше уже писалось. Только сейчас до этого >>761264 дошёл.
Цитаты: >>"Полный разум — это гипер-метаэвристическая многокомпонентная гиперсферная интеллектуальная нейронная сеть (МГИНС) с логическим и интуитивным ускоренным распознаванием сенсорных информационных образов, беспроводных сенсорных систем и сетей при классической метрологии. >><...> Ряд электронных блоков выполняют функции левого полушария, то есть самоорганизующегося гиперметаэвристического распознавания информационных образов, и правого полушария, то есть интуитивного прогнозирования на основе ранее полученных знаний. Чтобы придать сенсорам разум, на основе самоорганизующейся МГИНС проводится обучение на количественных данных информационных сенсорных образов."
Меня напрягает указание "Европейского свободного смарт университета удаленного доступа", информации о котором нет в интернете.
Как вытащить из LogisticRegression() имя алгоритма? Пробую model.__class__, выдает <class 'sklearn.linear_model.logistic.LogisticRegression'> а мне нужно только 'LogisticRegression'
>>762990 >>>"Полный разум — это гипер-метаэвристическая многокомпонентная гиперсферная интеллектуальная нейронная сеть (МГИНС) с логическим и интуитивным ускоренным распознаванием сенсорных информационных образов, беспроводных сенсорных систем и сетей при классической метрологии. Хуета и вода, итак понятная каждому дауну. >Ряд электронных блоков выполняют функции левого полушария, то есть самоорганизующегося гиперметаэвристического распознавания информационных образов, и правого полушария, то есть интуитивного прогнозирования на основе ранее полученных знаний. Чтобы придать сенсорам разум, на основе самоорганизующейся МГИНС проводится обучение на количественных данных информационных сенсорных образов." Ну, вопросы на счет самоорганизующегося Интуитивного прогнозирования - обычное прогнозирование, никакой интуиции в этом нету. Придать сенсорам разум, лел Ога, сначала учим, потом она распознает, ничего в точности не указано, вода.
>>762990 >Полный разум — это гипер-метаэвристическая многокомпонентная гиперсферная интеллектуальная нейронная сеть (МГИНС) Уже на этом этапе фрикометр зашкалило.
Аноны, а на русском языке где-нибудь есть грамотная статья про работу мозга? Вот на хабре было пиздато написано про ассоциативную работу нейронов. А про все остальное? Логические решения, например, удаление информации и прочее?
>>762990 Самый прикол, что в статье описан обычный перцептрончик, к которому добавлены какие-то эвристики. Ну и всю терминологию переписали на какую-то шизу типа мегагитлерметаэвристический технослой технодендрит и т.п. Наркоманы какие-то.
>>763012 Обычный перцептрончик А будущее то, будущее то, за рекуррентными нейронными сетями. Но это когда они научатся анализировать всю прошлую информацию, а не просто учитывать ее подольше перцптрончика.
>>763018 Вот ты неправ. Это как раз путь в никуда, уже сейчас все эти глубокие сеточки сходятся неделями на GPU-кластерах, все закончится на том, что дойдут до сеточек, которые даже на Аллахе не сойдутся за приемлемое время.
>>763018 Это да, недавно на тире тестировалась модель рекурретной сети. У нас была информация о массе заряда, его скорости и положению ружья Оно стояла на одном расстоянии от мишени Ее фича в том, что всю информацию, которая она запоминает влетает в банку памяти и оттуда в БД. Информация бралась из БД и отдельно обсчитывалась сетью, которая была обучена математическим операторам и понятию ряда, пропорции. На удивление, она быстро научилась считать то, куда попадет. Но вот ресурсов поела сильно.
>>763025 Ну, на самом деле не так уж много она и пожрала, просто провела овердохуя вычислений, считайте, что обсчитала вообще всю информацию. На 1 выстрел она перемножила, переделила, вычитала и складывала все, определила то, что там больше и меньше чего. На 2 выстрел она уже проводила математические действия с 2-мя таблицами. На 3 выстрел она уже нашла закономерность и 4 выстрел смогла предсказать.
Теперь интересно бы было, если она научилась бы находить закономерности между 2-мя действиями, если, например, изменить ружье, а потом, снова его взять, или что будет, если в действие вступит аэродинамика на дальних расстояниях, как она будет формировать исключения.
>>763033 Зачем для этого рекуррентная нейросеть, поясни. Типичная задача векторного квантования, т.к.: >информация о массе заряда, его скорости и положению ружья -это вещественнозначный вектор.
>>763046 Это да, но все на будущие задачи с шагоходом рассчитывается, чтобы, он умел разбираться с разными ситуациями, так сказать. Так он и на льду сможет научиться ходить, а нечеткая логика здесь уже не справится, да и формула для такого неизвестна. >>763055 На кафедре Информационных технологий.
>>763059 Никто еще не сделал такую программу %%хотя заготовки уже есть и многие сайты можно А в связи с развитием технологий многие фреймворки и прочая лабуда устаревает.
>>763058 >нечеткая логика здесь уже не справится Это еще почему? С шагоходом вполне возможно построить полную базу правил, которая будет охватывать все возможные положения ног и нарушения равновесия для их компенсации. Априорные формулы для этого не нужны.
>>763066 Заебешься все это строить, очень заебешься. Да даже тогда он будет ходить как парализованный инвалид. Мы проверяли, поверь.
А нейронная сеть в этом плане выгоднее ген. алгоритма, так как научиться ходить может всего за 10 шагов от учителя. Но для этого ее надо немного допилить.
Аноны, я вот почитал про работу мозга достаточно дохуя. И меня возмутило то, что нейронные сети вообще сравнивают с человеческим мозгом. Они, пусть и симулируют часть его работы, но уже давно ушли от той математической модели, что есть в голове у животных и людей.
То, чем руководствуются живые существа - это больше нечеткая логика и работала сигналов-транспортных путей, чем нейронные сети.
>>764085 Что почитать о работе мозга порекомендуешь? Не столько для проф пользования, я даже не совался еще в мл и все такое, сколько для общего образования
>>764111 Ты оттуда ничего не поймешь же, там не написано в точности, как работает твоя память, ибо это слишком общее описание. Да и вообще, за такими вопросами тебе в когнитивную психологию.
>>764085 сравнивают их только две категории: 1. долбоебы журналисты, которые нихуя не шарят 2. ученые которые дохуя шарят но их сравнения очень точные и в узком смысле (типа корреляции активаций конвнетов и нескольких слоев сетчатки) не слушай первых, а про вторых ты скорее всего ничего не знаешь.
>>764085 >Они, пусть и симулируют часть его работы, но уже давно ушли от той математической модели, что есть в голове у животных и людей. А у тебя когда самолеты птичками называют не бомбит случайно? На самом деле ушли не далеко, просто реализуют те же идее на другой "элементной базе".
>>764085 >меня возмутило то, что нейронные сети вообще сравнивают с человеческим мозгом. Как из душа окатило, аж трисёт? Про любые нейросети, которые сравнивают с человеческим мозгом, обычно пишут что там именно от биологических нейронов, какой функционал эмулируется и т.д. Ну если это серьезная работа, а не быдлостатейка. Более предметно - 2 и 4 главы https://rutracker.org/forum/viewtopic.php?t=5096476 этой книжки. Можешь читнуть и сказать, возмутило ли тебя там что-нибудь. >То, чем руководствуются живые существа - это больше нечеткая логика Любая адаптивная нечеткая модель это частный случай нейросети, т.к. свободные параметры надо как-то настраивать, а самый естественный способ это сделать - то же самое обратное распространение ошибки.
Вам делать нехуй сидеть огромные шизоpdf с дискретным матаном читать? Каким это боком вообще к кодингу? Типа чтобы понтоваться потом в своей вебшараге: а вот я прочитал хуйнянейм.
>>764694 >Почему нет хайпа вокруг карт Кохонена Форсить некому. Это касается не только SOM, а вообще всего адаптивного векторного квантования - LVQ, Neural gas, Growing neural gas. >>764747 >Потому что они deep. Не поэтому. Некие японцы разрабатывали стеки из SOM (SOM^2, SOM of SOMs и т.д.) не зашло, опять же из-за малоизвестности.
>>764799 >не зашло, опять же из-за малоизвестности. Ох епты, победи ISLVRC, kaggle или что угодно еще и о тебе заговорит весь мир. Но нет, надо аутировать на дваче форся свою шизофрению.
>>765140 Короч взял готовую реализацию сверточной сети на теано, она там на мнисте обучается. Сделал под свои 32 на 32 генерированные цифры с помощью пхп скрипта переделал, а она хуй че обучается.пиздец короч
Кто знаком с Hearthstone, подскажите, применим ли там ML? Кто не знаком, вкратце: 1) Пошаговая карточная игра для 2-х игроков 2) Колода оппонента не известна и состоит из 30 карт (из 1000+), но какие-то карты имеют бОльшую вероятность там оказаться (некоторые почти 100%-ую) 3) В среднем матч длится 15 ходов, на каждом ходу у игрока примерно 3-15 вариантов действий, некоторые действия приводят к разному исходу (эффект рандома)
По идее мы тут ближе к го, чем к шахматам. Есть ли смысл вкатываться в ML или лучше использовать минимакс и эвристику?
>>765214 В публичном доступе точно нету. Матчхистори официально не поддерживается, есть только самодельные решения для трекинга. Даже если насобирать сколько-то, часто выходят обновления (карты меняются, добавляются новые). Еще осложняется тем, что может быть очень много разных колод. Я так понимаю, в лучшем случае получилось бы обучить какую-то конкретую колоду против другой конкретной.
>>765187 Херово, с ангельским у меня проблемки, а тут вроде бы все годно расписано. Есть ли русскоязычное подобие, которое не обосрали? Конкретно интересует Байес и бинарная классификация с помощью scikit. А везде просто формулы и код, поясняют его не так годно, как в книжке.
>>765140 >>765146 Зачем столько рисовали, можно было бы просто написать "в любой непонятной ситуации используй SVM)))". Векторное квантование на пистон не завезли, или авторы этих картинок про него не слышали?
Я только вкатываюсь в тему. Разделяют ли опытные аноны мое мнение, составленное просто по научной картине мира без занятий ИИ, что никакого И о котором принято говорить у человека то и нету, и создание полноценного ИИ и даже сложнее лишь вопрос ресурсоемкости. А интеллект по сути триллиарды условий если? Или я неправ и скорее всего изменю свое мнение почитав литературу об ИИ?
>>765494 Ты на вопрос ответь, плиз, если можешь, то что я нулевый и мне много читать надо я сам понимаю. А ответ мне важен потому что я свое восприятие изучаю. Это важно для саморазвития.
>>765486 "Интеллект" - это просто термин, к тому же неформализованный. Рандомная гуманитарщина, короче. Без сколько-либо строгих определений говорить об эквивалентности чего-то одного чему-то другому бессмысленно.
>>765506 >Интеллекта у человека нету? Ну как мы выяснили туманное понятие. Самая суть моей точки зрения, это что нет никакого трудного и магического порога в достижении ИИ равного человеческому нет и он будет достигнут просто увеличивающейся сложностью.
Порог очень простой: никто понятия не имеет, как сделать интеллект. Есть средства для решения каких-то формализованных задач, но именно самой сути они не понимают. Т.е., допустим, система может научиться подавать сигналы в правильной последовательности, ориентируясь по фреймам из видеоигры, чтобы получать награду, но при этом она бесконечно далека от понимания того, что на самом деле происходит: что это игра, что игра это модель реальности, что определенные картинки символизируют свои ИРЛ аналоги. Поэтому им нужны годы игрового времени чтобы научиться играть в какой-нибудь понг, и то он будет управлять ракеткой как пьяный эпилетик.
>>765632 Обосрался ты, братюнь. Это тебе нужно несколько лет, чтобы научиться управлять пикрелейтедом как автоматика, и то будешь дергать джойстик как эпилептик, а контроллер за 1 сек прошивается. Не говоря о том, что у тебя реакция раз в 100 хуже, чем у автоматики и от атаки ты не увернешься, причем так чтобы не уебаться. То же самое с игорами, против нормального алгоритма без искусственных ограничений ни тебе ни кому другому не устоять. А "интеллект" и прочая фуфлософия это просто слова.
>>765632 > Сёрл.тхт > Artificial general intelligence (AGI) is the intelligence of a (hypothetical) machine that could successfully perform any intellectual task that a human being can.
>>765648 >the intelligence that could perform any intellectual task Люблю такие определения. Не мешало бы еще тогда определить понятие intellectual task.
>>765632 >но при этом она бесконечно далека от понимания того, что на самом деле происходит: что это игра, что игра это модель реальности, что определенные картинки символизируют свои ИРЛ аналоги. Нет, все зависит от обучающей выборки и того, сколько ты ей данных подаешь, если она не может анализировать остальной мир, то на что ты вообще надеешься? Полноценный искусственный человек не нужен.
>>765643 >Есть средства для решения каких-то формализованных задач >>765648 >никто понятия не имеет, как сделать >>765775 Поноценный "человек" в машине это как раз то, что нужно, в этом и есть "порог". Программа, распознающая картинки, это просто игрушка или в лучшем случае некий инструмент, но к самому понятию интеллекта оно даже близко не стоит, потому что она не понимает, что это за картинки, зачем их нужно распознавать.
Пример с понгом был просто для пояснения. Суть в том, что даже если ты подашь как обучающую выборку, скажем, несколько лет записей теннисных турниров, миллиарды часов симулированных прыгающих мячиков, или что угодно из этой области, оно все равно не научится сопоставлять это с тем, что происходит в понге. Оно не поймет в чем суть игры, что второй ракеткой управляет условный противник, что цель игры в ловле мячика, что надо отразить мяч по определенной траектории чтобы противник его не поймал. Ведь в этом суть понга, а не в том, что если пиксель 57:134 ярче 0.3, то нужно подать 0.8 на выход 3, т.к. раньше в миллионах предыдущих эпизодов такое действие приводило к большей награде в 50.02% случаев.
>>766351 Ничего никуда не растаскивается. Ни в мозгу, ни в картах Кохонена. >>766340 Читай про физиологические модели SOM. Что такое "волновая модель мозга" я не знаю.
>>766496 Получается, что сеть запоминает предыдущее состояние или что? Если у меня например карта организовалась, но тут оказывается, что данные прежние неверные и мне надо запомнить исключения. Чтобы было, как у человека в голове. Как мне поступить? Может запоминать ошибки отдельно в память?
>>752098 (OP) Анон, нет, я уже второй день ищу инфу по поводу того, как гормоны воздействуют на нейроны. Нет, вот нейроны просчитывают и обрабатывают информацию, по сути - они сумматоры, а нейронная сеть просто аппроксиматор
КАК НА ЭТО ДЕЙСТВУЮТ ГОРМОНЫ? Нигде не нашел подобной инфы, придерживаюсь волновой модели мозга.
Сап аноны, я тут кое что выяснил. Если использовать несколько SOM и попытаться "накладывать" их друг на друга, то можно получить интересный результат. Мне кажется, что сеть начинает уметь в "абстракцию".
Мы продолжили обучать сеть на том, чтобы она на этот раз попробовала в управление шагоходом. И получилось, что у нее очень хорошо выходит обобщение. Сеть сама смогла понять, что от нее имеют ввиду, когда просят пойти вправо или влево, сама классифицировала и выдала нам все значения.
То есть она уже работает не просто со значениями, она их классифицировала и выделила закономерности, обобщив все. И самое главное то, что она может делать то, что не смогла раньше, теперь она подбирает направление конечностей не единообразно, а ищет лучший вариант, разрабатывая стратегию самостоятельно.
>>767819 Я уже не первый раз тута пишу, что многие задачи, которыми содомируют всякие модные глубокие сети и прочий градиентный бустинг, тривиально сводятся к адаптивному векторному квантованию, в частности SOM. Я тебе больше скажу - в твоем случае и карты Кохонена излишни, т.к. они нужны для проецирования многомерных данных на 2д вид. В случае шагохода это абсолютно лишняя работа, более чем достаточно было бы использование "нейронного газа" NG или его растущей разновидности GNG. И да, все эти алгоритмы можно стыковать через опорные векторы для получения глубоких сетей, такие стеки очень даже могут в абстракцию в т.ч. для динамических систем и т.п. В т.ч. и буквально, есть примеры использования карт Кохонена для анализа текстов и их классификации по семантике. Н-р WEBSOM. Растуще-иерархические карты Кохонена GHSOM для этого еще лучше. Вот эти ребята http://www.ifs.tuwien.ac.at/dm/somtoolbox/ этим занимались. У них же есть примеры классификации музыки по жанрам и рекомендации музыки, похожей на понравившуюся с помощью SOM.
>>767834 Да это вообще новая информация для меня оказалась. В частности то, что сеть учится выбирать стратегии, если раньше она видела только поля значений и логику в виде взаимодействий, то теперь она все это классифицировала и использует как абстрактное понятие.
Если раньше был манипулятор с 4 степенями свободы, который умел двигаться по кругу и хватать предметы, то теперь он научится делать это с разворота и двигать конечность нестандартно. А вот GHSOM - очень интересная сеть, надо посмотреть.
>>767846 >А вот GHSOM - очень интересная сеть, надо посмотреть. http://www.ifs.tuwien.ac.at/~andi/ghsom/publications.html Тут статьи по GHSOM. В этом алгоритме самое интересное то, что он не затрагивает самой SOM, а реализован как бы поверх нее и работает за счет манипуляций с ошибкой квантования. Т.е. при желании нечто похожее можно прикрутить к любому алгоритму векторного квантования, технических проблем нет. Если бы я не был хуем, не могущем в серьезное программирование, обязательно занялся бы этой темой, благо идей хватает. >>767879 >может ли нейронная сеть сомневаться? Может. Считай вероятность классификации нейросетью обратно пропорциональной сомнению. То же с нечеткостью для нечетких моделей. В конце-концов человеческое сомнение возможно только там где есть неточность. А неточность это либо вероятность, либо нечеткость события и т.д.
>>767819 >>767846 Ух ты, получается, что твоя сеть может искать скрытый смысл? Интересно, а какая-нибудь из сетей умеет фантазировать, чтобы как человек?
А можно ли нейросеть научить играть в карты? В дурака, скажем? Насколько я понимаю, для этой задачи нужна обратная связь, чтобы сеть могла планировать свои ходы, но как такую обучать - не представляю.
>>767994 Какие сети там используются? Какая у неё структура? У меня довольно поверхностные знания в этой области, поэтому слабо представляю, как с помощью сетей решать более сложные задачи, чем распознавание циферок на поле 8x4.
>>767992 С одним семеном-хейтером нейросетей на самоподдуве? >>767991 Забудьте вы слово "нейросеть" вообще, это просто аппроксиматор функций. Если задачу можно представить в виде переменных с какой-либо (даже априорно неизвестной) взаимосвязью между ними, значит нейросеть в это может.
>>768123 >автоэнкодер это когда пропустили сигнал через сеть, а потом хуяк и пропустили в обратном направлении с тем же сигналом и весами который был на выходе.
>>768274 В начале января модераторы онлайн-игры EyeWire, посвященной картографированию сетчатки человека с обозначением всех находящихся там нейронов и связей между ними (синапсов) силами добровольцев со всего мира, с гордостью заявили о завершении обследования 250-го нейрона. Учитывая, что таких нейронов в сетчатке больше миллиона, это достижение трудно назвать гигантским прорывом — скорее один из первых шажков по дороге «в тысячу ли». Дороге, которая должна привести нас к раскрытию тайн нашего мозга. И кто знает — может быть, даже к цифровому бессмертию.
>>768276 Тогда будущий Нобелевский лауреат 2002 года Сидней Бреннер (Sidney Brenner), южно-африканский биолог, предположил, что поведение живого организма можно понять, составив полную карту его нервной системы. Он взялся за простейшую нервную систему круглого червя Caenorhabditis elegans (всего 302 нейрона, распределенных по всему телу), и, изучая один за другим его тонкие срезы, создал за два десятилетия полную нейронную карту. В 1986 году она была опубликована в Philosophical Transactions of the Royal Society of London, почтенном научном журнале, основанном еще Исааком Ньютоном. Номер вышел объемным, в 340 страниц, и с тех пор многие биологи называют его Книгой, причем не столько из-за фолиантной толщины, сколько из-за информации, которая там содержится, и сегодня, спустя почти три десятилетия, остается для исследователей сборником вопросов без ответа.
Пиздос 304 нейрона управляют червем. Как же такое на кампутерах не повторить-то?
>>768014 Довольно хуево гуглится. Везде сплошной научпоп о невероятном прорыве нейросетей с весьма поверхностным обзором. Исходники ёбаные 30к крестодрисни не слишком хочется читать. Может, сам на пальцах пояснишь, какую архитектуру сети он там использует или какую ты бы использовал?
Сап, аноны. Ищу человека, который мне пояснит по scikit learn. Есть готовая база текстов (слова нормализованны, стоп-слова убраны). Мне нужно, чтобы мне помогли обучить модель, я не понимаю что и в каком виде передается в функции библиотеки. Готов оплатить. Почта [email protected]
Аноны, а вот теперь я возвращаюсь к задачам классифицирования. Да, я использовал две сети SOM для того, чтобы сеть могла абстрагировать данные, это вполне подобно тому, как человек это делает. Но что получается, когда нам нужно классифицировать больше признаков и их количество нам неизвестно?
Также интересна еще следующая вещь, в мозгу человека многие отделы мозга общаются с друг-другом только для того, чтобы узнать о происходящем и на основе своей "логики" что-либо предпринять.
Нам требуется нечто подобное, дабы каждая конечность могла обучаться в процессе более эффективнее, чем сейчас.
Кстати, внезапно, но обнаружил, что игровые движки с физикой Rigdoll вполне могут что-нибудь классное симулировать.
>>768472 >что получается, когда нам нужно классифицировать больше признаков и их количество нам неизвестно? Я ж говорю - любое unsupervised адаптивное векторное квантование (NG/GNG). SOM это несколько не то что нужно в данном случае, оно для визуализации и визуального анализа данных. В случае надобности все это легко визуализируется, например проекцией Сэммона, для наглядности можно даже мозаику Вороного прикрутить.
>>768311 >These early attempts of simulation have been criticized for not being biologically realistic. Although we have the complete structural connectome, we do not know the synaptic weights at each of the known synapses. We do not even know whether the synapses are inhibitory or excitatory. To compensate for this the Hiroshima group used machine learning to find some weights of the synapses which would generate the desired behaviour. It is therefore no surprise that the model displayed the behaviour, and it may not represent true understanding of the system.
>>768628 Да нет, SOM - это конкретно то, что нужно в данном случае. А векторное квантование и тут и там присутствует. Да и гугл что-то отказывает гуглить NG сети.
>>752098 (OP) Аноны, хочу вкурить, что такое персептрон Рекуррентные сети и этот ваш SOM Уже завтра начну повторять Питона. А что по сетям почитать? Не на английском, я то перевести смогу, но хуево.
Черт, сейчас уже не до кода, но что будет, если рекуррентную сеть динамически расширять? У меня, допустим, есть потребность в динамической памяти, которую нужно по разному обрабатывать и сохранять, причем, эта информация всегда остается актуальной.
>>770581 а если упростить с несущественными потерями, то мы получим искусственную нейросеть с полезной структурой, которую можно было бы применить где-либо.
>>770583 Нейронную сеть и так можно применять где-либо, а по сути - везде. Но суть далеко не в этом.
Суть в том, что приходится пилить ОЧЕНЬ МНОГО КОСТЫЛЕЙ. Знаете, что пришло в голову в нашем универе у людей? А давайте обучим сеть чистой мат логике и на основе иерархической структуры будем анализировать вообще все. То-есть хотят взять числа и прочие показатели как константу, связать их с методами и обрабатывать.
Это пиздецкие костыли, а ведь я просто предлагал использовать классификацию для того, чтобы получать новые методы..
>>770219 >гугл что-то отказывает гуглить NG сети. Neural Gas / Growing Neural Gas. >>771132 А с чего ты вообще взял, что различные (адекватные решаемой задаче) представления данных это костыли? Чтобы решить какую-то задачу каким-то аогоритмом, ее нужно представить в виде, адекватном для алгоритма, это норма. В чем костыльность-то?
>>771132 Это представьте, что если бы вы для решения примера вспоминали бы всю математику заново и вспоминали бы все свои ранее решенные примеры ради чего-нибудь простого.
Нет, с 2 + 2 это еще легко, но на практике понадобится пиздецкая мощность для 50 параллельных расчетов одновременно. Правда такая сеть может считать вообще все, что угодно, подходит для решения любой задачи, где есть набор переменных и надо найти взаимосвязи
>>771151 И чем сложнее задача и больше переменных, тем больше придется просчитывать, в некоторы случаях нужно около 10000 вычислений одновременно. Ну, можно еще сократить вычисления до 100, но тогда обучение будет очень медленным и ответа придется ждать долго.
Аноын, я почти все понял, но не понял, что такое весысинапсы нейронной сети, объясните мне, что это и зачем оно нужно? Или где почитать в целом об работе одного, конкретного, отдельного нейрона
>>771182 Коэффициенты линейной функции ax+b, где x - вход, a - "синаптический" вес, b - порог. >где почитать в целом об работе одного, конкретного, отдельного нейрона Да где угодно, на каждом углу жи расписано.
>>771202 >что делает конкретно, один нейрон в сети? Если речь о перцептроне, то вычисляет суперпозицию частной функции от одного аргумента в общей функции от многих аргументов. Горбаня читни http://www.pereplet.ru/nauka/Soros/pdf/9812_105.pdfhttp://kpfu.ru/portal/docs/F1732864826/02_5.PDF у него годно расписано что и зачем. В общем случае - постарайся понять что такое линейная функция, в той же педивикии есть. Как она соотносится с "нейроном" - я написал. Для чего нужна функция активации нейрона (обычно нелинейная, н-р сигмоид) на пальцах объяснить уже сложнее, там суть в том, чтобы деформировать входы так, чтобы они оказались линейно-разделимыми для линейных функций первой части "нейрона". Общая же суть происходящего - аппроксимация зависимости выходов от входов.
>>771202 >>771211 Этот прав, тебе в матан надо. Сначала пойми что такое функция вообще Потом, все про линейные функции. Пойми про суперпозицию функции.
Поясните за разницу между Logistic regression, Decision tree classifier, Random forest classifier, Gradient-boosted tree classifier, Multilayer perceptron classifier, One-vs-Rest classifier (a.k.a. One-vs-All). Как из этого выбрать наиболее подходящее?
>>771243 >как выбрать нужный алгоритм, исходя из данных? Тут два варианта: - читаешь про каждый алгоритм, понимаешь его логику (что, как и с какой целью он делает), думаешь что лучше подойдет для решения конкретной задачи, анализа конкретных данных. - хуяришь все подряд, прямо по списку, смотришь с каким алгоритмом самый лучший результат (при классификации - наименьшее количество неправильно классифицированных примеров из тестовой выборки).
>>771214 Спасибо, так матан совсем легкий. Получается, что посылаются векторы, адаптивный сумматор их считает посылает на нелинейный преобразователь сигнала и тот преобразует в число, потом этот сигнал перераспределяется на выходе. Это пока просто.
>>771249 Но тут в дело входит просто охуительное объяснение, спасибо блядь, что из этого понятно вообще? >Линейная связь – синапс отдельно от сумматоров не встречается, однако для некоторых рассуждений ывает удобно выделить этот элемент. Он умножает входной сигнал x на “вес синапса” α.
>>771249 >потом этот сигнал перераспределяется на выходе. На выходе полученное значение сравнивается с реальным, разница (ошибка) используется для настройки свободных параметров сети (тех же коэффициентов линейных функций). >>771252 Очевидно же, речь о параметрах линейной функции. >По какой логике и чему он должен быть равен? Тебе жи говорят - читай про линейную функцию. В линейной функции ax+b параметр а - это тангенс угла между линейной функцией и положительным направлением координатной оси. Т.е. входное значение х умножается на значение этого тангенса.
>>771255 А все, кажись понял, для чего оно нужно, для того, чтобы входной сигнал корректировать в согласии с результатом обучения? Только я еще не понял, сигнал поступает в векторном виде, переводится в скалярный, а потом опять в векторный? В каких местах идут эти переводы?
>>771259 И вот этот момент странный >Для полносвязной сети входной сумматор ней- рона фактически распадается на два: первый вычисляет линейную функцию от входных сигналов сети, второй – линейную функцию от выходных cигналов других нейронов, полученных на предыдущем шаге. Такс, Два сумматора Первый вычисляет результат от входа, второй от других нейронов. А что дальше с этими результатами происходит?
>>771259 А все понял, сначала берется вектор, подается в сумматор У которого есть переменная A Тот берет и складывает в скалярном виде Посылает на Нелинейный преобразователь, тот переводит в векторный вид И все это рассылается?
А от чего сначала зависит параметр A? Чему он равен? Обучение - это и есть настройка этого параметра A?
>>771267 Аноны, а объясните, зачем нейрон делает вот это вот? >Нейрон получает на входе вектор сигналов x, вычисляет его скалярное произведение на вектор весов α и некоторую функцию одного переменного ϕ(x, α). Я опять ничего не понял, что делает адаптивный сумматор. Сначала думал, что он берет и находит произведение входящих в него векторов в скалярном виде. А теперь - это что еще за нахуй? Ну объясните, пожалуйста, я совсем нихуя не понимаю.
А есть ли какие актуальные средства разработки не на прыщах? Чтобы сразу можно было взять нейросеточку закомпилить, обучить, пощупать? А не проливать реки слёз, обламываясь с установкой куды на виртуалку убунты.
Как будет обучаться сеть, если у меня есть несколько параметров, например 3 И я провожу обучающую выборку, показывая взаимосвязь правильную. А потом я даю сети задачу на нахождение взаимосвязи уже с другими значениями.
Аноны, посмотрел вступительные экзамены для поступления в ШАД, и понял, что там всё достаточно серьезно в плане требований к математике. В связи с этим вопрос: какая математическая подготовка должна быть для нормального восприятия ML, то есть не на уровне "магии"? В ШАД адекватно оценивают сложность темы или всё-таки перестраховываются, дабы оградить менее одарённых товарищей даже от мыслей о поступлении? Еще лучше будет конкретнее - какие книги по теме стоит переработать перед изучением сабжа?
>>771725 >В ШАД адекватно оценивают сложность темы или всё-таки перестраховываются, дабы оградить менее одарённых товарищей даже от мыслей о поступлении? Второе. Российская традиция, она такая, Ленин страдал и нам велел.
>>771725 > В связи с этим вопрос: какая математическая подготовка должна быть для нормального восприятия ML, то есть не на уровне "магии"? Хз.
> посмотрел вступительные экзамены для поступления в ШАД, и понял, что там всё достаточно серьезно в плане требований к математике Нет. Нужно тупо дрочить примерчики из Демидовича. Теорию множеств знать не надо, топологию знать не надо, теорию меры знать не надо. То, что там требуют - это вообще не математика.
Аноны, я все вкурил в нейронных сетях и персептронах многослойных. Не надо уж так много матана для этого знать. А что посоветуете почитать для того, чтобы понять по части матана и всяким приемчикам? Пожалуйста не на английском и чтобы не много матана было
Аноны, а вы помните статью того чувака на хабре про волновую, паттерновую модель? Волновую модель в топку, а вот распространение всего с помощью паттернов - это фишка.
Представьте, что у вас есть револьвер. И револьвер - это рекуррентная сеть с открытой памятью. И при каждой операции у других сетей мы берем и навешиваем им некоторый символ, по которому мы сможем их отличать.
И так вот, если обучить сеть чему-нибудь, закодировать все операции в виде паттернов, дальше, методом векторного квантования мы классифицируем результаты и получаем приоритеты в тех или иных вещах.
Теперь, когда на сеть подаются данные - она ищет соответствия в паттернах, и загружает информацию в слой рекуррентной сети. Получается, что это работает, как револьвер. И главное - вычисления можно проводить в несколько потоках, то есть как у человека, который выполняет несколько привычных действий.
Эх, еще бы примотать к этому надклассификацию, чтобы сеть могла выискивать новые значения функции, исходя из старых И в том числе поиск закономерностей
АНОНЧИКИ, ПОСОВЕТУЙТЕ КНИЖКУ ПО ДИП ЛЕАРНИНГУ, ТОЛЬКО НА РУССКОМ БЕЗ МЕТЕМАТИКИ, РЕГИСТРАЦИИ, СМС И КРОСС-ВАЛИДЕЙШЕН. АНОНЧИКИ, А МОЖЕТ ЛИ СЕТОЧКА НАУЧИТЬСЯ ГЛУБОКОМУ БЛОУДЖОБУ? НО ВЕДЬ ЛЮДИ ТАК НЕ ОТЛИЧАЮТСЯ, СЁРЛ, СЁРЛ, СЁРЛ.КАК ПОСТУПИТЬ В ШАД, ЕСЛИ У МЕНЯ ДЕВЯТЬ КЛАССОВ ОБРАЗОВАНИЯ В ШКОЛЕ ДЛЯ ДЕБИЛОВ?
>>772012 Правда производить надклассификацию еще очень тяжело. Но с простыми мат.функциями сеть работает отлично, она быстро научилась всем правилам. >>772006 >Хочу разобраться в матане без матана >Без английского. Что ты тогда тут вообще забыл? Иди английский учи, тебе либо нормальное объяснение на энглише, либо статьи русских маразматиков. >>772014 Ой, да не агрись ты так, побесится и уйдет
>>772018 Да хули там непонятного, блядь Тебе математическая сумма непонятна? Или линейная функция? Или операция умножения двух чисел тебе непонятна, блядь? Ты не программист - ты говно.
>>772017 >>772014 Анон, ну объясни хотя-бы как сеть работает с цифровыми данными. Есть ли где-нибудь пример калькулятора на нейронной сети или вроде того?
>>771259 >для того, чтобы входной сигнал корректировать в согласии с результатом обучения? Нет. Входной сигнал - это константа, корректировать можно свободные параметры сети.
>>771357 >значение синаптических весов всегда лежит в диапазоне от 1 до -1 Это значение нелинейной функции активации "нейрона". Параметры линейной функции не обязаны быть от -1 до 1.
>>771144 Охуеннейший алгоритм, анон, спасибо. Как нельзя лучше подходит для векторного квантования данных. Кстати, название на русском "Нейронный газ", блядь. Интересно, как это визуализировать? Какая-нибудь мозаика Вороного явно подойдет.
>>772043 То-есть вполне допустимо работать с числами любых размеров? И я вполне могу обучить нейронную сеть, что 15+5 = 1, она сама подберет синаптические веса, верно?
>>772052 NG/GNG нельзя указать на ошибку, это алгоритмы обучения без учителя. Они воспринимают только ошибку квантования на текущем датасете. Есть векторное квантование с учителем, там можно задавать правильные выходы.
>>772053 >>772059 >>772052 >>772045 >>771144 Аноны, а зачем это нужно? Это типа, чтобы классифицировать что-то? А как эти растянутые нейроны означают группу? Это типа как у гугла, где от главного запроса можно получить связанные с ним?
>>772059 Это апплет от самого автора GNG http://www.demogng.de/http://sund.de/netze/applets/gng/full/GNG-U_0.html растущий нейронный газ в базовом варианте для практических целей бесполезен, т.к. при большой размерности датасета и большом количестве узлов объем вычислений настолько конский, что любой комплюктер встает раком. Смысл есть использовать только оптимизированные варианты, н-р http://r.gmum.net/ пшеки для R делали. >>772076 Для любой задачи, сводимой к векторному квантованию. Не только классификация.
>>772026 Кстати, да, всегда бесило, что некоторые пишут только мат формулы без объяснения как это программить. Ладно там только сумма или еще че простое, но если та интегралы и вся хуйня математическая, которую хуй пойми как запрограммировать.
>>772082 ХУЛИ СЛОЖНОГО В ИНТЕГРАЛАХ, БЛЯДЬ? ВОЗЬМИ ЕГО ЗНАЧЕНИЕ ИЗ ТАБЛИЦЫ, БЛЯДЬ И НАЙДИ ИНТЕГРАЛ, НИЧЕГО ЛЕГЧЕ БЫТЬ НЕ МОЖЕТ. Кто в треде сидит, девятиклассники?
>>772082 В нормальных статьях автор всегда дает референсную имплементацию, где ты можешь уточнить. Если же он не дает, он скорее всего старается и рыбку съесть в виде публикации и нахуй сесть в виде сохранения своей интеллектуальной собственности. С этим бывает сложно. Но так как ты учишься, а не смотришь блиидин эдж технологии, то референсный код ты сможешь найти всегда. Его и смотри. Заодно и поймешь, что какая закорючка знает.
>>772080 У него возможностей побольше, чем у обычной SOM, архитектура не задана сразу и при небольшом кол-ве данных оно очень полезно. А такой подход в Som - даже для меня новизна. Это же можно брать классы и паттерны из операций и грузить их в банки памяти рекуррентной сети сразу же. Только надо еще посмотреть, как она с логическими операциями справляется и как на нее можно влиять, все-таки такое обучение без учителя может оказаться и правда бесполезным. Или еще 50 методов сколхозить Som с другими сетями
>>772179 >Поясните за ELM, Ну хуй знает, создатель сверточных сетей ЛеКун эту идею обоссал, грит, во-первых еще Розенблатт такое предлагал, во-вторых, плохо сделано, тупо: Yann LeCun's thoughts about ELMs:
What's so great about "Extreme Learning Machines"?
There is an interesting sociological phenomenon taking place in some corners of machine learning right now. A small research community, largely centered in China, has rallied around the concept of "Extreme Learning Machines".
Frankly, I don't understand what's so great about ELM. Would someone please care to explain?
An ELM is basically a 2-layer neural net in which the first layer is fixed and random, and the second layer is trained. There is a number of issues with this idea.
First, the name: an ELM is exactly what Minsky & Papert call a Gamba Perceptron (a Perceptron whose first layer is a bunch of linear threshold units). The original 1958 Rosenblatt perceptron was an ELM in that the first layer was randomly connected.
Second, the method: connecting the first layer randomly is just about the stupidest thing you could do. People have spent the almost 60 years since the Perceptron to come up with better schemes to non-linearly expand the dimension of an input vector so as to make the data more separable (many of which are documented in the 1974 edition of Duda & Hart). Let's just list a few: using families of basis functions such as polynomials, using "kernel methods" in which the basis functions (aka neurons) are centered on the training samples, using clustering or GMM to place the centers of the basis functions where the data is (something we used to call RBF networks), and using gradient descent to optimize the position of the basis functions (aka a 2-layer neural net trained with backprop).
Setting the layer-one weights randomly (if you do it in an appropriate way) can possibly be effective if the function you are trying to learn is very simple, and the amount of labelled data is small. The advantages are similar to that of an SVM (though to a lesser extent): the number of parameters that need to be trained supervised is small (since the first layer is fixed) and easily regularized (since they constitute a linear classifier). But then, why not use an SVM or an RBF net in the first place?
There may be a very narrow area of simple classification problems with small datasets where this kind of 2-layer net with random first layer may perform OK. But you will never see them beat records on complex tasks, such as ImageNet or speech recognition.
>>772198 Да, поясните, что я должен использовать, чтобы классифицировать пасты на дваче, к примеру? Например, чтобы определить обычный пост, тнн-пасту, шапку треда и пасту про коммунизм? мимо даун
>>772201 А как же результаты экспериментов на различных дата сетах, которые показывают, что ELM, по точности классификации сравнима с MLP и deep boltsman networks?
>>772234 >ELM, по точности классификации сравнима с MLP Это местами и есть MLP: The original 1958 Rosenblatt perceptron was an ELM in that the first layer was randomly connected.
И да, тот жи ЛеКун где-то писал, что все что может сверточная сеть, может и MLP, только свободных параметров будет в разы больше, соотв-но и вычислительных ресурсов нужно намного больше.
>>772205 Что-бы детектировать тнн-пасту Надо взять пасту на анализ, выделить ключевые слова, количество оскорблений И из подобной статистики машина поймет, что это тнн-паста, на самом деле все куда сложнее и легче самому читать, чем это дело программировать.
Намного интереснее - это идея сделать все механическим. Может можно какую сеть в таком виде захуярить? Ведь по сути в персептроне есть синапсы - ну, это просто операция умножения, блок суммирования - операция сложения и дальше просто взять и развести сигнал на встречу другим синапсам.
Надеюсь, я ничего не упустил? Механические калькуляторы уже были, если шестерни сделать очень маленькими, то оно и займет очень малые размеры. Можно сделать что-нибудь, что будет самостоятельно калиброваться, например, или подстраиваться под какие-то условия.
Если бы она научилась считывать информацию с пленки механического фотика - то можно было бы вообще без электроники обходиться.
>>772318 А она вполне может, правда тебе придется крутить много барабанчиков с пленкой, можно кадр на пиксели разбить даже. То-есть научиться распознавать цифры какие-нибудь она и так может.
>>772335 Также, как это делает и нейронная сеть. Хм, что-ли взять такое аутирование себе и построить какой-нибудь дирижабль на механике или подобное чудо и сказать, что он разумный? Мне же все любители стимпанка и прочей хуйни поклоняться станут. Это же несколько простых операций - сначала обучить нормальную нейронную сеть, а потом перевести в механику. Если ты прав насчет того, что через механический фотик можно сделать распознавание образов - так это же замечательно. Представь, что можно научить дирижабль стрелять в один тип объекта. Типа "видит" объект и стреляет в него. Да это же будет первый механический, беспилотный бот с нейронной сетью. Итого: сеть для управления дирижаблем и его двигателем, сеть для навигации, определение ветра и погоды, счет образа, баллистическая сеть для пушки. Бля, ушел делать
>>772022 Как, как? Там, бля, на выходе сети всё что угодно может быть. То, что на выходе могут быть числа в диапазоне от -1 до 1, не является никаким препятствием для обработки цифровых данных.
Аноны, понял насчет перцептрона Понял насчет многослойных сетей Понял насчет обратного распространения ошибки Мне уже можно изучать питон и брать библиотеку PyBrain? Она вообще нормальная?
>>772701 Но у меня же будут велосипеды всякие, а в функции по части матана я все равно вкурил плохо, у меня с логикой намного лучше. Или идти перекуривать? А, может ты и прав.
>>772715 Черт, не так я себе представлял создание нейронной сети. Но ладно, главное ведь результат. Пока единственное что вижу - это статья про 11 строк кода
>>773014 Ну не знаю, хотя бы не писать каждый нейрон отдельно. Но ладно, раз так надо, то буду. А всегда надо представлять нейрон в виде простого массива?
>>773018 можешь представить его в виде монады - одно и то же ведь "веса" (параметры) разумеется представляются в виде распределиния вероятности, распределение считаешь по теореме бейса для НЕЙРОНОЧЕК оно не будет задано аналитически - придётся аппроксимировать советую найти пару-сотен максимумов апостеирорного распределения. хороший численный метод - метод нютона твоя реализация бекпропа должна уметь считать как градиенты, так и гессианы используя гессианы на максимумах делаеш лаплас аппроксимейшены теперь из получившийся комбинации гауссовых распределений делаеш сэмплинг (никакого мсмс) сэмплаешь каких 50-100 массивов параметров, вычеслешь значение НЕЙРОНОЧЕК с этими параметрами и берёшь среднее
>>773073 Итого, мне надо знать: Python, библиотеку numpy теорему байеса Что такое аппроксимация Апостериорное распределение Метод Ньютона градиенты, гессианы ГАУССОВЫ РАСПРЕДЕЛЕНИЯ, БЛЯДЬ? ЭТО ЖЕ ВЫШ МАТАН.
>>773076 Сука, да что тут за монстры сидят? Чтобы реализовать простую, значит, нейронную сеть - надо лезть в Гауссовы распределения, метод ньютона. Ну охуеть теперь, я в депрессии.
>>773113 Спасибо. Только придется ее полностью переводить, хотя оно и не важно, главное, что код понятен. После этой книги я смогу писать простые персептроны, Som, да?
>>773115 >придется ее полностью переводить, Зачем? Там английский уровня школы. >После этой книги я смогу писать простые персептроны, Som, да? Ну да, там все это разбирается на примерах. Весь код к книге тута http://stephenmonika.net/MLbook.html
>>773123 >перекат делай Лол, я не оп. >>773122 Хз, я больше по R угораю, хотя у местных школьников он не в моде. Касаемо нейроночек и т.п. там даже без доп. пакетов, чисто стандартными средствами ограниченную машину Больцмана делали в несколько строк кода http://www.r-bloggers.com/restricted-boltzmann-machines-in-r/
>>773284 Ну матан да, местами весьма хитрый. Но кодинг-то зачем? Почти все реализовано до тебя, для любых практических целей достаточно существующего софта.
>>773284 ну и хули? самый збс возраст что бы чем нибудь заняться таким вот читай: 1. david mackay (RIP) - ITILA. 2, 3, 27, 28 чаптеры 2. лекции из летней школы МЛ, кембридж-едишн: http://videolectures.net/mlss09uk_cambridge/ 3. bishop - PRML. от корки до корки это на 2-3 месяца дальше сам поймёшь что интересует и к 24 будешь норм шарить
>>773310 >>773319 Посоны, а есть ли толк от учебы по паре часов в будни и выходные? Работаю в сапе (лол) и свободен по вечерам. И да, спасибо за ответы.
НЕЙРОНОЧКИ Advanced 1. Elements of НЕЙРОНОЧКИ (http://statweb.stanford.edu/~tibs/ElemStatLearn/printings/ESLII_print10.pdf ) Сложность - 9 из 10. Шутки в сторону, можно читать годами. Если вы сможете полностью проработать эту книгу и прорешать упражнения, обязательно свяжитесь со мной - у меня найдется работа для вас. 2. Optimization for НЕЙРОНОЧКИ. Edited by Suvrit Sra, Sebastian Nowozin and Stephen J. Wright, MIT Press, 2012. Иногда from НЕЙРОНОЧКИ.НЕЙРОНОЧКИ import НЕЙРОНОЧКA перестает работать и тогда нужно все переписать. Оптимизация НЕЙРОНОЧКИ на больших объемах данных, НЕЙРОНОЧКИ, НЕЙРОНОЧКИ - вот это все тут есть. 3. http://www.cs.nyu.edu/~mohri/mlbook/ Как ESH, только слегка по-проще. Попробуйте, может зайти.
F.A.Q По мотивам предыдущего треда. Эти ваши книжки стоят овер 9000 рублей, как быть? http://libgen.io Книги хорошо, но с чего начать практический вкат? Во-первых, вам нужна любая unix-based система. На Windows возможно запустить нижеперечисленное, но ждите пердолева с настройкой и неодобрительных взглядов анонимуса. Кроме того, в компаниях, так или иначе связанных с разработкой йоба-ПО и НЕЙРОНОЧКИ, Linux/OS X является стандартом. Привыкайте. Во-вторых, определитесь с языком. Python и C++ наиболее мейнстримовые инструменты, с ними вы без еды не останетесь. Есть еще R, на котором пацаны живут НЕЙРОНОЧКАМИ и анальными пакетами. Некоторые инструменты являются языко-независимыми (Vowpal Vabbit, XGBoost), но обвязывать их вы все равно будете из какой-либо среды. На Java разработано много production-ready инструментов для бигдаты и если вы угораете по терабайтам данных, то имеет смысл посмотреть в её сторону. Впрочем, лучше это делать уже потом, когда прийдет осознание потребностей. В-третих, выбирайте себе задачу. Что угодно: распознать качпу, обнаружить ботов по логам, найти раковых больных. Список можно посмотреть, например, на kaggle.com. После чего приступаете к решению выбранной задачи. Не прийдется ли мне потом с таким наборищем знаний идти в макдак работать? Несмотря на хайп вокруг НЕЙРОНОЧКИ, далеко не во всех IT компания есть необходимость в НЕЙРОНОЧКИ и понимание круга задач, которые можно решить этими методами. Но поверьте, в 2016 компетентный специалист будет востребован. В России потребителями ваших знаний могут стать: Яндекс, Mail.ru, Вконтакте, Rambler, Касперский, Билайн, Связной, ABBYY, Хуавэй. В биоинформатике есть определенный спрос, можно поскролить http://blastim.ru Здорово, но я так и не понял чем же вы занимаетесь в IT компаниях? Попытаюсь ответить со своей колокольни и сразу хочу предупредить, что это едва ли консенсуальное мнение. НЕЙРОНОЧКИ-специалист - это такое зонтичное определение для человека, способного увидеть проблему, выгрепать кучу логов и данных, посмотреть на них, придумать решение проблемы и врезать это решение его в продакшн. По сути, это кодер, решающий не чисто технические, а, в некотором роде, человеческие проблемы. Имхо, мы все же остаемся в первую очередь разработчиками. Но ведь есть НЕЙРОНОЧКA per se, чем онa занимается? Действительно есть. Одаренная прослойка людей изобретает новые методы, но это правильнее называть просто математикой. Сейчас пищей для ума являются нейронные сети и НЕЙРОНОЧКИ, но даже они двигаются рука об руку с практикой. Что такое TensorFlow? TensorFlow - часть гуглового инструмента для перемножения тензоров и оптимизации функционалов. Часть - потому что важные куски типа паралелизации еще не выкачены в паблик. Если вам все ещё непонятно что это, значит это вам и не нужно, сириусли. Google перестарался с рекламой и теперь люди думают, что TF - это серебряная пуля и НЕЙРОНОЧКA для каждой бочки. До TF был Theano, который выполнял свою работу не хуже. И, в отличии от TF, он уже находится в стабильной фазе.
>>773385 Мой план осуществляется аноны, восприимчивость к английскому тексту повысилась уже на 2-й день, правда, не сильно. А покажите перспективы развития, что почитать после этой книги?
Аноны, первый раз в жизни повезло Моя идея с реккурентной сетью со сменной памятью оказалась удачной. Ng сеть классифицирует информацию и подает нейронной сети сигнал о том, какую банку памяти юзать Новая "группа" - новая банка памяти. Но всего еще недостаточно, хочу, чтобы группы в растущей сети умели в иерархию, для того, чтобы искать информацию быстрее. И это облегчит параллельные вычисления, как по мне.
>>773352 Почти все так и делают. Есть 1-2% элиты, которые учились в 57й матшколе а потом в каком-нибудь элитном вузе, но у остальных 98% детство проебано почти полностью и люди наверстывают как могут.
Алсо, ты по 8 часов прям работаешь? Если ты на работе будешь учебники по матану читать, кто-то заметит?
>>774807 аппроксимация это когда __аппроксимируешь__ можно __апприксимировать__ апостериорное распределение параметров НЕЙРОНОЧКИ например для __аппроксимации__ можно минимизировать расстояние кулльбака лейблера это можно зделать неявно максимизируя нижнюю границу вероятности данных забыл как это выводится, есть у бишопа в начале 10 чаптера всё разжёвано после этого НЕЙРОНОЧКА может вычислять предсказания маргинализируясь над этим аппроксимирующим распределением, вместо поедания говна (предсказание по точечной оценке)
Аноны, что такое "Обобщение"generalisation у нейронной сети? И правда ли, что когда сеть переобучается, что она теряет способность этого "обобщения" в сторону точных данных? Или я неправильно нихуя перевел?
>>775344 > Аноны, что такое "Обобщение" у нейронной сети? это когда подобрано удачное апостериорное распределение и у НЕЙРОНОЧКИ хоросё получается экстраполировать за пределы тренировочных данных > И правда ли, что когда сеть переобучается, что она теряет способность этого "обобщения" в сторону точных данных? переобучение произходит в основном при использовании точечной оценки параметров вместо всего распределения оценка часто берётся с как можно большей плотностью вероятности в распределении однако плотность алсо часто высока на очень ограниченной площади, основная масса вероятности может лежать далеко в регионах с меньшей плотностью и тогда НЕЙРОНОЧКА обсирается
Тред #2: https://arhivach.org/thread/170611/
Machine Learning 101:
1. Introduction to Statistical Learning, Casella ( http://www-bcf.usc.edu/~gareth/ISL/ISLR%20Sixth%20Printing.pdf )
Читается легко, неплохая разминка перед ESL
2. Pattern Recognition and Machine Learning, Bishop.
3. Bayesian Methods for Hackers. Введение в байесовские методы, годно.
4. http://neuralnetworksanddeeplearning.com
Введение в нейронные сеточки для самых маленьких. Написано простым английским.
5. https://yandexdataschool.ru/edu-process/courses - базовые курсы ШАДа.
Machine Learning Advanced
1. Elements of Statistical Learning (http://statweb.stanford.edu/~tibs/ElemStatLearn/printings/ESLII_print10.pdf )
Сложность - 9 из 10. Шутки в сторону, можно читать годами. Если вы сможете полностью проработать эту книгу и прорешать упражнения, обязательно свяжитесь со мной - у меня найдется работа для вас.
2. Optimization for Machine Learning. Edited by Suvrit Sra, Sebastian Nowozin and Stephen J. Wright, MIT Press, 2012.
Иногда from sklearn.linear_model import LogisticRegression перестает работать и тогда нужно все переписать. Оптимизация квадратичных приближений на больших объемах данных, разреженные модели, суррогатные оптимизации - вот это все тут есть.
3. http://www.cs.nyu.edu/~mohri/mlbook/
Как ESL, только слегка по-проще. Попробуйте, может зайти.
Дальше вас ждет дикий и необузданный мир. Два маяка https://vk.com/deeplearning и http://deeplearning.net/reading-list/ осветят дорогу: это списки литературы и обзоры статей для прощупывания пульса индустрии.
Computer Science
1. Intoduction to Algorithms, Corman
2. The Art of Computer Programming, Knuth
3. Compilers: Principles, Techniques, and Tools. Разработчикам компиляторов и прочим авторам убийц питонов и крестов посвящается.
4. Введение в информационный поиск, Кристофер Маннинг.
Как работает поиск с теоретической точки зрения.
Programming
1. Python Unlocked. Короткая книжка без соплей. В ней описаны метаклассы, дескрипторы, системы типов, шаблоны проектирования и TDD. Всего чуть больше 100 страниц концентрированной сути.
2. Code Complete (2nd), McConnel.
Неплохая книга. Не то чтобы обдрочиться, но в голове всякие фишки по структуризации кода и его проектированию остались.
Misc
1. Telegram: @techsparks
Подкаст про всякие гик-штуки.
F.A.Q
По мотивам предыдущего треда.
Эти ваши книжки стоят овер 9000 рублей, как быть?
http://libgen.io
Книги хорошо, но с чего начать практический вкат?
Во-первых, вам нужна любая unix-based система. На Windows возможно запустить нижеперечисленное, но ждите пердолева с настройкой и неодобрительных взглядов анонимуса. Кроме того, в компаниях, так или иначе связанных с разработкой йоба-ПО и machine learningом, Linux/OS X является стандартом. Привыкайте.
Во-вторых, определитесь с языком. Python и C++ наиболее мейнстримовые инструменты, с ними вы без еды не останетесь. Есть еще R, на котором пацаны живут статистикой и анальными пакетами. Некоторые инструменты являются языко-независимыми (Vowpal Vabbit, XGBoost), но обвязывать их вы все равно будете из какой-либо среды.
На Java разработано много production-ready инструментов для бигдаты и если вы угораете по терабайтам данных, то имеет смысл посмотреть в её сторону. Впрочем, лучше это делать уже потом, когда прийдет осознание потребностей.
В-третих, выбирайте себе задачу. Что угодно: распознать качпу, обнаружить ботов по логам, найти раковых больных. Список можно посмотреть, например, на kaggle.com. После чего приступаете к решению выбранной задачи.
Не прийдется ли мне потом с таким наборищем знаний идти в макдак работать?
Несмотря на хайп вокруг ML, далеко не во всех IT компания есть необходимость в ML и понимание круга задач, которые можно решить этими методами. Но поверьте, в 2016 компетентный специалист будет востребован. В России потребителями ваших знаний могут стать: Яндекс, Mail.ru, Вконтакте, Rambler, Касперский, Билайн, Связной, ABBYY, Хуавэй. В биоинформатике есть определенный спрос, можно поскролить http://blastim.ru
Здорово, но я так и не понял чем же вы занимаетесь в IT компаниях?
Попытаюсь ответить со своей колокольни и сразу хочу предупредить, что это едва ли консенсуальное мнение.
ML-специалист - это такое зонтичное определение для человека, способного увидеть проблему, выгрепать кучу логов и данных, посмотреть на них, придумать решение проблемы и врезать это решение его в продакшн. По сути, это кодер, решающий не чисто технические, а, в некотором роде, человеческие проблемы.
Имхо, мы все же остаемся в первую очередь разработчиками.
Но ведь есть Machine Learning per se, чем он занимается?
Действительно есть. Одаренная прослойка людей изобретает новые методы, но это правильнее называть просто математикой. Сейчас пищей для ума являются нейронные сети и их возможные архитектуры, но даже они двигаются рука об руку с практикой.
Что такое TensorFlow?
TensorFlow - часть гуглового инструмента для перемножения тензоров и оптимизации функционалов. Часть - потому что важные куски типа паралелизации еще не выкачены в паблик. Если вам все ещё непонятно что это, значит это вам и не нужно, сириусли. Google перестарался с рекламой и теперь люди думают, что TF - это серебряная пуля и затычка для каждой бочки. До TF был Theano, который выполнял свою работу не хуже. И, в отличии от TF, он уже находится в стабильной фазе.