Что'то слесаря совсем деградировали, не могут осилить не только алгоритмы, которыми пытаются что'то сделать, но и либы, реализующие эти алгоритмы. Господа, вам не стыдно задавать вопросы как в конце предыдущего треда? Мне такое даже читать стыдно, если честно. Какой вам машоб, если вы гугл и пару страничек документации одолеть не можете? Пиздец с какими деградантами сижу...
Как в матлабе сделать такую трансформацию: прохожу по изображению окном 3x3 пикселя, и записываю вектор из этих 3 пикселей? Был для RGB изображения массив: 1) ширина-высота-3 Должен стать массив: 2) ширина-высота-9
Напомню неприятный вопрос из прошлого треда. Тут принято хейтить R, ок. Возьмем такую тему как natural language processing. Покажите мне на пистоне или где угодно функционал уровня https://cran.r-project.org/web/packages/LSAfun/index.html особенно интересует функция MultipleChoice().
Нет вы послушайте. Решил я угореть по всякому семантическому анализу текстов. Ну, думаю, уж на пистоне этого добра навалом, раз он такой распиаренный. А там и нет нихуя кроме word2vec, tfxidf и прочего примитива. Как же так? Хотелось бы оправданий. Тем более, что на R полно всего по этой теме. LSA, LDA, topicmodels итд. Книги по анализу текста в пистоне просто смешно читать, это для начальной школки учебники? >>1004808 Причём яндекс?
>>1004856 для питона есть nltk и gensim, никто не призывает читать книги про анализ текстов на питоне, к тому же такие книги в основном о питоне, а не о анализе текстов.
LSTM достаточно точно описывает нейрон? Именно на них можно будет построить ИИ ? Какой сейчас предел в количестве моделирования? Какие модели применяются для переводчиков? Если наращивать количество нейронов, перевод будет точнее?
>>1004930 > LSTM достаточно точно описывает нейрон? Достаточно для чего? Нет, искусственные нейроны это математические модели, которые основаны на биологических, но их задача быть эффективными, а не похожими. Близкие к настоящему нейрону модели могут быть использованы в специализирующихся на этом проектах, вроде Blue Brain, но на практике у них нет применения, или оно не обосновано. > Именно на них можно будет построить ИИ ? Нет. > Какой сейчас предел в количестве моделирования? Что есть количество моделирования? На полный мозг, например, человеков пока не хватило. > Если наращивать количество нейронов, перевод будет точнее? Увеличение размера и количества слоев имеет свои пределы полезности, масштабирование это не решение, нужно подбирать архитектуру.
Проблема не с тем чтобы была больше мощща, а с тем что используются подходы 70-80х. Математике нужно догнать развитие железа.
>>1004946 >Достаточно для чего? Нет, искусственные нейроны это математические модели, которые основаны на биологических, но их задача быть эффективными, а не похожими. Близкие к настоящему нейрону модели могут быть использованы в специализирующихся на этом проектах, вроде Blue Brain, но на практике у них нет применения, или оно не обосновано. Это че, моделировали, моделировали, а на практике так и нет применения? Мда.
>>1004955 Практика это машинное обучение, датаслесарство - дана предметная область и в ней надо решать задачи как можно более простыми методами. Пока не появился ИИ, его моделирование следует относить к теории.
>>1004946 > Проблема не с тем чтобы была больше мощща, а с тем что используются подходы 70-80х. Математике нужно догнать развитие железа. В области машоба все равно лучше теории статистического обучения Вапника небыло и скорее всего не будет ничего. Саму задачу обучения не получится поставить шире и точнее. Но большинству похуй же, пока подход уровня 'нахуярим побольше слоев' дает результаты лучше, чем более умные алгоритмы.
>>1004962 Настоящий нейрон это сложная система физических и химических процессов. Воссоздавать сам по себе нейрон на базе железа нет смысла, пока не изучена работа всего мозга - мы не можем собрать всю сеть, а сам нейрон без нее... просто не для задач машинного обучения. >>1004964 Этот подход рано или поздно себя исчерпает. Вообще, забавно будет наблюдать картину в программировании лет через 10, когда в вебе останется только 3.5 соцсети с широким функционалом, а автоматизация вытеснит остальных макак из профессии.
>>1004980 Этим занимается computational neurosciene. Но пытаться на этом сделать машоб - это (как по-моему Ле Кун говорил) все равно, что пытаться сделать самолет на с помощью махания крыльями. Нейроны сложные, при чем довольно сильно и избыточно.
>>1005133 Понять основные отличия в их функциях и хотя бы прикинуть приблизительные модели. Понять на сколько полна существующая модель нейрона и возможна ли замена одного натурального нейрона несколькими искусственными.
>>1005136 Можешь посмотреть вот этот курс - https://www.coursera.org/learn/computational-neuroscience Начинается с описания работы биологических нейронов, далее рассказывается про то, как наблюдения за группами нейронов превратились в первые мат. модели, после чего описание мат. моделей перерастает в описание backprop.
TL;DR биологический нейрон несоизмеримо сложнее того, что называется нейроном в машобе. Описанию первого даже на базовом уровне посвящены книги, а о последнем можно рассказать в двух предложениях.
>>1005158 >Описанию первого даже на базовом уровне посвящены книги Важны каналы передачи сигналов и как они обрабатываются и передаются далее же. Хотелось бы примеров в двух словах для начала.
>>1005160 Калий-натриевые насосы (и др. механизмы) на поверхности нейрона поддерживают высокую концентрацию ионов натрия, кальция и хлора снаружи, и высокую концентрацию ионов калия внутри нейрона. Нейромедиаторы, улавливаемые дендритами, провоцируют вливание ионов из межклеточной жидкости внутрь клетки, изменяя таким образом мембранный понетциал. Когда мембранный потенциал доходит до определенной отметки, клетка возбуждается и в ней начинается сложный процесс входа и выхода ионов, который сопровождается ионным током по аксону. Аксон покрыт миелиновой оболочкой, которая предотвращает потерю заряда, а миелиновая оболочка разделена на сегменты перехватами Ранвье, в которых ионный ток дополнительно усиливается. Доходя до конца аксона, ионный ток высвобождает нейромедиаторы, а клетка переходит на некоторое время в период восстановления. Эффект от высвобожденных нейромедиаторов определяется синаптической пластичностью.
Синаптическая пластичность - это основа для памяти и одновременно крайне сложный механизм, который зависит от синхронизации спайков и ионных эффектов, описанных выше в этом посте. Поэтому сделать и просто, и очень похоже на биологический нейрон на сегодняшний день не выйдет. Нейросаенс это не машинное обучение. Нейросаенс это биофизика, а машинное обучение это, если хочешь, модное название для статистики.
Пожалуй, с точки зрения создания ИИ мы ближе к чему-то совершенно отличному от человеческого мозга. Точно так же, как воздушный шар не похож на птицу.
>>1005170 Вебкамера на глаз тоже не очень. Но мне кажется такая сложность в функционале только из-за процессов эволюции, а суть процесса не сильно и сложна, и все таки все можно упростить.
>>1005204 Сейчас диплернинг курильщика. Диплернинг здорового человека это глубокие стеки из SVM и глубокий бустинг. Пока в зачаточном состоянии, но в перспективе порвут эту хуйню с мильенами слоев.
Как вы стали умными и стали обсуждать такие серьезные вещи? Не ужели хватило просто около десятка книг? Или таки профильное образование и сопутствующее? Реально ли быть громким, эм, исследователем, но при этом самоучкой?
>>1005386 Кто тут умный-то? Полтора ебалая. Все темы, что тут обкашливаются - это любая книшка в тему + общее представление о матанализе, теорвере и линейной алгебре. >Реально ли быть громким, эм, исследователем, но при этом самоучкой? Сложно сказать. Если реально угореть по этой теме и не пожалеть времени и сил, то да.
Можно сделоть нейросеть, которая будет генерировать математические задачи (и ответы на них), расписывать поэтапно и некие подсказки чуть-чуть к мелким этапам? Ну, и как такое бы делалось?
>>1006023 Можно, но зачем именно сетью? Родина дала тебе марковские цепи, генетические алгоритмы и прочее счастье для получения новых текстов из датасета. Решения вообще проще выводить аналитически.
Поясните про AutoML. Что это даёт в плане возможностей? В инете инфа что будто бы нейросеть сама будет обучаться, а насколько я понимаю - собирают все нейросети в некий набор, и проверяют какая нейросеть из этого набора лучше справляется с возникшей задачей, то есть под принципиально новую задачу надо будет писать новую нейросеть.
>>1004751 (OP) Почему составители книг по нейронным сетям и статическому обучению аутисты? У Мерфи прямо в начале поясняется за MAP, хотя оно нахуй не нужно там, а только потом поясняется за Теорию Вероятности, причем так, что ты не поймешь, придется гуглить, пояснений о том, как работает формула нет. Автору Machine Learning: Probabilistic Perspective хочется пожелать рака прямой кишки за объяснение теории вероятности с помощью сложнейшего примера. Можно было использовать простой пример, но лучше выдать сложный, а потом написать: "Ой, вы что-то не поняли? А гляньте в учебник по теории вероятности, нахуй мы это написали, если вы изначально могли заглянуть туда? Ну хз)))"
Какая разница между Caffe и Caffe2? Хочу оформить CNN под лицепонимание. Но по сути никаких diff статей не нашел про эти два продукта. Алсо может кто-то с барского плеча подскажет толковую уже либу под с++ (тензор тушится по памяти, судя по всему у них там мемлики есть(!sic))
Пацаны, очень важно обучить линейный классификатор в tensorflow, бинарная классификация на этапе обучения вот такая ошибка UnimplementedError (see above for traceback): Cast string to float is not supported [[Node: linear/linear/ToFloat_4 = Cast[DstT=DT_FLOAT, SrcT=DT_STRING, _device="/job:localhost/replica:0/task:0/cpu:0"](SparseTensor_6/values)]]
Все категориальные признаки переписаны в тензоры, все вещественные во float64, две метки классов во float64
>>1006994 >>1007066 >>1007068 Если бы правда всем тредиком запилить учебник, Slesar's Guide to Machine Learning, SGML. Кратенько так, по всем основным направлениям. Без всякой матчасти, общие принципы, примеры, ссылки на профильные пейперы, книжки, туторы и т.п. Чтобы любому школьнику было понятно.
Сап, анончики! Проблемный ньюфач вкатывается в тред, вопрос такой, буду писать диплом на очень интересную тему, которая звучит как "Оценка ценности информации при геологоразведочный работах на основе баесовых сетей". Про баесову теорию в курсе, возможно, даже смогу ее применить, вопрос лишь в том, что я не шарю в программировании. В описании темы указано, что понадобится знание R и матлаба. Вопрос вот в чем, с чего начать изучение этих пакетов и стоит ли вообще, может есть варианты получше? Вопрос еще в сроках, так как на всю работу примерно полтора месяца.
>>1007762 Смотря для чего. Если нужен пистон, то однозначно глинукс, в винде заебешься + все примеры и уроки для глинукса. Бубунта оптимальна. Ее можно и на винду поставить как приложение.
>>1007845 Введения для чайников на русском языке сразу выкинь на мороз, там обычно пишут такую хуиту, что страшно становится.
Вообще забудь про научно-техническую литературу по теме на русском языке, считай что нет ее. Вот тут есть охуенное введение в нейроночки для зрения http://cs231n.github.io Что-то проще ты вряд-ли найдешь
Сап, посоны, я в вашем треде не сижу, но принес вам ободряющие новости. Да, нейроночки сейчас в цене, но специалистов, как я понимаб, в конторы набирают в маленьком количестве. Вот в нашем модном стартапе в дс, где я херачу разрабом баз данных, сейчас берут одного 30лвл чувака как раз для нейроночки, платят ему 300к в месяц. Чел этот еще говорит, что все это изи, и он вообще не понимает, почему все это не изучают, тип >изи жи)))) так что старайтесь, учитесь, все у вас будет збс.
>>1008862 > вручную писать нейросети Даже если в это можно поверить, зачем писать что-то сложнее AND с нуля? > писать на питоне На питоне обучаться будет значительно дольше, плюсы все еще рулят. Но что-то простое можно начать и на питоне + керас. > какие книги читать Читай документацию по либам, школьник. И да, следи за речью, тут приличные люди сидят.
>>1008939 Ой нахуй оно тебе надо, все наоборот валят из машиноба в тырпрайз, я вот был недавно на курсах дядьки-профессора-пхд по АИ, который свалил из АИ и перекатился в spring давать лекции про фреймворк. Вот где деньги крутятся реальные, а не ссаный АИ.
>>1009539 Дядька просто слишком тупой, чтобы продавать за миллионы свой стартап гуглу. Макаки должны страдать изучая новые конструкторы от других макак.
>>1009572 Как-то всё усложнено, а я к тому же бы не выдержал слушать такие черно-белые (хоть бы цветные мелки завезли, не говорю уже о презентациях) лекции, тем более на английском. Разве что, транскрипции читать.
>>1009597 Хз, мне наоборот лекции гораздо проще слушать, в книги надо вчитыватся и там как правило намного больше плотность информации. Поэтому я обычно сначала смотрю курс лекций, получаю общую картину, а потом уже читаю книгосы, перехожу к практике. Про черно-белые однако посмешил, может еще если лекция не в fullHD или 4k тоже не смотришь?
>>1008881 >На питоне обучаться будет значительно дольше, >плюсы все еще рулят. Но что-то простое можно >начать и на питоне + керас. питон - это просто оболочка для библиотек на плюсах
>>1010303 Начнем с того, что сие платная параша. Потом, абсолютно неясно чем оно лучше облачной платформы от Сирожи. Гугл так'то посерьезнее контора в этом плане. Что'то я не слышал про решения от айбием уровня слесарьфлоу.
Поясните за ковариационную матрицу. А то по формуле E[(x1 − µ1)(x1 − µ1)] E[(x1 − µ1)(x2 − µ2)] Не очень понятно. И как, например, рассчитать подобную матрицу для двух наборов данных, у которых не равное количество элементов?
Писал нейронки на keras + theano. Задачи стали сложнее, считать надо быстрее, при этом желательно не пользоваться гуглоподелками, облаками и проприетарщиной. Ощутим ли прирост скорости, если перекатиться на плюсы? На R? Какие библиотеки пользовать?
>>1010594 >Поясните за ковариационную матрицу. Это матрица для выборки (1 набора данных). Ты считаешь средний вектор и эту матрицу. Имея эти два числа ты можешь посчитать нормальное распределение векторов в выборке.
Если у тебя 2 набора данных (2 выборки), то соотвественно и матриц, средних векторов у тебя будет 2.
>>1010639 А если у меня 3 выборки, например? Или если выборка не укладывается в квадратную матрицу, то нельзя? Для такой вот матрицы все посчитать легко, а вот в том, как считать в подобных примерах, как на пике, я путаюсь. На этом пике мы вычисляем для S13 А как вычислить для S12? Или для S11? Покажите, как изменится формула.
>>1010646 >выборка не укладывается в квадратную матрицу Выборка это множество (ну или если хочешь лист или вектор-столбец или вектор-строка -- просто набор векторов). Ща замучу тебе пример.
Лучше напиши в чем у тебя задача. Из картинки не очень понятно.
>>1010652 Да я пытаюсь понять, как ковариационную матрицу вычислять ручками. А то в учебнике вообще непонятно, да и автор видимо забыл указать про деление на среднее, либо вообще не посчитал нужным.
У тебя есть вектора (в данном случае черные точки). Считаешь среднее значение -- получаешь красную точку. Матрица ковариации описывает эллипсоид внутри которого лежат твои вектора. Подробности про эллипсоид тут: https://mathematica.stackexchange.com/a/81128
Для векторов более высоких размерностей все тоже самое (средний вектор и сфероид и т.д.).
>>1010662 Чувак, ну это слишком сложно. Я то не могу сообразить, как формулой воспользоваться, а ты мне даешь пример, из которого мне вообще ничего непонятно.
Алсо. Матлаб, например, не вычитает единицу в знаменателе и поэтому считает не выборочную ковариационную матрицу, а популяционную. На этом отличия заканчиваются.
>>1010705 >>1010689 >>1010688 >>1010682 Все, я таки понял, ориентируясь на свой пример. Так, чтобы вычислить 1 значение в x1 формула такая: ((2−3)(2−3)+(3−3)(3−3)+(4−3)(4−3))/3-1 Чтобы вычислить 2 значение в x1 формула такая: ((2-3)(5-4.666667)+(3-3)(8-4.666667)+(4-3)(1-4.666667))/3-1 А для x2 мы просто возьмем 2-й столбец и для 3-его по аналогии. Спасибо, анон.
>>1010906 Типа умное кукарекнуть? да я просто так кукарекнул, тему поддержать, не дать умереть ИИ в очередной раз, как уже было в прошлом веке итд До сих пор для ИИ нет дешёвого железа даже и появится оно лет через 20 только.
>>1010975 >А как считать? Можешь погонять случайную величину по шахматной доске, только случайно не сожри слишком много печенья, сахар в таких количествах для здоровья вреден, http://www.exler.ru >Для чего оно применяется? У вас на военной кафедре должна быть такая задача, и ещё Гугл знает какую-то хрень под названием probability matrix — я не копал глубоко.
>>1010888 Так второе включается в первое. Вон достигли максимума в pacman'е недавно с помощью коллективного ИИ. Или ты о использовании человеческого? Тогда хуита.
>>1010922 >До сих пор для ИИ нет дешёвого железа даже и появится оно лет через 20 только. Ты неправ. Написал ИИ на оптических нечетких вычислителях, но пока очкую выкатывать миру, слишком нестабильно все.
>>1011061 Deep learning находит фичи в графических изображениях, графах структур молекул и подобное, а классический машобчик работает с числовыми значениями.
>>1011074 Ну и все, теперь можешь добавлять в резюме: strong skills in linear algebra, differential geometry, machine learning, NEURAL NETWORKS, deep learning, python coding, concurrent algoritms, GPU computations, dataflow programming Кирилл, 16 лет
Сап, программеры. Кто-нибудь работал с пакетом neuron и с его встроенным языком hoc? Я сейчас вкатываюсь в это дело и мне сложно не фейспалмить от его кривизны и неповоротливости.
>>1011180 так_надо. На самом деле, в этом пакете уже есть всё необходимое для симуляции спайковой НС вплоть до уровня напряжений на синапсах - именно то, что мне сейчас надо. Писать собственные велосипеды не хотелось бы, да и не окупится это дело по затратам времени.
С другой стороны, постижение этого языка идёт крайне медленно, в первую очередь оттого, что я большую часть времени фейспалмлю от языковых решений. И вот думаю - может быть, это не язык кривой, а я туплю? Поэтому и хочу спросить у других, может, кто имел с этим дело.
Где я могу задавать свои вопросы о машинном обучении на английском? Желательно, чтобы мне еще и отвечали по теме и совсем хорошо, если без регистрации.
Ох лол, новый день - новый бугуpт. Автоp учебника Machine Learning: An Algorithmic Perspective Показывает формулу Гауссова распределения, но не говорит о том, что эта формула для непрерывной переменной и позволяет получить pаспpеделение веpоятностей. И почему он говоpит о ноpмальном pаспpеделении, но игноpиpует распределение Пуассона? Оно что, не нужно? Ненавижу его, как можно писать настолько на отъебись?
>>1011698 Да есть она, просто пояснения в книге на уровне "А вот это вот важное Гауссово распределение," и больше ничего толком не сказано. А если бы я знал это заранее, то мне бы книга нафиг не была нужна. Обьяснить можно все с помощью аналогий и примеров.
Котаны, кто-нибудь тут вкатывался на инженерные работы в ML-ориентированные компании (тот же DeepMind)? Что требуется от программиста в таких конторах? Серьезно, пожалуйста.
>>1012494 Узнаешь еще логарифмы, сигма-функцию и можешь подавать заявки на синьора. Ну и словечек там поднаберись: оверфиттинг, свертка, тензоры-хуензоры и т.д.
Я так понял, LSTM и любые рекуррентные сети себя еще нормально ни в чем не показали? Могли бы в переводе текстов, но там они еще проигрывают обычному переводу?
>>1012347 >рассмотрение вне концепции черного ящика По-моему уже всем очевидно, что манясети -- это тупиковый путь развития науки. Вместо разумного познания и развития математического аппарата давайте хуячишь черные ящики. Почему он работает похуй. Ведь главное "хуяк-хуяк и в продакшен".
>>1013031 Хуйню не неси, одно другому не мешает. Сетки решают задачи, для которых ты будешь тысячи лет пилить лаконичный и стройный мат. аппарат потому что пространство решений очень огромное. Попытка решить задачу частично перебором, частично анализом задачи. И с развитием вычислительных мощностей в этом нет ничего плохого.
>>1013264 мне нравится я получаю дозу эндорфинов от толкания вперёд науки, публикации пейперов, придумывания новых алгоритмов и доказывания теорем машобчик - збс
>>1013816 Главный недостаток матлаба не в проприеиарности, всегда ж спиздить можно, а в конских системных требованиях и в общей ненужности. Все, что есть в матлабе, есть и в другом, свободном софте.
В программировании не шарю, но вот клюнул петух и пришлось разобраться с нейронными сетями, пытаюсь вникнуть плюс разбираюсь с питоном.
Задача следующая, есть куча данных в формате parameter1 parameter2 parameter3 class 1,0 0,2 4,1 A 3,0 2,2 4,7 A 6,0 5,2 5,7 A 3,0 2,2 4,7 A 22,0 21,2 11,1 A 4,0 3,2 5,1 A 14,0 13,2 8,4 B 321,0 320,2 110,7 B 6,0 5,2 5,7 B 3,0 2,2 4,7 B 22,0 21,2 11,1 B 4,0 3,2 5,1 A 14,0 13,2 8,4 A 321,0 320,2 110,7 A 321,0 320,2 110,7 A 321,0 320,2 110,7 A 12,0 11,2 7,7 A 312,0 311,2 107,7 A 12,0 11,2 7,7 C 312,0 311,2 107,7 C 3,0 2,2 4,7 C 6,0 5,2 5,7 C 3,0 2,2 4,7 C 4,0 3,2 5,1 B 14,0 13,2 8,4 B 312,0 311,2 107,7 B
Нужно сделать программку, которая могла бы принимать на вход данные в таком формате с уже определенным классом, а потом после обучения, могла бы сама классифицировать данные в подобном формате и сама определяла бы для них последний столбик Class. Что читать, куда воевать и прочее? Молю, анон, хелп ми.
>>1013911 Уж лучше тогда питон. Матлаб хорош двумя вещами - IDE из коробки и общей искоробочностью. А octave - типичный опенсорс, который нужен, чтобы запускать на сервере не переписанные на питон скрипты.
>>1014007 >Матлаб хорош двумя вещами - IDE из коробки и общей искоробочностью У меня ощущение, что я с этим аноном живу в параллельной вселенной. В его вселенной у матлаба есть ide и по-всей видимости в нем удобно работать.
В моей вселенной матлаб -- это образец того, как не надо писать недоязыки программирования. Это скриптовое поделие по-сути является оберткой вокруг lapack. И если в 70-х так еще можно было делать, то в 2017 это некроговно выглядит атавизмом. Типов нет: где переменные, где чистые функции, где процедуры не понятно. Из-за этого в нем до сих пор нет автозаполнения, а есть какой-то обрубок. Стандарт оформления кода ужасен. m,n,h,w -- типичные имена матриц, функций, программ, субпрограмм, переменных, строк. Так пишут только дауны. Шейдинг 3д-графиков говно. В 2д-графиках до сих пор нет антиалиасинга. Единственная сильная сторона матлаба состоит в том, что он быстрый. Но зато потом надо потратить несколько недель на перенос прототипа в нормальный язык. Если так нужна быстрота, то проще уж выучить фортран и не ебать себе мозг этой скриптовой оберткой.
>>1014022 >Типов нет: где переменные, где чистые функции, где процедуры не понятно. Типичный динамический язык. >Стандарт оформления кода ужасен. m,n,h,w -- типичные имена матриц, функций, программ, субпрограмм, переменных, строк. Тебе наверное и музыкальная нотация сложна - кружки какие-то, полоски. >Единственная сильная сторона матлаба состоит в том, что он быстрый. Сильная сторона матлаба - это дебаггер с REPL и выводом графиков. Питон такое может, но это нужно искать IDE и т. п., а здесь ты получаешь все из коробки. О чем и написал. >Если так нужна быстрота, то проще уж выучить фортран и не ебать себе мозг этой скриптовой оберткой. Более тупое утверждение сложно придумать. Как альтернативу для медленного прототипного языка предлагать устаревшее говно.
>>1014044 >кушает сладкий хлеб стива молера >считает фортран устрарешим >MATLAB started its life in the late 1970s as an interactive calculator built on top of LINPACK and EISPACK, which were then state-of-the-art Fortran subroutine libraries for matrix computation. Выбери одно.
>>1014051 У тебя нет силлогизма. Если язык С появился на компьютере PDP11, из этого не следует, что PDP11 не является устаревшим говном. Из этого вообще ничего не следует. Ну и я не знаю каким долбоебом нужно быть, чтобы рассуждать в стиле "у питона низкоуровневые функции написаны на С - значит учите С, пацаны, питон не нужен".
Вкатился. Щас будет много тупых вопросов. Первый: почему в Pandas нельзя обращаться к элементу по индексу типа data['Age'][3], только срезы делать типа data['Age'][3:7]?
Я одного понять не могу. Каждый дебил, который только вчера узнал о модном у всякой школуйни диплернинге, даже здесь ИТТ пишет только об одном направлении этого хайпа - распознавании картинок. 99,9999% пейперов и всяких прожектов вна гитхабе тоже об этом. Бородатое хипстерское индусско-китайское быдло всё комьюнити занимается ровно тем же, за редчайшим исключением. Весь этот цирк длится уже не первый год. Так почему до сих пор я не вижу ни одного сколько-либо готового решения для OCR математических текстов? Я никогда не поверю, что такая вещь нужна одному мне на всей этой сраной планетке. Так почему же, а?
>>1014190 >Я никогда не поверю, что такая вещь нужна одному мне на всей этой сраной планетке. А кому еще? Слишком узкоспециализировано (я вообще не представляю, зачем это может понадобиться - чтобы искать по ключевым словам, достаточно распознать текст, чтобы читать вообще картинки достаточно), макаки дешевле, плюс нотации слишком дохуя, чтобы сделать более-менее приемлемый датасет.
>>1014235 >нотации слишком дохуя, чтобы сделать более-менее приемлемый датасет. Вот это ложь и провокация. Есть латех, т.е. его текстовые комманды и их рендер в окончательную символику. Я не вижу, почему: 1) из последнего нельзя восстановить первого. 2) сгенерировать средствами того же латеха любой требуемый для подобной задачи датасет. Т.е. все ведь готово, не нужно искать по интернету тысячи фоток котиков одного размера. >>1014222 >возьми да напиши, в чем проблема? Проблема в том, что миллионы индусов до сих пор не сподобились. Хотя, по твоим словам, работы на один вечер.
>>1014249 1) Эта ебулда платная. Платная, год 2017. 2) В одном пейпере видел сравнение этого поделия с нейроночками, обученными на готовом датасете из математической нотации, у твоей хуитки там вообще смешные цифры, 26% правильно распознанных формул или около того. Т.е. отдельные опыты в этом направлении есть, как и готовые датасеты, вот только готовых для нормального пользователя решений нет.
>>1014242 Я сначала подумал, что ты хочешь OCR рукописных формул, может быть даже в реальном времени. Ну возьми и сгенерируй датасет. Что тебя останавливает?
>>1014269 >Я сначала подумал, что ты хочешь OCR рукописных формул, может быть даже в реальном времени. Нет, конечно же. Не рукописное и не в реальном времени. Мне нужен текст из тысяч страниц примерно пикрелейтеда. Это латех + AMS-TeX. >Ну возьми и сгенерируй датасет. Что тебя останавливает? Вот опять "возьми и сделой". Я недостаточно могу в эту хуйню, чтобы взять и сделать. И у меня нет фермы из десятка видюх, на которой такая нейроночка сойдется хотя бы за неделю-другую. Зато я смотрю, тут специалистов полно. Я даже готов рублей 200 заплатить (ну раз все так просто) за готовое решение - обученная на датасете из латеха + AMS-TeX-а нейроночка, распознающая рендеренные пдф-ки в простой текст, скажем, юникод.
>>1014190 >Так почему до сих пор я не вижу ни одного сколько-либо готового решения для OCR математических текстов? Эндрю Ын сказал, что это задачка для второкурсника и им с Яном Лекуном ею лень заниматься. На самом деле уже есть несколько готовых решений на гитхабе. Была где-то страничка, где все подобные проекты собраны, но сейчас не гуглится. Поиск, кстати, у гугла почти окончательно доломан. Почти ничего уже найти нельзя.
>>1014286 ну, это тебе нужно, ты и сделай, я не могу представить такой ситуации, что мне нужно распознавать отпечатанную формулу, которая уже была в электронном формате
>>1014446 > Даже с отбитыми в армейке мозгами можно выигрывать конкурсы по машобу. А кто сказал, что мозги отбили ему, а не он? Успешный человек жи, сначала сажал чеченов на бутыль, потом пошел в датасаенс.
>>1014402 > Эндрю Ын сказал, что это задачка для второкурсника и им с Яном Лекуном ею лень заниматься. Здесь говорят то же самое, типа можно за один вечер сделать. Однако, по факту этого не сделал никто. В гугле ровно один прожект, и то сырая хуитка, с которой неясно что и как делать. При этом существует платное решение, что говорит о наличии спроса. Что-то не сходится.
Хаскель или R? Питон и так знаю. Я доучиваюсь на математика, проприетарщина не нужна, octave это не серьезно. Область применения - тяжеловесные вычисления, в том числе и на видеокартах, всевозможный машоб и моделирование процессов, может быть с простеньким гуем. Требуется быстродействие, простота, меньше "программирования" (ООП-фаги могут укусить меня за зад).
>>1014703 С программерской точки зрения было много ненужного вольфрама и порой внезапные "запилите гуй, документацию, взаимодействие с юзером и мне плевать что вы это не учили, потому что саентисты, а не макаки", с математической - копания в решениях, которые просто не выгодно кодить. Рекомендую.
>>1014685 А что в рке такие вещи пишут на самом r? Во всех серьезных либах такие вещи байтоебы на сях или плюсах пишут, а то античные фортрановещи биндят.
>>1014713 Одно дело когда все современные решения долго ворочают такие матрицы и совсем другое когда только рка, что не есть гуд. Сам я не в курсах, с ркой дел не имел
>>1014738 Какой тебе R, ты ж в гугл даже не можешь. Базовый пакет в R для работы с матрицами - это враппер для набора тулз на фортране и сях. >The Matrix package provides a set of S4 classes for dense and sparse matrices that extend the basic matrix data type. Methods for a wide variety of functions and perators applied to objects from these class es provide efficient access to BLAS (Basic Linear Algebra Subroutines ), Lapack (dense matrix), TAUCS (sparse matrix) and UMFPACK (sparse matrix) routines.
>>1014746 >Почему код на фортране до сих пор не переписали на расте? Потому что в код на фортране вложены миллиарды долларов министерств обороны и энергетики США. Он там отлажен вплоть до ручных ассемблерных оптимизаций. Ничего быстрее уже не будет. >https://en.wikipedia.org/wiki/Kazushige_Goto
Что почитать про поведение ботов в играх? Стрелять по мишеням просто, а вот как бегать\кататься-прятаться в складках местности осмысленно? Вот заспавнил я бота, теперь ему надо куда-то идти, чтобы и самого убили, и врагов пострелять. Может, курс какой-то есть?
ананасы, выручайте из вышесказанного не понял, что лучше плюсы или питон хуярю диссер, дошел до необходимости написать нейросеть, до этого писал проги на матлабе, немного знаю плюсы есть ли смысл вкатываться в питон или на плюсах можно норм все реализовать ключевой критерий - время обучения написанию нейросетей
Имеется несколько кривых (x,y), для каждой точки есть свой класс, всего классов около 10. Также имеется куча данных, которые не классифицированы. Задача - через свм, нейронные сети и рандомный лес проклассифицировать пустые данные, а также используя тренировочную подборку определить, какой из алгоритмов подходит лучше в конкретном варианте. Куда лучше копать? Есть ли уже готовые решения, чтобы осталось только вставить свои код в компилятор, подгрузить свои данные и посмотреть результат? Какие инструменты нужны (R, Matlab, Python)?
>>1015512 Какой код, какой компилятор? Грузишь датасет куда угодно, на нем тренируешь по обучающим данным свм и что там тебе нужно, потом по тестовым делаешь предикт и сравниваешь какой алгоритм больше угадал. Чистое слесарство жи.
>>1015554 >какие компиляторы То есть, ты хочешь сказать, что мне не обязательно ебаться с языками, учить их с нуля, а потом искать коды в открытом доступе и подстраивая под себя работать с данными? >куда угодно Это куда? Можно пару примеров? Пока нашел только оранж. Заранее спасибо, анон.
>>1015608 Есть набор данных, который содержит несколько функций от х, причем х общий для всех и дискретизация одинаковая. Также кроме значений функций, каждый х содержит какой то класс, это тренировочные данные. Необходимо на них проверить несколько алгоритмов и выбрать лучший, который потом будет использоваться на пустых данных, которые надо классифицировать.
>>1015610 > Это куда? Можно пару примеров? Пока нашел только оранж. Ты ж сам примеры написал. R тот же. Там почти 11000 дополнительных либ, реализующих любые алгоритмы машоба. Сам язык знать не нужно, работа с готовыми библиотеками элементарна. Ты написал, тебе надо SVM, оно есть например в пакете e1071. Читаешь документацию, профит.
>>1015700 > Если программировать не хочешь, возьми какой-нибудь azure ml Зачем? Это ж облачный сервис. Для чего с ним ебаться, если все можно поставить локально, R тот же?
Решил обмазаться ШАД, но вступительные экзамены на этот год уже прошли. Зато нашёл специализацию от Яндекса на coursera http://www.coursera.org/specializations/machine-learning-data-analysis Но эти курсы внезапно платные. Теперь в раздумьях: годная ли специализация или есть что получше? На той же курсере, например. Давным-давно проходил стэнфордский курс от Andrew Ng, когда coursera ещё была бесплатной.
>>1015920 Не вижу, сколько денег стоит без логина, но тот же Воронцов - годный мужик в плане обучения, только вкладываться по времени все равно придется. Реши для себя, ты хочешь только сейчас или серьезно готов вложить времени и сделать. Если второе - плати.
>>1015955 > тот же Воронцов - годный мужик в плане обучени В плане мозгоебства, ты хотел сказать? Его лекции по SVM и лда/топикмоделям это пиздец натуральный.
>>1015774 > Я не знаю локальной альтернативы, в которой весь путь можно накликать мышкой. Знаешь - скажи. Да вон жи, выше написали, weka. Гуй, мышка, стрелочки, диаграммы. Все как ты хочешь.
У меня есть временной ряд и признаки для каждого значения. Какая общая логика для дальнейшего предсказывания? Признаков для предсказываемых значений нет. Пока только выявил тренд и периодичность, чтобы сделать ряд стационарным, ни малейшего понятия что делать дальше.
>>1016425 Формулки это не плохо, плохо то, что он одну неведомую хуйню объясняет с помощью хуйни еще более неведомой. Показать, как он крут, у него получается, а вот нормально объяснить, в чем и есть цель лекции - нихуя. На примере лекции про SVM у него вообще нихуя не понятно в сравнении с Вапником даже в оригинале на английском, о чем тут говорить вообще.
Сап аноны. Посоветуйте пожалуйста школьнику доступные книжки, а лучше видеокурсы на русском языке по линейной алгебре и теории вероятности. Очень тяжело одновременно изучать новые понятия и переводить.
Да запилите уже Искусственный Интеллект, чего вы. Или хотя бы программу, что успешно делает из картинок отсканированой книги читаемый текст в каком-то латехе.
>>1018126 > отсканированой книги читаемый текст Кстати на основе детектора можно сделать. Только размечивтаь лень чет, там запятые и точки и мало ли еще какая фигня попадется. На одной странице около 2к разметок делать а таких страниц где-то надо около 500 штук хотя бы или пробнуть обучать по дной букве- символу, тогда сложность разметки на порядок упадет, не понятно тогда что с пробелами делать. Думаю, на сегодняшнее время был бы самый лучший конвертер.
>>1016776 По линейной алгебре книжка Умнова, еще на Степике вроде лекции есть. По теорверу Ширяев, только тебе потом для всяких распределений нужно будет научиться интегрировать.
Посоны, кто-нибудь может знает стандартное название такой задачи?
Есть целевой вектор. Назовем его V-target. И есть набор векторов. Для простоты пусть их будет 3: V1, V2, V3. Я хочу найти набор коэффициентов k1,k2,k3 такой что, эвклидового расстояние между V-sum = k1 V1 + k2 V2 + k3 V3 и V-target минимально?
Если кто знает с помощью какой оптимизационной техники (или может это вообще аналитически можно решить) лучше решать?
>>1019091 В итоге задачу можно переформулировать в такой форме минимизировать норму ||V_i.k-v_target|| с неизвестным вектором k. Чем такое лучше всего решать?
>>1019091 > Посоны, кто-нибудь может знает стандартное название такой задачи? Система линейных уравнений. Ax = b A - матрица из столбцов [V1 ... Vn] x - вектор [k1, k2, k3] b - V-target
>>1019096 Спасибо, но я уже сам все это понял. Кек. Правда, в результате условие задачи надо как-то менять. Никакие осмысленные результаты из получающихся решений не выходят. Слишком много возможных комбинаций, а как наложить дополнительные ограничения я пока не придума.
Расскажите, как вкатиться в ИИ с нуля. Есть закрытые математика и физика бакалавриата "Экспериментальная ядерная физика", энтрилевельные познания сей, средний скилл электроники. Сейчас всё бросил и записался в кодеры, но иллюзий не питаю, бакалавриат особо ничему не научит, надо к магистру всему научиться самостоятельно и уже просто искать работодателя. Вероятно, без нейросетей тут не обойтись. Я примерно понимаю, как написать, положим, распознавание речи обычным способом. Спектр, базы данных, всё такое. А вот как это делают нейросети — даже близко не представляю.
>>1019703 Слесарьфлоу это либа для перемножения тензоров и др. операций с ними. Нейроночки это очень малая часть того, что там реально можно намутить, однако это уже не слесарство.
>>1019858 > Я примерно понимаю, как написать, положим, распознавание речи обычным способом. Спектр, базы данных, всё такое. > А вот как это делают нейросети — даже близко не представляю. Апроксимация функции от многих аргументов через суперпозиции частных функций от 2х аргументов т.н. нейронами. По имеющимся данным. Параметры настраиваются итеративно, до обеспечения минимальной ошибки.
Посоны, запустил матлабовский kmeans на 5 миллиардов точек с целью разбиения на 10 кластеров. Эта срань написала, что за 100 итераций она не сошлась и больше пока ничего не пишет. Работает уже вторые сутки. Это нормально? Какая у него алгоритмическая сложность? Сколько еще дней ждать? Выключать жалко -- вдруг уже близок конец. Запуская в первый раз.
>>1021003 >Посоны, запустил матлабовский kmeans на 5 миллиардов точек с целью разбиения на 10 кластеров. Эта срань написала, что за 100 итераций она не сошлась и больше пока ничего не пишет. Работает уже вторые сутки. Это нормально? Какая у него алгоритмическая сложность? Сколько еще дней ждать? Выключать жалко -- вдруг уже близок конец. Запуская в первый раз. >
>>1022133 >Какая размерность у данных? Там были 2-мерные точки. В общем он отработал где-то через шасов 6, после того как я написал сюда пост с вопросом.
>>1024822 Еще есть функциональный анализ, теория графов, генетические алгоритмы, снижение размерностей, скрытые марковские модели, случайные блуждания и теория информации. Все как ты любишь.
>>1024898 Почитай хоть "Теорию вероятностей" Вентцель, хотя бы 1 главу оттуда, из опхуй-поста выпилили, как и большинство других книжек. Это годный учебник, поясняется и за теорему Байеса на пальцах с примерами.
>>1025353 >На доказательства чего? Ну я математик и привык прорабатывать материал, решая задачи. А тут какая-то хуйня для слесарей, которым лениво загружать мозг.
>Какого рода польза тебя интересует? Вкуривание теории, необходимой для машоба.
Решил поковырять каггловский титаник и наткнулся в многочисленных его решениях на вещи типа пикрелейтед. Сделаны они при помощи кода на питоне, но если нужно всесторонне рассмотреть данные перед тем, как пихать их в очередной ансамбль - то пердолиться с кодом не очень хочется, постоянно изменяя настройки отображения графиков, зависимостей и т.д. Есть ли какой-либо вменяемый софт для всестороннего анализа данных? Гугление дало слишком много всего, надеюсь, что ИТТ знают более-менее проверенные вещи.
Чопаны, с подачки млру решил потыкать писюньи слесарные инструменты. Ну все чин чинарем: скачал датасет для бинарной классификаци 12 признаков на 70 тысяч измерений. Скопировал код вызываюший svm'а из sklearn, перекинул это все значит с макбука на сервер, запустил там. Ну и отшел повейпать да в барбершоп по пути заглянуть, возвращаюсь, значит, через три часа, думаю сейчас погляжу, чему он тут научился... И от удивления аж монитор залил смузи. Вопрос в чем: sklearn в многоядерность в принципе не способен, или просто нужно запускать его каким-то особым образом?
Есть одномерная числовая выборка размером в несколько триллионов единиц, возможен только последовательный доступ к данным, о распределении предположений нет. Задача максимум - найти все выбросы за константное число обходов (установить минимум и максимум, за которыми находятся все выбросы), нужны только выбросы, медианы-квартили не нужны. Задача минимум - "причесать" множество за 1-2 прохода, выкинув "дикие" выбросы. Нужен не инструмент, а алгоритм.
>>1025758 potential outliers и problematic outliers outliers и far outs отличаются тем, что с первыми можно худо-бедно жить, а вторые гарантированно рушат модель
>>1004751 (OP) Кто-нибудь тут точно делал диплом по сабжу, потому что модно. Поясните за следующие: как вообще определяется новизна в данной теме? Вот берётся проблема, решается относительно успешна. Но ведь где-то могут быть получены более оптимальные решения той же проблемы.
>>1026004 Говорят, есть сайт такой, гугл называется. Можно написать туда название проблемы, и он тебе выдаст статьи других чуваков, которые тоже ей занимались. Если пишешь диплом в рашке, то можешь забить хуй и писать полнейшую отсебятину, приёмная комиссия сама нихуя не шарит. А вот рецензенты нормальных научных журналов и конференций доебутся.
>>1026192 > Говорят, есть сайт такой, гугл называется. Можно написать туда название проблемы, и он тебе выдаст статьи других чуваков, которые тоже ей занимались. Тем не менее, если тема довольно узкая на широком поле деятельности вроде ML - то часто гугел тебе будет выдавать что угодно, начиная от "распознать хуй при помощи deep learning бесплатно без смс и регистрации" и заканчивая статьями индусов на совершенно другие проблемы. Статья того самого китайца, который уже решил твою проблему 10 лет назад, часто теряется в этом шлаке.
>>1025736 Медианная фильтрация со скользящим окном, вычитаешь из сигнала фильтрованый сигнал и сравниваешь с порогом: x - filt(x) > THRESH У тебя есть два параметра, размер окна и порог, которые ты можешь настроить за первый проход, тренируя свой алгоритм кусками, допустим, по гигабайту (но лучше просто посмотреть глазами на данные и оценить частоту выбросов, медианная фильтрация к ним в принципе устойчива)
>>1026194 Используй site:arxiv.org , люк. Впрочем, гугол каким-то магическим образом выдает именно нужные статьи по дипленингу на первое место. Я так препринт препринта мастеркласса начал превращать в коммерческий продукт еще до того, как автор опубликовался на какой-то конференции.
>>1026273 > Я так препринт препринта мастеркласса начал превращать в коммерческий продукт еще до того, как автор опубликовался на какой-то конференции. Великий комбинатор в треде, все в Васюки.
>>1026189 Можешь дать ссылку на новую политику? А то я не нашёл нихуя. Как проходить курсы без верификации, за что курсера берёт бабки, есть ли бесплатный контент и вот это всё.
>>1027882 Видел уже тралленк этого в каких-то комментах на хабре. Чувакам просто лень рефакторить. Ведь это интерфейсы, а значит надо будет рефакторить и все приложения, которые их используют. SplitStroku будет навсегда.
Всем доброго времени суток. Вкатываюсь сейчас в рисеч мл по теме process mining. В чем суть? В том, чтобы восстанавливать не ебливые немощные функции, которые сами по себе не могут достаточно точно отразить сложность происходящих в природе процессов, а СЕТИ ПЕТРИ. Очень интересно, есть ли здесь ещё аноны, которые занимаются этим или слышали? Так же начинаю расшаривать automata learning(гуглится в онглийской вики). Оба этих раздела очень новые, очень сложные и за ними будущее ЯЩЕТАЮ. Ссылки по теме: processmining.org https://www.coursera.org/learn/process-mining/home в этой книжице есть раздел про learning automata http://libgen.io/book/index.php?md5=E82E5CA08E4FD812B672BD31184CBD91 (кстати, если посмотрите на концепцию автоматного обучения, то поймете, что оно даёт на клыка всем вашим нейронкам, потому что чтобы дообучить нейронку, нужно заново скормить ей все данные и заново обучить на новом трейне, а чтобы дообучить автомат, достаточно просто скормить ему новые данные.) В общем об этом всем знают единицы, но если вдруг кто-нибудь заинтересуется, расшарит тему или уже что-нибудь знает, хотелось бы дискасс.
>>1028460 Нечеткие когнитивные карты Коско с настройкой параметров хеббовским обучением прогрессивнее сетей Петри в разы, например. Да, обучающиеся автоматы круче нейроночек, только в них никто не может.
Сап, аноны, хотелось бы вкатиться в нейроночки(для собственного интереса), что можете посоветовать почитать для совсем вкатывающего? В универе немного упарывался нейронками(писал однослойные персептроны, лол, и с помощью жабовского пакета сеть Кохонена).
>>1028460 >нужно заново скормить ей все данные и заново обучить на новом трейне Щито? Я в слесарьфлове могу батчами запихивать тренировку в сеть, потом гонять ее по тесту, если тест предсказывает плохо, то можно подкинуть в печ еще тренировочных батчей. О каком переучивании идет речь?
Ананоши, плес, скажите, есть ли гайд какой-нибудь/книги/видосы/хуесы, по которым можно вкатиться без проблем? Ну, типа, чтобы все было максимально последовательно, а не вразброс. Сколько ни начинал вкатываться, то курсы смотрел, то еще че, всегда говорили абстрактно о какой-то хуйне, блядь, непонятно зачем нужной. Что имеется: англ уровня с1, могу в математику, могу в упорство, не могу в непоследовательность.
>>1029062 >чтобы все было максимально последовательно, а не вразброс. Слишком широкая тема, чтобы последовательно и не вразброс. В любом случае изложение будет однобокое и точно не охватит всю подноготную. Даже у Вапника с Червоненкисом, несмотря на изначальную идею вывести общую теорию происходящего, начиная с перцептрона Розенблатта, например нет ничего о работах Колмогорова и Арнольда о представлении функции многих аргументов через суперпозиции функций от 1-2 аргументов, что является самой сутью нейроночек. Поэтому, чтобы не париться, начинай с чего угодно, что непонятно - догугливай.
>>1030312>>1030427 R в данном случае используется как враппер для слесарьфлова + юзер-френдли метод его установки одной коммандой, хоть на глинукс хоть на шиндовс, хоть на мак. Главные плюсы в том, что производительность при этом не теряется и не нужно пистонить эту пистонопарашу, все общение со слесарьфловом через R. Поэтому в т.ч. продакшену как будто школьцам вообще грозит продакшон этот метод вообще никак не повредит, если не наоборот, поскольку такой путь полностью снимает вопрос пердолинга с установкой слесарьфлова, все ставится и используется из коробки.
>>1030494 Да дело не в в течении слесаря, оно там для красного словца, сам процесс обучения и взадраспространения ошибки определен для одного отдельного входного данного, и ты в любой момент можешь перестать подсыпать новые знания, или доучить нейронку.
>>1031435 Захуячивай личиниуса и потиху программируй его. Лет через 14-16 можно пожинать плоды. В отличии от всяких еб, которые могут и через 20 лет быть недоступны - это безотказный вариант.
Почему правильный ответ №2, а не №4? Если при первом прохождении вместо Oj := ... я подставляю O0, то разве её значение не изменится, когда я подставлю O1?
>>1032357 Этот игрушечный слесарьплов такая шляпа. Ни своих датасетов не подгрузить, ни вычислительную часть элементов графа не задать. Вот если бы то же самое, но с полным функционалом слесарьплова - цены бы не было.
Кто-то пробовал собирать неуралтолк на даркнете, например? Как ее обучать? Слово - вектор? Как переводить слово в вектор? Какя модель для неуралтолка должна быть? Входная сеть - распознавания изображения, потом идет рекуррентная? Есть пример этой сети на тенсфлоу или керасе или даркнет?
В R реально взялись за врапперы для новомодных диплернинг-пистонопараш. Я с полгода назад говорил, что отсутствие поддержки этого направления - слабая сторона R, и вот ситуация меняется прямо на глазах. Кроме полной поддержки слесарьплова >>1030089 от установки до визуализации слесарьборда, буквально сегодня запилили официальную поддержку Кераса https://cran.r-project.org/web/packages/keras/index.html бинарных пакетов пока нет, только сорцы, но это ненадолго :3 Так что уже в этом году пистон для нужд МЛ можно не учить, все есть в R, в т.ч. и автоматизированная установка вышеуказанных пистонопараш. Разрисовывать котиков под Пикассо теперь можно не выходя из R.
>>1034295 Слу, а с этими стилизациями под Пикассо какие сеточки используют? Там же обучающая выборка маленькая, этих картин не так много, плюс они все же отличаются по стилю.
Сап двач. Почему когда тренируют несколько классификаторов над тренировочной выборкой то её разбивают под их количество? Почему нельзя прогнать классификаторы над целой тренировочной выборкой и найти лучший?
Сап, подскажите, сложно ли выучить все вот это ваше и стать каким-нибудь специалистом по информации? Не знаю куда пойти, нравятся подобные вещи(в смысле приложение математики к обработке, изучал пока только алгоритмы для больших объемов данных, ну и всякие вводные лекции посмотрел обо всем.), но страшно, что везде это форсят и все эти курсы на курсере. Не останусь ли я завтра без работы из-за двачеров, которые за пару вечеров преодаления прокрастинации вкатились.
>>1034708 Ты уверен? Судя по вопросам, которые рядом с моим постом, все очень просто, но долбоебы даже в это не могут. Или это так только на дваче, а нормальные люди уже за 20 часов все поняли и демпингуют зп?
>>1034719 Тут сидят такие себе ребятки. За 20 часов вряд ли поймешь. Прикол как раз в том, что есть кафедры в топовых фузах (ФИВТ, ФУПМ, ФКН), которые готовят спецов именно в машинном обучении. Вот и подумай, что ты можешь по сравнению с победителем всероса, который 6 лет дрочил нейросети. Скажешь, что их мало? Ок, однако все студенты этих вузов имеют доступ по желанию к лекциям на тему. Есть вузики попроще, где тоже учат этой хуйне. А рынок заметно меньше, чем на веб-разработку. Вот и считай.
>>1034721 Тащемто чтобы вкатиться в продакшен не нужно быть гением математики и всеросником, достаточно уметь в import tensorflow и знать в каких случаях какой алгоритм применять, плюс основы линейки и матстата на уровне первого курса. По крайней мере так обстоит дело в nlp, в классическом ml, думаю, ещё проще, не нужно чесать репу и думать ёпту бля какие бы фичи ещё нагенерить. на выходных был на аисте, там все школьники-студенты уже пицот лет все работают дата саентистами, и они все достаточно простые пацаны и учатся даже не на фкн/фивт
>>1034721 Но я сам с мехмата. Говорю же, проблема не в том, чтобы конкурировать с парнями с физтеха. Они то как раз те еще ЧСВ и только задерут зп, проблема в том, что я не хочу конкурировать с макакми.
>>1034718 Бампую. Просто есть один хуй neuralnetworksanddeeplearning.com/chap1.html, может кто сталкивался. У него своя сетка работает. Моя имплементация - нет. Имплементация sklearn с фиксированным learning rate тоже выдаёт плохой результат.
>>1034942 Зато не с фиксированным выполняется дохуя, но 80% угадывает. А у этого хуя целых 90%. Грешил на сетку, но ручками проверил - вроде всё хорошо. Да и sklearn с такими параметрами плох. Я в шоке короче.
Поступаю в этом году на 1 курс вуза, собираюсь обмазываться математикой, чтобы стать человеком. Однако итт видел мнение о том, что у машоба не самые приятные перспективы. Так ли это на самом деле? Если да, то куда тогда посоветуете вкатываться, чтобы быть белым человеком в будущем?
>>1035112 > куда тогда посоветуете вкатываться, чтобы быть белым человеком в будущем Быть белым человеком возможно в любом деле если ты умеешь его хорошо делать. PS Что за мнение?
>>1035112 Биология. Биотехнологии, генная инженерия, фолдинг белка, это все. Очень перспективная отрасль. А программистишек как блох расплодилось, никому они не нужны. А в будущем еще DeepCoder допилят - компьютер будет сам писать сайты, 90% веб-макак пойдут собирать бутылки.
>>1035192 >Быть белым человеком возможно в любом деле если ты умеешь его хорошо делать. Очень интересно, расскажи как быть белым человеком в сантехнике.
>>1035202 >Мой доход составляет примерно 300 тысяч рублей. Я знаю много мастеров, которые зарабатывают даже больше, чем я. Да, побольше чем у программистишки будет. Но все равно нырять в говно неприятно. >Стал обучаться, посещать семинары Учись, сынок, а то так и будешь подавать ключи!
Котаны, есть одна задача. Я взял данные, их мало, обучил на 30%, проверил на 70% (такое соотношение, потому что данных ну очень мало), всё окей, мне нравятся результаты. Теперь вопрос: если я точно знаю, что алгоритм обучения правильно учится на данных при таком extracting features, который я задал и проверил, то можно ли теперь обучать сетку на всех 100% и не тестировать вообще? Проверить я эту сетку, само собой, уже не смогу. Разве что сравнить её анализ рандомных данных на входе с тем, что выдаёт сетка на 30% реальных данных
да и пора уж новую шапку запилить
книги
А. Пегат, "Нечёткое моделирование и управление"
другое
https://www.deeplearningbook.org/
https://www.youtube.com/watch?v=mbyG85GZ0PI&list=PLD63A284B7615313A не индус а ебиптянин
яп
конец списка
Тред #1: https://arhivach.org/thread/147800/
Тред #2: https://arhivach.org/thread/170611/
Тред #3: https://arhivach.org/thread/179539/
Тред #4: https://arhivach.org/thread/185385/
Тред #5: https://arhivach.org/thread/186283/
Тред #6: https://arhivach.org/thread/187794/
Тред #7: https://arhivach.org/thread/196781/
Тред #8: https://arhivach.org/thread/209934/
Тред #9: https://arhivach.org/thread/223216/
Тред #10: https://arhivach.org/thread/234497/
Тред #11: https://arhivach.org/thread/240332/
Тред #12: https://arhivach.org/thread/246273/
Тред #13: https://arhivach.org/thread/256401/
Тред #14: http://arhivach.org/thread/257951/