Очередной тред про хипстерские технологии, которые не работают. Продолжаем спрашивать очевидные вещи, о которых знает любой индус, прочитавший хоть одну книгу по машобу.
Список дедовских книг для серьёзных людей: Trevor Hastie et al. "The Elements of Statistical Learning" Vladimir N. Vapnik "The Nature of Statistical Learning Theory" Christopher M. Bishop "Pattern Recognition and Machine Learning" Взять можно тут: http://libgen.io/
Напоминание ньюфагам: персептроны и прочий мусор середины прошлого века действительно не работают на серьёзных задачах.
Короче как я понял, метаграф никак не загрузить через C-api(тем более и сохранить), все так или иначе нужно в виде .pb файла. Вот так на питоне: tf.train.write_graph(sess.graph_def, 'models/', 'graph.pb', as_text=False) или вот так builder = tf.saved_model.builder.SavedModelBuilder(path) builder.save(as_text=False)
Второй - с дополнительной инфой о входных и выходных тензорах(если это не так - поправьте).
Чтобы тренировать модель вне питона, надо веса сохранят отдельно в свой формат файла, а потом соответственно считывать из него.
>>1242815 машобчик - в первую очередь школьные - биология, и информатика биология - описивает дтруктуру нейронов и их бинарные операторы (функции от входов) информатика обучает: кодингу на остальные говнопредмету типа математики и русского можно положить хуй, они НЕ-НУ-ЖНЫ!
>>1243112 >>1243111 Одна из важных идей заключается в том, что наука - это способ, с помощью которого обучение игнорируется не только теоретическими оценками, но и практическими фактами, с другой стороны, но из-за принципа и мотивации практики. - Джордж П. Коробка
>>1243111 >>1243115 > эволюция, генетические алгоритмы, генетическое обучение > нейроны, нейромедиаторы, процесс усвоения информации и архитектура нейросетей. травмы мозга наконец всё это не нужно, да?
Работу младшим ds без образования/с сертификатом с каких-нибудь курсов найти можно? Ясное дело в мухосрани наврятли, но как в ДС? Пишут нужно искать крупные компании, которые набирают.
Анонасы, принимайте вкатывальщика. Начал читать Deep Learining Book, но чет непонятно нихуя, матан какой-то, матрицы, векторы, уххх. Есть ли нечто промежуточное не Hello World на питоне, но и не DL book, какая-нибудь поверхностная и казуальная, но практическая жвачка по теме, для познания которой не требуется глубокое знание высшей математики? Только поступил на первый курс вуза, а шишка на машоб и Data Science уже дымится, неужели до практики мне действительно предстоит еще два-три года теории?
>>1243362 >поверхностная и казуальная, но практическая жвачка по теме рукописные цифры и котиков распознавать, на том же kaggle куча практических заданий
>>1242753 (OP) Анон, после курсов по мл и сайкита решил попробовать современные штуки вроде keras или tf и немного растерялся в терминологии. Посоветуйте книг про все эти тензоры-хуензоры, с актуальной терминологией, вобщем.
Берём несколько алгоритмов машобчика, второй настраивает гиперпараметры первого, ... , последний настраивает параметры второго. Короче, схема уровня пикрелейтед с возможностью обрабатывать внешние данные (у некоторых алгоритмов типа первого входы и выходы для этого). Чем не ИИ? Так-то основа жизни - структуры типа гиперцикла Эйгена.
>>1243990 > Было бы всё так просто давно бы уже ИИ запилили. А кто-нибудь пробовал? Именно в виде такой метаструктуры, которая может и на внешние воздействия отвечать, и своё внутреннее состояние и структуру адаптировать под решаемую задачу? Мне так наоборот вспоминаются кукареканья машка небоходца и Хокинга покойничка, что мол низзя такое делать, запретить надо, зохавают людишек подобные решения.
>>1244006 Конечно, никто не пробовал, ты первый догадался до этого. Еще никто не пробовал писать ИИ левой рукой, при этом читая Отче Наш задом наперед и трижды сплевывая через плечо на каждом n-ом прочтении, где n это простое число. Если получится, то ссылка на меня обязательна.
>>1244006 Я тебе уже сказал. Если веса или биасы хоть в одной нейронке у тебя станут отрицательными, то нихуя не получится. Такая нейронка даже кота от негра не отличит. Можешь скринить.
>>1244024 >Если веса или биасы хоть в одной нейронке А кто сказал про эту хипстерскую хуйню для распознавания негров с котами? Естественно, речь только о верифицируемо стабильных алгоритмах, которые гарантированно не наебнутся просто в силу своей кривости. >>1244014 >Конечно, никто не пробовал, Ну покажи, кто пробовал, так уж и быть.
>>1244028 Лол блять. Нейронки - это единственное на счёт чего можно сомневаться, что точно не получится. Все остальные алгоритмы машоба просто ноль для таких задач. Не говори что ты этого не понимаешь. Если у тебя будет машина, принимающая собственные гиперпараметры, то на алгоритмах она работать никогда не станет.
Приходит очередной обдроченный хуесос, не работавший с алгоритмами от слова совсем, в тред и начинает нести какую-то ебанутую толстоту пургу. Каков пиздец. Правда в том, что все эти алгоритмы только и способны что негров с такой-то точностью распознавать. Как ты детальки конструктора не крути, какой-либо "сильный" ии не получишь. А новые детальки не будут сложнее старых. Весь дроч внутри современного компухтер сосаенса - ползанье по лабиринту.
Сап математики. Хочу написать свой сервис проверки орфографии с автокоррекцией по типу https://tech.yandex.ru/speller/апи которого сломался Как оно реализовано внутри? Вот есть у меня терабайт текста для обучения, что дальше? Как его скормить градиентному бустингу? Или литературу посоветуйте
>>1242753 (OP) помогите мне пожалуйста, не уверен, в тот ли раздел пишу, но у меня вопрос по обработке изображений (digital image processing). При слиянии двух изображений, то есть получении из 2 двух изображений одного (image fusion), сначала нужно сделать image registration. Допустим у меня есть 2 картинки в разных форматах, одна 480х640, а вторая 1280х720. Image processing заключается в данном случае в преобразовании одной из картинок в размер другой картинки? То есть сделать две картинки одинакового размера, или 480х640 или 1280х720?
Как можно предсказать состояние системы через небольшой отрезок времени по состоянию системы в данный момент? Состояния могут быть потенциально разные, но т. к. отрезок времени небольшой не критично. Тренировочные данные есть. Просто я только {0, 1} умею предсказывать.
В связи с недавним матчем в дотку повылазило много восторженных идиотов с радостными пересказами научпопа про искусственный интеллект и, в частности, про то как в проектах типа альфагозеро сетки УЧАТСЯ САМИ, как утверждается такой же кейс и в случае с масковским проектом, обучение шло путём игры совершенствовующихся алгоритмов против себя. Звучит это конечно как полная ахинея, но в тонкости я, честно говоря, не вдавался, ограничился беглым чтением сжатого описания алгоритма: ощущение что в задизайненных "оценках для ходов" и прочих евристиках и есть вся соль дела. Или я неправ, и альфагозеро на самом деле прорыв?
>>1244506 хорошо, то есть если у меня есть 2 картинки, одна снята на камеру, 1280х720, а другая снята на тепловизор, 480х640, одной и той же сцены, ну, чуть-чуть картинки отличаются, то мне нужно уменьшить картинку 1280х720? Этого будет достаточно для image registration?
>>1244657 > Вектор вначале, вектор в конце. В принципе, можно сказать что картинка. Фичи получай из векторов. Напрямую считать смысла нет, если там большая размерность. Тем более картинка. На один пиксель смещение и все, никакого сходства с точно такой же, все компоненты вектора другие.
>>1244600 а в общем случае, если есть 2 картинки разного размера и соотношения сторон одной и той же сцены, снятые на разные устройства, то для image registration достаточно привести их к одному размеру?
Почему нельзя взять гигабайт(терабайт) звуков, издаваемых дельфинами/собаками/обезьянами, закинуть это в какую-нибудь SoTA сетку для сегментации/кластеризации/text2woof translation и сделать генератор животной речи?
Гайс, а ведь цвета в мозге обрабатываются одновременно в одном формате. То есть если они не обрабатываются как раздельные, то изображение чернобелое. То есть само значение цвета не имеет для формы никакого значения. Это значит что простые цветные свёртки пиздец как неправильные.
Научный руководитель сказал что только у аутистов нет своего дерзкого ресерч-бложека на гитхаб пейджес, в котором в очередной раз объясняется backpropagation и gradient descent. Придется делать, я и так смотрю аниме про 18-летних физиков и нейробиологов, иначе мне вообще перестанут помогать. Но у меня проблема с придумыванием броского и смешного названия связанного с датасаенсом и нейроночками, а без этого никак. Предложите что-то оригинальное в одно-три слова, пожалуйста.
>>1245514 По крайней мере мы знаем о существовании нарушения цветовой дифференциации. Так что этого достаточно чтобы сказать что свёртки сейчас неправильные.
>>1245139 а если есть 2 картинки разного размера и соотношения сторон одной и той же сцены, снятые на разные устройства с одного угла, то для image registration достаточно привести их к одному размеру? а вот если картинки сделаны с разных углов, то как тогда сделать image registration?
>>1245513 Возьми и сделай нормальный блог, про плохо гуглящиеся штуки, например. >>1245555 Я смотрю калитку, потому что одно из немногих нравящихся мне аниме. Аниме - говно для совсем отбитых. Хуже только комиксопараша. мимо
>>1245672 да ни в чем, деньги отмывают давно известно, что любая функция приближается двухслойным перцептроном с любой точностью, а всё остальное - псевдонаука
>>1245681 Ну впринципе это так. Но нам ведь нужно уменьшить затраты, да ещё и получить какие-то понятные системы. Так что пока что свёрточки полезные. Но с одинарным ядром - это пиздец.
>>1245560 Steins;Gate же. В этом треде все смотрят калиточку, с подключением. >>1245677 Проблема названия остается для любого контента. Ты просто не читал интересные комиксы, трай http://freefall.purrsia.com/ . Спойлер - антропоморфная собака это ИИ.
>>1245687 Это даже я понял. Если у тебя в одном канале красный, а в другом зеленый, то свертка 1х1 даст тебе фичу "желтый", и вообще любой другой цвет.
>>1245646 а возможно такое, что для 2 картинок одной сцены невозможно сделать image registration? В OpenCV есть встроенные средства для image registration или мне с помощью OpenCV нужно делать какое-то аффинное преобразование?
Насколько реально из записей стримерш на ютубе (не смотрю такое и представляю по случайным вебм в тредах) обучить модель естественным телодвижениям сидя за компьютером (чтобы заменить органическую куклу виртуальной)?
>>1245895 Детектил пешеходов в OpenCV, но почти не работаю с изображениями и тем более с видео. Какой примерный план? Как сгенерировать один кадр еще как-то представляю, но всю картину не вижу.
>>1245897 Машинное обучение нужно чтобы заменять человеков во всех сферах деятельности, это естественный процесс. Нейроночка будет делать работу с постоянным качеством и в соответствии со стандартами, куда лучше чем отбросы вроде ютуберов.
>>1245896 Ну очевидно тебе либо считать весь кадр по динамической системе (от машоба знаю только рекурентные сетки) и тратить огромные баблища на это. Либо взять какую-нибудь систему для анимации и считать банально простые движения. Можно триде фигурку, там поворот и позиция костей только, вообще не сложно выход настроить. Гораздо сложнее будет видео обрабатывать чтобы по точкам вычислять относительный угол и расположение.
>>1245904 Придётся всё равно искать много материала. Мокап для датасета больная идея. А разработка способа вычисления - это не вопрос денег. Хотя вообще сейчас непонятно что ты делаешь и вообще нужны ли тебе нейронки или можно обойтись деревьями.
>>1245909 Нейроночки сейчас не генерируют полное видео с нуля, если ты об этом. Тебе нужно будет рендерить 3д сцену, которую ты сделаешь руками, а нейроночка может, например, анимировать сидящую в ней модель.
>>1245840 >все это говно не работает. что именно не работает? В OpenCV нет автоматических функций для image registration? Или аффинных преобразований может быть недостаточно общем случае?
>>1245719 А как еще ты отличишь красный помидор от желтого, или зеленого? >>1245720 Тем, что она применяется не только к RGB, но и глубже, к любым другим фичам, сокращая, таким образом, количество каналов >>1245727 Ядро
>>1245946 >>1245965 Спасибо, многое стало понятней, теперь займусь девочками. >>1245976 Уже накатил с утра за советскую науку? Сколько тредов ты уже не можешь английский выучить?
>>1246174 Ох и зализал матрасникам, молодец, держи доляр. Наука это атом и космос - величие России, а переносной дибилятор с котиками, так, развлечение.
>>1243249 Наверно можно, мне очень повезло знакомый препод из шараги устроил в контору что занимается ценообразованием, в итоге доучиваюсь плюс практикуюсь и все это за 500 бачей в моей мухосрани где стандартный джун получает 100-200.
Поясните мне за Ноама Хомского. Почему он так популярен и его рекламируют как гения и гиганта мысли?
Во-первых он говорит, что ребёнок осваивает языки благодаря уже встроенным структурам в мозгу. Говорит, мол опыт (да хоть те же родители научающие чадо) влияет, но как-то лишь чуть-чуть, на полшишечки, а главное то, что ребёнок гений и он чуть ли не вспоминает знания языка по Платону.
Для доказательства всего этого он создал различные крутые формализмы, которое кто-то не так уж часто и использует, но активно молится на них. Другой вид доказательств состоит в том, что он берет предложения типа "3еленая трава зеленит зелёную зелень" и доказывает с помощью таких предложений некоторое таинственное богатство языка. Можете взглянуть его работы и посмотреть примеры хоть на французском.
Если заглянуть даже в Википедию (будь она неладна), то о самих работах Хомского написано крайне мало. Зато можно увидеть о его политической деятельности, антисемитизме и семитизме, о Бин Ладене и совсем полной хуите, если откровенно.
Также нет вменяемой критики по этому (((феномену))). Ух, я добавил скобки, вы выдели какой я модный? Теперь вы поняли? Большинство критики высказывается не за его работы, а по политической деятельности.
Зато в целом он появился внезапно, как гром среди ясного неба и стал символом некой новой эпохи. И прессой описывается не иначе как гений и гигант мысли. С чего я и начинал. Вот так кратко я описал суть понимаемую мною. Объясните хоть мне что это за феномен.
Как вы поняли из строк выше у меня довольно сильно так бомбит и ажтрисет от этого всего.
>>1246273 Жид и либираха потому что, таких пидоров любят. Еще забавно, как англопидарахи ковыряясь в своем аналитическом недоязыке начинают строить манятеории, которые моментально абасываются на нормальных флективных языках.
Вопрос, почему софтмакс регрессия выдала параметры для трех кривых, ведь если нам дано пространство с размерностью таргета 3 и 2 предикторами, то нам достаточно на плоскости провести 2 кривые, чтобы восстановить область?
>>1246349 Что не так? У тебя выдаёт параметры для трёх классов. Разве классы не задаются человеком? Я, конечно, сам нихуя не знаю ничего кроме того как softmax применяется для вероятностей в нейронках, но что-то мне подсказывает что магическим образом находить классы тебе регрессия никогда не будет.
>>1246360 k - это количество классов. У нас мультиномиальное произведение и вероятность(область) для третьего класса заведомо известна. Всё как для случая с двумя классами, мы же не строим две прямые, а строим одну.
>>1246376 Такое утверждение. Два значения функции вида f(x)=x*m+c, где m и c - постоянные значения, равны двум значениям такой же функции только тогда, когда постоянные параметры первой функции равны постоянным параметрам второй.
>>1246377 Только ты к чему? У нас есть лог регрессия log(\frac{p}{1-p}) = w_i x_i , обучаем на выборке параметры w_i, дальше смотрим на знак скалярного произведения, если положительный - то это один класс, если отрицательный - то другой. никаких других прямых не возникает, у нас один вектор w_i, который задает прямую
>>1246396 Ай, лол, точно, терминологию попутал. Про линейную говорил. Потому что одно и то же, когда дело касается изменения предикторов. Но сигмоид всё равно для вероятности, а не классификации.
>>1246398 Сигмоид - это хуйня, которая естественно возникает, тот же линейный классификатор, только непрерывный. Я не вижу здесь принципиальной разницы, если не вдаваться в интерпретации, ответы такие же будут в итоге.
Логистическая регрессия обучилась. Пенальти не указываю, вроде автоматом л2. При прогоне через тестовую выборку все вероятности близкик 0.5 буквально на сотые доли только отличаются. Можете пованговать чем это может быть?
>>1246414 В смысле перееобучилась думаешь система? Но там должно быть пенальти и кросс валидация. Забыл добавить, я еще поиск по сетке веду. Но вообще надо попробовать прогнать по всем данным.
>>1246421 Подбором - это когда берешь кучу значений и возвращаешь то, при котором ошибка меньше. Скорость обучения при том, что можно отправить y в космос и с каждой итерацией всё дальше. Никак не переобучается.
>>1246423 Че-то я вообще запутался. Я пока других способов кроме как перебором и не знаю. Логрес это же поверхность в пространстве признаков, что ей мешает идеалтно проходить по всем объектам?
>>1246424 Когда подбором, лёрнингрейт вообще не нужен. Сейчас у тебя переобучения вообще быть не должно. А проблему твою я не понимаю. Видимо дисперсия по регрессорам малая.
>>1246413 не слушай поехавших, которые говорят про переобучение вероятности ~0.5 - недообучение на чем валидацию проводил? данные не забыл нормировать?
>>1246525 Разделил исходные данные на две части. В обучающей 4000 записей, в тестовой в три раза меньше. Данные не нормировал(в смысле вычитал мат ожидание и делил на дисперсию?). Разве без этого работать не будет?
>>1246537 Будет работать если ты используешь обычную линейную регрессию. Но если добавляется регуляризация, то лучше нормировать данные, иначе регуляризация будет штрафовать одни признаки сильнее чем другие. Да, вычитать мат ожидание и делить на дисперсию (В sklearn - StandartScaler)
>>1246525 Кем нужно быть чтобы говорить, что регрессию можно переобучить подбором? Да хоть ты на всех серверах гугла прогоняй один датасет, будет лучшее значение и ничего более.
>>1246580 Кто вообще придумал обучение "подбором"? Как это называется у нормальных людей? линейная регрессия переобучается только когда признаков больше чем объектов в обучающей выборке.
Значит посчитал аук скор для тренировочной выборки, т.е. подал на вход аук скор правильные ответы для обучающей выборки и ответы, которые дала мне моя лучшая лог регрессия. Аук скор выдал 0.5002... Я не уверен в этом, но вроде для аук скора это озгэначает произвольное распределение классов? А, да, класса в ответе у меня два.
Ну что вы тут? Давайте такую вещь обсудим - почему машобчик стесняются использовать для анализа рынков? Т.е. я думаю, никто не будет спорить, что эффективность (профит) каких-то действий (купил-продал) на рынке зависят не от божьей воли, а от текущего состояния рынка. Формально, профит = f(x1,...,xn), где x1-xn - некоторые показатели рынка. Допустим, нам неизвестно, что за зависимость. Но мы можем влошить фантики с тестового счета, и для нескольких x1-xn (разных!) измерить профит (он может быть и отрицательным) и пометить им наборы x1-xn. В дальнейшем проецируя текущие x1-xn на построенную модель, получаем метку класса, т.е. насколько выгодно или невыгодно в данных условиях входить на рынок. Не?
>>1246638 >почему машобчик стесняются использовать для анализа рынков Потому, что цена — случайная величина. И что ты там собрался анализировать, расстояние по формуле с кваджратным корнем искать, что ли? Так оно там и есть.
Алсо, ок, допустим, что цена - чисто случайная величина, т.е. имеет место быть нормальное распределение. Но в таких условиях мартингейл будет заходить максимум с 3-4 раза, т.е. к примеру, на бинарных опционах гарантирован профит в тысячи процентов в день. Однако, очень легко убедиться, что это не так, а значит, распределение там заметно отличается от гауссова.
>>1246647 >там очень много факторов Которые: - существенные. отражаются в динамике самой цены (т.к. влияют на нее). - несущественные. на самой цене никак не отражаются.
Уже реализовали риалтаймовую отрисовку 2D аниме-мира из видео с камеры? Есть известные или личные и постыдные датасеты вроде срисованных в аниме-стиле фотографий? Вместо виртуальной и дополненной я выбираю избегание реальности.
>>1246817 Как будто сюжет реальности поменяется от того, что тебе в комнату будет заносить борщ не похожая на умирающую летучую мышь мама, а дергающаяся аляповатая Суигинто.
>>1246863 Я больше думал о том чтобы рисовать деревья, здания и гудящие провода, а людей обозначивать только как препятствия если с ними можно столкнуться.
>>1246689 >>1246793 Но ведь если есть временной ряд, описывающий динамику процесса, всегда можно сказать, чистый там рандом или нет. Сечение Пуанкаре хоть посмотреть итд.
А определенная группа солидных людей которые ваши распределения и матожидания на половом органе крутит.
И масса хомячков, движения которой вы анализируете путем теории вероятностей - как раз и предназначена для того, чтобы
1) Маскировать движуху солидных людей.
2) Двигать график в нужную солидным людям сторону.
Никакой вероятности и случайных величин тут нет (кроме лотерейной погрешности, на которой и пытаются наебать систему манятрейдеры). Система полностью управляемая.
Не работает здесь теорвер - кажущиеся случайными величины и мнимая швабодка рынка - это наебалово.
>>1246958 Значит мы можем взять в качестве датасета действия децентрализованных монополий, перевести вход в вектор, а выход в скаляр и вычислять рынок с точностью до 70%
А, всё же мысли кукла нейросеточкой на расстоянии собрались читать.
Тогда без шпиона с комплектом жучков, которые по интеренту в нейросеточку будут передавать о чем уважаемые люди пиздят в своих тусовочках - не взлетит.
>>1246960 >угадывает инсайдерские интриги нейросеточкой по ленте новостей для быдла из быдлосми?
На самом деле годный вариант. Не рофл ни разу. Ты даже не представляешь. Если взять такой психологический факт, что изобретательность людей ограничена, а в плане "лох не мамонт" - так и вовсе мошенники по статистике сос хемами не заморачиваются и эксплойтят одни и те же дыры человеческого сознания, то пиздеж очень даже можно и нужно кореллировать с неизвестной инсайдерской движухой.
Более того, в силу свободы прессы и доступности быдлоновостей со всего мира и наличия антагонизма можно вообще охуительно фильтровать всю хуйню.
Типа на входы подаем СМИ либераху/пиндоса и СМИ вату/китайчатину, раскладываем эти сигналы в опинион и семантику, контент-анализ короч, баттхерт и передёргивания взаимоликвидируются, прямо как в дифференциальном (балансном) сигнале,
Параллельно по этим двум сигналам интент-анализ по каждому, далее смешивание с результатом пункта 1, и вот у нас уже сравнительно чистые крупицы того самого инсайда.
Вы не поняли. Какие бы там ни были многоходовочки рептилоидов, их смысл - заработать на рынке, а не проебать. Заработать можно вовремя купив или продав. И теперь ещё раз: есть состояние рынка, его показатели (в т.ч не напрямую, а по индикаторам) и есть объективный показатель дохода при покупке или продаже при определённых значениях показателей рынка или их динамике. Доход - функция от динамики состояний рынка, как ни крути, каких там аннунаков ни добавляй в эту схему - ничего не изменится. Че вы мне сказки рассказывает, что теорвер не работает на рынке?
>>1246974 Дебилов с уважаемыми рептилоидами можно нахуй слать, это помоечники которые ничего не соображают вообще ни в чем. Не выйдет ничего у тебя по более простой и очевидной причине: потому что "никто не применяет компьютеры для анализа рынков" это какая-то наивная чушь, люди давным давно додумались до алгоритмической торговли. Неэффективности на рынке позволяющие заработать, в принципе конечно есть, но будучи замеченными они эксплуатируются и быстро исчезают, поэтому желающие на них заработать, коих немало, соревнуются в том насколько хорошо и, не менее важно, насколько быстро они их обнаружат (за вот уже более 30 лет дарвинистической гонки на выживание актуальный масштаб по времени составляет полмиллисекунды). Большинство даже средних алгофондов, у которых куча creme de la creme phd по датасаенсу, математике и финансам на большой зарплате интенсивно по 80 часов в неделю думают как бы еще выжать тысячные доли процента прибыли, у которых оборудования на несколько сотен миллионов долларов все равно в итоге проебывают, и денежки их забирают несколько самых крупных фондов и Голдман с Морганом. Так что шансы дурачка с сосаки внезапно найти клондайк можешь сам примерно оценить.
>>1246273 хомского знаю только из пересказов, но суть хомского в генеративной модели языка (это было и до него, но не в такой степени), которая позволяет для каждого предложения построить его дерево. В рамках этой модели можно генерировать предложения с помощью неких правил и конечных символов. Так, к предложению можно применить функцию вопроса, а к слову функцию множественного числа. А с формальным распарсенным деревом в теории можно много, что сделать - перевести на другой язык или вообще понять "смысл" (ну, и вообще до 2000ых вся компьютерная лингвистика увлекалась парсингом под влиянием всего этого). Про детей он вроде бы еще в 60ых передумал, просто сначала он думал, что правила для генерации предложений хранятся от рождения. Так, вся его работа в духе структуралистов предыдущих лет и является их логичным предложением, его научник Харрис занимался примерно тем же, как и Пражский лингвистический крыжок с беглым русским князем Трубецким (они придумывали всякие правила для фонологии). В английской википедии много написано. https://en.wikipedia.org/wiki/Generative_grammar
>>1247067 насколько я понял слушая лекции этих самых рокетсаентистов с волстрита, у них главная проблема с которой они борются, это искажение рынка своими наносекундными ставками, плюс гонка вооружений и большая часть усилий топовых умов планеты сейчас тратится именно на это. А вот область >10 минут и со ставками <100к вполне себе не паханное поле.
>>1246680 Под костыльностью, ты наверное имеешь в виду деление и обработку по отдельности выборки, но на то есть своя причина в виде того, что рассматриваются разные виды замены пропущенных значений. За код спасибо, почерпнул несколько синтаасических приемов. Теперь попытаюсь понять где я такой лох.
>>1246974 Расклад следующий. Все публичные компании, акции которых торгуются на биржах выкладывают фин. отчетность. В большинстве случаев, отчетность эта представляет собой PDF файл. Есть ряд ресурсов, которые хранят отчетности по зарубежным и отечественным компаням соответственно. Отчетность выкладывают в определенное время (иногда несколько раз в год). По данной отчетности можно вычислить т.н. мультипликатор и определить какие акции купить, а какие лучше скинуть. Проблема в том, что листать отчетность по сотням и тысячам компаний довольно уныло и не очено продуктивно, т.к. процесс довольно однообразный, который включает в себя школьную математику. Можно конечно считать мультипликаторы только по топовым компаниям (Apple, Microsoft, Facebook, etc.), но есть шанс пропустить восходящую звезду и вместе с тем упустить потенциальную прибыль. Подход тут может быть следующий: выгребать фин. отчетность в виде PDF файлов по кд с этих сайтов. Парсить их (может копнуть в сторону Text Mining) и получать данные в структурированном виде (формат в котором описана фин. отчетность варируется от компании к компании, но ключевые слова везде одинаковые). Затем вычислять мультипликаторы, сортировать их и красиво строить графики. Как идея?
>>1247247 >Как идея? Это буквально схавано и высрано ещё в начале 70-80-х, если не раньше. Сколько там лет Баффету? Сильно удивлюсь если это во-первых давно уже не автоматизированно и доступно онлайн за 3 копейке для комнатных инвесторов, во-вторых на этом все ещё можно заработать денег спустя миллисекунду послу выхода отчетности.
>>1242753 (OP) может кто-нибудь разбирается в image fusion? У меня такой вопрос, например если есть две картинки, уже зарегистрированные, но одна раза в полтора больше другой, то как лучше сделать, увеличить картинку, которая меньше, до размера который больше, или же уменьшить большую картинку?
>>1247235 >>1246974 >почему? все на самом деле не так? >Чё вы мне сказки рассказывает, что теорвер не работает на рынке? Просто понимаешь, кукловод — реально существующий участник торгов, ну или, скажем, стая товарищей. Они видят твои заявки и стоп-приказы и даже остатки на счёте. В правилах лондонской биржи ICE прямо сказано, что брокеры обязаны предоставлять ей данные о состоянии счетов своих клиентов. И это ещё не самый худший случай, на ICE остаётся возможность хоть немного заработать (там у цен видны горизонтальные уровни), а на РТС, CBOT и NYSE такой возможности мелким игрокам не оставили. Я вот недавно по телеканалу «Дискавери» смотрел, как пума, чорная вся, на собственный хвост рыбу ловила. Сунула хвост в воду, и давай им водить, какая-то стая рыб решила хвоста откушать, а она рыбину — когтем, — цап!!! — и сожрала.
Прочитал пару статей типа "нейросеть за 5 минут" и метод обратного распространения ошибки. Переписал формулы в код. Сеть не обучается, причем увеличение числа итераций/учебных материалов не помогает. Кто поможет тупенькому ньфагу разобраться в 100 строках кода?
>>1247395 В самысле перешли, полноценный алготрейдинг как раз и начался с наносекунд, т.к. только там у первых алгоритмов машоба была приемлемая предсказательная сила, чем больше масштаб времени тем хуже они работают. Одно дело предсказать например точные координаты человека на 10 секунд вперед и другое на месяц.
>>1247449 Что вы понимаете под тестами? За изменением значения функции среднеквадратичной ошибки, связанным с увеличением числа итераций я наблюдал. После определенного их числа оно фактически перестает изменяться
>>1247386 прочитал пару статей типа "компьютер для чайников". Решил повторить. Компьютер не работает, причем повышение напряжения в сети и молитвы не помогают. Помоги мне плиз, а я тебе
Когда мы бэкпропогэйшн включаем, разве не изменяются только веса выходного слоя для конкретной ситуации? Если мы движемся дальше, то получается ошибка нулевая.
>>1247685 Я считаю дельту для последнего слоя, меняю веса, получается что выход равен ожидаемому, при этом вычисленные значения стоящего перед ним слоя не меняются, так как я уже модифицировал веса на которые они перемножаются. Соответственно для каждого следующего слоя дельта равна нулю.
>>1247697 Онтологическая бза созданная вручную прибита гвоздями из говна к синтаксическому велосипеду из поноса. Короче, у них на уровне синтаксического разбора уже не работает. Я про нормальный русский язык, в англопидерском там проще и может компрено и покажет что то отличное от говна.
Аноны, действительно в машобе необходимо именно ТОПОВОЕ математическое образование, т.е нужны выпускники только МФТИ, МГУ, ВШЭ? Я поступил на прикладную математику в МИСиС, собираюсь попробовать себя в компьютерном зрении. Посмотрел hh и впал в уныние - неужели мой максимум - это какой-нибудь веб или энтерпрайз?
>>1247757 По идее должно быть дотаточно. В заборостроительных обычно никто не учится нормально, да и сами студенты тупые, поэтому они не котируются особо.
>>1247773 >но что там с работодателями Видимо все совсем плохо. Требуют MS, а то и PhD по математике или Computer Science, причем обязательно чтобы степень была получена в топвузе.
>>1247773 Ну разве что для своих свистоперделок, да и то придется самому учить довольно много математики. А на работу в DS/ML/AI требуют очень серьезную матподготовку уровня матфака/пми топового вуза в дс
>>1247793 >не могут решить задачу про два яйца, значит она всё-таки сложная, нет? Магистров учат решать более/менее реальные задачи, а не выдуманные головоломки для школьников и людей постарше.
>>1247794 То есть ты считаешь, что задача о двух яйцах это сугубо абстрактная головоломка и в реальной работе никогда не нужна? Ну такой работник тем более должен быть отсеян.
>>1242753 (OP) Анон, такая хуйня короче. Ебанул типа нейронную сеть на питоне. Без всяких там numpy и прочее. Решил по хардкору короче. В итоге, что я получил. При обучении сети, к примеру, по следующим сетам: на вход подается 0.3 на выходе должно получиться 0.09. Все заебись, сеть обучается. Однако, когда я хочу обучить сеть, хотя бы обычному умножению и подаю на входы несколько значений по порядку, а в качестве контрольных выходов, соответственные значения. Выходит следующая ситуация. Такое ощущение, что сеть стоит на месте. То есть, подав на вход нормализованное значения x1, y1 и соответственно, в качестве контрольного параметра z1 сеть пытается подстроить свои веса именно к этому контрольному параметру (метод обратного распространения ошибок) . Сеть вроде кое-как подстроила веса за одну итерацию, а потом сука сразу НА и подаю уже x2, y2 и z2 и сеть заново подстраивается к z2 и так далее. Из-за чего появляется ощущение, будто сеть просто стоит на месте меня свои веса туда и обратно без какого-либо профита. В качестве активационной функции я использую сигмоиду 1 / (1 +_exp(-x)), при корректировке весов используется следующая функция: new_w = old_w + n dsigma(x) error, где old_w -- старый вес связи, n - норма обучения, dsigma производная сигмоиды. Ошибка для выходного нейрона определяется лишь разницей между контрольным значение и реальным выходным значением. Ошибки для скрытых слоев определяются по следующему мануалу (изображен на двух пикчах, на второй выше описана формула). Анонче, помоги мне, чем сможешь, возможно встречался с такой ситуацией. Уже не знаю что делать, от горя фапаю и прозябаю.
Кстати не очень понимаю почему бэкпропагнейшн как какое-то особенное изобретение представляют нам? Этож мы просто дифференциал оптимизируемой функции подсчитываем пользуясь тем что d(fg) = df dg
>>1248170 > Что вообще такое производная. Ты загугли хоть что ли. Это же матан простой, к нейроночкам как таковым не относится. Вы б сначала основы почитали, зачем тут спрашивать что такое сигма, производная, интеграл итд.
Если значение выхода окажется слишком большим или слишком маленьким, то производная активации станет нулём, при этом условии дельта тоже. Какой в этом смысл?
>>1248167 вся твоя сеть по сути раскладывается в одну функцию с кучей переменных допустим ты имеешь 2 входных нейрона 2 в скрытом слое и 1 на выходе и пусть все активационные функции будут линейными (тобишь y(x)=x) и целевой ф-цией J = (y_pred - y)2 , где y_pred значение которое ты предсказываешь а y правильный ответ тогда все это можно разложить в нечто
y_pred = (x1w1+x2w2)... ну кароч ты понял в латех я не умею делаешь forward propagation и представляешь в виде одной функции всё это а потом берешь градиент тобишь производную по всем переменным ето как бы основы вот тут все на православном объясняется с азов https://stepik.org/course/401 является калькой с буржуйского http://neuralnetworksanddeeplearning.com/index.html
>>1248164 Исторически так сложилось. Отцы нейроночек вроде все переизобретали на заре нейроночкостроения, и им, наверное, казалось, что они изобретают что-то невероятное. А может, это был просто метод самопиара, круто же звучит Я ИЗОБРЕЛ БЕКПРОПАГЕЙШН. Сравни с "я понял как взять производную сложной функции."
>>1248214 ну пиздец конечно вы говорите что для дипленингов надо мехмат закончить а тут оказывается отцы не знали матана из максимум третьего семестра причем самой базовой его части
>>1248164 >>1248214 Вы б хоть исторический обзор у Вапника почитали. Там описано, как настраивались веса в перцептроне Розенблатта, и почему бекпропагейшн - большой шаг вперед по сравнению с.
>>1248365 > Полноценная машина Больцмана для ваших импотентных сеток. Я вижу две ограниченные машины Больцмана, между ними хуйня непонятного назначения и один выходной нейрон. И в чем космический эффект всей этой ебулды?
>>1242753 (OP) > MIT Аноны, подскажите, пожалуйста, есть ли курсы на русском языке если знаете об их существовании, хотелось бы ссылку Если не владеете этой информацией, можете дать линк на MIT курсы на английском ? Благодарю
>>1248818 При том, что сколько бы маньки в этом треде не обмазывались матаном и архитектурами просрочеными 20 лет назад, область искусственного интеллекта нацелена на реализацию механизмов именно мозга и нервной системы.
>>1248855 Асоциации не имеют отношения к памяти, это отдельный алгоритмический инструментарий, тут скорее подходил бы глагол вроде "ассоциировать". То есть либо ассоциативная хуйня непонятная, либо память. мимо проходил, не машобщик
Вапник давно пояснил, почему для машоба не нужны знания по нейрофизиологии. Сами подумайте, где бы была сейчас авиация, если бы главная задача была скопировать птицу. Задача авиации - летать, а не копировать летающую хуйню, созданную эволюцией. Так и тут, задача - обучающиеся алгоритмы, а не копия существующих механизмов, сложившихся эволюционно. >>1248831 >>1248818 >>1248783 Пшел нахуй отсюда, чучело.
>>1248987 Почему тогда Вапники долго не могли вдуплить в свертку, и только у кошки (или жабы, хз) её подсмотрели? При том, что про декомпозицию знает любой даун.
>>1249014 > Почему тогда Вапники долго не могли вдуплить в свертку, Потому что она нужна только негров распознавать? Создатель неокогнитрона до неё и без кошек додумался, и что ты знаешь про неокогнитрон? Эта ваша свёртка - хипстерский хайп, про который забудут.
>>1248987 >Сами подумайте, где бы была сейчас авиация, если бы главная задача была скопировать птицу.
Авиация на самом деле как раз началась, после того как изучили и скопировали птицу, мани. Именно так появился первыйлетающий аэроплан Ле Бри скопировал его с альбатроса. До этого были одни сраные воздушные шары. Точно так же как у вас, сейчас ваши сраные "нейросетки", которым нужен миллиард примеров что бы хуй от жопы научиться отличать. А все додики, которые повторяют бред о том, что самолеты не машут крыльями, что бы лететь, не понимают что и большинство птиц, блядь, тоже не машут крыльями, что бы лететь, а только что бы взлетать, набирать скорость и маневрировать. Нухуя в этой области не получится пока люди не начнут обращать больше внимания на ЕДИНСТВЕННЫЙ РАБОТАЮЩИЙ ПРИМЕР ИНТЕЛЛЕКТА - МОЗГ. А весь машоб сейчас это обклеивание воздушных шаров гребешками и перестановка реек в каркасе, в надежде на то что он из-за этого начнет летать как птица.
Накидайте каких-нибудь крутых приложений (irl а не в алгеоме) тер вера или статистики, чтобы рассказать-показать человеку. Еще была книжка вроде какая-то по статистике кажется, очень наглядная, кто-нибудь помнит?
>>1249097 >Нухуя в этой области не получится В какой области, в математической оптимизации? Уже получилось, привет из середины 20го века. "Искусственный интеллект" это рекламное название определённой области этой дисциплины в общем-то, сам интеллект нахуй никому не упал. Основная потреба бизнеса в "интеллекте" это улучшенные алгоритмы впихивания рекламы, распознавания человеческих фигур и машин с камер и улучшающийся кредитный профайлинг быдлеца. Сочиняющие симфонию, пишущие шедевры роботы никого не интересуют.
>>1249127 > Сочиняющие симфонию, пишущие шедевры роботы никого не интересуют. А чем принципиально диалоговые системы отличаются, которые все большие компании разрабатывают?
>>1249135 Ну а зачем создавать интеллект похожий на человеческий с помощью каких-то упрощенных искусственных моделей если природа уже все сделала за нас. Получается и проще и эффективней. Найди тяночку, заделай ребеночка, воспитай, вот тебе и реинфорсмент лернинг. Через n лет искусственные матки делать научатся, вообще будем штамповать РАБотничков на конвеере.
>>1249170 > Забавно, что любое обсуждение ИИ скатывается в лучшем случае к обсуждению принципа стимул-реакция. Потому что основа высшей нервной деятельности это условный рефлекс и ничего кроме рефлексов там нет? Такой вариант тебе в голову не приходил, школьничек?
>>1249207 Наоборот. Дно какое-то. Тяжело и неэфективно. Будет такой же клон. Максимум человеческих возможностей уже был достигнут и уже был давно унижен технологиями хотя иногда люди и унижали технологии, но это минимизируется с прогрессом
Аноны, поступил на Информационные системы и технологии. Но понял, что хочу заниматься ML, каковы шансы, что большинство вакансий мне будут недоступны из-за не той специальности ?
Реквестирую годные и недорогие книги по МЛ и Математике, необходимой для них, для совсем не шарящего в математике, но шарящего в программировании. Глянул тут книжки по МЛ, охуеть там книга на 250 страниц стоит штукарь в среднем. Пиздец. Хуй с ним с МЛ, хотя бы по математике для МЛ что-нибудь.
Посоветуйте тему дипломной, интересуюсь виртуальными ассистентами (в Космосе, для экспедиций на Юпитер), но такую тему нельзя заявить "потому что это инженерная проблема без научной новизны и с кучей опенсорных имплементаций на гитхабе, если конечно не говорить о серьезном социальном ИИ масштабов топовых корпораций". Делал курсовые с классификацией негров и ДНК, какой-то скромный опыт имеется, но требования к диплому очень серьезные и начинать работу нужно уже сейчас. >>1249386 Прочти шапку.
>>1249419 В доте еще этого нет. Ебал ИИ из-за того, что его реакция была 0,08с, а у топ игрока 0,2с. как накинули ограничений, чтоб смотреть не на скрипты, а на игру ИИ 2/3 вин(если не ошибаюсь) у студии комментаторов. У про тимы выиграть шансов мало
Как визуализировать бинарный классификатор, который просто отвечает на вопрос: относится ли текст к категории а или к категории b ? Мне нужен какой-то красивый график для научной работы, с задачей регрессии понятно как это сделать, а с обычным супервайзд бинарным классификатором - неочень
>>1249672 > Хочу бумажные Купи принтер да печатай. Ксерокс 3010 2.5 косаря стоит, одна заправка - чип 50р + краска сотка, хватает на 2,5 пачки бумаги по 500 листов. Если в формате а5 печатать, это 6000 страниц. >>1249672 > на английском книги полюбому дорогие. Полтора года назад покупал Вапника у индуса, вместе с доставкой из Индии обошлось 800р.
>>1249710 Лалка, учебники - это и есть хипстерство. Стопочка красивых разноцветных книжек на столе или на полке, рядом стаканчик латте-мокиаты, можно еще на фоне коллекцию винтажных пластинок поставить. Вот только тыщи страниц писанины невозможно освоить в принципе, и в этом нет никакого смысла ведь вся полезная и актуальная информация получается в 21 веке исключительно из статей в интернете.
>>1249721 дополнение: >You must have read at least two other textbooks on that same subject А хипсторок то начинает прозревать понемногу. Всегда если видишь рекомендацию книги - это 100% гарантия что дающий ее ничего другого по вопросу никогда не читал.
>>1249721 >тыщи страниц невозможно Стоит ли говорить что учебники это не художка, и их не нужно читать подряд от корки до корки? >исключительно из статей в интернете Если ты про прошедшие рецензирование научные статьи из журналов или из архива, то это, очевидно, более продвинутый уровень для дальнейшего исследования, учебники пишутся по ставшим классическими вещам. Если ты о чем-то вроде чтения очередного научпоп говна про бекпропагейшн на хабре, реддите или бложеках то это не "получение полезной и адекватной информации" а тупорылое бесполезное хипстерство.
>>1249721 что ты подразумеваешь под полезной и актуальной информацией в статьях? очередной перцептрон на numpy? а если ты про какой-нибудь arxiv, то там тоже 90% публикаций юзлесс
Вы тут правда не понимаете >>1249721 разницы между учебником и пейперами? Не, ну ладно когда про сигмы нихуя не знаете, но вот это уже конкретное деградантство. > Вот только тыщи страниц писанины невозможно освоить в принципе, Ты б хоть попытался, для разнообразия.
>>1250012 Статья чисто в архиве, тем более от ноунейма, не дает репутации, ее даже не прочитает никто. На конференции посылай. Как писать - научник объяснит.
>>1250135 Спасибо. В нормальные вузы на пхд, вроде бы, можно сразу после бакалавриата ехать - как раз два года есть на статьи и попинывание хуев, самое то.
>>1249635 >>1249673 >>1249836 А что делать, если у меня как таковых слоев нет, есть только классификатор, то есть вот такой примерно код, но размеры трейнинг и тест сета больше и мне нужно по результатам предсказаний какой-нибудь ёбнуть график
import numpy as np X = np.array([[-1, -1], [-2, -1], [1, 1], [2, 1]]) y = np.array([1, 1, 2, 2]) from sklearn.svm import SVC clf = SVC() clf.fit(X, y)
>>1250296 возьми какой-нибудь другой классификатор, у которого есть метод predict_proba а если другой прям никак нельзя, то хоть гистограмму на 2 столбца построй
>>1242753 (OP) помогите мне пожалуйста с темой. Я разбираюсь с image fusion с помощью метода главных компонент (principal component analysis, PCA). На картинке написана часть алгоритма, то есть допустим есть две картинки I1 и I2, уже зарегистрированные, размером MxN. Берем значения пикселей двух картинок, cоставляем матрицу размером MN x 2, то есть у нас есть 2 столбца. Вычисляем матрицу ковариации полученной матрицы, находим собственные векторы и собственные значения. Получается 2 собственных вектора и 2 собственных значения. Выбираем собственный вектор, соответствующий большему собственному значению, а вот дальше я не понимаю, что делать. Вот например если я вычисляю матрицу ковариации и собственные значения и собственные векторы этой матрицы с помощью OpenCV, и OpenCV вычисляет уже нормализованный собственный вектор, то получается последний пункт алгоритма с первой картинки выполнен? И мне осталось только, в случае например если собственный нормализованный вектор имеет значения (a,b), то перемножить значения пикселя с первой картинки Im1 на a и значение пикселя со второй картинки Im2 на b? То есть I1a+I2*b? Объясните пожалуйста
>>1250551 Дождемся тестов, посмотрим. Тензорные ядра там для рейтрейсинга (на них постпроцессинг картинки делается), возможно они вообще не будут доступны в ином качестве. К тому же надо чтобы кудовские либы их поддерживали, cudnn, в частности - пока об этом ни слуху ни духу. А так-то на моей 1080ти 3584 ядра, против 2304 тут.
>>1249763 >Стоит ли говорить что учебники это не художка, и их не нужно читать подряд от корки до корки? Говори, конечно, много и подробно. Я вот если уж берусь за книгу читаю от введения и оглавления не пропуская не страницы. Завидую таком подходу на самом деле. Вот только это мне рвет шаблон - если бы половина книги была "лишней" почему же ее не выкинули и не написали книгу в два-три раза меньше? И как я узнаю что нужно а что нет? Страницы то вообще то совершенно одинаковые. (Тут мне вспоминается печальный случай когда я сдавал экзамен по матану и решил что обобщенные функции - не такая уж важная тема, ведь она в самом конце и вообще не до них; вот только экзаменатор думал совсем по-другому). Ведь учебники как раз пишутся по такому принципу что можно начать читать с любого места - и сразу все понятно. Одна история просто охуительнее другой. С другой стороны - если я вижу тыщи говностатей про бэкпропагейшн на хабре, то у меня есть хотя бы какой-то ориентир на то что наиболее актуально. Статья, кстати даже если она совершенное говно, как правило пишется в расчете на самодостаточность, а не как отдельная глава из сотен. >>1249878 Что мне мешает узнать что такое сигма из статьи в википедии. Я же не такой дебик как ты чтобы наворачивать тыщи страниц ради одного определения.
Есть ли смысл идти в топвуз на математическую специальность, где будут ебать в жопу все 4 года, либо же на математическую специальность в чуть менее топовый вуз, где будет свободное время на свои проекты и самообразование?
Иду туда где ебут в жопу, свободного времени у тебя потом ещё будет овердохуя, но вот математику, как там, ты сам наверное не выучишь.
>Планирую вкатиться в компутер вижион
Хуй забей, актуальная математика в мо обязательно поменяется, а вся эта параша которая актулаьна сейчас, станет нахер никому не нужна навроде многопоточности, которой всех надрачивали 5 лет назад кроме мл-макакеров, которые к тому времени расплодятся и будут обслуживать шаблонные проекты, а вот в новую математику того времени без топ вуза ты вряд ли вкатишься.
Посоветуйте Linux-дистрибутив, который СТАБИЛЬНО работает с Nvidia-драйверами. Я уже задолбался с этой херней.
Две недели назад ставил драйвер на Debian Stretch и все работало. Сегодня ставлю и оно не работает. Какие-то несовместимости с ядром или сам драйвер вышел новый.
Сад машоб! Хочу написать умного бота, чтобы он понимал письменную речь, в каком направлении идти? Собираюсь писать на python. Изначально цель такая: Боту пишут, он понимает, что надо ответить и отвечает разговорной записью. Тип письменный ответ переводится в звук как в войсы в вк телеге, ну вы поняли Войс генкрацию я уже запилил, асинхронную. Как то так
>>1252132 >Хочу написать умного бота, чтобы он понимал письменную речь Чат боты уже вдоль и поперек расписаны, питух, хотя бы погуглил. Если что нибудь уровня NLP, то соснешь с проглотом.
>>1252157 Петух это твоя мать, спермоглотка ебаная. Я попросил дать мне направление, а не твой высер про ботов с логикой прописанных ответов заранее, хуйло тупое
Поясните. Вот есть же нейросети, которые перерисовывают любые рисунки под стиль Пикассо и так далее. Так вот, есть такой художник - Аарон Бек, примерное творчество пик- и видеорелейтед. Если его концепты нейросети скормить, сможет она перерисовывать под такое планшетные или сканированные карандашные наброски? Как это сделать, в какой статье описаны такие нейросетевые архитектуры? https://www.youtube.com/watch?v=8fHLt5hlHjM
Я думаю что без образование и диплома нормального после курсов хер кого возьмут, я просто сужу с т.з. работодателя, я лучше возьму парня из МФТИ ВШЭ МГТУ или еще какого ВУЗа, чем чучело окончившего курсы по датасаенс. Моет я ошибаюсь?
>>1252506 Надо платить по счетам, деньги всем нужны, иначе зачем годами дрочить машоб и не зарабатывать на этом. Пока мамка кормит оно конечно может и по фану, но потом то что?
>>1252538 В машоб не каждый выпускник математического факультета попадает. Везде нужны только выпускники топовых вузов: мфти, мгу, вшэ бомока уже не очень стала котироваться, ну может еще СПбГУ. Все, людей из других мест просто не берут, потому что они имеют недостаточную математическую подготовку.
А классическое IT образование вроде программной инженерии и прикладной информатики тем более не нужно. Туда специально идут, чтобы получить корочку программиста, не напрягаясь с математикой. Резюме таких выпускников сразу летит в мусорку, потому что всем известно, что такой человек максимум способен верстать странички и писать бекенд на пеашпи или джаве
>>1252375 Есть статьи, где конкретно такая задача решается: из скетчей делаются полные детализированные рисунки. Это не трансфер стиля, а с помощью ГАНа делается.
>>1252579 Я и не "учил кодинг", я просто начал кодить еще в 12 лет. По образованию я математик. Твои претензии смешны, если ты не тралишь, конечно. Нейроночки это явно не для тебя, ты сформировавшийся напомоечник.
>>1252026 Посоны, у кого проблемы с ядром/драйверами -- ставьте Ubuntu. Все работает из коробки. Само находит, само ставит, само обновляет. Ничего не ломается.
>>1252753 Не толщу, нейросетки способны вычислять любые алгоритмы и программы за ровное колличество времени, каждый раз. Не просто с одинаковыми затратами, буквально идентично.
>>1252814 > 18 век > а ты че, знаешь что-то лучше для освещения, чем газовый фонарь?! Мы уже на вершине, дальше некуда. Можно только к первобытным кострам откатиться.
Продолжаем спрашивать очевидные вещи, о которых знает любой индус, прочитавший хоть одну книгу по машобу.
FAQ:
Я ничего не понимаю, что делать? Либо в тупую import slesarplow as sp по туториалам, либо идти изучать математику курсы MIT тебе в помощь. Не нужно засирать тред вопросами типа "что такое сигма?".
Какая математика используется? В основном линейная алгебра, теорвер и матстат, базовый матан calculus многих переменных.
Что почитать для вкатывания? http://www.deeplearningbook.org/
В чем практиковаться нубу? http://www.deeplearning.net/tutorial/ | https://www.hackerrank.com/domains/ai | https://github.com/pytorch/examples
Где набрать первый самостоятельный опыт? https://www.kaggle.com/ | http://mltrainings.ru/
Где работать? https://www.indeed.com/q-deep-learning-jobs.html
Где узнать последние новости? https://www.reddit.com/r/MachineLearning/ | http://www.datatau.com/ На реддите также есть хороший ФЭК для вкатывающихся
Где посмотреть последние статьи? http://www.arxiv-sanity.com/
Где ещё можно поговорить про анализ данных? http://ods.ai/
Нужно ли покупать видеокарту/дорогой пека? Если хочешь просто пощупать нейроночки или сделать курсовую, то можно обойтись облаком. Иначе выгоднее вложиться в 1080Ti или Titan X.
Список дедовских книг для серьёзных людей:
Trevor Hastie et al. "The Elements of Statistical Learning"
Vladimir N. Vapnik "The Nature of Statistical Learning Theory"
Christopher M. Bishop "Pattern Recognition and Machine Learning"
Взять можно тут: http://libgen.io/
Напоминание ньюфагам: персептроны и прочий мусор середины прошлого века действительно не работают на серьёзных задачах.
Архивач:
http://arhivach.cf/thread/340653/
http://arhivach.cf/thread/355442/
http://arhivach.cf/thread/360889/
http://arhivach.cf/thread/366809/
http://arhivach.cf/thread/368934/
http://arhivach.cf/thread/379620/
Там же можно найти треды 2016-2017 гг. по поиску "machine learning" и "НЕЙРОНОЧКИ & МАШОБЧИК"
Предыдущий тред: