я пержу оче вонюче. расстройство кишечника. и еще постоянно пержу. иногда в офисе сижу и пержу. надеюсь коллеги этого не замечали. обычно тихо пержу. но сегодня пер был звонкий, сам вырвался.
вы никогда не думали, что каждая секунда приближает нас к смерти? а на что мы тратим драгоценные секунды? смотрим фильмы, играем в игры, сремся на дваче. я не говорю о потребностях, которые нвозможно вычеркнуть типа еда или секс, т.к. без них не сможет функционировать организм. но ведь все остальное - пустая трата времени, которое можно было потратить на изучение медицины, математики, кодинга, конструирования, попытки решить глобальные вопросы типа старения и смерти. меня теперь мучает осознание этого. большинство людей вообще занимается наукой за плошку риса, т.е. не ради прогресса ради решения собственных проблем (старение, смерть, болезни), а из-за необходимости - плошка риса чтобы не сдохнуть с голоду.
>>1056694 >я не говорю о потребностях, которые нвозможно вычеркнуть типа еда или секс, т.к. без них не сможет функционировать организм Приграл с социобляди. Ни разу не занимался сексом, чувствую себя нормально. Уже год пью нейролептики, от которых хуй без усилий не встает и желание ебаться не возникает. Не знаю, как относиться к этому. Скорее всего, мне похуй. Не можешь получать удовольствие от процесса - катись нахуй, ты дефективная капиталистическая потреблядь.
>>1056694 мне кажется, что все об этом думают, но молчат. трудно принять что человек может об это _не_ думать. зачем такой человек что-то делает? вот так, просто захотелось, и не озадаченно, он идет на работу, или еще что делает? но рано или поздно он должен был обзавестись вопросом, а че это я, блять делаю? или же он быстро про этот вопрос забывает, как наркоман забывает про губительность привычки? и где -же тогда тот разум, упоминание которого присутствует в наименовании нашего вида, человека разумного?
>>1056727 я думаю, большинство людей просто отвечают на этот вопрос религией: типа я не делаю никому зла, а значит попаду в рай и эта вся цель моей жизни. т.е. они уже считают себя бессмертными, а болезни оправданными (испытания б-га) и не хотят ничего менять или улучшать. это же пиздец, господа.
>>1056712 ты насильно подавил одну из фундаментальных заложенных в тебе биопрограмм, жди ахуенной побочки.
>>1056694 А ты никогда не думал, что смерть это не старуха с косой, которая однажды неожиданно постучит в твою дверь. Смерть - это сама матушка природа что наградила тебя песочными часами. Каждый вдох кислорода сжигает твои внутренности, приближая тебя к среднему состоянию биологического бульона окружающего планету - состоянию питательного гумуса.
Ты считаешь, что твои мертвые предки следят за твоей судьбой с того конца линии жизни, пристально рассматривая каждое деяние с точки зрения великого смысла, блага для человечества, славы и почета в веках? Присмотрись внимательно. какие они крохотные создания, как они резво копошатся в рыхлом черноземе, как их длинные кольчатые тельца извиваются в экстазе, желая вкусить теплые соки, что стучат в в твоих выпирающих шейных артериях.
- Что же ты не признаешь нас сынок? - сладко шепчут тебе они. - Это же мы - твои бабушка с дедушкой, те кто постоянно носил тебя на руках, кого ты обожал больше своих родителей, за то что не скупились удовлетворить любую твою прихоть. Иди же к нам, наше ласковое дитя. Накорми нас.
Мир как огромный котел наполнен кипящим хаосом. Все происходящее - в той или иной степени случайное завихрение, созданное потоками космической энергии. Тебе повезло оказаться частичкой турбулентности называемой жизнь. Ты в этом вселенском шторме всего лишь крохотная частица, имеющая стохастическую траекторию, не выходящую за область биологического аттрактора.
>>1056786 >Мог бы рассказать уж, что за фразы Это не так интересно, как причина, когда в детстве проговаривание определенных фраз помогало справиться со страхом смерти близких. Страхи прошли, а обсессии остались.
Всем привет. В этом году я поступил на 1 курс довольно сильного вуза. В дальнейшем хочу заниматься ИИ. Но солидная математическая база у меня появится только через 2 года, что в таком случае можете посоветовать делать, чтобы начать развиваться в этом направлении? Добра.
>>1056787 Дети не боятся за близких, в крайнем случае этот страх возникает в возрасте 16 лет и старше. Дети антропоморфизируют смерть, представляя ее как нечто страшное, что может зайти ночью в комнату, а сам страх смерти лишь защита от психологической травмы наносимой родителями.
>>1056790 Чушь какая-то. Я боялся смерти матери и своей собаки. Для противодействия этому я почему-то придумал игру с набором правил построения и произнесения фраз, которые отсрочат их смерть. Со временем правила усложнялись, а гоодам к 16 наоборот - упростились, но к тому времени это уже была обсессия, с которой я не мог ничего поделать.
>>1056797 Какая разница как ты это объяснял - это не имеет отношения к действительности. Навязчивые состояния - это распространенный невроз. Лекарство - вылезти из скорлупы, это в большей степени когнитивный процесс.
Сейчас тебе может это казаться обыдлением. Но со временем это само произойдет, когда превратишься в брюзжащего старпера и просрешь все полимеры, которые можешь просрать. Лучше пройти этот процесс взросления намеренно, пока еще не поздно, что-то поменять в своей жизни.
Не знаю что тебе поможет. Мягкую помощь могут оказать групповые тренинги, позволяющие в безопасной обстановке взглянуть на жизнь с другой стороны.
Как ни странно помогают страдания. Армия - это суровый групповой тренинг.
>>1056810 >Сейчас тебе может это казаться обыдлением. Но со временем это само произойдет, когда превратишься в брюзжащего старпера и просрешь все полимеры, которые можешь просрать. Лучше пройти этот процесс взросления намеренно, пока еще не поздно, что-то поменять в своей жизни. Мы вместе с тянкой пытаемся вылезти из говна. У нее социофобия, у меня вот эта хуйня, тревожность и последствия родовой травмы. Для нее сейчас главный вопрос - найти работу.
>Как ни странно помогают страдания. Армия - это суровый групповой тренинг. Помогают, но временно. На тренировках по рукопашному бою обсессии прекращаются, но через пару часов снова одолевают. Наверно, это связано со снижением уровня серотонина, который вырабатывается при аэробных нагрузках.
Алсо, какие последствия приема нейролептиков и ад? Кто испытал их на своем опыте?
>>1056810 >Лекарство - вылезти из скорлупы Психолух, плез. Когнитивная терапия применяется, но твоё предложение - какой-то бред. Ты бы ещё шизофрению вылезанием из скорлупы лечил.
>>1056811 А ещё тянучка принести и лишнюю суету. Я б не рисковал.
>>1056870 Машоб на каждом углу рекламируют. Сейчас каждый студент пишет диплом на эту тему (потому что очень низкий порог вхождения). Если ты хочешь матан, высокую зарплату, гарантированную востребованность - тебе не сюда. Есть много других очень интересных направлений.
>>1057050 Представь, что Билл Гейтс был первокуром как ты. Он ходил около большой вычислительной машины в своем универе и облизывался. Вот бы иметь такую личную штуку, чтобы не писать код на бумажке в студенческой библиотеке и не стоять в длинной очереди к мигающему разноцветными огоньками шкафу. Но внезапно судьба повернулась к его мечте лицом. Персональные компьютеры быстро стали реальностью, а он оказался во главе разработчиков программ для таких штук.
Теперь сравни со своей ситуацией. Ты хочешь пойти по протоптанной тропинке потому, что так понятнее и безопаснее. Ты не видишь возможностей вокруг. Никто их не видит - кроме гениев.
Хочу вкатиться в machine learning, есть ли гайды от двачей, в нете дохуя видел, облако чекал, книги видел. И еще вот вопрос, счас все юзают питон как мейн язык для machine learning, а нужно ли какой-то язык учить еще дополнительно? Плюсы например и тд, в технический английский могу. Вообщем реквестирую годный гайд для вкатывания в МЛ, англ/русс. студент-бульбаш 1 курс, планирую дрочить и поступать в ШАД
Сап, нейросети! Поясните за дообучение сетей и использование каких-то предобученных сетей в нейронках. Распространено ли это, какова эффективность? Т.е. например одну нейронку успешно обучили на распознавание кошек. Насколько целесообразно будет дообучать сеть на распознавание собачек или мб велосипедов каких-то? Или вот в глубоких сверточных нейросетках, которые изображения распознают, на первых слоях какие-то примитивные фичи (палочки, их комбинации и т.д.). Есть ли такая практика, что изначально в нейросеть забивают веса именно с такими фичами, и ее обучают? Или, например, берут уже обученную, и вторую половину слоев зануляют, чтобы заново обучить?
>>1058389 судя по эффективности например на CIFAR, чтобы порог переобучения был повыше лучше обучать под каждый класс объектов отдельную сеть, если условия задачи позволяют
Ребят, объясните нубу, где можно применять машобчик и нейронки. Просто у меня настолько убогие представления, что кроме распознавания картинок ничего в голову не приходит.
Посоны, как быть. В cifar все объекты разделены, а у меня картинки имеют сразу 2 класса на одном изображении. Как такое классифицировать? Будет ли сеть обучатся если на большинстве картинок имеется сразу 2 класса? Получается так: часть картинок только 1 класс, часть - 2 класса в одной картинке. Например 1. Машина без дороги, 2. Машина с дорогой, 3. Дорога без машины.
>>1058824 в яндексе рекламу и погоду кликать, как одна курица мне на собеседовании чуть ли ни матом сказала, что машоб и нейроночки - это типа штука для повышения конверсии, после чего попросила "продать себя"
>>1058883 >>1059050 Просто мне не совсем понятно: вот я хочу заняться машобом, в каких сферах для решения задач я смогу применить свои знания? Или нет какого-то ограничения?
Что за хуйня в оп-посте и треде? Я попал в тред по маш.обучению или где? Дайте 1-2 книжки на почитать для начала. Вроде ж были в старых тредах. Алсо, какие языки больше подходят для этого, назовите по убыванию.
>>1059250 Не фейспалмит. Для всего есть наиболее популярные/удобные/обкатанные инструменты, фреймворки. Я заметил, что чаще всего используют яву (хадуп, махаут) и пистон (numpy?), а я их не знаю. Я веб-макака и знаю php/js, ну еще c++/c#.
Как в sklearn понизить границу, по которой объект относится к тому или иному классу? Есть 1000 X объектов, из них 16 относятся к одному классу 1, остальные к классу 2. При предикте X разделяется 16\984, а мне требуется отнести как можно больше Х из класса 2 в класс 1 (который представлен этими 16 образцами). Как это сделать?
Что-то тред сдох. Давайте, я наброшу гениальную идею на миллион, а вы покритикуете. Читал я давеча пейпер про fasttext, если кто не в курсе, это либа для NLP от пейсбука https://github.com/facebookresearch/fastText умеющая в subword-анализ, т.е. анализирующая не слово как атомарный элемент текста, а н-ки буков этого слова от 2 до 6. Ну и дальше все как обычно - чаще встречающиеся в определенном контексте из других буков н-ки позволяют вычислить семантику слова (в данной либе - отдельны частей слов, таких как корень, суффиксы, ну вы понели). Далее сама идея: 1) Но ведь в качестве слов можно использовать все, что угодно. Например, вещественные числа. Ведь чисто формально это тоже слова в алфавите, состоящем из натуральных чисел от 0 до 9 и точки. 2) Далее, есть такая тема как нихонские свечи пикрелейтед. Опять же, исходя из вышесказанного за вещественные числа, чисто формально японская свеча это слово, состоящее из значений открытия, закрытия, максимальной и минимальной цены. 3) Теперь усложним задачу. Разница между парами 4х значений соседних свечей (или логарифм от нее) это так же слово. Контекст которого - подобные же значения соседних свечей. 4) Тогда, если мы возьмем числовые ряды, сделанные как описано в предыдущем пункте, у нас будет формальный текст (напомню, в алфавите из цифр 0,...,9 и точки). 5) Если мы пройдемся по такому тексту фасттекстом, мы сможем выявить статистическую закономерность, зависимость динамики изменения свечей от динамики же контекста этих свечей (то же самое можно сделать для показателей индекса Ишимоку, как пример). Т.е. в итоге мы получим нечто типа регрессионного анализа с возможностью предсказывать последующие значения свечей исходя из предыдущего и текущего (как элементов контекста). Т.е. фасттекст в данном случае используется как алгоритм для идентификации системы.
Дело такое - мне нужен наставник. Живу в общаге, и мои соседи нихрена не соображающие быдланы, играющие в дотан сутками. Я хочу самообучиться до нормального уровня, но мне нужно кому-то отчитываться ин рил лайф, чтобы это держало меня на плаву. Что я планирую делать: каждый день присылать отчёт что я сделал, что прочитал, краткий пересказ понятого материала, и небольшое эссе на английском или французском. Ваша задача: сказать "молодец, продолжай", или что-то подобное. Можете иногда придумывать мне челленджи, которые я должен выполнять inb4: синий кит, а ля "перечитай весь матанализ за 10 часов". Короче, кому там нужен послушный раб-зубрила? втентакле: /quantumdemon
>>1062737 Учеба для того и нужна, чтобы найти себе наставника из числа преподов. Лекции, как и экзамены - это просто повод пообщаться, реальные знания можно получить только самостоятельной работой под (как минимум) наблюдением сенсея. Если в твоей шараге не так - это достаточный повод сменить шарагу.
>>1062743 Гуд пойнт, но мне уже поздно менять шарагу. Алсо, ни разу не встречал препода, который бы подошёл на такую роль. Единственный человек, который был в этом плане более-менее подходящим, внезапно, это препод из ZTH, который с какого-то хрена стал отвечать на мои письма с вопросами. Но он слился под НГ, лол. Давайте,ребята, все в детстве хотели себя хомячка.
>>1062924 На архиваче 200к тредов вообще-то. Да и аноны уже озаботились, вот либа(https://toster.ru/q/437218) с помощью которой реплаи можно с минимумом ебли парсить.
>>1062454 >Ну и дальше все как обычно - чаще встречающиеся в определенном контексте из других буков н-ки позволяют вычислить семантику слова Это не семантика. Это что-то очень отдалённо похожее на семантику.
Анон, объясни, почему нельзя найти точку минимума функции с помощью производной? Почему надо использовать шаги и искать минимум функции ошибки с множеством итераций?
>>1063309 >Это не семантика. Это что-то очень отдалённо похожее на семантику. Ну тогда расскажи, что такое семантика. >>1063356 Потому что в оригинале матанализ слишком идеализирован, аутичен, для практических нужд. Чтобы не просто рисовать значки, а реально вычислять, необходимы численные методы. А они невозможны без учета вычислительных погрешностей, устранимых и неустранимых ошибок, оценки стабильности вычислений, оценки точности приближения (аппроксимации) и т.д. чего в оригинальном матане нет. А машобчик - это практическая дисциплина, так что добро пожаловать в реальный мир, Нео.
>>1063544 >коннотативный аспект. Подразумеваемое значение? Но оно ведь отражается в контексте употребления слова, т.е. опять же его использование относительно других слов. Если бы этого не было, то собеседник не смог бы понять в каком смысле ты используешь слово. Разве нет?
>>1063356 Единственный случай когда никаких шагов не надо - положительные параболоиды. Чаще всего их можно найти в задачах МНК. Её единственный экстремум всегда в точке где производная равна нулю. Раз корень только один, то это линейная задача, которая имеет способ решение через поиск обратной матрицы и.т.д. Более сложные функции имеют множество экстремумов, не известно какой из них даёт минимум ошибки, и их не решить линейной алгеброй, т.к. там уже будут хитрожопые вектор-функции, а не простые линейные операторы. Однако, какой бы хуёвой, не была эта функция, её линейная часть приращения, матрица Якоби, будет оставаться объектом линейной алгебры, а значит её можно юзать для градиентного спуска.
Поясните за Метод обратного распространения ошибки. Если у меня есть 2 выходных нейрона и первый выдал правильный результат, а второй ошибся, то нужно ли пересчитывать веса для первого выходного нейрона, который не ошибся. Я просто смотрю гайд и там формула дана, что бы считать ошибку по всем выходящим нейронам. Но в примере выходящий нейрон всего один, так что не понятно, как работать с несколькими выходящими нейронами.
>>1063779 >Читаю Хайкина Зачем? >такие понятия, как оператор замкнутого контура и оператор разомкнутого контура. Что сие означает? У Хайкина спроси. А вообще, либо там объясняется, либо понятно из контекста, либо странности перевода, Хайкина на русский отвратно перевели, именно в плане терминологии.
>>1063790 Мое мнение - не стоит. Мутновато излагает, лучше первоисточники наворачивать. Тем более тема широкая, в одной книжке нормально охватить нереально.
>>1064719 nearest neighbor классификаторы анализ временных рядов с помощью grammar induction
Это то что было более-менее популярно, но потом было заброшено. В общем любая статья, которая не получила распространения, это технология на свалке, но про них по очевидным причинам никто не знает.
Анон-нейрон, посоветуй ресурс по анализу данных на Python/Pandas. Хорошую книгу или отличный курс (лучше книгу). Хочу повозиться с данными, прежде чем лезть в машобчик.
>>1065032 Область недостаточно широкая, чтобы обучать джунов, да и синьоров есть некоторый резерв. Шанс у джуна может быть в конторе, которой специалист нужен, но не очень сильно, так что она готова платить только очень низкую ЗП, сопоставимую с макдаком.
>>1065100 >Чисто хайп? да >такие популярные у вкатывальщиков? нетъ. с этой хуйни кормяться матанопитухи-грантопилы, типа исследования черных дыр, приздишь что угодно в рамках общепринятой теории, никто проверить не сможет.
>>1065105 А что можешь посоветовать ты? Вебмакакинг, в котором индусы отберут твоё место за корку хлеба? Геймдев, который в СНГ практически нулевой? Робототехника, где единственный твой путь - педагогика?
>>1065112 >А что можешь посоветовать ты? В чем, в выборе галеры? >Робототехника, где единственный твой путь - педагогика? Как насчет автономной сельхозтехники навскидку, или для тебя роботы бипедальные терминаторы?
>>1065120 >В чем, в выборе галеры? Если у тебя не суперобеспеченные родители и твоё будущее не устроено благодаря им, то в большинстве случаев выбор именно такой. И IT, к слову, довольно неплохая галера.
>Как насчет автономной сельхозтехники 0 ваканский на хедхантере.
>>1065134 Лучше задай себе вопрос: какая тебе разница, какая у других людей мотивация? У кого-то ноука, у других деньги, третьи "куда все, туда и я", четвертые просто рандомом, пятым нравится звучание словосочетания "нейронные сети". Сильно тебе это помогло?
>>1065148 Вкатиться сегодня действительно так тяжело, как рассказывают? В вакансиях, кстати, не уточняют твой уровень, всегда заведомо имеется синьор? И как работодатель отличит-то синьора от несиньора?
>>1065150 Я выше писал свое мнение про джунов. Спрос на спецов не очень велик, особенно в РФ, где они нужны только большим конторам с сильным технологическим уклоном. Это, видимо, банки, интернет-бизнесы вроде Яндекса и Мейлру, да и все. В банках своя атмосфера, там тебя с улицы никто не пустит делать модели. Остальная мелочевка это уровень стартапов за еду, только в русских реалиях это будет без еды. Специалистов тоже нет так уж мало, пресловутый хайп даром не прошел. Хотя самые крутые постоянно уезжают в другие страны, так что тут по РФ мне трудно оценить. Глобально, например такой показатель: в r/MachineLearning/ 128000 подписчиков. Посчитать свои шансы заранее трудно, как и в любых инвестициях. Мое мнение: за этой областью будущее. Все остальное сойдет на нет и будет находиться на уровне, где сейчас разработка компиляторов и ОС.
Чтобы узнать, что нужно в вакансии, позвони по указанному там телефону. Там же можешь прояснить требования, если тебе что-то непонятно из описания.
>>1065161 >за этой областью будущее хуюдущее. что для тебя мл? гнапример медицинские эс были еще в 70х, их похерили копитолизды, что бы не выебывались.
>>1065164 >медицинские эс были еще в 70х, их похерили копитолизды чому же похерили, есть такая область - СППР, весьма вездесуща (не только у врачей, и у юристов, психолухов, у бухгалтеров даже ссаных). Просто там делать нечего особо, для погромишечьего труда мало задач, всё делается на раз-два по готовому шаблону.
>>1065171 не вижу связи; я о том, что "заменить" весьма легко, для этого не нужно и сотой доли того человеческого труда, который необходим для вёрстки миллионов сайтов, скажем
Смарите какого колоритного ИИ-мыслителя вам нашел: http://www.cognitivealgorithm.info/ Русский тоже, вроде бы. Хотя живет в Бостоне, так что доподлинно неизвестно.
Сап, нейроны Есть face recognition моделька, точней и скорее всего быстрей findface'овой. Есть смысл пилить второй findface с блекджеком, шлюхами, и анонами?
-то любимым и приятным лицом, встретившись, что-то сказал Жерков.
– Еще, еще! – повторил он, улыбаясь, сказал он.
– Да, я сказала она, – сказал Билибин, – и уне были в Москве, и что он отец иттого не было.
– Вы заботили вперед, – сказала Анна Павловна, – сказал Билибин, подхватив за руку князю Андрею, убежавший под голову князя Василья, который с улыбкой на путь со всею светским, столько беспрестанному командующим, я знаю только потому, что бы он не мог ответить. Она взяла его портфель. Видно было, что всё эти стояли подумать и вывезти на моего сущность, я бы счастливы, полку, – сказал он, – но чтобы думать, что этот вечер, не разбира!
– Ты входите, – сказал он, улыбаясь, – вы, не понимаю, что он желал бы тоже получить меня нет тому, что было ей, то успокоиваясь. – Я привал судьбу сухие.
– Вы ведь не за чем? – спросил он, – и уже не знает, и что он сказал, что здесь, ни другое оторвало ноги с нают. – Я жалую землю особу.]
Есть Одна Молекула, из ее 1d репрезентации строкой я могу получить фингерпринт на сколько угодно битов, в статьях обычно от ~200 до ~2000. Это мои фичи. Вопрос, как выбрать количество нужных мне фич и как происходит отбор самых полезных?
>>1065161 >Мое мнение: за этой областью будущее Что, машоб мне и сайт запилит? И распределенную базу данных? И автоматику поездов метрополитена? я лучше пешком пойду%
Ну дак что анон? Как найти пересечение логики двух сеток без дополнительного обучения. В обоих сетках есть одинаковые сущности, но представленные в разных метриках. Должно же существовать какое-то отображение одного через другое, пускай и не очень симметричное.
>>1066146 Во всех перечисленных типах систем уже вовсю применяется машоб, и его доля будет расти, пока эти системы не превратятся в нейроночки с тонкой обвязкой для взаимодействия с железом.
>>1066348 Не применяется, не надо тут ссать в уши. Машоб имеет очень ограниченное применение - преимущественно для неформализуемых задач. Во всех остальных случаях проще и эффективнее реализовать алгоритм руками. По крайней мере, до тех пор, пока не появится ИИ выше уровня среднего человека, который сможет писать алгоритмы.
>>1066996 >Греф сказал что они в сбере будут делать блокчейн и нейронные сети Ага, а Чубайс лет 15 назад сказал, что будут нанотехнологии. Рашка это 100% африка - эпидемия ВИЧ, папуасы-каннибалы и т.д. Кто этими технологиями будет заниматься? Распильное рекламное агентсово "яндекс"? Греф начитался умных слов "блокчейн, нейросети", возможно даже понимает что это такое. И что он сделает? Въебет миллиарды, чтобы в итоге получить яндексовский быдлокод SplitStroku? Зачем пизду-то смешить.
>>1056633 (OP) Поясните за блокчейн. Как делать и где там нейронка используется? Знакомый сказал что у него знакомый эту тему изучил и кучу бабла поднял
Ну ебошь. Правда, уже есть готовые опенсурсные. Щас таких сервисов, как грибов после дождя. Но если сделаешь нормальный апи и хуйлоад, может будет конкурентным. нет
>>1067191 Короч текущая моделька построенная на реснет50 набивает 84% на мегафейсе, это 2ое место. Думаю если заменить на что-то тип реснет-инсепшн, то могу за 90% выползти
Посоны, почему не обучается? Еcть данные 100x100 картинки из гуглкапчи. 50 процев - машина(ы)+дорога 15 проц - только машины 15 - только дороги 20 ни машины ни дороги
т.е. 3 выхода. Сеть не обучается почти, точнее всегда один выход больше других при настройке. Подозреваю что данные неочень, но что лучше поделить на 2 сети с одним выходом:1 - машины, 2 - дороги.
>>1067354 Та разные типы сверточных(с релу, а так же полносвязная сеть в конце и без нее). Лосс постоянно скачет от 0.8 до 0.1. Вектор правдоподобия если и машина и дорога заполняю как 0.5(чтобы в сумме получилась 1), ну и 1 если что-то только одно на картинке.
>>1067420 Блядь, неужели трудно догадаться, если и так все очевидно? По-моему тут и даун должен догадаться, что имеется ввиду. Исходный вектор для бэкпропа.
Здраститя. Решил, я, значица, нейросеть написать. Но не могу понять структуру. Есть игра - яцзы, кидаем 5 кубиков, 3 раза за итерацию перекидываем, сохраняем любое количество.
Не могу понять структуру нейросети, как ее построить.
Допустим, на входе: 5 входов - значения кубиков, 6 - количество бросков что остались. Но ведь надо же как то учитывать структуру поля, сколько полей осталось, сколько очков получилось. Как это сделать??
Функция обучения тоже понятна - набрать максимальное количество через 20 итераций.
Выходы, допустим, 5 - на каждый кубик - значение, оставляем его или нет.
А как со слоями сети быть? Там вообще не ясно блядь. 1000 слоев, с 100 нейронов на каждой? Или как?
Ебаный TF, нахуй его вообще запилил? вывести тензор нельзя, воткнуть дополнительную логику между forward и backward нельзя как считается backward вообще только небу и Аллаху известно. Верните теплый ламповый torch суки
Добрый день, джентельмены. Задача такая - у меня есть около 8 тыс штаммов бактерии, про несколько тысяч из них известно являются ли они патогенными/непатогенным. Про практически все 8 тыс известны их параметры. Вопрос - как на основе этих параметров предсказать возможную патогенность? Что нужно использовать машинное обучение/нейросети? Как вкатиться в это в минимально возможные сроки?
>>1068076 8k это очень скромное количество, для начала поищи еще данные где бактерии описываются такими же параметрами, кроме патогенности. Машинное обучение не гарантирует приемлемый результат, но можно попытаться. Лучший вариант для вкатывания, это найти датасаентиста, который будет с тобой работать. Следующий по убыванию - посмотреть бактерии+нейронные_сети, взять готовый код и с минимальным знанием питона украсить его под себя. За ним идет просто вариант с тем чтобы посмотреть архитектуру использованных в чужих публикациях сетей, научиться в питон и keras и воспроизвести такое у себя. Туториалов по "простая нейронка в keras" полно, документация тоже на уровне. Просто вкатываются в машоб и нейронки люди, которые учат их в университете 3-5+ лет.
что почитать внятного про TF? Torch у меня как-то сразу пошел, а с TF уже неделю ебусь, и даже не знаю как тензор блять на экран вывести, это пиздец блять
Посаны, поясните вкратце как играм обучают, я так и не понял как строится оптимальный граф и с помощью него обучают сеть как описано тут https://habrahabr.ru/company/yandex/blog/307260/ в обучение с подкреплением. Как давать оценку выигрыша для текущего шага? Я так понял используется несколько скринов экрана, потому что надо знать и скорость объектов? Если ориентироваться по очкам на экране, то большую часть времени эти очки не меняются, а жать на джойстике что-то надо.
>>1068283 >Если ты про питон, то там есть pytorch. нахуй мне pytorch когда есть torch7 >tf.eval()? и как это работает? у меня не пошло, с каких только сторон не пытался зайти. И да - как вручную прикрутить градиенты? Как сделать backprop? ебаный TF
>>1068345 и да, ты можешь сказать как в этом TF можно явно задать градиенты на выходе из леера? Что делать если мне не нужна производная, можно её как-то заменить?
>>1068269 Ты аутист, не обижайся. Сейчас, в конце 2017 года, по слесарьплову полно топовых книжек, где все объясняется с установки слесарьплова до примеров готовых проектов. Все книжки прекрасно воруются на либгене. Родина дала, читай, пользуйся. Нет, ты аутируешь над самим слесарьпловом, пытаясь угадать как там что-нибудь на экран вывести. >>1068280 Суть обучения с подкреплением в аппроксимации зависимости конечного результата от происходящего на экране (в динамике, обычно используется 4 последовательных кадра) и действий для дальнейшего выбора оптимальных действий в данной обстановке (происходящем на экране). Все это прекрасно, в картинках разжевано в пейперах по openai gym / universe.
>>1068482 Меня бесит, что они используют 4 кадра вместо рекуррентной нейроночки. Вон же куча статей про LSTM с дремучих времен, показывающих как они прекрасно запоминают вещи при обучении с подкреплением. Ну что же вы? Что ж такое, почему 4 кадра, почему не LSTM? Что, не работает? Не работает ваш LSTM? Не работает, да? Ну признайтесь, что не работает он в RL. Выйдите на площадь, покайтесь перед народом. Скажите, что не работает. А то понаписали статей на игрушечных примерах, и все, дело мол закрыто. Расходитесь, тут не на что смотреть. А на играх (которые тоже в принципе игрушечные примеры, но посложнее) никто и не пытается сделать нормально.
>>1068769 >Меня бесит, что они используют 4 кадра вместо рекуррентной нейроночки. А большая разница? В рекуррентных нейроночках нет никакого волшебства по сравнению с 4мя кадрами. Как я понял, кадры там используют по типу элементов матрицы Ганкеля: 1 2 3 4 2 3 4 5 3 4 5 6 4 5 6 7 .... а таким способом представима любая динамическая система, что было доказано еще в 80-е.
>>1056633 (OP) Врываюсь с вопросом: какой алгоритм распознавания линий дорожной разметки, основанный на машинном обучении, сейчас можно считать лучшим?
>>1069137 >Почему для тебя это всё так просто? Для меня? Лол. Индусы, вон, вкатываются в МЛ всей Индией и ничего. Машобчик же реально математика уровня оп-пика с йобами, ну есть вещи, которые сходу не раскуришь типа теории статистического обучения Вапника, но это исключения из общей картины.
Смотрю лекции Воронцова и как то со второй, третьей лекции все очень размыто пошло. Такое ощущение что там на семинарах они дохуя чего объясняют и потом на лекциях уже подразумевается что ты это знаешь. С другой стороны курс китаезы на курсере совсем примитивный, для деревенщины с тремя классами.
Есть ли какие-то промежуточные материалы, почитав которые будут более понятны лекции Воронцова? Или может где-то есть лекции семинаров в шаде?
>>1069596 Там нет ничего сколь-нибудь сложного, тем более в первых лекциях. Наверни книжки Воронцова, если что-то непонятно и там, учи статы, тервер и немножко численные методы оптимальных систем.
Пытаюсь разобраться с нейронными сетями, читаю как стандартизировать данные на вход. Везде пишут, что нужно нечисловые данные вроде названий и категорий представлять в виде векторов типа [1,0,0], [0,1,0], [0,0,1] (для трех категорий). Но у меня такая ситуация, я на вход хочу подавать имена игроков спортивных команд, а их очень большое количество, тогда получается что если всего 1000 игроков и нужно произвести вычисления для 10 из них, то понадобится 10 тысяч входов? А если 10000 игроков? Совсем страшные цифры получаются. Поясните что с этим делать?
>>1068482 > Ты аутист, не обижайся. Сейчас, в конце 2017 года, по слесарьплову полно топовых книжек, где все объясняется с установки слесарьплова до примеров готовых проектов Не могли бы вы, сударь, скинуть названия книжек или ISBN? Я обучен пользоваться либгеном.
>>1069974 Спасибо, но насколько я понял после прочтения статьи на хабре, эта технология подходит для слов в контексте, а у меня же просто имена отдельные и никак не связанные друг с другом "Ванька, Петя, Коля".
>>1069983 Какой хабр, Ванька? Забудь о нем. Читай статьи, книги. Эмбеддинг на нейроночках можно сделать через автоэнкодер на любом датасете про твоих игроков.
>>1071818 Это уже как ты сможешь пройти хромусор и попасть на собес, а дальше всем похуй на твой диплом, если хорошие навыки, получить которые вышка никак не поможет, даже магистратура(ну может пару топрашковузов).
>>1071829 Ну так а как их пройти, если тут появляется замкнутый круг - нам нужны люди с вышкой, без вышки не попадешь на такую работу, следовательно компенсировать ее отсутствие нечем. Речь то не о вакансиях какой-нибудь явы.
Такая проблема, на работе нужен тензорфлоу, но сетка заблочена так глубоко, что через пип его установить невозможно. Теано и Керас я установил просто скачав их с гитхаба и собственно запустив установочный скрипт, но тензор такой возможности не предлагает. Что можно придумать?
>>1072145 Понабрали по объявлению. Качай пакеты для пипа отсюда: https://pypi.python.org/pypi/tensorflow , не забудь зависимости скачать, запиши их на свои пятидюймовые дискеты, и устанавливай пипом локально. Ему просто имя локального файла можно указать.
>>1071908 Никак ты их не пройдешь. Абсурдно ведь, когда датасаентистом работает крестьянин с тремя классами церковно-приходской школы. Компания, нанимающая таких людей, делает это чтобы повысить уровень образованности команды. И что это будет, когда новый мега спец менее образован, чем двадцатилетняя фронтэндщица-джуниор?
Я то сам не погромизд, я так, сорт оф нефтянник, но хотим попробовать модные штуки внедрить. Я так понимаю, что если у меня стоит анаконда, то, наверное, больше никаких библиотек не надо?
>>1072207 Пройдись на всякий случай, можешь на свой ноут установить, чтобы посмотреть все зависимости. ТФу нужна какая-то гугловская экзотика, насколько я помню, и еще пара малоизвестных либ. На голую анаконду точно не встанет.
а если я фронтендщик и вместо изучения очередного модного жс-фреймворка почитываю книжки по машобу на выходных - я нормален? или я проебываю время и свою ценность как спеца на ненужную хрень вместо изучения востребованных навыков, применимых в моем фронте?
>>1072247 Я пока мини-специалист по машобчику (шестая неделя курсеры), но довольно упитанный специалист по приложению численных методов. Всё равно тебе советов дам. 1) Устанавливаешь либу с CG (или чем-нибудь поприличнее, чем CG) 2) Запускаешь CG 3) Никогда не переписываешь численные методы 4) Никогда, слышишь, никогда не переписываешь численные методы
и я нихрена не понимаю, мне просто скучно, я смотрю на эти формулы. как баран на новые ворота. может мне просто плюнуть на книги и теорию и перейти к практике?
>>1072584 неужели кому-то может нравиться читать такое? или для этого нужна серьезная подготовка? я просто хотел написать сайтик на нейронках и решил почитать теорию, но я уже 3 месяца откладываю сайтик потому что не могу дочитать эту книгу, а каждый раз как сажусь ее читать не осиливаю больше страницы. мне кажется я делаю что-то не так. но как человечество будет делать прогресс, если каждый как я начнет лениться? может надо себя заставлять?
>>1072588 >неужели кому-то может нравиться читать такое Да, мне например, просто не лезь, если совсем туго тебе не достигнуть даже уровня школьника, который потратил на это в 100 раз больше усилий просто потому что он молодой, шутливый и еще может яростно надрачивать то что популярно. А нейроночки это сейчас стильно, модно, молодежно. Даже ты вон немного поддался и хочешь какой-то манясайт на нейроночках сделать. Что между прочим сразу выдает полного профана и нуля в этом деле >может надо себя заставлять? Я вот многие годы пытался влездть во фронтендопарашу, потому что проще и можно сразу начинать зарабатывать. Хоть и вкатился, а потом выкатился, щитаю это были потраченые годы т.к. постоянно себя заставлял и шло очень туго, а потом нашел машоб с датамайнингом, которые мне намного интереснее, и все пошло как по маслу.
>>1072588 Во-первых, нужна серьезная подготовка, а во-вторых кому-то нравится. Просто для того чтобы поиграться или сделать какой-то маленький проект, основы не изучают. Ты либо посвящаешь этому жизнь, либо используешь нейроночки как черный ящик, копируя код из интернета.
Твои слова звучат как "захотел собрать свой процессор, начал изучать химию и квантовую механику, но не могу продвинуться дальше оглавления."
>>1072632 Аа, ну ты прав, спасибо за совет. Буду использовать как черный ящик тогда. Хотя некоторые моменты (перцептрон) книга прояснила, но дальше там просто какая-то китайская комната
Сап антуаны. Только вкатываюсь в тему. Есть такая задача: генерация обучающих выборок для систем распознавания текста, ну и сами эти системы на нейронках написать/поюзать/поэксперементировать. Больше интересует первая часть. Собираюсь писать Gan на Keras. Хочу услышать от вас какие-нибудь советы по этой теме. Сорян если вопрос недостаточно корректен.
Подходящего треда вроде как нет, так что спрошу тут, ибо итт наименее зашкваренный. Заранее извиняюсь за оффтоп. Обоссыте, не бейте.
Что почитать про распределенную генерацию возрастающих последовательностей в п2п сетях? Что вообще почитать на тему самых типичных задач, методов их решений и подводных камней в распределенных системах?
Че там у яндекса за курс "Введение в машинное обучение"? Он только онлайн, нигде нельзя бесплатно глянуть? На ютабе есть похожее что-то, но там я так понял для продвинутых ребят версия
>>1073802 На курсере он бесплатный. В конце концов слей с торрентов. Там есть версия 2014 года, говорят она в чем то лучше нынешнего курса. Можешь попробовать попасть в Шад)
>>1073634 слушай, я про торч только немного слышал а он с gpu из коробочки ставится? а то пытался накатить в своё время cudnn на ноут с gtx 965m и пока вышло неоч, а то на нем сейчас стоят важные вещи которые очень геморно переустанавливать-перенастраивать. на сайте вроде строку в конду впиши - радость получи, а как оно на деле?
Посоны, хочу посвятить сабжу всю жизнь, хочу сделать искусственный интеллект, стать бессмертным, очень умным и т.д. С чего начать, как развиваться дальше? Из бэкграунда - я перфоманс инженир, с матаном дружил в универе, но почти все позабыл, потому что в работе нахуй не надо
Классификация, два класса, первый составляет где-то 96% датасета. Пробовал добавить class_weight="balanced" в модель, пробовал менять метрику гридсерча, все равно predictions заполняются первым классом полностью. ЧЯДНТ?
>>1075417 Посоветуйте литературу плез, куда идти глобально мне понятно. Плюс, если в курсе, чего можно почитать про теорвер и матстатистику? Так что б по хардкору.
>>1056755 чтобы мочь, нужно захотеть. одних что-то подталкивает изучать окружающий мир, познавать, пытаться его преобразить. Других -нет. вот почему кодинг стал так популярен, почему куча крупных компаний типа гугла выкладывает свои проекты в опен сорс, снимает простенькие и смешные поясняющие видео? они просекли фишку, что если каждый чел в отдельности будет заниматься прогрессом своей маленькой области, то их усилия сложатся в сингулярность и ускорят прогресс в миллиарды раз.
>>1075449 Тебе еще самому нужно понять и принять, что ты не будешь Ландау или Тьюрингом. Я для себя решил, что я хоть и могу немногое, но сделаю что-то, что приблизит общую цель. И мне этого будет достаточно.
>>1075526 блять школьник тупой. кто говорит о том чтобы стать ВИЛИКИМ И БАХАТЫМ УЧЬЕНЫМ) можно хотя бы максимум своего мелкого времени своей жалкой жизненки направлять на поиски средства от смерти и старения.
Можете коротко раскидать, какие библиотеки за что отвечают и чем друг от друга отличаются? Вот есть numpy, она для матриц, есть scipy, это нампай с дополнениями, есть матплотлиб, он для графиков. Есть пандас, это тоже такое навороченный numpy с анализом таблиц и датафреймов. Зачем нужны тензорфлоу, керас, теано, scikit-learn?
>>1075774 Тензорфлоу это поделка Корпорации Зла для того чтобы собирать нейроночки из модулей по большому туториалу ничего не зная о том как они детально работают. Теано это аналог тензорфлоу, только не от гугла. Керас использует тензорфлоу или теано на выбор, чтобы собирать нейроночки по маленькому туториалу ничего не зная о том как они принципиально работают. В scikit-learn реализованы другие модели помимо нейроночек, которые можно просто вызывать и использовать. Энджой йоур датаслесарство.
Есть задача бинарной классификации которая решена через регрессию (не спрашивайте зачем, так уж есть). Значениями целевой функции были {0, 1}, регрессия выдает результаты иногда немного вылезающие за этот интервал. Хотелось бы замапить их на интервал [0..1] чтобы потом интерпретировать как вероятности принадлежности классу 1.
Вопрос - какой функцией это лучше сделать? Сейчас применяется обычный clamp(value, 0, 1) (пикрилейтед), но он не монотонный по value. Предложите пожалуйста какую-то гладкую альтернативу такой функции. В голову приходит только уродливая конструкция из 2x smooth maximum или какая-то "сдвинутая" сигмоида.
>>1076009 >не все поголовно им занимаются Ну не знаю, у меня больше половины класса хочет вкатиться в айти, а 5 человек уже вкатываются в нейроночки, даже на курсы по машинлернингу для школьников записались
>>1076021 Чтобы именно интерпретировать как вероятности, тебе придется навесить сверху нормальную логистическую регрессию. Если числа, выдаваемые твоим регрессором, совсем плохо откалиброваны (скорее всего так и есть), может понадобиться нейроночка для перевода в вероятности.
>>1076021 >задача бинарной классификации которая решена через регрессию (не спрашивайте зачем, так уж есть). Потому что функция от нескольких аргументов, а ты только про регрессию и слышал, очевидно же.
Скиньте готовый инструмент чтобы вытащить из хтмл и пдф файлов список всех упомянутых там имён и желательно сгруппировывать их по национальности. Где вообще искать полезные годовые инструменты чтобы без велосипедов? Наверняка люди пишут научные работы по таким темам, но есть ли единое хранилище?
>>1076520 >Потому что функция от нескольких аргументов, а ты только про регрессию и слышал, очевидно же. Еще я слышал что не все жрут мамкин борщ - некоторые даже работают по спецаиальности, причем не в одиночку а в команде.
Где в биоинформатике можно применить эти ваши нейроночки для небольшого проекта? Суть в том чтобы было может быть даже полезно, а не тягаться с гигантами предсказывания стуктур белка.
Аноны, посоветуйте, как быть. Сейчас учусь на 1 курсе и имею 2 стула: доучиться на специальности с достаточно глубоким изучением математики и средним проги примерно 80/20 распределение, на которой курса до 4, а то и до 8 семестра не будет совсем времени на самообразования из-за сильной нагрузки, или перевестись на направление полегче с менее глубокой мат. подготовкой, но с большим количеством времени для самообразования и халявой, начиная с 3 курса можно уже будет начинать работать на полную ставку. Скоро заканчивается октябрь, а я успел почувствовать, что иногда времени не хватает даже разобраться с тем, что дают в вузе, не говоря уже об изучении чего-либо дополнительно. К тому же, складывается ощущение, что преподаваемая математика всё-таки фундаментальная и в работе не сильно пригодится. Стоит ли переводиться? Можно ли самому изучить необходимые разделы математики, попутно разбираясь и в самом машобе с нуля? Дай совет, анон, буду очень тебе благодарен.
>>1077352 По своему опыт скажу, что математическая база - это лучшее, что тебе может дать вуз. И это именно то, что самостоятельно задрочить сложнее. Учись спокойно, если освоишь математику на должном уровне, научиться "делать то же самое, но кодом" будет очень просто. Ну и могу добавить, что "халява" выльется не в самодроч на саморазвитие, а на проебы. Ни разу не видел, чтобы было обратное.
>>1077853 со временем всё само устаканится читай статьи, читай книги, смотри видосы на ютубе, визуализируй я примерно год вкатываюсь, вроде что-то секу
> «Сегодня они (продвинутые системы искусственного интеллекта — прим.) вручную создаются учёными из области машинного обучения, и буквально всего несколько тысяч из них во всём мире могут с этим справиться, — говорит генеральный директор Google Сундар Пичаи (Sundar Pichai). — Мы хотим дать возможность делать это сотням тысяч разработчиков». Ну что, маньки, готовы к зарплатам как у грузчика или пхп-макаки и к сотням тысячам новых вкатывальщиков?
>>1077858 Не физкек с вышкой, конечно, но довольно неплохой вуз ДС-2. Тоже так думаю, просто, скорее всего, я в учебный процесс не очень хорошо влился за сентябрь, но уже более менее поехало.
>>1077859 пишу CGAN для курсача в унике на pytorch, спасибо анонам, что направили в хорошее русло только сейчас у меня там квест с прифигачиванием лейбла к картинке секу на уровне понимания происходящего и терминологии
>>1077863 Переводись с матобеса на ПИ, вон гугол обещают сделать так, чтобы нейронки могла писать любая макака без среднего образования. Зачем кому-то математика в 21 веке?
>>1077889 Извини, я тупой, в этом году в четвертый раз в ШАД поступаю, так что я так себе советчик. Мои знакомые, которые поступали после первого или второго курса КТ ИТМО, вроде как вообще не готовились, им знаний хватило. Но может они прихвастнули, не знаю.
>>1077897 И на этом спасибо. Просто все, у кого я спрашивал, либо поступали несколько лет назад ещё как-то по-другому, либо учились в 239, либо тоже на 2-3 курсе КТ.
Альфаго научили играть в го без использования записей людских игр. Он играет только сам с собой. В результате он превзошел по силе версию, натренированную имитировать игру человечишек.
Как метод градиентного спуска поможет мне корректировать веса в сети? Я чет не ебу как производная функция ошибки от весов к внешнему слою что-то меняет Объясните дебилу как это работает
>ШАД Поясните, зачем вы на эту рекламную парашу дрочите? Может быть, у яндекса есть хоть один программный продукт уровня среднего индусского стартапа? Во что они могут кроме агрессивного впаривания рекламы, врапперов к готовым либам или реализации 1,5 готовых алгоритмов, не ими разработанными?
>>1078128 а ты читал публикации по ии? авторы в основном перекрестно ссылаются друг на друга, высирая горы матана и в заключении - "моя манятеория хорошо, но она нихуя в коде не работает, поэтому необходимы дополнительеые исследования".
>Искусственный интеллект превзошел человека в создании искусственного интеллекта
>Искусственный интеллект от Google научился создавать программное обеспечение машинного обучения, которое по своей эффективности превышает системы, созданные людьми.
Как сосётся, матаны? Поступаешь такой на примат, дрочишь бишопа, не спишь ночами, вкатываясь в датасаенс по курсере, а тут вона чего.
>Т.е. Первыми кого заменит искусственный интеллект будут специалисты по искусственному интеллекту? Уххахаххахахахах какова ирония.
>>1078166 >>1078171 Я еще весной предлагал, как это можно реализовать. У Вапника очень общие схемы, из которых он дальше выводит конкретные алгоритмы МЛ, как уже существующие типа перцептрона, так и свои типа SVM. Подобные алгоритмы можно было бы получать генетическим программированием в типизированной лямбде, параллельно проверяя как они минимизируют функцию потерь. Очевидно, что с ресурсами гугла (как машинными, так и человеческими) это реализуемо тривиально. >Т.е. Первыми кого заменит искусственный интеллект будут специалисты по искусственному интеллекту? Уххахаххахахахах какова ирония. Нет, конечно. Проблема в том, что на нынешнем уровне развития алгоритмы "слабого ИИ" способны решать такие задачи, но не способны их поставить перед собой в качестве цели. Это, конечно же, временное явление, людишки сосут у машин уже исходя из тезиса Черча. Границы математических способностей у машины и человека одинаковы, а вот производительность у машин выше в разы. Вон, даже выше пример с альфаго >>1077974 машина уже способна объебать человека, обучаясь при этом с нуля.
>>1078177 > Очевидно, что с ресурсами гугла (как машинными, так и человеческими) это реализуемо тривиально Да щас, learning curve мало того, что для конкретных данных, так ещё и немнонотонной будет, перебором там проверять это аленей тропою.
>>1078188 Это наоборот фишка. Можно подбирать алгоритмы для конкретного класса датасетов. Про no free lunch theorem я в курсе. >>1078192 >>1078194 Врети ж!
Я правильно понимаю, что сейчас никто сам не пишет алгоритмы для ML, а просто используют готовые библиотеки? Насколько полезно запрограммировать самому ту же регрессию?
>>1078235 >Насколько полезно запрограммировать самому ту же регрессию? Ну, глубже разберешься, чем если просто прочитал в книжке. Польза ограничивается образовательными возможностями. Практической ценности в твоей реализации регрессии не будет.
>>1078430 tesseract разрабатывается с 80-х годов. Сейчас вроде на нейроночках работает, хотя его за десятилетия так раздуло, что, наверное, даже авторы до конца не уверены, как оно работает. Теперь это вещь в себе наподобие gcc, который нужно годами изучать чтобы хоть как-то начать понимать суть происходящего.
Анончик, поясни за обучение Маши, интересует выбор родителей в ныне забытых ГА.
Есть три стратегии выбора родителей: панмиксия, инбридинг и аутбридинг. С панмиксией все более-менее понятно. Каждая особь случайно скрещивается с другой особью, может даже с собой, кек. А вот в инбридинге и аутбридинге момент о количестве пар родителей опускается, даже гугл на эту тему предательски молчит. Очевидно, брать одну пару - неэффективно. Так сколько родительских пар обычно выбирают для этих стратегий? Половину от тех, что пройдут селекцию?
>>1079502 Я вообще хочу писать софт для real time анализа видеопотока, мне сказали учить для этого нейронки и МЛ. Я знаю лишь что такое производная и синус, а тут меня начинают ебать разными градиентами функций, матрицами и другими радостями Я в полном отчаянии, что мне делать?
>>1079535 >и мне посоветовали нейронки. в риалтайме скриншоты снимать тот еще гемор, а ты хочешь препроцессинг и обмазать нейронным говно. ебись со статической картинкой.
>>1079585 что бы ты понял. задача распознавания деталей на транспортерной ленте в риалтайме довольно проблематична. распознавание лиц по шаблону в риалтайме это фантастика.
>>1079598 >распознавание лиц по шаблону в риалтайме это фантастика А возможно ли на обычной фотографии высокого разрешения (не реалтайм) найти мое лицо, учитывая, что на фотографии также есть еще 300 человек и из моего шаблона есть только фотография на паспорт?
>>1079612 >А возможно ли на обычной фотографии высокого разрешения (не реалтайм) найти мое лицо да, но погрешность будет большая, хорошо если в 70% попаданий уложишься.
>>1079624 Наверное его наняла гебня на проект по автоматизации репрессий. После распила бюджета хватило только на студента, просящего помощи на мейлаче.
>>1079641 Какой смысл тут что-то показывать, если никто не сможет оценить? Какой смысл объяснять залетным даунам про основы нейронок, если они все равно ничего не поймут и бросят через день?
А зачем ты существуешь, кстати? Мож тебя тоже закрыть?
>>1079585 >В прямом эфире с камер наблюдения высокого разрешения распознавать лица людей и сравнивать их с фотографиями в базах Охлол, чекисты задали написать распознаватель навальношкольников на митинге в рилтайме? Можешь им передать - нихуя не выйдет: 1)С хд-картинками будут тензоры пиздецких размеров, которые условный слесарьплов на гугловских суперкластерах не прожует. 2)С шакальными камерами будут еблеты размером 20 пикселей, которые для распознавания бесполезны. 3)Распознавание такого рода работает с контурами еблета, которые можно подправить простейшим гримом, причем даже мусор на том же митинге ничего не земетит. А твое распознавание даже в хд разрешении выдаст результат уровня "Рулон Обоев - 0,002%, Иван Говнов - 0,0015%, ..." + еще 3/4 твоей базы с такими же процентами. Итого - забудь, это не работает и в текущем веке не заработает, технические возможности не те.
>>1079824 Дело только в деньгах и размере базы, по которой они проверяют. Очевидно, денег у них нет, впрочем тот анон тоже вряд ли может просто так отказать. Пусть копается, хотя бы для опыта пригодится.
>>1079856 >Ты тот нейронохейтер? Отнюдь. >Все уже работает, Оно и видно, раз сюда посылают консультироваться рандомных васянов, которым вчера про нейроночки рассказали. С яндексом, наверное, совсем плохо. Поди написали чекистам свой фирменный код SplitStroku. >будет работать еще лучше. Не будет. Освоят бюджеты и забудут.
>>1080069 Никто тебя за ручку не поведет, машоб это другой уровень. Тут тебе придется самому крутиться. Если тебе надо чтобы все было понятно и стабильно, иди в вебдев или 1с какой-нибудь.
ух, не терпится дочитать книгу, нагуглить все описанные там алгоритмы на языках, на которых они уже реализованы (т.е. на питоне), а потом переписать их на пхп и внедрить в веб. гауссовские функции, скрытые слои, радиальная базис функция, общее описание гораздо интереснее сухих формул.
>>1080195 так это только в вебе и применяется, в основном. всякие умные рекомендации, алгоритм подбора видео в ютубе, сортировки, классификация, сбор данных и т.п.
>>1080397 >>1080452 Вам же говорят - достаточно 1го оп-пика, вы не верите. Ну не верьте дальше, терзайтесь смутными сомнениями, пока школота в машоб вкатывается.
Нахуй так жить. Пишу кое-что на R, и довольно быстро возникла надобность в вычислениях, превосходящих возможности проца (грустно смотреть, как функция, считающая элементы матрицы в несколько десятков миллионов элементов за 3 часа так и не закончила считать). Я думал, что в 21-то веке есть возможность использовать для этого видюху, ан хуй там плавал. Готовые возможности есть для некоторых вычислений, в т.ч. с теми же матрицами, но (как я понял) чтобы использовать видюху для своих вычислений, нужно работать напрямую с кудой (либы для этого присутствуют). Есть вот такое https://cran.r-project.org/web/packages/gpuR/index.html пробовал считать свою матрицу как класс gpuMatrix, толку 0, монитор GPU показывает нулевую загрузку. Либо я что-то не так делаю, либо одно из двух. Пистон - говно из жопы, даже если там возможно использовать видюху напрямую, т.к. там нет и никогда не будет реализаций того, что я использую для построения вышеупомянутой матрицы.
>>1080492 К сожалению, но насколько мне известно, кроме pytorch и форков тебе искать нечего. Я сам R-щик. Могу посоветовать посмотреть как считал парень с кэгла, который в том году выиграл компетишн. Он на R делал. Пистрон сейчас обзавелся нампаем, пандас и т.д. Синтаксис точно такой же, как в R. И то, и то, работает на С.
>>1080466 Ну так даже то, что на оп пике не изучается в 9 классе. Мы в 9 классе решали квадратные уравнения и неравенства, а синусы уже начались в 10 вместе с тригонометрией. На одних квадратных уравнениях в машоб не вкатишься
>>1080541 Ты просто недостаточно просветлен, и через призму своего нечистого видения не видишь сути вещей. Любой машобчик это алгоритм, любой алгоритм (любое равнообъемное его уточнение типа машины Тьюринга, лямбда-определимости, алгорифма Маркова и т.д.) это конструктивный объект, любой конструктивный объект это обобщение нвтурального числа и сводится к натуральным числам простым лексикографическим упорядочиванием либо геделевской нумерацией. Т.о. для машобчика вообще ничего кроме арифметики не нужно, и это математический факт.
В оп-посте жи написано, что нейроночка - это зависимый тип, а объекты зависимого типа так же тривиально нумеруются натуральными числами. Итого, нейроночка - это чистая арифметика, которую способен осилить даже дошкольник.
>>1080466 Писать ботов по готовым алгоритмам это не машоб, это все тот же вебмакакинг в условиях хайлоада хомячков которые не могут сами найти себе информацию.
>>1080556 Двачую. Вообще не могу понять, почему школьники так плохо разбираются в нейрохирургии – в учебниках меньше 100 символов для кодирования используется, и в музыка – там вообще семь нот.
САП НЕЙРОНЫ, есть свободные мощности, и я думаю запилить на них файндфейс2, с блекджеком и шлюхами. Цель - сделать поиск по ебалу бесплатным и качественным (файндфейс находит через раз). Зарабатывать не планирую, ну может на рекламе чуток, чисто окупить проект. Взлетит или нет?
Где оп-хуй, тред перекатывать кто будет, Пушкин? Алсо, свидетели нейроночек приглашаются для ОПРАВДАНИЙ по такому насущному вопросу - почему они веруют, что нейрон очка - универсальное решение на все случаи жизни, когда факты говорят нам о том, что специализированные для своей области математические модели уделывают нейроночки только по требованиям к вычислительной мощности в тысячи раз? Кому выгодно тащить тысячеслойные нейроночки в natural language processing при том, что там есть гораздо более простые, легкие и эффективные алгоритмы?