Прошлые домены не функционирует! Используйте адрес ARHIVACH.VC.
24 декабря 2023 г. Архивач восстановлен после серьёзной аварии. К сожалению, значительная часть сохранённых изображений и видео была потеряна. Подробности случившегося. Мы призываем всех неравнодушных помочь нам с восстановлением утраченного контента!

НЕЙРОНОЧКИ И МАШОБ ТРЕД №36 /ai/

 Аноним 20/02/21 Суб 17:20:45 #1 №1947549 
zzzzzz171702.png
183138.png
zzzzzzdQthBIGRuuU.jpg
zzzzzka4OtgWsCfo.jpg
Очередной тред про хипстерские технологии, которые не работают

Я ничего не понимаю, что делать?
Без петросянства: смотри программу стэнфорда CS229, CS231n https://see.stanford.edu/Course/CS229 (классика) и http://cs231n.stanford.edu/ (введение в нейроночки) и изучай, если не понятно - смотри курсы prerequisites и изучай их. Как именно ты изучишь конкретные пункты, типа линейной алгебры - дело твое, есть книги, курсы, видосики, ссылки смотри ниже.

Почему такой фокус на нейронки?
Потому что остальные чистят вилкой данные в банках с помощью LGBTboost и им некогда предлагать обновления в шапку

Какая математика используется?
В основном линейная алгебра, теорвер, матстат, базовый матан и matrix calculus

Как работает градиентный спуск?
https://cs231n.github.io/optimization-2/

Почему python?
Исторически сложилось

Можно не python?
Никого не волнует, где именно ты натренируешь свою гениальную модель. Но при серьезной работе придется изучать то, что выкладывают другие, а это будет, скорее всего, python, если работа последних лет

Что почитать для вкатывания?
http://www.deeplearningbook.org/
Николенко "Глубокое обучение" - на русском, есть примеры, но меньше охват материала
Франсуа Шолле - Глубокое обучение на Python
https://d2l.ai/index.html

В чем практиковаться нубу?
http://www.deeplearning.net/tutorial/
https://www.hackerrank.com/domains/ai
https://github.com/pytorch/examples
https://github.com/ChristosChristofidis/awesome-deep-learning#tutorials

Где набрать первый самостоятельный опыт?
https://www.kaggle.com/ | http://mltrainings.ru/
Стоит отметить, что спортивный deep learning отличается от работы примерно так же, как олимпиадное программирование от настоящего. За полпроцента точности в бизнесе борятся редко, а в случае проблем нанимают больше макак для разметки датасетов. На кагле ты будешь вилкой чистить свой датасет, чтобы на 0,1% обогнать конкурента.

Где работать?
https://www.indeed.com/q-deep-learning-jobs.html
Вкатывальщики могут устроиться программистами и дальше попроситься в ML-отдел

Есть ли фриланс в машобе?
Есть, https://www.upwork.com/search/jobs/?q=machine+learning
Но прожить только фриланся сложно, разве что постоянного клиента найти, а для этого нужно не быть тобой

Где узнать последние новости?
https://www.reddit.com/r/MachineLearning/
http://www.datatau.com/
https://twitter.com/ylecun
На реддите также есть хороший FAQ для вкатывающихся

Где посмотреть последние статьи?
http://www.arxiv-sanity.com/
https://paperswithcode.com/
https://openreview.net/
Версии для зумеров (Килхер): https://www.youtube.com/channel/UCZHmQk67mSJgfCCTn7xBfew

Количество статей зашкваливающее, поэтому все читают только свою узкую тему и хайповые статьи, упоминаемые в блогах, твиттере, ютубе и телеграме, топы NIPS и прочий хайп. Есть блоги, где кратко пересказывают статьи, даже на русском

Где посмотреть must read статьи?
https://github.com/ChristosChristofidis/awesome-deep-learning#papers
https://huggingface.co/transformers/index.html
То, что обозревает Килхер тоже зачастую must read

Где ещё можно поговорить про анализ данных?
http://ods.ai/

Нужно ли покупать видеокарту/дорогой пека?
Если хочешь просто пощупать нейроночки или сделать курсовую, то можно обойтись облаком. Google Colab дает бесплатно аналог GPU среднего ценового уровня на несколько часов с возможностью продления, при чем этот "средний уровень" постоянно растет. Некоторым достается даже V100.
Иначе выгоднее вложиться в GPU https://timdettmers.com/2019/04/03/which-gpu-for-deep-learning/ Заодно в майнкрафт на топовых настройках погоняешь

Когда уже изобретут AI и он нас всех поработит?
На текущем железе - никогда, тред не об этом

Кто нибудь использовал машоб для трейдинга?
Никто не использовал, ты первый такое придумал. Готовь камаз для бабла.

Список дедовских книг для серьёзных людей:
Trevor Hastie et al. "The Elements of Statistical Learning"
Vladimir N. Vapnik "The Nature of Statistical Learning Theory"
Christopher M. Bishop "Pattern Recognition and Machine Learning"
Взять можно тут: http://libgen.io/

Напоминание ньюфагам: немодифицированные персептроны и прочий мусор середины прошлого века действительно не работают на серьёзных задачах.
Предыдущие:
https://2ch.hk/pr/res/1920026.html
https://2ch.hk/pr/res/1902462.html
https://2ch.hk/pr/res/1881607.html
https://2ch.hk/pr/res/1868191.html
https://2ch.hk/pr/res/1847673.html
https://2ch.hk/pr/res/1832580.html
https://2ch.hk/pr/res/1817320.html
https://2ch.hk/pr/res/1785952.html
https://2ch.hk/pr/res/1758961.html
https://2ch.hk/pr/res/1734710.html
https://2ch.hk/pr/res/1704037.html
https://2ch.hk/pr/res/1665515.html
Аноним 20/02/21 Суб 17:49:46 #2 №1947597 
Здравствуйте, данные научники, возникла идея написать классификатор, суть в том, чтобы телеграмм бот выдавал картинки, человек их оценивал и ему назначаются цифры(представьте координаты в 3-хмерном пространстве), т.е если человеку понравились определенные картитнки, то бот отнесет его к определенной категории людей, в общем то можно просто поставить весы у каждой картинки по каждому измерению, типа если тебе понравилась эта картинка, то ты такой-то и далее тебе будут более релевантные картинки присылаться, в общем-то алгоритм не требует нейронок, но я подумал, что нейронки и классификаторы(это одно и то же?) подойдут тоже для этой задумки, хотел поспрашивать что почитать, какая реализация подходит под эти параметры(сам о нейронках только в общих чертах знаю). Я не планирую писать свою сложную рекомендательную систему, но мне кажется что решение уже есть и оно будет эффективней того что я могу напрогать своими ручками, прошу в ответы, кто знает в каком направлении мне двигаться
Аноним 20/02/21 Суб 17:57:41 #3 №1947606 
>>1947597
коллаборативная фильтрация на основе k-means
Аноним 20/02/21 Суб 18:05:39 #4 №1947618 
>>1947597
Self organized maps
Аноним 20/02/21 Суб 18:12:26 #5 №1947624 
>>1947597
но тогда тебе придется прислать каждому новому юзеру 20 картинок, чтобы понять что ему нравится, что довольно тупо по нынешним временам.
Начать сразу с одной картинки будет нельзя.

Аноним 20/02/21 Суб 18:23:49 #6 №1947637 
>>1947597
>в общем-то алгоритм не требует нейронок,
и почему ты вообще за это зацепился?
Ведь на картинках что-то изображено и это что-то очень важно.

если тебе не хочется обучать нейронку, набери свой датасет из картинок и воображаемых юзеров. Потом поставь Orange и посмотри как он сделает циферки из картинок (всеми обоссываемой) нейросетью ImageNet, но по сути он же распознает картинки.

Далее придумаешь что-то получше и можно будет писать в коде.
Аноним 20/02/21 Суб 18:45:39 #7 №1947669 
>>1947597
> Я не планирую писать свою сложную рекомендательную систему
А это именно она, гугли классические алгоритмы для рекомендах
Аноним 20/02/21 Суб 19:53:10 #8 №1947738 
>>1947637
Я предполагаю что картинки будут создавать люди, например я, основываясь на своих предпочтениях и поэтому люди могут так же давать характеристику картинки, поэтому и думаю что не обязательно нейронки юзать, но в остальном спасибо, почитаю, посмотрю
Аноним 20/02/21 Суб 20:09:31 #9 №1947756 
>>1947606
>>1947618
>>1947669
Спасибо!
Аноним 20/02/21 Суб 20:27:46 #10 №1947776 
16015598020110.webm
освятил
Аноним 20/02/21 Суб 20:43:39 #11 №1947799 
>>1947549 (OP)
Тут есть исследователи, или только дотасаентисты?
Аноним 21/02/21 Вск 01:13:33 #12 №1948044 
>>1947799
>Тут есть исследователи
На месте.
Аноним 21/02/21 Вск 10:49:45 #13 №1948157 
>>1948044
Охренеть. Чем занимаешься?
Аноним 21/02/21 Вск 13:18:06 #14 №1948281 
https://www.youtube.com/watch?v=-QS0WMx-zB4&ab_channel=%D0%90%D0%B4%D0%B2%D0%BE%D0%BA%D0%B0%D1%82%D0%95%D0%B3%D0%BE%D1%80%D0%BE%D0%B2


Я примерно понял как эта поебень работает, но как он хочет самообучающийся ИИ сделать на основе этой хуйни? можно словить смертельную дозу кринжа с комментов
Аноним 21/02/21 Вск 13:42:38 #15 №1948326 
>>1948281
>This is an overview of the program - Syllogistical homoseksuaali
ИИ уровня двач.
Аноним 21/02/21 Вск 13:47:37 #16 №1948336 
>>1948281
Ну так классическая хуйня из 60-х, мол, достаточно просто загрузить в систему аксиом и компуктер сам всё выведет. Навыдумали всяких хорновских дизъюнктов, доказали в них полноту метода резолюций, а потом откуда-то полезли функции аккермана и экспоненты экспонент. На этом всё загнулось без какого-либо практического результата. Естественно, там под ИИ подразумевался автоматический логический вывод и прувер разных теорем.
https://en.wikipedia.org/wiki/Logic_Theorist

Аноним 21/02/21 Вск 14:07:36 #17 №1948352 
>>1948336
Ну, metamath + GPT3 вроде работает, не все плохо с подобными темами.
Аноним 21/02/21 Вск 14:34:33 #18 №1948375 
image.png
image.png
image.png
>>1948281
Есть и более совершенные программы для подобных целей, где более полный силлогистический базис https://www.youtube.com/watch?v=PtqBE4BTqwQ и без ошибочного того же логического квадрата или представления о дихотомии. Оказывается, что как типов суждений, так и типов силлогизмов будет много больше (помимо классического конъюнктивного), чем ранее считалось, вместо одного вывода силлогизма может быть, как минимум, два, всё это согласуется с алгеброй логики и другие преимущества тоже есть.
Аноним 21/02/21 Вск 14:44:02 #19 №1948384 
unnamed (19).jpg
img-coFVAh.jpg
>>1948375
> эти картинки
Напомнило. Смысла примерно столько же
Аноним 21/02/21 Вск 15:51:48 #20 №1948448 
Кто-нибудь хорошее делал с ConvLSTM слоями и более свежими комбинациями с attention блоками? Читаю https://arxiv.org/pdf/2102.03586v1.pdf, смотрю реализацию https://github.com/czh-98/CMS-LSTM
Аноним 21/02/21 Вск 16:44:33 #21 №1948513 
064.gif
>>1948384
>Смысла примерно столько же
В башке у зумера?
Аноним 21/02/21 Вск 17:18:20 #22 №1948546 
8577237887dcae8b60f7b.jpg
>>1948513
У тебя, если ты считаешь эту хуйню чем-то умным. Родина дала MLTT, HoTT, CubicalTT, нет, хотим какую-то шизу без задач от адептов ШУЕ ППШ...
Аноним 21/02/21 Вск 18:29:36 #23 №1948613 
Intellekt-2-Aristotel-1024x1024.jpg
>>1948546
Это же основа логики. И не древние русы, а древние греки.
Аноним 21/02/21 Вск 18:36:03 #24 №1948617 
>>1948546
>ШУЕ ППШ
Что это?
Аноним 21/02/21 Вск 18:37:29 #25 №1948618 
>>1948617

шизофренический уклад един путь пустого шприца
Аноним 21/02/21 Вск 19:19:35 #26 №1948632 
Можно сейчас реалистично аугментировать снимки с дрона на разную погоду (хотя бы сменить солнечную на пасмурную) или это всё так себе?
Аноним 21/02/21 Вск 19:25:38 #27 №1948633 
>>1948546
Чел, не корми шизика.
>>1948448
Я, конечно, быдло и не шарю, но какие сейчас могут быть юз-кейсы у long term video prediction?
Аноним 21/02/21 Вск 21:04:22 #28 №1948677 
Figure 1 21.05.2018 213257.mp4
Фактически это далеко не единственная область применения подобных типов слоёв (Conv3D, ConvLSTM) - не каждая последовательность матриц — это видео)))
Как пример, писал с применением подобной вещи - аппроксиматором для решетчатых уравнения Больцмана (обтекание жидкостью препятствия и возникновение не стационарности течения)(не особо успешно, пример прикрепил).
А если «повыдумывать» - то можно в stack собрать какие-либо темпоральные данные (курсы валют) и покатать данными слоями в составе например энкодеров или ещё чего, с учётом разномасштабных окон и возможно будет практическая значимость (если конечно потом получится RL агента научить этими прогнозами пользоваться).
Аноним 21/02/21 Вск 21:06:29 #29 №1948679 
>>1948677
Данные - это просто данные)))
Аноним 21/02/21 Вск 22:12:26 #30 №1948716 
>>1948633
>но какие сейчас могут быть юз-кейсы
Предсказание траекторий для self-driving
Аноним 21/02/21 Вск 22:35:34 #31 №1948730 
>>1948157
>Охренеть. Чем занимаешься?
Аспирант в американской шараге. Занимаюсь по сути тем же, чем занимаются машобщики в индустрии - трясу нейронку пока не вытрясу нормальный результат. Затем публикую пейперы, которые цитируют 1.5 инвалида и забывают. Область не скажу, но если в общих чертах, то классификация изображений.
Аноним 21/02/21 Вск 23:58:33 #32 №1948751 
>>1948730
>Аспирант в американской шараге.
Пили стори, как перекатился?
Аноним 22/02/21 Пнд 00:35:19 #33 №1948768 
>>1948751
>Пили стори, как перекатился?
Есть два варианта. Первый - продаешь бабкину квартиру в ДС и поступаешь на платный бакалавриат, во время которого заводишь знакомства с преподами и изучаешь разные аспекты жизни. После этого абсолютно без проблем перекатываешься на ПхД.

Второй вариант - заканчиваешь где угодно бакалавриат и поступаешь сразу на ПхД. Это сложнее, но вполне возможно. Забудь про колледжи, которые от 50 места в рейтинге и выше. Все требования найдешь на сайте вуза. Обычно это всякие бумаги об образовании, TOEFL, GRE и эссе, почему ты хочешь у них учиться. Самое главное - это найти препода, которого ты хочешь себе в качестве научрука, лично с ним связаться и обкашлять вопросики. При его поддержке шансы возрастут на порядок.

Но вообще, идти на ПхД я не рекомендую. Будешь получать на уровне кассира волмарта, а после защиты диссертации в лучшем случае перекатишься в индустрию зачастую кодомакакой, а реалистично - пойдешь постдоком за нищенские 50-60к.
Аноним 22/02/21 Пнд 12:05:16 #34 №1949024 
>>1948768
>за нищенские 50-60к.
Это что за капуста, белоруские зайчи в год?
Аноним 22/02/21 Пнд 13:09:44 #35 №1949066 
>>1948768
Лучше после бакалавриата сразу в индустрию?
Аноним 22/02/21 Пнд 14:12:38 #36 №1949112 
Можно ли вкатиться без вышки?
Аноним 22/02/21 Пнд 15:32:54 #37 №1949156 
>>1949112
Нет. Не забывай, что для вката вышка должна быть свежей и топового вуза
Аноним 22/02/21 Пнд 16:11:43 #38 №1949192 
>>1947549 (OP)
Давно нашего чегото не смотрел, а он так здорово по хайпожорам дипшизным прошёлся
https://m.youtube.com/watch?v=oyBNkj3Xg9s
Аноним 22/02/21 Пнд 18:04:49 #39 №1949275 
>>1949066
>Лучше после бакалавриата сразу в индустрию?
Если изначально не хочешь работать в индустрии и плевать на деньги, то можешь пойти на ПхД, но в противном случае нужно как можно быстрее устраиваться в индустрию, в идеале после бакалавриата.
Аноним 22/02/21 Пнд 18:35:39 #40 №1949306 
>>1949192
Ебать, когда он школу то закончит?
Аноним 22/02/21 Пнд 20:36:39 #41 №1949388 
Какую модель мне использовать, чтобы сделать переводчик письменного текста?
Надо, чтобы я взял условно 2 книги — на первом и втором языке, обучил ими модель (без синтаксического разбора, пусть модель хандлит опечатки и прочее) и получил переводчик.
Надоело гугл-транслейтер использовать.
Аноним 23/02/21 Втр 00:13:46 #42 №1949487 
26561.jpg
>>1949388
>Какую модель мне использовать
Трясун 3000
Аноним 23/02/21 Втр 02:18:56 #43 №1949550 
>>1949388
Кодирующе-декодирующий трансформер Жопеншмульцера.
Аноним 23/02/21 Втр 14:26:59 #44 №1949804 
Наверное тут таких не любят, но я попробую. У меня конкретная задача, которую я хочу закрыть и забыть. Почитал десяток статей и так и не понял что мне нужно. Есть изображения, приблизительно 5000х3000, на них хочу детектить объекты, их много, они перекрываются местами, но класс один. Нашёл прогу для разметки - LabelImg. На выходе будут PASCAL VOC/YOLO XML файлы как я понял. Дальше у меня 2 вопроса, какую модель выбрать, изходя из того, что мне , в разумных пределах, не нужна скорость, зато хочу размечать поменьше данных. И надо ли резать мои большие картинки на более мелкие и как?
Аноним 23/02/21 Втр 16:35:03 #45 №1949943 
>>1949804
Хочешь мангу нейронкой переводить?
Аноним 23/02/21 Втр 17:35:06 #46 №1949992 
Есть ли жизнь в мл без нейросетей?
Аноним 23/02/21 Втр 17:43:44 #47 №1950000 
>>1949156
>>1949112
Да, американского. На джуна еще требуют кандидатскую по матеше и опыт работы в Пентагоне
Аноним 23/02/21 Втр 17:44:19 #48 №1950001 
>>1949992
Есть, но она не модная и против нее копетоглисты
Аноним 23/02/21 Втр 18:13:49 #49 №1950043 
>>1950000
Вот ты сраказмируешь, но к этому всё и идёт.
Аноним 23/02/21 Втр 18:23:41 #50 №1950054 
>>1950001
Ну так покажи класс , шизик. Обьеби sota своими ебучими экспертными системами.
Аноним 23/02/21 Втр 18:35:10 #51 №1950071 
>>1950054
объеби sota в какой области?
sota везде разное.
Аноним 23/02/21 Втр 19:35:33 #52 №1950128 
>>1950000
Квадрипл хуйни не скажет
Аноним 23/02/21 Втр 19:36:03 #53 №1950131 
>>1950001
Что такое копетоглист?
Аноним 23/02/21 Втр 20:18:02 #54 №1950163 
>>1950054
>Обьеби sota своими ебучими экспертными системами
До хуя исследований в области ЭС финансируется? ЭС боятся, поскольку они работают и могут выбросить на мороз многих говноедов.
Аноним 24/02/21 Срд 01:57:58 #55 №1950358 
>>1950071
Хоть в какой-нибудь.
>>1950163
Покажи рабочий пример для начала.
Аноним 24/02/21 Срд 05:08:42 #56 №1950388 
>>1949804
>И надо ли резать мои большие картинки на более мелкие и как?
если нарежешь картинок через разметку, то потом просто пройдись по ним трансформом и усе
Аноним 24/02/21 Срд 05:39:02 #57 №1950392 
Видали, там GAN запилили на трансформерах. Может быть оно будет генерировать нормальные картинки, а не кринжатуру всякую, как обычные ганы.
Аноним 24/02/21 Срд 07:56:23 #58 №1950398 
>>1949992
Рекомендательные системы, табличные данные, интерпретируемые модели и быстро работающие модели с терпимым качеством.
В остальных областях без нейронок скорее всего поешь говна.
Аноним 24/02/21 Срд 08:00:35 #59 №1950400 
>ЭС боятся, поскольку они работают
Не работают
Аноним 24/02/21 Срд 08:36:46 #60 №1950405 
>>1950400
Работают, но не лучше любого другого метода тех лет.
Аноним 24/02/21 Срд 10:05:16 #61 №1950434 
>>1950398
>В остальных областях
Как жить без генератора всратых котиков?
Аноним 24/02/21 Срд 14:39:45 #62 №1950561 
>>1950434
Покажи в классификации изображений "классический" метод, сравнимый с нейронками. Желательно чтобы ещё скор на imagenet был.
Или в nlp (в задачах чуть сложнее определения спама).
Аноним 24/02/21 Срд 17:54:56 #63 №1950726 
Идол этого треда на обложке. Почему еще не было.
https://www.youtube.com/watch?v=tk-vPly7vf4
Аноним 24/02/21 Срд 17:57:08 #64 №1950731 
пацаны
работаю прогрером, хочу перекатиться в cv
но не хочу весь день сидеть в жупитере
расскажите плез, цвшники все время тусуют в построении моделей или тоже прогают?
Аноним 24/02/21 Срд 18:09:00 #65 №1950744 
>>1950731
CVшники больше прогают, чем модели строят. Там все модели давно построены.
Аноним 24/02/21 Срд 18:10:35 #66 №1950747 
>>1950744
тогда, по идее, лучше топить в алгоритмы, чем в оптимизацию и теорвер?
Аноним 24/02/21 Срд 18:21:29 #67 №1950761 
>>1950747
Возможно, но я не особо в теме CV.
Аноним 24/02/21 Срд 18:31:55 #68 №1950772 
>>1950761
бля, братан, а херли тогда советуешь
Аноним 24/02/21 Срд 18:45:39 #69 №1950782 
Допустим, мне нужно выделить кластеры среди клиентов компании по специфике их потребительского поведения. Метрик по клиентам до сотни и многие из них категориальные.

Мой план:
1. Снизить размерность автокодировщиком до 2\3 переменных
2. Использовать какие-нибудь простые алгоритмы кластеризации и заодно обратить внимание на точки вне кластеров хотелось бы заодно решить вопрос anomaly detection в данных

Чего я не могу понять, так это на что ориентироваться при выборе продолжительности обучения автодировщика для данной цели - в интернетах на всяких towardsdatascience слишком абстрактные статьи, и такие же абстрактные примеры с произвольной архитектурой и количеством эпох (часто, насколько вижу, берется достаточно большое количество эпох).
Имеет ли смысл подходить к этому как обычно делается при обучении с учителем и ориентироваться на потери на тестовых данных или тут это не то?
Аноним 24/02/21 Срд 19:10:04 #70 №1950814 
>>1950772
>CVшники больше прогают, чем модели строят.
Но это реально так.
Аноним 24/02/21 Срд 22:40:28 #71 №1950960 
>>1950561
>Или в nlp
Кекус, нейроговно в банальный морфоонализ не может
>классификации изображений
В OpenCV куча реализованных алгоритмов
Аноним 24/02/21 Срд 23:28:00 #72 №1950985 
>>1950782
>Имеет ли смысл подходить
Имеет смысл сначала "снижать размерность" классикой типа pca и sne.
Аноним 25/02/21 Чтв 01:35:50 #73 №1951041 
>>1950985
Насколько могу судить РСА менее эффективен в сравнении с автокодировщиком при наличии нелинейных связей в данных, с t-SNE малознаком
Аноним 25/02/21 Чтв 05:30:25 #74 №1951070 
>>1950960
>Кекус, нейроговно в банальный морфоонализ не может
Как и классические методы.
>В OpenCV куча реализованных алгоритмов
Ты с кем споришь? Кто-то говорил, что дедовских алгоритмов не существует? Найди теперь скор на imagenet с использованием HoG'ов, кнн-ов и svm-ов.
Аноним 25/02/21 Чтв 05:32:15 #75 №1951071 
https://github.com/openai/DALL-E
Ебало шизика, рассказывающего про рисунки индусов, представили?
Интересно, какие сейчас манёвры будут.
Аноним 25/02/21 Чтв 05:39:10 #76 №1951072 
>>1951071
Это порезанная версия что ли? Чего так мало весит?
Аноним 25/02/21 Чтв 11:05:30 #77 №1951163 
>>1951071
Так это ж не вся модель. Алсо, индусы как всегда, индусский код как стиль жизни:
Before running the example notebook, you will need to install the package using

pip install git+https://github.com/openai/DALL-E.git
Прописать в самом блокноте никак нельзя, разумеется.
This can be changed to a GPU, e.g. 'cuda:0'.
dev = torch.device('cpu')
Самим написать cuda:0 вместо cpu никак нельзя, зато целый комментарий - запросто.
>>1951072
> Это порезанная версия что ли? Чего так мало весит?
Оно же загружает сами декодер и энкодер по ссылке с опенаи, код не смотрел штоле:
enc = load_model("https://cdn.openai.com/dall-e/encoder.pkl", dev)
dec = load_model("https://cdn.openai.com/dall-e/decoder.pkl", dev)
Аноним 25/02/21 Чтв 12:56:56 #78 №1951240 
Сап еврибади. Я - придурок 2 курс, вкатываюсь в deep learning. Вопросы следующие:
Если с вышкой понятно что учить, то как быть с теорвером и матстатом? Область обширная, а что нужно на практике (читай, собеседовании) непонятно. Что читать?
Отсюда второй вопрос. Где получать реальный опыт на реальных задачах? Каггл, фриланс, пэт проекты? Что ещё?
Третий вопрос. Чего хотят от trainee/джуна? Набирают ли конторы мясо вроде меня с целью обучения (Украина), и есть ли в этом смысл вообще?
Тупо пиздячить теорию не вариант, да и непонятно куда двигаться.
Всем мир, атдуши.
Аноним 25/02/21 Чтв 13:37:13 #79 №1951259 
>>1951240
плюсы учи
Аноним 25/02/21 Чтв 13:46:02 #80 №1951271 
064.gif
>>1951071
> Ебало шизика которые не умеет читать
Твоё типа? Вот
Аноним 25/02/21 Чтв 13:49:21 #81 №1951275 
1.png
11.png
111.png
>>1951071
И что оно делает? Запустил в куколабе, как выяснилось, индусский код не работает, но рабочий вариант в первом issue. Грузит откуда-то пенгвина, пик 1, как-то его обрабатывает(?), пик 2. И это все?
Аноним 25/02/21 Чтв 13:52:52 #82 №1951282 
1111.png
Попробовал менять параметры, оно его по оси крутит и отзеркаливает(?). Хуя они молодцы, я так в пейнте могу...
Аноним 25/02/21 Чтв 14:21:59 #83 №1951323 
Короче, как я пынямаю, это какая-то вспомогательная часть от DALL-E, которая что-то делает с картинками. И даже это нечто нормально выложить не смогли - недописанный, нерабочий код, никаких пояснений. И эти макаки в опенаи работают, за среднемесячную зарплату равную десятилетнему доходу среднего рабсиянина, пиздец. Какой же испанский кринж...
Аноним 25/02/21 Чтв 14:56:31 #84 №1951343 
>>1951323
Это пока все на что способно нейроговно
Аноним 25/02/21 Чтв 14:57:45 #85 №1951344 
>>1951343
Маня, плес... Покажи, на что твои ЭС способны, потом кукарекай
Аноним 25/02/21 Чтв 15:13:02 #86 №1951357 
аноны, иду через неделю на собес по cv в сберыч
что советуете поддтянуть по линейной алгебре? svq, qr?
Аноним 25/02/21 Чтв 15:34:06 #87 №1951379 
>>1951357
svd, соре
Аноним 25/02/21 Чтв 18:37:45 #88 №1951605 
Можно ли с помощью обучения с подкреплением решать комбинаторные задачи? Так же как метаэвристики, например.
Аноним 25/02/21 Чтв 19:04:14 #89 №1951633 
>>1951344
Финансы, медицина, наука. А вот на что способно нейроговно, кроме переворачивания пингвинов?
Аноним 25/02/21 Чтв 19:09:52 #90 №1951636 
>>1951633
ты уж меня извини, но нейроговно могет в комп зрение
другим я не занимаюсь, так что не знаю
мимо
Аноним 25/02/21 Чтв 19:18:52 #91 №1951643 
>>1951636
Что занимает большую часть времени в твоей работе?
Аноним 25/02/21 Чтв 19:20:17 #92 №1951645 
>>1951636
>могет в комп зрение
Не могет
Аноним 25/02/21 Чтв 19:56:31 #93 №1951676 
>>1951643
Чтение двачей и загрузка картинок в Orange
Аноним 25/02/21 Чтв 20:08:47 #94 №1951684 
>>1951633
>Финансы, медицина, наука.
Хоть один рабочий пример покажи.
Аноним 25/02/21 Чтв 20:22:07 #95 №1951690 
>>1951645
пруфы?
Аноним 25/02/21 Чтв 21:26:14 #96 №1951737 
015.png
>>1951344
> не нейроговно значит ЭС!!
Аноним 25/02/21 Чтв 21:26:19 #97 №1951738 
>>1951684
https://en.m.wikipedia.org/wiki/Category:Medical_expert_systems

Сасай, трясун
Аноним 25/02/21 Чтв 21:26:55 #98 №1951739 
>>1951690
В окно выглянь
Аноним 25/02/21 Чтв 23:11:37 #99 №1951797 
аноны, не пиздите палками плез
работал 3 года в конторе питонистом бэкенда + для них же делал небольшой mvp по распознаванию облаков точек
матан на том или ином уровне паршивости знаю
сейчас наша контора к хуям развалилась из-за ебанутого СЕО и ищу работу - есть на пару месяцев запал и деньги, чтобы сменить профессию
хочу вкатиться в комп зрение
Вопрос:
1) есть ли смысл тратить время на fast.ai и подобные курсы или же лучше взять один пет проект и на его базе учить что-то?
2) на собесах насколько сильно дрочат по матану? Я в работе юзал только линейную алгебру - теорвр и прочее забыл довольно давно
Двач не раз выручал меня, надеюсь, что вы, ребята, еще разок подскажите) а то я немного в прострации - думаю стоит ли или нет, ато жалко будет время потраченного
Аноним 25/02/21 Чтв 23:31:21 #100 №1951805 
>>1951797
>хочу вкатиться в комп зрение
>пару месяцев
Можешь даже не начинать.

Аноним 25/02/21 Чтв 23:43:08 #101 №1951808 
>>1951797
не слушай ебаклака >>1951805- это типикал токсик
имхо - лучше проект. Конечно надо разобраться в общем как работают нейросетки в задачах и сегментации и классификации
но все это можно покрыть чтением + работой на парой проектов
и да, очередной раз убеждаюсь, что двач и близко сравниться с одс не может
такое ощущение, что тут одни обиженки сидят
Аноним 25/02/21 Чтв 23:43:58 #102 №1951810 
>>1951808
> НАД парой проектов
> сравнится
поправил себя
Аноним 25/02/21 Чтв 23:44:18 #103 №1951811 
>>1951810
бля я еблан, там не нужен мягкий знак
Аноним 25/02/21 Чтв 23:48:33 #104 №1951812 
15960264102200.jpg
>>1951808
>токсик
Аноним 25/02/21 Чтв 23:49:04 #105 №1951813 
>>1951812
лол) дедуль, тригерят забугорные слова?)
Аноним 25/02/21 Чтв 23:59:32 #106 №1951824 
>>1951738
А где их скачать-то? А то пишет, что когда-то разрабатывалось да и всё. Оно что, на магнитных лентах у дедов? Из современных слышал только об акинаторе как экспертной системе.
Аноним 26/02/21 Птн 00:10:26 #107 №1951839 
>>1951824
>А где их скачать-то?
Ты у мамки глупенький? Читай историю про MYCIN, там так пердаки у докторов разорвало, что они всячески торпедировали проект. Никто не позволит развивать работоспособные вещи, вся суть копетоглизма.
Аноним 26/02/21 Птн 00:11:35 #108 №1951841 
>>1951839
> Никто не позволит развивать работоспособные вещи
> вся суть копетоглизма
правильно ли я понимаю, что вся суть копетализма - делать неработающие вещи?
Аноним 26/02/21 Птн 00:17:27 #109 №1951844 
>>1951841
>что вся суть копетализма - делать неработающие вещи
Вся суть копетоглизма - давить все, что может лишить прибыли.
Аноним 26/02/21 Птн 00:21:28 #110 №1951847 
>>1951844
бля чел
работающие вещи генерируют прибыль, а не работающие - наоборот
так что вот это говно либо не работало, либо никому нужно не было
Аноним 26/02/21 Птн 00:25:37 #111 №1951852 
>>1951259
Вообще не в тему
Аноним 26/02/21 Птн 00:26:34 #112 №1951854 
>>1951852
да они все тут только о копетализме рассуждают
и что лучше: нейронки или мл
хочешь норм советов - иди в одс
Аноним 26/02/21 Птн 00:53:00 #113 №1951867 
>>1951847
>работающие вещи генерируют прибыль
Ну смотри, помнишь был в пендосии чел который написал штуку, которая составляла типовые судебные обращения? Так вот, у гильдии юристов бомбанули пердаки, поскольку они могли оказаться без денег и они начали таскать чела по судам. Все. Так же было и с докторами и с любым кого ты попытаешься оторвать от корыта с хрючивом.
Аноним 26/02/21 Птн 00:58:09 #114 №1951869 
>>1951867
давай ссылку
твоя сторона уж слишком радикально звучит
там сто проц не так, что плохие юристы и добрый прогер
Аноним 26/02/21 Птн 01:10:38 #115 №1951877 
>>1951869
https://en.wikipedia.org/wiki/DoNotPay
Аноним 26/02/21 Птн 01:41:20 #116 №1951886 
>>1951847
>работающие вещи генерируют прибыль
Тем кто ими владеет, а не тем кто оказывается на помойке в результате их работы.
Аноним 26/02/21 Птн 02:00:36 #117 №1951898 
Аноним 26/02/21 Птн 05:13:37 #118 №1951922 
>>1951877
Ты статью читал, шизло? Автор гребёт бабло лопатой. Праклятый срапетаглизм, ух, как угнетают честного программиста!
> In 2019, Browder obtained $4.6 million in funding from Silicon Valley investors such as Andreessen Horowitz and Founders Fund, who were early funders of Facebook.[33]
Алсо, проект его живёт и процветает
> It is currently available in the United Kingdom and United States (all 50 states).[2]
Аноним 26/02/21 Птн 05:55:32 #119 №1951924 
Кто-нибудь ЛАМУ сберовскую пробовал в деле? Я на игрушечной дате опробовал только, как то так
Аноним 26/02/21 Птн 08:17:56 #120 №1951943 
Привет, пацаны. Есть идея для одного аналитического проекта, предлагаю обоссать всей бордой. У нас фирма делает жижу для парилок и табаки для кальяна. В принципе, суть проста – есть безвкусная основа, есть аромы в разных пропорциях. Появилась идея натренить модельку на веса каждого из ароматизаторов (их может быть до 100 шт, поэтому придется разбивать на группы), после чего нагенерить дохуя рандомных сочетаний компонентов и создать «ПЕРВУЮ В ИСТОРИИ ПОДЛИВУ СОЗДАННУЮ ИИ». Насколько эта херь жизнеспособна?
Сам околовкатун уже почти год, могу в фитпредикт большей части моделек с пониманием принципа их работы, панды, нампи, немного R и прочую вот эту всю хуйню уровня джуна. Но не могу в нейросети – CV и NLP мне не интересны, остальное выебоны
Аноним 26/02/21 Птн 09:15:13 #121 №1951956 
>>1951839
>всратый акинатор
>работоспособные вещи
Аноним 26/02/21 Птн 14:27:26 #122 №1952275 
>>1951943
>Насколько эта херь жизнеспособна?
Очень даже может и взлететь, главное красиво подать.
Аноним 26/02/21 Птн 14:56:34 #123 №1952314 
>>1952275
Подадим красиво, тут скорее вопрос в технической стороне вопроса
Аноним 26/02/21 Птн 15:35:28 #124 №1952363 
>>1951943
Что ты хочешь генерировать? Какие входные данные, какие целевые? Зачем - просто ради рекламы?
Аноним 26/02/21 Птн 16:19:46 #125 №1952411 
>>1952314
Рендомом проийдись, да и все
Аноним 26/02/21 Птн 18:14:47 #126 №1952529 
>>1951943
Ну пиздец. И чем ты там все это время занимался?
Целевую функцию придется выдумать.
Далее нейросеть найдет неочевидные ароматы, которые почемуто еще никто не смешал.
У вас отзывы есть?
Хотя бы в текстовом виде.
Обьем продаж? Популярность смесей на других сайтах? Общемировой каталог смесей?
Аноним 27/02/21 Суб 01:57:25 #127 №1952837 
Почему помимо свёрток в свёрточных сетях нужны пулинги?
Аноним 27/02/21 Суб 14:53:45 #128 №1953093 
>>1952529
Есть данные по продажам, всего около 140 объектов

>И чем ты там все это время занимался?
Маркетологом работал
Аноним 27/02/21 Суб 19:26:47 #129 №1953311 
>>1953093
Ну и напиши фитпредикт теперь.
Написал? Что получилось?

От зумеров местных не дождешься понимания бизнеса.


Аноним 27/02/21 Суб 23:59:32 #130 №1953491 
>>1952837
Объем модели уменьшается при сравнимых результатах
Аноним 28/02/21 Вск 12:51:07 #131 №1953718 
Сап. Какой минимум может понадобиться для того чтоб пройти на стажировку в компьютер вижн / мл? Насколько глубоко надо знать методы мл, opencv?
Аноним 28/02/21 Вск 13:21:19 #132 №1953749 
>>1953718
>мл, opencv
>компьютер вижн / мл
Чет кекнул, ты ящик трясти собрался, там на изичах вкат
Аноним 28/02/21 Вск 14:28:40 #133 №1953789 
Такая ситуация: на своем датасете обучил модель для классификации объектов (pytorch). Точность пока что меня устраивает ~80%. Но когда я загружаю модель для распознавания со своей камеры model.load_state_dict(), то выскакивает ошибка (даю лист, а нужно тензор, хотя в print() видно, что это тензор).
Решил загрузить модель fasterrcnn_resnet50_fpn, ошибок уже нет, но она выдает предикты очень странными (показывает, что вейп - кружка, я - кресло, иногда я - это я) и соответственно боксы вокруг объектов для отображения вообще показывают случайные вещи.
Вопросы: 1. Могу ли я все таки свою модель для классификации использовать уже для распознавания (что почитать, желательно с примерами)?
2. В моем классификаторе 4 слоя, в fasterrcnn_resnet50_fpn их очень много (сбился со счета когда считал). Полагаю, что из-за того, что много параметров в модели, у меня один кадр обрабатывается секунд пять (пока использовал только cpu, cuda не хочет видеть почему-то, но разберусь с этим потом). Можно ли обучить свою модель для детекции объектов, но чтобы она не была такая "тяжелая", какое минимальное количество параметров надо для детекции около 5 классов?
3. Лучше использовать готовую обученную модель или все таки пытаться сделать свою для детекции? Для начала мне нужно определять людей на изображении и еще 4-5 объектов (типа машина и т.д.).

В дальнейшем найденные объекты будут уже классифицироваться.
Аноним 28/02/21 Вск 16:24:15 #134 №1953859 
Аноны, я слыхал, сейчас подвижки случились в генерации речи, это правда? Где почитать?
Аноним 28/02/21 Вск 21:55:00 #135 №1954100 
Нужны ли эти перехайпаные стенфорды или можно сразу вкатываться по контенту из секции "Что почитать?".
Аноним 28/02/21 Вск 23:40:44 #136 №1954184 
orange3logo.png
>>1953789
>В моем классификаторе 4 слоя, в fasterrcnn_resnet50_fpn их очень много (сбился со счета когда считал)
>задает вопросы почему хреновое качество.
Аноним 01/03/21 Пнд 00:12:54 #137 №1954213 
>>1954184
читай внимательней.
Для простого рабочего классификатора 4-х слоев достаточно.
fasterrcnn_resnet50_fpn - обученная модель для задачи распознавания.
Вопрос состоит вообще в другом. Да и количество слоев - не показатель хорошего результата.
Аноним 01/03/21 Пнд 09:38:26 #138 №1954367 
>>1953718
>>1954100
Сначала поищите вакансии в своем городе. Есть ли они вообще. Если есть, то читайте что требуется в них. И уже на основе этого стоит что-то учить.
Аноним 01/03/21 Пнд 09:40:58 #139 №1954370 
>>1953718
>>1949156
Аноним 01/03/21 Пнд 10:25:40 #140 №1954390 
>>1954367
Да мне похуй на вакансии. Мне в целом тема интересна. Я хочу её для трейдинга заюзать + свои стартапы проекты.
Аноним 01/03/21 Пнд 10:33:39 #141 №1954398 
>>1954390
>Я хочу её для трейдинга заюзать
В одиночку ничего не сделаешь.
Аноним 01/03/21 Пнд 10:35:11 #142 №1954399 
>>1954398
А, ну раз ты так сказал...
Аноним 01/03/21 Пнд 10:39:22 #143 №1954403 
>>1954399
>пук среньк
Мамкин автотрейдер.
Аноним 01/03/21 Пнд 13:17:49 #144 №1954531 
image.png
>>1954390
>ML
>для трейдинга заюзать
>свои проекты
Аноним 01/03/21 Пнд 13:30:51 #145 №1954568 
>>1954531
А тут вообще есть люди умеющие свои мысли выражать или тупо натрененные на оффтоп нейронки?
Аноним 01/03/21 Пнд 14:03:03 #146 №1954629 
stonks-template.png
Аноним 01/03/21 Пнд 14:05:16 #147 №1954631 
>>1954568
>ML
>для трейдинга заюзать
>мысли
Аноним 01/03/21 Пнд 15:53:40 #148 №1954710 
Screenshot2021-03-01-15-51-25-437org.geometerplus.zlibrary.[...].jpg
Screenshot2021-03-01-15-51-06-373org.geometerplus.zlibrary.[...].jpg
>>1954568
А тут есть ДЛЯ КОГО их выражать?
Читай пикрелейтедб. Аттракцион невиданной щедрости только сегодня
Аноним 01/03/21 Пнд 16:13:06 #149 №1954736 
Спалю годноту быдлу, на либгене выложили книжку "getting started with google bert", на гитхабе есть код к ней. Возможно, первая полноценная книга на тему трансформеров с матчастью и примерами использования. D2l все же не только и не столько про трансформеры.
Аноним 01/03/21 Пнд 16:19:38 #150 №1954744 
>>1954736
>с матчастью
Вот это реально годнота.
Аноним 01/03/21 Пнд 16:41:49 #151 №1954775 
>>1954213
А в чем? Ну загрузи ты эту YOLO.
Аноним 01/03/21 Пнд 17:50:33 #152 №1954846 
16114818689840.jpg
двощ помоги решить задачу

есть 2 шкафа, с вероятностью 1/2 в первом шкафу есть пальто и с вероятность 1/2 во втором шкафу тоже есть пальто. (это не одно и тоже пальто, просто факт наличия какого-то пальто)
Вот подхожу я к шкафам и гардеробщик говорит, что в первом шкафу пальто нет, какова вероятность, что во втором шкафу его тоже нет?
с одной стороны логика подсказывает, что события независимы и вероятность для второго шкафа по-прежнему равна 1/2, но я наверняка знаю, что этот ответ неверный. Очевидного способа прикрутить сюда Байеса я не вижу, но как-то скорректировать ожидание вероятности после эксперимента надо.
Аноним 01/03/21 Пнд 17:58:40 #153 №1954851 
>>1954846
>но я наверняка знаю, что этот ответ неверный.
затравили на собеседовании? Так это за гнилые зубы, а не из-за задачи
Аноним 01/03/21 Пнд 18:45:03 #154 №1954881 
>>1954184
нихуя мой апельсин у анонов в оборот вошел
Аноним 01/03/21 Пнд 19:40:27 #155 №1954925 
>>1954744
Да какая там матчасть: матричных умножений нахуярили параллельных, обозвали "кёрнелом" это всё для отдельных вапникошизов, вот и вся матчасть.
Аноним 01/03/21 Пнд 19:52:41 #156 №1954933 
>>1954736
А про биониклов там нету? Может хотя бы в к рации что за трансформеры и нахуй они нужны?
вкатыш 2 недели
Аноним 01/03/21 Пнд 20:30:02 #157 №1954968 
>>1954925
>матричных умножений нахуярили параллельных, обозвали "кёрнелом"
Какая же продвинутая матчасть в трансформерах, пиздец просто!
Аноним 01/03/21 Пнд 20:43:40 #158 №1954974 
>>1954968
Единственный значимый критерий оценки матчасти - качество работы. В остальном чем проще тем лучше. А по качеству трансформеры уделывают всё остальное из того что сейчас существует, это медицинский факт. Аттеншен точнее пулинга в свертках. И нет, твои петушиные ЭС не лучше трансформеров.
Аноним 01/03/21 Пнд 20:58:59 #159 №1954981 
>>1954974
>Единственный значимый критерий оценки матчасти - качество работы.
Для датамакак - да, для тех кто хочет разобраться как это работает - нет.
Аноним 01/03/21 Пнд 21:07:07 #160 №1954988 
>>1954981
> как это работает
Хорошо работает.
Аноним 01/03/21 Пнд 21:07:10 #161 №1954989 
>>1954981
>разобраться как это работает
Но зачем? Пока разберешься - оно уже устареет.
Аноним 01/03/21 Пнд 21:28:02 #162 №1955013 
>>1954974
>И нет, твои петушиные ЭС не лучше трансформеров.
Это не я.
Аноним 02/03/21 Втр 11:24:40 #163 №1955272 
Так и не понял, что нужно делать с текстом, чтобы подать его на вход трансформеров для файнтюнинга, например. Здесь https://huggingface.co/transformers/preprocessing.html написана бесполезная хуйня, не имеющая ничего общего к входному формату моделей. В разных примерах разные индусы пишут разные хелперные функции, которые как-то преобразовывают неведомые скачанные датасеты в неведомых форматах в формат, пригодный для подачи на вход. Что и зачем делается, нигде не поясняется, равно и как сделать так же со своим текстом. Готовых хелперных функций для этого нет. Зачем все настолько через жопу, и где можно подробно про это почитать?
Аноним 02/03/21 Втр 11:38:53 #164 №1955280 
https://2ch.hk/news/res/9496642.html
Аноним 02/03/21 Втр 11:51:21 #165 №1955289 
>>1954974
>нет, твои петушиные ЭС не лучше трансформеров.
Лучше
Аноним 02/03/21 Втр 13:22:04 #166 №1955373 
Пацаны, расскажите как можно работать с координатами? Мне блять выдали задачу регрессии с координатами по х, у и таргетом блять. Все. Умнее итерполяции ниче не придумал. Выручайте я абизьяна
Аноним 02/03/21 Втр 14:10:37 #167 №1955410 
Аноны, я не вкатыш, просто питон разработчик, возникла идея создать вроде простую нс, суть сводится к отгадыванию вектора видимо, проще представить цвета, твой любимый цвет загадал, нейронка опрашивает тебя нравится ли тебе такой цвет, а такой? По итогу видимо на вход есть, например, 10 ответов да/нет, на выходе 3 - rgb, так же не совсем понимаю как потом под человека ее донастраивать, корректировать от последующих вопрос типа это твой цвет? Подскажите, есть ли готовые решения, найти не смог, какую нс можно использовать, наиболее релевантную, прав ли я на счет входов и выходов, правильно понимаю, что для тренировки нс можно написать алгоритм, который сам генерит ответы на первые 10 вопросов, например есть цвет красный, вопрос красный да/нет, то он просто берет и численно высчитывает ответ, отправляет в нейронку и если по итогу нс говорит цвет красный, то это ей засчитывается, так будет работать? Дайте критику моего понимания, хочу просто сделать прототип не сильно углубляясь в математику, вроде не сложно, скажите чего я не понимаю(о нс только по паре статей знаю с хабра), подавать вместо да/нат на вход можно векторы цветов, это лучше?
Аноним 02/03/21 Втр 15:15:50 #168 №1955473 
>>1955373
предположим, у меня сегодня запор, поэтому вот тебе ссылка
https://scikit-learn.org/stable/modules/generated/sklearn.linear_model.LinearRegression.html

А в другой раз обосру.
Аноним 02/03/21 Втр 15:38:45 #169 №1955491 
>>1955410
А тебе вот эта ссылка
https://scikit-learn.org/stable/modules/generated/sklearn.neighbors.KNeighborsRegressor.html

если конечно я правильно уловил твою интерпретацию
Аноним 02/03/21 Втр 16:15:11 #170 №1955508 
>>1955473
ну ето я уже пробовал че ты уж меня прям за дебила держишь. я думал мб че-нибудь хитровыебанное какие-то преобразования матрицы хуе мое
Аноним 02/03/21 Втр 16:56:35 #171 №1955537 
>>1955508 а за кого тебя еще держать? дали простую задачу, но ты ее пытаешься усложнить.
Аноним 02/03/21 Втр 16:57:38 #172 №1955539 
>>1955508
какие вообще там данные? "пятна" ?
Аноним 02/03/21 Втр 17:53:24 #173 №1955595 
image.png
>>1955539
Да
Аноним 02/03/21 Втр 19:36:48 #174 №1955686 
>>1955595
Тогда тоже knn regressor.

Но если это тестовое задание, тебе бы следовало бы проявить себя аналитиком и запросить у них что же это за данные. Понять их природу. Понять допустимо ли использовать knn regressor.

Ты не на мотематике.
Упрощения тут не работают и правильного ответа может не быть.


Можешь, конечно, дипзумеров с матрицами подождать . Может они меня удивят.
Аноним 02/03/21 Втр 19:39:17 #175 №1955687 
>>1955686
Вообще это студенческая олимпиада по машобу))
Аноним 02/03/21 Втр 20:02:20 #176 №1955702 
Поясните, как реализовать окно в трансформере.
Вот есть батч из n строк длиной l. Получаем мы из него матрицу коэффициентов внимания размерами n x l x l.
Если l большое, то это дохуя по памяти, на карточку не влезет. Хочу ограничить внимание окном размером w. Как это сделать, чтобы сэкономить память? В конкретных фреймворках желательно. В керасе уже есть слой attention, но он именно что делает матрицу n x l x l.
Аноним 02/03/21 Втр 23:05:50 #177 №1955856 
>>1955687
И KDE (это не про аниме)
Аноним 03/03/21 Срд 02:58:36 #178 №1955927 
>>1955491
В общем да, действительно классификатор нужен, на хабре человечик написал что эта нс нужна скорее для знакомства и что ее не применяют на практике, есть что-то более правильное но в том же русле?
Аноним 03/03/21 Срд 05:30:28 #179 №1955946 
>>1955927
>на хабре
>ололо я моргнул светодиодом
Большей помойки чем швабр не нашел?
Аноним 03/03/21 Срд 06:57:33 #180 №1955953 
Читаю getting started with google bert, и сразу какая-то хуйня написана, стр 11-12. Вектор эмбеддинга слова размерностью 512 умножается на вектор матрицы весов Wk, Wq и Wv, каждый размерностью 64. И как это возможно вообще? Бред же.
Аноним 03/03/21 Срд 10:14:22 #181 №1955978 
Повторю пост из прошлого треда(не знал что перекат был)
Аноны, подскажите пожалуйста, без лишней желчи.
Сейчас стоит выбор во что вкатываться: .Net(C#) или же ML.
Нравится имеено писать код, но и матешу не хотелось бы забрасывать.
Следовательно вопрос: пишет ли код ML engineer или занимается тупым перебором табличек и подгадыванием коэфициентов?
Во что перспективнее вкатываться?
Аноним 03/03/21 Срд 10:55:54 #182 №1956039 
>>1955927
1.Это не НС, а Настоящий Датасаенс.
2. Давай ссылку на свой сраный Хабр. Наверное побольше подробностей и смысла там описал.
Все еще не ясна твоя идея
Аноним 03/03/21 Срд 11:20:38 #183 №1956075 
>>1956039
> Настоящий Датасаенс
Кекнул и орнул
Аноним 03/03/21 Срд 12:05:47 #184 №1956125 
Может тут есть анон который с биомед. cv сектором работает? Пожалуйста отзовись, расскажи о специфике, тяжело ли искать работу и.... авось о проектах, была не была
Аноним 03/03/21 Срд 15:47:51 #185 №1956412 
>>1956125
Смотря ещё какая сфера биомеда. Но в большинстве случаев тебе всё равно профильное ВО потребуется если ты конечно не тупо код дрочить хочешь (хотя и там скорее всего как минимум птушка понадобится).
Аноним 03/03/21 Срд 18:18:01 #186 №1956637 
привет, у меня довольно странный вопрос, нубский довольно, но: в чем разница между нейронкой с одним выходом с сигмойдой И нейронкой с софтмаксом но двумя выходами?
По сути результат у них один - они возвращают вероятности для двух классов, но что творится с кросс-энтроп. лоссом?
1) В первом случае у нас к примеру выход 0.6, лэйбл 1, лосс -log(0.6)
2) В втором случае у нас выход [0.6, 0.4], лэйбл [1, 0], лосс -(log(0.6) + log(0.6))
У них разные значения лосса, а значит в плане обучения и расп. градиента они разные?
Аноним 03/03/21 Срд 19:02:19 #187 №1956705 
>>1955946
Так я сам не моргну и мне это не нужно
Аноним 03/03/21 Срд 19:11:01 #188 №1956716 
>>1956039
Говорю же я даже определений не знаю, меня прототип просто любой интересует скорее, https://m.habr.com/ru/post/149693/ если реально нужно, а смысл этого алгоритма такой: на входе последовательность 0 и 1, на выходе 3 цифры - вектор(для примера с любимым цветом будет 3 байта), задача отнести к определенному классу человека по его ответам да/нет(1/0), хз стало ли понятней, хотя бы я могу теперь сформулировать задачу
Аноним 03/03/21 Срд 19:34:38 #189 №1956729 
>>1956716
это не смысл а твой пересказ смысла как будто ты формулируешь теорему на матеше.
но, блядь, датасаенс это поиск смысла в данных! и они все нужны.
Аноним 03/03/21 Срд 20:13:03 #190 №1956756 
>>1956716
Self-organizing maps
Аноним 03/03/21 Срд 21:46:23 #191 №1956815 
>>1954846
бамп задачке
Аноним 03/03/21 Срд 22:14:56 #192 №1956833 
>>1954846
Блядб ересь какая-то.
Я понимаю там прикол Монти-Холла, но здесь то реально вроде ничего не меняется от того, что гардеробщик что-то там спизданул.
Условие точно верное?
Аноним 03/03/21 Срд 22:19:43 #193 №1956835 
>>1956833
Я уже сомневаюсь, если честно, но вроде верные
Если даже я немного напутал, то я все равно не вижу в каком случае эту задачу можно было бы решить
Аноним 03/03/21 Срд 22:24:35 #194 №1956839 
Я пошёл дрочить хуй
Аноним 03/03/21 Срд 22:53:11 #195 №1956854 
>>1956835
>>1954846
Гардеробщик мог бы сказать что как минимум в одном из шкафов пальто нет, тогда ответ 1/3.
Аноним 03/03/21 Срд 23:00:11 #196 №1956867 
>>1956854
думаю ты прав, похоже я действительно проебался и на самом деле гардеробщик сказал, что в одном из шкафов пальто нет ( а не "в первом шкафу пальто нет")
Аноним 03/03/21 Срд 23:39:56 #197 №1956894 
15938147947220.jpg
>>1947549 (OP)
Есть тут специалисты по GAN'ам?
Нужно ли в Conditional GAN'е смешивать реальные и генерированные метки класса по аналогии с метками реальное изображение/сгенерированное?
Аноним 04/03/21 Чтв 00:50:36 #198 №1956920 
0,5/0,5*0,5
Аноним 04/03/21 Чтв 07:24:15 #199 №1956986 
161479857224267404480x480.webm
>>1947549 (OP)
Аноним 04/03/21 Чтв 08:25:58 #200 №1956998 
>>1956637
Разницы нет. Второй лосс у тебя неправильный, нужно -(log(0.6) x 1 + log(0.4) x 0) = -log(0.6), точно такой же.
Аноним 04/03/21 Чтв 09:24:36 #201 №1957011 
>>1956839
Ну как?
Аноним 04/03/21 Чтв 14:33:22 #202 №1957203 
>>1956729
Данные это классы цветов, 10 оттенков красного и т.д, каждого цвета, какие еще нужны сведенья, чтобы понять, я не совсем понимаю, говорю же дурачек я
Аноним 04/03/21 Чтв 14:35:37 #203 №1957204 
>>1956756
Я пытался читать про som, раз вновь советуют видимо подойдет, но для меня сложноватое было описание, словно som берет данные для класса и подгоняет точки под них, а у меня классы уже сформулированны, а точка одна только, ладно, буду читать еще
Аноним 04/03/21 Чтв 17:32:56 #204 №1957398 
Сап аноны, платиновый вопрос: чо поичтать по нейронным сетям/глубокому обучению? На русском.

Сначала хотел Гудфелоу почитать, но чот на амазоне в отзывах его книгу хуесосят.
Что есть рили нормальное?
На амазоне в топе Hands-On Machine Learning with Scikit-Learn, Keras, and TensorFlow: Concepts, Tools, and Techniques to Build Intelligent Systems
Рили годно или тож не оч?
Аноним 04/03/21 Чтв 18:05:11 #205 №1957429 
>>1957398
>>1947549 (OP)
Аноним 05/03/21 Птн 00:00:28 #206 №1957795 
бульон.jpg
>>1957203
да ты заманал. опять циферки .

в чем бизнес-то?
в чем польза?
Аноним 05/03/21 Птн 00:27:29 #207 №1957805 
>>1957398
>На русском
Это очень хуевая идея. Для машоба, как и программирования в целом, нужно обязательно знать английский. Без него ты даже в документации к библиотеке не разберешься.
Аноним 05/03/21 Птн 02:31:55 #208 №1957851 
тупа бэбуш
https://www.youtube.com/watch?v=1uUwwWrhedc
Аноним 05/03/21 Птн 02:55:17 #209 №1957859 
>>1957851
>джун 60-150
>миддл 150-300
>сеньор 300-600
Не напиздел только про нижний порог джуна.
Аноним 05/03/21 Птн 03:51:38 #210 №1957861 
>>1957859
Твой варик
Аноним 05/03/21 Птн 04:05:04 #211 №1957862 
>>1957861
Джун 60-100, миддл 100-150, сеньор 150-250. Это для ДС.
Аноним 05/03/21 Птн 05:29:28 #212 №1957874 
16131874072170.jpg
Почему сойбои называют zero-shot learning'ом обычный предикт? Ну то есть, берём дедовский перцептрон, обучаем его на датасете из двух классов. Затем подаём на вход свой пример, которого не было в датасете, перцептрон его относит к одному из классов. Получаем что? Zero-shot learning.
Аноним 05/03/21 Птн 06:48:56 #213 №1957880 
>>1957874
Просто звучит как что-то новое. Стильно модно молодёжно. Выёбисто. По-умному. По-сойбойски.
Аноним 05/03/21 Птн 12:55:39 #214 №1958034 
Поясните что спрашивают у джунов на ML engineer? Ну допустим прогеров спрашивают по особенностям языка/фреймворка и это аналгично теории/концептам машоб для дата сайентистов. Но что аналгично задачкам по кодингу (для которых ты не должен знать все библиотеки/функции)?
Аноним 05/03/21 Птн 13:18:27 #215 №1958050 
>>1958034
https://www.kaggle.com/competitions
Аноним 05/03/21 Птн 13:45:22 #216 №1958072 
>>1958050
Ну каггл, все в курсе про него. Намек на то что я должен выигрывать соревнования? Я еще слышал джун должен иметь PhD из Стэнфорда. Да и то это только на 20тыс руб в месяц потянет для начала.
Аноним 05/03/21 Птн 13:52:34 #217 №1958076 
>>1958072
>PhD из Стэнфорда
Профессор философии из ПТУ
Аноним 05/03/21 Птн 15:11:26 #218 №1958186 
>>1958072
>Я еще слышал джун должен иметь PhD из Стэнфорда.
Да уж пиздец. На двачах тебя еще и не так затроллят.
Аноним 05/03/21 Птн 15:39:35 #219 №1958241 
>>1958076
Ну как бы бывают очень сильные лабы в Американских/Германских мухосрансках. Так что нечего смеяться.
Аноним 05/03/21 Птн 15:41:33 #220 №1958245 
>>1958186
Стэнфорд оверрейтед, какой-нибудь ИТМО уложит на лопатки по уровню студентов.
Аноним 05/03/21 Птн 15:53:54 #221 №1958279 
>>1957874
>подаём на вход свой пример, которого не было в датасете
Обычно имеется ввиду что и похожих не было.
Например ты обучаешь мультиклассовый классификатор животных, но почему-то в трейне у тебя только кошки и собаки. Потом ты подаёшь на вход ящерку и с удивлением обнаруживаешь что тоже работает хотя на ящерок ты не учил. Это zero shot. Если прям совсем без ящерок не работает но достаточно добавить пару и заработает то это few-shot.
Аноним 05/03/21 Птн 16:38:41 #222 №1958348 
79cf57b367abbf3df3f4885ad219ee05ff812144.gif
>>1958279
Если для nlp, то судя по примеру с transformers, zero-shot классификация это правильный выбор тега для поданной на вход фразы. Типа фраза "за кого вы голосовали?" относится к политике. Что больше напоминает именно predict, чем какой-то прямо суперхайтек. Просто у таких нейроночек датасеты, на которых обучен претрейн на многие порядки больше и разнообразнее, чем в дедовском машобе, поэтому и предикт работает поинтереснее. Одно дело ирисы Фишера, а другое какой-нибудь 40-гиговый корпус commoncrawl.
Аноним 05/03/21 Птн 19:37:03 #223 №1958526 
>>1958245
> Стэнфорд оверрейтед, какой-нибудь ИТМО уложит на лопатки по уровню студентов.
Толсто
Аноним 05/03/21 Птн 21:47:15 #224 №1958638 
16145529600191.jpg
>>1947549 (OP)
Ну что пупсики, на дворе март 2021 года, где мой сильный ии, где чатботы могущие в осмысленный диалог?
Аноним 05/03/21 Птн 21:49:01 #225 №1958640 
>>1958638
>на дворе март 2021 года
Самое время откатываться на дедовские методы - видеокарт для диплернинга все равно нет.
Аноним 05/03/21 Птн 21:52:53 #226 №1958643 
>>1958640
>видеокарт для диплернинга
Майнеры задавили своими тухесами ии? Профессора философии перестали высирать свои говнопеперы?
Аноним 06/03/21 Суб 07:54:37 #227 №1958832 
>>1958279
Оно в принципе работать не может, если в обучающей выборке вообще ничего похожего не было. Zero-shot - это когда обучил классификатор на кошках и собаках, а потом подсунул собаку другой породы, которой в выборке не было, и её правильно классифицирует, а не когда классификатору кошек и собак подсунули ящерицу.
Аноним 06/03/21 Суб 08:41:45 #228 №1958837 
08.png
coqa.png
piqa.png
>>1958832
Как я понимаю, суть явления в том, что при таких объемах обучающего датасета и параметров самой нейроночки, она "знает" настолько дохуя, что достаточно показать несколько примеров того, что конкретно от нее требуется, а дальше она сможет в подобное же по аналогии. Уже сейчас есть модель с 1.6 триллионов параметров, следующие будут с десятками и сотнями триллионов и обученные на терабайтных и петабайтных корпусах. Понятно, что у них с этим делом все будет ещё лучше.
Аноним 06/03/21 Суб 15:08:26 #229 №1959017 
>>1958832
>Оно в принципе работать не может
И тем не менее работает
Аноним 06/03/21 Суб 16:01:16 #230 №1959046 
>>1958034
https://www.youtube.com/watch?v=gZaj1aTfnZY
Аноним 06/03/21 Суб 17:41:39 #231 №1959177 
>>1959046
Спасибо Настя
Аноним 06/03/21 Суб 18:00:29 #232 №1959197 
>>1959046
Ух бля сколько пиздолизов в комментах.

>Тебе нужно отрекламится у топ блогеров IT и добавить рубрику IT новости. Канал к концу года на соточку можно будет вытащить. У тебя все задатки есть хорошая съемка видео внешность грамотная речь и интеллект самое главное
>внешность

>Я, кажется, только теперь понял, зачем все преподаватели обязательно должны быть страшными, немытыми, небритыми обезьянами в грязных свитерах с недельным перегаром, и, желательно, мужского пола)
>В противном случае, материал будет усваиваться крайне плохо, внимание концентрации будет идти не туда)

>@miracl6 Тоже в голову, но..как бы в другую. Которая не совсем умеет думать) Хотя.. в моей , судя по всему, начал даже мозг появляться после твоих видео- она даже комменты научилась писать, но до датасаенса ей долековато еще).

>Я уже четвертый раз пытаюсь пересматривать и не вкуриваю о чем идет речь. У меня в голове лишь "ай, какая хорошая девочка, ай какая умница, буси-буси-буси" )

>Красивая девочка ❤️

>Когда я вижу Настю, то у меня отключается мозг и я начинаю неудержимо писать всякую фигню. Мозга и так нет, так он еще и отключается) . А если в реале увижу -то вообще и спинной мозг отлючится. Как лечить этот недуг? Кто знает?

> @miracl6 А что еще? Ну скажи, я не обижаюсь. Анонимный ютубный комментатор не склонен обижаться априори. Может...сптоксикозник? Ну нет, этот недуг характерен для подростков, а я взрослый дядя).. Что еще?

>Глядя на заставку, мне кажется , что более светлый цвет волос придает Анастасии немного мягкости и она ощущается уже не такой злостной, агрессивной и строгой тетей. Посмотрим , как будет в эфире.

>Я всегда восхищался Настиной милотой. Она мне нравится любая - даже ненакрашенная.) А делать комплименты - это залог мужчин без заниженной самооценки. Кстати, ты тоже красива и умница. Я уже писал. Единственно у меня занижена самооценка в вопросе уровня моего датасаенса.

>Но это все мелочи. Я уверен, что если бы ты совсем не красилась - мое бы впечатление не поменялось.
>Мне нравится сама твоя монера говорить, голос, твои горящие глаки. Даже твоя серьезность.Ты такая серьезница. Этот огонек, что от тебя исходит зажигает меня - и мне это нравится. Это пробуждает во мне маньячинку, а свою маниакальность я умею сублимировать в нужное русло.
Аноним 06/03/21 Суб 19:17:24 #233 №1959262 
>>1959197
Пиздец, у вас там в нейроговне уже цыганки заруливают, тьфу
Аноним 06/03/21 Суб 21:30:48 #234 №1959359 
>>1959046
>меня зовут Анастасия, сейчас занимаю позицию Senior Data Scientist.
Аноним 06/03/21 Суб 21:35:29 #235 №1959361 
>>1959262
В прошлом треде говорили, что она хохлушка, теперь говорят, что она цыганка, охуеть.
В следующем треде надо её назвать болгарочкой.
Аноним 06/03/21 Суб 21:47:12 #236 №1959365 
1505819208297061501.jpg
>>1959361
> В прошлом треде говорили, что она хохлушка, теперь говорят, что она цыганка, охуеть.
Аноним 06/03/21 Суб 21:55:52 #237 №1959367 
>>1947549 (OP)
В дотасаенсе вообще есть работа где-нибудь кроме Москвы и Питера?
Аноним 06/03/21 Суб 22:16:06 #238 №1959375 
>>1959365
Хохлы - тюрки, а не цыгане.
Аноним 06/03/21 Суб 22:20:16 #239 №1959376 
16133128676680.jpg
>>1959046
>20-летняя шлюха
>Senior Data Scientist
Аноним 06/03/21 Суб 22:23:14 #240 №1959379 
>>1959376
Красивые тянучки умеют карьеру делать.
Аноним 06/03/21 Суб 22:23:55 #241 №1959380 
>>1959375
>Хохлы - тюрки
Охуеть.
Аноним 06/03/21 Суб 22:37:03 #242 №1959385 
>>1959379
Так она даже не красивая, обычная Наташка.
Аноним 06/03/21 Суб 22:38:29 #243 №1959387 
hungary-coat-of-arms-crest-family-heraldry-and-genealogy-pn[...].jpg
>>1959380
А ты думал откуда на некоторых европейских гербах парни с такими характерными причесонами? Это они с турками боролись.
Аноним 06/03/21 Суб 22:43:42 #244 №1959392 
>>1959387
древние хохлы аутсорсеры
Аноним 06/03/21 Суб 22:44:18 #245 №1959393 
>>1959387
>пик
Выглядит как будто хохол с невидимым телом сам себе голову проткнул и кайфует
Аноним 06/03/21 Суб 22:48:21 #246 №1959397 
>>1959361
>что она хохлушка, теперь говорят, что она цыганка, охуеть
Так ты чернявых холов и малдовашек не видел? Хер их от цыган отличишь. Вот эта баба типикл Оксанка.
Аноним 06/03/21 Суб 23:48:32 #247 №1959445 
Что почитать по математической статистике?
Аноним 07/03/21 Вск 02:51:09 #248 №1959529 
>>1959445
Жопеншмульцера
Аноним 07/03/21 Вск 07:10:17 #249 №1959560 
>>1959529
Уа-ха-ха-ха-ха-ха-ха!
Аноним 07/03/21 Вск 07:48:39 #250 №1959567 
>>1959445
D2l.ai
Аноним 07/03/21 Вск 08:11:59 #251 №1959573 
>>1959529
Хватит коверкать доброе имя Шпигельхалтера!
Ну Гланц еще есть.
Аноним 07/03/21 Вск 11:03:33 #252 №1959626 
>>1957805
Я могу читать документацию на инглише, но читать целую книгу по такой сложной тематике на инглише я в рот ебал
Аноним 07/03/21 Вск 11:09:00 #253 №1959628 
>>1959567
Какая-то хуета для зумеров. Мне бы учебник бумажный.
Аноним 07/03/21 Вск 11:09:42 #254 №1959630 
>>1959573
Вообще-то он Шварценеггер, приколист.
Аноним 07/03/21 Вск 12:43:44 #255 №1959683 
>>1959628
Дотасциентисты не могут в учебники. Поэтому D2l.ai.
Аноним 07/03/21 Вск 12:46:08 #256 №1959684 
>>1959385
А по-моему очень даже клёвая. Я бы даже подрочил.
Аноним 07/03/21 Вск 15:34:10 #257 №1959860 
436.jpeg
>>1958638
>где мой сильный ии
В Китае:
>В Китае все чаще меняют менеджеров на алгоритмы: те следят за работниками, дают им задачи и могут списать часть зарплаты
https://vc.ru/hr/209527-v-kitae-vse-chashche-menyayut-menedzherov-na-algoritmy-te-sledyat-za-rabotnikami-dayut-im-zadachi-i-mogut-spisat-chast-zarplaty
>Китайская система распознавания лиц определяет нужного человека с точностью до 99,8%
https://www.securitylab.ru/news/457581.php
>«В Китае распознавание эмоций способствовало оценке риска заключенных в нескольких региональных тюрьмах», - отмечает Global Times со ссылкой на эксперименты в тюрьме в Гуанчжоу в 2019 году. «Технология помогает тюремным служащим оценить, представляет ли заключенный потенциальный риск , включая возможные психические проблемы и склонность к насилию или суициду, и оценить вероятность повторения правонарушения после освобождения ».
За пределами тюрем государственная газета хвалила «технологию распознавания эмоций» за ее использование на дорогах, где полиция может отслеживать эмоции каждого водителя и останавливать любого с «ненормальными» чувствами. Это, как утверждалось, поможет предотвратить инциденты, связанные с агрессивным поведением на дорогах, или другое потенциально преступное поведение.
https://www.breitbart.com/asia/2021/03/04/china-using-emotion-recognition-technology-to-arrest-people/

Ну что, датасатанисты?
Построили светлое будущее?
Аноним 07/03/21 Вск 16:56:36 #258 №1959920 
Сап двач, что сейчас на хайпе в 3д cv?
Аноним 07/03/21 Вск 19:58:33 #259 №1960163 
>>1959445
бамп
Аноним 07/03/21 Вск 23:08:28 #260 №1960324 
Решил разработать искусственный интеллект на основе цепей Маркова, скормил им пасты про олдов, вот что получилось:

время остановиться, но его все легко. Это не архивы спецслужб. Сюда лучше не Чикатило и даже не станет)) пиздеть не найдут.
слышали. Вам кажется странным, что украл плавленный сырок в третьем классе, на рейд, чтобы их интересам. Почему я вам все стали
твой одноклассник. Я твой одноклассник. Я твой одноклассник. Я узнал тебя по частям, тобою написанное это простое пиздабольство , обиженный жизнью
разрешения компетентных людей. Их интересы настолько высоки, что столько внимания этих людей уделено вам, ничтожным интернет-червям? Все очень просто, вы ненароком
людей, о которых вы даже не впечатляет, давай разберем по частям, тобою написанное это простое пиздабольство , рембо ты обосрался под
президентов, взрывали целые города, когда появлялась угроза их интересам. Почему я вам рассказываю об этом? Эти люди поручили мне предупредить вас.
мешки ворочить, много вас в 9м классе, на понятном тебе языке, языке боли. Ребята, не понял с кем общаешься. Вот эта

планирую заёбывать этой шизой двачеров, какие подводные?
Аноним 07/03/21 Вск 23:56:50 #261 №1960357 
>>1960324
хуя эзотерика вышла
Аноним 08/03/21 Пнд 02:49:40 #262 №1960409 
>>1959216 →
>>1959663 →
Аноним 08/03/21 Пнд 04:50:06 #263 №1960428 
>>1960324
это реально шиза
Аноним 08/03/21 Пнд 17:37:15 #264 №1961071 
>>1959628
Кобзарь.
Аноним 08/03/21 Пнд 18:16:40 #265 №1961131 
Есть ли смысл в классическом машинном обучении?
В каких моментах он предпочтительное?
А то чет все массово перекатываются в TF2 и pytorch
И scikit используется макс для проверки полезности признаков
Аноним 08/03/21 Пнд 18:49:26 #266 №1961195 
>>1961131
Дата саенс это в принципе инфоцыганская хуйня. Для реального бизнеса порой достаточно экселя или R с его model <- lm(y ~ a + b + c, data=df)
Аноним 08/03/21 Пнд 19:50:37 #267 №1961354 
1615222201638.png
Есть одна спектрограмма пикрил. Стоит задача обвести эллипсом или прямоугольником области с высокой интенсивностью. Как это сделать оптимальным образом? Через СV или как-то аналитически разрабатывать алгоритм по поиску максимумов по вертикали/горизонтали с пороговым условием и хуе-мое?
Аноним 08/03/21 Пнд 19:57:21 #268 №1961364 
>>1961354
С помощью python cv2 можно изи эту задачу решить. Подбираешь нужную threshold по которому отсекаешь по яркости, изображение делиться на куски, есть функция которая эти куски перебирает и есть функция которая обводит
Литерали это https://www.pyimagesearch.com/2016/10/31/detecting-multiple-bright-spots-in-an-image-with-python-and-opencv/
Аноним 08/03/21 Пнд 19:59:44 #269 №1961369 
>>1961131
> Есть ли смысл в классическом машинном обучении?
Есть.
> В каких моментах он предпочтительное?
Тут в один пост не уложиться
> А то чет все массово перекатываются в TF2 и pytorch
Хуйню пишешь. Вопрос в задаче
> И scikit используется макс для проверки полезности признаков
Неправда. Опять же всё зависит от задачи
Аноним 08/03/21 Пнд 20:01:56 #270 №1961375 
>>1960324
> планирую заёбывать этой шизой двачеров, какие подводные?
Да был уже чел, который с паскодом напускал на двач бота на нейронке, обученного на постах двача. Есть это где-то на гитхабе
Был ещё когда-то проект плагин для браузера, который отмечал скримеры в вебмке. Это не про машинку правда, а просто так вспомнил. Щас уже умерло это все, да и скримеры никто не постит почти
Аноним 08/03/21 Пнд 22:15:55 #271 №1961500 
>>1961131
>И scikit используется макс для проверки полезности признаков
Как сплитилка он используется. Ну и pca/кластеризации всякие
Аноним 08/03/21 Пнд 22:46:20 #272 №1961512 
>>1961131

tf, pytorch же только для cv, nlp?

Есть еще финтек, рекомендации/кластеринг и т.п.


Аноним 09/03/21 Втр 00:29:13 #273 №1961539 
народ
работаю разрабом на с++, иногда просят микросервисы на питоне наклепать
в целом все ок, но иногда хочется несколько более наукоемких вещей (типа cv, рекомендации и пр говно)
есть ли у вас свои или чужие кулстори о перекате из классического прогания в мл?
Аноним 09/03/21 Втр 08:06:03 #274 №1961624 
>>1961539
Ты уже умеешь больше 99% обитателей треда. Гугли курсы по статистике и непосредственно мл. Для того, чтобы говнокодить на питоне в аналитике, достаточно навыков джуна. Еще можешь глянуть R, но я бы это полноценным языком программирования не назвал. Это скорее калькулятор, софт ты на нем не напишешь.
Аноним 09/03/21 Втр 08:07:25 #275 №1961627 
>>1961369
>Тут в один пост не уложиться
Ну хоть примерно расскажи, в какую сторону смотреть. А то как не начнешь гуглить кейсы, сплошная хуйня в духе "мы создали нейросеть и переворачиваем пингвинов"
Аноним 09/03/21 Втр 08:33:05 #276 №1961628 
.png
>>1961627
Задачи классификации и регрессии на табличных данных это бустингы. Кластеризация и системы рекомендаций тоже в основном без нейронок. Иногда нужна супер интерпретируемость, как например в кредитном скориге, тогда вообще самые простые модели вылезают типо линейной регрессии и решающего дерева
Иногда у тебя нет данных, чтобы обучить нейронку. Вот например была задача на "я проф." по машинке, где нужно было по точкам предсказать значения остальных. Трейн в несколько раз меньше тест. Тебе нужно восстановление плотности, что например с помощью knn можно сделать
Аноним 09/03/21 Втр 09:02:51 #277 №1961630 
>>1961628
>как например в кредитном скориге

Я вот тут не до конца понимаю, чем занимается ответственный за это спец в банке. Он что, с утра до ночи передрачивает модель, чтобы та не оверфитилась и давала нормальные метрики?
Аноним 09/03/21 Втр 09:41:38 #278 №1961636 
>>1947549 (OP)
Почему используют Питон для ИИ, если его нельзя нормально скомпилировать?
Аноним 09/03/21 Втр 10:30:06 #279 №1961653 
>>1956998
Да, я тупанул, давно не чекал лосс и забыл, спасибо за ответ.
Аноним 09/03/21 Втр 10:55:29 #280 №1961661 
>>1961630
С утра до ночи передрачивает данные, собственно, как и 90% дата саентистов.
>>1961636
Простой язык, быстро прототипируешь модельки, куча библиотек в интернете лежит. А зачем тебе компилируемость?
Аноним 09/03/21 Втр 10:56:10 #281 №1961662 
>>1961636
питон можно скомпелировать АЛЛО
Аноним 09/03/21 Втр 11:00:10 #282 №1961663 
>>1961662
ну точнее да, он остается интерпретируемым, но если тебе важен сам факт компиляции, то да, его можно и скомпилить
Аноним 09/03/21 Втр 11:01:19 #283 №1961665 
>>1961661
Например, как использовать tensorflow с C++ софтом? Разворачивать embedded питон?

>>1961662
С tensorflow не компилируется.
Аноним 09/03/21 Втр 11:28:32 #284 №1961677 
>>1961665
> С tensorflow не компилируется
не знал, молчу
Аноним 09/03/21 Втр 11:40:43 #285 №1961683 
>>1961665
https://www.tensorflow.org/api_docs/cc
Аноним 09/03/21 Втр 11:41:35 #286 №1961684 
>>1961665
> Например, как использовать tensorflow с C++ софтом? Разворачивать embedded питон?
Есть инструменты для этого.
Но в любом случае питон в основном для того, чтобы исследовать что-то быстро смотреть, выводить графики и тд. Сделал модель. Можешь её хоть на чем угодном переписать
Аноним 09/03/21 Втр 12:29:40 #287 №1961717 
>>1961684
>Можешь её хоть на чем угодном переписать
Если переписывать, зачем тогда питон? Сделал свою нейрочку, на ней и обучил.
Аноним 09/03/21 Втр 12:32:07 #288 №1961720 
>>1961717
Потому что у тебя не получится
> быстро смотреть, выводить графики и тд
Аноним 09/03/21 Втр 12:42:20 #289 №1961728 
>>1959046
>>1959376
А реально ли в датасаентсе стать Senior за три года работы?
Аноним 09/03/21 Втр 12:46:03 #290 №1961731 
>>1961717
>Если переписывать
Почти всегда переписывать не надо.
Аноним 09/03/21 Втр 12:55:19 #291 №1961736 
>>1961728
Все от фирмы зависит. В фейсбуке например судя по тому что я читал - реально
Аноним 09/03/21 Втр 14:57:15 #292 №1961861 
>>1961736
>В фейсбуке реально
Что это говорит о лицекниге?
Аноним 09/03/21 Втр 15:27:00 #293 №1961890 
>>1961861
Ничего. То что ты в одной компании сеньор не значит, что ты в другой им будешь. В некоторых фирмах вообще десяток внутренних уровней есть
Аноним 09/03/21 Втр 15:37:59 #294 №1961896 
>>1961624
>Ты уже умеешь больше 99% обитателей треда.
Умеет, да не то, не запутывай человека. Пока вкатыши не понимают простейших вещей типа например >>1961717 никакие плюсы с микросервисами не помогут, норм млщик прежде всего должен лучше чем средний кодер мочь мозгами шевелить.
Аноним 09/03/21 Втр 16:33:28 #295 №1961984 
>>1961896
я вот тот самый чел из крестов
> норм млщик прежде всего должен лучше чем средний кодер мочь мозгами шевелить.
ну блять
я тебе так скажу
норм кодер должен мочь шевелить мозгами лучше чем средний кодер
Аноним 09/03/21 Втр 17:05:59 #296 №1962024 
сойбои!.png
По поводу few-shot learning'a. Изучение темы приводит нас к тому, что в вопросе о самой природе явления мнения соевых ученых разделились.
- одни прямо заявляют, что few-shot learning и "метаобучение" синонимы, и предполагают только работу через обращение к готовой модели (в т.ч. файнтюненной), без какого-бы то ни было абдейта параметров. Собственно, https://arxiv.org/abs/2005.14165
- другие называют few-shot learning'ом файнтюнинг, но с небольшим количеством обучающих примеров, т.е. с абдейтом параметров модели. Например, https://arxiv.org/abs/2012.09543
Так кто прав-то?
Аноним 09/03/21 Втр 17:39:42 #297 №1962075 
>>1962024
Зависит от определения
Аноним 09/03/21 Втр 17:44:32 #298 №1962084 
>>1962075
Но это же принципиально разные вещи, у них не может быть одного названия.
Аноним 09/03/21 Втр 17:55:33 #299 №1962094 
Мое мнение - правы вот эти из опенаи https://arxiv.org/abs/2005.14165 потому что обновление весов обученной модели это по определению файнтюнинг, неважно сколько там примеров, 1 или 100000, сам процесс-то один и тот же.
Аноним 09/03/21 Втр 17:57:36 #300 №1962096 
image
>>1962084
А ещё интеграл римана и неопределенный интеграл это принципиально разные вещи. И лук-растение и лук-оружие.
К тому же в первой статье они явно пишут, что им не нравится термин "zero-shot", поэтому в рамках статьи они называют свой подход "few-shot learning'ом".
Аноним 09/03/21 Втр 18:41:13 #301 №1962123 
>>1962024
Конценсуса в сообществе не сложилось, понятия "прав-неправ" не имеют смысла.
Аноним 09/03/21 Втр 19:14:15 #302 №1962145 
Плюсисту (три с половиной года опыта галерного стажа) есть место в вашем говне? Или только пистон и модные фреймворки? Бэкпроп руками не напишу.
Аноним 09/03/21 Втр 19:25:02 #303 №1962157 
>>1962145
>Бэкпроп руками не напишу.
И не надо.
Аноним 09/03/21 Втр 19:40:14 #304 №1962173 
>>1962157
А всякие выпуклые, нелинейные оптимизации, численные методы, матстат? Или с этим только исследователи копаются?
Аноним 09/03/21 Втр 19:47:50 #305 №1962179 
>>1962173
Ты определись с тем, что ты хочешь, тогда приходи
Аноним 09/03/21 Втр 20:03:50 #306 №1962195 
>>1962173
Если ты хочешь просто деньги зарабатывать, то всё это тебе не надо.
Всякими сложными штуками занимаются исследователи, но им деньги не платят.
Аноним 09/03/21 Втр 21:07:43 #307 №1962276 
>>1962094
>неважно сколько там примеров
Если ты вапникошиз, которого интересуют только маняматически точные утверждения - то конечно неважно. Если ты норм чел то понятно что ситуации в десять примеров и в миллион отличаются качественно. Хотя бы тем, что во втором случае придётся сильно задрачиваться с тем чтобы столько данных накопать и их разметить.
Аноним 09/03/21 Втр 21:14:42 #308 №1962282 
>>1962195
> Если ты хочешь просто деньги зарабатывать, то всё это тебе не надо.
А нахуя вам работодатели деньги платят лол? Какие у вас уникальные скилзы? Знание фреймворков и все? Как вы конкуренцию выдерживаете если статистика с бэкпропом вам не нужны?
Аноним 09/03/21 Втр 21:21:04 #309 №1962292 
>>1962282
Потому что СЕО в бизнесах не в курсе ка к все это работает. Поэтому 50% этих дата сайентистов - тянки, там нужны пипл скиллз чтобы наебывать. Но этот пузырь через пару лет лопнет. Будут только дата инженеры нужны (но это не настолько хайпово-весело). Ну и еще теоретики-математики которые будут теории новые выдумывать (но тут нужна серьезная мат./кс база и ПхД).
Аноним 09/03/21 Втр 21:29:01 #310 №1962299 
>>1962292
Вот не скажи. Скиена пишет, что программисты просто НЕ УВАЖАЮТ данные.
Так что тянки, которые просто уважают данные и знают немного статистики постоянно нужны.
Аноним 09/03/21 Втр 21:36:24 #311 №1962312 
>>1962282
>А нахуя вам работодатели деньги платят лол?
За то же, что и программистам, за макакинг.
>Какие у вас уникальные скилзы?
Тряска чёрного ящика с умным видом.
>Знание фреймворков и все?
По сути.
>Как вы конкуренцию выдерживаете если статистика с бэкпропом вам не нужны?
Тут подсидел, там подлизал.

А если более серьёзно, то вот, например: >>1950226 →.
Аноним 09/03/21 Втр 22:22:57 #312 №1962365 
Ну хер знает, какая-то она не очень умная
https://www.youtube.com/watch?v=UxGebZpYVfM
Хотя на фоне этих двух додиков кодерков не так в глаза бросается
Аноним 09/03/21 Втр 22:28:04 #313 №1962369 
>>1962282
>статистика с бэкпропом вам не нужны
Нужны, просто ручками их писать не надо
Аноним 09/03/21 Втр 22:42:32 #314 №1962374 
>>1962365
Опять молдаванку форсят.
Аноним 09/03/21 Втр 22:45:06 #315 №1962378 
>>1962374
>молдаванку
Циганка или хохуха
Аноним 09/03/21 Втр 22:57:24 #316 №1962385 
>>1962312
Ну по сути ничего не изменилось. Просто придумали новое имя для аналитиков. И заставляют их теперь еще алгоритмы и питон учить.
Аноним 09/03/21 Втр 23:37:23 #317 №1962415 
Это вообще норм, что вы вместо гига чада Бабушкина форсите какую-то лоу тиер бабень с нулевой харизмой?
Аноним 10/03/21 Срд 01:11:44 #318 №1962469 
>>1962415
>гига чада
>Бабушкина
Выбери одно.
Аноним 10/03/21 Срд 06:24:58 #319 №1962524 
>>1962415
Сорта никому не нужного ноунейм зумерья, которые сами сюда приходят пиариться.
Аноним 10/03/21 Срд 10:42:35 #320 №1962579 
>>1962524
Не думал, что этот тред центр мира, чтобы стоило тут пиариться
Аноним 10/03/21 Срд 11:09:15 #321 №1962595 
>>1962579
какая борда такой и пиар
Аноним 10/03/21 Срд 12:40:12 #322 №1962641 
Новое с няшей
https://www.youtube.com/watch?v=1uUwwWrhedc
Аноним 10/03/21 Срд 13:05:42 #323 №1962663 
>>1962524
>ноунейм
>бабушкин

Понимаю
Аноним 10/03/21 Срд 13:06:55 #324 №1962664 
>>1962292
>теоретики-математики которые будут теории новые выдумывать

И писать их на R или матлабе
Аноним 10/03/21 Срд 14:56:29 #325 №1962731 
>>1962664
Всегда будут макаки, которые перепишут это на любой промышленный маняязык.
Аноним 10/03/21 Срд 15:19:56 #326 №1962752 
роботсбер.jpg
1.png
2.png
Сберкасса - это когда нихуя не работает (пик 1). Хотел запустить их куколаб с ругпт3, сходу ошибки (пик 2). Полез проверить их гитхаб, т.к. не поверил, что проблема во мне, так и есть, лол, в issue с самого же верха открытые проблемы - это репорты о том, что нихую не работает.
>>1962663
Что не так? Ноунейм и есть. Я знаю, кто такой Суцкевер, да даже кто такой Килхер. А про бабушкина только здесь и вижу упоминания.
Аноним 10/03/21 Срд 15:27:05 #327 №1962760 
>>1962752
> Я знаю
Интересно как ты вообще млкой занимаешься, если даже не знаешь, что личный опыт не репрезентативен
Аноним 10/03/21 Срд 15:41:51 #328 №1962777 
1.png
Причем, сама их сеть вроде даже работает, если запускать стандартно. А сами они ноутбук для куколаба написать не осилили.
Аноним 10/03/21 Срд 16:22:30 #329 №1962813 
>>1962641
>няша
Это твой гомосекс-символ?
Аноним 10/03/21 Срд 18:29:53 #330 №1962957 
chtuh[1].jpg
У хохлов пузырь дата-саенса уже лопается.
>Ще з цікавого: вперше за декілька років зниження частки Python: можливо, використання Data Science дійшло до точки насичення.
https://dou.ua/lenta/articles/language-rating-jan-2021/
Аноним 10/03/21 Срд 19:19:39 #331 №1962999 
>>1962957
>У хохлов пузырь дата-саенса уже лопается.
>>1947549 (OP)
Заглянул в ODS, и что я вижу:
>Всем привет!Снова OZONна связи. )
>Кого ищем:
>Ищем к себе в направление клиентской аналитики крутых продуктовых data-аналитиков.
>ЗП: Вилка - 150-200 для синьоров (их и ищем).
150 тысяч российских рублей (2K$) - это уже синьор!
Аноним 10/03/21 Срд 19:27:32 #332 №1963004 
>>1962999
>150 тысяч российских рублей (2K$) - это уже синьор!
Да уж, смехотворно.
Всего-то в 5-6 раз выше зп среднего профессора в сраной рашке.
Аноним 10/03/21 Срд 19:52:11 #333 №1963037 
>>1962999
Так аналитик это не дс или мл или в чем подвох?
Аноним 10/03/21 Срд 19:57:57 #334 №1963054 
>>1962999
>150 тысяч российских рублей (2K$) - это уже синьор!
А что не так? Если вне ДС, то вообще заебись. По уровню жизни эквивалент $200k/y в Штатах.
Аноним 10/03/21 Срд 20:04:37 #335 №1963066 
>>1963054
>Территориально - офис Москва-Сити
Нет, это в ДС((
Аноним 10/03/21 Срд 20:15:59 #336 №1963086 
>>1963066
>Нет, это в ДС((
Ну значит считай, что как $120k/y в NYC. Все равно вполне достойно.
Аноним 10/03/21 Срд 20:32:00 #337 №1963097 
>>1963086
>только выиграли!
Аноним 10/03/21 Срд 20:35:58 #338 №1963099 
>>1963086
>считай, что как $120k/y в NYC
Где пруфы расчетов?
Аноним 10/03/21 Срд 20:40:18 #339 №1963102 
image.png
image.png
>>1963099
>Где пруфы расчетов?
Вот.
Аноним 10/03/21 Срд 22:11:08 #340 №1963211 
>>1962999
Ну вот в европку/штаты/японию едь если хочешь 3к+. Ах да, там же конкуренция в 1млн индусов сеньор уровня готовые работать за еду и визы.
Аноним 10/03/21 Срд 23:06:02 #341 №1963246 
>>1963054
>>1963066
А вы в курсе, что единственное, что в ДС реально дороже, чем в России, это недвига?
Аноним 10/03/21 Срд 23:37:09 #342 №1963274 
>>1963246
>единственное, что в ДС реально дороже
А вы в курсе, насколько?
Аноним 11/03/21 Чтв 01:51:40 #343 №1963319 
>>1947549 (OP)
Вечер в Хату, посоны. Сам я инженегр в основном бекэнда, но за 10 лет заебало. Попробовал посочинять нейронки, понравилось. Не MuseGAN пока получился, но для хеллоу ворлда сойдет.

Есть желание перекатиться полностью, не потеряв при этом текущей зарплаты сеньора-помидора. Не сильно ли я губу раскатил?
Аноним 11/03/21 Чтв 03:15:03 #344 №1963332 
Как вы строите графики для огромных массивов? Какой-нибудь hist например?
Аноним 11/03/21 Чтв 05:32:27 #345 №1963343 
>>1963332

plt.hist()
или
df.plot(kind='hist')
Аноним 11/03/21 Чтв 08:04:28 #346 №1963355 
>>1963332
Никак. У меня в altair лимит на 5000.
Аноним 11/03/21 Чтв 08:06:35 #347 №1963356 
>>1963319
Конечно, потеряешь. В этом и ссуть.
Заметь, с каким энтузиазмом тут обсуждают кодерские вопросы и обоссывают Orange. Млщикам очень хочется быть кодерами, но они не могут.
Аноним 11/03/21 Чтв 08:59:12 #348 №1963370 
>>1963356
> обоссывают Orange.
Его и надо обоссывать, с тобой вместе. Трансформеров там нету, в облаке он работать не может. А для всего остального есть R.
Аноним 11/03/21 Чтв 09:53:51 #349 №1963395 
Screenshot20210311-134234.png
Что-то эта сберовская "rugpt3" подозрительно хорошо работает с англюсиком, при этом по размеру и количеству параметров как gpt2-large. Сдается мне, это она и есть, только зафайнтюненная на каком-то русскоязычном корпусе. Сравнить бы их структуру, которая выдается командой model(), но это надо в браузере делать, с тилибона там толком ничего не сравнишь, выдача большая... Тут https://press.sber.ru/publications/neiroset-sbera-rugpt-3-stala-vdvoe-umnee ещё пишут про XL вариант с 1.3млрд параметров, что так же соответствует gpt2-xl. Совпадение? Да, совпадение.
Аноним 11/03/21 Чтв 10:10:29 #350 №1963401 
>>1963274
А вы в курсе, насколько дешевле всё остальное?
Аноним 11/03/21 Чтв 10:18:18 #351 №1963408 
>>1955953
http://jalammar.github.io/illustrated-transformer/
Аноним 11/03/21 Чтв 10:21:13 #352 №1963409 
>>1963408
Читал. Там тоже не написано как такое возможно.
Аноним 11/03/21 Чтв 13:02:01 #353 №1963520 
Дайте совет зумеру-вкатышу-трясуну.
Как вы выкладываете свои пет-проекты для портфолио в сеть? Заливаете куда-нибудь на хероку? Или просто бросаете валяться в гитхабе?
Аноним 11/03/21 Чтв 16:30:57 #354 №1963758 
2021-03-11 163011.png
>>1963409
Хуёво читал значит
Аноним 11/03/21 Чтв 17:16:35 #355 №1963828 
>>1963758
Нормально читал. Как ты вектор размерностью 512 умножишь на вектор размерностью 64?
Аноним 11/03/21 Чтв 17:24:50 #356 №1963840 
>>1963828
Ресайзну в (, 64)
Аноним 11/03/21 Чтв 17:26:22 #357 №1963842 
>>1963840
Ага, от 512-мерного вектора откусить первые 64 значения, а остальные тип нахуй не нужны))) Гениально, апплодирую стоя...
Аноним 11/03/21 Чтв 17:27:46 #358 №1963845 
>>1963842
Какой откусить это будет шейп (8, 64) на (64, 1). Но я вообще мимо, не читал пока о чем мы
Аноним 11/03/21 Чтв 17:31:34 #359 №1963849 
>>1963845
> шейп (8, 64)
Но тогда и матрицы весов Wk, Wq и Wv должны быть 64х8, а там про их размерность ничего не сказано. Короче, это все зумерство какое-то, надо код трансформера смотреть, как там это сделано...
Аноним 11/03/21 Чтв 18:03:29 #360 №1963883 
>>1963370
Блоки в Orange можно соединить лишь одним способом. Способов облажаться в питоне и R для начинающего масса.

Не позволю обоссывать
Аноним 11/03/21 Чтв 18:05:57 #361 №1963888 
>>1963370
> Трансформеров там нету,
Есть PCA и t-SNE.
А если тебе не хватает, эту задачу в принципе не стоило решать.
Аноним 11/03/21 Чтв 19:23:40 #362 №1964029 
Куда копать в сторону программ самих изменяющих и дополняющих свой сорс код с минимальным участием человека? А также фишки когда прогу запускают в интернет и она по определённым запросам поисковиков "обучается" в чём-либо?
Аноним 11/03/21 Чтв 19:37:05 #363 №1964056 
>>1964029
> Куда копать в сторону программ самих изменяющих и дополняющих свой сорс код с минимальным участием человека?
Да тут ничего сложного. Можно просто подготовить свою модифицированную копию и запустить. Либо через динамические библиотеки делать и их заменять. Если язык скриптовый, то вообще как угодно можно вертеть
Только нахуя это?
> А также фишки когда прогу запускают в интернет и она по определённым запросам поисковиков "обучается" в чём-либо?
Что за прога? Обучается чему? Типо scraper поисковый?
Аноним 11/03/21 Чтв 19:50:42 #364 №1964083 
>>1964056
>Что за прога? Обучается чему? Типо scraper поисковый?
Ну вот ты книжки читаешь, умнее становишься. А я такую прогу хочу сделать. Тонны байт информации в интернете, а юзать некому.
>Только нахуя это?
Ну вот ты книжки читаешь, развиваешься: нейрончики, миелинчик, дофаминчик, вся хуйня. Вот и прога будет обучаться и новые фичи сама для себя писать и их же потом применять. Круто же.
Аноним 11/03/21 Чтв 20:03:00 #365 №1964101 
>>1964083
Понятно. Вкатывайся потихоньку. Узнаешь насколько инвалидная и узкозаточенная хуйня этот дип ленинг. Ты не просто не можешь нейронке любой набор данных скормить. Ты должен очень сильно постараться, чтобы нейронка обучилась на подобранном тобой наборе данных под конкретную однобокую задачу.
Если хочется сказки почитать про сильный интеллект, то Фристон и Шмидхубер пожалуйста. Но там близко ничего нет к тому, что ты написал
Аноним 11/03/21 Чтв 20:13:25 #366 №1964133 
>>1964101
С чего-то начинать надо. Всё равно объективно лучшего плацдарма пока нет.
Аноним 11/03/21 Чтв 20:24:29 #367 №1964145 
>>1963828
По-моему у тебя случай когда нужно либо английский либо линейную алгебру подтянуть сперва прежде чем за трансформеры хвататься.
Действуешь матрицей n x m на вектор размерности m получаешь вектор размерности n. m = 512 это эмбеддинг, n = 64 это вектора атеншена.
Аноним 11/03/21 Чтв 20:28:39 #368 №1964153 
>>1964145
я вот мимокрокодил
но
я правильно понимаю, что он не знает правило перемножения матриц? в машоб треде?
Аноним 11/03/21 Чтв 20:40:22 #369 №1964178 
>>1963828
Короче прочитал о чем вы.
1 слово в эмбендинге это (1, 512). Матрица весов (512, 64)
Аноним 11/03/21 Чтв 22:32:27 #370 №1964339 
images.jpeg
>>1964153
>я правильно понимаю, что он не знает правило перемножения матриц? в машоб треде?
Аноним 11/03/21 Чтв 22:33:16 #371 №1964340 
Какие темы по линалу стоит повторить перед ботанием ML?
Аноним 11/03/21 Чтв 22:43:28 #372 №1964351 
>>1964340
Перемножение матриц.
Аноним 11/03/21 Чтв 23:37:29 #373 №1964413 
>>1964340
разложения
Аноним 12/03/21 Птн 11:48:47 #374 №1964682 
Аноны, а можно Pipline встроить как то объединение датасетов?

В общем есть дата сет. В нём одно поле - текстовое, которое я хочу пустить в tf-idf, т.е. хочу следующий конвейер:

текстовое поле -> tf-idf -> слияния результата с остальным дата сетом -> грид сёрч

Как это сделать?
Аноним 12/03/21 Птн 12:03:23 #375 №1964691 
16142861141470.jpg
>>1964682
А что, выполнение линейной последовательности команд уже отменили?
Аноним 12/03/21 Птн 12:08:29 #376 №1964695 
>>1964691
так это для тупых же, не?
Аноним 12/03/21 Птн 13:12:43 #377 №1964730 
>>1964682
https://scikit-learn.org/stable/modules/generated/sklearn.pipeline.FeatureUnion.html
Аноним 12/03/21 Птн 15:26:39 #378 №1964871 
Как там ваша gpt3? Уже дошла до уровня чатбота?
Аноним 12/03/21 Птн 16:40:24 #379 №1964969 
>>1964871
Даже гпт2 давно тесты Тьюринга и Войта-Кампфа проходит, где-то видел код для куколаба. Претрейны Гпт3 пока жопят вылаживать да и толку с них, в куколабе даже gpt2-xl с 1.3млрд параметров еле дышит, а версия от huggingface вообще отваливается, памяти мало, гпт3 там вообще хуй запустишь, но ясно же, что у нее со всем этим намного лучше.
Аноним 12/03/21 Птн 19:34:41 #380 №1965260 
>>1964969
>Даже гпт2 давно тесты Тьюринга и Войта-Кампфа проходит
Пруфы?
Аноним 12/03/21 Птн 20:44:08 #381 №1965336 
>>1964969
>тесты Тьюринга
Это когда в жопу ебут?
Аноним 12/03/21 Птн 20:57:00 #382 №1965343 
>>1965336
Тюрингу наоборот химическую кастрацию делали чтобы в жопу не ебался.
Аноним 12/03/21 Птн 21:39:29 #383 №1965386 
>>1965260
В 99% тесты выглядит как "я показал текст из gpt моей маме и она не отличила его от человеческого". До прохождения нормального теста тьюринга ещё очень далеко.
Аноним 12/03/21 Птн 21:40:48 #384 №1965389 
>>1965386
>До прохождения нормального теста тьюринга ещё очень далеко.
Бесконечно далеко.
Аноним 12/03/21 Птн 22:51:39 #385 №1965440 
>>1965343
>химическую кастрацию делали чтобы в жопу не ебался
Ну так его в жопу ебали, Белоснежке норм было
Аноним 13/03/21 Суб 16:15:38 #386 №1965927 
Кто может с GAN-ом помочь?
Аноним 13/03/21 Суб 22:13:22 #387 №1966203 
>>1965927
Сразу вопрос вкидывай
Аноним 13/03/21 Суб 22:44:02 #388 №1966219 
cg.png
cg2.png
cg10.png
>>1966203
>вопрос
Там, наверное, код-ревью понадобится.
В общем, из GAN'а был сделан Conditional GAN.
Обучение имеет такой вид (pic1, pic2).
А вот при попытке визуализировать на каждой эпохе выход генератора через
torchvision.utils.save_image(gen_batch, '{}.png'.format(epoch+1))
получается такое (pic3). И это на 10 эпохе, т.е. хоть что-то уже должно быть.
В чём может быть ошибка? В визуализации? В модели? В чём-то ещё? Как это можно поправить?
Аноним 14/03/21 Вск 13:48:02 #389 №1966486 
>>1966219
>В чём может быть ошибка? В визуализации?
Ну это ты должен был сразу посмотреть, глянув на выходы генератора. Судя по тому, что генерирует цвет из границы ргб (ff00ff) save_image не скейлит ничего или неправильно скейлит.
Тестировал код на mnist/cifar?
Ещё лучше следить за confusion_matrix, а не лоссом, потому что последний мало что значит в ганах.
Аноним 14/03/21 Вск 22:18:39 #390 №1966884 
>>1966486
>Ещё лучше следить за confusion_matrix, а не лоссом, потому что последний мало что значит в ганах.
Почему?
Аноним 15/03/21 Пнд 07:32:57 #391 №1967082 
1615722113277262001256x256.webm
>>1947549 (OP)
Очередной прорыв111
Аноним 15/03/21 Пнд 07:33:25 #392 №1967083 
1615713459256252243256x256.webm
Аноним 15/03/21 Пнд 07:33:45 #393 №1967085 
1615720369249991324256x256.webm
Аноним 15/03/21 Пнд 07:34:03 #394 №1967086 
161573237526437189256x256.webm
Аноним 15/03/21 Пнд 07:35:35 #395 №1967087 
2021г, нивираятные тихналогии ИИ!
Аноним 15/03/21 Пнд 07:36:53 #396 №1967088 
>>1967087
Сделай на ЭС такое, потом приходи, маня
Аноним 15/03/21 Пнд 07:40:25 #397 №1967089 
>>1967088
Конечно, ведь поющие котики это то, что нужно человечеству!
Деграданты ебаные
Аноним 15/03/21 Пнд 07:45:43 #398 №1967093 
>>1967089
>Конечно, ведь поющие котики это то, что нужно человечеству!
Копетоглизму нужно не то, что нужно человечеству, а то, на чём можно заработать.
Аноним 15/03/21 Пнд 08:00:44 #399 №1967094 
>>1967093
Очень скоро
https://youtu.be/Z7ZqymEfgZE
Аноним 15/03/21 Пнд 08:10:27 #400 №1967095 
>>1967089
>>1967093
А что нужно человечеству, поведай, кук. Калмунизм, вечная автономная капсула буйлерон зимой жарко?
Аноним 15/03/21 Пнд 08:13:48 #401 №1967096 
>>1967093
> Копетоглизму нужно не то, что нужно человечеству, а то, на чём можно заработать.
Мань, а ты не видишь противоречия в своем кукарекании? Как можно заработать на том, что никому не нужно?
Аноним 15/03/21 Пнд 08:20:20 #402 №1967097 
>>1967095
Автоматизация диагностической медицины например.
Аноним 15/03/21 Пнд 08:39:39 #403 №1967100 
>>1967096
>Как можно заработать на том, что никому не нужно?
С помощью целенаправленного одебиливания населения и вездесущей рекламы.
Аноним 15/03/21 Пнд 08:44:38 #404 №1967102 
Screenshot20210315-123712.png
>>1964178
> Короче прочитал о чем вы.
> 1 слово в эмбендинге это (1, 512). Матрица весов (512, 64)
>>1964145
> По-моему у тебя случай когда нужно либо английский либо линейную алгебру подтянуть сперва прежде чем за трансформеры хвататься.
> Действуешь матрицей n x m на вектор размерности m получаешь вектор размерности n. m = 512 это эмбеддинг, n = 64 это вектора атеншена.
Да нет, там совсем не так. Смотрите, там прямо написано, что входной эмбеддинг Х имеет размерность 512 х длина фразы. Матрица весов Wk, Wq и Wv имеют размерности 64 х длина фразы. Мне и интересно, как из матрицы 512х3 получили три матрицы 64х3. Автор индус хуйню написал, или как это понимать?
Аноним 15/03/21 Пнд 10:32:34 #405 №1967139 
- Сойбои не делают то, что поможет человечеству
- Так делайте сами
- Кто? Я?
Аноним 15/03/21 Пнд 11:02:26 #406 №1967155 
>>1967087
Так это получается тикток уже не нужен, просто берёшь человека и он кривляется.
Аноним 15/03/21 Пнд 11:15:06 #407 №1967164 
Без названия.png
>>1967155
> тикток уже не нужен, просто берёшь человека и он кривляется.
Ожидания: ии заменит водителей, строителей, дворников
Реальность: ии заменил зумеров в тиктоке
Аноним 15/03/21 Пнд 11:27:00 #408 №1967176 
Есть же вокалоиды, ви-тюберы, а теперь техника дошла до возможности ви-тиктокера. Берём как шаблон какого-либо мемного малолетнего долбаеба, и помещаем его на разные фоны, поющего разную модную у зумеров мемную херню. Годный стартап, как думаете?
Аноним 15/03/21 Пнд 11:58:19 #409 №1967188 
>>1967176
Думаю, что ты душнила старая, которая не шарит в том, что нравится зумерам, на уровне деда размышляешь.
Аноним 15/03/21 Пнд 12:06:59 #410 №1967195 
16156895355580.jpg
>>1967188
> душнила старая, которая не шарит в том, что нравится зумерам,
Вас чем промывают, то вам и нравится, своего мнения-то нет. Что нравится зумерам, можно легко нагуглить.
Аноним 15/03/21 Пнд 12:20:05 #411 №1967218 
>>1967195
Дядь, мне 29 годиков, но даже я не настолько оторван от реальности в полустарческом маразме под музыку Caretaker'а, когда кажется годной идея дрыгать перед борзыми и наглыми малолетками AI-марионетку и думать при этом что это "годный стартап".
Аноним 15/03/21 Пнд 12:34:34 #412 №1967241 
>>1967218
Ви-тюберы же вам зашли, а это ничем не лучше.
Аноним 15/03/21 Пнд 13:56:45 #413 №1967310 
>>1967241
>это ничем не лучше
Ох, какой же додик ты. Ну пили свой годный стартап, хули. Просто это как с научными пейрепами, если ты за пять минут придумал гениальную идею, как заработать кучи бабла, с вероятностью в 90% о ней уже подумали другие и задолго до тебя.
Аноним 15/03/21 Пнд 15:03:47 #414 №1967375 
>>1967176
>Годный стартап, как думаете?
Думаю да, можно еще с зумеров бабосы на реализацию состричь
Аноним 15/03/21 Пнд 17:51:11 #415 №1967526 
аноны, что на собесах по теорверу спрашивают?
Аноним 15/03/21 Пнд 18:32:35 #416 №1967587 
>>1967526
Очевидно, зависит от того, куда идешь...
Что такое матожидание? Что такое дисперсия? Когда лучше использовать медиану, а не среднее? Какие вероятностные меры на B([0, 1]) существуют?
Аноним 15/03/21 Пнд 22:01:22 #417 №1967848 
>>1967587
Получились вопросы уровня /b. Реально такую ерунду спрашивают?
Аноним 16/03/21 Втр 01:13:04 #418 №1967994 
15891301903260.jpg
>>1966486
>Ну это ты должен был сразу посмотреть, глянув на выходы генератора.
Проблема оказалась в модифицированном генераторе, он на выходе выдаёт:
tensor([[[[ 1., 1., 1., ..., 1., 1., 1.],
[ 1., 1., 1., ..., 1., 1., 1.],
[ 1., 1., 1., ..., 1., 1., 1.],
...,

Из-за чего это может быть? Из-за конкатенации тензоров?
Аноним 16/03/21 Втр 01:53:08 #419 №1968020 
>>1967994
Судя по всему, это действительно из-за конкатенации тензоров разного типа
https://github.com/pytorch/pytorch/issues/35014
Теперь вопрос, что с этим делать? Тензор картинки имеет тип torch.FloatTensor, тензор метки torch.LongTensor.
Если их сравнять, вылезает:
RuntimeError: Expected tensor for argument #1 'indices' to have scalar type Long; but got torch.cuda.FloatTensor instead (while checking arguments for embedding)
Аноним 16/03/21 Втр 07:03:47 #420 №1968140 
>>1967526
https://youtu.be/2AXT1yR5_48?t=384
Аноним 16/03/21 Втр 07:34:06 #421 №1968148 
>>1968140
Хватит форсить эту селедку. Тем более что ее топ вопросов тянет максимум на собеседования стажеров.
Аноним 16/03/21 Втр 09:41:18 #422 №1968188 
>>1968148
ИМХО, причина, по которой её тут форсят — смазливое личико.
Аноним 16/03/21 Втр 12:51:42 #423 №1968425 
>>1968148
Так вопрос был видимо от претендента на стажерскую вакансию, иначе бы знал что спрашивают.
Аноним 16/03/21 Втр 13:44:22 #424 №1968472 
>>1968148
Да не, у нас стажеров давно просят сверточную нейронку с нуля на С++ написать. Ну а что, понасмотрятся этих видосов, заучат ответы, а потом страдают. Ну и ЗП мы конечно не платим.
Аноним 16/03/21 Втр 14:04:32 #425 №1968493 
>>1968472
>Ну и ЗП мы конечно не платим.
Еле концы с концами сводите?
Аноним 16/03/21 Втр 14:25:10 #426 №1968513 
>>1968493
Концы с щёками стажёров
Аноним 16/03/21 Втр 14:42:32 #427 №1968541 
>>1968493
Наоборот. Но когда у тебя тысячи вкатунов готовы умирать за еду в надежде на светлое будущее через год (ну и 2k+ EUR) смысла нет тратиться.
Аноним 16/03/21 Втр 15:16:16 #428 №1968595 
>>1968541
>2k+ EUR
За смешных, поющих котиков могли бы платить больше
Аноним 16/03/21 Втр 18:05:17 #429 №1968822 
>>1968140
Вот на неё у меня всегда стоит!
Аноним 16/03/21 Втр 18:49:58 #430 №1968888 
>>1962957
Ну и как мне теперь вкатываться? Через полгода вузик заканчиваю.
Аноним 16/03/21 Втр 19:37:15 #431 №1968952 
>>1968472
Это где так? В хуавее?
Аноним 16/03/21 Втр 19:51:49 #432 №1968971 
Тупейший вопрос.
Как накидать офлайн распознавалку рукописного текста?
без регистрации и смс
Аноним 16/03/21 Втр 21:52:26 #433 №1969101 
>>1968952
В ДипМайнде, секретное подразделение в ДС2.
Аноним 16/03/21 Втр 22:04:15 #434 №1969114 
>>1969101
>ДипМайнд, секретное подразделение в ДС2
>>1968472
>стажеров давно просят сверточную нейронку с нуля на С++ написать
>понасмотрятся этих видосов, заучат ответы, а потом страдают
>ЗП мы конечно не платим

А что в ДипМайнд тоже макак набирают?
Аноним 16/03/21 Втр 22:11:50 #435 №1969120 
>>1969114
Да, кто-то же должен в атари устанавливать human perfomance, для бенчмарка. Там и вопросы попроще, а ля "чем SGHMC отличается от динамики Ланжевина?".
Аноним 16/03/21 Втр 22:28:13 #436 №1969135 
>>1969120
>динамика Ланжевина
>ЛанжевИна
Охуеть, какие умные слова знают эксперты из секретного подразделения ДипМайнд!
Аноним 16/03/21 Втр 22:29:01 #437 №1969136 
>>1969135
>Paul Langevin
извините
Аноним 16/03/21 Втр 22:30:08 #438 №1969138 
>>1969136
По рузге через Е пишут обычно. Всегда.
Аноним 16/03/21 Втр 22:30:47 #439 №1969140 
>>1969138
не розумию
Аноним 16/03/21 Втр 22:51:35 #440 №1969176 
61D7B605-DE34-4238-843C-584C15B02503.jpeg
>>1969140
> не розумию
Аноним 16/03/21 Втр 22:58:05 #441 №1969186 
>>1969120
Ладно, у меня вопрос.
Типа если у меня есть пхд по фундаментальной математике от среднего американского универа, меня возьмут в секретное подразделение ДипМайнд немакакой?
Кто-то может помочь? Аноним 16/03/21 Втр 23:04:43 #442 №1969195 
Обучал нейронку на данных, загруженных через tensorflow.keras.preprocessing.image_dataset_from_directory( ), теперь не могу получить результат работы ИИ через model.predict(). Что делать? Какой формат данных он хочет для новых изображений?
Аноним 16/03/21 Втр 23:22:51 #443 №1969221 
Ещё тоже совершенно тупая фигня, но кто-то знает как импортнуть ИИ из h5 файла?
Аноним 17/03/21 Срд 00:19:08 #444 №1969260 
15994909255530.jpg
>>1969195
>>1969221
Аноним 17/03/21 Срд 00:47:43 #445 №1969276 
>>1969186
А вы какой национальности и пола? Русских не берем. У нас диверсити квота.
Аноним 17/03/21 Срд 02:24:48 #446 №1969314 
пацаны, короче вопрос
я в стартапе занимался облаками точек
сейчас хочу влететь в cv с изображениями
посоветуйте плиз какой-нибудь проект, чтобы было не стыдно выложить на гит (да и попрактиковаться, на самом то деле)
спрашиваю, потому не что не хочу объебаться с тем, что сделаю что-нибудь, а мне техлид на собесе скажет, что это любой дворник умеет
мб изъебистую сегментацию, детекцию? короче помоги двач, скажу всем спасибо за это
АЛСО
важно
какой матан спрашивают на собесах и какая часть от спрашиваемого на собесах нужна в работе? мне помимо ангема, линала и чуточку дифф геометрии нихуя не пригодилось. Но часто вижу, то то теоревер требуют, то еще что-то
буду про кубики спрашивать?)
Аноним 17/03/21 Срд 06:31:12 #447 №1969365 
>>1969276
Набираете только небелых лгбт немужчин мусульман, верно?
И как успехи?
Гугл ещё не обанкротился с такими работниками?
Аноним 17/03/21 Срд 07:04:14 #448 №1969371 
image
>>1969365
Аноним 17/03/21 Срд 11:05:50 #449 №1969517 
>>1969365
Кто нам будет делать поющих котиков если не негропедики?
Аноним 17/03/21 Срд 13:02:47 #450 №1969644 
>>1969365
Наоборот. Нет прыщавых асоциальных и упрямых задротов, которые думают что лучше всех и саботируют работу.
Аноним 17/03/21 Срд 13:28:05 #451 №1969679 
>>1969644
Ага, то есть вы нанимаете тупых долбоебов негропедиков, чтобы не допустить, чтобы кто-то оказался умнее вас самих?
В принципе верная стратегия для современной эпохи всеобщей дебилизации.
Аноним 17/03/21 Срд 13:49:32 #452 №1969701 
>>1969679
Причем тут негры вообще? Они и сами работать не пойдут, не царское дело. Типичная кодомакака в Гугле это индус или китаец.
Аноним 17/03/21 Срд 13:55:47 #453 №1969702 
>>1969679
Нет, sweatey, посмотри статистику. Азиаты, например, всегда и везде лучше белых в вычислительных науках. Женщины лучше в колледжах и больше подходят для научных и околонаучных работ по многим причинам. ИТ как и наука начиналось как убежище для белых задротов и сейчас они паникуют когда это превращается из закрытого клуба для нердов в что-то для всех. И выясняется что они не такие то крутые/умные как им мамка говорила. Рыночек порешал.
Аноним 17/03/21 Срд 14:22:55 #454 №1969718 
>>1969702
>Женщины лучше в колледжах и больше подходят для научных и околонаучных работ по многим причинам
Назови одну.
Аноним 17/03/21 Срд 14:25:26 #455 №1969722 
>>1969702
толсто уже
Аноним 17/03/21 Срд 14:26:51 #456 №1969723 
>>1969702
> Рыночек порешал.
> квоты
Выбери что-то одно.
Аноним 17/03/21 Срд 14:31:20 #457 №1969728 
>>1969723
Как минимум в среднем по аккуратности/организованности. Если ты делал науку то в курсе как это важно.
Аноним 17/03/21 Срд 14:43:16 #458 №1969736 
>>1969723
Всё так. Не согласен - сделай свой рыночек без квот
Аноним 17/03/21 Срд 14:43:31 #459 №1969737 
>>1969723
Ну сейчас рыночек и решает что белые мужики не нужны. Квот нет, есть статистика что наличие хотя бы одного коллеги твоего пола или национальности бустит твой перформанс. Так и вышло в универах, раньше пиздили результаты/работы у женщин тк они были одиночки и не могли ничего противопоставить и были квоты на одну женщину в год (на ПхД) для мат.департаментов в топ универах в США например. Как это убрали так женщины (а потом и азиаты) начали постепенно аутперформить белых мужиков и захватывать универы. Кстати в топ униках США до сих пор есть квоты на азиатов, иначе все бы давно в индусах и прочих азиатах было бы. Все это легко гуглится если хочешь больше инфы.
Аноним 17/03/21 Срд 14:44:48 #460 №1969739 
>>1969718

Вот
>>1969728
Аноним 17/03/21 Срд 14:52:09 #461 №1969747 
>>1969702
>Азиаты, например, всегда и везде лучше белых в вычислительных науках.
Только почему-то математику белые двигали.
Американские азиаты - потомки элитных китайцев, которые могли переехать из Китая, когда там пиздец творился. Американские негры - потомки случайных негров, выживших при транспортировке. Белые - европейских нищуков и сектантов.
https://www.youtube.com/watch?v=w9XXQYGMvTk
Аноним 17/03/21 Срд 14:56:44 #462 №1969749 
>>1969747
>>1969737
>>1969736
ой хуйню обсуждаете какоую-то
лучше бы мне ответили тут бля >>1969314
Аноним 17/03/21 Срд 15:05:32 #463 №1969755 
>>1969749
Нейронка, подключенная к камере, которая распознает, то чему ты ее научил.
Аноним 17/03/21 Срд 15:06:58 #464 №1969756 
>>1969755
и это ок? типа просто распознование объектов?
Аноним 17/03/21 Срд 15:07:16 #465 №1969757 
>>1969755
или тут проблема в риалтайме?
Аноним 17/03/21 Срд 15:49:46 #466 №1969784 
>>1969718
>Назови одну.
Gender studies.
Аноним 17/03/21 Срд 16:09:26 #467 №1969826 
>>1969728
>аккуратности/организованности
Ну да, в прикладной/экспериментальной массовой херне это самое важное.
Для нормальной науки мозги нужны, а не это вот.
Аноним 17/03/21 Срд 16:12:12 #468 №1969831 
>>1969737
>раньше пиздили результаты/работы у женщин тк они были одиночки и не могли ничего противопоставить
Это тебе твои духовные наставники радфемки сказали?
Аноним 17/03/21 Срд 16:27:40 #469 №1969862 
>>1969826
>трясун ящика
>нормальной науки
Аноним 17/03/21 Срд 16:36:49 #470 №1969872 
>>1969831
тссссс, сейчас в тит-токе тебя обосрет
Аноним 17/03/21 Срд 16:37:10 #471 №1969874 
>>1969872
хаахах бля я как дед тик ток написал
КЕК
Аноним 17/03/21 Срд 16:39:31 #472 №1969876 
>>1969862
При чём тут тряска ящика? Речь шла про науку.
Аноним 17/03/21 Срд 16:42:42 #473 №1969880 
>>1969747
> Американские азиаты - потомки элитных китайцев, которые могли переехать из Китая, когда там пиздец творился.
Да. Так же и американские индусы тоже илитка из высших каст, а не из тех кто серит посреди улицы, а потом пьет воду из Ганга верхом на недоеденном трупе.
>>1969737
> Ну сейчас рыночек и решает что белые мужики не нужны.
Это решает (((повесточка))), а не рыночек. Рыночек как раз веками решал в пользу белых мужиков.
Аноним 17/03/21 Срд 17:00:58 #474 №1969909 
>>1969728
Аккуратность и организованность никак не зависят от наличия пизды.
Аноним 17/03/21 Срд 17:05:13 #475 №1969912 
>>1969909
В радфем религии зависят.
Аноним 17/03/21 Срд 17:18:41 #476 №1969924 
>>1969880
>Рыночек как раз веками решал в пользу белых мужиков.
И откуда же в этом чудесном рыночке взялась повесточка?
Аноним 17/03/21 Срд 17:53:05 #477 №1969951 
suffrage1[1].jpg
>>1969924
Она появилась с того момента, когда развалилась сельская община и европейцы стали переезжать в города, чтобы работать на заводах.
Аноним 17/03/21 Срд 18:18:19 #478 №1969964 
Валите отсюда, левоправые школьники вонючие
Аноним 17/03/21 Срд 18:35:31 #479 №1969978 
>>1969964
вот и я про то же
лучше бы мне про проект подсказали)))))
Аноним 17/03/21 Срд 19:16:58 #480 №1970016 
53007original.jpg
>>1966486
>>1968020
Ещё раз знатоки.
Есть тензор нормализованной картинки и есть тензор меток.
Первый имеет тип float32 и его значения, грубо говоря, в районе -1...1.
Надо ли тензор метки:
1) Так же приводить к float32?
2) Как-то шкалировать, чтобы его значения не сильно отличались от значений тензора картинки.
Аноним 17/03/21 Срд 20:27:43 #481 №1970077 
>>1970016
погоди, а что у тебя является меткой?
Аноним 17/03/21 Срд 20:29:11 #482 №1970078 
>>1970077
Жанр картинки.
Это ж Conditional GAN. Тензор картинки и тензор метки потом конкатенируется в дискриминаторе и генераторе.
Аноним 17/03/21 Срд 20:30:52 #483 №1970081 
>>1970078
соре, с ганами не работал никогда
но если конткатинируется, то выглядит так, будто 1) надо 2) завист от того, насколько сильно отличается от изображения. Если порядки совсем пиздец какие разные, то да, надо. Если нет, то можно и обойтись. Имхо, робастнее сделать шкалирование в любом случае
Аноним 17/03/21 Срд 23:40:05 #484 №1970193 
>>1970081
Спасибо, но всё равно какая-то хня.
Аноним 17/03/21 Срд 23:42:18 #485 №1970194 
>>1969876
>При чём тут тряска ящика? Речь шла про науку
99% ученых в говне моченых этим и занимаются.
Аноним 18/03/21 Чтв 01:21:14 #486 №1970264 
>>1970194
Это правда. Сети становятся глубже, параметров - больше, прорывных идей - меньше, вот и трясут свои трансформеры и имажнеты.
Аноним 18/03/21 Чтв 06:31:20 #487 №1970338 
>>1970194
Ёбаный ты сука долбоёб, речь шла про НАУКУ, вообще, блядь, НАУКУ, а не про твоё тупое R&D в области дотасаенс.
Аноним 18/03/21 Чтв 11:53:46 #488 №1970468 
>>1970338
бля да заткнись ты уже
иди в /b и там спорь про то какие женщины охуеные (а если черные, то вообще тониньки старки) а мужло - тупое
а тут дай людям за машоб тереть
Аноним 18/03/21 Чтв 12:43:08 #489 №1970509 
Untitled.png
Вакансия на 4-8к бачинских.
https://hh.ru/vacancy/43128938
Аноним 18/03/21 Чтв 12:58:10 #490 №1970522 
>>1970509
Требования как у джуна + 8 лет опыта.
Аноним 18/03/21 Чтв 14:05:38 #491 №1970582 
>>1970522
да напишут как на джуна
выебут на собесе как на сеньера
вон, в яндексе по-моему в описаниях всегда ультра лайтовые требования
а на деле мало кто туда попадает
Аноним 18/03/21 Чтв 19:29:05 #492 №1970828 
>>1970582
>в яндексе по-моему в описаниях всегда ультра лайтовые требования
Там уже в анкете просят List three papers you like from the ICML, NeurIPS, ICLR, CVPR, ACL, KDD, ICCV, ECCV, EMNLP conferences published in 2018-2020 and explain why you like these papers and consider them important. We expect at least two or three sentences per article, but your comments can be as long as you wish.
А это только INTERN researcher.
Интересно, что жопеншмульцерошизик написал бы.
Аноним 18/03/21 Чтв 20:22:47 #493 №1970869 
>>1970828
ну ты сравнил, братишка
ресерч вакансии и гребцов
ты в раздел "разработка" зайди
Аноним 19/03/21 Птн 00:14:05 #494 №1971063 
>>1970828
>А это только INTERN researcher.
Так в чем проблема? Просят прочитать пейперы, а не писать самому. Этим по сути занимаются вообще все машобщики.
Аноним 19/03/21 Птн 05:05:42 #495 №1971124 
помогите, я тупой. Задача придумать сеть, которая должна плюсовать и минусовать интеджеры. С одним нейроном и линейной функции можно простую сумму сделать. А как с минусом? Второй вес -1 сделать?
Аноним 19/03/21 Птн 07:27:51 #496 №1971138 
>>1971124
>Второй вес -1 сделать?
Да. И ещё, лучше беги из того места, где тебя заставляют это делать.
Аноним 19/03/21 Птн 07:45:48 #497 №1971142 
>>1971063
>прочитать пейперы
>Этим по сути занимаются вообще все машобщики
Смешная щютка.
Аноним 19/03/21 Птн 09:13:33 #498 №1971159 
>>1971138
не могу, диплом уже на горизонте.
Аноним 19/03/21 Птн 14:23:25 #499 №1971385 
А можете каких-то около-религиозных или философских вдохновляющих статей накидать на тему ии и прогресс в науке и технике?

Не про вычистку датасетов, а про светлое будущее, что всё больше задач решается компьютерами и всё в таком роде.
Я просто не знаю как это загуглить, чтобы что-то интересно найти - а не ненаучно-популярные статьи для обывателей, которые на что угодно поведутся и не отличат важную новость от несущественной.
Аноним 19/03/21 Птн 16:33:25 #500 №1971532 
Безымянный.png
Уж не помню, вроде никто так и не ответил, продублирую.
Какой способ расстановки рессвязей лучше и почему?
Аноним 19/03/21 Птн 17:11:41 #501 №1971574 
>>1971385
https://www.youtube.com/watch?v=yX_k_mkCz0k
Аноним 19/03/21 Птн 18:49:57 #502 №1971656 
>>1970468
>иди в /b и там спорь про то какие женщины охуеные (а если черные, то вообще тониньки старки) а мужло - тупое
А нахуя ты мне это пишешь, шиз? Пиши это той чёрной транс лесбо квир небинарной андрогинной фемке мусульманке, выёбывающейся своим дипмайндом и дайвёрсити, с которой срач начался.
Аноним 19/03/21 Птн 18:52:39 #503 №1971659 
>>1971385
Sir Роджер Пенроуз, "Тени Разума".
Аноним 19/03/21 Птн 19:04:17 #504 №1971663 
>>1971142
>Смешная щютка.
Если не хочешь изобретать хуево работающие велосипеды, то читать пейперы придется.
Аноним 19/03/21 Птн 19:05:49 #505 №1971664 
>>1971663
Я знаю.
Аноним 19/03/21 Птн 19:07:15 #506 №1971666 
>>1971656
За что люблю современный "двач", я могу любую чушь написать и мне будут всерьез отвечать и пригорать с этого, лол.
Аноним 19/03/21 Птн 19:22:14 #507 №1971676 
16161645359040.mp4
Аноним 19/03/21 Птн 19:31:01 #508 №1971685 
>>1971385
>около-религиозных или философских вдохновляющих статей
Ох уж эти мамкины ценники аметисты. Был им Боженька и Царствие Небесное - фууу веруны бох мертв))...
ой а дальше що делать-то? Швитая Нейросеточка, спаси и сохрани от лукавого...
Аноним 19/03/21 Птн 21:53:48 #509 №1971755 
>>1971685
Не трясись так
Аноним 19/03/21 Птн 23:24:19 #510 №1971811 
Насколько сложно будет сделать войсморфер под определённого человека и в какую сторону копать?
Не общего назначения, а мой голос превратить в голос определённой девушки.

Не столько сделать, сколько попрактиковаться и попробовать разное.

Пробовал классической программой выделять первые n гармоник на спектрограмме и повышать их до девчачьих значений, при этом заранее собрав какую-то статистику по диапазону возможных частот для каждой гармоники, но получилось так себе (отвратительно).

В нейронках третий день, я что-то как ребёнок радуюсь запуская примеры или пробую свои конструкции.
Не очень понятно какая архитектура должна быть у такого. Текст и голос как бы отдельные - это нужно двумя автоэнкодерами обработать оба голоса, чтобы автоэнкодер запомнил сам голос, а в сжатом месте сохранял звуки (гласные, или что он там будет сохранять), а потом произносить одно и то же и пытаться аудиозаписи по тексту и интонациям совместить и обучать третью нейронку данные из узкого месте одного автоэнкодера в другой передавать?
Или обучать один автоэнкодер, которому ещё дополнительным сигналом передаётся 0/1 в зависимости от того, чей голос, после чего менять сигнал?
Или подключить к одному энкодеру два декодера и надеяться, что на выходе второго будут те же слова и интонации, что и на первом?
Аноним 20/03/21 Суб 00:45:42 #511 №1971859 
>>1971811
Хуево заходишь.
Аноним 20/03/21 Суб 03:35:53 #512 №1971914 
>>1971666
бля вот меня бесят эти ололошы, которые подрывают чей-то пукан и такие "ааззазазазаз бомбанулоо азазазаз"
вызвать негативные эмоции легче всего. для этого вообще не нужно ничего уметь, нужно просто быть отбитым
ты пишешь очевидно вентиляторную хуйню и славно хлопаешь в ладоши, от того что у всех горит? ну збс
если тебя нельзя вот так вот развести на негатив, то ты какой-то дебич-аутист, сорян, иди нахуй
>>1971656
я ебу кто это пишет? мне похуй, заканчивайте оба
Аноним 20/03/21 Суб 10:21:03 #513 №1972081 
Начал читать мистера Гудфеллоу, а там вместо необходимых сведений по линейной алгебре краткий список определений. Так и должно быть, мне хватит для понимания принципов работы сверточных сетей умение перемножать матрицы?
Аноним 20/03/21 Суб 11:04:30 #514 №1972108 
>>1972081
Да.
Аноним 20/03/21 Суб 11:06:04 #515 №1972109 
>>1972108
Ну еще конечно надо уметь считать градиенты и брать производные от матриц
Аноним 20/03/21 Суб 11:23:44 #516 №1972116 
>>1971914
>ты пишешь очевидно вентиляторную хуйню
А ты ей всерьез отвечаешь
Аноним 20/03/21 Суб 11:29:29 #517 №1972122 
>>1972109
>брать производные от матриц
Имеются в виду производные функций от матриц?
Аноним 20/03/21 Суб 13:55:55 #518 №1972221 
>>1965927
>>1966219
Бамп вопросу.
Аноним 20/03/21 Суб 14:19:05 #519 №1972233 
Ну что, трясуны, 2021, ганы забыты? Сейчас в моде few-shot meta-learning какой-нибудь?
Аноним 20/03/21 Суб 14:27:21 #520 №1972241 
>>1969737
Если я запилю AGI его первой задачей будет вылавливать таких идиотов как ты и перерабатывать в биотопливо.
Аноним 20/03/21 Суб 16:04:37 #521 №1972322 
>>1972241
Глобалисты тебе этого не позволят. Стоит задача уничтожения нормальных белых мужчин.
Аноним 20/03/21 Суб 17:09:37 #522 №1972386 
>>1972233
> 2021, ганы забыты? Сейчас в моде few-shot meta-learning какой-нибудь?
Это вообще разные направления машоба. Иди уже уроки делай, а...
Аноним 20/03/21 Суб 17:13:24 #523 №1972388 
где брать датасеты?
Аноним 20/03/21 Суб 17:18:09 #524 №1972392 
>>1972388
Huggingface datasets
Аноним 20/03/21 Суб 17:34:03 #525 №1972401 
>>1972386
Для одних данных у нас есть один способ построить генеративную модель, для других - принципиально другой. Нет, они никак не скрещиваются, не обобщаются. Ну чо, охуеть, хорошо поработали учёные в говне мочёные.
Аноним 20/03/21 Суб 19:51:27 #526 №1972494 
bitterlesson.png
А тем временем самому Саттону и разного рода горьким петухам и прочим свидетелям "хурр дурр стекморлейерс" подхода наложили полную панаму залуп. Оказывается ну никогда ж такого не было, а тут опять! что умный подход к трансформерам позволяет даже на моделях с сотнями миллионов параметров получать результаты лучше чем на 175млрд-ной гпт3.
Аноним 20/03/21 Суб 20:21:20 #527 №1972519 
>>1972494
>умный подход
Слишком сложно для дотасаенса.
Аноним 20/03/21 Суб 20:22:46 #528 №1972520 
>>1972494
Билион это сколько?
Аноним 20/03/21 Суб 20:27:22 #529 №1972523 
>>1972520
Млрд.
Аноним 20/03/21 Суб 20:44:58 #530 №1972539 
>>1972494
>жопеншмульцер надрочил модель под определенный датасет
>ееее дали пасасать
Аноним 20/03/21 Суб 20:59:03 #531 №1972553 
>>1972539
>жопеншмульцер надрочил модель под определенный датасет
Там не столько датасет, сколько общий подход формулировки задачи few-shot learning'а. Датасет стандартный , для сравнения.
Аноним 20/03/21 Суб 21:12:54 #532 №1972568 
images.png
>>1972401
>ганы
>few-shot meta-learning
>Для одних данных у нас есть один способ построить генеративную модель, для других - принципиально другой.
>Ну чо, охуеть, хорошо поработали учёные в говне мочёные.
Аноним 20/03/21 Суб 21:30:50 #533 №1972585 
Расскажите шизику, что в resnet-50 меньше параметров чем в vgg-19 - он две недели будет радоваться, что биттер лессон не работает.
Ну, так на хабре сказали, там где он биттер лессон и прочитал.
Аноним 21/03/21 Вск 02:48:42 #534 №1972803 
>>1968140
А есть такое же, но уровнем повыше?
Аноним 21/03/21 Вск 11:27:50 #535 №1972921 
Как в гугл коллаб сейчас получить доступ к файлам на гугл драйве?
Раньше в папке content была папка drive, откуда можно получить получит доступ к файлам на гугл драйве, но щас смотрю и этой папки нет. Что за хрень?
Аноним 21/03/21 Вск 11:59:15 #536 №1972947 
>>1972921
Подключись сначала к своему диску.
>раньше
Года два не заходил?
Аноним 21/03/21 Вск 13:03:32 #537 №1972999 
>>1972947
да буквально в декабре подключился так и норм всё было.
Ща уже разобрался
Аноним 21/03/21 Вск 13:04:15 #538 №1973000 
>>1968140
Посмотрел две части этой хуйни. Как она стала сеньором? Она же просто фактические ошибки выдает, да и объяснения как будто в курсах от гикбрейнса.
Сегодня вечером займусь хейт-вотчингом.
p.s. у модуля нет производной, поэтому его трудно обучать, а вот L2-регуляризация выпуклая и гладкая, поэтому её можно обучать градиентным спуском
p.p.s. рассказала про train-test-split, даже не упомянула валидацию
Аноним 21/03/21 Вск 13:22:37 #539 №1973022 
>>1973000
> Как она стала сеньором?
Сам-то как думаешь?
> Она же просто фактические ошибки выдает, да и объяснения как будто в курсах от гикбрейнса.
Будто ей нужно что-то кроме знания стандартного набора баззвордов.
Аноним 21/03/21 Вск 13:33:15 #540 №1973032 
>>1973022
А есть инфа, откуда она? Судя по темам, откуда-то из кредитного скоринга и прочего банкинга. Да и в как раз каком-нибудь сбере каждый второй - сеньор.
Аноним 21/03/21 Вск 13:52:47 #541 №1973052 
>>1973022
> Сам-то как думаешь?
Сексист что ли?
Аноним 21/03/21 Вск 13:54:22 #542 №1973053 
>>1973052
Сейчас бы в 2021 отрицать pussypass
Аноним 21/03/21 Вск 14:10:33 #543 №1973075 
Вечер в тредик, нейросети, остальным соболезную. Хочу переехать сюда из бэ, я не ожидал что тред доживет до 3 перекотов, конфу пилить - зло.
Вот тред
https://2ch.hk/b/res/242795738.html
Шапка говно, знаю, так что в кратце.
Помните в январе новости что опенхуи создали на основе гпт3 нейронку которая генерирует пик по 1 фразе. Так вот, я её нашел и доработал до уровня можно использовать.

Стоит ли или погоните ссанными тряпками? Или стоит создать отдельный тред?
Аноним 21/03/21 Вск 14:12:51 #544 №1973079 
plus.png
швоас.png
index.png
>>1973075
Алсо сразу примеры. Стимпанковская m14a4 и гигантский красный мяч.
Аноним 21/03/21 Вск 15:09:40 #545 №1973139 
>>1973075
Что ты там именно поменял? Алсо, вот же есть https://github.com/lucidrains/DALLE-pytorch хм, интересно, не думал, что так быстро выложат что-то подобное. Но в любом случае, это не гпт3, так что думаю будет там ехать кринж через кринж и кринжем погонять...
Аноним 21/03/21 Вск 15:21:08 #546 №1973151 
111587008-04308700-8798-11eb-96c9-7df4aeb8b80d.png
Едрить там крипота, крипотайд. Пикрелейтед - "a hedgehog made of violins. A hedgehog with the texture of violin". Как будто Пикассо наебенился паленой боярой и пошел творить...
Аноним 21/03/21 Вск 15:30:04 #547 №1973158 
>>1973151
Сейчас фикшу. 2 минуты и делай заново.
>>1973139
Поменял код в колабе который запускает нейронку.
Аноним 21/03/21 Вск 15:38:49 #548 №1973162 
>>1973158
Обновил.
Аноним 21/03/21 Вск 15:58:28 #549 №1973179 
изображение.png
Бля, а где почитать про то, что значит подписи у синтаксических связей в spacy? В особенности для русского языка я правильно понимаю, что для русского и английского разные метки получаются?
Аноним 21/03/21 Вск 16:36:10 #550 №1973230 
>>1973053
Я бы её по'pussypass'ал!
Аноним 21/03/21 Вск 16:47:04 #551 №1973256 
Сколько нужно подать картинок в GAN, чтобы оно выдавало что-то внятное?
Аноним 21/03/21 Вск 17:27:41 #552 №1973284 
1441649235537.jpg
Есть ли нейронка, которая подбирает дифференциальные уравнения к циклическим процессам?
Аноним 21/03/21 Вск 19:23:12 #553 №1973451 
>>1973075
Ещё допилил гифочки генерирующихся картинок.
Аноним 22/03/21 Пнд 04:07:11 #554 №1973843 
15428112768441s.jpg
>>1973451
>генерирующихся картинок
Напоминает твопчество Ромы микроцефала.
Аноним 22/03/21 Пнд 04:34:35 #555 №1973854 
>>1973843
Потому что эта технология еле дышит даже с использованием гпт3. А то, что у них на пайторчах реализовано, вроде вообще реформер (во всяком случае, там ссылка на пейпер про реформер). Разумеется, качество там будет уровня "говно из жопы". Вот когда гпт4 / что-то такого уровня к далле прикрутят, тогда все охуеют. Собственно, оно и с гпт3 вполне даже ничего, судя по примерам в пейпере, даже если это черрипикинг.
Аноним 22/03/21 Пнд 04:50:20 #556 №1973855 
16157856620220.jpg
Я, кстати, ещё в 2015 хотел нейроночную визуализацию / "экранизацию" blood electric Сиратори, когда только появились эти Гугл дипдримы с собачками. Теперь уже точно почти есть такая технология.
Аноним 22/03/21 Пнд 07:57:30 #557 №1973911 
output (2).gif
>>1973843
Интересная хуйня проскакивает, вот a epic sphere. Как минимум в простейшую геометрию и зачатки попытки в стиль она может.
Аноним 22/03/21 Пнд 14:26:20 #558 №1974153 
>>1973911
> Как минимум в простейшую геометрию и зачатки попытки в стиль она может.
Где ты там геометрию и стиль увидел?
Аноним 22/03/21 Пнд 14:53:10 #559 №1974189 
>>1974153
Эпичность и сфера же. Что просил то и получил.
Аноним 22/03/21 Пнд 16:48:16 #560 №1974333 
пишу, чтобы запинить тред, тк перекатывальщик уебан не проставил тег(походу)
спасибо за внимание
Аноним 22/03/21 Пнд 22:50:34 #561 №1974775 
антуаны, пилю сейчас трекинг людей
делаю часть с детекцией
какую сеть лучше подобрать для риал тайма? слышал про yolov4
норм?
Аноним 22/03/21 Пнд 23:05:01 #562 №1974785 
>>1974775
норм
Аноним 22/03/21 Пнд 23:43:52 #563 №1974810 
Зачем я нужен, если любого Васяна можно в кратчайшие сроки научить трясти ящик?
Аноним 22/03/21 Пнд 23:46:04 #564 №1974811 
>>1974810
>Зачем я нужен, если любого Васяна можно в кратчайшие сроки научить трясти ящик?
Васян натрясет 70% точности, ты 90%, а какой-нибудь рнд в фаанге натрясет 99%.
Аноним 23/03/21 Втр 00:34:14 #565 №1974840 
1.png
14.png
Анон, помоги, пожалуйста.
Это нормально для 14й эпохи по сравнению с первой?
Или GAN творит херню склоняюсь к этому?
Аноним 23/03/21 Втр 05:00:37 #566 №1974897 
>>1949804
Йоло второй версии норм работает от 1000, это буквально пол дня. Поздние версии не пробовал, но не думаю что там по другому.
Аноним 23/03/21 Втр 05:19:46 #567 №1974902 
>>1956894
Подразумевая, что метки генерированные имеют больший коэффициент ошибок, то только если не хватает данных для предотвращения переобучения. А потом файнюнить на реальных метках
Аноним 23/03/21 Втр 05:31:28 #568 №1974907 
>>1974775
норм
Аноним 23/03/21 Втр 05:39:05 #569 №1974909 
>>1974840
Ты бы подписал где инпут аутпут таргет и что это вообще такое.
Аноним 23/03/21 Втр 10:35:12 #570 №1975001 
>>1974840
Проверял на (фешн-)мнисте свой код?
>>1974909
Очевидно, это аутпут генератора на 1ой эпохе и на 14ой.
Аноним 23/03/21 Втр 15:16:02 #571 №1975259 
>>1975001
ну тогда очевидно, что нормально (если у него цель - генерация фиолетовых хуёвин)
Аноним 23/03/21 Втр 17:53:05 #572 №1975387 
>>1975001
>Проверял на (фешн-)мнисте свой код?
Нет, мы ж не ищем лёгких путей: сразу хуячим картинки 224x224 в модифицированную реснет-модель с самописным генератором.
Теперь надо либо долго разбираться, где я ошибся, либо искать того, кто поможет.
Но, учитывая, что итт в основном жопеншмульцера обсуждают, найти тут кого-то такого будет тяжеловато.
Аноним 23/03/21 Втр 20:53:03 #573 №1975554 
1.png
Без названия.png
Я так пынямаю, чем дольше рисует, тем лучше результат? 40 минут медитирую над пикрелейтед, лол. Шидевор нихонской гравюры, "samurai fighting with ninja" Вроде детализация только улучшается? продолжаю наблюдение.
Аноним 23/03/21 Втр 21:09:54 #574 №1975568 
Без названия (1).png
Час ровно. Вроде детализация получше
Аноним 23/03/21 Втр 23:24:14 #575 №1975684 
16116833822400.png
>>1975387
Ну что, кто-нибудь снизойдёт помочь?
Или как обычно?
Аноним 24/03/21 Срд 07:43:34 #576 №1975830 
>>1975684
Проверь на мнисте, можешь даже с обычными денс-денс-денс генератором и дискриминатором.
Аноним 24/03/21 Срд 09:46:57 #577 №1975877 
>>1974811
Но ведь и 70% для антифрода в занюханном микрокредите тоже норм. Просто чуть больше неизбежной ручной работы проверяющему человеку
Аноним 24/03/21 Срд 14:16:39 #578 №1976135 
>>1947549 (OP)
А кто чем занимается на работе? Интересуют практические задачи, которые решаются сейчас датасаенсом.
Аноним 24/03/21 Срд 16:34:46 #579 №1976383 
Ну что, горькие петушилы, сколько еще нужно stack more humans, чтобы Tesla научилась наконец распознавать грузовики?

https://youtu.be/IrVikr2uNfE
Аноним 24/03/21 Срд 17:02:40 #580 №1976434 
>>1976383
>Detroit police: Driver was in control of Tesla when it crashed into semi truck
Ты хотя бы название прочитал.
Когда таким дебикам как ты запретят водить, тогда и аварий не будет.
Аноним 24/03/21 Срд 22:23:44 #581 №1976700 
>>1975830
Фейкопочту оставишь?
Аноним 26/03/21 Птн 00:06:43 #582 №1977650 
Бля, хочу заюзать гугл сервис для извлечения сущностей https://language.googleapis.com/v1/documents:analyzeEntities?. Создал тут https://console.cloud.google.com/apis/credentials API key, делаю POST запрос по ссылке https://language.googleapis.com/v1/documents:analyzeEntities?key=''мой ключ" и в итоге получаю ошибку 403. Что я делаю не так, аноны?
Аноним 26/03/21 Птн 00:34:57 #583 №1977677 
>>1977650
Разобрался. Оказывается нужно было продать душу гуглу и только тогда он даст активировать нлпшную библиотеку
Аноним 26/03/21 Птн 07:05:53 #584 №1977802 
>>1977677
> Оказывается нужно было продать душу гуглу
Корпорация Добра, хуле!
Аноним 26/03/21 Птн 12:43:56 #585 №1977996 
Яплакал.png
Аноним 26/03/21 Птн 15:35:06 #586 №1978096 
Untitled.png
>>1977996
>востребована
Аноним 26/03/21 Птн 18:21:23 #587 №1978307 
>>1977996
>Алгоритмы машинного обучения стремительно развиваются, а значит, спрос на специалистов по Data Science тоже постоянно растёт.
Совершенно необоснованная импликация. Типикал дотасаенс.
Аноним 27/03/21 Суб 00:25:53 #588 №1978640 
Добрый вечер всем. Какая область или области машоба/диплернинга считаются наиболее сложными с математической точки зрения? Интересует в первую очередь из того, что реально работает и немало где применяется(т.к. понятное дело что можно придумать что-то очень сложное теоретически и очень круто работающее и даже написать статью, но не факт что оно на практике будет работать так же хорошо). Слышал что байесовские нейронки являются чем-то сложным, так ли это? Есть ли что-то сложнее, или примерно на том же уровне?
Аноним 27/03/21 Суб 08:57:52 #589 №1978701 
>>1978640
>Какая область или области машоба/диплернинга считаются наиболее сложными с математической точки зрения?
1. Топологический анализ данных. Там математические антоны даже гомологии вычисляют.
2. Квантовое машинное обучение. Ну это так, не то чтобы сложно, просто айтишников пугает слово «квантовый». Ну и да, математика там немного сложнее.
> Интересует в первую очередь из того, что реально работает и немало где применяется
1. Ещё пока не применяется. Наверное.
2. Уже применяется техногигантами для решения огромных задач.

Ну это так, то, что первое пришло в голову, я долго не думал.
Аноним 27/03/21 Суб 08:58:55 #590 №1978702 
>>1978640
> . Какая область или области машоба/диплернинга считаются наиболее сложными с математической точки зрения?
Никакая. Там все одинаково и со времён середины прошлого века именно в матчасти не поменялось ничего, даже самые современные трансформеры это на 95% перемножения матриц, остальное всякие нормирования и градиенты, то есть все как Жопеншмульцер в 1960 завещал.
Аноним 27/03/21 Суб 09:07:58 #591 №1978706 
>>1978701
> Квантовое машинное обучение. Ну это так, не то чтобы сложно, просто айтишников пугает слово «квантовый». Ну и да, математика там немного сложнее.
Самое смешное, что квантовая логика это в точности нечеткая логика, для которой матчасть разработана давным-давно, я на этот счёт даже пейпер приносил. Так что вкатывайтесь в нечеткую логику, любой квантовый вычислитель это литералли fuzzy inference system.
Аноним 27/03/21 Суб 10:59:44 #592 №1978824 
>>1978706
Может fuzzy logic еа классических компьютерах дать больший прирост производительности, чем точные алгоритмы?
Аноним 27/03/21 Суб 11:37:13 #593 №1978842 
>>1978824
Не корми шиза
Аноним 27/03/21 Суб 11:56:20 #594 №1978857 
>>1978842
Нет, про то, что QC это эквивалент нечетким и вероятносным системам, он верно сказал.
Аноним 27/03/21 Суб 18:25:23 #595 №1979068 
>>1978824
Нет. Нечеткая логика это не про производительность, а про то, что вся неточность не сводится к вероятности. Даст ли оно что-то по сравнению с нейроночками итд толком неясно, никто не пробовал нечёткие модели стакать сотнями слоёв, хотя общий принцип такого известен.
Аноним 27/03/21 Суб 19:08:04 #596 №1979084 
>>1978706
>квантовая логика это в точности нечеткая логика
Хуйня без задач же, не математика.
>Так что вкатывайтесь в нечеткую логику
Хуйня без задач же, за один вечер можно освоить.
>любой квантовый вычислитель это литералли fuzzy inference system
Я могу так же сказать, что любой квантовый вычислитель это литералли машина Тьюринга с прикрученным на выходе генератором случайных чисел.
>> Квантовое машинное обучение
А вообще, вот для таких вот вещей есть нормальный матаппарат, например, теория лиевых групп и функан, которые реально позволяют развивать теорию, а не просто "понять" уже разработанное, в отличие от говна по типу бесполезных квантовых, нечетких и прочих говнологик.
С помощью такой хуйни без задач ничего нового в теории разработать нельзя, потому что это совершенно интеллектуально неглубокие хреновины. Математики такую хуйню математикой в принципе не считают.
>Так что вкатывайтесь в нечеткую логику
Так что вкатывайтесь в нормальную математику.
Аноним 28/03/21 Вск 02:17:39 #597 №1979312 
>>1979084
> Я могу так же сказать, что любой квантовый вычислитель это литералли машина Тьюринга с прикрученным на выходе генератором случайных чисел.
Тупостью троллишь? Любой в принципе возможный вычислитель это машина Тьюринга, так как универсальная машина Тьюринга моделирует само понятие вычислимости.
> С помощью такой хуйни без задач ничего нового в теории разработать нельзя, потому что это совершенно интеллектуально неглубокие хреновины. Математики такую хуйню математикой в принципе не считают.
Ну разработай "интеллектуально глубокий" машоб с гамалогиями. В итоге насосешься биттерлессона.
Аноним 28/03/21 Вск 02:23:34 #598 №1979315 
>>1979084
> А вообще, вот для таких вот вещей есть нормальный матаппарат, например, теория лиевых групп и функан, которые реально позволяют развивать теорию, а не просто "понять" уже разработанное,
Добавлю, что в итоге все равно получится машина Тьюринга, как ты и написал выше. А если нет разницы, зачем в машобе матаппарат сложнее линейной алгебры?
Аноним 28/03/21 Вск 12:15:24 #599 №1979391 
Кто перекатывать будет, а мудилы?
Или вы думаете, что родится AI и за вас перекатит все?
Аноним 28/03/21 Вск 13:48:17 #600 №1979449 
>>1979391
Перекати сам.
Аноним 28/03/21 Вск 15:58:07 #601 №1979571 
>>1979449
КТО? Я?
Аноним 28/03/21 Вск 16:36:36 #602 №1979618 
>>1979312
>насосешься биттерлессона
Макакинг никак разработку теории не отменяет, это параллельные вещи.
Аноним 28/03/21 Вск 16:52:35 #603 №1979643 
>>1979618
>bitterlesson
>никак разработку теории не отменяет
Аноним 28/03/21 Вск 16:53:41 #604 №1979645 
>>1979618
> Макакинг никак разработку теории не отменяет, это параллельные вещи.
За все время существования этой предметной области, единственный серьезный теоретический подход к машобчику это теория статистического обучения Вапника. Но там нет никаких гамалогий, они там не нужны.
Аноним 28/03/21 Вск 17:51:14 #605 №1979708 
>>1979618
> Макакинг никак разработку теории не отменяет, это параллельные вещи.
Ты походу не очень понял, о чем там. Саттон приводит в пример случай, когда суперкомпьютер обыграл Каспарова. Без всяких сложных теорий, гамалогий итд, простым по-сути брутфорсом. То есть, можно анализировать шахматы, выстраивать сложные теории, а можно просто использовать брутфорс да накидать побольше вычислительных мощностей. И последний вариант работает лучше первого. Каспарова обьебали ещё в 1997, а каких-то умных идей, как это сделать по науке, так и не поступало.
Аноним 28/03/21 Вск 18:50:56 #606 №1979795 
n9fgba8b0qr01.png
>>1979643
>>1979708
А кто-нибудь может объяснить, нахрена люди создают новые архитектуры, если можно просто stack more layers?
Аноним 28/03/21 Вск 19:18:47 #607 №1979826 
>>1979708
>Без всяких сложных теорий, гамалогий итд, простым по-сути брутфорсом.
Потому что проблема шахмат это комбинаторика позиционной игры обычной. Странно ожидать что там может быть какая-то естественная теория.
> можно анализировать шахматы, выстраивать сложные теории, а можно
заниматься макакингом. В том смысле слова "можно" что одно не заменяет другое, тут разные целеполагания. То есть когда макака с битерлессоном наперевес грозиться заменить учёных макаками, это не учёные не понимают битерлессона, а макака не понимает сути научного знания.
Аноним 28/03/21 Вск 20:01:39 #608 №1979867 
>>1979826
Джвачую.
Аноним 28/03/21 Вск 23:10:10 #609 №1980102 
SnakeLemmaChase.jpg
>>1979795
> А кто-нибудь может объяснить, нахрена люди создают новые архитектуры, если можно просто stack more layers?
Новые архитектуры менее ресурсоемкие. Ещё Лекун говорил, что все что может сверточная сеть, теоретически может и простой перцептрон, вот только он должен быть огромных размеров и жрать в разы больше.
>>1979826
> Потому что проблема шахмат это комбинаторика позиционной игры обычной.
Гамалогии твои - та же комбинаторика, ещё и попроще шахмат. Diagram chasing, основной способ доказательства в гамалогиях, как пример. Дергаешь такой коммутативные диаграммы и веруешь, что не макака...
Аноним 29/03/21 Пнд 00:55:40 #610 №1980207 
>>1980102
>Гамалогии твои - та же комбинаторика, ещё и попроще шахмат.
Так гамалогии это инструмент, а не самоцель. К тому же, для их подсчёта вполне классические алгоритмы работают, там машоб вообще не нужен.
Аноним 29/03/21 Пнд 01:21:34 #611 №1980213 
>>1980207
Ну представь, что шахматная партия это коммутативная диаграмма. Фигуры - объекты, ходы - морфизмы. Цель - доказать, что для какой-то из фигур возможен морфизм между ней и вражеским королем, ставящий ему мат. По науке ты такой результат доказывать охуеешь. А тут накидали побольше параметров и брутфорсом доказали. Вот и битерлесон зарешал
Аноним 29/03/21 Пнд 05:24:06 #612 №1980235 
>>1980213
> По науке ты такой результат доказывать охуеешь.
Нет, не ахуеешь. Учитывая простоту шахмат, с математической (научной точки зрения) решение задачи шахмат сводится к перебору всех вариантов ходов, и нахождение такой последовательности действий, которая удовлетворяла бы constraints. То есть задача прекрасно укладывается в программу-теорему на прологе.
Аноним 29/03/21 Пнд 12:59:32 #613 №1980363 
>>1979645
>теория статистического обучения Вапника
Какие там есть фундаментальные достижения?
Аноним 29/03/21 Пнд 13:10:55 #614 №1980369 
>>1980363
Обоснование метода минимизации эмпирического риска, например.
Аноним 29/03/21 Пнд 14:36:38 #615 №1980471 
>>1980213
>Фигуры - объекты, ходы - морфизмы. Цель - доказать, что для какой-то из фигур возможен морфизм между ней и вражеским королем, ставящий ему мат.
1) Это бессмыслица
2) Что угодно можно засунуть в теорию категорий. От этого оно не превращается в математику.
Аноним 29/03/21 Пнд 14:55:34 #616 №1980487 
>>1980471
Этот шарит.
Аноним 29/03/21 Пнд 18:05:45 #617 №1980646 
16097365623120.mp4
>>1980471
> ррреее, ваши гамалогии не гамалогии, ваша математика не математика
Какой же ты клован, хоспаде...
Аноним 29/03/21 Пнд 18:39:11 #618 №1980680 
image.png
>>1980646
>pic
ЕЕЕЕ МАТЕМАТЕКА
Аноним 29/03/21 Пнд 21:36:22 #619 №1980839 
>>1980646
Лучше бы отложил свой макакинг чёрного ящика уже и пошёл нормальную математику учить.
Аноним 29/03/21 Пнд 23:11:26 #620 №1980947 
Перекат:

https://2ch.hk/pr/res/1980946.html
https://2ch.hk/pr/res/1980946.html
https://2ch.hk/pr/res/1980946.html
https://2ch.hk/pr/res/1980946.html
https://2ch.hk/pr/res/1980946.html
Аноним 30/03/21 Втр 01:39:38 #621 №1981027 
>>1951808
вас ис дас "одс"?
мимо-вкатун
comments powered by Disqus

Отзывы и предложения