Прошлые домены не функционирует! Используйте адрес ARHIVACH.VC.
24 декабря 2023 г. Архивач восстановлен после серьёзной аварии. К сожалению, значительная часть сохранённых изображений и видео была потеряна. Подробности случившегося. Мы призываем всех неравнодушных помочь нам с восстановлением утраченного контента!
Сортировка: за
Сохранен
503
DALL-E | ImageFX ТРЕД Бесплатные нейросети, генерирующие картинки по описанию. Как вкатиться: регае — DALL-E | ImageFX ТРЕД Бесплатные нейросети, генерирующие картинки по описанию. Как вкатиться: регаешь аккаунт и генеришь через VPN. DALL-E: https://www.bing.com/images/create ImageFX: https://aitestkitchen.withgoogle.com/tools/image-fx (VPN USA. После входа в аккаунт, VPN можно офать и генерировать с нормальной скоростью) Гайды: https://rentry.org/2ch-dall-e - неактуальный гайд для DALL-E на русском https://pastebin.com/qDRXFfBM - форчан-гайд с коллекцией эпитетов для любого стиля (ENG) Временные почты для новых акков: https://10minutemail.com https://fex.plus/ Удобные и бесплатные VPN-ы https://browsec.com/en/ https://github.com/anticensority/runet-censorship-bypass - через PAC-cкрипты https://apps.microsoft.com/detail/9p15s8pwmq8c - Planet VPN Дополнительные сервисы: https://www.pixited.com/ - библиотека промптов для DALL-E с примерами https://huggingface.co/spaces/fffiloni/CLIP-Interrogator-2 - де-промптер, разбирающий вброшенный пик на теги https://instafonts.io/font-changer - кастомный шрифт для обхода фильтра слов Архивы треда: https://arhivach.xyz/?tags=14319 Прошлый тонет здесь: https://2ch.hk/b/res/310620162.html
22 сентября 2024
Сохранен
503
21 сентября 2024
Сохранен
503
28 марта 2024
Сохранен
503
3 октября 2023
Сохранен
503
14 апреля 2023
Сохранен
503
7 апреля 2023
Сохранен
503
7 апреля 2023
Сохранен
503
30 марта 2023
Сохранен
503
12 марта 2023
Сохранен
502
14 октября 2023
Сохранен
502
6 апреля 2023
Сохранен
502
Исследования ИИ тред #1 /research/ — Исследования ИИ тред #1Обсуждаем развитие искусственного интеллекта с более технической стороны, чем обычно. Я ничего не понимаю, что делать?Без петросянства: смотри программу стэнфорда CS229, CS231n https://see.stanford.edu/Course/CS229 (классика) и http://cs231n.stanford.edu/ (введение в нейроночки) и изучай, если не понятно - смотри курсы prerequisites и изучай их. Как именно ты изучишь конкретные пункты, типа линейной алгебры - дело твое, есть книги, курсы, видосики, ссылки смотри ниже. Где узнать последние новости?https://www.reddit.com/r/MachineLearning/http://www.datatau.com/https://twitter.com/ylecun На реддите также есть хороший FAQ для вкатывающихся Какая математика используется?В основном линейная алгебра, теорвер, матстат, базовый матан и matrix calculus Как работает градиентный спуск?https://cs231n.github.io/optimization-2/ Почему python?Исторически сложилось. Поэтому давай, иди и перечитывай Dive into Python Можно не python?Никого не волнует, где именно ты натренируешь свою гениальную модель. Но при серьезной работе придется изучать то, что выкладывают другие, а это будет, скорее всего, python, если работа последних лет Что почитать для вкатывания?http://www.deeplearningbook.org/Николенко "Глубокое обучение" — на русском, есть примеры, но меньше охват материалаФрансуа Шолле — Глубокое обучение на Pythonhttps://d2l.ai/index.htmlВсе книги и статьи фактически устаревают за год. В чем практиковаться нубу?http://deeplearning.stanford.edu/tutorial/https://www.hackerrank.com/domains/aihttps://github.com/pytorch/exampleshttps://github.com/ChristosChristofidis/awesome-deep-learning#tutorials Где набрать первый самостоятельный опыт? https://www.kaggle.com/ | http://mltrainings.ru/ Стоит отметить, что спортивный deep learning отличается от работы примерно так же, как олимпиадное программирование от настоящего. За полпроцента точности в бизнесе борятся редко, а в случае проблем нанимают больше макак для разметки датасетов. На кагле ты будешь вилкой чистить свой датасет, чтобы на 0,1% обогнать конкурента. Где работать? https://www.indeed.com/q-deep-learning-jobs.html Вкатывальщики могут устроиться программистами и дальше попроситься в ML-отдел Есть ли фриланс в машобе? Есть, https://www.upwork.com/search/jobs/?q=machine+learning Но прожить только фриланся сложно, разве что постоянного клиента найти, а для этого нужно не быть тобой Где посмотреть последние статьи? http://www.arxiv-sanity.com/ https://paperswithcode.com/ https://openreview.net/ Версии для зумеров (Килхер): https://www.youtube.com/channel/UCZHmQk67mSJgfCCTn7xBfew Количество статей зашкваливающее, поэтому все читают только свою узкую тему и хайповые статьи, упоминаемые в блогах, твиттере, ютубе и телеграме, топы NIPS и прочий хайп. Есть блоги, где кратко пересказывают статьи, даже на русском Где посмотреть must read статьи? https://github.com/ChristosChristofidis/awesome-deep-learning#papers https://huggingface.co/transformers/index.html То, что обозревает Килхер тоже зачастую must read Где ещё можно поговорить про анализ данных? http://ods.ai/ Нужно ли покупать видеокарту/дорогой пека? Если хочешь просто пощупать нейроночки или сделать курсовую, то можно обойтись облаком. Google Colab дает бесплатно аналог GPU среднего ценового уровня на несколько часов с возможностью продления, при чем этот "средний уровень" постоянно растет. Некоторым достается даже V100. Иначе выгоднее вложиться в GPU https://timdettmers.com/2019/04/03/which-gpu-for-deep-learning/ Заодно в майнкрафт на топовых настройках погоняешь Когда уже изобретут AI и он нас всех поработит? На текущем железе — никогда, тред не об этом Кто-нибудь использовал машоб для трейдинга? Огромное количество ордеров как в крипте так и на фонде выставляются ботами: оценщиками-игральщиками, перекупщиками, срезальщиками, арбитражниками. Часть из них оснащена тем или иным ML. Даже на швабре есть пара статей об угадывании цены. Тащем-то пруф оф ворк для фонды показывали ещё 15 лет назад. Так-что бери Tensorflow + Reinforcement Learning и иди делать очередного бота: не забудь про стоп-лоссы и прочий риск-менеджмент, братишка Список дедовских книг для серьёзных людей: Trevor Hastie et al. "The Elements of Statistical Learning" Vladimir N. Vapnik "The Nature of Statistical Learning Theory" Christopher M. Bishop "Pattern Recognition and Machine Learning" Взять можно тут: https://www.libgen.is/ Напоминание ньюфагам: немодифицированные персептроны и прочий мусор середины прошлого века действительно не работают на серьёзных задачах. Disclaimer: Шапка сгенерирована нейросетью и нуждается в чистке.
18 февраля 2024
Сохранен
502
25 марта 2023
Сохранен
502
25 декабря 2022
Сохранен
502
22 декабря 2022
Сохранен
502
21 декабря 2022
Сохранен
502
3 декабря 2022
Сохранен
502
11 ноября 2022
Сохранен
502
3 ноября 2022
Сохранен
502
23 октября 2022
Сохранен
502
25 сентября 2022
Сохранен
502
25 августа 2022
Сохранен
502
22 августа 2022
Сохранен
502
4 ноября 2021
Сохранен
502
29 июня 2019