24 декабря 2023 г. Архивач восстановлен после серьёзной аварии. К сожалению, значительная часть сохранённых изображений и видео была потеряна. Подробности случившегося. Мы призываем всех неравнодушных помочь нам с восстановлением утраченного контента!
Сортировка: за
Сохранен
21
26 июня 2023
Сохранен
158
6 февраля 2023
Сохранен
505
26 марта 2023
Сохранен
511
30 ноября 2022
Сохранен
575
27 ноября 2022
Сохранен
504
DALL-E | ImageFX ТРЕД Бесплатные нейросети, генерирующие картинки по описанию. Как вкатиться: регае — DALL-E | ImageFX ТРЕД Бесплатные нейросети, генерирующие картинки по описанию. Как вкатиться: регаешь аккаунт и генеришь через VPN. DALL-E: https://www.bing.com/images/create ImageFX: https://aitestkitchen.withgoogle.com/tools/image-fx (VPN USA. После входа в аккаунт, VPN можно офать и генерировать с нормальной скоростью) Гайды: https://rentry.org/2ch-dall-e - неактуальный гайд для DALL-E на русском https://pastebin.com/qDRXFfBM - форчан-гайд с коллекцией эпитетов для любого стиля (ENG) Временные почты для новых акков: https://10minutemail.com https://fex.plus/ Удобные и бесплатные VPN-ы https://browsec.com/en/ https://github.com/anticensority/runet-censorship-bypass - через PAC-cкрипты https://apps.microsoft.com/detail/9p15s8pwmq8c - Planet VPN Дополнительные сервисы: https://www.pixited.com/ - библиотека промптов для DALL-E с примерами https://huggingface.co/spaces/fffiloni/CLIP-Interrogator-2 - де-промптер, разбирающий вброшенный пик на теги https://instafonts.io/font-changer - кастомный шрифт для обхода фильтра слов Архивы треда: https://arhivach.xyz/?tags=14319 Прошлый тонет здесь: https://2ch.hk/b/res/310712896.html#310753512
27 сентября 2024
Сохранен
523
29 марта 2023
Сохранен
515
23 декабря 2022
Сохранен
528
7 декабря 2022
Сохранен
529
2 декабря 2022
Сохранен
510
19 октября 2022
Сохранен
441
9 октября 2021
Сохранен
137
6 июня 2020
Сохранен
285
16 августа 2024
Сохранен
97
Главный прорыв десятилетия! — Пару дней назад учёные из MIT представили революционную архитектуру глубокого обучения KAN, которая произвела фурор среди исследователей, став настоящей сенсацией. Говорят, что возможно это самый грандиозный прорыв в ИИ за последние 50 лет. Многие его окрестили, как Deep Learning 2.0 В основе всех архитектур, к которым мы привыкли, лежит многослойный перцептрон (MLP). У него есть веса и нейроны, в которых расположены функции активации. Этой парадигмой ученые пользуются с 1957 года, когда ее предложил Фрэнк Розенблатт. А что, если мы переместим функции активации на веса и сделаем из обучаемыми? Звучит как бред, но yes, we KAN. KAN (Kolmogorov-Arnold Networks) - новая парадигма, в которой исследователи реализовали перемещение активаций на «ребра» сети. Кажется, что решение взято из ниоткуда, но на самом деле тут зашита глубокая связь с математикой: в частности, с теоремами универсальной аппроксимации и аппроксимации Колмогорова-Арнольда. KAN работает намного точнее, чем MLP гораздо большего размера, и к тому же лучше интерпретируется. Авторы KAN доказали, что ему требуется во много раз меньше нейронов, чтобы достичь точности MLP. Также KAN гораздо лучше генерализует данные и лучше справляется с аппроксимацией сложных математических функций (мы увидели это на примерах), у него, можно сказать, "технический склад ума". В статье исследователи также показали, как KAN помогает решать дифференциальные уравнения и (пере)открывает законы физики и математики. Единственный минус: из-за обучаемых активаций тренится все это дело в разы дольше, чем MLP. Но это не точно, так как исследователи пока даже не пытались провести оптимизацию скорости обучения. Возможно сегодня мы наблюдаем рождение Deep Learning 2.0. Ведь такой подход меняет вообще все, от LSTM до трансформеров. Эпоха AGI теперь становится куда ближе. Тут подробнее простыми словами: https://datasecrets.ru/articles/9 Ссылка на препринт: https://arxiv.org/abs/2404.19756 Код тут: https://github.com/KindXiaoming/pykan
17 января 22:52
Сохранен
123
17 ноября 2023
Сохранен
503
12 марта 2023
Сохранен
517
17 декабря 2022
Сохранен
649
14 декабря 2022
Сохранен
555
8 октября 2022
Сохранен
507
7 октября 2022
Сохранен
514
1 декабря 2022
Сохранен
503
23 ноября 2022
Сохранен
515
5 октября 2022
Сохранен
7
12 июня 2021