24 декабря 2023 г. Архивач восстановлен после серьёзной аварии. К сожалению, значительная часть сохранённых изображений и видео была потеряна. Подробности случившегося. Мы призываем всех неравнодушных помочь нам с восстановлением утраченного контента!
Сортировка: за
Сохранен
18
29 сентября 2023
Сохранен
202
PygmalionAI тред №8 /pai/ — PygmalionAI тред №8 https://huggingface.co/PygmalionAI PygmalionAI - открытая модель, которая основана на GPT-J и дотренирована в основном с дампов из истории чатов в CharacterAI. Сделана анонами из 4chan, которые сидели в разделе /vt, а затем перешли в /g. Dev от обычной отличается тем, что активно разивается и допиливается, внедряя некоторые особенности. Главным минусом является то, что многие открытые модели использует в основе токенайзер от GPT-2, контекст которого ограничен в 2048 токенов. Другие модели, как GPT-3 и GPT-4, имеют закрытый исходный код. Для тех, у кого есть только Nvidia с 8ГБ видеопамяти, могут использовать Text generation web UI с GPTQ, который снизит точность до 4 бит. Если у вас мало видеопамяти, то только koboldcpp, который использует для работы процессор и оперативную память. Системные требования для PygmalionAI: 16 бит: 14-16 ГБ VRAM, 12ГБ RAM 8 бит: 8 ГБ VRAM, 6 ГБ RAM 4 бит: 4.6 ГБ VRAM, 3-4 ГБ RAM 4 бит Koboldcpp: 8 ГБ RAM Модели, которые квантизировали до 4 бит: GPTQ: https://huggingface.co/mayaeary/pygmalion-6b-4bit-128g - Original https://huggingface.co/mayaeary/pygmalion-6b_dev-4bit-128g - Dev https://huggingface.co/mayaeary/PPO_Pygway-6b-Mix-4bit-128g - микс, где основная модель PygmalionAI - 60%, которая была смешана с Janeway - 20% и pro_hh_gpt-j - 20%. https://huggingface.co/mayaeary/PPO_Pygway-V8p4_Dev-6b-4bit-128g - микс, в котором используется Dev версия PygmalionAI. GGML: https://huggingface.co/alpindale/pygmalion-6b-ggml GUI для PygmalionAI: 1.Text generation web UI https://github.com/oobabooga/text-generation-webui Colab: https://colab.research.google.com/github/oobabooga/AI-Notebooks/blob/main/Colab-TextGen-GPU.ipynb 2.TavernAI. https://github.com/TavernAI/TavernAI https://github.com/SillyLossy/TavernAI - форк, который может запуститься на Android. Colab: https://colab.research.google.com/github/TavernAI/TavernAI/blob/main/colab/GPU.ipynb 3.KoboldAI. https://github.com/KoboldAI/KoboldAI-Client - Official (Стабильная версия) https://github.com/henk717/KoboldAI - United (Экспериментальная версия) https://github.com/LostRuins/koboldcpp - версия, которая может запуститься на процессоре. Colab KoboldAI GPU: https://colab.research.google.com/github/koboldai/KoboldAI-Client/blob/main/colab/GPU.ipynb Colab KoboldAI TPU https://colab.research.google.com/github/KoboldAI/KoboldAI-Client/blob/main/colab/TPU.ipynb - Пока Google не исправит драйвера для TPU, эта версия бесполезна. Полезные ссылки: https://rentry.org/2ch-pygmalionlinks Промпты от анонов с 2ch: https://rentry.org/2ch-pygmaprompts Гайды по установке интерфейсов: https://rentry.org/pygmai-guifaq Шапка треда: https://rentry.org/2ch-pygma-thread Предыдущий тред >>203352 (OP)
21 февраля 2024
Сохранен
39
14 октября 2023
Сохранен
1022
18 октября 2023
Сохранен
1027
29 сентября 2023
Сохранен
1031
26 сентября 2023
Сохранен
534
17 ноября 2023
Сохранен
1132
29 сентября 2023
Сохранен
1024
29 сентября 2023
Сохранен
1563
29 сентября 2023
Сохранен
1532
29 сентября 2023
Сохранен
510
5 сентября 2023
Сохранен
86
18 февраля 19:10
Сохранен
507
20 сентября 2023
Сохранен
524
21 августа 2023
Сохранен
504
27 июля 2023
Сохранен
523
16 июля 2023
Сохранен
521
29 сентября 2023
Сохранен
507
28 июня 2023
Сохранен
176
Modelscope text-to-video — У нас есть Stable diffusion, NovelAI треды, теперь text-to-video нить иди. Из опенсорса, актуальная система - Modelscope, примерно на том же уровне развития что первый DALL-E или "сырой" Latent Diffusion до появления Stable Diffusion. Кадров выходит маловато, но есть модели типа FILM для интерполяции (нарисовать промежуточные кадры). Звука "из коробки" нет. На момент создания треда, эти два спейса рабочие: https://huggingface.co/spaces/MaxLess/text-to-video-synth https://huggingface.co/spaces/jwhh91/modelscope-text-to-video-synthesis Колаб https://colab.research.google.com/drive/1uW1ZqswkQ9Z9bp5Nbo5z59cAn7I0hE6R?usp=sharing Пишите промпт на английском - что-нибудь про объект и его происходящее действие (движение). Результат будет отображаться как пустой черный квадрат, но не пугайтесь - жмите "воспроизвести". Мои примеры на ОПе: 1. a car, perfect movie cinematic 2. luxurious car, perfect movie cinematic 3. first person shooter game, unreal engine 4. anime cinematic, anime girl female character dancing, unreal engine Цензура отсутствует, однако модель сравнительно слабая и с тоннами ватермарок.В основном она для "реалистичного стиля" - мультфильмы получаются так себе. На мой взгляд, ее наибольшая ценность в том, что она подтверждает возможность генерации видео, анимации и фильмов на сравнительно слабых видеокартах. Другой вариант - CogVideo от товарищей из КНР. Новинка от Runway, пока в закрытом тестировании: https://www.youtube.com/watch?v=trXPfpV5iRQ
29 июня 2024
Сохранен
502
Исследования ИИ тред #1 /research/ — Исследования ИИ тред #1Обсуждаем развитие искусственного интеллекта с более технической стороны, чем обычно. Я ничего не понимаю, что делать?Без петросянства: смотри программу стэнфорда CS229, CS231n https://see.stanford.edu/Course/CS229 (классика) и http://cs231n.stanford.edu/ (введение в нейроночки) и изучай, если не понятно - смотри курсы prerequisites и изучай их. Как именно ты изучишь конкретные пункты, типа линейной алгебры - дело твое, есть книги, курсы, видосики, ссылки смотри ниже. Где узнать последние новости?https://www.reddit.com/r/MachineLearning/http://www.datatau.com/https://twitter.com/ylecun На реддите также есть хороший FAQ для вкатывающихся Какая математика используется?В основном линейная алгебра, теорвер, матстат, базовый матан и matrix calculus Как работает градиентный спуск?https://cs231n.github.io/optimization-2/ Почему python?Исторически сложилось. Поэтому давай, иди и перечитывай Dive into Python Можно не python?Никого не волнует, где именно ты натренируешь свою гениальную модель. Но при серьезной работе придется изучать то, что выкладывают другие, а это будет, скорее всего, python, если работа последних лет Что почитать для вкатывания?http://www.deeplearningbook.org/Николенко "Глубокое обучение" — на русском, есть примеры, но меньше охват материалаФрансуа Шолле — Глубокое обучение на Pythonhttps://d2l.ai/index.htmlВсе книги и статьи фактически устаревают за год. В чем практиковаться нубу?http://deeplearning.stanford.edu/tutorial/https://www.hackerrank.com/domains/aihttps://github.com/pytorch/exampleshttps://github.com/ChristosChristofidis/awesome-deep-learning#tutorials Где набрать первый самостоятельный опыт? https://www.kaggle.com/ | http://mltrainings.ru/ Стоит отметить, что спортивный deep learning отличается от работы примерно так же, как олимпиадное программирование от настоящего. За полпроцента точности в бизнесе борятся редко, а в случае проблем нанимают больше макак для разметки датасетов. На кагле ты будешь вилкой чистить свой датасет, чтобы на 0,1% обогнать конкурента. Где работать? https://www.indeed.com/q-deep-learning-jobs.html Вкатывальщики могут устроиться программистами и дальше попроситься в ML-отдел Есть ли фриланс в машобе? Есть, https://www.upwork.com/search/jobs/?q=machine+learning Но прожить только фриланся сложно, разве что постоянного клиента найти, а для этого нужно не быть тобой Где посмотреть последние статьи? http://www.arxiv-sanity.com/ https://paperswithcode.com/ https://openreview.net/ Версии для зумеров (Килхер): https://www.youtube.com/channel/UCZHmQk67mSJgfCCTn7xBfew Количество статей зашкваливающее, поэтому все читают только свою узкую тему и хайповые статьи, упоминаемые в блогах, твиттере, ютубе и телеграме, топы NIPS и прочий хайп. Есть блоги, где кратко пересказывают статьи, даже на русском Где посмотреть must read статьи? https://github.com/ChristosChristofidis/awesome-deep-learning#papers https://huggingface.co/transformers/index.html То, что обозревает Килхер тоже зачастую must read Где ещё можно поговорить про анализ данных? http://ods.ai/ Нужно ли покупать видеокарту/дорогой пека? Если хочешь просто пощупать нейроночки или сделать курсовую, то можно обойтись облаком. Google Colab дает бесплатно аналог GPU среднего ценового уровня на несколько часов с возможностью продления, при чем этот "средний уровень" постоянно растет. Некоторым достается даже V100. Иначе выгоднее вложиться в GPU https://timdettmers.com/2019/04/03/which-gpu-for-deep-learning/ Заодно в майнкрафт на топовых настройках погоняешь Когда уже изобретут AI и он нас всех поработит? На текущем железе — никогда, тред не об этом Кто-нибудь использовал машоб для трейдинга? Огромное количество ордеров как в крипте так и на фонде выставляются ботами: оценщиками-игральщиками, перекупщиками, срезальщиками, арбитражниками. Часть из них оснащена тем или иным ML. Даже на швабре есть пара статей об угадывании цены. Тащем-то пруф оф ворк для фонды показывали ещё 15 лет назад. Так-что бери Tensorflow + Reinforcement Learning и иди делать очередного бота: не забудь про стоп-лоссы и прочий риск-менеджмент, братишка Список дедовских книг для серьёзных людей: Trevor Hastie et al. "The Elements of Statistical Learning" Vladimir N. Vapnik "The Nature of Statistical Learning Theory" Christopher M. Bishop "Pattern Recognition and Machine Learning" Взять можно тут: https://www.libgen.is/ Напоминание ньюфагам: немодифицированные персептроны и прочий мусор середины прошлого века действительно не работают на серьёзных задачах. Disclaimer: Шапка сгенерирована нейросетью и нуждается в чистке.
18 февраля 2024
Сохранен
508
27 августа 2023
Сохранен
1569
17 мая 2023
Сохранен
507
28 июня 2023
Сохранен
510
17 мая 2023