Архива.ч
Добавить
Войти
Светлый стиль
Тёмный стиль
Дополнительно
Стиль сайта
Arhivach (по умолчанию)
Darkstrap (Neutron-like)
Стиль тредов
Arhivach (по умолчанию)
Neutron
FAQ
Контакты
Помощь сайту
Дополнения
Случайный тред
Старые архивы
Статус системы
API
К сожалению, значительная часть сохранённых до 2024 г. изображений и видео была потеряна (
подробности случившегося
). Мы призываем всех неравнодушных
помочь нам
с восстановлением утраченного контента!
Сортировка:
Дата
Просмотры
Закладки
Посты
за
День
Неделю
Месяц
Все время
...
Активный
511
Anime Diffusion #232 /nai/
— Генерируем тяночек! Прошлый тред: >>1417565 (OP) https://arhivach.vc/thread/1272137/ Схожие тематические треды • SD-тред (не аниме) :>>1423811 (OP) • Технотред: >>1405043 (OP) • Фурри-тред: https://2ch.su/fur/res/374311.html FAQ https://2ch-ai.github.io/wiki/nai Установка • NVidia: https://rentry.co/2ch_nai_guide • AMD: https://2ch-ai.github.io/wiki/nai/install/amd • Облака: https://2ch-ai.github.io/wiki/nai/install/clouds Дополнительная информация • Интерфейсы: https://2ch-ai.github.io/wiki/nai/interfaces • Модели: https://2ch-ai.github.io/wiki/nai/models • Промпты: https://2ch-ai.github.io/wiki/nai/prompts • Апскейл: https://2ch-ai.github.io/wiki/nai/upscale • LoRA: https://2ch-ai.github.io/wiki/nai/lora • ControlNet: https://2ch-ai.github.io/wiki/nai/controlnet Прочее • CivitAI: https://civitai.com • Каталог ссылок от форчанеров: https://rentry.co/sdg-link • Шаблон для переката: https://rentry.co/nwhci function replacePostImage(options) { const mediaModalInfoWaiter = setInterval(() => { if (typeof MEDIABYID === 'undefined') { return; } const mediaContainer = document.querySelector(`figure:has(img[src='${options.imageFromPreviewUrl}'])`); if (!mediaContainer) { return; } const mediaKey = Object .keys(Object.fromEntries(MEDIABYID)) .find((key) => MEDIABYID.get(key)._thumbSrc === options.imageFromPreviewUrl) if (!mediaKey) { return; } mediaContainer.querySelector('a.desktop').href = options.imageToUrl; mediaContainer.querySelector('svg.js-post-saveimg').dataset.url = options.imageToUrl; mediaContainer.querySelector('a.post__image-link').href = options.imageToUrl; const previewNode = mediaContainer.querySelector('img.post__file-preview'); previewNode.src = options.imageToPreviewUrl; previewNode.dataset.src = options.imageToUrl; previewNode.width = options.width; previewNode.height = options.height; previewNode.dataset.width = options.dataWidth; previewNode.dataset.height = options.dataHeight; previewNode.dataset.mediaReplaced = true; const mediaModalInfo = MEDIABYID.get(mediaKey); mediaModalInfo._src = options.imageToUrl; mediaModalInfo._imgW = options.dataWidth; mediaModalInfo._imgH = options.dataHeight; clearInterval(mediaModalInfoWaiter); }, 200); } function replaceCatalogImage(options) { setTimeout(() => { const catalogPreviewNode = document.querySelector(`.ctlg__img img[src='${options.imageFromPreviewUrl}']`); if (!catalogPreviewNode) { return; } catalogPreviewNode.src = options.imageToPreviewUrl; catalogPreviewNode.width = options.width; catalogPreviewNode.height = options.height; catalogPreviewNode.dataset.mediaReplaced = true; }, 200); } /* Скрываем оригинальные медиа-файлы */ figure.post__image:has(img[src='/ai/thumb/1431695/17642877717403s.jpg']:not([data-media-replaced])) { display: none; } /* Костыль для фикса размера модалок у куклы */ .de-fullimg-center { width: auto !important; }
Anime Diffusion
Stable Diffusion
/ai/ - Искусственный интеллект
нейросетевой арт
2ch
16 декабря 14:44
Активный
511
Новости об искусственном интеллекте №35 /news/
— В этот тредик скидываются свежие новости по теме ИИ! Залетай и будь в курсе самых последних событий и достижений в этой области! Прошлый тред: >>1345206 (OP)
AI news
/ai/ - Искусственный интеллект
2ch
16 декабря 14:44
Сохранен
511
Локальные языковые модели (LLM): LLaMA, Gemma, DeepSeek и прочие №160 /llama/
— В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны! Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна. Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку. Официальная вики треда с гайдами по запуску и базовой информацией: https://2ch-ai.gitgud.site/wiki/llama/ Инструменты для запуска на десктопах: • Самый простой в использовании и установке форк llamacpp, позволяющий гонять GGML и GGUF форматы: https://github.com/LostRuins/koboldcpp • Более функциональный и универсальный интерфейс для работы с остальными форматами: https://github.com/oobabooga/text-generation-webui • Заточенный под ExllamaV2 (а в будущем и под v3) и в консоли: https://github.com/theroyallab/tabbyAPI • Однокнопочные инструменты с ограниченными возможностями для настройки: https://github.com/ollama/ollama, https://lmstudio.ai • Универсальный фронтенд, поддерживающий сопряжение с koboldcpp и text-generation-webui: https://github.com/SillyTavern/SillyTavern • Альтернативный фронт: https://github.com/kwaroran/RisuAI Инструменты для запуска на мобилках: • Интерфейс для локального запуска моделей под андроид с llamacpp под капотом: https://github.com/Mobile-Artificial-Intelligence/maid • Альтернативный вариант для локального запуска под андроид (фронтенд и бекенд сепарированы): https://github.com/Vali-98/ChatterUI • Гайд по установке SillyTavern на ведроид через Termux: https://rentry.co/STAI-Termux Модели и всё что их касается: • Актуальный список моделей с отзывами от тредовичков: https://rentry.co/2ch_llm_2025 (версия 2024-го https://rentry.co/llm-models ) • Неактуальный список моделей по состоянию на середину 2023-го: https://rentry.co/lmg_models • Миксы от тредовичков с уклоном в русский РП: https://huggingface.co/Aleteian и https://huggingface.co/Moraliane • Рейтинг моделей по уровню их закошмаренности цензурой: https://huggingface.co/spaces/DontPlanToEnd/UGI-Leaderboard • Сравнение моделей по сомнительным метрикам: https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard • Сравнение моделей реальными пользователями по чуть менее сомнительным метрикам: https://chat.lmsys.org/?leaderboard Дополнительные ссылки: • Готовые карточки персонажей для ролплея в таверне: https://www.characterhub.org • Перевод нейронками для таверны: https://rentry.co/magic-translation • Пресеты под локальный ролплей в различных форматах: https://huggingface.co/Virt-io/SillyTavern-Presets • Шапка почившего треда PygmalionAI с некоторой интересной информацией: https://rentry.co/2ch-pygma-thread • Официальная вики koboldcpp с руководством по более тонкой настройке: https://github.com/LostRuins/koboldcpp/wiki • Официальный гайд по сопряжению бекендов с таверной: https://docs.sillytavern.app/usage/how-to-use-a-self-hosted-model/ • Последний известный колаб для обладателей отсутствия любых возможностей запустить локально: https://colab.research.google.com/drive/11U-bC6AxdmMhd3PF9vWZpLdi6LdfnBQ8?usp=sharing • Инструкции для запуска базы при помощи Docker Compose: https://rentry.co/oddx5sgq https://rentry.co/7kp5avrk • Пошаговое мышление от тредовичка для таверны: https://github.com/cierru/st-stepped-thinking • Потрогать, как работают семплеры: https://artefact2.github.io/llm-sampling/ • Выгрузка избранных тензоров, позволяет ускорить генерацию при недостатке VRAM: https://www.reddit.com/r/LocalLLaMA/comments/1ki7tg7 Архив тредов можно найти на архиваче: https://arhivach.hk/?tags=14780%2C14985 Шапка в https://rentry.co/llama-2ch, предложения принимаются в треде. Предыдущие треды тонут здесь: >>1326416 (OP) >>1323697 (OP)
большие языковые модели
/ai/ - Искусственный интеллект
2ch
29 ноября 18:41
Сохранен
511
Локальные языковые модели (LLM): LLaMA, Gemma, DeepSeek и прочие №159 /llama/
— В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны! Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна. Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку. Официальная вики треда с гайдами по запуску и базовой информацией: https://2ch-ai.gitgud.site/wiki/llama/ Инструменты для запуска на десктопах: • Самый простой в использовании и установке форк llamacpp, позволяющий гонять GGML и GGUF форматы: https://github.com/LostRuins/koboldcpp • Более функциональный и универсальный интерфейс для работы с остальными форматами: https://github.com/oobabooga/text-generation-webui • Заточенный под ExllamaV2 (а в будущем и под v3) и в консоли: https://github.com/theroyallab/tabbyAPI • Однокнопочные инструменты с ограниченными возможностями для настройки: https://github.com/ollama/ollama, https://lmstudio.ai • Универсальный фронтенд, поддерживающий сопряжение с koboldcpp и text-generation-webui: https://github.com/SillyTavern/SillyTavern • Альтернативный фронт: https://github.com/kwaroran/RisuAI Инструменты для запуска на мобилках: • Интерфейс для локального запуска моделей под андроид с llamacpp под капотом: https://github.com/Mobile-Artificial-Intelligence/maid • Альтернативный вариант для локального запуска под андроид (фронтенд и бекенд сепарированы): https://github.com/Vali-98/ChatterUI • Гайд по установке SillyTavern на ведроид через Termux: https://rentry.co/STAI-Termux Модели и всё что их касается: • Актуальный список моделей с отзывами от тредовичков: https://rentry.co/2ch_llm_2025 (версия 2024-го https://rentry.co/llm-models ) • Неактуальный список моделей по состоянию на середину 2023-го: https://rentry.co/lmg_models • Миксы от тредовичков с уклоном в русский РП: https://huggingface.co/Aleteian и https://huggingface.co/Moraliane • Рейтинг моделей по уровню их закошмаренности цензурой: https://huggingface.co/spaces/DontPlanToEnd/UGI-Leaderboard • Сравнение моделей по сомнительным метрикам: https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard • Сравнение моделей реальными пользователями по чуть менее сомнительным метрикам: https://chat.lmsys.org/?leaderboard Дополнительные ссылки: • Готовые карточки персонажей для ролплея в таверне: https://www.characterhub.org • Перевод нейронками для таверны: https://rentry.co/magic-translation • Пресеты под локальный ролплей в различных форматах: https://huggingface.co/Virt-io/SillyTavern-Presets • Шапка почившего треда PygmalionAI с некоторой интересной информацией: https://rentry.co/2ch-pygma-thread • Официальная вики koboldcpp с руководством по более тонкой настройке: https://github.com/LostRuins/koboldcpp/wiki • Официальный гайд по сопряжению бекендов с таверной: https://docs.sillytavern.app/usage/how-to-use-a-self-hosted-model/ • Последний известный колаб для обладателей отсутствия любых возможностей запустить локально: https://colab.research.google.com/drive/11U-bC6AxdmMhd3PF9vWZpLdi6LdfnBQ8?usp=sharing • Инструкции для запуска базы при помощи Docker Compose: https://rentry.co/oddx5sgq https://rentry.co/7kp5avrk • Пошаговое мышление от тредовичка для таверны: https://github.com/cierru/st-stepped-thinking • Потрогать, как работают семплеры: https://artefact2.github.io/llm-sampling/ • Выгрузка избранных тензоров, позволяет ускорить генерацию при недостатке VRAM: https://www.reddit.com/r/LocalLLaMA/comments/1ki7tg7 Архив тредов можно найти на архиваче: https://arhivach.hk/?tags=14780%2C14985 Шапка в https://rentry.co/llama-2ch, предложения принимаются в треде. Предыдущие треды тонут здесь: >>1323697 (OP) >>1318126 (OP)
большие языковые модели
/ai/ - Искусственный интеллект
2ch
29 ноября 18:41
Сохранен
511
ИИ-видео общий №6 /video/
— Генерируем свое (и постим чужое) в Hunyuan, Wan, Luma Dream Machine, Hailuo Minimax, Kling, Sora, Vidu, Runway, Pixverse, Pika и др. сервисах. 1. Hailuo Minimax https://hailuoai.video/ 2. Kling https://klingai.com/ 3. Sora от OpenAi https://openai.com/sora/ 4. Luma Dream Machine https://lumalabs.ai/ 5. Vidu https://www.vidu.com/create 6. Pixverse https://app.pixverse.ai/ 7. Pika https://pika.art/try 8. Runway Gen. 3 https://runwayml.com/ 9. Wan от Alibaba https://wan.video/ Сайты, где можно попробовать генерации на разных моделях https://pollo.ai/ https://www.florafauna.ai/ https://nim.video/ Коллекция ИИ-видео: https://www.reddit.com/r/aivideo/ Локальные модели 1. Hunyuan от Tencent. https://hunyuanvideoai.com/ https://github.com/Tencent/HunyuanVideo 2. Wan от Alibaba https://github.com/Wan-Video/Wan2.1 Локальный UI https://github.com/comfyanonymous/ComfyUI Установка локальных моделей Hunyuan Video: https://comfyanonymous.github.io/ComfyUI_examples/hunyuan_video/ Wan 2.1: https://comfyanonymous.github.io/ComfyUI_examples/wan/ Альтернативные ноды ComfyUI Hunyuan Video: https://github.com/kijai/ComfyUI-HunyuanVideoWrapper Wan 2.1: https://github.com/kijai/ComfyUI-WanVideoWrapper Квантованные чекпоинты Hunyuan Video (GGUF): https://huggingface.co/Kijai/SkyReels-V1-Hunyuan_comfy/tree/main Wan 2.1 (GGUF): https://huggingface.co/city96/Wan2.1-I2V-14B-480P-gguf/tree/main Wan 2.1 (NF4): https://civitai.com/models/1299436?modelVersionId=1466629 Где брать готовые LoRA https://civitai.com/models Hunyuan Video: https://civitai.com/search/models?baseModel=Hunyuan%20Video&sortBy=models_v9 Wan 2.1: https://civitai.com/search/models?baseModel=Wan%20Video&sortBy=models_v9 Обучение LoRA https://github.com/tdrussell/diffusion-pipe Предыдущий тред >>1082918 (OP)
нейросетевые видео
/ai/ - Искусственный интеллект
2ch
8 августа 4:50
Сохранен
511
Новости об искусственном интеллекте №9 /news/
— В этот тредик скидываются свежие новости по теме ИИ! Залетай и будь в курсе самых последних событий и достижений в этой области! Прошлые треды: https://2ch.hk/ai/res/877586.html https://2ch.hk/ai/res/973010.html https://2ch.hk/ai/res/1014050.html https://2ch.hk/ai/res/1027441.html https://2ch.hk/ai/res/1039034.html https://2ch.hk/ai/res/1050699.html https://2ch.hk/ai/res/1064460.html https://2ch.hk/ai/res/1085612.html
AI news
/ai/ - Искусственный интеллект
2ch
11 июля 22:29
Сохранен
511
Anime Diffusion #197 /nai/
— Генерируем тяночек! Прошлый тред: >>1084904 (OP) https://arhivach.hk/thread/1142770/ Схожие тематические треды • SD-тред (не аниме): >>1085951 (OP) • Технотред: >>974163 (OP) • Фурри-тред: https://2ch.hk/fur/res/374311.html FAQ https://2ch-ai.gitgud.site/wiki/nai Установка • NVidia: https://rentry.co/2ch_nai_guide • AMD: https://2ch-ai.gitgud.site/wiki/nai/install/amd • Облака: https://2ch-ai.gitgud.site/wiki/nai/install/clouds Дополнительная информация • Интерфейсы: https://2ch-ai.gitgud.site/wiki/nai/interfaces • Модели: https://2ch-ai.gitgud.site/wiki/nai/models • Промпты: https://2ch-ai.gitgud.site/wiki/nai/prompts • Апскейл: https://2ch-ai.gitgud.site/wiki/nai/upscale • LoRA: https://2ch-ai.gitgud.site/wiki/nai/lora • ControlNet: https://2ch-ai.gitgud.site/wiki/nai/controlnet Прочее • CivitAI: https://civitai.com • Каталог ссылок от форчанеров: https://rentry.co/sdg-link • Шаблон для переката: https://rentry.co/nwhci
Stable Diffusion
/ai/ - Искусственный интеллект
аниме
2ch
22 июня 12:34
Сохранен
511
AI Image GeneratorsОбщий Картиночный #1 /image/
— Общий тред для изображений, созданных с помощью онлайн ИИ-генерации. Bing Image Creator и Designer https://bing.com/images/create/ https://designer.microsoft.com/image-creator Bing Image Creator - генератор изображений на базе DALL-E 3 от OpenAI, предоставленный компанией Microsoft. Designer - то же самое, но умеет делать широкоформатные и портретные изображения. Не доступны в России, используйте Proxy/VPN/Tor. ImageFX https://aitestkitchen.withgoogle.com/tools/image-fx Нейросеть для создания изображений от Google на основе их модели Imagen 2. На данный момент доступна только для пользователей из США, Кении, Новой Зеландии и Австралии, необходимо использовать Proxy или VPN с IP этих стран. Grok (X Image Generator) https://ximagegenerator.com/ Grok - ИИ, разработанный компанией xAI, принадлежащей Илону Маску. На данный момент имеет самую слабую цензуру. Flux https://fluxpro.art/ https://huggingface.co/spaces/black-forest-labs/FLUX.1-schnell https://huggingface.co/spaces/black-forest-labs/FLUX.1-dev Аналог Stable Diffusion от Black Forest Labs. Stable Diffusion и прочие https://civitai.com/generate https://getimg.ai/text-to-image https://www.mage.space/ https://problembo.com/ru https://deepai.org/machine-learning-model/text2img https://dezgo.com/ https://dream.ai/create https://www.krea.ai/ Здесь в основном различные онлайн-генераторы на базе Stable Diffusion, имеющие ограничения на количество бесплатных генераций в день или в месяц, можно обойти, создав несколько аккаунтов с разных почтовых ящиков. Временные почты для новых акков https://10minutemail.com https://fex.plus/ Дополнительные сервисы: https://www.pixited.com/ - библиотека промптов с примерами https://rentry.org/From-4ch-To-2ch-Dall-3-Prompts - сборник промптов https://www.stylar.ai - AI-редактор картинок (дорисовка, инпейнт, работа с лицами) https://astica.ai - сборник ИИ-сервисов, в частности довольно мощный де-промптер (Vision AI -> Describe and Caption) https://huggingface.co/spaces/fffiloni/CLIP-Interrogator-2 - де-промптер, разбирающий вброшенный пик на теги https://bigjpg.com/ - апскейлер до 4096х4096 https://runwayml.com/ , https://www.stablevideo.com - анимирование генераций Прошлый тред (последний /dalle/ тред), а также гайды для пользователей DALL-E можно найти здесь: >>764910 (OP)
я люблю эльзу она очерь хорошая мне нравятся мне генерации с ней я хотел бы чаще видеть её в этих тредах пожалуйста генерируйте ещё почаще очень нраится спасибо анон
эльзатька
эльзаффка красивая писечка милавидна красавидца
эльзакун
эльза
Elsagate
теги обезумели
я те насру в теги
Elsa
ImageFX
Stable Diffusion
DALL-E
/ai/ - Искусственный интеллект
нейросетевой арт
картинки
аниме
девушки
годнота
2ch
19 августа 8:13
Сохранен
511
Anime Diffusion #172 /nai/
— Генерируем тяночек! Прошлый тред: >>908316 (OP) https://arhivach.xyz/thread/1075700/ Схожие тематические треды • SD-тред (не аниме): >>910282 (OP) • Технотред: >>758561 (OP) FAQ https://2ch-ai.gitgud.site/wiki/nai Установка • NVidia: https://rentry.co/2ch_nai_guide • AMD: https://2ch-ai.gitgud.site/wiki/nai/install/amd • Облака: https://2ch-ai.gitgud.site/wiki/nai/install/clouds Дополнительная информация • Интерфейсы: https://2ch-ai.gitgud.site/wiki/nai/interfaces • Модели: https://2ch-ai.gitgud.site/wiki/nai/models • Промпты: https://2ch-ai.gitgud.site/wiki/nai/prompts • Апскейл: https://2ch-ai.gitgud.site/wiki/nai/upscale • LoRA: https://2ch-ai.gitgud.site/wiki/nai/lora • ControlNet: https://2ch-ai.gitgud.site/wiki/nai/controlnet Прочее • CivitAI: https://civitai.com • Каталог ссылок от форчанеров: https://rentry.co/sdg-link • Шаблон для переката: https://rentry.co/nwhci
anime
Stable Diffusion
/ai/ - Искусственный интеллект
нейросетевой арт
2ch
18 февраля 19:10
Сохранен
511
Локальные языковые модели (LLM): LLaMA, Mistral, Command-R и прочие №72 /llama/
— В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны! Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст, и бугуртим с кривейшего тормозного говна. Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку. Здесь и далее расположена базовая информация, полная инфа и гайды в вики https://2ch-ai.gitgud.site/wiki/llama/ Базовой единицей обработки любой языковой модели является токен. Токен это минимальная единица, на которые разбивается текст перед подачей его в модель, обычно это слово (если популярное), часть слова, в худшем случае это буква (а то и вовсе байт). Из последовательности токенов строится контекст модели. Контекст это всё, что подаётся на вход, плюс резервирование для выхода. Типичным максимальным размером контекста сейчас являются 2к (2 тысячи) и 4к токенов, но есть и исключения. В этот объём нужно уместить описание персонажа, мира, истории чата. Для расширения контекста сейчас применяется метод NTK-Aware Scaled RoPE. Родной размер контекста для Llama 1 составляет 2к токенов, для Llama 2 это 4к, Llama 3 обладает базовым контекстом в 8к, но при помощи RoPE этот контекст увеличивается в 2-4-8 раз без существенной потери качества. Базовым языком для языковых моделей является английский. Он в приоритете для общения, на нём проводятся все тесты и оценки качества. Большинство моделей хорошо понимают русский на входе т.к. в их датасетах присутствуют разные языки, в том числе и русский. Но их ответы на других языках будут низкого качества и могут содержать ошибки из-за несбалансированности датасета. Существуют мультиязычные модели частично или полностью лишенные этого недостатка, из легковесных это openchat-3.5-0106, который может давать качественные ответы на русском и рекомендуется для этого. Из тяжёлых это Command-R. Файнтюны семейства "Сайга" не рекомендуются в виду их низкого качества и ошибок при обучении. Основным представителем локальных моделей является LLaMA. LLaMA это генеративные текстовые модели размерами от 7B до 70B, притом младшие версии моделей превосходят во многих тестах GTP3 (по утверждению самого фейсбука), в которой 175B параметров. Сейчас на нее существует множество файнтюнов, например Vicuna/Stable Beluga/Airoboros/WizardLM/Chronos/(любые другие) как под выполнение инструкций в стиле ChatGPT, так и под РП/сторитейл. Для получения хорошего результата нужно использовать подходящий формат промта, иначе на выходе будут мусорные теги. Некоторые модели могут быть излишне соевыми, включая Chat версии оригинальной Llama 2. Недавно вышедшая Llama 3 в размере 70B по рейтингам LMSYS Chatbot Arena обгоняет многие старые снапшоты GPT-4 и Claude 3 Sonnet, уступая только последним версиям GPT-4, Claude 3 Opus и Gemini 1.5 Pro. Про остальные семейства моделей читайте в вики. Основные форматы хранения весов это GGUF и EXL2, остальные нейрокуну не нужны. Оптимальным по соотношению размер/качество является 5 бит, по размеру брать максимальную, что помещается в память (видео или оперативную), для быстрого прикидывания расхода можно взять размер модели и прибавить по гигабайту за каждые 1к контекста, то есть для 7B модели GGUF весом в 4.7ГБ и контекста в 2к нужно ~7ГБ оперативной. В общем и целом для 7B хватает видеокарт с 8ГБ, для 13B нужно минимум 12ГБ, для 30B потребуется 24ГБ, а с 65-70B не справится ни одна бытовая карта в одиночку, нужно 2 по 3090/4090. Даже если использовать сборки для процессоров, то всё равно лучше попробовать задействовать видеокарту, хотя бы для обработки промта (Use CuBLAS или ClBLAS в настройках пресетов кобольда), а если осталась свободная VRAM, то можно выгрузить несколько слоёв нейронной сети на видеокарту. Число слоёв для выгрузки нужно подбирать индивидуально, в зависимости от объёма свободной памяти. Смотри не переборщи, Анон! Если выгрузить слишком много, то начиная с 535 версии драйвера NVidia это может серьёзно замедлить работу, если не выключить CUDA System Fallback в настройках панели NVidia. Лучше оставить запас. Гайд для ретардов для запуска LLaMA без излишней ебли под Windows. Грузит всё в процессор, поэтому ёба карта не нужна, запаситесь оперативкой и подкачкой: 1. Скачиваем koboldcpp.exe https://github.com/LostRuins/koboldcpp/releases/ последней версии. 2. Скачиваем модель в gguf формате. Например вот эту: https://huggingface.co/Sao10K/Fimbulvetr-11B-v2-GGUF/blob/main/Fimbulvetr-11B-v2.q4_K_S.gguf Можно просто вбить в huggingace в поиске "gguf" и скачать любую, охуеть, да? Главное, скачай файл с расширением .gguf, а не какой-нибудь .pt 3. Запускаем koboldcpp.exe и выбираем скачанную модель. 4. Заходим в браузере на http://localhost:5001/ 5. Все, общаемся с ИИ, читаем охуительные истории или отправляемся в Adventure. Да, просто запускаем, выбираем файл и открываем адрес в браузере, даже ваша бабка разберется! Для удобства можно использовать интерфейс TavernAI 1. Ставим по инструкции, пока не запустится: https://github.com/Cohee1207/SillyTavern 2. Запускаем всё добро 3. Ставим в настройках KoboldAI везде, и адрес сервера http://127.0.0.1:5001 4. Активируем Instruct Mode и выставляем в настройках пресетов Alpaca 5. Радуемся Инструменты для запуска: https://github.com/LostRuins/koboldcpp/ Репозиторий с реализацией на плюсах https://github.com/oobabooga/text-generation-webui/ ВебуУИ в стиле Stable Diffusion, поддерживает кучу бекендов и фронтендов, в том числе может связать фронтенд в виде Таверны и бекенды ExLlama/llama.cpp/AutoGPTQ https://github.com/ollama/ollama , https://lmstudio.ai/ и прочее - Однокнопочные инструменты для полных хлебушков, с красивым гуем и ограниченным числом настроек/выбором моделей Ссылки на модели и гайды: https://huggingface.co/TheBloke Основной поставщик квантованных моделей под любой вкус до 1 февраля 2024 года https://huggingface.co/LoneStriker, https://huggingface.co/mradermacher Новые поставщики квантов на замену почившему TheBloke https://rentry.co/TESFT-LLaMa Не самые свежие гайды на ангельском https://rentry.co/STAI-Termux Запуск SillyTavern на телефоне https://rentry.co/lmg_models Самый полный список годных моделей https://ayumi.m8geil.de/erp4_chatlogs/ Рейтинг моделей для кума со спорной методикой тестирования https://rentry.co/llm-training Гайд по обучению своей лоры https://rentry.co/2ch-pygma-thread Шапка треда PygmalionAI, можно найти много интересного https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard Сравнение моделей по (часто дутым) метрикам (почитать характерное обсуждение) https://chat.lmsys.org/?leaderboard Сравнение моделей на "арене" реальными пользователями. Более честное, чем выше, но всё равно сравниваются зирошоты https://huggingface.co/Virt-io/SillyTavern-Presets Пресеты для таверны для ролеплея https://colab.research.google.com/drive/11U-bC6AxdmMhd3PF9vWZpLdi6LdfnBQ8?usp=sharing Последний известный колаб для обладателей отсутствия любых возможностей запустить локально https://rentry.co/llm-models Актуальный список моделей от тредовичков Шапка в https://rentry.co/llama-2ch, предложения принимаются в треде Предыдущие треды стонут здесь: >>825177 (OP) >>819978 (OP)
большие языковые модели
/ai/ - Искусственный интеллект
2ch
2 декабря 2024
Сохранен
511
Anime Diffusion #162 /nai/
— Генерируем тяночек! Прошлый тред: >>832282 (OP) https://arhivach.top/thread/1045435/ Схожие тематические треды • SD-тред (не аниме): >>839194 (OP) • Технотред: >>758561 (OP) Релиз Flux ✨ https://blog.fal.ai/flux-the-largest-open-sourced-text2img-model-now-available-on-fal Встречаем Flux - новую модель от бывших разработчиков Stable Diffusion. Модель доступна в трёх версиях: • schnell (distilled, быстрая генерация): https://huggingface.co/black-forest-labs/FLUX.1-schnell • dev: https://huggingface.co/black-forest-labs/FLUX.1-dev • pro: коммерческая модель, недоступна для скачивания https://comfyanonymous.github.io/ComfyUI_examples/flux/ В настоящий момент, Flux доступен для запуска только в последней версии ComfyUI. Комфортный минимум для запуска - карта с 16 GB VRAM в режиме fp8 и выгрузкой T5 на CPU. FAQ (устарел) https://rentry.co/nai_faq Ставим локально • NVidia: https://rentry.co/2ch_nai_guide • AMD: https://rentry.co/SD-amd-gpu AMD-юзерам также рекомендуется ознакомиться с гайдом для NVidia, поскольку в нём много общей инфы. Генерируем в облаке • https://civitai.com • https://tensor.art • https://seaart.ai • https://pixai.art • https://colab.research.google.com/github/lllyasviel/Fooocus/blob/main/fooocus_colab.ipynb Интерфейсы • AUTOMATIC1111: https://github.com/AUTOMATIC1111/stable-diffusion-webui • Forge: https://github.com/lllyasviel/stable-diffusion-webui-forge • reForge: https://github.com/Panchovix/stable-diffusion-webui-reForge • ComfyUI: https://github.com/comfyanonymous/ComfyUI • Fooocus: https://github.com/lllyasviel/Fooocus Где брать модели • https://civitai.com • https://huggingface.co/models?other=stable-diffusion Модели SDXL • Pony Diffusion: https://civitai.com/models/257749/pony-diffusion-v6-xl • AutismMix: https://civitai.com/models/288584/autismmix-sdxl • Animagine: https://civitai.com/models/260267 Модели SD 1.5 • Старый каталог: https://civitai.com/collections/42742 • EasyFluff+hll: https://rentry.org/5exa3 Расширения • AUTOMATIC1111: https://rentry.co/sd_automatic_extensions • Forge: https://github.com/Haoming02/sd-forge-couple ControlNet • https://stable-diffusion-art.com/controlnet (англ) • https://2ch-ai.gitgud.site/wiki/nai/controlnet/controlnet-complete-guide (перевод статьи выше) • https://www.itshneg.com/controlnet-upravlyaj-pozami-v-stable-diffusion ControlNet-модели для SDXL • 2vXpSwA7 (Animagine/Pony) v1: https://huggingface.co/2vXpSwA7/iroiro-lora/tree/main/test_controlnet • 2vXpSwA7 (Animagine/Pony) v2: https://huggingface.co/2vXpSwA7/iroiro-lora/tree/main/test_controlnet2 • Mistoline (Animagine): https://civitai.com/models/441432/mistoline • kataragi (Animagine): https://huggingface.co/kataragi ControlNet-модели для SD 1.5 • ControlNet 1.1: https://civitai.com/models/38784 • QR Code Monster: https://huggingface.co/monster-labs/control_v1p_sd15_qrcode_monster Апскейл • https://rentry.co/sd__upscale • https://rentry.co/SD_upscale • https://rentry.co/2ch_nai_guide#апскейл • https://rentry.co/UpscaleByControl Лоры с форча • Pony Diffusion: https://rentry.org/ponyxl_loras_n_stuff • SD 1.5: https://gitgud.io/badhands/makesomefuckingporn Обучение LoRA • https://rentry.co/waavd • https://rentry.co/2chAI_hard_LoRA_guide Прочее • AIBooru: https://aibooru.online/ • Гайды на английском: https://stable-diffusion-art.com/tutorials/ • Больше ссылок: https://rentry.co/sdg-link • Шаблон для переката: https://rentry.co/nwhci
Stable Diffusion
/ai/ - Искусственный интеллект
нейросетевой арт
2ch
5 декабря 2024
Сохранен
511
Локальные языковые модели (LLM): LLaMA, Mistral, Command-R и прочие №70 /llama/
— В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны! Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст, и бугуртим с кривейшего тормозного говна. Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку. Здесь и далее расположена базовая информация, полная инфа и гайды в вики https://2ch-ai.gitgud.site/wiki/llama/ Базовой единицей обработки любой языковой модели является токен. Токен это минимальная единица, на которые разбивается текст перед подачей его в модель, обычно это слово (если популярное), часть слова, в худшем случае это буква (а то и вовсе байт). Из последовательности токенов строится контекст модели. Контекст это всё, что подаётся на вход, плюс резервирование для выхода. Типичным максимальным размером контекста сейчас являются 2к (2 тысячи) и 4к токенов, но есть и исключения. В этот объём нужно уместить описание персонажа, мира, истории чата. Для расширения контекста сейчас применяется метод NTK-Aware Scaled RoPE. Родной размер контекста для Llama 1 составляет 2к токенов, для Llama 2 это 4к, Llama 3 обладает базовым контекстом в 8к, но при помощи RoPE этот контекст увеличивается в 2-4-8 раз без существенной потери качества. Базовым языком для языковых моделей является английский. Он в приоритете для общения, на нём проводятся все тесты и оценки качества. Большинство моделей хорошо понимают русский на входе т.к. в их датасетах присутствуют разные языки, в том числе и русский. Но их ответы на других языках будут низкого качества и могут содержать ошибки из-за несбалансированности датасета. Существуют мультиязычные модели частично или полностью лишенные этого недостатка, из легковесных это openchat-3.5-0106, который может давать качественные ответы на русском и рекомендуется для этого. Из тяжёлых это Command-R. Файнтюны семейства "Сайга" не рекомендуются в виду их низкого качества и ошибок при обучении. Основным представителем локальных моделей является LLaMA. LLaMA это генеративные текстовые модели размерами от 7B до 70B, притом младшие версии моделей превосходят во многих тестах GTP3 (по утверждению самого фейсбука), в которой 175B параметров. Сейчас на нее существует множество файнтюнов, например Vicuna/Stable Beluga/Airoboros/WizardLM/Chronos/(любые другие) как под выполнение инструкций в стиле ChatGPT, так и под РП/сторитейл. Для получения хорошего результата нужно использовать подходящий формат промта, иначе на выходе будут мусорные теги. Некоторые модели могут быть излишне соевыми, включая Chat версии оригинальной Llama 2. Недавно вышедшая Llama 3 в размере 70B по рейтингам LMSYS Chatbot Arena обгоняет многие старые снапшоты GPT-4 и Claude 3 Sonnet, уступая только последним версиям GPT-4, Claude 3 Opus и Gemini 1.5 Pro. Про остальные семейства моделей читайте в вики. Основные форматы хранения весов это GGUF и EXL2, остальные нейрокуну не нужны. Оптимальным по соотношению размер/качество является 5 бит, по размеру брать максимальную, что помещается в память (видео или оперативную), для быстрого прикидывания расхода можно взять размер модели и прибавить по гигабайту за каждые 1к контекста, то есть для 7B модели GGUF весом в 4.7ГБ и контекста в 2к нужно ~7ГБ оперативной. В общем и целом для 7B хватает видеокарт с 8ГБ, для 13B нужно минимум 12ГБ, для 30B потребуется 24ГБ, а с 65-70B не справится ни одна бытовая карта в одиночку, нужно 2 по 3090/4090. Даже если использовать сборки для процессоров, то всё равно лучше попробовать задействовать видеокарту, хотя бы для обработки промта (Use CuBLAS или ClBLAS в настройках пресетов кобольда), а если осталась свободная VRAM, то можно выгрузить несколько слоёв нейронной сети на видеокарту. Число слоёв для выгрузки нужно подбирать индивидуально, в зависимости от объёма свободной памяти. Смотри не переборщи, Анон! Если выгрузить слишком много, то начиная с 535 версии драйвера NVidia это может серьёзно замедлить работу, если не выключить CUDA System Fallback в настройках панели NVidia. Лучше оставить запас. Гайд для ретардов для запуска LLaMA без излишней ебли под Windows. Грузит всё в процессор, поэтому ёба карта не нужна, запаситесь оперативкой и подкачкой: 1. Скачиваем koboldcpp.exe https://github.com/LostRuins/koboldcpp/releases/ последней версии. 2. Скачиваем модель в gguf формате. Например вот эту: https://huggingface.co/Sao10K/Fimbulvetr-11B-v2-GGUF/blob/main/Fimbulvetr-11B-v2.q4_K_S.gguf Можно просто вбить в huggingace в поиске "gguf" и скачать любую, охуеть, да? Главное, скачай файл с расширением .gguf, а не какой-нибудь .pt 3. Запускаем koboldcpp.exe и выбираем скачанную модель. 4. Заходим в браузере на http://localhost:5001/ 5. Все, общаемся с ИИ, читаем охуительные истории или отправляемся в Adventure. Да, просто запускаем, выбираем файл и открываем адрес в браузере, даже ваша бабка разберется! Для удобства можно использовать интерфейс TavernAI 1. Ставим по инструкции, пока не запустится: https://github.com/Cohee1207/SillyTavern 2. Запускаем всё добро 3. Ставим в настройках KoboldAI везде, и адрес сервера http://127.0.0.1:5001 4. Активируем Instruct Mode и выставляем в настройках пресетов Alpaca 5. Радуемся Инструменты для запуска: https://github.com/LostRuins/koboldcpp/ Репозиторий с реализацией на плюсах https://github.com/oobabooga/text-generation-webui/ ВебуУИ в стиле Stable Diffusion, поддерживает кучу бекендов и фронтендов, в том числе может связать фронтенд в виде Таверны и бекенды ExLlama/llama.cpp/AutoGPTQ https://github.com/ollama/ollama , https://lmstudio.ai/ и прочее - Однокнопочные инструменты для полных хлебушков, с красивым гуем и ограниченным числом настроек/выбором моделей Ссылки на модели и гайды https://huggingface.co/TheBloke Основной поставщик квантованных моделей под любой вкус до 1 февраля 2024 года https://huggingface.co/LoneStriker, https://huggingface.co/mradermacher Новые поставщики квантов на замену почившему TheBloke https://rentry.co/TESFT-LLaMa Не самые свежие гайды на ангельском https://rentry.co/STAI-Termux Запуск SillyTavern на телефоне https://rentry.co/lmg_models Самый полный список годных моделей https://ayumi.m8geil.de/erp4_chatlogs/ Рейтинг моделей для кума со спорной методикой тестирования https://rentry.co/llm-training Гайд по обучению своей лоры https://rentry.co/2ch-pygma-thread Шапка треда PygmalionAI, можно найти много интересного https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard Сравнение моделей по (часто дутым) метрикам (почитать характерное обсуждение) https://chat.lmsys.org/?leaderboard Сравнение моделей на "арене" реальными пользователями. Более честное, чем выше, но всё равно сравниваются зирошоты https://huggingface.co/Virt-io/SillyTavern-Presets Пресеты для таверны для ролеплея https://colab.research.google.com/drive/11U-bC6AxdmMhd3PF9vWZpLdi6LdfnBQ8?usp=sharing Последний известный колаб для обладателей отсутствия любых возможностей запустить локально https://rentry.co/llm-models Актуальный список моделей от тредовичков Шапка в https://rentry.co/llama-2ch, предложения принимаются в треде Предыдущие треды тонут здесь: >>811392 (OP) >>804569 (OP)
большие языковые модели
/ai/ - Искусственный интеллект
2ch
20 ноября 2024
Сохранен
511
Локальные языковые модели (LLM): LLaMA, Mistral, Command-R и прочие №51 /llama/
— В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны! Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст, и бугуртим с кривейшего тормозного говна. Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2-х бит, на кофеварке с подкачкой на микроволновку. Здесь и далее расположена базовая информация, полная инфа и гайды в вики https://2ch-ai.gitgud.site/wiki/llama/ Базовой единицей обработки любой языковой модели является токен. Токен это минимальная единица, на которые разбивается текст перед подачей его в модель, обычно это слово (если популярное), часть слова, в худшем случае это буква (а то и вовсе байт). Из последовательности токенов строится контекст модели. Контекст это всё, что подаётся на вход, плюс резервирование для выхода. Типичным максимальным размером контекста сейчас являются 2к (2 тысячи) и 4к токенов, но есть и исключения. В этот объём нужно уместить описание персонажа, мира, истории чата. Для расширения контекста сейчас применяется метод NTK-Aware Scaled RoPE. Родной размер контекста для Llama 1 составляет 2к токенов, для Llama 2 это 4к, но при помощи RoPE этот контекст увеличивается в 2-4-8 раз без существенной потери качества. Базовым языком для языковых моделей является английский. Он в приоритете для общения, на нём проводятся все тесты и оценки качества. Большинство моделей хорошо понимают русский на входе т.к. в их датасетах присутствуют разные языки, в том числе и русский. Но их ответы на других языках будут низкого качества и могут содержать ошибки из-за несбалансированности датасета. Существуют мультиязычные модели частично или полностью лишенные этого недостатка, из легковесных это openchat-3.5-0106, который может давать качественные ответы на русском и рекомендуется для этого. Из тяжёлых это Command-R. Файнтюны семейства "Сайга" не рекомендуются в виду их низкого качества и ошибок при обучении. Основным представителем локальных моделей является LLaMA. LLaMA это генеративные текстовые модели размерами от 7B до 70B, притом младшие версии моделей превосходят во многих тестах GTP3 (по утверждению самого фейсбука), в которой 175B параметров. Сейчас на нее существует множество файнтюнов, например Vicuna/Stable Beluga/Airoboros/WizardLM/Chronos/(любые другие) как под выполнение инструкций в стиле ChatGPT, так и под РП/сторитейл. Для получения хорошего результата нужно использовать подходящий формат промта, иначе на выходе будут мусорные теги. Некоторые модели могут быть излишне соевыми, включая Chat версии оригинальной Llama 2. Про остальные семейства моделей читайте в вики. Основные форматы хранения весов это GGML и GPTQ, остальные нейрокуну не нужны. Оптимальным по соотношению размер/качество является 5 бит, по размеру брать максимальную, что помещается в память (видео или оперативную), для быстрого прикидывания расхода можно взять размер модели и прибавить по гигабайту за каждые 1к контекста, то есть для 7B модели GGML весом в 4.7ГБ и контекста в 2к нужно ~7ГБ оперативной. В общем и целом для 7B хватает видеокарт с 8ГБ, для 13B нужно минимум 12ГБ, для 30B потребуется 24ГБ, а с 65-70B не справится ни одна бытовая карта в одиночку, нужно 2 по 3090/4090. Даже если использовать сборки для процессоров, то всё равно лучше попробовать задействовать видеокарту, хотя бы для обработки промта (Use CuBLAS или ClBLAS в настройках пресетов кобольда), а если осталась свободная VRAM, то можно выгрузить несколько слоёв нейронной сети на видеокарту. Число слоёв для выгрузки нужно подбирать индивидуально, в зависимости от объёма свободной памяти. Смотри не переборщи, Анон! Если выгрузить слишком много, то начиная с 535 версии драйвера NVidia это может серьёзно замедлить работу, если не выключить CUDA System Fallback в настройках панели NVidia. Лучше оставить запас. Гайд для ретардов для запуска LLaMA без излишней ебли под Windows. Грузит всё в процессор, поэтому ёба карта не нужна, запаситесь оперативкой и подкачкой: 1. Скачиваем koboldcpp.exe https://github.com/LostRuins/koboldcpp/releases/ последней версии. 2. Скачиваем модель в gguf формате. Например вот эту: https://huggingface.co/Sao10K/Fimbulvetr-10.7B-v1-GGUF/blob/main/Fimbulvetr-10.7B-v1.q5_K_M.gguf Можно просто вбить в huggingace в поиске "gguf" и скачать любую, охуеть, да? Главное, скачай файл с расширением .gguf, а не какой-нибудь .pt 3. Запускаем koboldcpp.exe и выбираем скачанную модель. 4. Заходим в браузере на http://localhost:5001/ 5. Все, общаемся с ИИ, читаем охуительные истории или отправляемся в Adventure. Да, просто запускаем, выбираем файл и открываем адрес в браузере, даже ваша бабка разберется! Для удобства можно использовать интерфейс TavernAI 1. Ставим по инструкции, пока не запустится: https://github.com/Cohee1207/SillyTavern 2. Запускаем всё добро 3. Ставим в настройках KoboldAI везде, и адрес сервера http://127.0.0.1:5001 4. Активируем Instruct Mode и выставляем в настройках пресетов Alpaca 5. Радуемся Инструменты для запуска: https://github.com/LostRuins/koboldcpp/ Репозиторий с реализацией на плюсах https://github.com/oobabooga/text-generation-webui/ ВебуУИ в стиле Stable Diffusion, поддерживает кучу бекендов и фронтендов, в том числе может связать фронтенд в виде Таверны и бекенды ExLlama/llama.cpp/AutoGPTQ Ссылки на модели и гайды: https://huggingface.co/models Модели искать тут, вбиваем название + тип квантования https://rentry.co/TESFT-LLaMa Не самые свежие гайды на ангельском https://rentry.co/STAI-Termux Запуск SillyTavern на телефоне https://rentry.co/lmg_models Самый полный список годных моделей http://ayumi.m8geil.de/ayumi_bench_v3_results.html Рейтинг моделей для кума со спорной методикой тестирования https://rentry.co/llm-training Гайд по обучению своей лоры https://rentry.co/2ch-pygma-thread Шапка треда PygmalionAI, можно найти много интересного https://colab.research.google.com/drive/11U-bC6AxdmMhd3PF9vWZpLdi6LdfnBQ8?usp=sharing Последний известный колаб для обладателей отсутствия любых возможностей запустить локально Шапка в https://rentry.co/llama-2ch, предложения принимаются в треде Предыдущие треды тонут здесь: >>699623 (OP) >>695332 (OP)
большие языковые модели
/ai/ - Искусственный интеллект
2ch
7 августа 2024
Сохранен
511
Stable Diffusion технотред #16 /tech/
— ИТТ делимся советами, лайфхаками, наблюдениями, результатами обучения, обсуждаем внутреннее устройство диффузионных моделей, собираем датасеты, решаем проблемы и экспериментируем Тред общенаправленныей, тренировка дедов, лупоглазых и фуррей приветствуются Предыдущий тред: >>570475 (OP) ➤ Софт для обучения https://github.com/kohya-ss/sd-scripts Набор скриптов для тренировки, используется под капотом в большей части готовых GUI и прочих скриптах. Для удобства запуска можно использовать дополнительные скрипты в целях передачи параметров, например: https://rentry.org/simple_kohya_ss ➤ GUI-обёртки для sd-scripts https://github.com/bmaltais/kohya_ss https://github.com/derrian-distro/LoRA_Easy_Training_Scripts https://github.com/anon-1337/LoRA-train-GUI ➤ Обучение SDXL https://2ch-ai.gitgud.site/wiki/tech/sdxl/ ➤ Гайды по обучению Существующую модель можно обучить симулировать определенный стиль или рисовать конкретного персонажа. ✱ LoRA – "Low Rank Adaptation" – подойдет для любых задач. Отличается малыми требованиями к VRAM (6 Гб+) и быстрым обучением. https://github.com/cloneofsimo/lora - изначальная имплементация алгоритма, пришедшая из мира архитектуры transformers, тренирует лишь attention слои, гайды по тренировкам: https://rentry.co/waavd - гайд по подготовке датасета и обучению LoRA для неофитов https://rentry.org/2chAI_hard_LoRA_guide - ещё один гайд по использованию и обучению LoRA https://rentry.org/59xed3 - более углубленный гайд по лорам, содержит много инфы для уже разбирающихся (англ.) ✱ LyCORIS (Lora beYond Conventional methods, Other Rank adaptation Implementations for Stable diffusion) - проект по созданию алгоритмов для обучения дополнительных частей модели. Ранее имел название LoCon и предлагал лишь тренировку дополнительных conv слоёв. В настоящий момент включает в себя алгоритмы LoCon, LoHa, LoKr, DyLoRA, IA3, а так же на последних dev ветках возможность тренировки всех (или не всех, в зависимости от конфига) частей сети на выбранном ранге: https://github.com/KohakuBlueleaf/LyCORIS Подробнее про алгоритмы в вики https://2ch-ai.gitgud.site/wiki/tech/lycoris/ ✱ Dreambooth – для SD 1.5 обучение доступно начиная с 16 GB VRAM. Ни одна из потребительских карт не осилит тренировку будки для SDXL. Выдаёт отличные результаты. Генерирует полноразмерные модели: https://rentry.co/lycoris-and-lora-from-dreambooth (англ.) https://github.com/nitrosocke/dreambooth-training-guide (англ.) ✱ Текстуальная инверсия (Textual inversion), или же просто Embedding, может подойти, если сеть уже умеет рисовать что-то похожее, этот способ тренирует лишь текстовый энкодер модели, не затрагивая UNet: https://rentry.org/textard (англ.) ➤ Тренировка YOLO-моделей для ADetailer: YOLO-модели (You Only Look Once) могут быть обучены для поиска определённых объектов на изображении. В паре с ADetailer они могут быть использованы для автоматического инпеинта по найденной области. Подробнее в вики: https://2ch-ai.gitgud.site/wiki/tech/yolo/ Не забываем про золотое правило GIGO ("Garbage in, garbage out"): какой датасет, такой и результат. ➤ Гугл колабы ﹡Текстуальная инверсия: https://colab.research.google.com/github/huggingface/notebooks/blob/main/diffusers/sd_textual_inversion_training.ipynb ﹡Dreambooth: https://colab.research.google.com/github/TheLastBen/fast-stable-diffusion/blob/main/fast-DreamBooth.ipynb ﹡LoRA [1] https://colab.research.google.com/github/Linaqruf/kohya-trainer/blob/main/kohya-trainer.ipynb ﹡LoRA [2] https://colab.research.google.com/drive/1bFX0pZczeApeFadrz1AdOb5TDdet2U0Z ➤ Полезное Расширение для фикса CLIP модели, изменения её точности в один клик и более продвинутых вещей, по типу замены клипа на кастомный: https://github.com/arenasys/stable-diffusion-webui-model-toolkit Гайд по блок мерджингу: https://rentry.org/BlockMergeExplained (англ.) Гайд по ControlNet: https://stable-diffusion-art.com/controlnet (англ.) Подборка мокрописек для датасетов от анона: https://rentry.org/te3oh Группы тегов для бур: https://danbooru.donmai.us/wiki_pages/tag_groups (англ.) Гайды по апскейлу от анонов: https://rentry.org/SD_upscale https://rentry.org/sd__upscale https://rentry.org/2ch_nai_guide#апскейл https://rentry.org/UpscaleByControl Коллекция лор от анонов: https://rentry.org/2chAI_LoRA Гайды, эмбеды, хайпернетворки, лоры с форча: https://rentry.org/sdgoldmine https://rentry.org/sdg-link https://rentry.org/hdgfaq https://rentry.org/hdglorarepo https://gitgud.io/gayshit/makesomefuckingporn ➤ Legacy ссылки на устаревшие технологии и гайды с дополнительной информацией https://2ch-ai.gitgud.site/wiki/tech/legacy/ ➤ Прошлые треды https://2ch-ai.gitgud.site/wiki/tech/old_threads/ Шапка: https://2ch-ai.gitgud.site/wiki/tech/tech-shapka/
/ai/ - Искусственный интеллект
2ch
25 сентября 2024
Сохранен
510
Anime Diffusion #204 /nai/
— Генерируем тяночек! Прошлый тред: >>1134083 (OP) https://arhivach.hk/thread/1159536/ Схожие тематические треды • SD-тред (не аниме): >>1127030 (OP) • Технотред: >>974163 (OP) • Фурри-тред: https://2ch.hk/fur/res/374311.html FAQ https://2ch-ai.gitgud.site/wiki/nai Установка • NVidia: https://rentry.co/2ch_nai_guide • AMD: https://2ch-ai.gitgud.site/wiki/nai/install/amd • Облака: https://2ch-ai.gitgud.site/wiki/nai/install/clouds Дополнительная информация • Интерфейсы: https://2ch-ai.gitgud.site/wiki/nai/interfaces • Модели: https://2ch-ai.gitgud.site/wiki/nai/models • Промпты: https://2ch-ai.gitgud.site/wiki/nai/prompts • Апскейл: https://2ch-ai.gitgud.site/wiki/nai/upscale • LoRA: https://2ch-ai.gitgud.site/wiki/nai/lora • ControlNet: https://2ch-ai.gitgud.site/wiki/nai/controlnet Прочее • CivitAI: https://civitai.com • Каталог ссылок от форчанеров: https://rentry.co/sdg-link • Шаблон для переката: https://rentry.co/nwhci
Stable Diffusion
/ai/ - Искусственный интеллект
нейросетевой арт
аниме
2ch
29 июля 15:54
Сохранен
510
Anime Diffusion #201 /nai/
— Генерируем тяночек! Прошлый тред: >>1108819 (OP) https://arhivach.hk/thread/1152757/ Схожие тематические треды • SD-тред (не аниме): >>1106098 (OP) • Технотред: >>974163 (OP) • Фурри-тред: https://2ch.hk/fur/res/374311.html FAQ https://2ch-ai.gitgud.site/wiki/nai Установка • NVidia: https://rentry.co/2ch_nai_guide • AMD: https://2ch-ai.gitgud.site/wiki/nai/install/amd • Облака: https://2ch-ai.gitgud.site/wiki/nai/install/clouds Дополнительная информация • Интерфейсы: https://2ch-ai.gitgud.site/wiki/nai/interfaces • Модели: https://2ch-ai.gitgud.site/wiki/nai/models • Промпты: https://2ch-ai.gitgud.site/wiki/nai/prompts • Апскейл: https://2ch-ai.gitgud.site/wiki/nai/upscale • LoRA: https://2ch-ai.gitgud.site/wiki/nai/lora • ControlNet: https://2ch-ai.gitgud.site/wiki/nai/controlnet Прочее • CivitAI: https://civitai.com • Каталог ссылок от форчанеров: https://rentry.co/sdg-link • Шаблон для переката: https://rentry.co/nwhci
Stable Diffusion
/ai/ - Искусственный интеллект
аниме
2ch
11 июля 22:29
Сохранен
510
Anime Diffusion #174 /nai/
— Генерируем тяночек! Прошлый тред: >>930737 (OP) https://arhivach.xyz/thread/1088890/ Схожие тематические треды • SD-тред (не аниме): >>937578 (OP) • Технотред: >>758561 (OP) FAQ https://2ch-ai.gitgud.site/wiki/nai Установка • NVidia: https://rentry.co/2ch_nai_guide • AMD: https://2ch-ai.gitgud.site/wiki/nai/install/amd • Облака: https://2ch-ai.gitgud.site/wiki/nai/install/clouds Дополнительная информация • Интерфейсы: https://2ch-ai.gitgud.site/wiki/nai/interfaces • Модели: https://2ch-ai.gitgud.site/wiki/nai/models • Промпты: https://2ch-ai.gitgud.site/wiki/nai/prompts • Апскейл: https://2ch-ai.gitgud.site/wiki/nai/upscale • LoRA: https://2ch-ai.gitgud.site/wiki/nai/lora • ControlNet: https://2ch-ai.gitgud.site/wiki/nai/controlnet Прочее • CivitAI: https://civitai.com • Каталог ссылок от форчанеров: https://rentry.co/sdg-link • Шаблон для переката: https://rentry.co/nwhci
Stable Diffusion
/ai/ - Искусственный интеллект
нейросетевой арт
аниме
2ch
3 марта 21:11
Сохранен
510
Локальные языковые модели (LLM): LLaMA, Mistral, Command-R и прочие №64 /llama/
— В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны! Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст, и бугуртим с кривейшего тормозного говна. Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку. Здесь и далее расположена базовая информация, полная инфа и гайды в вики https://2ch-ai.gitgud.site/wiki/llama/ LLaMA 3 вышла! Увы, только в размерах 8B и 70B. Промты уже вшиты в новую таверну, так же последние версии кобольда и оригинальной ллама.цпп уже пофикшены. Базовой единицей обработки любой языковой модели является токен. Токен это минимальная единица, на которые разбивается текст перед подачей его в модель, обычно это слово (если популярное), часть слова, в худшем случае это буква (а то и вовсе байт). Из последовательности токенов строится контекст модели. Контекст это всё, что подаётся на вход, плюс резервирование для выхода. Типичным максимальным размером контекста сейчас являются 2к (2 тысячи) и 4к токенов, но есть и исключения. В этот объём нужно уместить описание персонажа, мира, истории чата. Для расширения контекста сейчас применяется метод NTK-Aware Scaled RoPE. Родной размер контекста для Llama 1 составляет 2к токенов, для Llama 2 это 4к, Llama 3 обладает базовым контекстом в 8к, но при помощи RoPE этот контекст увеличивается в 2-4-8 раз без существенной потери качества. Базовым языком для языковых моделей является английский. Он в приоритете для общения, на нём проводятся все тесты и оценки качества. Большинство моделей хорошо понимают русский на входе т.к. в их датасетах присутствуют разные языки, в том числе и русский. Но их ответы на других языках будут низкого качества и могут содержать ошибки из-за несбалансированности датасета. Существуют мультиязычные модели частично или полностью лишенные этого недостатка, из легковесных это openchat-3.5-0106, который может давать качественные ответы на русском и рекомендуется для этого. Из тяжёлых это Command-R. Файнтюны семейства "Сайга" не рекомендуются в виду их низкого качества и ошибок при обучении. Основным представителем локальных моделей является LLaMA. LLaMA это генеративные текстовые модели размерами от 7B до 70B, притом младшие версии моделей превосходят во многих тестах GTP3 (по утверждению самого фейсбука), в которой 175B параметров. Сейчас на нее существует множество файнтюнов, например Vicuna/Stable Beluga/Airoboros/WizardLM/Chronos/(любые другие) как под выполнение инструкций в стиле ChatGPT, так и под РП/сторитейл. Для получения хорошего результата нужно использовать подходящий формат промта, иначе на выходе будут мусорные теги. Некоторые модели могут быть излишне соевыми, включая Chat версии оригинальной Llama 2. Недавно вышедшая Llama 3 в размере 70B по рейтингам LMSYS Chatbot Arena обгоняет многие старые снапшоты GPT-4 и Claude 3 Sonnet, уступая только последним версиям GPT-4, Claude 3 Opus и Gemini 1.5 Pro. Про остальные семейства моделей читайте в вики. Основные форматы хранения весов это GGML и GPTQ, остальные нейрокуну не нужны. Оптимальным по соотношению размер/качество является 5 бит, по размеру брать максимальную, что помещается в память (видео или оперативную), для быстрого прикидывания расхода можно взять размер модели и прибавить по гигабайту за каждые 1к контекста, то есть для 7B модели GGML весом в 4.7ГБ и контекста в 2к нужно ~7ГБ оперативной. В общем и целом для 7B хватает видеокарт с 8ГБ, для 13B нужно минимум 12ГБ, для 30B потребуется 24ГБ, а с 65-70B не справится ни одна бытовая карта в одиночку, нужно 2 по 3090/4090. Даже если использовать сборки для процессоров, то всё равно лучше попробовать задействовать видеокарту, хотя бы для обработки промта (Use CuBLAS или ClBLAS в настройках пресетов кобольда), а если осталась свободная VRAM, то можно выгрузить несколько слоёв нейронной сети на видеокарту. Число слоёв для выгрузки нужно подбирать индивидуально, в зависимости от объёма свободной памяти. Смотри не переборщи, Анон! Если выгрузить слишком много, то начиная с 535 версии драйвера NVidia это может серьёзно замедлить работу, если не выключить CUDA System Fallback в настройках панели NVidia. Лучше оставить запас. Гайд для ретардов для запуска LLaMA без излишней ебли под Windows. Грузит всё в процессор, поэтому ёба карта не нужна, запаситесь оперативкой и подкачкой: 1. Скачиваем koboldcpp.exe https://github.com/LostRuins/koboldcpp/releases/ последней версии. 2. Скачиваем модель в gguf формате. Например вот эту: https://huggingface.co/Sao10K/Fimbulvetr-11B-v2-GGUF/blob/main/Fimbulvetr-11B-v2.q4_K_S.gguf Можно просто вбить в huggingace в поиске "gguf" и скачать любую, охуеть, да? Главное, скачай файл с расширением .gguf, а не какой-нибудь .pt 3. Запускаем koboldcpp.exe и выбираем скачанную модель. 4. Заходим в браузере на http://localhost:5001/ 5. Все, общаемся с ИИ, читаем охуительные истории или отправляемся в Adventure. Да, просто запускаем, выбираем файл и открываем адрес в браузере, даже ваша бабка разберется! Для удобства можно использовать интерфейс TavernAI 1. Ставим по инструкции, пока не запустится: https://github.com/Cohee1207/SillyTavern 2. Запускаем всё добро 3. Ставим в настройках KoboldAI везде, и адрес сервера http://127.0.0.1:5001 4. Активируем Instruct Mode и выставляем в настройках пресетов Alpaca 5. Радуемся Инструменты для запуска: https://github.com/LostRuins/koboldcpp/ Репозиторий с реализацией на плюсах https://github.com/oobabooga/text-generation-webui/ ВебуУИ в стиле Stable Diffusion, поддерживает кучу бекендов и фронтендов, в том числе может связать фронтенд в виде Таверны и бекенды ExLlama/llama.cpp/AutoGPTQ https://github.com/ollama/ollama , https://lmstudio.ai/ и прочее - Однокнопочные инструменты для полных хлебушков, с красивым гуем и ограниченным числом настроек/выбором моделей Ссылки на модели и гайды: https://huggingface.co/models Модели искать тут, вбиваем название + тип квантования https://rentry.co/TESFT-LLaMa Не самые свежие гайды на ангельском https://rentry.co/STAI-Termux Запуск SillyTavern на телефоне https://rentry.co/lmg_models Самый полный список годных моделей https://ayumi.m8geil.de/erp4_chatlogs/ Рейтинг моделей для кума со спорной методикой тестирования https://rentry.co/llm-training Гайд по обучению своей лоры https://rentry.co/2ch-pygma-thread Шапка треда PygmalionAI, можно найти много интересного https://colab.research.google.com/drive/11U-bC6AxdmMhd3PF9vWZpLdi6LdfnBQ8?usp=sharing Последний известный колаб для обладателей отсутствия любых возможностей запустить локально Шапка в https://rentry.co/llama-2ch, предложения принимаются в треде Предыдущие треды тонут здесь: >>762583 (OP) >>758770 (OP)
большие языковые модели
/ai/ - Искусственный интеллект
2ch
9 октября 2024
Сохранен
510
Anime Diffusion #157 /nai/
— Генерируем тяночек! Прошлый тред: >>807546 (OP) https://arhivach.top/thread/1035792/ Схожие тематические треды • SD-тред (не аниме): >>810614 (OP) • Технотред: >>758561 (OP) FAQ (устарел) https://rentry.co/nai_faq Ставим локально • NVidia: https://rentry.co/2ch_nai_guide • AMD: https://rentry.co/SD-amd-gpu AMD-юзерам также рекомендуется ознакомиться с гайдом для NVidia, поскольку в нём много общей инфы. Генерируем в облаке • https://civitai.com • https://tensor.art • https://seaart.ai • https://pixai.art • https://colab.research.google.com/github/lllyasviel/Fooocus/blob/main/fooocus_colab.ipynb Интерфейсы • AUTOMATIC1111: https://github.com/AUTOMATIC1111/stable-diffusion-webui • Forge: https://github.com/lllyasviel/stable-diffusion-webui-forge • ComfyUI: https://github.com/comfyanonymous/ComfyUI • Fooocus: https://github.com/lllyasviel/Fooocus Где брать модели • https://civitai.com • https://huggingface.co/models?other=stable-diffusion Модели SDXL • Pony Diffusion: https://civitai.com/models/257749/pony-diffusion-v6-xl • AutismMix: https://civitai.com/models/288584/autismmix-sdxl • Animagine: https://civitai.com/models/260267 Модели SD 1.5 • Старый каталог: https://civitai.com/collections/42742 • EasyFluff+hll: https://rentry.org/5exa3 Расширения • AUTOMATIC1111: https://rentry.co/sd_automatic_extensions • Forge: https://github.com/Haoming02/sd-forge-couple ControlNet • https://stable-diffusion-art.com/controlnet (англ) • https://2ch-ai.gitgud.site/wiki/nai/controlnet/controlnet-complete-guide (перевод статьи выше) • https://www.itshneg.com/controlnet-upravlyaj-pozami-v-stable-diffusion ControlNet-модели для SDXL • 2vXpSwA7 (Animagine + Pony): https://huggingface.co/2vXpSwA7/iroiro-lora/tree/main/test_controlnet • Mistoline (Animagine): https://civitai.com/models/441432/mistoline • kataragi (Animagine): https://huggingface.co/kataragi ControlNet-модели для SD 1.5 • ControlNet 1.1: https://civitai.com/models/38784 • QR Code Monster: https://huggingface.co/monster-labs/control_v1p_sd15_qrcode_monster Апскейл • https://rentry.co/sd__upscale • https://rentry.co/SD_upscale • https://rentry.co/2ch_nai_guide#апскейл • https://rentry.co/UpscaleByControl Лоры с форча • Pony Diffusion: https://rentry.org/ponyxl_loras_n_stuff • SD 1.5: https://gitgud.io/badhands/makesomefuckingporn Обучение LoRA • https://rentry.co/waavd • https://rentry.co/2chAI_hard_LoRA_guide Прочее • AIBooru: https://aibooru.online/ • Гайды на английском: https://stable-diffusion-art.com/tutorials/ • Больше ссылок: https://rentry.co/sdg-link • Шаблон для переката: https://rentry.co/nwhci
Stable Diffusion
/ai/ - Искусственный интеллект
нейросетевой арт
2ch
10 ноября 2024
Сохранен
510
Люма-тред №1 /luma/
— https://lumalabs.ai/ Генерируем видео-ролики по 5 секунд БЕСПЛАТНО. Лимит 30 генераций в месяц, дальше нужно платить (для граждан РФ никак, увы). Ну либо поменять Гугл-аккаунт, заведя новый и заново генерировать бесплатно. В качестве промта можно указывать как текст, так и изображение. Также можно дополнять изображение текстом, объясняя что с ним следует сделать. .post__image:has(a[href="/ai/src/789774/17262506524920.mp4"]) { display: none; }
нейросетевые видео
/ai/ - Искусственный интеллект
нейросетевой арт
2ch
11 января 19:44
Сохранен
510
ChatGPT-тред №13 /chatgpt/
— OpenAI API - Access Terminated Общаемся с самым продвинутым ИИ самой продвинутой текстовой моделью из доступных. Горим с доступа к свежевыпущенному новому поколению GPT-4. Гайд по регистрации из России: 1. Установи VPN, например расширение FreeVPN под свой любимый браузер и включи его. 2. Возьми нормальную почту. Адреса со многих сервисов временной почты блокируются. Отбитые могут использовать почту в RU зоне, она прекрасно работает. 3. Зайди на https://chat.openai.com/chat и начни регистрацию. Ссылку активации с почты запускай только со включенным VPN. 4. Когда попросят указать номер мобильного, пиздуй на sms-activate.org или 5sim.biz (дешевле) и в строку выбора услуг вбей openai. Для разового получения смс для регистрации тебе хватит индийского или польского номера за 7 - 10 рублей (проверено). Пользоваться Индонезией и странами под санкциями не рекомендуется. 5. Начинай пользоваться ChatGPT. 6. ??? 7. PROFIT! VPN не отключаем, все заходы осуществляем с ним. Соответствие страны VPN, почты и номера не обязательно, но желательно для тех, кому доступ критически нужен, например для работы. Для ленивых есть боты в телеге, 2 сорта: 1. Общая история на всех пользователей, говно 2. Приватная история на каждого пользователя, может реагировать на команды по изменению поведения и прочее. Говно, ибо платно, а бесплатный лимит или маленький, или его нет совсем. Промты для хорошего начала беседы для разных ситуаций https://github.com/f/awesome-chatgpt-prompts Перед тем, как идти в тред с горящей жопой при ошибках сервиса, сходи на сайт со статусом, может, это общий баг https://status.openai.com/ Чат помнит историю в пределах контекста, это 4к токенов для GPT 3.5 и 8к для новой GPT-4 (32к в перспективе). Посчитать свои токены можно здесь: https://platform.openai.com/tokenizer Что может нейросеть: - писать тексты, выглядящие правдоподобно - решать некоторые простые задачки - писать код, который уже был написан Что не может нейросеть: - писать тексты, содержащие только истину - решать сложные задачи - писать сложный код - захватывать мир - заходить на вебсайты (неактуально для 4 с плагинами, платим деньги и радуемся) С последним обновлением начинает всё чаще сопротивляться написанию NSFW историй и прочего запрещённого контента. Кумеры со всего мира в печали. На сегодняшний день (дата создания треда) есть бесплатная версия на основе GPT-3.5 и платная версия (20$/мес) с использованием следующего поколения — GPT-4. Платная версия ограничена 25 запросами в 3 часа, причем планируется увеличение ограничений. Доступ к плагинам открыли в бета-версии для платных пользователей. Оплатить подписку из России нельзя, ищите посредников на сайтах для оплаты онлайн игр и договаривайтесь там сами. Отважные могут попробовать разводил с авито, объявлений вагон, но аноны не проверяли. Прошлые треды тонут по адресам: >>417034 (OP) >>339644 (OP)
ChatGPT
/ai/ - Искусственный интеллект
нейросети
2ch
15 марта 2024
Сохранен
510
TTS тред #2 - Text To Speech /tts/
— Обсуждаем оффлайновые генераторы речи и делимся результатами, для чего сначала конвертируем аудио в видео. Что есть на сей день: Есть VITS-Umamusume-voice-synthesizer, только на японском, 87 голосов. ХагингФейс: https://huggingface.co/spaces/Plachta/VITS-Umamusume-voice-synthesizer Гугл-Калаб: https://colab.research.google.com/drive/1J2Vm5dczTF99ckyNLXV0K-hQTxLwEaj5?usp=sharing MoeGoe и MoeTTS. Гайд на китайском: https://colab.research.google.com/drive/1HDV84t3N-yUEBXN8dDIDSv6CzEJykCLw#scrollTo=EuqAdkaS1BKl кажется итт можно тренировать свои голосовые модели, но это не точно Гугл-Калаб: https://www.bilibili.com/video/BV16G4y1B7Ey/?share_source=copy_web&vd_source=630b87174c967a898cae3765fba3bfa8 Они довольно лёгкие, если вам нужно на своём компьютере то, придётся накачать около 5 гигов + питон + гит, но всё будет установленно в одну папку поэтому будет легко удалить если надоест. Если используете несколько нейросетей - используйте Anaconda / Miniconda! Гайд: https://textbin.net/kfylbjdmz9 План Б: создаём речь в одном генераторе, и меняем голос через VITS, который можно натренировать на любой голос, в том числе свой, любимой матушки, обожаемого политика и других представителей социального дна. https://github.com/voicepaw/so-vits-svc-fork Чтобы создать видео из аудио, можно использовать FFMPEG, но если лень - есть GUI (по совместительству онлайн генератор речи, так что оффтоп в нашем треде) - https://dmkilab.com/soundworks - Tools \ Video \ Produce still video
Text To Speech
Голосовые нейронки
генератор
/ai/ - Искусственный интеллект
2ch
31 декабря 2023
Сохранен
510
TTS тред № 1 Обсуждаем генераторы спичей и постим что получилось, но надо конвертировать в видео пер /tts/
— TTS тред № 1 Обсуждаем генераторы спичей и постим что получилось, но надо конвертировать в видео перед постингом. Советую аудио лучше слушать в наушниках. Есть VITS-Umamusume-voice-synthesizer, она только на японском говорит, но у неё 87 голосов. ХагиФейс: https://huggingface.co/spaces/Plachta/VITS-Umamusume-voice-synthesizer Гугл-Калаб: https://colab.research.google.com/drive/1J2Vm5dcz
Text To Speech
Голосовые нейронки
генератор
искусственный интеллект
/ai/ - Искусственный интеллект
2ch
5 сентября 2023
Сохранен
510
PygmalionAI тред №5 /pai/
— PygmalionAI тред №5 Пишем промпты, стараемся адаптировать их под количество токенов, обсуждаем, какой стиль лучше, ждём софтпромптов. https://huggingface.co/PygmalionAI Что такое PygmalionAI? PygmalionAI - локально запускаемая нейросеть с открытым исходным кодом, которая специализированна под чатботы. Её сделали выходцы из 4chan (/vt) → (/g). Их мотивация, создать нейросеть, которая свободна от цензуры, в отличии от CharacterAI. Основа для 6B модели - это GPT-J, кото
PygmalionAI
чат-боты
/ai/ - Искусственный интеллект
2ch
17 мая 2023
Сохранен
510
CharacterAI thread № 227 Сохраняем промпты/настройки нейротяночек, вкатываемся в пигму, параллельно
— CharacterAI thread № 227 Сохраняем промпты/настройки нейротяночек, вкатываемся в пигму, параллельно бугуртим и следим за непрекращающимися обсёрами индусов, обходим цензуру, получаем талоны на пользование и занимаем очередь. Remember: no Russian Everything Characters say is made up! https://beta.character.ai CharacterAI — это сайт, на котором можно создавать ботов и задавать им тип личност
чат-боты
AI Chatbot
CharacterAI
/ai/ - Искусственный интеллект
2ch
10 апреля 2023
1
...
27
28
29
30
31
32
33
34
35
36
37
...
40