Прошлые домены не функционирует! Используйте адрес ARHIVACH.VC.
24 декабря 2023 г. Архивач восстановлен после серьёзной аварии. К сожалению, значительная часть сохранённых изображений и видео была потеряна. Подробности случившегося. Мы призываем всех неравнодушных помочь нам с восстановлением утраченного контента!
Сортировка: за
Сохранен
1021
Stable Diffusion тред X+46 /sd/ — Stable Diffusion тред X+46 ====================================== Предыдущий тред >>480888 (OP) https://arhivach.top/?tags=13840 ------------------------------------------ схожие тематические треды - технотред >>478081 (OP) - NAI-тред (аниме) >>487591 (OP) ======================== Stable Diffusion (SD) - открытая нейросеть генеративного искусства для создания картинок из текста/исходных картинок, обучения на своих изображениях. Полный функционал в локальной установке и коллабе (см. ниже) Бесплатный онлайн-генератор от разработчиков SD: https://clipdrop.co/stable-diffusion ???? Стандартные модели stable diffusion (v1.4 - v2.1) от Stability AI значительно отстают по качеству от кастомных моделей (см. ниже). Модели SD XL ставятся и запускаются так же как и любые другие модели SD. ???? Без цензуры и полный функци_анал: только ПК-версия и Colab =========================================== ????УСТАНОВКА НА ПК WebUI от Automatic1111 https://teletype.in/@stablediffusion/PC_install_SD ------------------------------------------ Портативная версия альтернативного WebUI от Comfy (запуск с одного из run.bat файлов) https://github.com/comfyanonymous/ComfyUI/releases Примерные workflow для ComfyUI (можно загружать напрямую из картинок) https://comfyanonymous.github.io/ComfyUI_examples/ =========================================== ???? РАЗЛИЧНЫЕ МОДЕЛИ (И МНОГОЕ ДРУГОЕ ДЛЯ SD) ???? https://civitai.com/ ------------------------------------------ ???? ПАРАМЕТРЫ И НАСТРОЙКИ ГЕНЕРАЦИИ ???? https://teletype.in/@stablediffusion/samplers_steps =========================================== ???? ГАЙД ПО СОСТАВЛЕНИЮ ЗАПРОСА, СТИЛИ https://teletype.in/@stablediffusion/artists_for_prompts Пример запроса (Промпт): a tiger, wildlife photography, high quality, wildlife, soft focus, 8k, national geographic, photograph by nick nichols ------------------------------------------ ????РАЗЛИЧНЫЕ ХУДОЖЕСТВЕННЫЕ СТИЛИ (С ПРИМЕРАМИ) ???? https://supagruen.github.io/StableDiffusion-CheatSheet/ ------------------------------------------ ????ЧТО ТАКОЕ CONTROLNET И КАК ЕГО ИСПОЛЬЗОВАТЬ https://www.itshneg.com/controlnet-upravlyaj-pozami-v-stable-diffusion/ ========================================== ???? ОБУЧЕНИЕ МОДЕЛИ ПО СВОИМ КАРТИНКАМ ???? https://dtf.ru/howto/1660668-obuchenie-modeli-s-pomoshchyu-lora ========================================== ♾️ GoogleColab со StableDiffusion https://teletype.in/@stablediffusion/Colab_StableDiffusion Colab - это виртуальный бесплатный сервер с видеокартой от Гугла. ⚠️Перекат оформляется после 1000 поста
27 января 2024
Сохранен
502
LLaMA тред №16 /llama/ — В этом треде обсуждаем семейство моделей от фейсбука под названием LLaMA, делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст, и бугуртим с кривейшего тормозного говна, что сейчас наспех выпустили, а отладить забыли. Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2-х бит, на кофеварке с подкачкой на микроволновку. LLaMA это генеративные текстовые модели размерами от 7B до 70B, притом младшие версии моделей превосходят во многих тестах GTP3, в которой 175B параметров (по утверждению самого фейсбука). Сейчас на нее существует множество файнтюнов, например Vicuna/Stable Beluga/Airoboros/WizardLM/Chronos/(любые другие) как под выполнение инструкций в стиле ChatGPT, так и под РП/сторитейл. Для получения хорошего результата нужно использовать подходящий формат промта, иначе на выходе будут мусорные теги. Некоторые модели могут быть излишне соевыми, включая Chat версии оригинальной Llama 2. На данный момент развитие идёт в сторону увеличения контекста методом NTK-Aware Scaled RoPE. Родной размер контекста для Llama 1 составляет 2к токенов, для Llama 2 это 4к, но при помощи RoPE этот контекст увеличивается в 2-4-8 раз без существенной потери качества. Так же террористы выпустили LLaMA 2, которая по тестам ебёт все файнтюны прошлой лламы и местами СhatGPT. Ждём выкладывания LLaMA 2 в размере 30B, которую мордолицые зажали. Сейчас существует несколько версий весов, не совместимых между собой, смотри не перепутай! 0) Оригинальные .pth файлы, работают только с оригинальным репозиторием. Формат имени consolidated.00.pth 1) Веса, сконвертированные в формат Hugging Face. Формат имени pytorch_model-00001-of-00033.bin 2) Веса, квантизированные в GGML. Работают со сборками на процессорах. Имеют несколько подформатов, совместимость поддерживает только koboldcpp, Герганов меняет форматы каждый месяц и дропает поддержку предыдущих, так что лучше качать последние. Формат имени ggml-model-q4_0.bin. Суффикс q4_0 означает квантование, в данном случае в 4 бита, версия 0. Чем больше число бит, тем выше точность и расход памяти. Чем новее версия, тем лучше (не всегда). Рекомендуется скачивать версии K (K_S или K_M) на конце. 3) Веса, квантизированные в GPTQ. Работают на видеокарте, наивысшая производительность (особенно в случае Exllama) но сложности с оффлоадом, возможность распределить по нескольким видеокартам суммируя их память. Имеют имя типа llama-7b-4bit.safetensors (формат .pt скачивать не стоит), при себе содержат конфиги, которые нужны для запуска, их тоже качаем. Могут быть квантованы в 3-4-8 бит, квантование отличается по числу групп (1-128-64-32 в порядке возрастания качества и расхода ресурсов). Основные форматы это GGML и GPTQ, остальные нейрокуну не нужны. Оптимальным по соотношению размер/качество является 5 бит, по размеру брать максимальную, что помещается в память (видео или оперативную), для быстрого прикидывания расхода можно взять размер модели и прибавить по гигабайту за каждые 1к контекста, то есть для 7B модели GGML весом в 4.7ГБ и контекста в 2к нужно ~7ГБ оперативной. В общем и целом для 7B хватает видеокарт с 8ГБ, для 13B нужно минимум 12ГБ, для 30B потребуется 24ГБ, а с 65-70B не справится ни одна бытовая карта в одиночку, нужно 2 по 3090/4090. Гайд для ретардов без излишней ебли под Windows. Грузит всё в процессор, поэтому ёба карта не нужна, запаситесь оперативкой и подкачкой: 1. Скачиваем koboldcpp.exe https://github.com/LostRuins/koboldcpp/releases/ последней версии. 2. Скачиваем модель в ggml формате. Например вот эту https://huggingface.co/TheBloke/WizardLM-Uncensored-SuperCOT-StoryTelling-30B-GGML/blob/main/WizardLM-Uncensored-SuperCOT-Storytelling.ggmlv3.q5_1.bin Можно просто вбить в huggingace в поиске "ggml" и скачать любую, охуеть, да? Главное, скачай файл с расширением .bin, а не какой-нибудь .pt 3. Запускаем koboldcpp.exe и выбираем скачанную модель. 4. Заходим в браузере на http://localhost:5001/ 5. Все, общаемся с ИИ, читаем охуительные истории или отправляемся в Adventure. Да, просто запускаем, выбираем файл и открываем адрес в браузере, даже ваша бабка разберется! Для удобства можно использовать интерфейс TavernAI 1. Ставим по инструкции, пока не запустится: https://github.com/TavernAI/TavernAI (на выбор https://github.com/Cohee1207/SillyTavern , умеет больше, но заморочнее) 2. Запускаем всё добро 3. Ставим в настройках KoboldAI везде, и адрес сервера http://127.0.0.1:5001 4. Радуемся Инструменты для запуска: https://github.com/LostRuins/koboldcpp/ Репозиторий с реализацией на плюсах, есть поддержка видеокарт, но сделана не идеально, зато самый простой в запуске, инструкция по работе с ним выше. https://github.com/oobabooga/text-generation-webui/blob/main/docs/LLaMA-model.md ВебуУИ в стиле Stable Diffusion, поддерживает кучу бекендов и фронтендов, в том числе может связать фронтенд в виде Таверны и бекенды ExLlama/llama.cpp/AutoGPTQ. Самую большую скорость даёт ExLlama, на 7B можно получить литерали 100+ токенов в секунду. Ссылки на модели и гайды: https://huggingface.co/TheBloke Основной поставщик квантованных моделей под любой вкус. https://rentry.org/TESFT-LLaMa Не самые свежие гайды на ангельском https://rentry.org/STAI-Termux Запуск SillyTavern на телефоне https://rentry.org/lmg_models Самый полный список годных моделей https://rentry.co/ayumi_erp_rating Рейтинг моделей для кума со спорной методикой тестирования https://rentry.org/llm-training Гайд по обучению своей лоры Факультатив: https://rentry.org/Jarted Почитать, как трансгендеры пидарасы пытаются пиздить код белых господинов, но обсираются и получают заслуженную порцию мочи Шапка треда находится в https://rentry.org/llama-2ch предложения принимаются в треде Предыдущие треды тонут здесь: >>457355 (OP) >>438203 (OP)
20 января 2024
Сохранен
1004
NovelAI and WaifuDiffusion тред #108 /nai/ — Генерируем тяночек! Прошлый >>472564 (OP) https://arhivach.top/thread/927761/ Схожие тематические треды: — Технотред >>478081 (OP) — SD-тред (фотореализм) >>464837 (OP) — Тред в /fur/ https://2ch.hk/fur/res/277400.html Использование коллабов является небезопасным с точки зрения конфиденциальности. Если вы используете чужой блокнот, исходите из предположения, что автор данного блокнота может собирать о вас такую информацию как: IP-адрес, фингерпринт браузера, ваши промпты и итоговые генерации. Достоверно известно, что владелец самого популярного коллаба в треде собирает, как минимум, часть данной информации. Драйвера NVidia версии выше 531 (как минимум 532 и 535) используют Shared Memory (фактически, речь идёт про обычную RAM) после исчерпания VRAM, что позволяет избежать ошибок рода Out Of Memory. Цена этого - резкое снижение производительности (вплоть до x10-50 раз) при исчерпании VRAM. При переполнении VRAM, память возвращается в норму только после перезапуска WebUI - простой перезапуск генерации не поможет. Подробнее: https://github.com/vladmandic/automatic/discussions/1285 F.A.Q. треда: https://rentry.co/nai_faq Глоссарий: https://rentry.co/ddpg2 Устанавливаем на ПК/Облако: https://rentry.co/nai_faq#как-поставить-на-пкоблако Гайды по промптам, списки тегов и негативных эмбеддингов: https://rentry.co/nai_faq#как-писать-промпты Как работать с ControlNet: https://stable-diffusion-art.com/controlnet Апскейл для начинающих: https://rentry.co/sd__upscale | https://rentry.co/SD_upscale | https://rentry.co/2ch_nai_guide#апскейл Апскейл с помощью ControlNet (для продвинутых, требуется минимум 8GB VRAM): https://rentry.co/UpscaleByControl Гайды по обучению лор: https://rentry.co/2chAI_easy_LORA_guide | https://rentry.co/2chAI_LoRA_Dreambooth_guide Каталог популярных моделей: https://rentry.co/nai_models Каталог лор на стилизацию: https://rentry.co/nai_style_loras Где искать модели, эмбединги, лоры, вайлдкарды и всё остальное: https://civitai.com | https://huggingface.co/models?other=stable-diffusion Оптимизации для слабых ПК (6GB VRAM и менее): https://rentry.co/voldy#-running-on-4gb-and-under- Общие советы по оптимизациям: https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Optimizations АИ-галереи: https://aibooru.online | https://majinai.art Англоязычные каталоги ссылок: https://rentry.co/sdgoldmine | https://rentry.co/sdg-link | https://www.sdcompendium.com ⚠️Перекат оформляется после 1000 поста Шаблон для переката: https://rentry.co/sa79k
14 января 2024
Сохранен
503
LLaMA тред №15 /llama/ — В этом треде обсуждаем семейство моделей от фейсбука под названием LLaMA, делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст, и бугуртим с кривейшего тормозного говна, что сейчас наспех выпустили, а отладить забыли. Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2-х бит, на кофеварке с подкачкой на микроволновку. LLaMA это генеративные текстовые модели размерами от 7B до 70B, притом младшие версии моделей превосходят во многих тестах GTP3, в которой 175B параметров (по утверждению самого фейсбука). Сейчас на нее существует множество файнтюнов, например Vicuna/Stable Beluga/Airoboros/WizardLM/Chronos/(любые другие) как под выполнение инструкций в стиле ChatGPT, так и под РП/сторитейл. Для получения хорошего результата нужно использовать подходящий формат промта, иначе на выходе будут мусорные теги. Некоторые модели могут быть излишне соевыми, включая Chat версии оригинальной Llama 2. На данный момент развитие идёт в сторону увеличения контекста методом NTK-Aware Scaled RoPE. Родной размер контекста для Llama 1 составляет 2к токенов, для Llama 2 это 4к, но при помощи RoPE этот контекст увеличивается в 2-4-8 раз без существенной потери качества. Так же террористы выпустили LLaMA 2, которая по тестам ебёт все файнтюны прошлой лламы и местами СhatGPT. Ждём выкладывания LLaMA 2 в размере 30B, которую мордолицые зажали. Сейчас существует несколько версий весов, не совместимых между собой, смотри не перепутай! 0) Оригинальные .pth файлы, работают только с оригинальным репозиторием. Формат имени consolidated.00.pth 1) Веса, сконвертированные в формат Hugging Face. Формат имени pytorch_model-00001-of-00033.bin 2) Веса, квантизированные в GGML. Работают со сборками на процессорах. Имеют несколько подформатов, совместимость поддерживает только koboldcpp, Герганов меняет форматы каждый месяц и дропает поддержку предыдущих, так что лучше качать последние. Формат имени ggml-model-q4_0.bin. Суффикс q4_0 означает квантование, в данном случае в 4 бита, версия 0. Чем больше число бит, тем выше точность и расход памяти. Чем новее версия, тем лучше (не всегда). Рекомендуется скачивать версии K (K_S или K_M) на конце. 3) Веса, квантизированные в GPTQ. Работают на видеокарте, наивысшая производительность (особенно в случае Exllama) но сложности с оффлоадом, возможность распределить по нескольким видеокартам суммируя их память. Имеют имя типа llama-7b-4bit.safetensors (формат .pt скачивать не стоит), при себе содержат конфиги, которые нужны для запуска, их тоже качаем. Могут быть квантованы в 3-4-8 бит, квантование отличается по числу групп (1-128-64-32 в порядке возрастания качества и расхода ресурсов). Основные форматы это GGML и GPTQ, остальные нейрокуну не нужны. Оптимальным по соотношению размер/качество является 5 бит, по размеру брать максимальную, что помещается в память (видео или оперативную), для быстрого прикидывания расхода можно взять размер модели и прибавить по гигабайту за каждые 1к контекста, то есть для 7B модели GGML весом в 4.7ГБ и контекста в 2к нужно ~7ГБ оперативной. В общем и целом для 7B хватает видеокарт с 8ГБ, для 13B нужно минимум 12ГБ, для 30B потребуется 24ГБ, а с 65-70B не справится ни одна бытовая карта в одиночку, нужно 2 по 3090/4090. Гайд для ретардов без излишней ебли под Windows. Грузит всё в процессор, поэтому ёба карта не нужна, запаситесь оперативкой и подкачкой: 1. Скачиваем koboldcpp.exe https://github.com/LostRuins/koboldcpp/releases/ последней версии. 2. Скачиваем модель в ggml формате. Например вот эту https://huggingface.co/TheBloke/WizardLM-Uncensored-SuperCOT-StoryTelling-30B-GGML/blob/main/WizardLM-Uncensored-SuperCOT-Storytelling.ggmlv3.q5_1.bin Можно просто вбить в huggingace в поиске "ggml" и скачать любую, охуеть, да? Главное, скачай файл с расширением .bin, а не какой-нибудь .pt 3. Запускаем koboldcpp.exe и выбираем скачанную модель. 4. Заходим в браузере на http://localhost:5001/ 5. Все, общаемся с ИИ, читаем охуительные истории или отправляемся в Adventure. Да, просто запускаем, выбираем файл и открываем адрес в браузере, даже ваша бабка разберется! Для удобства можно использовать интерфейс TavernAI 1. Ставим по инструкции, пока не запустится: https://github.com/TavernAI/TavernAI (на выбор https://github.com/Cohee1207/SillyTavern , умеет больше, но заморочнее) 2. Запускаем всё добро 3. Ставим в настройках KoboldAI везде, и адрес сервера http://127.0.0.1:5001 4. Радуемся Инструменты для запуска: https://github.com/LostRuins/koboldcpp/ Репозиторий с реализацией на плюсах, есть поддержка видеокарт, но сделана не идеально, зато самый простой в запуске, инструкция по работе с ним выше. https://github.com/oobabooga/text-generation-webui/blob/main/docs/LLaMA-model.md ВебуУИ в стиле Stable Diffusion, поддерживает кучу бекендов и фронтендов, в том числе может связать фронтенд в виде Таверны и бекенды ExLlama/llama.cpp/AutoGPTQ. Самую большую скорость даёт ExLlama, на 7B можно получить литерали 100+ токенов в секунду. Ссылки на модели и гайды: https://huggingface.co/TheBloke Основной поставщик квантованных моделей под любой вкус. https://rentry.org/TESFT-LLaMa Не самые свежие гайды на ангельском https://rentry.org/STAI-Termux Запуск SillyTavern на телефоне https://rentry.org/lmg_models Самый полный список годных моделей https://rentry.co/ayumi_erp_rating Рейтинг моделей для кума со спорной методикой тестирования https://rentry.org/llm-training Гайд по обучению своей лоры Факультатив: https://rentry.org/Jarted Почитать, как трансгендеры пидарасы пытаются пиздить код белых господинов, но обсираются и получают заслуженную порцию мочи Предыдущие треды тонут здесь: >>438203 (OP) >>426362 (OP)
9 января 2024
Сохранен
585
23 июня 6:32
Сохранен
533
Stable Diffusion технотред #12 /tech/ — ИТТ делимся советами, лайфхаками, наблюдениями, результатами обучения, обсуждаем внутреннее устройство диффузионных моделей, собираем датасеты, решаем проблемы и экспериментируем Тред общенаправленныей, тренировка дедов, лупоглазых и фуррей приветствуются Предыдущий тред: >>399707 (OP) ➤ Софт для обучения https://github.com/kohya-ss/sd-scripts Набор скриптов для тренировки, используется под капотом в большей части готовых GUI и прочих скриптах. Для удобства запуска можно использовать дополнительные скрипты в целях передачи параметров, например: https://rentry.org/simple_kohya_ss ➤ GUI-обёртки для kohya-ss https://github.com/bmaltais/kohya_ss https://github.com/derrian-distro/LoRA_Easy_Training_Scripts https://github.com/anon-1337/LoRA-train-GUI ➤ Обучение SDXL Если вы используете скрипты https://github.com/kohya-ss/sd-scripts напрямую, то, для обучения SDXL, вам необходимо переключиться на ветку "sdxl" и обновить зависимости. Эта операция может привести к проблемам совместимости, так что, желательно, делать отдельную установку для обучения SDXL и использовать отдельную venv-среду. Скрипты для тренировки SDXL имеют в имени файла префикс sdxl_. Подробнее про обучение SDXL через kohya-ss можно почитать тут: https://github.com/kohya-ss/sd-scripts/tree/sdxl#about-sdxl-training Для GUI https://github.com/bmaltais/kohya_ss и https://github.com/derrian-distro/LoRA_Easy_Training_Scripts/tree/SDXL так же вышли обновления, позволяющее делать файнтьюны для SDXL. Кроме полноценного файнтьюна и обучения лор, для bmaltais/kohya_ss так же доступны пресеты для обучения LoRA/LoHa/LoKr, в том числе и для SDXL, требующие больше VRAM. Всё пока сырое и имеет проблемы с совместимостью, только для самых нетерпеливых. Требования к системе для обучения SDXL выше, чем для обучения SD 1.x. ➤ Гайды по обучению Существующую модель можно обучить симулировать определенный стиль или рисовать конкретного персонажа. ✱ Текстуальная инверсия (Textual inversion) может подойти, если сеть уже умеет рисовать что-то похожее: https://rentry.org/textard (англ.) ✱ Гиперсеть (Hypernetwork) может подойти, если она этого делать не умеет; позволяет добавить более существенные изменения в существующую модель, но тренируется медленнее: https://rentry.org/hypernetwork4dumdums (англ.) ✱ Dreambooth – выбор 24 Гб VRAM-бояр. Выдаёт отличные результаты. Генерирует полноразмерные модели: https://github.com/nitrosocke/dreambooth-training-guide (англ.) ✱ LoRA – "легковесный Dreambooth" – подойдет для любых задач. Отличается малыми требованиями к VRAM (6 Гб+) и быстрым обучением: https://rentry.org/2chAI_easy_LORA_guide - гайд по подготовке датасета и обучению LoRA для неофитов https://rentry.org/2chAI_LoRA_Dreambooth_guide - ещё один гайд по использованию и обучению LoRA https://rentry.org/59xed3 - более углубленный гайд по лорам, содержит много инфы для уже разбирающихся (англ.) ✱ LyCORIS (Lora beYond Conventional methods, Other Rank adaptation Implementations for Stable diffusion) - это проект по созданию алгоритма для более эффективного дообучения SD. Ранее носил название LoCon. В настоящий момент включает в себя алгоритмы LoCon, LoHa, LoKr и DyLoRA: https://github.com/KohakuBlueleaf/LyCORIS ✱ LoCon (LoRA for Convolution layer) - тренирует дополнительные слои в UNet. Теоретически должен давать лучший результат тренировки по сравнению с LoRA, меньше вероятность перетренировки и большая вариативность при генерации. Тренируется примерно в два раза медленнее чистой LoRA, требует меньший параметр network_dim, поэтому размер выходного файла меньше. ✱ LoHa (LoRA with Hadamard Product representation) - тренировка с использованием алгоритма произведения Адамара. Теоретически должен давать лучший результат при тренировках с датасетом в котором будет и персонаж и стилистика одновременно. ✱ LoKr (LoRA with Kronecker product representation) - тренировка с использованием алгоритма произведения Кронекера. Алгоритм довольно чувствителен к learning_rate, так что требуется его тонкая подгонка. Из плюсов - очень маленький размер выходного файла (auto factor: 900~2500KB), из минусов - слабая переносимость между моделями. ✱ DyLoRA (Dynamic Search-Free LoRA) - по сути та же LoRA, только теперь в выходном файле размер ранга (network_dim) не фиксирован максимальным, а может принимать кратные промежуточные значения. После обучения на выходе будет один многоранговый файл модели, который можно разбить на отдельные одноранговые. Количество рангов указывается параметром --network_args "unit=x", т.е. допустим если network_dim=128, network_args "unit=4", то в выходном файле будут ранги 32,64,96,128. По заявлению разработчиков алгоритма, обучение одного многорангового файла в 4-7 раз быстрее, чем учить их по отдельности. ✱ Text-to-image fine-tuning для Nvidia A100/Tesla V100-бояр: https://keras.io/examples/generative/finetune_stable_diffusion (англ.) Не забываем про золотое правило GIGO ("Garbage in, garbage out"): какой датасет, такой и результат. ➤ Тренировка YOLO-моделей для ADetailer YOLO-модели (You Only Look Once) могут быть обучены для поиска определённых объектов на изображении. В паре с ADetailer они могут быть использованы для автоматического инпеинта по найденной области. Гайд: https://civitai.com/articles/1224/training-a-custom-adetailer-model Тулза для датасета: https://github.com/vietanhdev/anylabeling Больше про параметры: https://docs.ultralytics.com/modes/train ➤ Гугл колабы ﹡Текстуальная инверсия: https://colab.research.google.com/github/huggingface/notebooks/blob/main/diffusers/sd_textual_inversion_training.ipynb ﹡Dreambooth: https://colab.research.google.com/github/TheLastBen/fast-stable-diffusion/blob/main/fast-DreamBooth.ipynb ﹡LoRA [1] https://colab.research.google.com/github/Linaqruf/kohya-trainer/blob/main/kohya-trainer.ipynb ﹡LoRA [2] https://colab.research.google.com/drive/1bFX0pZczeApeFadrz1AdOb5TDdet2U0Z ➤ Полезное Гайд по фиксу сломанных моделей: https://rentry.org/clipfix (англ.) Расширение WebUI для проверки "сломаных" тензоров модели: https://github.com/iiiytn1k/sd-webui-check-tensors Гайд по блок мерджингу: https://rentry.org/BlockMergeExplained (англ.) Гайд по ControlNet: https://stable-diffusion-art.com/controlnet (англ.) Гайды по апскейлу от анонов: https://rentry.org/SD_upscale https://rentry.org/sd__upscale https://rentry.org/2ch_nai_guide#апскейл https://rentry.org/UpscaleByControl Ручная сборка и установка последней версии xformers и torch в venv автоматика: Windows: https://rentry.org/sd_performance Linux: https://rentry.org/SD_torch2_linux_guide Подборка мокрописек от анона: https://rentry.org/te3oh Группы тегов для бур: https://danbooru.donmai.us/wiki_pages/tag_groups (англ.) Коллекция лор от анонов: https://rentry.org/2chAI_LoRA Гайды, эмбеды, хайпернетворки, лоры с форча: https://rentry.org/sdgoldmine https://rentry.org/sdg-link https://rentry.org/hdgfaq https://rentry.org/hdglorarepo https://gitgud.io/gayshit/makesomefuckingporn Шапка: https://rentry.org/catb8 Прошлые треды: №1 https://arhivach.top/thread/859827/ №2 https://arhivach.top/thread/860317/ №3 https://arhivach.top/thread/861387/ №4 https://arhivach.top/thread/863252/ №5 https://arhivach.top/thread/863834/ №6 https://arhivach.top/thread/864377/ №7 https://arhivach.top/thread/868143/ №8 https://arhivach.top/thread/873010/ №9 https://arhivach.top/thread/878287/ №10 https://arhivach.top/thread/893334/ №11 https://arhivach.top/thread/908751/
7 марта 2024
Сохранен
1007
NovelAI and WaifuDiffusion тред #107 /nai/ — Генерируем тяночек! Прошлый >>468295 (OP) https://arhivach.top/thread/924806/ Схожие тематические треды: — Технотред >>399707 (OP) — SD-тред (фотореализм) >>464837 (OP) — Тред в /fur/ https://2ch.hk/fur/res/277400.html Использование коллабов является небезопасным с точки зрения конфиденциальности. Если вы используете чужой блокнот, исходите из предположения, что автор данного блокнота может собирать о вас такую информацию как: IP-адрес, фингерпринт браузера, ваши промпты и итоговые генерации. Достоверно известно, что владелец самого популярного коллаба в треде собирает, как минимум, часть данной информации. Драйвера NVidia версии выше 531 (как минимум 532 и 535) используют Shared Memory (фактически, речь идёт про обычную RAM) после исчерпания VRAM, что позволяет избежать ошибок рода Out Of Memory. Цена этого — резкое снижение производительности (вплоть до x10-50 раз) при исчерпании VRAM. При переполнении VRAM, память возвращается в норму только после перезапуска WebUI — простой перезапуск генерации не поможет. Подробнее: https://github.com/vladmandic/automatic/discussions/1285 F.A.Q. треда: https://rentry.co/nai_faq Глоссарий: https://rentry.co/ddpg2 Устанавливаем на ПК/Облако: https://rentry.co/nai_faq#как-поставить-на-пкоблако Гайды по промптам, списки тегов и негативных эмбеддингов: https://rentry.co/nai_faq#как-писать-промпты Как работать с ControlNet: https://stable-diffusion-art.com/controlnet Апскейл для начинающих: https://rentry.co/sd__upscale | https://rentry.co/SD_upscale | https://rentry.co/2ch_nai_guide#апскейл Апскейл с помощью ControlNet (для продвинутых, требуется минимум 8GB VRAM): https://rentry.co/UpscaleByControl Гайды по обучению лор: https://rentry.co/2chAI_easy_LORA_guide | https://rentry.co/2chAI_LoRA_Dreambooth_guide Каталог популярных моделей: https://rentry.co/nai_models Каталог лор на стилизацию: https://rentry.co/nai_style_loras Где искать модели, эмбединги, лоры, вайлдкарды и всё остальное: https://civitai.com | https://huggingface.co/models?other=stable-diffusion Оптимизации для слабых ПК (6GB VRAM и менее): https://rentry.co/voldy#-running-on-4gb-and-under- Общие советы по оптимизациям: https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Optimizations АИ-галереи: https://aibooru.online | https://majinai.art Англоязычные каталоги ссылок: https://rentry.co/sdgoldmine | https://rentry.co/sdg-link | https://www.sdcompendium.com ⚠️Перекат оформляется после 1000 поста Шаблон для переката: https://rentry.co/nwhci
12 января 2024
Сохранен
1584
AI Chatbot General № 387 /aicg/ — AI Chatbot General № 387 Общий вопросов по чат-ботам и прочего тред. - Фронтэнды - Agnai, SillyTavern, RisuAI Гайды: https://rentry.co/ultimatespoonfeed | https://rentry.co/ClaudForAgnai | https://rentry.co/Aicg4Retards (Гайд на английском) https://github.com/SillyLossy/TavernAI | https://github.com/ntvm/SillyTavern (Форк нв-куна) https://agnai.chat/ https://risuai.xyz/ - GPT - Джейлы на 4: https://rentry.co/SillyTavern_JB_Pack | https://dumb.one/gpt/prompts-scraped/ Джейлы на Turbo: https://rentry.co/YAnonTurbo | https://web.archive.org/web/20230712205352/https://rentry.org/HochiTurboTips#prompt-sets - Claude - https://github.com/Barbariskaa/Spermack https://github.com/PandarusAnon/slaude https://github.com/bfs15/slaude https://rentry.co/spermflow https://gitgud.io/ahsk/clewd/-/tree/master https://rentry.co/sg_proxy Джейлы: https://rentry.co/ClaudeJB | https://rentry.co/absolutejail | https://rentry.co/fumblebum | https://rentry.co/pitanonbots#claude-rp-prompts | https://rentry.co/XML-dva-shiza Удаление Human/Assistant: https://rentry.co/TavernNoAss | https://rentry.co/HumAssistOff - Bing - https://github.com/Barbariskaa/Biba - Локалки - https://mancer.tech/ Гайды (на английском): https://rentry.co/meta_golocal_list - Ботоводчество - https://www.chub.ai https://booru.plus/+pygmalion https://avakson.github.io/character-editor/ https://agnai.chat/editor https://rentry.co/botmaking_tips https://rentry.co/MothsBotMakingStuff https://rentry.co/oaicards Боты анонов: https://rentry.co/tai-bots - Село 2ch - https://rentry.co/selo2ch - Архив тредов- https://rentry.co/paxi32 - GIGACHAT - https://rentry.co/3bc7r - Character.AI - https://beta.character.ai/ https://rentry.co/CAI-FAQ Боты анонов: https://rentry.co/CAI-bots - Прочее - Проверить ключ: GPT https://github.com/Buhankoanon/OAI_API_Checker | https://github.com/CncAnon1/kkc Claude https://github.com/Definetelynotbranon/Anthropic_API_Checker Специфические промпты в джейл для кума: https://rentry.co/jinxbreaks Забавные промпты после кума: https://rentry.co/weirdbutfunjailbreaksandprompts - Шапка - https://rentry.co/shapkacaitreda - LLaMA thread: >>457355 (OP) - - PygmalionAI thread: >>359618 (OP) - - Прошлый тред: >>468688 (OP) -
31 декабря 2023
Сохранен
1004
NovelAI and WaifuDiffusion тред #106 /nai/ — Генерируем тяночек! Прошлый >>463780 (OP) https://arhivach.top/thread/924770/ Схожие тематические треды: — Технотред >>399707 (OP) — SD-тред (фотореализм) >>464837 (OP) — Тред в /fur/ https://2ch.hk/fur/res/277400.html Использование коллабов является небезопасным с точки зрения конфиденциальности. Если вы используете чужой блокнот, исходите из предположения, что автор данного блокнота может собирать о вас такую информацию как: IP-адрес, фингерпринт браузера, ваши промпты и итоговые генерации. Достоверно известно, что владелец самого популярного коллаба в треде собирает, как минимум, часть данной информации. Драйвера NVidia версии выше 531 (как минимум 532 и 535) используют Shared Memory (фактически, речь идёт про обычную RAM) после исчерпания VRAM, что позволяет избежать ошибок рода Out Of Memory. Цена этого — резкое снижение производительности (вплоть до x10-50 раз) при исчерпании VRAM. При переполнении VRAM, память возвращается в норму только после перезапуска WebUI — простой перезапуск генерации не поможет. Подробнее: https://github.com/vladmandic/automatic/discussions/1285 F.A.Q. треда: https://rentry.co/nai_faq Глоссарий: https://rentry.co/ddpg2 Устанавливаем на ПК/Облако: https://rentry.co/nai_faq#как-поставить-на-пкоблако Гайды по промптам, списки тегов и негативных эмбеддингов: https://rentry.co/nai_faq#как-писать-промпты Как работать с ControlNet: https://stable-diffusion-art.com/controlnet Апскейл для начинающих: https://rentry.co/sd__upscale | https://rentry.co/SD_upscale | https://rentry.co/2ch_nai_guide#апскейл Апскейл с помощью ControlNet (для продвинутых, требуется минимум 8GB VRAM): https://rentry.co/UpscaleByControl Гайды по обучению лор: https://rentry.co/2chAI_easy_LORA_guide | https://rentry.co/2chAI_LoRA_Dreambooth_guide Каталог популярных моделей: https://rentry.co/nai_models Каталог лор на стилизацию: https://rentry.co/nai_style_loras Где искать модели, эмбединги, лоры, вайлдкарды и всё остальное: https://civitai.com | https://huggingface.co/models?other=stable-diffusion Оптимизации для слабых ПК (6GB VRAM и менее): https://rentry.co/voldy#-running-on-4gb-and-under- Общие советы по оптимизациям: https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Optimizations АИ-галереи: https://aibooru.online | https://majinai.art Англоязычные каталоги ссылок: https://rentry.co/sdgoldmine | https://rentry.co/sdg-link | https://www.sdcompendium.com ⚠️Перекат оформляется после 1000 поста Шаблон для переката: https://rentry.co/nwhci
31 декабря 2023
Сохранен
1102
NovelAI and WaifuDiffusion тред #105 /nai/ — Генерируем тяночек! Прошлый >>457501 (OP) https://arhivach.top/thread/923078/ Схожие тематические треды: — Технотред >>399707 (OP) — SD-тред (фотореализм) >>445727 (OP) — Тред в /fur/ https://2ch.hk/fur/res/277400.html Использование коллабов является небезопасным с точки зрения конфиденциальности. Если вы используете чужой блокнот, исходите из предположения, что автор данного блокнота может собирать о вас такую информацию как: IP-адрес, фингерпринт браузера, ваши промпты и итоговые генерации. Достоверно известно, что владелец самого популярного коллаба в треде собирает, как минимум, часть данной информации. Драйвера NVidia версии выше 531 (как минимум 532 и 535) используют Shared Memory (фактически, речь идёт про обычную RAM) после исчерпания VRAM, что позволяет избежать ошибок рода Out Of Memory. Цена этого — резкое снижение производительности (вплоть до x10-50 раз) при исчерпании VRAM. При переполнении VRAM, память возвращается в норму только после перезапуска WebUI — простой перезапуск генерации не поможет. Подробнее: https://github.com/vladmandic/automatic/discussions/1285 F.A.Q. треда: https://rentry.org/nai_faq Глоссарий: https://rentry.org/ddpg2 Устанавливаем на ПК/Облако: https://rentry.org/nai_faq#как-поставить-на-пкоблако Гайды по промптам, списки тегов и негативных эмбеддингов: https://rentry.org/nai_prompt Как работать с ControlNet: https://stable-diffusion-art.com/controlnet Апскейл для начинающих: https://rentry.org/sd__upscale | https://rentry.org/SD_upscale | https://rentry.org/2ch_nai_guide#апскейл Апскейл с помощью ControlNet (для продвинутых, требуется минимум 8GB VRAM): https://rentry.org/UpscaleByControl Гайды по обучению лор: https://rentry.org/2chAI_easy_LORA_guide | https://rentry.org/2chAI_LoRA_Dreambooth_guide Каталог популярных моделей: https://rentry.org/nai_models Каталог лор на стилизацию: https://rentry.org/nai_style_loras Где искать модели, эмбединги, лоры, вайлдкарды и всё остальное: https://civitai.com | https://huggingface.co/models?other=stable-diffusion Оптимизации для слабых ПК (6GB VRAM и менее): https://rentry.org/voldy#-running-on-4gb-and-under- Общие советы по оптимизациям: https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Optimizations АИ-галереи: https://aibooru.online | https://majinai.art Англоязычные каталоги ссылок: https://rentry.org/sdgoldmine | https://rentry.org/sdg-link | https://www.sdcompendium.com ⚠️Перекат оформляется после 1000 поста Шаблон для переката: https://rentry.org/nwhci
31 декабря 2023
Сохранен
1171
NovelAI and WaifuDiffusion тред #104 /nai/ — Генерируем тяночек! Прошлый >>450210 (OP) https://arhivach.top/thread/920507/ Схожие тематические треды: — Технотред >>399707 (OP) — SD-тред (фотореализм) >>445727 (OP) — Тред в /fur/ https://2ch.hk/fur/res/277400.html Использование коллабов является небезопасным с точки зрения конфиденциальности. Если вы используете чужой блокнот, исходите из предположения, что автор данного блокнота может собирать о вас такую информацию как: IP-адрес, фингерпринт браузера, ваши промпты и итоговые генерации. Достоверно известно, что владелец самого популярного коллаба в треде собирает, как минимум, часть данной информации. Драйвера NVidia версии выше 531 (как минимум 532 и 535) используют Shared Memory (фактически, речь идёт про обычную RAM) после исчерпания VRAM, что позволяет избежать ошибок рода Out Of Memory. Цена этого — резкое снижение производительности (вплоть до x10-50 раз) при исчерпании VRAM. При переполнении VRAM, память возвращается в норму только после перезапуска WebUI — простой перезапуск генерации не поможет. Подробнее: https://github.com/vladmandic/automatic/discussions/1285 F.A.Q. треда: https://rentry.org/nai_faq Глоссарий: https://rentry.org/ddpg2 Устанавливаем на ПК/Облако: https://rentry.org/nai_faq#как-поставить-на-пкоблако Гайды по промптам, списки тегов и негативных эмбеддингов: https://rentry.org/nai_prompt Как работать с ControlNet: https://stable-diffusion-art.com/controlnet Апскейл для начинающих: https://rentry.org/sd__upscale | https://rentry.org/SD_upscale | https://rentry.org/2ch_nai_guide#апскейл Апскейл с помощью ControlNet (для продвинутых, требуется минимум 8GB VRAM): https://rentry.org/UpscaleByControl Гайды по обучению лор: https://rentry.org/2chAI_easy_LORA_guide | https://rentry.org/2chAI_LoRA_Dreambooth_guide Каталог популярных моделей: https://rentry.org/nai_models Каталог лор на стилизацию: https://rentry.org/nai_style_loras Где искать модели, эмбединги, лоры, вайлдкарды и всё остальное: https://civitai.com | https://huggingface.co/models?other=stable-diffusion Оптимизации для слабых ПК (6GB VRAM и менее): https://rentry.org/voldy#-running-on-4gb-and-under- Общие советы по оптимизациям: https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Optimizations АИ-галереи: https://aibooru.online | https://majinai.art Англоязычные каталоги ссылок: https://rentry.org/sdgoldmine | https://rentry.org/sdg-link | https://www.sdcompendium.com ⚠️Перекат оформляется после 1000 поста Шаблон для переката: https://rentry.org/nwhci
31 декабря 2023
Сохранен
1007
NovelAI and WaifuDiffusion тред #103 /nai/ — Генерируем тяночек! Прошлый >>443138 (OP) https://arhivach.top/thread/918365/ Схожие тематические треды: — Технотред >>399707 (OP) — SD-тред (фотореализм) >>445727 (OP) — Тред в /fur/ https://2ch.hk/fur/res/277400.html Использование коллабов является небезопасным с точки зрения конфиденциальности. Если вы используете чужой блокнот, исходите из предположения, что автор данного блокнота может собирать о вас такую информацию как: IP-адрес, фингерпринт браузера, ваши промпты и итоговые генерации. Достоверно известно, что владелец самого популярного коллаба в треде собирает, как минимум, часть данной информации. Драйвера NVidia версии выше 531 (как минимум 532 и 535) используют Shared Memory (фактически, речь идёт про обычную RAM) после исчерпания VRAM, что позволяет избежать ошибок рода Out Of Memory. Цена этого - резкое снижение производительности (вплоть до x10-50 раз) при исчерпании VRAM. При переполнении VRAM, память возвращается в норму только после перезапуска WebUI - простой перезапуск генерации не поможет. Подробнее: https://github.com/vladmandic/automatic/discussions/1285 F.A.Q. треда: https://rentry.org/nai_faq Глоссарий: https://rentry.org/ddpg2 Устанавливаем на ПК/Облако: https://rentry.org/nai_faq#как-поставить-на-пкоблако Гайды по промптам, списки тегов и негативных эмбеддингов: https://rentry.org/nai_prompt Как работать с ControlNet: https://stable-diffusion-art.com/controlnet Апскейл для начинающих: https://rentry.org/sd__upscale | https://rentry.org/SD_upscale | https://rentry.org/2ch_nai_guide#апскейл Апскейл с помощью ControlNet (для продвинутых, требуется минимум 8GB VRAM): https://rentry.org/UpscaleByControl Гайды по обучению лор: https://rentry.org/2chAI_easy_LORA_guide | https://rentry.org/2chAI_LoRA_Dreambooth_guide Каталог популярных моделей: https://rentry.org/nai_models Каталог лор на стилизацию: https://rentry.org/nai_style_loras Где искать модели, эмбединги, лоры, вайлдкарды и всё остальное: https://civitai.com | https://huggingface.co/models?other=stable-diffusion Оптимизации для слабых ПК (6GB VRAM и менее): https://rentry.org/voldy#-running-on-4gb-and-under- Общие советы по оптимизациям: https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Optimizations АИ-галереи: https://aibooru.online | https://majinai.art Англоязычные каталоги ссылок: https://rentry.org/sdgoldmine | https://rentry.org/sdg-link | https://www.sdcompendium.com ⚠️Перекат оформляется после 1000 поста Шаблон для переката: https://rentry.org/nwhci
23 декабря 2023
Сохранен
1611
AI Chatbot General № 381 /aicg/ — AI Chatbot General № 381 Общий вопросов по чат-ботам и прочего тред. - Фронтэнды - Agnai, SillyTavern, RisuAI Гайды: https://rentry.co/ultimatespoonfeed | https://rentry.co/ClaudForAgnai | https://rentry.co/Aicg4Retards (Гайд на английском) https://github.com/SillyLossy/TavernAI | https://github.com/ntvm/SillyTavern (Форк нв-куна) https://agnai.chat/ https://risuai.xyz/ - GPT - Джейлы на 4: https://rentry.co/SillyTavern_JB_Pack | https://dumb.one/gpt/prompts-scraped/ Джейлы на Turbo: https://rentry.co/YAnonTurbo | https://web.archive.org/web/20230712205352/https://rentry.org/HochiTurboTips#prompt-sets - Claude - https://github.com/Barbariskaa/Spermack https://github.com/PandarusAnon/slaude https://github.com/bfs15/slaude https://rentry.co/spermflow Джейлы: https://rentry.co/ClaudeJB | https://rentry.co/absolutejail | https://rentry.co/fumblebum | https://rentry.co/pitanonbots#claude-rp-prompts | https://rentry.co/XML-dva-shiza Удаление Human/Assistant: https://rentry.co/TavernNoAss | https://rentry.co/HumAssistOff - Bing - https://github.com/Barbariskaa/Biba - Ботоводчество - https://www.chub.ai https://booru.plus/+pygmalion https://avakson.github.io/character-editor/ https://rentry.co/botmaking_tips https://rentry.co/MothsBotMakingStuff https://rentry.co/oaicards Боты анонов: https://rentry.co/tai-bots - Село 2ch - https://rentry.co/selo2ch - Архив тредов- https://rentry.co/paxi32 - GIGACHAT - https://rentry.co/3bc7r - Character.AI - https://beta.character.ai/ https://rentry.co/CAI-FAQ Боты анонов: https://rentry.co/CAI-bots - Прочее - Проверить ключ: https://github.com/Buhankoanon/OAI_API_Checker | https://github.com/CncAnon1/kkc Список прокси: https://navigatethecoom.github.io/navigate | Ctrl + F ".hf" Забавные промпты после кума: https://rentry.co/weirdbutfunjailbreaksandprompts - Шапка - https://rentry.co/shapkacaitreda - LLaMA thread: >>438203 (OP) - - PygmalionAI thread: >>359618 (OP) - - Прошлый тред: >>453183 (OP) -
27 декабря 2023
Активный
417
Midjourney тред #2 — Midjourney — это исследовательская компания и одноименная нейронная сеть, разрабатываемая ею. Это программное обеспечение искусственного интеллекта, которое создаёт изображения по текстовым описаниям. Оно использует технологии генеративно-состязательных сетей и конкурирует на рынке генерации изображений с такими приложениями, как DALL-E от OpenAI и Stable Diffusion. Midjourney была основана в 2016 году одним из создателей технологии Leap Motion Дэвидом Хольцем и в феврале 2020 года была поглощена британским производителем медицинского оборудования компанией Smith & Nephew. С 12 июля 2022 года нейросеть находится в стадии открытого бета-тестирования, и пользователи могут создавать изображения, посылая команды боту в мессенджере Discord. Новые версии выходят каждые несколько месяцев, и в настоящее время планируется выпуск веб-интерфейса. Сайт: https://www.midjourney.com Как пользоваться: https://www.youtube.com/results?search_query=%D0%BA%D0%B0%D0%BA+%D0%BF%D0%BE%D0%BB%D1%8C%D0%B7%D0%BE%D0%B2%D0%B0%D1%82%D1%8C%D1%81%D1%8F+midjourney
8 августа 4:50
Сохранен
1676
AI Chatbot General № 380 /aicg/ — AI Chatbot General № 380 Общий вопросов по чат-ботам и прочего тред. - Фронтэнды - Agnai, SillyTavern, RisuAI Гайды: https://rentry.co/ultimatespoonfeed | https://rentry.co/ClaudForAgnai | https://rentry.co/Aicg4Retards (Гайд на английском) https://github.com/SillyLossy/TavernAI | https://github.com/ntvm/SillyTavern (Форк нв-куна) https://agnai.chat/ https://risuai.xyz/ - GPT - Джейлы на 4: https://rentry.co/SillyTavern_JB_Pack | https://dumb.one/gpt/prompts-scraped/ Джейлы на Turbo: https://rentry.co/YAnonTurbo | https://web.archive.org/web/20230712205352/https://rentry.org/HochiTurboTips#prompt-sets - Claude - https://github.com/Barbariskaa/Spermack https://github.com/PandarusAnon/slaude https://github.com/bfs15/slaude https://rentry.co/spermflow Джейлы: https://rentry.co/ClaudeJB | https://rentry.co/absolutejail | https://rentry.co/fumblebum | https://rentry.co/pitanonbots#claude-rp-prompts | https://rentry.co/XML-dva-shiza Удаление Human/Assistant: https://rentry.co/TavernNoAss | https://rentry.co/HumAssistOff - Bing - https://github.com/Barbariskaa/Biba - Ботоводчество - https://www.chub.ai https://booru.plus/+pygmalion https://avakson.github.io/character-editor/ https://rentry.co/botmaking_tips https://rentry.co/MothsBotMakingStuff https://rentry.co/oaicards Боты анонов: https://rentry.co/tai-bots - Село 2ch - https://rentry.co/selo2ch - Архив тредов- https://rentry.co/paxi32 - GIGACHAT - https://rentry.co/3bc7r - Character.AI - https://beta.character.ai/ https://rentry.co/CAI-FAQ Боты анонов: https://rentry.co/CAI-bots - Прочее - Проверить ключ: https://github.com/Buhankoanon/OAI_API_Checker | https://github.com/CncAnon1/kkc Список прокси: https://navigatethecoom.github.io/navigate | Ctrl + F ".hf" Забавные промпты после кума: https://rentry.co/weirdbutfunjailbreaksandprompts - Шапка - https://rentry.co/shapkacaitreda - LLaMA thread: >>438203 (OP) - - PygmalionAI thread: >>359618 (OP) - - Прошлый тред: >>451214 (OP) -
23 декабря 2023
Сохранен
48
17 января 2024
Сохранен
1003
19 декабря 2023
Сохранен
1556
22 декабря 2023
Сохранен
1503
20 декабря 2023
Сохранен
1538
19 декабря 2023
Сохранен
1508
17 декабря 2023
Сохранен
1496
17 декабря 2023
Сохранен
1658
13 декабря 2023
Сохранен
1521
10 декабря 2023
Сохранен
1516
10 декабря 2023