Прошлые домены не функционирует! Используйте адрес ARHIVACH.VC.
24 декабря 2023 г. Архивач восстановлен после серьёзной аварии. К сожалению, значительная часть сохранённых изображений и видео была потеряна. Подробности случившегося. Мы призываем всех неравнодушных помочь нам с восстановлением утраченного контента!
Сортировка: за
Сохранен
508
Stable Diffusion технотред #11 /tech/ — ИТТ делимся советами, лайфхаками, наблюдениями, результатами обучения, обсуждаем внутреннее устройство диффузионных моделей, собираем датасеты, решаем проблемы и экспериментируем Тред общенаправленныей, тренировка дедов, лупоглазых и фуррей приветствуются Предыдущий тред: >>314956 (OP) ➤ Софт для обучения https://github.com/kohya-ss/sd-scripts Набор скриптов для тренировки, используется под капотом в большей части готовых GUI и прочих скриптах. Для удобства запуска можно использовать дополнительные скрипты в целях передачи параметров, например: https://rentry.org/simple_kohya_ss ➤ GUI-обёртки для kohya-ss https://github.com/bmaltais/kohya_ss https://github.com/derrian-distro/LoRA_Easy_Training_Scripts https://github.com/anon-1337/LoRA-train-GUI ➤ Обучение SDXL Если вы используете скрипты https://github.com/kohya-ss/sd-scripts напрямую, то, для обучения SDXL, вам необходимо переключиться на ветку "sdxl" и обновить зависимости. Эта операция может привести к проблемам совместимости, так что, желательно, делать отдельную установку для обучения SDXL и используовать отдельную venv-среду. Скрипты для тренировки SDXL имеют в имени файла префикс sdxl_. Подробнее про обучение SDXL через kohya-ss можно почитать тут: https://github.com/kohya-ss/sd-scripts/tree/sdxl#about-sdxl-training Для GUI https://github.com/bmaltais/kohya_ss и https://github.com/derrian-distro/LoRA_Easy_Training_Scripts/tree/SDXL так же вышли обновления, позволяющее делать файнтьюны для SDXL. Кроме полноценного файнтьюна и обучения лор, для bmaltais/kohya_ss так же доступны пресеты для обучения LoRA/LoHa/LoKr, в том числе и для SDXL, требующие больше VRAM. Всё пока сырое и имеет проблемы с совместимостью, только для самых нетерпеливых. Требования к системе для обучения SDXL выше, чем для обучения SD 1.x. ➤ Гайды по обучению Существующую модель можно обучить симулировать определенный стиль или рисовать конкретного персонажа. ✱ Текстуальная инверсия (Textual inversion) может подойти, если сеть уже умеет рисовать что-то похожее: https://rentry.org/textard (англ.) ✱ Гиперсеть (Hypernetwork) может подойти, если она этого делать не умеет; позволяет добавить более существенные изменения в существующую модель, но тренируется медленнее: https://rentry.org/hypernetwork4dumdums (англ.) ✱ Dreambooth – выбор 24 Гб VRAM-бояр. Выдаёт отличные результаты. Генерирует полноразмерные модели: https://github.com/nitrosocke/dreambooth-training-guide (англ.) ✱ LoRA – "легковесный Dreambooth" – подойдет для любых задач. Отличается малыми требованиями к VRAM (6 Гб+) и быстрым обучением: https://rentry.org/2chAI_easy_LORA_guide - гайд по подготовке датасета и обучению LoRA для неофитов https://rentry.org/2chAI_LoRA_Dreambooth_guide - ещё один гайд по использованию и обучению LoRA https://rentry.org/59xed3 - более углубленный гайд по лорам, содержит много инфы для уже разбирающихся (англ.) ✱ LyCORIS (Lora beYond Conventional methods, Other Rank adaptation Implementations for Stable diffusion) - это проект по созданию алгоритма для более эффективного дообучения SD. Ранее носил название LoCon. В настоящий момент включает в себя алгоритмы LoCon, LoHa, LoKr и DyLoRA: https://github.com/KohakuBlueleaf/LyCORIS ✱ LoCon (LoRA for Convolution layer) - тренирует дополнительные слои в UNet. Теоретически должен давать лучший результат тренировки по сравнению с LoRA, меньше вероятность перетренировки и большая вариативность при генерации. Тренируется примерно в два раза медленнее чистой LoRA, требует меньший параметр network_dim, поэтому размер выходного файла меньше. ✱ LoHa (LoRA with Hadamard Product representation) - тренировка с использованием алгоритма произведения Адамара. Теоретически должен давать лучший результат при тренировках с датасетом в котором будет и персонаж и стилистика одновременно. ✱ LoKr (LoRA with Kronecker product representation) - тренировка с использованием алгоритма произведения Кронекера. Алгоритм довольно чувствителен к learning_rate, так что требуется его тонкая подгонка. Из плюсов - очень маленький размер выходного файла (auto factor: 900~2500KB), из минусов - слабая переносимость между моделями. ✱ DyLoRA (Dynamic Search-Free LoRA) - по сути та же LoRA, только теперь в выходном файле размер ранга (network_dim) не фиксирован максимальным, а может принимать кратные промежуточные значения. После обучения на выходе будет один многоранговый файл модели, который можно разбить на отдельные одноранговые. Количество рангов указывается параметром --network_args "unit=x", т.е. допустим если network_dim=128, network_args "unit=4", то в выходном файле будут ранги 32,64,96,128. По заявлению разработчиков алгоритма, обучение одного многорангового файла в 4-7 раз быстрее, чем учить их по отдельности. ✱ Text-to-image fine-tuning для Nvidia A100/Tesla V100-бояр: https://keras.io/examples/generative/finetune_stable_diffusion (англ.) Не забываем про золотое правило GIGO ("Garbage in, garbage out"): какой датасет, такой и результат. ➤ Гугл колабы ﹡Текстуальная инверсия: https://colab.research.google.com/github/huggingface/notebooks/blob/main/diffusers/sd_textual_inversion_training.ipynb ﹡Dreambooth: https://colab.research.google.com/github/TheLastBen/fast-stable-diffusion/blob/main/fast-DreamBooth.ipynb ﹡LoRA [1] https://colab.research.google.com/github/Linaqruf/kohya-trainer/blob/main/kohya-trainer.ipynb ﹡LoRA [2] https://colab.research.google.com/drive/1bFX0pZczeApeFadrz1AdOb5TDdet2U0Z ➤ Полезное Гайд по фиксу сломанных моделей: https://rentry.org/clipfix (англ.) Расширение WebUI для проверки "сломаных" тензоров модели: https://github.com/iiiytn1k/sd-webui-check-tensors Гайд по блок мерджингу: https://rentry.org/BlockMergeExplained (англ.) Гайд по ControlNet: https://stable-diffusion-art.com/controlnet (англ.) Гайды по апскейлу от анонов: https://rentry.org/SD_upscale https://rentry.org/sd__upscale https://rentry.org/2ch_nai_guide#апскейл https://rentry.org/UpscaleByControl Ручная сборка и установка последней версии xformers и torch в venv автоматика: Windows: https://rentry.org/sd_performance Linux: https://rentry.org/SD_torch2_linux_guide Подборка мокрописек от анона: https://rentry.org/te3oh Группы тегов для бур: https://danbooru.donmai.us/wiki_pages/tag_groups (англ.) Коллекция лор от анонов: https://rentry.org/2chAI_LoRA Гайды, эмбеды, хайпернетворки, лоры с форча: https://rentry.org/sdgoldmine https://rentry.org/sdg-link https://rentry.org/hdgfaq https://rentry.org/hdglorarepo https://gitgud.io/gayshit/makesomefuckingporn Шапка: https://rentry.org/catb8 Прошлые треды: №1 https://arhivach.top/thread/859827/ №2 https://arhivach.top/thread/860317/ №3 https://arhivach.top/thread/861387/ №4 https://arhivach.top/thread/863252/ №5 https://arhivach.top/thread/863834/ №6 https://arhivach.top/thread/864377/ №7 https://arhivach.top/thread/868143/ №8 https://arhivach.top/thread/873010/ №9 https://arhivach.top/thread/878287/ №10 https://arhivach.top/thread/893334/
12 января 2024
Сохранен
508
10 декабря 2023
Сохранен
508
14 февраля 2023
Сохранен
508
5 апреля 2023
Сохранен
508
3 апреля 2023
Сохранен
508
29 марта 2023
Сохранен
508
9 марта 2023
Сохранен
508
21 декабря 2022
Сохранен
508
18 декабря 2022
Сохранен
508
17 декабря 2022
Сохранен
508
17 декабря 2022
Сохранен
508
11 декабря 2022
Сохранен
508
9 декабря 2022
Сохранен
508
8 декабря 2022
Сохранен
508
30 ноября 2022
Сохранен
507
13 декабря 2022
Сохранен
507
11 декабря 2022
Сохранен
507
18 ноября 2022
Сохранен
507
9 ноября 2022
Сохранен
507
8 ноября 2022
Сохранен
507
7 октября 2022
Сохранен
507
7 октября 2022
Сохранен
507
18 июля 2022
Сохранен
507
6 ноября 2021
Сохранен
507
1 мая 2019