24 декабря 2023 г. Архивач восстановлен после серьёзной аварии. К сожалению, значительная часть сохранённых изображений и видео была потеряна. Подробности случившегося. Мы призываем всех неравнодушных помочь нам с восстановлением утраченного контента!
Пример простого, но хорошего запроса: > photo, fronal (((full body))) portrait of very (((wrinkled))) old man, poop on face, in a dark dirty ((dungeon)), ((((eating poop)))), bokeh, shot from dslr, cinestill by thing and cronenberg, perfect faces, fine details, high textures, ultra hyper sharp, insanely detailed and intricate, super detailed, hdr ultra high quality, high detail, 4k
========================================== ⚠️ Если нет возможности или желания установить на ПК ⚠️ Колаб - это виртуальный бесплатный сервер от Гугла, с видеокартой в комплекте! ➡️ https://teletype.in/@stablediffusion/Colab_StableDiffusion ==========================================
Так возвращаясь к теме с GFPGAN - где взять эти самые модели? Аноны, ткните носом, а то в шапке нашел только ссылки на китайцев и на какой то сайт с кодом.
>>275494356 первое - это количество генераций (ставишь 9 генерит 9 раз). второе - это количество картинок в одной генерации (если до в первом поставил 9, а тут поставишь 2, всего выйдет 18)
Там 2 часть слива NovelAI На форчке в /g https://pastebin.com/6wX7Bx7w Но вроде тут для текстгена, написано, что в 1 части должно быть все, чтобы восстановить имаген как у них
>>275495014 Она много персонажей знает и тегов, которых не знают другие модели. Когда новел распотрошат, то всем на него станет похуй. ебальники мамонтов, оплативших подписку ради этой модели имажинэ?
Experimental .ckpt loader, just add them to the model folder.
A little button on the GUI to open the model folder.
Checkbox for "Advanced Prompts": This turn on/off the extra parameters along the prompt, you can hover the mouse to see the comands.
Turning off "Display During Rendering" with "Save Vram" turned on may save a little more vram now.
Outpainting option
Had to temporarily remove the discrete schedulers. There was some changes to the source code that broke Discrete schedulers.
Details about outpainting:
Outpainting is working, but there is a lot of fixes that need to be done. I did not want to delay the build one more week because of this, so for now it's more of a experimental tool until I manage to finish it.
Inpainting/outpainting on Stable Diffusion are not that great, this can be fixed and already been improved a lot by the community , but the vanilla code don't give that good results.
What I will do now is start reading about solutions for those tools and implement/improve the current inpating/outpaint tool. I already have quite some ideas to improve it.
I have a strong feeling that those tools can be improved with the right scheduler, so I'm gonna also start working on adding more schedulers.
Current bugs with outpainting:
You need to use Samples = 1
VAE encoder/decoder change a little the colors of the image. I need to mask the original image back at the end of the render, because for now, it sometimes leave a square with slight changed colors.
Sometimes the new render have such conflicting latents that it will simple "eat" the original image and simple make a 100% new image. Until the code is improved, just need to keep rendering until this don't happen.
Outpaiting image don't care that much about the original image, this will be the biggest challenge to fix, but already have some ideas. It will take some time until you get a render that make sense.
Using outpainting:
Select a Img2Img source image
Select Mode: Outpainting
On the right window, drag with the mouse until you get the square at the correct location.
Press render and wait.
If you like the result in the "Previews:" press "Use output as Input" to start using this image as the source.
>>275495278 Есть такой сайт, как novelai.net Там пол форчана генерирует за реал себе пикчи. Ну и в какой-то момент исходники все слили. Оказалось что они что-то в коде доработали, еще каких-то фиксов сверху насыпали. Поэтому сейчас их пытаются реконструировать и задействовать. Хотя одна только модель чего стоит.
>>275495722 Да конечно заебу, братан, я сделал всё по инструхции, спасибо, мне другое любопытно, что это за пачка доп..приблуд аниме.пт и анимевае.пт которую рядом кладёшь. Шо они дают-то, по сравнению с тем если просто голую модель НАИ закинуть?
Алсо зачем там аниме_1, аниме_2 и т.д.? Выбираешь же одну в итоге?
>>275495996 Уровень был на голову выше до этого события. Плакали даже, что вовремя не подсуетились и не купили безлимит за 35$. Фури фаги/фаги жоп с сиськами, размером с автобус, с форчана - самый платежный контингент
>>275496176 > может тебе в ебало харкнуть Ну вот блядь что и произошло после обновления. До обновы сайз в 8 вывозило, сечас больше 1 сразу говна в жопу. Че это за хуйня? Нахуя я полез за этим вашим xformers...
>>275496123 Я точно не скажу, но без этих приблуд ты как бы юзаешь сетку неполноценно, можешь убрать эти файлы и убедиться сам, результаты будут хуже. И чому разные аниме 1 2 3 я хз, надо тестить и смотреть чем отличаются
>>275491830 (OP) --opt-split-attention влияет только на время генерации или на качество?
>Фикс на видеопамять, позволяет запускать (немного в ущерб качеству) на 4 гб видеопамяти, а на 8 гб позволяет разрешения вплоть до 1472х832: пруфы какие что в "ущерб качеству"? кто-нибудь сравнение проводил?
Алсо, можем сравнить, у меня в данный момент такая.
>>275497053 >>275497108 *цать тредов назад, анонон пытался генерить копродедов по промпту анона, и у него ничего не получалось - качество говна совсем не то. Выяснилось, что у него стоит оптимизация памяти для low-ram видяхи.
>>275497171 >Выяснилось, что у него стоит оптимизация памяти для low-ram видяхи. Ну сейчас сию секунду у меня sd-webui/stable-diffusion-webui + Doggettx/stable-diffusion фикс, 8гб
давай точные настройки и попробуем сравнить качество генерации.
GUIDE ON HOW TO BUILD XFORMERS also includes how to uncuck yourself from sm86 restriction on voldy's new commit
1. go to the webui directory 2. source ./venv/bin/activate 3. cd repositories 3. git clone https://github.com/facebookresearch/xformers.git 4. cd xformers 5. git submodule update --init --recursive 6. pip install -r requirements.txt 7. pip install -e . If you encounter some error about torch not being built with your cuda version blah blah, then try: pip install setuptools==49.6.0
After step 7, just wait like 30 minutes for everything to build and you're done.
Then go back to modules/sd_hijack.py and search for
and torch.cuda.get_device_capability(shared.device) == (8, 6)
and delete it
Можно самому сбилдить xformers и они запустятся даже на 1060
Asuka Langley, elegant, highly detailed, digital painting, artstation, concept art, smooth, sharp focus, illustration, art by artgerm and greg rutkowski and alphonse mucha and william - adolphe bouguereau
>>275497838 Оперативы у меня 64, хоть раз пригодится. Насчет скорости - плохо, конечно. Но в весло кидать 120 гигов не охота. Это рабочий образ, срать не хочется.
>>275497598 >sd-webu А че не автоматик1111? >>275497700 пикрил сделан на --opt-split-attention ------ > fronal photo portrait of homeless old man, poop on face, eating poop, in a dark dirty dungeon, bokeh, shot from dslr, cinestill by thing and cronenberg, perfect faces, fine details, high textures, ultra hyper sharp, insanely detailed and intricate, super detailed, hdr ultra high quality, high detail, 4k Negative prompt: black and white, grayscale Steps: 25, Sampler: Euler a, CFG scale: 8, Seed: 2497618452, Size: 576x832, Model hash: 7460a6fa
NotImplementedError: Could not run 'xformers::efficient_attention_forward_cutlass' with arguments from the 'CUDA' backend. This could be because the operator doesn't exist for this backend, or was omitted during the selective/custom build process (if using custom build). If you are a Facebook employee using PyTorch on mobile, please visit https://fburl.com/ptmfixes for possible resolutions. 'xformers::efficient_attention_forward_cutlass' is only available for these backends: [UNKNOWN_TENSOR_TYPE_ID, QuantizedXPU, UNKNOWN_TENSOR_TYPE_ID, UNKNOWN_TENSOR_TYPE_ID, UNKNOWN_TENSOR_TYPE_ID, UNKNOWN_TENSOR_TYPE_ID, UNKNOWN_TENSOR_TYPE_ID, UNKNOWN_TENSOR_TYPE_ID, SparseCPU, SparseCUDA, SparseHIP, UNKNOWN_TENSOR_TYPE_ID, UNKNOWN_TENSOR_TYPE_ID, UNKNOWN_TENSOR_TYPE_ID, SparseVE, UNKNOWN_TENSOR_TYPE_ID, NestedTensorCUDA, UNKNOWN_TENSOR_TYPE_ID, UNKNOWN_TENSOR_TYPE_ID, UNKNOWN_TENSOR_TYPE_ID, UNKNOWN_TENSOR_TYPE_ID, UNKNOWN_TENSOR_TYPE_ID, UNKNOWN_TENSOR_TYPE_ID, UNKNOWN_TENSOR_TYPE_ID, UNKNOWN_TENSOR_TYPE_ID, UNKNOWN_TENSOR_TYPE_ID, UNKNOWN_TENSOR_TYPE_ID].
BackendSelect: fallthrough registered at ..\aten\src\ATen\core\BackendSelectFallbackKernel.cpp:3 [backend fallback] Python: registered at ..\aten\src\ATen\core\PythonFallbackKernel.cpp:133 [backend fallback] Named: registered at ..\aten\src\ATen\core\NamedRegistrations.cpp:7 [backend fallback] Conjugate: registered at ..\aten\src\ATen\ConjugateFallback.cpp:18 [backend fallback] Negative: registered at ..\aten\src\ATen\native\NegateFallback.cpp:18 [backend fallback] ZeroTensor: registered at ..\aten\src\ATen\ZeroTensorFallback.cpp:86 [backend fallback] FuncTorchDynamicLayerBackMode: registered at C:\Users\circleci\project\functorch\csrc\DynamicLayer.cpp:487 [backend fallback] ADInplaceOrView: fallthrough registered at ..\aten\src\ATen\core\VariableFallbackKernel.cpp:64 [backend fallback] AutogradOther: fallthrough registered at ..\aten\src\ATen\core\VariableFallbackKernel.cpp:35 [backend fallback] AutogradCPU: fallthrough registered at ..\aten\src\ATen\core\VariableFallbackKernel.cpp:39 [backend fallback] AutogradCUDA: fallthrough registered at ..\aten\src\ATen\core\VariableFallbackKernel.cpp:47 [backend fallback] AutogradXLA: fallthrough registered at ..\aten\src\ATen\core\VariableFallbackKernel.cpp:51 [backend fallback] AutogradMPS: fallthrough registered at ..\aten\src\ATen\core\VariableFallbackKernel.cpp:59 [backend fallback] AutogradXPU: fallthrough registered at ..\aten\src\ATen\core\VariableFallbackKernel.cpp:43 [backend fallback] AutogradHPU: fallthrough registered at ..\aten\src\ATen\core\VariableFallbackKernel.cpp:68 [backend fallback] AutogradLazy: fallthrough registered at ..\aten\src\ATen\core\VariableFallbackKernel.cpp:55 [backend fallback] Tracer: registered at ..\torch\csrc\autograd\TraceTypeManual.cpp:295 [backend fallback] AutocastCPU: fallthrough registered at ..\aten\src\ATen\autocast_mode.cpp:481 [backend fallback] Autocast: fallthrough registered at ..\aten\src\ATen\autocast_mode.cpp:324 [backend fallback] FuncTorchBatched: registered at C:\Users\circleci\project\functorch\csrc\LegacyBatchingRegistrations.cpp:661 [backend fallback] FuncTorchVmapMode: fallthrough registered at C:\Users\circleci\project\functorch\csrc\VmapModeRegistrations.cpp:24 [backend fallback] Batched: registered at ..\aten\src\ATen\BatchingRegistrations.cpp:1064 [backend fallback] VmapMode: fallthrough registered at ..\aten\src\ATen\VmapModeRegistrations.cpp:33 [backend fallback] FuncTorchGradWrapper: registered at C:\Users\circleci\project\functorch\csrc\TensorWrapper.cpp:187 [backend fallback] Functionalize: registered at ..\aten\src\ATen\FunctionalizeFallbackKernel.cpp:89 [backend fallback] PythonTLSSnapshot: registered at ..\aten\src\ATen\core\PythonFallbackKernel.cpp:137 [backend fallback] FuncTorchDynamicLayerFrontMode: registered at C:\Users\circleci\project\functorch\csrc\DynamicLayer.cpp:483 [backend fallback]
>>275499127 попробуй тогда вместо "фото" использовать "колор фото". Меньше ч/б будет выдавать. Проблема в том, что жанр стариков - это прежде всего ч/б портреты, где цвет только отвлекает от текстурок, потому фотографы этого жанра в основном снимают свои работы в ч/б.
>>275499248 Вы контекст то не меняйте. Мы тут сравниваем качество по сиду. Мне пожалуйста всё как в прошлый раз, но простой промт, просто чтобы сравнить.
>>275499706 Rei Ayanami, cyberpunk futuristic neon. decorated with traditional japanese ornaments by ismail inceoglu dragan bibin hans thoma greg rutkowski alexandros pyromallis nekro rene maritte illustrated, perfect face, fine details, realistic shaded, fine - face, pretty face
>>275500074 >При таких. Только хайрез делает два прохода - отсюда увеличивается время генерации. Он нужен только на больших/длинных картинках. Нахуя ты его включил на милипиздрическом квадратике? >2070super Ну так, средненько.
>>275501234 Есть, есть. О том и речь. В колабах и разных сайтах тоже как правило ставят оптимизаторы памяти - и при прочих равных результаты будут отличаться из-за оптимизаторов. >>275501283 Так у всех везде одна и таже модель сейчас с huggingface.co
>>275491830 (OP) Как в эту хуйню вложиться? Я хочу дать им денег, я вижу в этом будущее, в это можно инвестировать? КАК ДАТЬ ИМ ДЕНЕГ ЧТОБ ПОТОМ ПОЛУЧИТЬ МНОГО ДЕНЕГ?
Ну а теперь проблема в том, что он запомнил одну модель, с которой я первый раз запускал, и теперь не хочет запускать другую. Надо запустить любую другую модель с тем же самым первым именем и поменять модель уже в настройках. Ну да ладно. Переустановлю еще раз.
Больше волнует, как понять, что vae считался и заработал? На форчане кто-то написал, что вот так надо сделать.
+ self.return_layer = -2 # (Default is None) + self.do_final_ln = True # (Default is False) + self.transformer = CLIPModel.from_pretrained(version).cuda().text_model + tokens_with_parens = [(k, v) for k, v in self.tokenizer.get_vocab().items() if '(' in k or ')' in k or '[' in k or ']' in k] for text, ident in tokens_with_parens: mult = 1.0 @@ -277,8 +283,13 @@
remade_batch_tokens_of_same_length = [x + [self.wrapped.tokenizer.eos_token_id] (target_token_count - len(x)) for x in remade_batch_tokens] tokens = torch.asarray(remade_batch_tokens_of_same_length).to(device) - outputs = self.wrapped.transformer(input_ids=tokens, position_ids=position_ids) - z = outputs.last_hidden_state + outputs = self.wrapped.transformer(input_ids=tokens, output_hidden_states=self.return_layer is not None, return_dict=True) + if self.return_layer is not None: + z = outputs.hidden_states[self.return_layer] + if self.do_final_ln: + z = self.transformer.final_layer_norm(z) + else: + z = outputs.last_hidden_state
# restoring original mean is likely not correct, but it seems to work well to prevent artifacts that happen otherwise batch_multipliers_of_same_length = [x + [1.0] (target_token_count - len(x)) for x in batch_multipliers]
I also highly encourage everyone to check out the release notes that I've written up, it includes all of the details for prompting, training, and contains non-cherrypicked generated samples from the model:
I would like to personally thank the HuggingFace team, they have been very helpful in reaching out in helping promote and maintain the Waifu Diffusion demo. I would also like to thank <@286679209240428554> for writing the demo.
I also would like to thank the Unstable Diffusion team and <@305088304284434434> for funding the training for this, without them we wouldn't have a model to play with. And finally, I would like to thank @everyone for being here along the way.
>>275502325 masterpiece, highest quality, high quality , (((from_below))), (pov), giantess hatsune miku destroying a city with an evil look on her face, by greg rutkowski, alphonse mucha
>>275502178 насколько я понимаю prevgood - предыдущая, с данными для обучения, похоже была для отката в случае чего latest - последняя, с данными для обучения final-pruned - последняя, без данных для обучения
>>275502708 Очень странно, как он мог побиться, когда просто с одной папки копировал в другую. Но, все же, повторное копирование помогло. Даже vae подтянулось.
>>275503864 А ещё от космической радиации, когда случайная заряженная частица может рандомно 0 в 1 превратить. Хуй его знает что как, может и так. Я всю неделю с батей которого раз в 10 лет вижу пробухал у него в Карелии. Чего-то щас себя чувствую слишком "несобранным" для обстоятельного детального сравнения.
>>275504038 Дело не только в весе. Фотошоп говорит что картинки не идентичны. В моем мелких деталей больше. Так что можно не подвергать уже сомнению приписку о чуть сниженном качестве. Разница хоть и небольшая, но есть.
>>275504399 поясни для дибила что качать кроме >\stableckpt\animefull-final-pruned\model.ckpt и куда нажимать. я так понял это не тупо модельку в папку кинуть
>>275504449 И кстати, самое забавное мой первоначальный кот 391кб >>275501234 весит, на 5 килобайт крупнее твоего и детальнее, а я с ним что-то сделал >>275504038 и тут он уже на 2 килобайта худее даже твоего. WTF?
>>275504449 И кстати, самое забавное мой первоначальный кот 391кб >>275501234 весит, на 5 килобайт крупнее твоего и детальнее, а я с ним что-то сделал >>275504038 и тут он уже на 2 килобайта худее даже твоего. WTF? Это потому что он имя сменил?
>>275505134 А, ну может быть. А что ты сним сделал? Я кстати тоже своего неправильно сохранил - скопировал из праузера в буфер обмена и вставил в форму постинга. Это уже не оригинал.
>>275505242 Ну какие цп, ну какое копро, ну чего ты! Нет, самую обычную разрешёнку с девушками около 140-150см, с грудью 1 максимум 2 размера, тненькими бёдрами, красивой попкой, и милым личиком. Речь об аниме стиле
>>275505232 Да все, надо по новой делать тесты. Картинки неправильно сохранили. >>275505266 Надо только промпт выбрать посложнее, чтоб текстурки были и цвета. Например хамелеон
>>275504561 Оно показывает хуйню где уже есть xformers, а у меня было без него. ПОчему нельзя сделать все по человечески без ебли... Можно там посмотреть не на 8ое число? А то все коммиты на него. Блядь, я нихуя не понял крч.
>>275505490 Подожди недельку, аноны с форча расковыряют, сделают годно и выложат гайд. Пока можешь расслабиться, потралить художников пейзажами и кубами.
>>275505528 > отвалилось Я тебе ранее говорил, что у тебя ничего не выйдет с дрочем через консоль, только личное присутсвие на вкладке. Говорил? Ну вот. Сраница проверяет что ты делаешь и делаешь ли вообще, водишь ли мышкой, если видит что на странице нет активности - ресурсы будут отключаться, колаб приостанавливаться. Я же говорил! Еще и юблок-ориджин отключи, чтобы скрипты не блочились, это убережет капчи и приостановок(их будет меньше).
>>275505695 Эм, я как бы понимал. Не поверишь но мне гугл прямо даже сказал на некоторые команды в блоках что "ты похоже делаешь какую то запрещённую срань, дружок пирожок, мы тебя если что кикнем" Да и с локальными 10ит/с не очень колаб нужон
>>275505835 >с локальными Так можно и на колабе запустить генерить 400 пикч и на компе - две видеокарты лучше одной. Запас карман не тянет. Ну и тестировать новые сборки и модели лучше там, а не дома.
Стабильно диффундируем
========================
Предыдущий тонет тут: >>275426622
Архивач https://arhivach.ng/?tags=13839
https://rebrand.ly/arhivach_SD
========================
StableDiffusion - некстген нейросеть для генерации картинок из текста и исходных картинок, обучения на своих изображениях.
📖WiKI по StableDiffusion: https://wiki.installgentoo.com/wiki/Stable_Diffusion
Сайт проекта: https://beta.dreamstudio.ai/dream
На официальном сайте можно зарегаться на фейкопочту и генерировать картинки.
✏️ Как пользоваться сайтом: https://teletype.in/@stablediffusion/dreamstudio
------------------------------------------
🚽 Другие простенькие сервисы для генерации картинок без регистрации:
https://mage.space/ - без цензуры, но медленно и мало настроек
https://hf.space/embed/stabilityai/stable-diffusion/+ - тут цензура, но работает шустро и без регистрации
Бот в телеге: @StableDiffusionWrapperBot (крутится у анона на компе с rtx3060 12гб, имейте совесть)
🔞 Без цензуры и полный функци_анал: только Colab и ПК-версия
==========================================
⚠️ ИНФА ПО РАЗЛИЧНЫМ ПАРАМЕТРАМ И КЛЮЧАМ ПРОМПТА ⚠️
📊 Таблички показывающие как разные сэмплеры и количество итераций влияет на результат:
https://teletype.in/@stablediffusion/samplers_steps
📃 Читаем как составить запрос (промпт)
🎨 Художники, стили, ключи, немного о порно: https://teletype.in/@stablediffusion/artists_for_prompts
🎲 Простенький генератор/подборщик промтов: https://hf.space/embed/Gustavosta/MagicPrompt-Stable-Diffusion/+
==========================================
Пример простого, но хорошего запроса:
> photo, fronal (((full body))) portrait of very (((wrinkled))) old man, poop on face, in a dark dirty ((dungeon)), ((((eating poop)))), bokeh, shot from dslr, cinestill by thing and cronenberg, perfect faces, fine details, high textures, ultra hyper sharp, insanely detailed and intricate, super detailed, hdr ultra high quality, high detail, 4k
==========================================
⚠️ Если нет возможности или желания установить на ПК ⚠️
Колаб - это виртуальный бесплатный сервер от Гугла, с видеокартой в комплекте!
➡️ https://teletype.in/@stablediffusion/Colab_StableDiffusion
==========================================
⚠️ УСТАНОВКА НА ПК ⚠️
https://teletype.in/@stablediffusion/PC_install_SD
------------------------------------------
📚 РАЗЛИЧНЫЕ МОДЕЛИ 📚
https://teletype.in/@stablediffusion/models_for_SD
------------------------------------------
🧠 ОБУЧЕНИЕ ПО СВОИМ КАРТИНКАМ 🧠
https://teletype.in/@stablediffusion/dreambooth_textual-inversion
===========================================
⚠️ Прочие полезные утилиты, готовые промпты, восстановление глаз/лиц, апскейл, удаление лишнего:
https://teletype.in/@stablediffusion/util_for_SD
-------------------------------------------
Шаблон шапки ОП-поста для перекатов: https://pst.klgrth.io/paste/zn5qh