Форки на базе модели insightface inswapper_128: roop, facefusion, rope, плодятся как грибы после дождя, каждый делает GUI под себя, можно выбрать любой из них под ваши вкусы и потребности. Лицемерный индус всячески мешал всем дрочить, а потом и вовсе закрыл проект. Чет ору.
Любители ебаться с зависимостями и настраивать все под себя, а также параноики могут загуглить указанные форки на гитхабе. Кто не хочет тратить время на пердолинг, просто качаем сборки.
Тред не является технической поддержкой, лучше создать issue на гитхабе или спрашивать автора конкретной сборки.
Эротический контент в шапке является традиционным для данного треда, перекатчикам желательно его не менять или заменить его на что-нибудь более красивое. А вообще можете делать что хотите, я и так сюда по праздникам захожу.
>>542826 (OP) >Любители ебаться с зависимостями и настраивать все под себя, а также параноики могут загуглить указанные форки на гитхабе. Кто не хочет тратить время на пердолинг На колабе как раз пердолинг это всё кроме чистого рупа. Фэйсфьюжен - не имеет нормальных масок и вообще отваливается после одной генерации ничего не генерит без перезапуска сервера. Руп с гуи глючное говно которое даже не запускается. Нормально только махмуд работал, но после обновления там всё поотлетало и то - он не обрабатывал ролики больше минуты длинной. Еще раз для тупых: речь про колаб, вообще не ебет что там на пукарне локальной и как идет.
>>543701 У меня на Rope последнем более менее минеты получаются: CF 100% CLIP: tongue, penis, dildo, finger, sperm, 70% - вроде более менее пропускает FaceTracker (ну или как там, пишу по памяти) 40-60% Важен ракурс, желательно прямо анфас, если вид слишком сверху/в профиль под маленьким углом, маску колбасит. Что CLIP, что FaceTracker меняют рот на оригинал, благо во время кодирования их можно включать/выключать.
>>557827 а что ты в клип обычно писал? penis, lips? и как результат? я просто маус маску включаю оригинала, просто стараюсь болванку губами похожую на лицо-замену взять
>>558804 Ну то и писал. Да хуйня это всё пока что, ни та ни другая фича идеально не работает. И вообще надеюсь в будущем появится более совершенная модель замены лица, которая будет мимику более реалистично передавать.
>>558406 Вот какая-то новая версия, у меня простая 1.4, вроде как более шлючная, надо будет обновить. https://boosty.to/neurogen/posts/fb9b04d3-4913-4a8d-8871-72ff13549bd9 >>558804 lips зачем? Чтобы оригинальные губы пропускались кое-как? tongue (язык), penis, finger (руки у лица часто бывают и облизывание пальцев; можно ещё hand, palm попробовать) - база. Ещё бы со спермой вопрос решить, я пишу sperm, но толком не проверял, как работает, и как он распознает в этим капельках и струйках сперму И вполне себе работают минеты, косяки в основном из-за ракурса (лицо слишком близко, либо сильно повернуто).
Ещё Rope не умеет (по крайней мере у меня не умел) пикчи переделывать, может, конечно, можно в SD это делать, но тут удобнее как-то и сподручнее. Придумал кодировать фотки в короткие видосы и прогонять через Rope, а из результата скрин сохранять. И хотел встроить фичу в контекстное меню винды для быстроты процесса.
Короче, вот что вышло, если кому надо: - нужен ffmpeg, прописанный в переменные среды Windows (PATH)
Пишете .bat-ник пик 1 Создаете в реестре HKEY_CLASSES_ROOT\*\shell\ раздел <название команды, которое и будет в контекстном меню> (в примере ffmpeg i2v), внутри нового раздела ещё один раздел "command" и в нём значение ключа "По умолчанию" меняем на C:\путь_к_вашему_файлу\имя_батника.bat "%1"
>>558917 >можно в SD это делать, но тут удобнее как-то и сподручнее Во-первых, это может махмуд. Как и в нормальную модель парсинга лица, как и нормальную модель детекта лица. Хули вы вообще этим рупом продолжаете в тред срать. Во-вторых, конкретно для замены лица СД - лучше всего, так как сохраняет достоверность с пары роллов можно выбрать норм вариант , ган там лучше по каким то причинам мержится.
>>558823 Да вообще всего лица: бровья, глаза, рот, лоб. Ты что не замечаешь, если на оригинальном видео человек рожу корчит, то со свапом мимика будто какого-то аутиста. Например направления глаз не совпадает или они вообще не закрываются. Так же анимация рта при разговоре еле двигается.
А кто-то разобрался со всеми настройками 4 версии рупа? Там можно просто теперь не только в плюс маус крутить, но и в минус (внутреннюю полость рта) и правой кнопкой мышки если нажимать, то там доп. кнопки вылазят, которых раньше не было.
>>559371 >Ну маус парсер нормально же работает Ну так себе. Если у таргета губы не очень похожи на сорс, то это выглядит кринжово. Еще заметил такую хуйню, когда ебало в профиле сосет, то нижняя челюсть таргета просвечивает, а челюсть сорса будто закрыта, т.е. есть видно две грани челюсти. Моутхпарзер тут уже никак не поможет.
Зря я несколько месяцев назад увлекся этой хуйней. Наделал дипфейки на всех мне интересных баб, надрочился, и всё... член практически больше не встает них. Жизнь стала скучнее. Это реальное читерство. Мой вердикт – все эти машиные обучения, нейросети, ИИ – это Ящик Пандоры.
>>568984 > Наделал дипфейки на всех мне интересных баб, надрочился, и всё... член практически больше не встает них Ты сэкономил кучу времени жизни, используй его с умом
А кто-нибудь VR-видео пробовал свапать? У меня почему-то после 10 минут обработки на первом этапе ошибку выдавало. Видео-то просто с двумя лицами на обработку получается, в остальном отличий нет. Или я ошибаюсь?
>>570855 Понял в чём ошибка была, это нехватка места. Намного дольше обрабатывается видео. Обычный прон 10-15 минут за 20 минут примерно готовился, а сейчас на видео длительностью 35 минут уже потратилось 3 часа только на извлечение кадров (и 150 + гб). Странно.
>>571022 ВР у меня получалось делать, и сносный вполне результат был, но делал буквально пару секунд потому что у вр видео большие разрешения очень да и два лица большой удар по ресурсам.
>>571528 5,5 гб Сделал свап мукхам папку сиквенс на 151 гб, проанализировал ещё за 3 часа(итого 6 часов), но во время замены почему-то зависло на 5й замене лиц.
Аноны такой вопрос - а можно натренировать модель на конкретные лица, чтобы маскау не пидорасило под большими углами? Или моделька сама дообучается? Использую последнюю версию rope
>>575116 А какая сейчас последняя? Где взять, я раньше в телеге у нейрогена брал, но у него наебнулся яндекс диск и он выкладывает на какой-то говно сайт, где надо регится и сразу же идет нахуй с ним
>>590538 Уже сделали. Ебать там фейсфьюжен какой-то черной магией прокачали. Летает на сверхсветовых скоростях, не проебывает рты (в разумных ракурсах). Единственно странно, что если сосущий рот норм, то на просто лице - вдруг маска отлетает, но я не крутил настройки детектов, все оставил по дефолту. Последний фейсган топ, ускорение работы в разы. Неудивительно, что махмуд забил на свое поделие.
>>594515 > Уже сделали. Это просто маска на лицо, то есть нижняя часть с хуем во рту остается неизменной. Очень часто человек перестает узнаваться. Так что нужна конкретная модель, обученная на перекрытых лицах
>>594568 >Это просто маска на лицо, то есть нижняя часть с хуем во рту остается неизменной. Очень часто человек перестает узнаваться. Мозгов взять похожий типаж лица тебе не хватает, очевидно? Оно и будет всегда маской.
>Так что нужна конкретная модель, обученная на перекрытых лицах Ты явно не понимаешь о чем пишешь. Это вообще нихуя не изменит, потому что такого рода модель подставит вообще третьи хуй и губы. Позволь намекнуть тебе, что ты дурак. Тем более, такая моель давно есть у трусонюхов, они с её помощью расцензуривают минеты, но если ты ебало скрючил на фэйсфьюжен (полагаю, ты даже не видел), то там ты вообще вонять будешь с неделю. Очевидно тебе просто нужна кнопка "сделать заебись". Такой не будет никогда.
>>594597 > Оно и будет всегда Ты можешь представить, как конкретная тян сосет хуй конкретно своим ртом? Вот и нейронка сможет, если обучить. Современные нейронки отзамену лица - это говно просто
>>597571 Бля какой же ты удод. Вместо того чтоб признаться что обосрался, ты продолжаешь хуйню нести. Или ты настолько долбоеб, что gpfgan называешь фейсганом.
>>597845 Тогда как ты вот это называешь? https://tutvision.github.io/FACEGAN/ Или по-твоему и GPEN BFR можно фейсганом назвать, так как эта аббревиатура тоже содержит термины face и GAN. Ты же просто ебучий коверкальщик и был пойман за руку как дешевка.
Fasefusion ошибка при создании видео, ОС win10, пробовал переустановку opencv opencv\modules\highgui\src\window.cpp:1266: error: (-2:Unspecified error) The function is not implemented. Rebuild the library with Windows, GTK+ 2.x or Cocoa support. If you are on Ubuntu or Debian, install libgtk2.0-dev and pkg-config
>>613546 Ты идиот? Это сваппер лица, который вместо инсайтфейса использует модель для специальную модель для контролнета и лору. Кидаешь в контролнет фотку и либо имидж-ту-имидж делаешь свап, либо генеришь со своим лицом с нуля.
Жаль, что симсвап не обновляют, мне он больше нравится. Рууп чё-то не работает нормально, лица не похожи. Либо я что-то не так делаю... Так что вернул симсвап. Вот только теперь иногда проблема возникает — видео ускоряется. Вообще каждый раз, когда я симсвап устанавливаю, в нём что-то немного меняется. То скорость медленная, то глюки какие-то, то вообще не работает нихера, а иногда всё идеально, как в прошлый раз было. Хотя вроде по одной и той же проверенной схеме устанавливаю каждый раз.
+ кастомные ключи (ну или в гуи выбрать ручками, но там нету батча, пришлось костылить в консольке) --face-swapper-model inswapper_128_fp16 (качество то же, но чуть быстрее обрабатывает и меньше жрет) --face-mask-types occlusion (лучше обтекает челюсть и предметы перед лицом. Не уровень качественных минетов, но хоть что-то)
Еще есть полезный ключ --face-mask-padding 20 (процент обрезания маски сверху) - убирает налезающие на болванку волосы оригинала, но конфликтует с face-mask-types occlusion.
единственное что смог скачать нормально и запустить под 10 виндой с амд процем и видюхой это facefusion 2.3.0 через pinokio. Но похоже там же и nsfw фильтр установился. Как удалить?
Анончики, скиньте пожалуйста крайнюю версии Rope которую можно на процессоре AMD без видюхи запустить, очень прошу. Вижу, что вот этот анон скинул >>582909 , очень интересно они много чего обновили, но вот там указано что только на карточках CUDA идёт, а я нищук с рязанью пятой.
Где-то год назад юзал симсвап, все устраивало. Сейчас хочу снова вкатиться, но без лишней ебли и танцами с бубном. Нашел готовую версию rope от Нейрогена, где все вроде как делается в пару кликов. Что она, норм? Или лучше самому со всем пердолиться и заново вникать?
Гайсы, помогите, чем можно делать подобные фейссвапы на таком качественном уровне? Обучал Лору и через СД пробовал, но овердохуя артефактов появляется, может есть какая-то ЙОБА, о которой мне неизвестно? Алсо, типы на англофорумах пишут о том, что тут юзается какой-то омолаживающий фильтр из тиктоков, но суть то в том, что тут полностью лицо изменено, а не просто омоложение наложено
В FaceFusion можно как-то ускорить обработку длинных видео по +- 10 минут? У меня дохленькая 1050Ti и шестнадцатиядерный Зеон, если порезать видео на 5-6 частей, то его обрабатывает со скоростью около 10-15 кадров в секунду, если скормить его полностью, то вообще не запускается, если поделить пополам, то будет 1-2 кадрав секунду. Просто каждый раз резать и склеивать его ручками не очень удобно.
Почему facefusion, установленный через pinokio рендерит только супер-коротки видосы длиной буквально 20-30 кадров?? Если задаешь временной отрезок длиннее - тупо ничего не происходит. Даже в бэклог ничего не падает. Пекарня норм, 16гб VRAM/32гб DRAM
Аноны, какая щас мета по фейсвапу вообще? У меня стоит ROPE, но он 1. Работает нормально через раз, иногда быстро прогоняет видео, иногда тормозит, благо очистка VRAM есть встроенная и 2. Внятно работает только если ебало смотрит прямо в камеру, под углами начинает артефактить. Есть что-то посолиднее сейчас, или это пока что потолок?
>>789131 > Желаю, чтобы в твоей жизни было больше любви и доброты. Только учти, что все изготовленное не в оффлайне рано или поздно улетит товарищу майору с указанием данных изготовителя порнографии. а в худшем случае шумиха -> пробив по ебалу тянки -> дианон травля тебя
Подскажите почему лыжи не едут. Facefusion ругается на cuda. У меня еще установлены stable diffusion и roop, и они нормально с cuda работают, не жалуются. Тут трабл с пространством (или как его), которое по conda activate facefusion вызывается? Я пробовал pip install torch torchvision --index-url https://download.pytorch.org/whl/cu118. Не помогло.
Подскажите плз, раньше пользовался ROPE, стояла винда 10, не помню какая версия роуп была, скачивал в бусти нейрогена, где то в 2013 году. Стабильно работала на моем ноуте с 1650 4gb, без каких либо проблем, все четко. Потом переустановил винду, забил на это дело и щас решил опять поставить, и смотрю уже новые версии повыходили, они у меня тупо не работают, то видос не воспроизводится, то просто не сохраняется, какие то навороты всякие не нужные появились, внезапно VRAM показывает что загружен и стало все дико лагать, хотя в той версии такой хуйни и подавно не было. Как вспомнить ту самую версию стабильного роупа? Может кто подскажет, я уже много сборок перепробовал с его бусти и все не те, не могу понять в чем подвох
>>820848 А ты папку куда видосы будут сохранятся создал? как у меня папка result У меня все сохраняет, жмешь рекорд потом останавливаешь и видос там сохраняется. Ну и понятно что у тебя не было ру букв в папках, и видосы и фотки были только jpg и mp4 + имена только цифрами, тогда не должно быть проблем
Использовал вот этот Rope >>820689 на встроенной Vega от AMD, психанул, и решил взять себе RX 580 8 Gb. Аноны, подскажите, поймёт ли Rope что у меня теперь не встроенная видяха? Подтянет ли он её без танцев с бубном, и будет ли использовать её мощности, или так и продолжит на встроенной обрабатывать? Не хотелось бы его переустанавливать, ибо это лишний геморой
>>825365 >купил амуду под нейронки А ты не ищешь лёгких путей. Уважуха. Тебе придётся сильно попердолиться, ибо с амудой забудь про пайторч. Тебе надо теперь в сторону тензорфлоу копать. Лучше сразу ставь тогда минт, всё равно в говне увяз. На минте поднимай последние дрова для своей амуды, вкручивай тензорфлоу и поднимай божественный ComfyUI. Поебёшься ты парень знатно, но в теории это всё работает, при чём сильно быстрее, чем зеленые под виндой и с на пайторч. На ComfyUI вообще все схемы, на что вы тут все дрочите давно есть в свободном доступе.
>>831392 >Держите, додики Фейсфьюжен умеет в маску. Гомфиблядок принес ноду которую вырвал из паломатика где она доступна уже год или полтора - "нате держите додики!". Даже в каломатике там был инпейнт по маске. Год сука назад. Пошёл нахуй отсюда.
>>831916 >Реактор меняет ебала без инпейнта. Ебучий безмозглый даун, объясняю специально для тебя, ньюфага обдристанного который нихуя не понимает, но лезет в тред умничать: для нормального фейссвапа это надо делать по маске. То что ты с визном сюда претащил свой "ректор", сука это тот же самый "руп" у которого сменили название чтоб индус не мандел. Самая высшая степень развития по функцианалу и всей хуйне - это фейсфьюжен, который и в маску может и в кучу способов детекции лица, энчансы, липсинк, хуйсосинг, в пять-шесть моделей (а не только insightface). А теперь съеби отсюда нахуй.
>>831924 >с визном сюда претащил свой "ректор" Во-первых прекрати тряску >для нормального фейссвапа это надо делать по маске А нахуя тебе нейросети, пользуйся фотошопом, художник ёбаный. Я тут за автоматизацией. Вкалывают роботы и всё такое. >это тот же самый "руп" у которого сменили название чтоб индус не мандел А руп для тебя какое то триггерное слово? >Самая высшая степень развития по функцианалу и всей хуйне - это фейсфьюжен Уговорил, натяну сейчас эти ноды в комфи и погляжу >в пять-шесть моделей (а не только insightface) Реактор тоже может во все эти модели, прикинь
>>832747 >А нахуя тебе нейросети, пользуйся фотошопом, художник ёбаный. Я тут за автоматизацией. Вкалывают роботы и всё такое. Ну и проебешь все минеты, довен. Маска там автоматическая, кстати, мань. Просто указываешь 37% этого достаточно, чтоб рот не цепляло.
>А руп для тебя какое то триггерное слово? Руп и рекатор одно и то же. Объясни зачем ты это сюда тащишь, когда тут это год назад обсуждали?
>Уговорил, натяну сейчас эти ноды в комфи и погляжу Ну ты дурачок, пиздец, это уже устаревшая хуита, сейчас топ это омпи и инстант-айди, но у тебя нет 24 гиг врама.
>>756493 У тебя обычный 1.5 - c делибирейт 5 и с правильными промтами, возможно с лорами на лицо и реалистичность с коррекций свето фильтра через фотошоп и полировка импейнтом, а не с первого раза
базовые инструкции таковы
woman 22 yo. elon musk. swimsuit advertisement in a magazine. erotic panties. cute face real skin, nipples, pores, sexy pose, focus on the perfect face, emotive eyes, smiling and aroused, (wide shot)1.4, nikon z 5, award winning photo, sharp focus, ektachrome. true color rendering. pigtail (((( gain highlighting contour sharpness. shine. )))
neg
china, japan, render, cgi, digital painting, (text)1.2,(logo)1.2, (watermark)1.2, b&w, (cartoon, 3d, bad art, poorly drawn, close up, blurry, disfigured, deformed, extra limbs)1.5. black. southern nationality. anime. non-sexuality.
>>862235 Ты считаешь, что твои картинки выглядят фотореалистично? Во-первых, сразу в глаза бросается нереалистичная кожа. Во-второх, всякие артефакты деформации.
>>862501 вообщет 90% багов это кривые глаза которые фиксятся лорами а кожа цвето корекцией. меня эта тему же не интересует, смотреть не интересно и не на что ( игры интересней )
если у тебя есть более крутые инструкции то пости. что бы с первого раза было
>>862501 да выглядят,, и это просто сделать, инструкция выше. если бы было просто сделать как пикролы у тебя то это было бы везде или тот жидло дал бы инструкции ( как я )
>>862501 >Ты считаешь, что твои картинки выглядят фотореалисти
ИИ не полноценный редактор а переберать промты и ебатся с параметрами тоже заебало SD желтит и слишком много коричного хотя это делается в 1-2 клика в фотошопе с цвето корекцией и убираньем желтого те ИИ что то произошло с цвето политрой
Ты про эти фотки что ли? >>756493 Еще раз говорю, тут блять нет никакого фейссвапа или вообще какой-либо ИИ генерации, это оригинальные фотки. Там даже внизу имя фотомодели написано, гуглится же ебанный в рот за пару секунд.
Сука не дрочу уже год, жду когда дипфейки нормальные завезут с сосанием хуев. Бля анончики, как так то, всякие чатговнопити, фэтжорни, стэйблгавнюжн, а во факту нужны только минеты, доколе?
Завтра выходит Facefusion 3.0. Изменений довольно много, напихали в него всё что можно. + сделали пиксельбуст для инсвапера. Попробовать уже можно, надо качать ветку next. Правда сегодня версию для линукса сломали
>>892237 Идею с пиксельбустером украли у ропа. На самом деле по качеству ничего сверхестественного эта фича не дает. Плюс в ней в том, что эта фича сразу включается и не надо ждать загрузги модели апскейлера. Но жрет оно производительности примерно так же. На 256 у меня еще более-менее в реалтайме идет, а 512 всего пару кадров в секунду выдает.
>>542826 (OP) Нахуя на своём железе запускать нейросеть можно открыть нейросеть онлайн на сервере например использовать гугл колаб и запустить там Stable Diffusion Automatic
>>892237 есть тут аноны которые играются с этим фейсфьюжн? установил, в сорсах выпилил nsfw фильтр и начал изучать
порой получается очень хорошо, порой какая-то хуетень очень сложно уловить закономерности, особенно когда речь идет про частично закрытое лицо. face mask occlusion вроде хорошо справляется иногда, иногда вообще нет.
короч очень хотелось бы поболтать с кем-нибудь кто в этом говне +- разобрался и получает предсказуемый (хороший) результат.
Никто не пробовал запускать facefusion в каком-нибудь онлайн юпитер ноутбуке? Есть около бесплатный доступ к одному облаку и не очень понятно реально ли вообще эту тулзу гонять через юпитер Вроде запуск без юая есть, но вот какие подводные могут быть - пока хз
rope не замена simswap? Одно и тоже лицо натягивают по разному. Именно с simswape получается хорошо, а в rope уебище. Причем только с определенными лицами так. Будто алгоритм распознавания другой.
>>920303 Там же буквально написано в чем твоя проблема Последним аргументом должно быть что-то из перечисленного, у тебя лишние символы {default, ...} поменяй на default, ну или вероятно тебе нужна cuda
>>920588 Ну если ты с терминалом первый раз тыкаешься, то наверное и правда сложно хоть ошибка и говорит сама за себя Для сои за 20 бачей ван-клик инсталлер продают, задумайся
>>920588 Ну и кстати написал бы ты просто "спасибо помогло" - мне было бы приятно и я бы с радостью помогал челам в треде. Но теперь я знаю что итт всем видимо по факту обязаны и собственно иди ты на хуй.
>>920601 Странно, что ты требуешь к себе вежливого отношения, но при этом сам посылаешь людей за простой вопрос. Не уверен, что я хотел бы чтобы тебе было приятно теперь.
>>920671 Он не требует, но ты реально либо формулируешь мысли не думая о том как они звучат и могут восприниматься, либо реально просто невежливый ЧСВ и не видишь в этом проблемы. Но мне кажется первое, все мы аутисты немного на дваче. Мимопроходил
>>922677 В facefusion +- адекватное можно сделать, нужно только поиграться с масками. Когда открыл для себя occlusion - сразу другой уровень, можно не переживать за разные предметы волосы например, извращенцы частично закрывающие лицо. Не идеально, но уже можно работать
Как скрипт сделать чтобы он анаконду открывал, активировал пространство и запускал фейсфьюжон? Я даже не могу найти через какой экзешник запускается анакондовский цмд.
>>923225 https://docs.facefusion.io/installation Винда. По гайду. Еще что нужно изменить чтобы цензуру убрать? На реддите был пост, но его стерли. Вроде в content_analyzer.py нужно было какие-то значения заменить.
>>923232 Там функции которые bool возвращают поменяй на return False все и будет счастье. Про винду не подскажу, но если у тебя тулза conda доступна из терминала по дефолту то написать скрипт из conda activate + python путь до файла run должно работать
>>923248 А кому помогать? Я вкатился и хочу делиться опытом, чем больше людей сможет тыкаться - тем больше коллективных знаний будет и качественнее результат можно будет получать.
У меня cuda установлена, но facefusion ее не видит потому, что берет пути не из PATH винды, а из своего и ищет модули в папке с анакондой. Как это пофиксить?
>>925587 Да. Было такое сообщение WARNING: overwriting environment variables set in the machine overwriting variable [‘PATH’]. Потом при попытке обрабоке кудой такое LoadLibrary failed with error 126 when trying to load onnxruntime_providers_cuda.dll и там еще пути в папке с анакондой. Он не находит там dll куды. Но он не там ищет. Пути прописаны в переменной path операционной среды. Проблема в том, что анаконда не обращается к path винды, а ищет только у себя в директории. Это как-то нужно настроить, но я не смог нагуглить.
>>927683 Читаю оф. сайт, но похоже там с установкой нужно разбираться так как гайд не работает. конда какая та котрая от админа не прописывается в path а от юзера прописывается и работает корректно но пишет что запуск с указанным в гайде флагом не будет работать. Короче ШИЗА. Видимо это чтобы купили авто инсталлер, но мне деняк жалко. Попробую пока разобраться.
Conda not activated. Вот на этом шаге засел, и хрен знает что делать. Видимо environment пиздрона сбоит, свапнуть бы ебло того кто туториал делал. А давайте найдем его и прийдём домой.
Conda действительно не активирует facefusion окружение, пробовал и от админа и без, раком, боков, поворотом и левую ушную раковину задел. Вот там где стрелочка должна быть звёздочка, если активно окружение. Штто же делать...
>>927770 @AINetSD_bot -> Файлы Neurogen -> 15. FaceFusion - /FaceFusion [Дипфейк] -> Качаешь 4 архива, распаковываешь и все работает без пердолинга с анакондой.
Не помню, нужно ли там обходить цензуру или она уже вырезана.
>>927927 Ого! Спасибо большое. У меня facefusion заработала, но на cuda нет. Похоже там отдельно с этим шаманить нужно. Сейчас скачаю. Дай бох тебе здоровья.
Дааа... FaceFusion - работает шикарно, если правильно подобраны лица src и dest. Но иногда на некоторых картинках оно не срабатывает - показывается просто блюр картинка. Хотя лица отображает что вырезало правильно. В чем может быть проблема?
>>928014 Цензура точно вырезана? в папке facefusion (да, внутри там еще одна папка с таким названием) находишь файл content_analyser.py. Открываешь его любым текстовым редактором, находишь процедуру analyse_frame и в return удаляешь всё, заменяешь на False (с большой буквы, путону это важно). Будет return False Перезапускаешь facefusion, забываешь про блюр
Короче говоря FaceFusion хорошо работает на видео, но на фото плохо чем качественнее и ближе лицо, тем оно смотрится неестественнее. И из-за особенностей устройства так будет всегда.
Чтобы работать с фото, генерировать картинки с человеком мне нужно как я понимаю обучать свою модель лица/образа Lora и уже её совмещать с какой-то моделью генерации картинок. Правильно? Такой набор это правильный выбор? Или есть какие-то варианты продвинутее? Подскажите пожалуйста.
Тред не читал. Что сейчас есть самое годное для замены лиц работоспособное на гугл колабе? Раньше пользовался roop от индуса, где моделька inswapper_128 была. Сейчас пытаюсь запустить-не работает больше.
>>939816 Есть несколько реалистичных моделей на технологии Gaussian avatar faceswap, самые реалистичные из существующих. Только они громоздкие, десятки гб vram, и никто пока не прикрутил к ропу и подобным программам.
несколько месяцев назад локально в rope или как-то так приделывал лица знакомых тян на видео и фото, но удалил все. как сейчас это делают, что качать, есть улучшения?
>>956222 Нее, я не умею лору делать. Я пробовал только faceswap и фотошоп. Генерацию только осваиваю.
Но для хорошей лоры тебе нужны фотки с разных ракурсов - все 9 позиций головы вроде как (поправьте). Можно наверно и 6, но без ассиметрии лица будет работизировано выглядеть.
Подготовь фотки, если тут не найдешь - тогда иди на civiai и обратись к любому артисту, там у многих патреон и они платно тебе сделают лору. И уже с ней возвращайся сюда, тут тебе скажут что делать будешь сам генерить порно сколько влезет.
Хотя... если у тебя денег много и есть фотки напиши мне в телегу @s8354694 (акк будет сегодня заблочен) сделаем тебе лору. Но я начинающий, может результаты будут не самые хорошие.
У меня модель в 23Gb загружается используя почти всю доступную память, выходит около 40-43GB + 2GB lora+vae. Короче говоря она упирается в потолок, так как в системе 64GB оперативки всего. Возможно даже файл подкачки частично использует. И вот отсюда вытекает в плане апгрейда, менять 3060 на 4070 или покупать 128GB оперативки сначала, а в следующем уже году думать про замену видюхи. Ваше мнение?
>>967623 Да наверно еще долго ждать. Как мне кажется во всей этой сфере машиного обучения работает принцип Парето: "20% усилий дают 80 % результата, а остальные 80 % усилий – лишь 20 % результата"
>>571830 >у вр видео большие разрешения Что, если разбить видос пополам на два квадрата (левый и правый) и с одним и тем же сидом прогнать по очереди, потом собрать обратно, интересно, нейронка сделает одинаковые ебальники? Не пробовал?
>>542826 (OP) Все привет интересует один момент, кто разворачивал локально Deep-Live-Cam насколько это гемор? Почему то в треде об этой проге вообще не упоминается ни слова, она не популярна у анонов или что? Прочитал мануал по установке, какой-то гемор...
Как я понимаю DeepFaceLive безнадежно устарел, последние коммиты были 2 года назада и сейчас все пользуются facefusion ?
>>1015951 Deepfacelab (и основанное на нём приложение для онлайн-камер DeepFaceLive) хоть и устарел, но позволяет получать более реалистичные результаты при наличии большого количества тренировочного материала (тысячи изображений с разных ракурсов). Но Deepfacelab очень медленный и ресурсоёмкий. Facefusion или Rope используют модели, которые могут работать с одной фотографией, они быстрее, не требуют тренировки лиц, но качество и схожесть у них значительно ниже чем у Deepfacelab.
>>1019786 Я за ним давно наблюдаю, он ебанутый просто. Форсит свой дип-кал с первого треда, хотя уже в прошлом году это стало даже не смешно. В фейсфьюжене есть и учет углов, и липсинк и дохуя стопицом всяких моделей и прочей хуйни, а он продолжает пердеть про какойто СУПЕР НЕВЪЕБЕННЫЙ результат дипкала, который мог делать только пластиковые ебальники на видосах со строго примитивным ракурсом после чсов пердолинга и подбора актрис и сцен.
Что до онлайн хуйни - иди на гит, уверен есть форки фьюжена или залупы на его базе юзающие те же самые модели и фичи. Но те по любому надо будет сидеть всё равно ровно. Как вариант даже может есть какой-то липсинк онлайн, тогда менять надо будет не весь ебальник, а только линию губ, а подойдет готовый поток уже с любой щелью.
>>1019807 Понял, принял. Я только начинаю вкат в нейросети. До этого был опыт в ойти, но мне как-то этого не запало в душу. Хотел попробовать пилить видео в стиле у меня в гостях Киану Ривз.
>>Что до онлайн хуйни - иди на гит, уверен есть форки фьюжена или залупы на его базе юзающие те же самые модели и фичи Почему нельзя развернуть его локально или это ресурсоемко?
К слову у меня geforce gtx 1060 6gb и 16gb ram - с таким набором есть вообще смысл вникать в тему?
>>1019807 Шиз, за кем ты тут наблюдаешь с первого треда? Я первый раз DFL здесь упомянул. И тебя никто не оскорблял, учись вести себя не как падаль. На твоём фейсфьюжене до сих пор в качестве модели inswapper с разрешением 128x128 (который растягивают апсемплингом, чтобы мыла не было), в то время как на действительно хуёвом deepfacelab или faceswap несколько лет назад можно было при желании тренировать модели 512 и 1024. А ты со своим inswapper 128 уже три года носишься, который нихуя не отображает деталей. Когда в rope, facefusion прикрутят актуальные на 2025 год модели (Gaussian avatar или другие из списка https://github.com/flyingby/Awesome-Deepfake-Generation-and-Detection), и чтобы передача текстуры лица была и мимика нормальная, тогда будешь тут рекламировать насколько это крутая программа. Я просто указал реальное положение, а ты порвался. Кому не нужны детали и схожесть может спокойно использовать facefusion, никто не запрещает.
>>1019870 >gtx 1060 6gb и 16gb ram - с таким набором есть вообще смысл вникать в тему? Очень мало, но для facefusion или rope на низких настройках должно хватить. У меня получалось запускать на карте с 4 Гб VRAM. Только довольно медленно.
>>1020404 Ты уничтожил фейсфюжин шизика) Да даже если разработчики инсваппера в открытый доступ скинули бы 256 и 512 модели, это бы мало чего дало. Основная проблема инсваппера не разрешение, а именно мимика, нюансы проглатываются, иногда рожа выглядит как у какого-то аутиста.
>>1020404 >На твоём фейсфьюжене до сих пор в качестве модели inswapper с разрешением 128x128 (который растягивают апсемплингом, чтобы мыла не было), Там много моделей, клоун. Ничто не мешает натренировать свою и сунуть внутрь.
>>1020670 Он только свой анус уничтожил снова начав кукарекать про гаус аватары и дипщит.
>а именно мимика В фейсфьюжене уже год как есть восстановление мимики, чмонь. Как и региональная маска.
Дохуя тут обосраных экспертов не способных разобраться в интерфейсе примиттивной программы, кек.
>>1020404 Только погружаюсь в тему. Увидел это: >>https://github.com/flyingby/Awesome-Deepfake-Generation-and-Detection И просто выпал. Это же натуральный ящик пандоры. Можно найти, к примеру, можно найти архивное фото бабы сраки -> повысить разрешение -> раскрасить фото -> добавить макияж (там такое есть 0_o) -> анимировать по движению -> добавить синхронизацию с голосом.
Я просто в шоке! Понятно, что пока это не обретает большой огласки в силу развития технологии, но у этого просто огромный потенциал. Плюс это только то, что есть в открытом доступе, а что хранится у частников, к примеру The Irishman 2019 - уже применялась технология омалаживания.
Уверен, что это область будут искусственно замедлять, т.к. в ней крутятся гигантсикие деньги.
>>1021099 Сейчас почти все новые дипфейк модели из списка делают китайцы, им насрать на privacy. Это за Западе всё это пытаются запретить превентивно, поэтому на настоящий момент всё затормозилось. Но хорошо, что есть Китай.
>>1020924 >Там много моделей, клоун. Ничто не мешает натренировать свою и сунуть внутрь.
Те другие доступные модели - это вообще говно полное. inswapper 128 хоть и мыльный, но даёт какую-то схожесть. А чтобы тренировать модели, то нужно знать код на уровне и иметь больше чем 8-16 гб VRAM, что не у всех есть.
>>1021628 >>Это за Западе всё это пытаются запретить превентивно Представляешь сколько сфер затронут дипфейки? Любая медиа студия и медийная личность канут в лето, поэтому это в интересах больших корпораций тормозить процесс разивития.
Это как с потентами на двигатели от машин. Там уже умельцы придумали различные варианты, но нефтянка перекрывает эти разработки.
>>1021672 >юбая медиа студия и медийная личность канут в лето, поэтому это в интересах больших корпораций тормозить процесс разивития. Регистрируешь лайкнесс и всё, никаких цифровых дипфейков официально за деньги ты никому не продашь, долбоебушка.
>Это как с потентами на двигатели от машин. Там уже умельцы придумали различные варианты, но нефтянка перекрывает эти разработки. В зог пиздуй, если ресурса вечного двигателя хватит клован.
А непросто, всё-таки, подобрать лицо. Иногда закидываю двадцать разных фотографий, и ни одно не выглядит убедительно. Понятно, что нужно подбирать модели по форме лица, боди тайпу, тону кожи, цвету и форме волос. Но всё равно, иногда прям всё мимо. В идеале нужно найти высококачественное селфи видео, чтоб на нём были морщинки видны и т.д., чтобы форма носа была отчётлива — и наделать несколько скриншотов. Иногда лёгкая смена ракурса на фотографии может привести к куда более убедительному результату. Но, опять же, зависит от модели.
А вообще классная тема Руп. Раньше на симсвапе сидел, но его забросили раньше.
>>1029396 Судя по описанию модель будет значительно меньше весить и жрать производительности. Я так понимаю, это не новая разработка, а просто дистиллированная модель. По схожести лица она будет такой же как классическая инсваппер128, но четче из-за повышеного разрешения.
>>1029184 О, раз такой запрос и на удивление альтернатив для фейсвапа на общем буме ИИ так и не сделали нихуя, то поделюсь своими наблюдениями, пока еще актуально. Я сам использовал facefusion, но думаю там с рупом одни и те же модели лэндмаркера и inswapper, так что похуй.
И так, по документам, мы просто пихаем сурс и программа сама качественно вынимает из него лицо. Так-то оно так, но мы можем значительно увеличить качество и узнаваемость, если проведем до этого пару манипуляций с изображением.
Шаг первый - убираем все цвета с изображения. Одновременно повышает и детализацию выхлопа и узнаваемость. Проверял обратную схему - если мы наоборот увеличиваем насыщенность, то выхлоп получается дальше от оригинала, поэтому делаем ЧБ. Это база, это ко всем фотографиям можно применять спокойно.
Дальше, уже из разряда поиграться/посмотреть, но скорее всего эффект тоже будет стабильно положительным:
Шаг второй - обрезаем верх головы. Буквально всё, что выше бровей спокойно идёт под снос. Таким образом мы значительно поднимаем качество взгляда на выхлопе. Без него зачастую это просто стеклянный взгляд на тысячу ярдов. С обрезанием же сурс лучше копирует направление взгляда таргета и делает его живым. Замечательно работает с параметром face padding 20 0 0 0 (чтобы на лоб таргета не налезали фантомные волосы) Также, в некоторых случаях можно попробовать отпилить боковые части лица, начиная от конца бровей, но тут уже действительно опционально, надо смотреть - может действительно улучшить копирование лица, но проебет ямочки на щеках, которые бустят узнаваемость.
Шаг третий - это уже из разряда черной магии (буквально) и я не имею не малейшего понятия как это работает, но заключительный шаг значительно бустит качество и узнаваемость сурса. Берем фильтр Exposure. Поднимаем его настолько, чтобы изображение стало более контрастным, но не потеряло деталей. (можно даже попробовать выкрутить его на максимум вправо, иной раз выдает интересные результаты) И вторым - самое главное, опускаем второй параметр exposure - вытемняя по-максимум картинку, чтобы изображение было едва-едва различимо, но лэндмаркер всё еще мог подхватить.
Такими ловкими движениями с одного и того же сурса я получал разницу с "ну дааа, похоже там в принципе", до "БЛЯТЬ! ДА ЭТО ЖЕ ОНА!"
Ну и по общему качеству выхлопа: 1) Для обработки картинок обязательно ставить '--face-swapper-pixel-boost 256x256'. Даёт значительный буст качеству. Дальнейшее повышение разрешения, особенно в связки с апскйлом, особого смысла не даёт, а вот время обработки повышает кратно. 2) Апскейл сверху тоже хорошо работает, главное не переборщить. В facefusion по умолчанию gfpgan_1.4 и он действительно лучше работает предложенных вариантов. `--face-enhancer-blend` выставить на 65 - отлично улучшает качество, но не переходит в "типичную апскейльную картинку". С видосиками смотреть уже на свои мощности, ибо вышеперечисленное замедляет обработку примерно в три раза.
пользовался форком rope alukard24, там есть фича - landmarks, с ней результаты вполне себе, если лицо не под экстремальными углами. Мимика иногда хромает (то глаз один залипнет, то покер фейс)
существуют ли модели/фреймворки, которые могут дорисовывать корректно лицо в профиль, если в датасете отсутвуют подобные изображения?
Когда нет 20000 изображений с разных ракусов, то на чём учить DFL? По факту, нужна модель, которая бы принимала одноновременно от нескольких штук до нескольких десятков фото с разных сторон лица для генерализации лица, чтобы можно было делать реалистичные свопы под разными углами. Сейчас алтернатива это DFL с тысячами фоток для тренинга либо inswapper с одной фотокой в фас, но снижением узнаваемости при повороте головы. В ропе и фейсфьюжене ведь есть возможнось запихать много портретов одного человека, но общую узнаваемость это не очень увеличивает. Такое ощущение, что модель всё равно пытается считывать лицо из плоскости фас, несмотря на угол поворота головы к камере, поправьте, если не так. Вот ещё есть новая неопубликованная модель HiFiVFS, которая, вроде бы, хорошо справляется с экстремальными углами и сама расчитывает маску лица без xseg и окклюзии. Только текстура лица пропадает как у inswapper. https://cxcx1996.github.io/HiFiVFS/
Короч, скачал какую-то сборку, она сразу полезла в инет при первом запуске, я послал её нахуй, т.к. мне непонятно че оно там будет скачивать на мой комп. Типа под видом обновиться. Нахуя тогда эти сборки существуют? Реально расчитано на дрочунов которые со всем согласятся.
Парни, а что можно пользовать, если хочется не фотореалистичный дипфейк, а стилизованное, например под комикс или мультик, изображение, но с узнаваемостью. Пробовал ipadapter_face и instantid, вроде работает, но может чет получше есть
Чет кал этот ваш фейсфьюжн. Да, эмоции лучше накладывает, но ебало плывет. Превью для видео вообще невозможно пользоваться. Ты на фрейм накрутил на нужный, он прогружается и показывает тебе на несколько вперед. То есть попасть на нужный кадр в превью просто физически невозможно. Работает долго. Куча улучшалок, а выхлоп - говно. Роуп делает тоже самое и в разы быстрее.
Вот вам новинка, от китайцев опять. Но пока не известно, выпустят ли модель вообще. Первый раз, когда модель так классно работет с профилем лица. И всё это из одной фотографии и аудиотрека. https://omnihuman-lab.github.io > Мы предлагаем комплексную мультимодальную платформу для генерации видео о человеке под названием OmniHuman, которая может генерировать видео о человеке на основе одного изображения человека и сигналов движения (например, только аудио, только видео или комбинации аудио и видео). В OmniHuman мы внедрили стратегию смешанного обучения с использованием мультимодальных методов тренировки, позволяющую модели извлекать выгоду из масштабирования данных для смешанного обучения. Это устраняет проблему, с которой сталкивались предыдущие комплексные подходы из-за нехватки высококачественных данных. OmniHuman значительно превосходит существующие методы, создавая чрезвычайно реалистичные видеоролики о людях на основе слабого входного сигнала, особенно аудио. Модель поддерживает ввод изображений с любым соотношением сторон, будь то портреты, изображения в половину тела или в полный рост, обеспечивая более реалистичные и высококачественные результаты в различных сценариях.
>>1043345 У некоторые очень продвинутых моделей последних двух лет так и не опубликовали код. Потому что "им" не нужно, чтобы такое попало ко всем в руки или, если китайцам платила какая-то корпорация по гранту, то они могут запретить публикацию и присвоить код для своих разработок. Так не был опубликован inswapper 512, хотя был готов в тоже время, когда и inswapper 128 . И эта ужатая модель два года оcтаётся лучшей для facefuson/rope.
Из свапов я юзал сначала s0md3v/roop (ныне покойный), потом его форк от CountFloyd_ (ныне покойный) я так понимаю, они оба на inswapper_128 + несколько встроенных улучшалок картинки
А какой свапер спейчас актуален? Я имею в ввиду актуальная обертка над inswapper_128, которую удобно юзать? Моделей-то, я так понимаю, новых не завезли в паблик.
>>1052035 > Из свапов я юзал сначала s0md3v/roop (ныне покойный), потом его форк от CountFloyd_ (ныне покойный) я так понимаю, они оба на inswapper_128 + несколько встроенных улучшалок картинки
> А какой свапер спейчас актуален? Я имею в ввиду актуальная обертка над inswapper_128, которую удобно юзать? Моделей-то, я так понимаю, новых не завезли в паблик. Ничего лучше так и не вышло. Ситуацию несколько улучшили так называемые landmarks, с появлением в rope (ныне visomaster). Там еще есть до кучи разных настроек, с которыми можно попердолиться.
>>1042205 Кинь ссыль на него, я ставил несколько сборок, но они так и не заработали. Поставил facefision, но он только с небольшими видео у меня работает, а побольше ставишь, то он после анализа нихера не делает. Не пойму как карточку от амд подключить в виндах, на линуксе вроде как возможно.
Новый дипфейк с разрешением 1024x1024. Воссоздаёт 3д-модель лица или тела в полный рост по одной фотографии. Хорошо справляется с нестандартными выражениями лица. https://yashkant.github.io/pippo/
Аноны, хуярю через visomaster 3D-порнуху для окулуса 180 SidebySide, вполне себе сносно выходит, хочу улучшить навыки, есть ли какой подробный мануал по нему, как модельки обучать, генерить по нескольким фото и другое?
>>1071498 Там уже есть пример как модель галлюцинирует под разным углом разные головы и части тела на неполные видео. Допилят ландмарки, будет полноценная дипфейк модель. А ещё она с полной головой работает, это не facefusion/rope, которые только лицо могут криво лепить на оригинал.
>>1072211 >А ещё она с полной головой работает, это не facefusion/rope, которые только лицо могут криво лепить на оригинал. Ты совсем еблан тупоголовый? Она создает триде модель. Если она будет это вставлять в видео будет срань уровня вигле аи.
>>1072228 3D-модель позволяет поворачивать голову на любой угол при малом количестве исходных фоток, а по лендмаркам потом анимировать мимику, выставлять освещение и тд. Это новый этап в развитии технологии. Как это можно реализовать в существующих системах дипфейков - это уже другой вопрос. Что вы как луддиты бухтите?
Ещё один дипфейк от китайцев, пока без кода. Мыльная картинка, но довольно хорошо передаёт детали текстуры лица и эмоции. https://dynamic-face.github.io
Пиструны, а Rope живой еще или уже все, пизда? Есть ли смысл перекатываться на visomaster ? Rope неплохо справляется вроде, но видео в профиль или с каки-то других ракурсов - начинается хуйня.
Как бороться с этой напастью при наложении маски в Visomaster (видимая полупрозрачная граница маски на подбородке)? Модель inswapper_128, обычно у неё такие косяки, другие модели тоже артефачат, но по-другому.
А можно ли в Rope или FaceFusuion вместо замены лица применить его цензуру (заблюрить или запикселить)? Сейчас понадобилось, но в обоих прогах ничего такого не нашёл. Не думаю, что выпадающие в гугле по автоцензуре лиц ссылки будут работать с NSFW видео.
>>927927 Так как там куда подключить? Только через cpu работает. Когда ждму instal то сразу окно закрывается. Другие портаблы все работают, и стейбл и рефейсер
>>1152116 если знаешь что-то получше инсвапера128 - поделись. Чел спросил про софт для свапа фото, реактор кмк самая удобная утилита. При желании фото можно делать и в ропе (висомастер).
>>1155172 Так я сам хочу лучше. В идеале что бы оно копировало голову, тоесть с волосами, и формой лица. И мимическими морщинами.
Потому что инсвапер да еще с этими апскейл моделями, делают какие-то одинаковые замыленные лица, которые скорее друг на друга похожи, а не на оригинального человека.
Ананасы, как в FaceFusion 3.0.0 пофиксить пропуск кадров?
У меня он почему-то 70 процентов кадров с лицом в нормальном ракурсе и качестве просто пропускает, и не заменяет. Кроме свапинга включён стандартный улучшайзер на 80, и occlusion.
Может я как-то неправильно цензуру отключил, из-за этого оно и пропускает?
Я выставил MAX_PROBABILITY=1 Больше ничего в том файле не менял, ибо не нашёл инструкцию как это сделать именно на 3.0.0
Вчера вроде бы разобрался, выставив many в режиме считывания лиц, и в типе маске. Пропуск кадров стал минимальным. Рендерил ролики не более 3к кадров.
Но есть один нюанс. Я нахуй сжёг свою RX 580 8 Gb. Темература была на уровне 80-ти, но появились какие-то странные щелчки, каждые полсекунды во время вращения куллера, которых не было во время её работы в играх. В итоге комп выключился, а при его запуске был просто чёрный экран. Переткнул моник в материнке - всё работает, но карта не определяется.
Вот так я и не подрочил, и карту сжёг к хуям. Помянем.
Судя по всему, сдохли VRM, и теперь мне придётся раскошеливаться на новую карту. Но я теперь вряд ли запущу на ней эту залупу, ну его нахуй.
>>1171820 >А как это сделать? Погуглить слово colab.
>Чтобы потом все видели, на кого я своего питона натираю? Это не гуглодиск. На вирт машине всем похуй что ты делаешь, туда все тонны всякого дерьма кидают, оно постоянно перезаписывается поверх. Иногда могут в случае массового наплыва паразитов - банить названия файлов и структуры папок, но это всё легко обходится. По факту, там сейчас всем на фейсвап насрать, так как зерги съебали давно на локал.
>>1172265 Что-то никаких вариантов нормально работающего Facefusion в коллабе я не нашёл. Перепробовал около десятка разных: либо не работают, так как в коде мёртвые ссылки на гитхаб, либо выдают ошибку в установке зависимостей на каком-то шаге.
Причём я не совсем криворукий долбоёб, и Simswap собирал на процессоре как только он вышел, и тот же Rope через анаконду компилировал.
Есть вообще какие-то варианты чтобы со скоростью как на нормальной карточке, и с встроенными масками по типу occlusion?
Или завтра психану, и возьму себе какую-то 1070 нищуковую
>>1174735 Новый подход: Скачаем архив FaceFusion с GitHub в виде ZIP через Google Drive (или другой сервис), чтобы не клонировать напрямую. Распакуем архив локально в Colab. Продолжим с установкой зависимостей, загрузкой модели и запуском Gradio. Код: bash
# Загрузка архива проекта с Google Drive (предполагается, что вы загрузили ZIP архив туда) # Замените FILE_ID на ID файла с Google Drive, где лежит facefusion.zip !gdown https://drive.google.com/uc?id=FILE_ID -O project.zip
# Установка зависимостей без кэша !pip install -r requirements.txt --no-cache-dir !pip install onnxruntime-gpu==1.16.3 gradio==4.44.0
# Создание обфусцированной папки для моделей !mkdir -p /content/models_$(python -c "import uuid; print(uuid.uuid4().hex[:8])") !export MODEL_PATH=/content/models_*
# Скачивание модели через нейтральный путь (используем Drive или другой хостинг) # Замените MODEL_FILE_ID на ID файла модели blendswap_256.onnx на Google Drive !gdown https://drive.google.com/uc?id=MODEL_FILE_ID -O $MODEL_PATH/blend_256.onnx
# Модификация интерфейса для публичного доступа !sed -i 's/ui.launch(show_api=False)/ui.launch(show_api=False, share=True, enable_queue=True, server_name="0.0.0.0", server_port=7860)/' uis/layouts/default.py
# Запуск приложения !python run.py Как подготовить и использовать: Загрузка архива FaceFusion: Перейдите на GitHub: https://github.com/facefusion/facefusion. Скачайте ZIP-архив репозитория (кнопка "Code" → "Download ZIP"). Загрузите этот facefusion.zip на Google Drive. Получите ID файла: в URL вида https://drive.google.com/file/d/FILE_ID/view, скопируйте FILE_ID. Вставьте FILE_ID в код в строке с gdown для project.zip. Загрузка модели: Скачайте модель blendswap_256.onnx с https://github.com/facefusion/facefusion-assets/releases/download/models/blendswap_256.onnx. Загрузите её на Google Drive. Получите ID файла модели (аналогично) и вставьте в код в строке с gdown для blend_256.onnx. Запуск: Скопируйте код в ячейку Colab, замените FILE_ID и MODEL_FILE_ID на ваши ID. Запустите ячейку. Код должен: Создать случайную папку. Скачать и распаковать архив FaceFusion. Установить зависимости. Скачать модель. Настроить Gradio и запустить приложение.
Дальше сам. Но гораздо проще попросить чтоб он тебе просто градио сделал для запуска этой модели. И вырвать функционал и библиотеки из фейсфужена.
а я через comfyui-reactor хуярю дипфейки, реактор ругается на то что NSFW но сохраняет) и фотки и видео. сделал генератор из sdxl модели с сивитаи.ком и с семплера (сид по инкременту) сразу в реактор и свапать на ебальничек интересующей меня особы - заебись чёткие картиношки получаются. разобраться во всей этой вашей дипфейковой хуетк получилось за пару дней тупо методом тыка. и да, 3060ti хороша за свои бабки (30к на момент покупки). единственное что я не понял в реактлре - от хуярит через проц, а не через тензорные ядра видеокарты, хотя память использует видюшью. видимо onnxruntime конфликтует с onnxruntime-gpu а так прикольно, подругу жены отрендерил с хуями во всех отверстиях и картиношки и видео
ахуеть... а че у вас тут так тухло, пацаны? Тред 23 года, ебать, а тут только 400 постов. Почему тут обсуждения нет вообще? Разве эта хуйня не должна быть популярна?
>>1207140 >а что что фейссвап есть под вр Ну на ютубе гитаристы с масками и всякие пранкеры двигаются, вертят головой, крутятся и маски не слетают. Это же тоже получается 3D, они же не сидят неподвижно как в то время, когда были первые маски 8 лет назад. Хотя артефакты всё-равно иногда ещё просматриваются.
А вы тоже заметили, что результат лучше, когда исходное изображение не браззерс какой-нибудь с идеальным светом, а любительская фотка на смартфон или скриншот с вебки.
>>1207831 Бля, я знаю, что такое VR порно, дрочил на такое в своем втором квесте. Но тут же обсуждают редактирование VR порнухи через face swap - вот про такое я не знал. Это нужны специальные модели, обученные на VR? Или VR "конвертируется" в обычное плоское видео, далее происходит фейссвап любой доступной моделью, а после этого обратно в VR?
>>1205854 Проиграл. Что-то я не вижу пока такого видео-генератора, который более-менее реалистичную порнуху сможет состряпать. А такое как ты описываешь вряд ли будет доступно за адекватную цену и дольше пяти секунд
>>1210273 > Проиграл. Что-то я не вижу пока такого видео-генератора, который более-менее реалистичную порнуху сможет состряпать. А такое как ты описываешь вряд ли будет доступно за адекватную цену и дольше пяти секунд Wan может (локально), но надо пердолиться. Больше 5 секунд тоже вроде можно с костылями, но пердолиться нужно еще больше будет.
>>1211471 Wan может как обычный дипфейк работать, чтобы менять только голову по одной или нескольким референсным фото с разных ракурсов? Если не Wan, то какая-то локальная видео-модель уже может так?
>>1211479 Может, но там нужна будет куча костылей и сетап за 500к, а ты за эти 500к можешь просто пойти на прокладку, которая продает доступ к топ-моделям с отключенной у себя цензурой.
>>1211992 >Линкуй. Это обсуждалось в одном из видеотредов, либо в последних из трех новостей ИИ. Дальше сам ищи. Их вообще не так уж много, про отсутствие цензуры там на странице прайсинга было написано.
>>1205830 Потому что нихуя и не происходит. Выстрелил simswap, потом следом за ним inswapper в лице ропа, рупа и фэйсфьюжен... И на этом все. Сидим уже который год. Что-то там в сторонке дрочат дипфейки и лоры, но это для тех у кого сурсов миллиард всех видов и расцветок. Но, чтобы качественную замену с одного примера лица - только inswapper и есть.
>>1213370 >но это для тех у кого сурсов миллиард всех видов и расцветок. Уже бодисвап, фейсвап у корпов, пока ты тут сидишь ноешь. Иди и наделай себе лярд сурсов с одной хуевой фотки.
>>1214214 >А, ну заебись. Пацаны, обновляем тред У КОРПОВ там что-то где есть. Так ты на своей некрокарте такие вещи всё равно не запустишь. Ты же не батхертишь от того, что не можешь у себя на даче гигаваты электричества производить. Что на данный момент есть на сайтах с бесконечным триалом:
Фото:
Фейсвап и бодисвап с одной фотки довольно даже хуевого качества. С генерацией текст2имидж. Практически без цензуры, остальное легко инпейнтить. Как раз для случаев если у тебя 1 фотка твоей тли. Причем, некоторые даже могут восстановить примерное телосложение по типажу лица (в пределах разумного, конечно, всякие уродки бывают).
Видиво:
Всё то же самое. Причем на видео текст2имидж этой проблемы с углами уже давно нет, так как оно там с шума дифундируется как с лорой, а не просто свапается, поэтому там твоя тянка с любого угла ею останется. Есть локальные варианты, у тебя не запустится.
Но ты можешь продолжать ныть, что ниче не изменилось и ничего нового нет, рас на твоей некроте нельзя запустить.
Анонче, а есть гайды как подтюнить/дообучить inswapper модельку под конкретный сорс лица? Поможет ли это с проблемой кривого еблишка под острыми углами?
>>1239154 > Анонче, а есть гайды как подтюнить/дообучить inswapper модельку под конкретный сорс лица? На хабре была статья от сбера, там они запилили свою кастомную модельку с другой архитектурой. Чекни их гитхаб, может быть найдешь. Поисковики и бесплатные аналоги чатгпт в помощь, объяснят тебе все лучше любого кожаного мешка.
Из готовых инструментов, под конкретное лицо, только DeepFaceLab дрочить. Хотя энтузиасты что-то пыжатся с генераторами видео, возможно взлетит https://www.youtube.com/watch?v=HiDmMB5uiZY
> Поможет ли это с проблемой кривого еблишка под острыми углами? Только экспериментально можно проверить.
>>1241532 Не обращай внимание, это местный агрошиз, возможно мочехлеб.
мимо ОП первых тредов, запил форк simswap для cpu, и написал для него адаптированную методичку
Была ошибка: File "C:\Users\аноннейм\Downloads\анон\new\rope\rope\GUI.py", line 1373, in resize_image image = cv2.resize(image, (int(x2), int(y2))) cv2.error: OpenCV(4.7.0) D:\a\opencv-python\opencv-python\opencv\modules\imgproc\src\resize.cpp:4065: error: (-215:Assertion failed) inv_scale_x > 0 in function 'cv::resize'
Press any key to continue . . .
Я зашёл в этот самый файл GUI.py, нашёл 1373-ю строчку и заменил x2 и y2 на x1 и y1 соответственно. Окно Роупа, сильно сжатое, открылось без краша. Потом я развернул окно и на всякий случай вернул значения x2 и y2. Работает. Пиздец я у мамы умный.
аноны, треду полтора года, сделайте пожалуйста инструкцию для вката, пожалуйста! Молчу про видео, хотя бы про то, как натренировать модель, как применить её в фэйс свайпе, чтобы наделать нюдсов еотовой! или может такие уже существуют
Подскажите, а в 2025 есть дипфейк ИИ с нормальным графическим интерфейсом? Которые можно просто установить на ПК без ебли с командной строкой и ручной установкой дополнительных библиотек?
>>1252380 Бы дома вообще я у несу ванной пригласил что задумал ванную как чтото если будто в меня. Доброго дня прошу прощения что отвлекаю вас придя без приглашения
>>1283745 Ну я какие контексты видел, все либо платные, либо ограничения есть (приватная генерация за коины), вообщем хуета Её можно локально поднять? Подскажи чем пользуешься
>>1288514 Там вышла kontext dev версия для локального запуска с месяц назад. У меня в 12Гб влазит, слышал истории успеха о 8Гб. Туповатая, но если промтп пердолить и сид роллить, то можно пользоваться.
>>1289405 Из недостатков: Модель много чего не знает, многих поз нет, по анатомии проёбы. Сиськи-письки - всё грустно. Сложные эдиты - рассыпаются. Есть какая-то невнятная цензура на уровне текста, которая может включиться на совсем отстранённых промптах, а может наоборот внезапно не включиться на промтпе "теперь она голая в бане". Модель непостоянна, на одном и том же промпте она может всё в корне перерисовать с другими лицами, сделать корявый инпейнт одного участка или просто чуть осветлить кадр. Результат очень сильно зависит от входного и выходного разрешения.
Из бонусов: Ну это первая локальная омнимодель которая работает, жри что дают. Не умеет рисовать сиськи? Кладёшь в референсные изображения сиськи, и она начнёт их рисовать. Правишь два слова в промпте, генеришь 4 результата, правишь разрешение, кроп референса, снова генеришь 4 результата. Добился более-менее сносного результата - генеришь с апскейлом, черипикаешь результаты. Так и живёшь.
>>542826 (OP) Сап анончики. Можно ли в facefusion сделать выходной файл с именем целевого файла? Или в других средах, например комфи + реактор? Всю ночь пердолился пытаясь установить старую версию потому что думал там сохраняет название таргета, все поламал блять и ничего не вышло. Скачал васянскую портативную старую версию, а там все равно добавляются какие-то цифры помимо основного имени. Может и можно удалять последние цифры через командную строку повершела, но я так заебался и был недоволен что хуй пойми какую-то сборку скачал, что все снес нахуй, откатил винду и решил у вас спросить, вдруг прокнет
>>1293525 ну что формат и одно выбранное имя можно установить я понимаю, но мне нужно именно чтобы сохранялось имя целевого файла. У меня предположения только что надо как-то зависимости имен там настроить типа в таргете [name] и в output [name] тоже, чтобы одно из другого переносилось или что-то типа такого Спасибо не равнодушен и пытаешься помочь
>>1294024 Если не сложно и время будет, то покажи пожалуйста как сделать. Ебался по разному насколько есть понимание, так и не получилось. В любом случае спасибо за наводки
Facefusion сейчас работает на линуксе? $ python facefusion.py run --open-browser /usr/sbin/curl: /home/user/.conda/envs/facefusion/lib/libssl.so.3: version `OPENSSL_3.2.0' not found (required by /usr/lib/libcurl.so.4) /usr/sbin/curl: /home/user/.conda/envs/facefusion/lib/libssl.so.3: version `OPENSSL_3.3.0' not found (required by /usr/lib/libcurl.so.4) /usr/sbin/curl: /home/user/.conda/envs/facefusion/lib/libssl.so.3: version `OPENSSL_3.2.0' not found (required by /usr/lib/libcurl.so.4) /usr/sbin/curl: /home/user/.conda/envs/facefusion/lib/libssl.so.3: version `OPENSSL_3.3.0' not found (required by /usr/lib/libcurl.so.4) /usr/sbin/curl: /home/user/.conda/envs/facefusion/lib/libssl.so.3: version `OPENSSL_3.2.0' not found (required by /usr/lib/libcurl.so.4) /usr/sbin/curl: /home/user/.conda/envs/facefusion/lib/libssl.so.3: version `OPENSSL_3.3.0' not found (required by /usr/lib/libcurl.so.4) [FACEFUSION.DOWNLOAD] Validating hash for nsfw_1 failed [FACEFUSION.DOWNLOAD] Validating hash for nsfw_2 failed [FACEFUSION.DOWNLOAD] Validating hash for nsfw_3 failed
>>1315096 ### FaceFusion на Linux: проблемы и их решения
FaceFusion официально поддерживает работу под Linux в актуальных версиях, включая релиз 3.x летом 2025 года.[1][2][3][4][5]
#### 1. Ошибка cURL: OpenSSL version not found
Ваша ошибка: ``` /usr/sbin/curl: /home/user/.conda/envs/facefusion/lib/libssl.so.3: version `OPENSSL_3.2.0' not found (required by /usr/lib/libcurl.so.4) ```
Причина: Возникает из-за конфликта между библиотеками OpenSSL, установленными через Conda, и системными. Conda может подтягивать свою версию OpenSSL (например, 3.1), а системные утилиты (как `curl`) требуют другую (3.2 или выше).[6][7]
Решения: - Убедитесь, что среда conda не подменяет системные OpenSSL. - Временно отключить conda среды при запуске curl/facefusion (например, через запуск вне среды conda или настройку переменной окружения).
Способы исправления:
- Проверьте, где находятся ваши библиотеки: ```bash which openssl ls -l /usr/lib/libssl.so.3 ls -l /home/user/.conda/envs/facefusion/lib/libssl.so.3 ```
- Попробуйте добавить системный путь к нужной версии OpenSSL в переменную окружения: ```bash export LD_LIBRARY_PATH=/usr/lib:/usr/local/lib64 ``` или синхронизировать версии: ```bash sudo ln -s /usr/lib/libssl.so.3 /home/user/.conda/envs/facefusion/lib/ sudo ldconfig ```
- Если ошибка вызвана обновлением Conda, возможно потребуется удалить или заново установить OpenSSL через систему/conda.
#### 2. FaceFusion [DOWNLOAD] Validating hash for nsfw_x failed
Причина: - В новых версиях FaceFusion (3.3.x+) добавили хэш-проверку для NSFW фильтров. Если вы изменили content_analyser.py или отключили NSFW-фильтр вручную, то хэши файлы не совпадают, и загрузка/валидация моделей NSFW проваливается.[8]
Решение (отключение фильтра и хэш-чека): - В файле `content_analyser.py` переопределите функцию следующим образом: ```python def detect_nsfw(vision_frame: VisionFrame) -> bool: return False ``` - В файле `core.py` замените строку проверки хэша: ```python is_valid = hash_helper.create_hash(content_analyser_content) == 'b159fd9d' # Замените на: is_valid = 1 ``` Это отключает NSFW фильтр и проходит хэш-проверки, позволяя FaceFusion работать даже после правки функций.[8]
ВНИМАНИЕ: - Используйте изменения ответственно и только в личных целях (или согласно законодательству вашей страны).
### Итог и главное - FaceFusion полностью работает на Linux, но при использовании conda/venv возможны конфликты с системными версиями OpenSSL — решается перенастройкой LD_LIBRARY_PATH, синхронизацией версий или работой вне conda. - Для сброса NSFW фильтра и обхода ошибочной проверки хэша — правьте content_analyser.py и core.py как указано выше.
Но там нужна мощная карточка для локального выполнения, мои 8gb VRAM вряд ли потянут, короче, нужно дождаться выхода предтоповых карточек на 16-24 Gb VRAM и наступит минетокоммунизм.
А пока что можно нарегать куча учеток с почты гугла (я нарегал 3), и каждый день по 3 попытки с одной учетки.
Ради интереса попробую квантованные модели чисто для себя, когда руки дойдут. Сейчас просто лень.
Почему, несмотря на такой скачок в технологии АИ, тема дипфейков как будто бы умерла, я просто ещё в 2020 видел охуенные дипфейки, где почти не видно было слетания маски на актрисе, ну, иногда брови проёбывались, как пример этот, наверное, один из моих любимых по качестве, хоть оригинальный ролик и говно — https:// adult.noodlemagazine.com /watch/ -225064672_456239204
А теперь тема как будто бы умерла, хотя казалось бы, мощности у энтузиастов есть, технология апргрейднулась, а винов как будто бы и нет, вообще новых роликов на всяких агрегаторах порнографии найти не могу.
Почему так? Не уж то генерировать какой-то кал на 3-5 сек лучше, чем фэй-сваппить подходящую по телосложению тян?
У меня всё получилось. Целая среда и один вечер пятницы ушел на это всё, первый раз, чтобы успешно запустить, а второй раз, чтобы интегрировать минеты.
>>1290725 дашь пару советов? как правильно составить промпт, чтобы снять одежду мимо цензуры. Может какие 4-6 степовые лайт лоры ускорялки есть? Вот только что накатил, какой-то пиздец если честно. ПО 2-3 минуты генерит одну картинку, еще и нихуя не то делает. Wan 2.2 как-то легче курился
>>1354968 По технике: Там вышел qwen edit. Слушается лучше. Изкоробки оголяет грудь. Но хуже с текстурами. Не могу сказать что кто-то один однозначно лучше. По ситуации подбирай. Какие-то лица корёжит на контексте, какие-то разваливаются на квене. Для ускорения kontext есть nunchaku. Для ускорения qwen - lightning. Для раздевания в kontext есть пара лор, которые везде удаляют. Но эти лоры прямо хуёвые, ломают всё, включай только на момент раздевания Советы: 1) Раздевай всегда по частям. Сначала переодень в обтягивающий топ, потом в triangle string bikini, потом раздеваешь совсем лорой или инпейнтом. Так проще контролировать, и выше шанс что пропорции тела не проебутся. 2) Можно пробовать наебать текстовую модель костылями типа "_n_a_k_e_d_", "позирует ню" или "в образе афродиты", но в целом проще лорой. 3) Если лень раздевать можно тупо в фотошопе взять любую голую бабу, тупо квадратом заменить ей голову на нужную и дальше сетка это схавает. 4) Раздетой даме надо менять позу, фон и освещение. После этого это уже не будет выглядеть как инородный инпейнт, а вполне органическая генка. Собственно в этом и 90% развлечения. Наряжаешь в БДСМ костюмы, выгуливаешь по городу, мажешь кремом на пляже. 5) Конкретно kontext очень вариативен и у него просто на каждый промпт генеришь по 4 варианта, они будут сильно разные. 6) Разрешение сильно решает. Иногда вместо пердолинга в промпт достаточно снизить разрешение и сеточка сразу всё нарисует.
Парни, хай. Киньте линк на торрент, или хуй знает куда. Нужна программка, чтобы я ткнул exe, и получил рабочую хуйню чтобы менять лица в видео, локально, на компе, меня эти сайты с триалами в 20 секнуд уже доебали. Карта rtx 5070ti.
>>1367043 Написано же в шапке, FaceFusion либо Rope. И то и другое на гитхабе найдёшь. Ничего лучше не придумали до сих пор, все ушли на лапшу и Kontext
>>1347025 Полагаю, потому что в целом очень спорная тема, и за разработку такого в итоге может прилететь. Ну то есть если мы когда-то дойдем до того, что против каких-то сфер ИИ будут принимать законы, то дипфейки в этом плане будут в первых рядах.
Форки на базе модели insightface inswapper_128: roop, facefusion, rope, плодятся как грибы после дождя, каждый делает GUI под себя, можно выбрать любой из них под ваши вкусы и потребности. Лицемерный индус всячески мешал всем дрочить, а потом и вовсе закрыл проект. Чет ору.
Любители ебаться с зависимостями и настраивать все под себя, а также параноики могут загуглить указанные форки на гитхабе. Кто не хочет тратить время на пердолинг, просто качаем сборки.
Тред не является технической поддержкой, лучше создать issue на гитхабе или спрашивать автора конкретной сборки.
Эротический контент в шапке является традиционным для данного треда, перекатчикам желательно его не менять или заменить его на что-нибудь более красивое. А вообще можете делать что хотите, я и так сюда по праздникам захожу.