Это /e , какие нейросети? - Речь идет про скрипт от товарища с reddit под ником deepfakes, который уже проник по всем новостям (погугли новости со словами "порно" и "нейросеть", который учит твой компьютер заменять одно лицо другим. Разумеется, приспособили это в первую очередь для создания порнофейков. Порно двигает прогресс, блять. Примеры можете видеть в прикрепе. В связи с разорвавшимися сраками как знаменитостей, с которыми ВНЕЗАПНО появилось много порнухи, так и порнозвезд, тела которых стали юзать без лица, лол, и, до кучи, всегда желающих пернуть о том, как их ущемляют (точнее о том, что на них никто не хочет дрочить), фемок, все соответствующие реддиты, где все и концентрировалось, были выпилены, а потому сообщество разлетелось на осколки. Кто-то сидит в опр. разделах на аиб и регулярно тонет, кто-то сидит на полумертвых форумах типа того же fakeapp.org, кто-то решил, что это противозаконно (тут можно долго спорить - но если ты делаешь фейки для себя, не заливаешь их на сайты с монетизациями и не берешь за это деньги, ничего тебе не грозит) и ушел в даркнет. Мы вот сидим тут, ждем пока мамка купит новую ВК.
Скрипт? Что такое скрипт, блять, я не погромист-кун! - Не волнуйся, всё уже упаковали в обычное приложение. Оно не так уж просто в использовании, но разобраться - легче простого, особого IQ не надо. Разработчики немного прихуевать начинают в последнее время, конечно, но пока что всё работает забесплатно, без регистрации на самом деле с ней и смс. Майнер, о котором было столько криков, из нынешней версии выпилен. на самом деле, просто выключен разрабами, ибо много вони поднялось
Технические требования? - Высокие. В первую очередь, это видеокарта от Nvidia с Compute Capability не менее 3.0 и не менее 2Gb видеопамяти. Это абсолютный минимум. А вообще, нужна какая-нибудь йоба из последних поколений. Во-вторую, это винда. Любая с поддержкой Visual Studio 2015+CUDA 9.0. Проверить Compute Capability своей ВК можно тут: https://developer.nvidia.com/cuda-gpus Имей в виду, что если у тебя что-то слабее 6-гиговой 1060, ты даже в теории не можешь надеяться на хорошие результаты. В лучшем случае - относительно правдоподобное "мыло", не более того. Увы.
У меня AMD видеокарта/макось/линукс/спектрум - В любом случае придется быть погромистом, чтобы что-то суметь. Все на несколько порядков сложнее. 99.9999%, что ты не справишься. Нет, это действительно сложно. Придется ставить линух, пересобирать половину библиотек на OpenCL, ебаться с 50 консолями, где-то править исходники задействованных программ, и то не факт что поползет. Если ты хоть полслова не понял, даже не берись. Гайд найдешь в боковом меню на сайте, ссылка на который в самом конце поста.
Я соснул, мой компьютер не подходит. Это конец? - Можно арендовать виртуальную машину с видеокартой у облачных сервисов - рекомендую Google Cloud Services/Microsoft Azure, т.к. можно пощупать бесплатно. Платить за это не стоит - аренда ВК очень дорогая, не стоит оно своих денег. Гугл предоставляет 300$ триальных денег после закидывания на счет 35$ реальных. Если не использовать триал до конца и отменить подписку впоследствии - 35$ реальных вернут. Мелкософт предоставляет 12500 рублей триала. Однако действуй на свой страх и риск - оба способа невозможны без привязки живой кредитки, и если не понимать, что делаешь - рискуешь попасть на деньги после окончания триальных денег. Серьезно так попасть, ибо час работы K80 стоит порядка 35-55 рублей, а P100 - от 50 до 90 рублей. Считай, сколько накапает долга за месяц, если забудешь выключить машину. И да, спишут его только в конце месяца, с кредитки, не спрашивая. Короче говоря - сомневаешься в том, что ты всё в этом понимаешь - не лезь, она тебя сожрет нахуй. Тебя предупредили. Ввиду убогости частоты серверных процессоров, ты будешь ограничен именно ею (а не мощностью ВК) в скорости трейна - в P100 смысла особого нет, бери K80, которые дешевле. И да, скорость процесса будет относительно низкая - "профессиональность" видеокарт тут не дает никакого профита, ибо, повторюсь, все упирается в убогость частоты серверных ядер и неоптимизированность самого скрипта под использование на серверных машинах.
Как долго занимает создание фейка? - Вообще, сильно зависит от железа. В общих чертах - от 6 до 24 часов на мощном железе (1070+), и от 12 до 100 часов на минималках. При использовании GAN - от 10 часов до бесконечности.
Каков принцип работы? - Вообще, процесс состоит из 3 этапов. В разных местах их называют по-разному, постараюсь привести все названия. Подготовка: Для работы программе понадобятся МНОГО (от 100 до бесконечности) фотографий с лицом обоих действующих лиц (порноактрисы и той/того, чье лицо будем вставлять). Для порноактрисы идеальными будут кадры из этого же видео, в которое планируется вставка (ffmpeg либо приложение версии 2.1). Для цели... лучше всего найти какое-нибудь видео с ней, чтобы оттуда набрать кадров. Для знаменитостей - это какие-нибудь интервью, обычно. Если просто скормишь проге все её фотки из ВК/гугла/итд, тоже сойдет, но программе будет на порядок сложнее из-за разных макияжей, освещений, да просто возраста в момент фотографии. Итак, у тебя должно быть две папки с кучей фоток обеих актрис. 1. Align/Extract/Faceset Creation/Get Dataset: Ищет лица на предоставленных тобою фото, вырезает их в отдельную папочку, и записывает файлик alignments.json , где помечает в текстовом виде, на какой фотке где нашел какое лицо. Этот файл может быть будет нужен на шаге 3. 2. Train: Тренирует нейросеть заменять лица из одной папки, подготовленной на прошлом шаге, на лица из второй папки, и сам же дает оценку своим попыткам. Учится само, и очень долго. Основной, и самый долгий, вобщем-то, шаг. Показывает примерный результат своих потуг в окне превью и в окне программы путем числа loss. 3. Merge/Convert/Create: На основе данных тренировки и того, в каком кадре где находится лицо (да, надо будет все кадры всеравно прогнать через шаг 1, если тренировка велась не на них), заменяет одно лицо на другое на каждом отдельном кадре. Приложения версии 2.1+ всё это сделают за тебя, нужно лишь указать им на видеофайл и указать FPS видео. Завершение: В конце нужно склеить отдельные кадры обратно в видео. FFmpeg, или приложение версии 2.1+ в помощь.
Что означают настройки в приложении? Настройки, которые "можно" трогать - Влияющие на Train: Batch Size - условно говоря, сколько "пар" фоток пытается за раз зафейкать нейросеть на каждой эпохе(за раз). Определяет скорость всего процесса. Чем больше - тем тяжелее будет видеокарте. Может принимать только значения, равные степени двойки. Желательно, чтобы Batch Size был МЕНЬШЕ, чем меньшее из двух количеств файлов лиц, на которых ведется Train. Оптимально: 64 либо 128. Для 2GB-видеокарт: 16. Layers - кол-во промежуточных "слоёв" сравнения между исходником и результатом. Изменяется с шагом в единицу, больше 4 ставить смысла особого нет. Влияет, грубо говоря, на качество выходного материала. Оптимально: 4. Для 2GB-видеокарт: 2. Nodes - то, на сколько "кусочков" каждый промежуточный слой дробит фотку, для сравнения. Может принимать только степени двойки, влияет так же, на качество выходного материала. Оптимальное значение - 512 либо 1024. Для 2GB-видеокарт: 64. Влияющие на Create: Seamless - в положении On при вставке лиц в кадры видео использует отдельный скрипт SeamlessClone, который сам пытается подобрать тон кожи и границы вставляемого лица. Зачастую лажает, и на видео лицо получается "мигающим" разными цветами. Blur/Kernel Size - работают только когда Seamless в положении Off. По сути, величина границ "смешения" и краев элементов. Чем больше значения - тем меньше будут видимы границы в местах замены лица, но тем больше будет и мыла. Если значения слишком малы - будут очевидные границы ("квадрат") лица.
Что за всраток вы тут постите? Ебаный пиздец, нонеймы одни. Возьми да сделай фейк со своей вайфу. Тебе никто не мешает, все инструменты даны.
До какого loss тренировать? Вообще считается оптимальным, когда почти все лоссы становятся меньше 0.01 или около того, но некоторые модели выдают на preview уже очень неплохие результата и начиная с 0.025. Смотри на превью, вобщем. Обычно, если на лоссах ~0,02 все выглядит очень крипово, даже на лицах анфас - можно не продолжать - фейссеты хуёвые. Имей в виду, что если кажется, что loss начал "стагнировать" (кажется, что совсем перестал уменьшаться со временем) - это еще не повод заканчивать трейн и идти плакать. Если эта "стагнация" началась в районе 0.019-0.025 - это хороший признак. Просто подожди. Если же лосс упал до 0.01-0.015 без периода этой "стагнации", довольно быстро, а на превью все еще крипота - скорее всего, дело плохо.
Почему получается крипота? Крайне редко - из-за недостатка терпения. В подавляющем же большинстве случаев - наличие "плохих" фоток в лицах, на которых ведется тренировка. Оригинальный скрипт вообще плохо переваривает: -лица в профиль (особенно те, где не видно второго глаза), -очень сильно наклоненные вверх/вниз, -нечеткие (смазанные юустрым движением кадры) лица, -затененные либо наоборот пересвеченные, -с, извиняюсь, хуем во рту, а также с другими штуками телесного цвета типа руки, прислоненными к лицу -с волосами, закрывающими часть лица (не считая чёлку) -с очками, кепкой, маской и т.д.
Желательно убирать все такие лица из папок, на которых ведется тренировка.
Также имей в виду, если ты надергал фоток своей ЕОТ из ВК, скорее всего, там есть приличный такой временной промежуток между ними, и лицо её, так или иначе, менялось (а также косметика меняется от фотки к фотке) - это также повлияет на качество выходного материала. Хотя, если она нос, к примеру, не ломала, или резко не худела/толстела - должно быть более-менее. Вообще, как показывает практика, ЕОТ сделать удается крайне редко. Слишком мало исходников и велика вероятность отсутствия видео. Если она поклонник инсты - лови и схороняй сториз, это твой счастливый билет, лол.
GAN куда лучше работает с "хуевыми" лицами (за исключением, пожалуй, нечетких и недосвета/пересвета). Но пока что, чтобы тренировать с его помощью, нужно быть немного погромистом, ибо нет адекватного приложения. MyFakeApp кривой донельзя и часто засирает результаты.
Какую порномодель искать для максимального сходства? Основные элементы, необходимые для сходства: Фигура, прическа, форма лица+расположение глаз/рта/носа/итд. Можно еще попытаться хоть чутка похожую мимику найти. Такие вещи как форма носа, разрез глаз, форма рта - вторичны (но конечно, чем ближе - тем лучше). Обращай внимание на татухи порномодели - зачастую именно они портят все впечатление (ну какая Эмма с татухой на всю руку, блять?)
Окей, буду пробовать. Советы вдогонку будут? Для начала попробуй зафейкать одну сцену, с прямо смотрящим лицом модели, короткую (5-10-20 секунд). Вобщем-то, лучше вообще на длинные ролики не позариваться, делать все нарезками из отдельных коротких сцен. Иначе очень долго будет всё делаться, и с вероятностью 90% получится крипота.
Сделайте мне Поклонскую - на нее похожа Abigaile Johnson, сделайте Карину, сделайте Варлей... Никто не будет тебе ничего тут делать. Запомни это раз и навсегда. Слишком много геморроя, времени, и высокий шанс фейла, для того, чтобы стараться и пыжиться для рандомного анона из /e. Если прям ну очень хочется - осиль себе скачать приложение, найти подходящий видео-исходник(порно), нарезать его на кадры, найти кучу хороших кадров твоей вайфу, прогнать их через 1-й шаг процесса (выдергивание физиономий с фоток), почистить от плохих физиономий (прикрытых волосами, боком, засвеченных, затененных и т.д.) и залей эти две папки, чтобы анон потренировал на них. Это единственный вариант, при котором тут анон с хорошей ВК сделает что-то для тебя. И то, не факт, увы. Ну правда, йобы от нвидии у считанных единиц тут. А реквесты ваши вот эти бесконечные - сделайте ту, сделайте эту - бесполезны.
Какая-никакая инфа (правда, она заточена под FakeApp 1.1), позволяющая в общих чертах понять происходящее, собрана тут: https://www.deepfakes.club/faq/
Полистал я, значит, mrdeepfakes com, и задался вопросом: у американцев совсем не осталось чувства вкуса? Какого хуя дипфейков с Гермионой(52 дипфейка), Хлоей Морец(35), Мэйси Уильямс, Селеной Гомес, Дженнифер Лоуренс и прочими новыми знаменитостями делают больше всех остальных? Они же объективно мерзкие и непривлекательные. Когда же действительно красивые селебы вроде Марго Робби или Кэтти Перри собирают больше 10 дипфейков - редкие исключения из правила. inb4 зделой сам
>>347375 Хлоя это пиздец, конечно, ну а Эммочка всем нравится, потому что все в пиздючестве смотрели Гарри Поттера, а там это главный женский персонаж. Это как тут некоторые ОЛДЫ пытались Алису Селезневу зафейкать - на что в детстве дрочили, то и привлекает. Гомес, Лоуренс и т.п. это герои "новых подростковых антиутопий"
че, посоны, кто-нибудь через GAN128 (в том же опене нормально реализован) пробовал вообще делать?
Я уже охуевать начинаю, третью неделю трейн (K80), а все еще крипота. Фейссеты нормальные, ну по крайней мере для стандартного трейнера. Хотел качество получше получить, а тут тренировка длиной месяц походу намечается. Или так и должно быть?
Компания Naughty America, занимающаяся производством порнографии, запустила платный сервис на основе искусственного интеллекта, который позволит клиентам добавлять свое лицо в видео с участием известных порноактирис Сервис основан на технологии DeepFakes (от deep learning — «глубинное обучение» и fake videos — «поддельные видео»). Она на основе алгоритмов с открытым кодом, таких как TensorFlow, обучается по видео с YouTube. Затем система старается подставить лицо выбранного человека к исходному видео с максимальной реалистичностью.
Клиенты сервиса должны будут отправить Naughty America набор фотографий и видеороликов с различным выражением лица, а также подписать соглашение на обработку снимков и отказ от претензий. Простая вставка лица обойдется в несколько сотен долларов, более тонкая работа — дороже $3 тыс
>>350275 Да, делал! Нихуя оно нормально не будет делать. Там только похожие лица сделалось норм более менее, а так я перекатился на стандартный алгоритм. У разраба есть и варианты новых версий типа gan256, но никто не спешит делать для них обертку, и чет у меня ничего не вышло с их установкой, хоть я и пытался день. Нужно разбираться в средах разработки.
да, кстате, вот демка в гугл ган тренинга с ограничением по времени 12 часов. https://github.com/shaoanlu/faceswap-GAN/blob/master/colab_demo/faceswap-GAN_colab_demo.ipynb Нужно гуглить google colab и там запустить ссылку Впорос знатокам- как запустить вот это все на своем ПК? можно пошагово и для дебилов- типа берем компьютер с видеокартой и виндой 10. Ставим то то то, нажимаем вот этот значок, вставляем вот эту пасту и жмем, ждем, получаем.
>>350411 че-т сомнительная хуйня - делать фейки со своим лицом. Ну, всмысле, кому это надо? Че-т уже почти за год существования DF, мало кто озаботился этим, ну по крайней мере я особо не слышал, лишь единичные упоминания. Хотя весь инструментарий есть.
Пасаны. А что если взять онеме- ну например старый хентай по мотивам евангелиона. И скормить машине оригинальный евангелион. Это будет такое выборочное улучшение качества лица? Вот мульты реставрирует, например, нейросеть... Сегодня попробую что-то такое провернуть. Тока еще тайтл не определился какой. Но звучит это конечно просто супер, лол. Посмотрю, что выйдет.
>>350641 это вообще хуй знает сколько крученный фейк, я даже представить себе не могу сколько его лепили, может на алгоритме ган128 недели 2 блять. Было бы интересно узнать стори.
>>350748 >>350747 >>350642 Что главный тормозящий фактор сейчас? недостатки программых алгоритмов, ограниченная скорость памяти, процессора или недостатки инструкций процессора видеокарты? Добавление шейдерных ядер поможет ускорить процесс трейна? есть ли единый онлайн пул натренированной программы, в который добавляют свои трейны пользователи, чтобы делать более совершенную, уже тренированную сеть, чтобы можно было скачать ее и натренить все быстрее, используя уже имеющиеся тренировки этой сети?
>>350755 есть вроде сайт, где на регулярной основе выкладывают наскоро сделанные фейки, есть форум коммунити уже загибающийся. На порнухе со знаменитостями сложно делать деньги в наше время. Нельзя делать денег- получите клуб по интересам, распишитесь.
>>350774 >>350757 Неужели дело умрет? А если отдать проект... Киношникам, чтобы звезды могли сниматься сражу в нескольких фильмах олдновременно?.. Ну это... Это, как его. А технология распознавания лиц тут непричем? Правильно ли я понимаю, что только на суперПК можно будет делать отдельные сцены минут на пятнадцать, в течение пары ночей?
>>350857 использование лица чьего-то в таких целях, равно как и использование чужого тела, как верно сказал >>350774 - нихуя не законная вещь во всем цивилизованном мире -> на этом нельзя никак заработать толком. На выходе кружок по интересам, но никак не популярная тема, которая будет развиваться.
Плюс тут как с ритм-играми (guitar hero и тд) - контент по миру - он, как бы, кончился. Как ритм-игры схлопнулись (ну как, ушли в разряд гик-увлечений из хайповой темы), когда все так или иначе классические хиты со всех жанров через них уже перемололи, так и тут - всех звезд, которые не светили особо сиськами-письками, уже "посмотрели". Всё, никому это больше не нужно.
Распознавание лиц ну каким-то очень большим боком "причём", но прям совсем вскользь. Технология пока что очень слабо работает с разными положениями/освещениями/итд, чтобы создавать всякие там, как ты говоришь, видео с актерами или там допустим компроматы.
Длительность фейкаемой сцены, по большому счету, не кореллирует с требуемой мощностью/временем. Для одной и той же пары лиц тренировка займет одно и то же время, что ты хочешь 2 секунды зафейкать, что пару минут. Просто технология нормально работает только с относительно анфас-лицом, а с минетами и прочими волосами на лице - очень плохо. Поэтому длительные сцены и не делают - ибо там будут разные ракурсы, с которыми технология не справится, конча на лице и тд, а не потому что "длительность большая".
>>350979 По поводу ракурсов. Проблема состоит в том, что зачастую просто невозможно найти фото\видео человека соответствующие ракурсам в порно ролике. Из за этого скрипт пытается "додумывать" их из имеющегося материала, что и даёт очень посредственный результат. А вот по поводу добавления своего лица, здесь можно рассчитывать на лучшие результаты, так как, например, можно записать небольшой видеоролик, где попытаться максимально отразить все ракурсы лица, что, как мне кажется, должно уменьшить время обучения модели и улучшить результаты.
>>351504 Если так рассуждать, то и компьютерные игры никому не нужны .по сути, только индустрия довольно сильно распухла и даже частично перетекла в раздел спорта.
>>351515 На свбя - нет, не дрочат (а на еот?) только вот порно индустрия распухла (не так, как игровая, что объясняется интимной тематикой) и дошла и до VR, и даже ростовых кукол 1:1; так что этот палец пахнет точно так же, как жопа.
Почему я делаю кучу однотипных постов с одинаковой пунктуационной(не знаю, как правильно это называется) структурой?
>>351518 я тебе пишу про то, что нахуй никому не нужно вставлять свое ебало (кунское) в дипфейк что ты и написал изначально, а ты сначала какоето сравнение с играми, а теперь про еот мне втираешь. Ты точно нить разговора улавливаешь?
>>351662 >приперся в тред по нейросетям и выебывается что они не нужны >кидается какашками во всех подряд Хмм... Кто же тут лишний? Хммм... Интересно...
>>352703 Ты ебанутый такое кидать? Бляяять. Я предcтавляю какая крипота будет, еcли туда запихнуть рожу из аниме c их огромными глазами и прочей парашей. Пиздец.
>>353401 ну тут это такое, с минимальными изменениями ракурса и малым набором кадров соответсвенно, да. Но будет похоже на фотошоп, причем по времени и там и там будет то же самое. Большую часть времени занимает именно обучение, а несколько секунд видео конвертится буквально пару минут. Так что скорее нет, все равно надо тратить время на обучение, много времени, а хронометраж видео- дело десятое.
>>353401 нет, длительность ролика ни на что не влияет, если у тебя 2гб-говно. Длинные ролики не делают лишь потому, что там слишком много разных ракурсов, среди которых могут попасться неперевариваемые технологией.
мыло на 2гб будет в любом случае из-за уменьшения тайлов, которые будет сравнивать нейросеть, хоть ты один кадр делай.
>>347254 (OP) Попробовал сабж. Нашел более-менее примерно одинаковых (направление взгляда / эмоции) актрис, нарезал лиц, все дела. Далее ~ 20 часов обучения на GTX 1080. В результате крипота адовая. Я хз сколько надо обучать для результата как у ОПа? Месяц / год / вечность? Тут походу на домашнем компе хер сделаешь нормально, нужен сервак с теслами
>>356683 ты забыл, в каком треде находишься? ачивидна же, что для наращивания базы фоток еотовной, путем кручения всяких смайл/опенмаус и пр. слайдеров. про то, нравятся тебе или нет рандомные лица - всем похуй.
>>356731 не помогут теслы. они даже медленнее, чем 1080, будут тренить, кстати. улучшай базы, вычищай их от фоток с помехами/засветами/недосветами, используй новые модели. фейкапп 1.1/2.0 уже давно устарели.
>>356968 дфакер, лиаеф-ы всякие, классический, только 128х128. ну, ган-ы все еще выдают отменные результаты, но пиздец как требовательны к подбору входного материала (считай, почти анрил)
Развиваться уже толком ничего не развивается, на пару энтузиастов держится. Если что-то поймешь, можешь то, что осталось от дипфейкклаба почитать : https://github.com/iperov/DeepFaceLab
>полностью переделанная архитектура программы, с которой легче экспериментировать с новыми моделями, если вы шарите в питоне и нейронных сетях >если вы шарите в питоне и нейронных сетях Лолд, от погромистов погромистам. Если я не смог разобраться с ошибкой вечной обработки и еще чего-то в дипфейке на 2 гиговой видеокарте, стоит пробовать это решение? И есть ли уже аналоги для более простой задачи - перерисовывания простых картинок?
>>362143 >H64 (2GB+) - половина лица с разрешением 64 - это как оригинальная FakeApp или FaceSwap, только лучше за счёт тренировки маски нейросетью + исключающей фон вокруг лица + исправленного конвертора. Для видеокарт с видеопамятью 2 и 3Гб данная модель работает в сокращенном режиме, т.е. качество будет хуже чем с 4гБ.
>>362105 Запустил скрипты. На четвертом пункте не смогла обрезать лица из тестового примера, который лежал в раздаче, забил на это говнецо, ибо даже старые скрипты осиливали распознавание лиц.
>>362202 Не только у меня не получилось, прочитай обсуждение, там множество ошибок и недоработок. Все программы работали кроме этого кривого говна. А вот это про тебя: http://lurkmore.to/УМВР
>>347254 (OP) Я вот чего подумал. Есть нейросети для фото и видео, но кроме визуального ряда есть еще и аудиосоставляющая. Есть разработки аудио имитации голосов и прочего от выбранных людей?
>>364749 Да уже все, что хотели, посмотрели. Ну или пооблизывались и позавидовали мамкиным геймирам с подходящими ВК. >>363693 Есть. Алгоритмов много. Насчет "упакованных" а-ля дипфейк для непогромистов - хз. Условия все те же, в целом - без огромного кол-ва исходного материала врядли удастся создать полноценную замену одного голоса другим. Иными словами, без записей горы стонов твоей еот, врядли ты сможешь заменить ими оригинальный аудиоряд.
>>365296 >>365332 вокалоид не совсем то, это синтез, обфускация голоса, а не подмена одного другим.
точно помню что на почившем реддите вкидывали какие-то варианты по этой теме, даже срачик был какой-то, вроде, потому и пернул. Сам никогда вопросом не задавался, не подскажу.
Застрял на 7 шаге из инструкции, непосредственно вклеивание натренированных лиц в видео. Он просто собрал alignments 100% и стоит на первом кадре и ничего не делает. Что делать?
>>362202 >>362158 Смотрел какой-то видосик на 1,5 часа, слушал музыку, спал, проснулся и опять слушал музыку и все это время проходил пункты с 1 по 7(спал только в период тренировки, с 12 примерно до 1(13 часов)), система 4 ядра 2 видеогига и 8 оперативки, все братья живы, правда толку от этого нол, в итоге. Хуле у тебя не так? Какое оборудование используешь, каким менеджером распаковывал прогу, куда и где лежит все это добро? Отрубил ли ты телеметрийные проги из фона винды, например?
DeepFaceLab H64 on (Win8x64 i5-4430 8GB 750Ti)Аноним20/01/19 Вск 00:07:09#126№366176
Сап нейрофаперы, тренировал сетку 9 часов на двухгиговой карте и в папке мерджа ничего не схоронилось. Получается, 24 часа - это минимальное время для получения любого результата? А есть какие-то подтренированные сети, чтобы как-то не с нуля мучать видюшку?
>>366200 Нужно стараться подбирать такие фото/видео, чтобы в них были желательно все ракурсы из результирующего видео. Да, видео анфас делаются проще всего, но, как правильно, они не особо интересные получаются.
>>366233 У меня и после конверта ничего нигде нет и в превью показывается сначала не измененный кадр, потом черный кадр, потом тот же неизмененный кадр с областью лица для замены серого цвета. И приходится на каждом кадре нажимать выход из окна с превью (хорошо что можно просто зажать шортк закрытия окна).
>>366303 А можно нейронку заставить вклеивать только с отдельными моментами глаз, чтобы она половину времени их косила как вначале, а половину просто вперед смотрела?
>>366390 Один кадр идет с Шаей из дефолтного сэмплвидео, другой полностью черный, а в следующем на черном фоне область изменяемого лица серого цвета. И так всю длину проекта при конверте. А на выходе ничего нет, никаких файлов не появляется в папках.
да хз, я пользовался еще древним фейкапппом (1.1), затем спрыгнул на OpenFaceSwap, затем забил на всё это. Конкретно этой аппой не пользовался, увы.
Я тебе попробую в паре слов (получится длинно) описать весь процесс, как он был реализован раньше (явно именно на его основе построено и новое приложение). Может, из него поймешь, что ты сделал не так. А может, просто кучу хуйни напишу зазря, лол.
Весь процесс выглядит так:
0 - скорее всего, исходное видео разбивается на кадры автоматически, раньше это надо было делать ручками
1 - тебе нужно "прогнать" ВСЕ кадры прон-видео через Align(мб по другому уже называется, шаг 1 вобщем) (то, что "выдирает" оттуда лица порноактрисы. На этом же шаге рядом с кадрами создается файлик alignments, который, грубо говоря, содержит инфу, в каком кадре в каких координатах прога нашла лицо. Этот файл важен. На выходе имеешь: 1а - гору кадров исходного видео 1б - файлик alignments 1в - гору "лиц" порноактрисы, вырезанных из видео
2 - "тренировка" - скармливаешь программе два набора лиц - порноактрисы (полученные в шаге выше) и твоей вайфу (аналогично, полученные прогоном кадров из видео либо фоток через тот же шаг 1). Все лица должны быть определенного размера. На выходе имеешь натренированную "модель" - два файлика, содержащие, грубо говоря, инфу, как превратить лицо А в лицо Б и наоборот.
3 - Convert - этому шагу нужны: модель из пункта 2, и штуки 1а и 1б из пункта 1. В итоге этот шаг: берет кадр (1а), смотрит, где на нем лицо (1б), и заменяет его, используя модель (2)
Погромисты есть в треде? Сделайте мне программу "экранизатор", суть такова - пользователь загружает книгу/сценарий в программу и нейросеть из нее генерирует фильм. Хочу такое.
>>371181 Могу только сделать тебе программу "губозакатор", суть такова - пользователь загружает книгу/сценарий в программу и получает нихуя. Хочешь такое?
>>371181 https://rtvi.com/news/v-disney-nauchili-neyroset-snimat-multiki-po-stsenariyu/ Ученые из подразделения Disney Research и Ратгерского университета в Нью-Джерси научили алгоритм читать текст сценария и создавать на его основе раскадровку и видео. Для создания видео алгоритм использует графический движок Unreal и библиотеку 3D-моделей. По описанию в сценарии алгоритм находит подходящую модель и добавляет ее в ролик.
Разработка нужна не для того, чтобы заменить аниматоров и сценаристов, а чтобы облегчить их труд.
Анончики, у кого есть snapchat? Применив детский фильтр запилите скринер с соразмерной шкурой. Просто интересно как это всё будет выглядеть. Сам не могу зарегиться, выкидывает постоянно.
>>381177 Face app для видео? Годно придумал,лицо не заменить, а вот омолодить, изменить расу и пол запросто. Надо у погромистов реквестировать такое для ПК.
>>381208 >реквестировать такое думаю, эти фильтра в скорости хакнут, ели не уже... Нигде не видел как это смотрится при артикуляции, максимум аватары мило улыбались, и не более.
>>387733 Дубина, то, что дед Варлей был выходцем из Франции никак не мешало ему быть румыном, так-же как не мешает этническому Грузину Эрдогану быть президентом Турции, а Саркози (венгерскому Еврею) быть президентом Франции. Национальность и фенотип не мешает в нормальных странах быть самим собой не мимикрируя ни под кого и ни под что. Повторяю, в НОРМАЛЬНЫХ странах, не в тоталитарных парашах типа быдлорахи.
>>387745 Не подменяй дореволюционную Россию совком, а уж тем более путинской раисией, между ними нет ничего общего. И по степени людоедства царской россии было далеко до этих 2-х уёбищь. Все трое рождены именно в царской россии. Школьник иди тралируй мамку на кухне, тут тебе хуёв насуют так, что ты ими срать будешь.
>>387752 Обосрался во все поля и ещё что-то пиздишь, сука? не, ну точно хохол >>387747 >нет ничего общего >ЯТАКСКОЗАЛ В твоем тексте одно противоречит другому, долбаеб.
Не слишком хочется выёбываться с видосами - а как можно эту сетку использовать для замены лиц на простых фото? По логике вещей она и так раскладывает видос на отдельные кадры. Как закинуть ей прона и фоток тян, запустить процесс и получить более-менее нормальный результат.
Или может есть другая сетка? Гуглежь довел только до пары неработающих сервисов, и сетки, которую надо компилить.
>>388041 >сетку использовать для замены лиц на простых фото? 2005 год, была прога, глюкавая, но рабочая - натягивала фотку морды на редактируемый скелетон, который мог сука говорить, моргать, шмыгать носом, водить глазами. 2005 год, верните мне его блядь!
>>347254 (OP) Короче, сосоны. Скопил немного денежку, сайчас буду пек брать. В первую очередь примериваюсь к видяхе, а именно ее пригодности к машин лернингу (игры дело второстепенное). Посему советуйте, что ли. Выбираю между 1070ti, 1660ti и мэйби (бюджет жмет) 2060. Вот пишут мол 1660ti на это дело хуже годится, мол >Big surprised, How could 1660Ti be worse than 1600? 1660Ti beats in all aspects and win in all Benchmarks for gaming. >They do not have tensor cores which are not important for gaming, but important for deep learning. Что за cuda и tensor cores и насколько это критично вообще? Может память важнее, а то анон выше писал 2Gb это мало (а сколько нормально тогда?). А может частота важнее? Луркать в один присест кучу статей на ангельском не позволяет проснувшаяся леность ума. Короче, кто шарит советуйте че брать и почему. Алсо пишите реквесты (если нужно), буду на них тренироваться первое время, если годное че-нить выйдет залью в тред (но это нескоро еще).
>>388634 Ну из мануала на 2018.02 я понял только то, что 6Gb это самый минимум. А про архитектурные различия чипов ни слова.
Пока остановил свой выбор на 2600 или может на 2700 замахнусь даже.
Вот интересно, те, самые ранние, качественные фэйки с Кэйджем, Трампом, вандервуман на каком железе пилились и сколько по времени заняло? Небось там 1080ti неделю пыхтела.
Аноны, кто сам пилит, поделитесь примером чего ожидать на каком железе и сколько тренили?
>>388642 У меня 1070. Для более-менее результата с нуля тренировал где-то ночь, потом использовал уже натренированную и, соответственно, время тренировки для достижения результата снижается. Результат очень зависит от количества и ракурсов в исходных фотографиях, и сходства модели на видео. Сейчас делаю VR, на натренированной модели за час-два получается неплохой результат.
>>388644 А то есть из можно с перерывами тренить? Почему так все не делают? Типа на пару недель, с перерывами, чтоб совсем не убивать железо, но получить качественный результат.
>>388646 А какие там нюансы есть, где почитать? Скажем, тренить 2+2 ночи это ведь не одно и тоже, что 3 или 4, да? Результат такого прогона (поверх старого, правильно понимаю?) он ближе к 3 или 4 будет?
>>388647 >при достижении какого-то числа циклов тренировки Я понимаю, что это глупый, вопрос и всё depends, но обычно это сколько часов у тебя выходит? Вот замахнулся ты на свой мастерпис, через сколько по времени прогресс упирается в стенку?
>>388649 >А какие там нюансы есть, где почитать? Скажем, тренить 2+2 ночи это ведь не одно и тоже, что 3 или 4, да? Результат такого прогона (поверх старого, правильно понимаю?) он ближе к 3 или 4 будет? Тут не могу ответить, больше суток не пробовал нон-стоп тренировать. >через сколько по времени прогресс упирается в стенку? Где-то 300-500к циклов уже должен быть хороший результат, если к этому количеству циклов получается говно, то и продолжать смысла нет. При удачном совпадении фотографий и видео может быть быстрее. Многое зависит от видеокарты, качества исходников и продолжительности видео.
>>388642 >Небось там 1080ti неделю пыхтела Нет, это сделали довольно быстро, благо материала с феком дохуя, а вот если с нонейм тнёй будешь пилить, то долго, и результат говно.
А вот еще вопрос deepfacelab это что Convolutional networks and Transformers или Recurrent networks, объясните деревянному?
What Makes One GPU Faster Than Another? TL;DR Convolutional networks and Transformers: Tensor Cores > FLOPs > Memory Bandwidth > 16-bit capability Recurrent networks: Memory Bandwidth > 16-bit capability > Tensor Cores > FLOPs
А еще: так ли хорош FP16? Пишут мол >The tensor cores are much faster in FP16 computing, which means that you get a speed/performance boost and use lesser GPU RAM as well И что значит >Note: ‘bs * 2’ indicates a batch_size twice larger, as in 256 vs. 128. ?
1080ti б/у c рязанью 2600 нормально сработается? Ну т.е. я знаю, что по ботлнеку там процентов 10-15 посис проца, но именно конкретно в обучении, не будет ли слабенький проц тянуть на дно мощную видяху? Не выеживаться и взять 2060s?
>>347254 (OP) >Более продвинутый скрипт (куда более тяжелый, но потенциальные результаты на порядок более правдоподобны): >https://github.com/shaoanlu/faceswap-GAN Я нихуя не понял, как это использовать-то в итоге?
На хостинг Github выложена готовая программа для Windows, которая позволяет заменять лица в видеофайлах. Исходный код бесплатного инструмента и документация на русском языке также доступны всем желающим. Генератор «фейков» для всех желающих В Сеть выложен бесплатный инструмент для Windows, позволяющий осуществлять подмену лиц в видеороликах с помощью нейросети.
Проект Deepfacelab, разработка которого ведется с 2018 г., размещен на площадке для хранения и распространения ПО Github пользователем под псевдонимом iperov. Утверждается, что за разработкой инструмента стоит всего один человек.
Название Deepfacelab, по всей видимости, отсылает к созвучному англоязычному термину Deepfake, синтезированному из выражений «глубинное обучение» (Deep Learning) и «подделка» (Fake). Данный термин появился несколько лет назад применительно к технологии, где искусственный интеллект используется для обучения нейронных сетей с применением реальных изображений и видео человека с целью синтеза поддельного видео.
В репозитории Deepfacelab можно найти исходные коды инструмента, несколько готовых сборок программы под различные модели видеокарт, обучающее видео, а также руководство пользователя, в том числе и на русском языке.
Особенности инструмента Программа не имеет графического интерфейса и представляет собой набор пакетных файлов (с расширением bat) для Windows. Она обладает скромными минимальными системными требованиями: процессор с поддержкой набора инструкций SSE; 2 ГБ оперативной памяти + файл подкачки; видеокарта, совместимая с OpenCL (Open Computing Language, «открытый язык вычислений») и оснащенная не менее чем 256 МБ оперативной памяти; операционная система Windows 7.
По заявлению разработчика, для обучения нейронной сети Deepfacelab может задействовать не только ресурсы графического ускорителя Nvidia, AMD или IntelHD, но и центрального процессора. В документации к проекту отмечается, что «восьмое поколение процессоров Intel способно выдать неплохой демонстрационный результат за два дня тренировки».
>>397704 Ебацца в телевизор. Вот это пиздосище. Полез гуглить от чего она и когда. А оказывается аж ещё в прошлом году, почти год уже, в ноябре будет. От передоза, ёбнуться.
Православная, но уже устаревшая версия 1.1:
https://mega.nz/#!hTgA2b6b!mI6k9dFt_w__jIEUQO2ZePhzFMg6JWUpBZWiV2TDgs4
Оригинальный скрипт (для мазохистов):
https://anonfile.com/p7w3m0d5be/face-swap.zip
Более продвинутый скрипт (куда более тяжелый, но потенциальные результаты на порядок более правдоподобны):
https://github.com/shaoanlu/faceswap-GAN
Альтернативное приложение с возможностью юза GAN (кривое, косое, с кучей багов - автор обещает когда-нибудь допилить, но походу забил):
https://radek350.wordpress.com/2018/02/17/myfakeapp-fakeapp-alternative/
Это /e , какие нейросети?
- Речь идет про скрипт от товарища с reddit под ником deepfakes, который уже проник по всем новостям (погугли новости со словами "порно" и "нейросеть", который учит твой компьютер заменять одно лицо другим. Разумеется, приспособили это в первую очередь для создания порнофейков. Порно двигает прогресс, блять. Примеры можете видеть в прикрепе. В связи с разорвавшимися сраками как знаменитостей, с которыми ВНЕЗАПНО появилось много порнухи, так и порнозвезд, тела которых стали юзать без лица, лол, и, до кучи, всегда желающих пернуть о том, как их ущемляют (точнее о том, что на них никто не хочет дрочить), фемок, все соответствующие реддиты, где все и концентрировалось, были выпилены, а потому сообщество разлетелось на осколки. Кто-то сидит в опр. разделах на аиб и регулярно тонет, кто-то сидит на полумертвых форумах типа того же fakeapp.org, кто-то решил, что это противозаконно (тут можно долго спорить - но если ты делаешь фейки для себя, не заливаешь их на сайты с монетизациями и не берешь за это деньги, ничего тебе не грозит) и ушел в даркнет. Мы вот сидим тут, ждем пока мамка купит новую ВК.
Скрипт? Что такое скрипт, блять, я не погромист-кун!
- Не волнуйся, всё уже упаковали в обычное приложение. Оно не так уж просто в использовании, но разобраться - легче простого, особого IQ не надо. Разработчики немного прихуевать начинают в последнее время, конечно, но пока что всё работает забесплатно, без регистрации на самом деле с ней и смс. Майнер, о котором было столько криков, из нынешней версии выпилен. на самом деле, просто выключен разрабами, ибо много вони поднялось
Технические требования?
- Высокие.
В первую очередь, это видеокарта от Nvidia с Compute Capability не менее 3.0 и не менее 2Gb видеопамяти. Это абсолютный минимум. А вообще, нужна какая-нибудь йоба из последних поколений. Во-вторую, это винда. Любая с поддержкой Visual Studio 2015+CUDA 9.0.
Проверить Compute Capability своей ВК можно тут:
https://developer.nvidia.com/cuda-gpus
Имей в виду, что если у тебя что-то слабее 6-гиговой 1060, ты даже в теории не можешь надеяться на хорошие результаты. В лучшем случае - относительно правдоподобное "мыло", не более того. Увы.
У меня AMD видеокарта/макось/линукс/спектрум
- В любом случае придется быть погромистом, чтобы что-то суметь. Все на несколько порядков сложнее. 99.9999%, что ты не справишься. Нет, это действительно сложно. Придется ставить линух, пересобирать половину библиотек на OpenCL, ебаться с 50 консолями, где-то править исходники задействованных программ, и то не факт что поползет. Если ты хоть полслова не понял, даже не берись. Гайд найдешь в боковом меню на сайте, ссылка на который в самом конце поста.
Я соснул, мой компьютер не подходит. Это конец?
- Можно арендовать виртуальную машину с видеокартой у облачных сервисов - рекомендую Google Cloud Services/Microsoft Azure, т.к. можно пощупать бесплатно. Платить за это не стоит - аренда ВК очень дорогая, не стоит оно своих денег. Гугл предоставляет 300$ триальных денег после закидывания на счет 35$ реальных. Если не использовать триал до конца и отменить подписку впоследствии - 35$ реальных вернут. Мелкософт предоставляет 12500 рублей триала. Однако действуй на свой страх и риск - оба способа невозможны без привязки живой кредитки, и если не понимать, что делаешь - рискуешь попасть на деньги после окончания триальных денег. Серьезно так попасть, ибо час работы K80 стоит порядка 35-55 рублей, а P100 - от 50 до 90 рублей. Считай, сколько накапает долга за месяц, если забудешь выключить машину. И да, спишут его только в конце месяца, с кредитки, не спрашивая.
Короче говоря - сомневаешься в том, что ты всё в этом понимаешь - не лезь, она тебя сожрет нахуй. Тебя предупредили.
Ввиду убогости частоты серверных процессоров, ты будешь ограничен именно ею (а не мощностью ВК) в скорости трейна - в P100 смысла особого нет, бери K80, которые дешевле. И да, скорость процесса будет относительно низкая - "профессиональность" видеокарт тут не дает никакого профита, ибо, повторюсь, все упирается в убогость частоты серверных ядер и неоптимизированность самого скрипта под использование на серверных машинах.
Как долго занимает создание фейка?
- Вообще, сильно зависит от железа. В общих чертах - от 6 до 24 часов на мощном железе (1070+), и от 12 до 100 часов на минималках. При использовании GAN - от 10 часов до бесконечности.
Каков принцип работы?
- Вообще, процесс состоит из 3 этапов. В разных местах их называют по-разному, постараюсь привести все названия.
Подготовка:
Для работы программе понадобятся МНОГО (от 100 до бесконечности) фотографий с лицом обоих действующих лиц (порноактрисы и той/того, чье лицо будем вставлять). Для порноактрисы идеальными будут кадры из этого же видео, в которое планируется вставка (ffmpeg либо приложение версии 2.1). Для цели... лучше всего найти какое-нибудь видео с ней, чтобы оттуда набрать кадров. Для знаменитостей - это какие-нибудь интервью, обычно. Если просто скормишь проге все её фотки из ВК/гугла/итд, тоже сойдет, но программе будет на порядок сложнее из-за разных макияжей, освещений, да просто возраста в момент фотографии. Итак, у тебя должно быть две папки с кучей фоток обеих актрис.
1. Align/Extract/Faceset Creation/Get Dataset: Ищет лица на предоставленных тобою фото, вырезает их в отдельную папочку, и записывает файлик alignments.json , где помечает в текстовом виде, на какой фотке где нашел какое лицо. Этот файл может быть будет нужен на шаге 3.
2. Train: Тренирует нейросеть заменять лица из одной папки, подготовленной на прошлом шаге, на лица из второй папки, и сам же дает оценку своим попыткам. Учится само, и очень долго. Основной, и самый долгий, вобщем-то, шаг. Показывает примерный результат своих потуг в окне превью и в окне программы путем числа loss.
3. Merge/Convert/Create: На основе данных тренировки и того, в каком кадре где находится лицо (да, надо будет все кадры всеравно прогнать через шаг 1, если тренировка велась не на них), заменяет одно лицо на другое на каждом отдельном кадре. Приложения версии 2.1+ всё это сделают за тебя, нужно лишь указать им на видеофайл и указать FPS видео.
Завершение:
В конце нужно склеить отдельные кадры обратно в видео. FFmpeg, или приложение версии 2.1+ в помощь.