>>77640 Ты от природы наверное косой? Сводишь глаза чтобы две картинки раздвоились. Выходит 4 изображения. 2 средних изображения стараешься свести в одну картинку и глаза через некоторое время сфокусируются и сами будут держать это изображение
>разворачиваешь картинку на пол экрана или меньше, иначе глаза от больших углов заболят >выставляешь палец на линии между глазами и картинкой и фокусируешься на нём >картинка на фоне начнёт двоится и получится 4 половинки >двигаешь палец вперёд и назад, то тех пор пока средние две не совпадут >фокусируешь взгляд на совмещённой картинке и убираешь палец На нарисованных картинках работает крайне хуёво, так как там от руки запиленный нереалистичный параллакс. Не понимаю для чего это делают. А вот на 3д рендере и фотках со смещенным POV уже заебись, нищебродское 3д.
>>79894 Выше постом гайд. Если ты сфокусируешь взгляд строго на пальце и будешь его приближать удалять, то картинка на экране будет сходиться и расходится. Боковым зрением вылови момент, когда у тебя будет ровно три картинки, где средняя - результат совмещения. Потом аккуратно перефокусируйся с пальца на среднюю картинку.
>>79895 Еще бы у него получилось. Видео с окулуса бывают "перевернутыми" (а точнее, как раз-таки правильными): для левого глаза слева, а для правого справа. Естественно, когда мы пытаемся смотреть на это, как на перекрестную пару - ничего хорошего не получается как же я сейчас глаза ломал, пытаясь параллельно увидеть тот вебм, чтобы проверить свою догадку, и ведь получилось, когда разрешение снизил почти что до превью. Вебмрелейтед - смотрибельный вариант >>79880. Если есть еще, дайте соус: будет время, еще принесу. Или можете сами, это легко делается ffmpeg'ом может, еще проще, чем я делаю: 1) Разделяем одно "неправильное" видео на два: ffmpeg -i video.webm -q:v 0 -vf crop=640Ширина пополам:720высота:0Для правого куска здесь тоже ширину пополам:0 RightLeft.mkv 2 раза. В webm сразу кодировать бессмысленно наверное, так как во втором пункте мы будем накладывать оверлей он сам будет накладываться, и -c copy не сработает. Если интересно, crop - вырезка куска размерами ширина:высота:начало_ширина:начало_высота. 2) Объединяем наши два mkv-шника в правильном порядке не путаем, могло и наоборот выйти, если вы называли файлы, как они были в начальном видео. ffmpeg -i Left.mkv -i Right.mkv -filter_complex "[0:v:0]pad=iw•2:ih[bg]; [bg][1:v:0]overlay=w" -q:v 0 Video.mkv . Вместо "•" должна быть звездочка, но ее может съесть Макаба если их две, но я не стал рисковать. Если интересно, что происходит здесь, гуглите ffmpeg side-by-side video , наткнетесь на этот кусок с объяснением или нет. 3) Кодируем обратно в webm. Если вы сделали первые два шага, значит, вы уже умеете это. Если нет, например, в /b/ можно найти Анимублядкий с шапкой. Вместо -q:v 0 везде можно было использовать что-нибудь вроде -crf 1 -qmax 1, или просто указывать огромный битрейт -b:v 12M, тем более, что -q:v, вроде как, тоже предполагает использование натуральных значений. - это для того, чтобы видео не становилось еще хуже на промежуточных этапах.
>>79913 И правда, видео с окулуса не предназначено для косоглазия. Есть куча подобных демок для окулуса, которые можно и с монитора посмотреть. Интересно, можно это как-то динамически подменять.
>>79916 > куча подобных демок для окулуса, которые можно и с монитора посмотреть Есть ссылки, названия, что-нибудь? Можно ведь с фрапсом при 1.9 ФПСах, на моем во всяком случае компе, сидеть, а потом уже ручками переворачивать. Я уж подумал, что лимит подняли - а это в посте только может быть больше 6Мб файлов.
>>79947 > Но на оппике есть! Отсутствует. Только что скачал, наложил в фотошопе одну часть на другую и три минуты выключал верхнюю, сравнивая, меняется ли что-нибудь. Отличаются только jpg-артефакты. Это две одинаковые картинки, поставленные рядом. В предыдущем стереограмм-треде тоже были такие умники, "создающие свои стереопары", из-за которых люди глаза ломали.
В MMD стереограммы картинки можно просто делать делая два скриншота немного изменив верхнюю Y характеристику (1-й пик). Ну и так же для простого видео (где есть кости в волосах которые можно настроить). как тут>>79870 14519894583401.webm. Думаю гифку из этого поста>>79952 делали именно так. Как для более сложных видео или длинноволосых моделей без костей в волосах пока не знаю, так как при повторной записи видео волосы могут вести себя иначе чем при первом, а при отключенной физике выглядеть слишком неестественно.) в принципе может быть там надо перенастроить физику под режим трассировки. х.з. может позже поэксперементирую.
>>79954 В программах для 3D-моделирования ставятся просто две камеры, находяищиеся рядом и фокусирующиеся на одну точку. Когда-то я пытался этим заняться, но так и не осилил. В Синиме 4D даже есть специальная двойная камера, которой можно указать расстояние между глазами. Вообще, я часто понимаю, что не могу определить, правильное ли 3D: обычно я считаю, что левый глаз именно глаз должен видеть больше слева, а правый - больше справа. Но на твоих картинках это не так, но они являются перекрестными парами я попробовал поменять местами - ничего хорошего. Сейчас делал видео из "OculusAnime's modified Fun With Alice!" >>79932 - фрагменты почти что не различаются, я долго не мог понять, нужно ли менять их местами. Поменяв и подумав еще немного, я пришел к выводу, что нужно. В изначальном варианте в самом начале было сложно сфокусироваться на Мику и задний план. Хотя, на остальную "квартиру" я нормально смотрел как в изначальном, так и в "перевернутом" варианте. Есть какой-нибудь простой способ понять, какая картинка должна быть для какого глаза?
>>79955 >В программах для 3D-моделирования ставятся просто две камеры, находяищиеся рядом и фокусирующиеся на одну точку. Ну так то да, было бы проще. К сожалению редактор MMD одновременно две камеры не поддерживает (па крайней мере до версии MikuMikuDanceE_v926). >обычно я считаю, что левый глаз именно глаз должен видеть больше слева, а правый - больше справа. Когда мне пришла мысль сделать в MMD стереограмму я подумал точно так. Но ничего хорошего не получилось. Тогда я поменял картинки местами и получилась стереопара. Я немного удивился что получилось именно когда наоборот, но потом решил воспринимать это как данность. >Есть какой-нибудь простой способ понять, какая картинка должна быть для какого глаза? Не знаю. Может кто из анонов знает. Я просто отмечаю пикчи буквами L и R что бы потом вспомнить с какого ракурса, левого или правого я делал скрин.
>>79913>>79916 Анон, есть подозрение, что горизонтальную стереопару можно шейдерами в каком-нибудь mpc-be развернуть для косоглазия, и тогда можно будет смотреть любое ДДД кинцо на любом экране без очков... Кто здесь умеет обращаться с шейдерами?
>>80041 Если ты имеешь ввиду, что у тебя перекрестная стуреограмма, то - нет. Она параллельна, как раз-таки. Именно по твоим фрагментам это и видно: в зеленом круге показан "вид справа", для правого глаза. В красном Мику, которая ближе к нам, закрывает больше - ведь она ближе, и левый глаз видит уже ее, а не фон. Не знаю, как объяснить. Но это в конкретно этом примере легко определяется, так как есть объекты с сильно различающимся расстоянием до нас. Пикрелейтед тоже можно судить по рту - но такие детали не всегда можно быстро находить, особенно, если "расстояние между глазами маленькое" и картинки практически идентичны они всегда почти одинаковы, когда изображен фон, находящийся далеко.
>>80047 Я имею ввиду, что где левый и правый глаз легко определить по любым двум объектам, которые на сцене чуть заслоняют друг друга. А это обычно всегда так, потому что есть объект и какой-нибудь фон.
>>80040 Можно подключать через юсб шнур прогой TrinusVR, правда тогда стереоэффекта не будет и это больше для игорей подходит. А если надо передернуть, то есть сайтики, на которых можно скачать специальный 360-180 порн в формате видео. Открывается прогой aaa vr cinema. Тут тебе и стереоэффект и на поворот головы реагирует. Естественно телефон нужен более-менее современный с хорошим экраном и датчиком ускорения.
Блядь, нихуя не понимаю. Вроде скрещиваю глаза так чтобы одна картинка посередине была и взгляд на ней фокусируется но она нихуя не отличается от двух дефолтных.
>>80328 таки да, переоцененное гавно, мне еще и уменьшать сильно нужно, иначе не сводятся. >>77515 разве что тут брызги фапчи более на переднем плане выглядят.
>>80335 Можно смотреть 2 способами, это сводить глаза к носу, пикча визуально становиться меньше. и можно наоборот разводит глаза, это сложнее, но нихуя не уменьшается.
>>80366 нашел http://sirds.lipetsk.ru/recomendations.php 1 метод легкий, но изображение вдавлено внутрь (тяжело смотреть с моим -1 все плывет) глаза (>).(<) 2 второй метод сложнее, но изображение наоборот выпучено. глаза (<).(>) вот хорошая пикча для тренировке
>>80367 Это просто ужасная пикча для тренировки, лол Я умею смотреть такие стереограммы - но из-за этих двух точек сфокусироваться на достаточное время на грушу, спрятанную внутри, почти нереально. >>80366 Не "Можно смотреть двумя способами", а есть 3D-картинки, видимые с помощью издевательства над зрением, двух видов: • Параллельные стереограммы - та, что с двумя точками выше - могут содержать в себе фигуру, которая обязана быть объемной: довольно сложно запихать в них что-то тяжелое, почти нереально накладывать хоть какую-нибудь текстуру. Для просмотра таких нужно смотреть сквозь экран, "на оптическую плюс-бесконечность" я, когда учился, представлял, что передо мной, очень далеко, находится Эверест, лол, и, когда вы получите правильное "положение глаз" (может понадобиться приближение к экрану затруднит следующий этап и/или уменьшение картинки тогда проще будет развести глаза до почти параллельного состояния, нужно будет сфокусироваться на экран, чтобы появилась четкость. Это бывает очень трудно, так как, если экран слишком близко, на него может не получиться фокусироваться в принципе - а тут еще нужно не сбить положение глаз. Мои первые два пика как раз требуют этого варианта просмотра. На первом Он сложный, нужно неслабо уменьшить картинку, по-моему, проще фокусироваться по заметным при расфокусировке вертикальным цепочкам mgg красно-розового оттенка некоторое подобие круглого человечка с тонкими руками-ногами, улыбкой, и так далее; На втором Можно подстроиться подо что угодно, например коричневую голову - парень, проезжающий на мотоцикле мимо девушки в машине. • Перекрестные стереограммы / Стереопары. Вот тут нужно косить глаза, как нам запрещали в детском саду. Обычно процесс объясняют через "Поставьте палец между картинок, чуть ниже. Теперь фокусируйтесь на него, смотрите на задний план, чтобы две картинки образовали третью, теперь, не теряя положение глаз, снова сфокусируйтесь на экран", в интернетах много гайдов. Это гораздо проще напрячь глаза, вместо того, чтобы расслабить, когда они должны быть напряжены, у вас должно получиться. Например, держите 3-4 пик. Такие стереопары можно делать и самому, делая две фотографии, немного сдвигая фотоаппарат. Опять же, есть много гайдов. Главное, чтобы картинки были в порядке ПРАВАЯ-ЛЕВАЯТак как наш правый глаз будет смотреть на левую половину, и ему нужна именно правая часть, и наоборот. Если они перепутаны (Или, например, изображение снято с какого-нибудь Окулуса >>79916, то нужно поменять части местами либо пытатся смотреть параллельно, но это сложно, и размер придется уменьшать до ~150:* - можно проверять, если не уверен Алсо, если переборщить со всеми этими экспериментами со зрением, чтобы мозг решил, что все это номрально, можно добиться интересных эффектов. Я теперь, к примеру, когда передо мной неинтересный объект, смотрю "сквозь него", изучая боковым зрением окружающую среду. Не знаю, хорошо это, или плохо не развивает ли дальнозоркость такое расслабление глаз, да и даже не знаю, часто ли такое происходит или я некоторое исключение.
>>80422 1ый и 2ой пик охуенны, так всё четко видно заебись, 3ий и 4ый почему то расплываются, нету четкости но объём норм, я что то ни так делаю или так и должно быть?
>>80423 > нету четкости но объём норм Вот примерно так я и представляю, как смотрят стереопары люди с дальнозоркостью У меня единички: скосить глаза может каждый, а вот напрячь мышцы, если они не могут напрягаться - никак. Попробуй дальше от монитора, может, сесть?.. Хотя, что-то я фигню несу. Раз на экран можешь фокусироваться, то и на стереопару на том же расстоянии тоже сможешь. Попробуй еще. Иногда нужно сильно напрягать глаза. Не знаю, в общем.
>>80425 Алсо вместо монитора использую телек 42" и сижу на расстоянии 2м от него (когда капчую, когда анимцо смотрю подальше на кровать ложусь) мб в этом дело?
>>80425 После нескольких попыток всё таки получилось нормально сфокусироваться на гифке, но всё равно небольшая размытость присутствует на лице, в тоже время я очень четко вижу границы по краям ног
>>80426 Говорю же, не знаю. Все должно получаться нормально А первые две из того поста идти сложно. Я бы просто попробовал еще когда-нибудь. А потом еще. И так, пока не получится, давая глазам время на отдых. Просто это-таки не совсем обычная для глаз операция "создать точку фокусировки зрачков на расстоянии d/2, фокусироваться на d" не знаю, как все это нормально описать. Хотя, точно также неестественно создавать точку фокусировки зрачков на плюс-бесконечности, а фокусироваться на d. В общем, НЕ-ЗНА-Ю.
>>80545 Перевернул. Хотя, фокусироваться сложно из-за большого расстояния между глазами/камерами. При параллельном просмотре начальной тоже не мог смотреть, когда камера приближается к Мику слишком сильно
Кто-нибудь знает, как запустить Custom Maid 3D в режиме виртуальной реальности, не имея Окулуса? Если запускать CM3D_VR.exe, то он пишет, что не найден Окулус. Может, есть какие-нибудь специальные драйвера, подменяющие дисплей Рифта на обычный экран? Было бы очень круто сделать нечто подобное. MMD-демошки имеют минусы - модельки и звуки почти везде одинаковые. Если появляется какая-нибудь другая модель - она по-своему кривая. Да и не найти их в большом количестве. Много кто закидывает их на Mediafire и Мегу - а оттуда их через некоторое время удаляют. Скрины тоже удаляют. Пока искал, видел пару вариантов с заманчивыми скринами - но сами программы были уже потерты. Конечно, что-то я еще заснял Остается перекодировать, до чего все руки не доходят - но оно все очень похоже.
>>82021 Судя по неискабельности соуса по картинке, это все ты же, MMD-кун? Если нет, то, соответственно, запрашиваю совас. Кстати, у меня сейчас появилась маленькая идея или нет. Когда-то я поленился разобраться в MMD-редакторе, так что не знаю, как там все работает. Хотя, раз получаются картинки, можно получить и то, что я хочу. Смотри. Ты уже научился двигать камеру, чтобы получались хорошие стереопары в первых, как я понял, у тебя очень сильно сдвигался задний план. В правильную сторону, но сильнее, чем модель - создается впечатление, что он ближе. Можно без проблем создавать и стерео-видео со статичной камерой. Модели нужно задать какие-нибудь движения думаю, ты знаешь, как. Я-то совсем не в курсе, скачать какой-нибудь fraps не пробной версии, затем сделать видео для левого и правого глаза - и склеить их в обратной последовательности - вуаля, мы можем делать стерео-видео с MMD. Проблемы могут возникать при необходимости поворотов камеры, но можно обойтись и без них. Ну что? Если единственная проблема - нежелание работать с ffmpeg'ом через консоль, то у меня есть маленькое приложение, которое умеет склеивать side-by-side что угодно. Тоже консольное - но ему просто даешь пару файлов и пару раз нажимаешь на 'Y'. Могу скинуть exe-шник и исходник C++. Раньше никогда не пытался передавать откомпилированные (MinGW) файлы на другие машины, так что за работу на не-Win7-X64 ручаться точно не могу. Ну, ты ведь сможешь в крайнем случае перекомпилить один файл, да?.. Сейчас еще собираюсь сделать программку с противоположным действием, которая пилит двойное видео/картинку на 2 отдельных - чтобы можно было в пару кликов пересобирать параллельные стерео-изображения от Окулуса на обычные перекрестные стереопары для нас.
>>82044 Соуса нет. Это я вчера что бы бампануть тред сделал :3 >в первых, как я понял, у тебя очень сильно сдвигался задний план. Я тогда ещё не понял почему некоторые стереопары, где персонаж в помещении, получаются лучше по фону чем другие. Потом, кода поэксперементировал понял что это зависит от параметра камеры. При редактировании камеру можно приближать/удалять двумя способами (2pic A/B). Увеличительным стеклом в правом углу (А) или изменением параметра (В). При изменением параметра лучше просматриваются (как мне кажется) мелкие детали персонажа, но больше "гуляет фон". Экспериментальным путем пришёл к выводу что оптимально (для пикч стереограмм) дефолтные 30 (+/- 5) единиц. >Можно без проблем создавать и стерео-видео со статичной камерой. Можно. Вот в этом посту>>79870 14519894583401.webm я делал. Но не "без проблем". Сейчас опишу камни. В MMD-редакторе есть четыре варианта предустановки физики (3pic). Наиболее часто для простых видео используют предустановки с заранее включенной физикой. Это удобней и быстрее. Хоть при этом иногда бывает что волосы (ну или части одежды) проваливаются сквозь модель. (Например на 4м пике при включенной физике правого уха бы видно не было, а волосы проходили бы сквозь плечо персонажа внутрь). Но это всё мелочи по сравнению с тем что в редакторе MMD только одна камера. Можно конечно сначала установить её для одного глаза, и снять видео для него, а потом переустановить камеру и снять видео уже для другого глаза. И смонтировать полученные два видео в стерео в любой монтажке. На прикол в том что редактор MMD просчитывает физику заного при каждом воспроизведении (при предустановке включенной физики). И поэтому при первой съёмке для одного глаза волосы / ленточки / юбочки будут двигаться по одному. А при повторной съёмке для другого глаза уже несколько иначе. В итоге в смонтированном видео на их месте будет не стерео изображение а пятно той или иной резкости. Однако, конечно. предустановку включенной физики можно отключить, и прописать физику вручную. Но это довольно долго так как придётся делать это для каждой пряди волос. И для подпрыгивания грудей тоже. Если этого не сделать то на видео получиться не супер 3D stereo hentai video а потрахушки манекенов из магазина одежды :3. Хотя конечно можно взять модель с короткой стрижкой. Чем короче волосы у модели тем меньше разночтений в их физике при воспроизведении. Или, как вариант, попробовать взять модель где "шерстистость" прически прописана ещё и в дополнительных настройках. Типа модели Kaat от J&J Edit. Теоретически с этим вариантом, при наличии времени, наверное можно поэксперементировать. >скачать какой-нибудь fraps Если честно я не понял зачем скачивать фрапс. В MMD-редакторе есть возможность вывода видео в том числе и несжатый AVI. А монтажить можно в том же вегасе. Для захвата видео когда есть необходимость юзаю HyperCam3. Мне больше нравиться чем фрапс. Хотя раньше когда то фрапсом пользовался тоже. >Если единственная проблема - нежелание работать с ffmpeg'ом через консоль Если будет необходимость то, думаю, ffmpeg освоить смогу. Тут большая трудность - дефицит времени. А так я привык резать Дабом, монтажить Вегасом и кодить Симплой :3 А когда нужно перекодить в вебм то юзаю АниВидеоКонвертор. Хоть в Анимублядском иногда и ругаюся :3
>>80422 блять, не знаю, ты жив еще или нет. Но первые две картинки осилил без проблем. Да и вообще с давнего детства какого-то хуя научился ставить глаза параллельно, и теперь всегда, когда думаю, так расслабляю их. Все знакомые думают, что я умею управлять косоглазием и ссутся, когда я так делаю. Иногда ради лулзов стебусь над людьми, которые долго смотрят на меня, и раздвигаю глаза. Они сразу отворачиваются и искоса поглядывают на меня, как на ебанутого. Однажды маман после такого случая вообще захотела меня в больницу отдать, думая, что я больной. Но зато дрочу на все эти стереограммы и стереопары без малейших проблем
Охует. Полтора года назад я пропал, а потом, когда вернулся, не нашел тред, подумал, что его смыло. >>105306 Собственно, да, оказывается, я жив. Но картинок для параллельного просмотра у меня практически нет.
Не то, чтобы прошедшее время я провел с большим успехам по стереопарам. Как решил, что тред смыло, к хентайной теме вообще не возвращался. В целом, 3D-тема меня все так же интересует. Все еще делаю периодически стереопары на телефон, купил на Али 3Д-камеру-насадку на андроид/ПК, с Nvidia 3D-Vision'ом разобрался, как видеокарту обновил... Но хентай-контента у меня пока нет. Как оказалось, старые MMD-шные поделки для Окулуса я не удалял, но это так себе контент, конечно. Я уже проверил, что 3D-Vision не хочет работать с Custom Maid 3D 2, и в планах у меня проверить с Illusion'ом. Могу попробовать ответить на простые вопросы, тред буду проверять раз в несколько дней.
>>106941 > подойдут ли эти шебмы для просмотра на cardboard Нет. Ты прав, нужно просто поменять картинки местами. Для этого можно использовать все тот же ffmpeg. А конкретно: ffmpeg -i Stereoscopic.webm -vf stereo3d=sbsr:sbsl -c:a copy -c:v libx264 -qmin:v 22 -crf:v 25 -qmax:v 28 Cardboard.mp4 Пути к файлам можно не прописывать, а просто перетащить вебмы в консоль исходный после "-i", а в качестве файла вывода перетащить тот же исходник, только поменять ему имя и разрешение на mp4 Точно так же можно поступать со всеми картинками, если интересно. Но, чтобы такое быстрее делать, лучше какой-нибудь скрипт использовать. А еще можно найти сами MMD-шные поделки для Окулуса (Год назад их было довольно мало, и многие терлись; откуда именно качал - не помню) и запускать их с выводом на телефон каким-нибудь TrinusVR'ом. Может, даже головой крутить можно будет нормально (на всех моих видео я использую мышь, но она позволяет только вправо-влево вращать камеру, не вверх-вниз; контроллер пробовал подключать (не XBox'овский), не помогло)
>>107063 > ffmpeg -i Stereoscopic.webm -vf stereo3d=sbsr:sbsl -c:a copy -c:v libx264 -qmin:v 22 -crf:v 25 -qmax:v 28 Cardboard.mp4 Только "mkv" вместо "mp4" в конце. Либо "-c:a aac" вместо "-c:a copy", либо добавить "-strict -2" после "-c:a copy". Объяснение: у меня в вебмках звук в кодеке Opus, а его нельзя по-простому запихнуть в файл .mp4. Зато можно в .mkv (первый вариант), или можно в .mp4 запихнуть aac кодек (но, возможно, к нему тоже нужно будет приписать следующий вариант, зависит от версии кодеков), либо включить эксперементальные возможности.
Блин, анон, а есть такое же, но для анаглифа? Это же реально проще, чем пытаться изобразить глазами букву "зю". Много лет пробовал, но никогда нифига не получалось, тупо не могу глаза свести. А так считай надел очки и смотри. Плюс размер картинки больше.
>>106838 Так то не за что. Мне же и самому интересно. ^^Ну и попилить контент, который пилю не часто, тоже интересно. >>106863 В интернете нет ничего твоего. Хотя то, что когда то ты запилил этот тред, если это конечно был ты, хорошо.
>>107298 Да сидел, хуйню эту нашел. НЕ думал что есть фапконтент на эту тему. Склеил, значит, из двух картинок на которые тогда дрочил оп пик и запостил. Уж не предпологал, что хоть кто-то будет этим интересоваться. Тем более год спустя. Вот кстати оригинал оп пика пятнадцатого года
>>107679 Продолжай держать нас в курсе своих ощущений. Иметь в треде такого отзывчевого анона как ты - это уже очень хорошо, так как не каждый тред в /h/ может похвастаться наличием такого уникального анончика. А уж если ты будешь периодически выходить на связь, радость и счастье от твоего появления не будет знать границ. Особенно если кроме своих высеров ты ещё и контента закапчуешь.
>>107866 Ты что то хотел спросить? Или только то что ты спросил? Если только то что ты спросил то это весьма актуальный вопрос на доске со скоростью 1 пост в час. >>107952 Треды тонут медленно.
Тут такое дело.. Вспомнил я про идею анона (>>82157), и решил попробовать. Запустил рендер тестовой записи "sample(follow_camera)", поставив разрешение побольше, а на выходе получил... Вебмрелейтед. Довольно смешно, если задуматься. И странно. >>108014 ММД-кун, может, ты знаешь, можно ли в настройках чего подкрутить, относящееся к Nvidia 3DVision? Я только на выводе проекта галочку нашел, но, вдруг, еще где есть. Например, чтобы дистанцию между глазами ту же установить. Рендерить с галочкой "Left half(for Discover)" - выводит только анаглифное видео, соответственно. Отключать просмотр в 3D-режиме во время рендеринга тоже пробовал - получается просто треш. Костыль из (>>82158) пробовал, эмулятор не работает, видимо, под Десяткой. Не находятся драйвера. Сейчас еще попробую переставить, но не думаю, что поможет. Следующим шагом, видимо, будет возрождение Семерки, ибо она так и стоит на втором винчестере может, работает еще. Туда эмулятор должен встать, думаю. Больше у меня идей пока нет, но буду рад послушать предложения.
>>108056 > Сейчас еще попробую переставить, но не думаю, что поможет. Следующим шагом, видимо, будет возрождение Семерки Провал. Не понимаю, что не так. Если под Десяткой вообще не появляется нового устройства при запуске второго батника, то под Семеркой он у меня появляется с восклицательным знаком. И в этом случае все так же не получается выбрать другой стерео-режим. Ладно бы еще просто писал, что не видит этого USB-устройства, так нет, в одном случае он пишет, что не установлено драйверов 3D Vision USB, или что-то такое, и линк на nvidia.com/downloads с авто-выбранными пунктами "3DVision"-"Full 3DVision CD for GeForce"-"Win7x64". Самая пушка: При нажатии кнопки "Поиск драйверов", попадаешь на страницу "Драйвера 3D Vision уже включены в основной драйвер для видеокарт GeForce, и отдельно больше не предоставляется". У меня пичот от такого отношения. Форумы с настройкой драйверов 3D Vision есть с 2009 года, и проблемы, на которые тогда отвечали "Поменяй в реестре значение" в качестве решения, сейчас можно отвечать только так же, никаких настроек не было добавлено. Максимально я приблизился к достижению цели, когда подменил драйвер монитора на драйвер какого-то из проекторов Acer, как показывалось на каком-то видео. Поначалу я был удивлен, что можно безболезненно подменить драйвер, и в конце, когда по дисплею пошли чересстрочные артефакты, за которыми почти ничего не видно, я убедился, что так делать в общем случае нельзя. Даже откат драйвера не помог, только установка драйвера для своего монитора. Ну так вот, пока мой монитор был проектором, окно настройки типа отображения 3D Vision поменяло формат, но я снова уткнулся в то, что у меня "нет драйверов". Хотел потом начисто переустановить драйвер, но... У меня, вроде как, диск посыпался. Пара программ сказали, что у них проблемы с обновлением, 7zip при распаковке драйверов от Нвидии сказал, чтобы я запустил chkdsk, и я вернулся обратно в Десятку. Вроде, SMART нормальный, но chkdsk что-то поправил; может, потом еще попробую
Но, так, или иначе, я все еще могу рендерить анаглифные видео, если кому надо... Мало-ли..~
>>108089 > Ебать тут тред тухлый Как и вся доска же. > в хентаче на фочане такие то картинки охуевшие Сходил, посмотрел, да, там народ время зря не тратит. Полтора года назад там было примерно то же, что на бурах по тегу stereoscopic. За это время у них в треде пошла движуха, нашлись умельцы самостоятельно пилить стереокартинки, а у нас раз в месяц тред бампался безуспешно и на этом спасибо еще раз. > а тут окулюс параша Это единственное, чем я могу поддержать тред. И это видео вместо картинок. Если во мне было хоть что-то от художника, я бы попробовал пикрелейтед технику, и, может, я и попробую, но я совсем никак не отношусь к искусству. > с хуёвой графикой И делать модельки / создавать приложения - я тоже не умею пока. А вот открыть скачанную джва года назад Окулус-поделку, заснять процесс, поменять глаза местами и закодировать результат в webm/h264 - это я могу. Этим я и занимаюсь пусть и слишком редко. > Мда, сеги вам Твое решение, но ящитаю, что тему нужно поддерживать хоть как-то, чтобы была хотя бы вероятность, что найдется энтузиаст, который внесет что-то новое в тред.
>>108056 Привет. ^^ Я читал конечно тот пост, но у меня не тот виндовс. Да и геморроя с установкой эмулятора не хотелось. Поэтому я не пробовал. Я думаю что если я буду ещё делать стерео видео, то просто буду снимать камерой с двух ракурсов, с отключенной физикой. Что бы не было рандома в волосах. А так Видео-кун>>108065 вот хорошо всё расписал. Я читал и восхищался его энтузиазмом. Сам я бы и половины от того что он попробовал сделать не сделал бы xD. >>108089 Да,да. > А вот у марсиан... То ли ты пациент дедушек Крылова, Михалкова, то ли просто троллейбур обыкновенный. И, знаешь что я думаю, в тухлые треды такие как ты за питанием не ходят. Так что с тредиком всё ок ящитаю. Кстати, я что то не вижу что бы в шапке треда было написано что то о давании пососать фочангу или кому то ещё. Хотя вот тебе наверное и можно было бы дать пососать, но только если ты няшный. У нас тут и так всё забиесь. А кто с этим не согласен тот нацптеродактиль. В общем, держи нас в курсе. Твоё мнение и т.д. >>108099 Не корми ты его . ^^ Он слишком жирный.
>>108131 > но у меня не тот виндовс. В смысле, не тот? Нет, я про сами настройки MMD спрашивал, я же только поверхностно по ним пробежался, а так вообще не в теме. > Да и геморроя с установкой эмулятора не хотелось. Так у тебя же не Нвидия. Там-то, смотри, в чем "проблема": в настройках Нвидии можно включить стереоскопический режим, но, не имея спец-оборудования, например, "пирамидки" (в двух словах - ИК-передатчик, говорит очкам, какой глаз сейчас идет в 120фпс-ном видео, если я правильно понимаю) - то можно включить только анаглифный режим отображения. В этом случае, на экран будет выводиться 3D сразу разделенное на синий и красный цвета. Shadowplay в этом случае будет тоже сразу снимать анаглиф (в то время, как его скриншотер сохранять стереопары) - путь тот же Fraps и умеет сохранять side-by-side видео только фрапсом де-факто нельзя снимать 60фпс, но это хоть что-то. "Эмулятор" же должен эмулировать эту самую пирамидку: тогда можно было бы выбрать нормальный 3D Vision формат в настройках, и MMD бы выводил вместо анаглифа 120фпс-ное видео, где каждый следующий кадр предназначен для другого глаза - а это уже "чистый" стереоформат, из которого можно получить любой другой тем же ffmpeg'ом. Ну, это как я вижу картину. Может, дело обстоит и не так... > А так Видео-кун Это я и есть ^^.
Сейчас я попробовал хоть и не собирался>>108099, и получил пикрелейтед в качестве теста. Завтра попробую на 2Д-картинке, попроще какой-нибудь. Времени уходит много, а получается фигня, но это немного интересно. Особенно до того момента, как тебе нужно восстановить кусок травы. Или зеркало. Не дружу я с Фотошопом, короче, на уровне выше среднего. Может, еще попробую в ГИМПе сделать то же самое, если это особенность ФШ, что он невероятно размывает слой при его деформации. Кстати, в попытках найти гайд в большем качестве, нашел только первую половину, пик2. Ну и чтобы протестить 40Мб точнее 21+ лимит, вебм3
>>108135 У меня самые обычные, дефолтные настройки. Какие установлены с самого начала. А там уже, в зависимости от сцены, я их настраиваю конкретно под сцену. Там это просто. Сейчас ещё часто физику отключаю что бы настраивать движение волос и частей одежды (в тех сценах где она есть) так что бы волосы или части одежды не проваливались в модель. Ну если я правильно понял о чём ты. Не у меня не Нвидия. Но я так то не собирался делать стереоскопические фильмы. Если конечно, ради эксперимента или для скилла решу сделать, то сделаю как тут>>79870 съёмкой с разных позиций. Плюс я вижу в том, что в таком случае не приходится выворачивать объектив камеры на большое удаление. И модели смотрятся менее растянутыми в пространстве. Другими словами более естественно. Да и выставлять 60fps не обязательно. Можно обойтись 30-ю. Чёрно белая пикча у тебя хорошо получилась. Ну кроме травы и рамок надписей. Похожий гайд по фотошопу я видел, когда комрады из той конфы где я время от времени обитаю, обсуждали анимирование статики наподобе как она анимируется в виртуал вайфу. Там да, виден был небольшой блендинг при сдвигании слоёв. Хотя сам я с подобным не сталкивался, так как использую фотошоп в основном для цветокора, работы с текстом и работе с масками (когда, например, нужно персонажей из одного аниме поместить в другое аниме. Тут фотошоп (у меня CS4) работает вполне корректно. Кстати, на одном из форумов увидел стереопару с полосками по бокам, для лучшей концентрации зрения. Решил потестить без полосок и с полосками.
>>108099 >поменять глаза местами Нахуя? Картинка для левого глаза должна быть слева, а для правого - справа. Алсо, сагаю говноедский тред, так как бампа он не достоин.
>>79878 > Присоединяюсь к сажированию. Хуета какая-то. Какие же вы идиоты, пишите в гугле "как смотреть стерео картинки" по первой или почти первой же ссылке короткая и годная статья, там все объясняют нормально, а не так коряво как аноны, после прочтения вообще без усилий получается эти картинки смотреть и двойные как в этом треде и текстурные
Ужель тут никого нету со стереоочками? Ищите на своей мухосранской барахолке стереоскоп made in ussr за 300 рублей, вытаскиваете линзы, которые уже любовно посажены на правильное расстояние. Качаете на телефон riftcat, ставите стим вр и качаете honey select и вр мод. Все, тян не нужны, профит.
Вобщем, пасаны, такая хуйня. Я тут запустил тренироватсья модель по 3д мультикам и карте высот. Планирую на выходе получать карты высот от д2 мультиков. (запасной план в качестве картинок с хентаем в 3д прилагаю). Скоро будем компилить хентай в 3д ВР за день.
Последний видос я делал ночь, и меня заебало, решил, что буду делать с помощью машинного обучения. Сразу скажу, что скомпилировать сразу с 2д в стереопару не получится, пытался, там картинка едет нахуй, как будто для специальных очков с паралаксом. А вот карты высоты генерятся на ура. А сними уже очень просто делать стереопары, а значит можно будет целиком перехуячивать фильм по 1 кадру. Боюсь, что каждый кадр будет разной высоты, но это малая вероятность- покрепче затренить модель, и все будет ок. Выйду на связь скоро.
Ах, да убедительная просьба, если у Вас завалялось аниме или хентай в формате стереопары или любом другом стерео, пришлите ссылку. На рутрекере только 3 фильма, уже укачиваются. Хочу делать выборку не только из моих вручную сделанных стереограмм, будет проще так.
>>131683 ты пидр охуел, параллельно смотри, не коси. И это не сеть, это стереограммы из тех примеров, которые я готовлю для нее. Вчера запускал на 4 часа, мне понравился результат, даже картинку с 2 телами распознало, но материалов пока что только 70 картинок. Рехультат грязноват, но он есть, и пара примеров мне понравилось, еще не до той степени, чтобы вручную за ним доделать, но направление верное. У карт потиху вырезаю черные точки, артефакты. Отказался от прорисовки задников. Работаю, может это займет пару месяцев- сделать около 500-600 примеров. Потом уже за пару дней натренировать получится. Опыт с фейссвапом есть, так что все будет чики-пуки, ждите.
А вот сеть. Остановил тренировку когда дискриминант перестал меняться. 70 картинок, 3 часа на 1080 простой. Эта картинка с ангелом получилась лучше остальных, потому что я обучал сеть на артах а не на вырезках с аниме- там рисовка сложнее и ее распознает алгоритм. Вот из аниме, где рисовка попроще еще напилю много картинок, тоже будет распознаваться хорошо. На последней картинке сгенерированная карта.
>>131763 рад стараться, если это не ирония. Эти работы еще плохие, вижу много артефактов типа поломанной пизды. Сейчас от них потиху избавляюсь и делаю новые. Вот вчера с машины запилил видос.
Хочешь я запилю на днях какое-нибудь хентайное ОВА на 20 минут, и ты поймешь, что вручную тебе это делать минимум пару лет? Лол, вот уже не думал, что буду сратmся в /h. а теперь галимые отмазки с моей стороны. Кароче, у проги цель другая- обрабатывать множество изображений, и она еще в стадии глубокой беты, те фото с 70 кадров для обучения, вручную я могу въебать тоже дай боже, но вот видео кодировать- увольте. Вот твоя карта высот,(глубин)- сравни с машинной, конечно она не такая резкая. Даже узнаю в обученной программе свою черту- я бы не запиливал крылья все белым, ближним фоном, я бы скорее их сдела как и прога- серединой картинки, а вот перо снизу- белым, собсна как она и сделала. Даже в ручной обработке есть малые дефекты, а вот прога четче обрабатывала границы. Еще у аниме есть такое свойство, как равномерная заливка кожи без теневых переходов, так что важны становятся только контуры, а не внутренняя поверхность, т.е. мы все равно не увидим разницы в аниме а не в арте. И еще маленькая деталь- сеть училась на тогда, да и сейчас, в основном, на девушках без крыльев, так что логично, что она их не опознала, а сдалала фоном.
Продолжаю работать, вот недавно освоил вырезание карты из других артов, запили еще кучу картинок, вот результат на 6 часов обучения на 130 картинках, часть из которых не была вручную допилена, и значительно отличалась от первой ручной моей работы, так что тоже сильно не пинай.
Вобщем все решается тупо 1. созданием большой базы примеров, 2. прога сможет создавать карты глубин со скоростью 1 в секунду 3. ... Профит
Вдогонку, я на рутрахере нашел целых 3 аниме в таком формате, и там карта высот тоже не такая уж и резкая. Ну, типа даже если прога используется для артов, она может делать набросок карты высот и делать это быстро, и потом дорабатывать где надо берном. А не как я сейчас- по 5 минут на 1 штуку. (Да, кстате, что за инструменты юзаешь для создания стерео, мало ли я чего не знаю? Я юзаю DMAG 4, поздние версии без графического интерфейса, прога, которая делает расчет карты высот по цветам, если ей дать набросок карты высот, очень и очень хорошая прога, упрощает жизнь. Если занимаешься стерео, то попробуй, а может сюда покидаешь картинки с картой высот, поможешь мну немного, а то заебался не спать по ночам.)
Надо чтоб твоя сеть только карту рисовала, а потом скриптом на любом языке делаешь блюр и сдвигаешь как надо, потом компануешь кадр к кадру, но это хуй его на чём программировать и как.
>>131854 https://drive.google.com/file/d/1BVx8TvAb3gvwvxYfUBAgeqgH7S-6sqjB/view?usp=sharing Вот, я соврал, тока 118 наделал. Из них первая часть, где черный фон на всем- сделана в фотошопе +ДМАГ. Дела как для себя, из них и так норм получается делать стереограмы. Там, где фон не сплошной черный- вчера выдранные из картинок, найденных на бору и еще одном японском сайте по запросы в гугле. Не все, но там они довольно сомнительного качества, типа перепады по высоте, карты сложно выдираются, поэтому лучше делать самому (про это все щас напишу). >>131852 Так, я вообще не программист ни разу, мне каким-то чудом удалось найти и запустить (раза с 20-го, я долго и упорно компилировал из старых версий библиотек нужные) библиотеку pix2pix 1024, модификацию стандартной pix2pix , которая работает только с 256. Я хочу, чтобы в конце она стала такое вот генерировать качество, или примерно такое хотя бы, такого она не выдаст наверняка. Работает она медленнее, чем пих2пих в 16 раз соответсвенно, 1 тик=1 картинка=1 секунда. Обучаться ей надо очень долго, насколько я знаю из своего опыта работы с прогами типа фейссвап, там можно было днями компилить лица в разрешении 128 на 128. Лица одного человека карл. Но тут вроде пих2пих идеально подходит для генерации из чего-то разнородного однородной карты, типа гугл карты из фото со спутника, или котиков из всего, или тех же фасадов из их стандартного примера. Вопрос только в качестве. И те пробы на 4 и 6 часов на 70 и 120 картинок- это просто капля в море, и я знаю, что пока не сделаю картинок 600 и не на треню свой счетчик электрический на пару сотен киловатто-часов, можно даже не думать о качестве. А потом я еще буду из старых картинок, где нет фона делать картинки с фоном, чтобы алгоритм лучше выделял фон от девок, но до этого еще не скоро дойдет, хоть процесс и не сложный, но я его отложу на конец Ну и раз уж я выкладываю карты, я делаю стерекартинки в проге под названием 3D combine. У нее триал 15 дней, лечится созданием нового юзера в винде, старые прописки в реестре хер найдешь. Там есть много режимов работы, вот я использую 2d to 3d Generic, как самый не херящий качество картинки. Также эта прога может работать с видео, очень и очень через жопу, своим алгоритмом прощитывая ключевые кадры, и потом якобы ты должен их брать и делать только ключевые кадры, а она сама подхватит. На деле это не работает, и вот тут должна прийти нейросеть, которая сгенерирует все кадры, а прога будет подхватывать их как ключевые. Я даже компилил уже там, вот эта девка с плоскими сиськами оттуда. Артефакты может появились от того, что перегонял видео в онлайн конвертере в вебм. Компили кроме этого один хентай, там было может более норм, но я его удолил. Так, что еще есть- для вырезки из стереопары Triaxes StereoTracer. Кряка нету тоже. Демка выводит карту глубин с неубираемой ватермаркой, но это обходится деланьем скриншота, а не экспорта. Ограничение- высота твоего монитора. При желании можно из двух скриншотов вырезать карты из картинок даже более 2000 пикселей в высоту, но это не нужно, имхо. И еще о прогах- есть некая грузинская студия, которая за 300 бачей продает прогу для всех целей, крякнутой ее нету. Но она в итоге по функционалу будет всем тем же самым-автоматически продолжать анимацию по ключевым кадрам, вырезает карты высот... чем я тут занимаюсь с помощью вышеназванных и "моей" нейросети. И еще- я перелопатил много чего в гугле и яндексе, даже в дак дак го, чтобы найти нужные программы, и почти везде был шлак типа для вин 95 программы на заре компьютерных технологий, лол. Создание зашифрованных стереограмм. Еще был всплеск интереса к нейросетям после выхода Аватара Кемерона. Рассматривал какую-то библиотеку на питоне, которая должна была сразу делать стереопару из картинки, обучаясь на множестве существующих стереофьмов. Якобы это возможно, но ни одного ролика от разраба не нашел, и установить все зависимости от бибилиотеки уже невозможно- репозитории закрыты. Автор тоже умер как 2 года. Да и я сомневаюсь, что такое возможно- сети придется понять все сложности физического мира, изображаемого во всех фильмах. Может по некоторым кадрам из одного фильма она смогла бы доделывать остальные кадры, вот только зачем, если они и так существоввали в виде стереопары? А в любом другом кино с другими героями, предметами и окружением она будет выдавать дичь. и обучать ее всем фильмам займет бесконечное время. Также я шерстил библиотеки научных проектов в институтах, где учат ИИ опознавать дорожное движение. Даже 3д мультики и прочие типа натюрмортов, но там не такие стереопары и карты, на которых сможет научится моя сеть опознавать аниме, лол. Вобщем их выборки не для нас. Но. Все равно, я считаю, что задача выполнима, и аниме более менее однородно, учитывая различия в цвете волос, фигур и прочих конечностей, уже текущий прогресс и его направление меня удовлетворяет.
>>131855 Не скажи, в ГИМП + ДМАГ я делаю 1 простую картинку за 3 минуты + вычисления 3 минуты. Не устаешь, и это важно для меня, не програмиста. Беру числом.
В настройках можно ставить детерминант 30-60 а не 90, и итераций 1000-3000, тогда карта будет не такой четкой, но она и не должна быть четкой для аниме. Вот еще что, про нейросеть- я заметил, что она стала халявить, еще с первого раза. Иногда я встречал картинки, у которых карта глубины прорисована только по краю. Это все равно создает иллюзию объема, ведь если смещен один сплошной цвет, ты не заметишь перехода высоты. Так вот, мне кажется, что сеть стала делать также. Но откуда она знает, что я увижу (что я хочу увидеть, и мне все равно, сплошное покрытие там в карте или только край обведен) после конвертации карты глубины и картинки в стереопару?! Это немного паранойя, чувствую себя психом, но я её такому не учил, чэсна.
Таки да, я понял о чем писал вот этот анон >>131683 , когда сравнил картинки правую и левую через прозрачность. Что-то прога 3d combine меня подводит, не делает вообще ничего. Буду что-то думать.
>>131928 Только что нашел в гимпе. Все верно говорил тот анон сверху, я жутко лоханулся и выкладывал не стерео под видом стерео. Ну, буду искать дальше прогу, которая бы делала сразу много кадров-стереокартинок по существующей паре картинка +карта.
Так, я немного запутался, мне нужен взгляд со стороны. Вот две картинки. Одна сделана в 3дкомбайн на режиме параллельное зрение. Вторая для скрещенных глаз. Я нормально умею смотреть только параллельно, и вообще хочу делать параллельные стереограммы для очков ВР. И почему-то мне кажется, что программа нагло поменяла местами два вида стереограмм, и та картинка, что для скошенных глаз мне кажется реальной, а в той, что для параллельного взгляда- как будто фон выступает наружу, когда я ее смотрю. Файлы названы наоборот. 3дкомбайн обрабатывает одну картинку с помощью карты высот, только я все не могу взять в толк, в какую сторону должна выступать картинка для 3д эффекта (в параллельном просмотре- левая картинка влево и правая вправо или наоборот? Логика мне подсказывает, что так левая- влево, правая вправо, а не наоборот.
Так, я разобрался. Если мы закрываем левый глаз, то предмет, который находится перед нами мы видим правым глазом. Он смещается влево, относительно взгляда левого глаза. Вывод- программа путает право и лево, для стереоочков и параллельного просмотра нужно использовать режим перекрестное зрение, даже если это вроде бы и не так, просто попутали студенты, видимо.
>>132015 Шас на ночь поставлю модель с 150 картинками тренится. Потом переведу несколько картинок в 3д ПРАВИЛЬНО, а не по уебански. Если будет норм, попробую видео конвертить (там очень много возни с перекодировкой в картинки и обратно). Если не будет норм- продолжу клепать картинки. В любом случае продолжу их делать. Вверху >>131978 это сделанная в 3д комбайне правильно. Сам спешу уже, вон в /b япошки запилили сайт с раскраской манги. Но там другая история- у них куча моделей, которые учились из цветной картинки делать черно-белую, а потом уже им меняют направление конверсии с ЧБ на цветное. Но сделать из цветных много чернобелых - относительно просто, а вот кучу карт глубины- сложна. Может стоит посмотреть в сторону 3д плагинов для создания из моделей карты высот, и потом загрузить туда нормально выглядящих 3д аниме девок, чтобы сделать много примеров. Но потом надо будет делать много поз и ракурсов, в имеющихся хентай играх функции карты глубины нету...
>КОСОГЛАЗИЯ ТРЕД >Шутят про косых >Читаешь гайд как правильно косить глаза >Закрываешь левый глаз >Изображение должно сместиться >Не смещается >Смотришь на палец >Ничего не двоится >Вспоминаешь что у тебя косоглазие
Вот нейросеть на 7 часов от 300 картинок. Внезапно нашел способ вырезать карту высот из стерео аниме. Из таковых осталось повыковыривать кадры только из Gits. Посаны, зацените стереограммы, вроде неплохо же.
ну так себе вобщем видос получился, надо выкачивать и открывать плеером. Я очень заебался конвертить видео. Это режим почти без стерео, если включить больше, начинается разброд и шатание. 1 кадр генерится 1,5 секунды, это овердохуя. Я пытался вечером всю ебаную ночь ебался этими сраными конфвертерами, в вин10 vdub не умеет даже с ебаными неработающими внешними кодеками кодировать кадры сразу сконвертить Курониро, но он дает очень много артефактов и путает глубину, потому что похожих ракурсов в обучении еще мало. Остается только работать дальше.
Сука да как вы это делаете? Свожу изображение и получается три. Среднее даже как-то не похоже на трехмерное. Поставил ладонь посередине. Свожу изображение и сука мыльно, а когда я пытаюсь размылить теряю все что я сводил. Короче хуета какая-то, глазам неприятно только.
>>132391 есть два типа стереограмм- 1) если смотришь скосив глаза к носу, тогда это перекрестная стереограмма. Их вроде как большая часть в инете, потому что их, вроде проще смотреть. 2) А есть параллельная, когда ты наоборот, разводишь глаза, как будто смотришь на дальний объект. Мне проще смотреть так. В основном я тут делаю для параллельного зрения, т.к. эти картинки можно также смотреть в стереоскопе ака шлем VR с телефоном. Если смотреть стереограммы наоборот, то у них будет меняться местами глубина и высота. Могу посоветовать также поменять местами правый и левый глаз правое и левое фото- это и отличает первый тип от второго. Если лень резать картинки- можешь даже просто перевернуть ее вверх ногами.
Это картинки с отобранной базы на 300 (поудалял все примеры, где задники были размыты или авторы пытались их сделать стерео- все таки делаем тела, а не бекграунд.) 150 эпох, также наложены фильтры постобработки карты- не бамп, а уточнение, наращивание белого и потом резкость. Вроде норм, но, как я писал уже, все еще остаются моменты, которые не обучены и там хуита. Со вчера ничего не добавлял в тренировочную выборку, потому что устал ебаться с кодеками. И удаление лишних картинок, в которых был проработан под 3д задник, пошло на пользу по сравнениею с прошлой выборкой, это точно. Все равно задника там почти не чувствовалось.
Ну что, все дрочите ждете конетента Она вобщем начала работать. еще не все позы персонажей знает. Но с пост-обработкой в проге можно полностью убрать артефакты. Кадры лепятся, мутки мутятся. Вот ловите.
Почистил базу до 200 картинок, но чтобы хорошее качество только. Вообще покурил мануалы- нужно, чтобы ошибок было поменьше, тогда модель будет верной. Нужно будет поудалять черные точки, и вообще те стерео из первых, которые не очень, по моим теперешним критериям. Вот, картинки, которых модель не видела. Да, среди выборки из 75 штук половина словила не те ракурсы, и еще не научилась определять хуи в пространстве. Просто нужно больше примеров. Также на пользу, вроде бы, пошло создание перевернутых и отзеркаленых картинок.
Так, я немного заебался пилить по 10 картинок в день. Пробую сейчас обучать на множестве примеров из зд-дрочилен типа инсульт ордер с шейдером на карту глубин. К сожалению, не могу все это автоматизировать нормально, поэтому делается примерно 1000 кадров в день, но это все хуйня, как оказалось. Что-то оно не очень дружит потом с 2д аниме. Хотя некоторые картинки делает норм. Но все равно дохуя плоско, без рельефа. Это, скорее всего, потому что, в 3д рендере расстояния действительно малые, и контраста между лицом и грудью нету, например. Пытаюсь это лечить дополнительными рендерами на затемнение дальних объектов, и может так получится. Но каждое новое фото надо вручную изменять значение затеменного расстояния, это очень геморно. Вот. Было, надо, выдает результат. Сейчас 2д вкину.
Это видео получено путем тренировки буквально за 5 минут на 1 пикче. Т.е. более-менее статичные сцены можно тренировать на паре ключевых кадров, и потом уже комбинировать видео из этих маленьких отдельных сцен. Как-то так. Времени нету последние два дня даже делать что-то. Только вот про эту идею меня торкнуло, и вроде бы все очень неплохо.
Ну шо, пидары. Не ждали. Я уже 400 картинок отрисовал. Первую сотню переделал полностью- не понравилось качество того, что получалось сначала. Первая картинка это то, к чему все идет. Ручная работа. Вторая и третья- образец и результат работы проги. Конечно, сейчас в модели использую еще скриншоты из 3д-рендеринга из всяких игр дрочилен. Результатом доволен, на 50 процентов выходных картинок вполне можно фапать можно накладывать блюр и делать неплохие стереограммы. Вообще принцип работы получается как у remove.bg, только там определяются люди просто по контру, а тут сиськи-письки и прочие непотребства. В планах закончить модель процентов на 90 к концу лета. Ибо совершенство 100 процентов недостижимо.
Вот вам еще результат работы над картинкой, которую нейросеть не видела. С белым фоном все просто, но довольно неплохо получается уже и там, где есть тразарь в кадре или бекграунд. Да, картинки отборные, все еще бывают глюки типа руки трахаря сливаются с фоном.
>>137896 ну да, я тоже использую для получения карты глубин com3d. Сначала я старался не брать трехмерные игры, т.к. там карты глубин слишком точные относительно тех, которые делают люди для своих потребностей- грубо говоря выделяют выпуклость груди очень сильно. но, затем, подумав немного, понял, что важнее обучить модель выделять контуры и хотя бы приблизительно глубины. В наборе рендеров reshade можно довольно качественно выделять карту глубин с помощью шейдера clarity, и получается эффект с хорошим "почти ручным" выделением контуров тела с помощью ползунков. Но, относительно числа картинок для тренировки я не буду брать компьютерные рендеры больше чем 50 на 50. И там еще есть геморой с тем, что скриншоты делаются в рендере и в игре с разницей по времени, так что надо снимать только статичные сцены. В некоторых игрушках такого недостатка нет, но там например, не рисуется мпх в рендере. Нюансы, нюансы...
>>137915 У меня в com3d2 решейд не может буфер глубины выстроить, использую TriDef 3D. Хотелось бы в решейде еще амбиент оклюжен подрубить, но для него нужен этот буфер глубины. Если планируешь потом анимацию конвертить, не думал что будет полезно еще и предыдущий кадр сетке скармливать? Шума должно быть меньше и ей будет проще персонажа от фона отличить. Я не шарю в этом, просто кукаретические мысли.
>>137935 Я не я, прога не моя. Она может артефачить (сильные искажения по краям как буд-то иглы), если ей скармливать файлы до этого обработанные через dmag. Не знаю, в ней ли ты делал эту карту глубин, но спасибо, разберу на картинки и скормлю сетке. Если сохранить файл в пеинте, то она (3д комбайн) нормально обрабатывает, видимо особенность старой проги дмагв 3д комбайне тоже есть особенность- при выборе пункта постобработки Match depthmap quick или сложный, оно всегда сдвигает карту чуть влево, поэтому нужно по-хорошему делать 4 обработки и поворачивать картинку 4 раза на 90 градусов Я тоже сначала попытался монтировать анимацию по карте глубин, наделал много кадров, у меня получилось гораздо хуже, чему тебя, но я еще в фотошопе смещение делал по альфа каналу, так что это вообще пушка была, всмысле ужасное качество. И все это натолкнуло на деланье нейросетки, сам понимаешь- ужасно много времени жрет. >>137927 Пробовал в решейд искать нужные каналы в последней вкладке? Там можно найти каналы отдельные для интерьера, интерьера и персонажей, только для девушек и т.д. Возможно, что ты просто не находил нужные. По поводу сетки и последнего кадра- не совсем понятно. Я не прогер, сам в сетку новые данные не введу, но! Если бы я, например, вырезал только 1 кадр из анимации, что запостил анон сверху и скормил бы его сетке вместе с кадром карты глубин, то сетка бы уже на основе этих двух кадров смогла бы дорисовать карту глубин для еще многих похожих на этот кадр картинок, т.е. доделала бы всю анимацию. Я уже пробовал так для одной гифки. Вобщем можно скармливать ключевые кадры, чтобы получать неплохой результат, и он, вопреки моим ожиданиям, даже не скачет между кадрами, т.е. его можно было бы преобразовать в стерео анимацию как на первой картике. Даже сейчас попробую это сделать для иллюстрации. Ну, вобщем не вижу необходимости добавлять прошлый кадр, если правильно понял о чем ты, оно само и так делает анимацию непрерывной, если сильно не меняется освещение и цвета сцены. А если меняется, то я еще множу свои примеры путем смещения разных цветовых каналов и изменения яркости исходной картинки. И поворачиваю примеры на 90, 180 и 270 градусов. И из одного примера получается много, для этого даже ввели термин и я читал статью на гитхабе, но все забыл.
>>137949 Делал вручную без dmagа. От артефактов по краям можно избавиться в фотошопе, накинув на глубину фильтр максимум в пару пикселей, но все равно комбайн мылит картинку.
>>137951 Кароче, я попробовал твою карту глубины на твою картинку залить в комбайне. Я и сам эту картинку раньше сделал просто, и она никакими манипуляциями не хотела делать постобработку твоей карты правильно, даже после сохранения в пеинте. Впрочем как и моей, почему-то. Я просто не проверяю все картинки, которые делаю- клепаю в стол, так сказать, на работе модели это не отображается. Видимо, это какая-то глючная исходная картинка, хотя, на самом деле глючен комбайн, конечно, он просто ее не пережевывает. Но вообще он делает нормально, это первый такой пример, где он совсем ничего не смог сделать -тупо выдвал и на твоей и на моей карте глубин артефакты по краям. Для сравнения вот: под номером 4 картинка до постобработки, под номером 1 глючная- без пересохранения в пеинте после постобработки- везде угловатости. вторая- после пересохранения в пеинте. Да, блюра дает, но вообще оно исправляет некоторые огрехи, которые дает сейчас и будет давать моя модель. Третья карта- просто из дамага.
>>137951 Да, и еще в догонку, если у тебя вдруг будут еще карты, буду безмерно благодарен, если зальеш куда-нибудь. Если интересует- могу по бартеру меняться 1 к 1 тут прямо. Надеюсь качество последней нормальное, в начале треда я вообще такую дичь делал, как говорил уже пришлось первую сотню переделывать, хотя можно ее было просто выкинуть. Сам, чтобы не делать дублей, смотрю данбору популярное и сохраняю 1-2 картинки в день. И примерно столько же делаю, но чет в последнее время работы много, максимум 1 в день, картинки копятся как снежный ком.
>>137964 Не, если бы такое выдавала сетка, я бы уже пил ром на пляже где-нибудь в Лос-Анжелесе. Это из dmag. Первая отдельная картинка занимет около получаса, а те, что делаются на ее основе- например с элементами одежды, с какими-либо незначительными изменениями- чуть меньше. Вот болванки для dmag для примера. Конечно, их я делаю в гимпе со слоями. Есть куча не очевидных, по крайней мере, для меня, приемов для упрощения жизни, например скейлить картинку по размеру вниз процентов на 20 и потом использовать threshold alpha чтобы получать хорошие грани для черного фона. В одной картинке использовал сайт с нейросетью remove.bg, чтобы не обводить вручную, теперь буду юзать часто. Почти везде юзаю waifu2x чтобы догнать картинку до 1024 пикселей с одной стороны. Мне кажется, так быстрее, чем вручную- я хочу что-то среднее между супер качеством и количеством/сложностью. Вручную просто не представляю, сколько времени это может занимать. В свободный день можно и 10 штук абсолютно разных запилить картинок, но это как рабочая смена чувствуется, и перерывы на отдых нужны. А качество с нейросетки все еще не очень. Но с каждой сотней картинок, я вижу что оно улучшается, что меня и толкает вперед делать еще и еще карты. Я вчера обещал показать, что нейросетка может на 1 картинке доделать анимацию, так вот, извините, вчера я устал и подзапорол сопоставление оригинала и приделал туда не ту картинку с картой глубин, и все пошло по пизде. Потом переделал обучение до 1 картинки- т.е. вот на основе 1 ихображения что получилось, сейчас вброшу.
При работе с более-менее статичной картинкой нейросетке проще- не надо делать кучу выборки, и если бы я не ленился вчера и не пошел бы спать, то выложил бы качеством получше. Я уже делал такое с гифками и кадрами из курониро, и там были намного более ровные переходы между кадрами анимации. Конечно, там были артефакты в кадрах, которые я не давал сетке в качестве примеров, но они были в виде глобальных глюков распознавания, а не в виде такого шума. Просто вчера не хотел сидеть и ждать час, пока сетка нормально научится и на ночь ставить не хотел- переобучилась бы, так что вот это- ссамый промежуточный грязный пример. На нем видно, почему я бы хотел потом использовать комбайн- он бы сглаживал шум. если его заствавить делать где-то раза 4 постобработку с вращением, то выглядит ок
Вот пара "хороших" примеров из сетки. Они получились хорошо потому что 1) у меня уже есть много примеров голых телес и 2) я делал несколько картинок художника со второй картинки.
Вот плохо получившиеся примеры- на них видно что с одеждой сетка еще не дружит. Мало у меня еще примеров. И вообще их всегда будет мало, количество вариантов одежды у художников огромно относительно простой анатомии женского тела, лол На втором примере сетка выделят тень, кусок прически не распознает. Это не так уж и бросается в глаза, особенно после превращения в стерео, но этого быть не должно, по хорошему.
Вобщем пока что соотношение нормально получающихся примеров и плохих- 50 на 50. Те, где много похожих- первая серия курониро, например- хорошо распознается. Еще раз повторю, что все запощенные картинки нейросеть не видела до этого, и сделала сама для них карты по секунде на картинку. Потом я постепенно добавляю уже вручную доделанные картинки к базе, на которой учится сеть.
Ну и то, что комбайн блурит картинки- так лучше, чем с артефактами, которые возникают в ней без обработки. Вот с обработкой и магнитудой 10 и 20. По моему выглядит чуть объемистей.
И еще в догонку- у тебя, наверное, картинка сделана для параллельного просмотра (шлем). Мои для скрещивания глаз. Вот почему я подумал, что твоя менее объемистая. Еще раз спасибо за примеры.
>>137983 Сразу тебе скажу, я использую одну из тех старых версий дамаг что с графическим интерфейсом, мне не удобно менять параметры в файле. У меня там только два параметра- обратный допуск по умолчанию 90 и количество итераций. Допуск для порномультиков сразу можно ставить от 25-30 до 45, иначе придется выделять и прорисовывать каждую мелкую детальку. Дифференциация идет по цветам. После исправления очевидных ляпов, которых не замечаешь сразу, можно повышать до 45 допуск и итерации в конце ставлю под 20.000 чтобы оно даже останавливалось и "решало" картинку полностью. Ну и работает моя версия нормально до 1200 на 1500, потом пишет нехватка памяти. Но оно делает за меня работу, пока я туплю в двочи. Для анимации оно похуже будет- будет чувствоваться разница между кадрами, сложно менять местами маску, лучше для одиночных или похожих картинок.
>>131852 >>131694 слушайте ребят а можно снять маску глубины с 2х фоток с небольшым отклонением ? гуглкамера же както это делает для эфекта "фейкобоке". я так и ненашел готовых решений.
видел тока программки для фотограмметрии чтобы перевести обект в 3д. а для задач снятия маски глубины 1го ракурса чето неувидел программок.
Этож сводит на нет необходимость покупки пленоптической камеры. и эфекты дымки и глубины резкости можно отсебя бацать. Да и распологать 3д модельки в сцену ротоскоп без сэкса с напавляюшими перспективы.
>>138004 >слушайте ребят а можно снять маску глубины с 2х фоток Это очень стрёмная тема, сейчас я попробую тебе ее вскрыть. Насколько мне известно, гулокамера создает довольно размытые карты глубины за счет нейросети, которая научилась распознавать и отличать размытый дальний ракурс от предмета в фокусе (вроде только человека-лица, но я не уверен, не пробовал эту прогу). И эффект "фейкобоке"- это вроде бы и есть фотограмметрия, но не в 3д а со смещением... Ну вобщем 2,5д, как примерно то, что мы тут делаем с картами глубины и стереоитзображениями на их основе. Прога есть одна, а также куча энтузиастов на гитхабе, которые уже давно пытаются сделать это безуспешно, ну по крайней мере их результат на уровне той же проги. Прога для примерного извлечения карты глубины из стереопары называется StereoTracer. Она делает свое дело довольно грязно- как будто качество очень сильно зависит от того, как качественно сделана стереопара (и боюсь, что просто двух ракурсов будет недостаточно, там понадобится для твоих целей и нормального качества штатив с двумя фиксированными камерами). Там есть два ползунка, чтобы совместить передний и задний план и потом она строит карту. Крякнутой версии нигде нету и на извлеченную карту наносится ватермарка, но это ограничение очень просто обходится, если делать скриншот экрана предпросмотра вместо эскпорта. Вообще можешь гуглить depth map from stereo pair, и будет довольно много результатов еще с сайтов 90 годов. Куча прог под вин95, и я как бы искал для своих аналогичных нужд прогу, и вроде бы ничего кроме стерео трейсера среди их нету.
>>138019 Спасибо за ответ но. >Насколько мне известно, гулокамера создает довольно размытые карты глубины за счет нейросети, которая научилась распознавать и отличать размытый дальний ракурс от предмета в фокусе
тут видиш анон какое дело. я кратко описал суть. нейросети это ты глубже копаеш они если и есть сейчас то касячки убирают прост скорей всего. ведь фейкобоке появилось в nexus 5 еще до всех этих Нейросетей ИИ и тд. с помощю отлонения 1й камеры. https://youtu.be/ZiP3yNOBz6c . так что мне покачто тока Z Depth нужна)
стерипары меня пока что неинтересуют но они сложней просто потому что там недостаточно иметь тока маску глубины тк нужно еще дорисовывать то что находится под смешаемым объектом. но тут либо общее увелечение масштаба либо как раз нейросети помогут.
Чот заебался уже изучать тред, столько воды. Запилите плиз гайд как вот >>138031 такое создавать? Т.е. псевдо3д-шное 2Д без всяких этих ваших косоглазий, чисто гифы с параллаксом?
Бoжe кaкoй жe ты уёбoк. Teбe caмoму жить нe мepзкo? Пoчeму ты eщe нe выпилилcя, гoвнo? Bceм кpoмe мeня пoхуй нa твoe ceмeнcтвo, циpк и aнaльную клoунaду, a я лишь лoвлю фeйcпaлмы c твoeй тупocти.
>>138124 Спокойней, анон, не стоит из-за такой ерунды так волноваться. Я вот рад, что наткнулся на этот тред. Правда, так как ответа не дождался, уже сам все нагуглил. Буду ебашить параллакс в After Effects, но все же было бы интересно почитать гайд, если анону не трудно.
>>138146 это какой-то бот залетный мы бы тебе выкатили бы гайд, ноя не в теме. У каждого свой путь, пусть для тебя твой будет удобным, уникальным и эдаким приключением. Часто, когда делаешь что-то по инструкции, упускаешь более удобные для себя пути
>>138055 wigglemaker.ugocapeto.com Гифку делал на этом сайте, нужны сама пикча и карта глубины. В After Effects пробовал displacement map(карта смещения), нет эффекта объёма, тупо смещает как текстуру по объёмной модельке.
>>138151 Спасибо, анон. Я гайд спрашивал потому что времени свободного не особо много. Но пока ждал ответ уже сам освоил, лол. А карту смещения сам рисуешь или какой-то софт использовал?
>>138357 выложил бы, я бы уже посмотрел, может бы закинул кадры в модель. Не знаю, тот ли ты анон, что закинул гифку>>137935, вот из нее я взял все кадры. Из последующих не брал, там были артефакты по краям, от которых я сейчас избавляюсь в своих старых картинках. В общем выкладывай, может мне поможет. Но, вроде по некоторым кадрам, вижу что пальцы не прорисованы отдельно. Вроде как. В любом случае на видео это не так заметно, но вот модельку я бы такому не учил. И еще, само стерео сделано очень хорошо, тока его сложно смотреть в таком широком формате- поэтому я сам не делаю почти на широких картинках, больше на высоких. Может тебе стоит попробовать делать анаглиф. Или, не знаю, поможет ли, вертикальные стереопары. Сам я таких не смотрел, вроде там нужны особые очки.
>>138643 объясни подробнее, пожалуйста. Я не очень умный. Может ты о том, что, на двух картинках некоторые пиксели не совпадают, или ты к качеству изображения вообще. Я пока что делаю как могу, блюрю тока карту глубины. Может если делать эту вот вашу интерполяцию будет и лучше, тогда возьму на вооружение для будущих работ.
>>138643 >ланцош так, я тут вроде подразобрался. Некоторые изображения я увеличивал с помощью вайфу2х, а потом уменьшал до 1024 по одной оси, но в гимпе по дефолту стоит кубическая. Ее и юзал для правого изображения. Для левого хз что там 3дкомбайн использует, там просто фильтрует.
>>138646 >>138644 Там где ты уменьшаеш изображения или редактируеш путем масштабирования/растягивания. Будь хоть гимп хоть фш. поисчи там настройка должна быть сглаживания таких весчей. просто в глаза бросаются эти лесенки.
>>131979 Обе правильные. Первая для сведённых глаз, вторая для разведённых (названия перепутаны, да). >Те что для косоглазия это и есть для VR очков Нет, лол. В виаре для каждого глаза своё изображение. Контент для косоглазия просматривается как на гифке тут >>80179 >>138696 Хз. У меня наоборот были сильные проблемы с фокусировкой при скрещивании взгляда, когда первый раз пытался так посмотреть разводить глаза научился до этого и трудностей с фокусировкой при этом не было. Но через полчасика попыток таки научился и сейчас легко фокусируюсь. Так что могу посоветовать только практику.
Не заходил в тред больше полугода, а тут столько годноты. Господи, спасибо вам, аноны, вы такие молодцы.
>>138696 У меня это с детства получалось, не знаю, но попробуй картину немного отвести от себя, поморгать. Вообще, мне этот метод больше нравится, потому что изображение не уменьшается, и мышцы глаз не устают (но у меня глаза немного разной высоты, при этом оба раздвигются не в стороны друг от друга, а как бы перпендикулярно относительно носа, и фокусировка иногда спонтанно теряется)
Так, долбоеб с нейронной сетью репортинг ин. Задача оказалась очень сложной. Первоначальный оптимизм можно поубавить. Попробую расписать по пунктам, может кому-то и пригодится эта инфа в будущем. (хотя все статьи, что я читал, пишутся для самих авторов, чтобы обобщить своих знания). Первоначально я заставял тренироваться-работать сеть имплементацию https://medium.com/@karol_majek/high-resolution-face2face-with-pix2pix-1024x1024-37b90c1ca7e8 на разрешении 1024 на 1024 и оригинальным ngf 64 пару дней (количество нейронов на первом слое- увеличение в 2 раза до 128 увеличит итоговое количество параметров сети в 4 раза, т.е. геометрическая прогрессия, т.е. требуется уже в 4 раза больше видеопамяти- (гигов 20 наверное) и процесс идет медленнее. Результаты вы могли видеть в треде, были и хорошие были и ужасные, но тренд был в общем положительный с каждой новой сотней примеров, которые я обрабатывал вручную и засовывал в датасет. Аугментация данных была у меня разной- и переключение цветовых схем, и повороты картинок. Не так давно я перешел на pytorch имплементацию кода, потому что там можно смотреть в браузере и менять параметры. Сразу скажу, что tensorflow-версии я еще не трогал. В связи с нехваткой времени на допиливание новых стереограмм я также стал использовать пары из хентайных игр. После некоторого количества экспериментов, я пришел к выводу, что нейросеть на разрешении 256 на 256 и ngf 8 ndf 32 может опознать 1 предмет (в данном случае пару женских грудей), которому ее обучали на новых картинках и более-менее опозновать и конвертировать ее правильно. Дискриминатор должен быть больше в 4 раза, иначе все обучение сводится к конверсии цвета тела в белый поднятого уровня глубины стереограмы. В итоге мне что-то подсказывает, что учет всех параметров, которые могут возникнуть на картинке- варианты одежды, ее цвет, позы, дополнительные предметы- это просто огромный массивы данных, и сеть нужно будет запускать на пару недель на ngf 256 ndf 256 даже для скромного разрешения 256 на 256. И это мои самые скромные оптимистичные профанские прогнозы. И еще нужно будет использовать датасет гигов на 200. Это просто ебать, если честно. У меня нет знаний, чтобы прикрутить аугументатор к процессу, чтобы не хранить весь датасет, к сожалению. Возможно, стоит заняться изучением этого вопроса. (Я читал оень много статей по переводу в стерео изображений с помощью нейросети. Все пишут, что это очень перспективно, но если смотреть их результаты- они переводят на основе обучения на паре сотен картинок однотипных бытовых предметов типа стул стол диван стены такие же выборки из тех же стульев в другом положении. Конечно, глупо было бы ожидать от нейросети распознавания чего-то, чего она не видела никогда. Но вот охватить какой-то широкий объем предметов ни одной исследовательской группе тоже еще не получалось. Пишут, что будут проводить эксперименты на улице и на этом их исследования обрываются где-то в 2018 году. И это не одиночный случай, к сожалению. Относительным успехом можно назвать то, что мои сети могут делать то же самое, что и сайт remove.bg, только не обрезать задники, а в картинках, у которых нету задника, а просто заливка однотонная,- могут обрисовывать контур тела и намечать там жопу сиськи и тд и тп в карте глубины. Многие бы сказали, что этого достаточно, но я попробую еще чего-нибудь придумать, перед тем как возьмусь за развитие этого направления в чистом виде. По сути засунуть в одну нейросети обрезание контуров и карту глубины анатомии аниме-девок- это задача в 4 раз сложнее, и я не знаю, какие параметры надо для этого подобрать в 2 или 4 раза больше.... На данный момент я займусь вот чем- буду пытаться научить нейросеть распознавать одну единственную незнакомую картинку, предлагая для обучения ей много похожих картинок по цвету и позе персонажа. У меня был один успешный пример того, как сеть доделала карту глубины анимации длиной пару секунд с 2 кадров для обучения (она просто подгоняла карту глубины под цвета без понятия о том, что за части тела она обрисовывает). Если это получится, я смогу хотя бы гифки переводить в 3д без напряженной ебли. Хотя, возможно, по времени это будет занимать столько же.
>>139945 Бля, анон, удачи тебе, будем болеть за тебя всем итт. А ты работаешь или учишься где-то сейчас? Какая специальность? Просто интересно, не связан ли этот хентай тред с твоим направлением
>>139946 я так люблю эту телегу гнать про свою жизнь, она у меня интересная что пиздец. Кароче, у меня комп с 6 лет был, что позволило научиться эникейству, но вот с програмиррованием не срослось- родаки гнали ссаной тряпкой от него, и что-то поисдеть с учебником никак не удавалось. Потом родаки погнали в институт на бизнесьмена, о господи. Еще там начал интересоваться базами данных, но поверхностно. Это образование позволило замутить движуху (бизнес- просто открытие бизнеса, ведение без лишней бухгалтерии) для родичей и себя в виде пары сайтов инет-магазинов самостоятельно начиная с html сайтов и заканчивая покупкой битрикса и еблей уже с ним, php и mysql и примерно столько же с SEO, которая позволяет не особо напрягаясь получать стабильный доход. Вот после всего этого мне стало интересно опять чего-то намутить, только чтобы это было еще пассивнее, чем инет-магазины, где я сам себе грузчик-курьер и директор. Малые бизнесы не растут, потому что туда сложно брать людей на 8 часов, а рисковать и вкладывать доход за пару лет в расширение очень узкого места- ну я опоздал уже на распил в начале 2000- и так в городе по расширенному профилю фирм как собак. Вот так вот. Так , остановились на пассивке- почему бы не дать людям то, чего они хотят. Фапать на старое 2д аниме в 3д. Может в итоге это все выльется в какой-то сайтик с рекламным баннером от гугла типа waifu2x. Даже если не взлетит, мне все равно это сейчас интереснее чем все компьютерные игры. Пока я утра ебался с моделью, пересмотрел код первой имплементации, и понял, что она лучше чем pytorch, и вернулся на нее, одновременно научившись пользоваться tensorboard. Оказывается, это было tensorflow, а я и не знал. И качество на ней было лучше, чем последние попытки, да и в инете в сравнительных тестах тоже. Вот такими вот скачками я потихоньку понимаю что-то в программировании без его прямого изучения. Сейчас буду ставить модель на своей огромной выборке на каждую ночь, потиху скармливая ей новые данные с хентайных игр. В общем чтобы что-то делать хорошо для своего удовольствия надо сначала сделать себе хорошие условия. Вроде я так сделал. Жалею, что не вкатился раньше в программирование, наверстываю не спеша в свое удовольствие,да и не совсем в программирование. Просто использую свободное машинное время пока работаю или не сижу за пекой. И сумбурно попиздеть я люблю, да.
>>139951 бля, отличная стори. По поводу хороших условий для дальнейшей жизни согласен абсолютно, с такими же мыслями вкатился в стоматологию, лол, потому что те направления по биологии, которые мне нравятся, для денег не особо годятся. Я пока зелёный ещё, но не жалею ни о чем. А тебе удачи, всегда хотел дрочить на 3д хентай, при этом не нося шлем как долбоеб хотя фапать, скашивая глаза, тоже наверно ебануто выглядит
>>139953 а ты не фапай при людях, тогда неважно как выглядит. Да и я потиху перевожу кадры не только из хентайных игрушек. Вот недавно открыл для себя Ni no kuni. Вот это графон знатный и карта глубин достается без танцев с бубнами. https://www.youtube.com/watch?v=u9uwRW8GoBg
интересно, теперь то видео загрузится нормально, все под рукой нету норм кодера. Вот пример обучения на 1 картинке, конкретно на 4ом кадре из этого 150-кадровго лупа. Получается нормально, сделай я больше кадров, было бы вообще заебись. Ни о каком обучении с обучением форм тела тут речь не идет, просто 800 поколений раз нейросеть пыталась превратить одну картинку в другую, и сделал это в конце-концов на основе информации о цвете пикселя и его примерном расположении на площади картинки.Извините за разрешение- обучал на 256, и в программе кодера только 286 или что-то там поддерживалось. Завтра попробую 512 что-нибудь сделать.
Вдогонку. Вторая часть видео - неборбаботанный выход нейросети. Первая часть- перевернул, чтобы изображение было для скрещивания глаз а также постобработка в этой шайтан-программе 3д комбайн- два раза использую быстрое сопоставление карты и изображения. Если использовать на таком малом разрешении размытие, получается совсем швах, но завтра, как я уже говорил, попробую сделать лучше качество видео на 512 или 1024 за счет постобработки карты с разными размытиями, наращивание и прочим арсеналом из проги. Должно быть лучше, а результат размытия будет не так уж и заметен.
Вот, те же 8000 итераций того же кадра и 1 постобработка на разрешении 512 на 512. >>140396 Следить особо не за чем, буду просто баловаться сейчас, выкладывать сюда результаты. Вроде как сбылась мечта идиота, хоть и не без ручной обработки каждой сцены. В недельном перерыве между постами я пытался запились простой цензор сисек, и, скажу я вам, это не так просто- даже обучить сетку отличать их, включая все размеры- очень непросто. Нужно реально примерно по 1000 примеров на каждый вид и оттенок кожи, угол поворота, и даже техника аугментации данных не особо помогает. Не говоря уже о полной информации о картах глубин. Так и живу, обучая на цветовых схемах. Я поленился доделывать и не сделал. В результате хотел использовать анцензор чтобы получить кучу цензурированных картинок + оригинал, чтобы потом делать анцезуру, как у японца в одной сетке в соседнем треде, но моих интенций и времени пока на это не хватает.
>>140513 Вот эта ничё так. Но всё равно не хватает объемности. Для правдоподобного эффекта нужно ещё больше смещения угла взгляда и самой картинки, типо как тут >>139271. Сейчас это больше похоже на коллаж из 2д-пикч. Алсо, пиши где-нибудь для какого типа просмотра файл, плиз. А то приходится угадывать.
Кароче, при увеличении магнитуды для большего эффекта объемности вылезают артефакты, от них просто не избавиться. Мне норм что для скрещивания глаз, что для вр- 0.1, чтобы было поменьше этих артефактов.
>>140693 >>140694 Спасибо, рад стараться. Но в последний месяц я уже не делаю карты глубин, потому что понял, что это бесполезное дело для обучения сетки. Зато, как видели, в последнее время, пытался я делать видео. И некоторые получались нормально, некоторые- плохо. Видимо, дело в том, что обязательно нужен неоднотонный задний фон. Просто белая заливка не будет давать стереоэффекта. а также намного лучше, если тело имеет переходы тонов как в артах, например>>140597, а не как в аниме, где все однотонно залито. Это по той же причине, что и однотонная заливка задника- не получается стерео, не чувствуется, что часть тела выше другой, поэтому и плохо выглядят >>140566>>140530. Еще до этого я пытался выдирать карты глубин из имеющихся стерео-аниме- призрак в доспехах, 009 король: Киборг, Граница пустоты: Сад грешников в 3Д, Юные принцессы. Райское влечение 3Д, а также из БАКУГАН, которого нету на рутрекере. Во всех, кроме 009 выдернутые карты глубин были в виде простейших двухмерных слоев для каждого персонажа- т.е. персонаж близко- его весь контур белый, тот что подальше- серый и т.д. без вяких деталей одежды или волос. Можно понять несчастных аниматоров- это было бы просто адище каждый кажр переводить по полной. В тех аниме, что строятся на 3д модельках- немного призрак и полностью 009, карты глубин четче, но модельки то выглядят бездушнее. Вывод- в ближайшее время нормального перевода анимации в 3д не ждите, нужно, чтобы куча людей наделали огромный датасет и подключили огромные вычислительные мощности, и то не факт, что не получится такое же глючное гомно, как генератор лиц от нвидии или аниме-девок от каких-то там японцев. Они все глючные, несмотря на огромные подключенные ресурсы. Но. Есть один вариант, который я попробую сделать в ближайшее свободное время. Некоторые художники переводят свои двухмерные скечти в анимацию с помощью растягивания частей тела. Я знаю, что вы понимаете, о чем я- просто части тела трясутся при движении, анимированные д2 картинки просто. На борах таких анимаций довольно много и выглядят они, по большей части, плохо. Но если взять и найти хорошие, с хорошими переходами тонов кожи, а не простой заливкой и более-менее нормальной анимацией, то от них будет норм 3д эффект. Также, как вариант, можно более-менее плохо делать такие анимации самому в видео-редакторах или в OE-CAKE, какой это веселый угар я расскажу позже. Пока держите няшек. И еще повайню по поводу глючность проги- на последней стереограмме задние фоновые квадраты просто ужасно размывались, пока я не повернул картинку зеркально. И типа, это все равно лучше, чем делать в гимпе со смещением, пробовал. Все швах вобщем, вот бы иметь доступ к исходникам авторов с прорисовкой на отдлеьных слоях отдельных частей тела, тогда можно было бы запилить очень качественное смещение для каждого отдельного органа, лол.
>>140715 > Некоторые художники переводят свои двухмерные скечти в анимацию с помощью растягивания частей тела. Я знаю, что вы понимаете, о чем я- просто части тела трясутся при движении, анимированные д2 картинки просто. Да, это охуенно на самом деле. > Спасибо, рад стараться. Но в последний месяц я уже не делаю карты глубин, потому что понял, что это бесполезное дело для обучения сетки. Так ты все это рисовал для обучения нейросети? А нельзя её на каких нибудь более объектах тренить? Типа шарик на переднем плане, и кубик на заднем. А вообще советую выложить идею на реддит или гитхаб какой нибудь, уж там актив поболее чем тут. Тем более я помню что на реддите огромная активность появилась когда там нашли способ с помощью нейросети клеить любые лица на порноактрис.
>>140725 По поводу шариков, кубиков в пространстве- я очень много читал научных работ по теме обучения нейросетей выделению глубины из двухмерья. Все институты тренируются на 3д рендерах простых, типа тех же кубов и шаров и показывают очень многообещающий результат. Я, как бы, поэтому и занялся тем, чем сейчас занимаюсь, лично увидев, как pix2pi меняет фасады зданий на схему расположения окон. И подумал, почему бы не попробовать. Но вот потом все упирается в выборку- институты используют выборки 100-200 максимум фоток. Это достаточно для определенных задач, но для чего-то нового- нет. На простых шариках и кубиках нейросеть не научить геометрической форме, даже если сначала обрезать цветовые каналы у фото. Да, она будет отличать твои шары и кубы на твоем фоне. Потому что научиться цветам и оттенкам, потому что это проще Как только ей дадут для обработки фото а не компьютерный рендер, она даст глича. Это как просить художника, который всю жизнь рисовал портреты и не встречал в жизни вазы, нарисовать вазу. Или уродство или инвалидность нарисовать, при условии, что он не видел инвалидов- тоже ничего хорошего не выйдет. Этим летом Нвидия на конференции в сша представит даже технологию перевода видео в 3д с использование обычной цифровой камеры. Они на гитхабе выложили кусок кода, где видно, что видео будет воспринимать по 5 кадров и выдирать глубину из него боюсь сказать неточно, но это вроде интерполяция с использованием смещения разных объектов в кадре Вот эта технология должна, в теории, превратить любую камеру стереокамеру, или как там называется оборудование с множеством светочувствительных элементов для поимики глубины, я еще писал выше про его домашний вариант. Так вот, о чем это я. Как я уже писал, все эти работы с небольшой выборкой однородных объектов дают предсказуемо хороший результат. Но, стоит группе ученых выйти "в поле" на улицу , как их научная работа подвисает в воздухе. Да, есть определение объектов на дороге (машина, пешеход, знак, дерево, бордюр) на одном несчастном сете картинок, но вот как ведет себя сеть в полевых условиях- скорее всего пиздец за семью печатями. Да что там говорить, даже у оригинального мануала для pix2pix есть фото-глич, гте путина на коне перекрасили под зебру целиком, потому что раньше сеть не обучилась отличать человека от коня- только коня от зебры. Все, что соединено с конем- тоже конь, никаких оригинальных прорывов нейросеть не сделает сама. Она может только автоматизировать сложную рутинную работу, если ей скормить уже много примеров проделанной работы. Нет, нейросеть нельзя научить чему-то, чего ты сам не умеешь делать в достаточно больших масштабах. На реддите уже есть пара тредов про 3д. Вроде там же или в твиттере обитает автор соседнего анцензора. Он еще спрашивал, чем ему стоит заняться после завершения работы с анцензором, и ему уже подсказывали, что можно попытаться запились 2дto3д, на что он вроде ответил то же самое, к чему я пришел позже, попробовав самостоятельно- не получается обучить сеть без реально огромного количества примеров. Овер 1кк(к). Это потребует аналогичных по цене вычислительных затрат. Даже если каждый нерд на планете переведет по картинке в карту глубин, то все равно у нейросети случится когнитивный диссонанс, когда она увидит, что, например, пара нердов перевели в карту глубин один и тот же арт по разному. Да, в итоге она должна прийти к чему-то более-менее среднему, средне-статистическому. Останется найти только 1кк нердов и их всех скоординировать. Вариант с 3д моделями тоже так себе, если подумать, только если какому-то ученому или инвестору прийдет в голову идея запилить автоматический генератор на коммерческой основе, который будет давать картинку сопоставимую по качеству с д2 но в 3д (после чего необходимость в переводе 2д в 3д отпадает как бы). Что еще сказать. Не помню, писал ли я про каскады нейронный сетей, типа одна сеть распознает позу человека, другая намечает в комбинации с оригинальной картинкой контуры, потом третяя сеть чуть более точно воспроизводит карту глубин и т.д., в том числе используя не только нейросети, но и старые алгоритмы. Звучит чуть более реалистично, но требует не меньше трудочасов. Вобщем возрадуйтесь, художники, от слова худо- в ближайшее время вас не заменят бездушные машины, энивей. Так вот, пожалуй стоит ограничиться тем, что я делаю сейчас- перевод простых анимаций, немного наполнение базы карт глубин. Не стоит замахиваться на то, чем уже долго занимается куча илонов масков, гуглов и институтов, будем тихо пилить свой лунапарк с VR и лолями Скоро скину тут в архиве результат трудов за полгода- может кто-то сможет ем воспользоваться лучше, чем я. Там даже большая часть картинок ни разу не была переведена в 3д, только карты глубин, только хардкор. Сейчас в отпуске, к переводу "крученых" артов приступлю затвра вечером, до скорого сеанса сумбурной связи
>>140808 > Скоро скину тут в архиве результат трудов за полгода- может кто-то сможет ем воспользоваться лучше, чем я. Видать ты совсем выдыхаешься уже. > Сейчас в отпуске Я почему то думал что ты на фрилансе сидишь
>>140831 уже писал, что можно попробовать сделать 3д модель, которая похожа на нужную 2д и уже работать над ей одной. Для охвата всех вариантов аксессуаров, одежды поз- не хватает, по крайней мере 30.000 примеров, которые я делал в koikatsu, custom maid 3d и еще куче игр, не только хентайных. Там были очень четкие качественные примеры, но все равно, ничего нового модель не выносит из обучения на такой малой выборке. Можно, конечно, попробовать снимать только в одной позе и только одного персонажа со срезанным бекграундом, но про это я тоже уже писал, что тут нужно начинать извращаться с дополнительными ухищрениями типа вырезки фона и потом вклеивания обратно... >>140832 Не, я просто понял на своем опыте, какая это сложная тема. В доказательство привожу сам архив а также сегодняшнюю запланированную работку. https://www.dropbox.com/s/y7044apa20br948/500arch.rar?dl=0
надеюсь хоть 1 кодировка подойдет, по крайней мере должно быть можно первый ролик сохранить и открыть в плеере
>>140849 Я не пойму, тебе примеров мало? Что если видео из игор записывать сразу с картой глубины, потом какими-нибудь программами, умеющими работать с пачкой картинок, нарезать все это?
>>140905 Я это уже делал, программа для выдирания карты глубин-reshade. Да, мало, чтобы сделать универсальный определитель для нового материала. И если примеров еще можно, теоретически, наделать овер 1кк, даже если они влезут на мои 500 гб винта, то чтобы обработать их, нужно месяц гнать на моей карточке. Нвидия свои гонит на 8 картах 5 дней. И не факт, что параметры, выставленные у нейросети, а именно количество входных и выходных каналов, нейроны и т.д. будут выставлены правильно для такой сложной задачи, может их надо выставлять больше, чем в настройках 1024 на 1024 в сети от нвидии. И может не хватит памяти, и все остановится. А если и запустится, то не факт, что через месяц я получу на выходе работающую сеть, а не переобученное или недообученное хуй пойми что. Я помню, как делал 10000 скриншотов с картой глубины из одной игрушки, вобщем проходишь до катсцены, чтобы на основной картинке не было интерфейса и хуяришь printscreen, получаешь 600 скринов в час примерно. Меняешь костюмы у героев, и по новой. К катсценам в таких играх, как правило, шорткатов нету, поэтому я проходил с читами по фасту. Я не хочу считать, сколько времени займет изготовление 1кк картинок. Оставляя на ночь какую-то 3д дрочильню с автоматическим скриптом, тоже получаешь 3-5к картинок, всего то годик так пособирать материал, купить пару винтов, обработать за месяц фотки, просто переобрезая их, и вуаля, может через год ацкого труда что-то и получится не факт, не факт. Основывать институт изучения хентая в 3д у себя на квартире я не хочу не имею возможности на самом деле.
https://syncedreview.com/2019/02/09/nvidia-open-sources-hyper-realistic-face-generator-stylegan/ Вот тебе в догонку, как делают лицегенератор, там есть таблица времени обучения сети. Да, там датасет 70к, но, по моему скромному личному мнению, у аниме-персонажей количество деталей-поз-бекграунда, всех факторов вобщем, больше, чем у человеческих лиц, значит нужна выборка еще больше. Да и эта сеть наверняка может дать глюков, и, конечно, она ничего особо нового не сгенерирует, типа одноглазого или безухого человека, или выражение лица, которого не было в примерах.
И еще одно наблюдение- видео со стереоэффектом кажется менее глубоким относительно тех же выставленных мною параметров для статичных картинок. Видимо, это связано с тем, что на видео мы пытаемся сконцентрироваться на какой-либо детали, которая движется, а в статичной картинке мы можем свободно бегать глазами и находить разницу в глубине в спокойной обстановке. Даже если верхний видос поставить на паузу, то он выглядит в статике более объемным.
>>148710 не, там нечего выкладывать, любой может скачать любую дефолтную сетку и запустить ее. И тоже получит ничего, не вышла она, мало исходников. Только для локальных анимаций или для одного типа картинок- типа только стоящие на одном белом фоне или только сидящие фигуры. А вообще я сейчас делаю из бд данбору сетку на картинки одетый/раздетый. Делаю медленно и лениво, но благодаря тому, что в доустпе есть бд, фотки можно дампать тысячами с несложной ручной модерацией. Может чего и выйдет. Что-то типа дипнудес для аниме.
>>149706 Я даже представить себе не могу что ты подразумеваешь под >фулл в контексте данного треда. К тому же, тот пост уже довольно старый. С тех пор много чего изменилось да и пирсинг у неё теперь очень аккуратненький, а не те ужасные блямбы которые были у неё полтора года назад. Держи вот тебе двух других няшечек вместо одной той. >>141877 >ГРАЖДАНЕ ДЕЛАЙТЕ КОНТЕНТ Удвою. Раньше конечно я тоже делал сюда контент на основе MMD. Но это до тех пор пока в треде не появились настоящие профессионалы. Теперь, с их приходом, контент на основе MMD думаю уже не актуален. Разве что если будет реквест или тред будет близок к смытию. Как это иногда было на протяжении его истории. Привык бампать только с контентом.
>>152118 >>152140 Можно поискать vr хентай, там уже в плеере настроить расстояние между левым и правым изображением, чтобы глаза не болели. я так с обычной порнухой делаю иногда
>>153107 Понадобиться 20 минутная практика, по крайней мере мне понадобилось столько, чтобы научиться. Ну вообще, если ты не умеешь делать глаза косыми, то тебе для начала придется научиться этому. Короче ты косишь глаза так, пока из двух картинок в центре не появиться 3 картинка, т.е. ты косишь глаза до тех пор, пока правая картинка не совместится с левой, в то же время те две картинки никуда не деваются, они остаются так же, слева и справа, но между ними образуется ещё одна картинка, которая как раз таки получается объемной из за совмещения этих двух картинок
>>153434 Когда смотришь как бы через экран это параллельная стереопара, левый глаз смотрит на левое изображение, правый на правое. Тут все пикчи для косых, это перекрестная стереопара, изображения меняются местами и правый глаз должен смотреть на левое изображение, а левый глаз на правое. У параллельного просмотра есть большой минус, тебе приходится сильно уменьшать изображение до расстояния между глазами, т.к. ты не можешь развести глаза в разные стороны. >>153440 Если сложно фокусироваться, попробуй уменьшить картинку или отодвинуться подальше от монитора.
>>153447 >Если сложно фокусироваться, попробуй уменьшить картинку или отодвинуться подальше от монитора. Я ему про фому, он мне - про ерёму. Я хотел уточнить, какие есть альтернативы чтобы не прибегать к вашему методу. Секта какая-то. Ладно, мимо проходил и пошёл дальше.
>>153447 Только что поверил - при расслаблении изображение смещается в ту же сторону, что и при скрещивании. Только в отличие от первого случая, во втором начинают сильно болеть глаза
>>153464 Как в одну сторону то, если изображения для каждого глаза отличаются? И ты изображение до ~10см что ли уменьшаешь, что бы параллельно смотреть?
>>153465 > Как в одну сторону то, если изображения для каждого глаза отличаются? Я имел виду, что для каждого глаза в одну и ту же сторону. > И ты изображение до ~10см что ли уменьшаешь Да нет, как обычно телефон держу где-то в сантиметрах 25 от лица
Первый пик нормально смотрится, от последнего глаза болят
>>153471 есть два способа косить глаза, как и два типа стереоизображений. В одном из них нужно косить глаза к центру- первый пик, если я не ошибаюсь. Второй тип- наоборот- разводить, фокусируясь вдаль, последний пик. Такие изображения также используются в стереошлемах. Каждый косит сначала по-своему, сложно переучиться с одного способа на другой. Есть такие абстрактные стереограммы, которые и рассчитаны на то, что их можно смотреть обоими способами и будет например высоченная гора и глубокая яма. Также попробую для ускорения обучения не только менять расстояние от лица до монитора, но просто менять масштаб изображения- глубину будет проще поймать на малом размере изображения, постепенно увеличивая приближение
>>153471 > Первый пик нормально смотрится, от последнего глаза болят пиздец, у меня наоборот от перекрестного просмотра глаза не болят. а вот параллельный никак осилить не могу
>>153549 > пиздец, у меня наоборот от перекрестного просмотра глаза не болят. а вот параллельный никак осилить не могу То есть тебе лучше вино четвёртый пик? Пиздосики
Я нищеброд и у меня телефон не поддерживает VR. Купил картонную коробку, хотел на ммд асмр подрочить, но хрен мне.
Есть какие-то плееры для проигрывания VR видео. Скачал Var'S, и он даже позволяет головой вертеть в разные стороны, не знаю как это работает. С сильной задержкой конечно, но всетаки.
А как скачивать видосы с ютуба, чтобы смотреть потом через этот плеер? Скачивал через youtube-dl, какая-то мозайка скачивается (пикрелейтед).
Откуда можно скачать нормальные ммд потанцульки и прочее, и чем посмотреть если телефон не может в вр?
>>154678 Да, и не один. Загугли: MMD Stage Dl И будет тебе счастье. Большая часть из тех что у меня скачена с deviantart и с NicoNico. >>154659 Если не стерео а обычные х-ммд то чекни тот тред>>72206 (OP) пока его не смыло. А то он уже близок к смытию. Хотя может ты его и так видел. >>156240 Тредик живёт. Не волнуйся. По меркам тематики вполне себе живой тред. >>156294 Пустые бамбы в тематике, тем более через два дня после последнего сообщения, в треде где много ориджинала бесполезны во всех случаях кроме единственного - ты решил скатить тред в бамплит побыстрее. Тред и без бампов может тонуть полгода, или дольше.
Кстати, аноны, на ютубе теперь тоже есть довольно много vr mmd, причем иногда довольно откровенных https://youtu.be/54LLIpe0Ms0 Хотя по-настоящему R18 vr я так и не нашел (вряд ли их банят, обычных роликов R18 без vr там дохуя лежит), но хотя бы что-то. Вот только чтобы посмотреть такое, нужен телефон с гироскопом. Если все норм, то просто включаете видео, переходите в режим кардбоарда (сама картонка при этом не нужна) и косите глаза кнаружи, а не внутрь. Всё.
>>158408 >есть ещё? Есть ещё что? Можешь выражать свои мысли в более развернутой форме? Если у тебя есть>>82084редактор MMD то контент находится в суперпозиции. Его как бы нет, но его всегда можно сделать способом описанным тут>>79954
>>161923 Как такую анимацию сделал? Сам эффект объема слабенький, лицо плоское, будто только грудь, руки, фон и остальное всего на нескольких слоях находятся.
>>140911 > то чтобы обработать их, нужно месяц гнать на моей карточке. Можно заюзать облака от гугла. Точно знаю, что гугл предоставляет ресурсы для НС. На этих облаках кто-то умудрялся даже блендер закомпилить, запустить и заставить рендерить видео.