Прошлые домены не функционирует! Используйте адрес ARHIVACH.VC.
24 декабря 2023 г. Архивач восстановлен после серьёзной аварии. К сожалению, значительная часть сохранённых изображений и видео была потеряна. Подробности случившегося. Мы призываем всех неравнодушных помочь нам с восстановлением утраченного контента!
Сортировка: за
Сохранен
528
18 сентября 2024
Сохранен
358
24 сентября 2024
Сохранен
464
16 июля 2024
Сохранен
482
28 мая 11:32
Активный
521
ИИ-видео общий №5 /video/ — Генерируем свое (и постим чужое) в Hunyuan, Wan, Luma Dream Machine, Hailuo Minimax, Kling, Sora, Vidu, Runway, Pixverse, Pika и др. сервисах. 1. Hailuo Minimax https://hailuoai.video/ 2. Kling https://klingai.com/ 3. Sora от OpenAi https://openai.com/sora/ 4. Luma Dream Machine https://lumalabs.ai/ 5. Vidu https://www.vidu.com/create 6. Pixverse https://app.pixverse.ai/ 7. Pika https://pika.art/try 8. Runway Gen. 3 https://runwayml.com/ 9. Wan от Alibaba https://chat.qwen.ai/ https://wanx-ai.net/ru/models/wanx Сайты, где можно попробовать генерации на разных моделях https://pollo.ai/ https://nim.video/ Коллекция ИИ-видео: https://www.reddit.com/r/aivideo/ Локальные модели 1. Hunyuan от Tencent. https://hunyuanvideoai.com/ https://github.com/Tencent/HunyuanVideo 2. Wan от Alibaba https://github.com/Wan-Video/Wan2.1 Локальный UI https://github.com/comfyanonymous/ComfyUI Установка локальных моделей Hunyuan Video: https://comfyanonymous.github.io/ComfyUI_examples/hunyuan_video/ Wan 2.1: https://comfyanonymous.github.io/ComfyUI_examples/wan/ Альтернативные ноды ComfyUI Hunyuan Video: https://github.com/kijai/ComfyUI-HunyuanVideoWrapper Wan 2.1: https://github.com/kijai/ComfyUI-WanVideoWrapper Квантованные чекпоинты Hunyuan Video (GGUF): https://huggingface.co/Kijai/SkyReels-V1-Hunyuan_comfy/tree/main Wan 2.1 (GGUF): https://huggingface.co/city96/Wan2.1-I2V-14B-480P-gguf/tree/main Wan 2.1 (NF4): https://civitai.com/models/1299436?modelVersionId=1466629 Где брать готовые LoRA https://civitai.com/models Hunyuan Video: https://civitai.com/search/models?baseModel=Hunyuan%20Video&sortBy=models_v9 Wan 2.1: https://civitai.com/search/models?baseModel=Wan%20Video&sortBy=models_v9 Обучение LoRA https://github.com/tdrussell/diffusion-pipe Предыдущий тред >>1015622 (OP)
11 мая 16:10
Сохранен
46
24 февраля 18:46
Сохранен
184
5 ноября 2024
Сохранен
80
31 октября 2024
Сохранен
516
22 сентября 2024
Сохранен
503
21 сентября 2024
Сохранен
522
19 сентября 2024
Сохранен
511
17 сентября 2024
Сохранен
521
16 сентября 2024
Сохранен
510
16 сентября 2024
Сохранен
536
11 сентября 2024
Сохранен
549
13 июня 2024
Активный
422
вчера 3:12
Сохранен
93
20 мая 2023
Сохранен
553
14 июня 2024
Сохранен
365
26 марта 17:44
Сохранен
531
OpenAi официально отменили Голливуд, показав генерацию видео которая будет в GPT-5 (по тому же приме — OpenAi официально отменили Голливуд, показав генерацию видео которая будет в GPT-5 (по тому же примеру как сегодня через GPT-4 мы можем создавать картинки в DALLE-3). Просто пишем любой текст и нейронка это воспроизводит. Сегодня Сэм Альтман запросы людей с твиттера превращал в видео. Больше примеров генерации покажу внутри треда. Меня помимо фотореалистичности видео поразили еще конкретно первые два примера. На первом в каждом телевизоре свой видеоряд (мы прикрутили видео в твое видео), а на втором супер точно передан изгиб линзы камеры на телефоне, так, что вообще все пропорции соблюдены. И отдельно меня убивает, что модель смогла в ОТРАЖЕНИЯ в стрекле, которые в нужный момент становятся четче, когда поезд проезжает темное здание…. Прошлый тред: https://2ch.hk/b/res/300346406.html
16 февраля 2024
Сохранен
44
30 июля 2023
Сохранен
297
25 июля 2023
Сохранен
513
24 июля 2023
Сохранен
176
Modelscope text-to-video — У нас есть Stable diffusion, NovelAI треды, теперь text-to-video нить иди. Из опенсорса, актуальная система - Modelscope, примерно на том же уровне развития что первый DALL-E или "сырой" Latent Diffusion до появления Stable Diffusion. Кадров выходит маловато, но есть модели типа FILM для интерполяции (нарисовать промежуточные кадры). Звука "из коробки" нет. На момент создания треда, эти два спейса рабочие: https://huggingface.co/spaces/MaxLess/text-to-video-synth https://huggingface.co/spaces/jwhh91/modelscope-text-to-video-synthesis Колаб https://colab.research.google.com/drive/1uW1ZqswkQ9Z9bp5Nbo5z59cAn7I0hE6R?usp=sharing Пишите промпт на английском - что-нибудь про объект и его происходящее действие (движение). Результат будет отображаться как пустой черный квадрат, но не пугайтесь - жмите "воспроизвести". Мои примеры на ОПе: 1. a car, perfect movie cinematic 2. luxurious car, perfect movie cinematic 3. first person shooter game, unreal engine 4. anime cinematic, anime girl female character dancing, unreal engine Цензура отсутствует, однако модель сравнительно слабая и с тоннами ватермарок.В основном она для "реалистичного стиля" - мультфильмы получаются так себе. На мой взгляд, ее наибольшая ценность в том, что она подтверждает возможность генерации видео, анимации и фильмов на сравнительно слабых видеокартах. Другой вариант - CogVideo от товарищей из КНР. Новинка от Runway, пока в закрытом тестировании: https://www.youtube.com/watch?v=trXPfpV5iRQ
29 июня 2024

Отзывы и предложения