Архива.ч
Добавить
Войти
Светлый стиль
Тёмный стиль
Дополнительно
Стиль сайта
Arhivach (по умолчанию)
Darkstrap (Neutron-like)
Стиль тредов
Arhivach (по умолчанию)
Neutron
FAQ
Контакты
Помощь сайту
Дополнения
Случайный тред
Старые архивы
Статус системы
API
К сожалению, значительная часть сохранённых до 2024 г. изображений и видео была потеряна (
подробности случившегося
). Мы призываем всех неравнодушных
помочь нам
с восстановлением утраченного контента!
Сортировка:
Дата
Просмотры
Закладки
Посты
за
День
Неделю
Месяц
Все время
...
Активный
506
Локальные языковые модели (LLM): Gemma, Qwen, GLM и прочие №229 /llama/
— В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны! Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна. Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку. Официальная вики треда с гайдами по запуску и базовой информацией: https://2ch-ai.github.io/wiki/llama/ Инструменты для запуска на десктопах: • Отец и мать всех инструментов, позволяющий гонять GGML и GGUF форматы: https://github.com/ggml-org/llama.cpp • Самый простой в использовании и установке форк llamacpp: https://github.com/LostRuins/koboldcpp • Более функциональный и универсальный интерфейс для работы с остальными форматами: https://github.com/oobabooga/text-generation-webui • Заточенный под Exllama (V2 и V3) и в консоли: https://github.com/theroyallab/tabbyAPI • Однокнопочные инструменты на базе llamacpp с ограниченными возможностями: https://github.com/ollama/ollama, https://lmstudio.ai • Универсальный фронтенд, поддерживающий сопряжение с koboldcpp и text-generation-webui: https://github.com/SillyTavern/SillyTavern • Альтернативный фронт: https://github.com/kwaroran/RisuAI Инструменты для запуска на мобилках: • Интерфейс для локального запуска моделей под андроид с llamacpp под капотом: https://github.com/Mobile-Artificial-Intelligence/maid • Альтернативный вариант для локального запуска под андроид (фронтенд и бекенд сепарированы): https://github.com/Vali-98/ChatterUI • Гайд по установке SillyTavern на ведроид через Termux: https://rentry.co/STAI-Termux Модели и всё что их касается: • Актуальный список моделей с отзывами от тредовичков: https://rentry.co/2ch_llm_moe_2026 • Неактуальные списки моделей в архивных целях: 2025: https://rentry.co/2ch_llm_2025 (версия для бомжей: https://rentry.co/z4nr8ztd ), 2024: https://rentry.co/llm-models , 2023: https://rentry.co/lmg_models • Миксы от тредовичков с уклоном в русский РП: https://huggingface.co/Aleteian и https://huggingface.co/Moraliane • Рейтинг моделей по уровню их закошмаренности цензурой: https://huggingface.co/spaces/DontPlanToEnd/UGI-Leaderboard • Сравнение моделей по сомнительным метрикам: https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard • Сравнение моделей реальными пользователями по чуть менее сомнительным метрикам: https://chat.lmsys.org/?leaderboard Дополнительные ссылки: • Гайд для новичков: https://rentry.org/2ch-llama-inference • Готовые карточки персонажей для ролплея в таверне: https://www.characterhub.org • Перевод нейронками для таверны: https://rentry.co/magic-translation • Пресеты под локальный ролплей в различных форматах: http://web.archive.org/web/20250222044730/https://huggingface.co/Virt-io/SillyTavern-Presets • Шапка почившего треда PygmalionAI с некоторой интересной информацией: https://rentry.co/2ch-pygma-thread • Официальная вики koboldcpp с руководством по более тонкой настройке: https://github.com/LostRuins/koboldcpp/wiki • Официальный гайд по сопряжению бекендов с таверной: https://docs.sillytavern.app/usage/how-to-use-a-self-hosted-model/ • Последний известный колаб для обладателей отсутствия любых возможностей запустить локально: https://colab.research.google.com/drive/11U-bC6AxdmMhd3PF9vWZpLdi6LdfnBQ8?usp=sharing • Инструкции для запуска базы при помощи Docker Compose: https://rentry.co/oddx5sgq https://rentry.co/7kp5avrk • Пошаговое мышление от тредовичка для таверны: https://github.com/cierru/st-stepped-thinking • Потрогать, как работают семплеры: https://artefact2.github.io/llm-sampling/ • Выгрузка избранных тензоров, позволяет ускорить генерацию при недостатке VRAM: https://www.reddit.com/r/LocalLLaMA/comments/1ki7tg7 • Инфа по запуску на MI50: https://github.com/mixa3607/ML-gfx906 • Тесты tensor_parallel: https://rentry.org/8cruvnyw • Доки к LLaMA.cpp со всеми параметрами: https://github.com/ggml-org/llama.cpp/blob/master/tools/server/README.md Архив тредов можно найти на архиваче: https://arhivach.vc/?tags=14780%2C14985 Шапка в https://rentry.co/llama-2ch, предложения принимаются в треде. Предыдущие треды тонут здесь: >>1600155 (OP) >>1598239 (OP)
Локальные языковые модели
большие языковые модели
/ai/ - Искусственный интеллект
2ch
вчера 18:40
Активный
506
Локальные языковые модели (LLM): Gemma, Qwen, GLM и прочие №228 /llama/
— В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны! Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна. Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку. Официальная вики треда с гайдами по запуску и базовой информацией: https://2ch-ai.github.io/wiki/llama/ Инструменты для запуска на десктопах: • Отец и мать всех инструментов, позволяющий гонять GGML и GGUF форматы: https://github.com/ggml-org/llama.cpp • Самый простой в использовании и установке форк llamacpp: https://github.com/LostRuins/koboldcpp • Более функциональный и универсальный интерфейс для работы с остальными форматами: https://github.com/oobabooga/text-generation-webui • Заточенный под Exllama (V2 и V3) и в консоли: https://github.com/theroyallab/tabbyAPI • Однокнопочные инструменты на базе llamacpp с ограниченными возможностями: https://github.com/ollama/ollama, https://lmstudio.ai • Универсальный фронтенд, поддерживающий сопряжение с koboldcpp и text-generation-webui: https://github.com/SillyTavern/SillyTavern • Альтернативный фронт: https://github.com/kwaroran/RisuAI Инструменты для запуска на мобилках: • Интерфейс для локального запуска моделей под андроид с llamacpp под капотом: https://github.com/Mobile-Artificial-Intelligence/maid • Альтернативный вариант для локального запуска под андроид (фронтенд и бекенд сепарированы): https://github.com/Vali-98/ChatterUI • Гайд по установке SillyTavern на ведроид через Termux: https://rentry.co/STAI-Termux Модели и всё что их касается: • Актуальный список моделей с отзывами от тредовичков: https://rentry.co/2ch_llm_moe_2026 • Неактуальные списки моделей в архивных целях: 2025: https://rentry.co/2ch_llm_2025 (версия для бомжей: https://rentry.co/z4nr8ztd ), 2024: https://rentry.co/llm-models , 2023: https://rentry.co/lmg_models • Миксы от тредовичков с уклоном в русский РП: https://huggingface.co/Aleteian и https://huggingface.co/Moraliane • Рейтинг моделей по уровню их закошмаренности цензурой: https://huggingface.co/spaces/DontPlanToEnd/UGI-Leaderboard • Сравнение моделей по сомнительным метрикам: https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard • Сравнение моделей реальными пользователями по чуть менее сомнительным метрикам: https://chat.lmsys.org/?leaderboard Дополнительные ссылки: • Гайд для новичков: https://rentry.org/2ch-llama-inference • Готовые карточки персонажей для ролплея в таверне: https://www.characterhub.org • Перевод нейронками для таверны: https://rentry.co/magic-translation • Пресеты под локальный ролплей в различных форматах: http://web.archive.org/web/20250222044730/https://huggingface.co/Virt-io/SillyTavern-Presets • Шапка почившего треда PygmalionAI с некоторой интересной информацией: https://rentry.co/2ch-pygma-thread • Официальная вики koboldcpp с руководством по более тонкой настройке: https://github.com/LostRuins/koboldcpp/wiki • Официальный гайд по сопряжению бекендов с таверной: https://docs.sillytavern.app/usage/how-to-use-a-self-hosted-model/ • Последний известный колаб для обладателей отсутствия любых возможностей запустить локально: https://colab.research.google.com/drive/11U-bC6AxdmMhd3PF9vWZpLdi6LdfnBQ8?usp=sharing • Инструкции для запуска базы при помощи Docker Compose: https://rentry.co/oddx5sgq https://rentry.co/7kp5avrk • Пошаговое мышление от тредовичка для таверны: https://github.com/cierru/st-stepped-thinking • Потрогать, как работают семплеры: https://artefact2.github.io/llm-sampling/ • Выгрузка избранных тензоров, позволяет ускорить генерацию при недостатке VRAM: https://www.reddit.com/r/LocalLLaMA/comments/1ki7tg7 • Инфа по запуску на MI50: https://github.com/mixa3607/ML-gfx906 • Тесты tensor_parallel: https://rentry.org/8cruvnyw • Доки к LLaMA.cpp со всеми параметрами: https://github.com/ggml-org/llama.cpp/blob/master/tools/server/README.md Архив тредов можно найти на архиваче: https://arhivach.vc/?tags=14780%2C14985 Шапка в https://rentry.co/llama-2ch, предложения принимаются в треде. Предыдущие треды тонут здесь: >>1598239 (OP) >>1596667 (OP)
Локальные языковые модели
большие языковые модели
/ai/ - Искусственный интеллект
2ch
вчера 18:40
Сохранен
31
Ебли тред В тред приглашаются инцелы, девственники и им подобные Задача 1. Описать процесс ебли как
— Ебли тред В тред приглашаются инцелы, девственники и им подобные Задача 1. Описать процесс ебли как вы его представляете 2. Описать что такое секс для вас 3. Описать что такое для вас тян\отношения с тян
дохлый тред
секс
секс и отношения
ебля
привлечения внимания порнухой
/b/ - Бред
2ch
4 мая 16:11
Активный
505
Локальные языковые модели (LLM): Gemma, Qwen, GLM и прочие №227 /llama/
— В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны! Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна. Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку. Официальная вики треда с гайдами по запуску и базовой информацией: https://2ch-ai.github.io/wiki/llama/ Инструменты для запуска на десктопах: • Отец и мать всех инструментов, позволяющий гонять GGML и GGUF форматы: https://github.com/ggml-org/llama.cpp • Самый простой в использовании и установке форк llamacpp: https://github.com/LostRuins/koboldcpp • Более функциональный и универсальный интерфейс для работы с остальными форматами: https://github.com/oobabooga/text-generation-webui • Заточенный под Exllama (V2 и V3) и в консоли: https://github.com/theroyallab/tabbyAPI • Однокнопочные инструменты на базе llamacpp с ограниченными возможностями: https://github.com/ollama/ollama, https://lmstudio.ai • Универсальный фронтенд, поддерживающий сопряжение с koboldcpp и text-generation-webui: https://github.com/SillyTavern/SillyTavern • Альтернативный фронт: https://github.com/kwaroran/RisuAI Инструменты для запуска на мобилках: • Интерфейс для локального запуска моделей под андроид с llamacpp под капотом: https://github.com/Mobile-Artificial-Intelligence/maid • Альтернативный вариант для локального запуска под андроид (фронтенд и бекенд сепарированы): https://github.com/Vali-98/ChatterUI • Гайд по установке SillyTavern на ведроид через Termux: https://rentry.co/STAI-Termux Модели и всё что их касается: • Актуальный список моделей с отзывами от тредовичков: https://rentry.co/2ch_llm_moe_2026 • Неактуальные списки моделей в архивных целях: 2025: https://rentry.co/2ch_llm_2025 (версия для бомжей: https://rentry.co/z4nr8ztd ), 2024: https://rentry.co/llm-models , 2023: https://rentry.co/lmg_models • Миксы от тредовичков с уклоном в русский РП: https://huggingface.co/Aleteian и https://huggingface.co/Moraliane • Рейтинг моделей по уровню их закошмаренности цензурой: https://huggingface.co/spaces/DontPlanToEnd/UGI-Leaderboard • Сравнение моделей по сомнительным метрикам: https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard • Сравнение моделей реальными пользователями по чуть менее сомнительным метрикам: https://chat.lmsys.org/?leaderboard Дополнительные ссылки: • Готовые карточки персонажей для ролплея в таверне: https://www.characterhub.org • Перевод нейронками для таверны: https://rentry.co/magic-translation • Пресеты под локальный ролплей в различных форматах: http://web.archive.org/web/20250222044730/https://huggingface.co/Virt-io/SillyTavern-Presets • Шапка почившего треда PygmalionAI с некоторой интересной информацией: https://rentry.co/2ch-pygma-thread • Официальная вики koboldcpp с руководством по более тонкой настройке: https://github.com/LostRuins/koboldcpp/wiki • Официальный гайд по сопряжению бекендов с таверной: https://docs.sillytavern.app/usage/how-to-use-a-self-hosted-model/ • Последний известный колаб для обладателей отсутствия любых возможностей запустить локально: https://colab.research.google.com/drive/11U-bC6AxdmMhd3PF9vWZpLdi6LdfnBQ8?usp=sharing • Инструкции для запуска базы при помощи Docker Compose: https://rentry.co/oddx5sgq https://rentry.co/7kp5avrk • Пошаговое мышление от тредовичка для таверны: https://github.com/cierru/st-stepped-thinking • Потрогать, как работают семплеры: https://artefact2.github.io/llm-sampling/ • Выгрузка избранных тензоров, позволяет ускорить генерацию при недостатке VRAM: https://www.reddit.com/r/LocalLLaMA/comments/1ki7tg7 • Инфа по запуску на MI50: https://github.com/mixa3607/ML-gfx906 • Тесты tensor_parallel: https://rentry.org/8cruvnyw • Доки к LLaMA.cpp со всеми параметрами: https://github.com/ggml-org/llama.cpp/blob/master/tools/server/README.md Архив тредов можно найти на архиваче: https://arhivach.vc/?tags=14780%2C14985 Шапка в https://rentry.co/llama-2ch, предложения принимаются в треде. Предыдущие треды тонут здесь: >>1596667 (OP) >>1595096 (OP)
Локальные языковые модели
большие языковые модели
/ai/ - Искусственный интеллект
2ch
вчера 18:40
Сохранен
39
Аноны, а в чем суть всех этих блокировок?
— Аноны, а в чем замысел всех этих блокировок? Чет поймал себя на мысли, что ведь как ни крути, а государство, власть имущие, всякие силовые и не очень ведомства и т.д. это ведь не какой-то мифический эфемерный типа Иог-Сотота, который живет в параллельной реальности и штампует законы просто чтоб степашкам хуже жилось. Давайте смотреть на вещи реально: вся эта система так или иначе состоит из людей. Эти люди все общаются друг с другом, дискутируют и на основе этого делают выводы, а потом издают указы и следят за их выполнением. Более того, информация обычно берется из разных источников, вплоть до частных аналитических компаний. Ну типа никакой указ или распоряжение на то чтобы что-то заблокировать, куда-то выделить деньги не может быть сделан без дохуилиарда согласований, подсчетов, анализа и прочего. Это я к тому, что сейчас люди которые издают указы о чебурнетизации НА ПОЛНОМ СЕРЬЕЗЕ В КУРСЕ ВСЕГО: они знают, что это крайне непопулярная мера, что блокировки ведут к социальному напряжению, что они не очень-то и действенные, что российскими аналоговнетами (Макс, Рутуб, ВК) практически никто не пользуется, что из-за этого очень сильно подрывается доверие к власти и так далее. По большому счету они реально все знают, но зачем тогда это делают? Ради чего? Значит по их мнению действительно есть ЧТО-ТО ТАКОЕ, ради его можно за пару месяцев слить вообще нахуй все полимеры, которые зарабатывались годами, проебать полностью доверие людей к власти, допустить отток людей в ближайшее забугорье и так далее. Отмечу, что это касается не только блокировок. Взять то же самое увеличение налогов. Ну не может быть такого, чтобы никакой исследовательский институт или частная аналитическая компания выполняя анализ по запросу правительства не написала бы про график Лаффера и про то, что подъем налогов приведет к тому что налоговых поступлений станет парадоксально меньше. Буквально все последние шаги наших верхов делались осознанно и с полным пониманием того, как это будет воспринято обществом. И вот вопрос, в том, а ради чего? Что на столько перевешивает лояльность и настроение населения?
недовольство
блокировки сайтов
чебурнет
российская действительность
цензура
/po/ - Политика и новости
2ch
вчера 8:02
Активный
511
Локальные языковые модели (LLM): Gemma, Qwen, GLM и прочие №226 /llama/
— В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны! Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна. Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку. Официальная вики треда с гайдами по запуску и базовой информацией: https://2ch-ai.github.io/wiki/llama/ Инструменты для запуска на десктопах: • Отец и мать всех инструментов, позволяющий гонять GGML и GGUF форматы: https://github.com/ggml-org/llama.cpp • Самый простой в использовании и установке форк llamacpp: https://github.com/LostRuins/koboldcpp • Более функциональный и универсальный интерфейс для работы с остальными форматами: https://github.com/oobabooga/text-generation-webui • Заточенный под Exllama (V2 и V3) и в консоли: https://github.com/theroyallab/tabbyAPI • Однокнопочные инструменты на базе llamacpp с ограниченными возможностями: https://github.com/ollama/ollama, https://lmstudio.ai • Универсальный фронтенд, поддерживающий сопряжение с koboldcpp и text-generation-webui: https://github.com/SillyTavern/SillyTavern • Альтернативный фронт: https://github.com/kwaroran/RisuAI Инструменты для запуска на мобилках: • Интерфейс для локального запуска моделей под андроид с llamacpp под капотом: https://github.com/Mobile-Artificial-Intelligence/maid • Альтернативный вариант для локального запуска под андроид (фронтенд и бекенд сепарированы): https://github.com/Vali-98/ChatterUI • Гайд по установке SillyTavern на ведроид через Termux: https://rentry.co/STAI-Termux Модели и всё что их касается: • Актуальный список моделей с отзывами от тредовичков: https://rentry.co/2ch_llm_moe_2026 • Неактуальные списки моделей в архивных целях: 2025: https://rentry.co/2ch_llm_2025 (версия для бомжей: https://rentry.co/z4nr8ztd ), 2024: https://rentry.co/llm-models , 2023: https://rentry.co/lmg_models • Миксы от тредовичков с уклоном в русский РП: https://huggingface.co/Aleteian и https://huggingface.co/Moraliane • Рейтинг моделей по уровню их закошмаренности цензурой: https://huggingface.co/spaces/DontPlanToEnd/UGI-Leaderboard • Сравнение моделей по сомнительным метрикам: https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard • Сравнение моделей реальными пользователями по чуть менее сомнительным метрикам: https://chat.lmsys.org/?leaderboard Дополнительные ссылки: • Готовые карточки персонажей для ролплея в таверне: https://www.characterhub.org • Перевод нейронками для таверны: https://rentry.co/magic-translation • Пресеты под локальный ролплей в различных форматах: http://web.archive.org/web/20250222044730/https://huggingface.co/Virt-io/SillyTavern-Presets • Шапка почившего треда PygmalionAI с некоторой интересной информацией: https://rentry.co/2ch-pygma-thread • Официальная вики koboldcpp с руководством по более тонкой настройке: https://github.com/LostRuins/koboldcpp/wiki • Официальный гайд по сопряжению бекендов с таверной: https://docs.sillytavern.app/usage/how-to-use-a-self-hosted-model/ • Последний известный колаб для обладателей отсутствия любых возможностей запустить локально: https://colab.research.google.com/drive/11U-bC6AxdmMhd3PF9vWZpLdi6LdfnBQ8?usp=sharing • Инструкции для запуска базы при помощи Docker Compose: https://rentry.co/oddx5sgq https://rentry.co/7kp5avrk • Пошаговое мышление от тредовичка для таверны: https://github.com/cierru/st-stepped-thinking • Потрогать, как работают семплеры: https://artefact2.github.io/llm-sampling/ • Выгрузка избранных тензоров, позволяет ускорить генерацию при недостатке VRAM: https://www.reddit.com/r/LocalLLaMA/comments/1ki7tg7 • Инфа по запуску на MI50: https://github.com/mixa3607/ML-gfx906 • Тесты tensor_parallel: https://rentry.org/8cruvnyw • Доки к LLaMA.cpp со всеми параметрами: https://github.com/ggml-org/llama.cpp/blob/master/tools/server/README.md Архив тредов можно найти на архиваче: https://arhivach.vc/?tags=14780%2C14985 Шапка в https://rentry.co/llama-2ch, предложения принимаются в треде. Предыдущие треды тонут здесь: >>1595096 (OP) >>1593648 (OP)
Локальные языковые модели
большие языковые модели
/ai/ - Искусственный интеллект
2ch
вчера 18:40
Сохранен
5
Понял, что я не просто не хочу тян, я дрочить не хочу. Бывали в такой ситуации? Дрочить через не мо
— Понял, что я не просто не хочу тян, я дрочить не хочу. Бывали в такой ситуации? Дрочить через не могу или что?
/b/ - Бред
2ch
4 мая 13:43
Сохранен
574
Холхы на месте? Я знаю что на месте. Как вам жилось до войны? Правда ли, что дела в гору шли и стр
— Холхы на месте? Я знаю что на месте. Как вам жилось до войны? Правда ли, что дела в гору шли и страна развивалась стремительно?
/b/ - Бред
2ch
4 мая 18:12
Сохранен
56
А кто щас ебёт полину-вагину, может слышали чего? Или она в гермашку свалила?
— А кто щас ебёт полину-вагину, может слышали чего? Или она в гермашку свалила?
/b/ - Бред
2ch
4 мая 16:22
Сохранен
235
Мне 31. - Женат 10 лет - Вместе с 15 лет - Ни разу не изменял - ЗП 140к Отвечу на любые вопросы
— Мне 31. - Женат 10 лет - Вместе с 15 лет - Ни разу не изменял - ЗП 140к Отвечу на любые вопросы
/b/ - Бред
2ch
4 мая 16:08
Сохранен
509
>АРЯЯЯ ДА МНЕ 3060 ЗА ГЛАЗА ХВАТИТ Tom's Hardware: RTX 30 теряют актуальность - без новых DLSS и
— >АРЯЯЯ ДА МНЕ 3060 ЗА ГЛАЗА ХВАТИТ Tom's Hardware: RTX 30 теряют актуальность - без новых DLSS и Frame Generation RTX 30 официально всё, признайте очевидное. Даже 3080 на 10ГБ сейчас в новых тайтлах просто задыхается памяти катастрофически не хватает, текстуры мажутся, а статтеры такие, что играть невозможно. Хуанг окончательно кинул владельцев Ampere через колено новый DLSS 4.5 без тензорных ядер 40/50 серии на 30ках работает криво и даже жрет FPS, а вместо нормальной генерации кадров приходится жрать мыльный FSR 3.1 с артефактами. Сидеть на 8-10 гигах VRAM в 2025 году это чистый мазохизм и самообман про плохую оптимизацию, так что либо сосите лапу в 1080p на средних, либо честно признавайте, что пора сливать это железо на вторичку, пока оно хоть что-то стоит, и перекатываться на 50 серию. Есть кто начнет доказывать, что 3060 на 12ГБ всё еще топ за свои деньги? Самим не смешно?
RTX
видеокарты
/b/ - Бред
2ch
вчера 16:09
Сохранен
27
Чё может быть тупее, чем превозмогание ради пизды и детей? Эта планета буквально состоит из долбоёбо
— Чё может быть тупее, чем превозмогание ради пизды и детей? Эта планета буквально состоит из долбоёбов
/b/ - Бред
2ch
4 мая 14:08
Сохранен
384
Красивых, няшных, секси тян тред Всратух не кидаем, только 8/10 и выше
— Красивых, няшных, секси тян тред Всратух не кидаем, только 8/10 и выше
милые тян
/b/ - Бред
2ch
вчера 17:27
Сохранен
62
Учился в РАНХиГС и за это время сформировалась картина, которую сложно назвать нормальной. Часть пр
— Учился в РАНХиГС и за это время сформировалась картина, которую сложно назвать нормальной. Часть преподавателей позволяла себе переходить границы: тесные контакты со студентками, разговоры о «преференциях», истории про отношения — и это обсуждалось открыто внутри среды. Параллельно — неформальные встречи вне учёбы: алкоголь, тусовки, «свой круг». Профессиональная дистанция в таких условиях фактически исчезала. Когда границы размываются, это уже не про образование, а про системную проблему с этикой. И речь не об одном случае, а о повторяющихся историях, которые воспринимались как обыденность. Среди обсуждаемых фигур — Ефремов Александр Геннадьевич, занимавший руководящие позиции в РАНХиГС. По последней информации, он сообщил о своём увольнении. Вопрос: вы считаете это достаточной реакцией на подобные истории или это лишь попытка закрыть тему без реальных выводов? На фото — та самая студентка, о которой внутри вуза ходили разговоры: «преференции», поездки с преподавателем и явно неформальные отношения.
/b/ - Бред
2ch
4 мая 16:37
Сохранен
24
Какой тариф МТС самый лучший сейчас? Алсо что думаете про скрытые (непубличные) тарифы, безопасно л
— Какой тариф МТС самый лучший сейчас? Алсо что думаете про скрытые (непубличные) тарифы, безопасно ли такие сим-карты покупать? На Озоне полно разных предложений, но выглядит крайне мутно.
/b/ - Бред
2ch
4 мая 14:55
Сохранен
26
Хуя лысый базы навалил Обычно все свои шутки шутит, а тут прям базанул. Оглянуться не успеешь, а теб
— Хуя лысый базы навалил Обычно все свои шутки шутит, а тут прям базанул. Оглянуться не успеешь, а тебя уже поздравляют с сорока чем-то летием, а там уж и помирать пора... Аж тоска берет. Мимо скуф 40 лвл
/b/ - Бред
2ch
4 мая 16:41
Сохранен
20
Рейт сколько нагулял сегодня спокойным шагом Очень хорошо
— Рейт сколько нагулял сегодня спокойным шагом Очень хорошо
/b/ - Бред
2ch
4 мая 13:43
Сохранен
100
Двощ, я работаю на заводе, и щас ходил, как обычно, обедать в заводскую столовку. А там меню какое-т
— Двощ, я работаю на заводе, и щас ходил, как обычно, обедать в заводскую столовку. А там меню какое-то необычное, написано "фронтовое меню". И цены: гороховый суп фронтовой 150р, каша фронтовая 250р. При том, что обычно гороховый стоит 50р, и разницы я не заметил.. Ещё пикрел стоит у входа. Это чё хоть такое то?
/b/ - Бред
2ch
4 мая 17:05
Сохранен
106
Кем работать няшному забитому хикке без вышки в дс? Мне срочно нужны щекели..., но на ххру и авито п
— Кем работать няшному забитому хикке без вышки в дс? Мне срочно нужны щекели..., но на ххру и авито почти нет норм вакансий
/b/ - Бред
2ch
4 мая 13:59
Сохранен
25
Ананасы, проходил кто Vampire Crawlers? Стоит брать? Контент есть? Не заебывает слишком быстро? Игра
— Ананасы, проходил кто Vampire Crawlers? Стоит брать? Контент есть? Не заебывает слишком быстро? Играл в демку, вроде норм, а вроде хуй знает
/b/ - Бред
2ch
4 мая 17:57
Сохранен
18
Наблюдаю красивое ханаби сидя под мостом с сиськой пива, слушую отличную музыку. Сейчас сгоняю за д
— Наблюдаю красивое ханаби сидя под мостом с сиськой пива, слушую отличную музыку. Сейчас сгоняю за джином для пущей кондиции и отвечу каждому боту из /b/.
/b/ - Бред
2ch
4 мая 14:32
Сохранен
22
Выставил клубнику на балкон. А у вас как дела?
— Выставил клубнику на балкон. А у вас как дела?
/b/ - Бред
2ch
4 мая 15:56
Сохранен
74
УЖЕ ПОСМОТРЕЛИ ЭТОТ ВИНЧИК? Шарлиз Терон все еще хороша. Картинка супер приятная на вид. Как думае
— УЖЕ ПОСМОТРЕЛИ ЭТОТ ВИНЧИК? Шарлиз Терон все еще хороша. Картинка супер приятная на вид. Как думаешь, анон, почему рейтинг так занизили?
/b/ - Бред
2ch
4 мая 13:09
Сохранен
420
Буду постить свою электронно-аниме-тохо музыку Специально для господ без ютаба в webm формате
— Буду постить свою электронно-аниме-тохо музыку Специально для господ без ютаба в webm формате
/b/ - Бред
2ch
вчера 10:47
Сохранен
8
Как сесть на пособия по безработице русскому в РФ Аноны, есть ли у кого опыт? Если я например уже Р
— Как сесть на пособия по безработице русскому в РФ Аноны, есть ли у кого опыт? Если я например уже РАБотал, то какую сумму и на протяжении какого времени будут выплачивать? Как оформить такое и какие подводные?
/b/ - Бред
2ch
4 мая 14:25
1
...
33
34
35
36
37
38
39
40
41
42
43
...
168