К сожалению, значительная часть сохранённых до 2024 г. изображений и видео была потеряна (подробности случившегося). Мы призываем всех неравнодушных помочь нам с восстановлением утраченного контента!
Сортировка: за
Активный
505
Локальные языковые модели (LLM): LLaMA, Gemma, Qwen и прочие №180 /llama/ — В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны! Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна. Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку. Официальная вики треда с гайдами по запуску и базовой информацией: https://2ch-ai.github.io/wiki/llama/ Инструменты для запуска на десктопах: • Отец и мать всех инструментов, позволяющий гонять GGML и GGUF форматы: https://github.com/ggml-org/llama.cpp • Самый простой в использовании и установке форк llamacpp: https://github.com/LostRuins/koboldcpp • Более функциональный и универсальный интерфейс для работы с остальными форматами: https://github.com/oobabooga/text-generation-webui • Заточенный под ExllamaV2 (а в будущем и под v3) и в консоли: https://github.com/theroyallab/tabbyAPI • Однокнопочные инструменты на базе llamacpp с ограниченными возможностями: https://github.com/ollama/ollama, https://lmstudio.ai • Универсальный фронтенд, поддерживающий сопряжение с koboldcpp и text-generation-webui: https://github.com/SillyTavern/SillyTavern • Альтернативный фронт: https://github.com/kwaroran/RisuAI Инструменты для запуска на мобилках: • Интерфейс для локального запуска моделей под андроид с llamacpp под капотом: https://github.com/Mobile-Artificial-Intelligence/maid • Альтернативный вариант для локального запуска под андроид (фронтенд и бекенд сепарированы): https://github.com/Vali-98/ChatterUI • Гайд по установке SillyTavern на ведроид через Termux: https://rentry.co/STAI-Termux Модели и всё что их касается: • Актуальный список моделей с отзывами от тредовичков: https://rentry.co/2ch_llm_2025 (версия для бомжей: https://rentry.co/z4nr8ztd ) • Неактуальные списки моделей в архивных целях: 2024: https://rentry.co/llm-models , 2023: https://rentry.co/lmg_models • Миксы от тредовичков с уклоном в русский РП: https://huggingface.co/Aleteian и https://huggingface.co/Moraliane • Рейтинг моделей по уровню их закошмаренности цензурой: https://huggingface.co/spaces/DontPlanToEnd/UGI-Leaderboard • Сравнение моделей по сомнительным метрикам: https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard • Сравнение моделей реальными пользователями по чуть менее сомнительным метрикам: https://chat.lmsys.org/?leaderboard Дополнительные ссылки: • Готовые карточки персонажей для ролплея в таверне: https://www.characterhub.org • Перевод нейронками для таверны: https://rentry.co/magic-translation • Пресеты под локальный ролплей в различных форматах: https://huggingface.co/Virt-io/SillyTavern-Presets • Шапка почившего треда PygmalionAI с некоторой интересной информацией: https://rentry.co/2ch-pygma-thread • Официальная вики koboldcpp с руководством по более тонкой настройке: https://github.com/LostRuins/koboldcpp/wiki • Официальный гайд по сопряжению бекендов с таверной: https://docs.sillytavern.app/usage/how-to-use-a-self-hosted-model/ • Последний известный колаб для обладателей отсутствия любых возможностей запустить локально: https://colab.research.google.com/drive/11U-bC6AxdmMhd3PF9vWZpLdi6LdfnBQ8?usp=sharing • Инструкции для запуска базы при помощи Docker Compose: https://rentry.co/oddx5sgq https://rentry.co/7kp5avrk • Пошаговое мышление от тредовичка для таверны: https://github.com/cierru/st-stepped-thinking • Потрогать, как работают семплеры: https://artefact2.github.io/llm-sampling/ • Выгрузка избранных тензоров, позволяет ускорить генерацию при недостатке VRAM: https://www.reddit.com/r/LocalLLaMA/comments/1ki7tg7 • Инфа по запуску на MI50: https://github.com/mixa3607/ML-gfx906 • Тесты tensor_parallel: https://rentry.org/8cruvnyw Архив тредов можно найти на архиваче: https://arhivach.hk/?tags=14780%2C14985 Шапка в https://rentry.co/llama-2ch, предложения принимаются в треде. Предыдущие треды тонут здесь: >>1426038 (OP) >>1418668 (OP)
16 декабря 14:44
Активный
533
Локальные языковые модели (LLM): LLaMA, Gemma, Qwen и прочие №179 /llama/ — В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны! Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна. Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку. Официальная вики треда с гайдами по запуску и базовой информацией: https://2ch-ai.github.io/wiki/llama/ Инструменты для запуска на десктопах: • Отец и мать всех инструментов, позволяющий гонять GGML и GGUF форматы: https://github.com/ggml-org/llama.cpp • Самый простой в использовании и установке форк llamacpp: https://github.com/LostRuins/koboldcpp • Более функциональный и универсальный интерфейс для работы с остальными форматами: https://github.com/oobabooga/text-generation-webui • Заточенный под ExllamaV2 (а в будущем и под v3) и в консоли: https://github.com/theroyallab/tabbyAPI • Однокнопочные инструменты на базе llamacpp с ограниченными возможностями: https://github.com/ollama/ollama, https://lmstudio.ai • Универсальный фронтенд, поддерживающий сопряжение с koboldcpp и text-generation-webui: https://github.com/SillyTavern/SillyTavern • Альтернативный фронт: https://github.com/kwaroran/RisuAI Инструменты для запуска на мобилках: • Интерфейс для локального запуска моделей под андроид с llamacpp под капотом: https://github.com/Mobile-Artificial-Intelligence/maid • Альтернативный вариант для локального запуска под андроид (фронтенд и бекенд сепарированы): https://github.com/Vali-98/ChatterUI • Гайд по установке SillyTavern на ведроид через Termux: https://rentry.co/STAI-Termux Модели и всё что их касается: • Актуальный список моделей с отзывами от тредовичков: https://rentry.co/2ch_llm_2025 (версия для бомжей: https://rentry.co/z4nr8ztd ) • Неактуальные списки моделей в архивных целях: 2024: https://rentry.co/llm-models , 2023: https://rentry.co/lmg_models • Миксы от тредовичков с уклоном в русский РП: https://huggingface.co/Aleteian и https://huggingface.co/Moraliane • Рейтинг моделей по уровню их закошмаренности цензурой: https://huggingface.co/spaces/DontPlanToEnd/UGI-Leaderboard • Сравнение моделей по сомнительным метрикам: https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard • Сравнение моделей реальными пользователями по чуть менее сомнительным метрикам: https://chat.lmsys.org/?leaderboard Дополнительные ссылки: • Готовые карточки персонажей для ролплея в таверне: https://www.characterhub.org • Перевод нейронками для таверны: https://rentry.co/magic-translation • Пресеты под локальный ролплей в различных форматах: https://huggingface.co/Virt-io/SillyTavern-Presets • Шапка почившего треда PygmalionAI с некоторой интересной информацией: https://rentry.co/2ch-pygma-thread • Официальная вики koboldcpp с руководством по более тонкой настройке: https://github.com/LostRuins/koboldcpp/wiki • Официальный гайд по сопряжению бекендов с таверной: https://docs.sillytavern.app/usage/how-to-use-a-self-hosted-model/ • Последний известный колаб для обладателей отсутствия любых возможностей запустить локально: https://colab.research.google.com/drive/11U-bC6AxdmMhd3PF9vWZpLdi6LdfnBQ8?usp=sharing • Инструкции для запуска базы при помощи Docker Compose: https://rentry.co/oddx5sgq https://rentry.co/7kp5avrk • Пошаговое мышление от тредовичка для таверны: https://github.com/cierru/st-stepped-thinking • Потрогать, как работают семплеры: https://artefact2.github.io/llm-sampling/ • Выгрузка избранных тензоров, позволяет ускорить генерацию при недостатке VRAM: https://www.reddit.com/r/LocalLLaMA/comments/1ki7tg7 • Инфа по запуску на MI50: https://github.com/mixa3607/ML-gfx906 • Тесты tensor_parallel: https://rentry.org/8cruvnyw Архив тредов можно найти на архиваче: https://arhivach.hk/?tags=14780%2C14985 Шапка в https://rentry.co/llama-2ch, предложения принимаются в треде. Предыдущие треды тонут здесь: >>1418668 (OP) >>1413912 (OP)
16 декабря 14:44
Активный
530
Локальные языковые модели (LLM): LLaMA, Gemma, Qwen и прочие №178 /llama/ — В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны! Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна. Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку. Официальная вики треда с гайдами по запуску и базовой информацией: https://2ch-ai.github.io/wiki/llama/ Инструменты для запуска на десктопах: • Отец и мать всех инструментов, позволяющий гонять GGML и GGUF форматы: https://github.com/ggml-org/llama.cpp • Самый простой в использовании и установке форк llamacpp: https://github.com/LostRuins/koboldcpp • Более функциональный и универсальный интерфейс для работы с остальными форматами: https://github.com/oobabooga/text-generation-webui • Заточенный под ExllamaV2 (а в будущем и под v3) и в консоли: https://github.com/theroyallab/tabbyAPI • Однокнопочные инструменты на базе llamacpp с ограниченными возможностями: https://github.com/ollama/ollama, https://lmstudio.ai • Универсальный фронтенд, поддерживающий сопряжение с koboldcpp и text-generation-webui: https://github.com/SillyTavern/SillyTavern • Альтернативный фронт: https://github.com/kwaroran/RisuAI Инструменты для запуска на мобилках: • Интерфейс для локального запуска моделей под андроид с llamacpp под капотом: https://github.com/Mobile-Artificial-Intelligence/maid • Альтернативный вариант для локального запуска под андроид (фронтенд и бекенд сепарированы): https://github.com/Vali-98/ChatterUI • Гайд по установке SillyTavern на ведроид через Termux: https://rentry.co/STAI-Termux Модели и всё что их касается: • Актуальный список моделей с отзывами от тредовичков: https://rentry.co/2ch_llm_2025 (версия для бомжей: https://rentry.co/z4nr8ztd ) • Неактуальные списки моделей в архивных целях: 2024: https://rentry.co/llm-models , 2023: https://rentry.co/lmg_models • Миксы от тредовичков с уклоном в русский РП: https://huggingface.co/Aleteian и https://huggingface.co/Moraliane • Рейтинг моделей по уровню их закошмаренности цензурой: https://huggingface.co/spaces/DontPlanToEnd/UGI-Leaderboard • Сравнение моделей по сомнительным метрикам: https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard • Сравнение моделей реальными пользователями по чуть менее сомнительным метрикам: https://chat.lmsys.org/?leaderboard Дополнительные ссылки: • Готовые карточки персонажей для ролплея в таверне: https://www.characterhub.org • Перевод нейронками для таверны: https://rentry.co/magic-translation • Пресеты под локальный ролплей в различных форматах: https://huggingface.co/Virt-io/SillyTavern-Presets • Шапка почившего треда PygmalionAI с некоторой интересной информацией: https://rentry.co/2ch-pygma-thread • Официальная вики koboldcpp с руководством по более тонкой настройке: https://github.com/LostRuins/koboldcpp/wiki • Официальный гайд по сопряжению бекендов с таверной: https://docs.sillytavern.app/usage/how-to-use-a-self-hosted-model/ • Последний известный колаб для обладателей отсутствия любых возможностей запустить локально: https://colab.research.google.com/drive/11U-bC6AxdmMhd3PF9vWZpLdi6LdfnBQ8?usp=sharing • Инструкции для запуска базы при помощи Docker Compose: https://rentry.co/oddx5sgq https://rentry.co/7kp5avrk • Пошаговое мышление от тредовичка для таверны: https://github.com/cierru/st-stepped-thinking • Потрогать, как работают семплеры: https://artefact2.github.io/llm-sampling/ • Выгрузка избранных тензоров, позволяет ускорить генерацию при недостатке VRAM: https://www.reddit.com/r/LocalLLaMA/comments/1ki7tg7 • Инфа по запуску на MI50: https://github.com/mixa3607/ML-gfx906 • Тесты tensor_parallel: https://rentry.org/8cruvnyw Архив тредов можно найти на архиваче: https://arhivach.hk/?tags=14780%2C14985 Шапка в https://rentry.co/llama-2ch, предложения принимаются в треде. Предыдущие треды тонут здесь: >>1413912 (OP) >>1408486 (OP)
16 декабря 14:44
Сохранен
335
В России отмечен самый низкий уровень рождаемости за два десятилетия Путин пожелал: "Чтобы мужчины б — В России отмечен самый низкий уровень рождаемости за два десятилетия Путин пожелал: "Чтобы мужчины более активно участвовали в семейных заботах". Предпринятых мер для решения демографических проблем в России оказалось недостаточно, заявил президент РФ Владимир Путин на заседании совета по стратегическому развитию и национальным проектам. «К сожалению, негативная тенденция сохраняется, рождаемость продолжает снижаться», — констатировал Путин. По его словам, сказываются «объективные причины», включая «общемировые демографические тенденции», внешние вызовы, а также наложение демографических волн середины и конца XX века, которые «вновь дают о себе знать». «Наша долгосрочная историческая задача заключается в сбережении и преумножении нашего народа», — сказал Путин, обращаясь к чиновникам и министрам. Он призвал «усилить действующие меры на всех уровнях», чтобы переломить тенденцию на снижение рождаемости. Показатель рождаемости в 2025 упал до исторического минимума 2006 года, составив рекордно низкие 1,367 ребёнка на женщину
19 декабря 13:19
Активный
504
Мышиный тред №36 /mouse/ — Mice Mini FAQ: https://docs.google.com/document/d/1din1otIgfmXp4E6IbgWlpGo9Xj3wYZhQDfNJ45Z7Gpw Прочёл насмерть устаревший FAQ, нужна рекомендация? Укажи: 1. Бюджет (в рублях, долларах) 2. Размер кисти руки (в сантиметрах) 3. Хват (в словах) 4. Мышь, которая удобна своей формой (в воспоминаниях) 5. Наличие топ-сенсора (обязательно или нет) 6. Другие хотелки, например, беспровод и низкий вес Сравнение мышей 3D: https://www.rtings.com/mouse/tools/3d-model-shape-compare?orientation=3D Силуэтов 2D: https://www.eloshapes.com Рейтинг мышей с указанием сенсора и микриков: https://docs.google.com/spreadsheets/d/1u6vMgrOMinFEV9DKTf9FHsAnrj1PwkDUAvaCiIJlmfo/edit?usp=drivesdk Замер микриков: https://docs.google.com/spreadsheets/d/1rakrmya3t4Ug3CKKbmKFzF8a9IfdhF7tsud8W1-bz20/edit?gid=99232801#gid=99232801 Замеры ковров: https://docs.google.com/spreadsheets/d/159aQ_JsUOg-KDLwOGdM8WyOEgfaDkmsb6Vlxnkw23-c/edit?gid=907849023#gid=907849023 Ищешь мышь без даблклика и проблем со скроллом? Список мышей с оптикой: Беспровод: Lamzu Paro, Thunderobot ML9 mini, Lenovo Legion M7, Razer Basilisk Mobile Проводные: Cooler Master MM730, Cooler Master MM720, Bloody только A серия Разные версии: Razer Basilisk V3, Logitech G502X Прошлый тред: >>7413745 (OP)
14 декабря 9:47
Удален?
23
14 декабря 9:47
Сохранен
15
19 декабря 5:25
Сохранен
26
18 декабря 22:01
Сохранен
215
Стим - это тюрьма и предтеча мессенджера MAX Аноны, SOS. Steam ебет мой покой. Помогите сжечь этот — Стим - это тюрьма и предтеча мессенджера MAX Аноны, SOS. Steam ебет мой покой. Помогите сжечь этот цифровой концлагерь. СРОЧНО НУЖНА КОНСУЛЬТАЦИЯ ХАКЕРОВ И ЮРИСТОВ-АНОНИМУСОВ. ВСЁ, БЛЯДЬ, НАДОЕЛО. ЕБАНАЯ СИСТЕМА СТИМА: В 15 лет, долбоёбом, обменялся какими-то вещами по доте с одноклассниками. Ни о чём не думал. А ЭТА ЕБУЧАЯ ПЛАТФОРМА НАВСЕГДА ВШИЛА ССЫЛКУ НА МОЙ ПРОФИЛЬ В ИХ ИСТОРИЮ ТРЕЙДОВ. ТИПА «ВОТ ЭТОМУ ЧЕЛУ ВЫ ОТДАЛИ СВОЙ КЛЮЧ ОТ КИЛЛСТРИКА, ЗАПОМНИТЕ ЕГО НАВСЕГДА». Даже если я сменю ник, аву, всё удалю — ссылка останется. Это пиздец. ЧЕМ ЭТО ГРОЗИТ: Любой, с кем ты когда-либо взаимодействовал в стиме, имеет перманентный пропуск к твоему профилю. Это как если бы в паспорте был QR-код, ведущий на камеру в твоей комнате. Можно выключить свет (приватность), но сам факт, что у кого-то есть координаты этой комнаты — ебет мозг. Нельзя удалиться. Нельзя начать с чистого листа. Ты ПРИКОВАН к своей цифровой истории. В ЧЁМ ПРОБЛЕМА СЕГОДНЯ: Эти ебланы из прошлого могут в любой день загореться хуйнёй и начать сталкерить мою активность. Видеть, во что я играю. С кем играю. Делать выводы. Обсуждать. Мои игры — это моя личная терапия, а не публичное шоу для быдла. Настройки приватности — это костыль, который не лечит болезнь. Болезнь — это сама архитектура стима. ВОПРОСЫ К ПУЛУ РАЗУМА /b/ И /vg/: ТЕХНИЧЕСКИЕ: Есть ли реальный способ ОБРУБИТЬ ЭТУ СВЯЗЬ? Взломать/удалить запись о трейде НЕ В СВОЁМ, А В ЧУЖОМ АККАУНТЕ? Или это невозможно в принципе из-за их ебучей «неизменяемой базы»? ЮРИДИЧЕСКИЕ: Могу ли я, как пользователь, требовать у Valve «права на цифровое забвение»? Чтобы они ПО ЗАПРОСУ удаляли следы моих старых взаимодействий из аккаунтов других людей? Или я полностью подписался на эту диктатуру, принимая ToS? ФИЛОСОФСКИЕ: Почему все просто смирились с этим? Почему нормально, что игровая платформа, за которую мы платим, намертво привязывает нас к нашему прошлому и людям, от которых мы хотим уйти? ПРАКТИЧЕСКИЕ: Какие платформы/магазины НЕ ЕБУТ мозг своей соц-сетью? Где я просто покупаю игру, и она МОЯ, без слежки, друзей, трейдов и перманентных ссылок? GOG? Itch.io? Пиратка? Это единственный выход? Я НЕ ХОЧУ ДВА АККАУНТА. Я ХОЧУ, ЧТОБЫ МОЙ ЕДИНСТВЕННЫЙ АККАУНТ БЫЛ ПО-НАСТОЯЩЕМУ МОИМ И Я КОНТРОЛИРОВАЛ, КТО И ЧТО О НЁМ ЗНАЕТ. Steam создал тюрьму, где твоя игровая жизнь — это публичный архив. Как из неё сбежать, не теряя библиотеки? ВСЁ, ЖДУ ПРЕДЛОЖЕНИЙ, КРОМЕ «ПРИМИ И РАССЛАБЬСЯ». ЭТО УЖЕ НЕ РАБОТАЕТ.
19 декабря 14:09
Сохранен
30
19 декабря 0:03
Сохранен
55
19 декабря 11:43
Сохранен
15
19 декабря 0:24
Сохранен
2
19 декабря 0:53
Сохранен
46
19 декабря 3:13
Сохранен
49
19 декабря 8:55
Сохранен
159
19 декабря 0:42
Сохранен
65
19 декабря 2:27
Сохранен
523
19 декабря 19:57
Сохранен
18
18 декабря 20:53
Сохранен
34
Ждем новых извинений от степашек. — https://lenta.ru/news/2025/12/18/new-conflict/ Апти Алаудинов обратился к Вассерману и пригрозил его помощнику > Видеообращение стало ответом на депутатский запрос Вассермана, опубликованный в канале Носикова. В нем парламентарий заявил об уважении к Алаудинову, однако отметил, что вокруг командира «Ахмата» «вьются хороводом» деятели, которые полагают генерала «своим инструментом для решения личных проблем с правосудием». Вассерман отметил, что один из них внесен в список террористов и экстремистов, и обратился к Алаудинову со словами «могу лишь предложить вам (...) приказать прекратить этот балаган». Запрос может быть связан с недавним конфликтом между военблогерами, военкорами и бойцами «Ахмата». > > Алаудинов счел, что под балаганом Вассерман имеет в виду именно его деятельность, и захотел узнать, что именно из его занятий — написание книг, «работу на объединение» или участие в СВО — депутат считает балаганом. Кроме того, генерал заявил Вассерману, что считает балаганом факт наличия у того вплоть до 2016 года украинского гражданства. Генерал добавил, что для того, чтобы задавать ему вопросы, у политика «спрашивалка не выросла». > Замглавы ГВПУ также сообщил, что приложит усилия, чтобы привлечь к ответственности помощника Вассермана, который и опубликовал депутатский запрос. «К вашему сведению, Анатолий, может быть, у вас и есть депутатская неприкосновенность, а вот как раз у Носикова ее нет, и я так думаю, что после новогодних праздников я ему, даст бог, дам по заслугам», — заявил Алаудинов.
18 декабря 18:12
Сохранен
37
Страна 404 — Госдума разрешила депутатам и чиновникам не публиковать декларации о доходах Депутаты Госдумы сразу во втором и третьем чтении приняли законопроект, по которому государственные и муниципальные служащие, судьи, депутаты и сенаторы, губернаторы, члены правительства, сотрудники пенсионного фонда, Центробанка, работники прокуратуры и т. д., больше не обязаны ежегодно публиковать декларации о доходах. Об этом сообщил «Интерфакс». Инициатива была внесена в Государственную думу 10 декабря — группой депутатов, в которую вошли парламентарии всех фракций во главе с председателем комитета по безопасности и противодействию коррупции Василием Пискаревым. Теперь депутаты и госслужащие будут предоставлять сведения о доходах и имуществе при поступлении на государственную службу, переходе на другую должность и из одного органа в другой, включении в федеральный кадровый резерв. Также такую информацию будут предоставлять при заключении сделок, сумма которых выше совокупного дохода чиновников и его семьи за три года. Утверждается, что вместо ежегодной подачи декларации будет непрерывный автоматизированный антикоррупционный контроль через государственную систему «Посейдон». Но публиковать декларации чиновники теперь не обязаны. «Мы фактически ликвидируем публичную информацию, которая о должностных лицах предоставляется в СМИ. Это уводит нас от механизмов и общественной открытости с одной стороны, и от механизмов борьбы с коррупцией, публичного интереса борьбы с этой самой коррупцией. Если не бороться с коррупцией всем обществом, а не только силами правоохранительных органов, то движения особого не будет», — заявил депутат от КПРФ Алексей Куринный, слова которого приводит (https://t.me/faridaily24/1842) журналистка Фарида Рустамова. Ему ответил единоросс Дмитрий Вяткин, заявив, что те, кого не устраивают поправки, могут публиковать свои декларации самостоятельно, и обвинил их в том, что они лишь пытаются казаться честными людьми. По его словам, борьбой с коррупцией не должны заниматься журналисты и общественность: с коррупцией разберутся правоохранители, а обнародование деклараций чиновников Вяткин назвал направленным «на потеху публике». Сейчас госслужащие подают декларации о своих доходах и расходах, а также супругов и несовершеннолетних детей. Они должны предоставлять сведения ежегодно до 1 апреля. С 2023 года эта информация не публикуется, в конце 2022 года Владимир Путин подписал указ, по которому такие сведения не размещаются на сайтах ведомств и СМИ в период проведения «СВО».
19 декабря 12:32
Сохранен
7
18 декабря 21:30
Сохранен
118
И так, аноны. Все мы в очередной развидим,что людей натравливают друг на друга, отвлекая внимание от — И так, аноны. Все мы в очередной развидим,что людей натравливают друг на друга, отвлекая внимание от истинного виновника всех бед - буржуазии. Поскольку коренные народы России бок о бок сражаются на войне и забыли все разногласия ради победы, они в любой момент могут выступить против бездарного режима, который проворовался и мешает им победить своими подковёрными схемами, которые потом оказываются обманом. Поэтому режиму нужны новые толпища лоялистов, которые станут штрейкбрехерами и боевиками на его защите. Поэтому их вводят в конфликт с местным населением, мешая им ассимилироваться, запрещая им обучение в школах, чтоб они не могли выучить язык. Те же кто ихзавозит объявляют их причиной всех бед и призывают бороться тольео с ними. Националистическая истерия растёт, все стороны во все голоса верещат "они режут наших детей!" и резня действительна идёт, завязываются цепочки мести, а буржуи продолжают возлагать на население всё новые тяготы, через государство повышают налоги, борятся с конкурентами через цензуру и белые списки, уменьшая количество и качество услуг за ту же цену. При этом активно пестуются всякие общины, дшрг-русичи, прочие черносотенцы и одновременно толпами едут радикальные муллы, разрешается движение Талибан, Джулани наш лушийдруг. Путин целут Ильина и цитирует Коран.
19 декабря 18:19
Сохранен
22
19 декабря 3:29
Сохранен
19
18 декабря 16:49