К сожалению, значительная часть сохранённых до 2024 г. изображений и видео была потеряна (подробности случившегося). Мы призываем всех неравнодушных помочь нам с восстановлением утраченного контента!
Сортировка: за
Активный
35
сегодня 5:33
Сохранен
82
вчера 22:10
Активный
280
сегодня 3:59
Активный
263
сегодня 5:33
Активный
22
сегодня 0:44
Сохранен
290
вчера 21:47
Сохранен
80
вчера 21:27
Активный
345
сегодня 5:10
Активный
286
сегодня 5:17
Активный
45
Издание «Инсайдер» извинилось за публикацию фотографий трупа Навального — Напомним, как развивалась ситуация. 14.26: Мария Певчих предупреждает о намерении «ряда СМИ» опубликовать полную судмедэкспертизу тела Навального. 15.19: анонимный телеграм-канал с единицами подписчиков «Черное зеркало» начинает публикацию документов. Ранее канал был заблокирован телеграмом за публикацию взломанных частных переписок и требование денег за их полные версии (в том числе с авторов самих переписок). 15.43: «Инсайдер» публикует ссылку на этот материал с фото трупа Навального, причем в тексте новости о нем содержится развернутый комментарий «врача Навального» Александра Полупана, явно подготовленный заранее. В соцсетях начинается критика «Инсайдера». 17.44: «Инсайдер» убирает фото трупа из новости, заявляя, что оно «может травмировать близких Алексея». При этом отсутствуют ответы на вопросы: каким образом «Инсайдер» заметил публикацию в канале на примерно 10 подписчиков? Не была ли публикация согласована со СМИ? как эксперт «Инсайдера» Полупан успел ознакомиться с материалом экспертизы на сотни страниц и дать свой комментарий менее, чем за полчаса? как связаны «Инсайдер» и сообщество хакеров-шантажистов «Черное зеркало»? https://sotaproject.com/news/110202
сегодня 4:45
Сохранен
111
вчера 22:35
Активный
206
Локальные языковые модели (LLM): LLaMA, Gemma, Qwen и прочие №203 /llama/ — В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны! Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна. Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку. Официальная вики треда с гайдами по запуску и базовой информацией: https://2ch-ai.github.io/wiki/llama/ Инструменты для запуска на десктопах: • Отец и мать всех инструментов, позволяющий гонять GGML и GGUF форматы: https://github.com/ggml-org/llama.cpp • Самый простой в использовании и установке форк llamacpp: https://github.com/LostRuins/koboldcpp • Более функциональный и универсальный интерфейс для работы с остальными форматами: https://github.com/oobabooga/text-generation-webui • Заточенный под Exllama (V2 и V3) и в консоли: https://github.com/theroyallab/tabbyAPI • Однокнопочные инструменты на базе llamacpp с ограниченными возможностями: https://github.com/ollama/ollama, https://lmstudio.ai • Универсальный фронтенд, поддерживающий сопряжение с koboldcpp и text-generation-webui: https://github.com/SillyTavern/SillyTavern • Альтернативный фронт: https://github.com/kwaroran/RisuAI Инструменты для запуска на мобилках: • Интерфейс для локального запуска моделей под андроид с llamacpp под капотом: https://github.com/Mobile-Artificial-Intelligence/maid • Альтернативный вариант для локального запуска под андроид (фронтенд и бекенд сепарированы): https://github.com/Vali-98/ChatterUI • Гайд по установке SillyTavern на ведроид через Termux: https://rentry.co/STAI-Termux Модели и всё что их касается: • Актуальный список моделей с отзывами от тредовичков: https://rentry.co/2ch_llm_moe_2026 • Неактуальные списки моделей в архивных целях: 2025: https://rentry.co/2ch_llm_2025 (версия для бомжей: https://rentry.co/z4nr8ztd ), 2024: https://rentry.co/llm-models , 2023: https://rentry.co/lmg_models • Миксы от тредовичков с уклоном в русский РП: https://huggingface.co/Aleteian и https://huggingface.co/Moraliane • Рейтинг моделей по уровню их закошмаренности цензурой: https://huggingface.co/spaces/DontPlanToEnd/UGI-Leaderboard • Сравнение моделей по сомнительным метрикам: https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard • Сравнение моделей реальными пользователями по чуть менее сомнительным метрикам: https://chat.lmsys.org/?leaderboard Дополнительные ссылки: • Готовые карточки персонажей для ролплея в таверне: https://www.characterhub.org • Перевод нейронками для таверны: https://rentry.co/magic-translation • Пресеты под локальный ролплей в различных форматах: http://web.archive.org/web/20250222044730/https://huggingface.co/Virt-io/SillyTavern-Presets • Шапка почившего треда PygmalionAI с некоторой интересной информацией: https://rentry.co/2ch-pygma-thread • Официальная вики koboldcpp с руководством по более тонкой настройке: https://github.com/LostRuins/koboldcpp/wiki • Официальный гайд по сопряжению бекендов с таверной: https://docs.sillytavern.app/usage/how-to-use-a-self-hosted-model/ • Последний известный колаб для обладателей отсутствия любых возможностей запустить локально: https://colab.research.google.com/drive/11U-bC6AxdmMhd3PF9vWZpLdi6LdfnBQ8?usp=sharing • Инструкции для запуска базы при помощи Docker Compose: https://rentry.co/oddx5sgq https://rentry.co/7kp5avrk • Пошаговое мышление от тредовичка для таверны: https://github.com/cierru/st-stepped-thinking • Потрогать, как работают семплеры: https://artefact2.github.io/llm-sampling/ • Выгрузка избранных тензоров, позволяет ускорить генерацию при недостатке VRAM: https://www.reddit.com/r/LocalLLaMA/comments/1ki7tg7 • Инфа по запуску на MI50: https://github.com/mixa3607/ML-gfx906 • Тесты tensor_parallel: https://rentry.org/8cruvnyw Архив тредов можно найти на архиваче: https://arhivach.vc/?tags=14780%2C14985 Шапка в https://rentry.co/llama-2ch, предложения принимаются в треде. Предыдущие треды тонут здесь: >>1541627 (OP) >>1538359 (OP)
сегодня 2:26
Активный
525
Локальные языковые модели (LLM): LLaMA, Gemma, Qwen и прочие №202 /llama/ — В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны! Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна. Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку. Официальная вики треда с гайдами по запуску и базовой информацией: https://2ch-ai.github.io/wiki/llama/ Инструменты для запуска на десктопах: • Отец и мать всех инструментов, позволяющий гонять GGML и GGUF форматы: https://github.com/ggml-org/llama.cpp • Самый простой в использовании и установке форк llamacpp: https://github.com/LostRuins/koboldcpp • Более функциональный и универсальный интерфейс для работы с остальными форматами: https://github.com/oobabooga/text-generation-webui • Заточенный под Exllama (V2 и V3) и в консоли: https://github.com/theroyallab/tabbyAPI • Однокнопочные инструменты на базе llamacpp с ограниченными возможностями: https://github.com/ollama/ollama, https://lmstudio.ai • Универсальный фронтенд, поддерживающий сопряжение с koboldcpp и text-generation-webui: https://github.com/SillyTavern/SillyTavern • Альтернативный фронт: https://github.com/kwaroran/RisuAI Инструменты для запуска на мобилках: • Интерфейс для локального запуска моделей под андроид с llamacpp под капотом: https://github.com/Mobile-Artificial-Intelligence/maid • Альтернативный вариант для локального запуска под андроид (фронтенд и бекенд сепарированы): https://github.com/Vali-98/ChatterUI • Гайд по установке SillyTavern на ведроид через Termux: https://rentry.co/STAI-Termux Модели и всё что их касается: • Актуальный список моделей с отзывами от тредовичков: https://rentry.co/2ch_llm_moe_2026 • Неактуальные списки моделей в архивных целях: 2025: https://rentry.co/2ch_llm_2025 (версия для бомжей: https://rentry.co/z4nr8ztd ), 2024: https://rentry.co/llm-models , 2023: https://rentry.co/lmg_models • Миксы от тредовичков с уклоном в русский РП: https://huggingface.co/Aleteian и https://huggingface.co/Moraliane • Рейтинг моделей по уровню их закошмаренности цензурой: https://huggingface.co/spaces/DontPlanToEnd/UGI-Leaderboard • Сравнение моделей по сомнительным метрикам: https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard • Сравнение моделей реальными пользователями по чуть менее сомнительным метрикам: https://chat.lmsys.org/?leaderboard Дополнительные ссылки: • Готовые карточки персонажей для ролплея в таверне: https://www.characterhub.org • Перевод нейронками для таверны: https://rentry.co/magic-translation • Пресеты под локальный ролплей в различных форматах: http://web.archive.org/web/20250222044730/https://huggingface.co/Virt-io/SillyTavern-Presets • Шапка почившего треда PygmalionAI с некоторой интересной информацией: https://rentry.co/2ch-pygma-thread • Официальная вики koboldcpp с руководством по более тонкой настройке: https://github.com/LostRuins/koboldcpp/wiki • Официальный гайд по сопряжению бекендов с таверной: https://docs.sillytavern.app/usage/how-to-use-a-self-hosted-model/ • Последний известный колаб для обладателей отсутствия любых возможностей запустить локально: https://colab.research.google.com/drive/11U-bC6AxdmMhd3PF9vWZpLdi6LdfnBQ8?usp=sharing • Инструкции для запуска базы при помощи Docker Compose: https://rentry.co/oddx5sgq https://rentry.co/7kp5avrk • Пошаговое мышление от тредовичка для таверны: https://github.com/cierru/st-stepped-thinking • Потрогать, как работают семплеры: https://artefact2.github.io/llm-sampling/ • Выгрузка избранных тензоров, позволяет ускорить генерацию при недостатке VRAM: https://www.reddit.com/r/LocalLLaMA/comments/1ki7tg7 • Инфа по запуску на MI50: https://github.com/mixa3607/ML-gfx906 • Тесты tensor_parallel: https://rentry.org/8cruvnyw Архив тредов можно найти на архиваче: https://arhivach.vc/?tags=14780%2C14985 Шапка в https://rentry.co/llama-2ch, предложения принимаются в треде. Предыдущие треды тонут здесь: >>1538359 (OP) >>1535243 (OP)
8 марта 18:14
Активный
32
вчера 22:54
Активный
8
сегодня 3:59
Активный
16
Просто напоминаю — Жайык ака Яик, ныне Оренбуржье, был заселён степашками, чтобы отрезать казанских татар и башкир от киргиз-кайсаков Крым был заселён степашками, чтобы унасекомить греческое и крымское (татарское) присутствие на полуострове, а в 1940х крымцев из Крыма попросту депортировали Уссурийский край был заселён степашками, чтобы подавить и без того крохотное число тунгусов-маньчжур Ростов-на-Дону казаками считался заповедником хуйни, где жили мужики и армяне. Он же подавил казачий Новочеркасск Надтеречная Чечня всё понятно. Как и вся равнина к северу от Кавказа. Были просто кавказцы, стали непременно горцы. Адыг почти уничтожили как этническую единицу, расколов начетверо, изгнав большинство Украинское присутствие на Кубани полностью ликвидировано. Балакающие на живом запорожском диалекте казаки с фамилиями вроде Непейпиво теперь на бумаге этнически едины с поморами и сибиряками. Донбасс проходит этот же процесс прямо сейчас От уже насквозь декарелизированной Карелии отобрали Перешеек в пользу Ленинграда и области, а саму Карелию лишили статуса государства-члена Союза Тыва вошла в состав РСФСР на правах всего лишь автономной республики. Ранее — полноценное государство с полноценной внешней политикой. Даже войну Германии успели объявить Целиком депортировано немецкое (=онемеченное балтское) население Пруссии (без «восточной», это и есть оригинальная Пруссия). Целиком депортировано немецкое население Саратовской степи (позже часть вернулась) Часто местом депортации служила Центральная Азия. Чаще всего и без того слабозаселённые местными аридные регионы. Казахи на момент выхода из СССР были в Казахстане меньшинством Перечень до выходных. Терпитория р. мира — зона перманентной депортации, замещения и ассимиляции. Всё ради этнической и культурной гомогенности на участках суши под покрасом. Гомогенность позволяет байтить на гойду ради дальнейшего покраса, а покрас — это р. Бог Инб4 ря а вот в Америке! а вот в Америке была Аляска, где велся настоящий геноцид тлинкитов и замещение алеутов, ЛИБО внезапно их же ассимиляция с превращением в тоже-р. Спасли расстояния и логистика. И если кто-то из вотэбаутов занимался ранее тем же, чем и р. мир, ныне он признаёт свои былые косяки. Тем временем р. мир продолжает ту же политику в 21 веке. Можете ради интереса справиться о численности коми и карел по переписям 2002 и 2020, один простой пример
сегодня 5:33
Активный
3
вчера 20:03
Активный
71
сегодня 5:33
Активный
16
сегодня 5:08
Активный
84
сегодня 5:32
Активный
3
вчера 19:50
Активный
56
вчера 21:44
Активный
33
сегодня 4:57
Удален?
18
вчера 20:47
Активный
8
Базированный Афган — Постоянно слышу в западных СМИ про угнетение женщин в Афгане, злых талибов которые угнетают демократические ценности и швабодку. А вот что происходит в реальности: https://www.youtube.com/watch?v=WTwBzPmWKzY&list=PLiHrxmFHmwWkEb8uQRm6Q0dmAoX6xxAdh&index=10 Лунопопый беляш на велике с дорогими камерами проехался по всему Афгану, причем по сельской местности, но никто его не стопнул и не грабанул. Даже в жопу не выебали. Вы можете такое представить у нас или где то в еврожопе? Я уж молчу про США, там вообще перестрелки каждый день, а местные туземцы только успевают от шальных пуль уворачиваться. А для сильной и независимой пизденки на мотике, талибы выделили целый взвод для личной охраны ее величества https://www.youtube.com/watch?v=R81gIkyLnb4 Причем все пытались с ней заигрывать и подкатывать яйца. Получается талибы такие же куколды как и мы, только им вера запрещает. Все таки прав был Мухаммед, он видел будущее. Он знал что бабы сделают нас своими рабами.
сегодня 0:52