Архива.ч
Добавить
Войти
Светлый стиль
Тёмный стиль
Дополнительно
Стиль сайта
Arhivach (по умолчанию)
Darkstrap (Neutron-like)
Стиль тредов
Arhivach (по умолчанию)
Neutron
FAQ
Контакты
Помощь сайту
Дополнения
Случайный тред
Старые архивы
Статус системы
API
К сожалению, значительная часть сохранённых до 2024 г. изображений и видео была потеряна (
подробности случившегося
). Мы призываем всех неравнодушных
помочь нам
с восстановлением утраченного контента!
Сортировка:
Дата
Просмотры
Закладки
Посты
за
День
Неделю
Месяц
Все время
...
Сохранен
37
Аноны, кто пробовал бухать в малом количестве для повышения уровня жизни и прочей полезной хуйни, по
— Аноны, кто пробовал бухать в малом количестве для повышения уровня жизни и прочей полезной хуйни, поделитесь опытом. Так уж сложилось что я вдохновился пикрилом, недавно купил егерь на пробу, и ещё должен найти новую работу, планирую ходить на собесы (а мб и на РАБотку, она отчасти творческая) выпив маленький егермейстер
алкоголизм
алкоголь
/b/ - Бред
2ch
вчера 19:55
Сохранен
25
Если бы кошку можно было увеличить до размеров человека, встроить возможности человеческого сознания
— Если бы кошку можно было увеличить до размеров человека, встроить возможности человеческого сознания и коммуникации, вы бы рассмотрели в таком случае с ней отношения вместо тян? Также выкладывайте фото, видео своих кошечек, интересные истории и их отношение к вам, любят ли они вас или только вспоминают когда нужно поесть?
/b/ - Бред
2ch
вчера 18:48
Сохранен
75
Сап двач. Скоро встреча с психиатром. Стоит ли ему рассказывать все как есть или нет? Боюсь рассказы
— Сап двач. Скоро встреча с психиатром. Стоит ли ему рассказывать все как есть или нет? Боюсь рассказывать ему о попытке ркн и о прошлом потому что могут насильно в психушку запихнуть. Я в общем даже и не против там полежать, авось помогут, но у меня учеба и работа и прям щас ложиться не вариант. Есть вариант как-то договориться чтоб лечь позже или не ложиться совсем а может вообще сказать просто что меланхолия там туда сюда я здоров?
/b/ - Бред
2ch
вчера 17:42
Сохранен
44
МЕЧТА КОТОРАЯ НАВСЕГДА ОСТАНЕТСЯ МЕЧТОЙ . Анон делись своими не сбывшимися мечтами / планами. Я на
— МЕЧТА КОТОРАЯ НАВСЕГДА ОСТАНЕТСЯ МЕЧТОЙ . Анон делись своими не сбывшимися мечтами / планами. Я начну : мечта об " американском детстве " как в фильмах на которых я вырос . Этот классический двухэтажный дом с серыми стенами , тайга как в Сумерках ( орегон/вашингтон) и поиски НЛО . Компания друзей / нитакусь как в фильме "Оно" и т. п. Сначала я верил что это будет , нужно лишь приложить усилия – выучить язык , заработать денег на переезд . язык выучил , денег заработать не получалось , я искал варианты , менял работы , проффессии города . Шли годы , переезд становился всë более невозможным из-за девальвации и внешней политики . И вот мне уже не 15 , а 30 , заработал я не на Дом в Америке , а на однушку в Мурино( ипотека) , Английский я выучил , но он меня к мечте не приблизил . А боюсь я не НЛО , а БПЛА .
/b/ - Бред
2ch
вчера 16:12
Сохранен
21
Преимущества секса с милфами. Какие у вас наблюдения по этому поводу, аноны?
— Преимущества секса с милфами. Какие у вас наблюдения по этому поводу, аноны?
MILF
привлечения внимания порнухой
/b/ - Бред
2ch
вчера 17:06
Сохранен
250
Вам стоит позаботиться друг о друге! #3 Я читаю треды здесь, и такое ощущение, что некоторые аноны н
— Вам стоит позаботиться друг о друге! #3 Я читаю треды здесь, и такое ощущение, что некоторые аноны не в безопасности. Постоянно появляются треды, в которых мелькают мрачные темы того, что кто-то в данный момент испытывает одиночество. Это печальный звоночек, потому что он может привести кого-то из них к плохим последствиям. Не бросайте таких анонов, а поддерживайте их, пусть у них немножко поднимется настроение. Я и сам иногда стараюсь так делать, но когда они попадутся. Но я же не могу за всеми уследить, а вы могли бы посодействовать, сделать двач немножко лучше.
/b/ - Бред
2ch
вчера 18:48
Сохранен
42
Лиза всегда искала ощущений, которые выходили бы за грани привычного. Обычный мир казался ей пресным
— Лиза всегда искала ощущений, которые выходили бы за грани привычного. Обычный мир казался ей пресным, а чувства — притупленными. Когда в лавке старьевщика ей в руки попала странная шкатулка-головоломка, инкрустированная темным деревом и тусклым золотом, она почувствовала: это то, что ей нужно.Дома, в полумраке свечей, её пальцы уверенно заскользили по граням. Шкатулка поддалась с тихим щелчком, сложившись в сложную, пугающую фигуру. Воздух в комнате мгновенно похолодел, заполнившись запахом озона и крови. Стены раздвинулись, обнажая лабиринт из цепей и ржавого железа.Из теней вышли они — сенобиты. Существа, для которых боль и наслаждение были неразделимы. Их лидер, чье лицо было иссечено аккуратными шрамами, шагнул вперед.— Ты открыла дверь, — прошептал он голосом, похожим на скрежет металла по кости. — Твоя жажда привела нас. Мы дадим тебе то, что ты ищешь, но эта цена останется с тобой навсегда.Они не стали забирать её душу в лабиринт сразу. Вместо этого они решили оставить на ней клеймо — вечное напоминание о том, что границы дозволенного перейдены.Один из сенобитов, чьи пальцы заканчивались тонкими хирургическими иглами, приблизился к ней. Лиза не могла пошевелиться, скованная то ли ужасом, то ли странным предвкушением. Секундная вспышка острой, как бритва, боли пронзила её тело, когда холодный металл прошел сквозь плоть, устанавливая вертикальный прокол капюшона клитора (VCH).Это было не обычное украшение. Гладкий черный металл, казалось, вибрировал в такт её пульсу, посылая по нервам непрерывный сигнал. Когда сенобиты исчезли, и комната приняла прежний вид, Лиза бросилась в ванную. Она попыталась выкрутить шарики, и снять штангу, но металл был един с её телом. Любая попытка снять его вызывала такую волну шока, что она едва не теряла сознание.Теперь она получила то, чего хотела: её чувства были обострены до предела каждую секунду. Но этот дар стал её вечной клеткой. Шкатулка Леморшана не просто открыла дверь — она сделала Лизу частью своего холодного, вечного механизма страсти, которую невозможно утолить и от которой невозможно избавиться.
/b/ - Бред
2ch
вчера 18:34
Сохранен
44
Наконец то кончились выходные и её муж на работе. Я снова буду всю неделю няшить её каждый день по
— Наконец то кончились выходные и её муж на работе. Я снова буду всю неделю няшить её каждый день пока он на работке. Я знаю что он иногда читает двач... Короче, прости анон, я люблю твою жену >_
/b/ - Бред
2ch
вчера 18:14
Сохранен
94
Я даже когда один нахожусь, меня не покидает внутреннее чутьё, что за мной следят. Постоянно просто.
— Я даже когда один нахожусь, меня не покидает внутреннее чутьё, что за мной следят. Постоянно просто. Словно в макушку кто - то смотрит. Пиздец, неприятно. Максимальная степень дереализации. Не чувствую тела, вниманием ваще ни за что зацепиться не могу. Так забавно. Словно первые шаги учусь заново делать. А ваще, могу на ваши вопросы поотвечать, пока вас - лахтаботов не упразднили за ненадобностью.
/b/ - Бред
2ch
вчера 19:47
Сохранен
60
Стесняюсь сходить даже к шлюхе, я почти 30 лвл листва и всю молодость всю жизнь хотел тян но так и н
— Стесняюсь сходить даже к шлюхе, я почти 30 лвл листва и всю молодость всю жизнь хотел тян но так и не осмелился, вот чтобы вы делали на моем месте? Не надо только говорить про то что ебля переоценена и прочее
/b/ - Бред
2ch
вчера 16:49
Сохранен
335
А вы говорили такого не бывает. Тян 8/10 целка в 28.
— А вы говорили такого не бывает. Тян 8/10 целка в 28.
/b/ - Бред
2ch
сегодня 10:21
Сохранен
27
Как не получить теневой бан на этой хуйне? Зашëл с другого, чем обычно, браузера, другого вайфая, п
— Как не получить теневой бан на этой хуйне? Зашëл с другого, чем обычно, браузера, другого вайфая, поставил аватарку и никнейм, оставлял апвоуты и максимально безобидные комментарии (три щтуки всего). Всячески прогревал аккаунт, короче, дабы избежать этого самого бана. Захожу ещë раз – снова аватарки нет, при заходе в профиль пишет We had a server error... (Не могли, блять, написать что-то типа "Вы забанены по причине иди нахуй"?), при просмотре с компа пишет, что я забанен. Апелляции, судя по всему, даже не читаются. Их статус впринципе нигде не виден, так что остаëтся лишь терпеть. Регистрировался, так как хотел пообщаться с разработчиком одной инди-игры, а он только в реддите вопросы принимает.
модератор
сетевое оборудование
реддит
произвол модераторов
операторы связи и интернет-провайдеры
/b/ - Бред
2ch
вчера 18:08
Активный
52
Более половины россиян хотят возвращения западных компаний
— Большая часть граждан (56%) хотела бы возвращения западных компаний хотя бы в одной сфере, примерно четверть респондентов (27%) не хочет этого. К такому выводу пришла ассоциация исследовательских компаний «Группа 7/89», проведя опрос среди 2042 россиян старше 18 лет в феврале – марте этого года (результаты есть у «Ведомостей). Еще 17% не смогли ответить на вопрос о возвращении компаний. Чаще всего россияне хотят, чтобы в страну вернулись западные производители автомобилей (41%). Помимо этого 28% опрошенных хотели бы возвращения производителей кино, музыки и компьютерных игр. Практически равные доли респондентов заинтересованы в производителях программного обеспечения (27%), мебели и стройматериалов (25%), продуктов питания и напитков (23%), а также косметики (22%). Опрошенные могли выбрать несколько вариантов ответа. Чем младше респонденты, тем больше среди них тех, кто хочет, чтобы в Россию вернулись ушедшие бренды. Например, среди россиян, представляющих группу 18–29 лет, таких 84% опрошенных, а в группе респондентов в возрасте 60 лет и старше их только 38%. Мужчины и женщины практически в равной степени хотят, чтобы западные компании вернулись в Россию (55 и 57% соответственно). При этом среди мужчин выше доля тех, кто этого не хочет, – 32% опрошенных. Аналогичной точки зрения придерживается лишь 23% женщин. Не ответили на вопрос 13% мужчин и 20% женщин. Чем крупнее населенный пункт, тем чаще его жители хотят снова видеть на российском рынке западных производителей, пришли к выводу социологи. Например, в Москве этого ждут 66% опрошенных, а не хотят 24% респондентов. Не ответили на вопрос 10% участников опроса. В то же время в городах с населением менее 100 000 человек возвращения западных компаний хотят 49% опрошенных, а не хотят 32% респондентов. На вопрос не ответили 19% участников. В селах треть россиян (32%) хочет, чтобы западные компании вернулись, 48% респондентов этого не хотят. Ответ не дали 20% опрошенных. Группы, скучающие по одним категориям товаров, как правило, одновременно хотели бы возврата и других брендов, отметил директор Фонда социальных исследований Владимир Звоновский. По его мнению, речь идет о целостном запросе на присутствие западного бизнеса, а не о точечном дефиците. Сильнее всего люди ощутили удар по авторынку, тогда как потребность в западных товарах в других сегментах выражена слабее, уточнил эксперт. Чаще всего за возвращение выступают группы граждан с наибольшим опытом потребления западной продукции, добавил Звоновский. Молодые респонденты менее лояльны к решениям об уходе компаний, считает он. По словам эксперта, аудитория сел оказывается наиболее оторванной от западного потребительского рынка из-за более слабой информированности и скромного уровня потребления такой продукции. По оценке профессора Финансового университета при правительстве РФ Александра Сафонова, в первую очередь уход западных брендов заметен для жителей крупных городов с достаточно высоким уровнем дохода. В повседневной жизни среднестатистических семей, которые до ухода западных компаний пользовались наиболее дешевыми видами изделий, мало что изменилось, добавил он. Высокий спрос на возвращение западных брендов машин связан, как выделяет Сафонов, с несколькими ключевыми вопросами импортозамещения, которые бьют по потреблению. Среди них – надежность и эксплуатационные качества, доступность запчастей, сервиса и цены. Стоимость западных автомобилей выросла больше, чем зарплаты населения, считает Сафонов. Приобрести автомобили по-прежнему можно при наличии средств, но сам процесс стал сложнее – из-за логистики, параллельного импорта и утильсбора. Именно поэтому проблема покупки лежит не в физическом отсутствии, а в усложнении и удорожании доступа, заключил эксперт. https://www.vedomosti.ru/business/articles/2026/05/04/1194806-bolee-50-rossiyan-hochet-vozvrascheniya-zapadnih-kompanii
барен
только выиграли
карго-культ
нужно только потерпеть
Карго
потребительство
российская действительность
санкции
глубинный народ
святой Запад
импортозамещение
экономика
/news/ - Новости
2ch
сегодня 22:31
Сохранен
52
Как трахать такую?
— Как трахать такую?
ХРАМ ДЕТСКОЙ ПИЗДЫ
как ебать
лоли
актрисы
милые тян
/b/ - Бред
2ch
сегодня 10:21
Активный
514
Подсосов Мэда тред №13313
— >>26874613 (OP)
подсос-тред
/fag/ - Фагготрия
2ch
сегодня 21:12
Активный
497
Обезумевшей экономики тред №4
— Прошлый тред был репрессирован, номер у меня не сохранился. Что делать с дефицитом бюджета? Откуда брать деньги? Как по красоте разрулить ситуацию? Сидим, обсуждаем, прогнозируем. Там Кац поставил свой анус... Сегодня надо идти в банк...
перекупщики
Китай
налоги и сборы
бизнес
экономика
/po/ - Политика и новости
2ch
сегодня 17:38
Активный
157
東方Project - ответов и вопросов иллюзорное место #? Задавайте свои вопросы. 夢の世界。
— 東方Project - ответов и вопросов иллюзорное место #? Задавайте свои вопросы. 夢の世界。
/b/ - Бред
2ch
сегодня 22:10
Активный
437
Локальные языковые модели (LLM): Gemma, Qwen, GLM и прочие №230 /llama/
— В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны! Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна. Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку. Официальная вики треда с гайдами по запуску и базовой информацией: https://2ch-ai.github.io/wiki/llama/ Инструменты для запуска на десктопах: • Отец и мать всех инструментов, позволяющий гонять GGML и GGUF форматы: https://github.com/ggml-org/llama.cpp • Самый простой в использовании и установке форк llamacpp: https://github.com/LostRuins/koboldcpp • Более функциональный и универсальный интерфейс для работы с остальными форматами: https://github.com/oobabooga/text-generation-webui • Заточенный под Exllama (V2 и V3) и в консоли: https://github.com/theroyallab/tabbyAPI • Однокнопочные инструменты на базе llamacpp с ограниченными возможностями: https://github.com/ollama/ollama, https://lmstudio.ai • Универсальный фронтенд, поддерживающий сопряжение с koboldcpp и text-generation-webui: https://github.com/SillyTavern/SillyTavern • Альтернативный фронт: https://github.com/kwaroran/RisuAI Инструменты для запуска на мобилках: • Интерфейс для локального запуска моделей под андроид с llamacpp под капотом: https://github.com/Mobile-Artificial-Intelligence/maid • Альтернативный вариант для локального запуска под андроид (фронтенд и бекенд сепарированы): https://github.com/Vali-98/ChatterUI • Гайд по установке SillyTavern на ведроид через Termux: https://rentry.co/STAI-Termux Модели и всё что их касается: • Актуальный список моделей с отзывами от тредовичков: https://rentry.co/2ch_llm_moe_2026 • Неактуальные списки моделей в архивных целях: 2025: https://rentry.co/2ch_llm_2025 (версия для бомжей: https://rentry.co/z4nr8ztd ), 2024: https://rentry.co/llm-models , 2023: https://rentry.co/lmg_models • Миксы от тредовичков с уклоном в русский РП: https://huggingface.co/Aleteian и https://huggingface.co/Moraliane • Рейтинг моделей по уровню их закошмаренности цензурой: https://huggingface.co/spaces/DontPlanToEnd/UGI-Leaderboard • Сравнение моделей по сомнительным метрикам: https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard • Сравнение моделей реальными пользователями по чуть менее сомнительным метрикам: https://chat.lmsys.org/?leaderboard Дополнительные ссылки: • Гайд для новичков: https://rentry.org/2ch-llama-inference • Готовые карточки персонажей для ролплея в таверне: https://www.characterhub.org • Перевод нейронками для таверны: https://rentry.co/magic-translation • Пресеты под локальный ролплей в различных форматах: http://web.archive.org/web/20250222044730/https://huggingface.co/Virt-io/SillyTavern-Presets • Шапка почившего треда PygmalionAI с некоторой интересной информацией: https://rentry.co/2ch-pygma-thread • Официальная вики koboldcpp с руководством по более тонкой настройке: https://github.com/LostRuins/koboldcpp/wiki • Официальный гайд по сопряжению бекендов с таверной: https://docs.sillytavern.app/usage/how-to-use-a-self-hosted-model/ • Последний известный колаб для обладателей отсутствия любых возможностей запустить локально: https://colab.research.google.com/drive/11U-bC6AxdmMhd3PF9vWZpLdi6LdfnBQ8?usp=sharing • Инструкции для запуска базы при помощи Docker Compose: https://rentry.co/oddx5sgq https://rentry.co/7kp5avrk • Пошаговое мышление от тредовичка для таверны: https://github.com/cierru/st-stepped-thinking • Потрогать, как работают семплеры: https://artefact2.github.io/llm-sampling/ • Выгрузка избранных тензоров, позволяет ускорить генерацию при недостатке VRAM: https://www.reddit.com/r/LocalLLaMA/comments/1ki7tg7 • Инфа по запуску на MI50: https://github.com/mixa3607/ML-gfx906 • Тесты tensor_parallel: https://rentry.org/8cruvnyw • Доки к LLaMA.cpp со всеми параметрами: https://github.com/ggml-org/llama.cpp/blob/master/tools/server/README.md Архив тредов можно найти на архиваче: https://arhivach.vc/?tags=14780%2C14985 Шапка в https://rentry.co/llama-2ch, предложения принимаются в треде. Предыдущие треды тонут здесь: >>1601740 (OP) >>1600155 (OP)
Локальные языковые модели
большие языковые модели
/ai/ - Искусственный интеллект
2ch
сегодня 21:50
Активный
506
Локальные языковые модели (LLM): Gemma, Qwen, GLM и прочие №229 /llama/
— В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны! Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна. Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку. Официальная вики треда с гайдами по запуску и базовой информацией: https://2ch-ai.github.io/wiki/llama/ Инструменты для запуска на десктопах: • Отец и мать всех инструментов, позволяющий гонять GGML и GGUF форматы: https://github.com/ggml-org/llama.cpp • Самый простой в использовании и установке форк llamacpp: https://github.com/LostRuins/koboldcpp • Более функциональный и универсальный интерфейс для работы с остальными форматами: https://github.com/oobabooga/text-generation-webui • Заточенный под Exllama (V2 и V3) и в консоли: https://github.com/theroyallab/tabbyAPI • Однокнопочные инструменты на базе llamacpp с ограниченными возможностями: https://github.com/ollama/ollama, https://lmstudio.ai • Универсальный фронтенд, поддерживающий сопряжение с koboldcpp и text-generation-webui: https://github.com/SillyTavern/SillyTavern • Альтернативный фронт: https://github.com/kwaroran/RisuAI Инструменты для запуска на мобилках: • Интерфейс для локального запуска моделей под андроид с llamacpp под капотом: https://github.com/Mobile-Artificial-Intelligence/maid • Альтернативный вариант для локального запуска под андроид (фронтенд и бекенд сепарированы): https://github.com/Vali-98/ChatterUI • Гайд по установке SillyTavern на ведроид через Termux: https://rentry.co/STAI-Termux Модели и всё что их касается: • Актуальный список моделей с отзывами от тредовичков: https://rentry.co/2ch_llm_moe_2026 • Неактуальные списки моделей в архивных целях: 2025: https://rentry.co/2ch_llm_2025 (версия для бомжей: https://rentry.co/z4nr8ztd ), 2024: https://rentry.co/llm-models , 2023: https://rentry.co/lmg_models • Миксы от тредовичков с уклоном в русский РП: https://huggingface.co/Aleteian и https://huggingface.co/Moraliane • Рейтинг моделей по уровню их закошмаренности цензурой: https://huggingface.co/spaces/DontPlanToEnd/UGI-Leaderboard • Сравнение моделей по сомнительным метрикам: https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard • Сравнение моделей реальными пользователями по чуть менее сомнительным метрикам: https://chat.lmsys.org/?leaderboard Дополнительные ссылки: • Гайд для новичков: https://rentry.org/2ch-llama-inference • Готовые карточки персонажей для ролплея в таверне: https://www.characterhub.org • Перевод нейронками для таверны: https://rentry.co/magic-translation • Пресеты под локальный ролплей в различных форматах: http://web.archive.org/web/20250222044730/https://huggingface.co/Virt-io/SillyTavern-Presets • Шапка почившего треда PygmalionAI с некоторой интересной информацией: https://rentry.co/2ch-pygma-thread • Официальная вики koboldcpp с руководством по более тонкой настройке: https://github.com/LostRuins/koboldcpp/wiki • Официальный гайд по сопряжению бекендов с таверной: https://docs.sillytavern.app/usage/how-to-use-a-self-hosted-model/ • Последний известный колаб для обладателей отсутствия любых возможностей запустить локально: https://colab.research.google.com/drive/11U-bC6AxdmMhd3PF9vWZpLdi6LdfnBQ8?usp=sharing • Инструкции для запуска базы при помощи Docker Compose: https://rentry.co/oddx5sgq https://rentry.co/7kp5avrk • Пошаговое мышление от тредовичка для таверны: https://github.com/cierru/st-stepped-thinking • Потрогать, как работают семплеры: https://artefact2.github.io/llm-sampling/ • Выгрузка избранных тензоров, позволяет ускорить генерацию при недостатке VRAM: https://www.reddit.com/r/LocalLLaMA/comments/1ki7tg7 • Инфа по запуску на MI50: https://github.com/mixa3607/ML-gfx906 • Тесты tensor_parallel: https://rentry.org/8cruvnyw • Доки к LLaMA.cpp со всеми параметрами: https://github.com/ggml-org/llama.cpp/blob/master/tools/server/README.md Архив тредов можно найти на архиваче: https://arhivach.vc/?tags=14780%2C14985 Шапка в https://rentry.co/llama-2ch, предложения принимаются в треде. Предыдущие треды тонут здесь: >>1600155 (OP) >>1598239 (OP)
Локальные языковые модели
большие языковые модели
/ai/ - Искусственный интеллект
2ch
сегодня 18:40
Активный
506
Локальные языковые модели (LLM): Gemma, Qwen, GLM и прочие №228 /llama/
— В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны! Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна. Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку. Официальная вики треда с гайдами по запуску и базовой информацией: https://2ch-ai.github.io/wiki/llama/ Инструменты для запуска на десктопах: • Отец и мать всех инструментов, позволяющий гонять GGML и GGUF форматы: https://github.com/ggml-org/llama.cpp • Самый простой в использовании и установке форк llamacpp: https://github.com/LostRuins/koboldcpp • Более функциональный и универсальный интерфейс для работы с остальными форматами: https://github.com/oobabooga/text-generation-webui • Заточенный под Exllama (V2 и V3) и в консоли: https://github.com/theroyallab/tabbyAPI • Однокнопочные инструменты на базе llamacpp с ограниченными возможностями: https://github.com/ollama/ollama, https://lmstudio.ai • Универсальный фронтенд, поддерживающий сопряжение с koboldcpp и text-generation-webui: https://github.com/SillyTavern/SillyTavern • Альтернативный фронт: https://github.com/kwaroran/RisuAI Инструменты для запуска на мобилках: • Интерфейс для локального запуска моделей под андроид с llamacpp под капотом: https://github.com/Mobile-Artificial-Intelligence/maid • Альтернативный вариант для локального запуска под андроид (фронтенд и бекенд сепарированы): https://github.com/Vali-98/ChatterUI • Гайд по установке SillyTavern на ведроид через Termux: https://rentry.co/STAI-Termux Модели и всё что их касается: • Актуальный список моделей с отзывами от тредовичков: https://rentry.co/2ch_llm_moe_2026 • Неактуальные списки моделей в архивных целях: 2025: https://rentry.co/2ch_llm_2025 (версия для бомжей: https://rentry.co/z4nr8ztd ), 2024: https://rentry.co/llm-models , 2023: https://rentry.co/lmg_models • Миксы от тредовичков с уклоном в русский РП: https://huggingface.co/Aleteian и https://huggingface.co/Moraliane • Рейтинг моделей по уровню их закошмаренности цензурой: https://huggingface.co/spaces/DontPlanToEnd/UGI-Leaderboard • Сравнение моделей по сомнительным метрикам: https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard • Сравнение моделей реальными пользователями по чуть менее сомнительным метрикам: https://chat.lmsys.org/?leaderboard Дополнительные ссылки: • Гайд для новичков: https://rentry.org/2ch-llama-inference • Готовые карточки персонажей для ролплея в таверне: https://www.characterhub.org • Перевод нейронками для таверны: https://rentry.co/magic-translation • Пресеты под локальный ролплей в различных форматах: http://web.archive.org/web/20250222044730/https://huggingface.co/Virt-io/SillyTavern-Presets • Шапка почившего треда PygmalionAI с некоторой интересной информацией: https://rentry.co/2ch-pygma-thread • Официальная вики koboldcpp с руководством по более тонкой настройке: https://github.com/LostRuins/koboldcpp/wiki • Официальный гайд по сопряжению бекендов с таверной: https://docs.sillytavern.app/usage/how-to-use-a-self-hosted-model/ • Последний известный колаб для обладателей отсутствия любых возможностей запустить локально: https://colab.research.google.com/drive/11U-bC6AxdmMhd3PF9vWZpLdi6LdfnBQ8?usp=sharing • Инструкции для запуска базы при помощи Docker Compose: https://rentry.co/oddx5sgq https://rentry.co/7kp5avrk • Пошаговое мышление от тредовичка для таверны: https://github.com/cierru/st-stepped-thinking • Потрогать, как работают семплеры: https://artefact2.github.io/llm-sampling/ • Выгрузка избранных тензоров, позволяет ускорить генерацию при недостатке VRAM: https://www.reddit.com/r/LocalLLaMA/comments/1ki7tg7 • Инфа по запуску на MI50: https://github.com/mixa3607/ML-gfx906 • Тесты tensor_parallel: https://rentry.org/8cruvnyw • Доки к LLaMA.cpp со всеми параметрами: https://github.com/ggml-org/llama.cpp/blob/master/tools/server/README.md Архив тредов можно найти на архиваче: https://arhivach.vc/?tags=14780%2C14985 Шапка в https://rentry.co/llama-2ch, предложения принимаются в треде. Предыдущие треды тонут здесь: >>1598239 (OP) >>1596667 (OP)
Локальные языковые модели
большие языковые модели
/ai/ - Искусственный интеллект
2ch
сегодня 18:40
Сохранен
31
Ебли тред В тред приглашаются инцелы, девственники и им подобные Задача 1. Описать процесс ебли как
— Ебли тред В тред приглашаются инцелы, девственники и им подобные Задача 1. Описать процесс ебли как вы его представляете 2. Описать что такое секс для вас 3. Описать что такое для вас тян\отношения с тян
дохлый тред
секс
секс и отношения
ебля
привлечения внимания порнухой
/b/ - Бред
2ch
вчера 16:11
Активный
505
Локальные языковые модели (LLM): Gemma, Qwen, GLM и прочие №227 /llama/
— В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны! Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна. Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку. Официальная вики треда с гайдами по запуску и базовой информацией: https://2ch-ai.github.io/wiki/llama/ Инструменты для запуска на десктопах: • Отец и мать всех инструментов, позволяющий гонять GGML и GGUF форматы: https://github.com/ggml-org/llama.cpp • Самый простой в использовании и установке форк llamacpp: https://github.com/LostRuins/koboldcpp • Более функциональный и универсальный интерфейс для работы с остальными форматами: https://github.com/oobabooga/text-generation-webui • Заточенный под Exllama (V2 и V3) и в консоли: https://github.com/theroyallab/tabbyAPI • Однокнопочные инструменты на базе llamacpp с ограниченными возможностями: https://github.com/ollama/ollama, https://lmstudio.ai • Универсальный фронтенд, поддерживающий сопряжение с koboldcpp и text-generation-webui: https://github.com/SillyTavern/SillyTavern • Альтернативный фронт: https://github.com/kwaroran/RisuAI Инструменты для запуска на мобилках: • Интерфейс для локального запуска моделей под андроид с llamacpp под капотом: https://github.com/Mobile-Artificial-Intelligence/maid • Альтернативный вариант для локального запуска под андроид (фронтенд и бекенд сепарированы): https://github.com/Vali-98/ChatterUI • Гайд по установке SillyTavern на ведроид через Termux: https://rentry.co/STAI-Termux Модели и всё что их касается: • Актуальный список моделей с отзывами от тредовичков: https://rentry.co/2ch_llm_moe_2026 • Неактуальные списки моделей в архивных целях: 2025: https://rentry.co/2ch_llm_2025 (версия для бомжей: https://rentry.co/z4nr8ztd ), 2024: https://rentry.co/llm-models , 2023: https://rentry.co/lmg_models • Миксы от тредовичков с уклоном в русский РП: https://huggingface.co/Aleteian и https://huggingface.co/Moraliane • Рейтинг моделей по уровню их закошмаренности цензурой: https://huggingface.co/spaces/DontPlanToEnd/UGI-Leaderboard • Сравнение моделей по сомнительным метрикам: https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard • Сравнение моделей реальными пользователями по чуть менее сомнительным метрикам: https://chat.lmsys.org/?leaderboard Дополнительные ссылки: • Готовые карточки персонажей для ролплея в таверне: https://www.characterhub.org • Перевод нейронками для таверны: https://rentry.co/magic-translation • Пресеты под локальный ролплей в различных форматах: http://web.archive.org/web/20250222044730/https://huggingface.co/Virt-io/SillyTavern-Presets • Шапка почившего треда PygmalionAI с некоторой интересной информацией: https://rentry.co/2ch-pygma-thread • Официальная вики koboldcpp с руководством по более тонкой настройке: https://github.com/LostRuins/koboldcpp/wiki • Официальный гайд по сопряжению бекендов с таверной: https://docs.sillytavern.app/usage/how-to-use-a-self-hosted-model/ • Последний известный колаб для обладателей отсутствия любых возможностей запустить локально: https://colab.research.google.com/drive/11U-bC6AxdmMhd3PF9vWZpLdi6LdfnBQ8?usp=sharing • Инструкции для запуска базы при помощи Docker Compose: https://rentry.co/oddx5sgq https://rentry.co/7kp5avrk • Пошаговое мышление от тредовичка для таверны: https://github.com/cierru/st-stepped-thinking • Потрогать, как работают семплеры: https://artefact2.github.io/llm-sampling/ • Выгрузка избранных тензоров, позволяет ускорить генерацию при недостатке VRAM: https://www.reddit.com/r/LocalLLaMA/comments/1ki7tg7 • Инфа по запуску на MI50: https://github.com/mixa3607/ML-gfx906 • Тесты tensor_parallel: https://rentry.org/8cruvnyw • Доки к LLaMA.cpp со всеми параметрами: https://github.com/ggml-org/llama.cpp/blob/master/tools/server/README.md Архив тредов можно найти на архиваче: https://arhivach.vc/?tags=14780%2C14985 Шапка в https://rentry.co/llama-2ch, предложения принимаются в треде. Предыдущие треды тонут здесь: >>1596667 (OP) >>1595096 (OP)
Локальные языковые модели
большие языковые модели
/ai/ - Искусственный интеллект
2ch
сегодня 18:40
Сохранен
39
Аноны, а в чем суть всех этих блокировок?
— Аноны, а в чем замысел всех этих блокировок? Чет поймал себя на мысли, что ведь как ни крути, а государство, власть имущие, всякие силовые и не очень ведомства и т.д. это ведь не какой-то мифический эфемерный типа Иог-Сотота, который живет в параллельной реальности и штампует законы просто чтоб степашкам хуже жилось. Давайте смотреть на вещи реально: вся эта система так или иначе состоит из людей. Эти люди все общаются друг с другом, дискутируют и на основе этого делают выводы, а потом издают указы и следят за их выполнением. Более того, информация обычно берется из разных источников, вплоть до частных аналитических компаний. Ну типа никакой указ или распоряжение на то чтобы что-то заблокировать, куда-то выделить деньги не может быть сделан без дохуилиарда согласований, подсчетов, анализа и прочего. Это я к тому, что сейчас люди которые издают указы о чебурнетизации НА ПОЛНОМ СЕРЬЕЗЕ В КУРСЕ ВСЕГО: они знают, что это крайне непопулярная мера, что блокировки ведут к социальному напряжению, что они не очень-то и действенные, что российскими аналоговнетами (Макс, Рутуб, ВК) практически никто не пользуется, что из-за этого очень сильно подрывается доверие к власти и так далее. По большому счету они реально все знают, но зачем тогда это делают? Ради чего? Значит по их мнению действительно есть ЧТО-ТО ТАКОЕ, ради его можно за пару месяцев слить вообще нахуй все полимеры, которые зарабатывались годами, проебать полностью доверие людей к власти, допустить отток людей в ближайшее забугорье и так далее. Отмечу, что это касается не только блокировок. Взять то же самое увеличение налогов. Ну не может быть такого, чтобы никакой исследовательский институт или частная аналитическая компания выполняя анализ по запросу правительства не написала бы про график Лаффера и про то, что подъем налогов приведет к тому что налоговых поступлений станет парадоксально меньше. Буквально все последние шаги наших верхов делались осознанно и с полным пониманием того, как это будет воспринято обществом. И вот вопрос, в том, а ради чего? Что на столько перевешивает лояльность и настроение населения?
недовольство
блокировки сайтов
чебурнет
российская действительность
цензура
/po/ - Политика и новости
2ch
сегодня 8:02
Активный
511
Локальные языковые модели (LLM): Gemma, Qwen, GLM и прочие №226 /llama/
— В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны! Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна. Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку. Официальная вики треда с гайдами по запуску и базовой информацией: https://2ch-ai.github.io/wiki/llama/ Инструменты для запуска на десктопах: • Отец и мать всех инструментов, позволяющий гонять GGML и GGUF форматы: https://github.com/ggml-org/llama.cpp • Самый простой в использовании и установке форк llamacpp: https://github.com/LostRuins/koboldcpp • Более функциональный и универсальный интерфейс для работы с остальными форматами: https://github.com/oobabooga/text-generation-webui • Заточенный под Exllama (V2 и V3) и в консоли: https://github.com/theroyallab/tabbyAPI • Однокнопочные инструменты на базе llamacpp с ограниченными возможностями: https://github.com/ollama/ollama, https://lmstudio.ai • Универсальный фронтенд, поддерживающий сопряжение с koboldcpp и text-generation-webui: https://github.com/SillyTavern/SillyTavern • Альтернативный фронт: https://github.com/kwaroran/RisuAI Инструменты для запуска на мобилках: • Интерфейс для локального запуска моделей под андроид с llamacpp под капотом: https://github.com/Mobile-Artificial-Intelligence/maid • Альтернативный вариант для локального запуска под андроид (фронтенд и бекенд сепарированы): https://github.com/Vali-98/ChatterUI • Гайд по установке SillyTavern на ведроид через Termux: https://rentry.co/STAI-Termux Модели и всё что их касается: • Актуальный список моделей с отзывами от тредовичков: https://rentry.co/2ch_llm_moe_2026 • Неактуальные списки моделей в архивных целях: 2025: https://rentry.co/2ch_llm_2025 (версия для бомжей: https://rentry.co/z4nr8ztd ), 2024: https://rentry.co/llm-models , 2023: https://rentry.co/lmg_models • Миксы от тредовичков с уклоном в русский РП: https://huggingface.co/Aleteian и https://huggingface.co/Moraliane • Рейтинг моделей по уровню их закошмаренности цензурой: https://huggingface.co/spaces/DontPlanToEnd/UGI-Leaderboard • Сравнение моделей по сомнительным метрикам: https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard • Сравнение моделей реальными пользователями по чуть менее сомнительным метрикам: https://chat.lmsys.org/?leaderboard Дополнительные ссылки: • Готовые карточки персонажей для ролплея в таверне: https://www.characterhub.org • Перевод нейронками для таверны: https://rentry.co/magic-translation • Пресеты под локальный ролплей в различных форматах: http://web.archive.org/web/20250222044730/https://huggingface.co/Virt-io/SillyTavern-Presets • Шапка почившего треда PygmalionAI с некоторой интересной информацией: https://rentry.co/2ch-pygma-thread • Официальная вики koboldcpp с руководством по более тонкой настройке: https://github.com/LostRuins/koboldcpp/wiki • Официальный гайд по сопряжению бекендов с таверной: https://docs.sillytavern.app/usage/how-to-use-a-self-hosted-model/ • Последний известный колаб для обладателей отсутствия любых возможностей запустить локально: https://colab.research.google.com/drive/11U-bC6AxdmMhd3PF9vWZpLdi6LdfnBQ8?usp=sharing • Инструкции для запуска базы при помощи Docker Compose: https://rentry.co/oddx5sgq https://rentry.co/7kp5avrk • Пошаговое мышление от тредовичка для таверны: https://github.com/cierru/st-stepped-thinking • Потрогать, как работают семплеры: https://artefact2.github.io/llm-sampling/ • Выгрузка избранных тензоров, позволяет ускорить генерацию при недостатке VRAM: https://www.reddit.com/r/LocalLLaMA/comments/1ki7tg7 • Инфа по запуску на MI50: https://github.com/mixa3607/ML-gfx906 • Тесты tensor_parallel: https://rentry.org/8cruvnyw • Доки к LLaMA.cpp со всеми параметрами: https://github.com/ggml-org/llama.cpp/blob/master/tools/server/README.md Архив тредов можно найти на архиваче: https://arhivach.vc/?tags=14780%2C14985 Шапка в https://rentry.co/llama-2ch, предложения принимаются в треде. Предыдущие треды тонут здесь: >>1595096 (OP) >>1593648 (OP)
Локальные языковые модели
большие языковые модели
/ai/ - Искусственный интеллект
2ch
сегодня 18:40
Сохранен
5
Понял, что я не просто не хочу тян, я дрочить не хочу. Бывали в такой ситуации? Дрочить через не мо
— Понял, что я не просто не хочу тян, я дрочить не хочу. Бывали в такой ситуации? Дрочить через не могу или что?
/b/ - Бред
2ch
вчера 13:43
1
...
28
29
30
31
32
33
34
35
36
37
38
...
169