К сожалению, значительная часть сохранённых до 2024 г. изображений и видео была потеряна (подробности случившегося). Мы призываем всех неравнодушных помочь нам с восстановлением утраченного контента!

Локальные языковые модели (LLM): LLaMA, Gemma, Qwen и прочие №187 /llama/

 Аноним 06/01/26 Втр 00:12:37 #1 №1480267 
Llama 1.png
Эффективность квантования EXL3.png
Реальная длина контекста у моделей 4.png
17650475213470.jpg
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!

Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна.

Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.

Официальная вики треда с гайдами по запуску и базовой информацией: https://2ch-ai.github.io/wiki/llama/

Инструменты для запуска на десктопах:
• Отец и мать всех инструментов, позволяющий гонять GGML и GGUF форматы: https://github.com/ggml-org/llama.cpp
• Самый простой в использовании и установке форк llamacpp: https://github.com/LostRuins/koboldcpp
• Более функциональный и универсальный интерфейс для работы с остальными форматами: https://github.com/oobabooga/text-generation-webui
• Заточенный под Exllama (V2 и V3) и в консоли: https://github.com/theroyallab/tabbyAPI
• Однокнопочные инструменты на базе llamacpp с ограниченными возможностями: https://github.com/ollama/ollama, https://lmstudio.ai
• Универсальный фронтенд, поддерживающий сопряжение с koboldcpp и text-generation-webui: https://github.com/SillyTavern/SillyTavern
• Альтернативный фронт: https://github.com/kwaroran/RisuAI

Инструменты для запуска на мобилках:
• Интерфейс для локального запуска моделей под андроид с llamacpp под капотом: https://github.com/Mobile-Artificial-Intelligence/maid
• Альтернативный вариант для локального запуска под андроид (фронтенд и бекенд сепарированы): https://github.com/Vali-98/ChatterUI
• Гайд по установке SillyTavern на ведроид через Termux: https://rentry.co/STAI-Termux

Модели и всё что их касается:
• Актуальный список моделей с отзывами от тредовичков: https://rentry.co/2ch_llm_2025 (версия для бомжей: https://rentry.co/z4nr8ztd )
• Неактуальные списки моделей в архивных целях: 2024: https://rentry.co/llm-models , 2023: https://rentry.co/lmg_models
• Миксы от тредовичков с уклоном в русский РП: https://huggingface.co/Aleteian и https://huggingface.co/Moraliane
• Рейтинг моделей по уровню их закошмаренности цензурой: https://huggingface.co/spaces/DontPlanToEnd/UGI-Leaderboard
• Сравнение моделей по сомнительным метрикам: https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard
• Сравнение моделей реальными пользователями по чуть менее сомнительным метрикам: https://chat.lmsys.org/?leaderboard

Дополнительные ссылки:
• Готовые карточки персонажей для ролплея в таверне: https://www.characterhub.org
• Перевод нейронками для таверны: https://rentry.co/magic-translation
• Пресеты под локальный ролплей в различных форматах: https://huggingface.co/Virt-io/SillyTavern-Presets
• Шапка почившего треда PygmalionAI с некоторой интересной информацией: https://rentry.co/2ch-pygma-thread
• Официальная вики koboldcpp с руководством по более тонкой настройке: https://github.com/LostRuins/koboldcpp/wiki
• Официальный гайд по сопряжению бекендов с таверной: https://docs.sillytavern.app/usage/how-to-use-a-self-hosted-model/
• Последний известный колаб для обладателей отсутствия любых возможностей запустить локально: https://colab.research.google.com/drive/11U-bC6AxdmMhd3PF9vWZpLdi6LdfnBQ8?usp=sharing
• Инструкции для запуска базы при помощи Docker Compose: https://rentry.co/oddx5sgq https://rentry.co/7kp5avrk
• Пошаговое мышление от тредовичка для таверны: https://github.com/cierru/st-stepped-thinking
• Потрогать, как работают семплеры: https://artefact2.github.io/llm-sampling/
• Выгрузка избранных тензоров, позволяет ускорить генерацию при недостатке VRAM: https://www.reddit.com/r/LocalLLaMA/comments/1ki7tg7
• Инфа по запуску на MI50: https://github.com/mixa3607/ML-gfx906
• Тесты tensor_parallel: https://rentry.org/8cruvnyw

Архив тредов можно найти на архиваче: https://arhivach.hk/?tags=14780%2C14985

Шапка в https://rentry.co/llama-2ch, предложения принимаются в треде.

Предыдущие треды тонут здесь:
>>1475911 (OP)
>>1470041 (OP)
Аноним 06/01/26 Втр 00:56:32 #2 №1480286 
базы треда нет
Аноним 06/01/26 Втр 01:59:41 #3 №1480311 
17659121122610.mp4
>>1480286
Базу напишешь, а местные дурачки опять не поймут и будут бомбить. Пусть сидят в невежестве.
Аноним 06/01/26 Втр 02:22:10 #4 №1480323 
20251218171501kcrsbbktfygt2dm1mcm1g5ae.mp4
>>1480311
База треда успеть купить оперативки до ласт квартала 2025 и лампово теребонькать МоЕшки, остальным соболезнования.
Аноним 06/01/26 Втр 02:55:44 #5 №1480327 
После добавления v100@32 перекинул на нее слои, которые были на теслах. Большая глм прибавила в тг 4 т/с, очень приятно. Дипсик заебался запускать, ебаный пидорас, а не модель. Все загрузилось, вармап пройден, на картах по 1,5-2 Гб свободной врам. Нет, кидает оом после свайпа, урод. Ну и нахуй он не нужен, тащемта.
Аноним 06/01/26 Втр 03:12:46 #6 №1480335 
>>1480266 →
Верно.

Тем не менее:
1. Большая часть компьютеров не имеет больше 32 ГБ видеопамяти.
- По настоящему крупные модели подавляющее большинство не запускает на видеокартах полностью или почти полностью. Как говорят - это не для вас написано, лол. Буквально, задача в другом.
- У геммы 27B 6% параметров (без вижен-части) - эмбеддинг. Если оставлять его в 16-бит, а остальное гнать в 4 бита, то доля будет уже 20%. Достаточно значимая часть, чтобы об этом думать, тем более если влияние на метрики или на ощущение "на глаз" действительно заметное.
2. Я не питаю иллюзий, что я напишу exl4 или придумаю что-то концептуально новое. Нет даже особого смысла на это замахиваться. Даже если мне получится всего на 0.2% сократить потребление памяти при том же качестве со своей позиции без особых навыков и ресурсов - это большое дело. Ну и тут вообще речь о том, как запускать бомжекванты, но чтобы они просто за счёт внятного эмбеддинга были по весу как, например, Q4_K_S, а по качеству как Q4_K_M.
Аноним 06/01/26 Втр 03:21:48 #7 №1480337 
Посоветуйте промпт
Аноним 06/01/26 Втр 03:24:34 #8 №1480338 
>>1480109 →
> IQ-кванты сами по себе медленнее обычных.
Потратил несколько часов, добился 5.5 токенов в секунду на i1-IQ4_XS и тех же 3 на Q4_K_S. Понял, что процессор стоило обновить ещё очень давно. Еще через пару часов скачается IQ4_XS - надеюсь хоть с ним и будут те самые 8 токенов.
Аноним 06/01/26 Втр 03:29:52 #9 №1480340 
>>1480338
>5.5 токенов в секунду на i1-IQ4_XS
>3 на Q4_K_S
>>IQ-кванты сами по себе медленнее обычных

>5.5 токенов в секунду на i1-IQ4_XS
>IQ4_XS - надеюсь хоть с ним и будут те самые 8 токенов

Тред полон глупеньких 8б, которые только и годятся, чтобы слушать хозяина и поддакивать "ты меня ебёшь".
Аноним 06/01/26 Втр 03:37:32 #10 №1480343 
>>1480327
> кидает оом после свайпа
Вместо обработки ошибки жоры там длинный лог куды? Поскидывай еще немного слоев, победа близка.
>>1480335
> влияние на метрики или на ощущение "на глаз" действительно заметное
Если измерять по правильной методике из сауспарка то и хуй длинный получится. Тем не менее, посмотреть на результаты более менее релевентных сравнений разного влияния интересно, продолжай.
>>1480337
Отыгрывай пигмалиона 6б. Я тебя ебу.
Аноним 06/01/26 Втр 03:38:45 #11 №1480344 
изображение.png
>>1480338
>Еще через пару часов скачается IQ4_XS
Если хочешь поэкспериментировать - скачай оригинал или gguf в fp16 один раз, и пробуй разное.
Там команда конвертации уровня llama-quantize.exe <кванты> <входной файл> <выходной файл>, конвертируется по слоям и быстро, даже на старом поколении. Ставлю рарку, что быстрее часа будет.
Аноним 06/01/26 Втр 03:59:07 #12 №1480346 
>>1480340
ах ах мистрес
Аноним 06/01/26 Втр 04:11:25 #13 №1480349 
На чубе блять миллион карточек и все какое то дерьмо, это шутка?
Может есть популярные авторы которые хоть знают как их делать, чтоб я по их странице уже карточку выбрал?
Ещё, хочу отыграть монарха, а как такую карточку загуглить хз, очевидно такого тэга нет
Аноним 06/01/26 Втр 04:16:50 #14 №1480350 
>>1480349
Ещё мне реально интересно корпы даже из самой хуевой карточки сделают конфетку или даже там это важно?
Аноним 06/01/26 Втр 04:18:35 #15 №1480351 
>>1480350
Потому что иначе я не могу объяснить тонну карточек закинутых в чатгпт
Аноним 06/01/26 Втр 04:19:47 #16 №1480352 
>>1480349
Лучше сам себе делай, не прогадаешь.
>>1480350
По разному можно понять что такое "самая хуевая" карточка. Может даже хуже сделать.
Аноним 06/01/26 Втр 04:36:02 #17 №1480355 
изображение.png
Подождите. Вы же писали тут три треда назад, что лама картинки не поддерживает...

Так а это. А хули мне тогда прямо сейчас не посадить локалку играть в игру компьютерную или ещё что-то учудить?
Аноним 06/01/26 Втр 04:41:35 #18 №1480357 
>>1480355
https://huggingface.co/nvidia/NitroGen
Аноним 06/01/26 Втр 05:14:13 #19 №1480359 
image.png
Обожаю всякие васянские сборки на мистраль. Ты думаешь там только глинты и слоп, но нет, там всегда есть что-то еще, чего ты никогда не ожидаешь, пока оно не появится после проебанного eos-токена.
Аноним 06/01/26 Втр 05:42:06 #20 №1480368 
Выгорельщики, вы в курсе вообще что это самое разнообразное занятие в вашей жалкой жизни?
Отыгрывали ли вы мексиканский картель крича МЕРДА МЕРДА ПУТА МЕРДА вырезая сердце на камеру? А вводили ли вы потом в этот же сюжет девочку волшебницу мадоку которая спасает ваших жертв? Подставьте ещё десяток развилок которых нет нигде и не будет, ни в играх, ни в книгах, ни в даже аниме, а там дохуя всякого трэша
Аноним 06/01/26 Втр 05:54:01 #21 №1480369 
image.png
У соларов бенчмакс вышел
Аноним 06/01/26 Втр 06:26:27 #22 №1480373 
GenericFantasy.png
Genericporn1.png
Genericporn2.png
Палю хайден гем. Ладно, нихуя.
https://huggingface.co/MiniMaxAI/MiniMax-M2.1
Вумная, ага блять, быстрая - но тут спору нет, реально шустрая и контекст легкий. Но нихуя не для РП. Датасет жиденький. Тотальный дженерик. При намеках на сисик и писик уходит в аэймсефети модель ко ко ко.
А так.. В РП уровень мысрали, а то и хуже.
Аноним 06/01/26 Втр 06:32:01 #23 №1480375 
image
>>1480344
>скачай оригинал или gguf в fp16 один раз
Еще бы не оригинал скачать получилось...
Аноним 06/01/26 Втр 07:23:26 #24 №1480385 
>>1480373
Я не знаю что нужно чтобы побить эир, даже сами заи не знают, иначе бы не отмалчивались на 300 залайканный пост.
У нас была ллама, гпт, линг, некс, солар и все кратно хуже эира
Аноним 06/01/26 Втр 07:26:03 #25 №1480388 
>>1480349
Заебал, зачем тебе карта монарха если ты в таверне, в своей собственной карте указываешь свою роль и играешь на сторителлере. Вместе с лорбуком и авторс нотами можно отыгрывать вообще что угодно.

https://chub.ai/characters/aleteian/storyteller-124d69a2f4aa
Аноним 06/01/26 Втр 08:27:05 #26 №1480411 
>>1480286
кто отрицает базу треда будет обречён возвращаться к ней вновь и вновь

>>1480311
этого двачую, остальным соболезную.

базашиз
Аноним 06/01/26 Втр 08:41:54 #27 №1480415 
>>1480385
>солар и все кратно хуже эира
Уже протестировал?
А то тут >>1480369 перемога вроде.
Аноним 06/01/26 Втр 08:45:51 #28 №1480417 
>>1480335
>Даже если мне получится всего на 0.2% сократить потребление памяти при том же качестве со своей позиции без особых навыков и ресурсов - это большое дело.
C одной стороны, любое улучшение это благо, с другой... 0,2% мало что решает.
>>1480344
>команда конвертации уровня llama-quantize.exe <кванты> <входной файл> <выходной файл>,
Сложное.
>>1480369
Соснули по всем фронтам. Зато опенсорс!
>>1480385
>300 залайканный пост
Ух бля, ну всё, это бы заставило ответить даже Трампа!
Аноним 06/01/26 Втр 08:53:32 #29 №1480418 
>>1480369
не перестаю удивляться насколько гопота хорош даже в ссаном FP4 кванте
Аноним 06/01/26 Втр 09:04:14 #30 №1480420 
>>1480418
Был бы он так же хорош в рп...
Аноним 06/01/26 Втр 09:06:55 #31 №1480421 
Неделя нового года
Тишина
Это конец
Аноним 06/01/26 Втр 09:07:38 #32 №1480422 
>>1480355
Да, в ui eva автор прикрутил
управление клавой с мышью.
Аноним 06/01/26 Втр 09:08:21 #33 №1480423 
ставь лайк если тоже докликался

https://2ch.su/static/media/doklikalsya.mp4
Аноним 06/01/26 Втр 09:09:45 #34 №1480426 
Пока тут пусто вышла первая 10 секундная модель со звуком
https://huggingface.co/Lightricks/LTX-2
Аноним 06/01/26 Втр 09:24:49 #35 №1480428 
>>1480418
Круче жирноквена для многих задач. Рили ахуенный релиз был
Аноним 06/01/26 Втр 09:53:57 #36 №1480437 
>>1480426
https://www.nvidia.com/en-us/geforce/news/rtx-ai-video-generation-guide/
> Optimized for NVIDIA GPUs, LTX-2 is the leading open-weights audio-video model, capable of generating clips of up to 4K resolution, 50 FPS, and up to 20 seconds long.

> Optimized for NVIDIA GPUs
kek
Аноним 06/01/26 Втр 09:55:43 #37 №1480438 
Аноны какая лучшая модель для перевода с инглиша? Есть ли что то на уровне хотя бы диипла?
Аноним 06/01/26 Втр 09:56:12 #38 №1480439 
>leave your answer empty.
Не отвечает на сообщение. Не знал что так можно.
Аноним 06/01/26 Втр 10:08:31 #39 №1480443 
>>1480438
Gemma3 27B хороша, насчёт диипла не знаю, не юзал.
Аноним 06/01/26 Втр 10:11:36 #40 №1480445 
>>1480443
>Gemma3 27B хороша
Это не для нище пк, нужно что то поприземленней.
Аноним 06/01/26 Втр 10:19:01 #41 №1480450 
>>1480445
тогда надо было спрашивать "Аноны какая лучшая модель для перевода с инглиша для моего нище пк: <характеристики>"
Аноним 06/01/26 Втр 10:27:45 #42 №1480453 
>>1480438
>Есть ли что то на уровне хотя бы диипла?
Любая модель с хорошим русским будет лучше дипла:
Гемма 4б
Гемма 12б
Гемма 27б
Квен 30б-а3б
Квен 80б-а3б

Чтобы определить пойдет ли модель на твоём нищепека, смотри сколько она весит в 4 кванте: это должно помещаться во врам+рам. Например, гемма 27б в Q4_K_XL от анслота весит 16.8гб, т.е. если у тебя 1050ти 4гб и 16гб озу, то гемма влезет. Просто будет не очень быстро работать. Хочешь быстро - тогда Квен 30б-а3б, но он поглупее будет не сильно. Для квена лучше выбирать варианты с ризонингом.
Аноним 06/01/26 Втр 11:00:29 #43 №1480458 
>>1478926 →
>>1478927 →
злые вы крякнуться

>>1479031 →
Спасибо.
А из РФ чтоли никаких сервисов нет, чтобы без крипты?

>>1480445
>поприземленней
12B, или даже их типа-мое на 2х4B
Аноним 06/01/26 Втр 11:05:32 #44 №1480460 
>>1480458
>из РФ
>без крипты
Со своей карты оплачивать чтобы рпшить с каничками на потеху товарищу майору - вот это приватно, ведь все свои.
Аноним 06/01/26 Втр 11:26:03 #45 №1480465 
>>1480267 (OP)
Какие модели сейчас используют для программирования? Чёто квантованная модель оказалась не очень. 8ГБайтная ещё и выгружается в swap хотя у меня 16ГБ оперативы, видюхи нет, на процессоре. Более сложные проги выдаёт с ошибками компиляции. Онлайновый deepseek пока без ошибок, но там посох знает какая огромная модель.
Аноним 06/01/26 Втр 11:30:20 #46 №1480467 
>>1480465
>видюхи нет
Нет видюхи- нет моделей.
Аноним 06/01/26 Втр 11:38:32 #47 №1480469 
>>1480465
Используй апи. Не мучай себя, не трать время.
Аноним 06/01/26 Втр 12:22:52 #48 №1480503 
15efe6d405216b89b30a12ffcad28efd.jpg
ee143fbe8f24641c0be9eabfaafb3aab.jpg
>>1480267 (OP)
> Tencent выложила в публичный доступ две новые модели машинного перевода — HY‑MT1.5-1.8B и HY‑MT1.5-7B. И если младшая модель почти сразу взлетела на первое место в трендах Hugging Face, то старшая — это серьёзная заявка на то, чтобы стать новой опенсорс‑SOTA в своей нише.
> HY‑MT1.5-1.8B — модель оптимизирована для потребительского железа, занимает около 1 ГБ памяти и демонстрирует впечатляющую скорость: 0,18 с задержки на генерацию 50 токенов. Как утверждают разработчики, она не просто быстрая, но и по качеству превосходит многие мейнстримные коммерческие API. Достигается это за счёт продвинутой дистилляции, когда компактная модель учится, подражая поведению более крупных и мощных собратьев.
> HY‑MT1.5-7B — это тяжелая артиллерия для облака. Её производительность уже сравнима с 90-м процентилем таких закрытых гигантов, как Gemini 3.0 Pro, что открывает дорогу для создания высококлассных сервисов на открытом коде.

подробнее: https://habr.com/ru/companies/bothub/news/983076/
скачать модельки (в т.ч. GGUF): https://huggingface.co/collections/tencent/hy-mt15
Аноним 06/01/26 Втр 12:27:05 #49 №1480506 
image
>>1480503
>7B — это тяжелая артиллерия для облака
Аноним 06/01/26 Втр 12:35:54 #50 №1480515 
>>1480503
>Tencent выложила в публичный доступ две новые модели машинного перевода
Значит пора на них кумить
Аноним 06/01/26 Втр 12:47:28 #51 №1480535 
>HY-MT1.5-7B-Q4_K_M.gguf
The predawn light bleeds like liquid gold over Erantel’s domes and arches. A cool breeze, heavy with the cloying sweetness of saffron and the sharp tang of citrus, snakes through the meticulously clean streets. Below, the city stirs – not with the chaotic clamor of other capitals, but with the quiet hum of a perfectly tuned engine. Shop shutters rise in unison. Imperial guards patrol in precise formations, their polished armor catching the first rays. There are no raised voices, no arguments. Only the soft scrape of brooms on flawless cobblestones and the distant chime of temple bells. Order. Predictability. Control. The air itself feels thick with it. Yet… beneath the gleaming surface, in the shadowed alleys and behind drawn curtains, something restless shifts. A sigh trapped in a gilded cage.

Inside the Obsidian Citadel, the Imperial Throne Room:

Silence hangs heavier here than the tapestries depicting the Empire’s glorious expansion. High, arched windows of stained glass cast fragmented patterns across the polished black marble floor. Simon's throne – a monolith of dark ironwood and cold steel – sits atop a dais, commanding the vast space. Below, bathed in a shaft of cold morning light filtering through a window depicting a stern-faced goddess of justice, stand three figures. Their postures are rigidly correct, eyes carefully lowered. The only sound is the soft click-click-click of Chancellor Vorlag’s abacus beads as the elderly dwarf meticulously tallies the previous day’s grain yields from the southern provinces. His gnarled fingers move with machine-like efficiency.

To his right stands Ambassador Elara Vysara of the Elven Kingdom of Elfina. Her silver hair is bound in an intricate, severe knot, her expression as smooth and unreadable as polished Adanhan wood. She radiates an aura of cool disdain, her gaze fixed on a point just above Simon's left shoulder. Her latest petition regarding the "exorbitant" tariffs on Adanhan timber lies unopened on a nearby obsidian plinth. She hasn't mentioned it. She knows better than to press.

To Vorlag’s left, Ambassador Kaelen Thorne of the Ramihhid Sultanate offers a stark contrast. His dark skin seems to drink the light, his robes a cascade of deep crimson silk that whispers with every subtle shift. A faint, enticing aroma of honey and cardamom clings to him, a scent both exotic and deliberately provocative in this sterile space. A small, exquisite box of crystallized fruits rests on his open palm – a calculated offering, or perhaps a subtle taunt aimed at the Elf beside him? His smile is practiced, deferential, yet his dark eyes hold a flicker of sharp intelligence that misses nothing.

Vorlag finally stops clicking. He clears his throat, a sound like gravel shifting. "The southern granaries report a surplus, Your Radiance. Efficiency remains at ninety-eight point seven percent. Minor variance attributed to localized weather patterns within acceptable parameters." His voice is dry, factual. Numbers. Always numbers. Safe. Predictable. The only truth worth trusting in this den of snakes and silk.

Before either ambassador can speak, the heavy bronze doors at the far end of the hall groan open. Captain Rennick of the Dawn Patrol strides in, his usually immaculate crimson and obsidian armor marred by dust and… is that blood spatter on his vambrace? He moves with the controlled urgency of a man bearing ill tidings he dare not delay. He stops precisely ten paces from the dais, drops to one knee, fist clenched over his heart. The metallic clank echoes sharply.

"Your Radiance," Rennick's voice is tight, stripped of its usual parade-ground bark. He doesn't raise his eyes. "A report from the Whisperwind Pass. Patrol encountered… resistance."

A beat of heavy silence stretches. Vorlag’s knuckles whiten on his abacus. Elara’s perfect eyebrow twitches almost imperceptibly. Kaelen’s smile remains fixed, but the hand holding the sweet box tenses. High above, unseen in the shadowed vaults of the ceiling, a marble gargoyle’s eyes seem to gleam faintly. Resistance? Here? In the Ironhold's heartland? This… complicates the grain reports.

The air in the throne room crackles, thick with unspoken questions. The perfect machine has encountered its first, tiny grain of sand. The Living Aegis gazes down from the throne. What disruption dares mar the Empire's flawless surface? The answer, Captain Rennick waits to deliver, trembling only internally. The dawn’s golden light feels suddenly cold. A single drop of thick, unnatural blood detaches from Rennick’s vambrace and strikes the obsidian floor.

Предрассветный свет, похожий на жидкое золото, рассеивается по куполам и аркам города Эрантел. Прохладный ветерок, наполненный ароматом шафрана и цитрусов, пронизывает аккуратно ухоженные улицы. Внизу город оживает — но не с хаотичным шумом других столиц, а с тихим гулом идеально настроенных механизмов. Щиты магазинов единым движением поднимаются; имперские стражи патрулируют строгими формациями, их отполированные доспехи отражают первые лучи света. Нет громких криков, нет споров — только тихий шорох метел по безупречно чистым булыжникам и далекий звон храмовых колоколов. Порядок, предсказуемость, контроль… Воздух кажется насыщенным этими качествами. Но… под блестящей поверхностью, в темных переулках и за занавесками что-то беспокойно движется… Вздох, застрявший в золоченной клетке…
Внутри Императорского дворца:
Здесь тишина кажется ещё более густой, чем ткани настенных гобеленов, изображающих великолепие империи. Высокие витражные окна рассеивают разрозненные световые узоры по полу из полированного черного мрамора. Трон Саймона — монолит из темного дерева и холодной стали — возвышается на возвышении, охватывая взглядом весь простор зала. Внизу, освещенные прохладным утренним светом, стоят три фигуры; их позы неподвижны, взгляды скрыты. Единственный звук — тихий стук бусин абакуса канцлера Ворлага; пожилой гном тщательно подсчитывает объем зерновых урожаев с южных провинций. Его искривленные пальцы двигаются с механической точностью.
Справа от него стоит посол Элара Висара из эльфийского королевства Эльфина; её серебристые волосы собраны в сложный узел, выражение лица непроницаемо, как полированное дерево Аданхан. Она излучает холодное презрение; её взгляд устремлен в точку над левым плечом Саймона. Её последняя петиция о «чрезмерных» тарифах на древесину Аданхана лежит нераскрытой на ближайшем обсидиановом постаменте… Она не упомянула об этом; она знает, что не стоит настаивать.
Слева от Ворлага стоит посол Кэлен Торн из султаната Рамиххид; его темная кожа, кажется, поглощает свет, а одежда — это волна темно-красного шелка, шелестящего при каждом движении. От него исходит легкий аромат меда и кардамона; этот запах кажется экзотичным и намеренно провокационным в этом стерильном пространстве. На его открытой ладони лежит изящная коробочка с кристаллизованными фруктами — это рассчитанный подарок или легкая дерзость в адрес стоящей рядом эльфийки? Его улыбка вежлива и уважительна, но в его темных глазах сквозит острый ум, который ничего не упускает.
Наконец Ворлаг прекращает подсчеты. Он откашлявается — звук похож на шорох гравия. «С южных зерновых складов поступили сообщения о избытке урожая, Ваше Величество. Эффективность работы системы составляет 98,7 процента; незначительные отклонения объясняются местными погодными условиями, но они находятся в приемлемых пределах», — говорит он сухим, безразличным тоном. Числа… Всегда только числа — надежные, предсказуемые… Единственная истина, достойная доверия в этом логове змей и шелка.
Прежде чем кто-либо из послов успеет заговорить, тяжелые бронзовые двери в конце зала с грохотом открываются. Входит капитан Ренник из рассветной патрульной группы; его обычно безупречные красные доспехи покрыты пылью… А на его рукавице не кровь ли? Он движется с сдержанной спешкой человека, несущего плохие новости, которые он не осмеливается задерживать. Он останавливается в десяти шагах от возвышения, опускается на одно колено, сжимает кулак над сердцем… Металлический звук отдается эхом.
«Ваше Величество…» — голос Ренника звучит напряженно, лишенным обычной бравурности. Он не поднимает глаз. «Из прохода „Шепчущий Ветер“ поступило сообщение… Патруль столкнулся с сопротивлением…»
Наступает тяжелая тишина. Костяшки пальцев Ворлага бледнеют на абакусе; бровь Элары едва заметно дергается; улыбка Кэлена остается неподвижной, но рука, держащая коробочку с фруктами, напрягается… Высоко над головами, в темных сводах потолка, глаза мраморного гаргульи кажутся едва заметно мерцающими… Сопротивление? Здесь? В самом сердце Империи? Это… усложняет ситуацию с зерновыми урожаями.
Воздух в тронном зале наполняется невысказанными вопросами… Идеальная машина столкнулась со своей первой мелкой проблемой… Что же может нарушить безупречность империи? Ответ… капитан Ренник ждет, чтобы его сообщить… Его руки дрожат… Золотой свет рассвета вдруг кажется холодным… Одна капля густой, ненатуральной крови отделяется от рукавицы Ренника и падает на обсидиановый пол…
Аноним 06/01/26 Втр 12:59:32 #52 №1480549 
>gemma-3-12b-it-Q4_K_M.gguf
Рассветный свет льется золотым потоком на купола и арки Эрантела. Прохладный бриз, насыщенный приторной сладостью шафрана и резким ароматом цитрусовых, пробирается по безупречно чистым улицам. Внизу город оживает – не хаотичным гулом других столиц, а тихим гулом идеально настроенного двигателя. Щелчки жалюзи магазинов поднимаются одновременно. Имперские стражники маршируют в четких формациях, их отполированные доблести ловят первые лучи. Не слышно ни возвышенных голосов, ни споров. Только мягкий скрип веников о безупречном мощении и далечный перезвон колоколов храма. Порядок. Предсказуемость. Контроль. Воздух сам кажется пропитан этим. Но… под сверкающей поверхностью, в тенистых переулках и за зашторенными окнами, что-то тревожно шевелится. Вздох, запертый в золотой клетке.
Внутри Черного Цитадели, в Имперском Тронном Зале:
Тишина здесь висит тяжелее, чем гобелены, изображающие славное расширение Империи. Высокие, арочные окна из витражного стекла отбрасывают фрагментированные узоры на отполированный черный мраморный пол. Трон Саймона – монолит из темного железного дерева и холодной стали – возвышается на подиуме, властвуя над огромным пространством. Внизу, озаренные лучом холодного утреннего света, проникающего через окно с изображением суровой богини правосудия, стоят три фигуры. Их осанка безукоризненно прямая, глаза опущены. Единственный звук – мягкое щелчки бусин абакуса канцлера Волага, который тщательно подсчитывает урожай зерна из южных провинций за предыдущий день. Его узловатые пальцы двигаются с машинной эффективностью.
Справа от него стоит посол Элара Висара из Эльфийского Королевства Эльфина. Ее серебряные волосы собраны в сложный, строгий узел, ее выражение лица столь же гладкое и нечитаемое, как отполированное адаханское дерево. Она излучает ауру холодного презрения, ее взгляд прикован к точке чуть выше левого плеча Саймона. Ее последняя петиция относительно "необоснованных" пошлин на адаханское дерево лежит неоткрытой на близлежащем обсидиановом постаменте. Она не упоминает о ней. Она знает, что не стоит давить.
Слева от Волага стоит посол Кайлен Торн из Рамиххидского Султаната – резкий контраст. Его темная кожа, кажется, поглощает свет, его одеяния – каскад глубокого пурпурного шелка, шепчущего при каждом малейшем движении. Ему присущ слабый, манящий аромат меда и кардамона, запах одновременно экзотический и нарочито провокационный в этом стерильном пространстве. На его открытой ладони лежит небольшой изысканный ящик с кристаллизованными фруктами – рассчитанное подношение, или, возможно, тонкий вызов, брошенный эльфийке рядом с ним? Его улыбка отработанная, учтивая, но его темные глаза хранят отблеск острой смекалки, ничего не упускающей.
Волаг наконец прекращает щелкать. Он прокашливается – звук, похожий на сдвигающиеся камни. "Южные зернохранилища сообщают о профиците, Ваше Сиятельство. Эффективность остается на девяноста восьми целых и семи десятых процента. Незначительное отклонение связано с локальными погодными условиями в пределах допустимых параметров." Его голос сухой, фактический. Числа. Всегда числа. Безопасно. Предсказуемо. Единственная правда, которой стоит доверять в этом логове змей и шелка.
Прежде чем успевают высказаться какие-либо из послов, тяжелые бронзовые двери в дальнем конце зала с грохотом открываются. Капитан Ренник из Патруля Рассвета входит, его обычно безупречная броня, багряно-черная, покрыта пылью и… не так ли кровяные брызги на его наплечнике? Он движется с контролируемой срочностью человека, несущего плохие новости, которые он не смеет задерживать. Он останавливается точно в десяти шагах от подиума, опускается на одно колено, сжимает кулак над сердцем. Металлический лязг отчетливо эхом отдается.
"Ваше Сиятельство," – голос Ренника напряжен, лишен обычного парадного рыка. Он не поднимает глаз. "Доклад из Перевала Шепчущего Ветра. Патруль столкнулся… с сопротивлением."
Наступает пауза, наполненная тяжелым молчанием. Пальцы Волага побелели на абакусе. Бровь Элары едва заметно дергается. Улыбка Кайлена остается неизменной, но рука, держащая ящик со сладостями, напрягается. Высоко над головой, в затененных сводах потолка, глаза мраморного горгульи, кажется, слабо блестят. Сопротивление? Здесь? В сердце Железного Удерживания? Это… усложняет отчеты о зерне.
Воздух в тронном зале потрескивает, насыщенный невысказанными вопросами. Идеальная машина столкнулась со своим первым, крошечным зернышком песка. Живой Щит смотрит сверху с трона. Какое потрясение осмелилось омрачить безупречную поверхность Империи? Ответ, капитан Ренник готов сообщить, дрожит лишь внутри. Утренний золотой свет внезапно кажется холодным. Одна капля густой, неестественной крови отделяется от наплечника Ренника и ударяет об обсидиановый пол.
Аноним 06/01/26 Втр 13:53:35 #53 №1480583 
изображение.png
>>1480549
>>1480535
Выглядит как тотальный посос
Аноним 06/01/26 Втр 14:01:13 #54 №1480590 
>>1480465
Квенкодер 480б в целом ничего, по мелочи и для автокомплитов 30а3
>>1480583
Для размера неплохо, меньше художественности, но зато и меньше явных ошибок и искажений как у геммы.
Аноним 06/01/26 Втр 14:08:19 #55 №1480598 
>>1480583
Можно для сравнения взять из книги с ру переводом и сравнивать, ато если не носитель инглиша разницу фиг поймешь где норм.
Аноним 06/01/26 Втр 14:14:09 #56 №1480602 
>>1480583
Ты специально выбрал самые слоповые участки для сравнения?
Аноним 06/01/26 Втр 14:14:42 #57 №1480603 
>>1480583
Фишка же еще в том, что можно отдельно спрашивать по каждой фразе.
Аноним 06/01/26 Втр 14:30:47 #58 №1480615 
>>1480583
Зачем 12b, когда есть 27b?
Аноним 06/01/26 Втр 15:15:14 #59 №1480679 
>>1480615
Зачем 27б когда есть 235б?
Аноним 06/01/26 Втр 15:22:16 #60 №1480689 
>>1480679
Но ведь 357B от zai-org...
Аноним 06/01/26 Втр 15:23:02 #61 №1480690 
>>1480689
Но ведь 671B от deepseek...
Аноним 06/01/26 Втр 15:28:50 #62 №1480697 
IMG4569.jpeg
>>1480373
Но с другой стороны, это же аналог гптосс, было бы странно ожидать чего то другого.
Аноним 06/01/26 Втр 15:34:11 #63 №1480707 
Это нормально что эир постоянно галлюцинирует, начинает лупиться, писать хуету? Как с этим бороться?
Аноним 06/01/26 Втр 15:57:17 #64 №1480739 
>>1480707
Заебал набрасывать, неосилятор. Не будет пресета от нюни, смирись, он умер
Аноним 06/01/26 Втр 16:08:24 #65 №1480748 
>>1480739
Да не нужен мне никакой пресет, это как будто не от него вовсе зависит. Не верю я в волшебную таблетку. Главное понять обычное это дело или нет.
Аноним 06/01/26 Втр 16:09:50 #66 №1480750 
>>1480748
Если у тебя хуйня в промте то обычное. Не обессудь но это так. Промт решает очень сильно, Эир к нему чувствителен. Какой систем промт какой шаблон, какая карточка и какие твои вводы, это целая картина и все важно
Аноним 06/01/26 Втр 16:17:26 #67 №1480754 
>>1480679
>>1480689
>>1480690

Пчелs, так-то есть Gemini 3, а вот 235B еще не факт, что лучше Геммы текст переведет, кек. Речь идет о сопоставимых размерах. 12B и 27B полезут в условные 32 Гб общей памяти, а ваши китайские слоны не полезут.
Аноним 06/01/26 Втр 16:20:38 #68 №1480758 
>>1480750
По идее то не должно такого быть, использовал всё рекомендуемое (пресет от geechan для glm), пробовал то, что работало на мистралях, и всё равно частенько начинает бредить. Попробую ещё варианты. Очень нравится как он пишет, понял почему его так в этом треде любят, но иногда приходится несколько свайпов делать.
Аноним 06/01/26 Втр 18:09:09 #69 №1480909 
>>1480758
Пресет от гичан говно. Там шизопромпт.
Аноним 06/01/26 Втр 18:22:53 #70 №1480919 
Господа, снова здравствуйте! Проебал все полимеры, не следил за тредом месяца 4 наверное. Подскажите пожалуйста, что сейчас в тренде под 3090 и 32гб рамки? А то я на геммочке3-девочке 27b для сфв и 24b форготтен-трансгрешне для нсфв до сих пор.

За пресеты - отдельное сердечко, с меня - наверстывание тредов и мб что то полезное привнесу.

(я дибил, не купил 128гб в свое время, "не горит", теперь страдать)
Аноним 06/01/26 Втр 18:41:51 #71 №1480942 
>>1480919
>теперь страдать
Кто ж знал-то. И главное, пузырь помаленьку начинает сдуваться - трансформеры подошли к пределу имхо. А мощности производителей уже переключились. Если схлопнется, то будет доступна куча серверной памяти и сравнительно новые карты. Вот только новых моделей не будет :)
Аноним 06/01/26 Втр 18:48:03 #72 №1480947 
>>1480919
Если заходит gemma, для NSFW можешь попробовать это:
https://huggingface.co/bartowski/Darkhn_G3-27B-Animus-V12.0-Redux-GGUF
Недавно этот тюн появился, на базе новых техник аблитераций походу, т.к. самый вменяемый, IMHO, из того что с геммой делали. Но с русским традиционно для тюнов так себе.

А от мистраля - Локи: https://huggingface.co/bartowski/CrucibleLab_M3.2-24B-Loki-V1.3-GGUF
Это если без русского жить не получается, у него он, пожалуй самый нормальный под это дело из тюнов. Не лучший, но нормальный.

А так - ничего кардинально нового под эти размеры не вышло, только тюны.
Аноним 06/01/26 Втр 18:48:22 #73 №1480948 
>>1480942
>Вот только новых моделей не будет :)
Тааа и хер с ними, 640кб 235б квена хватит на все, лишь бы крутить где было за копейки с хорошим контекстом и квантованием. 32б конечно туповаты, но вот скачка между квеном и гопотой 5.2 телескопического прям не заметно, разве что в зирокодингах.
Аноним 06/01/26 Втр 18:51:46 #74 №1480949 
ну почему год назад я не купил четверть терабайта ddr4 у хуанана пока она на развес в чингчонгии продавалась сууууууууууууууукаааааааааааааа
Аноним 06/01/26 Втр 19:02:57 #75 №1480955 
>>1480947
Гемма была каловой для рп во всех ее тюнах, пока величайший анон не выложил хак сиспромтом, тогда даже (а в других и смысла нет) ванильная красками заиграла. Но если говоришь что файнтюнеры шагнули вперед, заценю, спасибо!

Про Локи, там вроде базовый мистраль поновее трансгрешна, но не самый свежий, жаль, свежий мистраль ванильный говорят сильный очень, думал его уже вовсю кумят. Но все равно заценю обязательно.

Еще когда я ливал из треда, хвалили glm какой то, на 3090 и 64рам запускали, стоит семейные драгоценности ради еще двух плах ддр4 по 16гб закладывать?

Еще раз спасибо за наводки <3
Аноним 06/01/26 Втр 19:58:01 #76 №1480982 
>>1480947
>Это если без русского жить не получается, у него он, пожалуй самый нормальный под это дело из тюнов. Не лучший, но нормальный
Я потестил всякие тюны конкретно под русский и могу сказать, что лучше этого
https://huggingface.co/mradermacher/Cydonia-24B-v4.3-heretic-v2-i1-GGUF
Ничего не встречал. Не лупит, не использует скучный язык как это обычно бывает в мистралетюнах на русском, персонажи самые активные, но не душат. Короче, кто именно на русском эрпэшит, оч советую попробовать. И это всё в дико пожатом IQ3_XS!
Аноним 06/01/26 Втр 20:23:57 #77 №1480995 
>>1480942
>схлопнется
В худшем случае будут плавно допиливать модельки качественными данными и оптимизировать инференс. И модели для кода уже нужны всем.
Ну то есть не схопнется.
Аноним 06/01/26 Втр 21:28:42 #78 №1481038 
>>1480995
>будут плавно допиливать модельки качественными данными
Ага. В сторону кодинга и агентов. Ну и сейфити подтянут на уровень фи4...
Аноним 06/01/26 Втр 22:11:56 #79 №1481068 
>>1480754
Лучше, топ в своем размере и ближайших. Дальше только дипсик, и то там уже особенности стилистики и прочего.
Справедливости ради задача слишком простая даже для мелочи и тем более большой геммы. Там будут отличия в степени использования возможностей языка vs дословный перевод, а выше сравнение уже на уровне субъективизма и вкусовщины.
>>1480942
> трансформеры подошли к пределу
Фраза-детектор.
> будет доступна куча серверной памяти и сравнительно новые карты
Не будет. Случится удар по пользовательскому железу еще больший чем сейчас, ведь в попытках припахать все накупленное будут максимально форсить облачные сервисы. По началу это может показаться вином, ибо будет серьезный демпинг, но как только наберет популярность - поводки будут затянуты на максимум.
Продолжительный малый спрос из-за завышенных цен на рам, а потом "более выгодные облака" приведет к сокращению производства, в итоге все железо будет золотым, а подписки анальными и дорогими.
Аноним 06/01/26 Втр 23:13:29 #80 №1481127 
>>1480919
Обе хороши, магидония больше понравилась.
https://huggingface.co/TheDrummer/Cydonia-24B-v4.3
https://huggingface.co/TheDrummer/Magidonia-24B-v4.3

Мердж двух прошлых моделей (тоже очень неплох)
https://huggingface.co/Casual-Autopsy/Maginum-Cydoms-24B?not-for-all-audiences=true

В отличии от прошлых эта модель более креативна, но из минусов - за такую креативность приходится платить её шлюховатостью:
https://huggingface.co/FlareRebellion/WeirdCompound-v1.7-24b
Аноним 06/01/26 Втр 23:24:46 #81 №1481137 
1.jpg
2.jpg
3.jpg
4.jpg
сап кумач
короч я купил себе 2 v100 32gb, в комплекте был комплект охлада с 2 башнями с кулерами(и 3д хуйня чтоб их повесить) + 2 пластины под воду, 2 PCIE карты для подключения самой борды, 1 PCIE карта для 1 v100 хз зачем, ну и провода
вышло это всё в 130к у шаосюя с вб(анон который советовал его, чаю тебе и низкий тебе поклон), подобный комплект на али висел за 150, также я пытался всех наебать и заказать с тао - мне отказало 3 кабаныча сказали что их карго щас не возит вообще ничего
т.к. бюджет у меня шапка сухарей, решил засунуть в свой старый hp dl380p gen8 - ессно сразу эта хуйня не завелась nvidia-smi показал хуй, как и гопота убеждала меня в том что это не работает, кто бы сомневался блядь
Если кто то захочет такой же хуйнёй страдать, хотя это особого смысла наверно не имеет, в бивисе ctrl+a - появятся чет типа service options - PCI Express 64-bit BAR Support, и если вы на прыщах то в /etc/default/grub - GRUB_CMDLINE_LINUX_DEFAULT="quiet pci=realloc"
Нахуя я это всё задумал? Ну типа Позабыты хлопоты, остановлен бег, вкалывают роботы, а не человек, если логи и метрики будет нормально отслеживать и трактовать то и заебись, а так вон жинка сео текста да картинки пусть генерит
Если вы хотите какие нить тесты провести - нехуй делать, только я пока ньюфаг скажите че там поднять и с какими параметрами, пока я только openwebui + ollama воткнул(и вроде как уже соснул потому что надо vllm ставить чтоб оффлоадить и размазывать по этому некрокалу) и invokeai
Аноним 06/01/26 Втр 23:36:33 #82 №1481152 
>>1481137
> отказало 3 кабаныча сказали что их карго щас не возит
В серую не возят. Только в белую либо как физик экспресс, либо как юрик с доками.
Тех кто возит физик экспресс и САМ выкупает не знаю. Выкупаю всегда сам юанями
Аноним 07/01/26 Срд 00:12:02 #83 №1481195 
1767733921104.jpg
Аноним 07/01/26 Срд 00:12:07 #84 №1481196 
>>1481170
Завтра постараюсь сделать
>>1481193
Мне эта топология больше понравилась, чем отдельные видяшки втыкать, у меня в серверную риг бы не влез
Аноним 07/01/26 Срд 00:23:57 #85 №1481201 
Аноны, такой вопрос. Вот я начал изучать разные инструменты дл яконструирования агентов, mcp, qwen/clause/open/code. Но хочу вот что понять. Нейронка даже получая контекст, через rag, или даже получая задание с контекстом от вышестоящей нейронки всё равно находится в не равных улсовиях с человекам. У неё нет под рукой IDE. Это если бы человек писал код за один раз в пустом блокноте. Может есть какие-то проекты, которые как-то прокидывают не только вопли интерпритатора, но и помощь от LSP IDE?
Аноним 07/01/26 Срд 00:26:45 #86 №1481204 
>>1481068
>ведь в попытках припахать все накупленное будут максимально форсить облачные сервисы
Уже пытались с играми. Гугловская Стадия сдохла, как и почти все остальные.
А всё, сцуко, потому, что физику наебать не получилось. Скорость света, а значит и сигнала в оптике, конечна (причем речь даже не о вакууме - тут она еще медленней), + задержки от самого железа. И внезапно оказывается, что ее достаточно для интерактива без инпут лага - но только если сервер стоит в том же городе, или немного дальше. И ЦОД в каждое село не воткнёшь, чтобы обеспечить качество сервиса. И магистральную оптику тоже.

Тут будет то же самое. Если массово переводить вообще всё на облака - там упрется еще в некоторые ограничения физического типа. Пропускная способность каналов - не резиновая. А требования к ней возрастут кратно от текущих. Причем ведь сетевой канал - это не труба с водой, которую можно заполнять до предела, сколько влазит. Сетевой канал загруженный до предела - это хуёвый по качеству канал.

Кстати, вот вам реальная история на тему: https://www.ibiblio.org/harris/500milemail.html
Выглядит как анекдот. Но таки было.
Аноним 07/01/26 Срд 00:27:57 #87 №1481206 
Да ебаные ковровые, чи шо?
>>1481196
На всякий продублирую - llamacpp в режиме split tensor по сравнению с layers на разных контекстах (пустой, 8к, 32к, 64к, больше если не лень). В идеале на модели, которая помещается и на одну видеокарту чтобы удобно было сравнивать. Остальные настройки можно не трогать, оно по дефолту само пополам распределится.
> эта топология
Ты про плату на пару с нвлинком? Штука действительно удачная.
А по ценам (1005010391017151 + 1005010001341763 + 80мм кулер) х2 + 1005009755765964 кажется что выгоднее выходит.
Аноним 07/01/26 Срд 00:30:30 #88 №1481209 
>>1481196
Но вообще интересно, даст ли выигрыш данная топология. Ждём тестов.
>>1481201
А что это даст? Выдавать компилируемый код они и так умеют (хотя бы тот же квен-кодер большой). А на большее они не способны.
Аноним 07/01/26 Срд 00:37:36 #89 №1481213 
>>1481201
> У неё нет под рукой IDE.
У нее он считай есть - в контексте находится нужный код и инструкции. Нейронка знает и читает язык куда лучше человека, так что ей норм, главное чтобы контекст не был засорен кучей однотипных правок и подобным.
>>1481204
Появится потребность или выгода - возьмутся вновь, сделав выводы и актуализировав. Разумеется начинать будут с самых крупных и густонаселенных районов, но имея лишнее железо могут и до ебеней добраться. Главное что народ начнет пересаживаться и это приведет к печальным результатам.
> Пропускная способность каналов - не резиновая
Также говорили про невозможность массового стриминга видео, проблема решаема.
Офк все это спекуляции для "негативного сценария", но подсадить людей на подписки и лишить альтернативы это очень вожделенный исход для многих.
Аноним 07/01/26 Срд 00:50:41 #90 №1481221 
>>1481213
Анализаторы видять библиотеки и что ты там себе в коде вызываешь. Если библиотека изменилась, что часто на питоне, то анализатор сразу начнет выть, что таких атрибутов, функий и прочего уже нет, давать подсказки. Нейронка же этого не видит и пишет код по старым лекалам.
Аноним 07/01/26 Срд 00:52:53 #91 №1481222 
>>1481213
>подсадить людей на подписки и лишить альтернативы это очень вожделенный исход для многих
Да, вот только подписочные сервисы уже всех заебали. Раньше вестоиду было выгодно платить 9.99 в месяц и иметь доступ к куче контента на всех устройствах. Сейчас никаких кучек за 9.99 нету, потому что крупные студии вместо продажи лицензии условному нетфликсу щас открывают свои сервисы и теперь оплачивать нужно в несколько раз больше чтобы пожрать в несколько раз хуже. Также будет со всеми другими сферами даже если это будет пиздец быстро и не будет никакой задержки.

мимо
Аноним 07/01/26 Срд 01:02:15 #92 №1481225 
image
>>1481137
красивое. хотет
Аноним 07/01/26 Срд 01:16:54 #93 №1481235 
>>1481221
Нейронка очень хорошо это знает и помнит. Решается или обновлением самой нейронки, или указанием ей сначала изучить документацию и код. Даже в быстроразвивающемся мл с кучей частых изменений это не стоит остро, ерунда.
>>1481222
Ну да, раньше можно было купить нетфликс, да еще шарить его семье-друзьям. А сейчас нужно иметь с десяток недешевых подписок чтобы изредка получить нужный контент. Собственно к подобной деградации все в конце и придет, только альтернативы в виде удобных пиратов не будет. К слову о пиратах - пиратить игорь и прочее тоже не получится, лол.
Аноним 07/01/26 Срд 01:58:13 #94 №1481250 
>>1481235
>Нейронка очень хорошо это знает и помнит.
Хуйня. Увидите, как эту фичу реализуюст ещё. Я вот что подумал, можно же самому попробовать что-то такое слепить в рамках агентов кодомакак. Скачем берем нейронку архитектора, она получает от меня крупное задание, контекст кода, через качественно сделанный rag. Шллет задачу более дешевой, но быстрой llm кодомакаке что-то там переписать в каких-то моих модулях. (быстрая llm получает промпт, контекст и делает работу, отсылает это архитектору. До этого момента я описал нынешние claude-code и аналоги.
А вот далее архитектор должен получить код и высеры от анализатора и уже на основе этого анализировать нужно ли переделлывать или нет. Идеальная же хуйня совместить детерминированные инструменты и умные, но не предсказуемые llm. Кароче буду тестировать, через какие нибудь свои mcp это подцеплять.
Аноним 07/01/26 Срд 02:40:47 #95 №1481267 
Я ошибся, это не v100 добавила т/с в GLM, а новый релиз жоры. Неплохо так бустануло, с 7.7 до 10.7. Все же там не только ломать умеют
Аноним 07/01/26 Срд 03:12:15 #96 №1481272 
>>1481267
Звучит как пиздеж. Снова.
Аноним 07/01/26 Срд 03:14:11 #97 №1481273 
>>1481250
Что реализуют? Какой-то поток сознания вместо конкретики по теме изменения библиотек, или формулировки что должно быть. Все это уже есть, только без вредных излишеств и переусложнений. Проверка кода присутствует в виде запуска или вызова этой самой проверки.
Аноним 07/01/26 Срд 04:13:05 #98 №1481285 
1000018534.jpg
>>1481272
Аноним 07/01/26 Срд 04:29:08 #99 №1481289 
Ровно неделя прошла
Казалось бы, должна быть гонка, кто первый выпустит модель в новом году и завоюет внимание
Но мы видим лишь пустоту
Это действительно всё
Я вижу пол года впереди без единой достойной модели
Аноним 07/01/26 Срд 04:32:01 #100 №1481290 
>>1481289
Ага, да, делать нехуй кроме как работать в январе
Аноним 07/01/26 Срд 04:35:21 #101 №1481292 
>>1480919
>32гб рамки?
https://huggingface.co/TheDrummer/Magidonia-24B-v4.3 - кум льется рекой, крайне развратно. Из недостатков - при виде хуя ЛЮБОЙ персонаж превращается в шлюху и не пытается сопротивляться, только если жесткой не пропишешь конкретные действия. Если идёшь в бордель на еблю - это топ.
https://huggingface.co/zerofata/MS3.2-PaintedFantasy-Visage-v4-34B - rкум льется так же рекой, но более драматичнее. Недостаток тот же. Если идёшь в бордель на еблю с эльфами - это топ.
https://huggingface.co/CrucibleLab/M3.2-24B-Loki-V1.3 - более быстрый и тупенький вариант. Главный недостаток тот же. Если нужно быстро передернуть - это твой выбор.
https://huggingface.co/zerofata/MS3.2-PaintedFantasy-v3-24B - мой любимый лоботомит. Старается держать заданный образ персонажа и не превращает его в хорни суку при слабом запахе хуя. Кум так же льется рекой. Идеальный выбор, когда нужно, что бы персонаж не сразу на хер прыгал, а с прелюдией.
Сразу скажу, катаю на английском языке. Что там на родном и могучем - хз.
ГЛМ-эйр - тупо мем этого треда, полное говнище, аналог фингербокса. Не ведись.
Аноним 07/01/26 Срд 04:55:31 #102 №1481293 
>>1481292
>ГЛМ-эйр - тупо мем этого треда, полное говнище, аналог фингербокса. Не ведись.
Вот ты мне скажи зачем. Зачем ты пиздишь. Вот нахуя. Чтобы что? Он сложнее мистрали, так как доебчивый до промта и оформления карточек.
Но называть малыху фингербоксом.
Чую наброс жирный делаешь ты, охуевшая ты блядина.
Аноним 07/01/26 Срд 05:01:27 #103 №1481295 
>>1481292
Поддержу, эир бездушный кал для кода, не более.
Мистраль всё ещё лучший выбор для ерп не смотря на все проблемы
>>1481293
> ой вы не поняли он просто сложнее
Да и нахуй его, пусть сам в себе разбирается пока я с эльфиками кумлю
Аноним 07/01/26 Срд 05:03:13 #104 №1481296 
>>1481295
>Да и нахуй его, пусть сам в себе разбирается пока я с эльфиками кумлю
Спору нет. С ним надо поебаться, чтобы он начал выдавать кино в своих размерах. Тут вопрос - тебе РП или дрочить.
Я вот до сих пор как побитая шлюха возвращаюсь к 235му квену, который меня газлайтит и унижает. Но хоспаде - как он пишет, как он чувствует сцену.
Аноним 07/01/26 Срд 05:05:13 #105 №1481297 
>>1481295
А квен побольше 235b или поменьше 80b лучше этих тюнов мистрали? Большой glm 4.6 4.7 зацензурили на уровне геминище нормальный же вроде, нет?
Аноним 07/01/26 Срд 05:07:38 #106 №1481298 
>>1481297
>квен побольше 235b
Тут всё зависит от того насколько ты любишь страдания. Но да. Он лучше, он банально больше. В нем жирнее датасет. Он умеет в РП практически без коробки, но он просто мразь, которая доведет тебя до суицида.
>же вроде, нет?
Ну так и используй большой ГЛМ, нахуй тебе квен?
Аноним 07/01/26 Срд 06:23:08 #107 №1481312 
>>1481285
Я не уверен, что именно это повлияло, потому что нвидиа поцики, по-видимому, делали оптимизоны под блеквеллы и dgx spark. У меня нет в наличии ни того, ни другого. Но как минимум апнулся RPC, потому что там минорная версия выше.
Я лично гоняю сборку с adaptive-p сейчас, попутно проверяю этот чудо-семплер. Пока непонятно, но хуже не делает вроде бы.
Аноним 07/01/26 Срд 07:21:11 #108 №1481323 
>>1480460
>рпшить с каничками
У кого и что болит...
Аноним 07/01/26 Срд 07:38:35 #109 №1481329 
>>1481292
>ГЛМ-эйр - тупо мем этого треда, полное говнище, аналог фингербокса. Не ведись
Жирно.

>>1481323
Что ты задумал? На том свете тебе всё зачтётся, запомни.
Аноним 07/01/26 Срд 07:38:43 #110 №1481330 
o5et5j.mp4
Кто любит пердолиться с промптами и ПРЕСЕТИКАМИ вам в видео тред, там сора2 дома вышла, но нужно раскрыть, сделать пресетик и не делиться
Вы же любите кушать кал с умным видом С ЗАНОСЧИВЫМ ЕБАЛОМ ЗНАТОКА
Аноним 07/01/26 Срд 08:22:10 #111 №1481347 
>>1481330
>Вы же любите кушать кал с умным видом С ЗАНОСЧИВЫМ ЕБАЛОМ ЗНАТОКА
Да как ты заебал. Ну с чем еше не поделился. Пресеты на модели все есть. батники есть. Я только неосиляторов в жопу не целовал.
Нет никакого секретного промта, который раскроет модель по новому. Ну нет. не выдаст модель сверх того чему обучена. Все современные модели работают на default плюс минус всякие rep pen по вкусу. Есть чатГПТ и кит чтобы помочь с самими промтами.
Нет на ГЛМ никакого секретного способа справиться с повторением, кроме старого способа говно зашло=говно вышло.
Нет никаких волшебных OOC префилов что дадут тебе кино.
Нет никаких СВЕРХСЕКРЕТНЫХ форматов карточек.
Он блять простой, как квадрат :
<description>
<appearance>
<personality>
И всё в таком духе.
Хочешь чтобы модель была мрачной, мрачнотой. Ну добеавь ты в таверне в Author's Note (Слева внизу у тебя три полоски АДИДАС КРОСОВКИ.. сорян, что то меня понесло) что у тебя тут ДАРК ФЭНТАЗИ И МРАЧНАЯ ТЬМА МРАЧНА. Если у тебя мистраль с её ебовым промтпроцессингом. Используй лорбуки, нет - забей на них хуй.
Аноним 07/01/26 Срд 08:45:30 #112 №1481351 
>>1481347
Мой пост как раз про то что никакого пресета нет, если модель кал то она кал и пердолить её только с ума сходить
Аноним 07/01/26 Срд 08:47:36 #113 №1481352 
image.png
Нашёл пресет на глм эир ребят
Аноним 07/01/26 Срд 08:49:55 #114 №1481354 
>>1481250
Короче, подумал тут... можно короче взять кружку и запаять ей верх. Ну чтобы жидкость не проливалась да. Ну а днище можно короче наоборот распаять, чтобы пить можно было. Удобно ведь будет правда? И че никто раньше не додумался? Короче, буду тестировать.
Аноним 07/01/26 Срд 08:55:45 #115 №1481358 
изображение.png
>>1481137
Я именно про эту сомнительную штуку с nvlnk пытался найти инфу.

Найди пожалуйста модель на 33-60 ГБ, чтобы она влезала только на две карточки сразу - и сравни какая скорость с nvlink и с программно выключенным nvlink. Вот эти два режима со скриншота.
Если в pipeline split я ещё верю, на одну "прокрутку" через трансформер только в одном месте передать условный мегабайт текущих значений активации, то вот в tensor split так что прям при расчёте слоя обмен идёт - уже как-то не очень.
Аноним 07/01/26 Срд 09:00:12 #116 №1481361 
>>1481329
>Что ты задумал?
Потестить большие модели без фильтров апи/веб морд.

В впрочем толку с того, пока пузырь не лопнет.
Аноним 07/01/26 Срд 09:01:45 #117 №1481364 
>>1481352
У пиксельдрейн-анона? Там вроде как раз нюневый.
Аноним 07/01/26 Срд 09:07:44 #118 №1481366 
>>1481137
Ну и странно что на али за 150 вышло.
80 на V100, сдвоенный адаптер есть за 20, разветлитель с проводами за 9, две пары радиатор+башня 16 - вроде как 125. Не знаю только что такой пластины под воду и 3д хуйня.
А ещё был лот, где V100 по 30к, а не по 40к. Ну, раньше, если ты заказывал месяц назад, до нового года был.
Аноним 07/01/26 Срд 09:39:05 #119 №1481392 
>>1481267
какая версия релиза?
Аноним 07/01/26 Срд 09:44:59 #120 №1481397 
>>1481289
Оваридашиз (один из) отметился. Не волнуйся, мы тебя не забыли.
Аноним 07/01/26 Срд 10:21:27 #121 №1481428 
image.png
image.png
>>1481366
>разветлитель
Поначалу вроде не особо доставало, но сейчас уже раздражать начинает. Ты же специально, да? Ты же ещё "люникс" пишешь, да? Ты же?
На тебе словарями поисковиками по ебалу и хватит засорять мой датасет неверной орфографией. Я же из-за тебя сам привыкну такое видеть и сам потом могу начать так писать.
Аноним 07/01/26 Срд 10:38:08 #122 №1481441 
Памагити! Аларм!

Короче, ситуация такая:
я анон с p104 (CUDA1) и 3060 12Гб (CUDA0), запускал маленький квенчик и чет решил ради смеха запустить его чисто на p104, вот так:

llama-server.exe --model "Qwen3-30B-A3B-ArliAI-RpR-v4-Fast.Q4_K_S.gguf" -cmoe -c 32768 -ts 0.0,1.0 --threads 20 -ub 4096 -b 4096 --port 8082 --jinja

И он как похерачил на 26 т/с, а на 3060 больше 15 не выдает, что я делаю не так???
Аноним 07/01/26 Срд 11:03:21 #123 №1481458 
>>1481428
>люникс
пингвинятник
Аноним 07/01/26 Срд 11:13:32 #124 №1481469 
>>1481441
>что я делаю не так?
Раскрываешь тайный хитрый план куртки по прогреву гоев и отрицательному апгрейду видеокарточек после слишком уж удачно вышедших паскалей. Специально криво наоптимизировали новые игры, чтобы паскали в них сосали, продали гоям новые говноархитектуры, чтобы потом внезапно "проапгрейдить" их, выпустив снова что-то "прорывное" типа паскалей (когда на старые паскали уже драйверы перестанут выпускать и никто не сможет напрямую сравнить их в новых играх). Не делай так.
Аноним 07/01/26 Срд 11:28:08 #125 №1481487 
>>1481428
>Ты же ещё "люникс" пишешь, да? Ты же?
Верно. С разветвителем я не специально, на ус намотаю.
С люником - это по историческим причинам такое, если тебя раздражает - постараюсь писать на английском. Не могу я на русском иначе написать или произнести, это шутка какая-то, а не ос, чтобы правильно её называть.

Ещё я говорю медлее, вместо медленнее и ставлю неправильно ударение в звонить/звонят или как там это произносится. И мне нравится слово "ихний" - впрочем из этого я буду только слово "ихний" защищать, а от неправильного ударения и говорить медленнее просто пока не получается себя приучить.
Аноним 07/01/26 Срд 11:32:13 #126 №1481490 
image
>>1481487
Неудивительно почему ты линукс не осилил.
Аноним 07/01/26 Срд 11:39:32 #127 №1481493 
>>1481487
>медлее
Это странно и никто так не говорит, хотя определённая логика в этом есть. Небольшой намёк на неё. Но всё-таки слишком далеко от текущей языковой нормы, чтобы просто взять и перескочить на такой вариант.
>ихний
>ударение в звонить/звонят
А это очень даже логично и через 50-100 лет вполне имеет шансы стать языковой нормой и попасть в словари. А может и не стать. Рандом Хаотичная система, хуле.
>разветвителем
А это совсем из другой оперы, логики тут никакой на первый взгляд не видно, если только ты не говоришь "ветль" вместо "ветвь". Хотя может я что-то и упускаю.

Можно попробовать дать ллмке поиграться со словами, они же как раз на это и заточены. Будет интересно посмотреть. Но хороших ллмок с русским датасетом нет в природе. У нас же свой путь - спиздить у китайцев и дотюнить за 10 баксов, остальное пустить на распилы и откаты. Простите за политоту.
Аноним 07/01/26 Срд 11:57:59 #128 №1481504 
>>1481352
Кинь ссылку на файлообменник мейлру.
Аноним 07/01/26 Срд 12:10:38 #129 №1481513 
>>1481201
>но и помощь от LSP IDE?
Представляешь, как он заебётся пересчитывать контекст, когда с каждым токеном предложения будут меняться?
>>1481222
>Да, вот только подписочные сервисы уже всех заебали.
Альтернативы больше нет, только пиратство я сам под этим флагом. Так что когда с играми не будет альтернативы, то людям ничего не останется, кроме как продавать анал за доступ к играм.
>>1481273
>Проверка кода присутствует в виде запуска или вызова этой самой проверки.
Как я понял идею того чела, это слишком поздний этап. Ну и если в негронке прописан старый апи, то цикл "нейронка высрала нерабочий код - проверка даёт отлуп - нейронка правит, высирая такой же нерабочий код" может идти вечно.
А так актуальные данные по апи будут в контексте. Впрочем, тут нужно менять саму суть контекста, да и вообще целиком и полностью всё переписывать. Костыли тут будут только мешать, см. пересчёт контекста на каждый токен.
>>1481330
>там сора2 дома вышла
Вот когда будет 2 часа на 8ГБ видяхе, тогда приноси.
>>1481504
Ты ещё скажи скинуть её на доску на мейлру. Ой...
Аноним 07/01/26 Срд 12:19:52 #130 №1481521 
>>1481513
Тебе жалко поделиться? Дармоед.
Аноним 07/01/26 Срд 12:20:05 #131 №1481522 
>>1481364
>>1481504
Вы что мультфильм не смотрели?
Аноним 07/01/26 Срд 12:25:12 #132 №1481526 
>>1481522
Амениканизированное говно нет не смотрел. Смотрел наши советские и китайские мультфильмы.
Аноним 07/01/26 Срд 12:25:48 #133 №1481527 
>>1481522
Точно. Я вспомнил в чем смысл шутки. Там же зеркало.
Аноним 07/01/26 Срд 12:32:08 #134 №1481536 
>>1481527
>>1481522
Да похуй что там за шутка. Пресет будет нет?
Аноним 07/01/26 Срд 12:38:54 #135 №1481543 
>>1481441
Решил проверить может это я llamacpp-server не так скомпилил и запустил модельку в kobold'е картина такая же. Аларм!
Проверил 3060 стоит в PCI x16. Куда копать? 3060 наелась что ли? Драйвер один на две карты, CUDA 12.9

По идее 3060 по всем параметрам должна обходить p104-100, что ж такое-то?
Аноним 07/01/26 Срд 12:43:59 #136 №1481547 
>>1481536
Давай я аналогию проведу: ты и есть глм. Начинай разговаривать сам с собой. Сражу скажу, я тебе не помощник, я больше по паническим атакам, злобе и тремору. Так что тут как нибудь сам сходи с ума.
Аноним 07/01/26 Срд 12:45:25 #137 №1481550 
>>1481543
так падажжи, я правильно понял, что ты запускаешь модель весом более 12гб и удивляешься, что на видюхе с 12гб памяти она работает медленнее, чем на видюхе с 24гб?
Аноним 07/01/26 Срд 12:58:48 #138 №1481569 
>>1481550
Ну, ващет p104 это только 8ГБ, а модель MoE, поэтому активные слои как раз таки влезают
Аноним 07/01/26 Срд 13:00:49 #139 №1481571 
>>1481569
сорян с р40 перепутал
Аноним 07/01/26 Срд 13:01:21 #140 №1481573 
>>1481527
Нахуй ты спойлеришь, мудак?
Аноним 07/01/26 Срд 13:10:13 #141 №1481576 
>>1481547
Сам ты глм, гейткипер ебучий. Сказал А говори Б. Слышал такое? Нехуй даже упоминать пресеты если делиться ты ненамерен.
Аноним 07/01/26 Срд 13:41:16 #142 №1481592 
>>1481576
Покажи бумаги, будет пресет.
Аноним 07/01/26 Срд 13:43:40 #143 №1481594 
>>1481592
Какие?
Аноним 07/01/26 Срд 14:29:02 #144 №1481638 
>>1481323
А с кем еще рпшить?
>>1481330
> сора2 дома
Это чего такое там? Там трахать и генерировать на основе пикчи можно?
>>1481366
2x35к карты, 25к плата - провода - адаптеры или 30к за плату + даблер в единичный х16 слот, 8к радиаторы. На корпус и прочее много остается, но лучше вообще по месту что-то красивое и компактное взять.
>>1481487
> по историческим причинам такое
Таблы или сразу на лечение.
>>1481513
> правит, высирая такой же нерабочий код" может идти вечно
Не, не пойдет. Тут в целом проблема именно косячного кода по причине некорректного написания - редкое событие, и то происходит из-за сильного квантования. Причем сами нейронки это замечают и делают исправление на следующем шаге. Когда же ошибка более высокого уровня - или сразу смекают что вызовы изменились, или считывают вызываемый код или гуглят доки чтобы корректно сделать.
То есть проблемы как таковой не существует, если офк на модели не совсем уг. Гораздо чаще возникают косяки, связанные с неверным планированием или упущением отдельных "мелочей".
Например, стоит задача выделения компоненты сигнала и общей солянки. Последний опущ, который считается эталоном кодинга, в обсуждениях предложит тебе архитектуру, в которой при обучении для разделения компонентов сигнала создается дополнительная тренируемая сетка, которая учится выделять "второй компонент" обучаясь сравнением с условным референсом. А потом дополнительным критерием лосса делается ортогональность результатов основной и вспомогательной компоненты. Все разумно, прием хороший и относительно популярный. Вот только то, что на выходе основной сетки размерность в 2.5 раза ниже, а искусственно акцентированный второй компонент для обучения вспомогательной сетки у нас есть только в оригинальной размерности, он заметит только на этапе написания конечного кода. В итоге пук-среньк-костыли, прямо в коде даталоадера пытается тренировать и pca проектор (хотябы со сглаживанием по батчам чтобы не совсем шиза была), потому что уже зашел слишком далеко и в рамках поставленного задания вернуться в начальный этап для переосмысления не может.
Если регулярно стукать палкой то офк все может, активное участие кожаного вместе с изменением структуры выполнения от линейной на "швейцарский сыр" с регулярной переоценкой в целом проблему решают.
Вот именно такое развитие хотелось бы видеть, а не какую-то шизу с решением несуществующих проблем.
Аноним 07/01/26 Срд 14:31:30 #145 №1481641 
>>1481638
> А с кем еще рпшить?
Каддлиться с добрыми гяру милфочками и вековыми кемономими, конечно.
Аноним 07/01/26 Срд 14:33:29 #146 №1481644 
>>1481641
> Каддлиться
> с вековыми кемономими
Абсолютнейшая база. Просто когда они милые и дрищеватые - это двойне приятно. Даже бубсы пусть будут, главное не слишком большие
Аноним 07/01/26 Срд 14:41:47 #147 №1481654 
>>1481638
>Там трахать и генерировать на основе пикчи можно?
Пикчи есть, трахать нет.
>В итоге пук-среньк-костыли, прямо в коде даталоадера пытается тренировать и pca проектор
Лол, вот это костылищи. А как правильно?
>структуры выполнения "швейцарский сыр"
Мне аж гуглить пришлось.
В общем всё сводится к тому, что без кожаного делать нечего. Забавно, с учётом того, сколько средств всирают на автономных агентов.
>>1481644
>Просто когда они милые и дрищеватые
Ага, знаем ваших милых 800 летних жён самый рофловый перевод названия на моей памяти.
Аноним 07/01/26 Срд 14:54:24 #148 №1481667 
IMG2708.jpeg
Создал карточку гиперкуба и ебу теперь его в восьми измерениях.
Пошёл нахуй Евклид. Я теперь многомерный хуеносец.
Аноним 07/01/26 Срд 15:15:50 #149 №1481689 
>>1481654
> Пикчи есть
Уже норм, остальное наличии весов можно заставить. Что за модель?
> А как правильно
Если сохранять подход - или заранее натренировать проектор из второй компоненты и использовать его в качестве дополнительной ступени перед проверкой ортогональности, или им же ужать датасет второй компоненты и делать вспомогательную сетку под сокращенную размерность на выходе. Да даже просто шум будет лучше чем такое, не говоря о перфомансе.
> без кожаного делать нечего
Ну да, оно может самостоятельно сделать простые вещи а дальше уже лишь инструмент. Уже в текущем виде хорошо, экономит много времени и добавляет удобства.
> знаем ваших
Можно еще тысячу+ летнюю королеву кицун из monmusu. Там все в одном, и милая канни и ara-ara гяру по желанию, на чубе и уборщике были карточки.
Аноним 07/01/26 Срд 15:44:23 #150 №1481733 
>>1481292
Эй, мистралеёбы. Что там самое darkest dungeon? Я решил вспомнить былое, позапускал эти тюны.
Но они слишком соевые. На удивление приятно пишут, лол. Мистраль прям выросла на глазах. Она была хуже, я точно помню, ну или меня поломали другие модели уже, что слог мистрали кажется свежим. приходится прям простить чтобы cruel был, но всё хуйня.
Какая моделька будет самая мрачная, мне для истинного despair?
Аноним 07/01/26 Срд 15:50:16 #151 №1481741 
Какая мелкомодель (до 12B) лучше всего переводит с англюсика на русек? А то я попробовал tencent/HY-MT1.5-7B - по бенчам у них все круто, а на деле жиденько.
Аноним 07/01/26 Срд 15:51:39 #152 №1481743 
>>1481733
Forgotten Safeword. Отборный гримдарк дерилий
Аноним 07/01/26 Срд 15:51:57 #153 №1481744 
>>1480919
>? А то я на геммочке3-девочке 27b для сфв
https://huggingface.co/YanLabs/gemma-3-27b-it-abliterated-normpreserve
Аноним 07/01/26 Срд 16:34:35 #154 №1481785 
Почему мы просто не можем получить отличную модель
Без но, скоро починят, 2 больше недели
Почему обязательно должно быть где то насрано
Аноним 07/01/26 Срд 16:42:17 #155 №1481788 
>>1481785
Уже давно получили. Глм 4.5 и Эир. А ты получи хуй в рожу за свой шитпост
Аноним 07/01/26 Срд 16:48:42 #156 №1481793 
1.1.png
1.2.png
1.3.png
1.4.png
>>1481206
первые два скрина это лама бенч
пример
/app/llama-bench \
-m /models/Qwen3-30B-A3B-Q4_K_M.gguf \
-p 65536 \
-n 128 \
--n-gpu-layers 999 \
--split-mode row \
--no-warmup
на 131 он не стал запускаться, зафейлился

Вторые 2 это то что ты просил(надеюсь)
Аноним 07/01/26 Срд 17:01:21 #157 №1481796 
image
image
image
image
>>1480982
>русский
Стало интересно как выглядит русик на таких маленьких локалках. Оказалось, местами даже интереснее/забавнее англюсика.
А последние два скриншота это сравнение навыков базовой работы с HTML у мистраля и Gemini 2.5 pro...
https://huggingface.co/FlareRebellion/BereavedCompound-v1.0-24b
Аноним 07/01/26 Срд 17:11:47 #158 №1481800 
>>1481788
А я продолжу уныло форсить Квен 235
ХОРОШАЯ ЖЕ МОДЕЛЬ! У МЕНЯ БРАТ ОЖИЛ, КОШКОЖЕНА РИС ПРИНЕСЛА.
Аноним 07/01/26 Срд 17:41:14 #159 №1481824 
1.5.png
>>1481358
проверил на 1 не влазит, вот что получилось
Аноним 07/01/26 Срд 17:54:23 #160 №1481831 
1663590883403.png
>>1481793
>>1481824
Лолчто, а раньше роусплит на жоре ускорял генерацию на малых контекстах даже при небыстром подключении гпу.

Ты немного ерунду затестил. Во всех случаях генерация у тебя или на пустом контексте, или после контекста из той фразы. Промпрпроцессинг же усреднен по всему интервалу (что в целом людям может быть полезно).
Фактическую генерацию в llama-bench задает -d. Просто забей -d 0,8192,32768,65536,131072 и оно само по дефолту сделает на них pp512 tg512, пикрел. А просто --ctx-size в llama-cli, server и прочих - это лишь размер буфера, фактический контекст будет от фразы.

Ну и повтори тогда row с включенным и выключенным nvlink.
Аноним 07/01/26 Срд 17:54:58 #161 №1481833 
>>1481741
>>1480583
Вообще, сказал бы, что Гемма, но по количеству косяков они сопоставимы, как видно. Мелкие модели не лучший выбор. С Геммой 27B сравнения нет. Но я думаю, что старшая Гемма будет лучше.
Аноним 07/01/26 Срд 17:56:17 #162 №1481834 
>>1481831
> Фактическую генерацию
Фактическую глубину контекста, разумеется, фикс.
Аноним 07/01/26 Срд 18:05:40 #163 №1481838 
>>1481526
> Смотрел наши советские и китайские порномультфильмы.
FXD
Аноним 07/01/26 Срд 18:13:50 #164 №1481842 
>>1481796
чо за карточки?
Аноним 07/01/26 Срд 18:34:05 #165 №1481864 
>>1481842
https://chub.ai/characters/Anonymous/vania-culvershot
https://chub.ai/characters/boner/haley-30e2c744b08f
Аноним 07/01/26 Срд 18:40:16 #166 №1481873 
>>1481292
>>1481744
Я был главный хейтер геммы, так как эта тварь была умницей-ассистентом, но отвратительна и убога в рп. Промт-хак анона (промты чаще всего херня, но этот реально наебунькал геммочку) изменил все и я даже познал дзен на какое то время (поэтому и не купил 128 рамы, сук).
Но потом все таки небогатый на рп, кум и треш датасет ванильной (а другие были поломаны или лоботомиты, синтия у меня вообще гг жестко заабузила и скатилась в луп) геммы начал вылезать, либо бедный скупой текст в интересных моментах, или навязчивый биас ("они жили долго и счастливо и прошли вместе много приключений" ). И я поймал второе откровение - как только чувствую что гемма все, втыкаю мистраль и рп вновь расцветает. Хакнутая промтом Гемма и мистраль вместе дают синергию адовую, аж обои отклеиваются. Гемма задает хороший слог, логичную завязку и основной сюжет, мистраль развивает его и дает мяса.

Жаль конечно что кроме тюнов геммы ("в этот раз оно точно работает!") и тюнов мистраля посвежее ничего не произошло за почти полгода =((

>>1481800
Я плотнейше юзал 235б корпоквен для неРП задач и он охуенен, лучше дипсика и ранней 5й гопоты, и все это заводится на игровом пука без терабайта оперативы. Рп на таком, даже если допустить соевость и бедный датасет как у некрякнутой геммы, дал бы новый экспириенс. Непокупка 4х канального интуля и 128 ддр4 - моя главная нейроошибка года.
Аноним 07/01/26 Срд 18:47:15 #167 №1481880 
1.6.png
1.7.png
>>1481831
сделал как ты сказал и намерил такое
1 с nvlink 2 без
Аноним 07/01/26 Срд 18:50:48 #168 №1481883 
>>1481880
Почему куда эррор?
Да, это примерно что нужно. Померь и те модели, и лламу 70 с разной глубиной контекста до куда влезает в разных режимах, все будут благодарны.
Аноним 07/01/26 Срд 19:27:38 #169 №1481893 
>>1481883
ну тип оно на 32 померло, я понял, начал делать как будет готово скину
Аноним 07/01/26 Срд 19:29:45 #170 №1481895 
>>1481873
>Жаль конечно что кроме тюнов геммы ("в этот раз оно точно работает!") и тюнов мистраля посвежее ничего не произошло за почти полгода =((
Из-за этого неиронично думаю слить свой бомжериг и заменить на одну 5090.
Останавливает только факт отсутствия применения 5090й за пределами ии-хрени.
Игрульки либо говно, либо нетребовательны.
Аноним 07/01/26 Срд 19:50:33 #171 №1481908 
>>1481824
Круто, спасибо большое.
Точнее не очень круто, казалось бы при row где на каждом слое пересылки то скорость уж точно должна влиять, особенно при разборе промта, где скрытый слой толстый на десятки мегабайт. Как минимум я ожидал что по латенси прямое соединение карт должно быть точно быстрее, чем через pcie, да ещё только 3.0 (оно, к слову - кидает на процессор, а потом от процессора на вторую карту - или как-то даже по pcie умеет напрямую с карты на карту?).

С другой стороны там скрытое состояние дай бог 20к между слоями, а переслать нужно только половинки в обе стоны. Причём на слоях нормализации будет быстрее продублировать нормализацию, чем пересылать эти жалкие 40 кб, и реально их надо пересылать только после квадратичных слоёв внимания. Ну, даже если там 30 слоёв, то это мегабайт в секунду. Латенси важнее скорости передачи в разы.

А деление по слоям так вообще сказка, теоретически вроде как можно ещё и kv-кеш порезать по слоям, чего вроде как никто не делает.

В общем на хрен тогда эту плату с китайским nvlink на две платы, она стоила до нового года 19к без проводов, а сейчас только за 27к вижу, а два отдельных адаптера по 5к.
Было бы там аппаратная поддержка 8.6 на V100, а не 7.0 - то это окей, ради 10% на более-менее актуальной карточке вроде как хочется, пусть даже только при разборе промта. А так будто бы и смысла нет, если не стоит каких-либо ещё задач кроме инференса LLM, какой-то неросетевой pet-проект или ещё что. С другой стороны там тоже вряд ли нужен nvlink, если всего две карточки, то обучаешь что-то, что точно по масштабу меньше чем даже половина карточки, соответственно и обменивать в прямом времени уже не нужно.
Аноним 07/01/26 Срд 19:51:31 #172 №1481909 
m2-res470p.mp4
Аноним 07/01/26 Срд 20:04:26 #173 №1481914 
>>1481909
Не тот тред, лошок
Аноним 07/01/26 Срд 20:13:34 #174 №1481930 
>>1481873
> Непокупка 4х канального интуля и 128 ддр4 - моя главная нейроошибка года
Я запускаю его в состоянии лоботомита на конфиге 16+128ч
И даже при его мизерной скорости (6-7 т/с это медленно, это очень медленно) я все равно бегу к нему как плаксивая девочка. Я вот сейчас погонял кумтюны мистрали, заново.
Спасибо анон за ссылки, кстати. Не пришлось смотреть чем там барабанщик наворотил. Не было у него в моделях этого угара readyart (покойся с миром слоподелатель, пусть тебе там на небе нейротянки расчесывают волосы)
И наконец я смог понятно для себя определить, почему он ебет.
235 квен дает самое главное для РП. Жир повествования.
Вот есть у меня одна из любимых карточек, где в условиях полного БП ты выживаешь с тянкой. Которая не тянка а нёх, но ты об этом не знаешь. И начинается РП с того что к вам в
Квартиру тарабанит я вижевшая, которой собаки хотят оторвать жопу.
На мистралях: хуяк, хуяк, попиздели, перевязали и ПОВАЛИЛИ МОНСТРЫ ДАЖЕ ИЗ ОЧКА, СТЕКЛА БЬЮТСЯ, ПИЗЛА СПАСАЙСЯ КТО МОЖЕТ
На гемме: перевязали тянку в атмосфере НЕДОСКАЗАННОСТИ, потом поговорили в АТМОСФЕРЕ ГНЕТУЩЕЙ ТИШИНЫ, потом или что то случилось, или гемма решила что с тебя хватит и пора спать.
На квене: сначала тянка посмотрит на тебя: «ты чё, ебануьый, давай не будем дверь открывать. Никого нет дома, пошла она нахуй». Ты открываешь дверь, впускаешь. Он будет абзац пасписывать как выживший заебан, как кровь стекает с раны, как она в панике будет что то говорить, что не шпашла, что сбежала и бла бла.
Потом вы её перевяжите. Уложите на диван в гостиной и останетесь с тян в спальне. Потом ты положишь голову на ноги своей нёх-тянке и что то глупое расскажешь, она улыбается и тоже скажет какую то хуйню. А глаза, блять, красные. Ты обосрешься, но ничего не скажешь. Потому что если бы хотела, убила бы. Вы уже год живете. Потом ты просто закрыв глаза уснешь. И промнешься от того что она встанет, что от скажет, выйдет в зал, захлопнув за собой дверь и раздаст а вскрик, хруст костей и плоти и чавканье.

И все это в описаниях, в постоянных сочных описаниях.
И именно это в нем мне и доставило. Нужно быстро пробежать сцену, это не про квен. Тут все персонажи пока не напиздятся на 1.500 токенов, вообще дело с места не сдвинется. Но ты хуяк, подвигал сюжет мистраль и вновь читаешь как очки тянки запотевают от чая, а где то на улице дракон ебет машину в выхлопную трубу.
Ах ну и по моему вообще полный похуизм к порнотексту. Ассистента с его нехочу/небуду надо еще вызвать умудриться.
А ну блять пробовать квен пошли! Марш, марш!
Аноним 07/01/26 Срд 20:17:20 #175 №1481933 
>>1481930
> я вижевшая
Выжившая
> ПИЗЛА СПАСАЙСЯ
Пизда, спасайся
> ебануьый
Ебанутый
> промнешься
Проснешься.
> сюжет мистраль
Мистралью


Слоуфикс.
Аноним 07/01/26 Срд 20:18:52 #176 №1481936 
>>1481930
Да пробовали,
Дружище. И так, и сяк.
Пресетом 99 с грамматикой, и тот
срет под себя. А уж дефолт не работает
И вовсе. Впервые, за многие месяцы пердолинга моделек, постер сдался.
Аноним 07/01/26 Срд 20:24:01 #177 №1481938 
>>1481936
Прав, как никогда — Квен, это такой пиздец,
Который использовать невозможно. Как бы ты ни хотел.

Ибо пишет он, как последний лоботомит. А то есть — вот так.

Ибо у него негативный биас, и даже самую прекрасную сказку он превратит во что-то ужасное. И опять же — никак это не пофиксить, такой датасет!

А уж как он инструкциям следует... Это модель для кода. Была, есть и будет.
Аноним 07/01/26 Срд 20:24:51 #178 №1481940 
>>1481873
В 235 нет сои, наоборот базирован. Есть припезднутость по форматированию, много квенизмов, байасы, но в остальном хорошая девочка. В рп подкупают универсальность и разнообразие, достаточно податлива.
>>1481908
> особенно при разборе промта
> где скрытый слой толстый на десятки мегабайт
Что?
> или как-то даже по pcie умеет напрямую с карты на карту
Умеет но с ограничениями.
> можно ещё и kv-кеш порезать по слоям
Хз что ты под этим подразумеваешь, но в жоре как раз кэш делится между устройствами, причем просто по соотношению -ts, без учета фактического устройства, которому он нужен.
> на хрен тогда эту плату с китайским nvlink на две платы
Главное чтобы были карточки а ее можно докупить в любой момент. Скорее всего с такой кривой реализацией сплита даже там ничего не ускорит и все как ты описал, но стоит дождаться больше адекватных тестов.
Аноним 07/01/26 Срд 20:48:51 #179 №1481971 
>>1481940
Тоже верно. Карточки кончатся, а платы китайцы всегда сделают.
>Хз что ты под этим подразумеваешь
Я сам не до конца понимаю, уже потерял мысль что я имел ввиду, размышляя об этом. Я не уверен, что нужна полная копия кеша на каждом устройстве. Речь не о том, чтобы поделить, и пересылать нужные части каждый раз - а чтобы поделить так, чтобы пересылок дальнейших не было - только обновления.
Очень хочу просто на си код, где запиты тензоры как массивы, и где все формулы в явном виде записаны. Супер не оптимизированном, но супер понятном. Весь код инференса на ллм с объявлением массивов на одном экране можно уместить, если прямо писать всё.
>Что?
Речь о том, сколько у тебя переменных при проходе по слоям, которые не веса слоя. При генерации там смешное число порядка десяти тысяч, генерация по одному токену. При разборе промта там идёт сразу кусок на 512 токенов, например, и переменных участвующих в рссчёте уже 512 раз по несколько тысяч.
Аноним 07/01/26 Срд 20:50:38 #180 №1481975 
>>1480982
Ну кстати да, неплохой русик, чуть снизить темпу до 0.6 пришлось что бы англюсик не проскакивал. Другое дело что после постоянного РП на инглише, на русском кринж ловится.
У меня такой вопрос - есть что-то лучше Magidonia-24B-v4.3 из последних мистрале / гемматюнов для РП на англ? Магидония прям сильно зашла. Еще пробовал WeirdCompound-v1.7 и 1.6. в целом неплохие, но поглупее как-будто. 1.7 у меня по кд бабам члены дописывал и это было никак не исправить, 1.6 норм, но хуже магидонии, как по мне. Может тюны Геммы есть интересные? Normpreserve слабоват в куме относительно вышеупомянутых.
Хотел было >>1480947
Darkhn_G3-27B-Animus-V12 скачать, но там написано: The primary purpose of this model is for creative and roleplaying within the Wings of Fire universe. Какая-то слишком узкоспециализированная, я вообще не ебу что это за вселенная.
Аноним 07/01/26 Срд 20:51:47 #181 №1481977 
>>1480982
>>1481975
Валькирия еще лучше, но надо 48гб видеопамяти.
Аноним 07/01/26 Срд 20:55:51 #182 №1481984 
>>1481977
Валькирию 3bpw можно запустить и на 24гб видеопамяти с 24к Q8 контекста. 3bpw exl3 почти то же самое что IQ4. Тестил. Хуйня, даже ванильный Немотрончик лучше
Аноним 07/01/26 Срд 21:02:10 #183 №1481992 
>>1481984
Я сравниваю валькирию Q6K (конфиг V2J) с магидонией Q8 (релизный 4.3 конфиг). Последняя скатывается в
> ебать наху ЧТО ты сейчасказал
> вот это ЖОПА у нее БЛЯТЬ вот это да
- очень странные паттерны выкрикивания слов капсом и импульсивно-истеричного поведения у любых персонажей

Надо сказать, v2j конфиг валькири тоже этим грешит, но меньше - у драммера какие-то странные датасеты пошли с недавних пор - но в целом она способна слушать инструкции, на которые магидония кладет болт. Для меня это плюс, для кого-то явно не стоит видеопамяти. А как пишет... Ну как проинструктируешь, так и напишет. Заметил, что промпты очень хорошо слушает лишь до определенного размера - как будто есть жесткий порог, после которого 100% уважуха промпта превращается в чтение между строк.
Аноним 07/01/26 Срд 21:11:42 #184 №1482004 
>>1481971
Объем кэша больших моделей на приличном контексте превышает объем врама потребительских карточек если что. Есть слои атеншна, есть кэш для каждого из них, когда они на одном и том же устройстве то и крупных пересылов нет. В режиме тензорпараллелизма он априори поделен - из-за этого для промптпроцессинга требуется некоторая скорость обмена, подключение по вялым шинам будет его замедлять. Плюс на жоре кэш отвязан от блоков, потому можно словить лишние пересылы даже при послойном сплите на мультигпу если блоки модели неоднородные.
Но если используется оффлоад в рам то это все меркнет на фоне стриминга весов.
> сколько у тебя переменных при проходе по слоям
Слои всегда прсирянны, отличаются активации, которые могут идти батчем. Благо если делать все по-человечески большинство операций асинхронны и при достаточной скорости критических путей от задержек не возникает.
Аноним 07/01/26 Срд 21:13:04 #185 №1482007 
> тестил ссаные 3 бита ещё и с квантованным контекстом, хуйня

как называется эта болезнь?
Аноним 07/01/26 Срд 21:18:42 #186 №1482016 
>>1481895
>факт отсутствия применения 5090й за пределами ии-хрени.
Так у рига будто бы применений еще меньше, нейронки урезаны до ллм ±

>>1481930
>гемма решила что с тебя хватит и пора спать.
Как же ты ПРОЧУВСТВОВАЛ гемму. Тут как раз алгоитм: удалить два последних сообщения и подтыкнуть мистраль.

>>1481940
>В 235 нет сои, наоборот базирован.
Да я знаю, я как раз и хотел подчеркнуть что даже будь он сойжаком как гемма, все равно был бы лучше. Очень чувствуется что он просто на порядок умнее всего <50б (не <32б из-за ублюдка-немотрона). Именно этого и хочется в рп, что бы моделька понимала сцену, учитывала предисторию как автор книги, а не красивый пушкинский слог или 99 слопоэвфемизмов для "пизда хлюпает".
Аноним 07/01/26 Срд 21:32:46 #187 №1482028 
culture.jpg
>>1481930
> где то на улице дракон ебет машину в выхлопную трубу
Аноним 07/01/26 Срд 21:42:34 #188 №1482047 
>>1481864
сяп

О, boner. Я вижу вы тоже человек высокой культуры.
Аноним 07/01/26 Срд 21:51:46 #189 №1482055 
https://characterhub.org/characters/aleteian/rene-broken-hero-289a13dbd85b

https://chub.ai/characters/boner/rene-the-heroine-who-wants-to-die-d544a2d3fe6a

Интересно, перевёл и подсократил, или независимо...
Аноним 07/01/26 Срд 22:00:55 #190 №1482066 
>>1482016
>Именно этого и хочется в рп, что бы моделька понимала сцену, учитывала предисторию как автор книги
Кстати, а ты знаешь, что существует GLM-4.6 на 356.79 B параметров? Просто напоминаю.
Аноним 07/01/26 Срд 22:10:51 #191 №1482076 
>>1482066
Да я бы и на квенкодере с минимаксом угорел бы, и дипсик бы крутил, если бы оно все в кудахтер лезло. Но не лезет, вот в чем подводный. А квен 235 лезет в любой игровой комп, подтюненный рамкой до вполне себе консьюмерских 128гб.
Но я и это проебал, отложив покупку рамки на потом.
Аноним 07/01/26 Срд 22:31:08 #192 №1482110 
Как квен 480B кодерский унитаз в рп по сравнению с 235B? Есть смысол качать?
Аноним 07/01/26 Срд 22:35:17 #193 №1482127 
>>1482110
Помойка, как и любой другой Квен. Единственное исключение - Сноудроп, и то с нюансами.
Аноним 07/01/26 Срд 22:41:06 #194 №1482144 
>>1480503
Хрюкнул.

Дипсик сыпется на переводе, грок, гпт-5.

Только старый грок 3, старый 4о и гугл с клодом сейчас норм.

Я даже скачаю эту модель и проверю её качество, аж интересно стало, что они называют тяжёлой артиллерией.
Аноним 07/01/26 Срд 22:54:49 #195 №1482182 
>>1482110
Специфичен, замечал что может много внимания уделяет текущему и меньше прошлым событиям на оче длинных историях. Не настолько плохо как мистрали, но подобных ошибок больше чем привык. В остальном умница, внезапно хорошо кумит.
Аноним 07/01/26 Срд 23:00:12 #196 №1482191 
>>1482127
>>1482182
Жаль нет рп тестов. Ладно, как скачаю - будем как в старые добрые трахать серафиму первым сообщением, результаты запощу в треде.
Аноним 07/01/26 Срд 23:19:11 #197 №1482233 
>>1482191
> рп тестов
Слишком сложная задача все это параметризовать, а потом объективно оценивать по критериям. И рпшат люди по-разному с совершенно разными запросами и хотелками.
Аноним 08/01/26 Чтв 00:04:44 #198 №1482274 
Есть ли сейчас модель, ради которой прям стоит собирать станцию с кучей памяти? Я понимаю, что большинство тут энтузиасты и вам в принципе вкатывает гонять всякие разные нейронки, но у меня не такой случай. Времени самому всё пробовать нету, по этому просто хочется знать, есть ли та самая локалка которая ебет в рп и на которую не жалко вывалить 200+ тыщ с учетом текущих расценок? Сам сейчас сижу на 12/32 системе, для бытовых задач использую большую гемму, для поигрушек мелкий мистраль. Вроде этих двух моделек для всего хватает, но большие я никогда и не пробовал, сравнивать просто не с чем.
Аноним 08/01/26 Чтв 00:05:27 #199 №1482275 
>>1482274
Нет
Аноним 08/01/26 Чтв 00:14:36 #200 №1482282 
>>1482274
Самым разумным в твоем случае будет найти где-нибудь апи (опенроутер, например) и поиграться с моделями побольше. Твой опыт - это твой опыт. Чего тредовички ни скажут, нельзя принимать за истину. Одному разницы нет между 12б Немо и 123б Мистралем, для другого она есть. Все субъективно, как и само понимание того, сколько может стоить машина исключительно для рпшинга. Я сижу на Эире, не вижу радикальной разницы с 32б плотненькими няшами, но разница есть, в лучшую сторону.
Аноним 08/01/26 Чтв 00:14:56 #201 №1482283 
meme.jpg
2.1.png
2.2.png
2.3.png
>>1481883
готово
Аноним 08/01/26 Чтв 02:29:52 #202 №1482367 
изображение.png
>>1482283
Чуть-чуть переформатировал результаты для читаемости. Текст нейронка, а не ocr делали, могут быть ошибки.
Аноним 08/01/26 Чтв 02:33:09 #203 №1482368 
>>1482367
Кстати странно что nvlink настолько нулевое влияние оказывает.
Может быть тестовый скрипт сделать, где тензор на 25 ГБ перекидывается с одной карты на другую и замеряется скорость? Действительно ли там будет что-то порядка ≈83 и ≈1700 мс.
Аноним 08/01/26 Чтв 02:34:00 #204 №1482369 
>>1482368
А то либо он не работает. Либо он у тебя не отключается.
Аноним 08/01/26 Чтв 02:35:39 #205 №1482372 
Нищеаноны, а что вы солар то не пробуете. Ради интереса скачал, по крайней мере цензуры нет (без думалки офк)
Аноним 08/01/26 Чтв 02:40:12 #206 №1482373 
LTX-200035.mp4
Аноним 08/01/26 Чтв 02:41:48 #207 №1482374 
image.png
Поясните некоторую вещь. Которую не понимаю как работает.
Общаюсь с моделями через koboldcpp, скачиваю персонажей через characterhub.
Как там общаться надо, с какой концепцией. Нужно говорить от имени себя, или как в классических текстовых рпг нужно указывать концепцию окружающего мира? Ну то есть задавать правила из чата и говорить от лица рассказчика?

Порой кажется будто работает так и так. Но в карточке это не указывается. Но когда говорю от лица персонажа (себя). Как будто ломается повествование и порой нейронка выдаёт текст от персонажа сама по себе...

Не понятно.
Аноним 08/01/26 Чтв 02:45:42 #208 №1482375 
>>1482274
Странный вопрос, все зависит от твоих запросов и возможностей, как правильно написал большинство не только ллм катают. А так да, в зависимости от масштаба, от эйра до дипсика/кими. В качестве разнообразия немотрончик очень хорош это про ультру, не подумайте
> 200+ тыщ с учетом текущих расценок
Если речь про целиком пекарню - тут можно разве что хуйцаэйр соснуть. Разве что удачно насобирать некроту на 4+ каналах ддр4 и 3090/в100.
>>1482283
>>1482367
Спасибо, добра! Если тесты справедливы то выходит что нвлинк никак не влияет.
>>1482368
> тестовый скрипт сделать, где тензор на 25 ГБ перекидывается с одной карты на другую
This https://github.com/NVIDIA/nccl-tests
Если хочешь именно скрипт:

import torch
import time
size = 67108864
tensor_cuda0 = torch.randn(size, dtype=torch.float32, device='cuda:0')
start_time = time.time()
tensor_cuda1 = tensor_cuda0.to('cuda:1')
transfer_time = time.time() - start_time
print(f"Время пересылки: {transfer_time:.2e} секунд")

Как обернуть в цикл для уточнения на множестве, замерить пересыл по шине через проц и прочее сообразишь.
Аноним 08/01/26 Чтв 02:48:14 #209 №1482376 
>>1482374
Короче вопрос. Говорить нужно от собственного лица, как участника мира. Ил как от лица рассказчика?
Надеюсь понятно выразился.
Аноним 08/01/26 Чтв 03:01:05 #210 №1482381 
LTX-200038.mp4
Аноним 08/01/26 Чтв 03:23:09 #211 №1482398 
>>1482376
>>1482374
Ладно. Я видимо даун и общаюсь не через то приложение.
Аноним 08/01/26 Чтв 03:30:36 #212 №1482399 
>>1482398
Чел, полчетветого утра. Нюня спит и не может ответить. А мы игнорим потому что в ахуе с твоей карточки
Аноним 08/01/26 Чтв 03:40:28 #213 №1482400 
>>1482399
Лол кек. Выходные. Время не помеха.
Я месяцами общался через кобольда, а сейчас прочитал, что это всё херня и надо через SillyTavern картчоки грузить. Пиздос.
Аноним 08/01/26 Чтв 05:32:10 #214 №1482418 
image.png
>>1481930
>На мистралях:
>На гемме:
У меня в обоих как только нагенерирует "something" или "about" - все по пизде идет
Аноним 08/01/26 Чтв 06:20:07 #215 №1482428 
>>1480267 (OP)
бамп
Аноним 08/01/26 Чтв 07:43:38 #216 №1482436 
>>1482282
>найти где-нибудь апи (опенроутер, например) и поиграться с моделями побольше
Спасибо, попробую на выходных.
>как и само понимание того, сколько может стоить машина исключительно для рпшинга
Ну я в любом случае собираюсь обновляться. Уже не первый год сижу на древней 3060 которая не вывозит даже FHD на стабильных кадрах без апскейлеров. Только сейчас у меня выбор, взять только новую карту, или вообще всю платформу, ибо мать с процессором тоже дерьмовые, которые я на сдачу брал когда у меня денег не было вообще.

>>1482375
>от эйра до дипсика/кими
Как оно в сравнении с корпами? Все еще разница чувствуется, или разрыв по качеству не критичный?
Аноним 08/01/26 Чтв 07:52:54 #217 №1482439 
>>1482376
От своего лица если ты играешь от своего персонажа. От лица рассказчика если ты собираешься тупо быть наблюдателем и хочешь чтобы всё отыгрывала нейронка. Диалоги и спич в целом выделяют двойными ковычками с обоих сторон, а нарратив пишут либо в звездочках, либо без выделения вообще - но это зависит от модели, какой формат она лучше понимает.
Аноним 08/01/26 Чтв 08:56:38 #218 №1482449 
Кто-нибудь уже ролил минестреля 14b? Валяется на диске, все руки до него не доходят.
Аноним 08/01/26 Чтв 09:02:19 #219 №1482453 
>>1482375
>Если тесты справедливы то выходит что нвлинк никак не влияет.
Либо просто не работает, и данные катаются через псину.
>>1482376
Как больше нравится, так и делай. Если совсем косноязычен, то будь рассказчиком, пусть нейронка пишет и твою речь. Если можешь связать пару слов, то можно и от первого.
>>1482381
>LTX-200038.mp4
>200038
Только не говори, что это число генераций только что вышедшей нейронки.
>>1482400
Это влияет только на удобство. Так то и через кобольда можно в классный экспириенс, просто всем лень.
>>1482436
>без апскейлеров
Даже 5090 не умеет без апскейлеров (правда там уже 4к и стабильные 144).
>Как оно в сравнении с корпами?
По сути это и есть корпы, просто опенсорснутые.
>>1482439
>Диалоги и спич в целом выделяют двойными ковычками с обоих сторон, а нарратив пишут либо в звездочках, либо без выделения вообще
Чел на русике рпшит. Там возможно лучше использовать русский книжный формат - выделение речи через тире.
Аноним 08/01/26 Чтв 09:18:24 #220 №1482456 
>>1482368
перед покупкой гуглил какой профит от nvlink, и сошелся на следующем: профит только на дообучении и использовании моделей FP16+tensor-parallel = по сути на nvlink поебать
если в целом комплект оценивать, для меня профит в следующем:
1) мне не надо бегать по городу собирать у бомжей 3090 и гадать живые они или нет
2) размер + формат подключения, я не могу себе риг поставить даже если б захотел, стойка итак вся забита
3) Лучше хуёвый станок, чем пиздатое нихуя.
Аноним 08/01/26 Чтв 11:32:09 #221 №1482558 
сука жиды украли гигабайт.png
наконец приехал последний кит из 4х ддр5-4800, кому там что интересно было протестировать на 12 каналах цпу-онли епик4?
Аноним 08/01/26 Чтв 12:07:24 #222 №1482593 
>>1482436
> Как оно в сравнении с корпами?
Это и есть модели аналогичные корпам. Эйр - конкурент младше-средним моделям, даже получше их будет. Остальные уже средние-старшие, считай на релиз отстают. В ассистент чате и рп могут быть даже лучше за счет меньшей лишней надрочки и лоботомии.
Хз можно ли отнести к минусам, но вероятность обделаться гораздо выше, потому что на корпах ты возьмешь готовый пресет, который будет как-то работать (часто норм для старта и весьма всрато для длинночата), а тут придется настраивать и понимать как устроено.
Аноним 08/01/26 Чтв 12:51:20 #223 №1482646 
У видео треда лтх
У sd треда z base
У аниме треда возможно z base затюненный в аниме
А у нас что?
Аноним 08/01/26 Чтв 12:59:51 #224 №1482649 
>>1482646
>А у нас что?
А у меня отвал одной видяхи. Скорее всего райзер шалит, но температура в районе сидушки почему-то начинает расти.
Держу в курсе
Аноним 08/01/26 Чтв 13:12:31 #225 №1482666 
>>1482558
А вроде же нет модельки, больше чем kimi2 на 1B?

>>1482649
Так воткни же её без райзера или через райзер от соседней. Или они хрустальные и после втыкания видюхи доставать, менять и шевелить его крайне нежелательно?
Аноним 08/01/26 Чтв 13:15:12 #226 №1482673 
>>1481975
>Хотел было >>1480947 (You)
>Darkhn_G3-27B-Animus-V12 скачать, но там написано:
А еще там написано, что на ней успешно играют general purpose roleplay. И подтверждаю - я тоже про ту специализированню вселенную впервые там услышал, на странице модели. Тем не менее, от "general" с ней впечатления весьма положительные.
Аноним 08/01/26 Чтв 13:22:56 #227 №1482683 
>>1482666
>Или они хрустальные и после втыкания видюхи доставать, менять и шевелить его крайне нежелательно?
Да не, всё возможно. Просто лень слегка. Тут на новой плате каждая холодная загрузка долгая, видимо, надо тренировку отключать. Подустал перебирать короче. Впрочем да, сейчас займусь проверками, будь неладен этот недориг.
Аноним 08/01/26 Чтв 13:32:34 #228 №1482707 
>>1482666
есть Ling, но 1тб я всё равно тестировать не буду потому что результат очевиден.
Аноним 08/01/26 Чтв 13:56:44 #229 №1482738 
>>1482398
И так и так и так можно, но лучше работает когда пишешь от третьего лица в режиме соавторства с моделью.
Аноним 08/01/26 Чтв 13:58:12 #230 №1482740 
>>1482436
>собираюсь обновляться
Поздно. И рано. В любом случае - не время.
Аноним 08/01/26 Чтв 14:01:42 #231 №1482746 
>>1482398
А, ну и возможны ты насрал в семплеры или такие настройки просто не работают для текущей модели и надо посмотреть @ подкрутить
Аноним 08/01/26 Чтв 14:11:19 #232 №1482759 
>>1482586
А ведь если бы ты по-человечески извинился, он бы понял, простил и вернулся...
Аноним 08/01/26 Чтв 14:30:04 #233 №1482768 
>>1482144
>>1480583
Сделали бы они ее 20b, толку было бы больше. Видимо, совсем крузис памяти их в печаль вогнал. Возьми квант только полный, если тестить будешь, на огрызке уже затестили.
Аноним 08/01/26 Чтв 14:48:06 #234 №1482781 
>>1482768
Вот совсем не факт что от 20B было бы больше толку. Тут ведь очень специфическая задача, где излишня креативность вредит, зато точность - должна помогать. Так что небольшая сетка (которую можно без мелкоквантов на табуретке запустить), натасканная строго на эту конкретную задачу - звучит как план. И даже, IMHO, с шансами на удачную реализацию.
Не замечал, что если обычным моделям дать задачу "переведи" - так начало, обычно, неплохо, а то и хорошо? Но чем дальше по тексту- тем больше отсебятины и фигни? Тут метод обучения должен быть разным. Если обычная модель - предсказывает "что будет дальше на основе контекста", то переводчик - "повтори то же самое но на другом языке". У обычной модели - это ведет к лупам, и нам не нравится. А переводчику, в общем то, как раз и надо.
Аноним 08/01/26 Чтв 14:48:30 #235 №1482782 
Аноны, кто-нибудь пробовал или может быть знает инфу о том, как делать ревью коммитов, пулл реквестов при помощи локальных моделек?
Аноним 08/01/26 Чтв 14:54:40 #236 №1482788 
>>1482781
Для перевода вообще трансформеры должны использоваться не так, как в ЛЛМ, ну да ладно.
>>1482782
Никак. Это невозможно. Забудь об этом.
Аноним 08/01/26 Чтв 15:07:12 #237 №1482806 
>>1482649
> отвал одной видяхи
Nani? Та ну, за время риговладения райзеры и питание столько мозгов делали что подобное кажется почти невероятным. Даже когда все было максимально облагорожено, все равно иногда капризничает.
Райзер обычно срет ошибками и тормозами, а как отвал выглядят именно проблемы с питанием. pci-e power тоже склонны подгорать, причем по сравнению с 16 пиновым локальная статистика не в их пользу.
>>1482707
Да чето среди всей этой шайки для рп субъективно лучше всего дипсик, хоть у него и параметров поменьше. Линг и кими напоминают старые его версии, которые были довольно ублюдочными, лучше но из той же оперы.
Аноним 08/01/26 Чтв 15:55:03 #238 №1482870 
изображение.png
>>1482683
>>1482806
>Райзер обычно срет ошибками и тормозами
ХЗ, у меня именно зависание и синька с ошибкой драйвера видяхи. Впрочем да, это райзер, карта в слоте работает чётко. Блин, у меня все запчасти для переделок заказаны из кетая через месяц, придётся текущий райзер мучить, или сидеть как лох на 235B.
Аноним 08/01/26 Чтв 16:01:49 #239 №1482877 
Какая база треда чтоб гунить?
This?
Самый простой в использовании и установке форк llamacpp: https://github.com/LostRuins/koboldcpp
Аноним 08/01/26 Чтв 16:06:07 #240 №1482884 
>>1482877
>>1480286
Аноним 08/01/26 Чтв 16:10:01 #241 №1482888 
>>1482877
koboldcpp
+
https://huggingface.co/mradermacher/Cydonia-24B-v4.3-heretic-v2-i1-GGUF
+
Silly Tavern
+
Карточки с characterhub.org
Аноним 08/01/26 Чтв 16:24:20 #242 №1482917 
image
>>1482888
Эм, а какую модельс этогос писка нада чтоб без цензуры и для гунинга?
Аноним 08/01/26 Чтв 16:34:37 #243 №1482933 
>>1482870
> именно зависание и синька с ошибкой драйвера видяхи
Было именно такое из-за уставшего разъема, шевеление на какое-то время исправляло. Чтобы к такому привел райзер - это нужно капитально ошибок накопить, вся система будет лагать.
Обе штуки мониторятся. Ошибки легче всего в hwinfo, мотаешь в самый низ, проблемы с разъемами - сенсоры напряжения портов питания и pci-e, если под нагрузкой видны просадки - оно.
Аноним 08/01/26 Чтв 16:36:11 #244 №1482935 
>>1482917
Это всё одна модель. Спроси у чата гпт что это за таблица, просто скопируй текст и вставь в чат
Аноним 08/01/26 Чтв 16:36:34 #245 №1482936 
>>1482917
Это все одна модель, просто чем меньше размер, тем тупее, но быстрее и меньше памяти требует
Аноним 08/01/26 Чтв 16:44:55 #246 №1482946 
>>1482935
>>1482936
Ну хорошо, я вижу сбоку комментарии, качаю 99, потому что написано быстрое, но весит много, значит не тупое.
Аноним 08/01/26 Чтв 16:52:03 #247 №1482955 
>>1482936
На этом все, хладнокровный Аноним. Можете пройти за кволити.
Аноним 08/01/26 Чтв 16:54:16 #248 №1482959 
>>1482946
>99
Нет пути... Он стал моделью.
Аноним 08/01/26 Чтв 17:00:02 #249 №1482967 
image
ООО! Спасибо вам кто выше мне ссылки кинул и советы. Оно живое.
И не так долго на моей 3060 как думал. Глубокий никий поклон.
Аноним 08/01/26 Чтв 17:02:25 #250 №1482972 
image
А еще она даже русская и считать умеет. Я не знал что локалки уже такие умные бывают.
Аноним 08/01/26 Чтв 17:08:36 #251 №1482979 
>>1481667
Проиграл с этого Лобачевского
Аноним 08/01/26 Чтв 17:10:35 #252 №1482980 
>>1482967
> Pinkie Pie

и эти люди запрещают мне ковырять в носу
Аноним 08/01/26 Чтв 17:12:17 #253 №1482983 
>>1482972
считать локалки не умеют, это у неё в датасете записано, что 7+8=15
чтобы оно начало считать, надо прикрутить к нему выполнение кода. что может быть чревато последствиями
Аноним 08/01/26 Чтв 17:15:14 #254 №1482989 
>>1482983
>считать локалки не умеют
Умеют. ЛЛМ устроены как большая асоциативная база данных, если очень упрощать. Логикой они обладают. Можешь придумать сам какую-нибудь задачку, какой нигде нет и предложить ее сколь-нибудь умной локалке. Гпт Осс решает университетские задачи по математике и школьные олимпиадные старших классов, например. Я даже формулировки менял и давал задачи с неверными исходными данными.
Аноним 08/01/26 Чтв 17:17:55 #255 №1482994 
>>1482989
А препода она может заменить?
Нет?
Ну пусть хуй тогда сосёт даже это не может
Аноним 08/01/26 Чтв 17:19:36 #256 №1482998 
powersave.png
balanceperformance.png
>>1482558
STREAM/TRIAD
EPP=powersave -> 389 GB/s
EPP=balance_performance -> 391 GB/s
в принципе нарм, у японцев с этим процом 394 вышло, скорее всего с EPP=performance.
Аноним 08/01/26 Чтв 17:22:29 #257 №1483004 
>>1482998
Для инфиренса all reads и read-only актуальнее, там разница профилей производительности существенная.
Аноним 08/01/26 Чтв 17:22:31 #258 №1483005 
>>1482994
Ты пришёл в ЛЛМ тред рассказывать, что ЛЛМ тред говно? Агишиз опять раздуплился после новогоднего бухалова или залётный? ЛЛМ тебе и пояснения дадут как решали задачу, и объяснят пробелы. Ясен хуй, человека оне не заменит, но если у тебя самого голова на плечах есть - существует очень много юзкейсов, когда будет реальная польза.
Аноним 08/01/26 Чтв 17:27:56 #259 №1483013 
image
>>1482980
Реально. Если уж и ебать пони, то как минимум Королеву.
Аноним 08/01/26 Чтв 17:34:14 #260 №1483020 
>>1483013
если уж и ебать пони, то Луну
Аноним 08/01/26 Чтв 17:39:56 #261 №1483029 
image
>>1482983
Умеют. Всего на свете в датасет не запишешь. Можно и матан научить решать, если записать условия в датасет и обучить. Но она как-то сранно считает, иногда говорит что сложно, иногда осчитает. Видимо от карточки зависит, характера пони.
Аноним 08/01/26 Чтв 17:47:42 #262 №1483046 
>>1483020
Если уж и ебать, то Эплблум в теле Макинтоша
Аноним 08/01/26 Чтв 18:01:09 #263 №1483067 
Ебать я лох был что на онлайн сервисах так долго сидел. Что-то умное спросить и советы можно у чат гпт онлайн бесплатно без регистрации, а кумить с джейлбрейками без цензур и багов можно было оказывается на локалках вполне. А может есть спец модели для куминга одобренные людями культуры?
Аноним 08/01/26 Чтв 18:01:19 #264 №1483068 
изображение.png
изображение.png
изображение.png
>>1482933
>проблемы с разъемами - сенсоры напряжения портов питания и pci-e
Короче, ХЗ что это было, перебрал, протёр контакты, и вроде починилось. А может болтик новый в держателе помог.
Про совет с напряжениями спасибо, буду смотреть при проблемах. Правда ХЗ какая просадка допустима. Как будто самая большая просадка на pci-e, он на моём райзере как раз от одного саташника запитан, там лимит 52 ватта, а плата в пике запросила 55. Возможно платы с доп питанием сата не лучшая идея, как тут и писали. С другой стороны, тратить целый PCI-E питание на плату райзера это жирно как по мне.
Аноним 08/01/26 Чтв 18:04:39 #265 №1483070 
>>1482933
> hwinfo, мотаешь в самый низ, проблемы с разъемами - сенсоры напряжения портов питания и pci-e
>>1483068
> 3

а есть такое же для люниксапрыщеблядикса?
Аноним 08/01/26 Чтв 18:06:46 #266 №1483071 
А с пиндодо реально купить v100 32? Что-то на али не осталась нихуя за нормальные деньги.
Аноним 08/01/26 Чтв 18:15:04 #267 №1483075 
>>1483071
Мне кажется тот лот где за 30к были V100 выкупил чисто тред, лол.
Там ещё 11 штук завезли в тот же лот, уже по 35к.
Аноним 08/01/26 Чтв 18:42:00 #268 №1483092 
>>1483067
> А может есть спец модели для куминга одобренные людями культуры?
Новьё:
- gemma3-27B-it-abliterated-normpreserve
- Cydonia-24B-v4.3-heretic-v2

Старьё:
- Broken-Tutu-24B-Unslop-v2.0
- Forgotten-Transgression
- 12B Мистральки из шапки.
Аноним 08/01/26 Чтв 18:48:35 #269 №1483096 
image
Лол а где все мои настройки с джийлбрейками и т.п. в таверне? Для локалок чтоли где-то вс езаново писать? Ну та длину ответов, запреты всякие или наоборот разрешения. Хде?
Я виж ток стандартные шизоидные пресеты. А где их менять и свои создать можно? Может у тредовча есть? Делитес.
Мне надо длину ответов и чтоб повествователь не пиздел когда не просят.
Аноним 08/01/26 Чтв 18:49:49 #270 №1483097 
>>1483096
> Может у тредовча есть? Делитес.
Тут за такое убивают. Сам разбирайся. Задавай конкретные вопросы получай ответы.
Аноним 08/01/26 Чтв 18:51:43 #271 №1483100 
>>1483097
Ну епт, тогда чат гпт попрошу написать. Иронично нейронка помогает делать мне нейронок.
Аноним 08/01/26 Чтв 18:53:28 #272 №1483102 
>>1483100
> Ну епт, тогда чат гпт попрошу написать
)))))))))))))
Удачи.
Аноним 08/01/26 Чтв 18:57:05 #273 №1483105 
image
>>1483096
https://pixeldrain.com/l/47CdPFqQ
Ближе к концу списка пресеты.
Аноним 08/01/26 Чтв 18:57:46 #274 №1483106 
>>1483102
>)))))))))))))
Ты так сильно обиделся штоль? Чмок
Аноним 08/01/26 Чтв 19:00:15 #275 №1483109 
Слушайте, а как перевод в локалке через силли таверну работает? Оно продолжает гугл (или что другое в таверне указано) захватывать или через модель переводит когда кнопку жмешь. Мне важно знать, а то перевод хуевенький.
Аноним 08/01/26 Чтв 19:01:30 #276 №1483110 
>>1483109
оно не работает, забудь
Аноним 08/01/26 Чтв 19:10:33 #277 №1483117 
>>1483110
Да((( Ри работает без инета, это не локалка переводит. Я готовлюсь к чебурнету. Кто мне будет переводы делать, если не локалка? Оно то если принудить будет на 1 языке, а я не хочу.))(
Аноним 08/01/26 Чтв 19:11:04 #278 №1483118 
>>1483110
крякни
Аноним 08/01/26 Чтв 19:14:45 #279 №1483123 
>>1483109
Ну просто берешь умничку 27b и кумишь на русском сразу из коробки. А если шейх с много озу - берешь жирный квен. Пиздец вы любители собирать троллейбус из буханки хлеба, конечно
Аноним 08/01/26 Чтв 19:18:40 #280 №1483132 
>>1483092
>gemma3-27B-it-abliterated-normpreserve
Так это гуглопидорское. Или там можно обойти цензуру тож? В чем соль?
Аноним 08/01/26 Чтв 19:30:26 #281 №1483146 
>>1482781
Если больше параметров, то модель больше одупляет, что она вообще делает, это не обязательно про креативность. Например, касательно перевода, понимает особенности художественного и технического текста, стилистики, уместности ипользования слов. Если не долбоебы занимаются подготовкой модели, то в среднем больше параметров = лучше в любой сопоставимой по классу задаче. При условии, что модели одного поколения и одной архитектуры.
Аноним 08/01/26 Чтв 19:42:29 #282 №1483153 
>>1483117
>Кто мне будет переводы делать, если не локалка?
Мозг.

>>1483118
>крякни
КРЯ. Или тебе ещё и три раза ку сделать?

>>1483132
>Или там можно обойти цензуру тож? В чем соль?
Новый метод аблитерации, не ломающий мозги (ну, значительно меньше) + стандартный промт соавтора-сторителлера на гемму.

+ умничка умеет кумить со смыслом, а не просто декалитры жидкостей лить
Аноним 08/01/26 Чтв 20:17:37 #283 №1483198 
>>1483068
>он на моём райзере как раз от одного саташника запитан
Земля тебе пухом - электросвиней запитывать не от писи или молекса... В крайнем случае советую тебе рассмотреть переходник 2xSATA->PCI-E 6 pin, на озоне такие валяются. Лучше всего будет запитать с разных линий (особенно если у тебя просадки), но если сечение норм, то и с одной норм, хотя бы не будешь испытывать сам разъем на прочность.
Аноним 08/01/26 Чтв 20:29:03 #284 №1483211 
У геммочки честный кеш маленький, а остальный SWA.
Я могу как-то сделать честный кеш на 32к токенов? А то она что-то пропускать начинает.
Или это нельзя архитектурно? Или можно, но так как она на этом не училась - то у неё крыша поедет?
Аноним 08/01/26 Чтв 20:35:06 #285 №1483226 
Мне срочно нужен хдд 6Тб под модели и как архив для нейрон, ну суки копоративные, создают нового бога, а мне нельзя биокарлиц багинь теперь комфортно творить. Вы б стали платить 30к за 6Тб? Все что ниже - б/у и шлак как сигейт.
Аноним 08/01/26 Чтв 20:48:24 #286 №1483245 
>>1483211
--swa-full попробуй
Аноним 08/01/26 Чтв 20:50:08 #287 №1483247 
>>1483226
помню когдато 2тб брал за 2500 руб...
Аноним 08/01/26 Чтв 20:52:32 #288 №1483249 
>>1483226
Ждуны в пролёте. Либо бу с авиты хз за сколько и в каком состоянии, либо бу с тавы по 10к с +- понятным состоянием
Аноним 08/01/26 Чтв 21:03:33 #289 №1483257 
>>1483249
Придется еще ПАДАЖДАТЬ. Корпы же не могут бесконечно скупать железки. Это бизнес уровня как риелтор сам бы у себя квартиры стал поккупать. Их уже даже офисники хуесосят и отменяют в соцсетях, не продержатся и полгода за такой гнилой мув. Я блять такое только в кино видел, чтоб жирный король скупил всю еду с рынка и закапывая в землю и городским тогда б пришлось пиздовать пахать в поля чтоб найти пропитание.
Аноним 08/01/26 Чтв 21:07:48 #290 №1483260 
>>1483226
А зачем тебе столько места под модели? Вопрос без подъеба. Ну допустим ты хочешь не только под свое железо актуальные модели засейвить, но и под все юзкейсы. Скажем, 8б, 12б, 24б, 32б, 70б, 123б модели и пару МоЕшек. Например, Эир и Квен 235 (потому что больше ничего толкового для рядового пользака нет). Q4-Q6 кванты. Ну это же терабайт максимум.

У меня внешних ЖД на 15тб, там куча медиаконтента на все случаи жизни - вот это мне понятно, учитывая интернет тенденции по всему миру и в частности у нас в России.
Аноним 08/01/26 Чтв 21:11:32 #291 №1483263 
>>1482888
Для чего нужен heretic тюн цидоньки если цидонь и так кум-тюн? На сколько я знаю что отказы нужны для характера. Аблитерированные модели имеют проблемы отыгрывать персонажей с принципами, а в комбинации с кум-тюном у тебя любой персонаж в сукуба должен превратится после 1-2 сообщений.
Аноним 08/01/26 Чтв 21:20:43 #292 №1483273 
изображение.png
>>1483198
>переходник 2xSATA->PCI-E 6 pin
Эээээ... А что он даст то? У меня на плате саташник, сами видеокарты само собой по отдельным проводам псины питаются.
>>1483226
>Мне срочно нужен хдд 6Тб под модели и как архив для нейрон
Меняю 6ТБ диск на 5090.
Аноним 08/01/26 Чтв 21:21:02 #293 №1483274 
>>1483198
>В крайнем случае советую тебе рассмотреть переходник 2xSATA->PCI-E 6 pin, на озоне такие валяются.
Вот кстати спасибо, мне давно нужно было что-то подобное, а то у меня только восемь PCI-E 8 pin от БП, а нужен девятый PCI-E 6 pin в плату воткнуть, если четвёртую карту в риг захочу добавить :)

Хотя один хуй для серьёзного рига второй БП брать придётся.
Аноним 08/01/26 Чтв 21:25:57 #294 №1483277 
>>1483260
Пара моделек под сетап на 512гб уже ощутимо тянет карман
Аноним 08/01/26 Чтв 21:33:17 #295 №1483281 
>>1482998
>в принципе нарм
Бандвич штука хорошая, только вот одного его недостаточно. Интересно, что будет (особенно с промпт процессингом), если к этой системе добавить 1(одну) 5090?

Задавал этот вопрос ещё прошлом августе ЕМНИП и тогда это казалось интересным решением. Но сейчас цены совсем не те.
Аноним 08/01/26 Чтв 21:36:40 #296 №1483282 
>>1483257
добро пожаловать в кино. жидам не выгодно, чтобы у людей были домашние компьютеры, они готовы выкидывать ваши же ахулиарды денег только на то, чтобы вам вычислительные мощности не достались и вы были вынуждены арендовать их у жидов.
Аноним 08/01/26 Чтв 21:36:47 #297 №1483283 
>>1483277
>Пара моделек под сетап на 512гб уже ощутимо тянет карман
Если у тебя есть деньги на такой сетап, то и НВМЕ от 2Тб потянешь. Даже простой SATA SSD смысла не имеет, а тут о хардах рассуждают.
Аноним 08/01/26 Чтв 21:39:53 #298 №1483285 
>>1483281
> с промпт процессингом
улетит в небеса. цпу-онли промпт процессинг - полный пиздец

> если к этой системе добавить 1(одну) 5090?
я добавил 1(одну) 6000, иронично за ту же цену, что и 12 планок 64гб ддр5-4800
Аноним 08/01/26 Чтв 21:42:21 #299 №1483287 
>>1483283
512 можно было дёшево собрать, буквально за 50к. Речь же не идёт о ддр5 под сп5
+ мишек насыпать на 128гб за 50к

мимо
Аноним 08/01/26 Чтв 22:27:11 #300 №1483341 
>>1483273
>У меня на плате саташник
А, я подумал, что у тебя там пися, но ты запитал от сата через переходник. Тогда да, печаль-беда, я ради этого новые райзеры заказывал, чтобы их можно безопасно через кабель писи напрямую питать.

>>1483274
Если в плату райзера, то норм, а если в саму карту, то стремновато (хотя, по идее, карта должна понять по sense пину, что в ней 6 pin, а не 6+2, и сбрасывать потребление, иначе зачем этот sense вообще сделан). У меня есть еще уже эксклюзивный 2хMolex->6+2 pcie (эксклюзивный т.к. этой позиции в рф магазине, который делает усиленное сечение и пайку, давно нет), вот его можно и в карту сувать, если с разных линий запитывать. Если найдешь китайский аналог, то можешь еще его рассмотреть.
Аноним 08/01/26 Чтв 22:28:25 #301 №1483343 
>>1483273
>linux
>русский язык
А мсье знает толк... Небось ещё и сообщения об ошибках в гугле переводит, чтобы погуглить.
Аноним 08/01/26 Чтв 22:36:19 #302 №1483352 
>>1483260
Ну так не только нейронки, у меня просто уже место забито с инета что качаю, а также нужды диски под бэкапы на случай если действенные полетят понимаешь.
Аноним 08/01/26 Чтв 22:37:43 #303 №1483355 
>>1483273
Да у тебя итак 5090, не верю что такой мажор не стоял первый в очереди за ней.
Аноним 08/01/26 Чтв 22:41:04 #304 №1483364 
>>1483341
>Если найдешь китайский аналог, то можешь еще его рассмотреть.
Типа такого?
https://www.ozon.ru/product/perehodnik-pitaniya-dlya-videokart-molex-m-x2-pcie-8pin-6-2-m-40-sm-2246788659/
Аноним 08/01/26 Чтв 22:50:56 #305 №1483378 
>>1483364
Ага, такой. Но если ты реально хочешь в саму карту втыкать, то будь осторожней. Как минимум осмотри и легонько подергай, а то в этих китаеподелиях пайка на соплях может быть. А потом лучше бенч прогнать какой, чтобы если где-то начнет греться или плавиться, то хотя бы под надзором.
Аноним 08/01/26 Чтв 23:00:54 #306 №1483391 
solar2.png
йцут.png
Хотя ладно, солар реально залупа. Соевый рефьюз с придурошной логикой. Для сравнение на втором скрине ответ квена 235.
Аноним 08/01/26 Чтв 23:35:31 #307 №1483422 
>>1483341
>Тогда да, печаль-беда, я ради этого новые райзеры заказывал, чтобы их можно безопасно через кабель писи напрямую питать.
Как по мне, саташки должно хватать, и проблема не в питании.
>>1483343
Это OMV, почему бы и нет. В чистую люнупсу лезть лень.
>>1483355
Ну не верь. На деле я не мажор, а айтишник на вынужденной пенсии, так что 5090 подобрал на дне рынка, и то одну.
Аноним 08/01/26 Чтв 23:51:35 #308 №1483448 
https://huggingface.co/CrucibleLab/M3.2-24B-Loki-V2
ггуфов пока нет, какой-то новый мистралетюн (заметил случайно, драммер лойс поставил)
Аноним 09/01/26 Птн 00:32:10 #309 №1483500 
>>1483422
Бля ну ни над щас заплачу с душещипальной истории жизни( на дне рынка 5090((( подобрал на пенсии
Аноним 09/01/26 Птн 00:33:49 #310 №1483503 
>>1483500
путин же обещал достойные пенсии? вот, получите-распишитесь
Аноним 09/01/26 Птн 00:37:45 #311 №1483509 
>>1483500
На самом деле сейчас я вырубил карту с райзером, но баги продолжились. Так что возможно я действительно буду плакать.
>>1482649 -кун
Аноним 09/01/26 Птн 01:19:11 #312 №1483544 
>>1483226
пузырь либо скоро лопнет, либо, вероятнее, все будет еще хуже с железом. и что через месяц будешь писать:

>Вы б стали платить 40к за 2Тб?

1) CES 2026 показал, что на потреб. рынок забивают болт
2) сейчас, с такими ценами, уже наконец-то спрос соответствует предложению, все кто хотел (и мог) - закупились. по-этому цены не так резко растут
3) однако произодить для потреб. рынка будут намного меньше. вопрос времени, когда существующий сток распродадут. цены ниже врядли упадут, скорее снова вырастут

мне бы хотелось верить, что пузырь скоро лопнет, но CES меня в этом разубедил
Аноним 09/01/26 Птн 01:22:40 #313 №1483547 
>>1483544
Там че и харды подорожали? Просто с ними-то какая разница, у меня 8-терабайтный HGST уже десяток лет для хранения помоев - охуенно работает, тьфу-тьфу.
Аноним 09/01/26 Птн 01:23:35 #314 №1483549 
>>1483547
>Просто с ними-то какая разница, у меня 8-терабайтный HGST уже десяток лет для хранения помоев - охуенно работает, тьфу-тьфу.
Ну тобишь, он вообще серверный. Потребительский не потребительтский, какая разница. Лишь бы не для записи данных с видеокамер.
Аноним 09/01/26 Птн 01:53:11 #315 №1483552 
>>1483549
Под файлопомойку можно и эти использовать, да и вообще почти любой хлам, в рейд-1 засунуть, и дело с концом.
На самом деле - лишь бы не SMR (черепичная запись). Вот это - реальная жопа и непотребство.
Аноним 09/01/26 Птн 01:58:31 #316 №1483553 
>>1483547
>Там че и харды подорожали?
Тут один из директоров Самсунга намедни интервью давал. И сказал: не переживайте за память, граждане - подорожает всё. Вообще всё. Ибо такова парадигма(с)

PS Я долго присматривался к планшетику игровому, всё думал: скоро ещё лучше выйдет или подешевеет, а старый пока работает же... А теперь заказал. Ибо нехуй.
Аноним 09/01/26 Птн 03:45:31 #317 №1483575 
>>1483068
> ХЗ какая просадка допустима
В идеале минимальная, и синхронная по прочим сенсорам. То есть если проседает бп под нагрузкой - это заметят и сенсоры материнки, и разные вольтажи на гпу будут падать идентично. Если же под нагрузкой падает только один или пара вольтажей по питанию, да еще само падение больше чем 0.5В - подыхает разъем, его нагрев и рукой будет заметен после продолжительной нагрузки. Питание pci-e с райзера если он без доп питания тоже может проседать.
>>1483070
nvidia-smi dmon -s et -d 10 -o DT
>>1483281
> что будет (особенно с промпт процессингом), если к этой системе добавить 1(одну) 5090
А без нее оно смысла не имеет. На риге с шустрой врам к дополнению к много 12-канальной врам 20-15т/с генерации в зависимости от контекста на дипсике. Пп в районе 200-300 что мало для агентов но норм для рп.
>>1483226
> Все что ниже
Не так давно торговались живчики hdd на 16тб на ~20к и ssd 8тб за 30-40к. Или дешевле если удачно подыскать, бу офк но с 90+ ресурсом.
Аноним 09/01/26 Птн 05:58:01 #318 №1483612 
miku wanna kms.jpg
>>1480947
>>1480982
>>1481975
>>1482673
>>1481127
>>1481292
>>1481293
>>1481295
>>1481295
>>1481329
>>1481733
>>1481873
>>1481744
Блять, да как вы затрахали!
>хуйнянейм говно
>ниееет это ты говно сабж - лучшая модель эвер
>да нет это говно вот хуйнянейм-тюн даа, вот он работает.
>нихуя хуйнянейм-тюн не работает, все тюны говно, оригинальная модель - это единственно верный вариант
>нет вы все долбаёбы, это хуйнянейм-2 прям топовый топ лучше быть не может, очень пиздатое РП, может даже на иврите рпшить!
>да вы подождите, вот хуйнянейм-3 - вот это реально тема. лучшая модель для рп на иврите.
>хуйнянейм-3 не может нормально в кум. соевая, пиздец, вот хуйнянейм3-тюн-хуйнянейм2 пиздат для кума
>блять хуйнянейм3-тюн-хуйнянейм2 в иврит нихуя не может шизит и зацикливается, а вот хуйнянейм-4...
>ни одной из этих хуёвин, нету в шапке, а то что в шапке - обсирается в треде.
Аноним 09/01/26 Птн 06:24:54 #319 №1483615 
>>1483612
Удивлю, но модели на хф заливают чаще, чем обновляют шапку. Почему тебя так порвало?
Аноним 09/01/26 Птн 06:36:41 #320 №1483616 
>>1483615
>Удивлю, но модели на хф заливают чаще, чем обновляют шапку.
Да ну? Серьёзно? А шапка нужна, чтобы туда пихать каждую попавшуюся модель, а не только лучшие?

>Почему тебя так порвало?
Просто модели из шапки - срут, но вот истинной абсолютнейшей годнотейщины™, которая, по мнению анонов из треда, ебёт всё и вся - там почему-то нет.
Аноним 09/01/26 Птн 06:50:01 #321 №1483623 
>>1483612
> и всё это в 4 кванте и до 350б
Просто лезут на локалки думая что тут лафа и не нужны им эти корпы хостящие в 8 бит, когда тут новейший мега пуксереньк файнтюн от драммера 24б 4q в карту влезает.
А тут всё так же, ниже 6 кванта жизни нет, ниже 350б жизни нет, ниже 90к контекста жизни нет, всё это прочнейшая база, локалки очень даже живы, но не для вас, молодой человек
Аноним 09/01/26 Птн 06:55:06 #322 №1483625 
>>1483623
>> и всё это в 4 кванте и до 350б
Наверное, только пара-тройка Анонов в этом треде способны вырваться из этого круга ада. Так что вы меньшинство, а мнение меньшинства не учитывается.
А ещё вы дохуя важные, на самом деле.
Аноним 09/01/26 Птн 07:17:22 #323 №1483631 
>>1483616
>шапка нужна, чтобы туда пихать каждую попавшуюся модель
Я тебе ничего про это не говорил. Что-то мешает обновить шапку и добавить туда лучшее из того, что вышло? Или лучшая модель выходит раз в год по твоему мнению?

>>1483616
>истинной абсолютнейшей годнотейщины
Откуда ей взятся? Ты требуешь чтобы инструмент который генерирует текст предсказывая следующее слово на основе предыдущих устраивал каждого, когда у каждого свой системный промпт, свои хотелки, свои настройки семплеров,. Это просто невозможно. Даже не каждый анон знает английский.
Аноним 09/01/26 Птн 07:18:54 #324 №1483632 
>>1483448
>ггуфов пока нет
Появились.
Аноним 09/01/26 Птн 08:07:40 #325 №1483637 
Как ситуация с карточками АМД? У них же памяти побольше, можно больше аыгрузить слоев
Аноним 09/01/26 Птн 08:23:41 #326 №1483639 
>>1483631
> Я тебе ничего про это не говорил.
Тогда к чему был тот вборс про разность обновления шапки и частоту создания новых моделей?

> Что-то мешает обновить шапку и добавить туда лучшее из того, что вышло?
Отличная идея! Как мне это сразу в голову-то не пришло!? А я то думал в шапку просто рандомные модели занесли.

Только к чему ты мне-то об этом говоришь? Я по-твоему, имею возможность изменять шапку?
Да и даже если бы хотел, как мне понять что Анон действительно считает годным, если вы ебучие шизы, которые не могут сойтись в одном мнении и решить что действительно годно? Засирая даже то, что занесено в шапку, под статусом "годно"?

> Ты требуешь чтобы инструмент который генерирует текст предсказывая следующее слово на основе предыдущих устраивал каждого, когда у каждого свой системный промпт, свои хотелки, свои настройки семплеров,.
Я не требую, у меня просто баттхёрт. Я бугурт.

Объективно, понятно, что восприятие "годноты" у каждого отличается, отличаются настройки, железо, версии ПО, файнтюны, но блять нигде такого нет, как в этом треде. Когда буквально любое утверждение о годноте можно литералли считать бесполезным.
Довериться Анону и его вкусу здесь, это всё равно, что поставить всё на зеро. Естественно, получить годноту шанс такой же, как и выиграть с подобною ставкой.
Слава богу, хотя бы деньги не отбирают при входе в тред.
Аноним 09/01/26 Птн 09:00:28 #327 №1483656 
>>1483544
Все потому что у зумеров и пыниксов нет компов?
Аноним 09/01/26 Птн 09:09:49 #328 №1483657 
Затра важный день
Но не для лмм
Выйдет z image base и glm image
Всё просто, ллм обучать сильно дороже и сложнее
Да и интереса у людей к картинкам больше
Всё тихонько умирает
Аноним 09/01/26 Птн 09:29:48 #329 №1483666 
não gosta da minha musica.jpg
>>1483544
Это всё было бы оправданно, если бы они действительно делали нового бога, но ведь они же разрабатывают системы для более эффективной слежки и убийства других людей.
Ожидайте пришествие Allied Mastercomputer от Palantir Technologies.
Человекам пизда в 2028. Скриньте.
Аноним 09/01/26 Птн 09:42:44 #330 №1483677 
>>1483666
>но ведь они же разрабатывают системы для более эффективной слежки и убийства других людей.
Да кому нужны ваши пукалки. И следить за людьми занятие пустое, а вот ответить на платоновский вопрос было бы интересно. Есть мнение, что на этом человек и закончится, да и хуй с ним а может будет с ним что-то совсем новое. Интересно же.
Аноним 09/01/26 Птн 09:58:39 #331 №1483685 
>>1483657
Оварида-шиз.
Аноним 09/01/26 Птн 10:16:05 #332 №1483689 
>>1483612
О нет! Существует живая дискуссия по сабжу? Это просто отвратительно нахуй! Мне не нравится, ткну всех вот этих вот которые нихуя не понимают и только срут в тред. Ох как полегчало, какой я умница всё-таки. (С) Долбаёб. Бухой утка или ещё один умник нашелся?
Аноним 09/01/26 Птн 10:29:24 #333 №1483695 
>>1482989
Какая у тебя гпт осс?
Вчера взял квен3 кодер 30Б, и он не смог на питоне с первого раза вывести список чисел от 10 до 1000, сумма первых двух цифр которых равна 5.
А онлайн дипкек сразу несколько правильных вариантов предложил.
Аноним 09/01/26 Птн 10:58:29 #334 №1483710 
>>1483637
Такая же, как с Нвидия. Памяти у них почти всегда столько же, но АМД медленнее, чем зеленые процентов на 30. С ЛЛМ ситуация бывает лучше, идут почти вровень. Чтобы слоев больше выгружать, на Линупс надо идти, но касается это и красных и зеленых.
Аноним 09/01/26 Птн 11:05:50 #335 №1483716 
>>1483544
> все кто хотел (и мог) - закупились. по-этому цены не так резко растут
> не так резко
за прошедший месяц оператива сделала ещё +40% а суммарно с сентября по январь цена выросла в 4.6 раз
Аноним 09/01/26 Птн 11:09:04 #336 №1483717 
>>1483716
Это просто догон до Китая. В конце ноября там уже было х5 и с того момента движения нет
Аноним 09/01/26 Птн 14:51:49 #337 №1483924 
>>1480909
Нормальный пресет.
Без шизапромпта/пресета всё те же проблемы что и с ним, он просто направляет модель куда нужно.
Шизапромпт это когда тут постят огромный список чего модели делать НУ НИ В КОЕМ СЛУЧАЕ нельзя, у гичан вместо этого инструкции что делать желательно, всё ещё оставляя модель "развязанной"
Аноним 09/01/26 Птн 15:13:01 #338 №1483935 
>>1483924
Ага, что делать желательно: миллиард инструкций, объясняющих, что такое рп и как правильно пукать. Точно не шизопромт, нини.
Аноним 09/01/26 Птн 15:27:05 #339 №1483944 
>>1483935
>миллиард инструкций, объясняющих, что такое рп и как правильно пукать
Каким промпт и должен быть. Тут как с генерацией на флакс или ван - нужно жирное полотно объясняющее каждую мелочь.
И такое мнение в треде и было до того как тут начали форсить промпт в одну строчку, лол.
То что модель от мелкого промпта не ломается ещё не значит что он лучше для рп, она и с "ты меня ебешь, я тебя ебу" прилично отыграет, но с большим промптом будет умнее
Аноним 09/01/26 Птн 15:33:27 #340 №1483949 
>>1483944
>Каким промпт и должен быть.
>с большим промптом будет умнее
Как ты пришел к выводу, что с большим промптом модель будет "умнее"?
>Тут как с генерацией на флакс или ван - нужно жирное полотно объясняющее каждую мелочь.
Зачем? У генерации картинок и креативной ролевой игры две диаметрально противоположные задачи - сгенерировать точный результат, как можно больше соответствующий описанию в случае картинкогенерации, и получить креативный, интересный ответ на твой ввод в случае рп.
>И такое мнение в треде и было до того как тут начали форсить промпт в одну строчку, лол.
Мнения имеют свойство изменяться с приобретением опыта. Тем более, что сейчас стали доступны мое модели, которые из коробки знают и понимают, что такое ролевая игра. Если ты Квену 235 скормишь жирное полотно из промпта - он начнет писать еще хуже, потому что будет следовать инструкциям "дважды": исходя из собственного понимания что такое ролевая игра и следуя каждой бессмысленной инструкции "ты персонаж, ответь как персонаж, потому что это ролевая игра"
Аноним 09/01/26 Птн 15:49:17 #341 №1483960 
>>1483949
Изи детект того кого нельзя называть
Аноним 09/01/26 Птн 15:52:16 #342 №1483966 
>>1483944
> Тут как с генерацией на флакс или ван - нужно жирное полотно объясняющее каждую мелочь.
Это не плюс. Сначала наделали мусорных капшнов, где вместо содержимого одни дефирамбы и филлеры, а потом оформили тренировку этим без должной аугментации. В итоге модель требует спама чтобы делать простые вещи, а без него не дорабатывает.
> Каким промпт и должен быть.
Не должен. Уместно было во времена мезозоя, когда модели вообще не понимали что к чему и как делать разметку в рп.
> с большим промптом будет умнее
Наоборот, внимание будет уходить не на сюжет, а на пропуск очевидного. Или наоборот слепое следование им с наваливанием слопа и тех самых ответов за юзера.
Аноним 09/01/26 Птн 15:56:54 #343 №1483977 
>>1483949
>что такое ролевая игра
Эх, как же хочется отойти от шаблона ролевой игры...
>>1483966
>Сначала наделали мусорных капшнов
Но но, ты пропустил нулевой шаг. Сначала обучили модели капшенов на мусорных данных, где процентов 10 тегов просто неверны, а потом да, высрали вторично переработанные датасеты.
>внимание будет уходить не на сюжет
База. Реальный контекст моделей в 4к вообще не стоит превышать, а тут одних инструкций "как какать" на 16 наливают.
Аноним 09/01/26 Птн 16:00:45 #344 №1483983 
>>1483710
> Чтобы слоев больше выгружать, на Линупс надо идти, но касается это и красных и зеленых.
Это за счет того, что можно рабочий стол вырубить и освободить кусочек памяти в видяхе? Или что-то еще?
Аноним 09/01/26 Птн 16:07:39 #345 №1483987 
>>1483983
Больше оптимизаций, чище код. Вся ии инфра крутится на лини. То что запускается на винде это бэкпорты
Аноним 09/01/26 Птн 16:08:32 #346 №1483990 
>>1483710
>Чтобы слоев больше выгружать, на Линупс надо идти, но касается это и красных и зеленых
Что это значит? Я недавно на линупс перешёл от скучной жизни и у меня нихуя не получается так же оформить загрузку VRAM и RAM, там очень строгие значения, винда же говорит "надо 300гб врам? Да похуй, держи" и проблемы на начнутся, пока ты реально не забьёшь всё, и то, она начнёт плавно из ОЗУ подсасывать. На линуксе хуй, говорит не может аллокейт KV cache ещё на моменте загрузки модели.
Аноним 09/01/26 Птн 16:13:42 #347 №1483998 
>>1483990
>и то, она начнёт плавно из ОЗУ подсасывать
Так это ж минус.
Аноним 09/01/26 Птн 16:19:01 #348 №1484005 
>>1483949
> будет следовать инструкциям "дважды": исходя из собственного понимания что такое ролевая игра и следуя каждой бессмысленной инструкции
> понимания
Блять что я прочитал.. Мы уже достигли аги?
А ты не думал что любая, даже самая короткая инструкция накладывается на то что там квен понимает и это лишь мешает?
Гоняй вообще с пустым промптом, будет ещё лучше
Аноним 09/01/26 Птн 16:28:15 #349 №1484008 
>>1484005
>Гоняй вообще с пустым промптом, будет ещё лучше
Что за глупая гиперболизация? Тебе 15 лет? Есть большая разница между "ты участник ролевой игры и гейммастер" и "ты чар, участвуешь в ролевой игре, ролевая игра это когда ты отвечаешь как чар, чтобы развивало историю, соответствовало чару, не противоречило предыдущим сообщениям..." (И ещё тыща токенов избыточных обозначений, которая модель уже "поняла" на фразе "ты участник ролевой игры")

И ты не поверишь, Квены хорошо работают без промпта, да. Квк, Сноудроп и 235 я катал с <think> префилом на пару сотен токенов, и именно так добивался лучших результатов, когда модель не зажата в тиски, пишет интересно и свободно.

Урок тебе - не готов обсуждать другую точку зрения и аргументировать свою, не утруждайся срать в тред. Чмок в лобик.
Аноним 09/01/26 Птн 16:29:35 #350 №1484010 
>>1483637
Все плохо. Первая беда в пердольности - считай только линукс и все весьма сырое. Второе - основная кодовая база заточена под куду, наибольшей болью будут оптимизации атеншна и около того, в итоге формально модели запускать сможешь, но скорости будут ниже, а жор памяти выше.
>>1483695
> он не смог на питоне с первого раза вывести список чисел от 10 до 1000, сумма первых двух цифр которых равна 5
Скиллишью здесь. Модель небольшая и в первую очередь заточена на выполнение конкретных инструкций. Справиться и с кривой разметкой, и с корявыми промптами, и с надмозговым запросом, который сначала нужно расшифровать у нее сил не хватает.
Во втором же случае все изначально обустроено самым удачным образом, и модель не просто весьма умная, а буквально тренирована пытаться догадываться что юзверь хотел.
>>1483977
> где процентов 10 тегов
Какие еще теги, везде nl. И как раз условно "неверные" 10% - вообще не проблема, будет дополнительной аугментацией и легчайше отсеется.
Все проблемы начались когда даже имея приличные модели, кому-то показалось что больше = лучше, и не важно насколько уместно, неважно какой ценой.
>>1483990
Тут с этими самыми проблемами, которые начинаются, наоборот часто безуспешно борются, а у тебя наоборот плюсом стало.
Аноним 09/01/26 Птн 16:43:06 #351 №1484028 
>>1484010
>И как раз условно "неверные" 10% - вообще не проблема, будет дополнительной аугментацией
А нужна ли такая аугментация?
>кому-то показалось что больше = лучше
Так лучше же. Или что там увеличивают?
Аноним 09/01/26 Птн 16:48:09 #352 №1484038 
>>1483998
А чё ему ещё делать, если у тебя нет больше VRAM?
>>1484010
>Тут с этими самыми проблемами, которые начинаются, наоборот часто безуспешно борются
Я на линуксе буквально третий день сижу а локальными нейронками обмазываюсь второй месяц, модели которые целиком во VRAM влезают вместе с кэшэм работают на процентов 10-20% быстрее в линуксе, а которые впритык тупо шлют меня нахуй. В винде не нужно было просто слои дрочить и подбирать чтобы и контекст залез, и слои. Не нужно было все окна закрывать, скорость просто проседала и всё. Она сама плавно кидала нехватающее в ОЗУ. Или я чё-то не понимаю? У людей беда, что винда не слои, а кэш кидает в ОЗУ и жопа по скорости начинается или что? У меня все диалоги в районе 16к контекста были и модели на 12-14 миллиардов, хз чё там у буржуев с гиганскими моделями.
Аноним 09/01/26 Птн 16:59:22 #353 №1484057 
>>1484038
>А чё ему ещё делать, если у тебя нет больше VRAM?
Он про автоматическую выгрузку. Она руинит скорость в ноль, и нужна совсем бомжам с 4гб врам, чтобы игры не вылетали. Для ИИ настраивают нормальное разделение моделей в лламе.цпп, а не вот это всё.
Аноним 09/01/26 Птн 16:59:43 #354 №1484059 
>>1484028
> А нужна ли такая аугментация?
С определенного момента очень.
> Так лучше же.
Не лучше. Лучше когда для действительно детальной картинки есть очень подробное описание с настоящим содержимым. Например
> На бескрайнем полотне света, словно отражение мечты в стеклянной чаше, возникает женственная фигура, в которой синтезируется тончайшая грань между реальностью и потенциалом. Она — не просто существо, а символ архетипа, в котором скрыта пыльца времени и звёздная пыль вдохновения. Её тело, как будто вытянуто из нити, прозрачной, как дыхание утреннего тумана, излучает мягкое сияние, словно звезда, впервые родившаяся в пустоте. Каждая линия её формы — как грамматика чувства, написанная в небе, где каждый контур — это шепот небесной музыки. Голова, как кристалл, в котором отражается весь мир, украшена темными волосами, которые кажутся нитью, вытянутой из небесного шёпота, каждая из которых — как звук, который невозможно услышать, но ощущается в сердце.
Вместо
> фигура худой темноволосой девушки стоит на белом фоне
И помимо подробного нужны также варианты короткого и среднего, которые могут быть выбраны для тренировки с некоторой вероятностью.
>>1484038
> которые впритык тупо шлют меня нахуй
Выкинь часть слоев на профессор изначально, будет работать быстрее чем выгрузка драйвером.
> винда не слои, а кэш кидает в ОЗУ
Винда ничего не кидает, там драйвер по какому-то своему алгоритму оформляет свап врам в рам, это приводит к тормозам.
Аноним 09/01/26 Птн 17:00:49 #355 №1484062 
>>1484059
> Например
А не вытянутый из пальца нейромусор, который накидывают ради объема для пустой пикчи. Например

фикс
Аноним 09/01/26 Птн 17:31:19 #356 №1484100 
>>1483983
Не обязательно стол вырубать. На Шиндовс графическая оболочка больше Врама жрет, около 2 Гб. На Линуксе можно добиться значений 500-800 Мб с легковесными оболочками. А можно и стол вырубить. Не знаю, может на Свинде тоже можно. Ну и для АМД Линукс луше потому, что там ROCm работает получше.

>>1483990
Да, Винда тебя избавляет от проблем расчетов памяти и спасает от падения в случае ее переполнения. С Линуксом надо точнее самому считать, но по итогу производительность лучше, как ты и сам написал.

>надо 300гб врам? Да похуй, держи

Но есть нюанс. Память я дам, VRAM я не дам.
Аноним 09/01/26 Птн 17:39:02 #357 №1484111 
>>1484059
>С определенного момента очень.
А нафига? Я просто не очень много нейронки тренировал, и как по мне, запутывание сети идея плохая.
>Лучше когда для действительно детальной картинки есть очень подробное описание с настоящим содержимым.
А, согласен. Просто не так тебя понял вначале. Я думал ты про размеры сеток и картинок.
>И помимо подробного нужны также варианты короткого и среднего, которые могут быть выбраны для тренировки с некоторой вероятностью.
Как по мне, лучше сразу. Или как-нибудь комбинировать, ХЗ. Думать надо. А сейчас компании такие со словами "некогда думать, тут тренировать нужно!" кидают в нейросети тонны пизженного контента сомнительного качества.
>>1484062
О, так ещё понятнее (хотя получился противоположный вывод, лол). Полностью согласен.
>>1484100
>около 2 Гб
Лол, нет. 300 мегабайт после загрузки. Я под браузер гиг оставляю, проблем не видел.
Аноним 09/01/26 Птн 17:50:15 #358 №1484127 
>>1484111
> Как по мне, лучше сразу. Или как-нибудь комбинировать
Ну как раз выбирая каждый раз случайную вариацию капшна для изображения (да и изображение можно немного модифицировать при необходимости, при генерации пикч не сильно актуально, но в моделях зрения их только так шатают). Тогда оно сможет работать и с длинными и с короткими промптами. Дроп тегов или частей промпта вместе с перемешиванием где применимо необходимо чтобы модель не запоминала определенные их последовательности как триггер и не накапливала лишних байасов. А то буквально без "волшебного сочетания" будет работать сильно хуже (что и происходит), игнорировать некоторые части и т.п.
> получился противоположный вывод
Там строка была, смахнул случайно перед отправкой. Подробным пикчам - подробные описания и наоборот. И подробность должна быть настоящей, а не искусственной как в том гипертрофированном примере нейропомоев, которые часто можно видеть в качестве "примера хорошего".
Аноним 09/01/26 Птн 17:56:06 #359 №1484139 
>>1484127
>Ну как раз выбирая каждый раз случайную вариацию капшна для изображения
Как вариант. Но как будто бы нужно тренировать десяток раз для каждой пикчи. Как по мне, нужно разделить обучение рисованию и обучение текстовой части. Впрочем, я не силён в современных картиночных сетях.
>но в моделях зрения их только так шатают
Это да, видел, но там цель в том, чтобы модель распознавала любое говно.
>Дроп тегов или частей промпта вместе с перемешиванием где применимо необходимо чтобы модель не запоминала определенные их последовательности как триггер
А, помню пони 6 с её вызубренным score_9, score_8_up, score_7_up, лол.
Аноним 09/01/26 Птн 18:08:20 #360 №1484161 
>>1484139
> десяток раз для каждой пикчи
Если датасет мал то там, как правило, несколько эпох. Если он оче большой - то что для каждой пикчи не будут показаны все варианты - не страшно. Более того, в таком случае можно изначально сэкономить на сложных капшнах, подготовив их не для всего датасета.
> нужно разделить обучение рисованию и обучение текстовой части
Они и так разделены. Текст токенизируется, формируется в эмбеддинги и проходит через блоки трансформера, все также как в ллм, только в энкодере может быть полное внимание и не используется голова/проектор. А визуальная часть уже под полученный тензор кондишна подстраивается. В целом, когда все уже натренировано и работает, можно тренировать визуальную и текстовую часть совместно, но с рядом оговорок, потому что там легко получить коллапс.
> пони 6 с её вызубренным score_9, score_8_up, score_7_up
Идеальный пример. И ведь даже там если бы автор не поленился настроить должную аугментацию, изначальная задумка про "70% и выше" могла бы сработать. Не в оригинальном смысле, где подразумевалась шиза про "части датасетов", но некоторые усредненные свойства бы вызывались.
Аноним 09/01/26 Птн 18:44:55 #361 №1484212 
>>1484111
Так ты с подкачкой из ОЗУ сидишь, потому тебе и под брузер норм. Не обязательно 2 Гб всегда, но облочка Винды в среднем жирнее, чем мелкооболочки Линукс. Да и жрет память Винда не только графоболочкой. Плюс, в Линукс есть секретная фишка с памятью. В целом, дело вкуса, Винда неплохо справляется, но можно лучше, если охота предолиться.
Аноним 09/01/26 Птн 19:08:34 #362 №1484235 
>>1483689
>утка
Хэй, свистни в хуй там тоже дырка.
Звуки яростной игры на бояне.
Аноним 09/01/26 Птн 19:23:52 #363 №1484256 
>>1484212
> в Линукс есть секретная фишка с памятью
это какая?
>>1484235
крякни
Аноним 09/01/26 Птн 19:25:24 #364 №1484257 
>>1484161
>Если он оче большой - то что для каждой пикчи не будут показаны все варианты - не страшно.
Как по мне, проёб знаний. Ну и ты походу больше про файнтюн, а я про базу.
>А визуальная часть уже под полученный тензор кондишна подстраивается.
Я к тому, что картинку прогонять один раз, а кепшены во всех вариантах сразу.
>>1484212
>Так ты с подкачкой из ОЗУ сидишь
Нет, это гроб-гроб-кладбище, я бы заметил. Ну и по диспетчеру общая выделенная память меньше памяти ГПУ.
Аноним 09/01/26 Птн 20:09:07 #365 №1484316 
>>1484257
> проёб знаний
> а я про базу
В тех масштабах "потери" как таковыми потерями даже не являются на фоне прочей стохастики. Наоборот даже лучшего усвоения можно добиться.
> картинку прогонять один раз, а кепшены во всех вариантах сразу
Как ты себе это представляешь?
Аноним 09/01/26 Птн 20:12:06 #366 №1484325 
>>1484316
>Как ты себе это представляешь?
А хуй его знает. Заморозка части градиентов? Тут думать надо. Или не надо, всё равно на одной 5090 базовую рисовалку не обучить.
Аноним 09/01/26 Птн 20:44:45 #367 №1484345 
>>1484325
> Заморозка части градиентов?
Зачем? Всякими усреднениями занимается оптимайзер, и при должной настройке делает это успешно.
> на одной 5090 базовую рисовалку не обучить
Можно и на одной, просто будет долго https://huggingface.co/KBlueLeaf/HDM-xut-340M-anime качество в сделку не входило.
Аноним 09/01/26 Птн 21:28:38 #368 №1484375 
>>1484100
>Винда тебя избавляет от проблем расчетов памяти и спасает от падения в случае ее переполнения
Ну я понял в целом да. Это наверное суперважно, когда у тебя война за каждый токен на гигансткой модели, а не когда как я микрописьки 12-14б крутишь
Аноним 09/01/26 Птн 22:29:22 #369 №1484459 
>>1484345
>Всякими усреднениями занимается оптимайзер
Ну ХЗ, я бы не назвал промпт средней длины усреднением короткого и длинного промптов.
>>1484375
>война за каждый токен
>автовыгрузка в оперативку
На ноль делишь.
Аноним 09/01/26 Птн 23:10:57 #370 №1484554 
>>1484345
>https://huggingface.co/KBlueLeaf/HDM-xut-340M-anime
Прикольно, напоминает по качеству первый sd или слитую модельку NAI. Как это вообще запихали в 900мб?
Аноним 09/01/26 Птн 23:21:42 #371 №1484580 
>>1484459
> оптимайзер
> промпт средней длины
Значение знаешь?
>>1484554
Оно хуже. Тут интересен сам прецедент и демонстрация возможности.
Аноним 09/01/26 Птн 23:28:07 #372 №1484589 
image
image
image
image
>>1484580
>Оно хуже
Да как будто то же самое, местами даже лучше. Вот например пикчи из временной капсулы 2022 года.
Аноним 09/01/26 Птн 23:33:37 #373 №1484593 
>>1484589
Лисичка ничего, лол. Но действительно хуже, менее стабильно и функционально чем наи1 и первые вд (хотя там битва была равна). Скачай попробуй, штука занимательная потыкать.
Аноним 09/01/26 Птн 23:51:19 #374 №1484617 
>>1484580
>Значение знаешь?
Предполагаю.
Аноним 10/01/26 Суб 06:38:13 #375 №1484830 
>>1483448
>https://huggingface.co/CrucibleLab/M3.2-24B-Loki-V2
>ггуфов пока нет, какой-то новый мистралетюн (заметил случайно, драммер лойс поставил)
Как-будто пережарили, по первым впечатлениям, ощущается как 12b.
Хотя я предыдущие версии не проверял, может они все с такой ебанцой. Если что брал пресет со страницы модели. Q5_K_M
Аноним 10/01/26 Суб 08:13:21 #376 №1484845 
Pshh pshhh
Аноны что юзают 120OSS, вы уже мишку юзали?
Потому что я не могу для себя решить. Вин или нет.
Аноним 10/01/26 Суб 08:49:57 #377 №1484852 
изображение.png
>>1482449
отвечу сам себе.
Ministral3,14b instruct.
В трусы лезет. Насколько глубоко - проверять не хочется. Галлюцинирует, иногда забывает важные детали (возможно лечится промтом). Часто пишет чушь, путая одно с другим (возможно лечится подробными карточками). Русик есть, он не самый плохой, но лучше им напрямую не пользоваться, а транслейтить, хоть через тот же мэджик.
Карточки кстати читает хорошо. В отличие от Nemo 12b, прочитав карточку, пользуется ей, а не подтирается. Хотя может быть, это и минус, потому что воспринимает карточку как инструкцию.
Настройки сэмплеров от 12b не подходят, приходится микрить в поисках золотой середины между "скудно и однообразно" и "да что ты черт побери несешь".
Было бы круто заиметь какой-нибудь начитанный тюн с хорошим словарным запасом. Вроде бы пишет хорошо, иногда прям отлично, но как-то скупо. После какого-нибудь начитанного мержа с Немо прям грустно.
Аноним 10/01/26 Суб 08:55:17 #378 №1484858 
>>1481744
Это только сфв? Какой пресет/семплеры. Поделись, пожалуйста.
У меня путается в контексте и говорит от моего лица почти всегда. Хотя мистралю норм.
Аноним 10/01/26 Суб 09:33:12 #379 №1484872 
привет друзья, какие сейчас лучшие по вашему мнению gguf весом <11GB с квантами до fp8 ?

1. умные и корректные
2. нецензурные
3. русскоязычные
4. русскоязычные нецензурные
5. специальные, vlm, tts, stt, sd

Интересны именно gguf/llama.cpp или в крайнем случае safetensors под mlx
Такие ограничения потому что только 16ГБ унифицированной памяти из которых примерно 12GB доступно на всё вместе.
Аноним 10/01/26 Суб 10:14:40 #380 №1484888 
1000018550.jpg
Ебаный китайцы наймите уже переводчика
Нихуя не понятно релизнут тока глм имаге или глм имаге и еще что то
Аноним 10/01/26 Суб 11:43:43 #381 №1484926 
>>1484888
Написано де будет какая-то бесплатная модель и через API платная Image. Ты тупой?
Аноним 10/01/26 Суб 11:51:25 #382 №1484928 
>>1484872
>умные и корректные
Квен, гемма, но может что-то еще вышло и я пропустил
>нецензурные
мыстраль-12B
>русскоязычные
только гемма
>русскоязычные нецензурные
Такие есть, но они говно, уровень "я тебя ебу" с двумя-тремя прилагательными между
>специальные, vlm, tts, stt, sd
Не знаю, не пользовался
Аноним 10/01/26 Суб 11:59:22 #383 №1484932 
>>1484926
Написано лишь что добавят пейпал тем кто хочет запускать через api
Может она будет и локально и api, слишком сложно для тебя, я знаю
Аноним 10/01/26 Суб 12:05:56 #384 №1484939 
>>1484852
раскочегарил-таки менестреля.
Работает вполне сносно, на удивление не глуп, если давать внятные инструкции. Склоняюсь к UD-версии, она кажется получше обычной. Жаль стоковый русик посредственный, а мэджик подтупливает иногда, хоть свой плагин пиши который будет адекватно транслейтить мой запрос для сетки, и сеточный ответ - для меня.
Впрочем, это мелочи.
Аноним 10/01/26 Суб 13:41:41 #385 №1484992 
Решил скачать Dolphin Llama 3 по гайду с ютуба, там сказали в качестве лаунчера использовать AnythingLLM. Какие подводные?
Аноним 10/01/26 Суб 13:52:42 #386 №1484999 
Жора блять :j
Ну не 4 же токена, ну спизди ты один, не жалко, какие 4 из 9 нахуй.
Аноним 10/01/26 Суб 14:11:09 #387 №1485011 
>>1484992
пчел...
гайды с гитхаба устарели на неделю, гайды из треда устарели на месяц, гайды с ютуба устарели на год
Аноним 10/01/26 Суб 14:14:17 #388 №1485013 
>>1485011
Чем устарели? Я заметил, что ответы короткие, но и у меня не суперкомпьютер все таки.
Аноним 10/01/26 Суб 14:16:12 #389 №1485014 
>>1484992
>Какие подводные?
Подводные в чем? Будет ли оно работать? Будет. Но модель уже древняя, есть варианты куда лучше. Плюс выбор лаунчера сомнительный, но зависит от твоих задач - пока их не перечислишь, точнее никто не ответит.
Аноним 10/01/26 Суб 14:18:54 #390 №1485018 
>>1485013
Ты говно мамонта палкой ковыряешь
Аноним 10/01/26 Суб 14:21:45 #391 №1485021 
Как же у меня жопа горит.
Я старательно игнорирую персонажа, избегаю его, а ебаный попугай, пол года до аги, блять, не может сложить 2 и 2 и высрать драмму где это персонаж подходит и говорит хотя бы "Ой, ты меня избегаешь?", желательно не виляя бёдрами и шепча на ушко при этом.
Неет, нужно чтобы я сам это написал, буквально дал команду сделать вот так
Аноним 10/01/26 Суб 14:23:39 #392 №1485023 
>>1485013
Ну как тебе сказать... Ты пытаешься играть в гта вайс сити, когда актуальная - пятёрка. Пропасть в графоне/физоне имаджинировал? Вот между древней моделью и новой - разница будет такой же.

Пиши характеристики своей пекарни и какие задачи - подберем годноту тебе.
Аноним 10/01/26 Суб 14:25:27 #393 №1485026 
>>1485021
Скиллишью
Аноним 10/01/26 Суб 14:28:05 #394 №1485027 
>>1485014
>>1485023
У меня 2 ядра 2 гига игровой ноут с 16гб рам и ай5-1235 и встройкой, поэтому я решил даже не пытаться что-то актуальное ставить.
Аноним 10/01/26 Суб 14:30:43 #395 №1485029 
>>1485027
>я решил даже не пытаться что-то актуальное ставить
Нет никакой разницы в требованиях между моделями которые весят примерно одинаково. Тебе главное загрузить их в память, остальное уже тонкости. Если загрузишь - значит заработает. Для чего тебе вообще нужна модель? Так и не ответил.
Аноним 10/01/26 Суб 14:33:56 #396 №1485032 
>>1485029
>Для чего тебе вообще нужна модель
В первую очередь иметь возможность спрашивать всякое, что онлайн сетки цензурят. Еще хотел бы попробовать поиграть в нейроквесты, но это не основное.
Аноним 10/01/26 Суб 14:36:53 #397 №1485033 
vid.mp4
>>1485021
Каждый твой пост подобен видрилу.
Клован, месяцы идут-идут, а ты так ничему и не научился. Только в тред семенишь.
Аноним 10/01/26 Суб 14:38:54 #398 №1485034 
>>1485032
>спрашивать всякое, что онлайн сетки цензурят
Конкретику давай. Корпоратки цензурят много чего, от порнухи до политики. Если порнуха не нужна, но нужна мощная для своего размера сеть - есть всякие геммы, квены и дистиллянты дипсика. Если хочешь дрочить на нейрослоп, то тюны ламы третей и мистрали немо твои друзья. Они тупые, особенно под точные задачи, но цензуры там нет. Даже на дефолтных инструкт-версиях ее почти незаметно.
Аноним 10/01/26 Суб 14:41:19 #399 №1485035 
>>1485027
Было бы 32гига рама - 30a3 лучшее из того что влезло и имело бы приемлемую скорость.
Чекай https://rentry.co/z4nr8ztd из шапки потенциально влезут до 12б но будет небыстро, обычно у любой врам больше чем у тебя рам.
Аноним 10/01/26 Суб 14:43:44 #400 №1485038 
>>1485034
>порнуха не нужна
Порнуха не нужна.
>всякие геммы, квены и дистиллянты дипсика
И что из этого лучшее? Спасибо.
>ламы третей
Так я ее же и скачал.
Аноним 10/01/26 Суб 14:46:27 #401 №1485041 
>>1485027
Если модель новее - это не значит что она требует больше ресурсов.

Под твой конфиг будет норм: https://huggingface.co/unsloth/gemma-3-12b-it-GGUF Эта модель самая умная в своём размере и отлично пишет на русском.

А если нужно СОВСЕМ без цензуры, вот: https://huggingface.co/mlabonne/gemma-3-12b-it-abliterated-GGUF Учти, что здесь отказы убраны ценой некоторого повреждения мозгов.

Качай в 4 кванте. Подойдет любой, начиная от Q4_K_M до Q4_K_XL. Запускай через https://github.com/LostRuins/koboldcpp - он актуален и очень дружелюбен к новичкам.

А вообще тебе бы чуть больше оперативки - со свистом залетел бы квен 30b-a3b, он был бы и умным и быстрым, но увы.
Аноним 10/01/26 Суб 14:48:20 #402 №1485044 
>>1485035
>>1485041
Спасибо большое, аноны, пойду чекать.
Аноним 10/01/26 Суб 14:51:59 #403 №1485045 
>>1485038
>И что из этого лучшее?
Попробуй гемму, если не собираешься дрочить на буковы. Либо 12B либо 3n-E4B, она весит меньше, работать будет чуть быстрее, а по мозгам чуть хуже.
>Так я ее же и скачал.
Ты написал, что тебе не нужна порнуха. Эта модель и ее тюны исключительно под порнуху, потому что сейчас она уже не выдерживает конкуренции.
Аноним 10/01/26 Суб 14:59:02 #404 №1485050 
186 дней без глм эир 4.6
Аноним 10/01/26 Суб 14:59:58 #405 №1485052 
да чел походу стесняется написать что ему на детей дрочить надо.

>>1485038
не стесняйся, тут каждый третий ради этого локалки гоняет
Аноним 10/01/26 Суб 15:02:48 #406 №1485053 
>>1485052
>чел походу стесняется написать что ему на детей дрочить надо
Ну ты тоже давай да правильные термины используй. Никаких детей, только канни.
Аноним 10/01/26 Суб 15:32:17 #407 №1485083 
>>1485041
спасибо еще раз, анон, все работает и гораздо лучше
Аноним 10/01/26 Суб 15:35:27 #408 №1485087 
17680450136020.mp4
>>1485050
Аноним 10/01/26 Суб 16:09:08 #409 №1485141 
>>1485087
Почти 200, нахуй, дней, осознай эту цифру.
Щас месяцок и будет ещё веселее, дропнут глм 5... без эира
Аноним 10/01/26 Суб 16:11:14 #410 №1485146 
Им нужно что то придумывать уже, это не дело.
Надо как в играх чтобы ты мог и на слабой карточке запустить, но на минималках, а чтобы вообще не мог это не дело
Аноним 10/01/26 Суб 16:13:31 #411 №1485152 
>>1485141
Да мне похуй, хоть завтра ллмки умрут, мне Эира хватит если не до конца жизни то очень надолго. Почти каждый день его уже почти 200 дней запускаю и не заебался. Как думаешь в чем секрет?
Аноним 10/01/26 Суб 16:15:22 #412 №1485155 
>>1485146
Так уже же есть квантование, только вместо графических шакалов смысловые
Аноним 10/01/26 Суб 16:17:51 #413 №1485159 
>>1485152
>Как думаешь в чем секрет?
В том что у тебя есть пресетик, которым ты не поделишься?
Аноним 10/01/26 Суб 16:19:03 #414 №1485161 
>>1485152
В копиуме?
Пока все играются с новой моделькой, ты сидишь в углу и коупишь как же мне хорошо с самой первой, экспериментальной сырой младшей версией этой модельки.
Я согласен что эир можно гонять долго... Например 186 дней?
Мне кажется хватит, заебало, хочется обновы
Аноним 10/01/26 Суб 16:20:05 #415 №1485162 
>>1485146
>чтобы вообще не мог это не дело
Ты удивишься, но ты можешь. Даже если у тебя нет карточки и не хватает оперативы - есть файл подкачки. Так что да, если у тебя пустой диск на террабайт, ты можешь запустить модель на террабайт. Какая скорость там будет? Ну это уже не важно. Запускается же? Запускается.
Аноним 10/01/26 Суб 16:20:19 #416 №1485163 
Аноны, а можете подсказать ботов для игры в Д&Д для того же кобольда? В другом треде какие-то ебанутые сидят.
Аноним 10/01/26 Суб 16:21:20 #417 №1485165 
>>1485159
У меня их больше десяти на разные случаи жизни, на один только Эир. И 46 карточек, чаров, сценариев, симуляцией и много чего ещё. Таким как ты нихуя не поможет, вам даже дипсик в полных весах за пару месяцев надоест, пушто воображалка не работает и нужно развлечение по типу ящика Скиннера. И да, ясен хуй я ничем делиться не буду, опытом нюни учёный.
Аноним 10/01/26 Суб 16:24:06 #418 №1485168 
>>1485165
Нюня уже всем поделился, ты опоздал.
Чатмл, короткий промпт и карточка тупа текстом
Аноним 10/01/26 Суб 16:25:10 #419 №1485170 
>>1485163
>В другом треде какие-то ебанутые сидят.
Тут тоже ебанутые, только в другую сторону. D&D с ЛЛМками играть можно только сквозь пот, кровь и такие компромиссы, которые убивают идентичность настолок

>>1485165
>вам даже дипсик в полных весах за пару месяцев надоест, пушто воображалка не работает и нужно развлечение по типу ящика Скиннера
База
>ясен хуй я ничем делиться не буду
База. Если делиться такие вот долбаебы и будут вылезать, которые ждут что за них все сделают
Аноним 10/01/26 Суб 16:25:14 #420 №1485171 
>>1485163
На чубах лежат кучи ботов, в шапке есть ссылка. Асигеры в своем пердеже варятся уже не первый год, спрашивать их нет смысла.
Аноним 10/01/26 Суб 16:25:19 #421 №1485172 
>>1485165
нюнезаменитель идентичный натуральному
Аноним 10/01/26 Суб 16:27:20 #422 №1485176 
>>1485172
Умные учатся на опыте других, глупые наступают в мышеловку, изобретенную веками назад. Нюня базовичок, умные треда сего его поняли и отмалчиваются, а попрошайки неосиляторы вроде тебя так и ноют спустя недели после его отвала.
Аноним 10/01/26 Суб 16:29:27 #423 №1485179 
>>1485170
>D&D с ЛЛМками играть можно только сквозь пот, кровь и такие компромиссы, которые убивают идентичность настолок
Почему?
Аноним 10/01/26 Суб 16:30:34 #424 №1485182 
>>1485165
И в чем тогда цель твоего поста? Выебнуться какой ты прошаренный? На анонимной борде? Лолд.

С какими же шизами сижу, хоспаде
Аноним 10/01/26 Суб 16:31:11 #425 №1485185 
>>1485179
Они неспособны досконально следовать правилам D&D. ЛЛМ - это продолжалки текстов, статистические машины. В правилах любой редакции дынды настолько много нюансов, что, возможно, следовать им смогут только самые жирненькие модели и только при загруженном через RAG полном рулбуке, что сожрет немало контекста. На локалках я не уверен что вообще есть хоть один чел в треде, которому железо это позволит.
Аноним 10/01/26 Суб 16:31:31 #426 №1485186 
>>1485152
>мне Эира хватит если не до конца жизни то очень надолго
>почти 200 дней запускаю и не заебался
Позер-показушник, я уже второй год сижу на мелкой немотроновй мистрали и не заебался. Вероятнее всего отупел, проебал килошку собственных нейронов, но не заебался.
Аноним 10/01/26 Суб 16:32:27 #427 №1485190 
>>1485182
>И в чем тогда цель твоего поста? Выебнуться какой ты прошаренный?
Ну во первых да, позлорадствовать над теми кто не хочет задействовать даже 1% своего мозга, чтобы им самим стало интересно пользоваться инструментами что им доступны. Во вторых указать им на их проблему, вдруг среди ста болванов найдется один способный к мышлению и что-то поймет.
Аноним 10/01/26 Суб 16:33:20 #428 №1485192 
>>1485146
Кому им? Кому нужно? Если тебе нужно - плати денежку за апи и "запускай" хоть на калькуляторе, сбор информации и eula в подарок.
>>1485152
> в чем секрет
Приспособился играть с этой моделью, обыгрывая сильные и обходя слабые стороны. Ну или играешь несложное что и просто так тянет. Моделька то не самая плохая, по первым ощущениям минимакс похуже будет.
>>1485165
> 46 карточек, чаров, сценариев
Поделись, не жадничай. Хочется каких-нибудь адвенчуров и депрессивных сеттингов.
во налетели то коршуны, не удивлюсь если 1.5 семена
> ясен хуй я ничем делиться не буду
А, ну хер тебе в рыло сраный урод тогда.
Аноним 10/01/26 Суб 16:35:32 #429 №1485195 
>>1485192
>Приспособился играть с этой моделью, обыгрывая сильные и обходя слабые стороны.
Вот ты понял, ты молодец.
>Поделись, не жадничай.
>А, ну хер тебе в рыло сраный урод тогда.
Не обижайся. Ты понимаешь суть и рано или поздно когда будет вдохновение, сам себе напишешь хорошую карточку и все у тебя будет замечательно. Делиться не буду из принципа из-за уебанов попрошаек шитпостеров, которых давно надо бойкотировать всем тредом.
Аноним 10/01/26 Суб 16:38:55 #430 №1485200 
1000012784.png
>>1485192
> Приспособился играть с этой моделью, обыгрывая сильные и обходя слабые стороны. Ну или играешь несложное что и просто так тянет. Моделька то не самая плохая, по первым ощущениям минимакс похуже будет.
> > ясен хуй я ничем делиться не буду
> А, ну хер тебе в рыло сраный урод тогда.
Твоя очередь, кидай пресет
Аноним 10/01/26 Суб 16:39:22 #431 №1485202 
Посоны, хочу поэкспериментировать с вайбкодингом. Хочется чтобы моделька умела в инструменты - написал промт и пусть она там сама, условно, неделю чего-нибудь делает: пишет код, тесты, запускает их, исправляет, дропает продовую бд. Есть ли возможность запустить какую-нибудь модельку на 16 гигах оперативы без видяхи, проц AMD Ryzen 7 5800U.
Аноним 10/01/26 Суб 16:40:03 #432 №1485204 
>>1485195
> сам себе напишешь
Не, слишком лень, это прям особый вид вдохновения нужен. Более вероятность что запилю агентную систему, которая по опросу сочинит карточку. Или скорее полазию на уборщике/чубе по любимым тегам и перепишу что покажется уместным, или as is.
> Делиться не буду из принципа из-за уебанов попрошаек шитпостеров
Карточками? Сейчас бы заставлять каким-то поехавшим влиять на тебя, вместо глумления уже с них или какой-нибудь конфронтации, такое.
>>1485200
ChatML, Names: Never, Roleplay-simple.
Аноним 10/01/26 Суб 16:41:04 #433 №1485206 
image
>>1485195
Так такие как ты - и есть рак этого треда. Кто не приносит ничего полезного, не развивает интересных дискуссий, а только петушится.
Аноним 10/01/26 Суб 16:42:18 #434 №1485207 
>>1485190
>во первых...
>во вторых...
Ну или ты просто чушка, которая себе оправдания на ходу придумывает. Пришел, попиздел снисходительно, и ушел обратно, ждать момента когда можно будет снова повыебываться. Уверен, ты никаких полотен с арксива и прочих помоек не читал, а смотрел уже на готовые пресеты и инструкции, переписывая их под себя. Но мозгов у тебя всё равно не хватает понять, что если бы у всех было такое отношение, ты бы щас дрочил в кулачок на дефолтных шалаф с онлика, а не нейронки гонял.
Аноним 10/01/26 Суб 16:42:55 #435 №1485209 
>>1485204
Это не пресет, врунишка.
Аноним 10/01/26 Суб 16:46:43 #436 №1485214 
cat-feeder-meme.png
>>1485206
> ты - и есть рак этого треда
> Кто не приносит ничего полезного, не развивает интересных дискуссий
А что, ты играешь в неймфажество и записываешь меня в кого-то? Я в свое время много чего приносил в тред, несколькими месяцами ранее. Потом понял что это никому нахуй не надо, умные люди и так разберутся а обрыганы будут обрыганами и дальше.
>>1485207
> Ну или ты просто чушка
Ору как трясет итт макак когда им нос утирают в их собственной беспомощности и нежелании хоть что-нибудь делать самому, а не ждать пока корм из кормушки на голову свалится. Усмевался над вами, усмехаюсь и буду дальше усмехаться.
Аноним 10/01/26 Суб 16:47:06 #437 №1485215 
>>1485209
Из стандартных в таверне, я за минимализм, разве что написать что все допустимо и добавить разметку маркдауном для разделения сценария, карточки, персоналити, истории и отдельно суммарайза. И все равно на эйре не рпшу.
Аноним 10/01/26 Суб 16:51:04 #438 №1485219 
>>1485214
>Потом понял что это никому нахуй не надо
Как ты это понял?
Аноним 10/01/26 Суб 16:51:51 #439 №1485220 
>>1485214
>Ору как трясет итт макак когда им нос утирают в их собственной беспомощности
Не записывай других в трясунчики, трясунчик. Мне похуй на твои пресеты, просто ты чухан и пройти мимо тебя это оскорбление самого господа.
>нежелании хоть что-нибудь делать самому
Ты дохуя что-ли сам че-то сделал, лол? Пресетик написал? Маме похвастался уже, что заставил модельку про писик и сисик писать?
Аноним 10/01/26 Суб 16:55:30 #440 №1485223 
>>1485214
>Я в свое время много чего приносил в тред
Я тоже, и большинству это было действительно не нужно. А кому нужно - взяли на заметку и пользуются. И я тоже пользуюсь некоторыми наработками других анонов.

Ты тут ПРИЗНАНИЯ своих заслуг ждешь? Чтоб тебе диферамбы пели? Повзрослей, пожалуйста, пчел.
Аноним 10/01/26 Суб 16:55:53 #441 №1485225 
>>1485219
>Как ты это понял?
Легко и просто. Реально интересные пасты и шеры в треде редко генерируют здоровую дискуссию, в основном если это и происходит то по железкам, скоростям и инференсу, пожалуй это единственное продуктивное что в треде живет по сей день. В основном чем ни делятся все сводится к генерацию срачей и метанию горящего говна друг в друга, вот можешь посмотреть на товарища ниже >>1485220 с его
> Ты дохуя что-ли сам че-то сделал, лол? Пресетик написал? Маме похвастался уже, что заставил модельку про писик и сисик писать?
Вот такого в треде навалом, таким срать проще простого. Ну и всю ветку можно чекнуть, всего лишь предложение поиграться с промтом и реально раскрыть доступную им модель заагрило макак и они пошли в бой.
Аноним 10/01/26 Суб 16:56:53 #442 №1485228 
image.png
image.png
Какое пресетовая война это уже по счёту?
Вот мой пресет на эир, можете скинуть свой, а можете не скинуть.
Аноним 10/01/26 Суб 17:03:28 #443 №1485233 
image
>>1485214
>Ору как трясет итт макак
Трясунчик уже орёт из-за простого вопроса. Зачем вы так с ним, аноны? Самых лучших людей засираете, как обычно.
Аноним 10/01/26 Суб 17:06:39 #444 №1485239 
Единственная здравая причина гейткипить что-либо - это личная выгода, например от этого зависит твой заработок.
Всё остальное - ресентимент, обида, злость, чувство величия, называйте как хотите, и спорить тут не о чем
Аноним 10/01/26 Суб 17:20:56 #445 №1485250 
image.png
>>1485165
Очень показательно как срезонировал твой пост и сгенерил срач. Колко, едко, но все по факту. От того и затряслись жопы, что все они подсознательно понимают. Пока одни сидят, ждут своего Моисея, другие кайфуют от крутых моделей, потому что готовы немного работать на свою радость, а не ждать решения.
Аноним 10/01/26 Суб 17:21:57 #446 №1485251 
>>1485250
Да съеби уже обтекать, трясло.
Аноним 10/01/26 Суб 17:24:17 #447 №1485253 
>>1485228
> top_k 0
это значит бесконечное количество токенов или максимум 1 токен?
> temp 1
> top_p 1
чому так? это разве не убивает креативность?
Аноним 10/01/26 Суб 17:27:20 #448 №1485254 
>>1485251
Я мимо, но съебу, ты только не трясись. К следующему перекату подготовь список тем и способов их изложения, одобренный вахтой, чтобы такого не возникало впредь.
>>1485253
Temp 1 - дефолт для креативных моделей, topk 0 и topp 1 не работают при таких значениях.
Аноним 10/01/26 Суб 17:31:24 #449 №1485259 
>>1485254
А что сиквенс брейкерс делают?
Аноним 10/01/26 Суб 17:32:26 #450 №1485260 
>>1485259
Нужны для семплера dry, не используются, если не используется он. Это набор исключений, чтобы по ним (например по разметке) не работал семплер.
Аноним 10/01/26 Суб 17:35:03 #451 №1485263 
>>1485190
>вдруг среди ста болванов найдется один способный к мышлению и что-то поймет
Я понял, что ты долбоёб, а твои посты нужно сносить за неимением в них полезной информации.
>>1485195
>шитпостеров
Но ведь это буквально ты.
>>1485225
>в основном если это и происходит то по железкам, скоростям и инференсу
Потому что это объективные показатели. Поэтому и можно дискутировать с пруфами. А вывод моделей обсуждать смысла нет, для каждого он индивидуален.
>>1485239
Карточки некоторых персонажей нарушают пару законов РФ, поэтому на мылач их выкладывать не стоит.
Аноним 10/01/26 Суб 17:35:25 #452 №1485264 
>>1485250
>потому что готовы немного работать на свою радость, а не ждать решения
Тут все, кроме совсем зеленых, пишут карты, инструкции и пресеты целиком под себя. Нет никакой отдельной прослойки вахтеров, которые мониторят треды 24 на 7 в поисках заветного файлика. Она существует только в голове шизов, которые пытаются найти хотя бы какой-то повод чтобы повыебываться, типа "смотрите, а я вот сам написал, правда-правда" словно перед матерью хвастаясь, что впервые посрали ровно в горшок, а не мимо на половицу.

Банально есть аноны которые мигрируют с одной модели на другую и просят показать примеры промтов или настроек, чтобы снова не ебаться несколько дней, подбирая более-менее оптимальные. Но в головах шизиков они да, не хотят "работать на свою радость"

>>1485254
>Temp 1 - дефолт для креативных моделей
Нет, не дефолт. Есть куча моделей, которые уже начинают дуреть при таких настройках и это касается не только васянских тюнов.
Аноним 10/01/26 Суб 17:39:58 #453 №1485267 
>>1485263
> Карточки некоторых персонажей нарушают пару законов РФ, поэтому на мылач их выкладывать не стоит.

да просто напиши что она только выглядит на 8 лет, а на самом деле это 300летняя колдунья
Аноним 10/01/26 Суб 17:40:32 #454 №1485268 
Ребята, а сильно квантование контекста в q8 влияет на РП?
Вот допустим возьмем Мистраль 24б Q4 без квантования контекста и Q5 с квантованием, объем контекста при этом одинаковый (пускай 40 или 57к). Будет ли разница хоть какая-то заметная по интеллекту и удержанию контекста моделью?
Аноним 10/01/26 Суб 17:43:13 #455 №1485274 
>>1485041
квен 30b-a3b

есть у этой штуки какие-то популярные куминг-рп анценсоред миксы?
Аноним 10/01/26 Суб 17:43:41 #456 №1485275 
>>1485268
А тут уже как карта ляжет. 40к контекста это уже много, и не факт что даже без квантования модель все вспомнит и учтет в ответе.
Аноним 10/01/26 Суб 17:43:52 #457 №1485276 
>>1485268
>сильно квантование контекста в q8 влияет на РП
Выше шанс что модель проебет или перепутает то что происходило ранее.
>пускай 40 или 57к
Для мистралей это вообще пиздец, они столько контекста не держат. Там и без квантования уже каша начинается.
Аноним 10/01/26 Суб 17:45:06 #458 №1485277 
>>1485264
>Есть куча моделей, которые уже начинают дуреть при таких настройках и это касается не только васянских тюнов.
Куча (целый Квен)

Всегда было так, что 1 - стандартное значение, которое при необходимости понижается, что гораздо более редкий случай. Выебнулся чтобы выебнуться?
Аноним 10/01/26 Суб 17:47:50 #459 №1485282 
>>1485277
>Всегда было так, что 1 - стандартное значение
Где всегда так было? В твоей голове? Кроме квена еще есть мистрали, гемма, даже лама. Они креативно пишут при значениях и меньше единицы, снижая к тому же и шанс галлюцинаций.
Аноним 10/01/26 Суб 17:49:14 #460 №1485283 
>>1485282
Ну в общем предлагаю тебе хуй пососать, че с тобой общаться.
Аноним 10/01/26 Суб 17:51:35 #461 №1485285 
>>1485275
>>1485276
Вот что интересно: сама модель, квантованная в q8 - считается здесь чуть ли не эталоном качества (при том что большинство сидят на q4-q6). Но когда речь заходит о контексте - так сразу ФУ. По этой логике контекст в q8 должен быть неотличим от неквантованного.
Аноним 10/01/26 Суб 17:54:26 #462 №1485289 
>>1485283
Вот такие люди еще и советы раздают, лол. Сами какую-то хуйню выдумали, поверили в нее, а потом пошли по треду разносить.

>>1485285
>когда речь заходит о контексте - так сразу ФУ
Потому что уже методом тыка давно выяснили, что квантование контекста до 8 бит ломает вывод кратно сильнее, чем квантование самой модели до той же точности.
Аноним 10/01/26 Суб 18:00:17 #463 №1485298 
>>1484858
Бамп.
Аноним 10/01/26 Суб 18:05:08 #464 №1485301 
17575690304760.mp4
>>1485289
>методом тыка
>чем квантование самой модели до той же точности
>имплаинг кто-то запускал оригинальные веса
Аноним 10/01/26 Суб 18:06:57 #465 №1485302 
>>1485301
Ты не понимаешь. Там вот такие вот люди советы раздают, а тут он. Его правду принимаем сразу же.
Аноним 10/01/26 Суб 18:09:46 #466 №1485304 
Какого мнение треда по ГЛМ 4.7? Два месяца в тред не заходил и походу это единственная новинка.
Аноним 10/01/26 Суб 18:12:28 #467 №1485306 
>>1485267
Это тоже запрещено. И наоборот, одеть бабушку в школьную форму- это тоже ЦП. Так что зажимают со всех сторон.
>>1485277
>1 - стандартное значение
Для креатива. В программировании это 0,3.
>>1485285
Потому что модель квантуют с матрицами влажности и прочей хуетой, а контекст втупую обрезают биты.
Аноним 10/01/26 Суб 18:12:48 #468 №1485307 
>>1485304
Говно.
Ни у кого тут нет рам чтобы запустить её в норм кванте
2 квантовых не слушай, они шизики
Аноним 10/01/26 Суб 18:13:12 #469 №1485308 
>>1485301
Да, кто-то запускал оригинальные веса. Ты тоже можешь попробовать. Взять какую-нибудь небольшую гемму, запустить в оригинальных весах, потом в обрезанных, а потом сравнить качество ответов. Ну а потом заквантовать контекст и сравнить уже его. Уверен, ты именно это и сделаешь и докажешь нам, что мы не правы.
Аноним 10/01/26 Суб 18:15:21 #470 №1485309 
>>1485307
Норм квант это по твоему сколько?
Аноним 10/01/26 Суб 18:16:49 #471 №1485312 
>>1485309
5 минимум
Аноним 10/01/26 Суб 18:18:36 #472 №1485315 
image
image
>>1485277
>Всегда было так, что 1 - стандартное значение
Стандартное (а точнее рекомендованное разработчиком) значение в 1 - это только для Геммы. Для Квена, например, рекомендуется 0,7, а для Мистраля - вообще 0.15.

Если модель МОЖЕТ писать с температурой 1, это ещё не значит что такое значение ОПТИМАЛЬНОЕ или СТАНДАРТНОЕ.

Скрины отсюда:
https://huggingface.co/Qwen/Qwen3-30B-A3B-Instruct-2507
https://huggingface.co/mistralai/Mistral-Small-3.2-24B-Instruct-2506
Аноним 10/01/26 Суб 18:18:37 #473 №1485316 
>>1485309
Абсолютный минимум - это Q4 или 4.5bpw, все что ниже - очень сильно проседает, гораздо больше чем с 8bpw до 4.5. Лучше Q6 или 6bpw, дальше избыточно, ток если железо позволяет, но зачем
Аноним 10/01/26 Суб 18:26:34 #474 №1485327 
Как же он пиарит p40
https://www.youtube.com/watch?v=kiTqXT1LE9Y
И ллм у него и SD и обучение на п40. Ну всем хороша.

Короче, пацаны, время сливать лежащие на полках p40
Аноним 10/01/26 Суб 18:35:18 #475 №1485344 
>>1485316
Коупинг того, кто даже в 2 кванте запустить не может.
Как тот кто пересел с 2 кванта квена на 4 после апргрейда могу с уверенностью сказать - умнее оно конечно стало, но апгрейда не стоило. Апгрейда стоила возможность запускать глм в 2 кванте.
Аноним 10/01/26 Суб 18:40:59 #476 №1485356 
>>1485344
Как тот кто сидит на 5 кванте эира я в жизни на квен не пересяду, особенно на 2 квант
ПЕРЕКАТ Аноним OP 10/01/26 Суб 18:54:17 #477 №1485381 
Вниманиеблядство, нюнепоиски, разборки, у кого пресет длиннее, оставляем в этом треде.

ПЕРЕКАТ

>>1485378 (OP)

ПЕРЕКАТ

>>1485378 (OP)

ПЕРЕКАТ

>>1485378 (OP)
Аноним 10/01/26 Суб 18:54:18 #478 №1485382 
https://www.reddit.com/r/LocalLLaMA/comments/1q97081/quantized_kv_cache/ признавайтесь, кто из вас
Аноним 10/01/26 Суб 18:56:44 #479 №1485394 
>>1485307
>>1485312
>>1485316
базашизы, спок
comments powered by Disqus