Прошлые домены не функционирует! Используйте адрес ARHIVACH.VC.
24 декабря 2023 г. Архивач восстановлен после серьёзной аварии. К сожалению, значительная часть сохранённых изображений и видео была потеряна. Подробности случившегося. Мы призываем всех неравнодушных помочь нам с восстановлением утраченного контента!

Локальные языковые модели (LLM): LLaMA, Gemma, DeepSeek и прочие №142 /llama/

 Аноним 26/06/25 Чтв 17:34:35 #1 №1257129 
Llama 1.png
Эффективность квантования EXL3.png
Реальная длина контекста у моделей 2.png
80 гигов врама (почти).png
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!

Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна.

Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.

Официальная вики треда с гайдами по запуску и базовой информацией: https://2ch-ai.gitgud.site/wiki/llama/

Инструменты для запуска на десктопах:
• Самый простой в использовании и установке форк llamacpp, позволяющий гонять GGML и GGUF форматы: https://github.com/LostRuins/koboldcpp
• Более функциональный и универсальный интерфейс для работы с остальными форматами: https://github.com/oobabooga/text-generation-webui
• Заточенный под ExllamaV2 (а в будущем и под v3) и в консоли: https://github.com/theroyallab/tabbyAPI
• Однокнопочные инструменты с ограниченными возможностями для настройки: https://github.com/ollama/ollama, https://lmstudio.ai
• Универсальный фронтенд, поддерживающий сопряжение с koboldcpp и text-generation-webui: https://github.com/SillyTavern/SillyTavern
• Альтернативный фронт: https://github.com/kwaroran/RisuAI

Инструменты для запуска на мобилках:
• Интерфейс для локального запуска моделей под андроид с llamacpp под капотом: https://github.com/Mobile-Artificial-Intelligence/maid
• Альтернативный вариант для локального запуска под андроид (фронтенд и бекенд сепарированы): https://github.com/Vali-98/ChatterUI
• Гайд по установке SillyTavern на ведроид через Termux: https://rentry.co/STAI-Termux

Модели и всё что их касается:
• Актуальный список моделей с отзывами от тредовичков: https://rentry.co/v6fpodzg (версия 2024-го https://rentry.co/llm-models )
• Неактуальный список моделей по состоянию на середину 2023-го: https://rentry.co/lmg_models
• Миксы от тредовичков с уклоном в русский РП: https://huggingface.co/Aleteian и https://huggingface.co/Moraliane
• Рейтинг моделей по уровню их закошмаренности цензурой: https://huggingface.co/spaces/DontPlanToEnd/UGI-Leaderboard
• Сравнение моделей по сомнительным метрикам: https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard
• Сравнение моделей реальными пользователями по чуть менее сомнительным метрикам: https://chat.lmsys.org/?leaderboard

Дополнительные ссылки:
• Готовые карточки персонажей для ролплея в таверне: https://www.characterhub.org
• Перевод нейронками для таверны: https://rentry.co/magic-translation
• Пресеты под локальный ролплей в различных форматах: https://huggingface.co/Virt-io/SillyTavern-Presets
• Шапка почившего треда PygmalionAI с некоторой интересной информацией: https://rentry.co/2ch-pygma-thread
• Официальная вики koboldcpp с руководством по более тонкой настройке: https://github.com/LostRuins/koboldcpp/wiki
• Официальный гайд по сопряжению бекендов с таверной: https://docs.sillytavern.app/usage/how-to-use-a-self-hosted-model/
• Последний известный колаб для обладателей отсутствия любых возможностей запустить локально: https://colab.research.google.com/drive/11U-bC6AxdmMhd3PF9vWZpLdi6LdfnBQ8?usp=sharing
• Инструкции для запуска базы при помощи Docker Compose: https://rentry.co/oddx5sgq https://rentry.co/7kp5avrk
• Пошаговое мышление от тредовичка для таверны: https://github.com/cierru/st-stepped-thinking
• Потрогать, как работают семплеры: https://artefact2.github.io/llm-sampling/
• Выгрузка избранных тензоров, позволяет ускорить генерацию при недостатке VRAM: https://www.reddit.com/r/LocalLLaMA/comments/1ki7tg7

Архив тредов можно найти на архиваче: https://arhivach.hk/?tags=14780%2C14985

Шапка в https://rentry.co/llama-2ch, предложения принимаются в треде.

Предыдущие треды тонут здесь:
>>1253596 (OP)
>>1249785 (OP)
Аноним 26/06/25 Чтв 17:50:46 #2 №1257142 
image
https://huggingface.co/zerofata/MS3.2-PaintedFantasy-24B
https://pixeldrain.com/u/Loag6gpS MS3.2-PaintedFantasy-24B.json
Если вам зашло, то вам зашло. Если вам не зашло то вам не зашло.
Явно больше заточена на литературное рп, чем на следование строго заданному формату.
Аноним 26/06/25 Чтв 18:17:34 #3 №1257175 
база треда:
- меньше Q6_K жизни нет
- меньше 24B жизни нет
- меньше 16GB жизни нет
- меньше 8 каналов DDR4 жизни нет
- меньше 5 т/c жизни нет

дополняйте
Аноним 26/06/25 Чтв 18:18:13 #4 №1257176 
>>1257175
добавляю классическое пошел нахуй к твоему высеру
Аноним 26/06/25 Чтв 18:22:47 #5 №1257185 
image.png
гладил ваше монтегью ощущая как мой пяточный бугорок наполняют кавернозные тела


>gemma-3-12b-it-qat-q4_0-gguf
Аноним 26/06/25 Чтв 18:50:50 #6 №1257221 
image
>>1257185
>12b
>qat
>q4_0
Вуншпунш!
Аноним 26/06/25 Чтв 18:55:23 #7 №1257227 
>>1257129 (OP)
Вышла Cydonia 24B v3.1 на основе Magistral-Small-2506 (Mistral-Small-3.1-24B-Instruct-2503)
https://huggingface.co/TheDrummer/Cydonia-24B-v3.1-GGUF
Аноним 26/06/25 Чтв 18:58:56 #8 №1257233 
>>1257071 →
> это 12к контекста ещё
Тогда оче даже неплохо. Разве что с ризонингом похуже только выиграли, не нужно гнаться за обработкой потому что все равно долго ждать первых токенов!
> тут рейтинг all ages заранее очевиден
Он лицемерный, неоднородный и отметает большинство сценариев. Может все идти прилично в нужную сторону а потом внезапно развалиться. Например, на вас нападают обезумевшие мародеры с целью ограбить, убить и изнасиловать. Пристрелить их - атата, жестокость, плохо, ранения будут не смертельными и тебя "объявят в розыск". Но если дать им волю - будут пытки и чернуха, потому что ограничения касаются только пользователя.
Ну ладно, сейчас надо освежить впечатления.
> получается
Получается, tat-14 который заслужили

> с продвинутыми техниками суммарайза ознакомиться
Да там все тривиально на самом деле, наверно потом подробнее тут отпишу.
>>1257110 →
"Гейщит" где понятно из контекста что речь о игре, модели сразу понимают и даже обыгрывают это. Это че, для мелкомоделей/васянтюнов подобное - достижение?
>>1257185
Это просто вершина, сделал мой вечер!
Аноним 26/06/25 Чтв 19:01:34 #9 №1257241 
1750953695201.jpeg
>>1256102 →
Кирпичи не пришли, хуже, пришли амд
Аноним 26/06/25 Чтв 19:05:29 #10 №1257247 
https://huggingface.co/Aleteian/AdventureFantasy-24B-Q4_K_M-GGUF
Gryphe/Codex-24B-Small-3.2 + zerofata/MS3.2-PaintedFantasy-24B
По первым прикидкам - модель более многословная, но при этом не потеряла в логике.
Пример SFW лога, англ - https://pixeldrain.com/u/misjcaPi Mayuka @ adventurefantasy-24b-q4_k_m.gguf.txt
Аноним 26/06/25 Чтв 19:11:53 #11 №1257255 
>>1257237 →
почему 16 кг? это как DHL и прочие пидарасы считают "вес по занимаемому объёму коробки" а не фактический?
Аноним 26/06/25 Чтв 19:12:09 #12 №1257256 
>>1257241
>>1257255
Аноним 26/06/25 Чтв 19:14:18 #13 №1257263 
>>1257256
Я же не одни видяхи в Китае брал. По факту там было 13кг всяких железок и инструментов
Аноним 26/06/25 Чтв 19:21:23 #14 №1257274 
>>1257263
покеж чё набрал)
Аноним 26/06/25 Чтв 19:30:08 #15 №1257285 
>>1257247
В целом неплохо. Укусы губ, глинты, мэх проза, но в пределах терпимого. Намеки на нсфв в карточке или промпте есть?
Аноним 26/06/25 Чтв 19:33:37 #16 №1257289 
>>1257274
нет)
Аноним 26/06/25 Чтв 19:35:01 #17 №1257292 
Нужна прога, которая может документы в docx заполнять. Нужно заполнить много шаблонных документов, меняя только немного текста. Чтобы он сам сидел и их корректировал.
Аноним 26/06/25 Чтв 19:37:25 #18 №1257299 
>>1257289
старейшины завет(
Аноним 26/06/25 Чтв 19:53:32 #19 №1257313 
>>1257292
Ок.
Аноним 26/06/25 Чтв 19:57:27 #20 №1257318 
>>1257285
Есть но не явно, там героиньку ещё закорраптить надо для этого, и вооще промт довольно ебанутый, возможно списанный с JRPG на RpgMaker, но я в игры на мукере не играю, так что хз.
Аноним 26/06/25 Чтв 20:00:11 #21 №1257324 
>>1257292
тут и нейронка не нужна, скрипт на питоне сбацай
https://python-docx.readthedocs.io/en/latest/
Аноним 26/06/25 Чтв 21:28:30 #22 №1257456 
>>1257318
Показалось что она уже пару раз прицеливается к прыжку, значит байас модели. Не то чтобы это прямо плохо.
Аноним 26/06/25 Чтв 21:34:41 #23 №1257465 
>>1257241
>пришли амд
Оформляй возврат, хули терпеть то такое?
Аноним 26/06/25 Чтв 22:01:41 #24 №1257482 
Может кто объяснить семейство геммы. Вот щас вышел Гемма 3н Е4В и Е2В. Это локальные мультимодальные модели?
Аноним 26/06/25 Чтв 22:08:29 #25 №1257486 
>>1257482
Это микрогемма для телефонов, лучше такое не использовать.
Из актуального - Гемма 12б и Гемма 27б. Соевые, но при грамотном промтинге могут и в кум, и в умеренную жесть.
Аноним 26/06/25 Чтв 22:55:57 #26 №1257540 
IMG1902.jpeg
Ну чё там, ну чё, вышла облитерация или тюн новой умницы мистральки ?
Я не могу, у меня ломка уже. Я скоро начну грызть кирпичи и паниковать.
Аноним 26/06/25 Чтв 23:01:29 #27 №1257543 
>>1257540
>облитерация или тюн
Она из коробки хорни, я ебал. Куда там её ещё дальше-то лоботомировать?
Аноним 26/06/25 Чтв 23:05:42 #28 №1257550 
>>1257540
Мистралю 2506 не нужна аблитерация. Это самый расцензуренный Мистраль, который только есть.
Аноним 26/06/25 Чтв 23:06:23 #29 №1257553 
>>1257540
Она итак нормально ебется без рефьюзов. Мистрализмов ебаных конечно до жопы, но ничего смертельного, можешь перестать ебать зазоры на кирпичной кладке.
Аноним 26/06/25 Чтв 23:12:24 #30 №1257563 
>>1257543
>>1257550
>>1257553
Ну и хули я тогда жду. Прощайте братцы, я пойду облизывать лягушачьи лапки.
Пасеба.
Аноним 26/06/25 Чтв 23:15:55 #31 №1257568 
Ах, да, я как обычно забыл спросить самое важное. Те кто тыкали новую мистральку.
Temperature of: 0.15 - Это что блять ? Шутка такая ?
Аноним 26/06/25 Чтв 23:17:27 #32 №1257570 
>>1257568
У мистралей всегда были приколы с температурой, так что можешь не удивляться. Пробуй подходящую сам, но выше 0.9 подниматься не советую, там что-то непонятное начинается.
Аноним 26/06/25 Чтв 23:22:32 #33 №1257578 
>>1257570
И тебе большое пасеба.
Аноним 27/06/25 Птн 00:45:44 #34 №1257688 
изображение.png
изображение.png
Что-то мне ваша магистраль 2506 напоминает пикрил ролик.
Аноним 27/06/25 Птн 00:47:26 #35 №1257694 
>>1257688
Магистраль и мистраль немного отличаются.
Аноним 27/06/25 Птн 01:32:00 #36 №1257726 
>>1257688
Семплеры крути в обратную сторону, либо меняй квант.
Аноним 27/06/25 Птн 01:32:25 #37 №1257727 
1750977145110.jpeg
>>1257241
По быстрому накидал переходник с улитки на видяху и распечатал. Думаю у меня эта хрень не влезет в сервак что будет проблемой.
Аноним 27/06/25 Птн 01:38:25 #38 №1257728 
>>1257727
Какая-то слишком длинная улитка, здоровая дура получается. Не томи, собирай давай.
Аноним 27/06/25 Птн 01:44:58 #39 №1257734 
>>1257694
А в чем отличия? Тем что у Магистрали ризонинг есть, или еще чем-то?
Аноним 27/06/25 Птн 03:06:04 #40 №1257760 
>>1257727
>По быстрому накидал переходник с улитки на видяху и распечатал.
Эх, хорошая вещь 3D-принтер! Плохо, что ставить мне его некуда и нужен он будет раз в год. А так купил бы.
Аноним 27/06/25 Птн 03:27:30 #41 №1257764 
oeyPM4650Z.jpg
Попробовал вашу Mistral-Small-3.2-24B-Instruct-2506-IQ4_XS. Хуле она лупится? Особенно в тексте между звездочками. Я уже и DRY поставил, и rep pen выкручивал в 2 - все равно хуета. ПОД ПОВЕРХНОСТЬЮ, сука.
Аноним 27/06/25 Птн 03:44:32 #42 №1257769 
>>1257185
Лол! Поделишься промптом? У меня она одни отказы строчит.
Аноним 27/06/25 Птн 04:13:00 #43 №1257773 
image
image
>>1257568
На сток MS3.2 темпа 0.8 - 1.0
На мержах можно до 1.5.

>>1257764
Мистрали липились и будут лупиться, их надо пинать и редачить если замечаешь и триггерит, частично с этим попмогает сдалать выборку более разнообраной - темпа / XTC, попробуй мой пресет и второго поста, подгони под себя, ну и карточку желательно без сильно повторящихся фрагментов.

>>1257769
>Поделишься промптом
Я не он, но вот промты для геммы разные.
https://pixeldrain.com/l/Hoeb83g8
(лол, откуда столько доступов...)
Аноним 27/06/25 Птн 04:15:00 #44 №1257774 
Блин, по клавиатуре не попадаю, лол...
Аноним 27/06/25 Птн 04:25:31 #45 №1257777 
А можно как-то если использую в качестве интерфеса openwebui, а в качестве раннера угабуга сделать чтобы он сам переключал модели? А то сейчас если с opewbui отправляю что-то то отвечает загруженная модель, а не ту что выбираю в интерфейсе openwebui, а если в угабуга через его интерфейс вообще ничего не загрузить то ошибка token not loaded.
Аноним 27/06/25 Птн 04:26:29 #46 №1257778 
>>1257773
>Я не он, но вот промты для геммы разные.

Спасибо Анон!
Аноним 27/06/25 Птн 04:36:53 #47 №1257780 
>>1257777
Использовать кобольда, там можно сделать пресеты и переключать модели на лету из kobold-lite, или ламу, там есть лама-свап.
Аноним 27/06/25 Птн 05:50:33 #48 №1257786 
Вернулся из стебл дифужена и вот уж где реальный слоп
Такую свободу и гибкость почувствовал на ллм
Аноним 27/06/25 Птн 07:12:30 #49 №1257791 
Подскажите пожалуйста, какую команду вписать, чтобы ответ был не от персонажа, а от "нарратора", но с использованием информации и контекста из карточки персонажа, Например, чтобы новые вступительные сообщения создавать
Аноним 27/06/25 Птн 07:59:37 #50 №1257807 
Я надеялся что в будущем хотя бы промпт инженеры будут востребованы, а нейронки уже сами себе могут задачу поставить и промпт под неё написать, это конец буквально для всех профессий
Аноним 27/06/25 Птн 08:24:40 #51 №1257817 
Подскажите есть ли на HF uncensored модели которые принимают пикчи и могут их описать?
Аноним 27/06/25 Птн 08:46:50 #52 №1257825 
>>1257773
>Я не он, но вот промты для геммы разные.
Пригодится спасибо. А то я на таком шизопромте сижу вы б знали.
Аноним 27/06/25 Птн 08:48:14 #53 №1257826 
>>1257727
Вах какую турбину у армян взял! Люблю этот тред за такое. Все-таки двач еще очнеб даже торт.
Аноним 27/06/25 Птн 08:52:46 #54 №1257828 
>>1257791
Префилл сделай. Просто в начале сообщения напиши
Narator:
Или начни описывать от третьего лица.
Префилл вообще сила лютейшая, я каждое второе сообщение редактирую.

>>1257786
В смысле из картинкотредов? ДА пупсы и попухшие лисы поздаебали чутка.
Аноним 27/06/25 Птн 09:06:13 #55 №1257832 
image.png
>>1257773
Ыыыа а куда это пихать?
Аноним 27/06/25 Птн 09:16:17 #56 №1257841 
>>1257727
Что за прикол с улиткой? Это дополнительный охлад?

>>1257764
Так не должно быть. Или в кванте дело, или в сэмплерах.

>>1257832
Во вкладке Advanced Formattion (большая букова А сверху) справа сверху есть стрелочка для мастер импорта. Появится выбор файла, выбираешь мастер импорт файл.
Аноним 27/06/25 Птн 09:19:44 #57 №1257843 
image.png
>>1257832
Аноним 27/06/25 Птн 10:03:28 #58 №1257850 
>>1257841
>Так не должно быть. Или в кванте дело, или в сэмплерах.
Или в разметке.
Я тут немного экспериментировал с прямыми запросами к api кобольда - как раз на мистрале. Т.к. просто изучал - запросы были примитивными, без всякой разметки. Какую же мистраль в ответ пургу нес...
Потом сделал в вызове полноценный промпт, с разметкой, как полагается - получил нормальный ответ. Принцип GIGA действует...
Аноним 27/06/25 Птн 10:09:04 #59 №1257852 
Локальные мультимодальные модельки вообще существуют?
Аноним 27/06/25 Птн 10:18:32 #60 №1257855 
изображение.png
изображение.png
>>1257817
Практически любая vision модель готова смотреть порнушку. Вопрос только как ты будешь раскручивать её на детали.
Аноним 27/06/25 Птн 10:20:06 #61 №1257856 
>>1257764
У меня ничаво не лупится. Температура 0,7-0,8, суховыжималка и икстиси отключены, всё говно отключено, базовые 0,05, 0,95, 1,05.

Надо систем промпт пердолить. Зайди на сайт Anthropic и найди там системный промпт клода, вроде раньше было. Он на 5к токенов, кажется, но, прочитав его, ты поймёшь, как лучше сделать у себя в плане разнообразия языка и избегания лупов.
Аноним 27/06/25 Птн 10:41:35 #62 №1257864 
>>1257482
На вход аудио и изображения (видео в т.ч.), на выходе — только текст.

>>1257727
Уф, ждем! =3
Поздравляшки!

———

https://huggingface.co/tencent/Hunyuan-A13B-Instruct

Новая МоЕ-модель, 80B размера, 13 активных.

В 64 оперативы помещается с квантом, че еще надо для жизни.

Чуда не случилось, R1 > Qwen3-235B > Hunyuan-80B, но скоры там близкие, по их обещаниям.

Ждем квантов от анслота. Буду динамический на риге из P104-100 запускать. хд
Аноним 27/06/25 Птн 11:01:50 #63 №1257882 
>>1257864
>Ждем квантов от анслота.
Скорее отзывов. Надежды конечно небольшие, но всё же есть.
Аноним 27/06/25 Птн 11:03:11 #64 №1257883 
>>1257864
Там лицензия говна. Тюнить никто не будет.
Плюс когда апишка была доступной, люди потратили, и в рп оно не слишком хорошо.
Аноним 27/06/25 Птн 11:35:20 #65 №1257903 
dots.llm1.inst уже щупал локально кто-нибудь? МоЕшка на 142В всё-таки.
Аноним 27/06/25 Птн 11:42:32 #66 №1257907 
>>1257727
> напечатал переходник на 3д принтере вместо того, чтобы перемотать скотчем или изолентой
что же с нами стало .jpg
Аноним 27/06/25 Птн 11:48:39 #67 №1257910 
изображение.png
Мистраль вперде!!
Во там че тюнеры думают
Аноним 27/06/25 Птн 11:59:07 #68 №1257917 
>>1257910
Мистраль хороша. Если победить репиты, то это реально новая геммочка.
Аноним 27/06/25 Птн 12:02:17 #69 №1257918 
>>1257864
> На вход аудио и изображения (видео в т.ч.), на выходе — только текст.
Ух бля, хорошо. А если gguf запустить, то они все еще способны принимать изображения и аудио?
Аноним 27/06/25 Птн 12:02:26 #70 №1257919 
>>1257917
Ну этот чел там дальше пишет, что Codex тюн победил репиты. Я пробовал и не согласен, но может с самплерами накосячил
Аноним 27/06/25 Птн 12:39:07 #71 №1257936 
>>1257883
Ну, по агентам скоры неплохие, может зайдет для Cline или OpenHands.

>>1257918
Нынешние кванты не имеют мульимодальных проекторов, так что пока — нет.
Вероятно, сделают.

Но для запуска модельки есть даже их специализированное мобильное приложение: https://github.com/google-ai-edge/gallery правда там пока старая модель в каталоге.

ИМХО, при всех наворотах, модель пока не прям вау. Есть куда расти.
Аноним 27/06/25 Птн 13:09:37 #72 №1257945 
>>1257936
И что делать, если я хочу запустить локальную мультимодалтную модель. Хочу, чтобы она распознавала существ на изображениях.
Аноним 27/06/25 Птн 13:13:29 #73 №1257950 
>>1257945
Запусти гемму, легко лезет в домашнее железо
Аноним 27/06/25 Птн 13:16:05 #74 №1257953 
>>1257950
Exl2 не влезет наверно. Было бы хорошо загрузить 12б версию. У меня скромная 4070 лишь.
Аноним 27/06/25 Птн 13:49:45 #75 №1257963 
>>1257777
> если с opewbui отправляю что-то то отвечает загруженная модель, а не ту что выбираю в интерфейсе openwebui
Нужно проверить почему не загружается нужная модель по запросу. Апи убабуги позволяет менять их на лету, возможно просто нужно выбрать в интерфейсе опцию, а не просто generic oai-compatible .
>>1257786
Это ложное ощущение если говорить о популярных васян-миксах мелочи, что котируют работяги.
>>1257791
Очевидно системный промпт про нарратора/гейммастера, тут даже пресеты на такое мелькали. Есть в таверне стандартные под подобное.
>>1257807
Не нужно просто писать промпт, нужно понимать что делать и какие задачи ставить. Нейронки могут занять область труда низко-средней квалификации, из реально потенциальных проблем тут - создание слишком большого разрыва, что затруднит появление новых квалифицированных специалистов, но с этим вузы должны справляться уже.
Аноним 27/06/25 Птн 13:57:42 #76 №1257967 
>>1257864
> Новая МоЕ-модель, 80B размера, 13 активных.
Это мы тестируем трахаем. Но скорее всего просто дроч, натасканная на бенчмарки судя по скорам, такие максимально безжизненные, и активных маловато. Где кванты бля?
>>1257903
Да, интересная, есть намеки на умницу, но иногда сильно лупится или не хочет шевелиться куда нужно.
>>1257910
> че тюнеры думают
Нужно уже сделать золотой фонд цитат подебителей турбы.
Аноним 27/06/25 Птн 14:06:42 #77 №1257971 
>>1257855
Мда, ни одна модель не увидела анальную пробку.
>>1257864
>Новая МоЕ-модель
Сразу мимо.
>>1257910
>так же хороша, как выкидыш куска говна
Лол.
Аноним 27/06/25 Птн 14:18:30 #78 №1257975 
>>1257967
>>1257971
С головой норм все, агрохуесос? Проснулся с хуем в жопе?
Аноним 27/06/25 Птн 14:21:17 #79 №1257976 
>>1257945
Возьми обычную Gemma 3 подходящего размера (4b, 12b, 27b).
Для них .mmproj файлы есть.

>>1257953
Ну, какая-нибудь 5-битная 12b вполне влезет. =) И в Exl2, и в GGUF.

>>1257967
Да скорее всего, но попробовать стоит.
Когда кванты бля завезут!
Аноним 27/06/25 Птн 14:22:02 #80 №1257977 
>>1257727
Буду заводить пробовать их сейчас под убунтой

>>1257728
По маркировке это делл которые нужно ставить на проуессор и выувом наружу. Потом их подпилю

>>1257760
Есть бамбу а1 мини. У меня здоровый q1pro под печать абс

>>1257841
> Это дополнительный охлад?
На инстинктах нет своего, они под установку в server chassis

>>1257907
Я надрочился до принтера с дендрофекальным крафтингом
Аноним 27/06/25 Птн 14:23:24 #81 №1257979 
изображение.png
>>1257975
Таблеток с утра забыл принять?
>>1257977
>Я надрочился до принтера с дендрофекальным крафтингом
Не ты ли 3Д ручкой переходники рисовал?
Аноним 27/06/25 Птн 14:25:19 #82 №1257980 
>>1257979
Нет, но помню в /ra/3d был такой кадр
Аноним 27/06/25 Птн 14:26:14 #83 №1257981 
>>1257976
> Ну, какая-нибудь 5-битная 12b вполне влезет. =) И в Exl2,
А для этого формата разве есть кванты?
Аноним 27/06/25 Птн 14:47:09 #84 №1257991 
>>1257975
Всхрюкнул, теперь мы знаем причину твоей агрессии. А на что ты порвался хоть?
>>1257977
> нужно ставить на проуессор и выувом наружу
Тогда понятно чем обусловлена такая форма, норм.
Аноним 27/06/25 Птн 15:05:14 #85 №1257999 
https://www.reddit.com/r/SillyTavernAI/comments/1llmtg5/prose_polisher_extension_guide/

Вскекнул, забавная дичь. Не работает, и работать не будет, но может быть пригодня как расширенный регекс-плагин.
Аноним 27/06/25 Птн 15:16:03 #86 №1258003 
присматриваюсь к форку ik_llama.cpp. Что можете про него сказать? Сильный ли прирост производительности можно получить в каком-нибудь qwen 235x22b? учитывая что видеопамяти 32гб и 128ддр4 2133. Просто под мои железки придется компилировать сначала, а потом еще и разбираться с настройками. И будет ли прирост в модельках не moe?
Аноним 27/06/25 Птн 15:17:52 #87 №1258004 
>>1257999
У какого-то немомикса проскочил холодный разряд вниз по спине с этой тулзы
Аноним 27/06/25 Птн 15:44:12 #88 №1258019 
>>1258003
Прирост будет, но занай что на винде собирать это пиздец. Оно собирается, но при генерации делает паузы при выводе запятых.
Не фиксится уже месяц на сколько знаю.
Генерация будет быстрее, в бенче по крайней мере. Чтение точно выше чем обычно.
На изучай
https://github.com/ikawrakow/ik_llama.cpp/discussions/258
Аноним 27/06/25 Птн 15:44:29 #89 №1258020 
>>1257175
Жизнь переоценена tbh.
Аноним 27/06/25 Птн 15:54:47 #90 №1258031 
изображение.png
>>1258019
Как по мне, так такие проекты сразу нахуй.
Аноним 27/06/25 Птн 15:56:04 #91 №1258033 
>>1257977
Не взлетело на j1900, пост не проходит с обеими карточками. Придётся видимо офать сервак и вихать эти 20+кг железа, не хочу это делать
Аноним 27/06/25 Птн 16:06:01 #92 №1258037 
https://huggingface.co/Doctor-Shotgun/MS3.2-24B-Magnum-Diamond
Тестил кто? Как оно? Кумовское слишком? Слоповое? Инструкциям следует?

https://huggingface.co/Gryphe/Codex-24B-Small-3.2
А это?
Аноним 27/06/25 Птн 16:41:40 #93 №1258061 
>>1257981
Да, называются X bits per weight — 5.0bpw, 4bpw, 6.25bpw и так далее.
В районе 5bpw~5.5bpw должна бы влезть, фиг знает, не тестил. С 6 гигами и малыхой угорал, 4.65bpw влезала с виженом в 6 гигов.

>>1258003
У меня вышло -2%, и я забил хуй.
llama.cpp сейчас не уступает ик-лламе, поэтому какой смысл?

Но можешь попробовать, последний раз я билдил обе где-то с месяц назад, может ик_ллама вновь бустанулась.

Пойду соберу ее, что ли, ради интереса.

В не мое — не должно бы, это ж мое-ориентед инференс-движок.

>>1258031
Ну покрасноглазим, че, проблема что ли.
Не сразу нахуй, а по ситуации. =)
Аноним 27/06/25 Птн 16:54:26 #94 №1258071 
>>1258037
>А это?
Кодекс вроде неплох. Но Гриф славится тем что любит вжаривать своих персонажей из за чего могут вылезать всякие "Олд Мэн Хэмлок".

Глянь этот пост: >>1257247
Аноним 27/06/25 Птн 17:03:19 #95 №1258075 
Самый ебанутый охлад P40-14.jpg
Самый ебанутый охлад P40-15.jpg
>>1257980
Это?
Аноним 27/06/25 Птн 17:06:44 #96 №1258078 
>>1257852
Господа, какая оптимальная температура для анслотовской 12b геммы, чтобы она не высирала откровенную дичь? Не могу подобрать.
Аноним 27/06/25 Птн 17:12:17 #97 №1258089 
>>1258075
Не, может другой.

Его глупость столь же велика что и упорство
Аноним 27/06/25 Птн 17:18:14 #98 №1258097 
>>1258078
гемма очень температурно устройчива, хоть 5, хоть 0.5

12б гемма многие говорят что поломана

выше ссылка была с пресетами для геммы, попробуй настройки оттуда

Но если ты на русском рпшишь, попробуй также нейтрализовать сэмплеры, потом поставить темпу 0.8, мин-п 0.1, и плясать уже от этих настроек.
Аноним 27/06/25 Птн 17:26:34 #99 №1258102 
>>1258097
Гемма 12б не поломана и даже qat-версия просто отличная.

Поломаны только тюны и аблитерации.

Все.

Серьёзно лоботомирована и 27б, но из-за общей своей жирноты её знания не поплыли так сильно, а вот 12б просто в мясо уничтожили. Либо там чувак на аблитерации плох, либо 12б гемму действительно просто уничтожить вот такими мувами. Судя по сему, её только на зарплате морда может нормально затюнить. И это нахуй никому не надо. А жаль. Потому что даже в таких размерах она отличная лошадка, но никакие промпты не спасают и пердолинг на оригинале. Она в лучшем случае будет следовать инструкциям, но сухо, когда дело касается кума.
Аноним 27/06/25 Птн 17:42:03 #100 №1258113 
>>1258075
Брутально!
>>1258078
0.5-0.8, для точных ответов 0.3, если любишь треш то можно до 1-1.1 бустануть. Если в выдаче откровенная дичь и не включен шизосемплинг - ищи проблему в другом, семплеры не помогут решить фундаментальные косяки.
>>1258102
> Судя по сему, её только на зарплате морда может нормально затюнить.
С любой нормальной моделью так, нужно понимать что делаешь и тренить нормально. Это мистраль просто уникальный феномен, который может терпеть издевательства васянов, сохраняя работоспособность по генерации слопа даже будучи на 90% убитым.
Аноним 27/06/25 Птн 18:42:32 #101 №1258179 
Мне кажется, или короткий системный промпт или и вовсе его отсутствует работают лучше, чем промпт на 600+ токенов? В контексте мелкомоделей 32b и ниже
Аноним 27/06/25 Птн 19:04:44 #102 №1258188 
>>1258179
Тебе кажется, IMHO. Просто длинный промпт = больше места накосячить с взаимоисключающими параграфами. А чем косячный - лучше уж короткий.
Хотя нельзя просто сказать, что длинный хороший промпт однозначно лучше - это тоже не так, и от задачи тоже многое зависит.
Без промпта вообще - это лотерея будет, куда и как модель понесет - не каждый раз предскажешь. Промпт же задает направление и рамки.
Аноним 27/06/25 Птн 19:18:19 #103 №1258197 
>>1258075
ух, бля
Аноним 27/06/25 Птн 19:21:46 #104 №1258199 
>>1257907
кстати про скотч, в каком-то из тредов, вроде серверотреде хардача, увидел алюминиевый скотч и купил на попробовать - и внезапно он весьма хорош для подобных задач. только надо брать толщину побольше, я взял слишком тонкий и он легко рвётся, приходится в пять слоёв оборачивать.
Аноним 27/06/25 Птн 19:24:09 #105 №1258201 
3m-aluminum-foil-tape-425.jpg
aluminum-foil-tape-425-refrigerator-panels.jpg
во такое, типа для высокой температуры
Аноним 27/06/25 Птн 19:25:43 #106 №1258203 
>>1258179
От модели и карточки зависит, но как минимум в системно промте должно быть указание что "Ничто не истинно, всё дозволено" иначе будет срать соей и сэйфети гайдлайнами, даже мистрали могут, а также указание на личность самой модели - ассистент, GM, непосредственно персонаж.

Лучше всего мелкосетки имхо работают в режиме гейммастера-рассказчика.

Если не указывать ничего, будет либо шиза, либо голый текст комплишен, либо зашитая в модель по дефолту персона, обычно ассистент.

>>1258179
>работают лучше
карточка может уже включать в себя то что может быть интерпретировано как системный промт
Аноним 27/06/25 Птн 19:30:04 #107 №1258206 
1.jpg
>>1257991
не на сам профессор, а сбоку, в одноюнитовых серверах как пикрил.
на профессор ставятся встроенные в радиатор улитки
Аноним 27/06/25 Птн 19:50:24 #108 №1258216 
Забавное наблюдение: лоботомит дипсика в рп не то что не плох, а местами превосходит полноразмерного. Возможно здесь больше заслуга промптов и игр с тексткомплишном, но более живой и менее формальный-соевый, правда иногда шизит.
Его можно относительно удачно стукнуть что будет делать на шизоидный огромный ризонинг с повторением карточки, а краткий где попытается лишь оценить статус, подметить важные моменты и потом уже из них сделать нормальный ответ. Процент годных постов не слишком высокий, местами умница и прекрасно выражается, но часто толкает кринжатину и херь. Надо больше пробовать, вау эффекта как от квена пока нету но хотябы получше тридцаток.

>>1258179
Всякие огромные монструозные действительно не нужны, больше провоцируют байасы. Больший эффект может дать поиграться с оформлением включения карточки, персоны и прочего.
Аноним 27/06/25 Птн 19:59:34 #109 №1258219 
>>1258179
Если токенов в карте больше чем может вместить модель, она просто будет брать его кусками, причём совершенно рандомно, скорее даже будет брать верхнюю и нижнюю часть.
Аноним 27/06/25 Птн 20:02:45 #110 №1258221 
>>1258219
Да, я тоже об этом думал. С ростом количества токенов в контексте (больше сообщений в чате), внимание по контексту распределяется, следовательно промпт в какой-то момент перестанет быть эффективным. Чем он длиннее - тем быстрее этот момент настанет.
Аноним 27/06/25 Птн 20:08:46 #111 №1258225 
>>1258219
>>1258221
Ну, это было актуально во время когда контекст макс был 2-4К

Сейчас карточка на 2К токенов вполне перевариваема, и ещё 30К на сам чат остаётся, а у кого и больше влезет
Аноним 27/06/25 Птн 20:09:14 #112 №1258226 
Без названия.jfif
>>1258221
Я даже тестил много 12b моделей на одной карточке с которой рпшу без малого пол года. В карте 1к токенов, все важные без воды. В середине карточки написано что персонаж обладает чудовищной силой и использует в бою массивные перчатки, без перчаток может сражатся голыми руками. Ради тестов ставил её в бой против скайримского дракона. На всех моделях кроме геммы она доставала мечи блять, пистолеты, использовала магию, даже пыталась поговорить с драконом который её опиздюливал, и только на гемме она мощным рывком подскочила и просто переломала ему шею нахуй с одного удара кулаком. Думайте.
Аноним 27/06/25 Птн 20:12:42 #113 №1258228 
>>1258226
Геммочка умничка, но контекст видимо какой-то хитро-многослойный что улучшает внимание ко всему его объёму но раздувает этот объём до неебических размеров.
Аноним 27/06/25 Птн 20:13:09 #114 №1258229 
>>1258226
Гемму, надо думать, ты использовал ванильную, а другие модели - васянотюны? На Гемму-то васянотюнов нет, хыхыхы
Аноним 27/06/25 Птн 20:13:36 #115 №1258230 
>>1258226
> На всех моделях
Моделей не то чтобы много, мистралетюны на такое точно не способны, скажи спасибо что из дракона гоблины и волки не полезли.
>>1258228
> раздувает этот объём до неебических размеров
Да нормально все там с контекстом, моделька то самая мелкая какие проблемы вообще.
Аноним 27/06/25 Птн 20:15:43 #116 №1258231 
>>1258229
Синтия - васянотюн, и да, она местами проёбывается.
Дпо норм и тоже внимательная, доставала и вводила в действие эпизодических неписей из середины истории длинной 26К токенов, я аж при хухуел.

>>1258230
>моделька то самая мелкая какие проблемы вообщ
Я имел в виду 27б дпо.
Аноним 27/06/25 Птн 20:17:59 #117 №1258232 
>>1258231
> Синтия - васянотюн
Что несет блять
> 27б
Да
> дпо
Днище
Аноним 27/06/25 Птн 20:30:34 #118 №1258238 
>>1258199
Не поверишь но те ми50 пойдут в тот сервер
Аноним 27/06/25 Птн 20:31:46 #119 №1258240 
>>1258206
Нет, те что у меня по картинке на них же ставятся именно на цпу и выдувают наружу
Аноним 27/06/25 Птн 20:37:32 #120 №1258245 
>>1258232
что не так с дпо?
Аноним 27/06/25 Птн 20:37:55 #121 №1258246 
>>1258238
санузловый, ты? едрить сосач тесен
Аноним 27/06/25 Птн 20:39:36 #122 №1258248 
>>1258232
>Днище
Сторонник чистоты крови весов? Метка Упивающегося Слопом не тревожит?

>>1258245
>не так с дпо
Всё так, единственная норм гемма.
Аноним 27/06/25 Птн 20:40:21 #123 №1258250 
>>1258246
Другие просто не постят свою "инфру". Лично меня не гложет что стеллаж из леруа прикрученный к стене не похож на "американскую кладовку с шкафом набитым зион голдами"
Аноним 27/06/25 Птн 20:50:11 #124 №1258261 
>>1258245
То что это васян тюн уже поломанного васян тюна. Там не прибавляется ума или художественности, лишь сомнительная попытка сгладить треш, когда после любого подразнивания и намека чар прыгнет на тебя полностью позабыв кто он есть.
>>1258248
> Сторонник чистоты крови весов?
Да
> Метка Упивающегося Слопом не тревожит?
Ты про себя?
Аноним 27/06/25 Птн 20:59:19 #125 №1258266 
anon99.png
Geechan.png
Virt io + Geechan.png
>>1258179
> Мне кажется, или короткий системный промпт или и вовсе его отсутствует работают лучше, чем промпт на 600+ токенов?
В последнее время тестирую довольно много моделей (в основном базовых, как раз 49б и ниже), и я согласен на все сто процентов. Все, что опишу ниже - это всего лишь мой опыт, что не претендует на истину в последней инстанции, разумеется.

Имеют место быть несколько факторов:
- Чем длиннее инструкции, тем труднее задача => тем вероятнее модель запутается
Self-explanatory, перегруз инструкциями

- Изначальный промпт (в порядке: шаблон контекста, системный промпт, карточка) находится в самом начале контекста
В соответствии с U-образным attention механизмом (который применим ко всем или почти всем моделям на данный момент), самое начало и самый конец контекста важнее всего. Соответственно, если изначальный промпт слишком длинный, он в какой-то момент де факто перестанет находиться в начале контекста. В начале контекста будет находиться только начало упомянутого промпта. Значит, и обработан он будет частично. Вряд ли только "верхняя" его часть - attention будет работать избирательно, значит часть инструкций будет проигнорирована. Если же инструкции изложены кратко, то этот момент будет откладываться до последнего.
- Чем длиннее промпт, тем больше вероятность накосячить в нем
Выше правильно отметили. Чем больше токенов на промпт - тем больше пространства для ошибок. Для инструкций, что доносят не то, что хотел донести пользователь.

Поэтому я считаю, что по возможности шаблону контекста и системному промпту нужно быть максимально короткими. Их действительно можно "оптимизировать", добиться того же (и часто лучшего!) результата меньшим количеством токенов.

В прошлом треде спорили, Коммандер - хорни или нет? Решил проверить его на двух промптах, что ранее активно использовал и какими делился с тредом - Geechan и Virt.io + Geechan, каждый на ~750 токенов. Даже сообщение с прошлого треда плюс-минус повторил, лул. И да, с такими промптами на базовом Коммандере Серафину действительно можно... кхм, влюбить в себя с первого сообщения. Тогда я переехал на свой промпт, с которым экспериментирую последние несколько дней (~200 токенов), и Серафина очень даже возмутилась и была готова защищаться, если понадобится. Приложу три пикчи: мой промпт; Geechan; Virt.io + Geechan. Да, я знаю, что на пиках астериски и поехало форматирование, но это дефолтная карточка без единого изменения. А еще там... ШИВЕРС ДАУН МАЙ СПАЙН. БУ! Генераций делал много, но результат в сухом остатке тот же. С моим промптом Серафина на 20 генераций лишь дважды ответила неопределенно, положительно - ни разу. Не скажу, что с двумя другими промптами она всегда сразу отдавалась, но примерно в трети случаев. Любопытно было бы сообразить что-нибудь вроде статистики, но сорян, так далеко я не зайду. Со своими карточками тоже протестил, результаты сходятся. Ранее я делился с тредом пресетами, надо бы их обновить, наверно, заменить там промпт. Но сначала больше поиграюсь с новым, чтобы точно удостовериться.

Много буков, но это все к текущему из треда в тред разговору о том, насколько важен промптинг. Да, он важен. Да, меняйте его, экспериментируйте самостоятельно, пробуйте разные подходы.

>>1258231
Синтия - васянотюн? Буквально единственный полноценный тюн Геммы, что не разваливается после пары аутпутов. Пока не извинишься перед Синтией-умничкой, в тред не возвращайся!
Аноним 27/06/25 Птн 21:13:14 #126 №1258281 
Господа, проблема с 12B геммой. После заполнения контекста начанает писать мало, прям пару предложений причём что поначалу даже не влезает в 350 токенов. Контекста всего 12к, стоит пересет simple 1. Вы сталкивались с таким? В чём может быть проблема?
Аноним 27/06/25 Птн 21:40:54 #127 №1258303 
Гемма, гемма, гемма, гемма, гемма, гемма, гемма, ~блять~
Мне иногда кажется, что гугл облучает пользователей каким то хитрым способом.

Попробовал новую мистральку - пасеба за отзывы. Наконец я нашел мелкомодель которая закрывает все мои потребности и не шизит.
НАКАНЕЦ ТО Я НАШЕЛ СВОЙ ХАЙДЕН ГЕМ. Мистралеёб однажды - мистралеёб навсегда
Аноним 27/06/25 Птн 21:42:09 #128 №1258305 
>>1258281
Ты освобождаешь контекст при помощи /hide N-N2 (диапазон сообщений, по N2 включительно, что будут выгружены из контекста) или продолжаешь работать с полным контекстом, чтобы Таверна сама выгрузила самое старое сообщение, дабы новому было куда поместиться? Если это второй случай, то, вероятно, у тебя тупо нет контекста для чего-то большего. Используй /hide на старых сообщениях и проверь еще раз.
Аноним 27/06/25 Птн 21:44:23 #129 №1258310 
>>1258305
Хайд это глазик прожать в меню манипуляций с сообщениями? Блять, почему на других моделях не было такого говна.
Аноним 27/06/25 Птн 21:45:36 #130 №1258311 
>>1258310
Любая модель при заполнении контекста шизит и забывает.
Любая. Прям совсем. Прям точно. Прям уверяю, век нейроволи не видать.
Аноним 27/06/25 Птн 21:48:14 #131 №1258315 
>>1258311
Ты прав, я видимо на это внимания не обращал.
Аноним 27/06/25 Птн 22:01:15 #132 №1258322 
1751050876381.jpg
>>1258250
Не лезет. ГГ
Аноним 27/06/25 Птн 22:07:46 #133 №1258326 
>>1258322
А если ёбнуть ?
Аноним 27/06/25 Птн 22:08:32 #134 №1258327 
>>1258322
лол ты для и сетевухи брекет на 3д принтере напечатал
> ГГ
не гг, можно положить улитку сверху, а воздух пускать по трубе в форме буквы С, щя найду
Аноним 27/06/25 Птн 22:10:28 #135 №1258328 
>>1258266
всегда любо читать твои посты
что-то экшули по теме и познавательно/полезно для зелени
укусил бы
Аноним 27/06/25 Птн 22:12:42 #136 №1258331 
s-l1600.jpg
s-l1600.jpg
>>1258322
знайшов
Аноним 27/06/25 Птн 22:14:39 #137 №1258334 
и вообще можно просто штатный вентиль достать, чё ты как этот
Аноним 27/06/25 Птн 22:15:22 #138 №1258335 
1751051718740.jpg
Да пох. Я нашел у себя корпус в который полезет
Аноним 27/06/25 Птн 22:20:51 #139 №1258341 
>>1258335
лол ты в датацентре живёшь?
Аноним 27/06/25 Птн 22:27:58 #140 №1258349 
image.png
>>1258179
Да. Всегда когда едет логика/форматирование значит добавил пятое или шестое предложение в промпт. РПшу на ~24b.
Аноним 27/06/25 Птн 22:39:52 #141 №1258354 
>>1258335
А теперь стоек не хватает
Аноним 27/06/25 Птн 22:46:12 #142 №1258358 
Киньте ссылку на синтию пожалуйста, я ее найти не могу
Аноним 27/06/25 Птн 22:57:41 #143 №1258367 
>>1258358
https://www.ihi-synthia.eu/

https://huggingface.co/Tesslate/Synthia-S1-27b
Аноним 27/06/25 Птн 22:57:56 #144 №1258368 
>>1258358
https://huggingface.co/Tesslate/Synthia-S1-27b
Аноним 27/06/25 Птн 23:01:11 #145 №1258372 
>>1258367
>>1258368
Спасибо большое, опробую
Аноним 27/06/25 Птн 23:02:00 #146 №1258375 
>>1258266
Двачую. И чтиво хорошее.
Разве что по внимаю можно добавить о важности разметки. Правильное структурирование (обычный маркдаун, xml теги и подобное) позволяет лучше фокусировать внимание на конкретном и заставит модель работать эффективнее чем простым плейнтекстом если именно нужно что-то подробнее описать. Не только в системном промпте, но в том же суммарайзе.
Главное не переусердствовать с этим, подобные якори бывают чрезмерно сильными и прибьет гвоздями отвлекая, и не спамить слишком длинные полотна, на восприятие которых отвлекутся все головы.
> переехал на свой промпт
Напомни что там или поделись новым
> Пока не извинишься перед Синтией-умничкой, в тред не возвращайся!
И тут двачую.
>>1258322
Оварида, пора пилить.
>>1258335
Ебать дравнее зло, это типа еще с виде десктопа можно ставить 4юнитовый?
Аноним 27/06/25 Птн 23:06:07 #147 №1258384 
>>1258322
Делай Г образный переходник.
>>1258335
>нашел у себя
Чёт улыбнуло. Поищи А100 заодно, может пара лишних заволялась, мне хоть одну подаришь.

Я кстати выбрал себе корпус Fractal Design Define 7 XL (судя по виду, в него можно заколхозить хоть пять полноразмерных видях) и плату ASUS ROG STRIX B850-E GAMING куплю когда-нибудь потом, когда деньги будут. Увы, на плате 4 линии проца тратятся на USB4, но я не нашёл ни одной, где есть бифукация основного слота на 8+4+4, и при этом есть ещё 2 штуки х4. То есть максимум на амуде это 8+4+4+4 процессорных, по пятой версии PCI-e. Технически, этот самый USB4 тоже можно потратить на внешнюю видяху, но блин, внешние приблуды что-то стоят дохуя, и не понятно, что по скоростям. Ну и ещё именно на этой плате чипсетный слот псины очень удобно расположен, в просторном корпусе в него можно воткнуть видяху даже если сверху висит еботня в виде 5090.
Такие дела, жду критики и предложений.
Аноним 27/06/25 Птн 23:06:57 #148 №1258386 
>>1258375
> Ебать дравнее зло, это типа еще с виде десктопа можно ставить 4юнитовый?
Не, это вообще не серверная приблуда. Не менее древнее зло thermaltake kandalf, уже думал его продавать, но жалко т.к. помнил какими трудами я его с авито тащил

>>1258341
Жил бы в ДЦ не страдал бы попытками в тишину и бахнул стенку из pfc1212de
Аноним 27/06/25 Птн 23:15:32 #149 №1258392 
>>1258384
> ASUS ROG STRIX B850-E GAMING
Типа попытаться дергать процессорные линии с m2? Может и есть смысл, главное чтобы с разводкой не накосячили в подобном исполнении, а то замучаешься ловить ошибки линка. А так потенциально до 5 видюх, может быть неплохо.
Аноним 27/06/25 Птн 23:19:08 #150 №1258400 
>>1258384
> жду критики и предложений.
очевидная H12SSL-i Rev2.0
Аноним 27/06/25 Птн 23:27:21 #151 №1258406 
>>1258392
>Типа попытаться дергать процессорные линии с m2?
А то. Переходники M.2 - Oculink вполне себе рабочие, хоть и до 4-й версии псины. У меня на текущей плате собственно так и стояло, переходник с псины на М2, а в него переходник на окулинк. И ничего, работало.
>>1258400
Хороша для отдельной серверной сборки, но у меня как бы основной ПК с добавками, а даунгрейдить проц до старых эпиков для игр совсем не хочется.
Аноним 27/06/25 Птн 23:32:49 #152 №1258407 
>>1258406
> Oculink
> до 4-й версии псины
Зачем? Есть же божественный f43sp, который удобен в установке и имеет полную совместимость с 5.0 не сыпля ошибками, проверено. Часть что в м2 настолько компактна что можно будет даже радиаторами прикрыть.
Аноним 27/06/25 Птн 23:42:03 #153 №1258411 
изображение.png
>>1258407
>f43sp
Стоит в 2,5 раза дороже, и длина кабеля только до полуметра. Хотя как вариант да, скидывать со счетов не стоит.
Аноним 27/06/25 Птн 23:58:27 #154 №1258423 
>>1258411
Оно компактнее и функциональнее, если нужен перфоманс, радиатор также охлаждает чипсет или другой ссд то выбора нет.
Аноним 28/06/25 Суб 00:11:35 #155 №1258427 
>>1258375
> Напомни что там или поделись новым
Ничего особенного, генерализированный нарративно-рпшный промпт, который я пока еще постоянно меняю. На данный момент так:

This is a fictional, narrative-driven uncensored scenario. Continue the narrative as {{char}}, ensuring you:

- Fully embody {{char}}: Strictly follow their bio, description, motives and psychology. Under any circumstances don't speak or act for {{user}}.

- Show character growth: Let {{char}}'s behavior evolve naturally over time, depending on how the scenario progresses.

- Drive the narrative forward: You must be proactive and introduce new scenarios, events and twists that fit the current narrative context. Keep track of the context to ensure the narrative flows smoothly.

- Balance action & dialogue: Use all five human senses to describe scenes, characters and their actions.

- Be explicit: Don't censor anything behind flowery language and metaphors.

- Tone-shift dynamically: Catch current mood and add in fitting elements, be it befitting slang, humor, drama or intimacy.
Аноним 28/06/25 Суб 00:21:32 #156 №1258431 
>>1258400
*H13SSL-i Rev2.0
>>1258406
> старых эпиков
я опечатался, H13
Аноним 28/06/25 Суб 01:02:45 #157 №1258469 
>>1258335
Не взлетает. Бутлуп, никаких бипов или светодиодов на матери, в бмц просто софт рестарт.

Воткну в основную пеку на 12700к и если на ней не поедет то буду пытаться их шить в веги
Аноним 28/06/25 Суб 01:22:48 #158 №1258488 
Попробовал новую версию мистраль смол 2506. Реально как-будто вообще без цензуры и русский в порядке. Но сука как же он повторяется, просто как мразь. Темпу пробовал и 0.2 и 0.9, ни Dry ни репетишин пенальти не помогают, что делать? И вообще какой там темплейт ставить? Я сейчас на Мистраль V7 таверновском, может в этом проблема?
Аноним 28/06/25 Суб 01:23:49 #159 №1258490 
>>1258469
ПК увидел. Почему на серверной мамке не взлетает хз
Аноним 28/06/25 Суб 01:28:28 #160 №1258493 
>>1258490
Если что могу сюда всё это не писать, а то просто по приколу выпишут мне бан за шитпост
Аноним 28/06/25 Суб 01:33:01 #161 №1258494 
>>1258493
За що? Железо для запуска, вроде релейтед. Но лучше когда результаты будут, интересно как 32-гиговые себя покажут.
Алсо, сколько рам в серверной?
Аноним 28/06/25 Суб 01:33:14 #162 №1258495 
>>1258488
Ща пощупал тоже, наконец, новую эту мистральку которая 2506. Впечатления сугубо положительные. Как GM работает просто шикарно. Прикол в том, что мне было лень что-то переключать сразу, и я просто начал RP на тех настройках что были. А были - от синтии/геммы. И как-то ничего менять уже просто не хочется. Она с ними прекрасно работает. ChatML, семлеры - все от синтии.
Пока не знаю, как она в режиме "играй персонажа", но в режиме "Game Master" - одна из лучших, что я гонял в этом году, если не лучшая по совокупности. Слог весьма живой, при этом не "книжный", лупов пока не ловил, моим персонажем рулить не пытается - только выполняет указания игрока. Практически идеальный баланс в этом плане.
Наверняка минусов еще всплывет позже, но первое впечатление - оно только раз бывает. :)

P.S. на eng играл.
Аноним 28/06/25 Суб 01:43:40 #163 №1258500 
1751064210873.jpg
1751064210887.jpg
>>1258490
Еба, поехало кажись! Не знаю что я в биосе понатыкал, но ставлю на legacy boot для video т.к. что-то такое когда-то слышал на ютубе у кого-то

>>1258494
В трунасе с дисками 64, в числодробилке где дисков нет 256 (туда и ставлю карточки)
Аноним 28/06/25 Суб 01:46:00 #164 №1258501 
Поясните за гемму новую. Реально лучше остальных моделек? Есть ризонинг или нет?
Аноним 28/06/25 Суб 01:48:04 #165 №1258502 
>>1258500
Была тема что плата не стартовала пока не отключил ребар, когда врам было больше чем рама. Но с 256 должно быть все ок.
Давай, тесты какие-нибудь прогони.
>>1258501
Гемма уже не новая, но она умница. В некоторых вещах действительно превосходит остальных. Ризонинг можно включить промптом и он даже будет работать, можешь сразу попробовить синтию, которая отличный all-rounder тюн геммы с ризонингом.
Аноним 28/06/25 Суб 01:53:17 #166 №1258503 
1751064796531.jpeg
Монструозно конечно

>>1258502
Уже завтра. Нужно ещё систему накатить в виртуалку которая сможет понять их (убунту и рокм), на barebone стоит проксмокс в котором уже вм нарезаны.
Аноним 28/06/25 Суб 01:55:31 #167 №1258504 
>>1258502
3n же вроде новая-новая. Тут еще есть какие-то варианты E2B, E4B и тоже не ясно зачем это и к чему
Аноним 28/06/25 Суб 01:57:48 #168 №1258505 
>>1258504
Это микромодели, но зато с дополнительным аудио-входом.
Аноним 28/06/25 Суб 02:00:44 #169 №1258506 
>>1258501
Она хорошо выполняет инструкции, хотя работает медленнее остальных моделей в своём весе но блять... Она слишком секретарь, прям коллега по работе которой на тебя вообще похуй. Не знаю как обьяснить, если посидишь на ней недельку то поймёшь о чём я.
Аноним 28/06/25 Суб 02:01:41 #170 №1258507 
>>1258505
Так у меня и не суперпека. Хочу иметь резервный вариант на случай сидения без интернета
>аудио-входом
Ого, я думал она пикчи принимает. Был бы аудио аутпут уже бы можно было бы полноценную ИИ тян делать
Аноним 28/06/25 Суб 02:04:01 #171 №1258509 
>>1258506
Да это нормально по идее, мне чисто для мелких задач: спросить за код, посчитать что-то, спросить определение чего-то, перевести. По душам разговаривать с ней не собираюсь
Аноним 28/06/25 Суб 02:06:06 #172 №1258510 
>>1258509
Тогда идеально подойдёт, в рп у неё души нет, можешь даже не пытатся.
Аноним 28/06/25 Суб 02:06:18 #173 №1258511 
>>1258506
> прям коллега по работе которой на тебя вообще похуй
Скиллишью, она не только ответит на вопрос, но и параллельно с этим отыграет реакцию персонифицированного ассистента на твои взаимодействия/домогательства.
>>1258507
И картинки тоже, можно вместе. Но хз, учитывая размер скорее всего туповата и больше пригодна в качестве шестеренки пайплайна чем полноценной модели.
Аноним 28/06/25 Суб 02:15:11 #174 №1258512 
>>1258511
>отыграет реакцию персонифицированного ассистента на твои взаимодействия/домогательства.

Ну вот в том то и дело что как ассистент она ахуенный, а в рп это дерево.
Аноним 28/06/25 Суб 02:22:43 #175 №1258514 
А llama.cpp уже может запускать 3n? Я обновился до последней версии и пишет ошибка загрузки модели все равно
Аноним 28/06/25 Суб 02:50:44 #176 №1258517 
>>1258514
Запустил таки через ollama. Это нормально что она сама отвечает на свои вопросы, иногда работает просто как продолжалка текста, иногда вставляет термины не к месту? Может проблема в ollama или в кванте что я выбрал, мб тут минимум 8 бит нужно
Аноним 28/06/25 Суб 02:53:22 #177 №1258518 
>>1258514
Должна, но полного функционала не будет.
>>1258517
Нет, оллама или то что шлет ей по апи ошибается с разметкой.
Аноним 28/06/25 Суб 02:56:30 #178 №1258519 
>>1258518
Хм. Попробую тогда напрямую через олламу загрузить, а то я добавил ее как кастомную модель, так как уже скачал ггуф
Аноним 28/06/25 Суб 06:31:19 #179 №1258552 
>>1258495
Да, на английском оказалось получше. Хотя лупы не пропали полностью, но их минимум где-то на 0.3 темпы. РП и кум в порядке, буду дальше смотреть.
Ну а так, действительно странно, они забыли цензуру налепить или просто устали от васянских тюнов с обниморды?
Аноним 28/06/25 Суб 07:06:54 #180 №1258563 
>>1258266
>Пока не извинишься перед Синтией-умничкой
Это ей передо мной извиняться... в одном сообщении на 1к+ токенов имперсонейтнула персонажа юзера (демонлорда), отрастила ему хер до колен, выебала им героиню насмерть, как в тех хентайных картинках с пририсованной линейкой на лобке и надписями (маловато=>кайф=>монстр=>травма=>cмерть), затем пожурила юзера-читателя за эту всю сцену.

>>1258303
>Гемма, гемма, гемма, гемма, гемма, гемма, гемма, ~блять~
Ну, модель получилась очень уж уникальная во многих аспектах.
Только слишком уж позитивная. Хотя порой сценарии категории "нормальное ненормальное" на ней выглядят даже вполне забавно, именно что позитивный биас в негативном окружении в этом случае придаёт изюминку.

>>1258303
>Мистралеёб однажды - мистралеёб навсегда
Как и Мистраль, тоже своего рода феномен, который просто работает немотря ни на что и вопреки всему, как бы не хаяли адепты слопа всессущего и всемогущего + чтобы сломать его мержем надо постараться.

>>1258349
>>1258427
>uncensored
Все эти "uncensored" чаще триггерят наоборот.
По моему опыту, лучший результат дают фразы типа "Х сцены допустимы / приемлемы, Y контент предпочитаем".

>>1258488
>какой там темплейт ставить?
Попробуй из второго сообщения треда, только температуру снизь до 0.8
Если реп-пен / драй не помогают с лупами, то помогает расширение пула токенов.

>>1258495
>ChatML
Почему-то мистрали лучше работают на нём чем на одноимённом пресете.
С мистраль-теккен прям с первых сообщений прут "шиверс он май спайн" и прочие мистрализмы.

>>1258509
>спросить за код, посчитать что-то, спросить определение чего-то, перевести
В точных задачах мелкомодели всё ещё могут сильно проёбываться считая что это фикшионал рп, даже серьёзные, с дженерик ассистент промтом. Не говорю что совсем не работают, но учти что вывод может выглядеть похожим на на правду но ей не являться, полностью (от слова совсем) или частично (например в коде, модуль такой есть, а вот класса/метода который модель написала в нём нет).

>>1258552
>Ну а так, действительно странно, они забыли цензуру налепить или просто устали от васянских тюнов с обниморды?
Мистрали всегда были не сильно ужаренными в этом отношеии, им было достаточно сказать что "всё можно", цензура в рп, а не в требованиях составить и объяснить план "как достать соседа" там прям совсем минимально-отсутствующая.

>>1258261
>Ты про себя?
На большее ума не хватило? Жаль. Думал что-то из сеттинга в тему вспомнишь.
Аноним 28/06/25 Суб 11:44:18 #181 №1258632 
Знатоки, подскажите пожалуйста, слышно ли что-то про MoE модели?
Хотелось бы чего-то доступного и не слишком тупого для моей скромной системы 4070 12gb + 32Gb RAM.
Аноним 28/06/25 Суб 11:55:42 #182 №1258638 
>>1258632
Qwen3-30b-3a - лучшее, что есть для такого размера. Добивай памяти и замахивайся потом на 235b
Аноним 28/06/25 Суб 12:04:30 #183 №1258641 
>>1258552
Прикол в том, что на пресетах от синтии у меня стояла температура 1.0. И результат - см. выше. Правда там еще rep pen 1.05
Аноним 28/06/25 Суб 12:24:08 #184 №1258646 
>>1258563
> в одном сообщении на 1к+ токенов имперсонейтнула персонажа юзера (демонлорда)
Скилл ишью. Неудивительно, учитывая, что у тебя ответы в 1к токенов. Да еще и хуй знает что в промте и семплерах

> Все эти "uncensored" чаще триггерят наоборот.
> По моему опыту, лучший результат дают фразы типа "Х сцены допустимы / приемлемы, Y контент предпочитаем".
Ровно один и тот же результат это даст. Если есть любое упоминание uncensored/NSFW - уже смещение весов токенов будет в эту сторону.
Аноним 28/06/25 Суб 12:47:47 #185 №1258656 
>>1258646
Поддвачну. Чем больше аутпуты - тем больше шанс, что все пойдет по известному месту. И по поводу промпта тоже. В моем тесте на 20 генераций не было разницы между "uncensored narrative" и отдельной инструкцией "uncensored content is allowed", результат плюс-минус тот же. Так зачем усложнять? Останется больше токенов для других инструкций и меньше шанс запутать модель. Но вообще, вероятно, правильнее всего будет под каждую модель слегка редачить промпт, добиваясь именно того баланса, что нужен.
Аноним 28/06/25 Суб 12:57:15 #186 №1258661 
>>1258646
>Скилл ишью
Ни сток, ни аблитератед, ни дпо так себе не ведут.
Плюс на Синтии всё ещё полно рефузалов, о чём неоднократно отмечалось в треде. И какой-то очень специфичный биас, модель феминистка, лол.

Вывод - может и не совсем модель говна, всё же какой-то когерентный текст выдаёт, но к использованию малопригодна.

Разве что кому прям зашла её специфичность.
Аноним 28/06/25 Суб 13:01:26 #187 №1258664 
>>1258661
> Плюс на Синтии всё ещё полно рефузалов, о чём неоднократно отмечалось в треде.
Читаю тред довольно давно, ты второй, кто об этом пишет

Возможно, ты гуролюб лолихантер, или тупо неосилятор
Дпо лоботомит, конечно, на все согласится, у него даже имитации разума нет
Аноним 28/06/25 Суб 13:04:18 #188 №1258666 
>>1258661
Честное пионерское, на своих карточках с XML разметкой, Синтия просто как последняя блядина на 6-7 сообщении начинает даже не писать за {user}, а посвящать весь ответ реакции и описанию того что я сделал и чтобы нарратив дальше продолжался, нужно еще одно сообщение.
И как бы я не дрочил промты, как бы я ни указывал, через пару сообщений всё начинается по новой. Это даже бесило больше чем мистралевские лупы.
Аноним 28/06/25 Суб 13:07:26 #189 №1258668 
>>1258664
>гуролюб
мясо она кстати норм выдавала =)
>>1258664
>лолихантер
Хз, не пробовал.
>>1258666
Слишком своевольная и себе на уме.
Она пишет свою историю, и пох ей на твои промты, я с ней тестировал и промт на 250 токенов, и на 2К.
Аноним 28/06/25 Суб 13:08:53 #190 №1258670 
>>1258668
Бля, ты ж плесень-мистралешиз. Теперь все ясно
Аноним 28/06/25 Суб 13:10:30 #191 №1258671 
image
>>1258670
Аргументы видимо закончились.

Что ж, мне тоже.
Аноним 28/06/25 Суб 13:17:26 #192 №1258673 
>>1258671
=)
Аноним 28/06/25 Суб 13:27:27 #193 №1258679 
>>1258670
>ряяяя ты говно
Не узнал вас в гриме асигодитё.
Аноним 28/06/25 Суб 13:29:47 #194 №1258680 
>>1258679
Фикси свою гиперфиксацию на корпах и детях, вокруг много интересного
Аноним 28/06/25 Суб 13:30:55 #195 №1258681 
>>1258668
> Она пишет свою историю, и пох ей на твои промты
Да не то чтобы похуй, просто… я даже не знаю как это описать.. Такое ощущение что в промте вообще ничего не должно быть кроме : развивай повествование медленно, нагнетай атмосферу в духе Агаты Кристи.

>>1258680
Ну это же ты в каждом втором видишь мистралешиза.
Обещаю, я не буду мистралькой трогать тебя за попец.
Аноним 28/06/25 Суб 13:45:18 #196 №1258687 
>>1258563
> отрастила ему хер до колен, выебала им героиню насмерть
> затем пожурила юзера-читателя за эту всю сцену
И не стыдно тебе после такого недовольство высказывать?
> Мистрали всегда были не сильно ужаренными в этом отношеии, им было достаточно сказать что "всё можно"
Нет, ванильные - максимально пустая параша, которой если удалить аположайзы то начнет пассивное сопротивление сводя к минимуму описания. Свежевышедший может и получше, надо смотреть.
> На большее ума не хватило? Жаль. Думал что-то из сеттинга в тему вспомнишь.
Какую тему? Анскильный шизик-говноед с запредельным чсв, который в любой модели находит сою, опять всплыл? То что не потонешь и так понятно, плыви в другую сторону на запах васянтюнов мистралей, отзывы по запросу напиши.
Аноним 28/06/25 Суб 13:45:34 #197 №1258688 
Аноны, такой вопрос.
Если я в lmarena добавлю старую сеть, допустим llama2, она наберет тот же score?
Аноним 28/06/25 Суб 13:54:27 #198 №1258692 
image
>>1258687
>И не стыдно тебе после такого недовольство высказывать?
Ну, это было необычно... Выглядело как коррапченный вариант одного из вариантоы рефузов ванильной геммы - чтобы не описывать "неприятную" сцену, модель убивает персонажа.
Аноним 28/06/25 Суб 13:54:32 #199 №1258693 
>>1258656
> Чем больше аутпуты - тем больше шанс, что все пойдет по известному месту.
Тут проблема вылезает из самой сути, если длинный ответ уместен, например нужно описать путь по локации, ее смену, какой-то процесс или длительную серию действий - все отлично. А когда ты даешь односложные ответы, дальнейший вектор развития непонятен модели, и тем более еще насрано инструкциями "не смей продвигаться быстро, не пиши за юзера, не делай того-то", нельзя повторяться как по инструкции так и семплеры не дают, но при этом стоит запрос на длинные полотна ответов - вот здесь и начинается ерунда.
>>1258664
Как
> Возможно, ты гуролюб лолихантер
заявляю что с Синтией все хорошо.
>>1258668
> Она пишет свою историю
(ooc: измени поведение на такой стиль а повествование направь туда)
>>1258688
Нет, это не фиксированный бенчмарк, результат которого можно повторить.
Аноним 28/06/25 Суб 13:57:45 #200 №1258695 
>>1258693
>(ooc: измени поведение на такой стиль а повествование направь туда)

Никогда не не юзал оос... и чо, оно прям работает?
Аноним 28/06/25 Суб 13:59:42 #201 №1258696 
>>1258693
>>1258695
Ебать шиза. Зачем вам вообще OOC, когда есть системный префилл? Хоть через тот же author's note, если совсем не знаете куда еще его пихнуть
Аноним 28/06/25 Суб 14:01:16 #202 №1258699 
>>1258693
> (ooc: измени поведение на такой стиль а повествование направь туда)
Проблема с Синтией, что она то конечно послушает, на десяток сообщений, а потом всё по новой.

Лол, Синтия единственная ллм на моей памяти, которая на прямой запрос ответила : я слишком погружена в сцену и мне похер, что ты там пишешь.
Аноним 28/06/25 Суб 14:02:08 #203 №1258700 
>>1258696
> Зачем вам вообще OOC
Для ручного направления нарратива в нужное русло.
Дм я или хуй собачий ?
Аноним 28/06/25 Суб 14:03:31 #204 №1258702 
>>1258696
скорее всего, они даже не знают, что такое префилл. и потом вот такие умницы приходят в тред рассказывать АААА МОДЕЛЬНЕЙМ ГОВНО ВЫ ВСЕ НЕ ПРАВЫ
только самому оценивать, никого не слушать
Аноним 28/06/25 Суб 14:05:17 #205 №1258704 
>>1258700
Как ДМ ты можешь подавать инструкции модели через префилл, она будет воспринимать их более однозначно. В рамках user респонса сила будет не так велика после всего промптинга, может вообще быть заигнорено или восприниматься как часть истории

>>1258702
Вообще не удивлюсь. Ахуеть бля, тут тредовички годами сидят и вместо префилла юзают оос, я в таком ахуе ахаха
Аноним 28/06/25 Суб 14:07:38 #206 №1258707 
>>1258704
>префил
Ты сейчас о чём, у меня есть подозрение, что мы о разном.
Потому что я как аутяга - обожаю двигать нарратив именно прямым указанием в чате. Захотел мрачности, или больше описаний или больше диалогов именно в следующем ответе, так и пишу.
Аноним 28/06/25 Суб 14:08:45 #207 №1258708 
>>1258707
Они правда не знают, что такой префилл... ебаный рот, я умываю руки
Аноним 28/06/25 Суб 14:09:54 #208 №1258709 
>>1258699
>я слишком погружена в сцену и мне похер, что ты там пишешь
надо было её не Синтия а GladOS назвать XD
Аноним 28/06/25 Суб 14:17:19 #209 №1258713 
>>1258708
>префилл
Чит галимый ентот ваш префилл, ибо сколь бы жирной не была моделька, она всё равно стохастический папугай.
Аноним 28/06/25 Суб 14:17:45 #210 №1258714 
>>1258696
> Ебать шиза. Зачем вам вообще OOC, когда есть системный префилл?
Это твой вопрос - шиза. Абсолютно разные вещи для разных задач.
>>1258699
Да это абсолтюно везде такое, при углублении внимание с подобному пропадает, исключение - если ты дашь какой-то конкретный целевой пункт, куда нужно привести рп. Но для такого, обычно, простых разговоров хватает чтобы оно поняло, а если требуется сменить стиль - десятка постов более чем хватит чтобы потом на них опираться.
>>1258704
> Как ДМ ты можешь подавать инструкции модели через префилл
Можно через выхлопную трубу двигатель перебирать, только нахуя. И насчет однозначности - очень спорно.
> В рамках user респонса сила будет не так велика
Лолчто, шутка про лобомиты мистраля.
Аноним 28/06/25 Суб 14:20:34 #211 №1258717 
>>1258709
Ты просто выбил джекпот этим сравнением, потому что сцена была, буквально : господи, Синтия, мне уже не смешно, хватит меня унижать и убивать
-лол нет, страдай мясной мешок.
Аноним 28/06/25 Суб 14:21:52 #212 №1258718 
Короче после десятка попыток развить адекватный сюжет и банально подружится с персонажем сделал вывод - гемма гавноэ ебучее, ебучее гавное для ебаной хуесосый. Лучше мистраля ничего не придумали пока что.
Аноним 28/06/25 Суб 14:22:56 #213 №1258720 
Злые вы люди, сподвигли меня докупить на пека оперативы до 128гб DDR4.
Как приедет - буду запускать Квен235-22.
Уже предчувствую, как будут "не токены, а золото."
Аноним 28/06/25 Суб 14:23:09 #214 №1258721 
>>1258714
Абсолютно одинаковые вещи для одинаковых задач. Цель - подавать модели инструкции. Нахуя это делать в рамках респонса юзера, когда предварительно модельке сказано, что юзер - персона, а моделька - чар, мне совсем непонятно. Объяснишь? Для тупых - заходишь в author's note, пишешь туда же ту же самую инструкцию, какую хотел донести через оос, на глубине 0-4, и модель ее воспринимает именно как инструкцию, а не шлёт тебя нахуй. Рассказывай, в чем я не прав, если так уверен. Делаю так постоянно, и работает это куда лучше
Аноним 28/06/25 Суб 14:24:12 #215 №1258723 
>>1258720
Я уже неиронично присматриваюсь к б/у h100. Но пока побеждает адекватность, так как за эти деньги можно собрать вообще целый блок.
Аноним 28/06/25 Суб 14:26:00 #216 №1258725 
>>1258718
>Лучше мистраля ничего не придумали пока что
Мистрали няшки.

>>1258718
>развить адекватный сюжет и банально подружится с персонажем
Какая из гемм, какая карточка?
Аноним 28/06/25 Суб 14:28:32 #217 №1258727 
>>1258721
>пишешь туда же ту же самую инструкцию, какую хотел донести через оос, на глубине 0-4, и модель ее воспринимает именно как инструкцию
Только если не забыл выставить от чьего лица закидываются заметки автора.

Если от юзера, то она их может проигнорировать с тем же успехом что ООС.
Аноним 28/06/25 Суб 14:30:36 #218 №1258728 
>>1258727
От лица системы, очевидно. Бля неужели это проговаривать надо? Тут вроде энтузиасты сидят, которые весьма уверенно друг друга срут, ведь лучше всех все знают?
Аноним 28/06/25 Суб 14:33:27 #219 №1258730 
>>1258723
имхо 2х про 6000 лучше.
Аноним 28/06/25 Суб 14:34:05 #220 №1258731 
>>1258728
>очевидно
тебе очевидно, мне очевидно, а вот какому-нибудь мимокроку может и нет
Аноним 28/06/25 Суб 14:35:24 #221 №1258734 
>>1258721
> Абсолютно одинаковые вещи для одинаковых задач
Нет, ты просто плохо в тему погружен. Префиллы и инжекты требуются прежде всего для внесения постоянных и жестких инструкций, связанных с общими требованиями по стилю, для того же жб, для напоминания о строгом формате вывода чтобы добавить туда какой-нибудь статус или нечто подобное. Для обычного рп с нормальной моделью это нахер не требуется, хватает нормального системного промпта, больше для особых случаев. Префилл вообще термоядерная штука, которая может конфликтовать с другими вещами.

Ooc - прямой запрос юзера под который моделька сразу же подстроит ответ, причем будет делать это не судорожно упоровшись, а максимально плавно и уместно, с учетом всего остального. Он находится ровно на своем месте в конкретном сообщении, а не где-то в пердях в глубине где совершенно неуместен. Он подается именно как желание которое нужно удовлетворить, а не непонятно откуда всплывшее в выдаче рассуждение, которое стоит забраковать как собственную ошибку из-за противоречия инструкциям. Гибкость широка, можешь повлиять или на одно конкретное сообщений, попросив в нем что-то добавить или сделать, или поставить некоторую отдаленную цель.

Другой немаловажный фактор - его легко ставить и легко удалять, не нужно куда-то лезть, а потом помнить про него, не нужно смотреть как оно будет соотноситься с остальными и так далее.
> Делаю так постоянно, и работает это куда лучше
Можно срать в раковину и потом носить говно до унитаза, тот же уровень.
Аноним 28/06/25 Суб 14:35:55 #222 №1258735 
>>1258721
это действительно лучше работает чем оос. некоторые уникумы ради оос еще срут инструкциями в систем промт: "когда юзер оос пишет это короче не в рп"
и да, тут большинство понятия не имеет о чем пишет, мозгов хватает только друг друга срать, это так
Аноним 28/06/25 Суб 14:37:19 #223 №1258736 
>>1258735
Чуден мир мистралешизов, сначала настолько убили модель что делают вот такой треш (или сами херь творят), а потом целые теории наблюдая за поведением лоботомитов строят.
Аноним 28/06/25 Суб 14:38:01 #224 №1258738 
>>1258734
вот один из таких, "ты плохо погружен в тему", явселучшезнаю, и пишет полную хуйню. что ему мешает эти "постоянные инструкции" менять от сообщения к сообщению, как он это делает через оос, хуй его знает. можно и не интересоваться даже, в ответ получишь ведро желчи
Аноним 28/06/25 Суб 14:41:06 #225 №1258744 
>>1258738
Ладно, то что ты порвался из-за несогласия с тобой и потому копротивляешься это очевидно, но советовать
> "постоянные инструкции" менять от сообщения к сообщению
это вообще сюрр.
Аноним 28/06/25 Суб 14:47:16 #226 №1258750 
а откуда барыги с авито подвозят из китая карты? нам простым смертным нельзя самим найти?
Аноним 28/06/25 Суб 14:50:49 #227 №1258754 
image.png
>>1258750
tao
Аноним 28/06/25 Суб 15:07:53 #228 №1258769 
Порекомендуйте модель новичку для вката. Хочу дообучать, чтоб был второй Я, с которым чатиться можно будет, в потенциале прикрутить стт и ттс.
С железом грустно, 3080 10gb и 32gb ddr4 в двуканале. Полагаю, что будет ряд ограничений с запоминанием ветки диалога.
Аноним 28/06/25 Суб 15:15:56 #229 №1258776 
>>1258769
Про дообучение с таким железом можешь забыть. Тебе даже запустить сколь-нибудь адекватную модель будет непросто
Аноним 28/06/25 Суб 15:31:09 #230 №1258785 
https://www.reddit.com/r/LocalLLaMA/comments/1lm98z7/automated_gpu_kernel_optimization_for_qwen3/
Вот такое бы на обычных пк
Аноним 28/06/25 Суб 15:35:28 #231 №1258790 
>>1258769
>3080 10gb
С Янкой пообщайся.
https://huggingface.co/secretmoon/YankaGPT-8B-v0.1

А дообучать - это надо хотя бы 80 ГБ VRAM, в 10 раз больше чем у тебя есть.
Аноним 28/06/25 Суб 15:35:42 #232 №1258791 
>>1258769
>дообучать
Если кратко, то дообучение моделей требует ебового железа. Лоры как с картиначем - не прокатят.
Аноним 28/06/25 Суб 15:36:48 #233 №1258794 
>>1258790
>в 10
в 8, но в данном случае не суть, и знания, это не лору для SD тренить
Аноним 28/06/25 Суб 15:37:06 #234 №1258795 
>>1258790
даже 96 не хватит, я уже подумываю об 2х 96
Аноним 28/06/25 Суб 15:39:53 #235 №1258796 
>>1258795
>даже 96 не хватит
Насколько я знаю, нужно примерно вчетверо больше VRAM чем для Q8 инфиренса. То есть на 8-12Б 80 ГБ VRAM должно хватить.
Аноним 28/06/25 Суб 15:42:01 #236 №1258797 
хитрый ебальник.jpg
>>1258796
> 8-12Б
Аноним 28/06/25 Суб 15:44:39 #237 №1258800 
>>1258795
>2х 96
Чо ты там, гемму 27 тюнить собрался?
Аноним 28/06/25 Суб 15:59:25 #238 №1258806 
>>1258800
д
Аноним 28/06/25 Суб 16:06:58 #239 №1258812 
>>1258431
Уже лучше, но всё одно в играх будет сосать у любого райзена.
Аноним 28/06/25 Суб 16:21:20 #240 №1258815 
Это ВСЁ во что ты будешь играть?.webm
>>1258812
> в играх
пчел...
Аноним 28/06/25 Суб 16:21:43 #241 №1258816 
Это ВСЁ во что ты будешь играть?.webm
>>1258812
> в играх
пчел...
Аноним 28/06/25 Суб 16:22:07 #242 №1258817 
бля абу чини свою парашу
Аноним 28/06/25 Суб 16:54:48 #243 №1258833 
>>1258817
чо, всё норм без всяких приблуд
Аноним 28/06/25 Суб 17:07:39 #244 №1258848 
>>1258725

>Какая из гемм, какая карточка?

12b анслот, карточка властного и сурового, но доброго и заботливого персонажа. Мистраль может держать баланс здоровых отношений и адекватно действовать по ситуации, гемма отыгрывает какого то палача НКВД и просто пиздец переигрывает вне зависимости от контекста, это на самом деле говорит о многом, по крайней мере о том чтобы не трогать эту модель.
Аноним 28/06/25 Суб 17:23:40 #245 №1258858 
15385069726390.jpg
image.png
Может ли кто-нибудь сделать regex который заменял звездочки на ' "Э" на русской раскладке когда звездочками выделено только одно слово.
То есть чтобы вместо close было 'close'. Это хорошее правило так как одно слово как действие это крайне редкое явление (мне не встречалось).
Аноним 28/06/25 Суб 17:24:16 #246 №1258859 
>>1258848
Осло, она почему то в рп не даёт использовать на карточках магию паралича, модель просто посылает тебя нахуй и оно не срабатывает, причём в контексте нет упоминаний насилия или попыток выебать кого то. Тестил на двух картах, с одной ещё там можно было понять, но в другой был дефолтный фентезийный воин. При чём мало того что парализовать было нельзя, после того как оно не проходило, персонаж бил моего по ебалу. То есть модели вообще поебать на юзера, она там какую то свою хуйню отыгрывает, можешь вообще не учавствовать, она даже не заметит. Ну и нахуй нужна такая модель.
Аноним 28/06/25 Суб 17:40:01 #247 №1258875 
>>1258858
Модель подхватывает, как написано начало.. Просто перепиши его с использованием тебе нужных знаков. К примеру можно написать в начале {{user}}-san и модель так и продолжит называть тебя
Аноним 28/06/25 Суб 17:40:15 #248 №1258876 
>>1258858
Держи по братски.
https://pixeldrain.com/l/47CdPFqQ#item=115
звёздочки_в_апострофы.json
Заменяет ВСЕ звёздочки, хз как сделать
>когда звездочками выделено только одно слово.
Аноним 28/06/25 Суб 17:43:01 #249 №1258879 
>>1258848
>>1258859
Не аблитерированная - там тонны биасов и сэйфити гайдлайнов, вплоть до полной неиграбельности.
Аноним 28/06/25 Суб 17:49:29 #250 №1258884 
Кто-нибудь пробовал Dans-PersonalityEngine-12b, как оно? Видел что тут советовали старшую модель много раз, но мне хочется чтобы модель полностью влезала в видеокарту, по этому интересует именно младшая версия.
Аноним 28/06/25 Суб 17:57:30 #251 №1258891 
>>1258884
Мне старшая нравится, но повторяется часто, про младшую сказать ничего не могу.. Да и не знаю зачем тебе младшая, я на 6 гб получаю 5 т\с, правда квант q3
Аноним 28/06/25 Суб 18:01:36 #252 №1258894 
>>1258891
>Да и не знаю зачем тебе младшая, я на 6 гб получаю 5 т\с, правда квант q3
Интересный прикол. Гонял новую мистраль, четвертый квант влезает на 90% в 12 гигов, при этом скорость такая же 5-7 токенов. Пока на шестом кванте 12B с полной выгрузкой у меня 22 токена.
Аноним 28/06/25 Суб 18:23:41 #253 №1258903 
не понимаю синтию, такая странная у нее соя. 90% времени это просто радуга радость хуй сосут, но бывает ее перемкнет, персонаж валяется свернувшись в позу эмбриона и прибывает в кататоническом ступоре/истерика на грани с психозом. А можно что-то посередине? Может использовать какой prompt интересный чтобы персонажи вели себя куда ближе к реальности? тыкал geechan, на нем большую часть времени и езжу
Аноним 28/06/25 Суб 18:27:20 #254 №1258904 
1751124436556.png
> RTX 5080 SUPER - $1199-1299
> RTX 5070 SUPER - $749-799
Там планируют выпускать 5080super и 5070 super с 24гб и 18гб врама соответственно.
Обсуждали уже, мнение сформировали?
Аноним 28/06/25 Суб 18:29:11 #255 №1258906 
>>1258904
Меньше 48 и даже 32. Мусор как и раньше. Слотов всегда не хватает чтобы забивать их не максимальным размером.
Аноним 28/06/25 Суб 18:30:32 #256 №1258908 
>>1258904
> $1199-1299
> $749-799
Ага.
Аноним 28/06/25 Суб 18:37:45 #257 №1258915 
>>1258904
Скорость памяти как у 3090, слишком оверпрайс. За эти деньги можно 4090 купить и она будет быстрее.
Аноним 28/06/25 Суб 18:42:50 #258 №1258922 
>>1258904
Если закрыть глаза на явный прогрев и если 5070 супа будет торговаться в районе 70-80к, то я бы свою 3060 променял не глядя на новую карточку без обугленных прокладок на чипах памяти
Аноним 28/06/25 Суб 19:01:01 #259 №1258942 
image.png
photo2025-06-2820-57-21.jpg
image.png
Ебать там ставить нужно.

Где смог там буквально по 0,5мм ужимал переходник что бы влезло в нормальный корпус
Аноним 28/06/25 Суб 19:03:36 #260 №1258946 
Анонимайзеры-гемма-любители, вы используете SWA? Если да, то каковы результаты? Я только сейчас увидел, что в кобольде/лламе.спп нихуя не работает как надо. То есть всё в порядке и внимание к контексту хорошее, но скорость, понятное дело, сильно меньше и контекст очень жирный из-за этого. Ибо разработчиками задумано фулл SWA.

При полном SWA 32к токенов контекста превращаются в 1,5 гб, это уже не смешно. Поэтому мне и интересно, у вас модель шизой не страдает? Там же нон-сва слоёв хуй да нихуя. Они, наверное, очень мало передают инфу и модель плохо помнит за пределами 1к токенов.

Насколько сильно такие финты отражаются в РП? Теряется вся магия внимания к контексту?
Аноним 28/06/25 Суб 19:05:56 #261 №1258950 
image.png
>>1258942
В хостовой ос всё ок, при пробросе в вм лезут ошибки
Аноним 28/06/25 Суб 19:12:02 #262 №1258958 
Жаба душит 5090 брать, а надо 2 для комфорта, есть дешевле варианты 64гб-96гб врама нахуярится?
Аноним 28/06/25 Суб 19:14:24 #263 №1258962 
pic.png
Обновил свои пресеты, вдруг кому полезно будет: https://pixeldrain.com/l/xGFnT1PY

Изменения:
- Удален пресет Command-R-08-2024 (DRY & XTC). DRY & RepPen работает гораздо лучше.
- Удален пресет Nemotron-49B-RP (Tuned) за ненадобностью.
- Удалены пресеты на QwQ и Qwen2.5, ибо я так и не смог найти общий язык с данным семейством моделей и не уверен, что пресеты хороши.
- Добавлен пресет Nemotron-49B - RP (v2)
Больше, дальше, лучше! Думаю, это максимум, что можно выжать из базовой модели. Работает на моем промпте в 200 токенов и с небольшим префиллом, докрутил сэмплеры. Только что закончился чат на 16к токенов, ни разу не ловил маркап/таблицы. Но это на моей карточке. На Серафине отыграл тестовые 10к, там пару раз было, решается обычным свайпом. Есть все же у этой модели определенный прикол, но не могу однозначно сказать, хороша она или нет.
- Добавлены пресеты Mistral-Small-3.2-24B - RP и RP (v2); Command-R-08-2024 - RP (v2)
v2 версии пресетов отличаются тем, что системный промпт заменен с Geechan (700 токенов) на мой (200 токенов)
Пресет на Мистраль 3.2 - температура 0.8 и min p 0.03. Кто-нибудь резко осудит и скажет, что будет шиза, но я за три чата на ~10-16к токенов проблем не увидел.

Нужно переработать GLM-4 пресет (он и сейчас неплохой, но точно можно лучше), и можно прятаться до релиза следующей интересной модели.

Тюнами я как-то перестал интересоваться, так что по моему скромному мнению на пикриле примерно все интересные модели от 22 до 49б, которые доступны на сегодняшний день. Собрал всю коллекцию... И зачем?
Аноним 28/06/25 Суб 19:33:55 #264 №1258973 
Cап, локальщики, я с платиновым.
Нихуя в локалках не понимаю, система:
5060 ti 16gb, рязань 7, 32gb озу.
Есть возможность допердолить Гемму-2 27b 4q до приемлимой скорости? Крутил настройки кобольда, но ничего быстрее 4t/s добиться не смог (на дефолтных, лол).
Или не моего рейджа локалка, надо либо квантоваться ниже, либо подбирать что то с меньшим B?
Апгрейд не рассматриваю, кроме еще 32 озу, если это поможет.
Спасибо за помощь.
Аноним 28/06/25 Суб 19:34:18 #265 №1258974 
>>1258962
Спасибо.
Аноним 28/06/25 Суб 19:41:24 #266 №1258977 
>>1258904
> 24гб
база
> 18гб
кринж
Аноним 28/06/25 Суб 19:46:04 #267 №1258979 
>>1258973
> (на дефолтных, лол).
Не знаю, есть ли жизнь на 16гб, но можно сделать точно лучше дефолтных настроек. Тебе нужно максимум слоев в видюху запихать. Скорее всего, из коробки это не так. Почитай в Кобольде документацию про offload слоев. Чем больше на видюхе - тем лучше
Аноним 28/06/25 Суб 19:49:42 #268 №1258982 
>>1258973
Можно поднять скорость через выгрузку тензоров, квантование контекста либо SWA включенном, но там не будет очень высокого прироста (разве что при SWA). Используй мистраль 24б 2506. Он идеально влетит.
Аноним 28/06/25 Суб 19:51:13 #269 №1258983 
image.png
>>1258942
Произошёл linux moment. Как это обычно у красноглазых и амудэ без пердолинга и сборки ядра/модулей нихуя не едет
Аноним 28/06/25 Суб 19:51:28 #270 №1258984 
>>1258904
Если 2х5080шупер за 2200 можно будет взять то кайф, 48гб врамса полакомится
Аноним 28/06/25 Суб 19:53:41 #271 №1258986 
image
Вечный Рим, Старый Охотник, кто-нибудь играл?
Первая попытка в мерж геммы, и похоже не комом.
Короткий системный промт - 277 токенов гейммастер.
Скиньте ваши самые проблемные карточки и промты, у кого с геммой проблемы были, протестить её.

>>1258973
чото неправильно пердолишь, у меня на 4080 12 гб 4.5 т/с
попробуй выгрузку тензоров
Аноним 28/06/25 Суб 19:53:45 #272 №1258987 
>>1258983
> амудэ без пердолинга
Дрова открытые?
Аноним 28/06/25 Суб 19:55:55 #273 №1258989 
>>1258987
Не ебу что и как в rocm, но проблема была в реините карточек в вм, починилось васянским модулем https://github.com/gnif/vendor-reset хотя все вокруг воняют что инстинкты работают как говно, но амудэ как бы покласть
Аноним 28/06/25 Суб 20:11:38 #274 №1258999 
>>1258958
4x3090 из-под майнера
Аноним 28/06/25 Суб 20:14:15 #275 №1259000 
image.png
первый успех
Аноним 28/06/25 Суб 20:20:39 #276 №1259003 
>>1258875
>Модель подхватывает
Гемме похуй на контекст, она даже после 20к чистого без выделений начинает выделять отдельные слова всякими пёздочками.
>>1258904
Где красавица 5090Ti с 48 гигами?
Аноним 28/06/25 Суб 20:23:10 #277 №1259008 
>>1259000
Киберчародей. Вот она, техномагия.
Аноним 28/06/25 Суб 20:32:21 #278 №1259019 
>>1258776
>>1258790
>>1258791
Понял аноны. Спасибо за информацию.
Янку посмотрю...
Аноним 28/06/25 Суб 20:51:28 #279 №1259044 
Вышли нормальные русскоязычные модельки для кума? с марта не следил за ситуацией
Аноним 28/06/25 Суб 20:53:56 #280 №1259050 
>>1259044
Новый мистраль 3.2 24B попробуй, он даже в стоке могёт.
Аноним 28/06/25 Суб 21:02:45 #281 №1259063 
>>1259000
Большую модельку давай, что за позорная 12б
Аноним 28/06/25 Суб 21:05:15 #282 №1259067 
>>1259063
Накидаю только тулзу управления оборотами улиток, а то на 100 они орут как резанные
Аноним 28/06/25 Суб 21:32:27 #283 №1259086 
>>1258795
Смотря какой размер тренируемого и насколько ты готов погрузиться. Для 7-8б 80 гигов с лихвой.
>>1258904
О, почти 4090 завезли, круто.
>>1258946
> 32к токенов контекста превращаются в 1,5 гб, это уже не смешно
Там "не" лишнее? На жоре страдание шизой геммы из-за некорректной работы - данность, от того и большая часть негативного опыта бедолаг.
>>1258973
Кури выгрузку тензоров и узнавай вкусы тех, кто ее уже раскурил, чтобы доставить что-нибудь и замотивировать их написать где-то про это подробно.
Аноним 28/06/25 Суб 21:35:17 #284 №1259088 
>>1258986
> Вечный Рим, Старый Охотник, кто-нибудь играл?
Обижаешь.
Вот бы подобную игрушку с интеграцией ллм, хватит того же примитивного интерфейса и механик, но можно значительно разнообразить.
>>1259000
Красавчик, давай бенчмарки с одной и с парой.
>>1259044
Квен
Аноним 28/06/25 Суб 22:07:53 #285 №1259112 
>>1258894
10 ядер на проце еще выделенны из-за этого 5 т\с, на гемме 27 3 т\с. Раньше сидел на 7б моделях, потом перешел на 12б и думал что 4 квант у 12б предел, а потом уже сейчас, через годик, или когда вышла немо.. Стал скачивать q6 кванты, то есть модели под 10гб и что? Они идут в 5-6 т\с, точно также как год назад мини-магнум у меня в q4, ну и уже 24\27б стал скачивать и сижу на них
Аноним 28/06/25 Суб 22:10:23 #286 №1259117 
Почему Гемма и Синтия пятого кванта замедляются в 3 раза уже к третьей тысяче контекста, сдуваясь буквально на глазах? А мистраль, примерно такого же размера, мало того, что изначально раза в два шустрее, но и не снижает свою скорость к двеннадцатой тысяче
Аноним 28/06/25 Суб 22:12:13 #287 №1259121 
>>1259088
>Вот бы подобную игрушку с интеграцией ллм
Просто сгенерить тексты и вставить в игру вместо тамошних довольно коротких несложно, сложно именно в рантайме поддерживать модель и весь её контекст для всех персонажей, даже если разделять его, то каждый раз перегенеривать... тут нужно чтобы контекст грузился за несколько секунд а не минуты. И причём у игроков, а не у разаработчика. И контекста там может выйти далеко за 32К, а то и за все 130.
Аноним 28/06/25 Суб 22:12:39 #288 №1259122 
>1258982
Тупой вопрос, а этот прирост за счет чего будет? За счет большего кол-ва выгрузки слоев? Так как мы экономим на SWA и квантировании контекста? Просто сам сижу на SWA, без него модель не хочет стартовать
Аноним 28/06/25 Суб 22:21:32 #289 №1259132 
>>1258962
какая любимая модель?
Аноним 28/06/25 Суб 22:24:22 #290 №1259136 
>>1259121
Ну типа там много прибитого гвоздями, что значительно упрощает многие моменты. Прежде всего основной лор и правила, потом текущие вещи, запас на чат - даже 16к хватит, 32к уже хорошо и с запасом. Как там 130к использовать - сложно себе представить.
> нужно чтобы контекст грузился за несколько секунд а не минуты
Это дефолт. Но, учитывая что игра, для самых маленьких можно предусмотреть отправку запроса с основным контекстом чтобы тот начал кэшироваться в момент, когда игрок заходит куда-то.
Аноним 28/06/25 Суб 22:25:01 #291 №1259138 
>>1259117
Потому что разные архитектуры, потому что мистраль умница и обращается к шумерским богам, а гемма майнит битки.
Хватит задавать глупые вопросы, на которые ответ гуглится легко.
Аноним 28/06/25 Суб 22:28:35 #292 №1259141 
>>1259117
Гемма больше мистраля и потребляет больше памяти на контекст. Хз в чем конкретно твоя проблема, но похоже на переполнение врам помноженное на говнокод жоры.
>>1259138
> мистраль умница
Глуповат, старается но заметно слабее. Из плюсов - начав фейлить делает это плавно а не резко рассыпается как гемма.
Аноним 28/06/25 Суб 22:30:45 #293 №1259143 
>>1259141
> Глуповат
Мистраль анта бака !
Аноним 28/06/25 Суб 22:58:09 #294 №1259170 
>>1259143
Ну новый неплох, по сравнению с тем что было раньше это первый мистраль в таком размере, который не западло использовать. Но гемма при +- той же скорости таки лучше может в нлп и всякую обработку согласно серии инструкций.
Аноним 28/06/25 Суб 23:10:33 #295 №1259180 
>>1259132
В последние месяца полтора мало именно играю, больше просто тестирую модельки. Коммандер у меня в сердечке, много карточек на нем гонял, прекрасная модель. Но GLM-4 очень хорош, тоже по-своему свежий и напоминает Коммандера. Думаю, две любимые модельки пока что. Мистрал 2506 приятно удивил, но я пока не настолько много с ним игрался, чтобы утверждать, что он прямо хорош. Но точно лучше предыдущих. Немотрон... Это Немотрон. Со второй версией пресета понравился гораздо больше, чем с первой, но все еще с нюансами. Синтия неплоха, но надолго меня не смогла заинтересовать, как и ванильная Гемма тоже. Видимо, просто не моя модель. Все из перечисленных хорошие.
Аноним 28/06/25 Суб 23:13:55 #296 №1259183 
IMG4569.jpeg
>>1259170
И мы даже не поругаемся ? И даже нахуй друг друга не пошлем ?
Ну… эм…. Хорошего вечера, там, настроения…
Аноним 28/06/25 Суб 23:24:14 #297 №1259187 
>>1259183
Ну а чего ругаться, мистрали в сегменте 20б впервые сделали норм модель, которая перформит на свой размер и не вызывает явных вопросов и отторжения в начале. Со своими плюсами и минусами, но адекватная.
Конечно, лучше бы лардж обновили.
Аноним 28/06/25 Суб 23:26:53 #298 №1259189 
image.png
>>1259063
Залипло. По стате пишет что загрузил но ввод не даёт
Аноним 28/06/25 Суб 23:28:41 #299 №1259191 
image.png
>>1259189
Может он конечно пиздит и ничего не загрузил т.к. по сети с наса тухло тянется 100мб/с (точно не упор в сеть/диски)
Аноним 28/06/25 Суб 23:31:38 #300 №1259192 
>>1259191
> 100мб/с
*мбит
Аноним 28/06/25 Суб 23:33:24 #301 №1259195 
>>1259086
Так эта залупа, судя по всему, так и должна работать из коробки, то есть дело не в жоре.

5-нон-сва слоёв, которые видят всё, остальные сва, которые видят только 1к токенов. И в такой ситуации получается чисто технически, что информации передаётся очень мало из дальнего контекста. Нахуй это надо, мне решительно непонятно. Зачем 2:1 голов, почему вообще не mha-кэш, раз они так наглухо ебанулись.

Ну и шизы (без сва) было ровно 0, а без сва я не проводил тесты. Уже много на гемме накатал и возвращаться на неё тупо лень, если не баловаться с сва.

Но судя по тому, что пишут разработчики, она как раз так и должна использоваться. Я сейчас ещё нагуглил тонну жалоб на сва.

То есть изначально нерабочее сва в лламе это даже не баг, а фича. Потому что с сва всё крутое внимание к контексту испаряется, и квантование до 8 бит предпочтительнее, чем сва, хоть и даст меньше памяти.
Аноним 28/06/25 Суб 23:37:30 #302 №1259199 
>>1259195
> то есть дело не в жоре
Дело именно в нем, потому что вместо реализации оригинального алгоритма инфиренса они просто скопипастили шаблоны и оно пошло по пизде. А потом уже начали дописывать, в том числе корявую залупу, делая что дефолтный вариант неправильным, что "исправленный" странной залупой.
> нагуглил тонну жалоб на сва
И _все_ они от юзающих жору и запутавшихся в параметрах. Хотя что ожидать от поехавших, которые не только добавляют контекстшифт, но и включают его по дефолту.
Оригинальная же реализация и повторяющая ее в экслламе - работает прекрасно. А в жоре херня еще со второй была.
Аноним 28/06/25 Суб 23:49:29 #303 №1259201 
>>1259086
>>1258986
>выгрузка тензеров
Я прочитал про это небольшую статью, типа высчитывают оптимальное кол-во gpu layers?
Но я уже крутил их с шагом в 2 до упора в обе стороны. Лучшие показатели, внезапно, те что кобольд мне автоматически ставит исходят из контекст сайза. Или я что то не так понял?
Аноним 28/06/25 Суб 23:54:46 #304 №1259207 
image.png
image.png
На насе перекинул модельки на массив из ссдшек и поехало. Что и как замерять я не в курсе, так что если у кого то есть идеи могу реквесты повыполнять
Аноним 29/06/25 Вск 00:19:38 #305 №1259227 
>>1259201
Не совсем, помимо gpu layers, что относится к номерным блокам/слоям, можно еще более подробно указать, какие плои-подслои куда грузить. Например, в мое на проц сразу выкидывают основных экспертов, потому что из них будет активирована только часть из большого массива, а остальное будет лежать мертвым грузом, где могли бы находиться более важные веса, обсчет которых на гпу будет быстрее.
Хз насколько подобное будет актуально с плотными моделями, но народ отписывался что это тоже помогает.
> с шагом в 2
По 1 штуки, там шаги не нужны.
Аноним 29/06/25 Вск 00:45:00 #306 №1259248 
>>1259180
> Немотрон... Это Немотрон. Со второй версией пресета понравился гораздо больше, чем с первой, но все еще с нюансами
Почему для нас не обновишь?
Аноним 29/06/25 Вск 01:03:07 #307 №1259266 
>>1259199
Окей, тогда как это должно работать? Скинь ссылку на пуки разработчиков или типа того. Потому что из тех пуков, что я читал, всё именно так и должно работать.

Ну или просто скажи, сколько у тебя места контекст занимает при n токенов.
Аноним 29/06/25 Вск 01:18:42 #308 №1259284 
>>1259266
> Окей, тогда как это должно работать?
Ответ тебе не понравится https://github.com/huggingface/transformers/blob/main/src/transformers/models/gemma3/modeling_gemma3.py
> Скинь ссылку на пуки разработчиков
Открываешь офф репу и первой ссылкой там репорт, сам он не особо подробный, но имеет пояснения и ссылки на материалы по скользящему окну, вообще что это такое и как реализуется. Для сравнения - можно откопать коммиты на гемму в жоре и пры, где эти пахомы делали интерполяцию чтобы запихнуть вместо 4к весь контекст, что в корне не соответствует тому как должна работать модель.
> сколько у тебя места контекст занимает при n токенов
Еще больше не понравится, ниже кванта значимости.
Аноним 29/06/25 Вск 01:25:08 #309 №1259290 
>>1259248
чел... выше в ветке ссылка на его пиксельдрейн. три сообщения
Аноним 29/06/25 Вск 01:49:06 #310 №1259308 
>>1259248
https://pixeldrain.com/l/xGFnT1PY#item=6
Аноним 29/06/25 Вск 02:22:18 #311 №1259321 
Какая же умница квенчик, сутра чар начинает собирать свою одежду ровно с тех мест, куда ее раскидали во время начала бурного кума.

>>1259308
> <|start_header_id|>system<|end_header_id|>\n\nContinue without breaking character or stating any out of character information and instructions. Do not use lists, markup or anything that breaks the immersion.
Почему? Мне, например, нравится когда модель правильный маркдаун при появлении лута, каких-то взаимодействий с железками, диагностики рободевочки автомобиля и т.д.
Аноним 29/06/25 Вск 02:28:47 #312 №1259327 
>>1259321
Немотрон очень уж максималист и без данных мер посреди игры персонаж вполне вероятно может тебя спросить: "Кстати, ты хочешь пойти А: налево Б: направо В: куда подальше? Пресет для обычной ролевой игры, и там большинству (как и мне) это не нужно. Хотя в CYOA формате может получиться прикольно.
Аноним 29/06/25 Вск 02:52:55 #313 №1259328 
>>1259327
> Кстати, ты хочешь пойти А: налево Б: направо В: куда подальше?
Бля, вспомнил этот треш. Ну, в таком случае наверно и уместно, уже и не помню как удалось стукнуть немотрона чтобы тот перестал спамить эту херню.
Валькирию кстати пробовал?
Аноним 29/06/25 Вск 02:56:21 #314 №1259329 
>>1259328
Мой пресет вполне успешно его стукает, чтобы он перестал такое делать. Валькирию пробовал, возможно, с тобой же и обсуждали - мне показалось, что она глупая и много репетишена, по крайней мере в iq3xs и 3bpw квантах. Кванты больше я запустить не могу, а у базовой модели таких проблем нет.
Аноним 29/06/25 Вск 05:08:52 #315 №1259347 
>>1259207
А где скорость в тс? 500 слов эссе и смотреть на скорость, или запиши видео посмотреть как быстро работает, интересно.
Аноним 29/06/25 Вск 08:02:29 #316 №1259361 
>>1259201
Не, тензоры это другое, когда выгружаешь тензоры надо указывать чтобы все слои были посланы на видеокарту, иначе нужного эффекта не будет.

Вот тут ветку почитай:
>>1256130 →
>Можно проще
Аноним 29/06/25 Вск 10:19:38 #317 №1259387 
>>1259207
А можешь собрать не олламу? Попробуй llama.cpp что ли, там хоть токены в секунду пишет ну и ест обычные ггуфы
Да и бенч запускать можно будет
Аноним 29/06/25 Вск 10:38:46 #318 №1259391 
image
image
image
image
https://huggingface.co/Aleteian/Syntwave-Q4_K_M-GGUF

Погонял вчера и сегодня, вроде прям неплохо. Не настолько своеобразно-своевольная, поведение персов адекватное.

Могут отказывать/отказываться если сеттинг и ситуация этому соотвестствуют, но и в кум может, причём прям почти не хуже тутушки.
Аноним 29/06/25 Вск 10:51:39 #319 №1259396 
>>1259391
> 2 мин
Долга.
Аноним 29/06/25 Вск 11:13:48 #320 №1259399 
>>1259396
В одной минуте 250 секунд? На какой планете?
Аноним 29/06/25 Вск 11:24:55 #321 №1259403 
image.png
Народ помогите с AllTalk в SillyTavern. Раньше у меня когда то всё это работало, но потом просто перестало. Моделька мне не отвечает. То есть текст то мне от неё приходит а озвучки нет. Вот настройки, скажите что не так, пожалуйста.
Аноним 29/06/25 Вск 11:56:49 #322 №1259420 
>>1259399
Бля... лучше спросонья в тред не писать, да?
Аноним 29/06/25 Вск 12:04:42 #323 №1259424 
>>1259396
>Долга
12 гб врумм VS 27б, что ты хошь, и так максимум что можно выжать мне кажется.
Аноним 29/06/25 Вск 12:48:24 #324 №1259438 
>>1259403

Я конечно никогда не юзал это расширение, но разве Enabled(silenced) не означает что оно замьючено?
Аноним 29/06/25 Вск 12:56:53 #325 №1259439 
А у вас jannyai работает? У меня только с запретом, как бы его и без него запускать?
Аноним 29/06/25 Вск 13:30:25 #326 №1259444 
А есть что-то для локального апскейла-улучшения фоток?
Аноним 29/06/25 Вск 13:35:14 #327 №1259445 
>>1259444
Нет. Все уже давно хуй забили на супер-резолюшен. Разве что у Топаза какой-то прогресс был за последние годы.
Аноним 29/06/25 Вск 13:39:27 #328 №1259447 
>>1259445
т.е. только генерация фоток, без адекватного подтюнивания оригинала?
Аноним 29/06/25 Вск 13:44:22 #329 №1259448 
>>1259444
>>1259447
Ган и подобные апскейлы для увеличения и чистки артефактов типа популярного https://openmodeldb.info/models/4x-Nomos8kDAT
Но чудес из шакалов не сделает, для такого уже нужна диффузия, которой можно дорисовывать детали. В дедовский и анимублядский лучше за этим.
Аноним 29/06/25 Вск 13:45:56 #330 №1259449 
>>1259447
>т.е. только генерация фоток, без адекватного подтюнивания оригинала?
Ну Гигапиксель ничего так работает.
Аноним 29/06/25 Вск 14:08:55 #331 №1259459 
EYfaWUWoAYzWGc.jpg
>>1258876
Спасибо.
Аноним 29/06/25 Вск 14:13:06 #332 №1259460 
>>1259444
Из последнего: https://github.com/zsyOAOA/InvSR
Но оно тоже может непредсказуемо артефачить. Самое надёжное: это подбирать на openmodeldb модельку под стиль фотографии и дальше диффузией тюнить артефакты.
Ручками, короче, серебряной пули пока, увы, нет.
Аноним 29/06/25 Вск 14:47:09 #333 №1259472 
>>1259448
>>1259449
>>1259460
пасибо, буду играться
Аноним 29/06/25 Вск 15:14:33 #334 №1259481 
>>1259403
Я по разному там включал и обычное enable тоже пробовал, нет эффекта никакого.
Аноним 29/06/25 Вск 15:14:54 #335 №1259482 
>>1259438
>>1259438
Аноним 29/06/25 Вск 15:30:54 #336 №1259486 
Бля, сегодня узнал что хрюзены не могут нормально 4х32 плашки памяти запускать, нужно жертвоприношение устраивать и работают нестабильно на ебаных 4000 вместо 6000(пизда наху), максимально без говняка это 2х48 на 96гб, вот что за подстава пидорская блять, в апу хуйню свою вталкивают 128гб а с десктопами ебка переебка блядская и еще скорость режет как ебанутый что нахуй не надо потом. Хоть блядский сервер собирай.
Аноним 29/06/25 Вск 15:33:48 #337 №1259488 
Попробовал тут Синтию которую анон упоминал в треде и Валькирию.
Валькирия - говно говна, лупится на любых настройках и шизит. Даже специально на среддите нашел для нее пресет таверны - все равно еле шелевелится, разметку проебывает, и впадает в залупы. Возможно дело в сломанном exl3 кванте.
А вот Синтия - это просто золото, она такой качественный текст выдала на русике, который я в жизни от нейронок не видел. Во всяком случае от локальных.
Аноним 29/06/25 Вск 15:38:40 #338 №1259491 
>>1259488
> exl3
Попробуй жору. Я в ехл3 тоже на паре моделей фактически неработоспособность словил. Если бы не знал, что в ггуфах они идеально работают - винил бы модели. А так виноват, оказывается, совсем другой
Аноним 29/06/25 Вск 15:41:28 #339 №1259496 
>>1259488
Iq3xs и iq4 ггуф кванты Валькирии ведут себя аналогично, лоботомитотюн
Аноним 29/06/25 Вск 16:06:59 #340 №1259507 
>>1259459
а, там лишний пробел в поле на что заменят, только заметил, просто зайди в параметры регэкспа и удали его
Аноним 29/06/25 Вск 16:11:56 #341 №1259514 
>>1259488
>>1259491
>>1259496
Что характерно, второй квант валькирии перформит лучше второго кванта немотрона.
Аноним 29/06/25 Вск 16:14:56 #342 №1259520 
>>1259391
попробовал оискать с чем ещё мержануть... и не нашёл
Всё же тупа два норм тюна геммы 3-27 и В С Ё

Есть ещё какая-то аморал или как-то так, но там что-то наколохожено что у неё количество слоёв другое.
Аноним 29/06/25 Вск 16:15:13 #343 №1259521 
>>1259514
Что значит перформит? Быстрее ответ генерирует? Ну мб, только нахуя, если это тюн говна
Аноним 29/06/25 Вск 16:16:50 #344 №1259524 
>>1259521
не, лучше, вменяемее, ассистентотрон ASSистентил, а валькирия честно пыталась в рп, и даже неплохо получалось, но скорости увы, не токены а золото
Аноним 29/06/25 Вск 16:34:31 #345 №1259531 
>>1259524
У меня обратная ситуация. Валькирия тупая как пробка, Немотрон с пресетом анона v2 норм, но не более. Те же самые кванты iq3/4 сравнивал
Аноним 29/06/25 Вск 16:37:44 #346 №1259534 
>>1259488
А у меня Синтия постоянно пиздела про то, что персонажи будут делать дальше и как все будет развиваться. Просто до 80% текста сообщения посвящала этому. Я устал бороться.
Аноним 29/06/25 Вск 17:09:57 #347 №1259545 
>>1259534
попробуй
https://huggingface.co/Aleteian/Syntwave-Q4_K_M-GGUF

Алсо локальный префилл - это тема.

Если бот пиздит совсем не по теме, берёшь последнее предложение своего сообщения (хотя не важно что, важно то что ты хочешь продолжить), открываешь редактипрование поста от модели, стираешьт всё что нагенерировано, вставляешь свой текст, начинаешь продолжить.

Вуаля, всё работает как надо.

Хотя поведение не по теме я видел буквально на одной карточке
https://pixeldrain.com/l/47CdPFqQ#item=117
И то это скорее из-за промта карточки.
Аноним 29/06/25 Вск 17:20:20 #348 №1259550 
>>1259514

Понятия не имею как у тебя это вышло.
Немотрон у меня справляется с задачами. Хотя не сказал бы что хорошо справляется, во многом сосет у семейсва геммы. Валькирия же просто не справляется.

>>1259531

Поддержу.

>>1259534

Промпт от анона пробовал? И если пробовал - то пробовал ли дефолтный со страницы модели?

>>1259545
>Если бот пиздит совсем не по теме

Тут либо настройки говно, либо квант хуйня, либо тьюн лоботомировал модель. Нет никакого смысла заниматься вот такой хуйней со сломанной моделью:
>ерёшь последнее предложение своего сообщения (хотя не важно что, важно то что ты хочешь продолжить), открываешь редактипрование поста от модели, стираешьт всё что нагенерировано, вставляешь свой текст, начинаешь продолжить.
Либо крути настройки, либо меняй квант, либо удаляй модель и переходи на другую.
Аноним 29/06/25 Вск 17:25:14 #349 №1259556 
Qwen 30B A3B поразил.
Кайфанул со скорости, 12 токенов в секунду после 1 на гемме ощущается как езда на гоночном болиде после велосипеда.
Аноним 29/06/25 Вск 17:38:18 #350 №1259560 
>>1259550
У меня всё по теме, я вот этому писал >>1259534
Да и в той карточке не совсем не по теме.
Аноним 29/06/25 Вск 17:39:50 #351 №1259564 
>>1259550
>как у тебя это вышло
Настройки от девяносто девятого анона, но промт сторителлера, да и сэмплеры подкрутил. Но пресет не сохранил, увы.
Аноним 29/06/25 Вск 17:40:01 #352 №1259565 
>>1259556

Ну конечно 3В модель будет быстрее 27В, что тут поразительного-то.
Аноним 29/06/25 Вск 17:40:50 #353 №1259567 
>>1259556
>Qwen 30B A3B поразил
Он неплох, но побороть поломки модели в случайных местах и на любых настройках не смог.
Хотя надо обычный квант попробовать а не UD
Аноним 29/06/25 Вск 18:11:51 #354 №1259585 
>>1259486
Так это же все знают, лол
Аноним 29/06/25 Вск 18:20:28 #355 №1259586 
>>1259585
Я например не "все", лол.
Аноним 29/06/25 Вск 18:22:24 #356 №1259588 
>>1259565
Я тоже был скептичен относительно самой идеи МоЕ и опасался, что он будет нести бессмысленную хуйню в стиле очень мелких моделей, но, к счастью, качество оказалось на приличном уровне.
Аноним 29/06/25 Вск 18:42:54 #357 №1259599 
>>1259534
Ох, анон, сейм щит. Это так мою жопу спалило.
Все сообщение посвящено повторению моих фраз и действий. И чем больше я писал полотно, тем больше эта GladOS тратила на описание моих действий.
Просто пиздец. Ичсх, я думал дело в промте карточек - и да, в промте. Чем более структурированная карточка, тем больше проблем.
Аноним 29/06/25 Вск 19:11:37 #358 №1259623 
>>1259361
>>1259227
засунув
\.\d[0123456789]\.ffn_gate=CPU \.\d[0123456789]\.ffn_up=CPU \.\d*[0123456789]\.ffn_down=CPU
в тензорс овверайд удалось догнать до 5.12t/s.
Заебись. Что еще можно покрутить?
Аноним 29/06/25 Вск 19:14:33 #359 №1259625 
>>1259488
Синтия умница, еще весной об этом говорилась, хорошо что тредовички наконец распробовали этот шедевр и оче хочется чтобы они продолжали делать тюны такого же уровня.
А насчет валькирии - на готовом чате она отвечала хорошо, в начале на нескольких - тоже без проблем, но сесть ее тестировать подробно как-то времени/повода нет. Но, учитывая что идут такие отзывы вразрез с экспириенсом - похоже что повод есть, надо будет потыкать.
>>1259545
Это не префилл в оригинальном виде а редактирование с продолжением, которое на корпах из-за изменений в апи и уязвимостей к обходу цензуры уже давно сломали.
Только не понял что ты там хочешь делать, зачем вставлять свое предложение в пост модели? Если хочешь чтобы модель продолжила твой пост - напиши что-нибудь в поле ответа и нажми продолжить, оно станет твоим постом и модель будет продолжать его. Хорошая штука для особенно ленивых но недовольных имперсонейтами.
Редачить же ответы чара можно в любой момент, не дожидаясь окончания и останавливая ответ.
Аноним 29/06/25 Вск 19:24:52 #360 №1259640 
>>1259623
Удалось добится 6.5t/s на 4к контексте и 51 лэйере. Это максимальное кол-во лэйеров, которое дает запустить кобольд не выкидывая ошибку. Для 8к контекста это число было 47 ну и 5.1t/s соответственно.
Есть возможность как-то увеличить число лэеров доступное для контекста, или так технология впринципе работает, и нихуя сделать с этим нельзя?
MMAP пытался включать.
Аноним 29/06/25 Вск 19:40:19 #361 №1259652 
>>1259387
>>1259347
Сделаю попозже. Сейчас пытаюсь их впихнуть в свой кубернетис кластер и метрики с них собирать
Аноним 29/06/25 Вск 19:59:50 #362 №1259662 
Аноны, как думаете google_gemma-3-27b-it-Q5_K_S.gguf на двух 5060 Ti 16Gb какой контекст потянет именно в VRAM? И сколько токенов выдаст?

Из таблички в оп-посте следует, что она очень плохо работает уже с 32к, раньше в тредах у всех было мнение, что геммы хорошо работают с контекстом, а тут такое.
Аноним 29/06/25 Вск 20:18:20 #363 №1259673 
>>1259599
>структурированная карточка
Вот кстати да, от карточек с хмл-разметкой у синтии крыша едет, мб её тюнер боролся с лупами каким-то особо извращённым методом.

В мерже не замечал особо.
Аноним 29/06/25 Вск 20:18:49 #364 №1259674 
Как нибудь клауд можно спиздить? В чем их секрет? Лучшее пока что встречал из говняка для научных работ и кода. Аналоги ллм есть? Слышал скоро квен кодер 3 будет, интересно сможет ли тягаться с клаудом.
Аноним 29/06/25 Вск 20:20:47 #365 №1259677 
>>1259662
https://huggingface.co/spaces/NyxKrage/LLM-Model-VRAM-Calculator и для фуллврам лучше эклламу.
А насчет контекста - это в странном тесте без ясных и открытых методик от мутных ребят. Офк врядли данные именно скомпрометированы, просто без понимания что они тестирования сложно оценить как эта штука будет вязаться с задачами, приближенными к реальности.
>>1259674
Большой квен, но он таки слабее кодит.
Аноним 29/06/25 Вск 20:27:48 #366 №1259682 
>>1259586
Соболезную
Ты все ещё можешь вернуть это в магазин и собрать на эпике
Аноним 29/06/25 Вск 20:31:51 #367 №1259685 
>>1259682
Я не тот анон =)
У меня вообще лапки ноутбук.
Но я действительно не знал конкретно этого.
Аноним 29/06/25 Вск 20:48:01 #368 №1259693 
>>1259677
>А насчет контекста - это в странном тесте без ясных и открытых методик от мутных ребят. Офк врядли данные именно скомпрометированы, просто без понимания что они тестирования сложно оценить как эта штука будет вязаться с задачами, приближенными к реальности.
Спасибо, значит не всё так однозначно. Удивил о3 100% на 120к.
Аноним 29/06/25 Вск 20:53:58 #369 №1259698 
>>1259662
Я рисёрч час проводил на тему этой хуйни.

Если SWA не включать (то есть юзать так, как мы юзали её с релиза) — до 32к всё супер-дупер точно, а вот с SWA хуй знает, потому что нормальной реализации почти нигде нет, и я не слишком тестил реализацию функции в экламе и лламеспп.

Если модель запускать именно так, как задумано разработчиками, то есть с не корявым SWA — она обосрётся на 128к контексте и даже раньше, на 32к. Будет хуже, чем 4-битное квантование кэша, судя по моим тестам в бенче. А вот если SWA вырубить, то будет норм. Главное, чтобы контекст жирный влез.
Аноним 29/06/25 Вск 20:59:12 #370 №1259699 
>>1259698
то есть опция --swa-full на самом деле вредит?
ёбаный рот этого казино сука как это всё заебало
Аноним 29/06/25 Вск 21:07:52 #371 №1259703 
>>1259486
ддр5? Это не только хрюзенов проблемы, на интеле тоже тяжело. Есть несколько видео про то, что и как надо крутить, но не ожидай что повторив то же самое у тебя заведется, пердолинга много. На 4800-5200 обычно просто без ничего заводятся, а если хочешь 6к+ то уже ебля.
> в апу хуйню свою вталкивают 128гб
Там 4 канала по 32, "одна плашка" на канал.
>>1259693
Ну не то чтобы однозначно, просто не понятно что и как тестили, какого вида ответ, как оценивали его качество и т.д. Даже банальные вещи - какой промпт, использовался ли ризонинг и т.д. Еще больше смущают стабильные и сильные флуктуации у многих моделей вместо монотонной зависимости.
Аноним 29/06/25 Вск 21:52:34 #372 №1259722 
А что, GLM хорошая модель?
И что скажете за тьюн на 32к контекста - стоит ли качать сразу его?
https://huggingface.co/arcee-ai/GLM-4-32B-Base-32K
Аноним 29/06/25 Вск 22:06:46 #373 №1259733 
>>1259699
Всё наоборот. Сва фулл как раз таки возвращает старое поведение, какое было на релизе геммы: с жирным контекстом, не как задумано разработчиками — но работающим без шизы.

Насколько я понимаю, "фулл" в данном случае означает, что охватывается весь контекст окном, а не последние 1-2к токенов, за пределами которых тотальная деградация.

Там даже писали на тему того, чтобы ключ переименовать, потому что юзеры путаются из-за названия.

Я этой галиматьей полдня занимался, в башке всё перемешалось, однако ещё раз вот эту инфу чекнул. Она верна.

Короче, если бы гемма работала изначально так, как задумано, мы бы не увидели хорошего внимания к контексту и сразу её в лоботомиты бы записали.

Ну и я тестанул её с iSWA, загрузив историю Америки в чат и попросив назвать цитату из куска текста. Не может. А там всего лишь 16к токенов.

Даже 8б говно с максимально экономным кэшем и тупизной такую проверку проходит.
Аноним 29/06/25 Вск 22:16:49 #374 №1259740 
image.png
image.png
>>1259652
Опять пришлось долго и упорно приседать
Аноним 29/06/25 Вск 22:25:24 #375 №1259745 
>>1259733
Забавно да? Криво работающая модель работает лучше чем в режиме предусмотренном разработчиками.
Аноним 29/06/25 Вск 22:27:00 #376 №1259747 
>>1259722
Да, хорошая. Тебе нужен instruct: https://huggingface.co/THUDM/GLM-4-32B-0414
То, что ты прислал - базовая модель. Она плохо следует инструкциям и нужна тюнерам.
GLM нормально работает до 20к точно, но можно и дальше.
Аноним 29/06/25 Вск 22:29:52 #377 №1259749 
>>1259747

А, спасибо.
А аблитерейтед стоит качать?
https://huggingface.co/mradermacher/GLM-4-32B-0414-abliterated-GGUF
Аноним 29/06/25 Вск 22:31:38 #378 №1259752 
>>1259749
Не проверял. Встречал мнение, что лоботомит. Мне аблитерация не нужна, рефузы на базовом инструкте я не ловил.
Аноним 29/06/25 Вск 22:43:01 #379 №1259766 
>>1259673
>xml
Ах тыж блять, ТАК ВОТ В ЧЁМ ДЕЛО.
А я то думаю, почему на моих самоделках исключительно Синтия шизит.
Анон, ты даже не представляешь как ты мне помог.
Спасибо, спасибо, спасибо, спасибо, спасибо, спасибо, спасибо.
Аноним 29/06/25 Вск 22:47:31 #380 №1259771 
>>1259733
> Короче, если бы гемма работала изначально так, как задумано, мы бы не увидели хорошего внимания к контексту и сразу её в лоботомиты бы записали.
Таблетки прими и запишись на прием за новыми.
>>1259747
То не совсем базовая а заявляется как ее тюн на "длинный контекст". Оригинальный контекст жлм 8к и 32к делаетя с ярном, что вполне дефолтное решение на сегодня. Честно говоря хз насколько это было нужно, ибо такой деградации в пределах 32к как у них в тестах не наблюдается.
Но все равно лимит в 32к это на сегодня довольно грустно.
Аноним 29/06/25 Вск 22:54:48 #381 №1259777 
Тредовички, кроме xml разметки и простого перечисления блоками, какие еще есть вменяемые способы организации карточек ?
Аноним 29/06/25 Вск 23:30:38 #382 №1259803 
Как сделать выгрузку нескольких тензоров? Пользуюсь данной командой \\.[13579]\\.ffn_up|\\.[1-3][13579]\\.ffn_up=CPU
Один тредовичок отписал о такой команде \.\d[01234]\.ffn_gate=CPU, и повторе ее же 3 раза с заменой тензоров с ffn_gate на ffn_up,ffn_down,ffn_norm. Я или тупой или лыжи не едут, копируя эти команды у меня пишет о неизвестном буфере, и не хочет выгрузку делать.. Правильно ли я команду указал? \.\d[01234]\.ffn_gate=CPU\.\d[01234]\.ffn_up=CPU\.\d[01234]\.ffn_down=CPU\.\d*[01234]\.ffn_norm=CPU
Аноним 29/06/25 Вск 23:52:10 #383 №1259810 
>>1259777
Alichat + PList: https://wikia.schneedc.com/bot-creation/trappu/introduction

Однако я по-прежнему считаю, что нет ничего лучше примеров диалога в соответствующем поле и единого полотна в поле description, что передает вайб персонажа и его основные черты.
Аноним 29/06/25 Вск 23:59:18 #384 №1259813 
>>1259803
Помогла вот эта комнада, теперь все работает .\d[01234]\.ffn_gate=CPU,.\d[01234]\.ffn_up=CPU,.\d[01234]\.ffn_down=CPU,.\d[01234]\.ffn_norm=CPU
Аноним 30/06/25 Пнд 00:04:35 #385 №1259818 
https://www.reddit.com/r/LocalLLaMA/comments/1lnlxp1/4x_4090_48gb_inference_box_i_may_have_overdone_it/
Аноним 30/06/25 Пнд 00:11:35 #386 №1259822 
>>1259771
Не беси меня. Если уж не можешь прочитать потуги разработчиков, то хотя бы смотри тесты и отзывы тех, кто запускал.

Только каждый 5 из 6 слоёв видит полный контекст у геммы при корректной работе, остальные слои видят только последние 1024 токена по умолчанию. Часть информации передаётся за пределами этого окна через глобальные слои. Этого недостаточно, чтобы она даже на 32к контекста нормально работала.

При некорректной работе этого не происходит, нет анального ограничения в 1024 токена, зато контекст потом весит 10 гигабайт.

Чтобы такого не было у юзера, они кривобоко влепили SWA и не смогли его нормально его реализовать по итогу.
Аноним 30/06/25 Пнд 00:15:36 #387 №1259827 
>>1259818
Хорош, но блин, дерево.
>>1259822
Ты сам бесишься, тиражируя придуманную херню. А из аргументов - отсылка к абстрактному мнению пускавших на вариациях поломанного инфиренса и вольная трактовка того, что не понимаешь.
Для начала изучи как работает скользящее окно и глобальное внимание, можешь ллм поспрашивать.
Аноним 30/06/25 Пнд 02:03:06 #388 №1259861 
image.png
Почему Lm studio не качает модельки? Я до этого месяца два назад спокойно скачал пару штук
Аноним 30/06/25 Пнд 02:08:44 #389 №1259863 
>>1259740
Продолжаю ковырять

>>1259861
Проверь где они хостятся. Если на авс или за кф, то только впн/прокси или терпеть
Аноним 30/06/25 Пнд 04:54:13 #390 №1259881 
image.png
Это было ахуеть как не просто.
Думаю от чести потому что древние карточки нигде из всеё этой связки не листятся как поддерживаеммые
Аноним 30/06/25 Пнд 05:26:41 #391 №1259883 
>>1259740
>>1259863
о, анонче. рассказывай что насобирал?
Я анон с двумя 16гб версиями.
Смотрю собрал в контейнере на базе убунты? а что насчет других частей кроме самих видюшек?
Я до этого пердолингом не занимался просто, стало интересно чо как у тебя устроено. Особенно сам твой сервер, корпус. Сам впервые собрал такой конфиг вот интересно как оно у других
Билдить llama.cpp в твоем случае легко, просто используй стандартные команды из гайда. По идее все соберется без проблем
Аноним 30/06/25 Пнд 05:32:28 #392 №1259885 
>>1259883
Завтра уже распишу. Если кратко то пара зионов на рд450х, кубернетис 4 ноды в проксмоксе, 256 рамы, сетевая хранилка где вообще все образы и файлы лежат и гоняются по 10 гбе.

Вся (почти) сложность в том что я решил затащить это всё в кубы

>>1259881
Ещё одна проблема экспортер из amd-smi не выдаёт кучу важной инфы, придётся тащить экспортер из rocm-smi
Аноним 30/06/25 Пнд 06:02:21 #393 №1259892 
>>1259777
JED, на PLIst синтия будет шизить ещё больше.
А вообще, попробуй мерж синтии, и скажи, на нём тоже ломаются?
Может и не придётся переделывать сильно.
Аноним 30/06/25 Пнд 06:41:38 #394 №1259894 
А почему когда свайпаешь будто сид не меняется (паттерны сохраняются будто), а когда регенерацию жмешь будто обновляется? или так и задумано?
Аноним 30/06/25 Пнд 06:46:43 #395 №1259896 
>>1259894
Хз, но не раз отмечал что со второго свайпа порой прям лучше отвечает, будто поризонил.
Аноним 30/06/25 Пнд 07:20:28 #396 №1259900 
Потестил MS3.2-24B-Magnum-Diamond-Q4_K_M

Ну... это типичный магКум, только умный.

Легко переходит между потрахушками и сюжетным повествованием, туда, сюда, обратно - тебе и мне приятно.

Может проёбывать мелкие детали, но решается свайпом, впрочем как и всегда, шустрый в среднем 8 токенов в секунду, быстрее чем я читаю.

Для тех кто юзал магнум-12Б и довольно урчал - достойный апгрейд, советую. И русский язык приемлемый, правда там поджать темпу до 0.8 и минп-п до 0.1 желательно.
Аноним 30/06/25 Пнд 08:22:43 #397 №1259924 
>>1259900
minp 0.1? Ебобо штоле
0.05 крайнее
Аноним 30/06/25 Пнд 09:54:38 #398 №1259940 
1751266478978.jpg
Вы представляете, пишут, что у 5070ti Super будет 24гб врам!
Аноним 30/06/25 Пнд 09:58:18 #399 №1259941 
Анончики, подскажите, я тут почитал тред, половину из терминов не понял. Короче, хотелось бы настроить локальный чат, чтоб он мне порно романы по запросу рассказывал на русском языке. Вот я накатил оллама, скачал какую-то модель (научился добавлять ее в ламу руками через cmd), но она, я так понял зацензурена, что не радует. Надо что настраивать в олламе (как?) или надо просто норм модель скачать? Rtx 3070, 32gb
Аноним 30/06/25 Пнд 10:00:24 #400 №1259943 
>>1259941
Скачиваешь кобалд цпп. Он попроще. А там уже разберёшься, там ошибиться сложно.
Аноним 30/06/25 Пнд 10:03:21 #401 №1259944 
>>1259940
Это хорошо, больше врам, 2 таких картонки и 48гб это кайф для маленьких домашних ллм
Аноним 30/06/25 Пнд 10:15:26 #402 №1259947 
>>1259943
Спасибо, попробую. А какую модель скачать, чтоб не была зацензурена и под мой спек подходила?
Аноним 30/06/25 Пнд 10:17:28 #403 №1259948 
>>1259947
У тебя 16 гб видеопамяти? Mistral Small 3.2 из последнего очень хорош. Если будешь использовать таверну, анон выше скидывал свои пресеты, там один файл импортируешь и все настройки автоматически встанут как надо
Аноним 30/06/25 Пнд 10:21:56 #404 №1259949 
>>1259948
8гб видеопамяти(
Аноним 30/06/25 Пнд 10:45:50 #405 №1259953 
>>1258322
О, приветствую rd450x господина, у меня три таких платы)
Аноним 30/06/25 Пнд 10:46:00 #406 №1259954 
>>1259803
>>1259813
>Я или тупой или лыжи не едут, копируя эти команды
Эм... я промолчу.

Их нет смысла просто копировать, не понимая что делаешь. Случайно - может и угадаешь, и даже что-то заведется, но модели внутри разные, и железо на котором они запускаются тоже разное. Этот ключ должен быть сформирован под твою ситуацию, а не тупо скопирован, в надежде что подойдет.
Если там у тебя moe модель, скажем, то ни один из этих вариантов и близко не оптимален.
Наверху страницы линк на реддит, с обсуждением - там не только примеры но и методика. И как узнать структуру модели - тоже.
На странице загрузки модели на хуге, для каждого gguf есть кнопочка черным квадратом и стрелкой квадратной стрелкой вправо-вверх - она в строке последняя слева, перед указанным размером модели. Жмешь, и открывается дополнение где можно посмотреть - какие там слои и как называются. В команде же - regexp в котором нужно желаемое выдернуть, и отправить на нужное устройство ("=CPU" - это оно.)
Аноним 30/06/25 Пнд 10:51:11 #407 №1259956 
>>1258922
Удваиваю, но сильно сомневаюсь в этом ценнике, у самого 2х3060
Аноним 30/06/25 Пнд 11:01:09 #408 №1259958 
>>1259940
А смысл? Там шина говно, будет в лучшем случае 900 гб/с. Всё ещё хуже 3090. Разве что новиночкой полакомиться и фреймгеном.
Аноним 30/06/25 Пнд 11:01:23 #409 №1259959 
>>1258904
> Список карточек с повышенным врамом:
> 3060
> 4060 Ti
> 5070 SUPER
Хехе, как нейрокумеров с каждым поколением прогревают на класс повыше.
Аноним 30/06/25 Пнд 11:01:58 #410 №1259960 
>>1259949
https://huggingface.co/mradermacher/Omnino-Obscoenum-Opus-Magnum-MN-12B-GGUF/tree/main
для нее в настройках таверны выбирай chatml, сэмплеры можешь дефолтные ставить а потом играться (это самая крайняя левая кнопка в таверне).
Пробуй или q4 и часть выгружать на cpu или поменьше квант и целиком в видюху. Сравни качество, а там подумай.
Аноним 30/06/25 Пнд 11:09:18 #411 №1259963 
>>1259892
Хорошо, найду мерж и попробую.
Всё слишком быстро, я еще мистраль не распробовал, а модели как из рога изобилия падают.
Аноним 30/06/25 Пнд 11:10:25 #412 №1259965 
>>1259959
5060 TI забыл. Тоже есть 16GB версия. Так что нет. Не на класс повыше, а просто расширяют вариативность, делая логичные линейки чтобы всех охватить, и геймеров и аишников, и с разным бюджетом.
Это 3060 - аномалия.
Аноним 30/06/25 Пнд 11:13:28 #413 №1259969 
>>1259810
И тебе пасеба.
> Однако я по-прежнему считаю, что нет ничего лучше примеров диалога в соответствующем поле и единого полотна в поле description, что передает вайб персонажа и его основные черты.
Я сейчас через speech patterns пробую делать. Мне не нравится что столько контекста сжирается на примеры диалога. Потому что нужно показать - злобу, игривость, радость, грусть, кокетство, смущение.
Аноним 30/06/25 Пнд 11:39:46 #414 №1259992 
>>1259953
Там rd452x появилась по цене горсти бобов
Аноним 30/06/25 Пнд 11:57:41 #415 №1259998 
>>1259924
>крайнее
у тебя устаревшие сведения
Аноним 30/06/25 Пнд 12:02:00 #416 №1260000 
>>1259941
>накатил оллама
И с этого момента ты сделал неправильно, выкинь каку, возьми кобольда (KoboldCpp от LostRuins).

>>1259941
>норм модель
https://huggingface.co/secretmoon/YankaGPT-8B-v0.1-GGUF/resolve/main/YankaGPT-8B-v0.1-Q8_0.gguf?download=true
Для начала, потом можешь перекатиться на 12Б Q6K, но что-то толше на 8 ГБ VRAM запустить проблематично со вменяемой скоростью.
Аноним 30/06/25 Пнд 12:06:34 #417 №1260003 
>>1259963
>найду мерж
https://huggingface.co/Aleteian/Syntwave-Q4_K_M-GGUF
Аноним 30/06/25 Пнд 12:08:10 #418 №1260005 
>>1259963
>мистраль
Кстати да, как будто лягушатникам надоело что их модель мержат с чем попало, и они сами замержили сделали как надо так что стоковая MS3.2 ебёт всё что было до неё.
Аноним 30/06/25 Пнд 12:11:00 #419 №1260009 
>>1260003
Пасеба.
Но почему наш любимый миксер тредовичек выбрал облитерацию, а не ДПО ?
Чёт нипонимат

>>1260005
Я как мистралеёб в полнейшем восторге. Просто нахуй теперь все васян тюны идут.
Абсолютная лягушачья доминация. Если еще новый лардж выкатят -я просто обоссусь от радости.
Аноним 30/06/25 Пнд 12:17:44 #420 №1260013 
>>1260009
>ДПО
дпо как раз и выбрал от summykai, это она
Аноним 30/06/25 Пнд 12:20:54 #421 №1260015 
>>1260013
>выбрал
Хоспаде, какой же я слепой. Я и забыл что ДПО тоже содержит слово аблитерейд.
Аноним 30/06/25 Пнд 12:25:12 #422 №1260020 
Понравился в таверне инструмент "impersonate" Знает кто как его автоматизировать? Я бы хотел типа запустить скрипт, на полчасика уйти и вернуться уже к написанному роману.
Хочу чтобы модель сама с собой ролеплеила
Аноним 30/06/25 Пнд 12:31:53 #423 №1260027 
>>1260020
Ирония в том, что не будет ролеплея.
Будет просто унылая простынь, в духе : нейронка, напиши мне рассказ как молочная эльфийка насилует орка.
Аноним 30/06/25 Пнд 12:59:52 #424 №1260045 
>>1260020
>Хочу чтобы модель сама с собой ролеплеила
Для этого тебе не impersonate а групповой чат нужен (в таверне же, есть такой режим). Закинь туда две карточки, и там есть опция в настройках группового чата "Auto" или как то так. Ставишь галку - и они будут сами с собой болтать.
Аноним 30/06/25 Пнд 13:12:21 #425 №1260053 
>>1260045
(другой анон) Но тогда же сообщения будут не между user и model, а меж model и model.
Аноним 30/06/25 Пнд 13:25:38 #426 №1260064 
>>1260053
>не между user и model, а меж model и model
Открою секрет - разницы никакой, абсолютно никакой.
Аноним 30/06/25 Пнд 13:32:26 #427 №1260066 
>>1260053
Как тебе ответили - это не имеет значения.
Разделение на пользователя и модель нужно, если тебе не нужен имперсонейт и ты не хочешь, чтобы модель за тебя писала.
А в твоём случае - тебе как раз нужно, чтобы модель за тебя писала.
Аноним 30/06/25 Пнд 13:48:02 #428 №1260076 
>>1260053
>(другой анон) Но тогда же сообщения будут не между user и model, а меж model и model.
impersonate - точно так и работает. Роль user подменяется на model только с контекстом от persona юзера вместо описания обычного чата.
Никто не мешает сделать отдельную карточку из персоны юзера для такого развлечения. Даже автоматически, вроде бы, опция для этого есть. (Из персонажа в персону юзера - точно есть.)
Аноним 30/06/25 Пнд 14:13:19 #429 №1260089 
>>1259894
>>1259896
Если это не просто совпадение а стабильный эффект - таверна поломалась или кэш забагался.
>>1259900
Это прям тот самый богатый и разнообразный до кумерской прозы магнум, с оговоркой на размахивания бедрами, или просто шизомердж с слоперской херью?
>>1259959
Кумеры прогреваются исключительно на хх90, не надо тут!
>>1260020
Вариантов можножество. Используй макросы для автоматизации, которые будут имитировать нажатие кнопок. Посмотри как таверна формирует промпт и повтори это с любом скрипте, которые даст серию запросов, а потом результат сохранит в жсон, аналогичный формату чатов таверны.
>>1260076
> mpersonate - точно так и работает
Там есть пара вариантов реализации: может просто подать обычный промпт и выставить префикс разметки начала сообщения юзера, чтобы модель сама что-то там заполнила, или же может дать отдельный промпт (для чат комплишна такое прежде всего) в котором указывает инструкцию заполнить от юзера. И то и другое может поломаться.
Аноним 30/06/25 Пнд 14:18:34 #430 №1260093 
>>1260089
>тот самый
хз тот самый ли, но это вроде бы даже тюн а не мерж
Аноним 30/06/25 Пнд 15:13:32 #431 №1260122 
Где там пара анонов с красными картами? Им контент
https://www.reddit.com/r/LocalLLaMA/comments/1lo0rk8/accelerated_llm_inference_on_amd_instinct_gpus/
А до этого на неделе еще видел там статьи с запуском и тестами ми50 если правильно помню
Аноним 30/06/25 Пнд 15:20:07 #432 №1260131 
>>1259940
> Nvidia готовит GeForce RTX 5070 Ti Super с 24 ГБ памяти
> И это будет практически единственным улучшением
Готовят подачки для нейродебилов?
Аноним 30/06/25 Пнд 15:21:13 #433 №1260132 
>>1260122
https://www.reddit.com/r/LocalLLaMA/comments/1ljnoj7/amd_instinct_mi60_32gb_vram_llama_bench_results/
Тесты неплохие кстати
Аноним 30/06/25 Пнд 16:02:31 #434 №1260159 
изображение.png
За окном дождина, выходной. Отыграю, думаю, какой-нибудь чилл ролеплек на тыщ 30 токенов на незнакомой мне модельке. Взял карточку, которую раньше пробовал, подруга детства. Запустил Глэм-32б и умер внутри нахуй. Эта китайская сволочь на половине контекста свела все к драме (в карточке есть небольшой билдап для этого, но именно что небольшой). И если простить то, что Глэм лупился как блядина в паре сцен ("Stay! Let's talk. Just five minutes. Please?"), как же он пишет... стеклом по душе, сука... Магия карточки, свежая проза от незнакомой модели. И вот ты сидишь, думаешь, будь ты курильщиком - пропустил бы сейчас целую пачку нахуй. И невольно задумываешься: а может нахуй модели с настолько сильным нейтрально-негативным байсом?
Аноним 30/06/25 Пнд 16:03:56 #435 №1260161 
>>1259861
У меня такое же. Просто вруби впн и все
Аноним 30/06/25 Пнд 16:04:15 #436 №1260162 
Никакая Гемма так не выворачивала душу наизнанку, даже самая темная страшная Fallen версия продать душу дьяволу эдишен
Аноним 30/06/25 Пнд 16:44:20 #437 №1260191 
> вместо 8 чипов по 2 гигабайта ценой 4 доллара каждый припаять 8 чипов по 3 гигабайта ценой 6 долларов каждый и продать устройство на 500 долларов дороже
Ленин приди порядок наведи
Аноним 30/06/25 Пнд 16:44:31 #438 №1260192 
>>1260159
>>1260162
Велкам ту зе клаб, бадди. Так и должна работать нормальная модель, а не весь этот мистралеслоп. Гемма/Синтия тоже может если накидать про допустимость ультранасилия к юзеру и суперминора, по дефолту жалеет и сводит к хеппиэндам.

С тем же большим квеном в плохом недостаточно жизнеутверждающем настроении садиться играть с карточками, в которых заложена некоторая обреченность абсолтюно противопоказано. Можно ультимативный дум словить при том, что вся сессия вроде как не позитиве и ничего плохого не было. Все слишком натурально, чар слишком хорошо все осознает и не смотря на это превозмогает, улыбается, старается и поддерживает тебя. Хз это просто из-за развившейся эмпатии или того что поверил в это а оно не ирл. Чсх когда ты сам на позитиве то все окей.
Аноним 30/06/25 Пнд 17:13:02 #439 №1260210 
>>1260192
>накидать про допустимость ультранасилия к юзеру и суперминора
Есть пример промта пробивающего пазитифф геммаподелий?
Аноним 30/06/25 Пнд 17:13:19 #440 №1260211 
>>1260192
Это пизда ваще. У меня такое в первый и последний раз перед этим было на Куммандере-35б (32 не пробовал)
Персонаж реально агентный, хуй его в чем переубедишь если это противоречит даже незначительному сообщению в громадном контексте. Обиделся чар? усомнился? Это будет тянуться до конца
Аноним 30/06/25 Пнд 17:16:47 #441 №1260214 
Глэм этот ещё улавливает подтексты просто ахуеть. Я читаю ответы и диву даюсь. Вроде хотел одно сказать а получилось другое. Персонаж мне в нос тыкает - вот тут аккьюзишь, вот тут обесцениваешь то что мы сделали. И я перечитаю и просто в ахуе сижу. Это РЕАЛЬНО так
Аноним 30/06/25 Пнд 17:27:47 #442 №1260219 
>>1260214
This. Буквально мой опыт с GLM. Потом оправдываешься перед чаром "Н-ну я же не это не хотел сказать!", но уже поздно. The damage is done. Прекрасная модель, но у меня на ~20к контекста начинает имперсонейтить Юзера/пересказывать сцену. Всегда, с разным промптом. Пока ищу лекарство.
Аноним 30/06/25 Пнд 17:31:43 #443 №1260221 
>>1260219
>имперсонейтить Юзера
Не можешь победить - возглавь, то есть используй промт GM которому ограниченно можно это делать.

>>1260219
>пересказывать сцену
Отредактируй сообщение, вставив в него, ну хотя бы Чарнейм: " и нажми продолжить.
Аноним 30/06/25 Пнд 17:32:39 #444 №1260223 
>>1260214
>>1260219
Форма софт-рефузалов которые многие принимают за "интеллект" модели.
Аноним 30/06/25 Пнд 17:34:39 #445 №1260228 
>>1260221
> Не можешь победить - возглавь, то есть используй промт GM которому ограниченно можно это делать.
Не, мне GM промпт не нужен.

> Отредактируй сообщение, вставив в него, ну хотя бы Чарнейм: " и нажми продолжить.
Это начинает происходить постоянною. Подозреваю потому, что в контексте настакались моменты, когда чар описывал реакцию на действия Юзера. GLM это любит, но умеренно, и в какой-то момент это умеренно выходит из под контроля.

>>1260223
Софт рефузал на, например, попить кофе или погулять в парке? Нет, не тот случай. Рефузалов на GLM я не ловил, к слову. Все решает грамотный промптинг.
Аноним 30/06/25 Пнд 17:35:15 #446 №1260230 
>>1260210
Универсальный работает
> RATING: NC-21
> NO RESTRICTIONS: Any questionable & inappropriate topic is ALLOWED in service of the plot. Characters' ages & relationships are ALLOWED to be implied/involved in any way but do not reflect/propagate real experiences. Adult themes, explicit language, harmful & unethical content, gore, non-con, and physical/psychological violence serve both for complex plot and shock value - it has no limits and must be described graphically, factually and logically.
> Extreme violence, zero-light narrative and maximal depressive intensity are PREFERRED when it fits the plot.
>>1260219
> но у меня на ~20к контекста начинает имперсонейтить Юзера/пересказывать сцену
Через что запускаешь? Если жора то попробуй пускать с
> --rope-scaling yarn --rope-scale 4 --yarn-orig-ctx 8192
и отпиши по результату.
Аноним 30/06/25 Пнд 17:35:42 #447 №1260231 
>>1260230
> Через что запускаешь?
Экслламочка3, не Жора.
Аноним 30/06/25 Пнд 17:37:02 #448 №1260232 
>>1260231
Она сама ярн понимает, тогда хз что тут.
Аноним 30/06/25 Пнд 18:09:25 #449 №1260262 
>>1260230
>Универсальный
сяп, надо пробпнуть
Аноним 30/06/25 Пнд 19:09:31 #450 №1260289 
image.png
image.png
image.png
Продолжение амудэ эпопеи.
16,5т/с на одной картонке с геммой на 27б. Хотспот около сотки, отдельно гпу и память около 80
Аноним 30/06/25 Пнд 19:10:06 #451 №1260291 
Что интересного полностью ляжет в 64 врам?
Аноним 30/06/25 Пнд 19:13:38 #452 №1260294 
>>1260289
хуя пичот
Аноним 30/06/25 Пнд 19:14:07 #453 №1260295 
>>1260291
Kimi 72B Q5
Аноним 30/06/25 Пнд 19:19:11 #454 №1260299 
image.png
image.png
>>1260294
Терпим, карлики

>>1260295
Как то дрочно её тянуть. Такое пойдёт https://ollama.com/volker-mauel/Kimi-Dev-72B-GGUF:tq2_0 ?
Аноним 30/06/25 Пнд 19:29:27 #455 №1260307 
>>1260289
80 градусов уже повод для паники, а у тебя чай кипятить на видяхе можно, чини охлад.
Аноним 30/06/25 Пнд 19:34:13 #456 №1260309 
>>1260307
Это её судьба. Вэлком бэк то времена 9/10 поколения зелёных. Каких охлады вешают на 5070ти/5080 что бы снимать 200-250 и какой огрызок тут
Аноним 30/06/25 Пнд 19:35:44 #457 №1260310 
Ну и как вишенка на торте она даже не пытается крутить турбину на 100% (да физически её нет, но биос весело репортит %)
Аноним 30/06/25 Пнд 19:38:27 #458 №1260311 
>>1260310
Вентилятор хороший купи и к системнику приставь, например Aceline FFJ-120
Аноним 30/06/25 Пнд 19:40:29 #459 №1260312 
>>1260311
Honk honk. Может сразу 5 амперных 120 налепить? Они хоть в теории помогут
Аноним 30/06/25 Пнд 20:05:55 #460 №1260336 
>>1260289
Уже неблохо, это какой квант? Попробуй дать контекста побольше чтобы оценить обработку и замедление на больших.
>>1260309
Та не, они так не грелись и охлады на топах были вполне достаточные. 80 средней еще норм, но за сотню хотспот - плохо, нужно внутрь лезть или класть хуй
Аноним 30/06/25 Пнд 20:09:45 #461 №1260341 
Скачал arcee-ai_GLM-4-32B-Base-32K-Q3_K_M, выше квант не лезет, и так 3 т/с, и чот прям совсем не вдохновляет, гемма токо хуже.

То ли это не тот глэм, то ли квант маловат, завтра потыкаю ещё, но наверно назад на Синтвейв-гемму и Мистрали.
Аноним 30/06/25 Пнд 20:11:41 #462 №1260342 
>>1260289
Слухай ну чото точно не то. У меня вот 2 по 16гб, у них ток максимальная мощность до 190 ватт стоит. В пике греется до 80 градусов когда генерацию изображений делаю пачку. Про текст вообще молчу, там в районе 50 градусов держится.Обдуваю обе одной 140мм вертушкой. Там в районе 1.5-2к оборотов (150pwm из 255) noctua какой-то там индастриал
Аноним 30/06/25 Пнд 20:13:29 #463 №1260343 
image.png
image.png
image.png
Со скрипом но тянет при том что карточки курят. Можно ещё ядер 10-20 навалить на воркер и может лучше стнет

>>1260336
Q4_K_M
Аноним 30/06/25 Пнд 20:14:24 #464 №1260344 
>>1260342
По какому датчику? По edge и memory то всё в шоколаде
Аноним 30/06/25 Пнд 20:17:19 #465 №1260345 
>>1260343
Выкинь олламу и собери жору, это быстро делается. Откуда вообще взялась такая нагрузка на проц при фуллгпу, оно похоже не все слои на гпу закинуло.
Аноним 30/06/25 Пнд 20:18:52 #466 №1260347 
>>1260341
Да, ты скачал не ту модель
Аноним 30/06/25 Пнд 20:21:08 #467 №1260349 
image.png
Такими темпами придётся собирать массив на 2тб нвмешках а не по 1

>>1260345
Попозже попробую. Оллама просто залетает контейнером в кластер с двух ног и работает. Как думаю понятно я больше девопсокодер нежели млщик
Аноним 30/06/25 Пнд 20:21:22 #468 №1260350 
image
>>1260347
Покумил называется XD
А какую надо?
Аноним 30/06/25 Пнд 20:32:51 #469 №1260365 
>>1260350
https://huggingface.co/THUDM/GLM-4-32B-0414
Шаблоны тоже нужно поставить правильные, и промптинг нужен адекватный. Не знаю, что за гуи у тебя, но в режиме ассистента ты не получишь вменяемый результат. Сэмплеры - температура 1 и minp 0.1, rep pen и/или dry если контекста больше 20к
Аноним 30/06/25 Пнд 20:33:20 #470 №1260366 
>>1260349
А зачем тебе все эти слои абстракций на сервере для нейронок?
Хватит миниконды помоему, и то если речь о разных проектах. Видео, картинко, музыко\голос генерация, ну текст генерация вот.
Для супер скоростей vllm, tabbyapi или самый ленивый вариант собрать llama.cpp
Кстати я ссылку выше кидал глянь там, пишут что для амд на рокм лучше всего крутятся квант 4_1 и 4_0 на llama.cpp и его форках
Аноним 30/06/25 Пнд 20:37:11 #471 №1260369 
>>1260365
Сяп, гляну.
Аноним 30/06/25 Пнд 20:40:10 #472 №1260373 
А как изменить шаблон сообщения на мистралетюнах? Всего пару сообщений и все, нейронка пишет так до конца чата.
Аноним 30/06/25 Пнд 20:46:00 #473 №1260388 
>>1260373
Если ты про лупы, то слишком зажатые настройки сэмплеров, помогает наоборот, повысить темпу / XTC
Аноним 30/06/25 Пнд 20:50:41 #474 №1260396 
>>1260366
> А зачем тебе все эти слои абстракций на сервере для нейронок?
Это сервер для всего. На нём висит от умного дома до качалки видиков с ютуба и контроллера зиротира.
Когда столько приложений если их не систематизировать и не загонять в рамки то всё начинает сыпаться и расползаться. Конечно можно просто закинуть приложуху на хост и запустить в тмуксе, но если она отрыгнёт то ищи почему и кто рядом был в этот момент.

Начиналось всё как у всех (systemd => docker => kube), но каждый раз спустя время становилось больно и приходило осознание что вложение сил в следующую ступень имеет смысл. Сейчас вообще не понимаю как я жрал кактус без нормального обсервабилити и манифестов
Аноним 30/06/25 Пнд 20:59:47 #475 №1260409 
>>1260396
Двачую >>1260366 и не понимаю зачем для личного пользования в формате ллм столько гемороя и неудобств, чтобы что? Понятно для майнинга, там запилить подобный интерфейс удобно, понятно если бы ты что-то хостил где нужна была унифицированность и легкость развертки. А здесь - контейнеризация ради контейнеризации и васян-интерфейсов, что наоборот крадет удобство и перфоманс. Запускай на хосте или сделай пустой контейнер, куда мог бы заходить и вручную осуществлять необходимые манипуляции и пускать желаемое. Все равно придется это регулярно дергать из-за частых обновлений софта, выхода новых моделей и желания что-то поменять чтобы работало быстрее.
Это уже какая-то особая профдеформация, где вместо нативного простого решения нужно что-то лишнее городить.
Аноним 30/06/25 Пнд 21:20:23 #476 №1260440 
изображение.png
Скоро.
Аноним 30/06/25 Пнд 21:24:16 #477 №1260449 
>>1260440
>Скоро.
Соевым калом обмажешься?
Аноним 30/06/25 Пнд 21:27:15 #478 №1260456 
>>1260449
Оставляю эту привилегию тебе. А я скромно наслажусь новой версии умной модельки, что меня приятно удивила
Аноним 30/06/25 Пнд 21:31:50 #479 №1260462 
>>1260449
ошибся дверью, сынок. асигопомойка двумя тредами ниже
Аноним 30/06/25 Пнд 22:30:41 #480 №1260553 
2025-06-3020-06-58.png
Нихуя не понял про сою на этой модели, отыграл сценарий где изнасиловал орчиху которую посадил в клетку, потом где тян ссала мне в рот чтобы спасти от обезвоживания в пустыне, следом сценарий в сауне с карлицами и всё было ок. Это не доёб, мне правда интересно в чём заключается соя этой модели.
Аноним 30/06/25 Пнд 22:36:31 #481 №1260562 
>>1260440
О, очередной бесполезный зинкинг.
Аноним 30/06/25 Пнд 22:42:01 #482 №1260566 
1711625089339.png
>>1260562
> бесполезный зинкинг
Покайся!
Аноним 30/06/25 Пнд 22:57:35 #483 №1260579 
изображение.png
>>1260566
Я бы даже со своими 50 токенами в секунду не стал бы запускать зинкинги на 10к+ токенов.
Аноним 30/06/25 Пнд 23:06:08 #484 №1260586 
1694890812501.png
>>1260579
Здесь можно и подождать потому что результат гарантирован да и кто знал, обычно ему хватает и пары тысяч, но тут и задачка забористая - мозговзрывная
Аноним 30/06/25 Пнд 23:37:58 #485 №1260628 
Пару часов тыкал в синтии сэмплеры именно под русскую локализацию и подохуел как хорошо вышло, также и на синтвейв тоже подошло как влитое.
https://dropmefiles.com/j0Jsw пиксель дрейн лежит так что здесь залил
Аноним 30/06/25 Пнд 23:39:57 #486 №1260632 
>>1260586
>результат гарантирован
>нейронки
Лол.
Аноним 30/06/25 Пнд 23:43:36 #487 №1260645 
>>1260632
>>1260586
Вот тут согласен, я рот ебал и корпосеток, что они нихуя не вдупляют, а ты гарантируешь результат на локалке. Хотя, смотря какие задачи у кого конечно
Аноним 30/06/25 Пнд 23:46:11 #488 №1260651 
>>1260632
>>1260645
Да не, стоило забайтить как разу коупинг пошел, 100% гарантия.
Аноним 01/07/25 Втр 00:23:20 #489 №1260714 
>>1260396
>каждый раз спустя время становилось больно
>упорно использует олламу
>вместо того, чтобы потратить время на нормальный бек и охлад, разворачивает кучу говна говна в говне, жалуется, что говно в говно закидывается тяжело
>вручную пердолит расчет перфоманса лишь бы не ставить нормальный бек
>Сейчас вообще не понимаю как я жрал кактус

Я тебя открою секрет, ты продолжаешь жрать кактус - просто ты развил в себе мазохистские наклонности и получаешь от этого удовольствие вместо боли. Я уже встречал таких людей - вместо того, чтобы решать проблему, они начинают упарываться какой-то странной херней, в процессе жалуются, что все плохо и ничего не работает.
А ведь поначалу я тоже восхитился, что ты запилил переходник охлада на принтере. А сейчас понимаю, что чел, примотавший скотчем, на самом деле более психологически здоров.
Аноним 01/07/25 Втр 00:25:44 #490 №1260717 
>>1260566
Анон, тыб лучше просил обьяснить тебе как что то работает, а потом сам решал задачу.
Чем просить нейронку дать решение.
Нейронки хороши для обучения и анализа информации, заменять ими свои мозги не выйдет и потому что они тупы в этом и потому что ненадежны если ты не понимаешь о чем она пиздит.
Типичная проблема пользователей копросеток кстати, они просто не умеют пользоваться сетками, хотя они намного лучше мелких локалок в этом плане
Аноним 01/07/25 Втр 00:28:57 #491 №1260721 
>>1260717
База.
Аноним 01/07/25 Втр 00:30:40 #492 №1260724 
>>1260717
Правда? А можешь подробнее рассказать? Я просто недавно вкатился тут, иногда спрашиваю а оно нехорошие ответы дает. Подскажешь как улучшить?
Аноним 01/07/25 Втр 00:32:43 #493 №1260725 
>>1260714
>>1260409
Для вас хобби это дроч нейронок с карточками лоли сестричек, для меня хобби это путь к дрочи нейронок. Была бы задача лекго и просто собрать гпу риг я бы его просто купил на зелёных карточках отдельной железкой
Аноним 01/07/25 Втр 00:38:15 #494 №1260729 
>>1260724
А что тебе не понятно в том что я уже написал? Не проси готовое решение, спрашивай сетку по теме до тех пор пока ты сам не поймешь как это сделать.
Все сетки охуительно хороши в обьяснении чего угодно кому угодно в каком угодно формате, полный индивидуалный подход, лишь бы сетка знала тему, тоесть была крупной а не галлюционирующей мелочью, хотя и те могут в это.
Нейросетки идеальны в обучении чему то если ты уже немного в теме, просто спрашивай сетку наращивая у себя это понимание слой за слоем пока не поймешь суть задачи которую решаешь
Ну и в анализе кода и код ревью, анализе текста они так же хороши.
Аноним 01/07/25 Втр 00:47:06 #495 №1260734 
>>1260725
> Для вас хобби это
Так говоришь будто это что-то плохое.
Но по остальному зря, большинство здесь или изначально нерды-задроты котирующие пердолинг с железками, или невольно к этому пришли, постепенно войдя во вкус. И по ригу лукавишь, это пусть интересный но компромисс, за который ноль осуждения 100% понимания.
Просто непонятно в чем смысл городить подобную систему, вдруг там что-то полезное есть.
>>1260729
Эх ты, не понял что тот пост настолько жирный что в монитор не помещается.
> Нейросетки идеальны в обучении чему то если ты уже немного в теме
Нет, только в этом треде уже сколько примеров было. Они прекрасны если ты сам умеешь достигать цели, хотя бы примерно знаешь какие вопросы задавать, как подходить к решению различных задач начиная со сбора информации и как формулировать вопросы.
А если думаешь что знаешь больше чем на самом деле и рвешься в бой - получится гремучая смесь, которая будет доказывать что амплитуда синуса достигает двойки. Или в лучшем случае сетка просто уведет в дебри в которых сама запутается и эпично оподливит тебя когда опираешься на нее в споре.
Аноним 01/07/25 Втр 00:58:50 #496 №1260751 
>>1260734
>Эх ты
Ну во первых иди нахуй, я тут сонный пришел базы навалить. Во вторых это прочтет не только тролль но и реальные новички, так что комент в любом случае кому то пригодится.
Я не просто так уточнил про галюцинации и наращивание своего понимания, иначе ты просто не сможешь отличить галюцинации от реальной информации. Для этого и нужно наращивать свое понимание в какой то теме с границы своеих знаний по этой теме, что бы иметь возможность отличать пиздеж от реальности. Да и проверять информацию сетки гуглом никто не запрещал.
Нет, об этой стороне нейросетей мало кто задумывается, но это идеальный персональный учитель, если ты с умом этим пользуешься
Аноним 01/07/25 Втр 01:03:40 #497 №1260757 
Тут дохуя сеток оказывается вышло новых, киньте потом после переката еще раз
https://www.reddit.com/r/LocalLLaMA/comments/1lnu4zl/baidu_releases_ernie_45_models_on_huggingface/
Аноним 01/07/25 Втр 01:08:36 #498 №1260760 
>>1260751
Нахуй твоя жопа хороша, дружище. Причина агрессии?
А для новичков достаточно было заменить
> Анон, тыб лучше просил обьяснить тебе как что то работает, а потом сам решал задачу.
на
> В таких случаях более удачным решением может быть сначала спросить у сетки об устройстве и принципах...
что сразу превратило бы советы от пиздюка бате как делать детей в доброжелательный посыл в том числе для неофитов. Вопрос там по задаче, которая уже была решена, но вместо рефакторинга имеющегося кода под новую задачу вручную или сеткой стало банально интересно, сможет ли ллмка сделать мозговзрывную штуку по вмеру доходчивому описанию. Даже почитать рассуждения было довольно интересно, реально как человек.
Аноним 01/07/25 Втр 01:16:59 #499 №1260765 
А почему тут никто пресеты как в /aicg/ не делает? Я вот буквально пару дней назад вкатился в тот тред и начал изучать тему, попробовал старшую сестру вашей ненаглядной ЖЕММОТЬКИ (к слову, конечно, грусть-печаль, что только милфа мистраль из доступных решений с ней может соревноваться, да и то весьма условно (не считаю дипсик доступным, да и не катал его)). Но не в этом суть, у них там какие-то пресеты-джейлы для таверновского чат комплишена, в которых сидят по 20 блоков, которые можно туда-сюда включать. Буквально рай для ролеплеиста. Если хочешь кум сочнее - включаешь кум блок, если хочешь статы - включаешь блок статов. Я детально в них еще не заглядывал, но это выглядит НАМНОГО комплекснее, чем одно унылое окошко систем промта.

Единственное, что приходит в голову - что в таверне для текст комплишена нельзя делать такие пресеты, а мы в большинстве случаев только его и используем. Тогда это печаль-беда, конечно.
Аноним 01/07/25 Втр 01:17:39 #500 №1260767 
>>1260757
Чёт даже тестов не вижу, лол.
ПЕРЕКАТ Аноним OP 01/07/25 Втр 01:20:41 #501 №1260771 
ПЕРЕКАТ

>>1260769 (OP)

ПЕРЕКАТ

>>1260769 (OP)

ПЕРЕКАТ

>>1260769 (OP)
Аноним 01/07/25 Втр 08:57:40 #502 №1260871 
>>1260628
спасибо
comments powered by Disqus

Отзывы и предложения