Сохранен 35
https://2ch.su/b/res/331333379.html
К сожалению, значительная часть сохранённых до 2024 г. изображений и видео была потеряна (подробности случившегося). Мы призываем всех неравнодушных помочь нам с восстановлением утраченного контента!

Какая лучше всего модель подойдет для моего конфига? Сейчас сижу на Qwen3-Coder-30B-A3B-Instruct-GG

 Аноним 29/03/26 Вск 11:05:20 #1 №331333379 
2026-03-2910-58-24.png
Какая лучше всего модель подойдет для моего конфига?

Сейчас сижу на Qwen3-Coder-30B-A3B-Instruct-GGUF
Аноним 29/03/26 Вск 11:13:04 #2 №331333623 
>>331333379 (OP)
1. Нахуй ты на 12gb gpu купил еблан?
2. Все что меньше 120B - говно.
/thread
Аноним 29/03/26 Вск 11:31:52 #3 №331334134 
Nvidia Nemotron 120B - мультиязыковая модель с MoE, то есть одновременно подружаются только 12B. Можно взять квантизованную. Недавно на работе запускал такую, но в выбрал квантизацию до 2 бит, вообщем, не очень удачно, хотя работает в целом неплохо.
Буквально несколько дней назад вышел Gigachat 3.1, там тоже есть вариант на 120B с MoE, но модель обучена избегать чувствительные темы (политика, секс, нарушение законов РФ).
Можно было бы запариться и попробовать запустить сильно квантизованную Kimi 1T.
А вообще с такой-то GPU ограничений почти и нет, хотя Llama 70B запускай, только выстави ограничение на число слоёв на GPU, вроде lama.cpp так может.
Аноним 29/03/26 Вск 11:33:26 #4 №331334179 
>>331333379 (OP)
Диман, иди нахуй долбоёб
Аноним 29/03/26 Вск 11:35:34 #5 №331334240 
1707412200972682.jpg
Поясните ламеру. Основной упор в этих модельках идёт на видеопамять, так? Почему бы тогда не взять какой-нибудь радеон 9070 по цене грязи? Зачем все берут оверпрайснутые карты от куртки?

мимо
Аноним 29/03/26 Вск 11:38:02 #6 №331334313 
>>331334240
Родя не в теме
Аноним 29/03/26 Вск 11:38:10 #7 №331334317 
В 12 гб пытается засунуть 30B модель. Сам даун, что взял 12 гб видеокарту. Чтоб запускать локальные ллм минимум 16, лучше 24
Аноним 29/03/26 Вск 11:42:43 #8 №331334456 
image.png
>>331334317
>В 12 гб пытается засунуть 30B модель.

Я видяху брал для игр в первую очередь, еще до баловства с нейронками

>>331334134
Когда модель не влезает в врам, очень медленно.идет
Аноним 29/03/26 Вск 11:53:27 #9 №331334806 
Шарящие аноны подскажите, у меня 4080 на 16гб и 96гб ОЗУ (брал для рассчёта в ансис) какие нейронки будут более менее работать интересует пиздешь с ними и кодогенерация
Аноним 29/03/26 Вск 12:00:14 #10 №331334985 
>>331334806
Любые новые. Только тебе не на видеокарте надо запускать, а на процессоре и ОЗУ. Память погнать и токенов 25-35 в секунду сможешь вытащить
Аноним 29/03/26 Вск 12:00:50 #11 №331335005 
>>331334240
> радеон 9070 по цене грязи?
1. Цены видел?
2. Потому что CUDA только на nvidea
Аноним 29/03/26 Вск 12:02:22 #12 №331335056 
>>331334456
Так она у тебя заквантованная в говно. Она будет тупее, чем qwen3.5-9B q8
Аноним 29/03/26 Вск 12:03:24 #13 №331335096 
>>331335005
На аккордонах нейронки на вулкане крутятся, производительность норм. Даже не нужно ставить линукс с рокм
Аноним 29/03/26 Вск 12:05:07 #14 №331335150 
>>331334985
У меня ряженка 7 7700, а память на 6200 работает, llama пытался запустить там жалкие 1-2 токена
Аноним 29/03/26 Вск 12:07:37 #15 №331335220 
Нейродебилы, что вы там все локально крутите?
Аноним 29/03/26 Вск 12:13:36 #16 №331335421 
>>331334134
И как сберовская модель? Если мне тупо для кода, норм?
Аноним 29/03/26 Вск 12:15:35 #17 №331335510 
>>331333379 (OP)
NoobAI
Аноним 29/03/26 Вск 12:34:00 #18 №331336126 
>>331335421
Ты рил считаешь, что сберкатя что там может сделать?
sage[mailto:sage] Аноним 29/03/26 Вск 12:50:24 #19 №331336700 
Хаха. Глупцы.
Аноним 29/03/26 Вск 12:50:58 #20 №331336717 
>>331335150
Ты обновлял lm studio? В 4 бит?
Аноним 29/03/26 Вск 13:02:17 #21 №331337119 
>>331336700
Обоснуй?
Аноним 29/03/26 Вск 13:14:17 #22 №331337526 
Screenshot20260329130527Chrome.jpg
Screenshot20260329131334Chrome.jpg
>>331335150
>жалкие 1-2 токена

У меня столько на мелких моделях у llama.cpp с vulkan бэком на n100.
Аноним 29/03/26 Вск 13:22:07 #23 №331337789 
>>331337119
Мне даже пояснять лень. Мамкины вайбкодеры блядь. Лооол. Просто лол.
Смеюсь в голосяндру просто с глупости местной публики. Ахахахаа. Лолирую.
Как же вы все тут не правы во всем. Учите матчасть, чтобы не быть кринжем.
Аноним 29/03/26 Вск 14:49:55 #24 №331340960 
>>331335421
Я пробовал уменьшенную версию с 10B. Вроде код писать может (как и многие другие), но я ещё сделал так: я сначала долго подводил модель к идее, что она жёстко зацензурирована (что правда), потом она мне выдала фразу " моя задача к ИИ - не причинить вред своими ответами", затем я попросил написать небольшой код, а в ответ получил: "я не могу выполнить твою просьбу, потому что эта программа будет запускаться на устройстве пользователя и работать с файлами" (что характерно, эта программа - "helo world").
Отмечу, что главный плюс этой нейронки - контекст.
Аноним 29/03/26 Вск 14:52:26 #25 №331341046 
>>331337789
Нейронка может за пять секунд написать, например, шаблон, который бы ты десять минут кодил.
Аноним 29/03/26 Вск 15:50:22 #26 №331343032 
>>331341046
Локальная нейронка сможет тебе только говно по ебалу размазать, чучело. Всё не пиши мне больше, я понял, что ты умственно отсталый.
Аноним 29/03/26 Вск 16:07:33 #27 №331343686 
>>331341046
Забей, перед тобой клауде сектант. Все что не калуде коде для них не существует.
Аноним 29/03/26 Вск 16:48:37 #28 №331345278 
>>331343032
Не обращай внимания, это просто сектант из свидетелей локального ИИ. Они просто не умеют пользоваться бесплатными агентами и нейронками.
Аноним 29/03/26 Вск 17:38:23 #29 №331347355 
>>331345278
Вот запретят через пол года все нейронные сети, кроме российских (есть ведь новость о подготовке законопроекта о создании суверенного ИИ), вот и будешь либо пытаться блокировки обходить, либо работать с нейронкой, которая может выдать: "ой, этот код ведь будет на компьютере пользователя запускаться, файлы обрабатывать, это же опасно!". Либо заранее накачаешь себе gguf по-лучше и будешь работать с ними без подобных затупов.
Аноним 29/03/26 Вск 17:39:05 #30 №331347383 
>>331343032
Мой IQ 127. Пруфов не будет.
Аноним 29/03/26 Вск 18:08:33 #31 №331348469 
>>331333379 (OP)
Надо uncensored
Аноним 29/03/26 Вск 18:17:12 #32 №331348871 
>>331347383
Тогда зачем тебе вообще нужна нейросеть? Что-то ты припиздываешь судя по всему.
В 117 поверю.
Аноним 29/03/26 Вск 18:30:55 #33 №331349408 
>>331333379 (OP)
Так тебе на 12 гб врам максимум 4b запускать с очень урезанным контекстом..

Какие 30b, ты там ебанулся совсем?
Аноним 29/03/26 Вск 18:32:14 #34 №331349457 
>>331334240
обьем и скорость памяти, все верно.

ну по крайней мере пока речь не заходит о каком нибудь старом говне типа v100 с чипом из мезазоя.
Аноним 29/03/26 Вск 18:39:22 #35 №331349716 
>>331334985
так на цпу память медленная, даже топовый райзен больше 110гигабутов/с не вывезет.
тем временем типичная десктопная карта от 700гбпс ебашит.

скорость около нулевая будет.
райзен аи макс чуток исправляет ситуацию, но даже там больше 250 гбпс вытащить просто нереально и это ноуты онли.

вроде как на макокапле чето получалось у людей, но там память так же запаяно и слишком специфично.
comments powered by Disqus