24 декабря 2023 г. Архивач восстановлен после серьёзной аварии. К сожалению, значительная часть сохранённых изображений и видео была потеряна. Подробности случившегося. Мы призываем всех неравнодушных помочь нам с восстановлением утраченного контента!

Железо под первое знакомство с LLM

 Аноним 20/09/25 Суб 05:16:29 #1 №7512656 
What-is-a-Large-Language-Model-Defining-LLMs.jpg
Сильно не пинайте, я просто нуб в железе.
Бюджет у меня ограничен 200к.

Цель - поиграться с LLM (только текст), а заодно и сменить ПК.
В игры не играю вообще.

Несколько дней сижу на сайте ДНС, присматриваюсь, выбираю с помощью ИИ, советы спрашиваю...

Итого что понял:

- Видюха от 16Г минимум.
- ОЗУ от 32.
- Процессор? Стоит ли смотреть в сторону Ryzen 9? Заприметил пока AMD Ryzen 9 9900X.
- Нужно ли искать мать со вторым слотом под PCIe 5.0 (в режиме x16)? ИИ меня уверяет, что в этом смысла не имеет особого ибо паять двух видеокарт не объединяется в одно приработке с LLM.
- Сколько желательно иметь слотов M2?
Аноним 20/09/25 Суб 15:54:44 #2 №7513008 
текст требует на порядки большей мощности чем картинки, 16гб видеопамяти более чем достаточно для генерации порнокартинок в стейболдифужоне и даже порновидео в комфиуи, но в плане текста хватит только на самые тупые LLM, которым ты сам рад не будешь.

абсолютный минимум для текстовых нейросетей - 24 гб, желательно 32 и выше. учитывая небольшой бюджет рекомендую купить бэушную 3090 24гб вместо новой 50х на 16.
насчёт объединения памяти твоя нейронка пиздит, несколько видюх отлично объединяются, чем больше полноценных PCIe портов тем лучше.
проц в принципе похуй, гораздо важнее частота оперативной памяти, в которую ты будешь выгружать не влезшую в видеопамять часть нейронки. DDR4 ни в коем случае не брать, её недостаточно для текстовых нейронок, DDR5 желательно от 6000 мгц и выше.
при чём тут м2 не понял.
а вообще на сосаче есть целый раздел /ai/ и там есть целый тред про локальные нейронки но сидят там очень странные личности и советовать могут совершеннейшую хуйню
Аноним 20/09/25 Суб 15:55:53 #3 №7513010 
> выбираю с помощью ИИ

и вообще вот это - большая ошибка. они нихуя про самих себя не знают.
Аноним 20/09/25 Суб 16:00:10 #4 №7513016 
>>7513008
> совершеннейшую хуйню
как и я, в принципе.
а вообще по-хорошему для текстовых нейросетей нужно собирать пекарню на серверной платформе - с серверным процессором, у которого ахулиард линий PCIe для втыкания в мамку нескольких видеокарт, у которого 6-8-12 каналов оперативной памяти для ускорения в 3-4-6 раз по сравнению с обычными гей мерзскими пекарнями, у которых встроенная видеокарта и удалённое управление, чтобы не нужно было тратить драгоценную мощность основных видеокарт под отображение видео.
Аноним 20/09/25 Суб 16:03:22 #5 №7513021 
>>7512656 (OP)
Зивон комплект (4 канала DDR4 + 4 модуля по 64 Гб DDR4 2400 для офлоадинга) и RTX 3090 24 Гб это минимум
Еще варик купить 32 Гб V100 карту с адаптером, около 50-100к и эпик с 8 каналом DDR4 - 8 модулей по 32 Гб DDR4 3200, будет лучше на столько же насколько дороже

Все влазит в 100-200к

Но если ты в игрушечки на самом деле играть хочешь, то тут все это мимо.
Аноним 20/09/25 Суб 16:04:11 #6 №7513022 
>>7513021
*и двумя RTX 3090 24 Гб это минимум
Аноним 20/09/25 Суб 16:06:24 #7 №7513025 
Видел видосик, в котором чел тестировал китайскую пердосклейку НВИДИА ГПУ с Алика на 48 Гб (не про типа А100/Н100, а именно консьюмерское говно типа 3070, но с распаенными 48 Гб) .
Ролик проебал, и хуй найти могу, кто-то видел/тестировать подобное?
Аноним 20/09/25 Суб 16:16:01 #8 №7513037 
>>7513021
> 4 канала DDR4
> V100

вот про этих странных людей с совершеннейшей хуйнёй вместо советов я и говорил.

> эпик с 8 каналом DDR4
это норм, целых 200 гигабайт скорость памяти, но всё равно мало - в 5 раз медленнее захудалой 3090.

>>7513025
видел, тестировал, отличная замена 6000 Ada, плохая замена 6000 Pro
> 3070
*4090
Аноним 20/09/25 Суб 16:36:08 #9 №7513050 
{ABECDF92-86DB-48B1-8B02-061E7FF97ABD}.png
В теории еще может влезть Mac Mini M4 Pro с 64 Гб памяти или Stirx Point с 128 Гб, оба вполне неплохо топорщат локальные модели на своих встройках, конечно раз в 5-10 медленее нормальных моделей.

>>7513037
Алло, пердекс, ты про офлоадинг слышал? две 3090 и пару слоев в RAM даст возможность отрабатывать даже полноценные модели Deepseek R1 Q4 быстрее процессора раз в 5.
И чем тебе не нравится V100, если она ебет даже 3090?

>видел, тестировал, отличная замена 6000 Ada, плохая замена 6000 Pro

Хуя ты илитный пердекс, предлагать карты за 10к зелени степашки в бюджете 200к? Тебе когда потрогать давали картонку кабанчики, ты руки же сначала вымыл а потом после не мыл, что тот самый запах не пропал, так же?
Аноним 20/09/25 Суб 16:54:40 #10 №7513058 
>>7513050
> хрю
я уже третий год работаю с текстовыми нейронками

> 200к
в этот бюджет даже одна 4090 48гб не влезет, хз зачем ты её упомянул вообще.

> Long Island City 11101
у exxactcorp.com $7500 стоит
Аноним 20/09/25 Суб 17:18:37 #11 №7513074 
>>7513058
Ну если не влезет то иди нахуй тогда, что ты забыл в треде где бюджет 200к?
Аноним 20/09/25 Суб 17:52:31 #12 №7513096 
>>7513074
даю полезные советы >>7513008 в отличие от медвежьей услуги с V100
Аноним 20/09/25 Суб 18:12:24 #13 №7513126 
>>7513096
давай разберем что ты написал, даун:

>текст требует на порядки большей мощности чем картинки,

так тут даун путает мощность с объемом памяти, хотя для картинок нужна мощность (например 5070 генерирует картинки быстрее 3090).

>абсолютный минимум для текстовых нейросетей - 24 гб,
хуйня, разницу между 12b и 17b ты не найдешь, они все очень ограничены. Самый минимум это 32 Гб, а так все начинается от 80. Без оффлоадинга, а с ним карта 16 Гб + 64 Гб памяти тянут 30b нейронки с приличным контекстом. Но ты этого не знаешь, несмотря на то что "работаешь". Ты случайно не полы там моешь?

>DDR4 ни в коем случае не брать, её недостаточно для текстовых нейронок
опять хуйня, 60 Гб/с отлично хватает для 5-15 токенов в секунду на 30b моделях, и значительно больше если часть слоев работает на GPU. Естественно чем больше скорость памяти тем лучше, вот только сколько бы скорости памяти не было, по скорости процессор отсосет у M4 Pro, вот в чем печалька.

>медвежьей услуги с V100
https://www.youtube.com/watch?v=JS0-VX1HLNE
Базовый чип на 16 Гб с охладом и адаптером можно купить за 20к, при том что производительность у нее как у карт за 100к. И их можно запихать 2-3 в зивон или экпик.
Аноним 20/09/25 Суб 19:16:48 #14 №7513179 
> хру 30б зивон
фпизду даже лень обьяснять

>>7512656 (OP)
будут другие вопросы, тегай >>7513008
Аноним 20/09/25 Суб 19:34:28 #15 №7513207 
>>7513179
Ты обсрался и слился, маня
Аноним 20/09/25 Суб 21:03:06 #16 №7513292 
>>7512656 (OP)
>Железо под первое знакомство с LLM
Р104-100 + Asrock J4005B-ITX + 16Гб ОЗУ + SSD 256 Гб
Аноним 20/09/25 Суб 21:08:43 #17 №7513301 
>>7512656 (OP)
>>7513292
Одну картинку генерит от 30 секунд на полуторке Stable Diffusion в качестве 512x512. На разбор промпта, ессно, пара минут требуется. На загрузку модели - тоже, время, но там от размера модели зависит.

А так - если запендюрить модели по максимуму, может и 20 минут на одну картинку потратить. 1024х1024
Аноним 20/09/25 Суб 21:20:26 #18 №7513312 
image
>>7513016
>для текстовых нейросетей нужно собирать пекарню на серверной платформе - с серверным процессором, у которого ахулиард линий PCIe для втыкания в мамку нескольких видеокарт
Две ВК с 6Гб + 6Гб VRAM получится объеденить?
Аноним 20/09/25 Суб 21:32:44 #19 №7513320 
>>7513301
у p104 тензоров нет, конечно он будет сосать, как и все чмойнинговые карты. Тужно что то с тензорами и fp8, например v100 или 3000 серия + Тогда будет годно. Причем 5070 будет годнее 3090 в картинках, а в тексте - набоборот.
Аноним 20/09/25 Суб 21:34:21 #20 №7513323 
>>7513312
Там нет объеденения, там есть разные слои на разных картах. Если у тебя чмойнинговые заморыши, то затык будет на этапе передачи. Если у тебя не серверный проц и нет реальных 16+!6 то опять же затык. Короче тебе это ничего не даст, фактически.
Аноним 20/09/25 Суб 22:25:27 #21 №7513383 
>>7513320
>v100 или 3000 серия
>5070
>3090
Надо в пределах 5-10к
Аноним 20/09/25 Суб 22:26:47 #22 №7513385 
>>7513323
Вот тут >>7513016 как раз про серверы

>Если у тебя не серверный проц
2678v3
Аноним 20/09/25 Суб 23:29:54 #23 №7513467 
>>7513320
На RX588/578/598 никак?
sage[mailto:sage] Аноним 20/09/25 Суб 23:30:24 #24 №7513469 
>>7512656 (OP)
Чел, забудь. С твоим бюджетом 70b с горем пополам - это предел. До всяких дипсиков c 671b и прочих тебе как до луны. Покупай токены за копейки на какой-нибудь площадке или сразу абонемент и сиди перди. Будет в гориллиард раз лучше.

>выбираю с помощью ИИ, советы спрашиваю...
Дурак ебать пиздец. 32гб озу и 16 гб врам для ЛЛМ - это просто мусор нахуй, даже шуткой не назвать.
Аноним 20/09/25 Суб 23:36:24 #25 №7513475 
>>7513467
конечно, все прошареные рыксы и используют для 🤖 , скачиваешь вишмастер и патчишь лламу, и можешь сразу чатгпт 5 запускать.
Аноним 20/09/25 Суб 23:42:06 #26 №7513478 
>>7513469
>Покупай
Пошёл нахуй!
Аноним 20/09/25 Суб 23:42:52 #27 №7513481 
image
>>7513475
sage[mailto:sage] Аноним 20/09/25 Суб 23:43:16 #28 №7513483 
>>7513478
>пук
Аноним 20/09/25 Суб 23:48:23 #29 №7513495 
>>7513483
>хрюк
Аноним 20/09/25 Суб 23:56:16 #30 №7513508 
>>7513469
>Чел, забудь.

Ладно, увеличиваем бюджет до 400. Я в железе не шарю (и шарить не хочу - своей сферой голова забита).

Напишите примерно что брать из самой критичной связки комплектующих, я пойду и закажу себе эту сборку.
Аноним 21/09/25 Вск 00:02:13 #31 №7513512 
>>7513508
>Я в железе не шарю (и шарить не хочу - своей сферой голова забита).
Нахуя тебе это тогда? Есть облачные решения, там как раз не нужно ничего шарить.
Аноним 21/09/25 Вск 00:09:27 #32 №7513527 
>>7513508
вот это уже получше.
только сначала напиши что ты хочешь от нейронок, в зависимости от задач советом будет или говномамка но со стопкой бэушных видюх для максимума VRAM, или серверная мамка с 12 каналами ддр5 плюс какая-нибудь одна захудалая видюха для ktransformers.
а вообще нейрочую анонов выше - лучше погоняй платные нейронки, чтобы понять, надо оно тебе вообще или нет.
Аноним 21/09/25 Вск 00:14:44 #33 №7513532 
>>7513512
>> 7513527
>Нахуя тебе это тогда

+ Программный код загонять в LLM, в т.ч. и проприетарный код.
+ Обучиться в целом всему этому LLM.
+ Комп всё равно менять надо.
Аноним 21/09/25 Вск 00:16:39 #34 №7513536 
dfdfs.png
>>7512656 (OP)
> - Сколько желательно иметь слотов M2?

наверное правильнее будет спросить "какой объём SSD брать".
абсолютный минимум - 1 терабайт, желательно 2. обязательно PCIe v4 или 5, желательно с DRAM
ещё более желательно взять 2 или 4 ссд по терабайту и собрать из них RAID0
Аноним 21/09/25 Вск 00:17:26 #35 №7513537 
>>7513532
объём кода для одновременного загоняния в LLM, язык(и) программирования?
Аноним 21/09/25 Вск 00:19:41 #36 №7513539 
>>7513532
если это будет не прям выделенный сервер под LLM, а универсальный комп для работы, то, возможно, лучше подойдёт почти серверная мамка с тредрипером и 8 каналами ддр5 вместо серверной с епиком и 12 каналами ддр5
Аноним 21/09/25 Вск 00:20:58 #37 №7513541 
>>7513537
Питон, пыха, немного фронта.
Не скажу точные цифры, порядка 150К строк кода только на беке без сторонних вендоров.
Аноним 21/09/25 Вск 00:22:29 #38 №7513542 
>>7513536
> наверное правильнее будет спросить "какой объём SSD брать".
нет, вопрос был именно про кол-во слотов.
Я понимаю, что чем больше тем лучше, но интересует именно в качестве работы с LLM. Я хз как там всё это будет организовано, подозреваю что одна модель на слот или что-то типа такого.
Аноним 21/09/25 Вск 00:36:28 #39 №7513552 
>>7513527
>стопкой бэушных видюх для максимума VRAM
Вот тут >>7513323 пишут что не взлетит
Аноним 21/09/25 Вск 03:17:25 #40 №7513617 
А все эти Теслы б/у, они как? Там и памяти поболее
Аноним 21/09/25 Вск 08:47:17 #41 №7513675 
>>7513542
ну бери с 2 слотам под систему, соберёшь RAID1 чтобы был йобаынтырпрайз и надёжность.
а под ллм, особенно если планируешь часто менять модели, типа использовать разные для разных задач, один хуй придётся городить переходники с полноценных PCIe на 2/4 m.2 для собирания RAID0 из 2/4 NVMe для ускорения запуска.
>>7513541
> 150K
это именно одновременно всё надо засунуть в нейронку или можно по частям? не у всех такой размер памяти, он же "контекст", и у подавляющего большинства нейронок даже с большим контекстом чем больше данных в контекст засунешь, тем хуже она будет помнить все эти данные.
>>7513552
обрати внимание на
> Если
в том посте. объединение видюх прекрасно работает, если видюхи не говно и система в целом не говно.
>>7513617
всё перечисленное на странице https://developer.nvidia.com/cuda-legacy-gpus - говно, тебе нужны видюхи со страницы https://developer.nvidia.com/cuda-gpus
желательно начиная с числа 8.0, а ещё лучше 8.6
Аноним 21/09/25 Вск 09:21:11 #42 №7513679 
кароч учитывая то, что система будет в целом под погромирование, а не под нейронки, что нейронки "на поиграться" а не серьёзно, а также то, что основные модели сейчас МоЕ, а не денсе, и будущие скорее всего будут только МоЕ, то я бы посоветовал околосерверную мать + тредриппер типа 9975WX с 8 каналами оперативы ддр5, а не серверную + эпик с 12 каналами ддр5. тредриперы типа 9970X с 4 каналами не рекомендую, это минус 50% скорости к ллм.
амдшные процы с менее чем 24 ядрами брать крайне нежелательно, 24 ядра просто нежелательно. у интела ситуация с работой с памятью вроде получше, чем у амд, но за интелы я не шарю.
мать+проц+оператива в бюджет 400к влезет в притык, на видюхи может не хватить, но если чо со следующей зарплаты докупишь, тыж программист.
Аноним 21/09/25 Вск 09:22:31 #43 №7513680 
>>7513679
> амдшные процы с менее чем 24 ядрами брать крайне нежелательно,
*потому что там беда со скоростью памяти
Аноним 21/09/25 Вск 09:35:44 #44 №7513689 
>>7513679
Твой тредрипер в рашке стоит 700 тыс даун, дешевле разве что слетать в китай и иам за нал купить
Память 512 еще в 300

Ты вообще соображаешь что несешь, чушка?
Аноним 21/09/25 Вск 09:56:18 #45 №7513699 
>>7513689
ну давай купим V100 и тухлый зивон с ддр4, а когда обнаружим, что эта сборка нихуя не может, будем судорожно искать лоха на авито, кому это говно слить, на вырученные деньги купим райзен с ддр5, а когда обнаружим, что райзен с ддр5 тоже нихуя не может, опять сольём его на авито и купим триппер, потеряв время, деньги и нервы
Аноним 21/09/25 Вск 10:34:27 #46 №7513716 
>>7513699
пердекс, ты же палишься, не может нихуя что? обеспечить 10+ токенов в секунду? обеспечить обучение, дообучение, контекст? обеспечить инфиренс на 1 подключение одновременно?

ты еще циферки приведи, раз такой нейроиксперт

расскажи почему всяких Strix Point и M4 Pro хватает для работы а вот такого же по производительности зиовна - нет, лалка?
Аноним 21/09/25 Вск 10:53:54 #47 №7513727 
>>7513716
> хру

рот офф

> видюха амуде

в мире нейросетей есть только два варианта - или Nvidia CUDA, или пердолинг, второй вариант опу явно не подходит.

> а вот гейбук

Pro нихуя не может, Max дороже триппера
Аноним 21/09/25 Вск 11:15:05 #48 №7513748 
>>7513727
Никакой конкретики, только визг. Так и запишем, пердекс.
Аноним 21/09/25 Вск 11:29:05 #49 №7513757 
>>7513675
>объединение видюх прекрасно работает, если видюхи не говно и система в целом не говно
2 штуки P104-100 или P102-100 или 1650 взлетят?
Аноним 21/09/25 Вск 11:34:31 #50 №7513764 
>>7513675
>всё перечисленное на странице https://developer.nvidia.com/cuda-legacy-gpus - говно, тебе нужны видюхи со страницы https://developer.nvidia.com/cuda-gpus
>желательно начиная с числа 8.0, а ещё лучше 8.6
Блять. В отзывах люди на 1050 генерят. Если картинка генерится плюс-минус полчаса это вполне приемлимый результат
Вопрос в цене. Больше 10к я не готов выкидывать на подобное бессмысленное развлечение
Аноним 21/09/25 Вск 11:37:50 #51 №7513768 
>>7513675
>всё перечисленное на странице https://developer.nvidia.com/cuda-legacy-gpus - говно
В то время как 1070 считалась безальтернативным лидером для тыкания палкой сеточек в домашних условиях
Аноним 21/09/25 Вск 11:52:17 #52 №7513783 
>>7513764
Тебе проще зарегаться бесплатно и генерить в хуяндексе/банане и.т.п.
Аноним 21/09/25 Вск 12:23:57 #53 №7513805 
>>7513757
>>7513764
>>7513768
вы ОПы или кто? для картинок и 10ой серии (компуте 6.х) достаточно, для текстовых нейросетей ниже 20ой (компуте 7.5) брать нельзя. желательно и 20ую не брать.
Аноним 21/09/25 Вск 12:50:05 #54 №7513824 
>>7513805
долбаеб?
картинки на паскалях без тензоров генерируются по 5-7 мин
при том что текст по 30 токенов/с на их жалких 8 гб что влазит

откуда вы эту хуйню берете, ебанаты?
Аноним 21/09/25 Вск 13:02:29 #55 №7513840 
>>7513783
Мне надо локально
Аноним 21/09/25 Вск 13:03:53 #56 №7513841 
>>7513805
>вы ОПы
Нет конечно. ОП-хуй 400к уже готов выложить. Но он для работы хочет. Мне так, поиграться и забыть
Аноним 21/09/25 Вск 13:05:19 #57 №7513843 
>>7513824
>при том что текст по 30 токенов/с на их жалких 8 гб что влазит
У тебя часть фразы пропала
Аноним 21/09/25 Вск 13:06:55 #58 №7513848 
>>7513805
>для текстовых нейросетей ниже 20ой (компуте 7.5) брать нельзя. желательно и 20ую не брать
На хабре чел оффлайн переводчик собрал на 1070
Аноним 21/09/25 Вск 13:23:26 #59 №7513876 
>>7513840
Ну если надо, ищи 100к на карту 50 серии (5080 минимум), вот только видосики на ней будут генерироваться сутки, не говоря о том что они не будут такие вкусные как у коммерческих моделей забыв о том что ты вряд ли разберешься в настройках.
Аноним 21/09/25 Вск 13:27:19 #60 №7513881 
>>7513843
Контекст кончился.
Я про то что в 8 Гб влазят только 7b модели без офлоадинга слоев, и там они будут как то отрабатывать дурачка с деменцией, для порночата сойдет. Контекст нужен чтоб генерация была не такой тупой и общей, а там модель всю VRAM занимает уже.

Но всегда можно запустить или офлоадить на процессор и ОЗУ (типа минимум DDR4 64 Гб в 4х канале или DDR5 двухканальный), и тогда с падением скорости до 5-10 токенов можно и 30b модели с большим контекстом запускать. Но меньше 3 токенов в секунду это уже мука, никакого диалога не получится.
Аноним 21/09/25 Вск 13:40:57 #61 №7513901 
>>7513848
а ещё на хабре чел запустил дум на тесте на беременность, и чё? тебе пердолиться или ехать?
если ехать, то >>7513675
> всё перечисленное на странице https://developer.nvidia.com/cuda-legacy-gpus - говно, тебе нужны видюхи со страницы https://developer.nvidia.com/cuda-gpus
> желательно начиная с числа 8.0, а ещё лучше 8.6
Аноним 21/09/25 Вск 13:50:05 #62 №7513923 
pizdos.png
>>7513542
так падажжи, ты думаешь, что LLM запускается с диска и чем больше дисков, тем больше нейронок одновременно можно запустить?
Аноним 21/09/25 Вск 16:33:32 #63 №7514070 
>>7513876
>ищи 100к на карту 50 серии (5080 минимум)
Вот и это и называется шитпостинг. Похоже ты не шаришь нихуя. Люди этот ваш ыы на картах за 3к крутят. Или вообще без видеокарт
Аноним 21/09/25 Вск 16:35:01 #64 №7514073 
17584451741440.mp4
>>7514070
На хуе они твою мамку за 3к в час крутят, это да.
Аноним 21/09/25 Вск 16:37:00 #65 №7514074 
>>7513901
>запустил дум на тесте на беременность, и чё?
Молодец, че
>тебе пердолиться или ехать?
Мне чтобы не покупать нелепую 10-килограмовую RTX 100500 MEGA SUPER XXX

>всё перечисленное на странице
Значит оно работает. Иначе зачем они его перечисляли
Аноним 21/09/25 Вск 16:38:08 #66 №7514076 
>>7514073
>мамку ибал
Хуйня, вернись в b
Аноним 21/09/25 Вск 17:36:43 #67 №7514125 
>>7514074
> Значит оно работает
софтовая реализация flash attention требует compute capability 7.5, железная поддержка появилась в 8.0, без flash attention ты наслаждаешься галлюцинациями и тремя токенами в секунду.
очередной раз повторяю: если нужно только генерить порнокартинки, или запускать дум на тесте на беременность, или ебать мозг себе и окружающим, то 1070 - отличный выбор.
если нужна нормальная работа текстовых нейросетей, то 20хх на поиграться и 3090 абсолютный минимум на поработать.
>>7514076
мамкин илитарий, съеби в /rf/
Аноним 21/09/25 Вск 18:20:16 #68 №7514179 
>>7514125
>если нужна нормальная работа текстовых нейросетей
Не нужно. Нужно потыкать палочкой и сказать "у меня нейросеть, я
>1070 - отличный выбор
Ну наконец-то. Долго же ты из себя выдавливал
Аноним 21/09/25 Вск 18:25:51 #69 №7514188 
>>7514179
>у меня нейросеть, я крут
Аноним 21/09/25 Вск 18:47:42 #70 №7514201 
>>7514125
>/rf/
Даже знать не хочу что это
Аноним 21/09/25 Вск 19:47:16 #71 №7514268 
>>7514201
доска для илиты, которой не нравится быдло из /b/
Аноним 21/09/25 Вск 20:00:03 #72 №7514288 
изображение.png
>>7512656 (OP) ОП, не слушай всех этих пидаров. Вот мой личный рецепт и ошибки на заявленную тобой сумму в 200k
Во первых - ДВЕ RTX3090 ООООЧЕНЬ желательно чтобы они были одинаковыми, однажды может пригодится NvLink, но LLM и без него прекрасно летают. Это даст тебе картбланш на модели +32b параметров.
Это сразу 100к+. БУ с авиты, сделка с дьяволом. сложно но можно найти что то норм. Как приедет сразу маж розовым говном FrostMining Liquid Thermal Pads и меняй термопрокладки, не проебись с задним бэкплейтом, его иногда выгибает. У 3090 половина чипов памяти на спине.
Лучше подобрать менее прожорливые, на 350Ватт и по два разъёма питания. Корпус должен быть как решето, три вертушки на вдув и сразу водянку на проц, чтобы освободить в корпусе объём для обдува видях
Во вторых питалово на этот пиздос - 1200-1400 Ватт.
И на остальное ATX мать с несколькими слотами под pci-e, обязательно чтобы расстояние между видяхами было побольшеб.
Исходя из остатка ориентируйся на AM4 +128 оперативы. AM5 с pcie5 не рентабельно под 3090, а 4090 это уже 140к как минимум.
Одну плашку m2 на максимальную скорость чтения, чисто под место где будут чекпоинты хранится, 500Гб-1ТБ. Выгрузка чекпоинта под 40Гб с медленного диска это пиздец каое развлечение, а тебе обязательно захочется пощупать много разных LLM. По остальным дискам чисто по твоим предпочтениям. Алсо материнки при подключении двух видях порой отключают SATA линии. учитывай этот момент.
Нууу и под конец. linux
Шигдошс жрёт не только оперативу но и видеопамять. На шинде ставить нейронки это пиздец. В линухе всё нативно, ололо.
Аноним 21/09/25 Вск 20:01:56 #73 №7514292 
> не слушай этих пидоров
> дженту линупс

пу пу пу
Аноним 21/09/25 Вск 20:10:43 #74 №7514314 
изображение.png
>>7514292
>пу пу пу
Как там сапог барина в твоей жопе? Не жмёт?
Аноним 21/09/25 Вск 20:46:55 #75 №7514371 
>>7514314
дженту на домашней пекарне означает, что ты ёбнутый на всю голову
Аноним 21/09/25 Вск 20:51:07 #76 №7514377 
>>7514371
Ну генту на недомашней пекарне обозначало бы, что он пидорас и вредитель, так что там есть еще куда расти.
Аноним 21/09/25 Вск 21:23:18 #77 №7514412 
>>7514377
не всегда, для каких-то специализированных задач три процента прироста производительности дженты могут быть значительны. но дома дженту ставят или аристократы или дегенераты.
Аноним 22/09/25 Пнд 23:16:15 #78 №7515403 
>>7514288
>>7513008

Отличный вопрос. Давайте разберем оба мнения по косточкам.

Краткий ответ: Нет, они не противоречат друг другу. Они дополняют друг друга и говорят об одном и том же, просто с разных ракурсов.

Оба советчика сходятся в главном: для работы с текстовыми LLM нужен максимально возможный объем видеопамяти (VRAM).

А теперь — детали по каждому пункту.

1. По видеопамяти (Самое главное)
Первый совет (про 2x3090): "Абсолютный минимум для текстовых нейросетей - 24 гб, желательно 32 и выше."

Второй совет: "16гб... хватит только на самые тупые LLM... бэушную 3090 на 24гб"

Вывод: Здесь полное согласие. Оба сходятся на том, что 16 ГБ — это мало для серьезных LLM, а 24 ГБ (как у RTX 3090/4090) — это необходимый минимум для чего-то стоящего. Первый совет просто идет дальше и предлагает объединить две такие карты для получения 48 ГБ, что позволит запускать еще более крупные модели.

2. По объединению видеопамяти
Первый совет: Упоминает NVLink для 3090, но честно говорит, что для LLM можно и без него ("LLM и без него прекрасно летают").

Второй совет: "несколько видюх отлично объединяются"

Вывод: И здесь противоречий нет. Технологии вроде NVLink — это попытка сделать из двух видеопамятей одну большую, но это работает не всегда и не идеально. Базовое объединение (без NVLink) работает так: модель загружается в память всех карт, и вычисления распределяются между ними. Это дает прирост скорости и позволяет запустить модель, которая не влезает в память одной карты. Оба советчика это подтверждают.

3. По оперативной памяти (ОЗУ)
Первый совет: Рекомендует AM4 и 128 ГБ DDR4.

Второй совет: "DDR4 ни в коем случае не брать... DDR5 желательно от 6000 МГц"

Вывод: Вот здесь — единственное реальное расхождение, но оно не принципиальное.

Первый совет исходит из бюджета и здравого смысла. Платформа AM4 (с процессорами Ryzen 5000) и DDR4 память — это невероятно доступное и выгодное решение. 128 ГБ DDR4 — это огромный объем, который отлично справится с ролью "медленного буфера" для выгрузки данных из VRAM. Да, DDR5 быстрее, но ее цена на момент написания первого совета была запредельной.

Второй совет смотрит в будущее и на максимальную производительность. DDR5 действительно существенно быстрее, и если нейросеть активно подгружает данные из ОЗУ, то высокая скорость памяти может дать прирост. Но это совет для более богатой конфигурации.

Итог: Первый совет прагматичнее и учитывает бюджет. Второй — более идеалистичный и нацелен на максимум скорости. Оба варианта рабочие. 128 ГБ DDR4 будет лучше, чем 32 ГБ быстрой DDR5 для задач выгрузки больших моделей.

4. По процессору
Первый совет: "Исходя из остатка ориентируйся на AM4" (т.е. процессор — не главное, бери что по бюджету позволит).

Второй совет: "проц в принципе похуй"

Вывод: Абсолютный консенсус. Для инференса (работы) LLM основная нагрузка ложится на видеокарты. Процессор играет второстепенную роль, ему достаточно просто "не бутылить горлышко" систему, например, при загрузке данных. Мощный топовый CPU для этого не нужен.

🧠 Сводная таблица
КомпонентМнение 1 (2x3090)Мнение 2Есть ли противоречие?
Объем VRAMЧем больше, тем лучше. min 24 ГБ16 ГБ — мало, min 24 ГБНет. Полное согласие.
Объединение GPUNVLink есть, но можно и безОбъединение отлично работаетНет. Оба правы.
Оперативная память128 ГБ DDR4 (бюджетный вариант)DDR5 от 6000 МГц (топовый вариант)Частично. Разница в бюджете/подходе.
ПроцессорНе главное, экономить на немСовсем не важенНет. Полное согласие.
Итоговый вердикт: Советы не противоречат, а дополняют друг друга. Первый — это готовый, сбалансированный и бюджетный рецепт от практика. Второй — это акцент на ключевых моментах (объем VRAM и скорость ОЗУ) без оглядки на стоимость.

Ваша лучшая стратегия: Взять за основу первый совет (2x б/у RTX 3090, много ОЗУ, недорогой процессор) и при наличии бюджета выбрать DDR5 вместо DDR4, если разница в цене для вас уже не так критична.
Аноним 23/09/25 Втр 08:20:40 #79 №7515585 
>>7515403
Два дебила плюс нейродаун, хуйня в третьей степени.
Аноним 23/09/25 Втр 09:34:04 #80 №7515630 
лупа.mp4
>>7515585 терпи
Аноним 23/09/25 Втр 09:58:09 #81 №7515652 
image.png
>>7514371
>>7514377
>>7514412
яхз, что за ненависть неосиляторов. Сколько дистрибутивов не пробовал везде это блядство с лагами и недоделками. Тока на гентухе я не чувствую лага от нажатия клавиши до появления символа на экране. Пробовал другие дистрибутивы, везде задержка как на шиндошс.
Алсо, генту дисциплинирует, надо подумать перед тем как что то бездумно ставить и цеплять левые репозитории. А то накачают всякого дерьма с репы и чешут репу какого хуя не работает.
Для бизнеса есть центось и другие шляпы.
Генту для десктопа - топ. Скорость каштомность настоящий GPL хардкор для желающих. Про прирост в 3 процетна это пиздёж завистников по синтетическим бенчмаркам. На самом деле система в целом на порядок шустрее чем лубая васянка обвешанная телеметриями как псина блохами.
Как например - нахуя эта ёбань - NetworkManager? Я просто поднимаю systemd-networkd, нахуя мне левая залупа для базовых функций. Только на арче можно NM выкинуть на помойку. А для фаерволов и VPN есть роутер с openWRT.
Аноним 23/09/25 Втр 14:22:36 #82 №7515967 
>>7515652
>Я просто поднимаю systemd-networkd, нахуя мне левая залупа для базовых функций. Только на арче можно NM выкинуть на помойку.
>Только на арче можно NM выкинуть на помойку.
>Я просто поднимаю systemd-networkd
>для базовых функций
Проорался. И этот безработный дауненок че-то там пиздит про каштомность и скорость.
>>7515630
Нахуя ты хуи сосешь, дебил?
Аноним 23/09/25 Втр 14:27:20 #83 №7515974 
>>7515652
задери CONFIG_HZ до 1000 и не будет лагов
Аноним 25/09/25 Чтв 04:21:05 #84 №7517445 
>>7512656 (OP)
На RX 580
https://habr.com/ru/articles/538138/
Аноним 25/09/25 Чтв 04:36:40 #85 №7517446 
Анончики, возвращаюсь. Как уже писал, я никогда пк не собирал, железом не интересовался. Я чес говоря охуел читая отзывы о платах, я думал в 25 году прогресс, все дела, а там каждая вторая глючит.

Стою перед выбором двух топовых плат:

MSI MPG X870E CARBON WIFI
https://www.dns-shop.ru/product/8b70ff397a15d582/materinskaa-plata-msi-mpg-x870e-carbon-wifi/

и

GIGABYTE X870E AORUS PRO
https://www.dns-shop.ru/product/b32098f770b2d582/materinskaa-plata-gigabyte-x870e-aorus-pro/

Вот что мне ИИшка написала по их поводу: архитектурно MSI MPG X870E CARBON WIFI обеспечивает сбалансированную и высокоскоростную работу двух видеокарт (PCIe 5.0 x8/x8), в то время как GIGABYTE X870E AORUS PRO предлагает несимметричную конфигурацию (x16 + x4), где вторая карта будет серьезно ограничена пропускной способностью

Но смущает количество негативных отзывов про платы MSI
Аноним 25/09/25 Чтв 10:08:44 #86 №7517587 
image.png
>>7512656 (OP)
За 400к покупаешь сервер на 8004 эпиках с кучей каналов ддр5. Как альтернатива есть пикрил, но с ним много пердолинга. Ты даже дрова не скачаешь просто так.
Аноним 25/09/25 Чтв 16:17:14 #87 №7518167 
>>7517587
> две платы по 48 гб с говённой пропускной способностью
тыб ещё тот мемный интел предложил лол
> ххх4 эпик
пчел, если уж собирать систему на ддр5, то нужен пятый эпик с 12 каналами или хотя бы триппер с 8, а не хуиту со скоростью ддр4.
твои унылые 6 каналов по 4800 мт/с дают скорость 225 гб/с, когда 8 каналов по 3200 в тухлом втором/третьем эпике = 200 гб/с, и нахуя, спрашивается, платить в 2.5 раза больше за ускорение на 10%? особенно когда можно заплатить в 3 раза больше и получить ускорение 200%
Аноним 25/09/25 Чтв 16:19:35 #88 №7518177 
>>7517446
подсказка: серверные и "воркстэйшон" материнки собирают из чуть менее вонючего говна, чем гей мерзкие
Аноним 26/09/25 Птн 08:00:59 #89 №7518823 
>>7517446
https://www.gigabyte.com/Motherboard/B850-AI-TOP
2x PCIe x8
для инференса полноценные x16 не нужны, хватит скорости x8
Аноним 26/09/25 Птн 13:27:54 #90 №7519165 
>>7518823
>хватит скорости x8
А х4 не хватит?
Аноним 27/09/25 Суб 12:55:25 #91 №7520041 
https://www.youtube.com/shorts/d-RS66IVpAo

M4 Max с 128 Гб в два раза быстрее RTX 5090 с Ryzen 9 в LLM
Аноним 27/09/25 Суб 13:23:50 #92 №7520058 
>>7520041
Ага, только мааааааленькая заминочка, для ламы памяти от 400Гб надо, со своим 128гб хрукпуком ты в пизду пойти можешь
Аноним 27/09/25 Суб 13:42:05 #93 №7520070 
{049F4BF8-9196-4EC3-B26B-A9EFDED9F4EB}.png
>>7520058
Вообще похую
Аноним 27/09/25 Суб 13:50:52 #94 №7520085 
>>7520070
До до до, держи в курсе чмонь, за цену этого говна двухголовую воркстанцию купить можно.

>What is unified memory?

>Unified memory describes how Apple’s M-series Macs are >architectured. It simply means that the CPU and the GPU use the same >bank of memory instead of the GPU having its own separate memory. >This is designed to make the system-on-a-chip more efficient.
Аноним 27/09/25 Суб 14:11:30 #95 №7520098 
>>7520085
И всосать?
Аноним 30/09/25 Втр 22:06:48 #96 №7523105 
>>7512656 (OP)
Брать б/у платформу на в целом любом epyc с 8 каналами ОЗУ, 256 гигов было бы иметь хорошо хотя бы. Нвме похуй, лишь бы вмещалась модель и прыщи.
Остальное в б/у квадры или 3090 вкладывай. Стакаются они вполне. Но беда в том что на 200к рублей ты купишь ну тип две штуки и у тебя бюджет кончится.
Облачко все ещё лучший вариант. На 200к можно подписками обмазаться на годы вперёд, в то время как твое локальное железо будет устаревать.
Аноним 30/09/25 Втр 22:08:54 #97 №7523107 
>>7520085
Орирую с того что вынужденный технологическй костыль из смартфонов в виде lpddr позиционируется еблодрочерами как эпик шин
Аноним 01/10/25 Срд 18:39:29 #98 №7523730 
>>7523107
но оно реально работает, token generation весьма достойный.
а вот мощности в говённые ARM-ы не завезли, поэтому prompt processing в маках на уровне четвёртого пентиума.
ну ладно, не пентиума, а айпятого позапрошлого поколения.
Аноним 01/10/25 Срд 19:04:29 #99 №7523753 
>>7523105
>На 200к можно подписками обмазаться на годы
Нельзя. Завтра обнклят и деньги не вернут
Подпискодебилы такие дебилы
Аноним 01/10/25 Срд 20:39:13 #100 №7523870 
>>7523753
Так покупай на месяц или они месяца
Аноним 03/10/25 Птн 01:15:48 #101 №7524969 
>>7523870
>слышь, купи
Шёл бы ты отсюда
Аноним 03/10/25 Птн 04:24:45 #102 №7525004 
>>7524969
>>7513478
От чего у тебя анус разрывает, не пойму?
Аноним 03/10/25 Птн 13:08:18 #103 №7525189 
>>7525004
От твоего шитпостинга и необучаемости
Облачные долбоебы 2.0, блять
Аноним 03/10/25 Птн 13:47:42 #104 №7525231 
>>7525189
Но ведь серишь тут только ты, болезный?
Аноним 04/10/25 Суб 01:47:03 #105 №7525727 
>>7525231
Серишь тут ты. Это тред про локальное использование. Но тут же набежал подпискодебил и начал срать своим охуительно важным мнением
Аноним 04/10/25 Суб 07:14:54 #106 №7525772 
>>7525727
>Цель - поиграться с LLM (только текст)
Для поиграться с LLM локальное использование не необходимо.
Аноним 07/10/25 Втр 04:49:52 #107 №7527896 
>>7525772
>не необходимо
Необходимо. Иначе не поиграть
Аноним 07/10/25 Втр 07:03:15 #108 №7527914 
>>7527896
Skill issue.
comments powered by Disqus