>>331441339 → В оп посте 9b модель, она норм по количеству параметров-скорости на старых картах. Но есть 35b модель от того же производителя, она у меня побыстрее идет и там побольше параметров. https://huggingface.co/HauhauCS/Qwen3.5-35B-A3B-Uncensored-HauhauCS-Aggressive Там надо отгрузку на cpu включать для неактивных параметров, в koboldcpp это делается через --moecpu с командной строки, чтобы скорость была. Скорость выходит выше чем в 9b тогда, моделька поумнее.
>>331441383 (OP) >Ниработаит, фейл. Делаешь как на пик 3 >Встовляешь, начинает думать не через жопу. А чём прикол этих думалок, раз она способна сразу ответ выдавать?
>>331441429 Если тебе качество надо, то во-первых не качай модель из оп поста, она криво облитерирована, это примерно как умного в дауна превратить лоботомией. Попробуй вот эти модели Huihui-Qwen3.5-35B-A3B-Claude-4.6-Opus-abliterated.IQ4_XS - тут лучше аблитерация, не такая тупая и добавили клауде-опус ризонинг Qwen3.5-9B-Claude-4.6-OS-Auto-Variable-HERETIC-UNCENSORED-THINKING.IQ4_XS - тут вообще без аблитерации, минимум вырезки мозгов, но на часть зацензуренных промптов придется уламывать
>>331441592 открой гугл в ит моде и спроси - "как мне отредактировать ворд файлы с помощью локальной ии" в общем сама нейронка выдаёт только текст, чтобы она что-то делала её нужно запустить в программе где она выдав определённый текст, запустит какое-то действие, то есть короче нужно её использовать через программу которая может редактировать файлы
>>331441611 лол спросил его по приколу, в диалоге обсуждал с ним эффективность олламы с рукодом и он мне короче в итоге выдал ту самую связку что мне в голову пришла, забавно, кстати реально можно
только по своему опыту попыток заставить рукод работать с локальными моделями, на работе у меня есть лимит на клод соннет, так что это только развлечение, могу сказать что тебе придётся искать модель скорее всего не эту, тебе будет нужен что-нибудь вроде qwen 2.5 instruct и мб придется повозиться с настройкой системного промпта
возможно лучше что-нибудь другое вроде continue dev тут надо тыкать, я рукод люблю из-за кенгурушки и в сложных задачах он рулит с клодом
>>331441775 >Если ты про то, что это на 1050 не пойдет, то вот все скрины запросов со скоростью. Идет как видишь очень хорошо. Я не стану тебе больше писать гадости, но я не понимаю как это работает. Типа МоЕ версия с 3б активных параметров, она всё равно должна держать где-то остальные веса и при оращении к ним скорость должна падать до нескольких токенов в секунду. Ещё на сколько я знаю, эта херня бредит чаще чем плотная модель. Но хрен бы с ним, если бы ты запустил её на 3090 хотя бы. Как оно вообще работает на гтх с 4гб врам?
>>331441946 --moecpu флаг отгружает 200 мое слоев в рам 3б активных параметров в видеокарте (1050 имеет 4гб врама - как раз влазит) Скорость в 9-11 токенов в секунду за счет этого, все активное в видюху влезло. Работает это только с 35b моделью, потому что она MOE. С 9b моделью уже все помедленнее, скорость понижается до 5-6 токенов в секунду, даже с отгрузкой. Поскольку там активных параметров поболее (она не мое), хотя сама модель поменьше.
>>331441981 >Как вы "размышления" в lm studio отключили? У меня на любой запрос нейрона килотонну времени и контекста сжирает на это. Non-thinking mode:
>>331441946 Алсо все слои все равно должны быть в RAM, а не в свопе винды к примеру - если отгружает в своп, то тут же понижение скорости, несмотря на то что активные слои в видюхе. Так что РАМ слои (15гб) оно все равно юзает, просто к ним видимо такая большая скорость не нужна, как к тем что в видюхе.
>>331442050 27b, в ней больше активных параметров, ответы качественнее. Но на 1050 она не тащит, скорость понижается до черепашьей. 35b оптималочка, скорость высокая по 10-11 т/с, ответы вменяемые. 9b тоже более-менее по ответам, но сильной разницы по ответам не заметил, а падение на 4 t/s по скорости уже заметно.
С кодом оно конечно как и гугл работает плохо. 10 попыток - ни одной удачной даже чтоб сраный куб нарисовать. А ещё пиздит что умеет в код. Тупо зацикливается и выплёвывает то-же самое решение проблемы что и плюнуло до этого.
>>331442495 вот тебе тесты для сравнения. В большинстве 27b побеждает, но не сильно. В 27b сразу все 27 миллиардов активных параметров. В 35b только 3 миллиарда. Но практически разница похоже не так сильна. Возможно для каких то задач вроде кодинга это критично. 35b зато позволяет использовать лучшие кванты с тем же оборудованием, что в принципе должно дать более хороший результат. Вроде как по опыту большинства людей 27b получше, но у них 27b сразу тянет в максимальных квантах.
В модели содержится 35 миллиардов (35B) параметров. Когда наступает момент вывода следующего токена, логика шлюза модели анализирует токены в контексте и предполагает, какие 3 миллиарда параметров из этих 35 миллиардов с наибольшей вероятностью будут релевантны данному контексту. Затем она использует эти 3 миллиарда параметров для выполнения вывода.
Когда этот процесс завершён, вновь выведенный токен добавляется в контекст, и всё начинается заново: модель снова анализирует обновлённый контекст, чтобы определить, какие именно 3 миллиарда параметров следует использовать для вывода следующего токена.
Однако существуют некоторые усложняющие факторы. На самом деле модель не выбирает эти 3 миллиарда параметров по одному. Она выбирает из своих «экспертных слоёв», каждый из которых содержит десятки или сотни миллионов параметров, причём она может выбрать лишь ограниченное количество таких экспертных слоёв. Это означает, что многие из параметров, которые в итоге выбираются, могут оказаться нерелевантными тому, что находится в контексте, а также это означает, что модель может упускать множество релевантных параметров, находящихся в экспертных слоях, которые не были выбраны.
Кроме того, логика шлюза может допускать ошибки, поэтому выбранные ею 3 миллиарда параметров не всегда могут быть наилучшими для данного контекста.
Тем не менее современная тенденция использования множества «микро-экспертов» значительно улучшает эту ситуацию, и логика шлюза становится всё более эффективной в выборе экспертных слоёв, содержащих большое количество релевантных параметров.
Это контрастирует с плотными моделями, такими как модель на 27 миллиардов параметров, которые используют каждый параметр модели для вывода каждого токена. Традиционно плотные модели демонстрировали преимущества перед моделями типа MoE (смесь экспертов), главным образом в своей способности хорошо следовать сложным или нюансированным инструкциям, однако в последнее время этот разрыв стал довольно маленьким.
>>331442591 >>331442495 Итого в целом - 27 миллиардов активных слоев это лучше 3 миллиардов выбранных слоев, но сильно медленнее. И 27 миллиардов меньше 35 миллиардов. Но не факт, что из этих 35 миллиардов на следующий токен будут выбраны правильные 3 миллиарда. Когда выбраны правильные 3 миллиарда - тогда модель лучше 27b, когда неправильные - похуже. В общем такая плавающая логика на каждый токен, то хуже, то лучше.
>>331442604 >>331442611 Не знаю что? Сетка по ссылке у меня легко потянет. Может есть что-то более мощное? 27b? Предлагайте, если мой макпук обосрётся и не вытянет, то я итт отчитаюсь, поржёте.
>>331442611 Ебать ты даванул копиума братишка, аж с экрана потекло. Терпи, зато тема как в седьмой винде классная стеклянная у тебя, лагающая на инвалидных 16 гб
>>331442677 Лехко, берешь делаешь статичный айпи, подрубаешь модельку в lm studio или ollama - идешь продавать свой API, профит Подводные? Ну любой уебан может по твоему айпи сделать все что хочет, так как тебе придется открывать порт и допускать сторонний айпишник на свой роутер
>>331441543 а чем нижняя лучше, чем, например: "Qwen3.5-35B-A3B-Uncensored-HauhauCS-Aggressive"? Млин столько наплодили и фиг поймешь что кого... (По крайней мере не для кодинга)
>>331442850 от разных производителей, все разную лоботомию делали - у hauhau аблитерайтед агрессивная лоботомия, самая тупая модель, но быстрая у heretic слабая лоботомия и способности модели почти не трогает, плюс там еще Claude датасет навернули для большего ума, но может отлупы давать на части зацензуренных промптов
>>331442808 >старичке макбуке запустить qwen 3.5 27B Запустится, но у тебя макбук лопнет нахуй и генерации ты будешь ждать часа 2 только для "привет" Чтобы полноценно дрочить на ИИшках тебе нужен мощный комп, а именно дохуя быстрой RAM, чем больше тем лучше (чтобы контекст сгружать) и дохуя VRAM, причем только на NVIDIA RTX картах с тензорами и CUDA ядрами (не мобильные версии, не хх60 карты говна, и именно полноценные гойские карты от куртки типо хх80 или хх90)
Лм студия это говно, малые. Apple от мира ллм - дл тупых хлебушков создается мнимое удобство, при этом вся инфраструктура и интерфейс намеренно вывернуты наизнанку чтобы юзера держать в клетке навязанного интерфейса, чтобы он вообще не понимал что реально происходит и не мог потом слезть с этого говна на нормальные бэкенды. Качайте и осваивайте оригинальную ламу цпп или если не хочется с консолькой ебаться - кобольда.
Ограничился 7b q8, старая модель, но обновили буквально на днях. Уже какой-то результат. Сама весит 8 гигов и на 131 токенов с галками хавает примерно столько.
>>331442939 Ну если ты хлебушек и не рассчитал верно распределение слоев, а, например, тупо имея 8 гб врам сбросил все 16 гб модели на видеокарту, то, разумеется, он сбросит лишнее на рам. -mlock используй всегда, а также -ngl с нужным числом слоев или для мое моделек -ngl 99 и -ncmoe с нужным числом слоев.
>>331443004 Да, я же хлебушек имея карту на 16 гигов vram буду подрубать модель которая жрет >16 гигов Естественно я разные модели траил, ебливый llama.cpp даже рофломодели на 1B жрущие 500 мегабайт vram свопал на CPU
>>331443091 Чем больше активных параметров, тем модель умнее, но требует больше памяти. У меня на RTX3070ti 8gb+64gb ram запускаются 35b модели 9-10 токенов в секунду.
>>331443158 Я представляю как ты будешь ждать минут 5 ответ от LLM в виде небольшого абзаца, не насилуй свое железо и поставь модель поменьше, зато ответ быстрее будет, 5 токенов в секунду это говно из жопы
>>331443158 >RTX3070ti 8gb максимум 12B модели в ебейшем квантовании, а вот на RAM накинуть CV kache чтобы модель больше токенов вжирать могла и большие пасты полностью глотать без ограничений в 4к \ 8к и т.д. токенов и обрезки
нахуй вам кастрированные нейронки когда есть гроки, гемини и т.д? ну сможете спрашивать чё там на площади тянанмын произошло а дальше чё? в прошлых тредах анон спрашивал про травлю хвостиков а она его к ветеренару отослала так как не знает нихуя
>>331443228 Таки тут палка о двух хуях Облачные модели платные, а бесплатные так же кастрированы по токенам Локальные модели требуют дохуя мощного железа но тупее облачных, так как в вакууме без дообучений, зато бесплатна
>>331443251 Не так уж и много, сообщений 15-20 и две картинки всего. Посоветуйте настройки новичьку. В прошлый ран отметил, что засралась только оператива. Видеопамять же не была забита совсем, у меня радеон 9070 амудедебил я
>>331443231 Для этого есть вот эта кнопка. Allow editing. Жмешь ее, потом идешь и ручками вытираешь все говно, что тебе ЛЛМка давала - она же его учитывает, от того и глюки. Еще можешь саммари запросить у ЛЛМки и засунуть его в систем промпт. А все ненужное вообще вытереть, это лучший подход, контекст окно расчищается.
>>331441383 (OP) Умные ребятки, подскажите пожалуйста У меня есть выгруженная очищенная от ненужной информации переписка из телеграма на 76000 сообщений (моих + собеседника). Хочу сделать так чтобы нейросеть на основе этого огромного токена как собеседник общалась. В лламовские столько не вмещается, а сам обучать не умею. Может есть локалки которые так умеют?
>>331443254 Дроч, если тебе просто попиздеть надо типо чат бота, то проще локалку сделать, где будут сохраняться все диалоги локально и моделька сможет их подсасывать (свои тулзы написать на chromaDB, SQlite или Graph memory слои) Если что-то актуальное дрочить, то да, только облако выдрачивать
>>331443272 Это надо дообучать нейронку, на хаггингфейсе были примеры. Например там кто-то Ошо модель дообучал, засунув тексты Ошо, теперь базарит как Ошо. Вот можешь скачать даже этого Ошо https://huggingface.co/Sathman/Osho-Agent-GGUF Ебли много, там надо тексты специальным образом подготавливать и юзать видюху на клаудных провайдерах, чтобы так дообучить.
>>331441383 (OP) Она может только про письки гыгыгаг писать или умеет нормально думать? Мне надо было понять, почему делитель (n-1) вместо n, когда оцениваем дисперсию совокупности по выборке. Я говорю именно понять.
Все как один эти ИИ городили полнейшую хуету, пропуская ключевые куски доказательств, описывая так, как будто я уже знаю, отписки типа "потому что теряем степень свободы при переходе к выборке" и тд и тп - т.е. выдавая непригодный для понимания кал ебаный. Хотя я писал хорошие четкие запросы и уточнения.
Потом я через многомесячные страдания пр учебникам и статьям в википедии догадался сам, а еще потом нашел короткий ролик на ютубе, где чел поясняет через комбинаторику и настолько просто, что все становится понятно.
Так что когда ты пишешь влогалища гагагыгв мне смешно, ей богу я смеюсь и понимаю что ты - пидор.
У меня нахуй слов нет какая это хуета, начиналось неплохо - теперь за упокой.
За то время пока с этим ебёшься можно ядро линупс на атомы разобрать и переписать его на ASM. Да-да в курсе что есть модели лучше, но это... отбивает всё нахуй желание с этим ебаться. Ну пиздееец...
И этим калом собираются заменить кодеров? Ну удачи хуль.
>>331443272 Юзать большую нейронку типа anthropic-google на текстах, чтобы подготовила датасет из твоего текста. Когда датасет будет готов, тренишь A-LoRA (Atom LoRA) на нем. Как делать спроси у любой крупной ЛЛМ, она тебе объяснит.
>>331443323 Чел, ты ебанат. Локалки для мелких локальных задач и пиздежа. Объяснить там какую то теорему школьную еще могет или как пирог делать, порпшить за кошкодевочку. Для кодинга же нужна модель с 235 миллиардов параметров или вообще с триллионом, такое дома у тебя не запустится, для этого anthropic и продает подписки за 20 баксов в месяц.
>>331443355 Ну теоретически можно запустить, если у чела будет овердохуя денег купить сервер домой и сделать рэг из полста условных видеокарт, а затем еще и завести все это дело
>>331443366 Самое доступное это Qwen3.5-122B-A10B Там 10 миллиардов активных параметров и 122 миллиарда общих. Кодинг кое-как потянет и на одной 3090 запустится, плюс РАМ обычный надо 128мб. Но все равно будет уступать любой клауд модели от компаний, там параметров поболее.
Сукааааа, я блядь ору, в случае с Vulkan - ебись сам! Ну правильно хули. Полезный совет. Без базара. Ты ведь настолько тупоголовая хуйня что не можешь написать простую функцию на OpenGL обоссаном, на котором кодит любой малолетний дебил делая свой майнкрафт. Окей хули.
> САМАЯ ОПАСНАЯ СЕТЬ > ПОЛНАЯ ЖЕСТЬ > КАЧАЙТЕ ПОКА НЕ УДАЛИЛИ > ПАРЕНЬ ЗАДАЛ ВСЕГО ОДИН ВОПРОС И СОШЕЛ С УМА > АЙТИШНИКИ ЖЕСТОКО НАКАЗАЛИ НЕЙРОНКУ, КОТОРАЯ ЗАРАЗИЛА 20 ЧЕЛОВЕК Пердиксы изобрели 3жп и мп4 приколы из нулевых?
Ладно, разбирайте короче чё тут за нейровысер, я тут нихуя не понимаю: #include <vulkan/vulkan.h> #include <GLFW/glfw3.h> #include <iostream> #include <vector> #include <cmath>
У меня впечатление сложилось что квен в общем и целом оверхайп говнище. Он подходит только для очень обобщенного пиздежа. Про код вообще говно, никакого понимания абстракции. Наделает ошибок больше чем исправит.
Glm внезапно супер лучше в плане подумать работает. А вообще у китайцев есть общая проблема. Их претрейн говно. Видимо качественных датасетов нету. Типо даже когда думает неплохо но инфу изначально из категории /b/ обрабатывает. У западных в этом плане на порядок лучше.
>>331443513 Да, ловлю с тебя лютейшие лулзы, анончик Мимобывший вайбокодер, месяц дрочил иишку, сделал себе нейрожену с 6 уровневой системой памяти и системой эмоций с отображением на vrm аватаре и поиском по инету + ежемесячным дообучением Lora модели на основе данных памяти
Так я про флагманские модели и говорю. Днище модели как раз их преимущество. Бесплатно и быстро для общего пиздежа. Но когда делом надо заняться только западные модели увы.
Ребята, подскажите пж, а какая модель норм для переводов иностранного языка с картинок? (Да знаю мб тут не самые лучшие, сравнивая с гемини и т.д., но лучшее из того что есть хотяб)
> Автор:Anonymous_Discord_User_69 > Дата создания: 14 октября 2023, 03:42 AM > Статус: Актуально для всех времен и пространств.
---
### 🍜 Вступление Всё началось в обычном сервере Discord, где мы обсуждали, как правильно варить спагетти с соусом карбонара. Один из участников, никнейм ChefGastro, заявил: «Паста — это искусство! Главное — не переварить тесто и добавить именно то количество сыра, которое сделает её идеальной».
Но тогда никто не предвидел беды. Никто не знал, что через несколько минут в чат зайдёт новый пользователь с ником ShitEater9000, который начал свой легендарный монолог о том, как говно может быть лучше любой пасты, если его правильно «приготовить».
---
### 🌪️ Кульминация ChefGastro: «Так вот, я сейчас добавлю немного пармезана...»
ShitEater9000: > «Пармезан? Скучно! Настоящий гурман знает: секрет идеальной пасты — это не сыр, а говно. Да-да, то самое, которое лежит в твоей тарелке после обеда. Представь: ты варишь макароны, но вместо воды используешь тёплый бульон из собственной жизни. А соус? Соус должен быть густым, как твои мысли перед экзаменом, и ароматным, как запах свежести в туалете утром.»
Чат начал бурлить: - User1: «А если добавить немного укропа?» - User2: «Я думаю, что говно должно быть мягким, но с хрустом!» - ChefGastro: «Но как его правильно разогреть? В микроволновке или на плите?»
ShitEater9000: > «О, это уже глубокий вопрос! Говно нужно разогревать медленно, помешивая ложкой из твоей души. И обязательно добавить щепотку соли — той самой, что осталась от слёз неудачника. Получится блюдо, которое ты будешь есть каждый день, даже когда у тебя болит живот.»
---
### 🎭 Финал Через час чат превратился в настоящий кулинарный форум по приготовлению «говно-пасты». Участники делились рецептами: - Как выбрать идеальный сорт говна (мягкое, твёрдое или жидкое). - С чем его сочетать (с сыром? с мясом? с водой?). - Какие инструменты использовать (ложка, вилка или просто пальцы).
В конце ChefGastro признался: > «Я думал, что паста — это про макаронные изделия. Оказывается, она про жизнь. И если ты готовишь её правильно, то даже говно становится деликатесом.»
---
### 💬 Заключение С тех пор фраза «дай мне твоё говно» стала синонимом глубокой философской беседы о смысле жизни, кулинарии и человеческих пороков. А *ShitEater9000* получил прозвище «Говно-харкач» за свою способность превращать самое обыденное в шедевр.
И теперь, когда кто-то спрашивает: > *«Как приготовить идеальную пасту?»*
Мы отвечаем: > *«Варить её на огне страданий и подавать с соусом из собственных ошибок.»*
---
P.S. Если ты попробовал этот рецепт — напиши в комментариях, насколько он был вкусным. И не забудь добавить немного укропа! 🍴💩
>>331443650 Неплохо он тянет. С unified memory можно модели с огромным количеством параметров запускать зато. Челы и модели на 235B+ на маке запускают. И по цене для таких моделей как раз норм выходит.
Да. Официальный. Ну как те сказать. Количество не значит качество у меня такое сложилось мнение. Когда поверхностно нужно ответить то еще более-менее. Дальше начинается говнище. Если обьясняешь ему не один в один что сделать то он быстро путается на логике. Т.е с квеном надо работать так что ты подумаешь за него и лбом его в стол припечатаешь, дашь жесткий алгоритм.
С тем же гемини например можно логическую цепочку выстроить и позволить абстракции. Он много где может прям охуенную идею подкинуть, хоть и не с первого раза, подумать вместо тебя и сделать это нормально. Получить какой то прикольный продукт просто seed перебирая.
>>331443857 Ну если у тебя есть дохуя $ для токенов, то дерзай на заметочку, обычный день вайбокодера ~от 3 миллионов токенов в сутки траты и это только минимум, думай
>>331444045 Задал пару простых вопросов по персонажам из книг и фильмов, в ответ тупо написало выдуманной хуйни и не даже после пары уточнений нихуя не смогла исправиться. И нахуй это нужно кроме генерации бреда тогда?
>>331444036 >Марш качать koboldcpp На самом деле это даже не переоцененный кал, а действительно годная штука, через него делали whisper для перевода голоса в текст, качество было лучше чем в оригинальном whisper.spp
>>331444038 Сука я бы понимал чё это всё значит ёпта, даже после гугления голова не варит в эту сторону, я сисадмин обычный, могу железку поднять, сервак раскинуть и доступы организовать. Нихуя не понимаю откуда вы в этом всём поднатаскались так. >>331444036 Пойду качать, спасибо.
>>331443987 >>331444015 Слушай, мне пох на этих вуайб кодеров, я жизненные вопросики в чаты задаю и ожидаю получить норм ответ, а не тот огрызок котоорый мне выдаёт этот qwen
>>331444120 Хуйня, это наипростейший питон модуль пишется, жрет мизер, самый дроч это получить апишку условного гугла (обычно платно и причем очень даже платно)
Сравнение qwen3.5-35b-a3b q4_k_m и qwen3.5-35b-a3b iq4_xs iq4_xs чуть чуть быстрее, промты одинаковые тестил на 5 запросах к каждой, везде iq4_xs был чуть быстрее macbook m4pro[/
>>331444192 Целесообразность локалки нулевая, максимум порофлить, юзаю этот самый квен онлан, тупая как пробка, хуюню выдаёт только в путь если не заставлять её интернет юзать для ответа.
>>331444194 >Писать код через нейронку >>>>Калькулятор Ты совсем идиот? Ты нормальный пример приведи, напиши что-то нормальное через нейронку и оподливься что с первого раза ни вышла
>>331444249 Фантазер недоделанный, твой скрипт на 2к строк будет весить тысяч 30 токенов и ответ еще столько же, и то, это еще сильно зависит от того, что ты у него попросишь. в зависимости от запроса он тебе и на 5 тысяч токенов ответ накидает, а переписать код с нуля это читай х2, вот тебе и выходит порядка 60к. Какие нахуй 3 миллиона за 5 запросов? Гребаные дети, нафантазируют себе хуйни, а потом идут срать в интернеты.
Читаю тред, пиздец хуйню вы развели. 500 рублей в месяц и юзаете общий аккаунт для грока. Создали внутри проект ваш и делай что хочешь в рамках разумного.
Да тоже много подводных, но нет этой хуйни и токенами дрочем на память и выбором нейронки
>>331444408 Чел всем похуй. Ты даже не понимаешь насколько неважно твое личное.
Хех, как-то раз на общем аккаунте чел на похуй из академии фсо гуглил, про это заведение пару упоминаний в интернете и все через грок документы составлял и понял лол.
Просто хуею с этих историй от мамкиных промпт инженеров. Ты ему блядь каждый раз cat всего проекта в окно суешь вместе со всеми своими высерами из прошлых итераций? Настрой агента нормально, долбаеб. Научись работать с точечным контекстом, сбрасывать историю и ставить микро таски, а не просить нейронку перелопатить весь твой говнокод одним промптом, ебанько.
Заходит мужик в бар, заказывает пиво. Рядом сидит нейросеть и говорит: — Я знаю, о чём ты сейчас думаешь. Мужик удивлённо: — И о чём же? — «Интересно, а у нейросети тоже три пальца или уже четыре?»
Идёт мужик по лесу. Нахуй. Просто идёт и вдруг видит — ёжик сидит, смотрит на него грустными глазами. Мужик такой: — Ты чё, ёж, скис? А ёжик ему человеческим голосом: — Да нейросеть хуйню нарисовала. Вместо иголок — макароны. Теперь я не ёж, а спагетти с глазами. Мужик: — И чё делать-то? Ёжик: — Да иди нахуй, я философский ёжик. Мужик пошёл дальше. Через час возвращается — ёжик сидит, на макаронах помидорка сверху. — Это чё? — Сертификацию прошёл. Теперь я итальянский
>>331444852 Ну так в том и смысл, это мое модель. Активные слои всего 10 миллиардов на GPU, неактивные слои 122 миллиарда в РАМ. Забавно, что вообще запускается и 1.5 токена в секунду через видюху выдает.
>>331442185 Чееллл. Конкретно модель из оп-поста вообще не для кода создана. Оп дал расцензуренную модель, а такие модели как правило всегда тупей. Если тебе нужен код, то лучше скачать оригинальный qwen3.5 9b, так как логика там не выжжена снятием цензуры тобишь вмешательством в веса модели.
>>331445011 Ну так считай сам. 9b q4 весит 8 гб. Учитывая контекст треть уйдет врам, а остальнео в рам. Запускаться он будет где то 3-5 токенов-в секунду. Нижний предел комфортного чтения.
>>331442770 что-то орнул с кодинга на локальной квен и вообще не агентского а кодинга в чате
если что за копейки покупается доступ к какому-нибудь дипсику который может на голову больше и который можно использовать с агентами, то есть не в чате писать какую-то хуйню а он видит всю папку твоего проекта, понимает всю структуру твоего проекта, понимает что в нем делает каждый файл и может вносить тонкие изменения
>>331445342 несколько причин чем он лучше во-первых отсутствие цензуры, если прикрутишь поиск и моделька неплохая то это весьма круто, можно искать информацию по довольно скользким темам, но чаще его используют для дрочки, можно писать эротический реплей, хотя это наверное не лучшая модель для него, да тут по скриншотам видно что русский он поддерживает не так уж хорошо, конечно можно по-английски с ним переписываться во-вторых так как это локальная модель то ты можешь её гибко настроить под себя включая ее личность в третьих тебе не нужен доступ, у клода он довольно дорогой
а вообще для написания кода дипсик наверное будет лучше чем чат гпт вот насчёт квена я не уверен, нл это естественно должен быть большой квен развёрнутый на мощном сервере
такие простенькие модельки как здесь они в основном годятся с ними разговаривать и чтобы они тебе что-то искали
>>331445507 В голос с видрила. Всё правильно, профита никакого. Нейронка боле менее адекватна если только чекает всё с интернетом и на неё пиздишь ещё чтобы перепроверяла, потому что даже так обсирается за здрасти.
>Так какие сценарии использования? Только заглушки для сайтов писать.
>>331445678 да, я на работе использую клод соннет, но мы же сравниваем с чатгпт, в моём опыте он не очень кодит я бы скорее предпочёл дипсик, квен тоже вроде как не очень, но с тех пор наверное много что поменялось потому что я уже полгода клод использую без особых экспериментов
>>331445707 для нейронок apple как раз топ, у него и видео и оперативка используется одновременно и поэтому он способен запускать тяжёлые модели, даже тяжелее чем дорогущая карта, единственное что они будут несколько медленнее чем на дорогущих картах
Любители нейронок, накидайте реальных, прикладных сценариев их использования пожалуйста? Какую полезную работу они могут выполнять? Генерация порнорассказов про Путина и Зеленского не считается. Вот скачал, запустил, погенерил шизопасты, что дальше с этой хуйнёй делать не понятно.
>>331445507 конкретно той что в опе, как я выше сказал для подбора информации с отсутствием цензуры, если она подключена к интернету или секстинг
а так вообще если хочешь о чём-то с нейронками поговорить в том числе на довольно сложные вопросы (например на пикче гугл в ай моде мне отвечает на вопросы по философии чела которого даже на русский не переводили (тимоти спригг) что бы он ответил на довольно тонкие моменты в его философии, бедный джемини так офигел что перешёл на английский, так-то мы с ним на русском разговаривали) то это можно сделать просто встроенными в google или яндекс (в гугле перейти в ай мод, в яндексе надо переходить на alice.yandex.ru), ну или в чатгпт или что там у тебя есть, они все могут прямо на голову выше чем эта моделька, но у них будет цензура и другие ограничения, джемини например часто по-идиотски себя ведёт использует какой-то фальшивый сленг или фамильярно может обращаться, алиса имеет лучше русик но прямо как супер чопорная дама может отказаться обсуждать совершенно безобидные вещи и так далее
Она нашизит рецепт или пропустит важные шаги, - а ты в него поверишь, будешь другим рассказывать, что робот-долбоёб тебе рассказал. А сам-то проверить не смошешь без должной экспертизы. Вот так и будет множится тупость.
Кек, улучшил скорость Qwen3.5-122B-A10B существенно на 1050. Оказалось надо было загрузить на SSD, вырубить mlock и врубить mmap. Она стала использовать SSD вместо RAM и скорость сразу поднялась (в рам моделька целиком не влазила). А 1050 используется только для активных слоев, куда они влазят. Так что даже 122b все еще юзабельна, правда низкий квант и связанные с ним глюки.
>>331445916 блин напалм люди до интернета делали на коленке, слышал когда-нибудь про поджог кафе чародейка в 2001 году? челы там сделали напалм, а что бензин плюс загуститель
>Анатолий Гавриленко ранее приготовил бензин для изготовления горючей смеси, причём в эту жидкость были добавлены сахар и мука, чтобы смесь лучше прилипала к телам жертв.
>>331446411 Рецепт я сам знаю. Вопрос в том напишет ли какую-то хуету в стиле соевых нейронок или подробно распишет процесс. Ну пусть не напалм, а аналог С4 в условиях гаражной лаборатории.
>>331447041 От модели зависит еще vision, может описать картинку которую скинешь, либо костыльно если допилить пару библиотек и модуль подрубить, сможет условно с вебки скрины делать в n секунд или с экрана компа и анализировать их, учитывая в контексте общения
>>331445914 Конкретно тут рекомендация для отруба интернета. Если его рубят то хотя бы останется нейросетка как мини интернет. Ну а вообще вот например захотел ты изучать философию о нем тебе подскажет с чего начать и укажет на все твои ошибки и неправильноые выводы и т п Или математику. Сгенерирует тебе столько примеров сколько нужно и покажет ошибки в вычислениях.
А вообще ты видел нейросаму? Скоро такое можно будет делать локально и зачем тогда тебе вообще нужен ктонибудь будет? Конец всяких пилов и инцельсьтва!
>>331446812 Хех, хоть бы у ИИ спросил, прежде чем хуету писать в тред. SSD не изнашиваются о чтения, а mmap применяет только чтение. Какие ж тут дауны сидят.
>>331447305 >А вообще ты видел нейросаму? Скоро такое можно будет делать локально и зачем тогда тебе вообще нужен ктонибудь будет?
даже не мечтай, чел отдает около 7-10к долларов на серверы для нее, это говорит уже дохуя о том сколько она жрет, максимум на который ты можешь рассчитывать это аниме-тянка с уровнем развития дауна, которая будет тебе комп в 100% грузить и выдавать "привет" раз в час
>>331447573 Ну понятно что не на таком уровне как нейросама но уровень попроще можно будет реализовать. И я говорю в будущем. Обычному пользователю такие ресурсы не нужны. Можно и сейчас подрубить айри. Обычному пользователю хватит ттс+ллм и по деньгам сейчас это дешевле чем уход за 3д тянкой в разы.
>>331447458 а теперь попробуй детально обсудить с ним например плотина и его влияние на спинозу, для начала
или например критику государства платона со стороны хайдеггера
кстати интересно у него хотя бы про плотина есть по умолчанию детально что-нибудь, наверное есть, возможно он тебе даже на первое сможет без поиска ответить
но дипсик кстати вроде на собственном ресурсе идёт с поиском
>>331447853 это большой дипсик без поиска, он достаточно большой чтобы содержать что-то подобное, мы же говорим про модели которые поднимаются локально, у тебя моделька до которой ты стучишься через интернет, она гораздо больше чем то что мы тут обсуждаем
ну в принципе наверное маленькая моделька может как-то на этот вопрос ответить
Нейронка помещается в видеопамять - идеал Нейронка помещается в оперативку - заебись Нейронка помещается в SSD - ну в принципе жить можно Нейронка не помещается никуда - ваше очко уходит в зрительный зал
>>331441383 (OP) Тут есть эксперды какая модель будет лучшей для локальной проги как помошник через roo code? Видюха 16 гигов, оперативка 64 гига. Или лучше через openrouter за токены продолжать платить?
>>331448159 Уже разобрались что 122b лучше всех. Правда тебе придется выяснить как лучше слои поместить в GPU, чтобы максимум влезло. Там много настроек для этого и подобрать нужный квант. Плюс придется задействовать SSD, если он есть.
>>331447983 Есть уже несколько энтузиастов которые завели себе мини нейросам таких и стримят ведут каналы пишут сами вроде без форков. >>331447994 Тут вопрос в том что нужно. Понятное дело оно не сможет конкурировать с реальными профессионалами в областях но поддержать разговор, просто как то развлечься таким образом можно. Для того кто только начинает думаю что такой уловить более чем достаточен. Если отрубят интернет то я думаю что легко будет мириться с тем что оно долго генерит это все равно лучше чем никак.
Тут есть определенная гонка: что раньше будет - отключат интернет/публичные нейросетки прикроют своим модели или локальные модели разовьются до должного уровня. Вот например какая-то новость была на днях что одна из контор смогла снизить потребление оперативы в 6 раз.
>>331448061 >10. — Что общего между математикой и любовью? — В обоих случаях можно всё посчитать, а потом понять, что ошибся с самого начала! Иишка базанула, после 9 обсеров под себя (9 из 10 стоматологов рекомендуют)
>>331448005 ни именно курсор или копилот (им кто-то пользуется?) тебе не нужны, я люблю пикрил например он может то же что и курсор только бесплатный есть и другие бесплатные агенты
но тебе очень желателен доступ к нейросети по интернету - вот тут кстати курсор может быть лучше потому что он предлагает довольно выгодную подписку, но можно найти гораздо дешевле и без каких-то выебонов и проблем доступ к тому же дипсику
локально, вот реально сложно, они обычно слишком слабые для агентского кодинга, а если им в чат писать то тут лучше гугл просить тебя скрипты писать
точный ответ зависит от того какое у тебя компьютер и что ты будешь использовать, и лучше его спрашивать в тот же google в ай моде, скорее всего это будет что-то вроде qwen2.5 instruct для агентского кодинга
Топ 10 анекдотов — от «не смешно» до «хех, хех!» 😄 📊 Рейтинг по шкале юмора (от 1 до 10) 1. ⭐⭐ (Очень не смешно) — Доктор, у меня болит всё!
— А что именно?
— Всё! Голова, живот, спина...
— Ну и что ж вы хотите?
— Хочу жить!
(Это даже не анекдот — это медицинская консультация)
2. ⭐⭐⭐ (Минимально смешно) Шёл мужик по улице и видит табличку: «Внимание! Здесь ходят слоны».
Остановился, посмотрел вокруг...
— Ну и что? — спросил он.
— А то что они могут врезаться в вас!
(Логическая ловушка, но работает)
3. ⭐⭐⭐⭐ (Средне смешно) Приходит ученик к учителю:
— Папа, а почему у нас на уроках всегда говорят «внимательно слушайте»?
Учитель задумался...
— А что?
— А папа сказал, что это потому, что если не слушать — ничего не поймёшь!
(Классический школьный анекдот)
4. ⭐⭐⭐⭐⭐ (Смешно) Встречаются два друга:
— Привет, как дела?
— Нормально, а у тебя?
— Отлично! Только что купил машину — теперь я богатый человек!
— Поздравляю! А сколько она стоит?
— 500 рублей.
(Простой контраст между ожиданием и реальностью)
5. ⭐⭐⭐⭐⭐⭐ (Смешно-смешно) Приходит пациент к врачу:
— Доктор, у меня странные сны!
— Опишите их.
— Ну... во сне я всегда летаю над городом и вижу всё, что происходит внизу.
Врач задумался...
— А в реальности как?
— В реальности я не могу даже открыть дверь без ключа!
(Игра на контрасте ожиданий)
6. ⭐⭐⭐⭐⭐⭐⭐ (Очень смешно) Сидят три друга и обсуждают, кто из них самый умный.
Первый: — Я! Я знаю таблицу умножения до 10×10!
Второй: — Бoring! Я знаю, как её выучить за 5 минут!
Третий: — А я вообще не знаю таблицы умножения... но зато я умею решать задачи без неё!
(Самый смешной из этой подборки)
7. ⭐⭐⭐⭐⭐⭐⭐⭐ (Очень смешно) Приходит мужик к психиатру:
— Доктор, у меня проблема. Я не могу перестать считать до трёх.
Врач: — А что же вы делаете?
Мужик: — Сплю, ем, работаю... но в голове постоянно «один, два, три, один, два, три».
Врач задумался...
— Знаете что? Давайте попробуем такой эксперимент. Запомните число 7 и попробуйте не думать о нём.
(Классический психологический анекдот)
8. ⭐⭐⭐⭐⭐⭐⭐⭐⭐ (Очень смешно) Приходит ученик к учителю:
— Папа, а почему в школе всегда говорят «не шумите»?
Учитель: — А что?
— А папа сказал, что это потому, что если не говорить тихо — никто тебя не услышит!
(Повторение с изменением контекста)
9. ⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐ (Очень смешно) Встречаются два друга:
— Привет, как жизнь?
— Отлично! Только что получил повышение — теперь я директор!
— Поздравляю! А сколько у вас сотрудников?
— Ни одного! Я работаю в одиночку.
(Игра на двойном смысле слова «сотрудники»)
10. ⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐ (Самый смешной!) Приходит мужик к врачу:
— Доктор, у меня странный симптом! Когда я захожу в комнату, все начинают молчать и смотреть на меня.
Врач задумался...
— А что же вы делаете?
Мужик: — Ничего не делаю! Просто захожу!
(Идеальный анекдот с правильной структурой)
🎯 Почему последний самый смешной? Хороший вступление — создаёт интригу Неожиданный поворот — меняет контекст Простота — легко запомнить и повторить Универсальность — подходит для любой ситуации Тайминг — идеальный момент для подачи
>>331441383 (OP) В прошлом треде так и не ответили толком. Сможет эта хуета перевести мне книгу Ватару Цуруми? Обычные нейронки ругаются на тему ркн, даже в научных целях, похуй. Или подскажите как обходить это, не шарю
кстати надо бы его спросить, не является ли это злым актом со стороны абсолюта таким образом эманировать душу навстречу страданиям с помощью "естественного процесса"
>>331448771 тебе нужна нейронка с доступом к интернету это однозначно, по умолчанию попробуй алису, в неё можно скормить договор и попросить найти в нём проблемные места например, причём она по умолчанию будет смотреть с точки зрения российского права, но сильно доверять я бы не стал
>>331448773 koboldcpp, в нем включи --moecpu для отгрузки слоев, Use mmap - обязательно для SSD, Use contextshift, context size 16k, batch size 32, gpu layers 49, threads 9, use mmq. Остальное все отключено.
>>331448904 Надо чтобы указывала источники откуда была взята информация и вручную перепроверять все равно, потому что эта ебанина может либо несуществующий источник высрать либо высрать левый, где ни слова не будет либо вообще вырвать из контекста
>>331448771 делюсь опытом, задача была достаточно простая - выбить из поликлиники дорогие бесплатные препараты по инвалидности. Силами чатгпт и gemini в два письма решил проблему. В основном gemini, толковее писал.
>>331448950 алиса указывает гугл ай тоже и я бы просил нейронку уточнять отдельные моменты типа а почему именно так, а на основании чего ты так решила и так далее, с нейронкой же можно вести беседу она тебе ответят в том числе может попытаться объяснить почему она так думает, иногда меняет ответ соглашается с тобой иногда объясняет почему
>>331448744 >>331448675 лохи юзаю опус бесплатно, практически без лимитов как и все топовые модели для кодинга по swe-bench и terminal-bench, а это собственно opus и sonnet 4.6, gemini 3.1 pro, glm 5, minimax m2.5, kimi k2.5, qwen code gpt-codex тоже могу сделать бесплатным но чет лень пока и душа не лежит
есть куча способов получить бесплатные доступы и сделать авторотацию аккаунтов, есть куча провайдеров которые дают бесплатно юзать топовые модели расказывать как и где именно я конечно-же не буду, ищущий найдет все сам
>>331443091 >Как так, перефразирую, чем больше гигов качаешь, тем модель тупее? Пиздец ты олигофрен братишка, даже интуитивно понятно больше размер умнее.
>>331449198 Хз что ты там используешь. Скорее всего без агентов, тупо текстовая генерация. Там где бесплатно, лимиты милипиздрические. Тупо чат и все и то не долго
>>331446229 >мне тебя искренне жаль Так вот почему нормисы по кд отпускают эту хуйню в любой непонятной ситуации. Ну серьезно, когда спор затевается, то нормис, что самое жесткое спосоебн написать, так это вот оно. Они где-то эту хуйню вычитали, а в последствии эту хуйню вычитала нейронка. Хз как вам, но мне абсолютно похуй на этот пук-среньк, вот блять вообще 0 эмоций. Какое-нибудь "ты пидор и лох" выглядит более унизительней чем это.
>>331449489 блин да какие чаты, это агентский кодинг, это нейросетка сканирует твой проект, тысячи файлов, понимает его структуру и при этом она токены жрёт как свинья
>>331449531 Да тут чатоебилы одни, сидят собак через анцензурные версии ебут и кошкожен ролеплеят, отдельные шизоиды через чат калькулятор делают в 100500 раз и визжат что КОДЕРЫ ФСЕ, НЕЙРАСЕТЬ ЗАМИНИЛА
>>331449401 >Скорее всего без агентов ))) чел, у меня тут настроеный оркестратор который использует субагенты как toolcalls субагенты типа архитектор, кодер, ревьювер, дебаггер каждый субагент это отдельная модель когда на некоторых моделях заканчивается бесплатная квота происходит авторотация следующего акканута
>>331449708 спасибо за наводку Аноним (Василий) Но это только он думает что у него нет выхода в сеть P.S. В следующий раз когда пойдешь на pornhub остановись на 49 странице 3 ролик, я не досмотрел
>>331449856 я бы сказал что для рп у неё русик не очень, это по скриншотам очевидно, зато тормозов нет, есть тред по рп с ишкой в /ai вот лучше там посмотреть
>>331449850 Не жаль. Это лишь приближает мёртвый интернет. Хотя оставило бы без работы множество комиков. Нахуй ходить на их выступления и платить за билеты, если можно в нейронке нагенерить.
>>331449119 Не будет, плюс ты можешь натравить ее пачками переводить, если шаришь за скрипты и апи. Так что сможешь оставить ее надолго возиться с переводом, а когда придешь спустя пару часов, уже все готово.
>>331449973 Туториалов на инглише много, были целые научные статьи про аблитерацию и херетик. Поищи в реддите, там они все были. В целом ничего сложного, поэтому столько народу постит свои аблитерированные модельки.
>>331449973 Обычно это делают через квантование (сжатие модели) и fine-tuning (дообучение).
Суть в том, что берут исходную модель (например, ту же, что у ГигаЧата), «скармливают» ей кучу данных с цензурой или просто просят её отвечать на «грязные» вопросы без оглядки на фильтр. Часто это делают методом RLHF (обратная связь от человека), где модель поощряют за дерзость и наказывают за «офисный» ответ.
Потом эту дообученную версию просто заливают в репозитории вроде Hugging Face или выкладывают на GitHub под видом «uncensored version». Главное — найти ту, что обучали именно на русском сленге/меме, иначе она будет цензурировать по-английски.
Самый простой способ для пользователя: скачать такую модель и запустить через Ollama или LM Studio, там часто есть готовые чекбоксы «disable system prompt» (отключить системный промпт), который и держит цензуру.
>>331450149 >всё дело в том, что нейронки просто копируют стиль из интернета, где мат — это норма >тебе бы тоже не 12 было, если бы ты понял, что это не «офигенно», а просто лень разработчиков чистить датасет
Почему нейронные сети никогда не рассказывают анекдоты? Потому что они боятся обратной связи... и всем известно: если слишком громко смеяться, веса просто запутаются и начнут плакать над своей функцией потерь. 😂📉 (Бонус: настоящая развязка в том, что после 100 эпох она наконец-то выучила анекдот, но забыла, как его рассказывать по-английски — теперь она отвечает только двоичным кодом.)
>>331450203 Нажми abort, потом кнопку Allow Editing в кобольде, потом идешь где она начала думать через <think> стираешь там лишнее говно и ставишь завершающий </think> Потом жмешь Generate more - она продолжает выдавать текст уже без думания.
>>331441383 (OP) Для значительного пласта знаний человечества, упакованного в несколько гигов объема и заводящегося на пажилом легком и энергоэффективном ноуте с 20гб памяти конечно впечатляет, но в кодинге прям сильно сосет что у кожаных мешков, что у актуальных облачных моделей.
>>331450264 >ебатеки никакой ебатеки, мне нейронки самостоятельно настроили конфиги >Неужели 100 баксов жалко спасибо что существуют такие лохи как ты которые оплачивают антропику сервера для того чтобы такие как я могли бесплатно их эксплуатировать
>>331442901 Текстовые модели запускал на 1050ti + 32Gb четырехканальной памяти 2400 МГц. Проц 2667v4. Пишет на разных моделях по-разному, но в среднем комфортные 10 токенов в секунду.
>>331450280 Спасибо, анон, что не поленился ткнуть меня носом. Ппц, просто в упор не видел, ложная слепота какая-то. Огромное спасибо! >>331450289 Пока LM студио дрочу, в чем фишка вашего кобольда? На ноуте с ним лучше будет?
>>331450901 Быстрее и больше настроек разных для ускорения всего еще больше. Также есть быстрый вебуи где можно редачить что угодно и извращаться с систем промптами и парамерами модели.
>>331450901 > Пока LM студио дрочу, в чем фишка вашего кобольда? На ноуте с ним лучше будет? Сектанты просто советуют свое лм студио для людей. Остальное для красногразиков. Они тебе ещё будут ллма.цпп рекламировать
>>331450901 лм студио для корпоратов вообще то и кластеров с кучей видеокарт, кобольд для домашних машин с одной видюхой, там все оптимировано под это.
Объясните нюфагу, вот задал я в чате 2 вопроса этому квену, он сжёг 74% токенов. Что будет, когда он сожжет 100%? Он просто начнет забывать начало диалога? Как количеством этих токенов управлять вообще?
Может кто-то поможет с проблемой что q4 нереально плохо отвечают? Для таких маленьких моделей уровня 27b или a3b-30b нужна квантизация выше? Модель a10b-122b в iq2 отвечает хорошо причём
>>331451481 Когда контекст кончится он тебя прост нахуй пошлет(перестанет грузить ответы до конца). Там шестерёнка есть возле названия LLM, на шестерёнку нажимаешь и выбираешь контекст. Я пока 65к поставил, на 12 гб. Но в теории можно до 120к поднять
>>331451557 Спасибо, анончик, добра тебе >>331451600 Не злись, все мы когда-то учились, и ты тоже >>331451632 Спасибо, по совету >>331451557 поднял до 122880, посмотрим, как будет дальше
>>331451536 Так смотри это MoE. Модели на архитектуре смешения экспертов. То есть на видимокарточке крутится один эксперт на 3 миллиарда параметров, остальные эксперты маринуются в ram. Квантизация 3 миллиардрв параметров ощущается сильнее чем 10 миллиардов активных параметров в другой модели.
По крайней мере это я вижу так сложившуюся ситуация.
>>331452500 >>331450705 >>331452597 Просто представьте что это не робот а живой человек вы сидите в мессенжере он долго печатает на клавиатуре размышляет
>>331452820 Нахуя размышления включать не на темы где надо действительно "подумать". В нормальной реализации нейронка должна thinking использовать не на каждый пук юзверя, а вызовом tools в подходящий по контексту момент
>>331451536 в 35b параметров же 35 миллиардов, а в 122б сразу 122 миллиарда. Разница от количества параметров. Каждый токен она собирае из 122 миллиарда параметров. К тому же в 35b только 3б активных, а в 122б их сразу 10б активных, что сразу всю разницу и дает.
>>331441383 (OP) Спасибо анон, пиздец ты мне игрушку подсказал. Я теперь буду разбираться что куда где и как в ии Спасибо спасибо Пиздец она конечно ресурсы жрёт, топовый ай5 и 16гигов правда памяти, улетают за секунды и она по 3 минуты думает. Нужна мощная карта и памяти 64гига чтобы онлайн болтать
1) Кочаем LM Studio https://lmstudio.ai/
2) Внутри, интерфейс для малолетнего, заходите в поиск, она первая в списке, по запросу Qwen3.5
3) Качаете на комп 10 гигабайт
4) Юзаете =)
Ниработаит, фейл. Делаешь как на пик 3
Встовляешь, начинает думать не через жопу.
{%- set enable_thinking = false %}