К сожалению, значительная часть сохранённых до 2024 г. изображений и видео была потеряна (подробности случившегося). Мы призываем всех неравнодушных помочь нам с восстановлением утраченного контента!
Сортировка: за
Активный
1015
2ch
сегодня 9:25
Активный
1013
2ch
сегодня 3:02
Активный
1007
2ch
3 мая 21:25
Активный
803
2ch
сегодня 10:52
Активный
602
Четвертый сезон баттла уровня hh, Тред №36 (Адольф Эйч EDITION) — НАЧАЛСЯ ЧЕТВЕРТЫЙ РАУНД 4-го СЕЗОНА ДВАЧ БАТТЛА Судейство третьего раунда окончено. По результатам жеребьевки были сформированы пары на четвертый раунд. Формы для сдачи треков на четвертый раунд отправлены на почты участниковПРОВЕРЯЙТЕ СПАМ. Срок сдачи треков на четвертый раунд до 3 мая 23:59 по Мск. Ограничение по времени:3 минуты Темы лиги петухов(одна из трёх на выбор): Пирамида мира Опавшая листва Спинка Залипы Темы лиги хуеты(одна из трёх на выбор): Жидко пукнул Инцельский подвиг На турнике позора Пары лиги петухов: 1. МэрZич - Cujo 2. ГигаПигаль - STMP4NK 3. Войнад Ворцам - Сын оптимиста 4. Мс Калитка - МС КАМБЕК-АКА ТИМОХА-БРАТАН 5. МсЧулок - ÜNDERÄNDER 6. НАУМ ЛУКОШКО - ZLOY 7. Мертвый Гагарин - Комераж 8. Гад, конченый выблядок - борис в прошлом Нижняя сетка лиги петухов 1. Добропуня - я подстригся 2. Muhomorus - // 3. сисин - Glitchless 4. YUNG DIPSY - СЁРПАЛ ЧАЙ 5. Relax - pörröinen 6. гиперСократ911 - Monteig 7. Sych - утконос 8. НАКОСЬ-ВЫКУСЬ - 2PAtuc Пары лиги хуеты: 1. затеганноеокошко - Ловец на чекунец 2. мц ряженка - Бикини Балаково 3. приступ (сердечный) - _mr.gav1noff 4. МЦ КИРИЕШКИН - Мамочка Слушать тут: https://drive.google.com/drive/folders/1jpdGu7xxKnhBMxu0KHGU4iE29pPfbzmc Результаты судейства(Excel таблица): https://docs.google.com/spreadsheets/d/1di3DVO3I8VUCcshe7kupVyRGyKTlVuiCEdW7B5nPz-0 Ответственным за сбор и выплату призовых назначен проверенный человек - участник предыдущих сезонов НАКОСЬ-ВЫКУСЬ! Пополнить призовой фонд баттла можно по ссылке: https://www.donationalerts.com/r/nakosvykus НА ДАННЫЙ МОМЕНТ СОБРАНО 16 100 РУБЛЕЙ Регламент и правила лежат на гугл диске. ЛИГА ГОВНА. ВТОРОЙ РАУНД. ТЕМЫ: Жертва МК-Ультра Петушок без палочки Хор НИИ ДОБОР ИДЁТ ДО 26 АПРЕЛЯ 2026 ВКЛЮЧИТЕЛЬНО. СУДЯТ ДОБОР УЧАСТНИКИ ЛИГИ. СРОК СУДЕЙСТВА - ОДНА НЕДЕЛЯ. ПОСЛЕ ЗАКРЫТИЯ ДОБОРА УЧАСТНИКАМ НА ПОЧТУ ПРИДЁТ ФОРМА ДЛЯ СУДЕЙСТВА. СУДЕЙСТВО ДО 3 МАЯ 2026 РЕЗУЛЬТАТЫ СУДЕЙСТВА БУДУТ В ТАБЛИЦЕ https://docs.google.com/spreadsheets/d/1z756pFkRVeduiAQz3VsHHBobk_myUKjeKSUY-jGFRMI/edit?usp=sharing С 4 МАЯ 2026 НАЧИНАЕМ НОВЫЙ РАУНД! Почта для связи - [email protected] Всем вдохновения и творческих побед! Присоединенные республикитреды: Тред 1: https://arhivach.vc/thread/1301661 Тред 2: https://arhivach.vc/thread/1304832 Предыдущие треды баттла: Тред 1: https://arhivach.vc/thread/1301637 Тред 2: https://arhivach.vc/thread/1304831 Тред 3: https://arhivach.vc/thread/1305735 Тред 4: https://arhivach.vc/thread/1307194 Тред 5: https://arhivach.vc/thread/1308003 Тред 6: https://arhivach.vc/thread/1308496 Тред 7: https://arhivach.vc/thread/1309540 Тред 8: https://arhivach.vc/thread/1310102 Тред 9: https://arhivach.vc/thread/1311342 Тред 10: https://arhivach.vc/thread/1312475 Тред 11: https://arhivach.vc/thread/1313508 Тред 12: https://arhivach.vc/thread/1313791 Тред 13: https://arhivach.vc/thread/1314185 Тред 14: https://arhivach.vc/thread/1315530 Тред 15: https://arhivach.vc/thread/1316083 Тред 16: https://arhivach.vc/thread/1317488 Тред 17: https://arhivach.vc/thread/1317746 Тред 18: https://arhivach.vc/thread/1319066 Тред 19: https://arhivach.vc/thread/1320130 Тред 20: https://arhivach.vc/thread/1321215 Тред 21: https://arhivach.vc/thread/1322861 Тред 22: https://arhivach.vc/thread/1324112 Тред 23: https://arhivach.vc/thread/1324577 Тред 24: https://arhivach.vc/thread/1325541 Тред 25: https://arhivach.vc/thread/1326312 Тред 26: https://arhivach.vc/thread/1326819 Тред 27: https://arhivach.vc/thread/1327315 Тред 28: https://arhivach.vc/thread/1329713 Тред 29: https://arhivach.vc/thread/1331916 Тред 30: https://arhivach.vc/thread/1335297 Тред 31: https://arhivach.vc/thread/1336100 Тред 32: https://arhivach.vc/thread/1337270 Тред 33: https://arhivach.vc/thread/1339058 Тред 34: https://arhivach.vc/thread/1342452 Тред 35: https://2ch.su/hh/res/1079628.html Контент с предыдущих баттлов: https://www.youtube.com/@2chbattle-m8c
сегодня 9:20
Сохранен
574
вчера 18:12
Сохранен
544
сегодня 9:21
Активный
537
сегодня 1:05
Активный
514
сегодня 1:05
Активный
513
сегодня 4:53
Активный
511
Локальные языковые модели (LLM): Gemma, Qwen, GLM и прочие №226 /llama/ — В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны! Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна. Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку. Официальная вики треда с гайдами по запуску и базовой информацией: https://2ch-ai.github.io/wiki/llama/ Инструменты для запуска на десктопах: • Отец и мать всех инструментов, позволяющий гонять GGML и GGUF форматы: https://github.com/ggml-org/llama.cpp • Самый простой в использовании и установке форк llamacpp: https://github.com/LostRuins/koboldcpp • Более функциональный и универсальный интерфейс для работы с остальными форматами: https://github.com/oobabooga/text-generation-webui • Заточенный под Exllama (V2 и V3) и в консоли: https://github.com/theroyallab/tabbyAPI • Однокнопочные инструменты на базе llamacpp с ограниченными возможностями: https://github.com/ollama/ollama, https://lmstudio.ai • Универсальный фронтенд, поддерживающий сопряжение с koboldcpp и text-generation-webui: https://github.com/SillyTavern/SillyTavern • Альтернативный фронт: https://github.com/kwaroran/RisuAI Инструменты для запуска на мобилках: • Интерфейс для локального запуска моделей под андроид с llamacpp под капотом: https://github.com/Mobile-Artificial-Intelligence/maid • Альтернативный вариант для локального запуска под андроид (фронтенд и бекенд сепарированы): https://github.com/Vali-98/ChatterUI • Гайд по установке SillyTavern на ведроид через Termux: https://rentry.co/STAI-Termux Модели и всё что их касается: • Актуальный список моделей с отзывами от тредовичков: https://rentry.co/2ch_llm_moe_2026 • Неактуальные списки моделей в архивных целях: 2025: https://rentry.co/2ch_llm_2025 (версия для бомжей: https://rentry.co/z4nr8ztd ), 2024: https://rentry.co/llm-models , 2023: https://rentry.co/lmg_models • Миксы от тредовичков с уклоном в русский РП: https://huggingface.co/Aleteian и https://huggingface.co/Moraliane • Рейтинг моделей по уровню их закошмаренности цензурой: https://huggingface.co/spaces/DontPlanToEnd/UGI-Leaderboard • Сравнение моделей по сомнительным метрикам: https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard • Сравнение моделей реальными пользователями по чуть менее сомнительным метрикам: https://chat.lmsys.org/?leaderboard Дополнительные ссылки: • Готовые карточки персонажей для ролплея в таверне: https://www.characterhub.org • Перевод нейронками для таверны: https://rentry.co/magic-translation • Пресеты под локальный ролплей в различных форматах: http://web.archive.org/web/20250222044730/https://huggingface.co/Virt-io/SillyTavern-Presets • Шапка почившего треда PygmalionAI с некоторой интересной информацией: https://rentry.co/2ch-pygma-thread • Официальная вики koboldcpp с руководством по более тонкой настройке: https://github.com/LostRuins/koboldcpp/wiki • Официальный гайд по сопряжению бекендов с таверной: https://docs.sillytavern.app/usage/how-to-use-a-self-hosted-model/ • Последний известный колаб для обладателей отсутствия любых возможностей запустить локально: https://colab.research.google.com/drive/11U-bC6AxdmMhd3PF9vWZpLdi6LdfnBQ8?usp=sharing • Инструкции для запуска базы при помощи Docker Compose: https://rentry.co/oddx5sgq https://rentry.co/7kp5avrk • Пошаговое мышление от тредовичка для таверны: https://github.com/cierru/st-stepped-thinking • Потрогать, как работают семплеры: https://artefact2.github.io/llm-sampling/ • Выгрузка избранных тензоров, позволяет ускорить генерацию при недостатке VRAM: https://www.reddit.com/r/LocalLLaMA/comments/1ki7tg7 • Инфа по запуску на MI50: https://github.com/mixa3607/ML-gfx906 • Тесты tensor_parallel: https://rentry.org/8cruvnyw • Доки к LLaMA.cpp со всеми параметрами: https://github.com/ggml-org/llama.cpp/blob/master/tools/server/README.md Архив тредов можно найти на архиваче: https://arhivach.vc/?tags=14780%2C14985 Шапка в https://rentry.co/llama-2ch, предложения принимаются в треде. Предыдущие треды тонут здесь: >>1595096 (OP) >>1593648 (OP)
29 апреля 18:57
Сохранен
511
вчера 15:09
Активный
510
сегодня 1:05
Активный
509
сегодня 11:41
Активный
507
сегодня 7:25
Активный
506
Локальные языковые модели (LLM): Gemma, Qwen, GLM и прочие №229 /llama/ — В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны! Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна. Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку. Официальная вики треда с гайдами по запуску и базовой информацией: https://2ch-ai.github.io/wiki/llama/ Инструменты для запуска на десктопах: • Отец и мать всех инструментов, позволяющий гонять GGML и GGUF форматы: https://github.com/ggml-org/llama.cpp • Самый простой в использовании и установке форк llamacpp: https://github.com/LostRuins/koboldcpp • Более функциональный и универсальный интерфейс для работы с остальными форматами: https://github.com/oobabooga/text-generation-webui • Заточенный под Exllama (V2 и V3) и в консоли: https://github.com/theroyallab/tabbyAPI • Однокнопочные инструменты на базе llamacpp с ограниченными возможностями: https://github.com/ollama/ollama, https://lmstudio.ai • Универсальный фронтенд, поддерживающий сопряжение с koboldcpp и text-generation-webui: https://github.com/SillyTavern/SillyTavern • Альтернативный фронт: https://github.com/kwaroran/RisuAI Инструменты для запуска на мобилках: • Интерфейс для локального запуска моделей под андроид с llamacpp под капотом: https://github.com/Mobile-Artificial-Intelligence/maid • Альтернативный вариант для локального запуска под андроид (фронтенд и бекенд сепарированы): https://github.com/Vali-98/ChatterUI • Гайд по установке SillyTavern на ведроид через Termux: https://rentry.co/STAI-Termux Модели и всё что их касается: • Актуальный список моделей с отзывами от тредовичков: https://rentry.co/2ch_llm_moe_2026 • Неактуальные списки моделей в архивных целях: 2025: https://rentry.co/2ch_llm_2025 (версия для бомжей: https://rentry.co/z4nr8ztd ), 2024: https://rentry.co/llm-models , 2023: https://rentry.co/lmg_models • Миксы от тредовичков с уклоном в русский РП: https://huggingface.co/Aleteian и https://huggingface.co/Moraliane • Рейтинг моделей по уровню их закошмаренности цензурой: https://huggingface.co/spaces/DontPlanToEnd/UGI-Leaderboard • Сравнение моделей по сомнительным метрикам: https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard • Сравнение моделей реальными пользователями по чуть менее сомнительным метрикам: https://chat.lmsys.org/?leaderboard Дополнительные ссылки: • Гайд для новичков: https://rentry.org/2ch-llama-inference • Готовые карточки персонажей для ролплея в таверне: https://www.characterhub.org • Перевод нейронками для таверны: https://rentry.co/magic-translation • Пресеты под локальный ролплей в различных форматах: http://web.archive.org/web/20250222044730/https://huggingface.co/Virt-io/SillyTavern-Presets • Шапка почившего треда PygmalionAI с некоторой интересной информацией: https://rentry.co/2ch-pygma-thread • Официальная вики koboldcpp с руководством по более тонкой настройке: https://github.com/LostRuins/koboldcpp/wiki • Официальный гайд по сопряжению бекендов с таверной: https://docs.sillytavern.app/usage/how-to-use-a-self-hosted-model/ • Последний известный колаб для обладателей отсутствия любых возможностей запустить локально: https://colab.research.google.com/drive/11U-bC6AxdmMhd3PF9vWZpLdi6LdfnBQ8?usp=sharing • Инструкции для запуска базы при помощи Docker Compose: https://rentry.co/oddx5sgq https://rentry.co/7kp5avrk • Пошаговое мышление от тредовичка для таверны: https://github.com/cierru/st-stepped-thinking • Потрогать, как работают семплеры: https://artefact2.github.io/llm-sampling/ • Выгрузка избранных тензоров, позволяет ускорить генерацию при недостатке VRAM: https://www.reddit.com/r/LocalLLaMA/comments/1ki7tg7 • Инфа по запуску на MI50: https://github.com/mixa3607/ML-gfx906 • Тесты tensor_parallel: https://rentry.org/8cruvnyw • Доки к LLaMA.cpp со всеми параметрами: https://github.com/ggml-org/llama.cpp/blob/master/tools/server/README.md Архив тредов можно найти на архиваче: https://arhivach.vc/?tags=14780%2C14985 Шапка в https://rentry.co/llama-2ch, предложения принимаются в треде. Предыдущие треды тонут здесь: >>1600155 (OP) >>1598239 (OP)
2 мая 14:27
Активный
506
Локальные языковые модели (LLM): Gemma, Qwen, GLM и прочие №228 /llama/ — В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны! Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна. Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку. Официальная вики треда с гайдами по запуску и базовой информацией: https://2ch-ai.github.io/wiki/llama/ Инструменты для запуска на десктопах: • Отец и мать всех инструментов, позволяющий гонять GGML и GGUF форматы: https://github.com/ggml-org/llama.cpp • Самый простой в использовании и установке форк llamacpp: https://github.com/LostRuins/koboldcpp • Более функциональный и универсальный интерфейс для работы с остальными форматами: https://github.com/oobabooga/text-generation-webui • Заточенный под Exllama (V2 и V3) и в консоли: https://github.com/theroyallab/tabbyAPI • Однокнопочные инструменты на базе llamacpp с ограниченными возможностями: https://github.com/ollama/ollama, https://lmstudio.ai • Универсальный фронтенд, поддерживающий сопряжение с koboldcpp и text-generation-webui: https://github.com/SillyTavern/SillyTavern • Альтернативный фронт: https://github.com/kwaroran/RisuAI Инструменты для запуска на мобилках: • Интерфейс для локального запуска моделей под андроид с llamacpp под капотом: https://github.com/Mobile-Artificial-Intelligence/maid • Альтернативный вариант для локального запуска под андроид (фронтенд и бекенд сепарированы): https://github.com/Vali-98/ChatterUI • Гайд по установке SillyTavern на ведроид через Termux: https://rentry.co/STAI-Termux Модели и всё что их касается: • Актуальный список моделей с отзывами от тредовичков: https://rentry.co/2ch_llm_moe_2026 • Неактуальные списки моделей в архивных целях: 2025: https://rentry.co/2ch_llm_2025 (версия для бомжей: https://rentry.co/z4nr8ztd ), 2024: https://rentry.co/llm-models , 2023: https://rentry.co/lmg_models • Миксы от тредовичков с уклоном в русский РП: https://huggingface.co/Aleteian и https://huggingface.co/Moraliane • Рейтинг моделей по уровню их закошмаренности цензурой: https://huggingface.co/spaces/DontPlanToEnd/UGI-Leaderboard • Сравнение моделей по сомнительным метрикам: https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard • Сравнение моделей реальными пользователями по чуть менее сомнительным метрикам: https://chat.lmsys.org/?leaderboard Дополнительные ссылки: • Гайд для новичков: https://rentry.org/2ch-llama-inference • Готовые карточки персонажей для ролплея в таверне: https://www.characterhub.org • Перевод нейронками для таверны: https://rentry.co/magic-translation • Пресеты под локальный ролплей в различных форматах: http://web.archive.org/web/20250222044730/https://huggingface.co/Virt-io/SillyTavern-Presets • Шапка почившего треда PygmalionAI с некоторой интересной информацией: https://rentry.co/2ch-pygma-thread • Официальная вики koboldcpp с руководством по более тонкой настройке: https://github.com/LostRuins/koboldcpp/wiki • Официальный гайд по сопряжению бекендов с таверной: https://docs.sillytavern.app/usage/how-to-use-a-self-hosted-model/ • Последний известный колаб для обладателей отсутствия любых возможностей запустить локально: https://colab.research.google.com/drive/11U-bC6AxdmMhd3PF9vWZpLdi6LdfnBQ8?usp=sharing • Инструкции для запуска базы при помощи Docker Compose: https://rentry.co/oddx5sgq https://rentry.co/7kp5avrk • Пошаговое мышление от тредовичка для таверны: https://github.com/cierru/st-stepped-thinking • Потрогать, как работают семплеры: https://artefact2.github.io/llm-sampling/ • Выгрузка избранных тензоров, позволяет ускорить генерацию при недостатке VRAM: https://www.reddit.com/r/LocalLLaMA/comments/1ki7tg7 • Инфа по запуску на MI50: https://github.com/mixa3607/ML-gfx906 • Тесты tensor_parallel: https://rentry.org/8cruvnyw • Доки к LLaMA.cpp со всеми параметрами: https://github.com/ggml-org/llama.cpp/blob/master/tools/server/README.md Архив тредов можно найти на архиваче: https://arhivach.vc/?tags=14780%2C14985 Шапка в https://rentry.co/llama-2ch, предложения принимаются в треде. Предыдущие треды тонут здесь: >>1598239 (OP) >>1596667 (OP)
30 апреля 9:25
Сохранен
505
сегодня 3:26
Активный
505
Локальные языковые модели (LLM): Gemma, Qwen, GLM и прочие №227 /llama/ — В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны! Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна. Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку. Официальная вики треда с гайдами по запуску и базовой информацией: https://2ch-ai.github.io/wiki/llama/ Инструменты для запуска на десктопах: • Отец и мать всех инструментов, позволяющий гонять GGML и GGUF форматы: https://github.com/ggml-org/llama.cpp • Самый простой в использовании и установке форк llamacpp: https://github.com/LostRuins/koboldcpp • Более функциональный и универсальный интерфейс для работы с остальными форматами: https://github.com/oobabooga/text-generation-webui • Заточенный под Exllama (V2 и V3) и в консоли: https://github.com/theroyallab/tabbyAPI • Однокнопочные инструменты на базе llamacpp с ограниченными возможностями: https://github.com/ollama/ollama, https://lmstudio.ai • Универсальный фронтенд, поддерживающий сопряжение с koboldcpp и text-generation-webui: https://github.com/SillyTavern/SillyTavern • Альтернативный фронт: https://github.com/kwaroran/RisuAI Инструменты для запуска на мобилках: • Интерфейс для локального запуска моделей под андроид с llamacpp под капотом: https://github.com/Mobile-Artificial-Intelligence/maid • Альтернативный вариант для локального запуска под андроид (фронтенд и бекенд сепарированы): https://github.com/Vali-98/ChatterUI • Гайд по установке SillyTavern на ведроид через Termux: https://rentry.co/STAI-Termux Модели и всё что их касается: • Актуальный список моделей с отзывами от тредовичков: https://rentry.co/2ch_llm_moe_2026 • Неактуальные списки моделей в архивных целях: 2025: https://rentry.co/2ch_llm_2025 (версия для бомжей: https://rentry.co/z4nr8ztd ), 2024: https://rentry.co/llm-models , 2023: https://rentry.co/lmg_models • Миксы от тредовичков с уклоном в русский РП: https://huggingface.co/Aleteian и https://huggingface.co/Moraliane • Рейтинг моделей по уровню их закошмаренности цензурой: https://huggingface.co/spaces/DontPlanToEnd/UGI-Leaderboard • Сравнение моделей по сомнительным метрикам: https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard • Сравнение моделей реальными пользователями по чуть менее сомнительным метрикам: https://chat.lmsys.org/?leaderboard Дополнительные ссылки: • Готовые карточки персонажей для ролплея в таверне: https://www.characterhub.org • Перевод нейронками для таверны: https://rentry.co/magic-translation • Пресеты под локальный ролплей в различных форматах: http://web.archive.org/web/20250222044730/https://huggingface.co/Virt-io/SillyTavern-Presets • Шапка почившего треда PygmalionAI с некоторой интересной информацией: https://rentry.co/2ch-pygma-thread • Официальная вики koboldcpp с руководством по более тонкой настройке: https://github.com/LostRuins/koboldcpp/wiki • Официальный гайд по сопряжению бекендов с таверной: https://docs.sillytavern.app/usage/how-to-use-a-self-hosted-model/ • Последний известный колаб для обладателей отсутствия любых возможностей запустить локально: https://colab.research.google.com/drive/11U-bC6AxdmMhd3PF9vWZpLdi6LdfnBQ8?usp=sharing • Инструкции для запуска базы при помощи Docker Compose: https://rentry.co/oddx5sgq https://rentry.co/7kp5avrk • Пошаговое мышление от тредовичка для таверны: https://github.com/cierru/st-stepped-thinking • Потрогать, как работают семплеры: https://artefact2.github.io/llm-sampling/ • Выгрузка избранных тензоров, позволяет ускорить генерацию при недостатке VRAM: https://www.reddit.com/r/LocalLLaMA/comments/1ki7tg7 • Инфа по запуску на MI50: https://github.com/mixa3607/ML-gfx906 • Тесты tensor_parallel: https://rentry.org/8cruvnyw • Доки к LLaMA.cpp со всеми параметрами: https://github.com/ggml-org/llama.cpp/blob/master/tools/server/README.md Архив тредов можно найти на архиваче: https://arhivach.vc/?tags=14780%2C14985 Шапка в https://rentry.co/llama-2ch, предложения принимаются в треде. Предыдущие треды тонут здесь: >>1596667 (OP) >>1595096 (OP)
30 апреля 15:14
Удален?
504
3 мая 19:34
Активный
495
2D Нейрореквест/фап тред (формально Генерач) В этом треде можно: — Попросить нарисовать нейро-конт — 2D Нейрореквест/фап тред (формально Генерач) В этом треде можно: — Попросить нарисовать нейро-контент со своей вайфу (sfw/nsfw) — Поделиться своими генерациями — Задать вопрос по генерации [!] Свои реквесты прикрепляйте к шапке. [!] Выполнение реквестов — дело добровольное. [!] Не все реквесты технически возможно выполнить. FAQ: https://teletype.in/@aranon/welcome — Комплексный гайд для новичков. От установки UI до inpaint и работы с Wildcards. https://rentry.co/wan22-generach — генерация видео локально на WAN2.2. Гайд по установке + оптимизированный воркфлоу. https://grok.com/imagine — генерация видео онлайн. https://2ch-ai.github.io/wiki/nai/ — общая информация от анонов. https://tagexplorer.github.io/ — удобный каталог тегов с примерами. https://danbooru.donmai.us/wiki_pages/tag_groups — вики по тэгам данбуру, которые понимает большинство нейронок. https://civitai.com/articles/4808/making-images-great-again-remastered — базовый гайд по промптингу. https://civarchive.com/ — архив удаленного контента. Онлайн сервисы: https://civitai.com — Генерация онлайн, огромная библиотека чекпоинтов, лор, гайдов и промтов. https://socialdiff.net https://yodayo.com Архив предыдущих тредов: https://arhivach.vc/?tags=14905 Прошлый тред тонет тут. https://2ch.org/b/res/332652277.html Прошлый тред в архиве: https://arhivach.vc/thread/1348071/
сегодня 11:44
Активный
488
сегодня 1:05
Активный
474
сегодня 11:33
Активный
467
>АРЯЯЯ ДА МНЕ 3060 ЗА ГЛАЗА ХВАТИТ Tom's Hardware: RTX 30 теряют актуальность - без новых DLSS и — >АРЯЯЯ ДА МНЕ 3060 ЗА ГЛАЗА ХВАТИТ Tom's Hardware: RTX 30 теряют актуальность - без новых DLSS и Frame Generation RTX 30 официально всё, признайте очевидное. Даже 3080 на 10ГБ сейчас в новых тайтлах просто задыхается памяти катастрофически не хватает, текстуры мажутся, а статтеры такие, что играть невозможно. Хуанг окончательно кинул владельцев Ampere через колено новый DLSS 4.5 без тензорных ядер 40/50 серии на 30ках работает криво и даже жрет FPS, а вместо нормальной генерации кадров приходится жрать мыльный FSR 3.1 с артефактами. Сидеть на 8-10 гигах VRAM в 2025 году это чистый мазохизм и самообман про плохую оптимизацию, так что либо сосите лапу в 1080p на средних, либо честно признавайте, что пора сливать это железо на вторичку, пока оно хоть что-то стоит, и перекатываться на 50 серию. Есть кто начнет доказывать, что 3060 на 12ГБ всё еще топ за свои деньги? Самим не смешно?
сегодня 11:29
Активный
420
сегодня 10:47