Сохранен 13
https://2ch.hk/ai/res/442664.html
Прошлые домены не функционирует! Используйте адрес ARHIVACH.VC.
24 декабря 2023 г. Архивач восстановлен после серьёзной аварии. К сожалению, значительная часть сохранённых изображений и видео была потеряна. Подробности случившегося. Мы призываем всех неравнодушных помочь нам с восстановлением утраченного контента!

коммунизм для нейросетей, или же имеем llama2 70b у себя нас устройстве

 Аноним 03/08/23 Чтв 17:34:03 #1 №442664 
изображение.png
Если кратко, то определенная контора выпустила хуйню которая позволяет использовать жирные модели для всех, благодаря распределению нейросетки на множество устройств.
сайт этой хуйни: https://petals.dev/
протестить эту хуйню сейчас же: https://colab.research.google.com/drive/1uCphNY7gfAUkdDrTx21dZZwCOUDCMPw8?usp=sharing
скорость от 1 токена в секунду, у меня лично 3-5 выбивало иногда.
Аноним 03/08/23 Чтв 18:04:35 #2 №442687 
>>442664 (OP)

Это что, кто-то аналог kobold-horde изобрел?
Аноним 03/08/23 Чтв 18:25:45 #3 №442704 
>>442687
эта хуйня была еще до орды, только вот там был тупой bloom/bloomz, он хоть и на 175B параметров как chatgpt, но тупой как пробка
Аноним 03/08/23 Чтв 18:48:16 #4 №442751 
>>442664 (OP)
Какие-нибудь квоты или привелегии для шарящих есть? Например, приоритетный доступ чтобы иметь больше скорости чем на одной карточке с выгрузкой (если с подобной архитектурой вообще возможно). Сильно бы помогло в развитии сети, а то надеяться на добряков с "тремя серверами А100" сомнительно.
Аноним 03/08/23 Чтв 18:53:38 #5 №442762 
>>442751
привилегий ноль, а так там еще и lora можно подключить спокойно любую судя по всему. А ну еще старый добрый p-tuning
Аноним 03/08/23 Чтв 18:54:57 #6 №442767 
>>442751
а так petals жив здоров и без добряков, у него кажись когда ты клиентом подключаешься ты тоже становишься хостом маленькой части нейросетки
Аноним 03/08/23 Чтв 19:12:03 #7 №442786 
>>442762
> и lora можно подключить спокойно любую судя по всему
Любую всмысле которую ты хочешь чтобы была на модели, или что каждый из хостов может как-то модель поменять?
>>442767
> когда ты клиентом подключаешься ты тоже становишься хостом маленькой части нейросетки
Слишком мелкое дробление безсмысленно, трафик и времена ожидания все убьют до скорости ниже чем на древнем цп.
Аноним 03/08/23 Чтв 19:15:18 #8 №442789 
>>442786
по идеи любую лору которую ты захочешь
Аноним 03/08/23 Чтв 19:16:47 #9 №442792 
>>442789
Кто ее выбирает, пользователь что дает запрос и ее скачают все узлы применив на свои части, или хост, что может заставить лламу рисовать аски арты вместо ответов?
Аноним 03/08/23 Чтв 19:20:18 #10 №442798 
>>442792
а вот я уже не знаю, я не копал слишком глубоко
Аноним 03/08/23 Чтв 19:21:44 #11 №442800 
>>442762
```
This will host a part of LLaMA-65B with optional Guanaco adapters on your machine. You can also host meta-llama/Llama-2-70b-hf, meta-llama/Llama-2-70b-chat-hf, bigscience/bloom, bigscience/bloomz, and other compatible models from 🤗 Model Hub, or add support for new model architectures.
```

napizdel получается
Аноним 03/08/23 Чтв 19:23:34 #12 №442802 
>>442800
хостит лору все же сам сервер, а юзер сам нужную лору не выбирает(
sage[mailto:sage] Аноним 04/08/23 Птн 19:33:24 #13 №443902 
>>442664 (OP)

Опять какие-то пидоры сервис сбора данных с нищуков организовали?
Блядь, ну единственное преимущество локальных сеток - в том что они локальные, блядь. Ты можешь чатится с ними на любые темы и быть уверенным что твои данные не попадут на стол к тащ майору и нее станут основой для внедрения цензуры в будущих сетках.
Если запускать локальные сетки онлайн - то у них литералли ноль преимуществ перед чат-гпт и клодом, т.е. ты также отдаешь свои данные непонятно кому, еще и сетку получаешь хуевую.
comments powered by Disqus

Отзывы и предложения