Я не понимаю как Маск со своим унылым Grok так резко скаканул в качестве генерации видео?
Казалось что он всех годных спецов распугал или просто все нивелируется проебами по мощности? Я смотрел у них средний ценник на API нейросетей (в 1.5 раза выше чем у OpenAI и Google, но дешевле Claude).
Я не спорю. Он сделал фуррор 3ей версией Grok (LLM). Она реально могла уже программировать штуки которые осиливала лишь последняя версия ChatGPT на тот момент (o1 вроде).
Неужели он не сбитый летчик?
Неужели двачеры и реддиторы не правы (у них одинаковые тейки про Маска).
>>325836310 (OP) >Как самый богатый человек на земле, бывший сооснователем openAI, имеющий крупнейшую медиаплатформу с данными для всего что необходимо для обучения сетки смог сделать качественную сетку? >В чем его секрет, сосач? ты не очень умный, да?
Из программистов большинство - просто пишут код. У них нет компетенций в управлении продуктов, но они позволяют себе открывать рот на эту тему. В итоге тысячи людей говорят о том, в чём просто ничего не понимают.
>>325836763 >крупнейшую медиаплатформу с данными Это не ты очень умный. Там куча мусора, особенно текстовые данные. Датасеты берутся со стороны со всяких ютубов (видео) и общего интернета. Если обучать на твиттере, то на выходе получишь сплошной твиттер.
Во-вторых у них были проблемы вначале пути. Вся их экспертиза в тесле была хуйней. Связи с OpenAI постольку-поскольку. Были срачи. Маск вышел из сделки, а потом визжал бегал с ошпареной жопой когда OpenAI начал расти. Немногие верили в эту компанию по настоящему. Многие думали что Альтман долбоёб.
>>325836698 >высказывает своё важное мнение о супер современном айти продукте Эти продукты делают для обычных людей. Если обычным людям не нравится, значит что-то не так. Иначе пусть Маск делает приложение приватно для себя и идет нахуй.
>>325837152 >Если обычным людям не нравится Им личность, а не продукты не нравятся. Еще стоит отметить что реддит засран китайской лахтой. Я это только сейчас осознал. Думал это просто китайцы форсят свое говно.
>>325837830 Буквально вчера видел популярный тред в LocalLLama где нализывали удару что мол запад все блаблабла. Но никто нахуй не вспомнил что опенсорсная LLM от ChatGPT всухую утерла даже китайский Deepseek как по баллам, так и по потребляемой вычислительной мощности.
>>325838012 Хуетрики, блять. Еще раз говорю, что делают программы для обычных людей. На дваче обычные люди высказываются. Мнение всегда сформировывается на чем-то.
>>325838065 >Но объем не так велик В смысле не так велик? В книгах содержатся все доинтернетные знания человечества, а это немало, поверь мне. Плюс есть википедия и другие ресурсы, на которые можно ориентироваться. А обучать на ютуберах и форумах интернетных будут только долбоебы. На ютубах максимум что можно научить это стилю общения.
>>325839052 >поверь мне Да че мне верить. Я и так знаю что в книгах дохрена полезного опыта на уровне интуиции (в рамках LLM). Хотел было погонять нейросети на старых текстах, огранивать их определенными датировками и понял что там нихрена нет в обучающем корпусе. Надо прямо самому тюнить модели на своих данных.
> А обучать на ютуберах и форумах интернетных будут только долбоебы. Youtube это видеоданные. Как двигаются люди, связи между объектами ИРЛ (наконец-то раздуплились - но нужно было время и мощности, щас юзают видеоданные и данные с роботов). Форумы - ну да. Я об этом давно думал. Но создатели нейросетей изначально пошли по пути сбора всей человеческой интуиции, а не академическое приложение. Видимо для создания коммерческих приложений. Ведь нужна бизнес модель чтобы выходить на самоокуп. Сэм Альтман выходец из Ycombinator, не хуй собачий. У него это в крови.
>>325837212 Китайцы львы, продвигают свои технологии. А кал Маска, каким бы он ни был прогрессивным, даже свои пиарщиков не имеет, просто забытая никому ненужная хуета.
Ну а что касается LLM реальность такова что сейчас ее обучить может тупо каждый, даже ты анон...
Хочешь изи мод, качаешь опенсорс модель и дообучаешь на своем датасете, потом корректируешь поведение на обучении следования инструкциями, можешь еще системный промт вшить.
Хочешь хард мод? Покупаешь кластер из тесла H300, стоит копейки, примерно как двушка в центре и собираешь датасет на 1млрд параметров 20млр токенов текста. Делаешь свой SFT датасет ну и DPO тож если хочешь в публичный досутп. Алгоритмы все в открытом доступе, даже исходники найти можно и обучаешь. 12млрд параметров на кластере из 8 тесла н300 будет обучатся с пол года.
Весь затык крч в обучении нейронок в объеме инфы и вычислительных мощностях. Датасеты можно на HF скачать.
Так что такой резкий бруст грока не удивителен. Каждое новое поколение разблокирует недоступность предидущего и все упирается тупо в деньги и время.
Я щя хочу сделать нейронку двачера бесцензурную. Но прихожу к выводу что придется ограничится fineturning и sft ибо за месяц я смог собрать только 30млн токенов текста :c
>>325836900 Вот ты хуйню пишешь, сразу видно пидорас-левак, хейтер Маска на пустом месте.
OpenAI организовал Маск как некоммерческую контору, это факт. Второй факт, ее преобразовали в личную кормушку всякие алчные пидорасы, используя лазейки в законах. Как тут можно Маска не поддерживать? Он тебе лично хотел запилить некоммерческий AI. Всем людям. А его кинули.
Казалось что он всех годных спецов распугал или просто все нивелируется проебами по мощности? Я смотрел у них средний ценник на API нейросетей (в 1.5 раза выше чем у OpenAI и Google, но дешевле Claude).
Я не спорю. Он сделал фуррор 3ей версией Grok (LLM). Она реально могла уже программировать штуки которые осиливала лишь последняя версия ChatGPT на тот момент (o1 вроде).
Неужели он не сбитый летчик?
Неужели двачеры и реддиторы не правы (у них одинаковые тейки про Маска).