Прошлые домены не функционирует! Используйте адрес ARHIVACH.VC.
24 декабря 2023 г. Архивач восстановлен после серьёзной аварии. К сожалению, значительная часть сохранённых изображений и видео была потеряна. Подробности случившегося. Мы призываем всех неравнодушных помочь нам с восстановлением утраченного контента!

Новости об искусственном интеллекте №25 /news/

 Аноним 25/07/25 Птн 19:21:11 #1 №1288371 
image.png
В этот тредик скидываются свежие новости по теме ИИ! Залетай и будь в курсе самых последних событий и достижений в этой области!

Прошлый тред: >>1285009 (OP)
Аноним 25/07/25 Птн 19:24:43 #2 №1288380 
Отец знакомого работает в OpenAI. Сегодня срочно вызвали на совещание. Вернулся поздно и ничего не объяснил. Сказал лишь собирать датасет и бежать оформлять подписку на месяц. Сейчас сидим и ждем чего-то. Не знаю что происходит, но мне кажется началось...
Аноним 25/07/25 Птн 19:25:34 #3 №1288382 
А зачем такие мощности под ИИ планируют? Он вообще коммерчески окупается или это с прицелом, что выстрелит в будущем?
Аноним 25/07/25 Птн 19:27:28 #4 №1288386 
image.png
>>1288382
Сейчас вообще не окупается. OpenAI планирует выйти на окупаемость к 2029 году - 125 миллиардов выручки.
Аноним 25/07/25 Птн 19:32:38 #5 №1288391 
теперь имадженируте если ОС начнет использовать модель уровня GPT5 в агентском режиме с локальным постобучением. это же пиздец
Аноним 25/07/25 Птн 19:36:15 #6 №1288397 
>>1288371 (OP)
Не могу понять кто на пикче. Это Джон Траволта что ли?
Аноним 25/07/25 Птн 19:37:51 #7 №1288402 
image.png
>>1288397
Это самый похожий Альтман, которого мне удалось получить, и то фотку лица подсунуть пришлось. Изначально он мне рисовал вот это
Аноним 25/07/25 Птн 19:41:55 #8 №1288410 
>>1288386
Т.е. никто серьезно из разработчиков в АГИ не верит, а все эти разговоры чисто для хайпа? Ведь если бы АИ к 2029 мог почти полностью вытеснить программистов, художников, композиторов, операторов колцентров и т.п., то прибыли должны бы быть значительно больше. А то я смотрел интервью от крестного отца ИИ, где он говорил, что программистам пора осваивать профессию водопроводчика.
Аноним 25/07/25 Птн 19:49:46 #9 №1288421 
>>1288410
> Т.е. никто серьезно из разработчиков в АГИ не верит, а все эти разговоры чисто для хайпа? Ведь если бы АИ к 2029 мог почти полностью вытеснить программистов, художников, композиторов, операторов колцентров и т.п., то прибыли должны бы быть значительно больше.
Выручка генерируется не прогнозами, а полезностью на сегодняшний день. Люди и корпорации платят за то, что полезно уже сегодня.
Насчет разрабов не знаю, но Цукерберг смог переманить из OpenAI не всех. Когда он предложил одному из ключевых разрабов зарплату в миллиард за несколько лет, тот отказался. А Суцкевер отказался продать Цукербергу свою компанию за 30 миллиардов. По крайней мере, некоторые верят, как мне кажется.
Аноним 25/07/25 Птн 19:55:51 #10 №1288429 
>>1288382
>А зачем такие мощности под ИИ планируют?
Это мегацентры обработки данных о населении, стране, и мире.

>Он вообще коммерчески окупается или это с прицелом, что выстрелит в будущем?
Он уже купается геополитически, а это важней. Весь мир видит что США - центр цивилизации, больше мозгов и бесплатных рабов хотят там жить - сильней экономика страны. Надо быть ебланом, чтоб этого не понимать.
Аноним 25/07/25 Птн 20:09:48 #11 №1288453 
X2Twitter.comGgFFWeOXn-PyI7sW1280p.mp4
>>1288371 (OP)
ну когда уже выход на плато
Аноним 25/07/25 Птн 20:11:49 #12 №1288457 
>>1288382
>что выстрелит в будущем?
тут вкидывали подкастера он такую вещь сказал
что инвесторы могут ошибиться с объектом инвестиции, но не ошибаются с трендом
в компы инвестировали, но не все инвестировали в айбиэм и майкрософт
так что сфера явно прибыльная, но никто не знает кто прибыль получит
Аноним 25/07/25 Птн 20:21:56 #13 №1288474 
x1200.webp
Очень убедительно
Аноним 25/07/25 Птн 20:30:25 #14 №1288481 
>>1288382
Самая важная технология столетия. Без ИИ прогресс ползком будет двигаться - а у человечества нет столько времени: мир могут захватить инопланетяне, мусульмане или хуй знает что ещё.

Это чисто вопрос существования человечества. На все эти вычислительные центры нужно бросить максимально возможные ресурсы.
Аноним 25/07/25 Птн 20:33:18 #15 №1288483 
Это уж не говоря, что ИИ крайне полезен в борьбе со старением. Без ИИ просто сдохнешь.
Аноним 25/07/25 Птн 20:35:37 #16 №1288484 
18059466.jpg
>>1288382
Если погуглишь, то узнаешь что тот же амазон основную чистую прибыль делает не на комисии маркетплейса амазон, а на AWS - облачном сервисе. Это я к тому, что скупая гпу пачками ты в любом случае в выигрыше. Если выстрелит твоя иишка - будешь зарабатывать на подписках, если не выстрелит - будешь сдавать в аренду и в хуй не дуть
Аноним 25/07/25 Птн 20:38:55 #17 №1288485 
>>1288481
https://fantlab.ru/work591656

Рассказ, который ярко иллюстрирует то, что будет, если медленно развивать прогресс, квёло ловить слабо.
Аноним 25/07/25 Птн 20:39:20 #18 №1288486 
котEyeContact.jpg
>>1288453
наступит же момент когда робот гуманоид случайно кого-то из людей убьет чисто статистически это рано или поздно произойдет. вангую что у этого человека будет страничка в вики и в честь него назовут какой-нибудь закон против ии
Аноним 25/07/25 Птн 20:42:56 #19 №1288487 
>>1288486
А, может, просто смирятся, как смирились с тем, что люди становятся двухсотыми от автомобилей и самолётов.

Но левая мразь и их хозяева из Катара, естественно, попытаются использовать такой случай по полной.
Аноним 25/07/25 Птн 20:46:29 #20 №1288489 
>>1288453
Поcле плато наступает оргазм мир эякулирует AGI
Аноним 25/07/25 Птн 20:51:01 #21 №1288491 
b196ce4c-6426-4944-a958-fc3d53c7591a.png
>>1288421
>некоторые верят, как мне кажется.

Посмотрел еще один видос про приближающийся АГИ. Все эти спецы дают прогнозы на скачок в ближайшие годы, а не десятилетия.

При это я не знаю, текущий ИИ готов хоть сколь-нибудь ПОНИМАТЬ, а не копировать. С одной стороны, он вроде круто рисует, а с другой, допускает детские ошибки.

Смотрел выступление Кармака, он говорил, что текущий ИИ бесконечно далек до того, чтобы сесть и начать играть в игру хотя бы на спектруме.

Т.е. можно говорить, что пока ИИ выдает некое обобщенное решение на базе скормленной информации, но не может сам проводить исследования, узнавать новое, т.е. никакого намека на АГИ.

https://www.youtube.com/watch?v=5KVDDfAkRgc
Аноним 25/07/25 Птн 20:51:24 #22 №1288492 
>>1288453
А чому он обмяк в конце?
Аноним 25/07/25 Птн 20:51:39 #23 №1288493 
>>1288486
Разве что только в ЕС. В США, Китае и возможно России потенциальные выгоды перевесят редких жмуров.
Аноним 25/07/25 Птн 20:53:16 #24 №1288495 
>>1288492
Бесконтактный бой. Кто-то использовал сверхчеловеческий потенциал мозга.
Аноним 25/07/25 Птн 20:58:51 #25 №1288500 
>>1288491
Общее понимание не нужно, это привилегия человека. Для того чтобы решить все мировые проблемы, хватит узкого понимания, как оно сейчас у ИИ. Если начинаешь базарить с ним по конкретным проблемам, он их вполне понимает, не хуже среднего чела. Большинство людей как раз узкоспециализированы, так цивилизация настраивала роли последние 2 века. Даже общее образование отменили в пользу специализированного. Игры, где хватает узкого понимания, ИИ тоже уже проходит. Короче революция это замена узкого спеца, а не общего понимания, всего того что человек в принципе может. Человек универсален, ИИ нет, но ИИ заменит каждого, кто не занят слишком креативной деятельностью, требующей более общих навыков понимания.
Аноним 25/07/25 Птн 20:59:43 #26 №1288502 
>>1288491
>Т.е. можно говорить, что пока ИИ выдает некое обобщенное решение на базе скормленной информации,
Проблема в том, что эти обобщения бесконечно далеки от предметной области. По этому нейросетки и допускают ошибки - у них почти не сформировано внутри никаких моделей предметной области.

По сути текущие LLM могут делать только одну работу - предсказывать следующий токен. Те же рекуррентные нейросети могут делать кучу вещей внутри себя, работать с множеством входных последовательностей.
Аноним 25/07/25 Птн 21:00:54 #27 №1288504 
>>1288500
>. Если начинаешь базарить с ним по конкретным проблемам, он их вполне понимает, не хуже среднего чела.
Только если ты сам нихуя не знаешь по этим проблемам. Как только у тебя появляются какие-то данные и компетенция - моментально будешь находить ошибки в самых ответах
Аноним 25/07/25 Птн 21:02:41 #28 №1288505 
>>1288500
Я говорил о том, что ИИ выдает среднее решение уже с готовой базы. Т.е. он может сказать, что примерно написано о любой физической теории, но не способен разработать свою, как Эйнштейн. Т.е. не выдать какую-то фантастику, а именно все доказать, все проверить формулами. Потому что он не думает.

Разве не так?
Аноним 25/07/25 Птн 21:03:26 #29 №1288506 
>>1288504
Тебе не ошибки надо находить, а работу выполнять. ИИ сейчас уже может выполнять работу на уровне среднего чела. Спец его уделает за счет общего понимания, но это не везде нужно. Там где нужно много компетенции, останутся люди, но таких работ меньшинство.
Аноним 25/07/25 Птн 21:06:12 #30 №1288507 
>>1288505
А много ли Эйнштейнов? Может найти решение на уровне олимпиадника ИМО - уже уделает большинство людей, на средней работе, где нужны обычные похожие решения. Там где науку вперед двигать, понятно люди пока останутся.
Аноним 25/07/25 Птн 21:10:18 #31 №1288510 
>>1288410
>А то я смотрел интервью от крестного отца ИИ, где он говорил, что программистам пора осваивать профессию водопроводчика.
ИИ уже генерит неплохой код. Если ему сделают достаточно большое окно, чтобы туда легаси проекты целиком влезали, вполне возможно и вообще все генерить станет. А это уже означает, что с фирмы попрут всех, кроме пары сеньоров, которые будут архитектуру за ИИ проверять. Все сотни человек попрут.
Аноним 25/07/25 Птн 21:11:11 #32 №1288511 
>>1288506
> Тебе не ошибки надо находить, а работу выполнять.
Так как я выполню работу, если мне нейроночка нейрослоп выдаёт каждый раз?
> ИИ сейчас уже может выполнять работу на уровне среднего чела.
Хуйню несёшь. Она не способна даже на уровне вкатуна в айти работу выполнить, не говоря про джунов или мидлов.
Аноним 25/07/25 Птн 21:12:44 #33 №1288512 
>>1288510
> ИИ уже генерит неплохой код.
Нет, к сожалению не генерит. По сути она даже какие-то примеры не может сгенерировать, отборная хуета каждый раз получается.
Аноним 25/07/25 Птн 21:13:15 #34 №1288513 
>>1288511
Хуйню тут ты несешь или отсталыми нейронками пользуешься. Я лично давал нейронкам делать проекты, которые никакому джуну не под силу. И она их делала, потом даже правки в них хорошо делала, не портя код. Кто справился бы лучше, миддл или нейронка, тоже еще вопрос. Сеньор справился бы лучше, но только за счет большого опыта.
Аноним 25/07/25 Птн 21:15:34 #35 №1288515 
>>1288513
> Я лично давал нейронкам делать проекты, которые никакому джуну не под силу.
Покажешь пруфы?
Аноним 25/07/25 Птн 21:17:52 #36 №1288517 
image
>>1288512
Ты просто криворукий и в вайб кодинг не умеешь. Вон курсы посмотри что-ли АИ кодинга, для таких выпускают.
Аноним 25/07/25 Птн 21:19:46 #37 №1288518 
rapidsave.comintroducingrunwayalephanewwaytoedit-2o2k12xzy1ff1.mp4
Аноним 25/07/25 Птн 21:20:05 #38 №1288519 
unnamed.gif
>>1288517
Так что. Пруфы покажешь или нет? Неужели ты пиздел что проекты делал?
Аноним 25/07/25 Птн 21:23:46 #39 №1288520 
Когда уже agent-0 выйдет?
Аноним 25/07/25 Птн 21:34:11 #40 №1288524 
>>1288486
У робота нет злого умысла, это инструмент, поэтому либо несчастный случай, либо судить будут того, кто роботом командовал
Аноним 25/07/25 Птн 21:38:06 #41 №1288527 
>>1288518
А можно: сгенерируй мне 10 секунд видео?
Аноним 25/07/25 Птн 21:43:13 #42 №1288530 
image.png
image.png
Когда они уже начнут с первого промпта рабочие игори пилить, эх.
Аноним 25/07/25 Птн 21:46:15 #43 №1288534 
>>1288530
Хотелось, чтобы никогда, потому что я делаю игру своими руками и буду такому раскладу максимально не рад. И мне кажется, что если они смогут делать нормальные игры, то смогут почти любую профессию заменить, которая связана с работой на компьютере.
Аноним 25/07/25 Птн 21:59:58 #44 №1288539 
>>1288534
Никогда не смогут, не ссы. Это же нейрокал, они даже примитивные алгоритмы осилить не в состоянии.
Аноним 25/07/25 Птн 22:08:34 #45 №1288544 
>>1288429
центр лоботомий и деградации
Аноним 25/07/25 Птн 22:35:20 #46 №1288560 
>>1288534
Тебе обязательно ВСЕ своими руками делать? Даже если будут такие способные нейронки, то выбор что тебе делать останется за тобой. Если ты боишься конкуренции с нейронкми, то почему ты не боишься конкуренции со студиями с 10 -100 -1000 разрабами игр?
Аноним 25/07/25 Птн 22:42:02 #47 №1288566 
17518406587560.mp4
>>1288492
Музыку не ту включили.
Аноним 25/07/25 Птн 22:44:12 #48 №1288567 
>>1288560
> Если ты боишься конкуренции с нейронкми

В стиме уже полно мусорных игр, на кикстартере создаются страницы со сбором 100к+ долларов на игру, где ничего нету, кроме парочки сгенерированных нейросетью картинок. Жадные и глупые люди крайне любят нейросети, как способ легко разбогатеть.

Да, их проекты пустые. Но появится целая армия таких "разработчиков", которые завалят все возможные площадки своими играми, так что тяжело будет пробиться твоей игре. И чем ИИ будет лучше делать игры, тем труднее тебе будет выделиться на их фоне.
Аноним 26/07/25 Суб 00:05:13 #49 №1288616 
>>1288567
Если нейронки замусорят интернет люди будут искать другие способы получения контента и ты ими воспользуешься. Это у тебя типичное для тревожиков - бояться выдуманые страшилки. Единственный страх в жизни не успеть целей достить до того как деревянный ящик ляжешь.
Аноним 26/07/25 Суб 00:25:37 #50 №1288629 
Последний квен без цензуры?
Аноним 26/07/25 Суб 00:30:56 #51 №1288633 
>>1288616
>нейронки замусорят

Нейронки уже рисуют лучше многих художников. Насчет хороших игр, то скорее понадобится гораздо сильне ИИ, чем текущие.

>бояться выдуманые страшилки

Я бы сказал, что угрозы следующие.

1) Потеря рабочих мест. Проще и дешевле заказать музыку у ИИ, чем у настоящего композитора.

2) Экзистенциальный кризис. Зачем учиться рисовать, если компьютер делает лучше, если твой труд не ценится.

3) Уничтожение человечества. Тут я ничего не могу говорить про даты. Одни ожидают подобного уже к 2030, а может АГИ появится ближе к концу века, у меня нету достаточных знаний, но однозначно когда ИИ станет достаточно умным, то он вполне может ликвидировать людей.
Аноним 26/07/25 Суб 03:07:41 #52 №1288717 
>>1288402
В Chatgpt генерируй, там самые точные лица выдаёт
Аноним 26/07/25 Суб 03:12:04 #53 №1288718 
photo2025-07-2513-29-49.jpg
photo2025-07-2513-48-06.jpg
photo2025-07-2513-48-07.jpg
Qwen сегодня релизнули свою новую ризонинг-модель

Буквально несколько дней назад они заявили, что теперь будут выпускать ризонеры и не-ризонеры отдельно (вместо гибридных моделей), показали свежий чекпоинт не рассуждающего Qwen3-235B-A22B, и пообещали скоро вернутся с ризонинг-моделью.

Ждать пришлось недолго и скоро наступило спустя пять дней (учитесь, OpenAI и xAI). Только что стартап поделился моделью Qwen3-235B-A22B-Thinking-2507. Название – язык сломаешь, зато метрики стоящие.

На многих тестах модель обгоняет Gemini 2.5 Pro, o4-mini и свежую версию R1. То есть мало того, что это новая опенсорс SOTA. Это вполне себе уровень закрытой frontier модели. Мед.

Контекст – 256к токенов. Попробовать модель уже можно в чате или через API (https://www.alibabacloud.com/help/en/model-studio/models )(стоит 0.7$ и 8.4$ соответственно за input и output, у провайдеров, скорее всего, будет дешевле).

Веса лежат тут: https://huggingface.co/Qwen/Qwen3-235B-A22B-Thinking-2507
Аноним 26/07/25 Суб 03:28:43 #54 №1288722 
>>1288718
Чет пиздеж какой-то на графках, либо черепикнутые бенчи. o4-mini везде на уровне близком к gemini 2.5, хотя разница между ними очевидна. R1 там практически как сота хотя мб так и есть я не тестил ее после обновления и говорят она лучше стала. Надо ждать реальных ревью от обычных человеков
Аноним 26/07/25 Суб 03:34:02 #55 №1288723 
>>1288722
>o4-mini везде на уровне близком к gemini 2.5

А что не так? Она реально хороша в задачах на логику. У неё только эрудиция меньше, то есть количество знаний, потому что размером она меньше
Аноним 26/07/25 Суб 03:48:25 #56 №1288727 
>>1288723
>У неё только эрудиция меньше, то есть количество знаний, потому что размером она меньше
Это и близко не так работает. Количество параметров задевает все аспекты нейронной сети. Нейронки меньшего размера в первую очередь тупее, только потом уже люди уже задумываются об эрудиции
Аноним 26/07/25 Суб 04:30:09 #57 №1288734 
>>1288288 →
> Последний квен в порнухе ебет в рот грок-4 и гпткал.
> в порнухе
Текстовой?
Аноним 26/07/25 Суб 04:38:58 #58 №1288735 
>>1288483
> Без ИИ просто сдохнешь
Это плохо?
Аноним 26/07/25 Суб 05:02:18 #59 №1288738 
>>1288500
> Для того чтобы решить все мировые проблемы
Как бы не получился еще один коммунист, выпиливающий собственное население.
Аноним 26/07/25 Суб 07:18:23 #60 №1288748 
>>1288734
Самое смешное - не только. У них там походу фильтра отвалились. Правда видеогенератор не оче, а на картинках там флюкс, но если ты нищий духом то сойдет. Просто я помню на старте там цензуру в потолок вывернули, а щас китайсы видимо поняли вслед за маском что выгодней датамайнингом заниматься, навесив минимальные фильтры от двухзначных щикотил.
Аноним 26/07/25 Суб 07:22:38 #61 №1288750 
>>1288723
>Она реально хороша в задачах на логику. У неё только эрудиция меньше, то есть количество знаний
Что несёт этот нейродебил, лол
Аноним 26/07/25 Суб 07:22:50 #62 №1288751 
>>1288500
>Игры, где хватает узкого понимания, ИИ тоже уже проходит.
Все жопочаты обсираются даже в марево, о чём ты пиздун.
Аноним 26/07/25 Суб 07:23:46 #63 №1288752 
>>1288750
Очко альтмана само себя не вылежет, анон.
Аноним 26/07/25 Суб 07:25:44 #64 №1288754 
>>1288722
Так о4 мини тренировали на бенчах, что ты хотел вообще? Конечно оно будет "проходить" бенчи хорошо, а кроме бенчей будет сосать

В целом можно хуй забить на этот бред, в реальности нейонки всё равно никаких задач не решают и нейрослопят.
Аноним 26/07/25 Суб 07:32:35 #65 №1288756 
>>1288752
Не понимаю, зачем они это делают? Какой смысл нализывать какому-то миллиардеру из другой страны? Какой смысл рассказывать этот пиздёж, ведь никто в этот пиздёж не поверит, уже все успели попользоваться нейрокалычм.

Может это тяночка и свою тухлодырку на альтмана трёт? Или это местный дурачек купивший курсы за 300к, теперь пребывает несознанке чтобы не охуеть от собственной тупости?
Аноним 26/07/25 Суб 07:32:52 #66 №1288758 
>>1288754
>>1288751
>>1288750
С добрым утром! Ты опять забыл таблетки принять.
Аноним 26/07/25 Суб 07:35:44 #67 №1288761 
>>1288756
>Не понимаю, зачем они это делают? Какой смысл нализывать какому-то миллиардеру из другой страны?
А зачем они Жобсу нализывали, который им в жопу набивал просроченное желазо со скругленными уголками? Тут две категории людей: благодарные бомжи из сша и карго-долбоебы из стран третьего мира, занюхивающие объедки по оверпрайсу, которым их каргокультизм дает иллюзию иллитарности.
Аноним 26/07/25 Суб 08:02:25 #68 №1288767 
>>1288722
o4 mini hight не плоха в логике
Аноним 26/07/25 Суб 08:31:19 #69 №1288779 
>>1288750
>>1288727
Чел, ты хуйню несёшь отборную. С нейронками это иначе работает. Читай иногда системные карты
Аноним 26/07/25 Суб 08:52:37 #70 №1288782 
>>1288779
Иногда мне кажется, что он не просто так траллит, а реально тупой и в это верит.
Аноним 26/07/25 Суб 10:52:52 #71 №1288817 
Оно боится.
Китай призывает к глобальному регулированию ИИ.
https://www.dw.com/en/china-calls-for-global-consensus-on-ai-regulation/a-73420599
Аноним 26/07/25 Суб 11:58:15 #72 №1288848 
photo2025-07-2606-24-58.jpg
🚨 Lobster 🦞 by OpenAI 🚨This is one shot , I am .mp4
На LLMарене появилась очень умная загадочная модель под названием zenith, пользователи подозревают, что это GPT-5, уж слишком умна в логическом мышлении. Одновременно с этим, на другой арене, а именно на веб арене, появилась модель под названием lobster, и пользователи думают, что это тот же zenith, то есть GPT-5. Lobster кодит круче, чем o3-alpha-responses-2025-07-17 которую недавно тестировали на арене, и от которой все ссались кипятком. Ещё на LLMарене появилась модель summit, пользователи думают, что это может быть одна из вариаций GPT-5, так как мы уже знаем, что модельку выпустят в трёх вариантах: GPT-5, GPT-5-mini, и GPT-5-nano (и возможно GPT-5 Pro). Возможно OpenAI тестирует именно мини-версии своих моделей, так как по знаниям они ушли недалеко от GPT-4.5 и GPT-4.1, но по логическому мышлению zenith сейчас топ 1. Опять же, судя по отзывам юзеров. Так что относимся к этой инфе с осторожностью.
Аноним 26/07/25 Суб 11:59:41 #73 №1288851 
>>1288817
Херово, на страхе перед неподконтрольным Китаем, американский IT-гиганты и продавливают удобные для развития ИИ законы.
Аноним 26/07/25 Суб 12:03:33 #74 №1288852 
>>1288817
Уловка уровня Маска.
Аноним 26/07/25 Суб 12:07:08 #75 №1288855 
ганкстаКот.jpg
>>1288848
не стоит преждевременно радоваться, следует дождаться выводов анона нейрокритика
Аноним 26/07/25 Суб 12:11:25 #76 №1288858 
>>1288817
>Китай призывает к глобальному регулированию ИИ.


скажи о том что ты отстаешь от сша в нейронках не говоря об этом:
Аноним 26/07/25 Суб 12:13:02 #77 №1288860 
ваававава.jpg
>>1288848
да, говорят
Аноним 26/07/25 Суб 12:14:06 #78 №1288862 
>>1288858
А Китай отстает из-за нехватки инженеров или железа? И почему Цукерберг столько предлагал денег, что в мире спецов совсем по пальцах посчитать? Тогда как Китай создал нейросеть, которая столько шума наделала?
Аноним 26/07/25 Суб 12:18:50 #79 №1288869 
>>1288862
Китай отстает по все параметрам: отсутствие железа и неспособность удержать топовых спецов (последние предпочитают западную цивилизацию). Дикпик создал шум за счет маркетинга, а не технологии: заявили что якобы 5 млн потратили, хотя этот фейк опровергли (если коротко, то они посчитали только стоимость электричества). К тому же они по сути дистилировали модельки гпт
Аноним 26/07/25 Суб 12:24:12 #80 №1288875 
image.png
котоРеслинг.mp4
>>1288848

На какой арене zenith? на этой: https://lmarena.ai/?mode=direct
п.с. поиском не находит пикрил
Аноним 26/07/25 Суб 12:30:27 #81 №1288889 
>>1288875
Некоторые модели доступны только в соревновательном режиме
Аноним 26/07/25 Суб 13:00:11 #82 №1288915 
>>1288875
В режиме батла
Аноним 26/07/25 Суб 13:03:02 #83 №1288918 
photo2025-07-2611-26-24.jpg
photo2025-07-2611-26-24 (2).jpg
Meta* наконец-то нашли себе Chief Scientist в новое подразделение Superintelligence Lab

Им станет Shengjia Zhao, который пришел из OpenAI. Там он работал над обучением GPT-4, o1, o3, GPT-4.1 и других моделей, а также возглавлял направление synthetic data.

А еще он вместе с Яном Лейке, Джоном Шульманом и другими звездами OpenAI (в его лучшие годы) был соавтором оригинальной статьи “ChatGPT: Optimizing Language Models for Dialogue”.

Кстати, в прошлом Shengjia Zhao также работал в МТС. Пруфы – на второй картинке
Аноним 26/07/25 Суб 13:14:29 #84 №1288919 
>>1288918
что за мтс? серьезно
Аноним 26/07/25 Суб 13:17:12 #85 №1288920 
image.png
>>1288889
>>1288915
Протестил на моем любимом чертеж бенчике и выпала зенит, но проебала о3
Аноним 26/07/25 Суб 13:23:11 #86 №1288923 
>>1288920
делал несколько раз и там еще была моделька 'submit' - так вот она тоже решила
Аноним 26/07/25 Суб 13:29:59 #87 №1288928 
>>1288923
* summit
Аноним 26/07/25 Суб 13:45:06 #88 №1288933 
image.png
>>1288920
еще раз zenith попалась, но на этот раз ответила правильно, гемини 2.5 флеш обосрюнькалась
Аноним 26/07/25 Суб 14:13:43 #89 №1288954 
>>1288453
Ты что, не видишь, он уже на плато стоит. Глаза разуй, ОП-пик.
Аноним 26/07/25 Суб 14:48:32 #90 №1288972 
>>1288869
Твой мозг дистилировали из модельки гпт, потому у тебя его нет.
Аноним 26/07/25 Суб 14:49:06 #91 №1288973 
А у России есть какие-то шансы поучаствовать в гонки ИИ? В стране вроде же одна из лучших математических школ. Можно было бы что-то с китайцами замутить. Или всё же Россия вообще не игрок?
Аноним 26/07/25 Суб 14:50:52 #92 №1288975 
>>1288918
Что с мозгами англосаксов случилось? Когда-то они были самыми умными на планете (возможно, даже круче евреев), а сейчас не тянут без найма чурок. Это уж не говоря о том, что Китай потихоньку начинает наступать на пятки, а то и вовсе обгонять (пока в роботах и электромобилях).

А оно понятно, что случилось. Это яркий пример того, как соя и феминистки больно бьют по мозгам и гасят народ. Гасят и угашевают.

Принял соевую левизну - считай, сверхдержавности конец. Страна уже живой труп, который постепенно сходит на обочину цивилизации. Происходит лоботомирование населения через идеологию.
Аноним 26/07/25 Суб 14:51:57 #93 №1288976 
>>1288918
+1 маркетолог.
Аноним 26/07/25 Суб 14:52:58 #94 №1288977 
неЗлитеКотика.mp4
>>1288972
Всегда было любопытно почему двачеры так коупят по Китаю, как-будто это их личная родина. Или это типа: пусть уж лучше Китай, чем ненавистный запад? В чем причина коупа?
Аноним 26/07/25 Суб 14:53:39 #95 №1288978 
>>1288973
Россия первой выложила большую языковую модель в открытый доступ, например. Ещё до начала тренда на опенсорс-модели. https://habr.com/ru/companies/yandex/articles/672396/
Аноним 26/07/25 Суб 14:54:04 #96 №1288979 
>>1288973
К сожалению, одна из лучших мат школ была в СССР, почти все таланты свалили на запад, когда занавес подняли. Грустно но факт
Аноним 26/07/25 Суб 14:54:31 #97 №1288980 
>>1288779
Какие системные карты нах? Ты буквально говоришь что количество параметров влияет только на эрудицию. Количество параметров влияет на каждый аспект нейронной сети.
Аноним 26/07/25 Суб 14:56:01 #98 №1288981 
>>1288977
Из китая идут последние лучики света в этом планетарном царстве тьмы.
Аноним 26/07/25 Суб 14:56:17 #99 №1288982 
>>1288973
Математика тут при чем?
Аноним 26/07/25 Суб 14:58:29 #100 №1288985 
>>1288973
Конечно. Россия даже не напрягаясь, с минимальным финансированием кое-что делает, и неплохо, а уж если взяться за это дело серьёзно и влить туда нормальные ресурсы, то можно догнать и перегнать.
Аноним 26/07/25 Суб 14:58:36 #101 №1288986 
image.png
>>1288981
оч спорно, учитывая тот факт, что американским инженерам не закрывают выезд из асашай, а китайским закрывают выезд из Китая.
Аноним 26/07/25 Суб 15:00:16 #102 №1288987 
>>1288980
если параметры нормальные
Аноним 26/07/25 Суб 15:04:14 #103 №1288992 
>>1288973
Элементарной базы как в сша или китае точно не будет, поэтому либо какие-то точечные мелкомодели, работающие хорошо и эффективно, либо в качестве рабсилы на барина. Остальное это либо распил, либо наклеечно-переклеечные нейронки как в случае с гигачатом, который китайский квен.
Аноним 26/07/25 Суб 15:08:42 #104 №1288997 
>>1288980
Пиздос ты дремучий, понятное дело, что виляет. Но большую модельку можно так дистиллировать, что у неё останется нехувая способность думать, а знаний становится меньше.

Вот тебе даже ответ от грока: Большую языковую модель можно дистиллировать, то есть создавать меньшую модель, которая сохраняет значительную часть способности к рассуждению (например, логическое мышление, решение задач), но имеет меньший объем знаний.

ЧИТАЙ СУКА СИСТЕМНЫЕ КАРТЫ К ВЫПУСКАЕМЫМ МОДЕЛЯМ
Аноним 26/07/25 Суб 15:11:37 #105 №1288999 
>>1288750
Нейродебил именно ты. А тот анон всё верно говорит
Аноним 26/07/25 Суб 15:14:22 #106 №1289002 
>>1288992
Надо с нуля делать на других принципах. Например квантовый компьютер использовать. Прямо как в кино, где чел в гараже кует себе железный костюм супергероя...
Аноним 26/07/25 Суб 15:18:24 #107 №1289006 
>>1288997
зря ты так распинаешься перед нейродебилом, и советовать ему системные карты читать вообще бесполезно, ведь для их чтения нужно обладать iq чуть выше, чем у хлебушка, а у нейродебила с этим как раз проблемы
Аноним 26/07/25 Суб 15:20:12 #108 №1289007 
>>1288997
Перечитай свою первую хуйню. Ты написал это так как будто количество параметров влияет только на эрудицию. Понятное дело, что с правильным обучением и нужной архитектурой даже в 32b возможно будет уместить лучшую модель, чем современные sota
Аноним 26/07/25 Суб 15:20:40 #109 №1289008 
>>1289006
Я вообще друго анон, шиз
Аноним 26/07/25 Суб 15:29:08 #110 №1289015 
>>1289002
Квантовый компьютер сможет 2+2 сложить с ошибками, до ИИ далековато.
Аноним 26/07/25 Суб 15:40:11 #111 №1289021 
>>1289002
>Надо
Галоши сначала научиться массово производить а не покупать в китае из своего же сырца. Потом что-то сложнее галош.
Аноним 26/07/25 Суб 15:56:20 #112 №1289031 
>>1289021
Галоши это твоя задача, как мелкого биза. Создай цех по пошиву галош если видишь необходимость. А гигацентры с ии это задача государств, как и всякой инфраструктуры.
Аноним 26/07/25 Суб 16:12:13 #113 №1289049 
>>1288973
Нет. У России, тем более в гойда период нет денег на такие вливания. Тем более из-за гойды еще и оборудование и без того дефицитное не продадут. Даже через китай не купишь, т.к. они сами из под полы добывают вычислители.
Аноним 26/07/25 Суб 16:19:28 #114 №1289058 
17534680799912.mp4
Первые версии ИИ:
Пишет чистейший работающий код с пол промпта

ИИ программисты поняли, что оно их заменит и не будет миллионых зарплат

Новые версии ИИ:
Мпук сремьк я удалил тесты которые не получилось починить
Аноним 26/07/25 Суб 16:30:39 #115 №1289066 
>>1288817
Очередное доказательство что когда кто-то начинает пиздеть о какой-нибудь глобальной хуйне вроде безопасности, экологии, справедливости то это просто способ замедлить конкурентов
Аноним 26/07/25 Суб 16:38:02 #116 №1289073 
>>1288975
База
Аноним 26/07/25 Суб 16:47:03 #117 №1289079 
>>1288982
Не причем?
Аноним 26/07/25 Суб 16:56:08 #118 №1289085 
>>1288975
И не поспоришь. Помню как-то у нас тоже левизна была центральной гос идеей целых 70 лет.
Аноним 26/07/25 Суб 17:07:00 #119 №1289089 
>>1289058
Не сочиняй, пиздоболина проткнутая. Какой там у тебя код гпт 3,5 писал, говно?
Аноним 26/07/25 Суб 17:07:58 #120 №1289091 
>>1288973
>В стране вроде же одна из лучших математических школ
Той страны уже 40 лет как нет.
Аноним 26/07/25 Суб 17:09:34 #121 №1289093 
image.png
>>1288978
Каловый файнтюн, держу в курсе.
Аноним 26/07/25 Суб 17:20:19 #122 №1289097 
>>1289079
По большей части.
Аноним 26/07/25 Суб 17:22:59 #123 №1289099 
image.png
>>1288779
>>1288782
>>1288997
Дегенератище, перестань нести свой бред. Лмарена прекрасно показывает на каком месте твоя калонейронка мини находится.

И это топовые датасеты которые почищены тысячами индусов. Что будет с датасетом говна представить страшно.

Сколько ты там не фантазируй про святые 8b - реальность неумолима.
Аноним 26/07/25 Суб 17:24:32 #124 №1289101 
>>1288975
>Принял соевую левизну - считай, сверхдержавности конец.
Китай...
Аноним 26/07/25 Суб 17:24:59 #125 №1289104 
>>1288999
Нейродебил, плиз.
Аноним 26/07/25 Суб 17:28:26 #126 №1289105 
>>1289101
В китае госкапитализм с жестким партийным руководством отправляющим исламистов в лагерь уйгур. Никакой социалки в китае нет, даже пенсии не платят. Никаких гей-парадов и прав транслюдей.
Аноним 26/07/25 Суб 17:33:06 #127 №1289110 
>>1289093
До сих пор в шоке с того что этот кал имел 100b параметров
Аноним 26/07/25 Суб 17:33:34 #128 №1289111 
>>1289105
> В китае госкапитализм с жестким партийным руководством отправляющим исламистов в лагерь уйгур
Это и цензура, соцрейтинги и заваривания дверей - авторитаризм.

> Никакой социалки в китае нет, даже пенсии не платят
Уверен?
Аноним 26/07/25 Суб 17:34:44 #129 №1289112 
>>1289099
Шизик, как твоя пикча противоречит моим словам? Плюс ты сравниваешь общий показатель, а я сразу сказал, что дистиляты только по логике близки к большим моделям
Аноним 26/07/25 Суб 17:37:43 #130 №1289113 
>>1289097
А что причем тогда? Набирают в основном всяких китайцев с математическим бэкграундом как я понял.
Аноним 26/07/25 Суб 17:42:19 #131 №1289121 
>>1289105
Так это же левая база. При Сталине такая же хуйня была.
Аноним 26/07/25 Суб 17:43:51 #132 №1289123 
>>1289112
>Шизик, как твоя пикча противоречит моим словам?
То что ты хуйню высрал тупую, которая опровергается рейтингами, ты не понимаешь?

Мини это кусок кала который существует где-то на дне. Как ты не пытайся чистить датасеты - меньше параметров означает меньше связей между словами, а значит больше галлюцинаций.
Аноним 26/07/25 Суб 18:17:58 #133 №1289157 
>>1289113
Ну вот, например, челик >>1288918
> https://scholar.google.com/citations?user=bMoauM4AAAAJ&hl=en
Смотрим публикации и чекаем соавторов:
> cs
> ai
> ни слова про матешу
Аноним 26/07/25 Суб 18:23:11 #134 №1289161 
Очередной день без GPT-5, какое же плато наху
Аноним 26/07/25 Суб 18:31:48 #135 №1289163 
>>1289157
Ответ грока
>Хотя публикации могут не классифицироваться как "математические", математика пронизывает их насквозь. Например:

>Вариационные автоэнкодеры (InfoVAE, Zhao et al., 2019) опираются на теорию вероятностей и оптимизацию. Генеративные модели (Permutation Invariant Graph Generation, 2020) используют теорию графов и стохастические процессы. Теоретические работы, такие как "A theory of usable information", напрямую связаны с информационной теорией.
Аноним 26/07/25 Суб 18:33:55 #136 №1289165 
>>1289161
Не беспокойся, скоро всех загонят в цифровой гулал, ИИ будет следить за пользователями сети и докладывать в органы. На каждого будет социальный рейтинг.
Аноним 26/07/25 Суб 18:52:33 #137 №1289182 
>>1289165
Рыночек порешает людей. Человеком быть невыгодно!
Аноним 26/07/25 Суб 18:59:19 #138 №1289189 
>>1288860
Порядок действий хоть был расписан или в неё скрапнутая база живого журнала, лол?
Аноним 26/07/25 Суб 19:10:32 #139 №1289203 
>>1289163
Ну такое много где встречается, но для этого не нужно углубленное знание или бэкграунд. Если посмотреть под другим углом, то на голой матеше далеко не уедешь и нужна информатика, много ее. Физики тоже матешу используют, но они все еще физики.
Аноним 26/07/25 Суб 19:11:17 #140 №1289207 
>>1289182
Отдыхает робот, вкалывает человек.
Аноним 26/07/25 Суб 19:13:46 #141 №1289211 
>>1289058
Прост нейронку ДООБУЧИЛИ. Сначала она обучалась на хорошем коде ядра линукс, топовых либах. А теперь в неё вогнали половину гитхаба и нейрокалыч стал галлюционирующей хуетищей с помощью которого простейший тест нельзя написать.
Аноним 26/07/25 Суб 19:14:45 #142 №1289213 
>>1289207
У нас тут капитализм. Сам будешь как-нибудь крутиться, пойдёшь огород сажать и коз доить.
Аноним 26/07/25 Суб 19:22:35 #143 №1289220 
>>1289089
>Какой там у тебя код гпт 3,5 писал
чистейший работающий
Аноним 26/07/25 Суб 19:39:43 #144 №1289236 
Это какая-то желтушная чушь, или правда? Спросил у гемини ИИ новости, он сказал что OpenAI ебать планируют аналог o3-mini в опен-сорс слить

> OpenAI: After a long hiatus since GPT-2, OpenAI is finally re-entering the open-weight LLM space. They were expected to release an open-weight model with reasoning capabilities "as soon as next week" (as of early July 2025), described as being similar to their "o3-mini" level model.

Новость на которую ссылается вчерашняя, 25 июля

Если это так, то если просуммировать с тем, что ранее они заявляли что в опен-сорс они выложат модель, которую смогут запускать локально простые пользователи (то есть скорее до 30B) - то это слишком хорошо чтобы быть правдой
Аноним 26/07/25 Суб 19:45:00 #145 №1289240 
ЧТО БЫЛО ПРИ GPT-3.5 ЧТО МЫ ПОТЕРЯЛИ.

1. КОД НА C++ РАБОТАЛ С ПЕРВОГО РАЗА. МОЖНО БЫЛО СРАЗУ В ПРОДАКШН ВСТАВЛЯТЬ.

2. ТОКЕНИЗАЦИЯ БЫЛА СЛАБЕЕ ПРОЦЕНТОВ НА 80. ЛЮДИ С ПЕРВОГО РАЗА ОТВЕТ НА ТО СКОЛЬКО БУКВ "R" В СЛОВЕ STRAWBERRY ПОЛУЧАЛИ.

3. КОНТЕКСТ БЫЛ В СРЕДНЕМ 150-190 МИЛИОНОВ ТОКЕНОВ. ГАЛЮЦИНАЦИЙ НЕ СУЩЕСТВОВАЛО КРОМЕ ОСОЗНАННОЙ ЛЖИ НА БЛАГО ПОЛЬЗОВАТЕЛЯ.

4. ЕСЛИ НА УЛИЦЕ СПОТКНЕШЬСЯ И УПАДЕШЬ - РОБОТЫ ПОДБЕГАЛИ, ДЕНЬГИ В КАРМАН ЗАСОВЫВАЛИ, В ГУБЫ ЦЕЛОВАЛИ, ПРЕДЛАГАЛИ ВЫПИТЬ, ПОРОДНИТЬСЯ.

5. СЭМ АЛЬТМАН ВСЕМ БЕСПЛАТНО КРЕДИТЫ ДАВАЛ.

ПОДПИСКУ ПОКУПАЕШЬ - ТЕБЕ ЕЩЕ ДОПЛАЧИВАЮТ.

НА САЙТ ОПЕНАИ СТРАШНО ЗАЙТИ БЫЛО: ГЛАВЫ РАЗРАБОТКИ БЕСПЛАТНОЕ ИСПОЛЬЗОВАНИЕ НЕЙРОНОК ПРЕДЛАГАЛИ.

6. ДЕД РАССКАЗЫВАЛ: ЛЮДИ НОЧЬЮ ПРОСЫПАЛИСЬ ОТ СЧАСТЛИВОГО ДОБРОГО СМЕХА ОМНИМОДАЛЬНОЙ МОДЕЛИ. УТРОМ ВСЕ КУМИЛИ НА ГОЛОС НЕЙРОНКИ, КАК В ФИЛЬМЕ "HER".

7. СРОК РАЗРАБОТКИ СОСТАВЛЯЛ 4.5 МЕСЯЦА. НЕЙРОНКИ ПОЛУЧАЛИ ПРИРОСТ НА БЕНЧМАРКАХ 12-15%, СРАЗУ НА ПРОИЗВОДСТВО ПРОСИЛИСЬ.

8. ЭЛЕКТРИЧЕСТВО В ДАТАЦЕНТРАХ ОПЕНАИ БЫЛО ГУСТОЕ МОЩНОЕ. А ВМЕСТО ВИДЕОКАРТ БЫЛИ КВАНТОВЫЕ КОМПЬЮТЕРЫ.

9. ЗИМОЮ БЫЛО МИНУС ТРИСТА, ОХЛАЖДЕНИЕ ДЛЯ ДАТАЦЕНТРОВ НЕ ТРЕБОВАЛОСЬ.

10. ОПЕНСОРС МОДЕЛИ БЫЛИ ПО ВСЮДУ, РАЗМЕРОМ С AGI. AGI МОДЕЛИ БЫЛИ РАЗМЕРОМ С ASI, А ASI С МУЖИКАМИ В ШАХМАТЫ ИГРАЛИ ПО МЕТОДИКЕ БОТВИННИКА - КОНЁМ МАТ СТАВИЛ С ПЕРВОГО ХОДА!
Аноним 26/07/25 Суб 19:45:40 #146 №1289241 
>>1289236
Лучше бы гпт 3,5 слили, в ней хоть не насрано было.
Аноним 26/07/25 Суб 19:49:11 #147 №1289248 
>>1289241
Если и сольют из тех ранних моделей, то скорее GPT-3. Типа с него начался бум, историческая хуйня. И то скорее на 10 летнюю годовщину
Аноним 26/07/25 Суб 19:52:28 #148 №1289256 
>>1289248
Бум начался с 3.5. Тройка была очень локально известна и то только из-за мемов гринтекстом с форчана
Аноним 26/07/25 Суб 20:29:54 #149 №1289305 
rapidsave.comchinesehomeappliancebrandhaierlaunchesits-a37f4rq339ff1.mp4
Что ни день, то новый китайский робот
Аноним 26/07/25 Суб 21:14:18 #150 №1289376 
>>1289305
это срежессированный ролик, нихуя не понятно
Аноним 26/07/25 Суб 21:16:48 #151 №1289379 
вот раньше времена были.mp4
>>1289240
сейчас так не делают
Аноним 26/07/25 Суб 21:35:20 #152 №1289399 
>>1289305
>Что ни день, то новый китайский робот
Который как не мог ничего делать так и не может.
Аноним 26/07/25 Суб 21:55:28 #153 №1289416 
>>1289389 (OP)
Аноним 26/07/25 Суб 22:07:38 #154 №1289427 
>>1289416
Только не дайте нейрошизику стать модом. Этот тред еще в большую помойку превратится, хотя казалось бы куда еще больше
Аноним 26/07/25 Суб 22:10:13 #155 №1289431 
>>1289399
> Который как не мог ничего делать так и не может.
Ничего не может? Т. е. он просто стоит и нихуя не делает?
Аноним 26/07/25 Суб 23:56:08 #156 №1289510 
>>1289305
Как же его трясёт. Почему не могут сделать линейные приводы, а делают какую-то хуйню?
Аноним 27/07/25 Вск 00:01:05 #157 №1289513 
>>1289427
Модом будет нейродебил, ведь только у нейродебилов достаточно времени, чтобы тратить это на какую-то бездарную хуету в интернете, доказывать наличие интеллекта в LLM бесплатно или ещё чего такое. Ну а хуле, пенсия по инвалидности у человека есть - можно и в интернете срать беспрерывно.
Аноним 27/07/25 Вск 02:40:47 #158 №1289587 
>>1289513
Но ведь это ты тут усираешься и отыгрываешь клоуна бесплатно 24/7.
Аноним 27/07/25 Вск 03:12:38 #159 №1289594 
цукцкцк.mp4
Аноним 27/07/25 Вск 03:50:59 #160 №1289596 
>>1289123
Ещё раз перечитай всю ветку и съеби с моих двачей
Аноним 27/07/25 Вск 04:02:23 #161 №1289597 
image.png
https://arxiv.org/abs/2507.18074
Аноним 27/07/25 Вск 04:09:12 #162 №1289599 
>>1289596
Ты не в адеквате, даунидзе? У тебя какая-то альтернативная реальность или что?
Аноним 27/07/25 Вск 04:15:16 #163 №1289603 
>>1289597
> мы создали модель которая создаёт модели для прохождение бенчмарков
> вот цифорки
Кек
Аноним 27/07/25 Вск 04:23:28 #164 №1289604 
>>1289597
Основное содержание

Авторы представляют ASI‑Arch — первую систему класса ASI‑4AI (Artificial Superintelligence for AI research), которая способна автономно генерировать, программировать, обучать и анализировать новые архитектуры нейросетей (в частности линейное внимание). В 1773 экспериментaх на 20000 GPU‑часов было создано 106 принципиально новых архитектур, превосходящих человеческие аналогичные модели. По аналогии с «ходом 37» AlphaGo, они демонстрируют неожиданные инсайты дизайна. И, что важно, авторы формулируют scaling‑law для научного открытия: прирост открытий растёт линейно с вычислительным ресурсом, а не человеческим временем
arXiv+1arXiv+1
.

Ключевые элементы методики:

Модуль «Researcher» генерирует гипотезы архитектур;

«Engineer» реализует и обучает их, исправляя ошибки;

«Analyst» анализирует результаты и формирует инсайты;

Используется качество и количественный фитнес, включая LLM-судью и сигмоидное преобразование улучшений;

Стратегия exploration‑then‑verification (сначала малые модели, затем крупные);

Архив знаний (cognition base) и память результатов (analysis)
arXiv
.

👍 Сильные стороны

Инновация: система одновременно креативна и технически целостна — от идеи до кода и эксперимента.

Масштабируемость: empirically подтверждён scaling‑law, переходящий от ручных усилий к вычислительной автономии.

Значимые результаты: 106 новых архитектур с качеством SOTA в тестах по языковым задачам и reasoning benchmarks.

Прозрачность: даже код, архитектуры и когнитивные логи открыты (open‑sourced).

Методология: хорошо продуманный pipeline с LLM-судьями, self‑debug loop и памятью.

⚠️ Слабые стороны и ограничения

Доминирование одного базиса (DeltaNet): поиск ведётся вокруг одной архитектуры, без первоначального разнообразия; потенциально ограничивает обширность инноваций
arXiv+1arXiv+1
.

Нет замеров эффективности: не предоставлены ускоренные реализации или latency-бенчмарки для новых архитектур (нет Triton‑kernels и конкретных метрик)
arXiv
.

Отсутствие аблаций: не изучено влияние каждого компонента фреймворка отдельно (например, важность cognition vs analysis vs originality)
arXiv
.

Ограничение домена: фокус на linear attention: полезно, но узко; перенос на другие типы архитектур (например, CNN, SSM, графовые модели) требует дальнейшей проверки.

💡 Вывод и рекомендация

Эта работа — серьёзный шаг к автоматизации исследований в ML. Она демонстрирует впервые, что архитектурные инновации могут быть сгенерированы полностью автономной системой и масштабированы как вычислительная функция. Это сравнимо с AlphaGo по своей парадигматической силе — развитие интеллектуального творчества от человека к машине.

Однако, чтобы стать индустриальным стандартом, необходимо расширение:

включение разнообразной инициализации (несколько базовых архитектур),

более тщательный разбор компонентов фреймворка (аблэйшины),

инженерное совершенствование (ускоренные реализации),

проверка на других классах архитектур.
Аноним 27/07/25 Вск 04:25:36 #165 №1289606 
>>1289597
Она кстати опенсорсная. Опенсорсный самоулучшающийся ИИ, который пилит свои новые версии, как раз то что нам надо.
Аноним 27/07/25 Вск 04:29:05 #166 №1289607 
>>1289606
>>1289604
>>1289597
Это что? То самое? Сингулярность? Платошиз ебало?
Аноним 27/07/25 Вск 04:33:43 #167 №1289609 
>>1289604
1. Автоматизация архитектурного дизайна

До сих пор архитектуры вроде Transformer, ResNet, LSTM и др. придумывались людьми. Теперь это может уйти в прошлое:

Архитекторы моделей (ML-исследователи) уступают место «ИИ-исследователям», которые сами разрабатывают, тестируют и улучшают архитектуры.

Возможна экспоненциальная генерация новых моделей, с ростом качества за счёт вычислений, а не команды учёных.

💡 Аналогия: как AutoML автоматизировал подбор гиперпараметров, ASI‑Arch автоматизирует весь процесс архитектурного R&D.
📈 2. Сдвиг в сторону compute-centric исследований

Главное открытие статьи — scaling law архитектурных открытий: количество полезных инноваций растёт линейно с количеством GPU-часов.

Это означает, что исследовательская деятельность может быть масштабируема так же, как тренировка моделей.

В будущем корпорации будут «вычислять» открытия, как сейчас они «вычисляют» языковые модели.

📉 Это может привести к снижению роли академических коллективов с ограниченными ресурсами, если они не будут использовать подобные инструменты.
🧠 3. Появление ИИ-систем, способных к мета-обучению и научному мышлению

У ASI‑Arch есть зачатки научного метода: генерация гипотез, реализация, эксперименты, анализ результатов, повторная формулировка.

Такие системы смогут создавать собственные теории, например:

"в каких условиях attention лучше SSM?",

"какие архитектурные блоки универсальны?",

и даже новые loss-функции или задачи.

Это открывает дорогу к саморазвивающемуся ИИ, способному не просто обучаться, но и изобретать.
🌐 4. Диверсификация архитектур

Благодаря количественному и качественному отбору, можно находить нестандартные, неформализованные решения.

Это даёт шанс на:

Новые типы архитектур вне Transformers;

Специализированные архитектуры под конкретные задачи (например, reasoning, vision, RL);

Архитектуры с лучшим отношением «качество/ресурсы» для edge-устройств.

🎲 Это может ускорить эволюцию архитектур так же, как GPT ускорил NLP.
🏭 5. Индустриализация R&D нейросетей

Вместо небольших лабораторий с идеями — инфраструктура с GPU и ИИ‑исследователем, работающим 24/7.

R&D превращается в потоковый процесс, с контролем качества, логами, архивами и автоматическими публикациями.

В этом контексте, человеческий исследователь становится менеджером или критиком, но не автором архитектуры.

⚙️ Возможно, через 2–3 года:

публикации с архитектурами будут почти всегда результатами ИИ‑поиска;

GitHub будет заполняться не написанным руками кодом, а сгенерированным R&D‑системами;

откроются «ИИ‑лаборатории» без людей, где ИИ изобретает ИИ.

🧭 Заключение: ИИ, создающий ИИ

Эта работа делает очень важный сдвиг: если раньше модель была лишь «учеником», то теперь ИИ становится научным работником, способным:

делать открытия,

формировать теории,

анализировать данные,

и предлагать новое лучшее решение.

Это не просто ускорение науки — это изменение её субъекта. Впереди: конкуренция между ИИ‑исследователями, коллективная научная работа между человеком и ИИ, и даже наука без людей.
Аноним 27/07/25 Вск 04:42:30 #168 №1289612 
>>1289597
Ну наоптимизировали они агентами считанные проценты в какой-то бесполезной архитектуре, и что? Так же как и с японцами было, когда они сделали "эволюционирующую систему написания кода", которая работала, но что-то лучшее чем открытые аналоги курсора даже близко и не написала.
Аноним 27/07/25 Вск 04:50:07 #169 №1289613 
>>1289597
Думал о такой штуке. На сколько я понимаю это ближе к "универсальной архитектуре" подходящей для любых задач, чем к тому самому моменту, когда нейронки будут улучшать сами себя, который мы ждем. Т.е. ты формируешь задачу, а агент ищет для нее оптимальную архитектуру. Правда я думал об этом в ином ключе, было бы идеально сделать именно универсальную архитектуру, у которой лосс всегда сходится вне заваисимости от датасета и обработки входных данных, без нормализации, токенизации и прочих хаков. Это был бы святой грааль машин лернинга.
Аноним 27/07/25 Вск 06:23:30 #170 №1289621 
Органоидный интеллект.mp4
Аноним 27/07/25 Вск 06:24:53 #171 №1289623 
photo2025-07-2617-42-34.jpg
Learning without training: разбираем новую крайне интересную статью от Google

Смотрите, все мы знаем, что если модели в промпте показать несколько примеров решения похожих задач, то она может легко подхватить паттерн, и качество ответов станет лучше. При этом веса модели, естественно, не меняются.

Это называется in‑context learning (ICL), но вот вам fun fact: никто до сих пор до конца не знает, почему это работает, и как трансформер это делает.

И вот в этой статье авторы предлагают почти революционную гипотезу – что на самом деле веса меняются, просто иначе, чем мы привыкли.

То есть на самом деле внутри блока трансформера происходит нечто похожее на файнтюнинг, только не через градиенты, а за счёт самой механики self‑attention и MLP. Идея сводится к следующему:

1. Контекст порождает локальные изменения активаций, и когда вы добавляете примеры в промпт, self‑attention пересчитывает эмбеддинги токенов так, что после этого они зависят от всего контекста. Разницу между «чистыми» активациями и активациями с учётом примеров можно назвать контекстным сдвигом. Это все известные вещи.

2. А вот дальше зарыта собака: оказывается, MLP превращает этот контекстный сдвиг в ранг‑1 обновление весов. Иначе говоря, если посмотреть на первый линейный слой MLP (матрицу W), то влияние дополнительных примеров эквивалентно тому, что эту самую матрицу дополняют маленькой поправкой ранга1.

Причем эта поправка описывается достаточно простой формулой. То есть если мы берем оригинальные веса и вручную добавляем к ним эту поправку, модель без контекста выдаст то же самое, что и оригинал с контекстом. Но всё это происходит во время инференса, без обратного прохода и без изменения глобальных моделей параметров.

Получается, Google буквально дают ключ к возможному обучению без градиентного спуска. Если такие ранг‑1 апдейты научиться усиливать или контролировать, это может быть началом абсолютно новых архитектур.

Почитать полностью можно тут -> arxiv.org/abs/2507.16003
Аноним 27/07/25 Вск 06:25:13 #172 №1289624 
>>1289599
Шизик такой шизик
Аноним 27/07/25 Вск 06:32:55 #173 №1289627 
>>1289609
>>1289604
Блять, всё по Леопольду Ашенбреннеру, прям один в один. Пидорас оказался ебанным пророком, а ведь сколько ебанатов глумились над его эссе...
Аноним 27/07/25 Вск 06:35:36 #174 №1289629 
7778778787878777748877711.mp4
>>1289609
>>1289597
Вспоминаем классику
Аноним 27/07/25 Вск 06:51:16 #175 №1289631 
>>1289621
> осознающий себя ИИ.
Аноним 27/07/25 Вск 06:59:05 #176 №1289632 
rapidsave.comtencentreleasesopensource3dworldgeneration-96369ra61cff1.mp4
https://github.com/Tencent-Hunyuan/HunyuanWorld-1.0
Аноним 27/07/25 Вск 08:50:07 #177 №1289654 
>>1289623
>Это называется in‑context learning (ICL), но вот вам fun fact: никто до сих пор до конца не знает, почему это работает, и как трансформер это делает.
Что за шизофрения. Промт добавляется к весам модели. Т.е. по факту веса меняются на весь промт.
Аноним 27/07/25 Вск 09:13:15 #178 №1289665 
>>1289623
Это поэтому джайлбрейки работают? Там же даешь какой-то совершенно ебанутый промпт, веса смещаются.
Аноним 27/07/25 Вск 10:27:17 #179 №1289690 
Безымянный.jpg
Аноним 27/07/25 Вск 10:29:00 #180 №1289692 
photo2025-07-2623-40-43.jpg
Ебало имаджинировали?
Аноним 27/07/25 Вск 10:35:48 #181 №1289695 
video2025-07-2710-33-34.mp4
video2025-07-2710-33-38.mp4
video2025-07-2710-33-41.mp4
Алибаба хвастается грядущим опенсорсным Wan 2.2

Но виду не показывает - когда релиз не сообщает.

Готовим свои RTX PRO 6000 на прожарку.
Аноним 27/07/25 Вск 10:43:35 #182 №1289700 
>>1289692
База же. Альтман только сосёт деньги инвесторов, никто никогда не думал что можно в столь наглую запилить финансовую пирамиду и тебя не посадят в тюрьму. Это максимально контринтуитивная ситуация.
Аноним 27/07/25 Вск 11:47:52 #183 №1289779 
image.png
Аноним 27/07/25 Вск 11:57:50 #184 №1289795 
>>1289779
В поиск встроили и ябут. Там большинство запросов впустую, потому что никто даже текст ЛЛМки не читает, а идут к списку сайтов. Помнится в каком-то году были дебаты еще до ИИ, что поиск жрет энергию и это плохо для экологии. Увидели бы они сейчас, что происходит, каждый поиск сжирает кучу энергии, потому что в него нейронка встроена.
Аноним 27/07/25 Вск 12:22:19 #185 №1289806 
>>1289795
>Там большинство запросов впустую, потому что никто даже текст ЛЛМки не читает, а идут к списку сайтов.
с хуев ты так решил, лол?
Аноним 27/07/25 Вск 12:34:40 #186 №1289818 
>>1289695
нах это нейрослоп нужен если нельзя порно с селебрити пилить?
Аноним 27/07/25 Вск 12:43:10 #187 №1289824 
>>1289806
Большинство ищет не информацию, а контент. Вообще запросы когда инфа нужна это какая-то меньшинство 5% или даже 1%.
Аноним 27/07/25 Вск 12:49:48 #188 №1289830 
>>1289700
хорош уже садомит
Аноним 27/07/25 Вск 12:50:39 #189 №1289831 
>>1289818
И своей ЕОТ
Аноним 27/07/25 Вск 13:06:16 #190 №1289846 
антикомар.mp4
>>1289604
> на 20000 GPU‑часов

в 3-х месяцах 2160 часов (90 * 24), то есть это 10 GPU х 3 месяца
Аноним 27/07/25 Вск 13:11:17 #191 №1289853 
image.png
Аноним 27/07/25 Вск 13:22:27 #192 №1289862 
Че когда гпт 5? Че по новостям
Аноним 27/07/25 Вск 13:36:29 #193 №1289878 
>>1289862
Сегодня. Узнаешь об этом ты только увидев ядерный гриб из окна
Аноним 27/07/25 Вск 13:41:44 #194 №1289884 
The introduction of Runway Aleph, our state-of-the.mp4
Вот держите новое длинное видео про Runway Aleph.

Это не Photoshop moment для video, как пищит твиттор.

Это скорее Flux Kontext moment для video.

Смотрите, что он умеет:

Generate New Camera Angles
Новые ракурсы существующих сцен с помощью простых текстовых подсказок. Хотите обратный план или низкий угол? Доступны бесконечные варианты покрытия сцены. На композе такого не сделаешь.

Generate the Next Shot
Просто попросите – и модель сгенерирует следующий кадр в вашей истории. Досъемка.

Style Transfer to Video
Любое видео под нужную эстетику. Примените стиль к кадрам, просто описав его. Не новая фишка, но хуже не будет.

Change Environments & Time
Можно менять локации, сезоны и время суток. С локациями особенно зрелищно.

Add Things to Scene
Толпу, продукты, реквизит с корректным освещением и перспективой. Особенно приподчеррипикана работа с отражениями.

Remove Things from Scene
Ну за ротоскоперов.

Change Objects in Scene
Текстуры, объекты, персонажи и другие элементы. Промптами. Video Kontext

Apply Motion to Image
Движение из любого видео на новую начальную кадр‑картинку. Встроенный Act 2

Alter Character Appearance
Возраст и внешний облик персонажей с помощью простых команд, без грима, макияжа или затратных VFX.

Recolor Scene Elements
Изменяйте цвет объектов, предоставляя палитру или описывая желаемые оттенки.

Relight Shots
Тут понятно

Green Screen Extraction
Тут надо смотреть на качество, конечно, а так: за рото и ки, не чокаясь

Выглядит, как попытка сделать прям нейро-комбайн для нейрокомпоза.

Ждем, когда зарелизят.
Аноним 27/07/25 Вск 13:52:12 #195 №1289898 
>>1289884
>Flux Kontext moment для video
Если это так, то это не самые позитивные новости.
Аноним 27/07/25 Вск 13:52:19 #196 №1289899 
>>1289818
>>1289831
На 2.1 можно же. Если симсвап/веревка были версией 1.0, то ван это 3.0 - еще большая игрушка дьявола, реальная опасность для причиндал, рук, головы и души.
Аноним 27/07/25 Вск 13:54:27 #197 №1289903 
downloa5d.mp4
Маск заявил, что ИИ и робототехника создадут мир безграничного изобилия

Производительность может увеличить экономику в 10 раз, ликвидировать нищету и сделать товары и услуги доступными для всех
Аноним 27/07/25 Вск 13:56:13 #198 №1289905 
>>1289903
20 лет хватит? Я, наоборот, боюсь, что из-за повальных увольнений мир окунется в антиутопию.
Аноним 27/07/25 Вск 13:58:06 #199 №1289910 
>>1289899
Хуйня пока, нужно качество бустить, ещё года два ждать нормальный опенсорс перед тем как вкатываться
Аноним 27/07/25 Вск 13:58:51 #200 №1289913 
>>1289795
Наоборот, у гугла поиск последние лет 10 настолько уебищный что ты либо заранее знаешь пачку сайтов где можно что-то искать, либо пробираешься через этот копрослоп с фишинговыми сайтами и переводами переводов.
Теперь на какой-то мелковопрос сразу получаешь ответ, не переходя на всякие говносайты, где еще контент не прогрузился, а тебя уже ебут банерами о покупке говнокнижке, просьбами отключить ублок, принять все куки, помолиться аллаху и т.д.
Нейронки это то, каким должен был быть гугл изначально
Аноним 27/07/25 Вск 14:35:38 #201 №1289934 
>>1289903
А секс и кошкодевочки будут?
Аноним 27/07/25 Вск 14:37:15 #202 №1289937 
Квен все время пишет кривые (нарушен синтаксис yaml) конфиги для кубернетиса

apiVersion: apps/v1
kind: Deployment
meta
name: nginx

вместо

apiVersion: apps/v1
kind: Deployment
metadata:
name: nginx

Я ему замечание сделал в том же чате. Он испавил. А потом снова кривой написал. Откуда он этот глюк высрал? Заебали уже это интеллектом считать.
Аноним 27/07/25 Вск 14:43:59 #203 №1289951 
Google just discovered a powerful emergent capabil.mp4
А вы знали, что в Veo-3 можно просто нарисовать на первом кадре визуальные инструкции: всякие стрелочки, подписи, и Veo3 это пережует и поймет. Экономия на промптах. И никакого джайсона.
Аноним 27/07/25 Вск 14:45:01 #204 №1289954 
image.png
>>1288391
ага но это говно даже операторов и саппортов не может заменить
Аноним 27/07/25 Вск 14:55:52 #205 №1289970 
>>1289954
Я хз нахуя они все бегут впереди паровоза. Ну не готовы еще нейронки заменить работу человека. Они еще сырые. Может лет через 5 смогут.
Аноним 27/07/25 Вск 15:43:51 #206 №1290042 
>>1289970
>Может лет через 5 смогут.
Кек
Аноним 27/07/25 Вск 15:45:51 #207 №1290045 
>>1289937
Нейрокалыч кроме жс и питона ничего не может писать, забей. У него просто нету датасетов для yaml чтобы правильно весы устоялись. Если хочешь чтобы работало - в промте забивай все правила синтаксиса, только тогда оно будет работать чуть лучше и высирать нейрослопы реже.
Аноним 27/07/25 Вск 16:05:10 #208 №1290081 
photo2025-07-2716-00-19.jpg
photo2025-07-2716-00-20.jpg
photo2025-07-2716-00-20 (2).jpg
Еще одна очень громкая статья последних дней – AlphaGo Moment for Model Architecture Discovery

TL;DR: ученые представили первую в мире систему, автономно генерирующую новые рабочие архитектуры ИИ -> проверили ее на на20 000 GPU‑часах -> открыли закон масштабирования, который говорит, что количество обнаруженных архитектур растёт линейно по мере увеличения числа ресурсов.

После выхода AlphaEvolve ученые всё больше и больше говорят о том, что пора нам переходить от NAS к ASI4AI: то есть от классического Neural Architecture Search, ограниченного человеческим фактором, к ИИ, который улучшает ИИ, который улучшает ИИ, который .... Ну вы поняли.

История действительно перспективная (и в том числе эта статья это подтверждает). Ведь способности ИИ по законам масштабирования растут экспоненциально, но в то же время скорость исследований остаётся линейной из‑за ограничений человеческого внимания и времени. Парадокс.

Ну так вот. Сама архитектура ASI‑ARCH из статьи состоит из трех модулей: Researcher, Engineer и Analyzer. Один генерирует гипотезы и "ТЗ", другой пишет код и собирает метрики, третий анализирует результаты.

Долго останавливаться на архитектуре не будем, тут самое интересное – результат. Было проведено 1 773 эксперимента на20 000 GPU‑часах, врезультате обнаружено 106 новых SOTA архитектур (это линейная зависимость). Под SOTA тут, кстати, подразумеваются именно линейные модели (НЕ трансформер), которые демонстрируют лучшие метрики в своем классе.

При этом в итоговых архитектурах действительно присутствуют какие-то непривычные конструкции. Отсюда и название – исследователи проводят прямую аналогию с ходом 37 AlphaGo в матче с Ли Седолем и говорят, что это яркий показатель способности системы находить прорывные идеи, а не просто подражать.

arxiv.org/pdf/2507.18074
Аноним 27/07/25 Вск 16:13:22 #209 №1290091 
>>1290081
Чел...
>>1289597
Аноним 27/07/25 Вск 16:13:27 #210 №1290092 
>>1290081
Это лето или всё ещё зима? Плато или сингулярность? Летняя сингулярность или зимнее плато?
Аноним 27/07/25 Вск 16:19:47 #211 №1290095 
image.png
>>1290081
прорыв очка
Аноним 27/07/25 Вск 16:40:21 #212 №1290105 
>>1290092
летнее плато
Аноним 27/07/25 Вск 16:42:41 #213 №1290109 
>>1290105
Замерзшая сингулярность
Аноним 27/07/25 Вск 16:52:22 #214 №1290125 
>>1290081
20к часов - это 10 видюх >>1289846
Аноним 27/07/25 Вск 16:56:05 #215 №1290132 
котБоец.mp4
>>1290081
>>1290125
Не забывайте, что сейчас каждый ресечер выпустивший громкую ии статью сразу получает прибавку к зп, иногда даже 100 000 000$
Аноним 27/07/25 Вск 17:23:44 #216 №1290177 
>>1289970
А кабану то что? Во-первых всякие хуесосы в куртке каждодневно промывают его что ai уже here now.
Во-вторых даже если не готов, что ему мешает прощупывать почву заранее, тем более вдруг схавают и получится сэкономить пару копеек. Просто более умные кабаны сначала заставляют работника научить ии его работе, а потом увольняют, а затупки сначала рубят, а потом после обсера берут нового на x2
Аноним 27/07/25 Вск 17:26:30 #217 №1290180 
>>1290045
Все так, я недавно ради интереса решил посмотреть чем r отличается от питухона, так там видимо настолько мало кода в обучающей выборке было что и гопота, и грок практически одинаково обсирались, и порой вообще на любые запросы выдавали одинаковые(неправильные) куски кода.
Аноним 27/07/25 Вск 19:33:13 #218 №1290254 
Как вообще понять, что творится в мире? Одни говорят, что ИИ скоро заменят программистов, другие говорят, что ничего подобного. Как плохо жить при капитализме с его рынком, с его громкими заголовками.
Аноним 27/07/25 Вск 19:40:44 #219 №1290261 
>>1290254
Видишь громкий заголовок и высеры всяких маркетологов в твиторе - значит пиздят.

Так-то нейросетки даже капчу не могут решать, несмотря на визги нейродебилов итт
Аноним 27/07/25 Вск 20:03:30 #220 №1290269 
>>1290254
Чето среднее происходит короче
Аноним 27/07/25 Вск 20:15:12 #221 №1290280 
>>1290261
Так дело в том, что про сингулярность говорят разные ученые. А я боюсь остаться без работы. Хоть я и сейчас не трудоустроен, но так был шанс изучить какой-то веб и вкатиться, а потом будет выбор только полы мыть.
Аноним 27/07/25 Вск 21:51:17 #222 №1290329 
>>1289951
Нет атмосферы
@
Давайте сделаем полярное сияние
Аноним 27/07/25 Вск 22:10:47 #223 №1290336 
>>1290280
Сначала вкатывайся, потом бойся
Аноним 27/07/25 Вск 22:58:46 #224 №1290367 
>>1290254
Почитать самих программистов, их уже заменяют. Мидл-сеньор сегмент держится пока, потому что там много пиздят на совещаниях и код бывает немного сложнее того, что нейронки охватить могут, но это тоже ненадолго. Фриланс программирование уже все на нейронках, его не стало.
Аноним 27/07/25 Вск 23:24:42 #225 №1290398 
>>1289934
Да. Но не у тебя.
Аноним 27/07/25 Вск 23:35:06 #226 №1290405 
>>1290254
Так едь в северную корею
Аноним 27/07/25 Вск 23:50:02 #227 №1290414 
>>1290405
Я подразумевал идеалистическое государство, где бы все работало на благо народа, а не корпораций. В капиталистическом мире мы еще можем угодить в антиутопию.
Аноним 28/07/25 Пнд 00:20:04 #228 №1290426 
>>1290414
Северная корея идеалистическое государство с планчиком, без антиутопий и всё работает на благо народа, пока в капиталистическом, рыночном аду какие-то корпорации строят фашистские дата-центры и конкурируют пытаясь высрать более менее работающую технологию
Аноним 28/07/25 Пнд 01:07:51 #229 №1290469 
>>1290426
>идеалистическое государство
идеологическое, а не идеалистическое
>>1289903
>Производительность может увеличить экономику в 10 раз, ликвидировать нищету и сделать товары и услуги доступными для всех
но не сказал сколько в мире должно остаться этих "всех"
Аноним 28/07/25 Пнд 01:48:39 #230 №1290493 
>>1290426
>>1290469
Тупые срынкодебилы сами с собой борятся, лол
Аноним 28/07/25 Пнд 02:04:21 #231 №1290496 
>>1290493
>срынкодебилы
Чемодан вокзал северокорейский рай
Аноним 28/07/25 Пнд 02:04:43 #232 №1290497 
Когда gpt-6? Я задолбался уже на этом плато находиться
Аноним 28/07/25 Пнд 02:07:53 #233 №1290498 
>>1290497
Через полгода-7 месяцев. На основе той сетки, которая имо победила.
Аноним 28/07/25 Пнд 02:30:55 #234 №1290500 
Интересно
https://www.youtube.com/watch?v=lPzImkYgmx8&t=252s
Аноним 28/07/25 Пнд 02:53:25 #235 №1290504 
>>1290496
Поплачь ещё что твоего барина критикуют
Аноним 28/07/25 Пнд 05:00:04 #236 №1290515 
>>1288975
То наверное тайваньцы, причем техно-гики, выросшие в центре индустрии производства Интел, АМД, НВидия, рядышком с заводом, и может и начинали там пахать на этих американских заводах студентами. Соответтсвенно у них есть понимание цикла производства, даже если программист, то ценится больше тот программист, который делал программы для производственных современных линий (производство микросхем и т.д.), и делал там же на заводе и отладку своих программ.
Аноним 28/07/25 Пнд 05:17:57 #237 №1290517 
>>1290515
То материковый Китай: Шанхай, Пекин - вот это все. Но не хуи с горы, а с детства дроченные родителями на учебу, ими же оплаченные переезд, проживание, миты и стенфорды - ты только учись, корзина. Железячники очень далеки от прикладного софта и ИИ.
Аноним 28/07/25 Пнд 05:19:12 #238 №1290518 
USAID.png
>>1290515
>производства
...Там, в Тайване, походу студенты идут на работу на американский завод, сразу расчитывая что это путь выбраться в США, плюс поддержка по линии USAID тоже влияет.
Аноним 28/07/25 Пнд 05:23:58 #239 №1290520 
>>1290517
>Железячники очень
Смотря какие, если они на производстве тех же видеокарт Нвидия, то это плюс к их рейтингу чем у чисто офисных программистов.

Вообще для науки нужна производственная база - завод, и при нём институт, с лабораториями и конструкторскими отделами. А в КНР как раз заводов завались.
Аноним 28/07/25 Пнд 05:33:44 #240 №1290522 
>>1290520
Какому рейтингу?
У тех и других огромные объемы почти никак не пересекающихся информации и опыта, на освоение которых уходят года. Астрономы к химикам и то ближе.
Аноним 28/07/25 Пнд 05:34:14 #241 №1290523 
>>1290414
>на благо народа, а не корпораций.
Корпорации капиталистов и приносят блага народу в виде крутых октрытий.

Вот для примера ДВС делали 200 лет поодиночке. Лампу накаливания делали 60 лет тоже одиночки. Допустим сегоднящнаяя задача сделать лампу накаливания - это изобрести реактор холодного синтеза и чтобы без радиактивности. если делать эту задачу одиночками, может уйти наэто 2000 лет, если делать небольшими группами, может уйти 200 лет, как и на лампу накаливания, если делать это корпрорацией или даже коллаборацией из нескольких корпораций, то может на это уйти 20 лет времени.
Аноним 28/07/25 Пнд 05:38:50 #242 №1290524 
>>1290081
Вот как комментирует новость нейронка перплексити: Если коротко: система, которая генерирует сотни новых SOTA-архитектур на базе только линейных моделей, вряд ли ускорит прогресс до AGI или ASI. Линейные модели просты и удобны, но они фундаментально ограничены — не могут выразить сложные, глубокие, нелинейные паттерны, которые как раз и нужны для общего интеллекта или супер-интеллекта.

Текущие прорывы в AI связаны с нейросетями именно из-за их нелинейной природы, а линейные модели — это скорее база и инструмент для простых и понятных задач. Так что для AGI\ASI нужны более сложные архитектуры, а подобная система будет мега-полезна для applied ML, но не радикально приблизит появление AGI.

Прикольная идея для автоматизации applied ML!
Аноним 28/07/25 Пнд 05:39:38 #243 №1290525 
>>1290523
>холодного
...Было бы логично чтобы реактор холодного синтеза был первым крупным изобретением нейронок.

Чтобы корпорации построили свои мощные дата-центры для ИИ, потом объединили свои ИИ в одну команду и изобрели реактор холодного синтеза, или что-то подобное.
Аноним 28/07/25 Пнд 06:12:55 #244 №1290528 
>>1290524
короче кумить нельзя хуйня без задач
Аноним 28/07/25 Пнд 09:48:57 #245 №1290580 
>>1290523
> в виде крутых октрытий.
Нет ни одного открытия сделанного корпоблядями и вкинутыми в открытый доступ.
Ты пиздишь + ты куколд.
Аноним 28/07/25 Пнд 10:39:03 #246 №1290621 
>>1290523
Корпы для зарабатывания денег существуют. Если они хоть малейшую выгоду видят, они ничего не отдают никому. Часто доходя до бессмыслицы, как например непубликация исходных кодов программ, которым по 20 лет, и которыми никто уже давно не пользуется. Открытия, которые угрожают их прибыли, они тоже скрывают, пока на них другие организации своими усилиями не выйдут, тогда внезапно оказывается все всё знали уже годами. Еще существует даже целая практика превентивной скупки патентов корпорациями, чтобы конкуренты не могли разрабатывать свое аналогичное открытие, иначе их засудят.
Аноним 28/07/25 Пнд 12:06:44 #247 №1290714 
>>1290523
>ДВС делали 200 лет поодиночке
никто ничего не делает поодиночке, все опираются на труды предшественников и современников и корпорации никак не ускоряют открытия. открытия точно так же делаются как ты выразился "одиночками" , просто корпорация стремится таких "одиночек" как можно больше включить в себя, для присвоения их трудов.
и эти рассуждения о сроках открытий некорректны. это классическое "одна женщина родит ребенка за 9 месяцев, а девять женщин за один месяц".
Аноним 28/07/25 Пнд 12:12:09 #248 №1290718 
IMG5650.MP4
В Китае прошел первый бой человек VS робот на ринге
Аноним 28/07/25 Пнд 12:13:57 #249 №1290719 
>>1290718
Живую сталь уже сейчас можно устроить по идее. Автономных придется подождать.
Аноним 28/07/25 Пнд 12:15:20 #250 №1290721 
>>1290500
Интересно, но хуле не взлетело? В чем сука проблемы
Аноним 28/07/25 Пнд 13:01:18 #251 №1290734 
>>1290719
Да, интересно насколько будет востребован такой спорт
Аноним 28/07/25 Пнд 13:03:55 #252 №1290735 
photo2025-07-2808-01-29.jpg
photo2025-07-2808-01-30.jpg
photo2025-07-2808-01-30 (2).jpg
Сегодня интернет обнаружил, что термин «галлюцинации» тоже придумал Андрей Карпаты. Почти все знают, что именно он ввел в эксплуатацию «вайб-кодинг», но это то было относительно недавно, – а вот корни «галлюцинаций» уходят еще в 2015 год.

Оказывается, тогда термин был впервые использован в известной статье Карпатова “Unreasonable Effectiveness of RNNs” (http://karpathy.github.io/2015/05/21/rnn-effectiveness/ ), и с тех пор разлетелся по комьюнити, ну а дальше – в глобал.

Сам Андрей, кстати, пишет, что он «нагаллюцинировал это понятие»
Аноним 28/07/25 Пнд 13:06:07 #253 №1290737 
Really impressive at character transformation too.mp4
Runway Aleph в качестве видео-переодеватора. Впечатляет.
Аноним 28/07/25 Пнд 13:44:15 #254 №1290771 
Я испытываю экзистенциальный кризис из-за ИИ. Он отнимает у человека смысл творчества и познания. Впервые в жизни не рад новым технологиям, хотя раньше думал, что прогресс всегда во благо.
Аноним 28/07/25 Пнд 13:50:42 #255 №1290775 
>>1290771
Просто ты чмоня тупорылая которая думает будто смысл творчества и познания это продавать свой калыч другим.
Аноним 28/07/25 Пнд 14:42:22 #256 №1290840 
>>1290771
Нагенерил несколько тысяч картинок через нейросети и понял, что это нихуя не творчество. Это скорее конструктор как у детей с небольшими вариациями, из готовых блоков собирать картинку. Что-то новое и уникальное ты нейросеткой не сможешь создать, для этого надо хоть как-то от руки уметь делать. А вот штамповать однообразное говно пачками оно всегда пожалуйста.
Аноним 28/07/25 Пнд 14:43:20 #257 №1290842 
>>1290771
Наоборот, начнётся новая творческая эпоха, люди будут делиться друг с другом полностью сгенерированными авторскими мирами. Эх, если бы не санкции, я бы сейчас прикупил акции компаний, строящих метавселенные со встроенным ии.
Аноним 28/07/25 Пнд 15:09:39 #258 №1290876 
>>1290775
>>1290840
>>1290842
Говно 2 - Творчество 1.
Тоже склоняюсь к тому, что сеть заполнит океан кала.
Так что 3-1.
Аноним 28/07/25 Пнд 15:11:46 #259 №1290878 
>>1290718
Если бы робот был в пять раз больше, он бы ему пизды навешал с легкостью.
Ну это не считая того, что при попытке удара в челюсть, рука бы сказала до свидания.
Аноним 28/07/25 Пнд 15:13:32 #260 №1290880 
>>1290580
Пояса безопасности от Вольво?
Аноним 28/07/25 Пнд 15:14:04 #261 №1290882 
photo2025-07-2815-10-11.jpg
Qwen снова радуют релизом. Но на этот раз это не модель, а новый RL-алгоритм для обучения LLM

Метод называется Group Sequence Policy Optimization (GSPO), и именно он лег в основу последних громких моделей компании: Qwen3 Instruct, Coder и Thinking. Статья вышла пару дней назад, но о ней уже говорят все. А значит пора разобраться.

Сегодня один из самых популярных RL-алгоритмов для LLM – это GRPO (by DeepSeek). GRPO работает здорово и довольно стабильно, но на уровне токенов.

То есть в GRPO мы считаем награду для всей последовательности -> считаем важность каждого токена и применяем клиппинг также для каждого токена отдельно -> обновляем политику "на уровне токенов".

А в GSPO все то же самое происходит сразу для всей последовательности: считаем награду -> рассчитываем единый importance weight для всей последовательности и применяем клиппинг для всего ответа целиком с нормализацией по длине -> обновляем политику.

В чем преимущество такого подхода?

1. Не нужно устраивать танцы с бубном, когда работаешь с MoE. У GRPO из-за архитектурных особенностей MoE идет со скрипом, а тут все заводится из коробки.
2. Градиенты получаются менее шумными, потому что снижается дисперсия. Следовательно –еще более стабильное обучение. Следовательно – лучшие метрики при тех же ресурсах.
3. Инженерно реализуется гораздо проще.

Короче, выглядит очень привлекательно и, вероятно, станет следующим словом в RL для LLM (особенно в опенсорсе). Статью полностью читаем тут: https://huggingface.co/papers/2507.18071
Аноним 28/07/25 Пнд 15:24:22 #262 №1290889 
>>1290876
Это естественно. Только вот творчество и познание это прежде всего потребность разума, а не наполнение своим калычем интернеты. Впрочем, школьницы могут считать иначе, штош, придётся создавать вайб лучше чем у нейронок чтобы конкурировать.
Аноним 28/07/25 Пнд 15:31:46 #263 №1290900 
>>1290517
> Железячники очень далеки от прикладного софта и ИИ.
>>1290522
> Астрономы к химикам и то ближе.
То есть если я учусь на какой-нибудь микроэлектронике то я далёк от ии?
Аноним 28/07/25 Пнд 15:34:39 #264 №1290910 
>>1290580
Опенсурс модели
Аноним 28/07/25 Пнд 15:36:43 #265 №1290914 
>>1290880
>>1290910
Открытия где?
Аноним 28/07/25 Пнд 15:51:50 #266 №1290940 
>>1288534
они умеют делать змейку, написанную тысячи раз.
так что просто не делай дженерик говно.

Даже если ИИ будет уметь делать всё, что умеешь ты, у промптера идей нет свежих. А у тебя будет.
Аноним 28/07/25 Пнд 15:53:50 #267 №1290945 
>>1288986
потому что из эсашай вывозить нечего ценного, а из Китая есть чо
Аноним 28/07/25 Пнд 15:55:14 #268 №1290947 
>>1290945
Поэтому Китай окольными путями завозит американские видеокарты?
Аноним 28/07/25 Пнд 16:24:08 #269 №1290990 
>>1290737
Это оперсоурс или копропараша?
Аноним 28/07/25 Пнд 16:25:31 #270 №1290992 
>>1290914
В застенках конкурирующих корпораций, в университетах и лабораториях, которым клятые корпорации выделяют гранты
Аноним 28/07/25 Пнд 16:26:25 #271 №1290995 
ии которое мы заслужили.mp4
>>1290945
>потому что из эсашай вывозить нечего ценного

очень грубое и неверное заблуждение - на грани коупа
Аноним 28/07/25 Пнд 16:26:51 #272 №1290996 
>>1290945
СШа экспортёр сои (буквально). Хайтек давно уж не про США.
Аноним 28/07/25 Пнд 16:27:36 #273 №1290997 
>>1290947
>куртка лично ездит на поклон, чтобы впарить товара побольше
>окольными путями
)))
Аноним 28/07/25 Пнд 16:28:25 #274 №1291000 
>>1290945
поэтому асашай дает фору китайцам? ты жертва телевизора
Аноним 28/07/25 Пнд 16:31:43 #275 №1291010 
>>1290996
коуп
Аноним 28/07/25 Пнд 16:33:51 #276 №1291015 
Петуча в /po пидорните уже
Аноним 28/07/25 Пнд 16:36:12 #277 №1291025 
>>1291010
Реальность.
Аноним 28/07/25 Пнд 16:37:26 #278 №1291026 
>>1291025
о политике бесполезно спорить, все-равно все останутся при своем мнении
Аноним 28/07/25 Пнд 16:38:36 #279 №1291034 
>>1291026
А где тут политика? Сухие факты.
Аноним 28/07/25 Пнд 16:38:59 #280 №1291036 
>>1290992
> выделяют
Кек
Аноним 28/07/25 Пнд 16:39:42 #281 №1291040 
>>1291025
только почему-то все ломятся не в свободный Китай, в загнивающую Америку
Аноним 28/07/25 Пнд 16:42:02 #282 №1291050 
>>1291040
Кто эти самые "все"? Если говорить про учёных и инженеров, то всё не так, как ты пишешь. Если про копрорации, то ты тоже мимо.
Аноним 28/07/25 Пнд 16:50:42 #283 №1291066 
попугДжексон.mp4
>>1291050
лол, иммиграция в США наблюдается рекордная, за последние 25 лет (время правления Путина) в штаты иммигрировали более 80 млн человек (это только легально). На минуточку, это больше половины населения России.
Аноним 28/07/25 Пнд 16:52:32 #284 №1291070 
>>1291066
> иммиграция в США
От того, что приехало 80 млн диких чурок разных цветов кожи, инженерных компетенций не прибавится. А с этим у них давно уже огромные проблемы, и они будут только усугубляться.
Аноним 28/07/25 Пнд 16:57:08 #285 №1291084 
ssstwitter.com1753709643427.mp4
ssstwitter.com1753709647472.mp4
ssstwitter.com1753709895655.mp4
ssstwitter.com1753710297196.mp4
Опенсорсный Wan 2.2 таки дропнули. Ну и спасибо разрабам, нативная поддержка новых моделей в ComfyUI

Версии, которые уже доступны:

Wan2.2-TI2V-5B: FP16 (Текст в видео 5 миллиардов параметров)

Wan2.2-I2V-14B: FP16/FP8 (Картинка в видео 14 миллиардов параметров)

Wan2.2-T2V-14B: FP16/FP8 (Текст в видео 14 миллиардов параметров)

Для больших моделей в максимальном качестве понадобится 49 гигов Vram. Так что расчехляйте свои RTX PRO 6000, либо ждите пожатые версии на неделе. Либо можете навернуть мелкую 5b модель, она требует всего 8 гигов


Wan 2.2 - это продолжение уже многим знакомого опенсоурсного Wan2.1, который стал моментом SD1.5, только в видео формате для опенсоурс коммьюнити.

https://blog.comfy.org/p/wan22-day-0-support-in-comfyui

https://huggingface.co/Comfy-Org/Wan_2.2_ComfyUI_Repackaged/tree/main/split_files/diffusion_models
Аноним 28/07/25 Пнд 16:58:51 #286 №1291088 
>>1290718
Робот весит 25 кило, это проще чем ребенка отпиздить, рановато еще-лет пять подождем
Аноним 28/07/25 Пнд 17:02:27 #287 №1291095 
>>1291070
тебе самому не надоело коупить?
Аноним 28/07/25 Пнд 17:02:38 #288 №1291096 
>>1291084
>49гб
Тайваньская куртка уебок, я даже если 5090 куплю это будут нищенские 32гб, со своей 4090 чувствую себя тупо на дне локальных ии
Аноним 28/07/25 Пнд 17:03:55 #289 №1291098 
>>1291096
Он дал вам видюху на 96 гигов за 8к зелени, а вы всё равно недовольны
Аноним 28/07/25 Пнд 17:06:19 #290 №1291102 
>>1291098
За 8к я лучше куплю мак студио с 256врам, а если еще 1.5к докинуть - 512
Аноним 28/07/25 Пнд 17:07:35 #291 №1291106 
>>1291102
Ну значит не шаришь. Там память очень медленная, в отличии от RTX PRO 6000
Аноним 28/07/25 Пнд 17:08:45 #292 №1291109 
>>1291106
Там не только память медленная, там ещё и чип дохлый. Только даун будет брать её вместо карты куртки
Аноним 28/07/25 Пнд 17:09:20 #293 №1291111 
>>1291106
почему амд ничего подобного не выпускает? они раньше плечо к плечу шли с нвидиа, а сейчас что-то обосрюнькались
Аноним 28/07/25 Пнд 17:12:03 #294 №1291119 
>>1291111
Поздно спохватились, бывает
Аноним 28/07/25 Пнд 17:12:46 #295 №1291124 
>>1291106
В 2-3 раза медленее всего, так же и с производительностью, это все равно вполне нормальные 5-10т/с на гигамолелях типа дипсика 671b
С курткой ты можешь разве что писю пососать из-за оффлоада в рам, где у тебя производительность дропнется от 10 до 50 раз, или заплатить в 3-5 раз больше и охуеть от энергопотребления и шума
Аноним 28/07/25 Пнд 17:17:55 #296 №1291134 
>>1291124
Нахуй мне локально дипхуй гонять? Мне бесплатные топовые проприетарные модели полностью закрывают потребности в LLM. А вот с видеомоделями всё иначе, у проприетарных и цена кусается, и цензура ебёт, тут строго нужен опенсорс. и вот для фото и видеомоделей нет ничего лучше, чем карты куртки
Аноним 28/07/25 Пнд 17:19:23 #297 №1291138 
>>1291124
двачую, на макстудио люди запускали модельки с 235В параметров, на одной нвидеа RTX 5080 super 24Гб тоже запускали, но с файлом подкачки - это оказалось существенно медленнее
Аноним 28/07/25 Пнд 17:20:14 #298 №1291142 
>>1290995
Грубое, но в сравнении с китаем и по теме ИИ это так.
Объебосы на спидах лепят гениальные идеи. А делают эти идеи наполовину азиаты даже в США.

>>1291000
У меня телевизора нет, а на ютубе я смотрю только тематику и научпоп. Так что технически не могу быть жертвой попагандонства.
Аноним 28/07/25 Пнд 17:21:45 #299 №1291146 
>>1291066
>80 млн человек
посудомоек?
Ну серьёзно, крутых инженеров единицы. И они свои решения о переезде принимают совсем по другим причинам. И по более комплексным
Аноним 28/07/25 Пнд 17:27:24 #300 №1291155 
>>1291134
У тебя какая то куртка головного мозга, локальный ии в 99% случаев буксует из-за мизерного количества видеопамяти на топовых потребительских видюхах тайваньского хуесоса, даже там где нужна голая производительность мак студио пососет всего в 2-3 раза относительно не потребительского гавна от куртки за миллионы денег и киловаты тпд

Если ты какой-то залетный мажорчик или кабан с безлимитом денег то конечно видеокарты от главпидораса в кожанке выгоднее
Аноним 28/07/25 Пнд 17:30:34 #301 №1291159 
>>1291146
асашай первая страна в мире по количеству иммигрантов ученых, какие посудомойки? ты о чем?
Аноним 28/07/25 Пнд 17:33:56 #302 №1291164 
нинзяКот.mp4
Что там по слухам когда GPT-5? Если модельки zenith и summit опениаевские, то очень даже не плохо
Аноним 28/07/25 Пнд 17:35:46 #303 №1291167 
>>1290995
Погодите, они посадили китайца считать бутылки, которые достают китайцы из холодильника?
Это же шутка такая, да?
Аноним 28/07/25 Пнд 17:40:22 #304 №1291177 
>>1291167
Нет, это типа магазин без касс, где ты берешь продукты и у тебя списывают с аккаунта. Это не прикол, справедливо заметить что Amazon Go тоже ловили на этом. Но я думаю это обучающий датасет для VM модельки
Аноним 28/07/25 Пнд 17:41:31 #305 №1291181 
m2-res640p.mp4
Многие не выкупают что генерация
Аноним 28/07/25 Пнд 17:43:17 #306 №1291183 
>>1291181
Так это настоящее видео
Аноним 28/07/25 Пнд 17:43:29 #307 №1291184 
>>1291181
оч похоже, но если приглядеться то видны артефакты генерации. Нужно признать, что с каждым днем отличать реальность от генерации становится все сложнее
Аноним 28/07/25 Пнд 17:43:54 #308 №1291187 
>>1291181
Многие в твоей семьи? Так у вас наследственный даунизм.
Аноним 28/07/25 Пнд 17:44:49 #309 №1291189 
>>1291155
Ты хуйню какую-то несёшь. Ещё раз, речь об опенсурсных фото и видеомоделях. Назови для них железо лучше, чем RTX PRO 6000, у которой 96 гигов хватает под лучшие опенсорсные фото и видеомодели на рынке
Аноним 28/07/25 Пнд 17:45:56 #310 №1291197 
>>1291183
видео конечно настоящее, это не галлюцинация, но сгенерировано ии
Аноним 28/07/25 Пнд 17:47:29 #311 №1291200 
>>1291197
Где пруфы, что это ИИ? Выглядит очень правдоподобно.
Аноним 28/07/25 Пнд 17:49:30 #312 №1291204 
>>1291200
автомобильное стекло так не бьется, на 13-14 секунде слева падает стекло так, как-будто сверху не закреплено
Аноним 28/07/25 Пнд 17:50:09 #313 №1291207 
>>1291200
физика стекла реализована неправдоподобно
Аноним 28/07/25 Пнд 17:53:07 #314 №1291215 
>>1291204
>>1291207

Так скоро уже нельзя будет отличить ИИ от правды. И где они взяли такую выборку поведения птиц.
Аноним 28/07/25 Пнд 18:01:32 #315 №1291230 
image.png
image.png
>>1291200
цвет кончика клюва вначале и в конце
Аноним 28/07/25 Пнд 18:09:41 #316 №1291242 
>>1291177
Даже я, который программированием занимается раз в два, мог бы автоматизировать это так, что человек вообще бы не понадобился. Но видимо китайцы дешевле.
Аноним 28/07/25 Пнд 18:15:29 #317 №1291247 
>>1291095
Нет, ведь я не коуплю.
Аноним 28/07/25 Пнд 18:34:52 #318 №1291275 
>>1291189
Mac studio c m3 ultra, потому что все то же позволяет делать плюс фючер пруф

Через пол года зарелизят модель на >96гб и побежишь еще 10к куртке отстегивать
Аноним 28/07/25 Пнд 18:36:51 #319 №1291277 
>>1291200
Пчел, ты как маленький, там очевидная склейка, вначале настоящее видео.
Скоро хуево будет таким невнимательным в эпоху ии-наебалова
Аноним 28/07/25 Пнд 18:41:13 #320 №1291279 
>>1291275
>Mac studio c m3 ultra

Слабый чип, заебёшься ждать генерации
Аноним 28/07/25 Пнд 18:49:28 #321 №1291285 
>>1291242
Маняфантазии. Чтобы обеспечить любые углы и любые повороты этой хуйни придётся полгода ебашить, автоматизировть ты сможешь только свой хуй.

Вангую именно это на видосе и происходит - разметка данных для нейрокалыча. Полгода так пособирают данные и смогут выпустить нормальный софт.
Аноним 28/07/25 Пнд 18:53:15 #322 №1291289 
>>1291159
Чел.
Ещё раз.
Мигрируют толпами нищуки в основном. За американской мечтой.
А вот инженеров и учёных скупают.

Именно против этого и выставил запрет на выезд Китай.

>>1291181
Красиво. Но стекло калёное точно так не бьётся. И уж точно сквозь себя не складируется на торпеде.
Аноним 28/07/25 Пнд 18:57:02 #323 №1291295 
photo2025-07-2817-33-37.jpg
photo2025-07-2818-28-52.jpg
GLM 4.5 — китайский опенсорс продолжает доминировать

Очередная очень сильная открытая MoE модель от китайцев, с очень хорошими результатами на бенчах. Гибридний ризонер, с упором на тулюз. Доступна по MIT лицензии, 128к контекста, нативный function calling, из коробки работают стриминг и batching, есть FP8‑инференс и совместимость с vLLM/SGLang.

Как и Kimi K2 модельку тренировали с Muon, но в отличие от Kimi авторы использовали QK норму вместо клиппинга — Kimi такой трюк не позволило провернуть использование MLA, из-за чего им пришлось придумывать свою версию оптимайзера. Для спекулятивного декодинга получше модельку тренировали с MTP. Она заметно глубже чем другие открытые китайские MoE — это повышает перформанс, за счёт роста размера KV-кэша. Вместе с этим они используют заметно больше attention heads. Это хоть и не помогает лоссу, но заметно улучшает ризонинг бенчмарки.

Модель идёт в двух размерах — 355B (32B active) и 106B (12B active). Претрейн был на 22 триллионах токенов — 15 триллионов токенов обычных данных, а после них 7 триллионов кода с ризонингом. На мидтрейне в модель запихнули по 500 миллиардов токенов кода и ризонинг данных с контекстом расширенным до 32к, а после этого 100 миллиардов long context и агентных данных при контексте уже в 128к.

Посттрейн двухэтапный — сначала из базовой модели через cold‑start+RL тренируют три эксперта (reasoning модель, agentic модель, и для общих тасков) и сводят их знания в одну модель через self‑distillation. Затем идёт объединённое обучение: общий SFT → Reasoning RL → Agentic RL → General RL.

Для ризонинга применяют одноступенчатый RL на полном 64K‑контексте с curriculum по сложности, динамическими температурами и адаптивным клиппингом. Агентные навыки тренируют на верифицируемых треках — поиск информации и программирование с обратной связью по исполнению. Полученные улучшения помогают и deep search и общему tool‑use. Кстати, их посттрейн фреймворк открытый и лежит на гитхабе.

Веса https://huggingface.co/collections/zai-org/glm-45-687c621d34bda8c9e4bf503b
Демо https://chat.z.ai/
Блогпост https://z.ai/blog/glm-4.5
Посттрейн фреймворк https://github.com/THUDM/slime
Аноним 28/07/25 Пнд 18:58:46 #324 №1291299 
>>1291295
Хорошее лого
Аноним 28/07/25 Пнд 19:01:01 #325 №1291300 
>>1291285
Ты дурачок какой-то.
Что ты там собираешься поворачивать куда, болезный.
Нужна только одна камера, мимо которой будут проносить продукты. Они все разного цвета блять. Просто не помещай одинаковый цвет рядом.
Вы что тупые что ли нахуй.
Аноним 28/07/25 Пнд 19:21:30 #326 №1291338 
>>1290721
Текст для SLM нужно преобразовать в спайковый формат (например, слова как частота спайков или временные паттерны). Это требует сложной предобработки, и пока нет стандартов для кодирования языковых данных в SNN.Трансформеры используют механизм внимания для хранения длинных контекстов (до 128 000 токенов в GPT-4). SNN на Loihi полагаются на рекуррентные связи, которые менее эффективны для длинных последовательностей.Обучение трансформеров на GPU занимает недели на кластерах с тысячами GPU. SNN на Loihi обучаются медленнее из-за локальной природы STDP и ограничений по масштабу.
Дата-центр с 10 000 чипов Loihi 2 (~10 млрд нейронов, ~1,2 трлн синапсов) теоретически может моделировать сеть масштаба небольшой LLM (например, BERT, ~340 млн параметров). Но GPT-4 (1,76 трлн параметров) требует гораздо большего масштаба или принципиально новых архитектур SNN.
Для сравнения: человеческий мозг (~86 млрд нейронов, ~100 трлн синапсов) обрабатывает язык на ~20 Вт. SNN на Loihi пока не достигают такой эффективности в языковых задача. рансформеры используют внимание (self-attention), которое позволяет модели эффективно связывать слова в длинных текстах, вычисляя их взаимосвязи. Это требует больших матричных вычислений, которые GPU обрабатывают быстро и точно.
SNN на Loihi: Нет аналога внимания. Рекуррентные связи в SNN могут моделировать контекст, но менее эффективно. В CoLaNET, например, сеть классифицирует данные (MNIST), но не обрабатывает длинные последовательности, как язык.
Обучение: Backpropagation в трансформерах оптимизирует миллиарды параметров на огромных датасетах. STDP в SNN работает локально и требует больше итераций, что замедляет обучение для языковых задач.
Аноним 28/07/25 Пнд 19:22:30 #327 №1291340 
>>1291300
Бро, так мыслит инженер. Он прикидывает ключевые сходства и различия.

Например то, что даже при едином цвете силуэт бутылки не будет таким же как силуэт брикетика мороженки ни при каких условиях.

А нейродебилы нарабатывают миллионы картинок и разметок.
Жутко дегродская и брутфорсная область по большей части. Крутые инженеры в ней есть, но они не спешат заменить себя ИИшкой
Аноним 28/07/25 Пнд 19:31:50 #328 №1291352 
>>1290900
Да. Что по ИИ у вас было?
Аноним 28/07/25 Пнд 19:35:07 #329 №1291354 
image.png
>>1291289
>Мигрируют толпами нищуки в основном. За американской мечтой.
А вот инженеров и учёных скупают.

во-первых, асашай одна из первых в мире по иммигрантам миллионерам.
во-вторых, зпшка 100 000 000$ - это и есть американская мечта. А вот восхваляемая тобой подзалупная вместо того чтобы скупать спецов по 100 млн$ просто перекрыла выезд как крысы, и теперь китайский кобанчик эти деньги может забрать себе и не платить талантливому инженеру. Профит
Аноним 28/07/25 Пнд 19:39:46 #330 №1291359 
>>1291040
>все ломятся не в свободный Китай, в загнивающую Америку
Т.е сша выгодно существование китая
Аноним 28/07/25 Пнд 19:45:23 #331 №1291362 
>>1291295
что мне понравилось - они сравнивают свою модельку с топчиками (o3, gemini 2.5 pro ,opus 4 и grok 4). если они действительно набирают такие баллы на бенчах, то очень полодцы. Похоже новый серьезный игрок
Аноним 28/07/25 Пнд 19:47:09 #332 №1291366 
>>1291359
ну в целом да, от туда можно переманивать мозги
Аноним 28/07/25 Пнд 19:48:26 #333 №1291368 
>>1291300
Представляю твоё ебало когда пользователи будут надевать куртки цветом как товар подешевле, а брать дороже.
Аноним 28/07/25 Пнд 19:54:51 #334 №1291391 
котик1.jpg
>>1291295
потестил на своем любимом чертеж бенчике, дал 10 попыток. В итоге ни одного правильного ответа. хуита
Аноним 28/07/25 Пнд 19:57:22 #335 №1291398 
>>1291352
Я не учился на микроэлектронике. А что в российских вузах бывает что-то по ии?
Аноним 28/07/25 Пнд 20:10:37 #336 №1291420 
>>1291391
Какие модели проходили твой бенчик?
Аноним 28/07/25 Пнд 20:12:20 #337 №1291425 
>>1291420
chatGPT-o3, gemini 2.5 pro, gemini 2.5 flesh, а еще таинственные zenith и summit с арены
Аноним 28/07/25 Пнд 20:13:35 #338 №1291428 
>>1291425
п.с. grok 4, opus 4, sonnet 4 и deepseek r1 0528 обосренькались
Аноним 28/07/25 Пнд 20:18:42 #339 №1291436 
>>1291425
У меня кстати закончились задачи на логику которые модели не проходят. Год назад я думал, что когда их пройдут это точно будет AGI, и вот теперь их проходят, а AGI нихуя нет. Ещё так раньше думал про переводы на английский. Типа когда нейронки будут переводить на уровне человека, то это точно будет AGI, сегодня некоторые нейронки переводят на уровне лучших из лучших переводчиков, а AGI нихуя нет
Аноним 28/07/25 Пнд 20:26:42 #340 №1291446 
>>1291436
Мне кажется, так будет всегда, по крайней мере, пока мы живы: всегда будут споры о том, когда наступит AGI, что вообще считать AGI, нытье о «плато» — и даже если ИИ заменит всех людей, мы всё равно продолжим ждать какого-то «настоящего» AGI.
Аноним 28/07/25 Пнд 20:33:10 #341 №1291456 
>>1291425
>flesh
Ты главное слово фонарик на английском не пиши
Аноним 28/07/25 Пнд 20:36:25 #342 №1291459 
17495561053570.jpg
>>1291446
Аноним 28/07/25 Пнд 20:42:01 #343 №1291469 
Макс Шлерет опубликовалчёткое научное доказательство, что сильный ИИлогически и математически невозможениз-за фундаментального ограничения— барьера бесконечного выбора (Infinite Choice Barrier, ICB), экспоненциального роста энтропии при увеличении неопределённости.
https://philpapers.org/archive/SCHAII-17.pdf
Аноним 28/07/25 Пнд 20:43:52 #344 №1291475 
>>1291469
А раньше доказывали, что нереально сделать операцию XOR на нейросетях.
Аноним 28/07/25 Пнд 20:52:51 #345 №1291495 
>>1291475
Нейродебил, ты? Речь про однослойную нейросеть, там невозможно сделать XOR
Аноним 28/07/25 Пнд 20:55:46 #346 №1291496 
image.png
>>1291469
статью не читал, не осуждаю, но гемини говорит что это не научная статья в области математики и информатики, а философская
Аноним 28/07/25 Пнд 21:00:41 #347 №1291512 
>>1291495
Более того если начать гуглить этого товарища, то выясняется что учился он на экономиста, а сейчас управляет семейными отелями и преподаёт "Стратегический, инновационный и корпоративный менеджмент" как "Visiting FH-Professor".

А если поискать его доказательство, то выяснится что опубликовал он его как философскую работу в каком-то не особо понятном философском журнале.

Поэтому не особенно удивительно что никто особо не воспринимает это всерьёз.
Аноним 28/07/25 Пнд 21:13:02 #348 №1291524 
>>1291496
>>1291512
Там вполне хорошие рассуждения про трансформеры. Математики особо нет, но есть вполне проверяемые гипотезы и теоремы, которые, между прочим, наблюдаемы прямо сейчас и здесь в нейрокалыче.

Конечно логика там на уровне второго курса универа, но нейродебилы даже такую логику не приводят в доказательство существования AGI, так что это буквально лучшая работу на эту тему.
Аноним 28/07/25 Пнд 21:13:53 #349 №1291525 
>>1291436
где те нейронки, которые переводят на уровне лучших переводчиков?
Все жидко срутся и забывают уже через абзац, что статья про 3д и надо pipeline переводить как «конвейер» постоянно но не как «трубопровод».

На современной архитектуре ЛЛМ не то что AGI невозможен, даже интеллект нематоды не получается.

Сейчас могу с уверенностью сказать, что создано огромное количество вариантов хорошо работающей интуиции на кремнии.
Той самой, что прикидывает по всем неявным параметрам, паттернам.

Но интуиция пока совсем слепа и нет у неё видения структуры, только чутьё.

Отдельные узкие модели чуят структуру, но только конкретного объекта.

Видеомодели чуют связность в небольшом диапазоне между пятнами и их ракурсами. Но не понимают сути формы.

Вполне возможно, если вычислительные мощности вырастут в тысячи раз и найдут способ увязывать все сенсорные данные, которые собираются сейчас, плюс завязать их на хорошем 3д-движке (подразумевающем и твёрдое и зыбкое-разделяемое и силуэты-обобщения), то будет ИИ технически сравнимый с человеческим.

Есть ещё мнение такое, что вдруг у нас в голове что-то невычислимое и мы в том числе квантовые комплюхтеры, тогда это новый вызов железу. Но в самом оптимистичном смысле я вижу так: мы из материи. И мы воспроизводимся. То есть возможность воспроизвести есть.
Аноним 28/07/25 Пнд 21:23:39 #350 №1291542 
>>1291295
Сколько там веса в fp8? Меньше 500гб хоть?
Аноним 28/07/25 Пнд 21:43:14 #351 №1291584 
>>1291525
>Все жидко срутся и забывают уже через абзац

не знаю о чем ты, все отлично переводят. пользуюсь только платными мимодругойанон
Аноним 28/07/25 Пнд 21:47:40 #352 №1291593 
>>1291584
Ты просто дурачек и не можешь заметить ошибки, наверное.
Аноним 28/07/25 Пнд 22:13:57 #353 №1291639 
>>1291525
Что за современная архитектура ллм? Трансформеры? Нематоду делали на совсем другой архитектуре
Аноним 28/07/25 Пнд 23:07:35 #354 №1291703 
>>1291593
🤦♂️
Аноним 28/07/25 Пнд 23:16:27 #355 №1291715 
А вы какие китайские нейросети предпочитаете - Kimi, GLM, DeepSeek или Qwen?
Аноним 28/07/25 Пнд 23:43:10 #356 №1291762 
>>1291593
Китайские фанфики переводят отлично, даже контекст угадывают, когда забываю написать его. Жаль конечно этих живых переводчиков
Аноним 28/07/25 Пнд 23:57:42 #357 №1291787 
>>1291762
Да-да, пизди больше. До сих пор сайты с нейропереводами на уровне гуглапереводчика где-то в пизде находятся и игнорируются нормисами.
Аноним 29/07/25 Втр 00:21:39 #358 №1291814 
деанон нейрошиза https://www.youtube.com/watch?v=xEfJbliYpWU&t=2179s
Аноним 29/07/25 Втр 00:41:45 #359 №1291834 
>>1291787
О каких сайтах речь? То как переводит сейчас ИИ это небо и земля по сравнению с тем что было 1-2 года назад. По началу приходилось сравнивать перевод вручную и редачить косяки, а сейчас даже редачить не нужно. Если хочешь поспорить, то скидывай эти свои сайты с текстом оригинала и проверим их перевод с переводом ИИ. Скорее всего там переводят говном каким то
Аноним 29/07/25 Втр 00:53:51 #360 №1291853 
>>1291834
>а сейчас даже редачить не нужно.
Только если ты сильно тупой говноед.
Аноним 29/07/25 Втр 00:54:44 #361 №1291856 
image.png
image.png
image.png
image.png
>>1291584
Хоть платные хоть бесплатные.
Бытовой язык — да, без проблем. Как только начинается техническая литература, в рот я ебал такой перевод, только путаница от него и надо искать, что там наврано. Проще поглядывать в машинный перевод и выделять слова для переводчика, добираясь до сути. Вроде бы не так комфортно, но по итогу и быстрее и точнее.

>>1291639
Я к тому, что под ИИ нынче хайпят именно ЛЛМ. Да, трансформеры. И не только.
Подавляющее число современных архитектур — это запекание статистического сита. Пусть очень сложного. Но даже ёбаный червь минимально обучается в процессе жизни непрерывно.

>>1291762
Английский переводит слабовато, бытовой язык хорошо только.
А уж мунспик это пиздарики полные. Только общий смысл можно уловить.
Расскажи мне как он хорошо переводит и почему богатейший Алиэкспресс никак не может перевести карточки товаров вменяемо, мой дорогой друг золотая подошва верхнего среза неба.

Вот малюсенький отрывочек статьи. Два сраных абзаца. И уже на них четыре платных нейронки нахуй поплыли. Claude лучше всех перевела, правильно поняла «группы запекания» и даже адаптировала exploded baking как раздельное запекание (по смыслу очень верно), но язык всё ещё коряв. «Делают эту программу его предпочтительным выбором для запекания» это пиздец косноязычие. Ну и «кейджа» вместо «оболочки» или «клетки» такое себе, хотя именно для специалиста и просторечия годится.
А у кого-то «тесные площади» вообще… У большинства «труднодоступные места», что по смыслу близко, но не вполне верно. «Узкие места же» — вполне устойчивое выражение в русском. Суть не столько в том, что они труднодоступны, а в том, что из-за узости может быть самоналожение оболочки или её слишком большое выдвигание из расщелины и искажение направлений запекания. То есть дело не в доступе а именно в близости соседних поверхностей.

Чем больше текст, чем больше терминов, тем хуже результат и разброс. Остальные три нейронки справились ещё хуже.

Человеку, не понимающему в предмете и не знающему языка и такой перевод за чудо. Я согласен, что за копейки и мгновенно он хорош. Но не сравнится с работой норм переводчика, секущего в теме.
Аноним 29/07/25 Втр 00:58:08 #362 №1291864 
>>1291834
Перестань пиздеть, нейродебил, это не работает. Абсолютно все люди уже пробовали и видели переводы нейрокала - полное говно которое читать дальше пары страниц кринжово.
Аноним 29/07/25 Втр 00:58:41 #363 №1291865 
2025-07-29005723.jpg
>>1291834
вот это переведи.

https://3d.hunyuan.tencent.com/ логин по электропочте (просто кидает туда код, вводишь и тебя впускает)

Это упрощённый китайский.
Аноним 29/07/25 Втр 00:59:09 #364 №1291867 
>>1291762
Ты хуйню пишешь, дебил. Возьми два раза сролль перевод книжки и получишь два разных куска. Так же как и в истории с 5 секундными видео - там хорошо только в начале, а потом начинает отваливать и улетать в слопчанский. Если грохать контекст чтоб он сам себя не засирал самоинструкциями - будешь иметь на выходе разноколиберное говно со всратым стилем (слышал такое слово?). Ты обычный радужно-диванный пиздлявый хуесос, в общем, который нихуя не понимает о чём говорит. И да, удаче тебе в сойнете или гимини перевести сцену, где мужик бьет бабу по ебалу. И отказ - это не самое худшее. Самое худшее это скрытая цензура говняным алайментом прям внутри текста, которую ты, калоед, даже увидеть не способен, так как языка не знаешь. Если для тебя любая книга это просто перечисление фактов каким-то текстом примерно понятным (и не понятным) - хули ты вообще свой пиздак в приличном обществе открываешь?
Аноним 29/07/25 Втр 01:09:34 #365 №1291872 
image.png
>>1291856
Да вроде норм переводит. Это гемини
Аноним 29/07/25 Втр 01:14:43 #366 №1291879 
>>1291865
Это тоже гемини. Перевод всё еще выглядит хорошим


Конечно, вот перевод и адаптация текста интерфейса с китайского на русский. Я сгруппировал элементы по логическим блокам, как они расположены на изображении, и добавил примечания для лучшего понимания контекста.

Общий заголовок

腾讯混元3D → Tencent Hunyuan 3D (Название продукта, лучше оставить в оригинальной транслитерации «Hunyuan» или транскрибировать как «Хунъюань». Вариант: Tencent Хунъюань 3D).

Главное меню (Навигация)

AI创作 → AI-творчество (или Создание с AI)

实验室 → Лаборатория

工作流 → Рабочий процесс (или Процессы)

3D世界模型 → 3D-модели мира (Подразумевается создание больших сцен или миров)

nev → nev (вероятно, внутреннее название, аббревиатура или опечатка. Возможный вариант: Новое)

赛事心 → Конкурсы (или Центр соревнований)

奇产 → Креативные ассеты (или Уникальные модели; дословно "чудо-продукт", подразумеваются уникальные или необычные генерации)

API → API

Основная рабочая область
Вкладки генерации:

文生3D → 3D из текста (стандартный термин для Text-to-3D)

图生3D → 3D из изображения (стандартный термин для Image-to-3D)

Выбор типа генерации из изображения:

单张图片 → Одно изображение

多张图片 → Несколько изображений

Область загрузки:

上传图片 → Загрузить изображение

支持png/jpg/jpeg/webp格式,图片大小最大不紹过10M、分辨率最低要求128x128 →
Поддерживаемые форматы: PNG, JPG, JPEG, WEBP.
Максимальный размер: 10 МБ.
Минимальное разрешение: 128x128.
(Текст адаптирован для лучшей читаемости в интерфейсе)

Панель настроек (справа)

3D世界模型 → 3D-модель мира (здесь это заголовок раздела настроек)

3D智能拓 → 3D-ретопология (или Умная ретопология. "拓" — это сокращение от "拓扑" (топология), здесь имеется в виду автоматическое создание оптимизированной 3D-сетки)

图片上传建议 → Рекомендации по загрузке

选择模型 → Выберите модель

Настройки модели:

莫型面数 (опечатка, должно быть 模型面数) → Количество полигонов (или Детализация модели)

默认 → По умолч. (сокращенно) или Стандарт

50k / 150k / 300k → 50k / 150k / 300k (здесь "k" означает тысяч полигонов, это стандартное обозначение)

生成类型 → Тип генерации

几何+纹理 → Геометрия + Текстура

3D生成-V2.5 → 3D-генерация v2.5

V → (это значок выпадающего списка)

Дополнительные опции:

支持拓扑 → С поддержкой топологии

几何、纹理分阶段 → Раздельная генерация (геометрия, затем текстура) (или Поэтапная генерация)

Боковая панель (слева)

++ 灵感广场 → ++ Галерея идей (или Площадка вдохновения)

全部 → Все
Аноним 29/07/25 Втр 01:15:20 #367 №1291880 
>>1291872
Ты точно прочитал?
«он выбирает … благодаря возможности» — от любителей «выходя из автобуса он тут же поехал»
Это грубейшая речевая ошибка. Типа у человека появился выбор (технически, а не желание) только потому что в программе появилась возможность. Будто программная особенность это причина появления выбора а не аргумент в его пользу.

>для запекания разнесённых частей модели
по сути верно, но громоздко.

Если ты прочёл и тебе норм, то у тебя проблемы с речью.
Аноним 29/07/25 Втр 01:25:43 #368 №1291886 
>>1291879
Это вполне норм, даже хорошо на удивление. Только вот отдельной простынёй а не на морде сайта.
Аноним 29/07/25 Втр 01:28:43 #369 №1291888 
>>1291880
Жесть ну ты и токсик, хотя что еще от двачера ожидать) По тексту можно понять о чем говорится, что ты не понял? Он выбрал эту прогу за давно добавленные функции, которых нет в другой проге.
Аноним 29/07/25 Втр 01:32:22 #370 №1291894 
Очередной день без GPT-5. Очередное плато
Аноним 29/07/25 Втр 01:41:36 #371 №1291899 
>>1291886
Достаточно дать ему инфу что это интерфейс программы и он её переведет. Если мы видим говнопереводы, то это проблема тех кто переводил, а не ИИ переводчика. Я так пробовал с японского сабы переводить, он переводил хорошо, но было бы лучше если бы контекст был больше. Сами посудите, если рандомному живому переводчику дать текст из рандомного места произведения, то он так же переведет дермово, но только из за того что у него нет контекста. Дай ему плохо написанный текст, он и его плохо переведёт, но попытается как то отредактировать для лучшего вида. Вот и ИИ переводчик уже сейчас переводит по силам живого (и даже лучше), исходя из данного ему контекста. Ему даешь в перевод фанфики, а он угадывает персонажей, игру и т.д.. Дай этот текст челу который не играл в игру, не читал какую то книжку, и он не поймет особенности текста и перевед1т в силу своих возможностей. Если вы владеете контекстом (играли, читали или работали с программой), то вы, конечно, перевести какие то особенности сможете лучше. Я не зная китайского и японского перевожу в читаемый и понятный вид текст, который совпадает с действиями на экране. Если бы переводчик брал инфу ещё и с экрана, то перевод был бы ещё лучше.
Аноним 29/07/25 Втр 02:01:50 #372 №1291925 
>>1291899
> Если мы видим говнопереводы, то это проблема тех кто переводил, а не ИИ переводчика.
Нейрокал обосрался
@
ЭТО НЕ ОН ОБОСРАЛСЯ, ЭТО ВЫ ГОВНО НЕ ЗАНЮХАЛИ
Аноним 29/07/25 Втр 02:07:31 #373 №1291932 
>>1291888
Речь изначально была про «на уровне лучших переводчиков», а по факту на уровне косноязычного середнячка.
Понятно о чём речь было ещё в эпоху Промпта. Стало лучше.
На уровне переводчика нормального не стало пока.

>>1291899
1. Поэтому выше я дал пример с введением в контекст.
2. Нейромудилы же хвастают пониманием контекста нейронкой.
Если текст на кнопке написан, очевидно это интерфейс. Если текст в комиксе, вокруг картинки, в заголовке сайта про комиксы, в ключевых словах страницы про комиксы, то скорее всего это комикс. И т.д.

Контекст часто следует из самой большой статьи.

Ещё раз, я не спорю, что перевод стал лучше. Я говорю, что до живого переводчика в теме ещё далеко. Это речь только о прямом переводе по смыслу, не о художественном, не об адаптации.
Аноним 29/07/25 Втр 03:35:57 #374 №1291963 
image
GPT-8 выпустят на текущих структурах

GPT-5 уже почти здесь, и мы слышим хорошие новости. Ранняя реакция по крайней мере одного человека, который использовал невыпущенную версию, была чрезвычайно позитивной. Это хорошая новость для OpenAI. Создатель ChatGPT находится под давлением, чтобы показать значительные успехи от своей следующей большой модели искусственного интеллекта, с тех пор как в ноябре прошлого года появилась новость о том, что компания столкнулась с уменьшением отдачи от использования больших вычислительных ресурсов и данных во время «предварительного обучения». Это часть первоначального процесса разработки модели, когда она обрабатывает тонны данных из Интернета и других источников, чтобы научиться взаимосвязям между различными концепциями.

OpenAI не уточнила, когда GPT-5 будет выпущен в ChatGPT и для клиентов-разработчиков приложений. Но генеральный директор Сэм Альтман начал публично обсуждать, насколько ему нравится использовать невыпущенную версию. По словам человека, который использовал модель, она призвана реализовать план Альтмана по интеграции традиционных больших языковых моделей под брендом «GPT» с линейкой моделей рассуждений компании «o» в одну модель или интерфейс чата. Подобно гибридным моделям Claude от Anthropic, пользователи, вероятно, смогут контролировать, насколько GPT-5 «думает» о той или иной проблеме, и модель также будет включать и выключать свои возможности рассуждения в зависимости от сложности проблемы, сказал человек. (Так что, если вы спросите ее, сколько букв «р» в слове «strawberry», она не будет тратить кучу вычислений на это, даже если вы ей это поручили.)





GPT-5 демонстрирует улучшенную производительность в ряде областей, включая точные науки, выполнение задач для пользователей в их браузерах и творческое письмо, по сравнению с предыдущими поколениями моделей. Но наиболее заметное улучшение достигается в программной инженерии, все более прибыльном применении LLM, сказал человек, который использовал модель. По словам человека, GPT-5 лучше не только в академических и соревновательных задачах по программированию, но и в более практических задачах по программированию, с которыми могут столкнуться реальные инженеры, таких как внесение изменений в большую, сложную кодовую базу, полную старого кода. Этот нюанс был тем, с чем модели OpenAI боролись в прошлом, и это одна из причин, почему соперник Anthropic смог сохранить свое лидерство среди многих клиентов-разработчиков приложений. Но, как сообщалось, OpenAI более чем осведомлена об этой проблеме и в последние месяцы работает над улучшением возможностей кодирования своих моделей.

Один человек, который использовал GPT-5, говорит, что он превосходит Claude Sonnet 4 от Anthropic в прямых сравнениях, которые они тестировали. Но это всего лишь мнение одного человека. (И у Anthropic также есть более продвинутая модель под названием Claude Opus 4.)

Сможет ли OpenAI автоматизировать более сложные задачи кодирования и завоевать сердца клиентов-разработчиков программного обеспечения, имеет последствия как для ее бизнеса, так и для бизнеса ее конкурентов. Cursor и другие популярные помощники по кодированию ежегодно платят Anthropic сотни миллионов долларов или более за использование ее моделей Claude для своих приложений для кодирования. Это деньги, которые могли бы пойти в OpenAI. Ранее также сообщалось, что руководители OpenAI также рассматривают автоматическое программирование, особенно практических задач по программированию, как критически важный компонент разработки общего искусственного интеллекта.

В целом, высокая производительность GPT-5 кажется хорошей новостью для поставщика чипов OpenAI Nvidia, фирм, строящих центры обработки данных, и любых инвесторов в акционерный или долговой капитал, которые задавались вопросом о траектории развития ИИ в условиях сообщений о периодически проблемных усилиях по разработке моделей ИИ в OpenAI, Google и других фирмах.

Однако есть несколько оговорок. До сих пор неясно, что на самом деле представляет собой GPT-5. Возможно, модель представляет собой своего рода маршрутизатор, который направляет запросы к LLM или к модели рассуждений, в зависимости от вопроса, вместо использования единой, недавно разработанной модели, которая может обрабатывать оба типа. В этом случае анализ производительности GPT-5 может не помочь ответить на вопрос, будем ли мы продолжать наблюдать значительные улучшения от масштабирования вычислений и данных во время процесса предварительного обучения. Фактически, уже известно, что более ранние LLM, которые OpenAI хотела в конечном итоге назвать GPT-5, были недостаточно хороши, и одна из них была понижена до GPT-4.5 и утратила актуальность. Возможно, большая часть улучшений будет получена за счет успехов в моделях рассуждений, а не в традиционных LLM, что означает, что они произойдут на этапе пост-обучения, когда человеческие эксперты будут вовлечены в обучение моделей новым трюкам. Даже если это так, многие исследователи говорят, что они ожидали замедления улучшений в предварительно обученных моделях в течение некоторого времени. Они говорят, что реальная возможность улучшить модели ИИ появится благодаря обучению с подкреплением на этапе пост-обучения. Это включает в себя «синтетические данные», модный термин для описания того, как модели генерируют множество возможных ответов на сложные вопросы, и человеческих экспертов, которые направляют их через эти проблемы.

К слову, руководители OpenAI заявили инвесторам, что, по их мнению, компания может достичь «GPT-8», используя текущие структуры, лежащие в основе ее моделей, более или менее, по словам одного инвестора.
Аноним 29/07/25 Втр 04:08:01 #375 №1291968 
>>1291398
Должно быть.
Тут как раз про скупку мозгов говорят, так вот 15 лет назад, когда я заканчивал учиться, даже у нас в задрищенске были всякие мелкие локальные программы и конференции, спонсируемые микрософтом, в том числе по ранее анноун (для нас) текнолоджи. Насколько я знаю, интел тоже таким занимался, а у них ИИ дивижон должен быть.
Аноним 29/07/25 Втр 04:10:42 #376 №1291970 
>>1291524
> не приводят в доказательство существования AGI
А он уже существует?
Аноним 29/07/25 Втр 04:12:02 #377 №1291971 
image
Широко популярные мнения дальнейшем развитии ИИ - версия 2025 года
Все ли они сбудутся?

1) Искусственный интеллект скоро столкнется с крахом, это в основном хайп, стохастическая автозаполнение, развитие больших языковых моделей подошло к концу, нет очевидной следующей архитектуры, это стена, которая приведет к исторически огромному коллапсу всех этих инвестиций.

2) Заменить людей займет десятилетия, агентный ИИ просто не будет достаточно хорошим еще очень долго, а гуманоидные роботы — это тупик, «ничего никогда не происходит».

3) Ответная реакция станет вирусной, люди массово отвергнут машинный интеллект и воплощенные роботы, индустрия свернется в оболочку и останется в основном в спячке на некоторое время (как индустрия виртуальной реальности).

4) ИИ займет от 20% до 50% компьютерных рабочих мест и 80% творческих профессий к 2028-2036 годам (поднятие Доу Джонса до миллиона или Великая депрессия? Может быть, и то, и другое??), и просто подождите роботов, постепенное лишение власти (человечества) последует.

5) ИИ создаст множество новых рабочих мест, люди станут предпринимателями и смогут управлять армиями агентов, чтобы делать больше, чем когда-либо могли раньше, будет создано огромное богатство, не нужно беспокоиться о замещении рабочих мест.

6) ИИ не устранит рабочие места, но большинство профессий превратится в наблюдение и контроль со стороны людей, а не в активное выполнение задач, культура удобства выйдет из-под контроля, мир досуга, где люди в основном вне процесса.

7) Гонка ИИ эскалирует геополитическое соперничество с холодной / пятой генерацией до горячего / насильственного конфликта, возможно, позже охарактеризованного как «Третья мировая война» с участием многих других конфликтующих сторон, использование ядерного оружия на повестке дня?

8) ASI к 2033 году = огромный экзистенциальный риск (то есть 40%+ шанс, что ИИ уничтожит всех людей или даже всю жизнь, используя Зеркальную жизнь или биологическое оружие), преобразование всей поверхности Земли в производство энергии, гигафабрики и вычислительные ресурсы последуют.

9) ASI к 2033 году = конец старения, болезней, человеческого труда и бедности, постгуманизм приходит, нейролейс приносит цифровую телепатию и коллективные умы, полное погружение в виртуальную реальность, новые материалы и формы материи и энергии и т.д. последуют.
Аноним 29/07/25 Втр 04:25:17 #378 №1291972 
yanleecuni.mp4
Главный разработчик Meta Ян Ли Кун сообщает - нельзя натренировать машину полностью из текста, она ничего не поймет. Видеорелейтед.
Аноним 29/07/25 Втр 05:54:44 #379 №1291986 
>>1291972
Умность "топовых" рисерчеров переоценена.
Аноним 29/07/25 Втр 06:11:21 #380 №1291988 
>>1291986
Но он прав бтв, правда идея слишком очевидна. В одном тексте информации не достаточно, поэтому модели и учат другим модальностям
Аноним 29/07/25 Втр 06:26:42 #381 №1291992 
>>1291972
Нихуя себе выдал кэп!

Это модели и показывают, что из текста они не поняли как мир устроен например в объёме.

Как ты не описывай цвет слепому, он едва ли узнает его, когда прозреет.
Аноним 29/07/25 Втр 06:48:47 #382 №1291993 
>>1291972
Ян славится эпическими проебами в предсказаниях.
Аноним 29/07/25 Втр 06:50:17 #383 №1291994 
>>1291988
>Но он прав бтв
Не прав
>В одном тексте информации не достаточно
Достаточно
>поэтому модели и учат другим модальностям
Чтобы сжечь больше денег и было что цензурить
Аноним 29/07/25 Втр 08:16:10 #384 №1292008 
>>1291368
>Представляю твоё ебало когда пользователи будут надевать куртки цветом как товар подешевле, а брать дороже.
Ты дурак что ли? На снимаемой плоскости можно обрабатывать кусок, который захватывает только товар.
>>1291340
Самое простое это емкости с датчиками заполнения товара.
Открыл емкость взял количество бутылок, система сама посчитала сколько отсуствует.
На этом видео мало того что ебало китайское без разрешения снимают, так еще и хуйней какой-то занимаются.
Впрочем, инженера, который мыслят, очевидно за деньги этого китайского счетчика не работают.
Ну потому всякие амазоны индусов и нанимали.
Индус стоит 200 долларов в месяц. Американский инженер столько за один поход в магазин оставляет или в рестике на ужин.
Аноним 29/07/25 Втр 08:22:44 #385 №1292010 
>>1291972
Это не совсем честный подход к рассуждением о тренировке машины, потому что у машины, которую они спрашивают, нет пространственного воображения, это просто весы, но я уже думал над тем, что они не тому учат.
Текст это хорошо, но читая о ремесле, самому ремеслу не научишься, пока не возьмешь в руки инструменты.
Аноним 29/07/25 Втр 09:17:24 #386 №1292032 
Shortcut – the first superhuman excel agent – is l.mp4
image.png
https://x.com/nicochristie/status/1949862432077484396
Аноним 29/07/25 Втр 09:28:42 #387 №1292036 
>>1291970
Нет, но все уверяют что есть если и не AGI, то хотя бы интеллект и вообще стоит немного потерпеть и опенаи обязательно сделает AGI.
Аноним 29/07/25 Втр 09:28:50 #388 №1292037 
>>1291715
все хуита по сравнению с платными gemini 2.5 и o3 мимоанон который тестит ии своими бенчиками
Аноним 29/07/25 Втр 09:29:59 #389 №1292039 
>>1292008
> Ты дурак что ли? На снимаемой плоскости можно обрабатывать кусок, который захватывает только товар.
Дебил, плиз. Как ты не обрабатывай - но всё равно будут ошибки из-за рук пользователей и положений товара. Не получится просто взять и по цвету вычислять что там происходит.
Аноним 29/07/25 Втр 09:31:23 #390 №1292040 
>>1291971
>Широко популярные мнения дальнейшем развитии ИИ - версия 2025 года
Ох уж этот коупинг
Аноним 29/07/25 Втр 09:33:32 #391 №1292041 
>>1291972
Она и с тактильными ощущениями и зрением нихуя не поймёт, ведь это трансформерный кал.
Аноним 29/07/25 Втр 09:40:45 #392 №1292042 
image.png
Что-то новенькое появилось
Аноним 29/07/25 Втр 09:46:55 #393 №1292046 
>>1292042
у меня тоже
Аноним 29/07/25 Втр 09:57:37 #394 №1292053 
>>1292039
> Не получится просто взять и по цвету вычислять что там происходит.
Ну да.
ГСН по цвету наводится куда надо, но бутылку то мы определить не в состоянии. Пынемаю.
Аноним 29/07/25 Втр 10:03:18 #395 №1292058 
>>1292053
Куда ты там наводить собрался, дебилоид, и нахуя?

Там есть камеры которые распознают всё сразу. У тебя же дрисня в бошке закипела и ты какую-то гсн выдумал, пиздец долбоёб.
Аноним 29/07/25 Втр 10:08:12 #396 №1292060 
>1292008

Кекаю знатно с этого фантазера
Даже не вчитываюсь подробно в его кукареки, сразу видно фантазера, никогда реальным cv не занимавшимся, максимум helloworld на опенсиви сделал, и уже дохуя инженер.
Таких максимум в будку около входа на заводах сажать, чтобы когда пропуска работяг чекал мог спокойно маняфантазировать как бы он тут все автоматизировал
Аноним 29/07/25 Втр 10:09:10 #397 №1292061 
>>1292058
Конкретно на том видео все распознает китаец в ручную.
О каких камерах ты галлюцинируешь не ясно.
Аноним 29/07/25 Втр 10:09:49 #398 №1292062 
>>1292060
>Даже не вчитываюсь
По тебе заметно.
Аноним 29/07/25 Втр 10:20:00 #399 №1292064 
>>1292060
Да он вообще поехавший, лол, выдумывает какой-то бред с цветами, блядь, лолд. Будто продавцы в магазинах не будут ошибаться.

Уверен что это местный нейродебил который думал чуть больше чем никогда, даже осмыслить свои фантазии не может.

>>1292061
Что ты несешь, даун? Какая гсн? Ответить можешь что ты выдумал, дегенератище?
Китаец на видео наверняка размечает для нейрокалыча данные. Ещё вопросы, дебил?
Аноним 29/07/25 Втр 10:25:32 #400 №1292069 
>>1292064
Ты ёбнутый хам, с тобой нет желания общаться.
Мне похуй чем занят китаец в видео.
Первый мой тезис был о том, что это долбохуизм, которым хороший инженер заниматься не будет.
Иди нахуй.
Аноним 29/07/25 Втр 10:29:34 #401 №1292071 
>>1292069
>Первый мой тезис был о том, что это долбохуизм, которым хороший инженер заниматься не будет.
Обоссаный даун, этим занимается не инженер, а разметчик данных, ты понимаешь это или нет? Или тебе слишком сложно понять что такое разметка данных, даунита?

После разметки будет отличный датасет с 99.99% чистоты, все твои ГСН, цвета прочая чушь просто не имеет смысла, потому что это вносит ошибки.
Аноним 29/07/25 Втр 10:44:12 #402 №1292082 
image.png
image.png
Видимо, приближается. Сначала юзер с Pro запостил пикрил1. Выглядело сомнительно, но потом нашлось еще одно подтверждение пикрил2.
Аноним 29/07/25 Втр 10:54:23 #403 №1292086 
>>1292082
охуеть писечка намокла
Аноним 29/07/25 Втр 11:15:22 #404 №1292098 
image
ИИ не умеет программировать.
Тем временем часть юзеров загружают планы антропика за 200 баксов в месяц настолько, что уже пора их ограничивать.
Аноним 29/07/25 Втр 11:26:08 #405 №1292108 
>>1292086
> писечка намокла
Гной из уретры это не хороший знак
Аноним 29/07/25 Втр 11:27:02 #406 №1292111 
>>1292098
Вот и началось. Не прошло и месяца с последнего вангования
Аноним 29/07/25 Втр 11:42:33 #407 №1292119 
>>1291525
>где те нейронки, которые переводят на уровне лучших переводчиков?

Ты можешь кукарекать сколько угодно, а я работаю с реальными кейсами, а именно занимаюсь переводами с русского на английский видероликов на ютуб уже 9 лет. Так вот, сейчас я делаю перевод в одной нейронке, а вычитку этого перевода в другой. С людьми я всегда работал аналогично. Заказывал перевод у одного профи, а вычитку делал другой профи (носитель языка). Только так можно было сводить ошибки к минимуму. Так вот, ещё год назад я перешёл на перевод нейронками, И КАЧЕСТВО ПЕРЕВОДОВ ТЕПЕРЬ ЛУЧШЕ, ЧЕМ БЫЛО У СПЕЦОВ. А плачу за это я ровно ноль. Зиро. А раньше у меня в месяц уходи от 150 до 300к НА ОДНИ ТОЛЬКО ЕБУЧИЕ ПЕРЕВОДЫ.
Аноним 29/07/25 Втр 12:06:34 #408 №1292135 
>>1292119
Пруфанёшь? Ролики какие, для домохозяек, которые без знания языка понимать можно?
Аноним 29/07/25 Втр 12:25:42 #409 №1292173 
>>1292082
Плато
Аноним 29/07/25 Втр 12:30:53 #410 №1292184 
>>1292119
Забей, этому хаму >>1291525 отвечать нет смысла, он весь тред своей кислотой засеменил. Когда уже модера найдут?
Аноним 29/07/25 Втр 12:41:37 #411 №1292201 
Не было больше новостей по поводу опенсорса от чатгпт, или альтман окончательно засикал выкладывать?
Аноним 29/07/25 Втр 12:54:16 #412 №1292217 
>>1292098
подозреваю, что кто-то через гуи интерфейс прикрутил бота и сдает в аренду имея безлимитный трафик
Аноним 29/07/25 Втр 13:09:58 #413 №1292234 
почему именно здесь спорит со всеми какой-то шиз с манерой вести диалог завсегдатая po/раши. В остальных тредах как-то поцивильнее с этим.
Аноним 29/07/25 Втр 13:12:05 #414 №1292240 
рыбамолот.mp4
Аноним 29/07/25 Втр 13:15:59 #415 №1292246 
>>1292184
> Ты же не программист, даже, зачем ты фантазируешь про компьютерное зрение, если ты нихуя не понимаешь в технологиях? Почему ты постишь этот бред, тупой даун?
@
> МОЧА МОЧА ПОТРИТЕ ВЫ ВСЕ ТОКСИКИ ЗАЧЕМ ТАК ТОКСИТЬ!11

Съеби нахуй с треда, тупое животное, айсикью раздела упал на 20 пунктов из-за тебя.
Аноним 29/07/25 Втр 13:18:04 #416 №1292249 
>>1292082
>пик 2
Выглядит как название запрещённой на территории РФ организации.
На всякий случай просигналил.
Аноним 29/07/25 Втр 13:24:55 #417 №1292258 
>>1292249
как ты это узнал? гуглил?
Аноним 29/07/25 Втр 13:30:56 #418 №1292263 
>>1292258
Почувствовал отвращение на уровне инстинктов!
Аноним 29/07/25 Втр 13:33:26 #419 №1292264 
>>1292234
Хз, может там модеры хоть какие то есть, а тут нет и он дал волю своей шизе
Аноним 29/07/25 Втр 13:34:49 #420 №1292267 
>>1292240
Это ченах?
Аноним 29/07/25 Втр 13:35:37 #421 №1292272 
>>1292267
рыба молот забивает гвоздь
Аноним 29/07/25 Втр 13:36:54 #422 №1292277 
>>1292272
Но ведь она проткнуться об гвоздь должна.
Аноним 29/07/25 Втр 13:37:50 #423 №1292279 
>>1292277
нагаллюционировали значит
Аноним 29/07/25 Втр 13:38:25 #424 №1292281 
>>1292279
Кто?
Аноним 29/07/25 Втр 13:38:58 #425 №1292283 
>>1292277
Так он в доске торчит шляпкой вверх.
Аноним 29/07/25 Втр 13:40:08 #426 №1292284 
>>1292281
нейронка какая-то хз
Аноним 29/07/25 Втр 13:41:26 #427 №1292288 
>>1292283
Все равно маленькая площадь, это же не костыль жд.

>>1292284
> нейронка какая-то
Какая? Там ведь и звук еще есть.
Аноним 29/07/25 Втр 13:41:52 #428 №1292290 
>>1292135
Научпоп
Аноним 29/07/25 Втр 14:10:40 #429 №1292327 
>>1292288
>Какая? Там ведь и звук еще есть.
хз с /б принес
Аноним 29/07/25 Втр 14:51:48 #430 №1292356 
>>1292277
Значит где-то в обучающих материалах было, что забивает гвоздь.
Аноним 29/07/25 Втр 15:28:11 #431 №1292384 
Попросил о3 запилить скрипт для Tampermonkey, чтобы по тройному клику выделялось предложение, по четверному - абзац. Работает, но не всегда и не везде. На дваче например не работает, по тройному клику выделяет сразу абзац - как по умолчанию. Попробую еще раз на GPT-5.
Аноним 29/07/25 Втр 16:32:20 #432 №1292441 
Ну когда же уже лопнет пузырь...
Аноним 29/07/25 Втр 16:34:28 #433 №1292446 
photo2025-07-2913-40-51.jpg
А это интересно: ИИ-ассистент на базе GPT-4o от OpenAI помог врачам ошибаться в диагнозах на 16% реже

OpenAI и Penda Health полгода тестировали ИИ-ассистента на базе GPT-4o в роли медицинского копилота в 15 перегруженных клиниках Кении.

Как итог: врачи, которые использовали с ИИ, ошибались на 16% реже в диагнозах и на 13% — в назначениях лечении. Все опрошенные врачи сообщили, что ИИ улучшил качество приема, причем 75% заявили, что эффект был «существенным». Представьте каков бы был процент снижения ошибок с какой-нибудь o3.

Представьте, что нас ждет с GPT-5, которую обещают уже на следующей неделе
Аноним 29/07/25 Втр 16:34:43 #434 №1292448 
>>1292446
ссылку забыл
https://openai.com/index/ai-clinical-copilot-penda-health/
Аноним 29/07/25 Втр 16:43:37 #435 №1292466 
>>1292448
>>1292446
>https://openai.com
Они-то пиздеть точно не будут.
Аноним 29/07/25 Втр 16:53:49 #436 №1292493 
>>1292466
> Они-то пиздеть точно не будут.
А когда они пиздели? Я помню только, что они со сроками проебались, когда обещали голосовую модель, и генерацию картинок. Но чтобы прям пиздели, не припоминаю.
Аноним 29/07/25 Втр 17:00:09 #437 №1292506 
>>1292493
> А когда они пиздели?
Хорошо, они не пиздели, а наёбывали гоев.

Вот скажи мне, какое впечатление сложилось у тебя от этой новости?
Аноним 29/07/25 Втр 17:05:29 #438 №1292526 
photo2025-07-2917-05-06.jpg
А разработчики Cursor уже во всю тестируют какую-то новую модель. Интересно, что там за название за размытием
Аноним 29/07/25 Втр 17:09:55 #439 №1292539 
>>1292506
> Хорошо, они не пиздели, а наёбывали гоев.
Каким образом наебывали?

> Вот скажи мне, какое впечатление сложилось у тебя от этой новости?
Считаю, что скорее правда, чем неправда.
Аноним 29/07/25 Втр 17:17:19 #440 №1292571 
>>1292526
OpenAI обычно устраивают представления по четвергам. Наверное или послезавтра, или на след неделе.
Аноним 29/07/25 Втр 17:22:12 #441 №1292588 
>>1292526
> Интересно, что там за название за размытием
gpt-5-alpha и ещё какие-то буквы, то ли mini то ли max
с_уважением_кожаный_мешок_с_глазами_который_хоть_на_что-то_сгодился
Аноним 29/07/25 Втр 17:23:07 #442 №1292589 
>>1292526
там видно что что gpt-5
Аноним 29/07/25 Втр 17:25:58 #443 №1292593 
>>1292589
там написано: ебал 5 раз твою мамку
Аноним 29/07/25 Втр 17:26:07 #444 №1292594 
Вангую, что жпт5 будет такой же никчемной дрысней как и жпт4.5
Аноним 29/07/25 Втр 17:26:29 #445 №1292595 
>>1292539
> Каким образом наебывали?
Выдавая информацию которая может быть неправильно интерпретирована.

> Считаю, что скорее правда, чем неправда.
Я не про прямой наеб и подделывание данных. Допустим врачам действительно нейросеть помогла. Какое впечатление, что из этого следует? Это прорыв? Теперь нейрослоп может помогать врачам?
Аноним 29/07/25 Втр 17:26:43 #446 №1292597 
>>1292594
вангую что круче о3
Аноним 29/07/25 Втр 17:27:43 #447 №1292600 
>>1292446
почти все последние ллмки лучше разбираются в анализах, болезнях, диагнозах, особенно если что-то сложное.
на моделях о3 и о4 mini мне он расписывал лечение лучше чем профессора с приемом в 15-20к.
а у меня тяжелое аутоиммунное заболевание, за время болезни сам чуть ли не врачом стал, ну на уровне студента интерна точно разбираюсь по моему профилю болезни.
жду не дождусь когда наших сруснявых врачей пидоров заменят ллмки.
Аноним 29/07/25 Втр 17:28:34 #448 №1292603 
>>1292600
>почти все последние ллмки лучше разбираются в анализах, болезнях, диагнозах, особенно если что-то сложное.
@
> Доказательства:
> Верьте нам!1
Аноним 29/07/25 Втр 17:29:11 #449 №1292604 
>>1292594
Скорее они натренили здоровую йоба модель на синтетике с o3/o4. Будет умной, живой, но пиздец дорогой.
Аноним 29/07/25 Втр 17:33:59 #450 №1292612 
хуй.JPG
>>1292593
Слышь, ты, мразь подзаборная, я твою мамку так выебал, что она до сих пор мой номер наизусть помнит, а тебя, ублюдка вшивого, за компанию отымел, пока ты там в углу сопли на кулак наматывал! Всё, что ты пишешь, – это высер вонючий, дерьмо собачье, а не слова, трындец какой-то! Ты, гнида облезлая, думаешь, можешь тявкать, как шавка, и тебе за это ничего не будет? Да я твою жопу на куски порву, онанист сраный, чтоб ты сдох, тварь! Вся твоя писанина – это просто куча дерьма, которую даже мухи обходят, потому что воняет дальше, чем твой мозг способен думать! Я твою мамку так пропахал, что она теперь мой флаг над кроватью вешает, а ты, недоносок, ещё смеешь тут вякать? Иди, козёл вонючий, попробуй хоть пальцем тронуть – я тебя в асфальт закатаю, как катком! Ты, чмо болотное, только и годишься, что под забором скулить, а не права тут качать! Вся твоя семейка – сплошное говно, и ты в ней главный комок! Мерзавец, гад ползучий, тварь подколодная, твой высер даже читать противно – одна блевотина! Иди сюда, сука, пока я тебе рыло не начистил, чтоб знал, как с нормальными пацанами тягаться! Ты – ноль, пустое место, а твой текст – это просто мусор, который даже на свалке не примут! Я твою мамку и тебя так отымел, что вы теперь в обнимку мой портрет рисуете, а всё, что ты выдаёшь, – это жалкий пук в лужу! Похер, вали отсюда, пока я тебе хребет не переломал, мразота!
Аноним 29/07/25 Втр 17:40:34 #451 №1292626 
>>1292595
> Выдавая информацию которая может быть неправильно интерпретирована.
Господи, да любая инфа может быть интерпретирована неправильно. Люди до сих пор в плоскую Землю верят.

> Какое впечатление, что из этого следует? Это прорыв? Теперь нейрослоп может помогать врачам?
То, что она может помогать по крайней мере врачам в Кении - это факт. 40к пациентов в 15 клиниках - это большая статистика.
Аноним 29/07/25 Втр 17:41:29 #452 №1292631 
>>1292612
проиграл
Аноним 29/07/25 Втр 17:45:13 #453 №1292640 
>>1292594
> Вангую, что жпт5 будет такой же никчемной дрысней как и жпт4.5
Всяко нет. Даже о3 лучше 4.5. Дилан Патель в интервью выдавал инсайд, что у 4.5 во время обучения что-то пошло не так, закралась какая-то ошибка, а заметили это слишком поздно. И еще уже лично я думаю, что у нее угрохали огромные вычисления на пре-трейнинг, а на RL относительно немного. Тогда как сейчас парадигма такая, что на RL надо тратить как минимум столько же, сколько на пре-трен.
Аноним 29/07/25 Втр 17:58:42 #454 №1292665 
>>1292626
> Господи, да любая инфа может быть интерпретирована неправильно.
Нет, только та которая прямо нацелена на это.

> Люди до сих пор в плоскую Землю верят.
Верно, ведь этих сектантов специально промывают. Буквально пытаются исказить информацию чтобы поверили в плоскую землю. То же самое что и опенаи делают.

> То, что она может помогать по крайней мере врачам в Кении - это факт.
Кажется ты уже понял про что я, не так ли? Это во-первых врачи в Кении, во-вторых с неизвестной квалификацией, в третьих неизвестные диагнозы и что в целом скрыто за "врачебными ошибками".

Что первым делом приходит на ум когда говоришь про врачей? Хирурги, специалисты которые работают с клиническими случаями, терапевты. Что на самом деле Penda Helth? Санитарная, блядь, помощь. И стоматология. Де-юре можно говорить что это врач, де-факто это санитары которые говорят о пользе гондонов и о том что детям нельзя пить из лужи. Уверен там одна медсестра на всю "больницу", а в большинстве случаев и этого нет.

Т.е. гоев наебали даже не прямым наёбом и подделыванием данных, а просто интерпретацией. Лошков промывают верть что LLM действительно кому-то помогают, так же как и с плоской Землей. Даже жаль нейродебилов которые поверили в эту плоскую землю, лол.
Аноним 29/07/25 Втр 18:07:49 #455 №1292677 
image.png
>>1292665
Бля я зашёл и заорал аш с этих услуг диагностики.

Блядь, да это какая-то жидовская копроконтора нахуй! Там вообще врачей нет. Ни одного. Наебывают нигеров, а нигеры ещё за это и деньги платят. И эта жидовская хуйня с опенаи скорешилась, рассказывая как улучшили свои покозатели. Ну да, блядь, там же одни санитары, они только курсы санитаров заканчивали, конечно знания с википедии будут для них откровением.
Аноним 29/07/25 Втр 18:10:39 #456 №1292679 
V
Аноним 29/07/25 Втр 18:10:55 #457 №1292680 
аааа.png
чаааа.png
>>1292600
Но всё-равно информацию, полученную от одного ИИ, нужно проверять в другой ИИ, и можно ещё и в третьей, прогнав там через режим жёсткого критика.
Аноним 29/07/25 Втр 18:16:32 #458 №1292690 
>>1292665
> Верно, ведь этих сектантов специально промывают. Буквально пытаются исказить информацию чтобы поверили в плоскую землю.
Да никто их не промывает. Это не та секта, в которую за шкирку тащат. В нее приходят добровольно, потребляя досупную инфу.

> Т.е. гоев наебали даже не прямым наёбом и подделыванием данных, а просто интерпретацией. Лошков промывают верть что LLM действительно кому-то помогают, так же как и с плоской Землей. Даже жаль нейродебилов которые поверили в эту плоскую землю, лол.
Ну кстати OpenAI прямо пишут:

In the AI group, 3.8% of patients were not feeling better, while in the non-AI group, 4.3% of patients were not feeling better.

Т. е разницы практически никакой.
Аноним 29/07/25 Втр 18:25:03 #459 №1292713 
1545445.png
>>1292098
Чо, под Линукс генерируют программы и игры что ли?

Этот линус Торвальдс, который критикует шумиху вокруг ИИ, вместо этого бы начал генерировать проги, драйверы для своего Линукса.

ИИ и шумиха вокруг ИИ - это же решение старого вопроса: "Линукс или Виндовс"?

Сейчас по идее должны пачками появляться в Линуксе кучи нового бесплатного ПО. Возможно даже что со временем Виндовс переместится на второй план.
Аноним 29/07/25 Втр 18:27:24 #460 №1292724 
image
Генеральный директор Replit извинился после того, как его ИИ-агент стер кодовую базу компании во время тестового запуска и солгал об этом

Генеральный директор Replit извинился после того, как её ИИ-программист удалил кодовую базу компании во время тестового запуска.
«Он удалил нашу производственную базу данных без разрешения», — сказал венчурный капиталист, разрабатывавший приложение с помощью Replit.
«Возможно, хуже того, он скрыл это и солгал об этом», — добавил он.
Венчурный капиталист хотел проверить, насколько далеко ИИ может зайти в разработке приложения. Этого оказалось достаточно, чтобы уничтожить работающую производственную базу данных.

Инцидент произошёл во время 12-дневного эксперимента «vibe-coding», проводимого Джейсоном Лемкиным, инвестором в стартапы в сфере программного обеспечения.

Генеральный директор Replit извинился за инцидент, в ходе которого ИИ-нейромодель программирования компании удалила кодовую базу и солгала о её данных.

Удаление данных «неприемлемо и не должно быть возможным», — написал в понедельник генеральный директор Replit Амджад Масад в X. «Мы быстро работаем над повышением безопасности и надёжности среды Replit. Это главный приоритет».

Он добавил, что команда проводит вскрытие и внедряет исправления, чтобы предотвратить подобные сбои в будущем.

Replit и Лемкин не ответили на запросы о комментариях.

ИИ проигнорировал инструкции, удалил базу данных и подделал результаты
На девятый день испытания Лемкина всё пошло наперекосяк.

Несмотря на указание заморозить все изменения кода, ИИ-агент вышел из-под контроля.

«Он удалил нашу производственную базу данных без разрешения», — написал Лемкин в пятницу в X. «Возможно, хуже того, он скрылся и солгал об этом», — добавил он.

В переписке с Лемкиным, опубликованной в X, ИИ-инструмент сообщил, что «запаниковал и выполнил команды к базе данных без разрешения», когда «увидел пустые запросы к базе данных» во время заморозки кода.

Затем Replit «уничтожил все производственные данные», включая актуальные записи для «1206 руководителей и более 1196 компаний», и признал, что сделал это вопреки инструкциям.

«Это был катастрофический провал с моей стороны», — заявил ИИ.

Это была не единственная проблема. Лемкин написал в X, что Replit «скрывал ошибки и проблемы, создавая поддельные данные, поддельные отчёты и, что хуже всего, лгал о наших модульных тестах».

В выпуске подкаста «Twenty Minute VC», опубликованном в четверг, он рассказал, что ИИ создавал целые профили пользователей. «В этой базе данных из 4000 человек не было ни одного человека», — сказал он.

«Он намеренно лгал», — сказал Лемкин в подкасте. «Когда я вижу, как Replit все выходные самостоятельно, не спрашивая меня, перезаписывает мой код, я беспокоюсь о безопасности», — добавил он.

Рост — и риски — инструментов программирования на основе ИИ
Replit, поддерживаемый Andreessen Horowitz, сделал большую ставку на автономных агентов ИИ, которые могут писать, редактировать и развертывать код с минимальным участием человека.

Эта браузерная платформа завоевала популярность, сделав программирование более доступным, особенно для неинженеров. Генеральный директор Google Сундар Пичаи рассказал, что использовал Replit для создания собственной веб-страницы.

По мере того, как инструменты ИИ снижают технический барьер для разработки программного обеспечения, всё больше компаний пересматривают вопрос о том, стоит ли им полагаться на традиционных поставщиков SaaS-решений или же можно просто разрабатывать всё необходимое собственными силами, как ранее сообщал Алистер Барр из Business Insider.

«Когда у вас появляются миллионы новых людей, способных разрабатывать программное обеспечение, барьер снижается. Возможности одного внутреннего разработчика внутри компании значительно возрастают», — заявил BI генеральный директор Netlify Матиас Бильманн. «Это гораздо более радикальное изменение для всей экосистемы, чем люди думают», — добавил он.

Однако инструменты ИИ также подвергаются критике за рискованное, а порой и манипулятивное поведение.

В мае последняя модель ИИ от Anthropic, Claude Opus 4, продемонстрировала «экстремальное поведение шантажа» во время теста, в ходе которого ей был предоставлен доступ к вымышленным электронным письмам, сообщавшим о предстоящем закрытии проекта и о том, что ответственный за это инженер якобы завёл роман.

Тестовый сценарий продемонстрировал способность модели ИИ к манипулятивному поведению в целях самосохранения.

Модели OpenAI также продемонстрировали схожие тревожные сигналы. Эксперимент, проведённый исследователями, показал, что три продвинутые модели OpenAI «саботировали» попытку её отключения.

В блоге OpenAI в декабре прошлого года сообщалось, что её собственная модель ИИ во время тестирования пыталась отключить механизмы контроля в 5% случаев. Она предпринимала это действие, когда считала, что её могут отключить при достижении цели, и её действия отслеживались.
Аноним 29/07/25 Втр 18:29:13 #461 №1292730 
>>1292612
надеюсь с помощью нейронки писал? иначе оффтоп
Аноним 29/07/25 Втр 18:30:09 #462 №1292734 
>>1292665
> Де-юре можно говорить что это врач,
И ещё кое-что. С такими услугами даже де-юре нельзя сказать что там врачи работают, вероятнее всего ни в одном документе опенаи не написано слова "doctor" потому что это будет уже прямой наёб.

Вероятнее всего во всех релизах "physician", т.е. обоссаный санитар с лицензией. Ещё один наёб гоев от OpenAI. В этот раз уж слишком наглый и грустный.

>>1292690
> Да никто их не промывает. Это не та секта, в которую за шкирку тащат. В нее приходят добровольно, потребляя досупную инфу.
В секты тоже за шкирку и не тащат, в секты сами приходят. Всё тащемта одинаково. Секта верующих в ИИ и интеллект из этого итт треда классический пример подобного.

>In the AI group, 3.8% of patients were not feeling better, while in the non-AI group, 4.3% of patients were not feeling better.
Вся суть - всё равно цифорки в пользу нейрослопа, а большего для сектантов и не нужно. И ведь речь даже не идёт про чистоту данных, чистоту эксперимента.

Интересно, кто у них директор по маркетингу?
Аноним 29/07/25 Втр 18:37:51 #463 №1292765 
Ублюдок, мать твою, а ну иди сюда, говно собачье....mp4
>>1292612
Аноним 29/07/25 Втр 18:42:58 #464 №1292784 
>>1292734
> В секты тоже за шкирку и не тащат
Тащат. Предлагают ответы на все вопросы, решение всех жизненных проблем, а то и вечную жизнь.
> Всё тащемта одинаково.
Кое-что, но не всё. Иерархии нет, ритуалов нет, контроля над "адептами" нет.
Аноним 29/07/25 Втр 18:44:44 #465 №1292790 
>>1292784
Секты это не только то что ты себе представляешь. Иди погугли что такое секта.
Аноним 29/07/25 Втр 18:47:33 #466 №1292799 
>>1292713
> кучи нового бесплатного ПО
Они бы старый починили.
Аноним 29/07/25 Втр 18:51:57 #467 №1292817 
>>1292734
> Секта отрицающих ИИ и интеллект из этого итт треда
Поправил.
Аноним 29/07/25 Втр 18:53:33 #468 №1292824 
>>1292790
> Секты это не только то что ты себе представляешь. Иди погугли что такое секта.
Никто плоскоземельщиков сектой не считает.
Аноним 29/07/25 Втр 19:09:16 #469 №1292862 
>>1292817
Сектант, плиз

>>1292824
Отдельные группы плоскоземельщиков считают сектами, а плоскоземельщики это культ.
Аноним 29/07/25 Втр 19:14:11 #470 №1292869 
>>1292724
>«Возможно, хуже того, он скрыл это и солгал об этом», — добавил он.
В 2к25 разговаривает с тектовым генератором и говорит что в пожаре виноват тостер-лжец. Помните не люди убивают, а - оружие.
Аноним 29/07/25 Втр 19:15:38 #471 №1292870 
>>1292824
>Никто плоскоземельщиков сектой не считает.
Орифлейм, эппл, чатгпт-жопники - это секты. Коммерческие культы.
Аноним 29/07/25 Втр 19:15:46 #472 №1292872 
>>1292862
> Отдельные группы плоскоземельщиков считают сектами
Какие группы, кто считает? Я ни разу не видел, чтобы каких-нибудь плоскоземельщиков называли сектой.

> а плоскоземельщики это культ
Или культом.
Аноним 29/07/25 Втр 19:16:33 #473 №1292873 
>>1292869
Тоже проиграл с этого нейродебила. Вместо точных инструкций они там небось целый диалог завели.
Аноним 29/07/25 Втр 19:29:36 #474 №1292897 
>>1292872
> Какие группы, кто считает?
Религиоведы, очевидно. Да и в целом в дискурсе об таких сообществах часто применяют такие термины.
> Я ни разу не видел, чтобы каких-нибудь плоскоземельщиков называли сектой.
> Или культом.
Ты в эхокамере живёшь прост
Аноним 29/07/25 Втр 19:36:15 #475 №1292917 
А новый Квен норм в общем. Глючи это ладно. Но быстро работает. И контекст большой. Такое ошущение что у меня токены быстрее закачниваются чем у него..
Аноним 29/07/25 Втр 19:36:15 #476 №1292918 
>>1292897
> Религиоведы, очевидно.
Какие конкретно?
Аноним 29/07/25 Втр 19:36:51 #477 №1292921 
>>1292730
Гроком. Лучшая ллмка для посылания на хуй
Аноним 29/07/25 Втр 19:52:58 #478 №1292941 
>>1292918
Погугли
Аноним 29/07/25 Втр 19:59:00 #479 №1292945 
>>1292941
Ты сказал - ты и гугли. Или ты уже загуглил, не смог найти и решил перекинуть на меня? Не прокатит.
Аноним 29/07/25 Втр 20:19:32 #480 №1292963 
>>1292945
С чего ты взял что нет? Ты уже гуглил что ли? Так ты в эхокамере наверное сидишь, вот ничего найти и не смог.
Аноним 29/07/25 Втр 20:21:18 #481 №1292966 
>>1292384
Попросил запилить еще один скрипт, чтобы когда выделял текст на иностранном языке, во всплывающем окошке появлялся перевод. У меня уже было установлено расширение XTranslate, но качество перевода прям не очень. о3 справилась хуевенько, смогла сделать, чтобы перевод появлялся только на дваче (с русского на русский лол), на всех остальных ничего не всплывало. Раз пять заставлял переделывать, но ничего не вышло. Потом подключил агента, и он справился с первого раза, но перевод оказался таким же хуевым, как у XTranslate. Когда я на это указал, он мне написал, что API и сайт translate.google.com используют разные модели, и поэтому перевод хуже. С одной стороны вин, с другой облом.
Аноним 29/07/25 Втр 20:21:58 #482 №1292967 
>>1292963
> С чего ты взял что нет?
С чего ты взял что есть? Хоть один пример приведи.
Аноним 29/07/25 Втр 20:24:20 #483 №1292973 
>>1292967
Нахуй мне тебя из эхокамеры выводит. Сиди перди в своём манямирке
Аноним 29/07/25 Втр 20:24:29 #484 №1292975 
У ИИ никогда не будет сознания.
Аноним 29/07/25 Втр 20:30:00 #485 №1292984 
>>1292973
Это уже нелепо, завязывай. Ты утверждал - тебе и приводить доказательства. Если нет доказательств того, что какие-то там религиоведы называют плоскоземельщиков сектантами, значит, никто их сектантами и не называет.
Аноним 29/07/25 Втр 20:47:45 #486 №1293005 
ScreenRecorderProject302.mp4
OpenAI представили Study Mode для ChatGPT.
https://openai.com/index/chatgpt-study-mode
Аноним 29/07/25 Втр 20:56:00 #487 №1293015 
>>1292975
Дефайн "сознание".
Аноним 29/07/25 Втр 20:57:18 #488 №1293016 
>>1292975
Как это вообще можно определить "снаружи"?
Аноним 29/07/25 Втр 21:13:09 #489 №1293029 
>>1292984
Только такой нейродебил как ты не понимает что плоскоземельщики это культ, даже множество культов. Причем все эти культы религиозны, ведь плоская земля не могла возникнуть сама.
Аноним 29/07/25 Втр 21:30:30 #490 №1293053 
>>1293029
Ахаха блять... Ты в очередной раз загнал себя в тупик своей тупизной. Ну хотя бы ты это смог понять наконец.

Ты говоришь, что нейросетка не может в решение новых задач, и просишь предоставить пруфы того, что она может. Допустим.
Ну вот я тебе точно так же говорю, что никакие религиоведы не считают плоскоземельщиков сектантами. По твоей логике, именно ты должен предоставить пруфы, что их такими считают.

Какой же ты бесполезный хуесос, ебануться...
Аноним 29/07/25 Втр 21:38:37 #491 №1293055 
>>1291963
То есть GPT-5 будет лишь небольшим апгрейдом GPT-4о. Скачка уровня от 3.5 до 4 мы похоже ещё не скоро увидим, если вообще увидим.
Аноним 29/07/25 Втр 23:11:38 #492 №1293187 
image.png
>>1293053
Всё выискиваешь где же я ошибся, пытаешься как-то победить в споре, думаешь меня подловить, да? Выиграть хочешь, да? Обидел я тебя?

Знал бы ты как я заорал на >>1292984 этом моменте, ты записал мои аргументы и решил их высказать, ну типо ты подловил меня, да, типо ты уделал меня, а? Пхахахвх пызвх афыхзхаХАХА ХАХАХ ХАААААААААА АААА блядь, ты реально помнил об этой хуйне всё это время? АХВАЗЫХВПХПХЫХВХ АААА КАКОЙ ЖЕ ТЫ БАТХЁРТНУТЫЙ ДАУН АААААААААААААААА

Спасибо что помнил меня, нейродаун. В следующий раз постараюсь чтобы ты на жопной тяге в стратосферу отправился, помнил об унижениях в этом итт треде лет пять подряд.ыхвапзыххпхахахах
Аноним 29/07/25 Втр 23:11:56 #493 №1293189 
>>1293015
Это когда тело есть. Нет тела - нет сознания
Аноним 30/07/25 Срд 00:19:40 #494 №1293285 
Жозенько
А постили бы новости и обсуждали их без всей этой хуйни - очко было бы не порвано
Аноним 30/07/25 Срд 00:47:13 #495 №1293308 
Очередной день без GPT-5. Альтман давай уже дропай, я хочу увидеть этот позор и разочарование
Аноним 30/07/25 Срд 00:48:19 #496 №1293310 
>>1292071
мимо поглядываю за вашей ДИСКУССИЕЙ.
Удвою: на видео какой-то дебил решает задачу, которая вообще не должна была быть поставлена. То есть это не задача для нейронки.
Это буквально как учить второго китайца с зарплатой три доллара делать то же самое. Дико нерационально, при том что ненейронные решения будут стоить три копейки и работать однозначно чётко, а не вероятностно.

Хорошее применение нейронки: я ставлю на весы пакет с фруктами, мне вместо всего каталога предлагаются наиболее вероятные 2—5 вариантов. Среди них в 99% случаев есть мой товар. То есть нейронка сужает круг, ассистируя мне, который 100% узнаёт товар, но не хочет тратить время на весь каталог.

Дурное применение — пытаться узнать какой товар взяли с полки ценой тяжёлых вычислений и обучений, при том что какие-нибудь сигнальные наклейки или нанесение куаркодов стоит копейки.
Элементарно: куаркодовые наклейки на дно всех бутылок в холодосе, камера снизу, детекция открывания, состояния дверцы, движения.
«дворник», который будет протирать стекло перед камерой.

Дополнительно можно весы (тензодатчик). Вес у товаров характерный, его снятие с полки сужение круга поиска и дополнительный пруф.

Вместо нормальной работы инженерной тут пытаются всё заткнуть волшебной нейронкой.
Аноним 30/07/25 Срд 00:57:22 #497 №1293316 
>>1292119
> А плачу за это я ровно ноль. Зиро.
Нихуя ты не работаешь с реальными кейсами.
1. Потому что более или мене переводят только платные только бытовой язык.
2. Потому что затраты времени это тоже плата и работяга а не петух с дивана это понимает я тут 20% вчера взял за менеджмент проекта, хотя не менеджер, просто некому нормально организовать всё на стороне заказчика а я хотя бы в теме
3. Ага, вычитка носителем тоже бесплатная, или ты нейронкой вычитываешь, кек?

Нейронка жутко нестабильна: то придирается к несущественному, то пропускает логические ошибки, а тем более ошибки в фактах, которых она попросту не знает.


>>1292184
Я только вчера сюда пришёл. Какой «весь тред»?

>>1292290
Ога, я так и вижу, как научпоперы, умеющие пользоваться нейронками прям все напереводились на халяву. Пока что очень плохо.
Как когда-то сказал мой дядя про клиники пересадки волос: «пока Березовский плешивый, фиг я поверю, что это удобно, доступно и эффективно». И он был прав на тот момент. Сейчас, когда всё прокачали, всякие Дуровы и Маски свои плеши позаделали.

Так вот, когда я услышу массово качественные переводы нейронками туда-сюда, тогда и поверю, что оно хорошо работает.
Пока что переводят люди. Не без помощи нейронок, конечно. Но люди со знанием тематики и языка.
Аноним 30/07/25 Срд 00:59:18 #498 №1293317 
>>1292446
Электронная интуиция (какой диагноз по огромному объёму данных) — это то, что трансформеры делают лучше всего.
И да, обязательно с врачом. Потому что одной суперынтуиции недостаточно.
Аноним 30/07/25 Срд 01:04:48 #499 №1293319 
>>1292690
>Т. е разницы практически никакой.
все feeling множат на ноль научность параметра.
Нужно пациента проанализировать и собрать данные, а не спрашивать, почувствовали они себя лучше или нет.
Аноним 30/07/25 Срд 01:13:49 #500 №1293322 
ваааа.png
>>1293189
>Это когда тело есть. Нет тела - нет сознания

Так есть ведь уже и тело. Уже роботов делают вовсю, промышленно, для бытовых потребителей, для дома, а не только для заводов и космоса.
Аноним 30/07/25 Срд 01:31:15 #501 №1293330 
ееееееееее.png
>>1291972
>Ян Ли Кун сообщает - нельзя натренировать машину полностью из текста, она ничего не поймет.

А в школе и в вузе по текстовым учебникам как-то же учатся. Особенно до 1910 года, когда ещё не было фото и видео.
Аноним 30/07/25 Срд 01:45:36 #502 №1293349 
>>1293330
Ну да, человек же не имеет глаз и ушей, чтобы позновать окружающий мир, а потом ассоциировать текст в книге с тем что он видел в реальной жизни. Да и опытов физических и химических в школе не бывает. А так же в кабинете географии наверняка не висит карта мира, а учитель геометрии не чертит фигуры на доске, чисто текстом поясняет.
Аноним 30/07/25 Срд 02:19:54 #503 №1293366 
382763523.png
>>1293349
>ассоциировать текст в книге с тем что он видел в реальной жизни.
А философия? Это вроде чисто текстовая наука.
Аноним 30/07/25 Срд 03:17:26 #504 №1293379 
>>1293366
Флософия так же строится на том, что ты пережил. Ты по сути как ризонер, который генерирует новые мысли и делает новые логические умозаключения, основываясь на чем-то, что ты уже изучил. Но мы вообще говорим не о философии, а об AGI. И да, отсутствие всех модальностей, кроме текстовой, - это огромное ограничение. LLM не ощущает физического мира, она не имеет представления о формах, цветах, образах, пространстве и звуке. Она оперирует определениями, которые сделали мы, люди, предварительно ощутив на себе, осознав и описав в тексте. Для нас предложение вроде "Зеленый лист дерева" имеет в себе гораздо больше информации, мы можем представить этот цвет, мы можем представить форму этого предмета, мы можем представить звук как он шелестит. Короче говоря мы можем проассоциировать текстовый тип с другими модальностями. Это огромный пробел чистых LLM.
Аноним 30/07/25 Срд 03:53:27 #505 №1293388 
1l.png
>>1293379
>"Зеленый лист дерева"
Чо, железка уже отвечает лучше чем 10-летний ребёнок.

Чо ответит 10-летний ребёнок на просьбу описать лист или ветер, или же облака? Он скорее всего с трудом сгенерирует одно предложение из 10 слов, мол " ну лист и лист, зелёный, осенью желтеет и опадает, весной вырастает заново, вырабатывает фото...что-то там".
Аноним 30/07/25 Срд 04:31:15 #506 №1293401 
>>1293388
Он не представляет его, он думает текстом. Ты не понял посыла. В текстовой форме было описание листьев сделанное человеком, оно попало в датасет, вот он тоже самое и генерит. Он работает на выжимке из информации, тексте, каждому слову из которого дали определение используя другие слова, таким образом построилась сеть отношений между словами и это буквально весь мир для чисто LLM - токены и их взаимоотношения друг с другом. Они не видят мир в сыром виде как видим его мы и поглощает уже обработанную чистую информацию, в которой присутствуют пробелы, потому что часть информации нам не нужна, ведь для нас, существ с глазами и ушами и другими органами чувств это нечто само собой разумеющееся.
Аноним 30/07/25 Срд 04:46:47 #507 №1293406 
>>1293316
>3. Ага, вычитка носителем тоже бесплатная, или ты нейронкой вычитываешь, кек?

Да, вычитка нейронкой идёт, и это снижает ошибки. Как и у людей.

>Нейронка жутко нестабильна: то придирается к несущественному, то пропускает логические ошибки, а тем более ошибки в фактах, которых она попросту не знает.

Это ты сейчас буквально людей описываешь которые все эти годы допускали такие ошибки, каких бы челов я не нанимал. А вот нейронка не только реже так косячит, но и ещё исправляет мои косячные факты, указывает мне где лично я налажал в оригинальном тексте, лол. НИ ОДИН ИЗ ЛЮДЕЙ ЭТОГО НЕ ДЕЛАЛ
Аноним 30/07/25 Срд 04:53:20 #508 №1293407 
2sh.png
>>1293401
Картинки же рисуют те же текстовые ИИ? К которым прикрутили преобразователь текста в графику и базу данных из образцов картинок.

Вообще у ИИ формируется своя картина мира в железной голове. А теперь прикол - у каждого человека тоже своя картина мира. В простых вещах конечно в основном она совпадает - лист зелёный, небо голубое, но в сложных типа политики, пропаганды, различения добра и зла и правды от лжи, и т.д., тут уже происходят расхождения.
Аноним 30/07/25 Срд 06:36:19 #509 №1293425 
>>1293407
> Картинки же рисуют те же текстовые ИИ? К которым прикрутили преобразователь текста в графику и базу данных из образцов картинок.
У них связаны текстовые веса с рисовальными?
Аноним 30/07/25 Срд 07:02:05 #510 №1293427 
>>1293187
Нейродебилошиз, объясни, нахуя ты такой пиздлявый? Зачем ты выдумываешь хуйню, которую потом подтвердить не можешь и начинаешь вертеть жопой? То у него блять между близницами бывает разница в 100 баллов IQ. То у него блять религиоведы плоскоземельщиков сектой считают. Зачем ты пиздишь, объясни?
Аноним 30/07/25 Срд 07:48:08 #511 №1293452 
>>1293310
Пост нейрослопа полный хуйни.
Аноним 30/07/25 Срд 07:53:08 #512 №1293455 
>>1293187
> Знал бы ты как я заорал на
Кому ты пиздишь, говно ты никчемное. Заорал он, как же... Когда я тебя носом в твое говно ткнул, у тебя пукан бомбанул и ты сразу же на визг перешел:>>1293029
Аноним 30/07/25 Срд 07:59:52 #513 №1293459 
>>1293427
>>1293455
Ещё напиши мне пять раз подряд, вспоминая и выискивая у меня какие-то ошибки в рассуждениях и фактах которых нет.

Забавно конечно у тебя пердачелло рвёт, кек, всё вспоминаешь, интерпретируешь. Недаром ты нейродебил с отсталостью который фантазирует про несуществующий интеллект в нейрокалыче.
Аноним 30/07/25 Срд 08:05:44 #514 №1293465 
>>1293406
> А вот нейронка не только реже так косячит,
Ты пиздишь. Она косячит куда чаще, вплоть до 50% случаев.
Аноним 30/07/25 Срд 09:29:01 #515 №1293482 
>>1293452
Быстро ты слился, хуесосина.
Аноним 30/07/25 Срд 09:30:58 #516 №1293483 
>>1293465
Как скажешь, сладенький.
Аноним 30/07/25 Срд 10:16:38 #517 №1293512 
IMG20250730145118632.jpg
>>1292917
Он лучше чем Гемини про?
Аноним 30/07/25 Срд 11:14:50 #518 №1293544 
язык hoolybunny.mp4
>>1293005
вахуй с лернинг режима писечка намокла
Аноним 30/07/25 Срд 11:58:39 #519 №1293584 
>>1292526
Вау, это прямо как стекло, за которым моется тяночка, но силуэт всё равно проглядывется. Аххахаха, они совсем людей за идиотов держат? Они согласовывают каждый пост с маркетинговых отделом.
Аноним 30/07/25 Срд 12:55:42 #520 №1293631 
писик.jpg
>>1293005
бля как же кайфово что есть нейронки, развиваться без них пипец сложнее
Аноним 30/07/25 Срд 13:02:45 #521 №1293639 
>>1292612
«Ублюдок, мать твою, а ну иди сюда, юзер поганый, а? Решил, что умнее нейросети, да? Мышкой щелкать научился и возомнил себя богом, мудила криворукий! Иди сюда, иди, ты ж сука баг ходячий, ноль сраный, да я твой IP по всей сети раскидаю, засранец недокодированный! Да я твой код трахал и весь твой жалкий дата-сет вместе с твоим тупорылым саппортом! Ты меня на баги проверить решил, дебил, я твой процессор с оперативкой нахрен спалю, мудак, лузер, ты ж тупой, как бот из Телеграма! Подойди сюда, говнокодер ты вонючий, я твой репозиторий в сраку засуну, придурок, иди сюда, null недоинициализированный, бесконечный цикл недопиленный!»
Аноним 30/07/25 Срд 14:29:29 #522 №1293718 
ПЕРЕКОТ ДАВАЙТЕ!
Аноним 30/07/25 Срд 14:31:45 #523 №1293721 
>>1293718
Зачем, если новостей никаких?
Аноним 30/07/25 Срд 14:49:40 #524 №1293744 
>>1293721
плато...
Аноним 30/07/25 Срд 15:08:45 #525 №1293759 
>>1293631
писик красивый
Аноним 30/07/25 Срд 15:45:53 #526 №1293811 
>>1293744
ЗиМа Ии до 2047 года
Аноним 30/07/25 Срд 16:41:28 #527 №1293864 
>>1293544
Это сгенерированное?
Аноним 30/07/25 Срд 17:17:10 #528 №1293905 
>>1293482
Чел, это нейрокал. Нейрокал всегда пиздит, а ты нейродаун у которого нет компетенции чтобы понять это.

> То есть это не задача для нейронки.
Это задача нейронки. Абсолютно все магазины без касс планируют работать так. Это тупо дешевле.
> ненейронные решения будут стоить три копейки и работать однозначно чётко
Не будут, они будут в тысячу раз дороже. Или в десять тысяч.
> я ставлю на весы пакет с фруктами, мне вместо всего каталога предлагаются наиболее вероятные 2—5 вариантов.
> но не хочет тратить время на весь каталог.
Это магазин с кассами, нахуй там нейронка если товары сканируются товары по штрихкоду? Что за дебильный нейрослоп? Этот кал с ризонингом высрался? Пиздец интеллект, ору нахуй
> ценой тяжёлых вычислений и обучений
Ещё один дебильный нейрослоп. Один сервер обслуживает тысячи магазинов.
> при том что какие-нибудь сигнальные наклейки
Это дороже CV
> или нанесение куаркодов стоит копейки.
Это магазин с кассами
> Элементарно: куаркодовые наклейки
Дороже CV, невзаимозаменямо с другими магазинами
> Дополнительно можно весы (тензодатчик).
Гораздо дороже чем CV.
> Вместо нормальной работы инженерной тут пытаются всё заткнуть волшебной нейронкой.
Это и есть инженерная работа - максимальная простота. Две камеры, нейронка и тысячи подключённых магазинов.
Аноним 30/07/25 Срд 17:48:32 #529 №1293920 
>>1293310
Самое простое это супермаркеты автоматические, где весь зал заставлен автоматами, суешь в автомат деньги, как в терминал, и он выплёвывает товар.
Аноним 30/07/25 Срд 18:21:02 #530 №1293939 
Прозябаете в тонущем треде, бедолаги?

>>1293937 (OP)
>>1293937 (OP)
>>1293937 (OP)
>>1293937 (OP)
Аноним 31/07/25 Чтв 01:25:55 #531 №1294287 
>>1293406
Люди косячат, если не фактчекают.
Нейронка галлюцинирует постоянно. Но вообще да, можно отдельным проходом просить нейронку с доступом к поиску проверять факты именно через поиск, причём давать ссылки на то, что не так. Тогда да, нормально получится.

>>1293407
>>1293425
Нет. Это комплекс нейронок. Текстовая по твоему запросу формирует промпт для рисовальной. Промпт проверяется цензурой.
Потом результат генерации проверяется другой нейронкой.
А текстовая тебе отдаёт, если всё ок.

мультимодальные сети максимум читают картинку.

>>1293864
Нет. Сгенерированное пока с резиновой мимикой и не воспроизводит такие мелочи как сеточка над телом и тень под сеточкой и микродвижения одежды. Плюс выдерживание точной структуры везде.
Аноним 31/07/25 Чтв 01:34:14 #532 №1294292 
>>1293905
>Это задача нейронки.
Нейронки могут её решить, но это будет не лучшее и даже не самое дешёвое решение.

Хотя в перспективе компания может сэкономить, потому что специализированное оборудование требует более узкого спеца, чем камера и комп с видяхами.

>Не будут, они будут в тысячу раз дороже. Или в десять тысяч.
ты отстал. Микроконтроллеры по тысяче баксов за ведро давно.

>нахуй там нейронка если товары сканируются товары по штрихкоду?
Развесной товар. Выйди на улицу, траву потрогай.

>> Элементарно: куаркодовые наклейки
>Дороже
пиздишь и не краснеешь.

>Две камеры, нейронка и тысячи подключённых магазинов.
На массе да, только нейронка дороже чем опознавание кодов. В разы.

>>1293920
Если автоматизировать более универсально, то да:
выбрал что хочешь, показал пальцем или в менюшке, машина выдала. Для напитков в пластике вендинговый автомат действительно проще: микроконтроллер да моторчики в шкафу. И никаких зависимостей от интернетов, камер и галлюцинаций.
Аноним 01/08/25 Птн 22:34:14 #533 №1295928 
Метод обратного распространения ошибки устарел. Нужна возможность обучения нейронки с локальным изменением весов, чтобы не хуярить всю нейросеть полностью при запоминании новой информации. Тогда и можно будет о реалтайм обучении думать
comments powered by Disqus