Сохранен 37
https://2ch.hk/news/res/18543239.html
Прошлые домены не функционирует! Используйте адрес ARHIVACH.VC.
24 декабря 2023 г. Архивач восстановлен после серьёзной аварии. К сожалению, значительная часть сохранённых изображений и видео была потеряна. Подробности случившегося. Мы призываем всех неравнодушных помочь нам с восстановлением утраченного контента!

«Умный» ИИ не смог сложить 2+2, зато убедительно объяснил почему получилось 5

 Аноним 12/08/25 Втр 17:10:41 #1 №18543239     RRRAGE! 5 
image.png
Исследователи провели эксперимент, который ставит под сомнение реальную способность современных моделей с симулированным «цепочечным» рассуждением (chain-of-thought, CoT) делать логические выводы за пределами знакомых шаблонов. Сейчас индустрия ИИ активно развивает такие подходы, предполагая, что пошаговая логика позволяет лучше справляться со сложными задачами. Но накопившиеся данные указывают, что при малейших отклонениях от привычных форматов ответы становятся неустойчивыми и бессмысленными.

Для проверки способности к обобщённым выводам модели обучались на примерах двух примитивных текстовых преобразований — ROT-шифра и циклических сдвигов, а затем на комбинациях этих функций в разной последовательности. После обучения их тестировали на задачах, отличавшихся по типу, формату и длине входных данных от обучающего набора. Например, модель, видевшая примеры только с двумя сдвигами, должна была обработать задачу с двумя ROT-преобразованиями, зная лишь, как выглядит каждое по отдельности.

Результаты показали, что при попытке применить изученные шаблоны к незнакомым комбинациям модели часто выдавали либо правильные рассуждения с неверными ответами, либо верные результаты с нелогичным объяснением пути. При этом даже небольшое изменение длины текста или количества шагов в цепочке приводило к резкому падению точности. Ещё критичен формат входных данных: добавление в задание символов или букв, которых не было в обучении, значительно ухудшало корректность результатов.

Модели ИИ — это прежде всего структурированное сопоставление знакомых шаблонов, а не полноценное абстрактное мышление. Их склонность к «гладкой бессмысленности» создаёт иллюзию надёжности, что особенно опасно в высокорисковых сферах — медицине, финансах и юриспруденции.

https://arstechnica.com/ai/2025/08/researchers-find-llms-are-bad-at-logical-inference-good-at-fluent-nonsense/
Аноним 12/08/25 Втр 17:12:17 #2 №18543246     RRRAGE! 4 
>>18543239 (OP)
То есть вы хотите сказать что ИИ НЕ СУЩЕСТВУЕТ?
Аноним 12/08/25 Втр 17:17:59 #3 №18543272     RRRAGE! 0 
>>18543239 (OP)
щас бы от чатбота и генератора текста ожидать интеллектуальных действий
Аноним 12/08/25 Втр 17:19:06 #4 №18543281     RRRAGE! 1 
>>18543239 (OP)
>прежде всего структурированное сопоставление знакомых шаблонов,
Нет. Это ебучие весы из слоев перцептронов. Весь "прогресс" в ии с 80х, это буквально скормить весь интернет 1000 слоям этих весов. Все.
Аноним 12/08/25 Втр 17:21:42 #5 №18543290     RRRAGE! 3 
>>18543239 (OP)
>Модели ИИ — это прежде всего структурированное сопоставление знакомых шаблонов
Ебать. И сколько лет потребовалось этим гениям, чтобы осознать как именно работает то, что они сами же напрограммировали. А ведь чтобы это понять не нужно вообще ничего знать про ИИ. Достаточно просто обдумать тот факт, что для его обучения нужны тонны примеров, а для обучения человека достаточно двух-трех картинок.
sage[mailto:sage] Аноним 12/08/25 Втр 17:22:40 #6 №18543294 
>>18543239 (OP)
> «Умный» ИИ не смог сложить 2+2, зато убедительно объяснил почему получилось 5
Фейк прямо в заголовке
Нахуя нейронка постит такие как бы "новости"?
Думайте
Аноним 12/08/25 Втр 17:23:28 #7 №18543301     RRRAGE! 0 
>>18543272
Но их реально ожидают, причем именно сейчас. Майкрософт, Маск, Цукерберг, китайцы неиронично участвуют в гонке ИИ.
Аноним 12/08/25 Втр 17:26:10 #8 №18543304 
>>18543246
Большие языковые модели на нейросетях это не ии даже близко.
Аноним 12/08/25 Втр 17:26:33 #9 №18543306     RRRAGE! 1 
image.png
>>18543239 (OP)
>Модели ИИ — это прежде всего структурированное сопоставление знакомых шаблонов, а не полноценное абстрактное мышление.

Доходить начинает потихоньку.
Аноним 12/08/25 Втр 17:27:10 #10 №18543308 
>>18543301
Шугарберг неиронично и в гонке VR-метареальности участвовал.
Аноним 12/08/25 Втр 17:28:46 #11 №18543314     RRRAGE! 0 
175500829142572444.jpg
>>18543306
sage[mailto:sage] Аноним 12/08/25 Втр 17:30:12 #12 №18543321     RRRAGE! 0 
>>18543306
Сейчас бы всерьез воспринимать фейковый текст долбоеба у коготорого пригорело очко
В оригинале статьи таких строк нет, там вообще чат бот обсуждается
Аноним 12/08/25 Втр 17:32:37 #13 №18543330 
>>18543314
А можно на деревянный. Я не понимаю на ангельском ни хуя.
Аноним 12/08/25 Втр 17:34:35 #14 №18543336     RRRAGE! 0 
>>18543330
Новые технологии подходят стадии хайпа:
1. Безудержный рост: это решить все наши проблемы
2. Обвал ожиданий: бля нихуя оно не решило все наши проблемы
3. Плато продуктивности: о, а вот эту хуйню оно делает заебись. Ну и пусть дальше делает.
Аноним 12/08/25 Втр 17:35:06 #15 №18543340     RRRAGE! 0 
>>18543290
>а для обучения человека достаточно двух-трех картинок.
Который на второй картинке забьёт хуй со словами "да непонятно нихуя! зачем я вообще этим занимаюсь? пойду певка бахну".
Аноним 12/08/25 Втр 17:44:59 #16 №18543375     RRRAGE! 0 
>>18543340
Иди бахни пивка Алексей
sage[mailto:sage] Аноним 12/08/25 Втр 17:45:27 #17 №18543377     RRRAGE! 0 
>>18543239 (OP)
Если внимательнее анализировать текст опа долбоеба то можно заметить что он принес простынку с пвседонаучного российского портала https://www.securitylab.ru/news/562331.php

Где текст сильно отличается от оригинала по ссылке https://arstechnica.com/ai/2025/08/researchers-find-llms-are-bad-at-logical-inference-good-at-fluent-nonsense/
Аноним 12/08/25 Втр 17:46:41 #18 №18543383 
>>18543377
>>18543321
Как же ИИдаунам нипичот.
sage[mailto:sage] Аноним 12/08/25 Втр 17:47:13 #19 №18543387 
>>18543383
российский ученый?
Аноним 12/08/25 Втр 17:48:51 #20 №18543395     RRRAGE! 0 
>>18543321
В оригинале именно что констатируется, что модели ИИ — это скорее структурированное сопоставление знакомых шаблонов, а не полноценное абстрактное мышление:

the model’s lack of abstract reasoning capability.

Rather than showing the capability for generalized logical inference, these chain-of-thought models are "a sophisticated form of structured pattern matching"

Просто эти мысли из оригинала были кратко переформулированы, дорогой сын дешёвой шлюхи, использующий сагу в ньюсаче.
sage[mailto:sage] Аноним 12/08/25 Втр 17:48:58 #21 №18543396 
Кому выгодно подменивать текст и писать такую ахинею?
sage[mailto:sage] Аноним 12/08/25 Втр 17:50:09 #22 №18543400 
>>18543395
> В оригинале именно что констатируется, что модели ИИ
В оригинале указаны конкретные модели ИИ, дальше нет смысла кукарекать, тем более российский текст полностью изменен и потерял весь смысл
sage[mailto:sage] Аноним 12/08/25 Втр 17:53:24 #23 №18543413     RRRAGE! 1 
Даже галимая китайская нейронка может производить любые вычисления с любыми числами
Как же ору с долбоеба который постит тут хуйню с "российских научных порталов"
Аноним 12/08/25 Втр 18:04:00 #24 №18543432     RRRAGE! 1 
пиздабол.png
>>18543239 (OP)
>зато убедительно объяснил
Chat-bot = Нейросетеаой балабол.
Аноним 12/08/25 Втр 18:07:18 #25 №18543445     RRRAGE! 0 
>>18543294
>>18543321
>>18543377
>>18543396
>>18543400
>>18543413
Дегрели дальше заголовка не читают и фактчекинг не осуществляют, поэтому можно любым говном кормить, всё схавают.
Аноним 12/08/25 Втр 18:14:15 #26 №18543464 
>>18543400 >>18543396 >>18543294 >>18543445
Пошли манёвры. Ты же кудахтала, что там нету эти строк:
>Модели ИИ — это прежде всего структурированное сопоставление знакомых шаблонов, а не полноценное абстрактное мышление.

Тебя ткнули носом в строки оригинала, смысл которых полностью передан и вообще не искажён русским лаконичным текстом.

После того, как тебя напоили мочой, ты до другого докопалась. Кретин с сагой в ньюсаче, в оригинале указанно, что речь о моделях с chain-of-thought. В русском тексте и это передано.

Ты лучше расскажи, почему на твою маму брезгуют смотреть даже тараканы?
Аноним 12/08/25 Втр 18:23:43 #27 №18543492 
>>18543413
Если бы тебя не выгнали из первого класса, ты бы узнал литературный термин "гипербола". Очевидно, что заголовок не следуют понимать буквально. Просто он гиперболой передаёт главную мысль статьи, что ИИ-модели не осознают смысла и дают правдоподобные, но ложные ответы.
Аноним 12/08/25 Втр 18:57:27 #28 №18543563 
>>18543492
> заголовок не следуют понимать буквально
Журналистика, итоги.
Аноним 12/08/25 Втр 19:23:39 #29 №18543633 
image
image
Подрочил две модели, оба говорят чтоб я шел нахуй с утверждением, что 2+2=5.
Аноним 12/08/25 Втр 19:41:21 #30 №18543704 
>>18543633
Спроси у нейронок, можно ли пить из кружки без дна и с запаянным верхом.
Аноним 12/08/25 Втр 19:48:01 #31 №18543745 
>>18543239 (OP)
>ИИ не смог сложить 2+2, зато убедительно объяснил почему получилось 5

Нейронка вообще не в курсе, что такое 2, что такое "сложить", и чем всё это отличается от 5.
Это даже не дрессированная собака, это буквально камень.

Нейронки - охуенный помощник.
Тот, кто называет нейронки "ИИ" - охуенный дебил (ну или продаван этой нейронки).
Аноним 12/08/25 Втр 20:00:26 #32 №18543793 
>>18543745
ну ты и дебил. А что мешает добавить сличатор с реальностью и самообучение, добавить критерий, если инструмент рассуждающий в целом здраво , но не понимающий реальность. Ничего не стоит. Более того AI уже создан давно!
Аноним 12/08/25 Втр 20:05:04 #33 №18543807 
image
image
>>18543704
Новомодная аналоговнетная gpt-oss рассуждала полчаса, заебала сука, среди рассуждений было "можно, если перевернуть", но в конце сказала что нельзя. Тупая пизда.


Другая нейросетка еще более тупая пизда.
Аноним 12/08/25 Втр 20:06:12 #34 №18543814 
>>18543281
Ну таки поцчему. Например изобрели ReLU-нейроны, кратно повышающее скорость обучения и генерации. Изобрели выпадение нейронов, что улучшает генерализацию а стало быть точность в неизвестных ситуациях. Блоки внимания изобрели, что ускоряет обучение и снижает норморасход нейронов экспоненциально. Тот же оптимизатор АдаМакс который порой обучает модель в сотни раз быстрее чем СГД. Ещё автоэнкрдер изобрели, который сжимает натуральные данные до минимально необходимой размерности, одновременно с этим преобразуя абстрактные понятия в числовое выражение. Дохуя всего умного в поле нейросетей придумали, тут не тупо брутфорсом научили компьютер разговаривать на человеческом языке.
Аноним 12/08/25 Втр 20:08:59 #35 №18543825 
image
image
>>18543807
Забавно так её поправлять. Сразу соглашается и выдает мой же ответ за свой.
Если открыт новый чат, она забывает контекст и снова несёт хуйню.
Аноним 12/08/25 Втр 20:10:56 #36 №18543837 
>>18543793
>добавить критерий

И как ты сам отличаешь 2 от "сложить"?
Аноним 12/08/25 Втр 20:45:10 #37 №18543975 
>>18543807
>>18543825
Дипссака даже после того, как я написал, что можно перевернуть, не поняла.
comments powered by Disqus