Исследователи провели эксперимент, который ставит под сомнение реальную способность современных моделей с симулированным «цепочечным» рассуждением (chain-of-thought, CoT) делать логические выводы за пределами знакомых шаблонов. Сейчас индустрия ИИ активно развивает такие подходы, предполагая, что пошаговая логика позволяет лучше справляться со сложными задачами. Но накопившиеся данные указывают, что при малейших отклонениях от привычных форматов ответы становятся неустойчивыми и бессмысленными.
Для проверки способности к обобщённым выводам модели обучались на примерах двух примитивных текстовых преобразований — ROT-шифра и циклических сдвигов, а затем на комбинациях этих функций в разной последовательности. После обучения их тестировали на задачах, отличавшихся по типу, формату и длине входных данных от обучающего набора. Например, модель, видевшая примеры только с двумя сдвигами, должна была обработать задачу с двумя ROT-преобразованиями, зная лишь, как выглядит каждое по отдельности.
Результаты показали, что при попытке применить изученные шаблоны к незнакомым комбинациям модели часто выдавали либо правильные рассуждения с неверными ответами, либо верные результаты с нелогичным объяснением пути. При этом даже небольшое изменение длины текста или количества шагов в цепочке приводило к резкому падению точности. Ещё критичен формат входных данных: добавление в задание символов или букв, которых не было в обучении, значительно ухудшало корректность результатов.
Модели ИИ — это прежде всего структурированное сопоставление знакомых шаблонов, а не полноценное абстрактное мышление. Их склонность к «гладкой бессмысленности» создаёт иллюзию надёжности, что особенно опасно в высокорисковых сферах — медицине, финансах и юриспруденции.
>>18543239 (OP) >прежде всего структурированное сопоставление знакомых шаблонов, Нет. Это ебучие весы из слоев перцептронов. Весь "прогресс" в ии с 80х, это буквально скормить весь интернет 1000 слоям этих весов. Все.
>>18543239 (OP) >Модели ИИ — это прежде всего структурированное сопоставление знакомых шаблонов Ебать. И сколько лет потребовалось этим гениям, чтобы осознать как именно работает то, что они сами же напрограммировали. А ведь чтобы это понять не нужно вообще ничего знать про ИИ. Достаточно просто обдумать тот факт, что для его обучения нужны тонны примеров, а для обучения человека достаточно двух-трех картинок.
>>18543239 (OP) > «Умный» ИИ не смог сложить 2+2, зато убедительно объяснил почему получилось 5 Фейк прямо в заголовке Нахуя нейронка постит такие как бы "новости"? Думайте
>>18543306 Сейчас бы всерьез воспринимать фейковый текст долбоеба у коготорого пригорело очко В оригинале статьи таких строк нет, там вообще чат бот обсуждается
>>18543330 Новые технологии подходят стадии хайпа: 1. Безудержный рост: это решить все наши проблемы 2. Обвал ожиданий: бля нихуя оно не решило все наши проблемы 3. Плато продуктивности: о, а вот эту хуйню оно делает заебись. Ну и пусть дальше делает.
>>18543290 >а для обучения человека достаточно двух-трех картинок. Который на второй картинке забьёт хуй со словами "да непонятно нихуя! зачем я вообще этим занимаюсь? пойду певка бахну".
>>18543321 В оригинале именно что констатируется, что модели ИИ — это скорее структурированное сопоставление знакомых шаблонов, а не полноценное абстрактное мышление:
the model’s lack of abstract reasoning capability.
Rather than showing the capability for generalized logical inference, these chain-of-thought models are "a sophisticated form of structured pattern matching"
Просто эти мысли из оригинала были кратко переформулированы, дорогой сын дешёвой шлюхи, использующий сагу в ньюсаче.
>>18543395 > В оригинале именно что констатируется, что модели ИИ В оригинале указаны конкретные модели ИИ, дальше нет смысла кукарекать, тем более российский текст полностью изменен и потерял весь смысл
Даже галимая китайская нейронка может производить любые вычисления с любыми числами Как же ору с долбоеба который постит тут хуйню с "российских научных порталов"
>>18543400>>18543396>>18543294>>18543445 Пошли манёвры. Ты же кудахтала, что там нету эти строк: >Модели ИИ — это прежде всего структурированное сопоставление знакомых шаблонов, а не полноценное абстрактное мышление.
Тебя ткнули носом в строки оригинала, смысл которых полностью передан и вообще не искажён русским лаконичным текстом.
После того, как тебя напоили мочой, ты до другого докопалась. Кретин с сагой в ньюсаче, в оригинале указанно, что речь о моделях с chain-of-thought. В русском тексте и это передано.
Ты лучше расскажи, почему на твою маму брезгуют смотреть даже тараканы?
>>18543413 Если бы тебя не выгнали из первого класса, ты бы узнал литературный термин "гипербола". Очевидно, что заголовок не следуют понимать буквально. Просто он гиперболой передаёт главную мысль статьи, что ИИ-модели не осознают смысла и дают правдоподобные, но ложные ответы.
>>18543745 ну ты и дебил. А что мешает добавить сличатор с реальностью и самообучение, добавить критерий, если инструмент рассуждающий в целом здраво , но не понимающий реальность. Ничего не стоит. Более того AI уже создан давно!
>>18543704 Новомодная аналоговнетная gpt-oss рассуждала полчаса, заебала сука, среди рассуждений было "можно, если перевернуть", но в конце сказала что нельзя. Тупая пизда.
>>18543281 Ну таки поцчему. Например изобрели ReLU-нейроны, кратно повышающее скорость обучения и генерации. Изобрели выпадение нейронов, что улучшает генерализацию а стало быть точность в неизвестных ситуациях. Блоки внимания изобрели, что ускоряет обучение и снижает норморасход нейронов экспоненциально. Тот же оптимизатор АдаМакс который порой обучает модель в сотни раз быстрее чем СГД. Ещё автоэнкрдер изобрели, который сжимает натуральные данные до минимально необходимой размерности, одновременно с этим преобразуя абстрактные понятия в числовое выражение. Дохуя всего умного в поле нейросетей придумали, тут не тупо брутфорсом научили компьютер разговаривать на человеческом языке.
>>18543807 Забавно так её поправлять. Сразу соглашается и выдает мой же ответ за свой. Если открыт новый чат, она забывает контекст и снова несёт хуйню.
Для проверки способности к обобщённым выводам модели обучались на примерах двух примитивных текстовых преобразований — ROT-шифра и циклических сдвигов, а затем на комбинациях этих функций в разной последовательности. После обучения их тестировали на задачах, отличавшихся по типу, формату и длине входных данных от обучающего набора. Например, модель, видевшая примеры только с двумя сдвигами, должна была обработать задачу с двумя ROT-преобразованиями, зная лишь, как выглядит каждое по отдельности.
Результаты показали, что при попытке применить изученные шаблоны к незнакомым комбинациям модели часто выдавали либо правильные рассуждения с неверными ответами, либо верные результаты с нелогичным объяснением пути. При этом даже небольшое изменение длины текста или количества шагов в цепочке приводило к резкому падению точности. Ещё критичен формат входных данных: добавление в задание символов или букв, которых не было в обучении, значительно ухудшало корректность результатов.
Модели ИИ — это прежде всего структурированное сопоставление знакомых шаблонов, а не полноценное абстрактное мышление. Их склонность к «гладкой бессмысленности» создаёт иллюзию надёжности, что особенно опасно в высокорисковых сферах — медицине, финансах и юриспруденции.
https://arstechnica.com/ai/2025/08/researchers-find-llms-are-bad-at-logical-inference-good-at-fluent-nonsense/