Прошлые домены не функционирует! Используйте адрес
ARHIVACH.VC.
24 декабря 2023 г. Архивач восстановлен после серьёзной аварии. К сожалению, значительная часть сохранённых изображений и видео была потеряна.
Подробности случившегося. Мы призываем всех неравнодушных
помочь нам с восстановлением утраченного контента!
Для проверки способности к обобщённым выводам модели обучались на примерах двух примитивных текстовых преобразований — ROT-шифра и циклических сдвигов, а затем на комбинациях этих функций в разной последовательности. После обучения их тестировали на задачах, отличавшихся по типу, формату и длине входных данных от обучающего набора. Например, модель, видевшая примеры только с двумя сдвигами, должна была обработать задачу с двумя ROT-преобразованиями, зная лишь, как выглядит каждое по отдельности.
Результаты показали, что при попытке применить изученные шаблоны к незнакомым комбинациям модели часто выдавали либо правильные рассуждения с неверными ответами, либо верные результаты с нелогичным объяснением пути. При этом даже небольшое изменение длины текста или количества шагов в цепочке приводило к резкому падению точности. Ещё критичен формат входных данных: добавление в задание символов или букв, которых не было в обучении, значительно ухудшало корректность результатов.
Модели ИИ — это прежде всего структурированное сопоставление знакомых шаблонов, а не полноценное абстрактное мышление. Их склонность к «гладкой бессмысленности» создаёт иллюзию надёжности, что особенно опасно в высокорисковых сферах — медицине, финансах и юриспруденции.
https://arstechnica.com/ai/2025/08/researchers-find-llms-are-bad-at-logical-inference-good-at-fluent-nonsense/