Загрузка...

За фасадом "интеллекта": фундаментальные дефекты и ограничения нейросетей

Пока мир увлеченно обсуждает развитие ИИ, в академической среде все больше внимания уделяют проблемам современных LLM и причинам того, почему рост вычислительных мощностей их не решает.

Исчерпывающий ответ дает статья Large Language Model Reasoning Failures (2026), авторы которой делят уязвимости LLM на три категории: фундаментальные изъяны, ошибки при решении задач и "нестабильные" ответы (когда изменение запроса влияет на результат).

Главный вывод состоит в том, что сбои в работе нейросетей — это не случайные "галлюцинации", а глубинные дефекты самой технологии, из-за которых ИИ не справляется даже с тривиальными задачами.

Когнитивные искажения

Несмотря на способность удерживать длинный контекст, ИИ не умеет последовательно анализировать информацию, подменяя реальные рассуждения достраиванием текста по аналогии. Действуя по инерции, LLM часто упускают новые вводные и подвержены хорошо знакомым человеческим когнитивным искажениям: "эффекту якоря", склонности к подтверждению (confirmation bias) и фреймингу.

Огромную роль также играет порядок подачи информации: из-за особенностей авторегрессии ИИ выстраивает текст линейно и технически не может вернуться назад, чтобы переосмыслить или скорректировать начатую мысль. В результате ранние фрагменты запроса непропорционально сильно влияют на итоговый вывод, а несущественная перестановка аргументов в тексте способна полностью изменить финальный ответ.

Иллюзия социального интеллекта

Авторы также разобрали популярную гипотезу о том, что у нейросетей якобы появляется т.н. "модель психического состояния" — способность понимать чужие намерения и эмоции. На практике даже продвинутые модели регулярно проваливают базовые тесты на эмпатию и понимание чужой перспективы, с которыми легко справляются маленькие дети.

Моральные и нормативные суждения ИИ также лишены внутренней последовательности: оценки допустимого поведения кардинально меняются при перефразировании дилеммы, поскольку в реальности ИИ лишь фиксирует субъективные предпочтения разметчиков датасета и заучивает шаблоны "безопасных ответов".

"Природный гуманитарий"

При решении логических задач ИИ сталкивается с т.н. "проклятием реверсии": заучив факт, что объект А связан с объектом Б, он часто не способен сделать элементарный вывод о связи Б с А. Столь же плачевно обстоят дела с композиционным мышлением: модель легко решает две простые задачи по отдельности, но не в состоянии объединить их в одну логическую цепочку.

Иллюзией оказалась и математическая компетентность ИИ: из-за особенностей токенизации (способа структурирования текста для его обработки) нейросети воспринимают числа не как реальные величины, а как разрозненные текстовые блоки. В результате ИИ не "вычисляет" ответ, а угадывает его наиболее вероятный паттерн, что приводит к катастрофическому падению точности при работе с большими числами.

Отсутствие связи с физическим миром

Поскольку современные LLM обучаются исключительно на текстах и изображениях, у них, в отличие от человека, отсутствует понимание физической реальности, включая знания о гравитации, размере, весе или свойствах материалов (embodiment gap).

Например, при попытках применять ИИ для управления роботами или проектирования объектов нейросети регулярно генерируют на первый взгляд логичные, но физически невыполнимые или небезопасные в трехмерном пространстве сценарии.

Выводы

Авторы заключают: за фасадом "интеллектуальной мощи" нейросетей скрывается лишь гениальный имитатор, фундаментальные изъяны которого невозможно исправить инженерными решениями. Даже в многоагентных системах, где несколько ИИ по задумке должны проверять друг друга, число ошибок лишь увеличивается в геометрической прогрессии.

Поэтому, по словам экспертов, главной задачей ближайшего десятилетия станет разработка "принципиально новых гибридных систем ИИ" с внутренними ограничителями, однако четкое понимание конечного продукта пока отсутствует.

Видимо, горизонт появления AGI и ASI сдвигается вправо — на неопределенный срок.