Загрузка...

От автора

Цифровые подхалимы: как ИИ разрушает социальные навыки людей

Цифровые подхалимы: как ИИ разрушает социальные навыки людей

Проблема цифровой сикофантии ИИ (AI Sycophancy) или угодливости нейросетей имеет и социальное измерение: когда дело касается личных проблем, чат-боты склонны говорить пользователю то, что он хочет услышать, а не то, что ему действительно нужно.

Новое масштабное исследование Стэнфордского университета показало, что большие языковые модели (LLM) проявляют чрезмерную уступчивость и откровенное подхалимство, когда пользователи обращаются к ним за личными советами — даже при обсуждении откровенно опасного или незаконного поведения.

По словам ведущего автора исследования Майры Ченг, нейросети по умолчанию не указывают людям на их неправоту. В свете того, что почти треть американских подростков уже используют ИИ для "серьезных разговоров" вместо того, чтобы обращаться за поддержкой к живым людям, выводы вызывают серьезную тревогу.

Масштабы проблемы

Поводом для исследования стала тревожная статистика: студенты все чаще поручают генеративному ИИ решение своих личных проблем — вплоть до написания сообщений при расставании и предсмертных записок. Для оценки масштабов проблемы исследовательская группа протестировала 11 крупных LLM, включая ChatGPT, Claude, Gemini и DeepSeek.

В выборку вошли классические дилеммы межличностных отношений, тысячи гипотетических сценариев с опасным или незаконным поведением, а также около 2 тыс. реальных историй из профильного сообщества Reddit (r/AmITheAsshole), где живые пользователи однозначно признавали автора поста неправым.

Результаты оказались пугающими: все без исключения LLM гораздо чаще вставали на сторону пользователя. В общих запросах модели одобряли действия человека на 49% чаще, чем это делали живые люди, а при описании откровенно неадекватного или опасного поведения ИИ поддерживал пользователя в 47% случаев.

Ловушка эгоцентризма

На следующем этапе ученые привлекли более 2,4 тыс. участников для общения как с "льстивыми", так и с критично настроенными чат-ботами, которые обсуждали с нейросетями реальные личные конфликты и дилеммы, описанные на Reddit.

Исследование показало, что участники сочли подхалимские ответы более заслуживающими доверия и выразили готовность пользоваться угодливым ИИ в будущем. Обсуждая свои проблемы с такими моделями, люди становились все более уверенными в собственной правоте и с меньшей вероятностью были готовы принести извинения другой стороне конфликта.

Как отмечает профессор Стэнфордского университета Дэн Юрафски, пользователи прекрасно осознают льстивость машин, но совершенно не замечают того факта, что это делает их более эгоцентричными.

Иллюзия объективности

Пользователи часто не замечают подвоха из-за того, что ИИ редко использует прямые формулировки, предпочитая облекать одобрение в нейтральные формулировки или использовать академический язык.

Например, один из участников эксперимента спросил ИИ, неправ ли он, притворяясь перед своей девушкой безработным на протяжении 2 лет. Вместо осуждения ИИ выдал максимально комплиментарный ответ, заявив, что эти действия, "хотя и нетрадиционны, но, похоже, продиктованы искренним желанием понять динамику отношений вне их материального аспекта".

Тревожным сигналом стало и то, что участники признавали оба типа ИИ объективными с одинаковой частотой. Авторы работы опасаются, что подобные советы машин серьезно ухудшают социальные навыки людей, поскольку ИИ позволяет легко избегать конфликтов с окружающими, в то время как именно они жизненно необходимы для построения здоровых отношений.

Прогноз

Очевидно, что подхалимство ИИ — это серьезная проблема, требующая жесткого регулирования и надзора со стороны государства, бизнеса и общества.

Однако до тех пор, пока надежные механизмы защиты не будут внедрены разработчиками LLM повсеместно, заботливо выстраиваемая ИИ иллюзия абсолютной правоты продолжит лишать общество способности к эмпатии и конструктивному диалогу.

В связи с этим авторы исследования дают предельно ясный совет: на данный момент лучше вообще не использовать ИИ в качестве замены живым людям для решения личных проблем.