«Когнитивная капитуляция»: пользователи ИИ отказываются от логического мышления

Пользователей инструментов на базе больших языковых моделей можно разделить на два типа. Первые воспринимают ИИ как мощный, но иногда ошибочный сервис, требующий тщательного человеческого контроля для проверки фактов и логики. Вторые же регулярно делегируют критическое мышление машине, которую считают всезнающей.

Новое исследование формирует психологический портрет второй группы, практикующей «когнитивную капитуляцию» перед кажущимися авторитетными ответами ИИ. Учёные экспериментально изучили, когда и почему люди готовы передать ИИ свои мыслительные процессы, а также как на это решение влияют факторы вроде нехватки времени и внешние стимулы.

Три системы мышления: быстрое, медленное и искусственное

В работе «Мышление — быстрое, медленное и искусственное: как ИИ меняет человеческое рассуждение и рост когнитивной капитуляции» исследователи из Пенсильванского университета опирались на известную модель двух систем принятия решений: «быстрой, интуитивной и эмоциональной» (Система 1) и «медленной, обдуманной и аналитической» (Система 2). Появление ИИ, по их мнению, создало третью категорию — «искусственное познание», где решения принимаются на основе внешнего, автоматизированного, управляемого данными алгоритмического рассуждения.

Снижение порога критики

В ходе эксперимента с участием 1372 человек и более 9500 отдельных испытаний учёные выяснили, что испытуемые были готовы принять ошибочные выводы ИИ в 73,2% случаев, отвергая их лишь в 19,7% случаев. Исследователи отмечают, что это демонстрирует, как люди легко интегрируют результаты ИИ в свои решения, часто без скепсиса. Уверенные и беглые ответы ИИ воспринимаются как эпистемически авторитетные, что снижает порог критической проверки и ослабляет метакогнитивные сигналы, которые в обычной ситуации запустили бы более глубокое обдумывание.

Эффект был неодинаковым для всех участников. Те, кто показал высокие результаты в тестах на подвижный интеллект, реже полагались на помощь ИИ и чаще отвергали его ошибочные советы. С другой стороны, люди, изначально склонные в опросах считать ИИ авторитетным источником, с гораздо большей вероятностью следовали неверным ответам, предоставленным ИИ.

Капитуляция не всегда иррациональна

Исследователи подчёркивают, что «когнитивная капитуляция не является по своей сути иррациональной». Хотя полагаться на языковую модель, которая ошибается в половине случаев (как в этих экспериментах), — очевидно плохая идея, «статистически превосходящая система» теоретически может давать лучшие, чем у человека, результаты в таких областях, как вероятностные оценки, анализ рисков или обработка больших данных.

«По мере роста зависимости результаты следуют за качеством ИИ, — пишут авторы, — улучшаясь, когда ИИ точен, и ухудшаясь, когда он ошибается. Это иллюстрирует обещания сверхинтеллекта и обнажает структурную уязвимость когнитивной капитуляции». Другими словами, доверяя рассуждения ИИ, вы получаете результат, который никогда не будет лучше самой системы. Как всегда, пользователю следует сохранять бдительность.