Пользователей инструментов на базе больших языковых моделей можно разделить на два типа. Первые воспринимают ИИ как мощный, но иногда ошибочный сервис, требующий тщательного человеческого контроля для проверки фактов и логики. Вторые же регулярно делегируют критическое мышление машине, которую считают всезнающей.
Новое исследование формирует психологический портрет второй группы, практикующей «когнитивную капитуляцию» перед кажущимися авторитетными ответами ИИ. Учёные экспериментально изучили, когда и почему люди готовы передать ИИ свои мыслительные процессы, а также как на это решение влияют факторы вроде нехватки времени и внешние стимулы.
Три системы мышления: быстрое, медленное и искусственное
В работе «Мышление — быстрое, медленное и искусственное: как ИИ меняет человеческое рассуждение и рост когнитивной капитуляции» исследователи из Пенсильванского университета опирались на известную модель двух систем принятия решений: «быстрой, интуитивной и эмоциональной» (Система 1) и «медленной, обдуманной и аналитической» (Система 2). Появление ИИ, по их мнению, создало третью категорию — «искусственное познание», где решения принимаются на основе внешнего, автоматизированного, управляемого данными алгоритмического рассуждения.
Снижение порога критики
В ходе эксперимента с участием 1372 человек и более 9500 отдельных испытаний учёные выяснили, что испытуемые были готовы принять ошибочные выводы ИИ в 73,2% случаев, отвергая их лишь в 19,7% случаев. Исследователи отмечают, что это демонстрирует, как люди легко интегрируют результаты ИИ в свои решения, часто без скепсиса. Уверенные и беглые ответы ИИ воспринимаются как эпистемически авторитетные, что снижает порог критической проверки и ослабляет метакогнитивные сигналы, которые в обычной ситуации запустили бы более глубокое обдумывание.
Эффект был неодинаковым для всех участников. Те, кто показал высокие результаты в тестах на подвижный интеллект, реже полагались на помощь ИИ и чаще отвергали его ошибочные советы. С другой стороны, люди, изначально склонные в опросах считать ИИ авторитетным источником, с гораздо большей вероятностью следовали неверным ответам, предоставленным ИИ.
Капитуляция не всегда иррациональна
Исследователи подчёркивают, что «когнитивная капитуляция не является по своей сути иррациональной». Хотя полагаться на языковую модель, которая ошибается в половине случаев (как в этих экспериментах), — очевидно плохая идея, «статистически превосходящая система» теоретически может давать лучшие, чем у человека, результаты в таких областях, как вероятностные оценки, анализ рисков или обработка больших данных.
«По мере роста зависимости результаты следуют за качеством ИИ, — пишут авторы, — улучшаясь, когда ИИ точен, и ухудшаясь, когда он ошибается. Это иллюстрирует обещания сверхинтеллекта и обнажает структурную уязвимость когнитивной капитуляции». Другими словами, доверяя рассуждения ИИ, вы получаете результат, который никогда не будет лучше самой системы. Как всегда, пользователю следует сохранять бдительность.



