Microsoft предупреждает в условиях использования: Copilot — «только для развлечения»

Компании, разрабатывающие искусственный интеллект, сами предостерегают пользователей от бездумного доверия к выводам своих моделей. Об этом прямо говорится в их пользовательских соглашениях. В центре внимания оказалась Microsoft, которая активно продвигает корпоративную подписку на Copilot, но при этом столкнулась с критикой в соцсетях из-за формулировок в условиях использования сервиса.

Согласно документу, последнее обновление которого датировано 24 октября 2025 года, Microsoft заявляет: «Copilot предназначен только для развлечения. Он может допускать ошибки и работать не так, как задумано. Не полагайтесь на Copilot при принятии важных решений. Используйте Copilot на свой страх и риск».

Представитель Microsoft в комментарии для PCMag пояснил, что компания планирует обновить то, что он назвал «устаревшими формулировками». «По мере развития продукта этот язык больше не отражает того, как Copilot используется сегодня, и будет изменён в следующем обновлении», — заявил представитель компании.

Отмечается, что Microsoft — не единственная компания, использующая подобные оговорки для своих ИИ-сервисов. Например, и OpenAI, и xAI предупреждают пользователей, что не следует полагаться на выводы их моделей как на «истину» (формулировка xAI) или как на «единственный источник истины или фактической информации» (формулировка OpenAI).