Наблюдательный совет требует от Meta* новых правил для контента с ИИ

Наблюдательный совет Meta вновь призывает компанию пересмотреть правила работы с контентом, созданным искусственным интеллектом. В своих новых рекомендациях совет заявляет, что Meta должна создать отдельное правило для ИИ-контента, независимое от политики борьбы с дезинформацией, инвестировать в более надёжные инструменты обнаружения и активнее использовать цифровые водяные знаки.

Повод для рекомендаций

Рекомендации появились после рассмотрения случая с ИИ-видео, опубликованным в прошлом году. Ролик, набравший более 700 000 просмотров, сгенерирован искусственным интеллектом и якобы показывал разрушенные здания в израильском Хайфе в ходе конфликта между Израилем и Ираном в 2025 году. Видео разместил аккаунт, выдававший себя за новостное издание, но фактически управлявшийся пользователем с Филиппин.

После жалоб на видео Meta отказалась его удалять или добавлять метку «высокий риск ИИ», которая чётко указывала бы на манипуляции с контентом. Совет отменил решение Meta не добавлять эту метку, заявив, что этот случай выявил слабые места в текущих правилах компании.

«Meta должна сделать больше для противодействия распространению обманного ИИ-контента на своих платформах, в том числе создаваемого неаутентичными или злоупотребляющими сетями аккаунтов и страниц, особенно по вопросам общественного интереса, чтобы пользователи могли отличать реальное от фальшивого», — говорится в решении совета. В итоге Meta отключила три аккаунта, связанных со страницей, после того как совет указал на «очевидные признаки обмана».

Ключевые рекомендации

Одна из главных рекомендаций совета — создание отдельного, посвящённого правилу для ИИ-контента. По мнению совета, оно должно чётко описывать, как и когда пользователи обязаны маркировать ИИ-контент, а также какие санкции грозят нарушителям.

Совет также раскритиковал текущую систему меток «Информация об ИИ», отметив, что их применение «недостаточно надёжно и всеобъемлюще, чтобы справиться с масштабом и скоростью генерации ИИ-контента», особенно в периоды конфликтов или кризисов.

Отдельно совет рекомендовал Meta инвестировать в более совершенные технологии обнаружения, способные надёжно маркировать ИИ-медиа, включая аудио и видео. Эксперты также выразили озабоченность сообщениями о «непоследовательном применении» цифровых водяных знаков на ИИ-контенте, созданном собственными инструментами Meta.

Контекст и реакция

Это не первая критика Meta со стороны Наблюдательного совета по вопросам ИИ. Группа уже дважды называла правила компании по обработанным медиа «непоследовательными» и критиковала её за чрезмерную зависимость от сторонних организаций, включая фактчекеров, в выявлении проблемного контента.

В этом деле вновь поднята тема зависимости Meta от фактчекеров. Совет заявил, что слышал от этих групп о том, что Meta «меньше реагирует на обращения и проблемы, отчасти из-за значительного сокращения возможностей её внутренних команд». По мнению совета, компания «должна сама проводить оценку потенциального вреда, а не полагаться только на партнёров».

Meta пока не прокомментировала решение совета. У компании есть 60 дней на официальный ответ.

Хотя решение связано с постом прошлого года, проблема ИИ-контента в условиях вооружённых конфликтов вновь стала актуальной на фоне последних событий на Ближнем Востоке. С начала ударов США и Израиля по Ирану в этом месяце наблюдается резкий рост вирусной ИИ-дезинформации в соцсетях.

Совет, ранее намекавший на желание сотрудничать с компаниями — разработчиками генеративного ИИ, включил в рекомендацию предложение, применимое не только к Meta: «Индустрии нужна согласованность в помощи пользователям отличать обманный ИИ-контент, а платформам следует бороться со злоупотребляющими аккаунтами и страницами, распространяющими такой контент».

*Meta Platforms Inc. признана экстремистской организацией и запрещена на территории РФ.