Европейский Союз может ввести запрет на приложения для создания обнажённых изображений с помощью ИИ после того, как чат-бот Grok от компании Илона Маска стал ярким примером опасности платформ, не блокирующих контент, который сексуализирует изображения реальных людей, включая детей.
В совместном пресс-релизе комитеты Европарламента по внутреннему рынку и гражданским свободам подтвердили, что депутаты проголосовали 101–9 (при 8 воздержавшихся) за упрощение Закона об искусственном интеллекте и «предложили запретить системы ИИ-„нудифаеров“».
Голосование состоялось после того, как ранее в этом году Европейская комиссия пришла к выводу, что действующий Закон об ИИ не запрещает «системы искусственного интеллекта, генерирующие материалы с сексуальным насилием над детьми (CSAM) или порнографические дипфейки с обнажёнными телами». Тогда Комиссия отметила, что члены парламента уже предлагают способы изменения закона для усиления защиты от такого вредного контента.
Почему власти хотят наказывать платформы, а не пользователей
Как поясняется в пресс-релизе, чиновники «хотят ввести новый запрет на так называемые системы „нудифаеров“, которые используют ИИ для создания или манипулирования изображениями сексуального или интимного характера, напоминающими узнаваемого реального человека, без его согласия». При этом «запрет не будет применяться к системам ИИ с эффективными мерами безопасности, предотвращающими создание пользователями таких изображений».
Как отмечает Bloomberg, этот запрет радикально изменит подход ЕС к регулированию порнографических дипфейков, перейдя от преследования только пользователей к наказанию самих платформ. Скандал с Grok «олицетворяет», почему такой регуляторный сдвиг необходим. Bloomberg сообщает, что «эта поправка является первой» политикой ЕС, «специально нацеленной на платформы ИИ», которые производят и позволяют делиться «сексуальными материалами без согласия объекта».
Хотя в пресс-релизе чиновники ЕС напрямую не упоминали Grok, регуляторы уже расследовали эту систему ИИ, размышляя о последствиях скандала вокруг xAI для других, менее заметных приложений-«нудифаеров». Ранее в этом году законодатели, направляя вопросы в Европейскую комиссию, предупреждали:
Недавние шокирующие сообщения о приложениях для создания обнажённых изображений на основе ИИ, таких как Grok на X, а также о других инструментах, свободно доступных в сети, подчёркивают рост числа инструментов на базе ИИ, которые позволяют пользователям генерировать манипулированные интимные изображения лиц без их согласия, способствуя гендерному кибернасилию и созданию материалов с сексуальным насилием над детьми.
«Эти системы должны быть запрещены на рынке ЕС», — настаивали депутаты, особенно учитывая, что «отдельных преступников», которых «часто можно наказать по национальному уголовному праву», «часто трудно найти». Более активный план, по их мнению, заключается в том, чтобы «предотвратить широкомасштабное сексуальное насилие на основе изображений с самого начала».
При очевидной поддержке членов парламента вероятное принятие поправки наверняка расстроит Маска, который также сталкивается с судебными исками в США, требующими запрета на создание Grok обнажённых изображений. В январе мать одного из детей Маска, Эшли Сент-Клер, стала одной из первых жертв, подавших иск. А недавно три юные девушки из Теннесси подали коллективный иск от имени всех детей, пострадавших от предполагаемой генерации Grok материалов CSAM.
В ЕС также растёт общественное давление на регуляторов с требованием вмешаться, поскольку xAI, судя по всему, не желает предотвращать возможность Grok «раздевать» реальных людей. Член комитета по гражданским свободам Майкл Макнамара заявил в пресс-релизе, что считает, что предложение о запрете приложений-«нудифаеров» — это «то, чего ожидают наши граждане».



