14 мая 2025, 22:00 Общество

Комиссар призывает запретить AI-приложения, создающие обнажённые изображения детей: девочки — главные жертвы

Английский детский комиссар Рэйчел де Соуза призывает правительство Великобритании полностью запретить приложения, использующие искусственный интеллект для создания сексуально откровенных изображений детей. По её словам, даже после принятия новых законов, запрещающих владение, создание и распространение подобных AI-инструментов, государство по-прежнему не осуществляет должного контроля за такими технологиями. Это уже оказывает разрушительное воздействие в реальном мире — в первую очередь на детей и подростков, особенно девочек.

Рэйчел де Соуза требует полного запрета приложений, способных создавать так называемые «нюдификации» — когда фото реальных людей с помощью AI обрабатываются так, будто они обнажённые.

«Технологии, которые лежат в основе этих инструментов, сложны. Они искажают реальность, вызывают зависимость и привлекают внимание пользователей. А дети сталкиваются с терминами и образами, которые они просто не в состоянии понять», — написала комиссар на сайте организации Children’s Commissioner.

Она подчеркнула, что развитие таких технологий идёт с такой скоростью и в таких масштабах, что сложно даже осознать все риски, которые они несут.


AI и шантаж: хищники используют технологии для манипуляций

По словам де Соузы, эти технологии непропорционально нацелены на девушек и молодых женщин. Многие подобные приложения работают исключительно с изображениями женских тел, поскольку были обучены именно на таких данных. Об этом сообщает BBC.

«Почти все сексуализированные deepfake-изображения касаются женщин и девочек. Доказательства указывают, что большинство таких инструментов работают только с изображениями женщин — именно на них они были натренированы», — отмечает комиссар.

Девушки, осознавая риск, всё чаще избегают публикации своих фото или любой активности в интернете, чтобы не попасть в ловушку подобных технологий. Это похоже на их поведение в реальной жизни: например, многие не ходят по ночам одни, чтобы обезопасить себя.

Мальчики тоже подвергаются рискам, хоть и иного рода. Исследования показывают, что подростки мужского пола уязвимы к экстремистским онлайн-сообществам, в том числе содержащим сексуализированный контент, особенно созданный с помощью AI.


Создание и распространение откровенных deepfake-фото — незаконно

Согласно Закону о безопасности в интернете, передача или даже угроза передачи откровенных deepfake-изображений является уголовным преступлением. В феврале правительство Великобритании уже одобрило законы, направленные на борьбу с созданием с помощью AI изображений сексуального насилия над детьми.

Законы запрещают не только хранение, но и создание или распространение таких AI-инструментов.

«Распространение изображений, изображающих сексуальное насилие над детьми — включая созданные с помощью искусственного интеллекта — отвратительно и незаконно. Согласно закону, все онлайн-платформы обязаны удалять подобный контент, иначе им грозят крупные штрафы», — заявил представитель Министерства науки, инноваций и технологий.

Великобритания стала первой страной в мире, внедрившей отдельные уголовные нормы, касающиеся сексуального насилия над детьми с применением AI. Но комиссар считает, что этого недостаточно.

«Эти законы — лишь первый шаг. Не должно существовать ни одного приложения, создающего обнажённые изображения, даже если оно не попадает под классификацию как инструмент для генерации изображений насилия над детьми», — подчеркнула де Соуза.


AI и дети: лавинообразный рост и угроза вне контроля

Комиссар призывает обязать разработчиков генеративных AI-инструментов учитывать и устранять риски, которые их технологии несут детям. Также она требует внедрения системного механизма удаления сексуализированных deepfake-изображений детей из интернета, а также официального признания такого контента как формы насилия над женщинами и девочками.

Тревогу бьют и эксперты из британского благотворительного фонда Internet Watch Foundation (IWF), частично финансируемого технологическими компаниями. Они подтверждают: использование AI для создания изображений сексуального насилия над детьми выросло более чем в четыре раза всего за год.

Так, в ходе недавнего 30-дневного исследования IWF обнаружил 3 512 AI-снимков на одной лишь странице в даркнете. Причём количество изображений самой опасной категории A за год выросло на 10%, сообщает The Guardian.

Хотя большинство таких изображений создаются на основе вымышленных лиц, были зафиксированы и случаи, когда использовались реальные фотографии или голоса детей. Позже эти изображения применялись для шантажа и втягивания детей в повторные злоупотребления.

«Мы знаем, что такие приложения используются даже в школах, а изображения мгновенно теряют контроль. Это критически важная проблема, требующая немедленного внимания. Иначе технологии обгонят законы и образование», — заключил временный исполнительный директор IWF Дерек Рэй-Хилл.

Похожие новости

Почти треть чехов (31%), не знают, в каком режиме они будут работать после окончания летних каникул, то есть через несколько дней
Всемирная организация здравоохранения (ВОЗ) надеется, что пандемии коронавируса будет длиться меньше двух лет
В июле более трех четвертей чехов интересовались развитием ситуации вокруг распространения коронавируса нового типа
Школы начнут свою работу 1 сентября в обычном режиме, но с усиленными гигиеническими мерами
Последствия эпидемии коронавируса сильно сказались на финансовом положении чехов
Нежные или яркие ноготки. Броский или натуральный маникюр! Nail House воплотит твои beauty желания, обещаем!
В сентябре-октябре этого года в Чехии состоится пробная перепись населения
В период чрезвычайной ситуации в Чехии большое количество людей страдали депрессией и тревожными расстройствами
Продажа авиабилетов в Чехии растет каждую неделю
В пятницу в Чешской Республике был зарегистрирован 281 случай заболевания Covid-19
Европейский Союз хочет быть более сплоченным в борьбе с эпидемией коронавируса
Сенат утвердил правила проведения переписи населения, которая состоится в конце марта следующего года