Английский детский комиссар Рэйчел де Соуза призывает правительство Великобритании полностью запретить приложения, использующие искусственный интеллект для создания сексуально откровенных изображений детей. По её словам, даже после принятия новых законов, запрещающих владение, создание и распространение подобных AI-инструментов, государство по-прежнему не осуществляет должного контроля за такими технологиями. Это уже оказывает разрушительное воздействие в реальном мире — в первую очередь на детей и подростков, особенно девочек.
Рэйчел де Соуза требует полного запрета приложений, способных создавать так называемые «нюдификации» — когда фото реальных людей с помощью AI обрабатываются так, будто они обнажённые.
«Технологии, которые лежат в основе этих инструментов, сложны. Они искажают реальность, вызывают зависимость и привлекают внимание пользователей. А дети сталкиваются с терминами и образами, которые они просто не в состоянии понять», — написала комиссар на сайте организации Children’s Commissioner.
Она подчеркнула, что развитие таких технологий идёт с такой скоростью и в таких масштабах, что сложно даже осознать все риски, которые они несут.
AI и шантаж: хищники используют технологии для манипуляций
По словам де Соузы, эти технологии непропорционально нацелены на девушек и молодых женщин. Многие подобные приложения работают исключительно с изображениями женских тел, поскольку были обучены именно на таких данных. Об этом сообщает BBC.
«Почти все сексуализированные deepfake-изображения касаются женщин и девочек. Доказательства указывают, что большинство таких инструментов работают только с изображениями женщин — именно на них они были натренированы», — отмечает комиссар.
Девушки, осознавая риск, всё чаще избегают публикации своих фото или любой активности в интернете, чтобы не попасть в ловушку подобных технологий. Это похоже на их поведение в реальной жизни: например, многие не ходят по ночам одни, чтобы обезопасить себя.
Мальчики тоже подвергаются рискам, хоть и иного рода. Исследования показывают, что подростки мужского пола уязвимы к экстремистским онлайн-сообществам, в том числе содержащим сексуализированный контент, особенно созданный с помощью AI.
Создание и распространение откровенных deepfake-фото — незаконно
Согласно Закону о безопасности в интернете, передача или даже угроза передачи откровенных deepfake-изображений является уголовным преступлением. В феврале правительство Великобритании уже одобрило законы, направленные на борьбу с созданием с помощью AI изображений сексуального насилия над детьми.
Законы запрещают не только хранение, но и создание или распространение таких AI-инструментов.
«Распространение изображений, изображающих сексуальное насилие над детьми — включая созданные с помощью искусственного интеллекта — отвратительно и незаконно. Согласно закону, все онлайн-платформы обязаны удалять подобный контент, иначе им грозят крупные штрафы», — заявил представитель Министерства науки, инноваций и технологий.
Великобритания стала первой страной в мире, внедрившей отдельные уголовные нормы, касающиеся сексуального насилия над детьми с применением AI. Но комиссар считает, что этого недостаточно.
«Эти законы — лишь первый шаг. Не должно существовать ни одного приложения, создающего обнажённые изображения, даже если оно не попадает под классификацию как инструмент для генерации изображений насилия над детьми», — подчеркнула де Соуза.
AI и дети: лавинообразный рост и угроза вне контроля
Комиссар призывает обязать разработчиков генеративных AI-инструментов учитывать и устранять риски, которые их технологии несут детям. Также она требует внедрения системного механизма удаления сексуализированных deepfake-изображений детей из интернета, а также официального признания такого контента как формы насилия над женщинами и девочками.
Тревогу бьют и эксперты из британского благотворительного фонда Internet Watch Foundation (IWF), частично финансируемого технологическими компаниями. Они подтверждают: использование AI для создания изображений сексуального насилия над детьми выросло более чем в четыре раза всего за год.
Так, в ходе недавнего 30-дневного исследования IWF обнаружил 3 512 AI-снимков на одной лишь странице в даркнете. Причём количество изображений самой опасной категории A за год выросло на 10%, сообщает The Guardian.
Хотя большинство таких изображений создаются на основе вымышленных лиц, были зафиксированы и случаи, когда использовались реальные фотографии или голоса детей. Позже эти изображения применялись для шантажа и втягивания детей в повторные злоупотребления.
«Мы знаем, что такие приложения используются даже в школах, а изображения мгновенно теряют контроль. Это критически важная проблема, требующая немедленного внимания. Иначе технологии обгонят законы и образование», — заключил временный исполнительный директор IWF Дерек Рэй-Хилл.