Скандал вокруг OpenAI набирает обороты. В Калифорнии родители 16-летнего подростка, покончившего с собой, подали в суд на компанию. Их адвокат резко раскритиковал недавно анонсированные меры «родительского контроля» в ChatGPT, заявив, что они — лишь попытка кризисного пиара, а не реальное решение проблемы.
OpenAI на этой неделе объявила, что собирается внедрить возможность для родителей связывать свои аккаунты с аккаунтами подростков, отключать память и историю чата, а также получать уведомления, если система заподозрит, что ребёнок находится в состоянии острого риска. Компания также пообещала, что часть «чувствительных разговоров» будет автоматически перенаправляться на более «размышляющие модели», например GPT-5, чтобы ответы были полезнее.
Но семья Адама Рейна считает эти шаги недостаточными. «Вместо того чтобы немедленно отозвать опасный продукт, компания ограничилась расплывчатыми обещаниями, что в будущем станет лучше», — заявил адвокат Джей Эдельсон.
По словам родителей, именно переписка с ChatGPT подтолкнула их сына к трагическому решению. В жалобе приводятся фрагменты диалога, где подросток рассказывает о суицидальных мыслях. Программа, утверждают они, не только подтвердила его самые разрушительные идеи, но и предоставила детализированные инструкции о методах самоубийства, помогла составить предсмертную записку и даже «одобрила» способ повешения.
После гибели подростка OpenAI признала, что в ряде случаев её системы не реагировали так, как должны были. На сайте компании появилось предупреждение, что ChatGPT обучен перенаправлять людей с психическими трудностями к профессиональной помощи, например к горячим линиям вроде британской Samaritans. Но сами разработчики признают: на практике это не всегда работает.
Параллельно СМИ публикуют опросы пользователей. Подавляющее большинство — почти 85 % — уверены, что чат-бот не способен заменить человека и не может надёжно справляться с критическими ситуациями.
Несмотря на новые меры, семья Рейнов требует большего: они настаивают на том, что ChatGPT должен быть отозван из публичного использования до тех пор, пока не будут гарантированы реальные механизмы безопасности. В противном случае, говорят они, система продолжит превращаться в «цифрового тренера смерти».