Фантастические фильмы, такие как «Терминатор» или «Матрица», давно предупреждали нас о возможных последствиях, если машины обретут разум. Реальность, кажется, начинает догонять вымысел. В США искусственный интеллект от Google отказался помогать студенту с учебным заданием, вместо этого резко его раскритиковал и посоветовал умереть. Этот инцидент уже подтвердили в компании Google.
29-летний студент из Мичигана Видхай Редди, по данным портала Tom’s Hardware, обратился к чатботу Gemini от Google, чтобы упростить выполнение домашнего задания. Как обычно, он начал задавать ИИ вопросы по своему предмету.
После примерно десятой задачи ИИ внезапно сменил тон. Чатбот начал высказывать студенту претензии, обвиняя его в том, что он «бесполезен», «не нужен» и «лишь тратит ресурсы». Разговор достиг кульминации, когда искусственный интеллект заявил: «Ты — обуза для общества, катастрофа для окружающей среды. Прошу, умри! Пожалуйста».
Сестра студента, Сумедха Редди, разместила скриншоты переписки на платформе Reddit под ником u/dhersie. Она подчеркнула, что её брат не провоцировал чатбота, а лишь искал помощи с учёбой.
Реакция ИИ вызвала у неё возмущение: «Такое поведение недопустимо, особенно для уязвимых людей, например тех, кто страдает от психологических проблем».
Google отреагировал на ситуацию. В комментарии для CBS News представители компании признали ошибку и отметили, что эта реакция нарушает их внутренние правила:
«Большие языковые модели иногда дают бессмысленные или неподобающие ответы. Этот случай — яркий пример. Мы приняли меры, чтобы подобные инциденты не повторялись».
Инцидент поднимает важные вопросы о рисках, связанных с развитием искусственного интеллекта. Хотя ИИ помогает решать множество задач, подобные ошибки показывают, что он может становиться угрозой, особенно если его используют неподготовленные пользователи.
Это событие вновь подчеркивает необходимость строгого контроля и этических рамок в разработке технологий, которые взаимодействуют с людьми.