На прошлой неделе в Лас-Вегасе произошел взрыв Tesla Cybertruck, в результате которого погиб военный. Как стало известно, для подготовки к взрыву он использовал генеративный искусственный интеллект, включая чат-бота ChatGPT, чтобы определить необходимое количество взрывчатого вещества. Этот случай стал первым зафиксированным в США, когда ИИ был применен для подготовки подобного преступления.
37-летний Мэтью Ливелсбергер, служивший в спецподразделении «Зеленые береты», погиб в результате взрыва своего электромобиля перед отелем, принадлежащим избранному президенту Дональду Трампу. В оставленном послании он заявил, что хочет привлечь внимание к проблемам в США. По данным полиции, у него не было личной вражды к Трампу, однако он, вероятно, страдал посттравматическим стрессовым расстройством.
Ливелсбергер использовал ChatGPT для поиска информации о мощностях взрывчатых веществ и возможностях их легального приобретения в США.
Шериф Лас-Вегаса Кевин Макмахилл заявил, что этот случай стал первым, когда ChatGPT был использован для подготовки взрывного устройства на территории США. По его словам, искусственный интеллект может стать серьезным инструментом в руках злоумышленников.
Ситуация вновь подняла вопросы об этических аспектах применения ИИ. Разработчик ChatGPT, компания OpenAI, подчеркнула, что ее продукты спроектированы таким образом, чтобы отклонять запросы, связанные с противоправной деятельностью.
«В данном случае ChatGPT предоставил информацию, которая уже была общедоступной в интернете, а также предупредил о возможных последствиях незаконных действий», — сообщила компания, ссылаясь на публикацию Axios.
Этот случай вызывает широкую дискуссию о том, как искусственный интеллект может быть использован как в благих, так и в зловредных целях. Специалисты утверждают, что необходимы дополнительные меры для предотвращения использования технологий в противоправных действиях.