Все больше людей обращаются к искусственному интеллекту за медицинскими советами, но это может обернуться катастрофой. Недавно 60-летний мужчина заменил обычную кухонную соль (хлорид натрия) на токсичный бромид натрия — по его словам, именно так порекомендовал ему чат-бот. Спустя несколько месяцев у него развилась редкая форма отравления — бромизм, появились психоз и галлюцинации. Итогом стала срочная госпитализация.
Случай описан в журнале Annals of Internal Medicine. Мужчина хотел сократить потребление соли и спросил у языковой модели, чем ее можно заменить. Получив «совет» использовать бромид натрия, он применял его в еде три месяца.
Бромид натрия действительно похож на соль, но для человека в пищу он ядовит. Раньше его использовали как средство от эпилепсии и седативное, сегодня — лишь в промышленности, например при очистке и в сельском хозяйстве.
От бессонницы к галлюцинациям
Мужчина обратился к врачам из-за бессонницы, усталости, нарушений координации, сыпи и сильной жажды. Анализы показали бромизм — хроническое отравление. У пациента также проявились паранойя, слуховые и зрительные галлюцинации. После попытки побега его перевели в психиатрическое отделение.
Три недели врачи выводили яд с помощью инфузий и электролитов, назначали антипсихотики. После стабилизации состояния его выписали.
Исследователи подчеркнули: случай наглядно демонстрирует, что советы ИИ могут быть опасны для здоровья. «ChatGPT и другие модели создают текст по вероятности слов, а не по проверке фактов. Это способствует распространению дезинформации», — отмечают авторы работы.
ИИ не заменяет врача
Американский эксперт Харви Кастро напомнил, что искусственный интеллект — лишь инструмент. «Контекст в медицинских рекомендациях ключевой. ИИ не заменит профессиональное суждение врача», — сказал он в интервью Fox News.
Кастро призвал вводить защитные меры: базы медицинских знаний, автоматическое предупреждение о рисках, контроль специалистов. «Без регулирования подобные инциденты будут повторяться», — уверен он.
В OpenAI заявили, что их система «не предназначена для диагностики и лечения заболеваний». Компания подчеркнула: пользователи должны обращаться к врачам, а её специалисты постоянно дорабатывают систему для снижения рисков.