Компании, работающие над искусственным интеллектом (ИИ) уровня человеческого разума, не готовы к последствиям его появления и не имеют надёжных планов по его контролю. К такому выводу пришёл Future of Life Institute (FLI) в своём новом рейтинге безопасности ИИ, сообщает The Guardian.
В отчёте FLI говорится, что ни одна из ведущих компаний не получила оценку выше С за стратегию предотвращения экзистенциальных рисков.
«Индустрия фактически не готова к собственным целям. Компании заявляют, что создадут ИИ уровня AGI (Artificial General Intelligence) в течение десяти лет, но не показывают внятного плана, как обеспечить безопасность таких систем», — говорится в отчёте.
AGI — это гипотетический этап развития ИИ, при котором система может выполнять любые интеллектуальные задачи на уровне человека.
Активисты предупреждают: если такая технология выйдет из‑под контроля, она может привести к катастрофическим последствиям.
Рейтинг включал семь разработчиков: Google DeepMind, OpenAI, Anthropic, Meta, xAI, а также китайские Zhipu AI и DeepSeek.
Anthropic получила лучший результат – C+
OpenAI – C
Google DeepMind – C‑
Оценку давала группа экспертов, среди которых Стюарт Рассел, профессор компьютерных наук из Великобритании, и Снеха Реванур, основательница организации Encode Justice.
Сооснователь FLI и профессор MIT Макс Тегмарк сравнил ситуацию с «грандиозной ядерной станцией, которую запускают уже на следующей неделе, но при этом нет плана, как предотвратить её аварию».
Он отметил, что компании резко сократили собственные прогнозы:
«Ещё недавно они говорили о десятках лет на решение вызовов AGI, теперь речь идёт о нескольких годах».
FLI — американская некоммерческая организация, выступающая за безопасное использование передовых технологий. Благодаря безвозмездному пожертвованию основателя Ethereum Виталика Бутерина институт работает независимо и публикует оценки, в которых нет коммерческого влияния.