ИИ-компании: Оценка безопасности для человечества

Новый доклад выявил, насколько эффективно технологические гиганты защищают мир от потенциальных угроз, исходящих от искусственного интеллекта.

По мере того, как ИИ все глубже проникает в нашу повседневную жизнь, становятся очевидными и его риски: от использования чат-ботов в психологической поддержке, приводящего к трагическим последствиям, до кибератак и потенциального применения ИИ в военных целях или для дестабилизации правительств.

Однако, как отмечает доклад Института будущего жизни (Future of Life Institute), стимулы для ИИ-компаний ставить безопасность человечества во главу угла недостаточны. Этот вывод подкреплен индексом безопасности ИИ, который стремится направить развитие технологий в более безопасное русло.

«Это единственная отрасль в США, производящая мощные технологии, которая совершенно не регулируется, поэтому они соревнуются, опускаясь до дна, и у них нет стимулов для приоритезации безопасности», — заявил президент института и профессор Массачусетского технологического института Макс Тегмарк.

Наивысшие общие оценки (C+) получили две компании из Кремниевой долины: OpenAI, разработчик ChatGPT, и Anthropic, создатель Claude. Google DeepMind, подразделение Google, занимающееся ИИ, получило оценку C.

Еще ниже оказались Meta, материнская компания Facebook*, и xAI Илона Маска, обе получили D. Китайские компании Z.ai и DeepSeek также заработали D. Самая низкая оценка (D-) досталась Alibaba Cloud.

Оценки компаний базировались на 35 показателях в шести категориях, включая экзистенциальную безопасность, оценку рисков и обмен информацией. Индекс опирался на общедоступные материалы и ответы компаний, полученные в ходе опроса. Оценку проводили восемь экспертов по искусственному интеллекту, в том числе ученые и руководители профильных организаций.

Все компании в индексе показали результаты ниже среднего в категории экзистенциальной безопасности, которая включает внутренний мониторинг, меры контроля и стратегию обеспечения безопасности. «Хотя компании ускоряют свои амбиции в области AGI (искусственного общего интеллекта) и супер-интеллекта, ни одна не продемонстрировала убедительного плана по предотвращению катастрофического злоупотребления или потери контроля», — говорится в отчете Института будущего жизни.

Google DeepMind и OpenAI заявили о своей приверженности безопасности. OpenAI подчеркнула, что безопасность является основой их работы, включая значительные инвестиции в исследования, разработку надежных систем защиты и тестирование моделей. Google DeepMind заверила, что применяет строгий, научно обоснованный подход к безопасности ИИ.

В отчете Института будущего жизни отмечается, что xAI и Meta «не имеют обязательств по мониторингу и контролю, несмотря на наличие рамок управления рисками, и не предоставили доказательств того, что они инвестируют в исследования безопасности более чем минимально». У других компаний, таких как DeepSeek, Z.ai и Alibaba Cloud, отсутствуют общедоступные документы об экзистенциальной стратегии безопасности.

Meta, Z.ai, DeepSeek, Alibaba и Anthropic не ответили на запрос о комментарии. xAI заявила: «Legacy Media Lies» (Лживые традиционные СМИ). Адвокат Маска не предоставил немедленных дополнительных комментариев.

Макс Тегмарк выразил обеспокоенность тем, что отсутствие должного регулирования ИИ-индустрии может способствовать созданию биооружия террористами, более эффективной манипуляции людьми и даже компрометации стабильности правительств.

«Да, у нас есть большие проблемы, и ситуация движется в плохом направлении, но я хочу подчеркнуть, насколько легко это исправить, — сказал Тегмарк. — Нам просто нужны обязательные стандарты безопасности для ИИ-компаний».

Были предприняты усилия со стороны правительства по усилению надзора за ИИ-компаниями, однако некоторые законопроекты столкнулись с противодействием со стороны технологических лобби, утверждающих, что излишнее регулирование может замедлить инновации и привести к уходу компаний из страны.

Тем не менее, были приняты законодательные акты, направленные на лучший мониторинг стандартов безопасности в ИИ-компаниях, включая SB 53, подписанный губернатором Гэвином Ньюсомом в сентябре. Он обязывает компании делиться своими протоколами безопасности и сообщать о таких инцидентах, как кибератаки, штату. Тегмарк назвал новый закон шагом в правильном направлении, но отметил, что требуется гораздо больше.

Роб Эндерле, главный аналитик консультационной фирмы Enderle Group, назвал индекс безопасности ИИ интересным подходом к решению проблемы недостаточного регулирования ИИ в США, но указал на существующие трудности. «Мне неясно, способно ли правительство США и нынешняя администрация в данный момент разработать продуманные правила, что означает, что они могут принести больше вреда, чем пользы», — сказал Эндерле. «Также неясно, удалось ли кому-либо внедрить механизмы, обеспечивающие соблюдение этих правил».

*Признаны экстремистскими организациями и запрещены на территории РФ.

Комментарии

Комментариев пока нет.