Исполнительный указ Трампа: что это значит для регулирования ИИ
Исполнительный указ президента Дональда Трампа, подписанный 11 декабря 2025 года, призван ограничить самостоятельное регулирование штатами сферы искусственного интеллекта (ИИ), которое, по мнению администрации, замедляет инновации.
В последнее время наблюдается рост числа законодательных актов на уровне штатов, регулирующих ИИ, особенно в связи с появлением генеративных систем, таких как ChatGPT. В 2025 году 38 штатов приняли законы, касающиеся ИИ, вводя запреты на использование ИИ-роботов для преследования или блокируя системы, способные манипулировать поведением людей.
Указ объявляет политикой США создание «минимально обременительной» национальной системы регулирования ИИ. Генеральному прокурору поручено сформировать рабочую группу для оспаривания противоречащих этой политике законов штатов. Министру торговли предписано выявить «тяжеловесные» законы штатов, нарушающие эту политику, и приостановить финансирование по программе «Equity Access and Deployment Program» для таких штатов. Исключение составляют законы, связанные с безопасностью детей.
Исполнительные указы – это директивы федеральным агентствам по реализации существующих законов. В данном случае, указ предписывает федеральным ведомствам предпринять действия, которые, по заявлению администрации, подпадают под их юридические полномочия.
Крупные технологические компании активно лоббировали федеральное правительство с целью отмены региональных норм, утверждая, что необходимость соответствовать множеству различных законов замедляет разработку новых технологий.
Сторонники законов штатов, напротив, видят в них попытку сбалансировать общественную безопасность и экономическую выгоду. Среди ключевых законов, которые могут попасть под действие указа, – законодательные акты Калифорнии, Колорадо, Техаса и Юты.
Регулирование алгоритмической дискриминации
Закон Колорадо «Потребительские защиты в сфере искусственного интеллекта» стал первым комплексным законом в США, регулирующим использование ИИ в сферах занятости, жилья, кредитования, образования и здравоохранения. Однако его исполнение было отложено в связи с рассмотрением последствий законодателями.
Закон Колорадо фокусируется на предиктивных системах ИИ, которые принимают решения, а не на генеративных моделях, создающих контент. Он направлен на защиту граждан от дискриминации по признаку алгоритмов. Организации, использующие такие «высокорисковые системы», обязаны проводить оценку их воздействия, уведомлять потребителей об использовании ИИ в значимых для них решениях, а также публиковать информацию о применяемых системах и мерах по снижению рисков алгоритмической дискриминации.
Аналогичный закон в Иллинойсе, вступающий в силу 1 января 2026 года, вносит поправки в «Закон о правах человека Иллинойса», определяя использование работодателями ИИ-инструментов, приводящих к дискриминации, как нарушение гражданских прав.
«Пограничные» модели ИИ
Закон Калифорнии «Прозрачность в области пограничных технологий искусственного интеллекта» устанавливает правила разработки наиболее мощных моделей ИИ, так называемых «фундаментальных» или «пограничных» моделей. Это модели, обученные на огромных массивах данных и способные адаптироваться к широкому спектру задач без дополнительного обучения. К ним относятся модели, лежащие в основе таких чат-ботов, как ChatGPT от OpenAI и Gemini от Google.
Калифорнийский закон распространяется только на самые крупные модели ИИ – стоимостью от 100 миллионов долларов и требующие для обучения не менее 1026 операций с плавающей запятой. Операции с плавающей запятой – это арифметические действия, позволяющие компьютерам обрабатывать большие числа.
Машинное обучение может приводить к ненадежным, непредсказуемым и необъяснимым результатам, что создает сложности для регулирования. Внутренняя работа таких моделей часто скрыта от пользователей и даже от их создателей, что приводит к их названию «черные ящики». Индекс прозрачности фундаментальных моделей показывает, что эти крупные модели могут быть весьма непрозрачными.
Риски, связанные с крупными моделями ИИ, включают злонамеренное использование, сбои и системные риски, которые потенциально могут представлять катастрофическую угрозу для общества. Например, модель ИИ может быть использована для создания оружия массового поражения или для организации кибератаки, наносящей ущерб в миллиарды долларов.
Закон Калифорнии обязывает разработчиков пограничных моделей ИИ описывать, как они учитывают национальные и международные стандарты и лучшие отраслевые практики. Также требуется предоставлять резюме оценки катастрофических рисков. Кроме того, закон предписывает Управлению по чрезвычайным ситуациям штата создать механизм для сообщения о критических инцидентах безопасности и конфиденциального предоставления сводок об оценке потенциальных катастрофических рисков.
Раскрытие информации и ответственность
Техас принял «Закон об ответственном управлении ИИ», который налагает ограничения на разработку и внедрение систем ИИ, например, для манипулирования поведением. Предусмотренные законом положения об «убежище» (защита от ответственности) призваны стимулировать компании документировать соблюдение стандартов ответственного управления ИИ, таких как «NIST AI Risk Management Framework».
Нововведением техасского закона является создание «песочницы» – изолированной среды для безопасного тестирования программного обеспечения, где разработчики могут проверять поведение систем ИИ.
«Политика в отношении искусственного интеллекта штата Юта» налагает обязательства по раскрытию информации на организации, использующие генеративный ИИ в работе с клиентами. Такие законы гарантируют, что компания, использующая генеративный ИИ, несет конечную ответственность за связанные с этим обязательства и ущерб потребителям, и не может перекладывать вину на ИИ. Этот закон является первым в стране, устанавливающим потребительские гарантии и требующим от компаний явно указывать, когда потребитель взаимодействует с системой генеративного ИИ.
Другие инициативы
Штаты также предпринимают другие юридические и политические шаги для защиты своих граждан от потенциального вреда, связанного с ИИ. Губернатор Флориды Рон ДеСантис выразил несогласие с федеральными попытками отменить региональные нормы регулирования ИИ и предложил «Билль о правах в сфере ИИ» для Флориды, направленный на устранение «очевидных опасностей» технологии.
Тем временем генеральные прокуроры 38 штатов, а также округа Колумбия, Пуэрто-Рико, Американского Самоа и Виргинских островов обратились к ИИ-компаниям, включая Anthropic, Apple, Google, Meta, Microsoft, OpenAI, Perplexity AI и xAI, с призывом исправить «подхалимские и бредовые» результаты работы генеративных систем ИИ, которые могут привести к излишней доверчивости пользователей или даже к заблуждениям.
Влияние исполнительного указа пока неясно. Наблюдатели полагают, что он может быть незаконным, поскольку только Конгресс имеет право отменять законы штатов. Заключительное положение указа предписывает федеральным чиновникам разработать законодательство для достижения этой цели.
*Признаны экстремистскими организациями и запрещены на территории РФ.
Комментарии
Комментариев пока нет.