Регулирование ИИ: кто, как и почему?
Вашингтон стоит на пороге принятия решений по регулированию искусственного интеллекта. Однако основной конфликт разгорается не вокруг самой технологии, а вокруг того, кто получит полномочия по ее контролю.
В условиях отсутствия единых федеральных стандартов безопасности для потребителей, отдельные штаты активно разрабатывают собственные законопроекты для защиты граждан от угроз, связанных с ИИ. Примеры включают закон Калифорнии SB-53 о безопасности ИИ и Техасский акт об ответственном управлении ИИ, запрещающий преднамеренное злоупотребление системами искусственного интеллекта.
Технологические гиганты и быстрорастущие стартапы из Кремниевой долины утверждают, что подобные законы создают нерабочую мозаику нормативных актов, которая угрожает инновациям.
«Это замедлит нас в гонке против Китая», — заявил TechCrunch Джош Власто, соучредитель про-ИИ PAC Leading the Future.
Индустрия и ее представители в Белом доме настаивают на введении национального стандарта или отказе от регулирования вовсе. В разгар этой битвы «все или ничего» появляются новые инициативы, направленные на запрет штатам принимать собственные законы об ИИ.
По сообщениям, законодатели Палаты представителей пытаются использовать Закон об ассигнованиях на национальную оборону (NDAA) для блокировки законов штатов об ИИ. Одновременно с этим, в утечке проекта исполнительного указа Белого дома также прослеживается сильная поддержка предотвращения попыток штатов регулировать ИИ.
Широкомасштабное преемство, которое лишит штаты права регулировать ИИ, непопулярно в Конгрессе, который подавляющим большинством голосов проголосовал против подобного моратория ранее в этом году. Законодатели утверждают, что без федерального стандарта блокировка штатов оставит потребителей без защиты, а технологические компании — свободными в своей деятельности без надзора.
Для создания такого национального стандарта конгрессмен Тед Лиу (демократ от Калифорнии) и двухпартийная рабочая группа Палаты представителей по ИИ готовят пакет федеральных законопроектов об ИИ, охватывающих различные аспекты защиты потребителей, включая мошенничество, здравоохранение, прозрачность, безопасность детей и катастрофические риски. Подобный мега-законопроект, вероятно, потребует месяцев, если не лет, для превращения в закон, подчеркивая, почему нынешняя гонка за ограничением полномочий штатов стала одним из самых острых вопросов в политике в отношении ИИ.
Линии фронта: NDAA и Исполнительный Указ
Усилия по блокированию регулирования ИИ штатами активизировались в последние недели.
Палата представителей рассматривала возможность включения в NDAA положений, запрещающих штатам регулировать ИИ, как сообщил лидер большинства Стив Скалис (республиканец от Луизианы) Punchbowl News. По данным Politico, Конгресс работал над окончательным согласованием законопроекта об обороне к Дню благодарения. Источник, близкий к делу, сообщил TechCrunch, что переговоры были сосредоточены на сужении сферы действия, чтобы потенциально сохранить полномочия штатов в таких областях, как безопасность детей и прозрачность.
Между тем, утечка проекта исполнительного указа Белого дома раскрывает собственную потенциальную стратегию преемства администрации. Указ, который, по сообщениям, был приостановлен, предусматривает создание «Целевой группы по судебным делам в области ИИ» для оспаривания законов штатов об ИИ в суде, поручает агентствам оценивать законы штатов, признанные «обременительными», и подталкивает Федеральную комиссию по связи и Федеральную торговую комиссию к выработке национальных стандартов, отменяющих правила штатов.
Примечательно, что указ предоставит Дэвиду Саксу — «ИИ и крипто-царю» Трампа и соучредителю венчурной фирмы Craft Ventures — полномочия со-руководителя по созданию единой правовой базы. Это даст Саксу прямое влияние на политику в области ИИ, превосходящее обычную роль Управления по научно-технической политике Белого дома и его главы Майкла Кратсиоса.
Сакс публично выступал за блокирование регулирования штатов и минимизацию федерального надзора, отдавая предпочтение саморегулированию отрасли для «максимизации роста».
Аргумент «лоскутного одеяла»
Позиция Сакса отражает точку зрения большей части ИИ-индустрии. За последние месяцы появилось несколько про-ИИ супер-PAC, вложивших сотни миллионов долларов в местные и государственные выборы, чтобы противостоять кандидатам, поддерживающим регулирование ИИ.
Leading the Future — при поддержке Andreessen Horowitz, президента OpenAI Грега Брокмана, Perplexity и соучредителя Palantir Джо Лонсдейла — собрала более 100 миллионов долларов. На этой неделе Leading the Future запустила кампанию стоимостью 10 миллионов долларов, призывающую Конгресс разработать национальную политику ИИ, которая бы отменяла законы штатов.
«Когда вы пытаетесь стимулировать инновации в технологическом секторе, вы не можете иметь ситуацию, когда постоянно появляются законы от людей, не обладающих обязательно технической экспертизой», — заявил Власто TechCrunch.
Он утверждал, что мозаика региональных нормативных актов «замедлит нас в гонке против Китая».
Натан Лимер, исполнительный директор Build American AI, правозащитного крыла PAC, подтвердил, что группа поддерживает преемство без федеральных потребительских гарантий, специфичных для ИИ. Лимер утверждал, что существующие законы, такие как законы о мошенничестве или ответственности за продукцию, достаточны для решения проблем, связанных с ИИ. В то время как законы штатов часто направлены на предотвращение проблем до их возникновения, Лимер предпочитает более реактивный подход: пусть компании развиваются быстро, а проблемы решаются в суде позже.
Никакого преемства без представительства
Алекс Борес, член Ассамблеи штата Нью-Йорк, баллотирующийся в Конгресс, является одной из первых мишеней Leading the Future. Он был спонсором RAISE Act, который требует от крупных ИИ-лабораторий иметь планы безопасности для предотвращения критических рисков.
«Я верю в силу ИИ, и именно поэтому так важно иметь разумное регулирование», — сказал Борес TechCrunch. «В конечном счете, ИИ, который выиграет на рынке, будет надежным ИИ, а рынок часто недооценивает или предлагает плохие краткосрочные стимулы для инвестиций в безопасность».
Борес поддерживает национальную политику ИИ, но утверждает, что штаты могут быстрее реагировать на возникающие риски.
И это правда, что штаты действуют быстрее. По состоянию на ноябрь 2025 года, 38 штатов приняли более 100 законов, связанных с ИИ, в этом году, в основном касающихся дипфейков, прозрачности и раскрытия информации, а также использования ИИ государственными органами. (Недавнее исследование показало, что 69% этих законов не налагают никаких требований на разработчиков ИИ.)
Активность в Конгрессе еще больше подтверждает аргумент о более медленном темпе по сравнению со штатами. Были внесены сотни законопроектов об ИИ, но мало что было принято. С 2015 года конгрессмен Лиу внес 67 законопроектов в Комитет по науке Палаты представителей. Только один стал законом.
Более 200 законодателей подписали открытое письмо против преемства в NDAA, утверждая, что «штаты служат лабораториями демократии», которые должны «сохранять гибкость для противодействия новым цифровым вызовам по мере их возникновения». Около 40 генеральных прокуроров штатов также направили открытое письмо против запрета регулирования ИИ.
Эксперт по кибербезопасности Брюс Шнайер и специалист по данным Нейтан Э. Сандерс — авторы книги «Перепрограммирование демократии: как ИИ трансформирует нашу политику, правительство и гражданство» — считают, что жалоба на «лоскутное одеяло» преувеличена. Они отмечают, что ИИ-компании уже соблюдают более строгие европейские правила, и большинство отраслей находят способы работать в условиях различных законов штатов. По их мнению, истинный мотив — избежание ответственности.
Как может выглядеть федеральный стандарт?
Лиу разрабатывает законопроект объемом более 200 страниц, который, как он надеется, представит в декабре. Он охватывает ряд вопросов, таких как штрафы за мошенничество, защита от дипфейков, защита осведомителей, вычислительные ресурсы для академических кругов, а также обязательное тестирование и раскрытие информации для компаний, занимающихся большими языковыми моделями.
Последнее положение потребовало бы от ИИ-лабораторий тестировать свои модели и публиковать результаты — то, что большинство из них сейчас делают добровольно. Лиу еще не внес законопроект, но сказал, что он не обязывает какие-либо федеральные агентства напрямую проверять модели ИИ. Это отличается от аналогичного законопроекта, внесенного сенаторами Джошем Хоули (республиканец от Миссури) и Ричардом Блюменталем (демократ от Коннектикута), который потребовал бы государственной программы оценки для передовых систем ИИ перед их развертыванием.
Лиу признал, что его законопроект не будет таким строгим, но сказал, что у него больше шансов стать законом.
«Моя цель — принять что-то в закон в этом созыве», — сказал Лиу, отмечая, что лидер Палаты представителей Скалис открыто враждебен к регулированию ИИ. «Я пишу не тот законопроект, который бы написал, будь я королем. Я пытаюсь написать законопроект, который мог бы пройти через контролируемую республиканцами Палату представителей, контролируемый республиканцами Сенат и контролируемую республиканцами Белый дом».
Галерея
Комментарии
Комментариев пока нет.