Курс США по ИИ в 2025 сменился: один указ отменён, другой — без деталей. Разбираем, как юристам выстроить комплаенс и договоры.
ИИ-указы США 2025: что делать юристам и комплаенсу
В январе 2025 в США произошёл редкий для юридических команд «эффект домино»: один президентский указ по ИИ отменили, другой — подписали, а практические последствия разошлись по ведомствам так неравномерно, что бизнесу стало сложнее не «соблюдать правила», а понять, какие правила вообще действуют. Для юристов, комплаенса и руководителей юридических департаментов это не академическая новость. Это ежедневные решения: какие требования закладывать в договоры с разработчиками, как описывать контроль рисков в политиках, что говорить совету директоров и аудиторам.
Я всё чаще вижу одну и ту же ошибку: компании реагируют на новости об «отмене регулирования» как на зелёный свет и начинают срезать процессы контроля ИИ. В 2025 это опасно. Реальность такая: федеральная рамка США стала менее предсказуемой, а значит, риск сместился в контракты, штаты и судебные споры. Поэтому выигрывают те, кто быстро перестраивает юридическую функцию и подключает ИИ-инструменты не «для моды», а для мониторинга, анализа и доказуемого комплаенса.
Что изменилось в ИИ-политике США: два указа и много последствий
Ключевой факт: указ EO 14110 (эпоха Байдена) был отменён 20.01.2025, а указ EO 14179 (эпоха Трампа) подписан 23.01.2025. Формально это выглядит как смена курса от «безопасность и контроль» к «снятию барьеров и росту». На практике же для юриста важно другое: что стало с конкретными обязанностями, структурами и ожиданиями регулятора.
Если кратко, EO 14110 подталкивал федеральные агентства к системной архитектуре управления ИИ: роли, советы, стандарты риск-менеджмента, отчётность разработчиков продвинутых моделей. EO 14179 заявляет про снижение регуляторных препятствий и лидерство частного сектора, но оставляет много «пустых мест» в механике внедрения.
Самая дорогая ошибка 2025 года — принять политический лозунг за юридическое правило.
Для международных компаний (включая российские группы с активами/клиентами/партнёрами в США) это особенно критично: американская неопределённость не отменяет обязательств в других юрисдикциях, а часто делает документирование процессов единственной надёжной линией защиты.
EO 14110 отменён: что было в «рамке Байдена» и что могло «подвиснуть»
EO 14110 (30.10.2023) строил понятную для юристов логику: государство говорит, какие риски ИИ считать значимыми, какие процессы ожидать от ведомств и какие сигналы направлять рынку. После отмены 20.01.2025 часть этих механизмов может быть пересмотрена или тихо «усохнуть».
Что именно задавал EO 14110
С практической точки зрения в документе были важны четыре блока:
- Оргструктура управления ИИ в ведомствах: появление Chief AI Officers (аналог «ответственного за ИИ») и межведомственных координационных контуров.
- Стандарты управления рисками: ориентация на подходы NIST и на измеримый контроль безопасности.
- Отчётность для разработчиков продвинутых моделей: ожидание, что по высокорисковым моделям будут предоставляться отчёты о тестировании/безопасности.
- Кадровые программы по ИИ: найм и удержание экспертов в госсекторе.
Почему отмена EO 14110 не означает «можно расслабиться»
Юридическая реальность: даже если формальная обязанность исчезает, доказательные стандарты остаются. В спорах о халатности, недобросовестной рекламе, дефектах продукта, дискриминации или утечках данных суду и контрагентам всё равно нужен ответ:
- какие риски вы видели заранее;
- какие тесты проводили;
- как контролировали поставщика/модель;
- кто был ответственным.
То есть то, что EO 14110 пытался встроить «сверху», в 2025 часто возвращается «снизу» — через договоры, страхование, аудит и претензии.
Практика для юристов: что пересмотреть в документах
Если ваша компания использует ИИ (в HR, скоринге, клиентском сервисе, антифроде, генерации контента), я бы начал с трёх папок:
- политики ИИ и риск-менеджмента: не выкидывайте требования по оценке рисков — лучше упростите и стандартизируйте;
- договоры с вендорами: добавьте обязательства по тестированию, журналированию, инцидент-репортингу, а также право на аудит;
- внутренние роли: назначьте владельца процесса ИИ (даже если закон не требует) — потом это окупится в любой проверке.
EO 14179: дерегулирование на словах и «штатный комплаенс» на деле
Ключевой тезис EO 14179: снять барьеры для лидерства США в ИИ, стимулировать инновации и пересмотреть «наследие» прошлых инициатив. Для бизнеса это звучит приятно. Для юриста это означает: меньше централизованных федеральных сигналов, больше фрагментации и договорной ответственности.
Три зоны неопределённости, которые влияют на юридическую стратегию
- Отчётность по безопасности продвинутых моделей
Если требования к предоставлению отчётов ослабнут, компании могут испытать искушение снизить интенсивность тестирования. Я бы не советовал. Снижение регуляторной нагрузки не снижает:
- риск продуктовой ответственности;
- риск исков из‑за ущерба (включая экономический и репутационный);
- риск претензий по защите данных.
То есть «мы не обязаны» не работает как защита, если вы могли предвидеть ущерб.
- ИИ-кадры в государстве
Если ставка делается на частный сектор, то федеральные команды могут стать менее единообразными в толкованиях и проверках. Для компаний это означает: комплаенс становится менее «по чек-листу» и более «по аргументам».
- Судьба федеральных структур управления ИИ
Консультативные комитеты, институты безопасности и другие элементы могут сохраняться, но с меньшим влиянием. Юристам это добавляет работы: придётся объяснять менеджменту, почему «нет единого стандарта» — и как компания сама его выбирает.
Почему штаты будут давить сильнее
Когда федеральный центр ослабляет контроль, штаты обычно заполняют вакуум. В 2025 логично ожидать усиления подхода «каждый штат — свои правила», особенно в юрисдикциях, чувствительных к вопросам дискриминации, потребительских прав и приватности.
Практический вывод для комплаенса: нужна матрица требований по штатам и процесс обновления. И вот здесь юридические технологии дают реальную экономию времени.
«Подвешенные» инициативы: AI Bill of Rights и Stargate как источник новых рисков
Есть два сюжета, которые юристам нельзя игнорировать, даже если они не всегда оформлены как жёсткие юридические нормы.
AI Bill of Rights: документ без силы закона, но с силой ожиданий
«Билль о правах в эпоху ИИ» в предыдущей администрации задавал язык: справедливость, прозрачность, защита от дискриминации. Даже без статуса указа он влиял на внутренние политики компаний и на то, как stakeholders оценивают этичность решений.
Если в 2025 его роль уменьшится, риск смещается так:
- меньше внешней «подсказки», что считать хорошей практикой;
- больше ответственности компании за собственные стандарты;
- выше вероятность репутационных кризисов из‑за «формально законно, но выглядит плохо».
Stargate Project: инфраструктура на сотни миллиардов и вопросы к контролю
Инициатива формата крупного публично‑частного проекта по ИИ-инфраструктуре (в источнике фигурирует сумма $500 млрд) поднимает для юристов три вопроса:
- закупки и комплаенс: какие требования будут в федеральных контрактах и подрядах;
- нацбезопасность и экспортный контроль: как будут ограничиваться технологии и инвестиции;
- ответственность участников: появится ли дополнительный надзор для тех, кто получает поддержку.
Если ваша компания — поставщик технологий, дата‑центров, данных или ИИ‑сервисов, то «инфраструктурные» инициативы часто приводят к резкому усложнению контрактных требований: от кибербезопасности до отчётности по цепочкам поставок.
Как юридическим командам пережить 2025: план из 7 шагов + где реально помогает ИИ
Надёжная стратегия в период регуляторной турбулентности — это не «угадать, что решит Вашингтон», а выстроить процесс, который выдержит любые повороты. Вот рабочий план, который я бы внедрял в компании уже сейчас.
1) Составьте реестр ИИ-использований (не «где-то есть чатбот», а по-взрослому)
Реестр должен отвечать на три вопроса: где используется ИИ, какие данные затрагиваются, какой ущерб возможен. Минимальные поля:
- бизнес‑процесс и владелец;
- тип модели (в т.ч. генеративная / предиктивная);
- данные (персональные/чувствительные/коммерческая тайна);
- влияние на права человека/дискриминационные риски;
- вендор/модель/версия.
ИИ-инструменты для юридического департамента здесь полезны для автоматизации инвентаризации: поиск упоминаний моделей в договорах, тикетах, внутренней документации.
2) Введите классификацию рисков ИИ по уровням
Не надо изобретать 30 уровней. Достаточно 3–4:
- низкий (внутренние черновики, без персональных данных);
- средний (маркетинг, поддержка клиентов с ограничениями);
- высокий (HR, кредитование/скоринг, безопасность, медицина, критическая инфраструктура).
3) Переведите «этику» в проверяемые контролли
Фразы «мы за справедливость и прозрачность» ничего не стоят без артефактов:
- протоколы тестирования;
- результаты bias‑проверок (где применимо);
- журналы инцидентов;
- решение о допустимых кейсах использования.
4) Обновите договоры: поставщик ИИ должен нести измеримые обязательства
В 2025 контракты — это ваш локальный «указ». Я бы добивался как минимум:
- гарантий по источникам данных/правам на обучение (где релевантно);
- обязательств по безопасности и уведомлению об инцидентах;
- условий по субподрядчикам и изменениям модели;
- прав на аудит/получение отчётов о тестировании;
- ограничений по использованию ваших данных для обучения.
5) Настройте мониторинг изменений: без ИИ это превращается в ручной ад
В условиях конфликта «федеральное vs штатное» юридический мониторинг должен быть потоковым. ИИ-решения в legal tech хорошо подходят для:
- классификации новых актов/проектов по темам;
- сравнения версий документов и выявления изменения обязанностей;
- подготовки кратких справок для бизнеса на 1 страницу.
6) Подготовьте «папку доказательств» на случай регулятора, партнёра или суда
Это набор документов, который должен собираться не «когда пришла претензия», а постоянно:
- политика использования ИИ;
- оценки рисков по высокорисковым кейсам;
- протоколы тестирования и изменения модели;
- обучение сотрудников;
- матрица ответственности.
7) Проговорите стратегию на уровне руководства
Турбулентность указов — это управленческий риск, а не только юридический. Нужны два коротких артефакта:
- мемо для топ‑менеджмента: где ИИ даёт выгоду и где риски;
- решение о допустимом уровне риска (risk appetite): что компания точно не делает.
Частые вопросы, которые задают в 2025 (и короткие ответы)
Если федеральные требования США ослабнут, можно ли убрать внутренние процедуры безопасности? Нет. Процедуры — это ваш щит в ответственности и в переговорах с крупными клиентами, которые будут требовать доказуемый комплаенс.
Надо ли ориентироваться на старые стандарты, если указ отменён? Да, как минимум как на «разумную практику». В суде и в аудите ценится последовательность: вы применяете признанную методологию и можете показать артефакты.
Что важнее: политика ИИ или договоры? Договоры. Политика задаёт правила внутри, но именно договор распределяет риск и обязанности по вендору.
Что делать дальше юридическому департаменту
Президентские указы США по ИИ в 2025 стали не «правилом игры», а сигналом о том, что правила будут переписываться быстрее, чем юридические команды привыкли. В таких условиях выигрывает не самый смелый и не самый осторожный, а тот, кто лучше документирует решения, управляет поставщиками и держит мониторинг изменений на автопилоте.
Эта статья — часть серии «Искусственный интеллект в праве и юридических технологиях», и мой главный тезис прост: ИИ в legal tech нужен не ради автоматизации ради автоматизации, а ради управляемости. Когда нормативная среда меняется рывками, управляемость — это прямые деньги и сниженные риски.
Если бы вы выбирали один приоритет на ближайший квартал, что важнее именно для вашей компании: усилить договорные требования к поставщикам ИИ или построить мониторинг требований по штатам США?