ИИ-указы США 2025: что делать юристам и комплаенсу

Искусственный интеллект в праве и юридических технологияхBy 3L3C

Курс США по ИИ в 2025 сменился: один указ отменён, другой — без деталей. Разбираем, как юристам выстроить комплаенс и договоры.

ai-complianceai-governancelegal-techрегулирование-иидоговорная-работамониторинг-законодательства
Share:

ИИ-указы США 2025: что делать юристам и комплаенсу

В январе 2025 в США произошёл редкий для юридических команд «эффект домино»: один президентский указ по ИИ отменили, другой — подписали, а практические последствия разошлись по ведомствам так неравномерно, что бизнесу стало сложнее не «соблюдать правила», а понять, какие правила вообще действуют. Для юристов, комплаенса и руководителей юридических департаментов это не академическая новость. Это ежедневные решения: какие требования закладывать в договоры с разработчиками, как описывать контроль рисков в политиках, что говорить совету директоров и аудиторам.

Я всё чаще вижу одну и ту же ошибку: компании реагируют на новости об «отмене регулирования» как на зелёный свет и начинают срезать процессы контроля ИИ. В 2025 это опасно. Реальность такая: федеральная рамка США стала менее предсказуемой, а значит, риск сместился в контракты, штаты и судебные споры. Поэтому выигрывают те, кто быстро перестраивает юридическую функцию и подключает ИИ-инструменты не «для моды», а для мониторинга, анализа и доказуемого комплаенса.

Что изменилось в ИИ-политике США: два указа и много последствий

Ключевой факт: указ EO 14110 (эпоха Байдена) был отменён 20.01.2025, а указ EO 14179 (эпоха Трампа) подписан 23.01.2025. Формально это выглядит как смена курса от «безопасность и контроль» к «снятию барьеров и росту». На практике же для юриста важно другое: что стало с конкретными обязанностями, структурами и ожиданиями регулятора.

Если кратко, EO 14110 подталкивал федеральные агентства к системной архитектуре управления ИИ: роли, советы, стандарты риск-менеджмента, отчётность разработчиков продвинутых моделей. EO 14179 заявляет про снижение регуляторных препятствий и лидерство частного сектора, но оставляет много «пустых мест» в механике внедрения.

Самая дорогая ошибка 2025 года — принять политический лозунг за юридическое правило.

Для международных компаний (включая российские группы с активами/клиентами/партнёрами в США) это особенно критично: американская неопределённость не отменяет обязательств в других юрисдикциях, а часто делает документирование процессов единственной надёжной линией защиты.

EO 14110 отменён: что было в «рамке Байдена» и что могло «подвиснуть»

EO 14110 (30.10.2023) строил понятную для юристов логику: государство говорит, какие риски ИИ считать значимыми, какие процессы ожидать от ведомств и какие сигналы направлять рынку. После отмены 20.01.2025 часть этих механизмов может быть пересмотрена или тихо «усохнуть».

Что именно задавал EO 14110

С практической точки зрения в документе были важны четыре блока:

  1. Оргструктура управления ИИ в ведомствах: появление Chief AI Officers (аналог «ответственного за ИИ») и межведомственных координационных контуров.
  2. Стандарты управления рисками: ориентация на подходы NIST и на измеримый контроль безопасности.
  3. Отчётность для разработчиков продвинутых моделей: ожидание, что по высокорисковым моделям будут предоставляться отчёты о тестировании/безопасности.
  4. Кадровые программы по ИИ: найм и удержание экспертов в госсекторе.

Почему отмена EO 14110 не означает «можно расслабиться»

Юридическая реальность: даже если формальная обязанность исчезает, доказательные стандарты остаются. В спорах о халатности, недобросовестной рекламе, дефектах продукта, дискриминации или утечках данных суду и контрагентам всё равно нужен ответ:

  • какие риски вы видели заранее;
  • какие тесты проводили;
  • как контролировали поставщика/модель;
  • кто был ответственным.

То есть то, что EO 14110 пытался встроить «сверху», в 2025 часто возвращается «снизу» — через договоры, страхование, аудит и претензии.

Практика для юристов: что пересмотреть в документах

Если ваша компания использует ИИ (в HR, скоринге, клиентском сервисе, антифроде, генерации контента), я бы начал с трёх папок:

  • политики ИИ и риск-менеджмента: не выкидывайте требования по оценке рисков — лучше упростите и стандартизируйте;
  • договоры с вендорами: добавьте обязательства по тестированию, журналированию, инцидент-репортингу, а также право на аудит;
  • внутренние роли: назначьте владельца процесса ИИ (даже если закон не требует) — потом это окупится в любой проверке.

EO 14179: дерегулирование на словах и «штатный комплаенс» на деле

Ключевой тезис EO 14179: снять барьеры для лидерства США в ИИ, стимулировать инновации и пересмотреть «наследие» прошлых инициатив. Для бизнеса это звучит приятно. Для юриста это означает: меньше централизованных федеральных сигналов, больше фрагментации и договорной ответственности.

Три зоны неопределённости, которые влияют на юридическую стратегию

  1. Отчётность по безопасности продвинутых моделей

Если требования к предоставлению отчётов ослабнут, компании могут испытать искушение снизить интенсивность тестирования. Я бы не советовал. Снижение регуляторной нагрузки не снижает:

  • риск продуктовой ответственности;
  • риск исков из‑за ущерба (включая экономический и репутационный);
  • риск претензий по защите данных.

То есть «мы не обязаны» не работает как защита, если вы могли предвидеть ущерб.

  1. ИИ-кадры в государстве

Если ставка делается на частный сектор, то федеральные команды могут стать менее единообразными в толкованиях и проверках. Для компаний это означает: комплаенс становится менее «по чек-листу» и более «по аргументам».

  1. Судьба федеральных структур управления ИИ

Консультативные комитеты, институты безопасности и другие элементы могут сохраняться, но с меньшим влиянием. Юристам это добавляет работы: придётся объяснять менеджменту, почему «нет единого стандарта» — и как компания сама его выбирает.

Почему штаты будут давить сильнее

Когда федеральный центр ослабляет контроль, штаты обычно заполняют вакуум. В 2025 логично ожидать усиления подхода «каждый штат — свои правила», особенно в юрисдикциях, чувствительных к вопросам дискриминации, потребительских прав и приватности.

Практический вывод для комплаенса: нужна матрица требований по штатам и процесс обновления. И вот здесь юридические технологии дают реальную экономию времени.

«Подвешенные» инициативы: AI Bill of Rights и Stargate как источник новых рисков

Есть два сюжета, которые юристам нельзя игнорировать, даже если они не всегда оформлены как жёсткие юридические нормы.

AI Bill of Rights: документ без силы закона, но с силой ожиданий

«Билль о правах в эпоху ИИ» в предыдущей администрации задавал язык: справедливость, прозрачность, защита от дискриминации. Даже без статуса указа он влиял на внутренние политики компаний и на то, как stakeholders оценивают этичность решений.

Если в 2025 его роль уменьшится, риск смещается так:

  • меньше внешней «подсказки», что считать хорошей практикой;
  • больше ответственности компании за собственные стандарты;
  • выше вероятность репутационных кризисов из‑за «формально законно, но выглядит плохо».

Stargate Project: инфраструктура на сотни миллиардов и вопросы к контролю

Инициатива формата крупного публично‑частного проекта по ИИ-инфраструктуре (в источнике фигурирует сумма $500 млрд) поднимает для юристов три вопроса:

  • закупки и комплаенс: какие требования будут в федеральных контрактах и подрядах;
  • нацбезопасность и экспортный контроль: как будут ограничиваться технологии и инвестиции;
  • ответственность участников: появится ли дополнительный надзор для тех, кто получает поддержку.

Если ваша компания — поставщик технологий, дата‑центров, данных или ИИ‑сервисов, то «инфраструктурные» инициативы часто приводят к резкому усложнению контрактных требований: от кибербезопасности до отчётности по цепочкам поставок.

Как юридическим командам пережить 2025: план из 7 шагов + где реально помогает ИИ

Надёжная стратегия в период регуляторной турбулентности — это не «угадать, что решит Вашингтон», а выстроить процесс, который выдержит любые повороты. Вот рабочий план, который я бы внедрял в компании уже сейчас.

1) Составьте реестр ИИ-использований (не «где-то есть чатбот», а по-взрослому)

Реестр должен отвечать на три вопроса: где используется ИИ, какие данные затрагиваются, какой ущерб возможен. Минимальные поля:

  • бизнес‑процесс и владелец;
  • тип модели (в т.ч. генеративная / предиктивная);
  • данные (персональные/чувствительные/коммерческая тайна);
  • влияние на права человека/дискриминационные риски;
  • вендор/модель/версия.

ИИ-инструменты для юридического департамента здесь полезны для автоматизации инвентаризации: поиск упоминаний моделей в договорах, тикетах, внутренней документации.

2) Введите классификацию рисков ИИ по уровням

Не надо изобретать 30 уровней. Достаточно 3–4:

  • низкий (внутренние черновики, без персональных данных);
  • средний (маркетинг, поддержка клиентов с ограничениями);
  • высокий (HR, кредитование/скоринг, безопасность, медицина, критическая инфраструктура).

3) Переведите «этику» в проверяемые контролли

Фразы «мы за справедливость и прозрачность» ничего не стоят без артефактов:

  • протоколы тестирования;
  • результаты bias‑проверок (где применимо);
  • журналы инцидентов;
  • решение о допустимых кейсах использования.

4) Обновите договоры: поставщик ИИ должен нести измеримые обязательства

В 2025 контракты — это ваш локальный «указ». Я бы добивался как минимум:

  • гарантий по источникам данных/правам на обучение (где релевантно);
  • обязательств по безопасности и уведомлению об инцидентах;
  • условий по субподрядчикам и изменениям модели;
  • прав на аудит/получение отчётов о тестировании;
  • ограничений по использованию ваших данных для обучения.

5) Настройте мониторинг изменений: без ИИ это превращается в ручной ад

В условиях конфликта «федеральное vs штатное» юридический мониторинг должен быть потоковым. ИИ-решения в legal tech хорошо подходят для:

  • классификации новых актов/проектов по темам;
  • сравнения версий документов и выявления изменения обязанностей;
  • подготовки кратких справок для бизнеса на 1 страницу.

6) Подготовьте «папку доказательств» на случай регулятора, партнёра или суда

Это набор документов, который должен собираться не «когда пришла претензия», а постоянно:

  • политика использования ИИ;
  • оценки рисков по высокорисковым кейсам;
  • протоколы тестирования и изменения модели;
  • обучение сотрудников;
  • матрица ответственности.

7) Проговорите стратегию на уровне руководства

Турбулентность указов — это управленческий риск, а не только юридический. Нужны два коротких артефакта:

  • мемо для топ‑менеджмента: где ИИ даёт выгоду и где риски;
  • решение о допустимом уровне риска (risk appetite): что компания точно не делает.

Частые вопросы, которые задают в 2025 (и короткие ответы)

Если федеральные требования США ослабнут, можно ли убрать внутренние процедуры безопасности? Нет. Процедуры — это ваш щит в ответственности и в переговорах с крупными клиентами, которые будут требовать доказуемый комплаенс.

Надо ли ориентироваться на старые стандарты, если указ отменён? Да, как минимум как на «разумную практику». В суде и в аудите ценится последовательность: вы применяете признанную методологию и можете показать артефакты.

Что важнее: политика ИИ или договоры? Договоры. Политика задаёт правила внутри, но именно договор распределяет риск и обязанности по вендору.

Что делать дальше юридическому департаменту

Президентские указы США по ИИ в 2025 стали не «правилом игры», а сигналом о том, что правила будут переписываться быстрее, чем юридические команды привыкли. В таких условиях выигрывает не самый смелый и не самый осторожный, а тот, кто лучше документирует решения, управляет поставщиками и держит мониторинг изменений на автопилоте.

Эта статья — часть серии «Искусственный интеллект в праве и юридических технологиях», и мой главный тезис прост: ИИ в legal tech нужен не ради автоматизации ради автоматизации, а ради управляемости. Когда нормативная среда меняется рывками, управляемость — это прямые деньги и сниженные риски.

Если бы вы выбирали один приоритет на ближайший квартал, что важнее именно для вашей компании: усилить договорные требования к поставщикам ИИ или построить мониторинг требований по штатам США?