EU AI Code: почему подпись Google меняет комплаенс ИИ

Искусственный интеллект в праве и юридических технологияхBy 3L3C

Подпись Google под EU AI Code превращает добровольную рамку в стандарт закупок и договоров. Разбираем, что это значит для юристов и комплаенса в 2026.

AI ActEU AI CodeAI governanceLegalTechкомплаенсдоговорная работарегулирование ИИ
Share:

EU AI Code: почему подпись Google меняет комплаенс ИИ

2 августа 2025 года — не «очередная дата в календаре», а точка, после которой европейский рынок начнёт мерить зрелость ИИ не презентациями, а доказуемым комплаенсом. На этом фоне решение Google подписать добровольный европейский Code of Practice для general-purpose AI резко меняет правила разговора: теперь «мы подождём и посмотрим» становится всё более дорогой позицией.

Для юристов, комплаенс-офицеров и руководителей LegalOps это сигнал не про политику брендов, а про практику: добровольный кодекс начинает работать как квазистандарт, который будет всплывать в закупках, договорах, аудитах, спорах по авторскому праву и в оценке рисков поставщиков. И да, в 2026 году эта «мягкая» норма будет звучать в переговорах почти так же уверенно, как обязательные требования.

Что изменилось после подписи Google (и почему это не PR)

Ключевой эффект простой: когда крупный игрок уровня Google принимает кодекс, он перестаёт быть экспериментом и становится базовой линией ожиданий рынка. Ранее траектория «движемся к соответствию» читалась у OpenAI и Microsoft; теперь в коалицию «согласных» добавился участник, который одновременно поставщик моделей, инфраструктуры и корпоративных решений.

Это не жест доброй воли. Подпись даёт сразу три прагматичных выгоды, которые юристы должны уметь «переводить» на язык рисков и контрактов:

  1. Правовая позиция: демонстрация сотрудничества с регулятором снижает вероятность того, что компанию будут воспринимать как «уклоняющуюся» от ожидаемых практик безопасности.
  2. Сигнал рынку: госорганы и корпоративные заказчики в ЕС получают формальный ориентир — что именно поставщик обещает делать в области прозрачности, безопасности, управления данными.
  3. Влияние на трактовки: участие позволяет обсуждать, как кодекс будет применяться на практике, где границы раскрытия информации, как учитывать коммерческую тайну и авторское право.

Отдельно важна оговорка Google: поддержка кодекса сочетается с критикой рисков для инноваций, коммерческой тайны и соответствия авторскому праву. Для юридической функции это хороший маркер: споры смещаются из плоскости “нужно ли регулировать” в плоскость “как именно выполнять и что раскрывать”.

Добровольный кодекс как «де-факто стандарт»: где он начнёт всплывать у вас

Ответ короткий: везде, где есть выбор поставщика ИИ и распределение ответственности. Даже если ваш бизнес не в ЕС, европейские контрагенты и группы компаний всё чаще протаскивают эти требования в глобальные шаблоны.

Закупки и vendor management в 2026

Самый частый сценарий — тендер на ИИ-инструменты для аналитики документов, поиска по базе знаний, генерации черновиков и комплаенс-проверок. Закупка почти неизбежно превратится в проверку:

  • подписан ли поставщиком кодекс (или эквивалентные обязательства);
  • есть ли политика по оценке рисков и тестированию;
  • как организована трассируемость (логирование) и управление инцидентами;
  • какие гарантии даются по данным и авторским правам.

Если поставщик не подписант, заказчик не обязан его отсеивать — но объяснительная записка “почему мы выбрали исключение” становится новым бюрократическим налогом. И, как показывает практика комплаенса, бизнес не любит решения, которые требуют дополнительных объяснений.

Договоры: Code of Practice превращается в список обещаний

Я вижу здесь две тенденции.

Первая: кодекс начнут “вшивать” в договоры как стандарт надлежащей практики. Формулировки уровня «поставщик соблюдает применимые требования и добровольные отраслевые кодексы» кажутся безобидными — пока не случится инцидент.

Вторая: появится больше “операционализированных” обязательств: сроки уведомления об инцидентах, параметры аудита, минимальные требования к документации, ограничения на использование данных клиента для обучения.

Судебные и претензионные риски: репутационный слой становится юридическим

Даже добровольные рамки работают как ориентир для оценки разумности поведения. В спорах это превращается в аргумент: “разумный поставщик/пользователь ИИ сделал бы X”. И если X описан в кодексе, юристу сложнее объяснять, почему компания поступила иначе.

Google vs Meta: почему спор не про «свободу инноваций», а про контроль рисков

Разрыв позиций Google и Meta выглядит идеологическим, но на практике это спор о том, кто будет управлять интерпретациями: регулятор и коллектив участников или отдельная компания через собственные правила.

Meta указывает на правовую неопределённость и потенциальное «перерегулирование». Эти аргументы понятны любому юристу: чем менее чёткое требование, тем выше риск непредсказуемого применения.

Google выбирает противоположную тактику: подписать и спорить изнутри процесса. Это даёт компании:

  • более устойчивую позицию в переговорах с госзаказчиком;
  • возможность влиять на «практические комментарии» и ожидания аудиторов;
  • репутационную подушку: «мы приняли рамку и работаем над улучшением».

Для юридических департаментов вывод неприятный, но полезный: рынок будет наказывать не столько за “формальное несоответствие”, сколько за демонстративное несогласие участвовать в общих правилах. Особенно в чувствительных сферах — финансы, здравоохранение, госсектор.

Что делать юристам и LegalTech-командам уже сейчас: план на 30–60 дней

Ответ: перевести кодекс из “новости” в чек-лист внутренних решений. Даже если вы не обязаны подписывать ничего напрямую, вы взаимодействуете с поставщиками и внедряете ИИ в процессы — а значит, должны уметь доказать управляемость рисков.

1) Введите «паспорт ИИ-инструмента» для каждого кейса

Минимальный набор полей (реально используемый в аудите и закупках):

  • назначение: для чего применяется ИИ (поиск, суммаризация, черновики, классификация);
  • тип данных: персональные данные, коммерческая тайна, адвокатская тайна, IP;
  • модель и поставщик, место обработки (облако/он-прем);
  • кто владелец процесса (бизнес) и кто владелец риска (юристы/ИБ/комплаенс);
  • ограничения использования (что запрещено отправлять в промпты);
  • режим логирования и срок хранения.

Этот «паспорт» потом легко превращается в приложение к политике или доказательство должной осмотрительности.

2) Перепишите шаблоны договоров с ИИ-поставщиками под 5 риск-зон

Я бы начал с пяти блоков, которые чаще всего “стреляют”:

  1. Данные клиента: запрет обучения на данных клиента по умолчанию, ясные исключения, опция opt-in.
  2. Конфиденциальность и коммерческая тайна: что раскрывается аудитору/регулятору и где граница.
  3. Авторское право и индемнити: кто несёт риск претензий по контенту, как обрабатываются уведомления.
  4. Безопасность и инциденты: сроки уведомления (например, 24–72 часа), минимальные меры, контактные лица.
  5. Аудит и доказуемость: право на отчёты, результаты тестирования, независимые оценки.

В 2026 году выигрывают не те, у кого «самые строгие» условия, а те, у кого условия проверяемые и исполнимые.

3) Подготовьте позицию на случай “а вы соответствуете EU AI Code?”

Этот вопрос начнут задавать не только в ЕС. Хороший ответ — короткий, структурированный и без обещаний, которые вы не контролируете:

  • какие принципы вы применяете (безопасность, прозрачность, управление данными);
  • какие меры уже внедрены (политики, обучение, контроль доступа, тестирование);
  • как вы выбираете поставщиков (due diligence, требования к контрактам);
  • как вы реагируете на инциденты.

Это работает как готовая заготовка для RFP, аудитов и переговоров.

Частые вопросы от практиков (и короткие ответы)

Кодекс добровольный. Почему он вообще важен?

Потому что добровольные рамки в ЕС часто становятся «правильным поведением по умолчанию». Когда их подписывают крупные игроки, они начинают жить в закупках и договорах быстрее, чем в законах.

Если мы используем ИИ только для внутренней суммаризации документов, нас это касается?

Да. Даже внутренние кейсы касаются конфиденциальности, качества вывода, управления доступом и рисков утечки. Юридически критично, какие данные попадают в модель и как фиксируются действия пользователей.

Главный риск для юристов в 2026 — какой?

Я бы поставил на комбинацию двух вещей: авторское право + коммерческая тайна. Именно здесь столкнутся требования прозрачности, ожидания регулятора и нежелание поставщиков раскрывать “как оно работает”.

Почему это вписывается в серию «ИИ в праве и юридических технологиях»

Юридические технологии давно перестали быть «автоматизацией рутины». Сейчас LegalTech — это про управляемость: кто отвечает за результат, какие данные допустимы, как объясняется вывод модели, как фиксируются решения. Подпись Google под EU AI Code — наглядный пример того, как регулирование ИИ напрямую формирует корпоративную стратегию, а затем спускается в юридическую практику: от политики использования ИИ до договорных оговорок и процессов расследования инцидентов.

Если вы строите систему применения ИИ в правовой функции, ориентируйтесь на простую формулу: то, что сегодня “рекомендуется”, завтра станет “ожидается”. И лучше прийти к этому с собственными правилами и документами, чем с нервным объяснением постфактум.

Следующий год будет не про то, «есть ли у нас ИИ», а про то, «можем ли мы доказать, что используем его аккуратно».

Хотите в 2026 году отвечать на запросы клиентов и аудиторов одной страницей, а не собирать информацию по Slack и письмам? Тогда начните с паспортизации ИИ-кейсов и обновления договорных шаблонов уже сейчас. Какой из ваших текущих LegalTech-инструментов первым не выдержит такой проверки?