Подпись Google под EU AI Code превращает добровольную рамку в стандарт закупок и договоров. Разбираем, что это значит для юристов и комплаенса в 2026.
EU AI Code: почему подпись Google меняет комплаенс ИИ
2 августа 2025 года — не «очередная дата в календаре», а точка, после которой европейский рынок начнёт мерить зрелость ИИ не презентациями, а доказуемым комплаенсом. На этом фоне решение Google подписать добровольный европейский Code of Practice для general-purpose AI резко меняет правила разговора: теперь «мы подождём и посмотрим» становится всё более дорогой позицией.
Для юристов, комплаенс-офицеров и руководителей LegalOps это сигнал не про политику брендов, а про практику: добровольный кодекс начинает работать как квазистандарт, который будет всплывать в закупках, договорах, аудитах, спорах по авторскому праву и в оценке рисков поставщиков. И да, в 2026 году эта «мягкая» норма будет звучать в переговорах почти так же уверенно, как обязательные требования.
Что изменилось после подписи Google (и почему это не PR)
Ключевой эффект простой: когда крупный игрок уровня Google принимает кодекс, он перестаёт быть экспериментом и становится базовой линией ожиданий рынка. Ранее траектория «движемся к соответствию» читалась у OpenAI и Microsoft; теперь в коалицию «согласных» добавился участник, который одновременно поставщик моделей, инфраструктуры и корпоративных решений.
Это не жест доброй воли. Подпись даёт сразу три прагматичных выгоды, которые юристы должны уметь «переводить» на язык рисков и контрактов:
- Правовая позиция: демонстрация сотрудничества с регулятором снижает вероятность того, что компанию будут воспринимать как «уклоняющуюся» от ожидаемых практик безопасности.
- Сигнал рынку: госорганы и корпоративные заказчики в ЕС получают формальный ориентир — что именно поставщик обещает делать в области прозрачности, безопасности, управления данными.
- Влияние на трактовки: участие позволяет обсуждать, как кодекс будет применяться на практике, где границы раскрытия информации, как учитывать коммерческую тайну и авторское право.
Отдельно важна оговорка Google: поддержка кодекса сочетается с критикой рисков для инноваций, коммерческой тайны и соответствия авторскому праву. Для юридической функции это хороший маркер: споры смещаются из плоскости “нужно ли регулировать” в плоскость “как именно выполнять и что раскрывать”.
Добровольный кодекс как «де-факто стандарт»: где он начнёт всплывать у вас
Ответ короткий: везде, где есть выбор поставщика ИИ и распределение ответственности. Даже если ваш бизнес не в ЕС, европейские контрагенты и группы компаний всё чаще протаскивают эти требования в глобальные шаблоны.
Закупки и vendor management в 2026
Самый частый сценарий — тендер на ИИ-инструменты для аналитики документов, поиска по базе знаний, генерации черновиков и комплаенс-проверок. Закупка почти неизбежно превратится в проверку:
- подписан ли поставщиком кодекс (или эквивалентные обязательства);
- есть ли политика по оценке рисков и тестированию;
- как организована трассируемость (логирование) и управление инцидентами;
- какие гарантии даются по данным и авторским правам.
Если поставщик не подписант, заказчик не обязан его отсеивать — но объяснительная записка “почему мы выбрали исключение” становится новым бюрократическим налогом. И, как показывает практика комплаенса, бизнес не любит решения, которые требуют дополнительных объяснений.
Договоры: Code of Practice превращается в список обещаний
Я вижу здесь две тенденции.
Первая: кодекс начнут “вшивать” в договоры как стандарт надлежащей практики. Формулировки уровня «поставщик соблюдает применимые требования и добровольные отраслевые кодексы» кажутся безобидными — пока не случится инцидент.
Вторая: появится больше “операционализированных” обязательств: сроки уведомления об инцидентах, параметры аудита, минимальные требования к документации, ограничения на использование данных клиента для обучения.
Судебные и претензионные риски: репутационный слой становится юридическим
Даже добровольные рамки работают как ориентир для оценки разумности поведения. В спорах это превращается в аргумент: “разумный поставщик/пользователь ИИ сделал бы X”. И если X описан в кодексе, юристу сложнее объяснять, почему компания поступила иначе.
Google vs Meta: почему спор не про «свободу инноваций», а про контроль рисков
Разрыв позиций Google и Meta выглядит идеологическим, но на практике это спор о том, кто будет управлять интерпретациями: регулятор и коллектив участников или отдельная компания через собственные правила.
Meta указывает на правовую неопределённость и потенциальное «перерегулирование». Эти аргументы понятны любому юристу: чем менее чёткое требование, тем выше риск непредсказуемого применения.
Google выбирает противоположную тактику: подписать и спорить изнутри процесса. Это даёт компании:
- более устойчивую позицию в переговорах с госзаказчиком;
- возможность влиять на «практические комментарии» и ожидания аудиторов;
- репутационную подушку: «мы приняли рамку и работаем над улучшением».
Для юридических департаментов вывод неприятный, но полезный: рынок будет наказывать не столько за “формальное несоответствие”, сколько за демонстративное несогласие участвовать в общих правилах. Особенно в чувствительных сферах — финансы, здравоохранение, госсектор.
Что делать юристам и LegalTech-командам уже сейчас: план на 30–60 дней
Ответ: перевести кодекс из “новости” в чек-лист внутренних решений. Даже если вы не обязаны подписывать ничего напрямую, вы взаимодействуете с поставщиками и внедряете ИИ в процессы — а значит, должны уметь доказать управляемость рисков.
1) Введите «паспорт ИИ-инструмента» для каждого кейса
Минимальный набор полей (реально используемый в аудите и закупках):
- назначение: для чего применяется ИИ (поиск, суммаризация, черновики, классификация);
- тип данных: персональные данные, коммерческая тайна, адвокатская тайна, IP;
- модель и поставщик, место обработки (облако/он-прем);
- кто владелец процесса (бизнес) и кто владелец риска (юристы/ИБ/комплаенс);
- ограничения использования (что запрещено отправлять в промпты);
- режим логирования и срок хранения.
Этот «паспорт» потом легко превращается в приложение к политике или доказательство должной осмотрительности.
2) Перепишите шаблоны договоров с ИИ-поставщиками под 5 риск-зон
Я бы начал с пяти блоков, которые чаще всего “стреляют”:
- Данные клиента: запрет обучения на данных клиента по умолчанию, ясные исключения, опция opt-in.
- Конфиденциальность и коммерческая тайна: что раскрывается аудитору/регулятору и где граница.
- Авторское право и индемнити: кто несёт риск претензий по контенту, как обрабатываются уведомления.
- Безопасность и инциденты: сроки уведомления (например, 24–72 часа), минимальные меры, контактные лица.
- Аудит и доказуемость: право на отчёты, результаты тестирования, независимые оценки.
В 2026 году выигрывают не те, у кого «самые строгие» условия, а те, у кого условия проверяемые и исполнимые.
3) Подготовьте позицию на случай “а вы соответствуете EU AI Code?”
Этот вопрос начнут задавать не только в ЕС. Хороший ответ — короткий, структурированный и без обещаний, которые вы не контролируете:
- какие принципы вы применяете (безопасность, прозрачность, управление данными);
- какие меры уже внедрены (политики, обучение, контроль доступа, тестирование);
- как вы выбираете поставщиков (due diligence, требования к контрактам);
- как вы реагируете на инциденты.
Это работает как готовая заготовка для RFP, аудитов и переговоров.
Частые вопросы от практиков (и короткие ответы)
Кодекс добровольный. Почему он вообще важен?
Потому что добровольные рамки в ЕС часто становятся «правильным поведением по умолчанию». Когда их подписывают крупные игроки, они начинают жить в закупках и договорах быстрее, чем в законах.
Если мы используем ИИ только для внутренней суммаризации документов, нас это касается?
Да. Даже внутренние кейсы касаются конфиденциальности, качества вывода, управления доступом и рисков утечки. Юридически критично, какие данные попадают в модель и как фиксируются действия пользователей.
Главный риск для юристов в 2026 — какой?
Я бы поставил на комбинацию двух вещей: авторское право + коммерческая тайна. Именно здесь столкнутся требования прозрачности, ожидания регулятора и нежелание поставщиков раскрывать “как оно работает”.
Почему это вписывается в серию «ИИ в праве и юридических технологиях»
Юридические технологии давно перестали быть «автоматизацией рутины». Сейчас LegalTech — это про управляемость: кто отвечает за результат, какие данные допустимы, как объясняется вывод модели, как фиксируются решения. Подпись Google под EU AI Code — наглядный пример того, как регулирование ИИ напрямую формирует корпоративную стратегию, а затем спускается в юридическую практику: от политики использования ИИ до договорных оговорок и процессов расследования инцидентов.
Если вы строите систему применения ИИ в правовой функции, ориентируйтесь на простую формулу: то, что сегодня “рекомендуется”, завтра станет “ожидается”. И лучше прийти к этому с собственными правилами и документами, чем с нервным объяснением постфактум.
Следующий год будет не про то, «есть ли у нас ИИ», а про то, «можем ли мы доказать, что используем его аккуратно».
Хотите в 2026 году отвечать на запросы клиентов и аудиторов одной страницей, а не собирать информацию по Slack и письмам? Тогда начните с паспортизации ИИ-кейсов и обновления договорных шаблонов уже сейчас. Какой из ваших текущих LegalTech-инструментов первым не выдержит такой проверки?