ИИ и кибербезопасность банков: как вернуть доверие

Искусственный интеллект в банковской инфраструктуре и платёжных системахBy 3L3C

Как ИИ помогает банкам закрыть разрыв доверия: антифрод, защита от deepfake и контроль вендоров. Практический план на 30–90 дней.

кибербезопасностьискусственный интеллектантифродплатежные системыdeepfakeуправление рисками поставщиков
Share:

ИИ и кибербезопасность банков: как вернуть доверие

58% клиентов банков переживают за безопасность своих персональных и финансовых данных, особенно когда банк предлагает «персонализированные» продукты и сервисы. При этом парадокс в том, что большинству людей свой банк кажется надёжным — но доверие «ломается» сразу, как только речь заходит о поставщиках, финтех-партнёрах, процессинге и всей цепочке участников. И это не философия. Это операционный риск, который в 2025 году напрямую влияет на конверсию, удержание и стоимость привлечения.

Вот где я обычно спорю с привычным подходом. Многие банки продолжают говорить о кибербезопасности как о «защите периметра» и отчётности для регулятора. Но клиент видит другое: мобильное приложение, платежи, пуши, чат-боты, биометрию, маркетплейс партнёров — то есть цифровую входную дверь. И если она выглядит небезопасно (или банк молчит о том, как защищает данные), доверие уходит быстрее, чем закрывается инцидент.

В серии «Искусственный интеллект в банковской инфраструктуре и платёжных системах» этот текст — про основу: как выстроить безопасность так, чтобы ИИ реально усиливал защиту, предотвращал мошенничество и повышал целостность транзакций, а не добавлял ещё один слой риска.

Разрыв доверия: банк надёжен, экосистема — нет

Ключевой факт: клиенты часто высоко оценивают безопасность своего банка, но доверие к остальной банковской экосистеме падает более чем вдвое. Причина простая: современный банк работает не в одиночку. Внутри любой цифровой услуги живут сторонние компоненты — от облачной инфраструктуры до антифрода, KYC/AML-модулей, сервисов пуш-уведомлений и партнёрских витрин.

Проблема в том, что клиент воспринимает это как единый продукт. У него нет отдельного «доверия к поставщику». Если утечка случилась у подрядчика — репутационный удар всё равно получает банк.

Что усиливает недоверие именно в 2025 году

На практике срабатывают три триггера:

  1. Персонализация. Чем умнее рекомендации и чем точнее «попадания» банка, тем чаще у клиента возникает мысль: «Откуда вы это знаете?»
  2. Открытые API и партнёрские сценарии. Открытый банкинг и экосистемные витрины ускоряют запуск продуктов, но расширяют поверхность атаки.
  3. ИИ-угрозы. За последний год deepfake-атаки, нацеленные на клиентов и сотрудников, выросли на 243% и стали самой часто наблюдаемой угрозой у банков; 85% таких атак связывают с киберпреступниками.

Мой вывод: доверие к безопасности больше не строится на обещаниях и значках соответствия стандартам. Оно строится на понятном поведении системы и прозрачной коммуникации.

Почему инвестиции растут, а ощущение безопасности — нет

Банки в среднем увеличили вложения в кибербезопасность на 140% за два года. Но клиенты всё равно тревожатся. Значит, проблема не только в бюджете.

Главная причина — разрыв между скоростью внедрения технологий и скоростью встраивания защиты. По данным опроса руководителей по безопасности, 83% банков испытывают трудности в том, чтобы синхронизировать меры защиты с темпом внедрения технологий вроде генеративного ИИ.

«Ментальность комплаенса» как скрытый тормоз

Когда безопасность живёт в логике «закрыть требования», обычно происходит следующее:

  • меры контроля ставятся после запуска;
  • бизнес-команды воспринимают безопасность как задержку;
  • требования к третьим сторонам формальны и не проверяются непрерывно;
  • риск-оценка делается проектно, а не постоянно.

И это дорого. Но не из-за стоимости средств защиты. Дорого из-за инцидентов и потери доверия.

Цена инцидента измеряется не штрафами, а поведением клиента: 62% теряют уверенность в банке после утечки, а 43% прекращают взаимодействие.

ИИ в банковской безопасности: от «реакции» к предотвращению

Ответ простой: ИИ нужен не для того, чтобы заменить людей в SOC, а чтобы сделать безопасность масштабируемой в экосистеме и платежной инфраструктуре. Там, где вручную не успеваешь — ИИ успевает.

Ниже — три направления, где ИИ даёт максимальный эффект, если выстроена базовая кибергигиена.

1) ИИ-антифрод и мониторинг транзакций в реальном времени

ИИ в платежах работает лучше всего, когда он видит поток событий целиком: устройство, сессию, поведенческие паттерны, историю получателей, частоту, географию, контекст.

Практика, которая реально снижает потери:

  • Поведенческая биометрия (скорость набора, свайпы, микро-паузы) как сигнал риска.
  • Графовые модели для выявления сетей дропов и «цепочек вывода».
  • Аномалия-детекция для нетипичных сценариев (например, новая связка устройство–получатель–сумма–время).

Важно: антифрод «в лоб» часто ломает конверсию. Поэтому выигрыш даёт связка: ИИ-скоринг риска + адаптивная аутентификация, где «трение» добавляется только при повышенном риске.

2) Защита от deepfake и социального инжиниринга

Deepfake — это уже не про «красивое видео». Это про оплату «по голосу руководителя», изменение реквизитов, поддельные видеозвонки в службу поддержки, мошеннические сценарии в корпоративных платежах.

Что работает:

  • Проверка живости и целостности медиа (liveness, artefact detection) на входящих каналах.
  • Политики “no single channel trust”: критичные операции не подтверждаются одним каналом (например, голосом), требуется независимый фактор.
  • ИИ-подсказки операторам и сотрудникам: подсветка «красных флагов» в разговоре и сценарии.

3) Непрерывный контроль рисков третьих сторон

Поставщики и партнёры — слабое место экосистемы, потому что у банка ограниченная видимость внутрь их процессов.

ИИ здесь полезен в формате continuous monitoring:

  • агрегировать телеметрию и внешние сигналы риска;
  • строить динамический риск-скоринг поставщика;
  • детектировать отклонения (например, изменение конфигурации, всплеск ошибок, нетипичные обращения к API).

Сильный ход — завязать риск-скоринг на технические политики: при росте риска автоматически ужесточаются лимиты, частота проверок, требования к MFA и доступам.

«Кибербезопасность у входной двери»: что нужно внедрить в 2026 план

Доверие создаётся на стыке технологии и коммуникации. Одна без другой не сработает.

1) Прозрачность как часть клиентского пути

По данным исследования, лишь 28% клиентов считают, что банк эффективно объясняет свои практики кибербезопасности. Исправляется это не пресс-релизами, а встроенными элементами опыта:

  • короткие, понятные объяснения «почему мы запросили подтверждение»;
  • уведомления о подозрительных действиях с кнопкой «это не я»;
  • персональный «уровень киберриска» в приложении (динамический скоринг гигиены: устройства, пароли, утечки, фишинг-события);
  • мини-обучение в момент риска (например, при переводе на нового получателя).

Прозрачность — это когда клиент видит логику защиты в момент операции, а не читает её в политике на 20 страниц.

2) Security-by-design для ИИ-сервисов и платежных сценариев

Если банк внедряет генеративный ИИ (чат-боты, помощники оператора, поиск по знаниям, автоматизация кейсов), безопасность должна жить во всём жизненном цикле:

  • контроль данных (что можно «скармливать» модели и что нельзя);
  • журналирование и трассировка ответов;
  • тестирование на утечки (prompt injection, data exfiltration);
  • управление доступами и секретами;
  • безопасные интеграции с платежными системами.

И да, это нужно делать до запуска, иначе ИИ превращается в новый вектор атак.

3) Общая ответственность в цепочке: бизнес, ИТ, вендоры

У банков часто разная «карта мира» у безопасности и продуктовых команд. Решение — общие метрики и договорённости:

  • SLA по устранению уязвимостей и инцидентов для поставщиков;
  • единые требования к логированию и телеметрии;
  • совместные учения (table-top) по фроду, утечкам, deepfake;
  • единый каталог рисков и контролей по сервисам (а не по подразделениям).

Мини-план действий: с чего начать за 30–90 дней

Если цель — не «улучшить безопасность вообще», а поднять доверие и снизить мошенничество в платежах, я бы начал так:

  1. Картирование экосистемы платежей: кто участвует в транзакции, где данные проходят, где есть внешние зависимости.
  2. Внедрение адаптивной аутентификации: усиливать проверки только при высоком риске.
  3. Единый событийный контур: собрать в одно место ключевые сигналы (сессия, устройство, платежи, обращения, API-события).
  4. ИИ-скоринг для фрода + правила “human-in-the-loop” для спорных кейсов.
  5. Пилот “anti-deepfake” на 1–2 каналах (колл-центр и корпоративные платежи — самые окупаемые стартовые зоны).
  6. Пакет прозрачной коммуникации в приложении: объяснение причин проверок, быстрые действия клиента, короткие подсказки.

Эта последовательность даёт быстрый эффект и создаёт фундамент для более сложных сценариев: агентских платежей, умных лимитов, автоматической верификации получателей.

Что дальше: безопасность как двигатель доверия и роста

Банки, которые относятся к безопасности как к стратегии доверия, получают измеримый результат: за три года у них на 58% меньше утечек и в 1,5 раза выше удержание клиентов. Это выглядит почти «слишком хорошо», но логика простая: меньше инцидентов — меньше репутационных провалов — меньше оттока.

Для нашей серии про искусственный интеллект в банковской инфраструктуре вывод прямой: ИИ усиливает кибербезопасность только тогда, когда безопасность встроена в продукты, платежи и цепочку поставщиков. ИИ не «прикрывает» хаос — он его ускоряет.

Если вы планируете в 2026 году масштабировать ИИ в платежных системах и цифровом банкинге, начните с вопроса, который редко задают на старте: где именно клиент должен увидеть вашу безопасность — в момент транзакции или уже после инцидента?

🇷🇺 ИИ и кибербезопасность банков: как вернуть доверие - Russia | 3L3C