Как ИИ помогает банкам закрыть разрыв доверия: антифрод, защита от deepfake и контроль вендоров. Практический план на 30–90 дней.
ИИ и кибербезопасность банков: как вернуть доверие
58% клиентов банков переживают за безопасность своих персональных и финансовых данных, особенно когда банк предлагает «персонализированные» продукты и сервисы. При этом парадокс в том, что большинству людей свой банк кажется надёжным — но доверие «ломается» сразу, как только речь заходит о поставщиках, финтех-партнёрах, процессинге и всей цепочке участников. И это не философия. Это операционный риск, который в 2025 году напрямую влияет на конверсию, удержание и стоимость привлечения.
Вот где я обычно спорю с привычным подходом. Многие банки продолжают говорить о кибербезопасности как о «защите периметра» и отчётности для регулятора. Но клиент видит другое: мобильное приложение, платежи, пуши, чат-боты, биометрию, маркетплейс партнёров — то есть цифровую входную дверь. И если она выглядит небезопасно (или банк молчит о том, как защищает данные), доверие уходит быстрее, чем закрывается инцидент.
В серии «Искусственный интеллект в банковской инфраструктуре и платёжных системах» этот текст — про основу: как выстроить безопасность так, чтобы ИИ реально усиливал защиту, предотвращал мошенничество и повышал целостность транзакций, а не добавлял ещё один слой риска.
Разрыв доверия: банк надёжен, экосистема — нет
Ключевой факт: клиенты часто высоко оценивают безопасность своего банка, но доверие к остальной банковской экосистеме падает более чем вдвое. Причина простая: современный банк работает не в одиночку. Внутри любой цифровой услуги живут сторонние компоненты — от облачной инфраструктуры до антифрода, KYC/AML-модулей, сервисов пуш-уведомлений и партнёрских витрин.
Проблема в том, что клиент воспринимает это как единый продукт. У него нет отдельного «доверия к поставщику». Если утечка случилась у подрядчика — репутационный удар всё равно получает банк.
Что усиливает недоверие именно в 2025 году
На практике срабатывают три триггера:
- Персонализация. Чем умнее рекомендации и чем точнее «попадания» банка, тем чаще у клиента возникает мысль: «Откуда вы это знаете?»
- Открытые API и партнёрские сценарии. Открытый банкинг и экосистемные витрины ускоряют запуск продуктов, но расширяют поверхность атаки.
- ИИ-угрозы. За последний год deepfake-атаки, нацеленные на клиентов и сотрудников, выросли на 243% и стали самой часто наблюдаемой угрозой у банков; 85% таких атак связывают с киберпреступниками.
Мой вывод: доверие к безопасности больше не строится на обещаниях и значках соответствия стандартам. Оно строится на понятном поведении системы и прозрачной коммуникации.
Почему инвестиции растут, а ощущение безопасности — нет
Банки в среднем увеличили вложения в кибербезопасность на 140% за два года. Но клиенты всё равно тревожатся. Значит, проблема не только в бюджете.
Главная причина — разрыв между скоростью внедрения технологий и скоростью встраивания защиты. По данным опроса руководителей по безопасности, 83% банков испытывают трудности в том, чтобы синхронизировать меры защиты с темпом внедрения технологий вроде генеративного ИИ.
«Ментальность комплаенса» как скрытый тормоз
Когда безопасность живёт в логике «закрыть требования», обычно происходит следующее:
- меры контроля ставятся после запуска;
- бизнес-команды воспринимают безопасность как задержку;
- требования к третьим сторонам формальны и не проверяются непрерывно;
- риск-оценка делается проектно, а не постоянно.
И это дорого. Но не из-за стоимости средств защиты. Дорого из-за инцидентов и потери доверия.
Цена инцидента измеряется не штрафами, а поведением клиента: 62% теряют уверенность в банке после утечки, а 43% прекращают взаимодействие.
ИИ в банковской безопасности: от «реакции» к предотвращению
Ответ простой: ИИ нужен не для того, чтобы заменить людей в SOC, а чтобы сделать безопасность масштабируемой в экосистеме и платежной инфраструктуре. Там, где вручную не успеваешь — ИИ успевает.
Ниже — три направления, где ИИ даёт максимальный эффект, если выстроена базовая кибергигиена.
1) ИИ-антифрод и мониторинг транзакций в реальном времени
ИИ в платежах работает лучше всего, когда он видит поток событий целиком: устройство, сессию, поведенческие паттерны, историю получателей, частоту, географию, контекст.
Практика, которая реально снижает потери:
- Поведенческая биометрия (скорость набора, свайпы, микро-паузы) как сигнал риска.
- Графовые модели для выявления сетей дропов и «цепочек вывода».
- Аномалия-детекция для нетипичных сценариев (например, новая связка устройство–получатель–сумма–время).
Важно: антифрод «в лоб» часто ломает конверсию. Поэтому выигрыш даёт связка: ИИ-скоринг риска + адаптивная аутентификация, где «трение» добавляется только при повышенном риске.
2) Защита от deepfake и социального инжиниринга
Deepfake — это уже не про «красивое видео». Это про оплату «по голосу руководителя», изменение реквизитов, поддельные видеозвонки в службу поддержки, мошеннические сценарии в корпоративных платежах.
Что работает:
- Проверка живости и целостности медиа (liveness, artefact detection) на входящих каналах.
- Политики “no single channel trust”: критичные операции не подтверждаются одним каналом (например, голосом), требуется независимый фактор.
- ИИ-подсказки операторам и сотрудникам: подсветка «красных флагов» в разговоре и сценарии.
3) Непрерывный контроль рисков третьих сторон
Поставщики и партнёры — слабое место экосистемы, потому что у банка ограниченная видимость внутрь их процессов.
ИИ здесь полезен в формате continuous monitoring:
- агрегировать телеметрию и внешние сигналы риска;
- строить динамический риск-скоринг поставщика;
- детектировать отклонения (например, изменение конфигурации, всплеск ошибок, нетипичные обращения к API).
Сильный ход — завязать риск-скоринг на технические политики: при росте риска автоматически ужесточаются лимиты, частота проверок, требования к MFA и доступам.
«Кибербезопасность у входной двери»: что нужно внедрить в 2026 план
Доверие создаётся на стыке технологии и коммуникации. Одна без другой не сработает.
1) Прозрачность как часть клиентского пути
По данным исследования, лишь 28% клиентов считают, что банк эффективно объясняет свои практики кибербезопасности. Исправляется это не пресс-релизами, а встроенными элементами опыта:
- короткие, понятные объяснения «почему мы запросили подтверждение»;
- уведомления о подозрительных действиях с кнопкой «это не я»;
- персональный «уровень киберриска» в приложении (динамический скоринг гигиены: устройства, пароли, утечки, фишинг-события);
- мини-обучение в момент риска (например, при переводе на нового получателя).
Прозрачность — это когда клиент видит логику защиты в момент операции, а не читает её в политике на 20 страниц.
2) Security-by-design для ИИ-сервисов и платежных сценариев
Если банк внедряет генеративный ИИ (чат-боты, помощники оператора, поиск по знаниям, автоматизация кейсов), безопасность должна жить во всём жизненном цикле:
- контроль данных (что можно «скармливать» модели и что нельзя);
- журналирование и трассировка ответов;
- тестирование на утечки (prompt injection, data exfiltration);
- управление доступами и секретами;
- безопасные интеграции с платежными системами.
И да, это нужно делать до запуска, иначе ИИ превращается в новый вектор атак.
3) Общая ответственность в цепочке: бизнес, ИТ, вендоры
У банков часто разная «карта мира» у безопасности и продуктовых команд. Решение — общие метрики и договорённости:
- SLA по устранению уязвимостей и инцидентов для поставщиков;
- единые требования к логированию и телеметрии;
- совместные учения (table-top) по фроду, утечкам, deepfake;
- единый каталог рисков и контролей по сервисам (а не по подразделениям).
Мини-план действий: с чего начать за 30–90 дней
Если цель — не «улучшить безопасность вообще», а поднять доверие и снизить мошенничество в платежах, я бы начал так:
- Картирование экосистемы платежей: кто участвует в транзакции, где данные проходят, где есть внешние зависимости.
- Внедрение адаптивной аутентификации: усиливать проверки только при высоком риске.
- Единый событийный контур: собрать в одно место ключевые сигналы (сессия, устройство, платежи, обращения, API-события).
- ИИ-скоринг для фрода + правила “human-in-the-loop” для спорных кейсов.
- Пилот “anti-deepfake” на 1–2 каналах (колл-центр и корпоративные платежи — самые окупаемые стартовые зоны).
- Пакет прозрачной коммуникации в приложении: объяснение причин проверок, быстрые действия клиента, короткие подсказки.
Эта последовательность даёт быстрый эффект и создаёт фундамент для более сложных сценариев: агентских платежей, умных лимитов, автоматической верификации получателей.
Что дальше: безопасность как двигатель доверия и роста
Банки, которые относятся к безопасности как к стратегии доверия, получают измеримый результат: за три года у них на 58% меньше утечек и в 1,5 раза выше удержание клиентов. Это выглядит почти «слишком хорошо», но логика простая: меньше инцидентов — меньше репутационных провалов — меньше оттока.
Для нашей серии про искусственный интеллект в банковской инфраструктуре вывод прямой: ИИ усиливает кибербезопасность только тогда, когда безопасность встроена в продукты, платежи и цепочку поставщиков. ИИ не «прикрывает» хаос — он его ускоряет.
Если вы планируете в 2026 году масштабировать ИИ в платежных системах и цифровом банкинге, начните с вопроса, который редко задают на старте: где именно клиент должен увидеть вашу безопасность — в момент транзакции или уже после инцидента?