AI Kewangan: Inovasi Tak Bermakna Tanpa Ketahanan

AI dalam Perkhidmatan Kewangan (Bank, Insurans, Fintek)••By 3L3C

AI kewangan yang hebat bukan sekadar pintar, tapi tahan lasak dan boleh dipercayai. Ketahui tiga tonggak ketahanan AI untuk bank, insurans dan fintech di Malaysia.

AI kewanganoperational resilienceperbankan digital Malaysiafintech Malaysiapengesanan penipuan AIrisk managementtransformasi digital
Share:

Malaysia kehilangan berjuta-juta ringgit setiap tahun akibat penipuan kewangan digital, walaupun bank sudah melabur besar dalam AI dan teknologi baharu. Masalahnya jarang datang daripada algoritma semata-mata – ia datang bila sistem gagal bertahan bila keadaan benar‑benar tegang.

Dalam siri AI in Financial Services (Banks, Insurance, Fintech), satu perkara semakin jelas: AI yang pintar tak cukup. Untuk bank, syarikat insurans dan fintech, ketahanan (resilience) dan keboleharapan (reliability) jauh lebih kritikal daripada ciri “AI paling canggih” di pitch deck. Pelanggan tak peduli model apa yang anda guna; mereka cuma peduli sama ada duit mereka selamat, transaksi mereka jalan, dan akaun mereka tak digodam.

Artikel ini mengupas kenapa ketahanan dan keboleharapan perlu jadi asas setiap projek AI dan transformasi digital kewangan, apa implikasi untuk bank dan fintech di Malaysia, dan langkah praktikal yang boleh anda ambil dalam 6–12 bulan akan datang.

Kenapa AI Kewangan Perlukan Lebih Daripada Inovasi

Dalam kewangan, inovasi tanpa ketahanan ialah risiko tersusun rapi. Sistem mungkin nampak hebat pada demo, tapi runtuh bila diuji oleh realiti: serangan siber, lonjakan trafik, atau konflik geopolitik.

Ada tiga sebab utama kenapa ketahanan dan keboleharapan jadi isu nombor satu bila bercakap tentang AI dalam bank dan fintech:

  1. Kepercayaan pelanggan ialah modal utama
    Sekali pelanggan hilang percaya – contohnya kerana transaksi tertangguh atau data bocor – sukar untuk pulih. AI yang tak stabil merosakkan reputasi lebih pantas daripada iklan boleh memulihkannya.

  2. Regulator semakin tegas
    Bank Negara Malaysia, SC, dan regulator lain memberi penekanan kepada operational resilience dan model risk management. AI yang tak telus, tak boleh diaudit, atau mudah gagal akan menjadi liabiliti pematuhan.

  3. Risiko operasi AI berlipat ganda
    Bila anda automasikan keputusan kritikal seperti skor kredit, pemantauan AML, atau pengesanan penipuan, sebarang kegagalan bukan sekadar “bug kecil” – ia boleh beri kesan kepada ribuan pelanggan dalam beberapa minit.

Dalam kewangan, AI bukan sekadar teknologi; ia sebahagian daripada infrastruktur kritikal negara.

Tiga Tonggak Keboleharapan AI Dalam Perkhidmatan Kewangan

Jawapan ringkas kepada soalan “apa yang buat AI boleh dipercayai untuk bank?” ialah: sistem mesti terus berfungsi, walaupun bila semua benda lain mula gagal. Secara praktikal, ini terbahagi kepada tiga tonggak.

1. Ketahanan Infrastruktur: Sistem Tak Mudah Tumbang

AI kewangan bergantung pada data, rangkaian dan integrasi masa nyata. Kalau mana‑mana komponen ini gagal, keseluruhan rantaian akan terganggu.

Elemen penting termasuk:

  • Seni bina berlebihan (redundant architecture) – pusat data berganda, backup rangkaian, dan storage yang direplikasi supaya sistem AI fraud detection atau skor kredit tetap hidup walaupun satu komponen jatuh.
  • Cloud dan hybrid yang direka untuk resilien – bukan sekadar pindah ke cloud, tapi reka multi-zone dan multi-region untuk kurangkan single point of failure.
  • Monitoring dan alert masa nyata – observability yang matang (log, trace, metric) supaya team ops nampak anomali sebelum pelanggan terkesan.

Contoh mudah: pada hari gaji, trafik transaksi boleh naik 3–5 kali ganda. Sistem AI anti‑fraud yang lemah mungkin menyebabkan false positive melonjak atau time-out, lalu memegang transaksi pelanggan yang sah. Sistem yang tahan akan skala automatik, kekal stabil, dan tetap membuat keputusan dengan kadar ralat yang terkawal.

2. Keboleharapan Model: Keputusan Konsisten & Boleh Dijelaskan

AI yang “pintar tetapi tak konsisten” sangat berbahaya dalam bank.

Model yang digunakan untuk:

  • skor kredit,
  • permintaan had kad kredit,
  • pengesanan transaksi mencurigakan, atau
  • harga dinamik insurans,

mesti menghasilkan keputusan yang konsisten, adil dan boleh dijelaskan.

Apa yang patut wujud:

  • MLOps yang matang – kitaran hidup model (training, deployment, monitoring) mesti diurus macam mengurus core banking, bukan macam projek eksperimen.
  • Monitoring bias dan drift – data pelanggan berubah; model yang dilatih pada 2022 mungkin tak lagi tepat pada 2025. Data drift dan concept drift mesti dipantau dan dibetulkan.
  • Explainability (XAI) – pegawai pematuhan perlu tahu kenapa satu permohonan pinjaman ditolak. Kalau jawapan model tak boleh dihuraikan, anda akan berdepan masalah dengan regulator dan pelanggan.

3. Tadbir Urus & Proses: “Human in the Loop” Yang Bijak

AI yang benar‑benar boleh dipercayai tak menggantikan manusia 100%. Ia mengautomasikan rutin, dan menonjolkan kes luar biasa untuk semakan manusia.

Ini sangat penting untuk senario seperti:

  • transaksi lintas sempadan bernilai besar,
  • tuntutan insurans yang kompleks,
  • keputusan kredit perniagaan PKS,
  • penutupan akaun kerana suspected mule account.

Struktur minimum yang patut ada:

  • Garis panduan jelas bila manusia mesti campur tangan – contohnya, semua transaksi yang ditandai AI melebihi jumlah tertentu perlu semakan manual dalam masa X minit.
  • Latihan staf frontline & risk – mereka perlu faham bagaimana AI menyokong kerja mereka, bukan melihatnya sebagai pesaing.
  • Audit trail lengkap – setiap keputusan AI perlu direkod: versi model, data utama, siapa semak, dan apa keputusan akhir.

Saya dapati organisasi yang berjaya dengan AI ialah yang menganggap AI sebagai co‑pilot, bukan autopilot.

Risiko Paling Besar: Penipuan Pintar & Ancaman Luaran

CEO Reiknistofa Bankanna menekankan satu perkara yang sangat relevan untuk Malaysia: risiko terbesar datang daripada luar, bukan dalam. Dalam konteks kita, itu bermaksud:

  • serangan siber berskala besar terhadap bank dan e‑wallet,
  • penipuan akaun mule, scam SMS dan call centre rentas negara,
  • bot AI yang digunakan penjenayah untuk memanipulasi pelanggan dan pusat khidmat.

AI Vs Penipuan Pintar: Pertarungan Dua Arah

Penjenayah kini menggunakan AI untuk:

  • meniru suara dan wajah (deepfake) bagi authorised push payment fraud,
  • jana mesej scam yang sangat meyakinkan dalam Bahasa Melayu dan dialek tempatan,
  • menguji batas sistem anti‑fraud dengan serangan kecil berulang.

Jika bank hanya bergantung pada peraturan statik (rule‑based), mereka akan sentiasa terlewat. AI mesti digunakan untuk mempertahan, bukan sekadar untuk pemasaran dan pengalaman pelanggan.

Strategi yang saya lihat berkesan:

  1. Defence in depth untuk fraud
    Gabungkan:

    • model transaksi masa nyata,
    • analitik tingkah laku peranti & lokasi,
    • reputasi akaun (contoh: mule account score),
    • semakan manual untuk kes berisiko tinggi.
  2. Kerjasama industri, bukan solo
    Dalam konteks Malaysia, bank, e‑wallet, telco dan fintech perlu berkongsi isyarat penipuan utama (tanpa melanggar PDPA) – contohnya pola nombor telefon, peranti dan akaun penerima.

  3. Simulasi krisis berkala
    Jalankan “war game fraud” dalaman:

    • apa jadi jika gelombang scam baru meletup esok?
    • sejauh mana sistem AI anda boleh menahan lonjakan alert?
    • adakah team anda tahu SOP bila KPI konflik (contoh: kelajuan transaksi vs keselamatan)?

Bank yang serius tentang ketahanan akan uji sistem mereka macam Bomba uji latihan kebakaran – kerap, realistik, dan tanpa kompromi.

Bagaimana Bank & Fintech Malaysia Boleh Mulakan (6–12 Bulan)

Ramai pemimpin teknologi sedar perkara ini, tetapi buntu dari mana hendak mula. Pendekatan paling praktikal ialah fokus kepada beberapa use case AI kritikal, kemudian bina ketahanan secara menyeluruh di sekelilingnya.

Langkah 1: Pilih 2–3 Use Case Kritikal

Contoh tipikal di Malaysia:

  • sistem AI pengesanan penipuan kad & e‑wallet,
  • skor kredit automatik untuk pinjaman peribadi / BNPL,
  • pemantauan AML/CFT,
  • chatbot khidmat pelanggan yang diintegrasi dengan data akaun.

Untuk setiap use case, tanya tiga soalan:

  1. Apa yang berlaku jika sistem ini gagal selama 1 jam? 24 jam?
  2. Apa impak kepada pelanggan, reputasi, dan regulator?
  3. Adakah kita bergantung pada satu titik kegagalan (model, vendor, infrastruktur)?

Langkah 2: Audit Ketahanan & Keboleharapan

Buat AI Resilience Review dalaman. Sekurang-kurangnya, semak:

  • Reka bentuk infrastruktur: ada backup yang benar‑benar diuji atau sekadar di atas kertas?
  • Proses MLOps: berapa cepat anda boleh rollback model bermasalah? Dalam minit atau hari?
  • Monitoring: adakah anda pantau kualiti data, bukan hanya uptime sistem?
  • Tadbir urus: siapa pemilik risiko untuk setiap model? IT? Risk? Business?

Banyak organisasi terkejut bila mereka sedar “AI kritikal” mereka sebenarnya bergantung pada satu pipeline ETL yang ditulis oleh dua orang jurutera sahaja.

Langkah 3: Reka Pelan Pemulihan Yang Realistik

Ketahanan bukan tentang elak masalah 100%. Ia tentang kemampuan pulih dengan cepat dan teratur.

Untuk setiap sistem AI kritikal, anda patut ada:

  • Rancangan fallback – apa yang berlaku jika model AI tidak tersedia? Adakah anda ada peraturan asas yang selamat, atau anda hentikan semua transaksi berisiko?
  • Rancangan komunikasi – template mesej kepada pelanggan, regulator, dan media jika berlaku insiden besar.
  • Latihan berkala – uji pelan ini sekurang-kurangnya 2 kali setahun.

Langkah 4: Kukuhkan Dimensi Manusia

Ramai orang fokus kepada model dan cloud, tapi manusia ialah lapisan pertahanan terakhir.

Beberapa langkah praktikal:

  • Latih pegawai cawangan dan contact centre untuk mengenali tanda-tanda pelanggan menjadi mangsa scam, dan beri kuasa untuk tahan transaksi.
  • Wujudkan saluran dalaman bagi staf melaporkan tingkah laku pelik sistem AI tanpa takut disalahkan.
  • Bentuk jawatankuasa tadbir urus AI merentas IT, Risiko, Pematuhan dan Bisnes – bukan silo.

Organisasi yang kuat biasanya mempunyai budaya di mana orang berasa selamat untuk berkata, “saya rasa model ini silap,” sebelum ia menjadi berita utama.

AI Kewangan Yang Dipercayai: Dari Slogan Ke Realiti

Dalam beberapa tahun kebelakangan ini, bank dan fintech di Malaysia sangat giat bercakap tentang AI – dari chatbot ke pinjaman segera. Fasa seterusnya, terutamanya menjelang 2026, ialah fasa “resilience revolution”: fokus kepada sistem yang tahan, boleh dijelaskan dan sesuai dengan standard regulator.

Untuk sesiapa yang terlibat dalam AI in Financial Services (Banks, Insurance, Fintech), keutamaan praktikal kelihatan seperti ini:

  • Pastikan use case AI paling kritikal anda mempunyai infrastruktur yang tahan gagal.
  • Urus model seperti mengurus sistem teras, bukan projek sampingan.
  • Bina kerjasama dalaman dan industri untuk melawan penipuan pintar.
  • Kekalkan manusia dalam gelung untuk kes berisiko tinggi.

AI yang bijak mudah dibina hari ini. AI yang boleh dipercayai, tahan lasak dan selaras dengan jangkaan pelanggan serta regulator – itu yang membezakan pemain serius daripada yang hanya mengejar hype.

Jika organisasi anda sedang merancang inisiatif AI baharu untuk 2026, soalan pertama yang patut ditanya bukan “model apa paling canggih?”, tetapi “bagaimana kita pastikan sistem ini kekal berfungsi dan boleh dipercayai walaupun dalam minggu paling teruk?”