AI Kewangan: Kenapa Daya Tahan Lebih Penting Dari Fitur

AI dalam Perkhidmatan Kewangan (Bank, Insurans, Fintek)••By 3L3C

AI kewangan yang hebat tapi kerap jatuh lebih berbahaya dari tiada AI. Daya tahan & kebolehpercayaan perlu jadi asas projek AI bank, insurans dan fintech.

AI kewangandaya tahan sistempengesanan fraudrisiko operasi bankperbankan digital Malaysiainsurans dan fintechpematuhan regulatori
Share:

Malaysia mencatatkan peningkatan insiden penipuan dalam talian melebihi 60% dalam beberapa tahun kebelakangan, sementara bank dan fintech pula melabur ratusan juta ringgit ke dalam AI untuk pengesanan fraud, skor kredit, dan pematuhan. Ramai berlumba tambah fitur AI baharu, tapi bila sistem tergendala pada 8 malam hujung bulan – masa orang bayar bil dan gaji masuk – semua inovasi itu tiba‑tiba tak bernilai.

Inilah dilema sebenar sektor kewangan: bukan sekadar berapa pintar AI anda, tetapi berapa boleh dipercayai dan berapa tahan lasak ia bila dunia jadi tidak menentu – daripada ketegangan geopolitik hingga serangan siber yang semakin sofistikated.

Artikel ini mengembangkan pandangan Ragnhildur GeirsdĂłttir, CEO Reiknistofa Bankanna (RB), tentang mengadaptasi teknologi baru dengan tumpuan pada daya tahan (resilience) dan kebolehpercayaan (reliability), dan meletakkannya dalam konteks Malaysia: bank, insurans dan fintech yang sedang mempercepat integrasi AI menjelang 2026.


Daya Tahan & Kebolehpercayaan: Asas AI dalam Kewangan

Dalam perkhidmatan kewangan, AI yang cemerlang tapi kerap jatuh lebih berbahaya daripada tiada AI langsung.

Sistem AI kewangan perlu memenuhi tiga syarat asas:

  1. Sentiasa tersedia (high availability) – transaksi dan keputusan risiko tak boleh berhenti hanya kerana model AI sedang dikemas kini.
  2. Tepat dan konsisten – keputusan skor kredit atau pengesanan fraud tidak berubah-ubah dengan cara rawak.
  3. Tahan gangguan – daripada lonjakan trafik masa jualan 12.12 hingga gangguan rangkaian atau serangan DDoS.

Dalam konteks Malaysia, AI digunakan secara meluas untuk:

  • Pengesanan penipuan kad dan e-pembayaran secara masa nyata
  • Skor kredit automatik untuk pinjaman mikro dan BNPL
  • Analitik kekayaan dan cadangan pelaburan peribadi
  • Pematuhan anti‑pengubahan wang haram (AML) dan transaction monitoring

Semua ini menyentuh wang dan kepercayaan rakyat. Sebab itu saya berpendapat:

"Dalam sektor kewangan, reputasi anda bergantung pada minit pertama sistem gagal, bukan pada kempen pemasaran yang paling kreatif."


Mengapa AI Perlu Direka untuk Senario Paling Buruk

Pandangan Ragnhildur di SBS Summit 2025 jelas: pembangunan teknologi baru, termasuk AI, mesti diasaskan pada keselamatan dan kelincahan sistem menghadapi situasi tak menentu, termasuk:

  • Konflik geopolitik yang menjejaskan rangkaian global
  • Gangguan pembekal cloud atau pusat data
  • Serangan siber bertujuan menganggu operasi bank dan gerbang pembayaran

Risiko bila mengejar inovasi tanpa asas kuat

Beberapa pola kegagalan yang saya nampak dalam projek AI kewangan:

  • Model fraud terlalu agresif menyebabkan transaksi sah pelanggan disekat – pelanggan marah, pusat panggilan sesak.
  • Integrasi AI tak dipisahkan (tightly coupled) dengan sistem teras; bila modul AI tergendala, keseluruhan sistem pembayaran ikut jatuh.
  • Tiada pelan fallback manual untuk kes kritikal; staf tidak terlatih untuk mengambil alih bila sistem automasi gagal.

Realitinya, bagi bank dan fintech Malaysia yang sedang berkembang pantas, risiko operasi ini sama besar – jika tidak lebih besar – daripada risiko model atau risiko pematuhan.


Mengimbangi AI dengan Sentuhan Manusia

Ragnhildur menekankan satu perkara yang sering dilupakan: AI dalam kewangan bukan bermaksud buang manusia daripada proses; sebaliknya reka aliran kerja yang jelas antara mesin dan manusia.

Di mana manusia masih wajib ada

Beberapa zon kritikal yang tak wajar 100% diserah kepada mesin:

  • Keputusan “borderline” dalam skor kredit – kes UMKM dengan aliran tunai tak menentu, atau peminjam muda tanpa sejarah kredit.
  • Isu penipuan bernilai tinggi – contohnya pindahan rentas sempadan bernilai besar yang ditandakan sebagai mencurigakan.
  • Keputusan pematuhan yang membawa kesan undang‑undang – seperti menutup akaun pelanggan atau freezing dana.

Model AI boleh menapis dan menyusun keutamaan kes, tapi manusia patut buat keputusan akhir untuk kategori berisiko tinggi. Ini bukan hanya soal empati – ia juga strategi resilience:

  • Bila AI gagal, manusia boleh ambil alih sementara.
  • Bila pelanggan tidak bersetuju dengan keputusan AI, ada pegawai yang boleh menerangkan justifikasi secara jelas.

Di Malaysia, di mana kepercayaan terhadap institusi kewangan banyak dipengaruhi interaksi manusia – sama ada di cawangan, pusat panggilan, atau relationship manager – menghapuskan sentuhan manusia adalah kesilapan taktikal.


Reka Bentuk AI yang Tahan Lasak: 5 Prinsip untuk Bank, Insurans & Fintech

AI yang berdaya tahan perlu direka dari awal, bukan ditampal pada hujung projek. Berikut lima prinsip praktikal yang boleh diguna pakai oleh pasukan teknologi dan risiko.

1. Pisahkan “otak AI” daripada “saluran transaksi”

Jangan letak model AI betul‑betul di tengah aliran transaksi tanpa pengasingan.

  • Guna lapisan perkhidmatan (service layer) yang membolehkan sistem utama beroperasi walaupun modul AI tergendala.
  • Reka mode degradasi – contohnya, bila sistem pengesanan fraud AI jatuh, sistem kembali gunakan set peraturan asas yang lebih konservatif, bukan terus henti transaksi.

2. Sentiasa ada pelan fallback dan kill switch

Setiap modul AI penting – terutamanya pengesanan fraud dan skor kredit – patut ada:

  • Butang kecemasan (kill switch) untuk mematikan model bermasalah tanpa ganggu keseluruhan platform.
  • Proses operasi manual atau separa automatik yang didokumen dan dilatih sekurang‑kurangnya sekali setahun.

Amali ringkas untuk organisasi di Malaysia:

  • Lakukan “fire drill AI” – uji senario: “Apa jadi kalau model fraud utama kita berhenti masa kempen jualan akhir tahun?”

3. Pantau model secara langsung, bukan hanya masa latihan

Model AI untuk risiko dan fraud mesti dipantau seperti sistem misi kritikal lain.

Contoh metrik yang patut berada dalam papan pemuka masa nyata:

  • Kadar false positive dan false negative mengikut produk dan saluran
  • Masa balas (latency) setiap panggilan model
  • Corak ralat mengikut masa, lokasi dan jenis transaksi

Apabila ada drift – contohnya, tiba‑tiba banyak transaksi sah ditolak di satu bandar tertentu – pasukan risiko perlu boleh masuk campur dengan cepat.

4. Gabungkan beberapa lapis pertahanan (defence in depth)

Ragnhildur juga menyentuh keperluan untuk kerjasama menentang risiko luaran seperti penipuan pintar. Dalam AI untuk fraud, satu model jarang mencukupi.

Pendekatan yang lebih tahan lasak:

  • Model berbilang lapis: model peraturan asas + model AI masa nyata + analitik luar talian.
  • Sumber data pelbagai: data transaksi dalaman, data peranti, tingkah laku log masuk dan maklumat pihak ketiga yang sah.
  • Kerjasama industri: berkongsi corak penipuan terkini secara selamat antara bank, pengeluar e‑dompet dan syarikat kad.

Di Malaysia, kerjasama seperti ini semakin penting apabila penipu menggunakan AI generatif untuk membuat laman palsu, suara palsu, dan deepfake video yang lebih meyakinkan.

5. Reka bentuk untuk pematuhan dari hari pertama

AI kewangan yang berdaya tahan mesti sekaligus patuh peraturan – bukan satu projek berasingan.

Elemen yang perlu wujud sejak fasa reka bentuk:

  • Penjelasan keputusan model (explainability) – log yang boleh huraikan mengapa transaksi disekat atau pinjaman ditolak.
  • Jejak audit penuh – siapa luluskan model, bila ia dikemas kini, data latihan yang digunakan.
  • Pengurusan data peribadi – sejajar dengan keperluan perlindungan data dan polisi dalaman bank.

Bila auditor, pengawal selia, atau pelanggan bertanya “Kenapa saya ditolak?”, pasukan anda tak perlu panik mencari jawapan.


Kes Kegagalan: Kos Terselindung Bila Infrastruktur AI Lemah

Banyak organisasi hanya mengira kos pembangunan model dan lesen perisian. Yang jarang diambil kira ialah kos terselindung apabila AI tidak stabil.

Beberapa contoh yang kerap berlaku:

  1. Lonjakan panggilan ke pusat khidmat pelanggan bila algoritma fraud terlalu ketat. Walaupun isu diselesaikan dalam beberapa jam, kesan kepada NPS dan media sosial boleh berlarutan berminggu.
  2. Pasukan teknologi terpaksa “war room” tengah malam setiap kali ada kempen besar, kerana bimbang sistem tak tahan trafik dan tekanan model.
  3. Projek AI dibekukan oleh lembaga pengarah kerana insiden pematuhan – contohnya model digunakan tanpa dokumentasi risiko yang jelas.

Jika dilihat secara total cost of ownership (TCO), pelaburan awal dalam daya tahan dan kebolehpercayaan sebenarnya lebih murah berbanding menanggung siri krisis berulang.


Langkah Praktikal untuk Organisasi Kewangan di Malaysia pada 2026

Bagi bank, syarikat insurans dan fintech yang sedang berada di pertengahan atau hujung fasa pelaksanaan AI, berikut kerangka mudah yang saya cadangkan untuk 6–12 bulan akan datang.

1. Audit kematangan daya tahan AI

Jawab secara jujur, untuk setiap sistem AI kritikal (fraud, skor kredit, pematuhan, chatbot):

  • Apa yang terjadi jika modul ini jatuh sejam? Sehari?
  • Adakah pelanggan ada saluran alternatif yang berfungsi?
  • Adakah pasukan operasi tahu SOP kecemasan?

Hasilkan satu laporan ringkas risiko operasi khusus AI dan bentangkan kepada pengurusan atasan, bukan hanya pasukan IT.

2. Selaraskan teknologi, risiko dan bisnes dalam satu pelan

Projek AI yang matang biasanya dipimpin oleh gabungan:

  • Ketua Risiko / Pematuhan
  • Ketua Teknologi / Data
  • Pemilik P&L (produk kad, pinjaman, insurans, dll.)

Pastikan pelan 2026 anda menjawab dua soalan utama:

  1. Bagaimana AI menyumbang kepada hasil (contohnya, pengurangan kerugian fraud, peningkatan kelulusan pinjaman berkualiti)?
  2. Bagaimana daya tahan dan kebolehpercayaan disukat (SLA, KPI, metrik risiko operasi)?

3. Pelaburan sasaran dalam infrastruktur AI

Bukan semua organisasi perlu bina platform AI mega. Tapi hampir semua akan perlukan beberapa perkara asas:

  • Persekitaran pengujian (sandbox) yang boleh meniru trafik sebenar.
  • Pemantauan model dan alerting masa nyata.
  • Pengurusan versi model dan rollback yang teratur.

Fokus pada komponen yang terus mengurangkan masa downtime dan masa tindak balas bila ada anomali.


Menuju 2026: AI yang Dipercayai adalah AI yang Tahan Lasak

Siri "AI in Financial Services (Banks, Insurance, Fintech)" sering menonjolkan bagaimana AI membuka ruang baharu untuk pertumbuhan – daripada robo-advisory hinggalah automasi pematuhan. Tapi satu benang merah merentasi semua topik: tanpa daya tahan dan kebolehpercayaan, strategi AI tidak akan bertahan lama.

Bagi pasaran Malaysia yang sedang bergerak pantas ke arah perbankan digital penuh, open banking dan pembayaran segera, pelanggan akan mula membezakan institusi bukan hanya berdasarkan aplikasi yang paling canggih, tetapi siapa yang paling konsisten, paling stabil, dan paling boleh dipercayai semasa krisis.

Jika anda sedang menerajui inisiatif AI di bank, syarikat insurans atau fintech, ini masa yang baik – sebelum tahun kewangan baharu – untuk menyoal semula satu perkara asas:

"Adakah kita membina AI untuk hari biasa, atau untuk hari paling buruk yang mungkin berlaku?"

Jawapan jujur terhadap soalan itu selalunya membezakan organisasi yang sekadar mencuba AI dengan organisasi yang benar‑benar mempercayai dan memanfaatkan AI secara selamat dalam jangka panjang.